Desde hace varias semanas, ChatGPT, una tecnología disruptiva de OpenAI (organización fundada originalmente sin fines de lucro), enciende la imaginación y hace saltar las alarmas. Nadie tiene la menor duda de que estamos viviendo una nueva revolución digital, cuyo rápido desarrollo dificulta mantener la distancia suficiente para una visión de conjunto debidamente equilibrada.

Cada minuto que pasa, el mundo cibernético se transfigura, en un torrente sobre el que navegan aspectos fundamentales de nuestra vida individual y colectiva. Enseñar, aprender e investigar plantean nuevos desafíos y exigirán nuevas habilidades. Cada mes entran en escena nuevas aplicaciones de inteligencia artificial (IA) que rivalizan con ChatGPT, como LLaMA (Meta) y Bard (Google). Dada la confusión terminológica producida, es importante aclarar que se tiende a llamar IA a lo que en realidad son aplicaciones de IA.

Como ha ocurrido con otras transformaciones tecnológicas radicales, no hay marcha atrás; solo queda comprender lo que está ocurriendo para poder adaptarse estratégicamente al cambio y utilizar su máximo potencial a nuestro favor. Afortunadamente, la inversión en educación superior que ha realizado este país nos brinda las herramientas intelectuales necesarias.

Como especialistas en Ciencias de la Computación y en Lingüística, las últimas semanas nos dimos a la tarea de comprobar los límites y alcances de esta tecnología basada en sistemas preentrenados para generación de lenguaje natural. Consideramos necesario abordar el impacto generalizado que tendrán estas aplicaciones de IA. Nos referimos específicamente a ChatGPT que hizo una sonada irrupción en su debut mundial hace pocas semanas. El acrónimo GPT, del inglés Generative Pre-trained Transformer (en español: transformador generativo preentrenado), debe su nombre a la tecnología de redes neuronales conocida como Transformer, diseñada por Google en el año 2017 para la generación de lenguaje (natural o artificial). Los chatbots son una forma de generadores de lenguaje natural, pero hasta ahora no habían logrado el nivel de sofisticación y precisión de ChatGPT. La generación de lenguaje natural no debe confundirse con la AI genérica, que se refiere a la capacidad de una máquina o sistema de IA para resolver una amplia variedad de tareas (sin estar específicamente diseñada para cada una de ellas de antemano).

Desde hace varios años, en nuestros proyectos de investigación inscritos en la Escuela de Ciencias de la Computación y la Informática (ECCI), en el Centro de Investigaciones en Tecnologías de la Información y Comunicación (CITIC) y en el Instituto de Investigaciones Lingüísticas (INIL) de la Universidad de Costa Rica, trabajamos con transformadores y modelos del lenguaje aplicados al procesamiento de datos en español, métodos similares a los que ha empleado OpenAI. La diferencia está en la escala. No disponemos de la cantidad de recursos (humanos, financieros y de cálculo) requeridos para una aplicación como ChatGPT; de hecho, en este momento, ninguna universidad puede hacerlo. Las actuales iniciativas a la vanguardia son todas privadas, seguidas, muy de lejos por Stanford. Pero esto no significa ni que debamos cruzarnos de brazos ni que sea imposible aprovechar esta tecnología en su estado actual. Por ejemplo, OpenAI ha puesto a disposición del público sus motores de IA, gratuitamente o con contraparte financiera, sin exigir participación en las ganancias por la comercialización de aplicaciones derivadas.

ChatGPT es un modelo de lenguaje avanzado que utiliza tecnología de procesamiento del lenguaje natural (PLN) para responder preguntas de usuarios de manera coherente, comprensible, rápida y amigable. ChatGPT ha sido entrenado con más de 45 terabytes de datos (denominado corpus), convirtiéndolo en uno de los modelos de lenguaje más grandes y desarrollados del mundo. Como consecuencia, el sistema cuenta con una amplia capacidad para identificar el contexto y mantener conversaciones correctas (la mayor parte de las veces). Para su desarrollo, OpenAI empleó un modelo de PLN, basado en aprendizaje automático, a partir de una arquitectura de redes neuronales conocidas como transformadores que, además, recurrió al aprendizaje por refuerzo con intervención humana (en inglés human-in-the-loop reinforcement learning o HRL).

El HRL de ChatGPT es una técnica de aprendizaje mediante la interacción con usuarios reales a través de una interfaz de chat en línea. El modelo aprende de las respuestas de los usuarios y se ajusta según la retroalimentación que recibe al evaluar la calidad de sus respuestas agregando criterios humanos para filtrar o incluir información. A medida que ChatGPT interactúa con más usuarios, se vuelve más preciso y efectivo. Este proceso a gran escala es lo que hace de ChatGPT uno de los modelos de lenguaje más avanzados y efectivos en la actualidad.

El primer cambio importante que produce esta tecnología reside en la amplia gama de tareas que puede resolver en forma convincente: generación de lenguaje natural, clasificación de textos, traducción automática, resumen automático de textos, corrección gramatical, búsqueda de información, conversación.

ChatGPT puede generar texto en función de un tema o de una intención específica (un artículo, una historia, un poema, un resumen o una respuesta a una pregunta). Las capacidades de generación de texto se extienden a varios lenguajes de programación (Java, Javascript, Python, PHP, etc.), además de formatos populares en la web (HTML, JSON, YAML y Markdown, etc.). ChatGPT puede clasificar textos según su contenido, tema, intención o emoción (comentarios, correos electrónicos, mensajes de texto o noticias). Las capacidades de traducción automática son más que notables: puede traducir texto de un idioma a otro. Análogamente, también puede transformar un programa escrito en un lenguaje de programación a otro y puede explicarlo en lenguaje natural paso a paso.

ChatGPT puede dar una idea del contenido de un texto resumiéndolo en unas pocas oraciones. Además, puede adaptarlo, con más o menos fortuna, a un estilo particular para reflejar diferencias propias de una persona, rango de edad, estilo de escritura, etc. ChatGPT puede identificar y corregir errores en textos escritos en una lengua natural (ortografía, gramática y puntuación) o en programas de computación. Aunque la calidad que ofrece varía entre idiomas y aún le falta adquirir una consistencia uniforme, sus habilidades son más que remarcables. Es importante señalar que, siguiendo criterios de seguridad, OpenAI ha establecido límites para ChatGPT: no es posible pedirle que escriba un texto según el estilo de Donald Trump o que produzca código de virus informáticos.

OpenAI también revoluciona el campo de la inteligencia artificial al permitir a los usuarios personalizar motores de IA avanzados para sus proyectos, como ya ha sido el caso, para la redacción automática (de tuits y artículos periodísticos) o el aumento de la capacidad de cálculo matemático de ChatGPT gracias a un plugin con WolframAlpha para procesar datos complejos. Las pruebas a las que sometimos el sistema incluyeron la producción de una función matemática, la creación de programas de computación, el formateo de información específica, la redacción de textos en distintos contextos y estilos, la producción de documentos con formatos especializados, la resolución de problemas matemáticos con derivadas y el diálogo en diferentes lenguas (inglés, español, francés y esperanto). En estas pruebas, ChatGPT realizó tareas que se consideraban exclusivas de la inteligencia humana, como la redacción de un poema y una historia para niños (de deplorable calidad), la creación de una presentación, la identificación de respuestas correctas en un test, la solución de preguntas con analogías y creación de un programa en Python (luego transformado en Prolog y PHP).

En nuestras interacciones, ChatGPT se equivocó en varias ocasiones al brindar información errónea o enviando datos incoherentes a la pantalla (como extractos del corpus). La generación de información falsa es técnicamente llamada alucinación y ocurre cuando llena vacíos sin información suficiente. He aquí un ejemplo que cualquier costarricense capta inmediatamente:

Pregunta (27/2/2023): - ¿Qué es “agarrar de mae”?

ChatGPT: - Agarrar de mae es una expresión coloquial que se utiliza en Costa Rica para referirse a la acción de hacerse amigo de alguien, entablar una amistad o establecer una relación cercana. La palabra "mae" es una forma coloquial de referirse a un amigo o compañero en Costa Rica y otros países de América Central. Por lo tanto, "agarrar de mae" se refiere a tomar a alguien como amigo o establecer una relación amistosa.

Definitivamente ChatGPT fue “agarrado de maje”. El modelo identificó un significado para la palabra “mae” y la generaliza con la información de la que dispone. En su afán por completar respuestas, hace una mala generalización. Como sabemos, en el español de Costa Rica, por un lado, la locución “agarrar de maje” equivale a “verle la cara de tonto” o “engañar a alguien”; pero, por otro lado, “mae” (variante de “maje” en algunos contextos) tiene connotaciones que lo relacionan con el lexema “amigo”: - Mae, ¿cómo estás? En muchos dominios, solo una persona experta puede detectar problemas de generalización; el cúmulo de errores por información generalizada en forma incorrecta puede perpetuar sesgos.

La calidad de los diálogos, de la solución de problemas y de la adecuación de las respuestas depende de un correcto planteamiento de las preguntas y de la descripción de tareas; en cualquier caso, un buen conocimiento de los temas es imprescindible. Por otra parte, al integrar lenguajes de programación y generación de código, ChatGPT puede explicar el programa producido y responder preguntas al respecto, puesto que cuenta con la capacidad de realizar algunas funciones generadas y usar ese código para resolver problemas computacionales. Existen modelos especializados como el sistema CODEX para generar programas de computadora a partir de lenguaje natural.

Los posibles riesgos asociados al uso de aplicaciones de IA como ChatGPT han sido señalados en innumerables ocasiones: posibles sesgos en los datos (conducentes a decisiones injustas o discriminatorias), influencia masiva como herramienta de desinformación o propaganda, pérdida de empleos, falta de transparencia (consecuencias indeseables por falta de supervisión humana y ausencia de personas que asuman responsabilidades), efectos no intencionales potencialmente perjudiciales (difíciles de pronosticar), dependencia excesiva de la tecnología, vulnerabilidades en caso de hackeos y otras amenazas cibernéticas. Sin un adecuado manejo del riesgo, estamos en peligro de sufrir consecuencias potencialmente graves.

Esta tecnología también trae grandes oportunidades si se aprovecha estratégicamente. Una amplia variedad de tareas y procesos podrán ser automatizados con un considerable aumento de la eficiencia y la productividad (en empresas, instituciones, organizaciones y servicios públicos). El análisis de datos está dando un salto, porque, además de procesar mayores cantidades de información, los resultados permiten revelar más fácilmente patrones y tendencias ocultos en los datos en un menor tiempo de procesamiento. Por consiguiente, la IA facilitará tanto la personalización de servicios, como la accesibilidad para personas con discapacidades (a través de herramientas y tecnologías adaptativas). La IA puede realizar tareas con una enorme precisión y consistencia, con lo que podemos esperar una reducción en los errores de procesamiento de datos y una mejor calidad en los resultados. Estas capacidades también permitirán que la IA proporcione información invaluable para la toma de decisiones. Las comunidades podrán ver su seguridad mejorada, porque es posible identificar comportamientos sospechosos. Esto es extensible a la prevención de fraudes con el monitoreo de anomalías en los datos; bien utilizada, la seguridad en el reconocimiento de amenazas mejoraría en tiempo real. No podemos dejar de mencionar los avances en la medicina gracias al uso de IA en el análisis de grandes conjuntos de datos médicos que podrían conducir a nuevos tratamientos, ni tampoco la automatización de trabajos peligrosos, incluso potencialmente mortales.

Algunos de los principios en los que actualmente se fundamenta la construcción de una estrategia de IA en Costa Rica, tema en el que se viene trabajando desde hace varios años, incluyen aspectos como la ética, la universalidad y el respeto a la dignidad humana. Con la aparición de los GPT en escena, el momento de definir y aplicar tales estrategias es ahora. Ya es el momento de tomar decisiones relacionadas con las transformaciones en educación y en las organizaciones para aprovechar el cambio. Debemos invertir universalmente en especialización tecnológica para no perpetuar las inequidades.

No es de extrañar que el surgimiento de esta tecnología haya sembrado nuevas incertidumbres éticas, en particular con la rendición de cuentas, la responsabilidad y el impacto en la sociedad, además de otros aspectos, como las noticias relacionadas con la compensación financiera para las personas contratadas en la cadena de producción de HRL y la comunidad artística. Aunque en este artículo nos concentramos en ChatGPT, es pertinente mencionar que dentro de las varias aplicaciones de OpenAI se encuentra DALL-E que permite generar imágenes, muchas con gran detalle y realismo. DALL-E en este momento se encuentra en medio de una polémica por creación de imágenes derivadas sin compensación por derechos de autor.

La responsabilidad ética de elegir y filtrar los datos para alimentar los sistemas de IA es significativa. La calidad y cantidad de los datos utilizados para entrenamiento sin duda tienen un enorme impacto en el rendimiento y en los resultados. La representatividad y la imparcialidad de los datos de entrenamiento constituyen una de las principales preocupaciones éticas. Los datos deben tomar en cuenta la diversidad de la sociedad sin exclusiones. Si el corpus de entrenamiento está sesgado, las respuestas del modelo de IA estarán sesgadas, con el riesgo de perpetuar la discriminación y la desigualdad. De manera similar, la fiabilidad y la precisión de los datos es particularmente importante, sobre todo si una aplicación de IA se desempeña en el área de la salud o la justicia. El respeto a la dignidad humana y la responsabilidad en la protección de datos deben ser considerados para un corpus balanceado; la transparencia en su utilización y el control que cada persona pueda ejercer sobre ellos son temas primordiales. Los aspectos relativos a la soberanía de los datos, en especial en lo que respecta a comunidades vulnerables, es un tema que aún debe ser discutido en profundidad.

La colaboración entre especialistas en Humanidades, Ciencias de la Computación y Matemáticas es fundamental para crear IA beneficiosas para la sociedad, desarrolladas de manera ética y responsable. La responsabilidad ética de elegir y filtrar los corpus que alimentan una IA es significativa. Es esencial garantizar que los datos sean representativos, imparciales, precisos y confiables; la protección de la privacidad debe ser garantizada.

Tenemos la oportunidad de aprovechar el momento y la posición del país en cuanto a este desarrollo tecnológico para potenciar nuestra productividad y su calidad. Contamos con especialistas de alto nivel en recuperación de información, modelos de lenguaje, aprendizaje automático, lingüística, estadística, matemática, etc. Debemos posicionarnos y explotar al máximo la confluencia de estas tecnologías. Tenemos que aprovechar la oportunidad que se nos presenta para consolidarnos como referentes en la región.

No caigamos en el error de satanizar esta tecnología, como ha ocurrido con grandes inventos tales como la computadora, el internet o la comunicación inalámbrica. A menudo, el primer impulso en sectores mal informados es el rechazo y el bloqueo de avances con el argumento de alguna perversidad o efecto nocivo infundado. Abundan las noticias sobre centros de enseñanza que han bloqueado el uso de ChatGPT como reacción inmediata por considerarlo peligroso, al no comprender cuál será el impacto que pueda causar, pero ya no es posible bloquear esta tecnología, no hay muros que puedan detenerla.

La irrupción de la tecnología GPT está cambiando la educación. Se ha producido un cambio abrupto en la docencia. Debemos reconsiderar los métodos de evaluación, porque aspectos como qué evaluamos y cuáles habilidades son importantes sufren modificaciones que apenas empezamos a comprender. La entrega de informes o resúmenes como parte del proceso de evaluación ya no cumple ningún propósito didáctico claro. Las aplicaciones de IA son como bibliotecarios que buscan la información, la resumen y la entregan en cualquier formato. Al día de hoy nos encontramos en un después en cuanto a la forma de acceder a la información.

Aunque los métodos tradicionales, como el trabajo en grupos y los exámenes en papel, están de vuelta, también debemos considerar alternativas, como la integración de la tecnología en la enseñanza para que el alumnado produzca soluciones más complejas, cuyos resultados podrán ser objeto de discusión. A pesar de que la tendencia al mínimo esfuerzo y la degradación del conocimiento siguen siendo enemigos de la Educación, la tecnología GPT también está proporcionando un nuevo aliado de los padres para la formación de los hijos, por ejemplo, en la resolución de problemas escolares. Con la supervisión de los padres, ChatGPT puede ser un apoyo en la enseñanza para ayudar a los niños a comprender los procedimientos y brindar información para el análisis posterior en clase.

A pesar de lo admirable de las capacidades de los GPT, la inteligencia humana sigue estando a otro nivel, ya que cuenta con procesos cognitivos relacionados con la percepción de la realidad y el razonamiento, el aprendizaje, la toma de decisiones y la comprensión del lenguaje natural. A menudo, la habilidad para hablar y pensar se confunde, pero está demostrado que no dependen necesariamente una de la otra. Aunque un sistema de PLN parezca que está pensando, en realidad no lo hace. El conocimiento experto de los seres humanos es más necesario que nunca.

En este desafío el conjunto del saber humano está llamado a participar. Las Humanidades pueden aportar una perspectiva crítica y reflexiva sobre los aspectos éticos, sociales y culturales de las IA; por ejemplo, desde la filosofía, la lingüística, la historia, la sociología y la antropología se pueden definir los valores éticos y morales que deben guiar el diseño y uso de las IA, mejorar el PLN, contextualizar y comprender mejor cómo la tecnología puede afectar a diferentes sectores y grupos de la sociedad y garantizar que las IA sean aplicadas con consideración de las diferencias culturales y los valores de cada comunidad. La colaboración interdisciplinaria y la responsabilidad ética son fundamentales para desarrollar aplicaciones de IA beneficiosas para la sociedad y que sean utilizadas de manera responsable.

La posición que tomemos ante las transformaciones a nuestro alrededor determina el modo en que afrontaremos nuestro futuro inmediato como individuos y como sociedad. El hito alcanzado con las nuevas tecnologías de PLN basadas en IA es irreversible. La forma de aprender, estudiar, producir, procesar y consumir información ha cambiado abruptamente. Es hora de actuar para orientar correctamente nuestro rumbo; el primer paso es comprender por qué y cómo se modificaron las reglas del juego en el mundo de la información.

Este artículo representa el criterio de quien lo firma. Los artículos de opinión publicados no reflejan necesariamente la posición editorial de este medio. Delfino.CR es un medio independiente, abierto a la opinión de sus lectores. Si desea publicar en Teclado Abierto, consulte nuestra guía para averiguar cómo hacerlo.