Con el crecimiento en popularidad de los LLMs (Large Language Models) como ChatGPT, Perplexity y Gemini, han salido voces montándose en su ola de popularidad para asustarnos y advertirnos sobre un supuesto futuro à la Terminator, The Matrix, Westworld y otras ficciones derivado de esta tecnología y similares.

La tecnología detrás de ChatGPT fue publicada en el 2017 por parte de científicos de Google, es decir, la tecnología como tal no es realmente algo nuevo. Pero OpenAI la popularizó al llevar casi gratis a millones de personas a una escala no antes vista.

Algunas de las voces detrás del alarmismo son expertas en áreas relacionadas al tema, otras no tanto. Algunas voces se enfocan en cómo la inteligencia artificial puede salirse del control de nuestras manos y conquistarnos o eliminarnos, otras voces se enfocan más en cómo la inteligencia artificial, en manos “equivocadas”, podrían ser utilizadas contra las personas, sea como armas autónomas o como herramientas de control para regímenes autoritarios.

Pero, ¿estamos cerca de tener una inteligencia artificial capaz de hacer tales cosas?

Quien ha utilizado ChatGPT u otros sistemas similares podría pensar que ya tenemos un sistema capaz de razonar con inteligencia “general”. El mismo OpenAI la ha comparado con una inteligencia “a nivel de un colegial”. Sin embargo, las LLMs no están ni cerca de razonar de maneras significativas.

Las LLMs, similares a otros sistemas inteligentes modernos son lo que se llaman sistemas especializados. Otros ejemplos de este tipo de sistemas inteligentes son los sistemas de recomendación de Amazon o Netflix, los sistemas de navegación por GPS tipo Google Maps, Waze y Apple Maps, y los traductores como Google o Bing Translate.

“Especializado” significa que fueron creados para hacer una cosa específica pero sin la capacidad para extrapolar su alcance a otras áreas distintas. Especialmente hacia áreas tan desconocidas como la conciencia, la intención, el razonamiento general o inclusive la autonomía. Los cuales son argumentalmente necesarios para poder conquistar la raza humana (o quizás no, consideremos mecanismos como el de los virus).

La especialización de ChatGPT es la de crear una ilusión de conocimiento, de manera específica y no general. Esto es similar a la ilusión de razonamiento de Waze al darnos la mejor ruta para llegar a la casa después del trabajo.

Estos sistemas especializados tienen un límite claramente delineado. Escalarlos no nos llevaría a una inteligencia general, la cual eventualmente sí podría representar un riesgo.

Para comprender mejor cómo funcionan las LLMs, debemos entender para qué se crean. Su principal objetivo es el de memorizar y encontrar patrones en los textos. Similar a un buscador como Google, pero con una técnica distinta. ¿Tuvo usted alguna vez un compañero que sacaba buenas notas memorizando pero nunca entendía lo que estudiaba? Bueno, eso es ChatGPT.

Estos diversos patrones encontrados entre millones de millones de textos se agrupan en “programas”, tipo plantillas de respuesta, que son cargados una vez que usted le manda un mensaje a ChatGPT. Este los utiliza para contestar su pregunta, sacar buenas notas en exámenes estandarizados de medicina o leyes, e inclusive, para seguir una instrucción como “haga una canción sobre un conejo científico tailandés” y recibir algo que podemos considerar “coherente”. Pero estos sistemas fallan estrepitosamente cuando se les pide hacer algo que no hayan aprendido antes, es decir, ser realmente creativos.

Estas herramientas son útiles, pero no son un camino hacia la inteligencia artificial general. Puede que mañana aparezca una nueva tecnología que sí lo sea, pero a hoy no tenemos conocimiento de alguna.

Como cualquier otra tecnología, la misma puede ser utilizada para “el mal”, y efectivamente hemos visto casos de creación de perfiles falsos para esparcir desinformación o inclusive, crear “deep-fakes” de familiares con el fin de estafar personas. El peligro es real, pero debemos tener claridad de dónde viene ese peligro y no desviar nuestra atención por el alarmismo infundado hacia un problema imaginario.

Así como el cambio de las sociedades de cazadores-recolectores hacia la vida de agricultores sedentarios requirió nuevas herramientas para sembrar, cosechar y almacenar los productos, hoy en día la necesidad de procesar una cantidad de información sin precedentes lleva a la inventiva humana a crear herramientas para ordenar y accesibilizar la información de una manera que nos sea útil para las necesidades modernas.

Este artículo representa el criterio de quien lo firma. Los artículos de opinión publicados no reflejan necesariamente la posición editorial de este medio. Delfino.CR es un medio independiente, abierto a la opinión de sus lectores. Si desea publicar en Teclado Abierto, consulte nuestra guía para averiguar cómo hacerlo.