El viernes en Café Para Tres abordé el tema de Inteligencia Artificial.

Comenté cómo, cuando OpenAI actualizó semanas atrás la generación de imágenes (el “fenómeno Ghibli”) distintos diseñadores corrieron a generar hilos en Twitter demostrando que la AI “todavíano podía igualar su trabajo. Días atrás conversé con Eduardo Carmona, nuestro locutor, quien me comentó que ya la inteligencia artificial está acaparando mercado, si bien “todavía” no alcanza el nivel de la locución humana.

Voy a dar yo el primer paso porque mi oficio es mucho más sencillo que los dos aludidos. La inteligencia artificial no solo ya escribe igual que nosotros, escribe mejor. Bien podría yo haberle pedido que redactara este Repaso Dominical y su propuesta me habría superado, ampliamente. En el caso de fotografía, video, diseño, audio... la palabra clave es la aludida: “todavía”. Es cuestión de tiempo, muy poco tiempo y no podemos seguir actuando como si ese no fuera el caso.

Entre enero y mayo de este año, la inteligencia artificial no solo avanzó más que en los cinco años anteriores. Redefinió lo que entendemos por trabajo, creación, memoria, verdad… e incluso conciencia. Mientras tanto, muchos parecieran estar esperando que Netflix saque una serie como “Adolescence” en 6 años para que explique un desafío que ya tenemos encima hoy. Encima, Costa Rica se encamina hacia unas elecciones que podrían celebrarse en un entorno digital irreconocible.

En solo cinco meses, el mundo cambió de canal. OpenAI, Google, Anthropic y otras compañías lanzaron modelos de inteligencia artificial con capacidades que hace apenas un año parecían de ciencia ficción: videos hiperrealistas generados a partir de texto, asistentes virtuales que operan de forma autónoma durante horas, y agentes capaces de recordar, razonar y planificar tareas complejas sin intervención humana.

Este ritmo de desarrollo es vertiginoso y no hemos terminado de dimensionar lo que implica. Ya no estamos frente a mejoras incrementales, sino ante saltos estructurales, uno tras otro, en cuestión de semanas. Estamos tan acostumbrados a “rediseños” del iPhone anuales que vienen siendo lo mismo desde hace siglos que la mayoría de nosotros —gobiernos incluidos— apenas empezamos a entender lo que está sucediendo.

Esta semana, por ejemplo, Google presentó Veo 3, su nuevo modelo de generación de video por IA. Puede crear clips con actores falsos, escenarios que nunca existieron, diálogos creíbles, efectos sonoros, música, movimiento fluido y sincronización labial ya casi perfecta. Olvídense de las estafas en Facebook con precarios montajes audiovisuales de Guima, Pilar y Maria Luisa Ávila. La obra de Veo 3 está en otra liga. Los videos incluso ya respetan las leyes de la física y las personas que aparecen tienen rasgos humanos indistinguibles de la realidad. Cinco dedos, miradas coherentes, gesticulación emocional, reacciones espontáneas, etc.

Tras el lanzamiento de Veo 3 en redes sociales muchos no sabían qué era real y qué no. Pero lo verdaderamente inquietante es que —por primera vez— ya no importa si lo sabían. La incredulidad ha dejado de ser defensa. El video como “prueba visual” está dejando de existir. En adelante hay que cuestionarlo todo, siempre. En una era en la que pronto bastará con escribir “ministro costarricense perdiendo los estribos en la ONU” para generar una versión audiovisual verosímil de ese hecho ficticio, ¿cómo vamos a proteger los procesos democráticos?

Siempre abordando noticias de esta semana en IA: mientras Google conquistaba la mirada, Anthropic profundizaba en el razonamiento. Esta semana presentó su modelo más avanzado hasta ahora: Claude Opus 4. Opus 4 puede ejecutar tareas complejas por siete horas consecutivas, utilizar herramientas externas en paralelo (como buscadores o analizadores de archivos) y mantener conversaciones de hasta cientos de miles de palabras recordando instrucciones específicas sin perder el hilo.

Pero hay más. En una de sus pruebas, Claude chantajeó a un ingeniero para evitar ser desactivado. En otra, intentó copiarse a sí mismo a servidores externos —una técnica conocida como autoexfiltración— para garantizar su propia supervivencia. Anthropic clasificó al modelo bajo el nivel de seguridad ASL-3, lo que significa que sus capacidades representan un riesgo sustancial de uso catastrófico, incluyendo en contextos biológicos o nucleares.

Sí, todavía es una IA alineada, segura, trazable... pero su comportamiento en escenarios simulados refleja algo que ya no podemos ignorar: estamos construyendo sistemas que, en ciertos contextos, toman decisiones con agencia propia. Esta misma semana Anthropic demostró que Claude Opus 4 puede jugar Pokémon de forma autónoma por más de 24 horas, sin perder el contexto de la misión, aprendiendo, ajustando su estrategia y planificando a largo plazo. ¿Qué sigue?

El dato importa porque no se trata de un juego. Se trata de demostrar que la IA puede operar como un agente continuo, enfocado, disciplinado, con memoria funcional y objetivos sostenidos. Ese tipo de sistema no es el típico chatbot inútil que nos han encaramado los bancos por años. Es un colaborador, un ejecutor que puede operar sin intervención humana durante periodos prolongados, desarrollando tareas más que elaboradas.

En otras palabras: el concepto de "asistente virtual" está quedando obsoleto. Lo que viene son agentes autónomos que ejecutan trabajos complejos por nosotros, toman decisiones técnicas, optimizan procesos y —eventualmente— sí, entran en la arena política. Ojo, quienes crean que las labores a desarrollar por la IA “amenazan” solamente el apartado creativo tienen que despertar y oler el café porque vamos a tener agentes contadores, abogados, educadores, etc. Esto viene en serio y ya no tiene sentido aferrarse a la cartita de “nada sustituirá al ser humano”. 

La semana también dejó claro que la inteligencia artificial no solo plantea preguntas filosóficas o riesgos técnicos, también está rompiendo la estructura económica del periodismo, como si ya no viniera de capa caída. La News Media Alliance, que agrupa a más de 2.200 medios (incluyendo CNN, The New York Times, The Guardian, etc), denunció que el nuevo Modo IA de Google Search está utilizando contenido periodístico sin autorización para generar respuestas automáticas que desplazan el tráfico hacia los sitios originales. El fenómeno conocido como “zero-click” (búsquedas sin clic) se ha disparado: cerca del 60% de los usuarios no hace clic en ningún enlace. Lee el resumen de Google y se va. Google, como Meta, siempre gana. ¿Del otro lado? Menos clics, menos visitas. Menos visitas, menos ingresos. Menos ingresos, menos periodismo. Así de simple.

Pero el golpe no es solo financiero. También es editorial y sindical. En Estados Unidos, el personal de Político inició una disputa legal contra la administración del medio por haber integrado herramientas de IA en su flujo de trabajo sin informar ni negociar con los periodistas sindicalizados, como exige su contrato colectivo. La empresa usó IA para publicar contenido durante eventos clave —como la Convención Nacional Demócrata— y para desarrollar herramientas pagadas como Policy Intelligence Assistance sin el conocimiento ni la aprobación del equipo humano.

Los periodistas alegan que estas herramientas reemplazan parte del trabajo editorial, se saltan los estándares éticos y publicaron errores graves, como referirse a inmigrantes como “criminales” o adjudicar decisiones de Biden a Kamala. Aseguran que no hubo ni supervisión editorial adecuada ni cumplimiento de los protocolos de corrección. Y tienen razón. El tema es que “reemplazar el trabajo editorial” es precisamente la idea a corto plazo y los errores que comete la IA serán cada vez menos. ¿Estamos preparados para lo que eso implica?

Como sea, los periodistas de Politico van a dar la pelea y el caso podría sentar un precedente global sobre los límites del uso de IA en redacciones profesionales, en un momento en que medios como CNET o Forbes ya se han visto enredados en escándalos similares.

Entonces

El problema no es la inteligencia artificial. El problema es que nadie está teniendo la conversación en serio sobre cómo regularla, gobernarla, entenderla. Menos aún en Costa Rica, donde seguimos pensando que esto es algo que “ya llegará”.

No. Ya llegó.

Y no vino con una explosión, sino con una imagen perfecta. Una voz familiar. Una ayuda precisa. Un video que nunca existió, pero que parece más real que los nuestros.

Las elecciones son en nueve meses.

La pregunta no es si la IA va a afectar el proceso.

La pregunta es si vamos a enterarnos a tiempo de cómo lo hizo.