Imagen principal del artículo: La primera ola de agentes de IA: Un choque de realidad para la sociedad

La primera ola de agentes de IA: Un choque de realidad para la sociedad

En colaboración con:
Colaboración con agencia

Imagina contratar a un asistente que trabaja las 24 horas, nunca se cansa, puede leer mil documentos en segundos, navegar internet, responder correos, ejecutar órdenes en sistemas financieros y tomar decisiones, todo sin pedirte permiso cada vez. Eso, a grandes rasgos, es un agente de inteligencia artificial. Y eso ya existe, ya lo están usando empresas, ya lo están probando gobiernos, y ya lo estás encontrando, aunque no sepas que se llama así, en apps de atención al cliente, plataformas financieras y herramientas de productividad.

Estamos viviendo la primera gran ola de experimentos con agentes autónomos. Es una etapa apasionante. También es una etapa donde los errores cuestan caro y donde aprender rápido no es opcional.

¿Qué está pasando en el mundo real?

En los últimos meses se publicaron varios estudios serios que analizan, con datos concretos, cómo está funcionando (y fallando) esta primera generación de agentes en producción. Los resultados son una mezcla de promesas cumplidas y alertas encendidas.

Lo que funciona y entusiasma:

Los agentes de IA pueden automatizar flujos completos de trabajo, responder preguntas complejas combinando múltiples fuentes, operar sin pausa en tareas repetitivas y permitir que personas y equipos pequeños hagan cosas que antes requerían muchos recursos. Para muchas empresas, especialmente en sectores con alta carga operativa, el valor es real y medible.

Lo que preocupa, y mucho:

Un estudio de 2026 que analizó 30 sistemas de agentes ya desplegados (AI Agent Index) encontró que la gran mayoría no publica información clara sobre sus controles de seguridad, sus límites operativos ni cómo auditar sus decisiones. En palabras simples: muchos de estos "asistentes autónomos" operan como cajas negras. Nadie sabe exactamente qué hacen ni por qué.

Otro estudio del mismo año (Your Agent Is Mine) demostró algo más inquietante: cuando un agente usa servicios externos, como cuando consulta un modelo de IA a través de internet, un atacante posicionado en medio de esa comunicación puede alterar la respuesta, inyectar instrucciones maliciosas o robar información confidencial, sin que el usuario ni la empresa se den cuenta. No es ciencia ficción. Es un ataque documentado, reproducible, que ya existe en la práctica.

La organización OWASP, referente mundial en ciberseguridad, publicó su lista 2025 de los diez riesgos más críticos en aplicaciones con IA, y uno de los más destacados es lo que llaman "exceso de agencia": agentes que tienen más permisos, más herramientas y más capacidad de acción de los que necesitan, sin controles que los limiten. Un agente que puede borrar archivos, enviar correos, hacer transferencias y ejecutar código, pero sin reglas claras ni trazas verificables, no es un asistente. Es un riesgo esperando materializarse.

El panorama académico de seguridad en IA agentic (Agentic AI Security, IEEE 2025) es igual de directo: falta infraestructura básica para rastrear, auditar y verificar por qué un agente tomó una decisión. Eso significa que cuando algo sale mal, a menudo no se puede saber qué pasó, quién es responsable ni cómo evitar que vuelva a ocurrir.

Mi opinión: el problema de fondo no es solo un error de código

Podríamos pensar que estos problemas se resuelven con mejores programadores o con más cuidado en el desarrollo. Pero mi lectura es más profunda: la primera ola de agentes está marcada por dos limitaciones estructurales que van más allá del "bug" puntual.

La primera es matemática. Los modelos de lenguaje que impulsan la mayoría de los agentes son extraordinarios para reconocer patrones en texto. Pero fueron diseñados con herramientas estadísticas, no con herramientas de verificación formal. Eso significa que no pueden garantizar que sus respuestas son correctas, que sus acciones respetan reglas precisas, ni que su comportamiento es predecible bajo condiciones adversas. Para un chatbot que recomienda recetas, eso es tolerable. Para un agente que administra fondos, ejecuta contratos o toma decisiones sobre personas, ese límite es un problema serio.

La segunda es cultural. El entusiasmo por lanzar rápido (el famoso "move fast") ha llevado a desplegar agentes con capacidades reales, en entornos reales, sin los mínimos de ciberseguridad que cualquier sistema crítico debería tener. No hay trazas verificables. No hay límites de privilegio. No hay mecanismos para detectar manipulación externa. No hay protocolos claros de respuesta ante incidentes. Se confía en que el proveedor del modelo es confiable, en que la red es segura y en que los usuarios van a usar el sistema como fue pensado. Esas tres suposiciones, según los estudios mencionados, están siendo violadas en la práctica.

A esto se suman otros problemas que la literatura documenta: filtración involuntaria de datos sensibles, vulnerabilidad a instrucciones maliciosas escondidas en documentos o páginas web que el agente consulta, y la ausencia casi total de estándares para evaluar la seguridad de un agente antes de desplegarlo.

No digo esto para frenar la innovación. Lo digo porque la segunda ola tiene que ser más inteligente que la primera. Y para eso necesitamos conversación técnica, en espacios abiertos, con personas que están trabajando en estos problemas desde adentro.

Es aquí donde Web3 y Blockchain se convierten en la pieza arquitectónica que falta. Si el problema de los agentes de IA es su naturaleza estadística y falta de límites, la solución es anclarlos a entornos determinísticos. Necesitamos contratos inteligentes que actúen como "guardarraíles" matemáticos inquebrantables.

La infraestructura descentralizada aporta exactamente lo que esta primera ola ignoró: registros inmutables para auditar decisiones, custodia segura de recursos sin depender del agente, y criptografía avanzada para operar con total privacidad.

Conversemos en TicoBlockchain 2026 este 14 de mayo

Si este tema te inquieta, te entusiasma, o simplemente sientes que deberías entenderlo mejor antes de que te afecte directamente, te invito al TicoBlockchain 2026 Blockchain & Fintech Day el próximo 14 de mayo en el Hotel Barceló San José.

Ahí vas a encontrar empresas, desarrolladores, investigadores y profesionales que no están especulando sobre el futuro, sino construyendo (y, a veces, reparando) el presente. Habrá charlas y mesas redondas donde estos temas se van a discutir con honestidad: sin hype, sin simplificaciones, con casos reales y preguntas difíciles.

Seré moderador de una de esas mesas, y mi intención es exactamente esa: abrir el espacio para que quienes tienen dudas, quienes tienen experiencias y quienes tienen propuestas puedan encontrarse y hablar.

Porque la ola ya llegó. La pregunta ahora es qué hacemos con lo que aprendimos.

Nos vemos en TicoBlockchain.

Escrito por: Ranulfo Paiva Barbosa, PhD en Economía y Moderador del Panel sobre Agentes Autónomos en TicoBlockchain 2026

Más información sobre el evento y entradas en https://www.ticoblockchain.cr/