En mis primeros años de carrera de informática uno de mis profesores definió a la computadora como “un tonto que piensa muy rápido”. Un tonto porque el mínimo error de programación hacía que un proyecto completo no funcionara, la computadora no podía corregir errores humanos. Y muy rápido porque, en aquel entonces, los procesadores ya pulsaban a 4.77 MHz, velocidad minúscula en comparación con la actual, pero suficiente para los requerimientos computacionales de la época.

Los sistemas corrigen a los humanos

Hoy, escribiendo este artículo, le consulté a ChatGPT acerca de la exactitud de la proyección de Moore con respecto a la realidad del aumento de la velocidad de los procesadores. ChatGPT me explicó que Moore hizo una proyección acerca del incremento de la cantidad de transistores en un circuito integrado, y de manera educada pero asertiva me corrigió, diciendo: “Sin embargo, es importante tener en cuenta que la ley de Moore se refiere al número de transistores en un chip, no a la velocidad de los procesadores en sí”. Es decir, me equivoqué en el concepto y ChatGPT rápidamente me lo hizo ver.

Todo cambió. Ya la computadora no es tonta, y cuando menos en concepto comienza a mostrar indicios de independencia, o cuando menos da resultados que no fueron previstos por sus programadores.

¿Hacia dónde vamos?

El año 2023 ha explotado en el número de las soluciones de inteligencia artificial disponibles. A nivel teórico existen tres niveles de las Inteligencias Artificiales: La IA débil o estrecha, la IA general y la IA súper inteligente.

Todas las aplicaciones que hoy nos sorprenden de interpretación de lenguaje humano como ChatGPT, así como las de diseño de imágenes, traducción de textos, conducción de vehículos autónomos e incluso las pertenecientes a la familia de Deep Learning donde los sistemas se hacen más eficientes con el tiempo, pertenecen aún a la IA débil o estrecha, porque están diseñadas a realizar tareas específicas y limitadas.

Pero ya hoy mucha de la investigación tecnológica se centra en la creación de la IA General o de segunda etapa, donde las máquinas podrán realizar cualquier tarea intelectual que hasta hoy es terreno exclusivo de los seres humanos, y más allá en el tiempo en la IA súper inteligente, la cual nos superará en cualquier tarea cognitiva. La línea que separa la mera tecnología de lo que podemos llamar Inteligencia Artificial reside en la capacidad que tiene esta última en agregar valor cognitivo, es decir, aquellas tareas que usualmente requerirían inteligencia humana. La IA estrecha encuentra y desarrolla patrones, la IA general o la super inteligente sugerirán interpretaciones de valor.

No en vano la inversión a nivel mundial en las empresas de inteligencia artificial crecerá casi 20 veces del 2021 al 2030; la comunidad empresarial reconoce el enorme valor que esta industria comienza a tener en el futuro cercano. ChatGPT tiene ya la capacidad de integrarse con miles de otras aplicaciones existentes como eCommerce de supermercados, páginas de educación, asistentes de traducción, desarrollo de software.Prácticamente cualquier disciplina humana contará muy pronto con un copiloto que la potenciará y aumentará sus capacidades.

Los riesgos

Las nuevas esferas de las IAs plantean ideas interesantes que tocan incluso los mundos de la productividad, la distribución de la riqueza y la competitividad, pero además nos presentan enormes desafíos y riesgos, que comienzan a crear intersecciones entre la tecnología, la ética y el diseño de nuestras sociedades.

Dado que toda IA es esencialmente un sistema de entrenamiento basado en datos e información, algunos de estos podrían estar artificialmente sesgados, con la intención de desinformar o causar daño. El entrenamiento a las IA tiene el sello de los valores que se han usado para proveerlas de información. Por lo tanto, Inteligencias Artificiales de apoyo a profesiones ilegales comenzarán a proliferar. En una entrevista de la ABC a Sam Altman, el fundador de OpenAI, creadora de ChatGPT, él expresó claramente que el uso inadecuado de estas tecnologías por parte de grupos y gobiernos con intenciones oscuras era una de sus principales preocupaciones. ChatGPT puede hoy escribir código de computación más rápida y eficientemente que un programador. ¿Qué pasaría si esta capacidad fuese usada para desarrollar programas maliciosos de ataques cibernéticos?

Los ataques cibernéticos alimentados por la IA

Desde mi vitrina de la ciberdefensa observo estos cambios con inquietud. Ya sabemos desde hace años que un atacante motivado logrará vulnerar prácticamente cualquier organización que desee, y causar cuando menos interrupciones en su modelo operativo normal. Ahora estas herramientas de desarrollo comenzarán a potenciar más esas capacidades maliciosas, con un resultado inequívoco de más programas de ataque disponibles, con capacidades más perversas, y ciclos más cortos de aparición. La razón es muy simple: la ciberdelincuencia es una industria de calibre mundial, en donde el suministro de diferentes programas de ataque alimenta el mercado de compra por parte de los atacantes de primera línea.

No queda más que asumir, para todas las empresas y organizaciones, que el riesgo continuará aumentando. El peligro de la suspensión de operaciones debido a incidentes cibernéticos será más presente, y seremos testigos de una escalada sin precedentes, simplemente porque habrá más código malicioso disponible.

La economía que forjó la creación de organizaciones ciberdelincuentes estaba basada en la fácil disponibilidad de código malicioso, y el descuido o desconocimiento de las organizaciones víctimas. Como en todo sistema económico, el cambio en sus variables traerá un cambio de modelo.

¿Y ahora qué?

Un ataque cibernético impacta negativamente a cualquier empresa u organización. La tecnología que utilizan los atacantes ha venido creciendo en sofisticación de manera sorprendente, y sus nuevas herramientas de IA la potenciarán aún más. Grupos delincuentes con intereses variados ya hoy existen, y proliferarán mucho más en el futuro cercano.

Para cualquier organización la existencia de un Sistema de Gestión de la Seguridad de la Información dejó de ser opcional, y todas las políticas que de él se desprenden deben estar actualizadas y en revisión permanente. La implementación de soluciones de detección y respuesta basadas, por supuesto, en la Inteligencia Artificial logrará poner en pie los mecanismos de defensa que serán usados para mitigar el próximo ataque. Y finalmente, el recordar que un incidente cibernético escala rápidamente hasta convertirse en un problema de continuidad de negocio hará que se consolide a la Gerencia General y la Junta Directiva como el principal gestor de todo mecanismo de ciberdefensa en nuestra organización. Si su empresa hoy falla en la existencia de políticas de seguridad de la información, o aún no ha implementado soluciones de detección y monitoreo de próxima generación, o todavía delega los temas de ciberdefensa exclusivamente en su departamento de TI, es posible que su nivel de riesgo sea más alto del adecuado.

No hay duda de que somos partícipes de uno de los cambios más significativos de la historia. Las herramientas de la IA serán pronto muy potentes tanto para el ataque como para la defensa. El poder que la tecnología brindará al ser humano no tiene paralelo, y hoy ni siquiera podemos entender sus implicaciones. Pero es un hecho que nuestro contendiente, el atacante cibernético, sentado posiblemente en Europa del Este o en Asia también verá crecer su poder de vulnerarnos. Por eso, al igual que cuando HAL 9000 decidió atacar, más nos vale habernos preparado, y hayamos sido suficientemente astutos para prevenir y así mitigar el impacto de sus nuevas y peligrosas capacidades.

Este artículo representa el criterio de quien lo firma. Los artículos de opinión publicados no reflejan necesariamente la posición editorial de este medio. Delfino.CR es un medio independiente, abierto a la opinión de sus lectores. Si desea publicar en Teclado Abierto, consulte nuestra guía para averiguar cómo hacerlo.