Quien haya hecho una copia de una copia de una copia sabe que el resultado final pierde calidad, fidelidad y características propias del objeto original. Esto aplica a documentos, especímenes clonados o, incluso, las copias “quemadas”, una vez famosas, de películas en DVD y otros formatos físicos y digitales.

Un fenómeno similar está ocurriendo ante nuestros ojos con el auge de la inteligencia artificial (IA) generativa. Esta tecnología depende de datos orgánicos: aquellos redactados por humanos, para generar nuevas versiones, es decir, datos sintéticos.

Hasta hoy, todo ha funcionado bien, ya que las diferentes versiones de IA han contado con enormes cantidades de datos orgánicos disponibles, desde medios de comunicación en distintos formatos hasta Wikipedia y otras bibliotecas digitales. Estamos presenciando un proceso de “digestión” de estos datos orgánicos, generados a lo largo de miles de años, que están siendo procesados por la IA generativa. Este proceso consume importantes cantidades de recursos naturales como agua y electricidad, así como recursos computacionales, centros de datos y hardware especializado. Se estima que este proceso culminará antes del año 2027, es decir, la IA tardará cerca de cuatro años en procesar todos los datos orgánicos disponibles, que a la humanidad le llevó años generar.

El problema que se plantea es: ¿qué pasará a partir de 2027? Si actualmente, en muchos casos (principalmente en texto), es virtualmente imposible diferenciar contenido orgánico del sintético, ¿cómo haremos para distinguir algo que, por ejemplo, fue escrito como producto de una rigurosa investigación científica, de algo generado a partir de otro contenido previamente producido por una inteligencia artificial, que pudo haber perdido precisión en el proceso?

¿Está el conocimiento humano en riesgo debido a esta situación? Y quizás una preocupación menos catastrófica: ¿cómo protegerán las empresas su propiedad intelectual y los derechos de autor, tanto morales como económicos, cuando la IA avanza a pasos agigantados, a una velocidad mucho mayor a la que nuestros ordenamientos jurídicos pueden adaptarse?

En los próximos años, veremos una explosión de distintos usos y aplicaciones de la IA generativa. Estamos a la espera de la llegada de la IA General, una especie de oráculo que abarque todo el conocimiento humano y pueda opinar o generar criterios sobre cualquier materia planteada. En este contexto, ¿qué actitud deberían tomar las empresas? ¿Prohibir cualquier uso de IA por parte de sus trabajadores para proteger su propiedad intelectual, corriendo el riesgo de desaparecer frente a la competencia que sí adopte y monetice esta nueva tecnología? ¿O experimentar en un ambiente controlado el potencial que la IA representa para la empresa y su mercado?

En este momento, no hay respuestas correctas o incorrectas; solo conjeturas posibles. Lo cierto es que, en el camino, el mundo del trabajo experimentará grandes presiones para contar con personal capacitado que pueda generar más contenido orgánico de calidad. También necesitará personal altamente calificado que pueda utilizar la IA para optimizar procesos existentes y mejorar la rentabilidad del negocio, así como expertos en el uso futuro de la IA que creen las empresas del futuro, llevando a la humanidad a una nueva frontera del conocimiento. Cualquiera de estos retos no es fácil de afrontar: el tiempo es corto y los recursos son escasos.

Y su empresa, ¿ya ha decidido la estrategia que utilizará frente a la IA con sus trabajadores a corto y mediano plazo?

Este artículo representa el criterio de quien lo firma. Los artículos de opinión publicados no reflejan necesariamente la posición editorial de este medio. Delfino.CR es un medio independiente, abierto a la opinión de sus lectores. Si desea publicar en Teclado Abierto, consulte nuestra guía para averiguar cómo hacerlo.