En los últimos dos años el uso de inteligencia artificial para generar imágenes ha pasado de ser una herramienta experimental a un producto comercial de acceso al público general. Generar una imagen con una instrucción de texto aparenta un aporte tecnológico casi milagroso, pero el desarrollo de estos programas cuenta con amplios problemas éticos, varios que quizás no serán apreciables en su totalidad hasta que sus impactos ya hayan sido percibidos. La tecnología IA es como una caja de pandora: ya abierta no existe una marcha atrás, y desear un reverso al mundo anterior a la IA es comparable a desear un mundo anterior a las redes sociales. En este caso debemos reconocer sus problemas éticos. Estas herramientas son desarrolladas por seres humanos, y al identificar los problemas de las imágenes IA podemos reconocer algunos puntos cruciales para que estas herramientas coexistan de manera sana con el mundo a futuro.

La generación de imagen IA en principio opera de manera predictiva, y genera una imagen final utilizando una combinación de una base de imágenes preexistente y un algoritmo que reconoce e interpreta patrones en estas imágenes. Este modelo interpreta el texto de un usuario, como la frase “gato sentado en un sillón”, y comienza a aislar un resultado proveniente de prejuicios de datos de imágenes preseleccionadas que el modelo asume que demuestran un “gato sentado” y “un sillón”. En términos simples, el uso del IA como herramienta no es cómo manejar un carro a una dirección, es como ser el pasajero de un taxista que tiene interpretaciones propias de dónde queda esa dirección. Esto también lleva a una pregunta distinta, si estas herramientas por definición requieren bases de datos de miles de imágenes preexistentes, ¿de dónde salen estas bases de datos?

Aunque existen generadores de IA a pequeña escala, donde un usuario debe agregar sus propias imágenes para suplirle información a un modelo, el estándar de las grandes herramientas de IA cuenta con amasar la mayor cantidad de imágenes posibles para cumplir con los diversos requisitos de la generación contextual. Un método de adquisición de imagen es llamado “raspado de datos”, donde un proceso automatizado entra a un sitio web y guarda todas sus imágenes. Esta práctica carece de la autorización de los sitios, y a su misma vez puede obtener ilegalmente imágenes protegidas a menos de que estas hayan sido filtradas. Aunque guardar una imagen de la red generalmente no es un problema, las imágenes utilizadas por estas empresas son explotadas con fines comerciales (usualmente para justificar la venta o suscripción de una herramienta) sin consentimiento o compensación a las fuentes de esas imágenes. En un artículo de Medium corroborado por el OECD AI Policy Observatory, se revelo en una brecha de información que los desarrolladores de Midjourney habían explícitamente aislado y hurtado imágenes de más de 16,000 artistas. Este escrutinio de datos privados por parte de terceros no es único a artistas. En junio de 2024, Adobe, una empresa que ya tiene un historial de investigaciones por comportamiento anti-consumidor, intentó cambiar los términos y condiciones de su contrato con usuarios para autorizar el uso incondicional de cualquier archivo hecho en alguno de sus programas (como Photoshop, Premiere, Illustrator, y demás) para entrenamiento de sus modelos de IA internos sin manera de optar en contra y sin compensación. Esto demuestra que para algunos desarrolladores de modelos de IA la privacidad y el consentimiento de datos son opcionales, lo cual recalca que esto es una vulnerabilidad ética que, sin abordar, puede permitir violaciones de privacidad y hurto laboral. No obstante, este tipo de desarrollo es la razón por la cual muchos trabajadores de las industrias creativas identifican la IA como una amenaza directa a su labor.

La IA también tiene una huella ambiental apreciable. Un análisis para la revista científica Patterns notó que aproximadamente 284,019kg de CO2, cinco veces la cantidad de emisiones que un carro promedio produce durante su vida hábil entera, se pueden producir al entrenar un modelo de interpretación de lenguaje (cuales son usados en imágenes IA para interpretar el texto). En un estudio sobre el impacto ambiental de IA, Alex de Vries estima que para 2023 el consumo eléctrico para entrenar a un solo modelo IA es cerca de 1287 MWh, o la misma cantidad de energía que consume un hogar estadounidense en 120 años, mientras que el costo eléctrico del uso regular de OpenAI a través de ChatGPT se estima en 564 MWh al día, o aproximadamente 50 años del uso eléctrico de un hogar estadounidense. Existen proyecciones de sugieren que el impacto ambiental puede disminuir conforme a la optimización de estos modelos, por ejemplo Google redujo las emisiones de CO2 de su modelo de entrenamiento por un factor de 14 a través de la optimización. En gran medida la responsabilidad de velar por el costo ambiental del uso de IA no está siendo reconocida durante esta fase de expansión en masa de las empresas hacia el uso de la IA.

Otro problema implícito de la IA es la manera en que facilita la desinformación. A diferencia de herramientas previas como Photoshop, la IA facilita estas imágenes con mucha más facilidad y rapidez. Las imágenes IA demuestran algunas características que delatan su origen, como las dificultades en realizar las formas de los dedos, pero esto requiere ambas una familiaridad contextual y escepticismo de parte del vidente. Aunque esto siempre se ha podido combatir con la investigación de fuentes verificables, esto igual fortifica un futuro donde se debe reforzar el escrutinio de la legitimidad de lo que aparenta ser evidencia fotográfica.

El impacto del IA aun no es apreciable en su totalidad, pero esto no disminuye la importancia de su desarrollo ético. Es crucial que los desarrolladores de IA tengan contacto y presencia con los grupos afectados, y que una ciudadanía educada sea capaz de reconocer las implicaciones socioculturales de estas herramientas. El progreso tecnológico no es un monolito, es guiado por personas con intencionalidad. En el caso más optimista es posible que la IA sea como Photoshop, y se convierta en otra herramienta regular presente en el espacio digital. Para facilitar eso, los desarrolladores deben fomentar un lienzo de comprensión y respeto mutuo por el mundo, su ambiente, y sus artistas. Quizás así tendremos un futuro donde la antigua caja de pandora se volverá igual de promedio que cualquier otra caja de herramientas.

Este artículo representa el criterio de quien lo firma. Los artículos de opinión publicados no reflejan necesariamente la posición editorial de este medio. Delfino.CR es un medio independiente, abierto a la opinión de sus lectores. Si desea publicar en Teclado Abierto, consulte nuestra guía para averiguar cómo hacerlo.