La inquietud de un grupo de magistradas en torno a la utilización de una nueva plataforma para transmitir las sesiones de Corte Plena y el potencial uso negativo de la inteligencia artificial para crearles deepfakes es un temor que lejos de ser infundado, revela una lectura anticipada de posibles nuevos hechos de violencia política contra las mujeres.

Así lo sostuvo Larissa Tristán Jiménez, docente de la Escuela de Ciencias de la Comunicación Colectiva e investigadora del Centro de Investigación en Comunicación (CICOM), ambos de la Universidad de Costa Rica, durante una entrevista con Delfino.cr.

"Me parece interesante que sean específicamente magistradas mujeres las que pongan el recelo para que se utilice esta nueva modalidad de transmisión, porque eso indica que ya están presupuestando una potencial violencia política contra ellas. Y no es infundado, porque ya sabemos de historias en el caso nacional de deepfakes que se han hecho con fines pornográficos, en que se toma la cara de alguna influencer o de alguna modelo y se suplanta su cuerpo a partir de esas herramientas de inteligencia artificial para generar una imagen que no es verdadera", explicó Tristán.

La experta dijo que no se iba a pronunciar sobre si las magistradas tenían o no razón en oponerse al cambio de la plataforma de transmisión, pero que el temor sí era real porque ha pasado anteriormente.

Ahora, eso no quiere decir que si ellos dan una entrevista, si alguien entra a sus redes sociales, no lo puedan hacer. El hecho de que no se migre de una plataforma a otra no las libera de ese peligro. Entonces, el problema no está específicamente en los deepfakes, sino en el uso y lo que se normaliza a nivel contextual.

Tristán explicó que un deepfake es una técnica de inteligencia artificial que permite crear videos falsos a partir de imágenes reales, haciendo que parezca que una persona está emitiendo declaraciones o realizando acciones que nunca ocurrieron. En ese sentido, recordó que uno de los primeros deepfakes que se crearon fue uno al expresidente estadounidense Barack Obama, precisamente para crear conciencia sobre el grado de verosimilitud que tienen esas herramientas (VER VIDEO)

Se utiliza también a nivel de películas, para efectos especiales. Por ejemplo, en la última película de Harrison Ford, se hizo más joven con inteligencia artificial, o sea, que tiene un montón de usos. No creo que el problema sea tanto la técnica, sino el uso que se le da, que está normalizada la violencia contra las mujeres, y que entonces, claro que ellas van a tener ese inquietud de que pueda ser utilizado para esos fines.

— ¿Considera que existe legislación nacional que pueda combatir los abusos que se puedan realizar con este uso malicioso de la inteligencia artificial?

No, no existen, al menos aquí en Costa Rica no existen y tampoco existen muy fuertemente a nivel internacional. Ahí lo que se podría hacer es un análisis de los metadatos, yo no sé si usted vio la última controversia de la princesa de Gales, en la que se vio que ella había intervenido en una fotografía y luego varios medios tuvieron que eliminarla. Bueno, ahí es porque alguien técnico, alguien con conocimiento se metió a ver los metadatos y se dio cuenta que la imagen había sido trucada.

Entonces, de nuevo, el problema no está en los deepfakes, el problema está en que el entorno haya normalizado eso y que no tengamos las herramientas mediáticas y digitales para que el grueso de la población y no solo las personas más entendidas en esta materia puedan identificar cuando se trata de un deepfake y cuando se trata de un video real.

Pero aquí el punto para mí no es tanto emitir un criterio si las magistradas tienen razón o no, lo importante es qué nos dice esto del entorno. O sea, que ya están presupuestando un tipo de violencia, para mí eso es lo más importante.

— ¿Debería legislarse entonces desde una perspectiva informática, pero también desde una perspectiva de género para abordar esas inquietudes?

Completamente, porque no es la primera vez. Es incluso lo que en inglés se llama revenge porn, que es cuando, por ejemplo, una persona en una relación de intimidad comparte cierto material y la otra persona con la que lo compartió lo dispone sin su consentimiento, o cuando ese material se adultera y entonces queda en detrimento de la imagen de la mujer. Lo interesante es que siempre es la mujer, eso ya refleja una dinámica de dominación en la cual la mujer es la que es más objeto de violencia; no es ningún magistrado hombre, no es casual.

Eso no quiere decir que ellos no han sido objeto, lo que pasa es que el tipo de deepfake que se hace para los hombres tiene que ver más con las ideas, con posiciones, con alguna declaración que hicieron o no. Por ejemplo, en campaña electoral en Costa Rica circularon muchos audios de WhatsApp que se le atribuían a candidatos que no habían sido ellos, pero ahí no hay un ataque al cuerpo, como sí sucede con las mujeres.

— ¿Cómo podríamos proteger ambos derechos en este caso: el derecho al acceso a la información en tiempo real de la ciudadanía y de los medios de comunicación, y también el derecho a la integridad personal de los funcionarios públicos que se pueden ver expuestos a este tipo de situaciones y, en particular, las funcionarias mujeres?

Es un tema bastante complejo porque como usted lo dice, en este momento social en el que vivimos, desde el punto de vista de la comunicación, vemos fenómenos que ponen en tensión varios derechos. Por ejemplo, el discurso de odio pone en tensión el derecho a la libertad de expresión y pone en tensión el derecho a la no discriminación. En este caso tenemos en tensión el derecho a la información pública versus el derecho a la integridad física de los funcionarios.

Entonces necesitamos un abordaje integral en el sentido de: sin coartar la libertad de expresión (que ojo, no es absoluta), ni coartar tampoco los desarrollos tecnológicos, porque la inteligencia artificial es una herramienta que ya se está usando en Costa Rica, la última encuesta del CIEP indica que aproximadamente el 55% de las personas en Costa Rica ha utilizado la inteligencia artificial.

No es prohibir la inteligencia artificial, pero sí lograr un entorno social, cultural, y legal que le ponga límites, porque nada es absoluto. Recordemos que las democracias albergan lo mismo que las pueden hacer desaparecer. Entonces, para que la democracia se mantenga como un sistema, tenemos que tener los mismos mecanismos que te permitan poner límites ahí donde ya se nos está queriendo ir la mano.

Entonces tendría que ser un abordaje integral que sea legal, de saber que este tipo de cosas va a tener consecuencias legales, lo que pasa es que luego es muy difícil saber bien quién lo hizo porque eso en la cultura digital suele ser anónimo, pero tendríamos que pensar como sociedad, como país, a nivel global, cómo poner un límite a esto, —y cultural, en el que las mujeres no sigan siendo objeto de violencia en todos los sentidos.

Esto es un continuum entre los femicidios y ese temor de las mujeres a ser desprestigiadas a partir de su imagen, entonces, y sobre todo, la tercera línea que podemos tener es alfabetización digital, en la que tenemos que darle a las personas las herramientas para que puedan navegar en zonas digitales en las que cada vez es más complejo distinguir...

La Dra. Larissa Tristán Jiménez, docente de la Escuela de Ciencias de la Comunicación Colectiva e investigadora del Centro de Investigación en Comunicación (CICOM), ambos de la Universidad de Costa Rica | Créditos: Universidad de Costa Rica.