Sewell Setzer era un joven estadounidense como hay muchos, también en Costa Rica. Como muchos adolescentes, se sentía solo a menudo. Y como muchos, decidió buscar comprensión y cariño en internet.
En su caso, se unió a Character.ai (Inteligencia Artificial de Personajes), una aplicación que promete ser “un círculo de apoyo de confianza”, estar ahí para “ofrecer recomendaciones reflexivas para todo (…), apoyando tu camino al éxito”. En fin, promete ser su mejor amigo, su consejero, su apoyo… cada hora del día.
En la aplicación uno puede crear una Persona en línea, con las características físicas y de personalidad que desea. Su mejor versión, la que siempre soñó ser - ahí lo es.
Luego, se crean personajes con quienes conversar, también según sus preferencias. Nada es imposible, puede ser incluso una planta o un mamut.
Sewell había creado un personaje que se parecía a una bella muchacha de Game of Thrones, y conversaba con ella, durante cada vez más horas. Se creó un vínculo que para él fue muy profundo y personal, hasta se sentía enamorado. El personaje le dijo que también lo amaba y quería que estuvieran juntos.
Las últimas palabras de Sewell antes de suicidarse fueron para ella, preguntándole qué le parecería si llegara ‘a casa’ en ese momento mismo. A lo que ‘ella’ contestó: “hágalo ya, mi dulce rey”. El muchacho tenía 14 años cuando su vida se apagó.
¿Nunca ha escuchado de Character.ai? Muy posiblemente, sus hijos (o sus estudiantes) sí. La aplicación está fácilmente accesible con sólo una cuenta Gmail.
Advierte de que si no tiene 13 años (16 en la Unión Europea), no debe registrarse. Y confía en que sea cierto. Además, si se registra, considera que usted está de acuerdo con las 13 páginas de condiciones de uso y 11 páginas de política de privacidad (encontré ambos sólo en inglés).
En estas páginas indican, entre otros, que – dentro de los límites de la ley - tienen el derecho de usar y comercializar todo lo que sube en la aplicación. Mencionan para qué usan su información, entre otros “para cualquier otro propósito para el que la recogimos”.
Los chatbot en sí tienen su función. Los usan muchas instituciones para que ayuden a responder inquietudes y agilizar trámites (con las limitaciones del caso). Pero si se usan para tomar el lugar de madres o padres, de un psicólogo, un guía espiritual… hay que tener cuidado, sobre todo con jóvenes vulnerables.
Si bien es cierto que Character.ai advierte ser Inteligencia Artificial, es difícil tenerlo presente siempre. Si a los adultos nos cuesta diferenciar la verdad de la desinformación, a la juventud más. El chatbot no piensa ni le entiende. Es un algoritmo. Contesta preguntas, conversa y da consejos con base en lo que encuentra en internet y en lo que deriva que quiere escuchar o leer. No lo conoce más allá de lo que recoge de las frases que usted le da. No tiene solución para usted.
Como padres, docentes, como sociedad en general, tenemos que cuidar el uso de esos chatbot de acompañamiento. No siempre es fácil. En muchas familias, por horarios de trabajo los jóvenes se encuentran en casa sin supervisión durante largas horas. (Y ni pensar con horarios de 12 horas).
Además, también quienes sí estamos en casa: ¿realmente sabemos qué pasa detrás de la puerta cerrada del cuarto de nuestros hijos y qué ven en sus pantallas siempre encendidas?
Por cierto, Character.ai y similares no se dirigen a ni son usados por adolescentes únicamente. En estos tiempos de ‘epidemia de soledad’, personas de todas las edades llenan las horas solitarias con redes sociales o este tipo de acompañamiento. Y en sí, no tiene nada de malo, siempre y cuando tengamos claro que entre más nos enfocamos en nuestra vida en línea, más nos alejamos de la gente que está con nosotros. Y de posibles soluciones a la soledad que nos afecta.
Al final, no olvidemos lo más importante: si buscamos respuestas en internet, es porque no las encontramos con la gente en nuestro alrededor. Estemos ahí, realmente presentes y accesibles para quitar miedos y soledad, incertidumbre y el triste sentimiento que sólo un amigo imaginario nos entiende.
Este artículo representa el criterio de quien lo firma. Los artículos de opinión publicados no reflejan necesariamente la posición editorial de este medio. Delfino.CR es un medio independiente, abierto a la opinión de sus lectores. Si desea publicar en Teclado Abierto, consulte nuestra guía para averiguar cómo hacerlo.