La inteligencia artificial dejó de ser un recurso futurista para ser una realidad que redefine las relaciones sociales. Su desarrollo y aplicación en disciplinas como la salud, la seguridad y el transporte promete evidentes beneficios, pero puede significar también desventajas y retos para el goce de nuestros derechos fundamentales. Así, el Derecho Constitucional nos permite comprender algunos dilemas del estado actual de la IA frente al bloque de constitucionalidad.
Un primer reto consiste en la propia falta de normas de rango legal que desarrollen las formas en que la IA debe implementarse para brindar seguridad a los administrados y un ámbito de uso a la Administración Pública. Actualmente, la Estrategia Nacional de Inteligencia Artificial 2024-2027 (ENIA) propone que la IA debe ser implementada bajo principios rectores de dignidad humana, igualdad, supervisión humana, confidencialidad, protección a la propiedad intelectual y transparencia y acceso a la información.
Por otra parte, el texto sustitutivo del proyecto de ley 23.919 propone un marco regulatorio que declara la IA de interés público y establece un amplio rango de principios rectores como la confiabilidad, la supervisión humana, la diversidad e inclusión, la privacidad y el respeto a los derechos humanos y libertades individuales. También prevé la creación de un órgano rector con un amplio conjunto de competencias, llamado CIADA y el uso de la IA en campos específicos del quehacer humano como la seguridad mediante datos biométricos, salud, actividades productivas del sector agropecuario, programas sociales, agricultura, medio ambiente, educación y el uso de la IA por parte del Estado.
Otro desafío está relacionado con la protección de la vida privada y el derecho a la autodeterminación informativa. El artículo 24 de la Constitución Política garantiza la intimidad y la inviolabilidad del domicilio, comunicaciones y datos. No obstante, si la IA se basa en la recopilación y el análisis masivo de información, en un mundo digitalizado ello multiplicaría los riesgos de vigilancia, perfilamiento y manipulación de datos. El desafío consiste en que el ciudadano conserve su libertad y su mundo privado frente a tecnologías cada vez más intrusivas, sofisticadas y capaces de convertir nuestros datos en materia prima para decisiones automatizadas, o bien como un activo valioso a comerciar.
ADemás, en torno al principio de igualdad y no discriminación (artículo 33), pues los algoritmos aprenden de datos históricos y, con ello, pueden reproducir o amplificar sesgos sociales. La consecuencia es una discriminación menos visible pero igualmente grave: desde rechazar solicitudes de empleo automáticamente hasta limitar el acceso a servicios esenciales por el uso de sistemas automatizados. Aunque el proyecto legislativo 23.919 reconoce este problema sobre la necesidad de evitar la discriminación algorítmica, la cuestión de fondo también está relacionada con la forma de supervisión en la práctica.
También existe un reto frente al debido proceso. Si una resolución o sentencia se apoya en un sistema de IA, bajo el derecho de defensa el administrado tiene derecho a conocer los criterios empleados y el razonamiento mismo de la IA. Cabe preguntarse cuál sería la forma de configurar una segunda instancia que conozca una decisión generada por IA. También es necesario definir qué tipo de protocolos y parámetros nuevos surgirán al examinar una sentencia. La capacidad de la IA de tomar decisiones propias, cobra especial relevancia cuando éstas pueden dirimir conflictos jurídicos entre partes, lo cual sucederá más pronto de lo que parece. Asimismo, procedimientos que apliquen multas o sanciones automáticas como cámaras de vigilancia en la vía pública, supone dilemas sumamente complicados.
La libertad de expresión y la democracia constituyen otro ámbito en el que se centrarán importantes discusiones sobre la IA. Los sistemas que moderan contenidos en plataformas digitales pueden limitar la circulación de ideas en forma automática, sin capacidad de distinguir entre un legítimo discurso, o bien una apología a la desinformación. Al mismo tiempo, la capacidad de la IA para generar “deepfakes”, noticias o “bots” falsos abre las puertas para que la opinión pública sea manipulada de manera sutil, pero devastadora. La intervención estatal debe ser guiada por la proporcionalidad: proteger la democracia y el Estado de derecho no puede convertirse en un mero pretexto para limitar la crítica política o la libre circulación de ideas, así sea una generada por IA.
La responsabilidad y la rendición de cuentas también representan retos. ¿Cuánta responsabilidad le es atribuible a un ser humano que desarrolla una IA o un sistema basado en IA que reacciona ahora de forma autónoma y produce un daño? Lo anterior también permite cuestionarnos sobre la responsabilidad del Estado y el reforzamiento del deber de transparencia en la función pública con aplicación de IA. La rendición de cuentas no puede diluirse en la complejidad tecnológica. El artículo 11 constitucional obliga a asegurar mecanismos de trazabilidad y auditoría que permitan asignar responsabilidades claras. De lo contrario, la IA corre el riesgo de convertirse en un espacio de inmunidad institucional, incompatible con el principio de control, tutela judicial efectiva e interdicción de la arbitrariedad.
Por último, también podemos preguntarnos si acaso la IA podrá utilizarse de forma transparente para la creación de leyes, o bien para una implementación más robusta en los procesos electorales. En suma, la inteligencia artificial plantea para Costa Rica una disyuntiva de fondo: como herramienta que es, puede convertirse en un motor de desarrollo y equidad, o en un factor de desigualdad y vulneración de derechos.
Este artículo representa el criterio de quien lo firma. Los artículos de opinión publicados no reflejan necesariamente la posición editorial de este medio. Delfino.CR es un medio independiente, abierto a la opinión de sus lectores. Si desea publicar en Teclado Abierto, consulte nuestra guía para averiguar cómo hacerlo.