En inteligencia artificial, los resultados de un modelo se resumen con tres palabras: exactitud, precisión y sensibilidad.
La exactitud mide qué tan seguido acierta; la precisión, cuántas de sus predicciones correctas lo fueron de verdad; y la sensibilidad, cuántos de los casos positivos logró reconocer. Pero incluso los mejores algoritmos, alimentados con millones de datos, nunca alcanzan la certeza absoluta. Al final, la exactitud no es más que una probabilidad de acierto.
Y ahí comienza el espejo humano. Nosotros también operamos con datos: recuerdos, aprendizajes, intuiciones. Cada experiencia se convierte en una línea de código emocional que luego usamos para decidir y juzgar. Pero nuestros datos rara vez están balanceados.
Recordamos más lo que duele que lo que enseña, escuchamos más a quienes nos confirman que a quienes nos contradicen, y aplicamos nuestras conclusiones pasadas a contextos que ya cambiaron. Así construimos una especie de “modelo mental” sesgado, al que llamamos convicción.
Aun así, caminamos por la vida con una seguridad que no siempre proviene de la verdad, sino del ego. Confundimos confianza con certeza. Y cuanto más convencidos estamos, menos espacio dejamos para la duda, que es justamente lo que hace avanzar tanto a la ciencia como al pensamiento.
Esa dinámica se replica en la sociedad. Quien tiene más experiencia, ¿la comparte para que otros aprendan o la impone como ley?
Y quien aún no la tiene, ¿escucha con apertura o solo espera su turno para hablar? La conversación se vuelve un campo de prueba donde los datos —nuestras experiencias— compiten por imponerse, no por integrarse.
Paradójicamente, en su afán por crear inteligencia artificial, el ser humano ha terminado imitando su propio modo de razonar.
Los modelos aprenden de datos; nosotros, de vivencias. Y tanto unos como otros dependen del equilibrio de su entrenamiento.
Cuando los datos están sesgados, los resultados lo están también. No es un fallo técnico, es una advertencia ética: reproducimos nuestras propias distorsiones en la tecnología que diseñamos.
La IA no es solo un avance científico; es un espejo de lo que somos como especie. Mide nuestra capacidad de aprender, pero también de reconocer nuestros límites. Nos recuerda que el verdadero riesgo no está en que las máquinas se vuelvan más inteligentes, sino en que nosotros dejemos de cuestionar la exactitud de nuestras propias certezas.
Mientras no reconozcamos el sesgo en nuestros propios datos —nuestros recuerdos, miedos y convicciones—, seguiremos construyendo inteligencias artificiales que nos imiten en lo peor.
Este artículo representa el criterio de quien lo firma. Los artículos de opinión publicados no reflejan necesariamente la posición editorial de este medio. Delfino.CR es un medio independiente, abierto a la opinión de sus lectores. Si desea publicar en Teclado Abierto, consulte nuestra guía para averiguar cómo hacerlo.




