Imagen principal del artículo: Especialista de la Universidad Hispanoamericana: uno de cada dos diagnósticos dados por inteligencia artificial podrían ser erróneos e ignorar emergencias reales

Especialista de la Universidad Hispanoamericana: uno de cada dos diagnósticos dados por inteligencia artificial podrían ser erróneos e ignorar emergencias reales

En colaboración con:
Colaboración con agencia

Una investigación puso a prueba una aplicación de inteligencia artificial con 60 casos clínicos. Los resultados mostraron que subclasificó el 51,6 % de los expedientes que los médicos consideraban emergencias, mientras que sobre clasificó el 64,8 % de los casos no urgentes.

Cada semana, millones de personas en el mundo utilizan plataformas de inteligencia artificial para realizar consultas sobre bienestar y cuidado personal. Sin embargo, un estudio publicado a principios del 2026 en la revista científica Nature Medicine evidenció riesgos relevantes: una herramienta de IA subclasificó el 51,6 % de los casos de emergencia, al recomendar a los usuarios acudir al médico en un plazo de 24 a 48 horas en lugar de buscar atención inmediata.

Sin embargo, especialistas advierten que la inteligencia artificial no evalúa pacientes ni a nivel físico ni emocional, sino que analiza información proporcionada por el usuario, lo que introduce un margen de error significativo. El riesgo se agrava porque las respuestas de AI suelen presentarse de forma clara y convincente, lo que puede generar una falsa sensación de certeza. Esto, según expertos, podría llevar a retrasar consultas médicas o tomar decisiones sin respaldo profesional.

El docente de la Escuela de Informática de la Universidad Hispanoamericana (UH), y experto en Ciberseguridad y Protección de Datos Personales, Rubén Fallas, explicó:

Es un tema súper delicado porque tenemos que entender qué es la inteligencia artificial: es una herramienta que me puede ayudar a identificar algunas cosas, pero no a comprender completamente un diagnóstico médico. Si exageramos o minimizamos los síntomas, el diagnóstico puede ser completamente diferente a lo que realmente podríamos estar padeciendo en ese momento. Por eso es importante no creernos ni darle la última palabra a un sistema como este, sea ChatGPT Health u otra inteligencia artificial generativa, que podría brindarnos un diagnóstico que incluso podría no ser correcto hasta en un 50%, para dejarlo claro”.

Cuidados con datos personales y vacíos legales

El uso de estas plataformas también implica compartir información altamente confidencial, como diagnósticos, exámenes médicos o antecedentes de salud. Aunque las empresas desarrolladoras aseguran contar con mecanismos de cifrado para la protección de los datos, persisten dudas sobre el manejo de estos y la posibilidad de filtraciones por un tercero.

La situación se vuelve más compleja con la integración de dispositivos como relojes inteligentes y aplicaciones de monitoreo, que amplían la cantidad de datos recopilados y permiten construir perfiles detallados del estado de salud de los usuarios.

A criterio del Ing. Rubén Fallas al subir a AI datos sensibles, pese a los contratos de confidencialidad, siempre existe la posibilidad de fisuras en los sistemas de seguridad.

Fallas añadió:

Y aquí es donde está el punto crítico: los datos médicos son extremadamente sensibles. Deberían ser completamente privados. Pensemos en un escenario: una persona en un puesto de alto nivel que utilice estas herramientas. Si esa información es vulnerada, un ciberataque podría revelar condiciones médicas como problemas cardíacos, diabetes o presión arterial. Incluso, en un escenario más extremo, esa información podría ser utilizada para manipular tratamientos o afectar la salud de esa persona, con el objetivo de sacarla de circulación. Esto no solo impacta al individuo, sino que podría desestabilizar una empresa, una organización o incluso un país”.

Ante estos nuevos retos de la tecnología, la Ley 8968 de Protección de la Persona frente al Tratamiento de sus Datos Personales presenta limitaciones. El Ing. Rubén Fallas señaló que existe una iniciativa que realizaría cambios importantes. La propuesta busca incorporar elementos adicionales, como datos biométricos y datos neurales

En temas de seguridad en salud, no solo se trata de diagnósticos o exámenes. También entran en juego datos biométricos como la huella, la firma, el rostro o el iris, y datos neurales relacionados con la actividad cerebral o la salud mental. Este tipo de información, si se filtra, podría ser utilizada en contra de una persona, especialmente en casos de enfermedades complejas como tumores o condiciones neurológicas.

Fallas añadió:

En este momento es una ley que tiene demasiados portillos, tiene demasiadas falencias, uniendo la parte de biometría y también la parte neural, podríamos estar bloqueando ese acceso a información sensible por parte de muchas organizaciones”.

El uso de inteligencia artificial también plantea implicaciones en la salud mental y la toma de decisiones. En contextos de vulnerabilidad, una interpretación errónea o una respuesta alarmista puede generar ansiedad o llevar a decisiones precipitadas. Por ello, el experto insistió en que estas herramientas deben utilizarse como apoyo informativo y no como sustituto del criterio médico.