Cuando la inteligencia artificial inventa enfermedades: una alerta para la medicina moderna

El criterio medico y juicio clinico siempre utiles en el desempeño de tareas con IA

INTELIGENCIA ARTIFICIAL

Dr Enrique Angarita

4/17/20263 min leer

a man riding a skateboard down the side of a ramp
a man riding a skateboard down the side of a ramp

En los últimos años, la inteligencia artificial ha irrumpido en la medicina con una promesa difícil de ignorar: mejorar la precisión diagnóstica, optimizar decisiones clínicas y reducir errores humanos. Sin embargo, un experimento reciente descrito en la revista Nature introduce una inquietud que no podemos pasar por alto: ¿qué ocurre cuando la inteligencia artificial no solo se equivoca, sino que construye una realidad clínica inexistente y la presenta como verdad?

La historia comienza con un ejercicio deliberado de provocación científica. Un grupo de investigadores decidió crear una enfermedad completamente ficticia, llamada bixonimania. No se trataba de un error accidental ni de una mala interpretación de datos, sino de una construcción intencional: artículos falsos, autores inexistentes, instituciones inventadas y una narrativa que, para cualquier lector entrenado, debía levantar sospechas evidentes. El objetivo era simple pero profundo: evaluar hasta qué punto los modelos de lenguaje —los mismos que hoy comienzan a integrarse en la práctica clínica— pueden distinguir entre información legítima y contenido fabricado.

El resultado fue inquietante. En cuestión de semanas, sistemas de inteligencia artificial comenzaron a describir la enfermedad como si fuera real, ofreciendo explicaciones, síntomas e incluso recomendaciones. Lo más preocupante no fue solo la respuesta de la máquina, sino el efecto dominó que siguió: esa información falsa comenzó a infiltrarse en el ecosistema académico, llegando incluso a ser citada en contextos aparentemente formales.

Este fenómeno no es un simple “error” de la inteligencia artificial. Es algo más profundo. Es una manifestación de la forma en que estos sistemas construyen conocimiento: no a partir de la verificación, sino de la probabilidad lingüística. La IA no “entiende” la verdad; identifica patrones. Si un concepto aparece con suficiente frecuencia, coherencia y estructura, el sistema lo incorpora como parte de su universo semántico, independientemente de su validez.

Para la medicina, esto representa un punto de inflexión.

Durante siglos, la práctica clínica ha estado anclada en una premisa fundamental: la realidad biológica precede al discurso. Es decir, primero existe la enfermedad, luego la describimos, la estudiamos y la tratamos. Lo que este experimento sugiere es una inversión peligrosa de ese orden: el discurso puede preceder a la realidad, y en ciertos contextos, incluso simularla de forma convincente.

Esto introduce un riesgo epistemológico que no es menor. Si los médicos comienzan a interactuar con sistemas que presentan información plausible pero no verificada, el proceso de toma de decisiones podría contaminarse desde su base. No se trata solo de diagnósticos erróneos, sino de la posibilidad de que se construyan marcos conceptuales completos sobre entidades inexistentes.

Aquí es donde el problema trasciende lo tecnológico y se convierte en clínico.

El anestesiólogo, por ejemplo, trabaja en un entorno donde las decisiones son rápidas, críticas y profundamente dependientes de la fisiología real del paciente. Introducir en ese entorno una herramienta que puede generar información “coherente pero falsa” implica un riesgo directo sobre la seguridad. No porque la IA sea inherentemente peligrosa, sino porque puede generar una ilusión de certeza que disminuya la vigilancia crítica del clínico.

El hallazgo también expone una vulnerabilidad humana. La tendencia a confiar en fuentes estructuradas, especialmente cuando adoptan el lenguaje de la ciencia, es un sesgo cognitivo conocido. Cuando la inteligencia artificial reproduce ese lenguaje con fluidez, ese sesgo se amplifica. En otras palabras, no solo la IA “alucina”; nosotros también podemos hacerlo al interpretarla sin suficiente escepticismo.

Pero sería un error concluir que este fenómeno invalida el uso de la inteligencia artificial en medicina. Por el contrario, lo redefine.

La IA no debe ser entendida como una fuente de verdad, sino como un amplificador de información. Su valor no reside en su capacidad de “saber”, sino en su capacidad de procesar, organizar y proponer. La validación sigue siendo —y probablemente seguirá siendo— una función humana. Esto nos lleva a una idea que cada vez cobra más fuerza: el futuro de la medicina no es la sustitución del médico por la inteligencia artificial, sino la evolución hacia un médico aumentado, capaz de interactuar críticamente con sistemas complejos.

Este caso de la enfermedad ficticia actúa, entonces, como una advertencia temprana. Nos recuerda que la integración de la inteligencia artificial en la práctica clínica no puede ser únicamente tecnológica; debe ser también educativa y ética. Formar médicos capaces de cuestionar, verificar y contextualizar la información generada por IA será tan importante como enseñar farmacología o fisiología.

Hay una lección final, quizás la más importante. La medicina siempre ha sido una disciplina profundamente humana, no solo por su objeto de estudio —el paciente—, sino por su método: la duda, la observación, el juicio. La inteligencia artificial puede asistir, pero no puede reemplazar ese núcleo.

Si algo nos enseña este experimento es que el riesgo no está en que la IA invente enfermedades, sino en que nosotros dejemos de cuestionarlas.