El riesgo de una IA diseñada para el Primer Mundo en sistemas de salud vulnerables

Hablamos de los sesgos de comparar poblaciones diferentes: los países en desarrollo tienen diferentes datos sobre la atención en salud

INTELIGENCIA ARTIFICIAL IA EN TERCER MUNDO

Dr Enrique Angarita

5/19/20253 min read

La inteligencia artificial (IA) en salud promete revolucionar el diagnóstico, la gestión de pacientes y la prevención de enfermedades. Sin embargo, gran parte de estos desarrollos provienen de países del norte global, con entornos clínicos bien estructurados, abundancia de datos y acceso a tecnología de punta.

¿Pero qué ocurre cuando estas herramientas se trasladan sin adaptación a sistemas de salud frágiles, fragmentados o con escasos recursos, como los que predominan en el Tercer Mundo?

Este artículo examina los riesgos reales de aplicar modelos de IA diseñados para contextos privilegiados en realidades muy distintas. ¿Pueden fallar? Sí. ¿Pueden causar daño? También. Pero, sobre todo, pueden profundizar las desigualdades en lugar de cerrarlas.

1.Modelos entrenados con datos irrelevantes para entornos locales

Muchos algoritmos de IA en salud —como los de diagnóstico por imagen, predicción de riesgo o soporte a la decisión clínica— se entrenan con datos recopilados en hospitales de Estados Unidos, Reino Unido o Alemania.

Problema:

Los determinantes sociales, los patrones epidemiológicos y las características genéticas varían drásticamente entre países.

Ejemplo real:

Un algoritmo para predecir insuficiencia renal entrenado en población blanca norteamericana falló al aplicarse en comunidades africanas, donde la progresión de la enfermedad y los factores de riesgo eran diferentes.

Consecuencia:

  • Falsos negativos que retrasan diagnósticos.

  • Falsos positivos que generan alarmas innecesarias.

  • Confianza injustificada en un modelo que no entiende el entorno.

2.IA que ignora determinantes sociales y culturales de la salud

En países del Tercer Mundo, factores como el analfabetismo, el acceso limitado a alimentos o agua potable, o las barreras culturales, impactan enormemente en los desenlaces en salud. Una IA que no los considere, simplemente no podrá tomar buenas decisiones.

Ejemplo:

Una aplicación de seguimiento del embarazo basada en hábitos de vida falló al usarse en comunidades rurales sin acceso regular a alimentos, electricidad o centros de salud. Su lógica no se ajustaba a la vida cotidiana de las mujeres que debía beneficiar.

Moraleja:

El contexto es tanto o más importante que los datos clínicos. Una IA que no entiende el entorno social no podrá ofrecer soluciones reales.

3.Falta de infraestructura básica para implementar IA

Incluso los modelos mejor diseñados enfrentan un gran obstáculo: la falta de conectividad, hardware o mantenimiento técnico en hospitales y puestos de salud.

Problemas comunes:

  • Sistemas eléctricos inestables.

  • Internet intermitente o inexistente.

  • Falta de personal capacitado para mantener o interpretar la IA.

Riesgo:

El abandono temprano de la tecnología. La IA pasa a ser “un lujo importado” que nadie sabe cómo usar, mantener o adaptar.

4.Exclusión de las lenguas y saberes locales

La mayoría de interfaces de IA en salud están diseñadas en inglés, francés o alemán. En muchos países en desarrollo, los trabajadores comunitarios y los pacientes no dominan estos idiomas.

Ejemplo:

Un chatbot de triage automatizado no fue comprendido por pacientes en Etiopía porque no reconocía el idioma amárico, ni las formas culturales de describir síntomas.

Efecto dominó:

  • Baja adherencia.

  • Confusión.

  • Rechazo comunitario.

Solución potencial:

IA multilingüe y adaptada culturalmente, desarrollada con participación activa de comunidades locales.

5.Sesgos que refuerzan desigualdades

Las IA heredan los sesgos de sus datos y programadores. Si se entrenan solo con datos de hospitales privados, clases medias o poblaciones urbanas, invisibilizan las realidades rurales y marginadas.

Ejemplo:

Un modelo de predicción de complicaciones quirúrgicas solo detectaba riesgos altos en pacientes con antecedentes médicos digitales completos. ¿El problema? La mayoría de pacientes rurales no tenía historia clínica digital, por lo que el sistema los consideraba “de bajo riesgo” por defecto.

Resultado:

Desigualdad en el acceso a intervenciones preventivas y seguimiento adecuado.

6.Dependencia tecnológica sin soberanía ni apropiación

Muchos países en desarrollo importan IA como un “producto cerrado”, sin control sobre sus componentes, sin posibilidad de modificarla, traducirla o auditarla. Esto impide:

  • Corregir errores.

  • Adaptar los modelos a nuevas realidades epidemiológicas.

  • Desarrollar capacidades locales.

Riesgo geopolítico:

Una nueva forma de dependencia colonial, en la que los datos son locales, pero el valor y las decisiones se concentran en empresas del norte global.

Conclusión

La inteligencia artificial en salud puede ser una herramienta poderosa para reducir inequidades. Pero si se diseña con una visión del Primer Mundo y se impone sin adaptación, puede ser contraproducente.

Principales riesgos identificados:

  • Modelos mal calibrados para realidades locales.

  • Infraestructura insuficiente.

  • Exclusión lingüística y cultural.

  • Sesgos que profundizan desigualdades.

  • Pérdida de soberanía tecnológica.

¿Cuál es la alternativa?

Una IA en salud desarrollada con, por y para las comunidades locales. Con datos representativos, infraestructura adecuada y visión contextual.

Si no se contextualiza, la IA puede convertirse en un “remedio tóxico”. Pero si se construye desde el sur, con colaboración, ética y visión local, puede ser una verdadera medicina para la equidad global.

¿Crees que las herramientas de IA que usas en salud están realmente pensadas para nuestra realidad?

¿Qué adaptaciones serían necesarias para que funcionen en tu entorno de trabajo?

Te invitamos a dejar tu opinión en los comentarios. ¡Tu experiencia puede inspirar soluciones más justas y contextualizadas!