Lo que aprendimos: 10 lecciones clave tras 2 meses explorando la IA en salud en el Tercer Mundo

Una mirada reflexiva para comprender el presente y orientar el futuro.

INTELIGENCIA ARTIFICIAL IA EN TERCER MUNDO

Dr Enrique Angarita

8/5/20254 min leer

Durante dos meses en Iamedica.org, nos sumergimos en una conversación profunda y plural sobre el papel de la inteligencia artificial en los sistemas de salud de países en desarrollo. Fueron 18 publicaciones, más de 30 mil palabras, decenas de ejemplos reales, entrevistas, análisis críticos y propuestas.

Hablamos de brechas tecnológicas y promesas incumplidas. De esperanza y escepticismo. De ética, equidad y oportunidad. Y, sobre todo, del derecho de todos los pueblos a beneficiarse de los avances de la inteligencia artificial, sin convertirse en sus víctimas.

Este artículo no busca resumir todo. Busca destilar las 10 lecciones más potentes y urgentes que surgieron a lo largo de esta travesía editorial. Lecciones que pueden —y deben— guiar el desarrollo de una IA médica más justa, humana y efectiva.

1. La IA en salud puede salvar vidas, pero solo si llega a tiempo, al lugar correcto y con sentido local

La inteligencia artificial tiene un potencial transformador en contextos de salud pública: puede detectar epidemias, mejorar diagnósticos, reducir errores y optimizar recursos.

Pero una IA mal contextualizada puede ser irrelevante o incluso perjudicial. No basta con desplegarla. Hay que diseñarla desde el terreno.

2. La brecha digital no es solo de dispositivos: es de poder, lenguaje y representación

Tener internet no significa saber usarlo. Tener acceso a un chatbot no significa comprenderlo.

Las poblaciones más excluidas del sistema sanitario también lo están de los datos, las tecnologías y los debates sobre IA.

Una IA verdaderamente inclusiva debe empezar por escuchar y representar a quienes nunca han sido escuchados ni representados.

3. Sin alfabetización digital, la IA no es una herramienta: es una barrera

En múltiples publicaciones vimos que la falta de conocimientos básicos sobre cómo usar tecnologías es una de las principales razones por las que la IA en salud fracasa en comunidades rurales, indígenas o periféricas.

Enseñar, acompañar, adaptar, traducir: pasos necesarios antes de implementar cualquier sistema de IA.

4. Lo barato no siempre es sinónimo de limitado

Una de las grandes sorpresas fue constatar que existen modelos de IA de bajo costo que están transformando la salud en lugares con recursos muy limitados.

Desde sistemas de triaje automatizado en clínicas rurales hasta apps comunitarias para monitorear embarazos de alto riesgo.

Lo importante no es el presupuesto. Es el sentido, la co-creación y la utilidad percibida.

5. El riesgo de importar tecnologías del Primer Mundo sin ajustes culturales es real

Una IA diseñada para Boston no puede funcionar igual en Buenaventura.

Variables culturales, idiomáticas, epidemiológicas, sociales y económicas deben ser consideradas desde el entrenamiento hasta la implementación.

El sesgo de diseño es uno de los mayores desafíos éticos de la IA global.

6. La ética no es un extra: es el núcleo

El consentimiento informado, la privacidad, la explicabilidad del algoritmo, la no discriminación y la rendición de cuentas no son temas teóricos.

En contextos de vulnerabilidad, son esenciales para no repetir errores coloniales tecnológicos.

La IA sin ética no es innovación: es imposición.

7. La participación comunitaria no solo es deseable: es imprescindible

Donde la IA ha funcionado mejor es donde se diseñó con las personas, no para las personas.

Incluir pacientes, líderes, profesionales locales, sabedores tradicionales y jóvenes de las comunidades no solo mejora el producto: lo legitima y lo fortalece.

8. La colaboración internacional puede ser una fuerza positiva —o una forma de dependencia

Latinoamérica tiene talento, datos, necesidades y creatividad.

Pero muchas veces, los desarrollos de IA vienen del Norte Global y se aplican sin adaptación.

La colaboración debe ser horizontal, respetuosa y con transferencia real de capacidades. De lo contrario, solo refuerza el modelo extractivista.

9. La resistencia local a la IA es una oportunidad de aprendizaje, no un obstáculo

El rechazo a herramientas de IA en algunas comunidades no es ignorancia: es sabiduría defensiva.

Escuchar esos miedos, explicarlos, resolverlos o incluso aceptar el “no” como una decisión válida es parte de construir confianza tecnológica.

10. No hay IA transformadora sin políticas públicas que la regulen, fomenten y orienten con justicia social

El futuro de la IA médica no puede quedar en manos exclusivas de startups o multinacionales.

Necesitamos marcos regulatorios éticos, inclusivos, adaptativos.

Políticas que promuevan investigación local, financiamiento justo, formación profesional y supervisión efectiva.

Conclusión

Durante dos meses hemos aprendido, juntos, que la IA en salud no es magia, pero tampoco es mito.

Es una herramienta poderosa que puede ayudar a cerrar brechas… o ampliarlas.

Depende de cómo se diseña, de para quién, de con qué ética, con qué datos y con qué intenciones.

Desde Iamedica.org creemos que la conversación apenas empieza.

Y queremos que sea plural, crítica, compasiva y propositiva.

📣 ¿Qué lecciones sumarías tú?

¿Qué otras experiencias conoces? ¿Qué actores están quedando por fuera del debate?

📩 Escríbenos a contacto@iamedica.org o deja tu reflexión en los comentarios.

📅 El próximo viernes 8 de agosto cerraremos esta serie con un editorial provocador:

🌎 Latinoamérica ante la revolución de la IA médica: ¿vamos a liderar o a recibir lo que nos den?

Gracias por acompañarnos.

Nos vemos en el futuro.