INTELIGENCIA artificial en el tercer mundo...
Resistencia local a la IA en salud: mitos, temores y respuestas necesarias
Cuando la tecnología no convence, no se adopta. ¿Sabemos escuchar las razones detrás del rechazo?
INTELIGENCIA ARTIFICIAL IA EN TERCER MUNDO
Dr Enrique Angarita
8/1/20254 min leer


Los modelos de inteligencia artificial en salud se presentan como una oportunidad para mejorar el acceso, la calidad y la eficiencia en los sistemas sanitarios del Tercer Mundo. Sin embargo, no todos los pacientes, profesionales o comunidades reciben con los brazos abiertos estas innovaciones.
En algunos territorios, los sistemas de IA son ignorados. En otros, rechazados activamente. Las razones son múltiples: desconfianza, desconocimiento, experiencias negativas, barreras culturales, miedo a ser reemplazados o simplemente no entender cómo funciona la herramienta.
Esta resistencia no es irracional. Es una señal de alerta. Un llamado a revisar cómo diseñamos, comunicamos e implementamos tecnologías en contextos diversos.
En este artículo analizamos los mitos más comunes, los temores fundados y no fundados, y las estrategias que pueden convertir la resistencia en participación activa.
1. ¿Qué entendemos por “resistencia local” a la IA?
Es la reticencia, rechazo, indiferencia o incluso boicot activo frente a tecnologías basadas en inteligencia artificial aplicadas a la salud.
Puede venir de:
🧑🏽 Pacientes
👩🏻⚕️ Personal de salud
🧓🏼 Líderes comunitarios
🏛️ Instituciones locales
🙅♀️ Grupos organizados que se oponen al uso de IA por motivos culturales, éticos o políticos.
La resistencia puede manifestarse de muchas formas:
No descargar una app médica.
Negarse a ser atendido por un sistema automatizado.
Bloquear el uso de chatbots en centros de salud.
Rechazar diagnósticos o sugerencias de IA.
Desacreditar públicamente proyectos tecnológicos.
2. Mitos comunes que alimentan la resistencia
❌ “La IA va a reemplazar a los médicos”
Este temor, muy extendido incluso entre profesionales, genera angustia y sabotaje silencioso. La verdad: la IA es una herramienta de apoyo, no de sustitución (y no debería serlo).
❌ “Me están espiando”
Muchos pacientes creen que los sistemas digitales de salud graban conversaciones, comparten datos con el gobierno o venden su información a empresas. Algunas veces, con razón.
❌ “No entiendo para qué sirve”
Si el paciente o el médico no ven una ventaja clara y tangible, la IA se percibe como una carga extra, no como un beneficio.
❌ “Eso no es para nosotros, es para los gringos”
La falta de adaptación cultural o lingüística de muchas plataformas genera la sensación de que son herramientas extranjeras, elitistas o ajenas.
3. Temores fundados en realidades
Modelos que no han sido validados localmente.
Algoritmos entrenados con datos de otras poblaciones.
Herramientas que fallan más con mujeres, indígenas o personas mayores.
Intervenciones tecnológicas sin diálogo previo con la comunidad.
Desplazamiento de profesionales sin reentrenamiento.
En estos casos, la resistencia es legítima. No es ignorancia. Es defensa de la calidad, la identidad y la dignidad.
4. ¿Por qué debemos tomar en serio esta resistencia?
Porque la aceptación social es un pilar del éxito tecnológico.
Porque la confianza no se impone, se construye.
Porque ignorar estas voces agrava la brecha digital.
Y porque cada comunidad tiene derecho a decir no, o a decir cómo.
5. Estrategias para transformar la resistencia en colaboración
✅ a. Escuchar antes de diseñar
Toda implementación de IA en salud debe partir de un diálogo abierto con las comunidades, no de una imposición tecnológica.
✅ b. Usar líderes comunitarios como puentes
Incluir a personas respetadas localmente como facilitadores del proceso: promotores, docentes, parteras, líderes indígenas.
✅ c. Educar con ejemplos sencillos
No basta con explicar cómo funciona la IA. Hay que mostrar con casos locales cómo puede ayudar, de forma simple, visual y emocionalmente conectada.
✅ d. Garantizar control y transparencia
Permitir que las personas elijan cuándo usar o no la IA, que puedan entender cómo se toman las decisiones y que sus datos estén protegidos.
✅ e. Respetar el ritmo y los límites culturales
La innovación no puede ser violenta ni abrupta. Si una comunidad necesita más tiempo, o decide no usar un sistema, eso también es progreso.
6. Casos que enseñan
🇲🇽 México – Chiapas: Proyecto de IA para diagnóstico prenatal
Rechazo inicial por temor a que reemplazara a las parteras.
Solución: capacitar a parteras como usuarias principales del sistema.
Resultado: aumento en la confianza y en el uso responsable de la tecnología.
🇵🇭 Filipinas – Chatbot de salud sexual para adolescentes
Al inicio, padres y docentes se opusieron por miedo a la “pérdida de valores”.
Solución: adaptar el lenguaje, incluir módulos de educación emocional y capacitar escuelas en uso responsable.
Resultado: expansión del programa con acompañamiento comunitario.
Conclusión
La resistencia a la inteligencia artificial en salud no es un problema. Es una oportunidad.
Una oportunidad para escuchar mejor, diseñar con respeto y reconstruir confianza.
La IA puede mejorar vidas solo si las personas la aceptan, la entienden y la sienten como propia. Y eso solo se logra si están incluidas desde el principio.
La tecnología que ignora la cultura, el miedo o la historia termina fracasando, por más avanzada que sea.
📣 ¿Conoces experiencias de rechazo, resistencia o conflictos frente a la implementación de IA en salud?
¿Crees que tu comunidad está preparada para estas herramientas?
📩 Escríbenos a contacto@iamedica.org o deja tu comentario.
📅 El próximo artículo será un especial editorial, el martes 5 de agosto:
🔎 “Lo que aprendimos: 10 lecciones clave tras 2 meses explorando la IA en salud en el Tercer Mundo”
🔁 Comparte esta publicación con equipos de implementación, diseñadores de tecnología, sociólogos y comunidades interesadas en una IA verdaderamente humana.
📍 Revisa toda la serie en iamedica.org