INTELIGENCIA artificial en el tercer mundo...
¿Qué podemos hacer hoy para construir una IA médica más equitativa? Acciones urgentes desde la academia, el sector salud y la ciudadanía
Este artículo no se centra en lo que deben hacer los gobiernos o las grandes tecnológicas. Se enfoca en lo que podemos hacer hoy, desde nuestros roles como profesionales de la salud, investigadores, estudiantes, activistas o ciudadanos informados. Porque construir una IA más equitativa es una tarea colectiva y urgente.
INTELIGENCIA ARTIFICIAL IA, SALUD Y EQUIDAD
Dr Enrique Angarita
6/27/20253 min leer
La inteligencia artificial (IA) en salud está dejando de ser un concepto futurista para convertirse en una herramienta cotidiana. Desde algoritmos que ayudan a detectar enfermedades hasta sistemas que optimizan el uso de recursos hospitalarios, la IA promete revolucionar la medicina.
Pero también plantea un dilema: ¿quién se beneficia y quién queda atrás?
En entornos donde la inequidad en salud es histórica —como en muchos países de América Latina y el sur global— la implementación sin reflexión puede reproducir o incluso ampliar las brechas existentes.
1. Desde la academia: formar mentes críticas y responsables
a. Incorporar ética e inequidad en los currículos
Muchos programas de medicina, enfermería, salud pública y ciencias computacionales ya hablan de IA. Pero pocos abordan la equidad, la justicia algorítmica o la ética en entornos diversos.
Propuesta:
Cursos interdisciplinarios sobre IA, ética y salud pública.
Estudio de casos reales de sesgos algorítmicos.
Fomento de investigaciones con enfoque de derechos humanos y determinantes sociales.
b. Promover investigaciones inclusivas
La academia debe dejar de reproducir modelos hegemónicos centrados en datos del norte global.
Propuesta:
Incentivar el uso de datos locales y contextualizados.
Fomentar proyectos de IA que respondan a necesidades comunitarias reales.
Exigir diversidad en las poblaciones estudiadas.
2. Desde el sector salud: implementar con conciencia
a. Preguntar antes de aplicar
Antes de implementar una tecnología con IA, los equipos de salud deberían preguntarse:
¿A quién podría dejar fuera?
¿Qué sesgos podría estar arrastrando?
¿Está validada en la población que atiendo?
Propuesta:
Protocolos de evaluación ética antes de adoptar nuevas tecnologías.
Comités de revisión con participación de pacientes y comunidad.
b. Capacitar en alfabetización digital crítica
No basta con saber usar la IA: hay que entender sus límites y riesgos.
Propuesta:
Talleres de capacitación para personal clínico sobre sesgos, explicabilidad y responsabilidad algorítmica.
Guías prácticas de uso responsable en contextos de alta vulnerabilidad.
3. Desde la ciudadanía: participación y vigilancia tecnológica
a. Exigir transparencia y explicaciones
Como pacientes y ciudadanos tenemos derecho a saber cómo y por qué una IA toma decisiones sobre nuestra salud.
Propuesta:
Demandar consentimiento informado claro y comprensible.
Participar en consultas públicas sobre tecnologías sanitarias.
b. Involucrarse en procesos comunitarios
Existen experiencias de laboratorios ciudadanos, observatorios de tecnología o redes comunitarias que ya discuten el impacto de la IA en salud.
Propuesta:
Promover espacios locales de diálogo y reflexión.
Apoyar iniciativas de justicia tecnológica lideradas por colectivos sociales.
4. Acciones posibles para cada rol
Rol ¿Qué puedes hacer hoy? Profesional de salud Cuestiona el origen y validez de las herramientas de IA que usas. Habla con tus pacientes sobre su uso. Docente universitario Introduce debates sobre ética y justicia en salud digital en tus clases. Investigador/a Diseña estudios que incluyan poblaciones vulnerables y eviten sesgos de selección. Gestor/a de salud Evalúa si las tecnologías que adquieres consideran principios de equidad y accesibilidad. Estudiante Participa en espacios interdisciplinarios. Pregunta por qué ciertas tecnologías se usan y otras no. Activista o ciudadano Únete o impulsa redes de vigilancia tecnológica desde una mirada de derechos.
Pequeñas acciones, grandes impactos
A veces, pensar en “cambiar el sistema” puede parecer abrumador. Pero cada decisión, cada pregunta incómoda, cada espacio ganado para la discusión ética suma.
Ejemplos reales:
En una clínica rural de Perú, el equipo de salud rechazó una app de monitoreo porque no ofrecía traducción al quechua.
Un grupo de estudiantes en Colombia organizó un seminario abierto sobre “IA y justicia sanitaria”, que terminó en una propuesta para modificar el currículo.
En México, una comunidad indígena negoció con una empresa tecnológica cambios en un algoritmo de triage que excluía variables relevantes para su contexto.
Estas acciones, aunque modestas, cambian el rumbo del desarrollo tecnológico.
Conclusión
La equidad no es una opción, es un imperativo. Y cuando hablamos de IA en salud, no basta con confiar en el desarrollo técnico: hay que implicarse, exigir, construir colectivamente.
Cada persona, desde su rol, puede ser un agente de cambio. Una IA médica más justa no se decreta desde arriba, se construye desde abajo, con conciencia, participación y compromiso.
Hoy, más que nunca, necesitamos una inteligencia artificial que no solo sea inteligente, sino también humana, justa y solidaria.
¿Has visto o vivido situaciones en las que la tecnología en salud no ha sido justa? ¿Qué crees que podríamos hacer mejor como comunidad?
Déjanos tus ideas en iamedica.org.
Porque construir una IA equitativa empieza por hablar de lo que incomoda.