INTELIGENCIA artificial en el tercer mundo...
¿Puede la IA ser justa? El dilema de los algoritmos entrenados con sesgos
En este artículo exploramos cómo surgen los sesgos en la IA médica, cuáles son sus implicaciones concretas en contextos vulnerables, y qué estrategias pueden ayudarnos a diseñar sistemas más justos y equitativos.
INTELIGENCIA ARTIFICIAL IA, SALUD Y EQUIDAD
Dr Enrique Angarita
6/3/20253 min leer


La inteligencia artificial (IA) ha irrumpido con fuerza en el ámbito de la salud, prometiendo diagnósticos más precisos, tratamientos personalizados y mejoras en la gestión de servicios médicos. Sin embargo, bajo esta promesa tecnológica se esconde un reto crucial: la equidad. ¿Qué ocurre cuando los algoritmos que impulsan estas soluciones reproducen, perpetúan o incluso amplifican las desigualdades existentes?
En los países del sur global, donde las desigualdades estructurales son más profundas y persistentes, este interrogante se vuelve urgente. Un sistema de IA entrenado con datos ajenos a nuestras realidades puede fallar al reconocer enfermedades en ciertas poblaciones, o sesgar decisiones clínicas de manera peligrosa. La justicia algorítmica en salud no es un lujo académico: es una necesidad ética, clínica y social.
Desarrollo
¿Qué es un sesgo algorítmico?
Los algoritmos de IA, en especial los basados en aprendizaje automático, aprenden a partir de datos. Si estos datos reflejan desigualdades históricas o están desbalanceados en cuanto a representación, el algoritmo replicará esas mismas limitaciones. A esto se le conoce como sesgo algorítmico.
Por ejemplo, si un sistema de diagnóstico dermatológico ha sido entrenado mayoritariamente con imágenes de personas blancas, es probable que falle en identificar lesiones en pieles más oscuras. Lo mismo puede ocurrir en modelos de predicción de riesgo cardiovascular entrenados con datos de poblaciones urbanas ricas, que no capturan adecuadamente los factores sociales o ambientales de zonas rurales pobres.
Casos reales que ilustran el problema
Estados Unidos (2019): Un estudio publicado en Science reveló que un algoritmo ampliamente usado para gestionar la atención médica de millones de pacientes subestimaba sistemáticamente la necesidad de atención en pacientes negros. El algoritmo usaba costos previos como variable proxy de necesidad médica, sin considerar que, históricamente, los pacientes negros acceden menos a servicios y por tanto generan menos costos, aunque tengan igual o mayor necesidad clínica.
África y Asia: Diversos algoritmos para diagnóstico por imagen (retinopatía diabética, cáncer de mama, neumonía en Rx de tórax) han mostrado menor precisión en países del sur global debido a diferencias en equipos de imagen, poblaciones no representadas y variabilidad genética o ambiental.
Estos casos reflejan una verdad incómoda: los sistemas de IA no son neutros. Reproducen el mundo en que fueron creados, con sus luces y sombras.
Impacto del sesgo algorítmico en la equidad en salud
Cuando los algoritmos no son justos, los resultados en salud pueden ser directamente injustos:
Diagnósticos errados o tardíos para ciertos grupos poblacionales.
Decisiones clínicas basadas en datos irrelevantes para la población atendida.
Discriminación automatizada en sistemas de priorización o asignación de recursos.
Desconfianza de las comunidades marginadas hacia herramientas digitales de salud.
En países de renta media o baja, donde la infraestructura de salud ya es limitada, depender de tecnologías sesgadas puede agravar brechas preexistentes. La IA corre el riesgo de convertirse en una herramienta de elitismo digital si no se enfrenta esta problemática de forma ética y decidida.
¿Cómo evitar o mitigar los sesgos?
Diversidad en los datos de entrenamiento
Es clave incluir poblaciones representativas en los datasets que alimentan a los algoritmos: diversidad étnica, geográfica, de género, de edad y nivel socioeconómico.Auditorías de equidad algorítmica
Antes de implementar un sistema de IA, deben realizarse pruebas de desempeño diferenciadas en subgrupos poblacionales para identificar fallas o sesgos ocultos.Participación interdisciplinaria y comunitaria
Los equipos que diseñan tecnologías deben incluir profesionales de la salud, expertos en ética, científicos de datos… y también a representantes de las comunidades que se verán afectadas por esas tecnologías.Regulación y estándares éticos claros
Las agencias regulatorias deben exigir que los desarrolladores documenten cómo enfrentan los sesgos, qué datos usan, y cómo garantizan un desempeño equitativo.
Conclusión
La IA médica tiene el potencial de revolucionar la atención en salud, pero no es inmune a los prejuicios y desigualdades del mundo real. Si no se diseñan con cuidado, los algoritmos pueden invisibilizar a quienes más necesitan ayuda: las mujeres, los pobres, las comunidades rurales, los pueblos indígenas.
En países como los nuestros, donde la equidad en salud ya es un desafío, debemos exigir una IA que no solo sea precisa y eficiente, sino también justa y representativa. La equidad algorítmica no es una opción técnica, es un imperativo moral.
¿Crees que la IA puede ser justa en entornos desiguales? ¿Qué experiencias has tenido con tecnología médica en poblaciones vulnerables?
¡Déjanos tu opinión en los comentarios o escríbenos en iamedica.org!