La equidad en salud como principio rector del desarrollo de IA médica

Exploraremos iniciativas globales, propuestas normativas, y ejemplos en los que la IA se ha concebido no solo como una herramienta de eficiencia, sino como un puente hacia la justicia sanitaria.

INTELIGENCIA ARTIFICIAL IA, SALUD Y EQUIDAD

Dr Enrique Angarita

6/7/20253 min leer

worm's-eye view photography of concrete building
worm's-eye view photography of concrete building

En la práctica médica cotidiana, el principio de equidad implica brindar más a quienes más lo necesitan, considerando las desigualdades sociales, económicas, culturales y territoriales que afectan la salud. Pero ¿cómo se traduce este principio cuando las herramientas clínicas empiezan a ser diseñadas por algoritmos?

A medida que la inteligencia artificial (IA) se integra en los sistemas de salud, surgen preguntas fundamentales: ¿Es posible diseñar IA que respete y promueva la equidad? ¿Qué implica centrar los desarrollos tecnológicos en las poblaciones históricamente marginadas? ¿Qué riesgos enfrentamos si no lo hacemos?

En este artículo, abordaremos la equidad como guía ética, técnica y política en el desarrollo de IA en salud.

¿Qué entendemos por equidad en salud?

La equidad en salud se refiere a la ausencia de desigualdades injustas y evitables en el acceso, la calidad y los resultados del cuidado sanitario. Va más allá de la igualdad: no se trata de ofrecer lo mismo a todos, sino de responder proporcionalmente a las necesidades específicas de cada grupo.

En el contexto de la IA, aplicar este principio implica diseñar modelos que no solo sean técnicamente robustos, sino también sensibles al contexto, la diversidad humana y las asimetrías estructurales.

¿Por qué la equidad debe ser central en la IA médica?

  1. Porque la tecnología no es neutra
    Cada algoritmo refleja las decisiones de sus creadores: qué problema se aborda, qué datos se usan, a quién se prioriza. La omisión de criterios de equidad puede perpetuar injusticias invisibles en procesos automatizados.

  2. Porque los sistemas de salud ya son desiguales
    En Latinoamérica, por ejemplo, la brecha entre zonas rurales y urbanas, entre afiliados a diferentes regímenes, o entre personas con y sin educación formal, es profunda. Si la IA no se diseña para mitigar estas diferencias, las puede agravar.

  3. Porque el potencial transformador de la IA puede perderse
    La IA podría democratizar el acceso al conocimiento médico, optimizar recursos escasos o empoderar a comunidades marginadas. Pero para lograrlo, debe tener una orientación deliberada hacia la justicia.

¿Qué implica una IA médica centrada en la equidad?

Una IA médica equitativa:

  • Reconoce y visibiliza a los grupos subrepresentados (indígenas, personas con discapacidades, comunidades afrodescendientes, rurales, etc.).

  • Adapta modelos y tecnologías a contextos reales: lenguas locales, baja conectividad, alfabetización limitada.

  • Evita generalizaciones peligrosas: un algoritmo entrenado en hospitales norteamericanos no debe aplicarse automáticamente en comunidades amazónicas.

  • Incluye múltiples voces en su diseño: pacientes, trabajadores de la salud, líderes comunitarios, tecnólogos y gestores públicos.

  • Es transparente, explicable y auditable para que sus decisiones no sean una “caja negra” inaccesible.

Marcos éticos y guías internacionales

Organizaciones como la OMS, la UNESCO y la OCDE han propuesto marcos que colocan la equidad en el centro del desarrollo tecnológico en salud. Algunos puntos clave incluyen:

  • OMS – Principios para la gobernanza de la IA en salud (2021):

    • Promover la autonomía de los individuos

    • Asegurar la inclusividad y equidad

    • Fomentar el bienestar humano y la seguridad

  • UNESCO – Recomendación sobre la Ética de la IA (2021):

    • Subraya la necesidad de corregir los desequilibrios históricos en los datos y en el acceso a la innovación.

  • Principios FAIR y CARE sobre datos:

    • FAIR: Datos que sean Findable, Accessible, Interoperable, Reusable.

    • CARE: Para datos de pueblos indígenas, que sean Collective Benefit, Authority to Control, Responsibility, Ethics.

Estas guías no son meramente normativas; son herramientas para impulsar desarrollos tecnológicos más responsables y democráticos.

Ejemplos reales: hacia una IA con justicia social

  • "Ada Health" adaptada para África Oriental:
    Un sistema de diagnóstico por IA que modificó su base de conocimientos para incluir enfermedades prevalentes en entornos rurales africanos y consultas sin necesidad de Internet. Se ajustó al lenguaje y a la estructura cultural local.

  • Proyecto “Data for Black Lives” (EE.UU.):
    Organización que impulsa la inclusión de datos de comunidades negras para contrarrestar décadas de exclusión en estudios clínicos y modelos de IA.

  • Plataformas móviles en India para salud materna:
    IA utilizada para personalizar educación en salud y detectar riesgos obstétricos en zonas rurales, diseñada desde cero con la comunidad local.

Estos casos demuestran que, cuando la equidad es parte del diseño y no un adorno posterior, la IA puede tener un impacto tangible y positivo.

Conclusión

El desarrollo de inteligencia artificial en salud no debe limitarse a parámetros técnicos. Es, ante todo, una cuestión ética y política. No basta con construir algoritmos precisos; debemos construir algoritmos justos.

Centrar la equidad como principio rector implica reconocer las desigualdades existentes y tomar decisiones tecnológicas conscientes para reducirlas. Solo así podremos construir herramientas verdaderamente transformadoras, que sirvan a todos, y no solo a quienes ya están en ventaja.

¿Te parece realista pensar en una IA centrada en la equidad? ¿Conoces iniciativas o experiencias que estén haciendo la diferencia?
Déjanos tu comentario o comparte este artículo en iamedica.org. Queremos escucharte.