¿Qué pasa si los algoritmos de IA para uso médico se entrenan con datos de poblaciones muy distintas a la argentina y reproducen sesgos o maneras de pensar de quienes los diseñan? Expertos argentinos alertan sobre el riesgo y plantean estrategias para minimizarlo
- 5 minutos de lectura'
En los últimos años se registró un aumento notable en la investigación de modelos de inteligencia artificial (IA) destinados al análisis automatizado de las imágenes médicas, lo que promete diagnósticos más rápidos y precisos en enfermedades que van desde el cáncer de mama hasta la esclerosis múltiple. Sin embargo, a medida que crece su aplicación, también comenzaron a surgir advertencias sobre la posibilidad de sesgos en los resultados de estos modelos en ciertas subpoblaciones (por edad, etnia o género, entre otras). En salud, un sistema basado en IA que cumple mejor su tarea en un grupo de individuos que en otro puede derivar en profundas desigualdades a la hora del acceso a los diagnósticos y tratamientos apropiados.
Así, comenzó a ganar fuerza un campo emergente dentro de las ciencias de la computación: el de la llamada “justicia algorítmica” en aprendizaje automático (o “machine learning”). En este contexto, un grupo formado por científicos del Instituto de Investigación en Señales, Sistemas e Inteligencia Artificial -“sinc(i)”- y del programa de Inteligencia Artificial del Departamento de Informática en Salud del Hospital Italiano de Buenos Aires (DIS-HIBA), publicaron en Nature Communications un comentario en el que presentan un estado de situación sobre este tema y advierten sobre los desafíos a resolver, poniendo el foco en el análisis de las imágenes médicas. En 2020, desde el sinc(i), que depende de la Universidad Nacional del Litoral (UNL) y del CONICET, ya habían publicado un trabajo pionero sobre el sesgo de género que pueden adquirir los modelos de diagnóstico asistido por computadoras si son “entrenados” con datos desbalanceados.
“El campo de la justicia algorítmica busca asegurar que el desempeño de un modelo dado no esté injustamente sesgado según atributos demográficos”, explicó a la Agencia CyTA-Leloir María Agustina Ricci Lara, del DIS-HIBA. La bioingeniera, que encabezó el nuevo estudio en el contexto de su doctorado, añadió: “El riesgo de estos sesgos radica principalmente en brindar diferentes estándares de cuidado a grupos de individuos por el mero hecho de pertenecer a un determinado sector de la población. Podría implicar, por ejemplo, ofrecer diversas tasas de asignación de recursos o de indicación de tratamientos”.
El debate sobre esta área está creciendo a tal punto, que el año pasado la Organización Mundial de la Salud (OMS) presentó su informe “Ética y gobernanza de la inteligencia artificial en el ámbito de la salud”. Allí reconoce los beneficios de la IA en la investigación, el diagnóstico y la detección de enfermedades, pero advierte sobre los desafíos y riesgos “de los sesgos codificados en los algoritmos”.
Ricci Lara realiza su doctorado en la Universidad Tecnológica Nacional (UTN), en el que trabaja sobre el desarrollo de nuevos métodos de aprendizaje automático justos y adaptables para el procesamiento de imágenes médicas, junto a los especialistas en inteligencia artificial Rodrigo Echeveste y Enzo Ferrante, ambos investigadores de CONICET en el sinc(i) y quienes la dirigen en su tesis.
“Pudimos comprobar que muchos de los casos en los que se han evaluado sesgos corresponden a la detección de patologías en especialidades como radiología, dermatología, oftalmología y cardiología. Evaluamos cada una de las bases de datos utilizadas en estos estudios y encontramos que la mayoría de ellas proceden de países de altos ingresos, lo que provoca que los algoritmos sean entrenados con poblaciones de características sociodemográficas y situaciones epidemiológicas muy diferentes a las de Latinoamérica, África y Asia”, aseguró Ricci Lara.
Según ella, los sesgos surgen principalmente en tres instancias: las bases de datos; los propios modelos de IA; y las personas a cargo del diseño de estas soluciones que inintencionalmente pueden incorporar sus propios sesgos o modos de pensar a la herramienta. “En este sentido –enfatizó–, hay ciertas estrategias que se pueden utilizar para minimizar el riesgo: la elección de las definiciones de justicia algorítmica adecuadas, la adopción de métodos capaces de lidiar con las diferencias en los datos, y la conformación de grupos de trabajo interdisciplinarios con múltiples puntos de vista”. La investigadora también subrayó que en el contexto de la salud es un gran desafío la creación de bases de datos internacionales y de acceso público que representen al conjunto de la población y no sólo la de los países centrales.
Una mirada local
Enzo Ferrante colabora con el proyecto “Gestión epidemiológica basada en inteligencia artificial y ciencia de datos” (ARPHAI), dirigido por el Centro Interdisciplinario de Estudios en Ciencia, Tecnología e Innovación (CIECTI), una asociación civil con sede en el Polo Científico de Palermo. Allí, analizan datos de salud incorporando una dimensión de detección y mitigación de sesgo para mejorar las capacidades de la Historia Clínica Electrónica que impulsa el Ministerio de Salud de la Nación. “Si bien en este proyecto no se trabaja con imágenes médicas, ponemos en práctica muchas de las cuestiones que planteamos en Nature Communications respecto a la necesidad de abordar la problemática de los sesgos desde una perspectiva multidimensional”, señaló Ferrante.
Tanto él como Ricci Lara y Echeveste buscan promover, desde sus respectivos espacios, la evaluación de algoritmos en la población argentina contemplando toda su diversidad, para implementarlos en la práctica clínica.
“Diversidad no sólo a nivel demográfico, sino también en términos de las enfermedades locales, como el Chagas. Es importante contar con datos propios que nos permitan estudiar este tipo de enfermedades que no son frecuentes en otros lugares”, destacó Ricci Lara, quien hizo foco también en la importancia de crear bases de datos latinoamericanas que puedan ser utilizadas para entrenar nuevos modelos, pero también para evaluar los que ya están siendo utilizados en otras partes del mundo. “Esto es costoso y requiere de trabajo mancomunado entre distintas instituciones y el apoyo estatal”, concluyó.
Agencia CyTAOtras noticias de Inteligencia artificial
Más leídas de Tecnología
En enero. ChatGPT prepara una función clave para transformarse en un verdadero asistente
Para incentivar más descubrimientos. Cómo funciona la nueva IA de la Nasa que recopila toda la información científica de la Tierra
Serie ochentosa. Cómo activar el “modo Stranger Things” en WhatsApp
Según la IA. Cuáles son las “peores” carreras universitarias para estudiar en 2025