Un proyecto dirigido por Enzo Ferrante,
investigador del CONICET en el Instituto de Investigación en Señales, Sistemas
e Inteligencia Computacional (sinc(i),CONICET-UNL), denominado “Descubrimiento
de sesgo no supervisado: anticipando problemas de equidad algorítmica en
modelos de machine learning para análisis de imágenes médicas sin anotaciones
de referencia”, fue seleccionado para el
Google Award for Inclusion Research(Google AIR), un reconocimiento
internacional que otorga la empresa a investigadores que logran trabajos con
impacto positivo en el bien común.
Ferrrante explica que Google AIR es un programa
internacional altamente competitivo que, en esta ocasión, ha premiado grupos de
la New York University, de Stanford y de seis instituciones latinoamericanas,
entre las que se halla la el equipo que integra Ferrante con Victoria Peterson
(co-directora del proyecto galardonado), investigadora del CONICET en el Instituto de Matemática
Aplicada del Litoral (IMAL, CONICET-UNL), y los investigadores del CONICET
Diego Milone y Rodrigo Echeveste –también del sinc(i)-, y becarios/as con tesis
doctorales en temáticas afines.
Sobre el proyecto premiado
En los últimos años se experimenta a nivel
internacional una expansión de la investigación en modelos de inteligencia
artificial (IA) aplicados al análisis automatizado de imágenes médicas, con la
finalidad de lograr mayor precisión y velocidad en los diagnósticos de
numerosas enfermedades, que van del cáncer de mamas a la esclerosis múltiple.
La rápida expansión en la implementación de estas técnicas hace que sea muy
importante investigar sobre los márgenes de error en los resultados, donde se
verifican ciertos “sesgos” que se manifiestan a través de rendimientos dispares
en modelos de IA aplicados a poblaciones diversas que, generalmente, están
subrepresentadas en las bases de datos utilizadas para su entrenamiento.
En materia de salud, los sistemas basados en IA
pueden arrojar resultados diferentes según el grupo al que se aplica, lo que
conlleva diferencias que pueden ser muy importantes al momento de diagnosticar
y proponer los tratamientos más convenientes. Ante esto, los expertos
argentinos alertan sobre el riesgo de reproducir sesgos propios de bases de
datos diseñadas en el extranjero, por lo que orientaron sus investigaciones en
base a estrategias destinadas a minimizar los efectos nocivos que pueden plantearse
a nivel local.
Dentro de las ciencias de la computación ha nacido
un campo de estudio denominado “justicia algorítmica en aprendizaje
automático”, área novedosa a la que se dedica el grupo de Ferrante, que ya ha
logrado publicaciones pioneras en prestigiosas revistas como Proceedings of the
National Academy of Sciences (PNAS) y Nature Communications. En cuanto al tema
particular del proyecto, en los últimos años se ha demostrado que los sistemas
de IA pueden estar sistemáticamente sesgados respecto a subpoblaciones en
función de características demográficas como el grupo étnico o el género en una
variedad de escenarios.
El término “sesgado” -en este contexto- hace
referencia a modelos de IA que presentan un rendimiento dispar en función del
grupo demográfico al que la persona pertenece. Cuando se trata de sistemas de
IA que analizan datos de salud, el tema adquiere mucha relevancia para las
tareas de análisis de imágenes médicas, como el diagnóstico asistido por
computadora. En este caso, sostiene Ferrante, “es vital auditar los modelos
considerando diferentes poblaciones, evaluando las métricas de equidad para
determinar el potencial desempeño dispar entre los subgrupos, por ejemplo,
sistemas que presenten un mejor rendimiento en hombres que en mujeres o en
pacientes jóvenes que en pacientes adultos”.
En el proyecto financiado por Google, el objetivo
de los investigadores es desarrollar nuevos métodos para el descubrimiento de
sesgos no supervisados en ausencia de información demográfica y anotaciones de
expertos, que pueden ayudar a anticipar problemas de equidad al utilizarlos en
nuevas poblaciones. “Ser capaces de descubrir este tipo de sesgo en los
sistemas de IA, yendo más allá de las categorías demográficas predefinidas,
puede resultar muy útil para evitar un rendimiento de diagnóstico dispar,
especialmente cuando se consideran aspectos como identidad de género u
orientación sexual, que son construcciones culturales fluidas y que pueden
cambiar con el tiempo, a través de contextos sociales y no se pueden
categorizar fácilmente”, afirma Ferrante.
El proyecto cuenta con el financiamiento y
respaldo del CONICET, de la Facultad de Ingeniería y Ciencias Hídricas de la
Universidad Nacional del Litoral y de la Agencia Nacional de Promoción de la
Investigación, el Desarrollo Tecnológico y la Innovación.
No hay comentarios.:
Publicar un comentario