Los sistemas basados en Inteligencia artificial en salud han crecido de forma acelerada en el último tiempo, trayendo beneficios, pero pudiendo conllevar riesgos al ser utilizados. ¿Qué sabemos hoy sobre sus aspectos regulatorios?
Por
Carolina Vargas
Si bien las tecnologías en salud permiten mejorar la atención del
paciente y su cuidado, cuanto más avanzan y se implementan estas tecnologías,
también presentan mayor riesgo de que se utilicen de forma no autorizada o de
forma indebida, traduciéndose en debilidades de confidencialidad y de
privacidad de la información, o también en daños directos al paciente.
Es por esto que se requiere de seguridad en los sistemas de información,
y de un marco ético y legal que ordene, dirija y proporcione límites al
accionar de los profesionales asistenciales, al equipo administrativo y los
sistemas de salud en su totalidad.
¿Cuál es el potencial de la IA en el ámbito de la salud?
Los sistemas de IA se basan en diversas técnicas que procesan datos e
información y resuelven problemas o toman decisiones que antes solo podían ser
realizadas por la capacidad cognitiva de los seres humanos.
Abarcan desde software para reconocimiento de voz, hasta asistencia para
la detección de patologías desde imágenes o estudios médicos. Tienen el
potencial de mejorar la eficiencia y calidad de la atención médica, de los
procesos hospitalarios y la seguridad del paciente, pudiendo ser aplicados como
herramientas de diagnóstico de precisión, monitoreo de pacientes, recomendación
de tratamientos, mejora de flujos de trabajo administrativo, triage, desarrollo
de nuevos medicamentos, etc.
Así, puede verse que la IA se proyecta en diversas áreas tales como salud
poblacional, salud individual, sistemas de salud, empresas farmacéuticas y
empresas de tecnología médica.
¿Por qué es importante que se hable sobre los aspectos legales o
regulatorios y éticos o de responsabilidad sobre sistemas de IA en salud?
Porque la Inteligencia Artificial apoya a los médicos en sus procesos de
atención y toma de decisiones pero no los reemplaza; se puede emplear para
realizar tareas con mayor independencia de los médicos; los pacientes esperan
el apoyo de herramientas o equipos para el diagnóstico/ tratamiento de su
enfermedad pero no suelen confiar fácilmente; y además, puede terminar
sucediendo que los médicos confíen en la información de un algoritmo de IA que
no es verificable.
Por ejemplo, están los algoritmos llamados de “caja negra”, en los
cuales existe falta de transparencia, es decir que en tanto los algoritmos sean
de mayor complejidad, también son más difíciles de entender.
Por otro lado, los sistemas de IA pueden ser falibles si los datos que
utilizan para sus algoritmos y entrenamientos no son correctos o tienen sesgos.
También, estos datos requieren de un tratamiento específico por su cualidad de
sensibles en los términos de la Ley 25326 de Protección de datos personales.
A medida que se amplía o crece la implementación de herramientas de IA a
la práctica médica, surgen interrogantes médico-legales sobre las posibles
implicaciones legales de esto.
Y entonces.. ¿Cuál es el marco legal que se necesita para regular los
sistemas de IA en la práctica médica, permitiendo que estos beneficien a los
pacientes, a la vez que eviten consecuencias no deseadas?
De manera simple, se entiende como marco legal al conjunto de leyes y
reglamentos que indican los límites y las bases sobre las que una persona o una
institución puede actuar.
La OPS presenta dentro de sus 8 principios rectores de transformación
digital del sector de la salud, en su 6to principio que trata sobre IA, algunos
llamados a la acción entre los que se encuentran, relacionados al aspecto
legal, el de: “Acelerar los marcos ético-legales, la capacitación y encuentro
de talento de inteligencia artificial de alto nivel. Construir una disciplina
académica de inteligencia artificial mediante la formación de equipos
multidisciplinarios (p. ej., profesionales de la salud, científicos de datos,
profesionales legales) que fomenten temas de transparencia, explicabilidad y
auditoría algorítmica, entre otros”.
Además, en su publicación sobre IA en salud pública, establece los
siguientes principios rectores de la IA para mitigar el riesgo ético y legal:
- Centrada en las personas: respetando los derechos de la personas y
fundamentándose en los principios éticos de dignidad humana, beneficencia, no
maleficencia, autonomía y justicia.
- Transparente: el enfoque del algoritmo se debe comunicar.
- Protección de los datos: teniendo en cuenta la privacidad,
confidencialidad y seguridad.
- Integridad científica: las intervenciones de IA se apliquen a
prácticas confiables, reproducibles, justas y honestas, y que posibiliten la rendición
de cuentas.
- Abierta y compartible: que se compartan los conceptos del algoritmo.
- No discriminatoria: evitando los sesgos.
- Controlada por seres humanos: control y revisión por seres humanos de
las decisiones automatizadas.
En Argentina existen el observatorio de salud de la Facultad de Derecho
de la UBA y el Laboratorio de Innovación e Inteligencia Artificial de la UBA
donde se encuentra en constante debate el tema sobre legislación de los
sistemas de IA, y de hecho voy a mencionar, un aspecto importante que resalta
el Dr Juan Corvalán, cofundador del Laboratorio, a modo de recomendación para
el establecimiento de un marco regulatorio específico. La recomendación, es que
se debe discernir sobre qué tipo de sistema inteligente, qué algoritmo, está
detrás, es decir, si está basado en conocimientos o en datos.
Si está basado en conocimientos, el desafío de regulación es más bajo;
pero si está basado en datos, el desafío es mucho mayor porque la máquina
aprende de los datos y por ejemplo, en el caso de deep learning la agenda de
regulación debe ser más robusta, se debe evaluar el impacto o establecer un
sistema robusto de auditabilidad y de transparencia para entender el origen de
los problemas y sesgos al auxiliar a los profesionales de la salud.
Con respecto a leyes establecidas en Argentina, existe la Ley 25.326
sobre protección de datos personales, pero no un marco regulatorio sobre IA.
En Argentina, se consideran a los sistemas de IA en salud como
dispositivos médicos, y por lo tanto, al igual que la FDA en Estados Unidos, la
ANMAT (Administración Nacional de Medicamentos, Alimentos y Tecnología Médica)
debe regular los sistemas. Se pueden encontrar los dispositivos
aprobados en la página oficial de https://helena.anmat.gob.ar .
Como evidencia, se menciona que la ANMAT aprobó ENTELAI PIC, una
herramienta desarrollada en Argentina para diagnóstico de COVID-19 a través de
la lectura de radiografías de tórax, y fue aprobada como producto médico Clase
I, siendo su descripción “Software para procesamiento automatizado de imágenes
médicas”. Además, la Anmat trabaja en la
Artificial Intelligence Medical Devices (AIMD), un grupo de trabajo
perteneciente al foro internacional de reguladores de dispositivos médicos
(IMDRF) con un enfoque alineado en la gestión de dispositivos médicos basados en
inteligencia artificial (IA).
Por último, en el Hospital Italiano
de Buenos Aires existe el Programa
de Inteligencia Artificial y Ciencia de Datos (PIASHIBA) desde donde se
desarrollan e implementan modelos o sistemas basados en ciencia de datos e IA
integrados al flujo de trabajo hospitalario. Al día de
hoy, se llevan a cabo múltiples proyectos entre los cuales podemos mencionar
los ligados a la Visión computacional como ArtemisIA, TRX, CarpIAn, ValquirIA,
Procesamiento del Lenguaje natural como Argot, Chatbot Administrativo y Chatbot
Clínico, y de Reconocimiento Automático del Habla.
En base al aspecto legal, todas las herramientas desarrolladas en esta
institución se encuentran en proceso de regulación por la ANMAT.
Fuente:
HIBA