La integración de la IA en la educación médica plantea retos y oportunidades. Hay estudiantes que pierden destrezas cognitivas, mientras que otros aprovechan la herramienta y aumentan su capacidad de resolución.
La IA en
educación médica, entre la herramienta y el sobreuso
Los avances
recientes en inteligencia artificial (IA) médica, en especial los grandes
modelos de lenguaje (LLM), han transformado la interacción humano-computadora
en la atención sanitaria al simular un razonamiento similar al humano, lo que
podría cambiar fundamentalmente el aprendizaje y la práctica médica.
Aunque la IA
ofrece beneficios educativos, como un aprendizaje mejorado y la descarga
cognitiva de tareas rutinarias, también plantea riesgos: la dependencia
excesiva (sesgo de automatización), la pérdida de habilidades (deskilling, never-skilling)
y el refuerzo de errores (mis-skilling), debido a sus resultados a veces
inexactos. Esto genera incertidumbre incluso entre médicos experimentados,
remarcando la necesidad de una práctica adaptativa respaldada por el
pensamiento crítico.
Aunque los LLM
demuestran un rendimiento de nivel experto en tareas de razonamiento clínico,
también heredan sesgos existentes en salud y pueden generar información falsa o
engañosa (confabulación). Por ello, la IA debe considerarse un apoyo y
no un reemplazo, manteniéndose la decisión clínica final bajo
responsabilidad humana. Dada la magnitud de los riesgos, el uso de IA en el
razonamiento clínico exige especial atención por parte de educadores y
aprendices.
Utilizar la IA
como sustituto del razonamiento clínico, en vez de apoyarse en ella como
herramienta, puede perjudicar el desarrollo de habilidades mediante deskilling, never-skilling y mis-skilling.
La sobreconfianza en la IA puede llevar a los aprendices a perder destrezas
clínicas esenciales y la capacidad de recuperación de información.
La evidencia
muestra que el uso frecuente de IA se asocia a una disminución del pensamiento
crítico debido a una mayor descarga cognitiva, lo
que deriva en menos resolución de problemas y razonamiento analítico
independiente, especialmente en los usuarios jóvenes. Un estudio encontró que
aceptar sin crítica los resultados de la IA empeoró el rendimiento en tareas
complejas, sobre todo entre quienes tenían habilidades más bajas, resaltando
los peligros de una confianza pasiva en la IA por sobre el propio juicio.
El mis-skilling ocurre
cuando los aprendices confían ciegamente en información inexacta o sesgada
generada por IA y adoptan predicciones clínicas erróneas. Estudios
muestran que los clínicos aceptan a menudo sesgos de la IA, como la
sobrestimación de ciertos diagnósticos, y que la asistencia de IA puede
perjudicar a clínicos con destreza basal baja, en ocasiones conduciendo a un
rendimiento combinado peor que el de la IA sola.
Intentar
explicar las decisiones de la IA no siempre reduce estos errores, evidenciando
la dificultad de reconocer y corregir los sesgos, que pueden afianzar el mis-skilling.
Por el contrario, ignorar consejos correctos de la IA implica un uso
insuficiente y pérdida de posibles beneficios. Cuando los clínicos poseen
habilidades sólidas, la combinación de razonamiento humano e IA mejora el
desempeño, lo que sugiere que el uso efectivo de la IA depende del nivel de
experiencia del usuario.
Frente a estos
riesgos, los programas de educación médica han desarrollado principios,
competencias y planes de estudio para el uso de IA en salud. Sin embargo, los
educadores aún requieren estrategias para promover la práctica adaptativa
durante las interacciones en tiempo real con IA.
Reforzar los
conocimientos fundamentales es esencial para maximizar los beneficios y
minimizar los riesgos. El creciente protagonismo de la IA debe verse
como una oportunidad educativa para potenciar tanto la alfabetización
en IA como en clínica.
Una
interacción con IA es el momento en que una herramienta computacional
proporciona un juicio no rastreable que requiere que el usuario dé un salto de
fe al confiar en él. Este salto de fe evidencia que los resultados de la IA no
pueden ser totalmente confiables sin verificación, subrayando la necesidad de
que los usuarios hagan una pausa y evalúen críticamente las recomendaciones de
la IA. Reconocer estas interacciones supone una oportunidad didáctica para
fomentar el pensamiento crítico.
El método
DEFT-AI
Basándose en
el método socrático y el marco DEFT existente (Diagnóstico, Evidencia,
Feedback, Enseñanza), se propone la adaptación DEFT-AI para apoyar el
pensamiento crítico y la práctica adaptativa durante el razonamiento clínico
asistido por IA.
El educador
comienza explorando el razonamiento clínico del aprendiz y su uso de IA. Esto
implica preguntar cómo sintetizó el problema clínico (recolección de datos y
razonamiento inductivo) y cómo elaboró el diagnóstico diferencial (razonamiento
deductivo y conocimiento). También indaga sobre la herramienta de IA utilizada,
los prompts dados, cómo los prompts de
seguimiento pusieron a prueba el resultado de la IA y si las sugerencias de la
IA influyeron, reemplazaron o complementaron el proceso diagnóstico del
aprendiz.
En esta etapa,
el educador evalúa el uso de evidencias a favor y en contra para valorar tanto
el conocimiento médico como la comprensión de la IA. Esto incluye examinar el
razonamiento diagnóstico, la prueba de hipótesis y la experiencia adaptativa.
También explora el conocimiento del aprendiz sobre patobiología, guías clínicas
y medicina basada en evidencia. Simultáneamente, fomenta la autoevaluación de
alfabetización en IA, preguntando sobre el razonamiento de la IA, sus
limitaciones, finalidad y estrategias de prompting, al igual que la
evidencia que respalda su uso. Puede pedirse a los aprendices presentar casos
sin IA para evaluar su resolución de problemas independiente y detectar posible
dependencia excesiva de la IA.
La
autorreflexión guiada es clave en esta fase, incentivando
al aprendiz a considerar oportunidades de mejora tanto en el caso clínico como
en su uso de IA. Esto incluye identificar diagnósticos omitidos, carencias de
conocimiento y áreas para perfeccionar el uso y comprensión de la IA. El
educador utiliza dicha autorreflexión para ofrecer retroalimentación
personalizada sobre razonamiento clínico y uso de IA, reforzando destrezas de
razonamiento, fomentando la medicina basada en evidencia y promoviendo la
alfabetización en IA según las necesidades del aprendiz.
Los educadores
concluyen la interacción promoviendo tanto habilidades clínicas fundamentales
como alfabetización en IA, animando a los aprendices a seguir practicando el
uso de IA bajo una supervisión adecuada y autocontrol.
Existen dos
estilos típicos de colaboración con IA: centauro y cyborg:
- El
centauro delega tareas entre el humano y la IA, reservando el juicio
clínico para las decisiones críticas.
- El cyborg integra
a la IA a lo largo de toda la tarea, refinando iterativamente sus
respuestas.
Se recomienda
guiar hacia el estilo centauro en tareas de alto riesgo o inciertas y al cyborg para
tareas bien definidas y de bajo riesgo. Ambos requieren
compromiso crítico activo para evitar deskilling o
sobreconfianza.
Alfabetización
en IA
La
alfabetización en IA comienza por reconocer las interacciones como momentos que
exigen pausa crítica debido a la opacidad del juicio del sistema. El marco
DEFT-AI soporta la práctica adaptativa ayudando a los aprendices a alternar
entre los modos centauro, cyborg y completamente humano según
la tarea.
Los educadores
deben enfatizar dos habilidades clave: la valoración crítica estructurada de
las herramientas y salidas de la IA, y la ingeniería de prompts efectiva
para mejorar la precisión de sus respuestas.
La evaluación
de la confiabilidad de una herramienta de IA comienza definiendo con claridad
la pregunta que orienta la búsqueda de evidencia.
Luego, educadores y aprendices recogen y valoran críticamente evidencias como
estudios revisados, scorecards de IA, ránkings y datos
regulatorios. Aunque estos recursos ayudan a evaluar herramientas de IA, tienen
utilidad limitada en tiempo real y dichas evaluaciones suelen estar fuera del
alcance práctico para la mayoría de los educadores y aprendices.
En vez de
centrarse en evaluar la herramienta per se, se recomienda valorar
críticamente las salidas generadas por la IA integrando competencias clínicas,
preferencias del paciente y evidencia de investigación. Comparar las
sugerencias de la IA con evidencia independiente, guías clínicas u opiniones de
expertos ayuda a juzgar su exactitud. Mientras la concordancia entre la IA
y el profesional puede generar confianza, la supervisión humana sigue siendo
esencial.
De forma
similar a consultar a un experto humano, los prompts claros,
específicos y ricos en contexto producen mejores resultados; los vagos o
sesgados pueden dar lugar a respuestas erróneas o complacientes. Usar casos
ejemplo y fomentar que la IA “piense en voz alta” (chain-of-thought
prompting) mejora la precisión y transparencia del razonamiento.
A pesar de los
avances técnicos de la IA, su uso aún requiere verificación cuidadosa y
confianza cautelosa. Con la integración de la IA en la formación y práctica
médica, los educadores deben asumir estas interacciones como permanentes. El
pensamiento crítico es esencial para evitar la pérdida de habilidades por
sobredependencia y para construir una práctica y alfabetización adaptativas en
aprendices y docentes. El marco DEFT-AI ofrece una vía estructurada para
promover el pensamiento crítico y validar las salidas de la IA.
Autor/a:
Abdulnour REE, Gin B, Boscardin CK.
Fuente: N Engl
J Med. 2025;391(10):e40. Educational
strategies for clinical supervision of artificial intelligence use
Leído en: Intramed


No hay comentarios.:
Publicar un comentario