viernes, octubre 31, 2025

¿Tu equipo entiende el proceso o solo ejecuta tareas?

 

Texto

El contenido generado por IA puede ser incorrecto.

Por qué esta reflexión es clave para un COO

Todo COO busca eficiencia. Pero la eficiencia sin comprensión es solo velocidad sin dirección. Muchos equipos funcionan correctamente en la rutina… hasta que el entorno cambia.

Cuando los colaboradores no entienden el porqué de su trabajo, solo sobreviven al día. El verdadero liderazgo operativo no consiste en dar órdenes, sino en educar en contexto. Un COO orientado por procesos transforma tareas en propósito y roles en competencias BPM.

Porque cuando un equipo entiende el proceso, la organización aprende a adaptarse.

Qué está ocurriendo realmente

Las organizaciones están llenas de equipos que ejecutan sin comprender. Siguen checklists, cumplen plazos, reportan métricas… pero no saben cómo su tarea contribuye al valor final.

Esto genera tres síntomas visibles:

  • Dependencia excesiva del jefe: sin contexto, el equipo espera instrucciones ante cualquier imprevisto.
  • Rigidez operativa: ante un cambio, no hay criterio para rediseñar. Solo se busca “volver a lo de antes”.
  • Desalineación de propósito: los indicadores se convierten en fines en sí mismos, no en señales de mejora.

La consecuencia: eficiencia aparente, pero baja madurez organizativa. Un sistema operativo sin comprensión colectiva se vuelve frágil ante la disrupción.

Qué hacer (recomendaciones prácticas BPM + IA)

  1. Educa a tu equipo en la lógica del proceso, no solo en el procedimiento. Haz visible el flujo completo: entradas, salidas, cliente interno y externo. La comprensión transversal multiplica la autonomía.
  2. Crea un “mapa vivo de procesos” con IA. Usa herramientas de IA generativa para representar visualmente procesos a partir de conversaciones o documentos operativos. Esto te permite actualizar la visión del flujo en tiempo real y detectar puntos ciegos.
  3. Promueve el hábito del “por qué” en cada reunión. Cada vez que revises un indicador o una tarea, pregunta: “¿Qué impacto tiene esto en el proceso y en el cliente?” Convertir esa pregunta en cultura es más transformador que cualquier dashboard.
  4. Integra la IA como mentora de contexto. Configura agentes internos que respondan preguntas del tipo: “¿Por qué este paso existe?” “Qué variaciones tiene este proceso en otros equipos?” Así conviertes la información documental en conocimiento accesible y continuo.

Preguntas que deberías hacerte esta semana

  • ¿Cuántos miembros de tu equipo pueden explicar por qué hacen las cosas así?
  • Si mañana cambia el cliente o la tecnología, ¿tu proceso se adapta o colapsa?
  • ¿Cuándo fue la última vez que alguien cuestionó un procedimiento por sentido y no por carga de trabajo?
  • ¿Podría un agente de IA describir tu proceso mejor que tu equipo humano? Si es así, tienes un desafío de cultura, no de tecnología.

 Reflexión final

Un COO maduro no busca controlar más, sino hacer pensar más. El control pertenece al pasado; la comprensión, al futuro. Cuando tu equipo entiende el proceso, gana poder para rediseñarlo. Y en esa comprensión reside la verdadera ventaja competitiva: una organización que aprende, no solo que ejecuta.

Por Pedro Robledo BPM , Director Máster Universitario en Dirección de Procesos Estratégicos en UNIR (https://lnkd.in/d9q3VNse)


jueves, octubre 30, 2025

Webinar: Propuesta para una nueva arquitectura de salud global

📅 Viernes 31 de Octubre 2025

12 pm (ARG)

Registrate aquí 👉 https://lnkd.in/dwDsiNCh

“Reimaginando la Arquitectura de Salud Global desde América Latina y el Caribe”

📢 La salud global está enfrentando grandes desafíos en su financiamiento y gobernanza producto de los cambios significativos que se están experimentando en este último tiempo. Sin embargo, esta situación también ofrece una oportunidad única para analizar el sistema actual y replantear cómo puede satisfacer las necesidades de un mundo en constante evolución.

🔷 Para pensar juntos, los invitamos a aportar ideas sobre cómo repensar la arquitectura de la salud global y proponer líneas de reforma en este nuevo escenario.


💻 Este diálogo es parte de un proceso de consulta impulsado por Wellcome Trust para repensar y reformar la arquitectura de salud global y coordinado en la región por Tecnológico de Monterrey (México), Instituto de Efectividad Clínica y Sanitaria (IECS) (Argentina), The University of the West Indies (Jamaica) y la Universidad Mayor (Chile).

Durante este espacio:

🔹 Presentaremos resultados preliminares de más de 40 entrevistas con expertas y expertos de toda América Latina y el Caribe sobre ideas de reforma.

🔹 Contaremos con un diálogo abierto para reflexionar sobre las siguientes preguntas:

1️ ¿Cuáles son los principales desafíos de la actual arquitectura de salud global?

2️ ¿Cuáles deberían ser las funciones de una arquitectura de salud global reinventada, más eficiente, efectiva y equitativa?

3️ ¿Cómo se debe movilizar, priorizar, diferenciar y entregar el financiamiento internacional de la salud como parte de esta nueva arquitectura?

 4️ ¿Qué reformas clave se necesitan para lograr esta evolución, ¿quién debe liderarlas y cómo pueden las tendencias geopolíticas y macroeconómicas influir en su implementación?

5️ ¿Que puede aportar nuestra región al diálogo sobre la salud global?

💬 Tu participación es esencial! Esta es una oportunidad para que las voces de América Latina y el Caribe estén al centro de la construcción del futuro de la salud global


Instituto de Efectividad Clínica y Sanitaria (IECS)

EVIS | Evidencia y Acción para la Equidad en Salud | Escuela de Gobierno y Transformación Pública Paola Abril Campos Adolfo Rubinstein Denise Eldemire-Shearer Pablo Villalobos Dintrans Camila Volij Victoria Bruschini Diana Gonzalez Cintia Cejas

 

miércoles, octubre 29, 2025

¿Diriges tu operación o tu operación te dirige a ti?

Un hombre con un traje de color negro con letras blancas

El contenido generado por IA puede ser incorrecto.

Mientras que el CEO suele estar orientado al exterior, el COO suele estar orientado al interior, a cargo de las operaciones y comunicaciones internas.

Y mientras el CEO diseña la estrategia empresarial, es el COO quien supervisa su implementación.

Por qué esta reflexión es clave para un COO

Todo COO cree que está al mando… hasta que se da cuenta de que su agenda la dicta el caos operativo. 

La sensación de estar ocupado no siempre es sinónimo de dirección, sino muchas veces de falta de gobierno del sistema.

Cuando el día a día se convierte en una secuencia de correos, reuniones y urgencias, el COO deja de pensar estratégicamente y se convierte en un “gestor de imprevistos”. La Gestión Por Procesos (BPM) es el antídoto contra esa deriva: una forma de recuperar el control, no con más esfuerzo, sino con más estructura y propósito.

 Qué está ocurriendo realmente

  1. Los procesos no están alineados con la estrategia. La operación consume toda la energía, pero no impulsa la dirección.
  2. Las métricas operativas son reactivas, no predictivas. Se miden incidentes, no causas.
  3. El conocimiento está fragmentado. Cada área tiene su “verdad”, pero nadie ve el flujo completo.
  4. El COO confunde urgencia con relevancia. Cuanto más urgente, más atención… aunque no sea lo más importante.

Qué hacer (recomendaciones prácticas BPM)

1. Mapear el flujo de decisiones Identifica las decisiones que más tiempo te roban y pregunta: “¿Qué proceso o sistema debería absorber esta decisión?” Usa técnicas como un simple Process Decision Chart para visualizar qué decisiones son estratégicas (manténlas) y cuáles son operativas (automatízalas o delega).

2. Rediseñar la agenda del COO por procesos Clasifica tus reuniones y tareas según los procesos clave del negocio (cliente, operaciones, soporte). Si algo no pertenece a un proceso, probablemente sea ruido. Técnica útil: “Process Time Audit”: durante una semana, registra a qué proceso aporta cada reunión. Te sorprenderá lo poco que está alineado con tu core.

3. Medir el grado de control vs. dependencia Haz un pequeño autodiagnóstico de madurez: ¿Qué porcentaje de decisiones operativas dependen directamente de ti? ¿Existen KPIs procesocéntricos (tiempo de ciclo, retrabajo, satisfacción interna)? ¿Tus equipos entienden cómo su trabajo impacta en el flujo global? Si la respuesta es “no sé” o “depende”, tienes trabajo de gobernanza BPM.

4. Introducir IA y analítica de procesos (Process Mining) La IA no sustituye la dirección, la ilumina. Aplicar Process Mining te da una radiografía objetiva del flujo real —no el que crees que existe—. A partir de ahí, podrás reconfigurar decisiones, automatizar cuellos de botella y anticiparte al caos.

Preguntas que deberías hacerte esta semana

  1. ¿Cuántas de mis decisiones son estratégicas y cuántas son reactivas?
  2. ¿Qué procesos realmente están bajo mi gobierno y cuáles me gobiernan a mí?
  3. ¿Qué tareas repito cada semana que un proceso maduro eliminaría?
  4. ¿Qué información necesito para dirigir con evidencia y no con intuición?
  5. Si mañana no viniera, ¿mi operación sabría qué hacer?

Reflexión final

“Los procesos no te quitan libertad, te devuelven el control.”

Dirigir operaciones no es apagar fuegos: es diseñar un sistema que no necesite héroes. Un COO que piensa en términos de procesos recupera tiempo, claridad y autoridad. El día que dejes de reaccionar y empieces a gobernar tus procesos, volverás a dirigir tu operación.

Por Pedro Robledo BPM , Director Máster Universitario en Dirección de Procesos Estratégicos en UNIR (https://lnkd.in/d9q3VNse)

martes, octubre 28, 2025

Clase Magistral: Codificación automatizada de causas de muerte

Programa de Alfabetización Digital – OPS

Participa de esta Clase Magistral exclusiva, parte del Programa de Alfabetización Digital de la OPS, a cargo de Carine Alsokhn, Oficial Técnica en la sede de la OMS en Ginebra, experta en CIE-11 y codificación de mortalidad. Con más de una década de experiencia en clasificaciones de salud digital, actualmente acompaña a los países en la implementación de la CIE-11 y la Autopsia Verbal a nivel mundial.

Fecha: Jueves, 30 de octubre

Horario: 11:00 am – 12:00 pm (hora del Este)

Registración: Haz clic aquí para registrarte o escanea el código QR

Idiomas: inglés, español y portugués (con traducción simultánea)

Aprovecha esta oportunidad para aprender de la experiencia internacional, fortalecer tus capacidades y conectarte con colegas de toda la Región.

Organizado por: Unidad de Sistemas de Información y Salud Digital, Departamento de Evidencia e Inteligencia para la Acción en Salud, Organización Panamericana de la Salud (OPS).


lunes, octubre 27, 2025

Definiciones de la LEY NICOLÁS (27797) DE CALIDAD Y SEGURIDAD SANITARIA


Legislación Ley Nicolás: se promulga la ley que busca garantizar la calidad  y seguridad sanitaria | Microjuris Argentina al Día

A efectos de la interpretación y aplicación de la presente ley, se establecen las siguientes definiciones (Artículo 3º- Definiciones):

a)  Calidad de la atención sanitaria:

Acto permanente de transformación del sistema sanitario, orientado principalmente a la atención y el cuidado de las personas usuarias y las comunidades, comprometidas y en diálogo constante con el equipo de salud. De esta forma se aumenta la probabilidad de contar con resultados sanitarios deseados. Dos dimensiones fundamentales de la calidad de la atención sanitaria son la seguridad de la atención y la estandarización de los procesos asistenciales a partir de la mejor evidencia posible;

b)  Seguridad del y la paciente:

Disciplina que, a través de estructuras y procesos de una organización, busca la prevención y reducción de daños prevenibles asociados a la atención sanitaria y en el caso de su ocurrencia, genera las acciones necesarias para minimizar el impacto en el o la paciente, su familia y el equipo de salud;

c)  Gestión de la calidad sanitaria:

Ámbito de actuación sistematizado vigente en las instituciones u organismos de salud para impulsar la calidad y seguridad de la atención, controlar y prevenir los riesgos y promover los procesos de mejora, documentando los procedimientos necesarios para alcanzar, medir, monitorear, certificar o acreditar, según corresponda, y sostener los resultados sanitarios deseados y los planes de mejora pertinentes de los servicios brindados;

d)  Personas usuarias:

Las personas, en las distintas edades vitales, que ejercen su derecho humano a la salud vinculado a la atención sanitaria, entendiendo no solo a la persona que se halla bajo atención (paciente) sino también a sus acompañantes. En adelante, y a los efectos de comprensión de esta ley, se hará referencia a pacientes y personas usuarias;

e)  Coproducción de salud:

Posibilidad de los y las pacientes y personas usuarias de adoptar un papel activo en las decisiones sobre su salud, a partir del intercambio de información con quien brinda atención sanitaria, políticas de autocuidado, formación, información y participación sanitaria;

f)    Cultura justa:

Creencias, valores y comportamientos compartidos por los equipos, instituciones y autoridades de salud que tiene en cuenta cuestiones sistémicas cuando surgen incidentes de seguridad. La cultura justa implica abordar de forma imparcial a tales incidentes; entender a los errores humanos sin ser estos necesariamente objeto de sanción; fomentar la notificación de problemas de seguridad; aprender sin temor a represalias; entender por qué se produjeron las fallas y cómo el sistema condujo a comportamientos subóptimos; exigir responsabilidades cuando hay pruebas de negligencia grave o actos deliberados;

g)  Incidente de seguridad:

Desvío del proceso de atención que pone en riesgo la seguridad del y la paciente pudiendo generar o no daño efectivo. Si el daño es efectivo se denomina evento adverso;

h)  Evento adverso no evitable:

Afectación de la salud de la persona, producida en el curso de su atención sanitaria, sin que hubiere mediado posibilidad de prevenirlo mediante un obrar diligente, adecuado a reglas del ejercicio profesional o reconocidas buenas prácticas aplicables en el caso concreto;

i)     Evento adverso evitable:

Afectación de la salud de la persona, producida en el curso de su atención sanitaria, habiendo mediado posibilidad de prevenirlo mediante un obrar diligente, oportuno y adecuado a reglas del ejercicio profesional o reconocidas buenas prácticas aplicables en el caso concreto;

j)     Evento centinela:

Suceso imprevisto, fuera del curso esperable en la práctica médica, que causa la muerte, daño permanente o daño temporal derivado de la atención sanitaria;

k)   Prevención cuaternaria:

Conjunto de actividades que intentan evitar, reducir y/o paliar el daño provocado en las y los pacientes por la intervención médica innecesaria.

Fuente: Legislación y Avisos Oficiales

viernes, octubre 24, 2025

Ley Nicolás. LEY DE CALIDAD Y SEGURIDAD SANITARIA - Ley 27797

Invitación especial

Invitación a participar de la próxima reunión de la Comisión de Asuntos Legales, de ADECRA+Cedim donde abordaremos un tema de gran relevancia, la Ley Nicolás.

🗓️ Lunes 27 de octubre – 11:00 hs

🎙️ A cargo de Mariana Flichman, Gerente Corporativo de Riesgo y Calidad Médica de Swiss Medical Group

🔗 Link de conexión: https://lnkd.in/dqS6tCrU

No hay descripción alternativa para esta imagen

La presente ley tiene por finalidad asegurar el derecho a una asistencia sanitaria de calidad y segura, centrada en las personas y en las comunidades, a través de la definición de un marco jurídico e institucional que promueva la transformación de las pautas culturales, la mejora de las condiciones de la práctica sanitaria, la protocolización y jerarquización de los procesos de atención, la incorporación de herramientas tecnológicas adecuadas, la disminución de daños evitables, y el cuidado del marco de trabajo del equipo de salud.

Una excelente oportunidad para compartir conocimientos y reflexionar sobre un tema clave en la gestión de la seguridad del paciente y la práctica médica Mariana Flichman Adecra Cedim Calidad y Seguridad IECS Ezequiel Garcia Elorrio Mariano Benzadon ICBA Instituto Cardiovascular ISQua Marcelo Pellizzari

Fuente: Dr. Alberto Alves de Lima

OPS publica guía para diseñar instructivos de Inteligencia Artificial en salud pública

La publicación busca promover el uso responsable de la IA para mejorar la comunicación y la toma de decisiones en salud pública.


La Organización Panamericana de la Salud (OPS) ha lanzado una nueva guía que ofrece consejos prácticos sobre cómo crear mensajes de Inteligencia Artificial (IA) que generen contenido confiable, relevante y culturalmente apropiado en diversos contextos. La publicación busca promover el uso responsable de la IA para mejorar la comunicación y la toma de decisiones en salud pública.

Con la llegada de la IA generativa, la tecnología ha avanzado desde el análisis de información hasta la creación de contenido. Las instituciones de salud pública utilizan cada vez más la IA para redactar alertas, traducir informes a un lenguaje sencillo, desarrollar materiales educativos y simular respuestas. Las tareas que antes requerían múltiples rondas de revisión ahora se pueden completar con mayor eficiencia, siempre que la IA se guíe con instrucciones claras, específicas y con un propósito definido.

La inteligencia artificial generativa se ha convertido en una herramienta poderosa para la salud pública, pero su eficacia depende de cómo se implemente”, afirmó Marcelo D’Agostino, jefe de la Unidad de Sistemas de Información y Salud Digital de la OPS. “Un buen diseño de los mensajes es clave para aprovechar al máximo su potencial”, añadió.

La publicación,  AI prompt design for public health , subraya que el valor de la IA generativa depende de la capacidad de los profesionales para guiarla eficazmente para producir contenido preciso y significativo.

En su forma más simple, una indicación se refiere a la instrucción dada a un sistema de IA, ya sea una pregunta corta como “¿Cómo se puede prevenir el dengue?” o una solicitud más detallada que especifica el tono, el formato y la audiencia, por ejemplo: “Escriba un mensaje educativo sobre la vacunación para padres en zonas rurales, en un lenguaje claro y amigable”.

Por esta razón, diseñar mensajes efectivos puede considerarse una habilidad esencial para todo el personal de salud pública, con el fin de mejorar la eficiencia operativa y garantizar que los mensajes sean confiables, comprensibles y prácticos. Sin embargo, la guía también advierte sobre los riesgos asociados con el uso de IA generativa en salud pública, especialmente cuando el contenido podría influir en el comportamiento público, fundamentar políticas locales o apoyar las iniciativas de respuesta ante emergencias. Se enfatiza la importancia de la supervisión humana para revisar y aprobar todos los resultados generados por IA.

Entre sus recomendaciones, la OPS sugiere que las indicaciones se consideren “protocolos vivos”: instrucciones que puedan probarse, perfeccionarse y adaptarse según el contexto, el idioma o la audiencia. También alienta a las instituciones a desarrollar bibliotecas de indicaciones para promover la coherencia y la eficiencia en el uso de la IA en las operaciones de salud pública.

Esta publicación forma parte del Programa de Alfabetización Digital de la OPS, cuyo objetivo es fortalecer las competencias digitales de los profesionales de la salud pública en toda la Región de las Américas. Además, apoya la transformación digital de los sistemas de salud, permitiendo una toma de decisiones más rápida, precisa y de mayor impacto para mejorar la salud de las personas.

Leído en: Consenso Salud

jueves, octubre 23, 2025

¿La inteligencia artificial es la nueva docente en medicina?

La integración de la IA en la educación médica plantea retos y oportunidades. Hay estudiantes que pierden destrezas cognitivas, mientras que otros aprovechan la herramienta y aumentan su capacidad de resolución.


La IA en educación médica, entre la herramienta y el sobreuso

Los avances recientes en inteligencia artificial (IA) médica, en especial los grandes modelos de lenguaje (LLM), han transformado la interacción humano-computadora en la atención sanitaria al simular un razonamiento similar al humano, lo que podría cambiar fundamentalmente el aprendizaje y la práctica médica.

Aunque la IA ofrece beneficios educativos, como un aprendizaje mejorado y la descarga cognitiva de tareas rutinarias, también plantea riesgos: la dependencia excesiva (sesgo de automatización), la pérdida de habilidades (deskillingnever-skilling) y el refuerzo de errores (mis-skilling), debido a sus resultados a veces inexactos. Esto genera incertidumbre incluso entre médicos experimentados, remarcando la necesidad de una práctica adaptativa respaldada por el pensamiento crítico.

Aunque los LLM demuestran un rendimiento de nivel experto en tareas de razonamiento clínico, también heredan sesgos existentes en salud y pueden generar información falsa o engañosa (confabulación). Por ello, la IA debe considerarse un apoyo y no un reemplazo, manteniéndose la decisión clínica final bajo responsabilidad humana. Dada la magnitud de los riesgos, el uso de IA en el razonamiento clínico exige especial atención por parte de educadores y aprendices.

Utilizar la IA como sustituto del razonamiento clínico, en vez de apoyarse en ella como herramienta, puede perjudicar el desarrollo de habilidades mediante deskillingnever-skilling mis-skilling. La sobreconfianza en la IA puede llevar a los aprendices a perder destrezas clínicas esenciales y la capacidad de recuperación de información.

La evidencia muestra que el uso frecuente de IA se asocia a una disminución del pensamiento crítico debido a una mayor descarga cognitiva, lo que deriva en menos resolución de problemas y razonamiento analítico independiente, especialmente en los usuarios jóvenes. Un estudio encontró que aceptar sin crítica los resultados de la IA empeoró el rendimiento en tareas complejas, sobre todo entre quienes tenían habilidades más bajas, resaltando los peligros de una confianza pasiva en la IA por sobre el propio juicio.

 

El mis-skilling ocurre cuando los aprendices confían ciegamente en información inexacta o sesgada generada por IA y adoptan predicciones clínicas erróneas. Estudios muestran que los clínicos aceptan a menudo sesgos de la IA, como la sobrestimación de ciertos diagnósticos, y que la asistencia de IA puede perjudicar a clínicos con destreza basal baja, en ocasiones conduciendo a un rendimiento combinado peor que el de la IA sola.

Intentar explicar las decisiones de la IA no siempre reduce estos errores, evidenciando la dificultad de reconocer y corregir los sesgos, que pueden afianzar el mis-skilling. Por el contrario, ignorar consejos correctos de la IA implica un uso insuficiente y pérdida de posibles beneficios. Cuando los clínicos poseen habilidades sólidas, la combinación de razonamiento humano e IA mejora el desempeño, lo que sugiere que el uso efectivo de la IA depende del nivel de experiencia del usuario.

Frente a estos riesgos, los programas de educación médica han desarrollado principios, competencias y planes de estudio para el uso de IA en salud. Sin embargo, los educadores aún requieren estrategias para promover la práctica adaptativa durante las interacciones en tiempo real con IA.

Reforzar los conocimientos fundamentales es esencial para maximizar los beneficios y minimizar los riesgos. El creciente protagonismo de la IA debe verse como una oportunidad educativa para potenciar tanto la alfabetización en IA como en clínica.

Una interacción con IA es el momento en que una herramienta computacional proporciona un juicio no rastreable que requiere que el usuario dé un salto de fe al confiar en él. Este salto de fe evidencia que los resultados de la IA no pueden ser totalmente confiables sin verificación, subrayando la necesidad de que los usuarios hagan una pausa y evalúen críticamente las recomendaciones de la IA. Reconocer estas interacciones supone una oportunidad didáctica para fomentar el pensamiento crítico.

El método DEFT-AI

Basándose en el método socrático y el marco DEFT existente (Diagnóstico, Evidencia, Feedback, Enseñanza), se propone la adaptación DEFT-AI para apoyar el pensamiento crítico y la práctica adaptativa durante el razonamiento clínico asistido por IA.

El educador comienza explorando el razonamiento clínico del aprendiz y su uso de IA. Esto implica preguntar cómo sintetizó el problema clínico (recolección de datos y razonamiento inductivo) y cómo elaboró el diagnóstico diferencial (razonamiento deductivo y conocimiento). También indaga sobre la herramienta de IA utilizada, los prompts dados, cómo los prompts de seguimiento pusieron a prueba el resultado de la IA y si las sugerencias de la IA influyeron, reemplazaron o complementaron el proceso diagnóstico del aprendiz.

En esta etapa, el educador evalúa el uso de evidencias a favor y en contra para valorar tanto el conocimiento médico como la comprensión de la IA. Esto incluye examinar el razonamiento diagnóstico, la prueba de hipótesis y la experiencia adaptativa. También explora el conocimiento del aprendiz sobre patobiología, guías clínicas y medicina basada en evidencia. Simultáneamente, fomenta la autoevaluación de alfabetización en IA, preguntando sobre el razonamiento de la IA, sus limitaciones, finalidad y estrategias de prompting, al igual que la evidencia que respalda su uso. Puede pedirse a los aprendices presentar casos sin IA para evaluar su resolución de problemas independiente y detectar posible dependencia excesiva de la IA.

La autorreflexión guiada es clave en esta fase, incentivando al aprendiz a considerar oportunidades de mejora tanto en el caso clínico como en su uso de IA. Esto incluye identificar diagnósticos omitidos, carencias de conocimiento y áreas para perfeccionar el uso y comprensión de la IA. El educador utiliza dicha autorreflexión para ofrecer retroalimentación personalizada sobre razonamiento clínico y uso de IA, reforzando destrezas de razonamiento, fomentando la medicina basada en evidencia y promoviendo la alfabetización en IA según las necesidades del aprendiz.

Los educadores concluyen la interacción promoviendo tanto habilidades clínicas fundamentales como alfabetización en IA, animando a los aprendices a seguir practicando el uso de IA bajo una supervisión adecuada y autocontrol.

Existen dos estilos típicos de colaboración con IA: centauro y cyborg:

  • El centauro delega tareas entre el humano y la IA, reservando el juicio clínico para las decisiones críticas.
  • El cyborg integra a la IA a lo largo de toda la tarea, refinando iterativamente sus respuestas.

Se recomienda guiar hacia el estilo centauro en tareas de alto riesgo o inciertas y al cyborg para tareas bien definidas y de bajo riesgo. Ambos requieren compromiso crítico activo para evitar deskilling o sobreconfianza.

Alfabetización en IA

La alfabetización en IA comienza por reconocer las interacciones como momentos que exigen pausa crítica debido a la opacidad del juicio del sistema. El marco DEFT-AI soporta la práctica adaptativa ayudando a los aprendices a alternar entre los modos centauro, cyborg y completamente humano según la tarea.

Los educadores deben enfatizar dos habilidades clave: la valoración crítica estructurada de las herramientas y salidas de la IA, y la ingeniería de prompts efectiva para mejorar la precisión de sus respuestas.

La evaluación de la confiabilidad de una herramienta de IA comienza definiendo con claridad la pregunta que orienta la búsqueda de evidencia. Luego, educadores y aprendices recogen y valoran críticamente evidencias como estudios revisados, scorecards de IA, ránkings y datos regulatorios. Aunque estos recursos ayudan a evaluar herramientas de IA, tienen utilidad limitada en tiempo real y dichas evaluaciones suelen estar fuera del alcance práctico para la mayoría de los educadores y aprendices.

En vez de centrarse en evaluar la herramienta per se, se recomienda valorar críticamente las salidas generadas por la IA integrando competencias clínicas, preferencias del paciente y evidencia de investigación. Comparar las sugerencias de la IA con evidencia independiente, guías clínicas u opiniones de expertos ayuda a juzgar su exactitud. Mientras la concordancia entre la IA y el profesional puede generar confianza, la supervisión humana sigue siendo esencial.

De forma similar a consultar a un experto humano, los prompts claros, específicos y ricos en contexto producen mejores resultados; los vagos o sesgados pueden dar lugar a respuestas erróneas o complacientes. Usar casos ejemplo y fomentar que la IA “piense en voz alta” (chain-of-thought prompting) mejora la precisión y transparencia del razonamiento.

A pesar de los avances técnicos de la IA, su uso aún requiere verificación cuidadosa y confianza cautelosa. Con la integración de la IA en la formación y práctica médica, los educadores deben asumir estas interacciones como permanentes. El pensamiento crítico es esencial para evitar la pérdida de habilidades por sobredependencia y para construir una práctica y alfabetización adaptativas en aprendices y docentes. El marco DEFT-AI ofrece una vía estructurada para promover el pensamiento crítico y validar las salidas de la IA.

Autor/a: Abdulnour REE, Gin B, Boscardin CK.

Fuente: N Engl J Med. 2025;391(10):e40. Educational strategies for clinical supervision of artificial intelligence use

Leído en: Intramed