Tecnología

/ Publicado el 21 de octubre de 2025

IA en la educación médica

¿La inteligencia artificial es la nueva docente en medicina?

La integración de la IA en la educación médica plantea retos y oportunidades. Hay estudiantes que pierden destrezas cognitivas, mientras que otros aprovechan la herramienta y aumentan su capacidad de resolución.

Autor/a: Abdulnour REE, Gin B, Boscardin CK.

Fuente: N Engl J Med. 2025;391(10):e40. Educational strategies for clinical supervision of artificial intelligence use

La IA en educación médica, entre la herramienta y el sobreuso

Los avances recientes en inteligencia artificial (IA) médica, en especial los grandes modelos de lenguaje (LLM), han transformado la interacción humano-computadora en la atención sanitaria al simular un razonamiento similar al humano, lo que podría cambiar fundamentalmente el aprendizaje y la práctica médica.

Aunque la IA ofrece beneficios educativos, como un aprendizaje mejorado y la descarga cognitiva de tareas rutinarias, también plantea riesgos: la dependencia excesiva (sesgo de automatización), la pérdida de habilidades (deskilling, never-skilling) y el refuerzo de errores (mis-skilling), debido a sus resultados a veces inexactos. Esto genera incertidumbre incluso entre médicos experimentados, remarcando la necesidad de una práctica adaptativa respaldada por el pensamiento crítico.

Aunque los LLM demuestran un rendimiento de nivel experto en tareas de razonamiento clínico, también heredan sesgos existentes en salud y pueden generar información falsa o engañosa (confabulación). Por ello, la IA debe considerarse un apoyo y no un reemplazo, manteniéndose la decisión clínica final bajo responsabilidad humana. Dada la magnitud de los riesgos, el uso de IA en el razonamiento clínico exige especial atención por parte de educadores y aprendices.

Utilizar la IA como sustituto del razonamiento clínico, en vez de apoyarse en ella como herramienta, puede perjudicar el desarrollo de habilidades mediante deskilling, never-skilling y mis-skilling. La sobreconfianza en la IA puede llevar a los aprendices a perder destrezas clínicas esenciales y la capacidad de recuperación de información.

La evidencia muestra que el uso frecuente de IA se asocia a una disminución del pensamiento crítico debido a una mayor descarga cognitiva, lo que deriva en menos resolución de problemas y razonamiento analítico independiente, especialmente en los usuarios jóvenes. Un estudio encontró que aceptar sin crítica los resultados de la IA empeoró el rendimiento en tareas complejas, sobre todo entre quienes tenían habilidades más bajas, resaltando los peligros de una confianza pasiva en la IA por sobre el propio juicio.

El mis-skilling ocurre cuando los aprendices confían ciegamente en información inexacta o sesgada generada por IA y adoptan predicciones clínicas erróneas. Estudios muestran que los clínicos aceptan a menudo sesgos de la IA, como la sobrestimación de ciertos diagnósticos, y que la asistencia de IA puede perjudicar a clínicos con destreza basal baja, en ocasiones conduciendo a un rendimiento combinado peor que el de la IA sola.

Intentar explicar las decisiones de la IA no siempre reduce estos errores, evidenciando la dificultad de reconocer y corregir los sesgos, que pueden afianzar el mis-skilling. Por el contrario, ignorar consejos correctos de la IA implica un uso insuficiente y pérdida de posibles beneficios. Cuando los clínicos poseen habilidades sólidas, la combinación de razonamiento humano e IA mejora el desempeño, lo que sugiere que el uso efectivo de la IA depende del nivel de experiencia del usuario.

Frente a estos riesgos, los programas de educación médica han desarrollado principios, competencias y planes de estudio para el uso de IA en salud. Sin embargo, los educadores aún requieren estrategias para promover la práctica adaptativa durante las interacciones en tiempo real con IA.

Reforzar los conocimientos fundamentales es esencial para maximizar los beneficios y minimizar los riesgos. El creciente protagonismo de la IA debe verse como una oportunidad educativa para potenciar tanto la alfabetización en IA como en clínica.

Una interacción con IA es el momento en que una herramienta computacional proporciona un juicio no rastreable que requiere que el usuario dé un salto de fe al confiar en él. Este salto de fe evidencia que los resultados de la IA no pueden ser totalmente confiables sin verificación, subrayando la necesidad de que los usuarios hagan una pausa y evalúen críticamente las recomendaciones de la IA. Reconocer estas interacciones supone una oportunidad didáctica para fomentar el pensamiento crítico.

El método DEFT-AI

Basándose en el método socrático y el marco DEFT existente (Diagnóstico, Evidencia, Feedback, Enseñanza), se propone la adaptación DEFT-AI para apoyar el pensamiento crítico y la práctica adaptativa durante el razonamiento clínico asistido por IA.

El educador comienza explorando el razonamiento clínico del aprendiz y su uso de IA. Esto implica preguntar cómo sintetizó el problema clínico (recolección de datos y razonamiento inductivo) y cómo elaboró el diagnóstico diferencial (razonamiento deductivo y conocimiento). También indaga sobre la herramienta de IA utilizada, los prompts dados, cómo los prompts de seguimiento pusieron a prueba el resultado de la IA y si las sugerencias de la IA influyeron, reemplazaron o complementaron el proceso diagnóstico del aprendiz.

En esta etapa, el educador evalúa el uso de evidencias a favor y en contra para valorar tanto el conocimiento médico como la comprensión de la IA. Esto incluye examinar el razonamiento diagnóstico, la prueba de hipótesis y la experiencia adaptativa. También explora el conocimiento del aprendiz sobre patobiología, guías clínicas y medicina basada en evidencia. Simultáneamente, fomenta la autoevaluación de alfabetización en IA, preguntando sobre el razonamiento de la IA, sus limitaciones, finalidad y estrategias de prompting, al igual que la evidencia que respalda su uso. Puede pedirse a los aprendices presentar casos sin IA para evaluar su resolución de problemas independiente y detectar posible dependencia excesiva de la IA.

La autorreflexión guiada es clave en esta fase, incentivando al aprendiz a considerar oportunidades de mejora tanto en el caso clínico como en su uso de IA. Esto incluye identificar diagnósticos omitidos, carencias de conocimiento y áreas para perfeccionar el uso y comprensión de la IA. El educador utiliza dicha autorreflexión para ofrecer retroalimentación personalizada sobre razonamiento clínico y uso de IA, reforzando destrezas de razonamiento, fomentando la medicina basada en evidencia y promoviendo la alfabetización en IA según las necesidades del aprendiz.

Los educadores concluyen la interacción promoviendo tanto habilidades clínicas fundamentales como alfabetización en IA, animando a los aprendices a seguir practicando el uso de IA bajo una supervisión adecuada y autocontrol.

Existen dos estilos típicos de colaboración con IA: centauro y cyborg:

  • El centauro delega tareas entre el humano y la IA, reservando el juicio clínico para las decisiones críticas.
  • El cyborg integra a la IA a lo largo de toda la tarea, refinando iterativamente sus respuestas.

Se recomienda guiar hacia el estilo centauro en tareas de alto riesgo o inciertas y al cyborg para tareas bien definidas y de bajo riesgo. Ambos requieren compromiso crítico activo para evitar deskilling o sobreconfianza.

Alfabetización en IA

La alfabetización en IA comienza por reconocer las interacciones como momentos que exigen pausa crítica debido a la opacidad del juicio del sistema. El marco DEFT-AI soporta la práctica adaptativa ayudando a los aprendices a alternar entre los modos centauro, cyborg y completamente humano según la tarea.

Los educadores deben enfatizar dos habilidades clave: la valoración crítica estructurada de las herramientas y salidas de la IA, y la ingeniería de prompts efectiva para mejorar la precisión de sus respuestas.

La evaluación de la confiabilidad de una herramienta de IA comienza definiendo con claridad la pregunta que orienta la búsqueda de evidencia. Luego, educadores y aprendices recogen y valoran críticamente evidencias como estudios revisados, scorecards de IA, ránkings y datos regulatorios. Aunque estos recursos ayudan a evaluar herramientas de IA, tienen utilidad limitada en tiempo real y dichas evaluaciones suelen estar fuera del alcance práctico para la mayoría de los educadores y aprendices.

En vez de centrarse en evaluar la herramienta per se, se recomienda valorar críticamente las salidas generadas por la IA integrando competencias clínicas, preferencias del paciente y evidencia de investigación. Comparar las sugerencias de la IA con evidencia independiente, guías clínicas u opiniones de expertos ayuda a juzgar su exactitud. Mientras la concordancia entre la IA y el profesional puede generar confianza, la supervisión humana sigue siendo esencial.

De forma similar a consultar a un experto humano, los prompts claros, específicos y ricos en contexto producen mejores resultados; los vagos o sesgados pueden dar lugar a respuestas erróneas o complacientes. Usar casos ejemplo y fomentar que la IA “piense en voz alta” (chain-of-thought prompting) mejora la precisión y transparencia del razonamiento.

A pesar de los avances técnicos de la IA, su uso aún requiere verificación cuidadosa y confianza cautelosa. Con la integración de la IA en la formación y práctica médica, los educadores deben asumir estas interacciones como permanentes. El pensamiento crítico es esencial para evitar la pérdida de habilidades por sobredependencia y para construir una práctica y alfabetización adaptativas en aprendices y docentes. El marco DEFT-AI ofrece una vía estructurada para promover el pensamiento crítico y validar las salidas de la IA.