Tecnología

/ Publicado el 8 de diciembre de 2025

¿Pérdida de competencias médicas?

Cómo preservar las habilidades clínicas en la era de la asistencia por inteligencia artificial

Los médicos podrían depender tanto de la inteligencia artificial que terminen perdiendo destrezas fundamentales, desde la interpretación de imágenes hasta la toma de decisiones.

Autor/a: Berzin TM, Topol EJ.

Fuente: Lancet. 2025 Oct 18; 406: 1719–1721. Preserving clinical skills in the age of AI assistance

¿Cómo pueden los médicos conservar las habilidades clínicas básicas en una era de asistencia algorítmica? A medida que la inteligencia artificial (IA) asume un papel cada vez más relevante en la práctica, crece la preocupación de que delegar tareas y razonamientos pueda llevar a la pérdida de destrezas (desaprendizaje), la adopción de errores o sesgos provenientes de la IA (malaprendizaje) o la falta de adquisición de competencias (no aprendizaje).

Se ha observado evidencia de esta degradación con la interpretación automática de electrocardiogramas y de imágenes radiológicas.

Un estudio observacional publicado este año intensifica esta inquietud: sugiere que endoscopistas experimentados perdieron parte de su destreza en la detección de pólipos de colon cuando se suspendió el soporte rutinario de IA. En cuatro centros de endoscopía de Polonia, 19 gastroenterólogos y cirujanos que utilizaron un sistema de detección de pólipos asistido por IA durante tres meses mostraron una disminución en sus tasas de detección de adenomas al realizar colonoscopías sin esa ayuda. En conjunto, su desempeño posterior a la IA fue inferior al nivel previo a su uso. Algunos sufrieron caídas pronunciadas, mientras que otros conservaron su rendimiento. Este hallazgo sugiere que el desaprendizaje no es inevitable y que deben buscarse estrategias para mitigarlo a medida que la IA se incorpora al cuidado clínico cotidiano.

Podemos aprender de otras industrias que llevan décadas tratando de equilibrar automatización y retención de habilidades. En la aviación, los sistemas de piloto automático mejoraron la seguridad, pero también generaron preocupación por la erosión de las habilidades manuales de vuelo. Los reguladores respondieron exigiendo entrenamiento regular práctico y simulaciones que recrean fallas del sistema. De modo similar, los operadores de plantas nucleares ensayan escenarios críticos con regularidad para garantizar que, si la automatización falla, las competencias esenciales se mantengan intactas.

El potencial de desaprendizaje asociado con la IA se extiende mucho más allá de la endoscopía gastrointestinal. Las especialidades quirúrgicas e intervencionistas requieren vigilancia constante y capacidad de respuesta ante imprevistos. La dermatología, la patología y la radiología demandan un análisis visual minucioso y reconocimiento de patrones. Más allá de los procedimientos o la interpretación de imágenes, el razonamiento clínico —fundamental para el diagnóstico, la toma de decisiones y la gestión del paciente— depende del pensamiento crítico, que podría deteriorarse con la interacción constante con la IA.

Las consultas médicas suelen desarrollarse con prisa, dejando poco espacio para el análisis profundo. No es de extrañar que los médicos reciban con entusiasmo la promesa de la IA de compartir la carga. Pero cuando la IA se vuelve parte estructural de la práctica, surgen nuevos riesgos. La vigilancia puede disminuir, las destrezas decaer y, cuanto más dependan los médicos de la IA, menos confianza podrían tener en su propio juicio sin asistencia.

Estas preocupaciones son especialmente relevantes durante la formación médica. Los médicos en entrenamiento podrían depender de la IA antes de desarrollar plenamente sus competencias básicas, dejándolos sin fundamentos sólidos si la tecnología falla y limitando las experiencias formativas necesarias para desarrollar intuición clínica y buen juicio.

Proteger las habilidades y el pensamiento crítico en un entorno mediado por la IA no tendrá una solución única. La trayectoria del desaprendizaje, la sobredependencia o la pérdida de vigilancia variará según los algoritmos, las especialidades y los contextos, así como las soluciones posibles. Una medida preventiva podría ser incorporar intervalos deliberados de “IA apagada” o “IA con retraso” en los flujos de trabajo clínicos, para recalibrar la atención y registrar medidas objetivas del desempeño sin asistencia. Durante los entrenamientos o sesiones de mantenimiento de habilidades, las interpretaciones de IA podrían mostrarse solo después de que el profesional registre sus propias observaciones.

Otra estrategia consiste en delimitar con mayor claridad los ámbitos de la IA: dejar que esta asuma tareas repetitivas, de alto volumen y baja ambigüedad, liberando a los médicos para concentrarse en decisiones más contextualizadas y de alto impacto. En radiología, por ejemplo, un algoritmo podría descartar con seguridad radiografías de tórax normales, permitiendo a los radiólogos enfocarse en hallazgos sutiles o complejos.

Estas delimitaciones ayudarían a reducir tanto el sesgo de automatización (confiar excesivamente en resultados erróneos de la IA) como la negligencia de automatización (ignorar los correctos), problemas comunes cuando las tareas se comparten entre humanos y algoritmos. Sea cual fuere la estrategia, la base debe ser la capacidad continua de los médicos para evaluar la confiabilidad de cualquier herramienta de IA.

El estudio sobre desaprendizaje en colonoscopía no condena a la inteligencia artificial. La evidencia de más de 40 ensayos aleatorizados demuestra que la detección de pólipos asistida por IA ayuda a los médicos a identificar más lesiones precancerosas. Debemos celebrar ese progreso, pero mantenernos atentos a cómo pueden cambiar los comportamientos y la práctica clínica a medida que la IA se consolida. La adopción avanza con rapidez, pero los flujos de trabajo y los hábitos aún pueden moldearse.

Las decisiones que tomemos hoy sobre el diseño, la integración y la capacitación en torno a la IA determinarán si estos sistemas elevan nuestra profesión o erosionan, silenciosamente, las habilidades que la definen.