Tecnología

/ Publicado el 19 de enero de 2026

Escribas virtuales

Los oídos de la IA en la consulta médica

La rápida adopción de los escribas de inteligencia artificial en los sistemas de salud ha superado la validación y la supervisión. Esta prisa por desplegar tecnología presenta algunos riesgos.

Autor/a: Topaz M, Peltonen LM, Zhang Z.

Fuente: NPJ Digit Med. 2025 Sep 24;8(1):569. Beyond human ears: navigating the uncharted risks of AI scribes in clinical practice

Introducción

La adopción de asistentes de inteligencia artificial (IA) AI scribes en los sistemas de salud está creciendo rápidamente. La evidencia inicial sugiere ganancias en eficiencia, con estudios que reportan reducciones del 20 % al 30 % en el tiempo de documentación. Sin embargo, esta rápida implementación está superando la validación, la transparencia y la supervisión regulatoria.

Los principales puntos de preocupación son los siguientes:

• Errores de precisión: A pesar de tener tasas de error generales más bajas que los sistemas de dictado anteriores, los asistentes de IA introducen nuevos modos de falla peligrosos, como las alucinaciones, omisiones críticas de información, malas interpretaciones contextuales y errores en la atribución del hablante.

• Sesgos y equidad: Los sistemas de reconocimiento de voz subyacentes demuestran disparidades de rendimiento, con tasas de error significativamente más altas para ciertos grupos demográficos, como los hablantes afroamericanos. Esto amenaza con perpetuar o exacerbar las desigualdades en la atención médica al documentar de manera inadecuada las preocupaciones de las poblaciones vulnerables.

• Falta de transparencia y supervisión: La naturaleza de "caja negra" de muchos algoritmos de IA dificulta la comprensión de cómo se generan los errores. Además, la mayoría de estos asistentes operan en un vacío regulatorio, a menudo clasificados como herramientas administrativas para eludir la supervisión de agencias como la FDA, lo que deja sin resolver cuestiones de responsabilidad legal.

• Riesgos éticos: Surgen serias preocupaciones sobre el consentimiento del paciente, especialmente en lo que respecta al uso secundario no consentido de conversaciones clínicas para el entrenamiento de algoritmos y el desarrollo comercial. Esto, junto con el potencial de erosionar la autonomía clínica, plantea desafíos éticos fundamentales.

El rápido aAscenso de la documentación por IA

Aproximadamente el 30 % de las consultas médicas en los países desarrollados ya utilizan estas herramientas y los principales proveedores de historias clínicas electrónicas (HCE) las están integrando directamente en sus plataformas. La escala de implementación es notable. Un gran sistema de salud informó que más de 7000 médicos utilizaron asistentes de IA en más de 2,5 millones de encuentros con pacientes en solo 14 meses. 

El principal motor de esta adopción son las significativas ganancias de eficiencia. En un estudio con 45 profesionales clínicos de 17 especialidades (incluyendo personal de enfermería y asistentes médicos), los asistentes de IA redujeron el tiempo de documentación en una mediana de 2,6 minutos por cita y disminuyeron el trabajo en la HCE fuera del horario laboral en un 29,3 %.

A pesar de los beneficios, la adopción acelerada ha superado el escrutinio de los riesgos inherentes, que pueden comprometer la seguridad del paciente y la integridad clínica. Mientras que los asistentes humanos de documentación tienen cuatro veces más probabilidades de producir notas consideradas "precisas" por los médicos, y los sistemas de dictado automatizado tradicionales tienen tasas de error del 7-11 %, los asistentes de IA modernos reportan tasas de error más bajas (≈1-3 %). Sin embargo, introducen tipos de errores cualitativamente diferentes y potencialmente más peligrosos, como las alucinaciones, las omisiones y las malas Interpretaciones.

Consideraciones éticas, legales y regulatorias

Los riesgos no son meramente teóricos. Fallas históricas en sistemas de reconocimiento de voz anteriores han causado daños a pacientes, como documentar erróneamente "sin flujo vascular" en lugar de "flujo vascular normal", lo que llevó a un procedimiento innecesario.

Los sistemas de IA no son neutrales. La investigación ha documentado disparidades significativas en el rendimiento del reconocimiento automático de voz, mostrando tasas de error más altas para los hablantes afroamericanos en comparación con los hablantes blancos. Esto sugiere que los pacientes con acentos no estándar, competencia limitada en inglés o de comunidades marginadas pueden recibir una documentación inadecuada de sus preocupaciones.

La investigación muestra que ya existe una brecha significativa entre lo que se discute y lo que se documenta; un estudio encontró que aproximadamente el 50 % de los problemas de los pacientes discutidos verbalmente nunca se registraron en la HCE. Los asistentes de IA presentan un dilema: si documentan todo, podrían resolver el problema de las omisiones, pero corren el riesgo de crear una sobrecarga de información; si aplican algoritmos de filtrado, podrían perpetuar o incluso exacerbar las brechas de documentación existentes.

El consentimiento para grabar las conversaciones es esencial, pero las regulaciones varían. Más allá de la grabación, surge una cuestión ética compleja sobre el uso secundario de los datos. Los pacientes pueden no ser conscientes de que sus conversaciones se utilizan para entrenar futuros algoritmos o para el desarrollo de productos comerciales de IA. 

La responsabilidad en caso de error no está clara. Los médicos pueden dudar en adoptar estas herramientas si se les considera responsables de los errores de documentación generados por un algoritmo. Organizaciones profesionales ya han pedido la actualización de los marcos de responsabilidad civil. Agravando el problema, la mayoría de los asistentes de IA comerciales se comercializan como servicios que cumplen con la HIPAA en lugar de dispositivos médicos, lo que les permite eludir la supervisión formal de la FDA y crea un vacío regulatorio significativo.

El camino a seguir

Para aprovechar el potencial de los asistentes de IA de manera responsable, es esencial adoptar un enfoque equilibrado. Se proponen las siguientes acciones clave:

1. Establecer estándares de validación: Exigir evaluaciones independientes utilizando métricas estandarizadas de precisión, completitud y ahorro de tiempo antes de una implementación generalizada.

2. Exigir transparencia: Obligar a los proveedores a divulgar cómo funcionan sus sistemas, sus limitaciones y sesgos potenciales, incluyendo informes periódicos sobre las tasas de error.

3. Desarrollar marcos regulatorios claros: Actualizar las directrices para definir la responsabilidad y la rendición de cuentas cuando ocurren errores, protegiendo tanto a los pacientes como a los profesionales clínicos.

4. Implementar protocolos clínicos detallados: Las organizaciones de salud deben desarrollar programas de capacitación robustos sobre cómo auditar eficazmente el contenido de la IA, procesos de garantía de calidad y protocolos de consentimiento del paciente.

5. Invertir en investigación: Dedicar fondos para apoyar la investigación independiente sobre los impactos a largo plazo de estos sistemas en la calidad de la documentación y la toma de decisiones clínicas.

Los asistentes de inteligencia artificial ofrecen un gran potencial para reducir el agotamiento de los profesionales clínicos al disminuir la carga de documentación. Sin embargo, esta promesa debe sopesarse cuidadosamente frente a los riesgos sustanciales de errores de documentación, preocupaciones de privacidad y falta de transparencia.