Tecnología

/ Publicado el 22 de diciembre de 2025

Informe de la Cumbre JAMA

IA, salud y atención médica hoy y mañana

La inteligencia artificial (IA) está cambiando la salud y la atención médica a una escala sin precedentes. Aunque los beneficios potenciales son enormes, también lo son los riesgos.

Autor/a: Angus DC, Khera R, Lieu T, et al.

Fuente: JAMA. Published online October 13, 2025. AI, Health, and Health Care Today and Tomorrow: The JAMA Summit Report on Artificial Intelligence

La IA de salud y atención médica es muy amplia, incluidas herramientas clínicas (alertas de sepsis o software de detección de retinopatía diabética, por ejemplo), tecnologías utilizadas por personas con problemas de salud (por ejemplo, aplicaciones móviles de salud), herramientas utilizadas por los sistemas de atención médica para mejorar las operaciones comerciales (gestión del ciclo de ingresos o programación) y herramientas híbridas que respaldan tanto las operaciones comerciales (documentación y facturación) como las actividades clínicas (sugerir diagnósticos o planes de tratamiento).

Muchas herramientas de IA ya se han adoptado ampliamente, especialmente para imágenes médicas, salud móvil, operaciones comerciales de atención y funciones híbridas, como la programación de visitas ambulatorias. Todas estas herramientas pueden tener efectos importantes en la salud (buenos o malos), pero estos efectos a menudo no se cuantifican porque las evaluaciones son extremadamente desafiantes o no son necesarias; en parte, porque muchas están fuera de la supervisión regulatoria de la Administración de Alimentos y Medicamentos (FDA) de los Estados Unidos.

Un desafío importante en la evaluación es que los efectos de una herramienta dependen en gran medida de la interfaz hombre-computadora, la capacitación del usuario y el entorno en el que se utiliza la herramienta. Numerosos esfuerzos establecen estándares para el uso responsable de la IA, pero la mayoría se centran en el monitoreo de la seguridad (detección de alucinaciones del modelo) o el cumplimiento institucional de varias medidas del proceso, y no abordan la efectividad (es decir, demostración de mejores resultados).

Garantizar que la IA se implemente de manera equitativa y de una manera que mejore los resultados de salud o, si mejora la eficiencia de la prestación de atención médica, lo haga de manera segura, requiere progreso en 4 áreas:

  1. En primer lugar, se necesita la participación de múltiples partes interesadas a lo largo de todo el ciclo de vida del producto. Este esfuerzo incluiría una mayor asociación de los usuarios finales con los desarrolladores en la creación inicial de herramientas y una mayor asociación de desarrolladores, reguladores y sistemas de atención médica en la evaluación de las herramientas a medida que se implementan.
  2. En segundo lugar, deben desarrollarse y difundirse instrumentos de medición para la evaluación y el seguimiento. Más allá de las iniciativas propuestas de monitoreo y certificación, esto requerirá nuevos métodos y experiencia para permitir que los sistemas de atención médica realicen o participen en evaluaciones rápidas, eficientes y sólidas de la efectividad.
  3. La tercera prioridad es la creación de una infraestructura de datos y un entorno de aprendizaje representativos a nivel nacional para apoyar la generación de conocimientos generalizables sobre los efectos en la salud de las herramientas de IA en diferentes entornos.
  4. En cuarto lugar, se debe promover una estructura de incentivos, utilizando las fuerzas del mercado y las palancas políticas, para impulsar estos cambios.

¿Cómo evaluar los efectos en la salud?

La evaluación de las herramientas clínicas de IA en publicaciones revisadas por pares parece ampliamente respaldada. Se requiere una evaluación para muchas autorizaciones de la FDA, como el software de novo como vía de dispositivos médicos, y los ejemplos de consecuencias adversas cuando las herramientas de IA se difundieron sin evaluaciones previas revisadas por pares, como las altas tasas de casos perdidos y falsas alarmas por parte de un sistema de alerta de sepsis, provocaron llamados a evaluaciones obligatorias antes de un uso generalizado.

Hay múltiples evaluaciones de las herramientas y, aunque algunas mostraron beneficios, otras plantearon problemas de seguridad, como consejos dañinos o contrarios a las pautas y la falta de apoyo adecuado durante las crisis de salud mental, lo que provocó demandas de que estas herramientas también se evaluaran de forma rutinaria. Sin embargo, las herramientas evaluadas hasta la fecha son una pequeña fracción del mercado, y los hallazgos negativos no parecen haber obstaculizado el crecimiento del mercado.

Hay opiniones firmes, pero pocas evaluaciones revisadas por pares, con respecto a los efectos en la salud de las herramientas de operaciones comerciales. Por ejemplo, muchos médicos estadounidenses creen que el uso de herramientas de IA por parte de las aseguradoras para denegar la autorización previa está teniendo consecuencias negativas generalizadas para los pacientes, pero ningún estudio ha examinado si el uso de herramientas de IA ha afectado las tasas de denegación y cómo. No es sorprendente que las aseguradoras defiendan el uso de tales herramientas.

Aunque las evaluaciones revisadas por pares de las herramientas de operaciones comerciales son raras, los testimonios de clientes y los casos de uso, a menudo con afirmaciones combinadas sobre la eficiencia del sistema y la calidad de la atención médica, se utilizan rutinariamente para comercializar estos productos.

Las herramientas de operaciones comerciales para las que están disponibles las evaluaciones publicadas son aquellas con función híbrida, como los escribas de IA, aunque la evaluación se centra en gran medida en la satisfacción del paciente y del médico y en el flujo de trabajo del médico, en lugar de en los efectos sobre la calidad de la atención médica y los resultados del paciente.

Muchas partes interesadas creen que todas estas herramientas de IA afectan la salud, pero el ímpetu para la evaluación revisada por pares de las posibles consecuencias para la salud y la probabilidad de que sus hallazgos afecten la adopción, parece más fuerte para las herramientas más cercanas a los médicos. La falta de evaluación de los efectos en la salud de las herramientas de operaciones comerciales no es exclusiva de la IA, sino que es consistente con la de todas las estrategias organizacionales de atención médica, a pesar de los llamados al cambio.

Cuestiones éticas

Un problema son los derechos de datos, la privacidad y la propiedad. Los datos de salud y atención médica son un combustible esencial para las herramientas de IA.

Aunque se puede atribuir dónde se originan los datos de salud y atención médica, está menos claro quién posee o debería poseer los datos, especialmente cuando se agregan y transforman, y qué derechos de privacidad y uso se extienden, o deberían extenderse, a quién.

La Ley de Portabilidad y Responsabilidad del Seguro Médico y la ley de propiedad intelectual de EE. UU. brindan orientación sobre los derechos de privacidad, las obligaciones de seguridad, los secretos comerciales y la propiedad de las herramientas desarrolladas a partir de datos, pero son menos claras sobre la propiedad de los datos subyacentes y no protegen contra la aparición de mercados oscuros.

Otro problema es cómo proporcionar una supervisión ética de la IA a medida que se implementa. Un argumento es que las decisiones de los sistemas de atención médica para implementar herramientas de IA son parte de las operaciones de atención clínica. Cualquier evaluación del éxito o no del despliegue es una mejora de la calidad, no una investigación, y está exenta de la supervisión ética requerida de la investigación con seres humanos.

El argumento alternativo es que el despliegue de herramientas de IA se implementa en condiciones de incertidumbre, y el objetivo de cualquier evaluación es generar conocimiento que beneficie a futuros pacientes. Por lo tanto, tales evaluaciones son investigación, incluso si también son una mejora de la calidad, y deben estar bajo el ámbito de la junta de revisión institucional local y los principios de la Regla Común.

Actualmente, ambos enfoques ocurren, lo que refleja el debate más amplio sobre la mejor manera de proporcionar una supervisión ética de los sistemas de salud del aprendizaje.

Un aspecto adicional de este problema es que, independientemente del organismo que supervise (junta de revisión institucional o de otro tipo), la competencia requerida para supervisar el despliegue ético de la IA puede faltar sin la infraestructura, los recursos y la capacitación adecuados.

Finalmente, el uso de herramientas de IA hasta ahora ha sido en gran medida voluntario. Sin embargo, a medida que sus beneficios se consolidan, la falta de uso de una herramienta de IA puede considerarse poco ética o una violación de la atención estándar. Por lo tanto, un sistema o profesional de atención médica puede ser responsable en una demanda por negligencia por no usar IA.

Al mismo tiempo, si un demandante demanda por un resultado adverso cuando se brindó atención en la que estuvo involucrada una herramienta de IA, surge la pregunta de si la responsabilidad recae en el profesional de la salud, el sistema de atención médica o el desarrollador de la herramienta. Aunque la jurisprudencia relevante es actualmente limitada, los desarrolladores, los sistemas de atención médica y los profesionales de la salud tendrán que adoptar estrategias para administrar su riesgo de responsabilidad.

Relevancia

La IA irrumpirá en cada parte de la salud y la prestación de atención médica en los próximos años. Dados los muchos problemas de larga data en la atención médica, esta irrupción representa una oportunidad increíble.

Sin embargo, las probabilidades de que esta disrupción mejore la salud para todos dependerán en gran medida de la creación de un ecosistema capaz de un conocimiento rápido, eficiente, robusto y generalizable sobre las consecuencias de estas herramientas en la salud.

El alcance, la escala y la velocidad con la que la inteligencia artificial transformará la salud y la atención médica son asombrosos. La IA está cambiando cómo y cuándo las personas buscan atención y cómo los médicos interactúan con los pacientes, establecen diagnósticos e implementan y monitorean tratamientos.

De hecho, existe un entusiasmo considerable de que la IA, especialmente dados los avances recientes, pueda abordar desafíos de larga data en el acceso, el costo y la calidad de la prestación de atención médica. Sin embargo, el camino óptimo para el desarrollo y la difusión de la IA sigue sin estar claro.

A diferencia de los medicamentos o los dispositivos médicos más tradicionales, existe poco consenso o estructura para garantizar una evaluación, regulación, implementación y monitoreo sólidos, seguros, transparentes y estandarizados de las nuevas herramientas y tecnologías de IA. Algunos desafíos son de larga data para la tecnología de la información de salud digital en su conjunto, aunque más proféticos con el auge de la IA, mientras que otros son específicos de la IA.