Tecnología

/ Publicado el 2 de mayo de 2026

Pre-consulta

¿Cómo responde la IA a las dudas de los pacientes?

En un futuro no muy lejano, algunos expertos predicen que las nuevas tecnologías de IA podrán tomar decisiones de forma independiente sobre la atención al paciente. ¿Y ahora qué?

Autor/a: Rubin R.

Fuente: JAMA. Published online March 06, 2026 Are AI Tools Ready to Answer Patients’ Questions About Their Medical Care?

Desde educar a las pacientes sobre la salud sexual de las mujeres y la cirugía de reemplazo de cadera hasta generar instrucciones posoperatorias y digitalizar el consentimiento informado, las aplicaciones médicas de las herramientas de IA generativa para el público son enormes. En general, su objetivo es aumentar la comprensión de los pacientes sobre información compleja y, en el caso de ChatGPT Health, proporcionar información personalizada basada en los datos individuales de los usuarios.

Sin embargo, en su máxima sofisticación, estas tecnologías deberían servir como un "extensor", no como un sustituto del médico, dijo el cardiólogo Haider Warraich, director de programa en la Agencia de Proyectos de Investigación Avanzada para la Salud (ARPA-H) del gobierno de EE. UU.

"Odio el término doctor de IA", dijo Warraich.

Hay más de una razón por la que usar un chatbot de IA para asesoramiento sanitario no es lo mismo que consultar a un médico. Estudios recientes han planteado dudas sobre la precisión de la información sanitaria proporcionada por los chatbots, y médicos y consumidores han expresado preocupaciones sobre el intercambio de datos personales con grandes modelos de lenguaje (LLMs), que no están cubiertos por la Ley de Portabilidad y Responsabilidad del Seguro de Salud (HIPAA).

ChatGPT Health no logró clasificar adecuadamente la mayoría de los casos problema dados al sistema. Los autores del estudio que evaluó su precisión, probaron el chatbot utilizando casos escritos por médicos, y señalaron que la subclasificación de las condiciones de emergencia puede retrasar o impedir un tratamiento que salve vidas. Pero los LLMs tienen el potencial de ampliar el acceso a la experiencia o, al menos, preparar a los pacientes para que aprovechen al máximo las visitas con sus médicos.

De los 800 millones de usuarios de ChatGPT cada semana, 1 de cada 4 busca información relacionada con la salud. Los usuarios pueden subir una nota médica o copiar resultados de laboratorio desde su portal de pacientes, pero esa información carece de contexto. Subir una nota muy corta podría interpretarse de forma muy diferente si el paciente tiene 20 o 70 años.

ChatGPT Health invita a los usuarios a subir toda su información personal de salud, incluidos resultados de pruebas de laboratorio e imágenes, así como datos recogidos por su reloj inteligente. Aunque OpenAI consultó a cientos de médicos de todo el mundo para mejorar sus modelos, ChatGPT Health no está diseñado para hacer de médico.

A finales de febrero de 2026, ChatGPT Health aún no estaba disponible para todos los participantes. Los usuarios potenciales podían añadir su nombre a una lista de espera para usar el chatbot. OpenAI declinó decir cuántas personas han utilizado ChatGPT Health hasta ahora. La privacidad es una de las principales preocupaciones de los usuarios.

Elon Musk sugirió recientemente en una publicación de X que "puedes simplemente hacer una foto de tus datos médicos o subir el archivo para obtener una segunda opinión de Grok", el chatbot de IA desarrollado por su empresa, xAI. Grok no cumple con HIPAA. ChatGPT Health tampoco cumple con HIPAA. No están sujetas a los mismos requisitos legales que los médicos y las instituciones sanitarias.

Sistemas fragmentados

Incluso si quisieran, los usuarios de chatbots no siempre pueden subir todos sus historiales médicos. Los sistemas sanitarios están muy fragmentados". Incluso los pacientes que disponen de toda la información relevante pueden no ofrecer una imagen completa de su situación al interactuar con LLMs.

Un estudio dirigido por el Oxford Internet Institute en el Reino Unido evaluó si los LLMs podían ayudar a personas sin formación médica a identificar condiciones subyacentes y elegir un curso de acción en 10 escenarios de salud redactados por médicos. Los investigadores asignaron aleatoriamente a 1300 participantes para recibir ayuda de uno de los 3 LLMs: ChatGPT-4o, Llama 3 de Meta y Command R+, desarrollado por Cohere.

De media, los chatbots identificaron correctamente la condición el 95 % de las veces y el curso de acción adecuado el 56 % de las veces cuando la presentación del caso fue realizada por un médico. Pero cuando los participantes mismos presentaron sus casos a los mismos LLMs, los chatbots identificaron correctamente las condiciones relevantes solo aproximadamente un tercio de las veces y el curso de acción adecuado menos del 44 % de las veces.

Con estos chatbots, es responsabilidad del usuario saber qué necesita aportar al modelo para obtener la mejor información. Tener ese tipo de matiz clínico requiere mucha formación previa.

El resultado podría ser mortal si, por ejemplo, un chatbot le dijera erróneamente a un usuario que no necesita ir a urgencias porque su dolor en el pecho se debe a una indigestión y no a un infarto. Por eso se aconseja a los pacientes usar chatbots solo para apoyos de bajo riesgo.

Buenos ejemplos

Para el urólogo Gio Cacciamani, el diagnóstico de un ser querido con una enfermedad grave no relacionada con su especialidad le dio una idea de lo que enfrentan los pacientes al intentar descifrar información científica. Cacciamani descubrió dos tipos de información médica en línea: o bien "extremadamente legible pero no certificada", como entradas de blog, o "revisada por pares, certificada, pero nada legible", principalmente publicaciones en revistas científicas.

Utilizando la técnica de generación aumentada por recuperación, o RAG, que entrena al LLM con una base de conocimientos médicamente verificada, desarrolló una nueva herramienta capaz de traducir y resumir resúmenes y artículos completos. Más de 6000 personas han recurrido a Pub2Post, y algunas revistas médicas lo están utilizando para sus publicaciones en redes sociales, según Cacciamani.

Antonio Forte, cirujano plástico en la Mayo Clinic de Jacksonville, Florida, utilizó RAG para desarrollar un asistente virtual LLM para instrucciones posoperatorias. A menudo, los pacientes reciben el alta tras la cirugía mientras aún experimentan los efectos residuales de la anestesia o los analgésicos, lo que dificulta recordar las instrucciones posoperatorias. Utilizando interacciones simuladas con pacientes, las pruebas del asistente virtual demostraron una gran precisión técnica, seguridad y relevancia clínica.

En enero de 2026, dos agencias federales, ambas parte del Departamento de Salud y Servicios Humanos de EE. UU., lanzaron iniciativas centradas en herramientas de salud digital para pacientes con enfermedades crónicas comunes. Uno está diseñado para evaluar una vía regulatoria para herramientas de salud digital, incluidos los LLMs, y el otro pretende impulsar el desarrollo de un LLM para pacientes con insuficiencia cardíaca.

La FDA aún no ha autorizado ningún LLM. Las aplicaciones de IA generativa presentan un desafío único, debido al potencial de consecuencias imprevistas y emergentes.

Hoy, se lidera una nueva iniciativa ARPA-H, cuyo objetivo es el desarrollo de nuevos sistemas LLMs que estén listos para ser enviados a la FDA en un plazo de 2 años para su autorización como dispositivos médicos. El programa Transformación de la Atención Cardiovascular Habilitada por IA Agencial (ADVOCATE) tiene como objetivo transformar el manejo avanzado de enfermedades cardiovasculares con un sistema de IA que pueda proporcionar atención clínica holística las 24 horas del día. El primer uso de las tecnologías desarrolladas a través de ADVOCATE será la atención a pacientes con insuficiencia cardíaca congestiva. Si un paciente siente dificultad para respirar, por ejemplo, la tecnología decidirá si debe acudir a urgencias y si podría necesitar una nueva receta o una dosis más alta de un medicamento actual.