Calidad científica y empática de las respuestas | 21 AGO 23

¿Cómo responden a preguntas de pacientes ChatGPT y médicos humanos?

Comparación de respuestas de médicos y chatbots de inteligencia artificial a preguntas de pacientes publicadas en un foro público de redes sociales

Se evaluó el tipo de respuestas a consultas de pacientes en un foro público de médicos y de ChatGPT. Las conclusiones, tras el análisis de las respuestas por parte de un panel externo de profesionales de la salud que desconocía quién había respondido qué cosa, es que, en el 79% de las veces, las explicaciones de ChatGPT eran más empáticas y de mayor calidad.

Puntos clave

Pregunta  

¿Puede un asistente de chatbot de inteligencia artificial proporcionar respuestas a las preguntas de los pacientes que sean de calidad y empatía comparables a las escritas por los médicos?

Hallazgos  

En este estudio transversal de 195 preguntas de pacientes extraídas al azar de un foro de redes sociales, un equipo de profesionales de la salud con licencia comparó las respuestas de médicos y chatbots a las preguntas de los pacientes formuladas públicamente en un foro público de redes sociales. Se prefirieron las respuestas del chatbot a las respuestas de los médicos y se calificaron significativamente más alto tanto en calidad como en empatía.

Significado  

Estos resultados sugieren que los asistentes de inteligencia artificial pueden ayudar a redactar respuestas a las preguntas de los pacientes.


Importancia  

La rápida expansión de la atención médica virtual ha provocado un aumento en los mensajes de los pacientes junto con más trabajo y agotamiento entre los profesionales de la salud. Los asistentes de inteligencia artificial (IA) podrían potencialmente ayudar a crear respuestas a las preguntas de los pacientes al redactar respuestas que podrían ser revisadas por los médicos.

Objetivo  

Evaluar la capacidad de un asistente de chatbot de IA (ChatGPT), lanzado en noviembre de 2022, para brindar respuestas empáticas y de calidad a las preguntas de los pacientes.

Diseño, entorno y participantes  

En este estudio transversal, se utilizó una base de datos pública y no identificable de preguntas de un foro público de redes sociales (r/AskDocs de Reddit) para seleccionar al azar 195 intercambios de octubre de 2022 en los que un médico verificado respondió a una pregunta pública.

Las respuestas del chatbot se generaron ingresando la pregunta original en una nueva sesión (sin que se hayan hecho preguntas previas en la sesión) el 22 y 23 de diciembre de 2022.

La pregunta original junto con las respuestas anónimas y ordenadas aleatoriamente del médico y del chatbot fueron evaluadas por triplicado por un equipo de profesionales de la salud autorizados. Los evaluadores eligieron “qué respuesta fue mejor” y juzgaron tanto “la calidad de la información proporcionada” ( muy mala, mala , aceptable, buena, o muy buena) y "la empatía o el trato brindado al lado de la cama" (no empática, poco empática, moderadamente empática, empática y muy empática). Los resultados medios se ordenaron en una escala de 1 a 5 y se compararon entre chatbot y médicos.

 

Comentarios

Para ver los comentarios de sus colegas o para expresar su opinión debe ingresar con su cuenta de IntraMed.

AAIP RNBD
Términos y condiciones de uso | Política de privacidad | Todos los derechos reservados | Copyright 1997-2024