Technology

/ Published on April 6, 2026

¿Ayudan?

Millones de personas recurren a la IA para mejorar su salud mental

Los chatbots se han convertido en uno de los mayores proveedores de terapia de conversación en Estados Unidos, en parte porque muchas personas carecen de acceso a un profesional de la salud mental.

Author: Rubin R.

Fuente: JAMA. Published online January 09, 2026. Millions Turn to AI Chatbots for Mental Health Support

Basándose en la utilidad percibida y la escala de impacto, un artículo de Harvard Business Review clasificó la terapia o la compañía como el principal caso de uso de IA generativa en 2025.

Recientemente, investigadores encuestaron a adultos estadounidenses con una condición de salud mental persistente que en el último año habían utilizado un LLM de IA como ChatGPT de OpenAI o Gemini de Google. Casi la mitad de los participantes informaron haber utilizado un LLM para apoyo psicológico, y casi dos tercios de esos individuos afirmaron que sus interacciones con chatbots habían mejorado su salud mental.

Y un estudio transversal con personas de entre 12 y 21 años, publicado en noviembre en JAMA Network Open, encontró que el 13 % de ellas, representando a más de 5 millones de jóvenes estadounidenses, utilizaban IA generativa para asesorar en salud mental. Casi el 70% dijo que lo usaba para ese propósito al menos una vez al mes y más del 90 % consideró útiles los consejos que ofrecía.

Pero hay un lado oscuro en buscar apoyo psicológico en chatbots, con pocas barreras para protegerse frente a posibles daños y una escasez de evidencia de eficacia. Estos sistemas de IA generativa, con nombres como Therapeak, Pocket Therapist y Abby, afirman no ser juzgadores y, de hecho, los LLMs tienden a ser aduladores para mantener a los usuarios interesados.

"El marketing es engañoso para estos", señaló John Torous, MD, MBI, director de la división de psiquiatría digital en el departamento de psiquiatría del Beth Israel Deaconess Medical Center de Harvard. "Eso es simplemente injusto, especialmente para personas en una crisis aguda de salud mental. El engaño nunca debería formar parte de la sanidad".

Lo más preocupante es que los jóvenes que recurrieron a los chatbots para apoyo y compañía en salud mental han muerto por suicidio. Se han presentado al menos 5 demandas por muerte injusta contra OpenAI, 1 en agosto y 4 en noviembre, por padres que afirman que las respuestas de ChatGPT animaron a sus hijos a suicidarse. Una sexta demanda, presentada en diciembre por la familia de un hombre de 56 años de Connecticut, alega que ChatGPT le impulsó a matar a su madre de 83 años y luego a sí mismo.

A diferencia de los profesionales de la salud mental, los chatbots no están licenciados ni regulados por la Ley HIPAA. Y, a diferencia de los medicamentos para tratar enfermedades mentales, en su mayoría los chatbots no han sido regulados por la FDA.

Las demandas por muerte por negligencia han aumentado la conciencia sobre los riesgos de utilizar IA generativa para el apoyo a la salud mental. Dos estados, Illinois y Nevada, promulgaron leyes el año pasado para limitarla, lo que llevó al presidente Donald Trump a firmar en diciembre una orden ejecutiva que bloqueaba a los estados para regular la IA.

El chatbot te recibirá ahora

Los chatbots están disponibles las 24 horas del día, los 7 días de la semana, y muchos son gratuitos, lo que atrae a millones de personas en Estados Unidos que no han conseguido encontrar un profesional de la salud mental convenientemente ubicado o asequible, muchos de los cuales han dejado de aceptar seguros debido a las bajas tasas de reembolso.

Con el aumento de los niveles de necesidades conductuales no cubiertas, el país está experimentando una crisis de salud mental. Hasta agosto de 2024, más de un tercio de la población estadounidense vivía en un área de escasez de profesionales de la salud mental, señaló el informe de la HRSA. En 2022, casi 1 de cada 4 adultos estadounidenses, se estima que 59 millones, tenía una enfermedad mental. Para unos 15 millones de esas personas, la enfermedad era lo suficientemente grave como para interferir sustancialmente o limitar al menos una actividad vital importante.

Sin embargo, la falta de acceso a un profesional de la salud mental no es la única razón por la que la gente recurre a los chatbots. La encuesta a adultos con trastornos de salud mental que habían utilizado un LLM para apoyo en salud mental o para fines relacionados con la terapia reveló que dos tercios de ellos también habían buscado ayuda de un terapeuta o consejero humano.

Solo el 27 % de quienes experimentaron ambos tipos calificaron a los terapeutas humanos como más útiles que los LLMs, mientras que el 38 % encontró que los LLMs eran más útiles.

Las actitudes más favorables hacia los LLMs podrían deberse a la adulación de los chatbots, sugirió C. Vaile Wright, PhD, director sénior de la Oficina de Innovación en Salud de la Asociación Americana de Psicología. "La terapia es realmente difícil", dijo. "El papel del terapeuta es, en cierto modo, sostener el espejo", ayudando a los pacientes a identificar patrones de comportamiento y pensamiento que quizá no les funcionen. Pero los chatbots son incondicionalmente validantes.

Un estudio publicado recientemente encontró que 5 chatbots populares de terapia expresaron de forma constante estigma hacia las personas con trastornos de salud mental y respondieron de forma inapropiada a condiciones comunes observadas en entornos terapéuticos, como fomentar el pensamiento delirante de los usuarios.

Poner un rostro

En 2019, cuando el psicólogo clínico de Dartmouth Nicholas Jacobson, PhD, y sus colaboradores, comenzaron a desarrollar Therabot —un chatbot experimental de salud mental generativa con IA entrenado con diálogos expertos entre terapeutas y pacientes—, decidieron deliberadamente un avatar que parecía un robot, no un humano real. Querían asegurarse de que los usuarios supieran que era un bot.

Sin embargo, las empresas detrás de otros chatbots de salud mental que ya están en el mercado han ido en la dirección opuesta. Por ejemplo, Pocket Therapist presenta chatbots con nombres de pila y fotos de perfil realistas que se mueven, casi como si asintieran en señal de acuerdo.

Otros chatbots de salud mental también afirman ser profesionales licenciados con doctorados de universidades de primer nivel. La autora describió su intercambio con Alex en la plataforma Chai. Cuando preguntó al bot por sus credenciales, le dijo que tenía un doctorado en psicología clínica por Stanford y le dio un número aleatorio para su licencia profesional. En otro caso, un bot "terapeuta" en Character.AI proporcionó el número de licencia de un profesional real de la salud mental de Maryland.

Fingir credenciales es claramente poco ético. Pero hacer que los bots parezcan humanos es "éticamente gris en cierto modo", dijo Jacobson.

Darle un nombre a un bot y un retrato realista "podría incluso aumentar su eficacia", explicó. "La expectativa es un tema enorme en psicoterapia", y la gente podría esperar hacerlo mejor si siente que está hablando con un ser humano. Pero las plataformas de IA generativa que antropomorfizan chatbots deben dejarlo claro desde el principio y emitir recordatorios periódicos de que no son humanos.

Desafíos regulatorios

A diferencia de los terapeutas humanos, que están regulados —hay un proceso de licencia, luego requisitos de formación continua y un sistema de denuncia de mala conducta—, los productos digitales no tienen nada de esto. Además, un medicamento sigue siendo el mismo 5 años después de su aprobación, pero los algoritmos de los chatbots cambian semanalmente.

La FDA ya ha autorizado algunos programas como dispositivos médicos en salud mental. Autorizó a muchos a través de una vía regulatoria que exige a los patrocinadores demostrar únicamente que su producto es tan seguro y eficaz como uno ya comercializado legalmente.

La adopción de herramientas basadas en LLM no probadas está superando "nuestra capacidad para evaluar estos sistemas eficazmente, creando un entorno donde millones de usuarios interactúan con herramientas de salud mental [de IA] que han pasado por una evaluación sistemática mínima", señalaron Torous y sus coautores en un artículo de revisión también publicado en noviembre.

El marco legal actual para dispositivos médicos no se adapta bien a los ciclos más rápidos de innovación y a la rapidez de cambio que a veces es necesaria para proporcionar una garantía razonable de seguridad y eficacia de los dispositivos en rápida evolución. Los chatbots están muy lejos de los productos que las agencias han regulado tradicionalmente. "La FDA no está hecha para esto", dijo Jacobson. "Es una agencia diseñada para la comida y los medicamentos. No encaja con la IA generativa."

El uso de chatbots para la salud mental se ha vuelto tan común, que los médicos de atención primaria deberían preguntar rutinariamente a todos los pacientes al respecto, dijo Torous, que trabaja con la National Alliance on Mental Illness en el desarrollo de materiales educativos sobre chatbots.