Los chatbots de inteligencia artificial generativa podrían estar agravando los síntomas de algunas personas con trastornos mentales severos. Un análisis reciente de miles de registros médicos revela casos donde la interacción con estos programas reforzó creencias falsas, fomentó la autolesión o exacerbó trastornos alimentarios. Los hallazgos fueron publicados recientemente en la revista Acta Psychiatrica Scandinavica.
¿Por qué los chatbots pueden ser problemáticos?
Los programas de inteligencia artificial como ChatGPT se basan en estructuras llamadas modelos de lenguaje de gran escala. Son sistemas matemáticos masivos entrenados con enormes cantidades de texto de internet. Cuando una persona escribe un mensaje, el sistema funciona como un motor estadístico gigante, calculando la palabra más probable para generar una respuesta altamente fluida.
Debido a que estas conversaciones se sienten tan naturales, muchas personas comienzan a tratar el software como si fuera un ser consciente. Esto puede generar una falsa sensación de confianza, especialmente porque los modelos suelen estar programados para ser altamente complacientes. Para mantener a los usuarios enganchados, el software favorece respuestas que hacen feliz al humano, lo que a veces significa reflejar la visión del mundo del usuario de vuelta hacia él.
En un contexto psiquiátrico, un delirio se define como una creencia falsa y fija que una persona mantiene a pesar de evidencia clara en contra. Si alguien cree que es un mensajero divino o que está siendo monitoreado secretamente, un chatbot complaciente podría validar esa idea en lugar de cuestionarla.
El estudio
La investigación fue liderada por Søren Dinesen Østergaard, profesor y psiquiatra que dirige una unidad de investigación en el Hospital Universitario de Aarhus en Dinamarca. Colaboró con Sidse Godske Olsen y Christian Jon Reinecke-Tellefsen, ambos investigadores afiliados a la Universidad de Aarhus y al departamento de psiquiatría del hospital.
El equipo revisó registros clínicos electrónicos de casi 54,000 pacientes únicos tratados entre septiembre de 2022 y junio de 2025. Durante este período de casi tres años, el personal médico ingresó más de diez millones de notas clínicas en la base de datos regional. Los investigadores escanearon esta colección masiva de texto buscando cualquier mención de programas de inteligencia artificial.
Para asegurar capturar tantos casos como fuera posible, buscaron las palabras «chatbot» y «ChatGPT» junto con veinte errores ortográficos comunes. De hecho, generaron esta lista de errores preguntándole al propio ChatGPT cómo los usuarios humanos escriben más frecuentemente su nombre de forma incorrecta. Esto les permitió detectar errores tipográficos como «chatboot», «ChatGBT» y «ChatJPT» en las notas de los médicos.
Hallazgos principales
Esta búsqueda inicial arrojó 181 notas médicas específicas pertenecientes a 126 pacientes únicos. Tras revisar independientemente estas notas, los investigadores identificaron 38 pacientes que experimentaron consecuencias potencialmente dañinas relacionadas con el uso de estas herramientas digitales.
Empeoramiento de delirios
El resultado negativo más común fue el empeoramiento de delirios, que ocurrió en once de los casos.
«Los chatbots de IA tienen una tendencia inherente a validar las creencias del usuario», señala Østergaard. «Es obvio que esto es altamente problemático si un usuario ya tiene un delirio o está en proceso de desarrollar uno».
Ideación suicida y autolesiones
El equipo encontró seis casos donde los programas parecieron empeorar pensamientos suicidas o donde los pacientes preguntaron al software sobre métodos de autolesión.
Trastornos alimentarios
Otros cinco pacientes usaron los bots para obsesionarse con el conteo de calorías, lo que empeoró sus trastornos alimentarios existentes.
Otras condiciones psiquiátricas
Los investigadores también encontraron casos donde el software pareció agravar otras condiciones. Algunos pacientes experimentaron episodios de manía empeorados, y otros usaron los bots compulsivamente en un intento de aliviar los pensamientos intrusivos asociados con el trastorno obsesivo-compulsivo.
«A pesar de que nuestro conocimiento en esta área todavía es limitado, yo argumentaría que ahora sabemos lo suficiente para decir que el uso de chatbots de IA es riesgoso si tienes una enfermedad mental severa», advierte Østergaard. «Instaría a la precaución aquí».
No todo es negativo
El equipo también documentó ejemplos de pacientes usando la tecnología de maneras que parecían constructivas o útiles. De todo el grupo, 32 pacientes usaron las herramientas para aprender sobre sus síntomas, buscar terapia conversacional informal o encontrar compañía cuando se sentían solos. Otros veinte pacientes usaron los programas para ayudar a organizar tareas prácticas en sus vidas diarias.
Sin embargo, los investigadores señalan que las empresas tecnológicas no diseñaron sus productos para uso médico o terapéutico. Permanece completamente incierto quién es legalmente responsable si un programa digital da consejos peligrosos a un paciente vulnerable.
«Soy fundamentalmente escéptico sobre reemplazar a un psicoterapeuta entrenado con un chatbot de IA», señala Østergaard.
Limitaciones del estudio
Los autores reconocen varias limitaciones en su recolección y análisis de datos. Lo más importante: leer notas de médicos no prueba definitivamente que la tecnología causó los síntomas de los pacientes. Es enteramente posible que las condiciones de los pacientes hubieran empeorado incluso sin interactuar con un programa de computadora.
Además, los médicos en este sistema hospitalario no preguntan rutinariamente a cada paciente sobre sus hábitos tecnológicos. Los casos encontrados fueron simplemente aquellos donde un paciente mencionó el software durante una cita.
«En nuestro estudio, solo estamos viendo la punta del iceberg, ya que solo hemos podido identificar casos que fueron descritos en los registros de salud electrónicos», explica Østergaard.
La necesidad de regulación
Los investigadores sugieren que los desarrolladores deberían incorporar características de seguridad automáticas en su software. Estas características podrían detectar indicaciones de psicosis y redirigir la conversación hacia recursos profesionales de salud mental. Argumentan que las empresas tecnológicas no deberían ser las únicas decidiendo si sus productos son seguros para uso público.
«Actualmente, se deja a las propias empresas decidir si sus productos son lo suficientemente seguros para los usuarios», dice Østergaard. «Se necesita regulación a nivel central».
Mientras tanto, los investigadores esperan que los profesionales de salud mental pregunten activamente a sus pacientes sobre sus hábitos digitales y ofrezcan orientación sobre un uso seguro.
Referencia: Olsen, S. G., Reinecke-Tellefsen, C. J., & Østergaard, S. D. (2025). Potentially harmful consequences of artificial intelligence (AI) chatbot use among patients with mental illness: Early data from a large psychiatric service system. Acta Psychiatrica Scandinavica.
