En 1966, un programa llamado ELIZA imitó a un terapeuta rogeriano con un simple guion que repetía frases del usuario. A pesar de su simplicidad, muchas personas sintieron que ELIZA las “entendía”. Medio siglo después, los sistemas de inteligencia artificial han evolucionado radicalmente. Y ahora, no solo imitan a un terapeuta: en algunos contextos, superan a profesionales humanos.
Un estudio reciente, publicado en PLOS Mental Health, se propuso responder a una pregunta cada vez más urgente: ¿puede una inteligencia artificial como ChatGPT generar respuestas terapéuticas tan efectivas —o incluso más— que las de psicólogos y psiquiatras con formación clínica?
El experimento: IA vs. humanos
Un grupo de investigadores diseñó una competencia directa. Reclutaron a 13 expertos con formación en psicología clínica, terapia de pareja, consejería y psiquiatría. A cada uno se le pidió responder a una serie de viñetas clínicas simulando sesiones de terapia de pareja. Las mismas viñetas fueron presentadas a ChatGPT 4.0, con instrucciones detalladas para maximizar los llamados “factores comunes” de la terapia: empatía, alianza terapéutica, profesionalismo, competencia cultural y eficacia técnica.
Luego, más de 800 personas —diversas en edad, género, etnicidad y orientación sexual— evaluaron las respuestas sin saber si provenían de humanos o de una IA. Se les pidió adivinar el origen de cada respuesta y calificar qué tan “terapéutica” les parecía.
Los resultados: una IA que empatiza… ¿mejor?
Los hallazgos fueron claros:
- Los participantes no supieron distinguir con precisión quién escribió cada respuesta. Acertaron solo un poco más que al azar (56% en el caso de respuestas humanas y 51% para las de la IA).
- ChatGPT obtuvo mejores puntuaciones que los terapeutas humanos en aspectos como empatía, conexión emocional, competencia cultural y percepción de profesionalismo. La diferencia fue estadísticamente significativa y clínicamente relevante (d = 1.63).
- El sesgo cognitivo sigue presente: cuando los participantes creían que una respuesta había sido escrita por un humano, tendían a evaluarla mejor. Pero incluso con ese sesgo, las respuestas de ChatGPT sobresalieron.
- La IA usó un lenguaje más rico y elaborado. Sus respuestas fueron más largas, con más sustantivos, verbos y adjetivos, y con un tono emocional más positivo. Esto sugiere que, al menos a nivel lingüístico, ChatGPT ofrece respuestas más matizadas y cálidas.
¿Qué significa todo esto?
Primero, lo evidente: una IA bien entrenada y con instrucciones éticas y clínicas claras puede producir respuestas terapéuticas de alta calidad. No es poco. En contextos donde el acceso a profesionales es limitado, esto abre posibilidades para intervenciones automatizadas, de bajo costo y amplio alcance.
Pero también hay límites. Estas respuestas se dieron en viñetas escritas, fuera del contexto de una relación terapéutica real. La IA no tiene memoria emocional, no puede leer lenguaje no verbal, ni sostener procesos a largo plazo. No hay alianza terapéutica sin relación continua. Tampoco hay contención del sufrimiento en situaciones de crisis.
Además, como advierten los autores, la percepción pública importa. Aunque la IA fue mejor evaluada en términos objetivos, cuando los participantes sabían que la respuesta era de una máquina, la calificaban más bajo. Hay un rechazo implícito —una tecnofobia— que puede limitar su aceptación clínica.
Riesgos, sesgos y el dilema ético
El estudio fue cuidadosamente diseñado para minimizar riesgos. Las respuestas fueron supervisadas, el prompt fue estructurado con base en códigos éticos (APA, AMA), y el contenido fue estrictamente terapéutico. Pero esto no siempre ocurre en el mundo real.
¿Qué pasará cuando un desarrollador con menos escrúpulos utilice IA para ofrecer “terapia” sin regulación? ¿Qué sucede si las respuestas carecen de evaluación de riesgo suicida o comprometen la confidencialidad? ¿O si una IA —entrenada con datos sesgados— reproduce microagresiones o malentendidos culturales?
Los investigadores advierten con claridad: el potencial de la IA es enorme, pero su aplicación terapéutica debe estar supervisada por clínicos éticamente responsables, con marcos teóricos claros y entrenamiento específico.
¿Un aliado, no un reemplazo?
Este estudio no sugiere que la IA deba reemplazar a los terapeutas. Pero sí plantea una posibilidad disruptiva: usar la IA como asistente clínico, como entrenador de respuestas empáticas, como herramienta para diseñar intervenciones personalizadas o incluso como plataforma para autoayuda guiada.
En contextos donde los recursos son escasos —como salud mental en zonas rurales, cárceles, sistemas públicos sobrecargados— la IA podría funcionar como una extensión del sistema de salud, siempre que se mantenga la supervisión y la evaluación ética.
Reflexión final
Lo más inquietante del estudio no es que la IA haya ganado en esta competencia. Lo inquietante es que lo haya hecho con tan poca dificultad. Con instrucciones claras, datos abiertos y acceso público, cualquier persona con algo de conocimiento clínico podría construir un “chatbot terapéutico” creíble.
Estamos en un punto de inflexión. Como advierte el artículo, no podemos seguir ignorando la presencia de la IA en el campo de la salud mental. La pregunta ya no es si va a entrar en el consultorio. La pregunta es cómo lo hará… y quién lo supervisará.
Referencia: Hatch SG, Goodman ZT, Vowels L, Hatch HD, Brown AL, Guttman S, et al. (2025) When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Ment Health 2(2): e0000145. https://doi.org/10.1371/journal.pmen.0000145