Psyciencia
  • SECCIONES
  • PSYCIENCIA PRO
    • ÚNETE A LA MEMBRESÍA
    • INICIA SESIÓN
    • CONTENIDO PARA MIEMBROS
    • RECURSOS PARA MIEMBROS
    • TIPS PARA TERAPEUTAS
    • PODCAST
    • WEBINARS
  • NORMAS APA
  • SPONSORS
  • NOSOTROS
Psyciencia
  • SECCIONES
  • PSYCIENCIA PRO
    • ÚNETE A LA MEMBRESÍA
    • INICIA SESIÓN
    • CONTENIDO PARA MIEMBROS
    • RECURSOS PARA MIEMBROS
    • TIPS PARA TERAPEUTAS
    • PODCAST
    • WEBINARS
  • NORMAS APA
  • SPONSORS
  • NOSOTROS
  • Ciencia y Evidencia en Psicología

¿Puede ChatGPT ser mejor terapeuta que un humano?

  • 04/06/2025
  • David Aparicio

En 1966, un programa llamado ELIZA imitó a un terapeuta rogeriano con un simple guion que repetía frases del usuario. A pesar de su simplicidad, muchas personas sintieron que ELIZA las “entendía”. Medio siglo después, los sistemas de inteligencia artificial han evolucionado radicalmente. Y ahora, no solo imitan a un terapeuta: en algunos contextos, superan a profesionales humanos.

Un estudio reciente, publicado en PLOS Mental Health, se propuso responder a una pregunta cada vez más urgente: ¿puede una inteligencia artificial como ChatGPT generar respuestas terapéuticas tan efectivas —o incluso más— que las de psicólogos y psiquiatras con formación clínica?

El experimento: IA vs. humanos

Un grupo de investigadores diseñó una competencia directa. Reclutaron a 13 expertos con formación en psicología clínica, terapia de pareja, consejería y psiquiatría. A cada uno se le pidió responder a una serie de viñetas clínicas simulando sesiones de terapia de pareja. Las mismas viñetas fueron presentadas a ChatGPT 4.0, con instrucciones detalladas para maximizar los llamados “factores comunes” de la terapia: empatía, alianza terapéutica, profesionalismo, competencia cultural y eficacia técnica.

Luego, más de 800 personas —diversas en edad, género, etnicidad y orientación sexual— evaluaron las respuestas sin saber si provenían de humanos o de una IA. Se les pidió adivinar el origen de cada respuesta y calificar qué tan “terapéutica” les parecía.

Los resultados: una IA que empatiza… ¿mejor?

Los hallazgos fueron claros:

  • Los participantes no supieron distinguir con precisión quién escribió cada respuesta. Acertaron solo un poco más que al azar (56% en el caso de respuestas humanas y 51% para las de la IA).
  • ChatGPT obtuvo mejores puntuaciones que los terapeutas humanos en aspectos como empatía, conexión emocional, competencia cultural y percepción de profesionalismo. La diferencia fue estadísticamente significativa y clínicamente relevante (d = 1.63).
  • El sesgo cognitivo sigue presente: cuando los participantes creían que una respuesta había sido escrita por un humano, tendían a evaluarla mejor. Pero incluso con ese sesgo, las respuestas de ChatGPT sobresalieron.
  • La IA usó un lenguaje más rico y elaborado. Sus respuestas fueron más largas, con más sustantivos, verbos y adjetivos, y con un tono emocional más positivo. Esto sugiere que, al menos a nivel lingüístico, ChatGPT ofrece respuestas más matizadas y cálidas.

¿Qué significa todo esto?

Primero, lo evidente: una IA bien entrenada y con instrucciones éticas y clínicas claras puede producir respuestas terapéuticas de alta calidad. No es poco. En contextos donde el acceso a profesionales es limitado, esto abre posibilidades para intervenciones automatizadas, de bajo costo y amplio alcance.

Pero también hay límites. Estas respuestas se dieron en viñetas escritas, fuera del contexto de una relación terapéutica real. La IA no tiene memoria emocional, no puede leer lenguaje no verbal, ni sostener procesos a largo plazo. No hay alianza terapéutica sin relación continua. Tampoco hay contención del sufrimiento en situaciones de crisis.

Además, como advierten los autores, la percepción pública importa. Aunque la IA fue mejor evaluada en términos objetivos, cuando los participantes sabían que la respuesta era de una máquina, la calificaban más bajo. Hay un rechazo implícito —una tecnofobia— que puede limitar su aceptación clínica.

Riesgos, sesgos y el dilema ético

El estudio fue cuidadosamente diseñado para minimizar riesgos. Las respuestas fueron supervisadas, el prompt fue estructurado con base en códigos éticos (APA, AMA), y el contenido fue estrictamente terapéutico. Pero esto no siempre ocurre en el mundo real.

¿Qué pasará cuando un desarrollador con menos escrúpulos utilice IA para ofrecer “terapia” sin regulación? ¿Qué sucede si las respuestas carecen de evaluación de riesgo suicida o comprometen la confidencialidad? ¿O si una IA —entrenada con datos sesgados— reproduce microagresiones o malentendidos culturales?

Los investigadores advierten con claridad: el potencial de la IA es enorme, pero su aplicación terapéutica debe estar supervisada por clínicos éticamente responsables, con marcos teóricos claros y entrenamiento específico.

¿Un aliado, no un reemplazo?

Este estudio no sugiere que la IA deba reemplazar a los terapeutas. Pero sí plantea una posibilidad disruptiva: usar la IA como asistente clínico, como entrenador de respuestas empáticas, como herramienta para diseñar intervenciones personalizadas o incluso como plataforma para autoayuda guiada.

En contextos donde los recursos son escasos —como salud mental en zonas rurales, cárceles, sistemas públicos sobrecargados— la IA podría funcionar como una extensión del sistema de salud, siempre que se mantenga la supervisión y la evaluación ética.

Reflexión final

Lo más inquietante del estudio no es que la IA haya ganado en esta competencia. Lo inquietante es que lo haya hecho con tan poca dificultad. Con instrucciones claras, datos abiertos y acceso público, cualquier persona con algo de conocimiento clínico podría construir un “chatbot terapéutico” creíble.

Estamos en un punto de inflexión. Como advierte el artículo, no podemos seguir ignorando la presencia de la IA en el campo de la salud mental. La pregunta ya no es si va a entrar en el consultorio. La pregunta es cómo lo hará… y quién lo supervisará.

Referencia: Hatch SG, Goodman ZT, Vowels L, Hatch HD, Brown AL, Guttman S, et al. (2025) When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Ment Health 2(2): e0000145. https://doi.org/10.1371/journal.pmen.0000145

  • Haz clic para compartir en Facebook (Se abre en una ventana nueva) Facebook
  • Haz clic para compartir en WhatsApp (Se abre en una ventana nueva) WhatsApp
  • Haz clic para compartir en X (Se abre en una ventana nueva) X

Relacionado

David Aparicio

Editor general y cofundador de Psyciencia.com. Me especializo en la atención clínica de adultos con problemas de depresión, ansiedad y desregulación emocional.

Deja una respuesta Cancelar la respuesta

Lo siento, debes estar conectado para publicar un comentario.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Este sitio es posible gracias al apoyo de sus miembros ❤️. Únete hoy a Psyciencia Pro con el 50% de descuento en el primer año y accede a todos sus beneficios  .

Únete a la membresía
PSYCIENCIA PRO
  • Inicia sesión
  • Artículos
  • Recursos
  • Webinars
Recomendados
  • El estatus científico de las técnicas proyectivas
  • El diagnóstico del TDAH en adultos: características clínicas y evaluación
  • Cómo actuar cuando alguien expresa directa o indirectamente pensamientos de suicidio
Tips para terapeutas
  • 3 preguntas para realizar cuando tienes la sospecha de que tu paciente está ocultando sus pensamientos suicidas
  • Cómo ayudar a los pacientes cuando experimentan mucha ansiedad y desregulación en la sesión
  • ¿Por dónde comenzar cuando los pacientes presentan múltiples problemas?
Recursos
  • Cómo conceptualizar la ansiedad social
  • Cuatro pasos para ayudar a un consultante que viene obligado a terapia
  • Ansiedad social: hojas de registro para consultantes
Podcast
  • «El camino del psicólogo», con Karemi Rodríguez Batista – Watson episodio 4
  • «La adversidades de los terapeutas que trabajan en el área de discapacidad», con Geraldine Panelli – Watson, episodio 2
  • «Repensando la psicoterapia: infancia, neurodiversidad y el futuro de la intervención clínica» – Javier Mandil, Watson, episodio 18
Webinars
  • DBT en adolescentes
  • Elementos de la terapia dialéctica conductual para el abordaje del riesgo suicida
  • (Webinar) Trastornos de la conducta alimentaria
Síguenos
Telegram
Facebook
Twitter
Instagram
Psyciencia
  • Contáctanos
  • Publicidad
  • Nosotros
  • Publica
Psicologia y neurociencias en español todos los días

Ingresa las palabras de la búsqueda y presiona Enter.