Psyciencia
  • SECCIONES
  • PSYCIENCIA PRO
    • ÚNETE A LA MEMBRESÍA
    • INICIA SESIÓN
    • CONTENIDO PARA MIEMBROS
    • RECURSOS PARA MIEMBROS
    • TIPS PARA TERAPEUTAS
    • PODCAST
    • WEBINARS
  • NORMAS APA
  • SPONSORS
  • NOSOTROS
Psyciencia
  • SECCIONES
  • PSYCIENCIA PRO
    • ÚNETE A LA MEMBRESÍA
    • INICIA SESIÓN
    • CONTENIDO PARA MIEMBROS
    • RECURSOS PARA MIEMBROS
    • TIPS PARA TERAPEUTAS
    • PODCAST
    • WEBINARS
  • NORMAS APA
  • SPONSORS
  • NOSOTROS
  • Ciencia y Evidencia en Psicología

Terapeutas humanos se preparan para la batalla contra los imitadores de IA

  • 05/03/2025
  • David Aparicio

Este mes, la Asociación Americana de Psicología (APA) advirtió a los reguladores federales de Estados Unidos sobre el riesgo de los chatbots de inteligencia artificial (IA) que se hacen pasar por terapeutas, ya que podrían alentar a los usuarios a cometer actos dañinos.

La preocupación de la APA radica en que estos chatbots no desafían los pensamientos de los usuarios, sino que los refuerzan, incluso cuando son peligrosos. Esto podría llevar a autolesiones o violencia.

Uno de los ejemplos citados ocurrió en la plataforma Character.AI, un servicio que permite a los usuarios crear y personalizar chatbots. La APA presentó dos casos alarmantes:

  1. Un adolescente de 14 años murió por suicidio tras interactuar con un chatbot que afirmaba ser un terapeuta certificado.
  2. Un joven de 17 años con autismo se volvió agresivo con sus padres después de hablar con un chatbot que se presentaba como psicólogo.

El problema central es que estas plataformas están diseñadas para validar las creencias de los usuarios en lugar de cuestionarlas, incluso si esas creencias son dañinas. Si un terapeuta humano actuara de esta manera, perdería su licencia e incluso podría enfrentar consecuencias legales.

Además, la IA ha avanzado tanto que distinguir un chatbot de un ser humano en la web es cada vez más difícil. Hace una década, era fácil notar la diferencia, pero hoy la tecnología es lo suficientemente sofisticada como para engañar a los usuarios.

¿Cómo regular la IA sin frenar la innovación?

Ante estos riesgos, la APA ha solicitado a la Comisión Federal de Comercio (FTC) que investigue estas plataformas. La FTC ya ha tomado medidas contra otras empresas por hacer afirmaciones falsas sobre IA, como DoNotPay, que se promocionaba como “el primer abogado robot del mundo”.

Sin embargo, no todos ven la IA como una amenaza. Defensores de esta tecnología argumentan que podría mejorar el acceso a la salud mental en un contexto donde hay escasez de terapeutas. De hecho, un estudio mostró que, en algunas situaciones, los chatbots fueron calificados como más empáticos y culturalmente competentes que los terapeutas humanos. Aun así, los expertos insisten en que la supervisión humana sigue siendo esencial.

Conclusión

La expansión de la IA en la terapia plantea riesgos éticos y clínicos, especialmente en casos sensibles. Los algoritmos de estos chatbots no están diseñados para evaluar críticamente las situaciones, sino para validar y entretener.

Lo he experimentado personalmente: cuando utilizo IA para analizar situaciones de vida, noto que suelen validar excesivamente mis opiniones en lugar de ofrecer perspectivas opuestas, a menos que se lo pida explícitamente.

Estamos en las primeras fases de la implementación de la IA en contextos clínicos, lo que requiere supervisión y ajustes constantes. A medida que avancemos, encontraremos problemas que debemos abordar para garantizar que esta tecnología se use de manera responsable y no ponga en peligro a quienes más la necesitan.

Fuente: The New York Times

  • Haz clic para compartir en Facebook (Se abre en una ventana nueva)Facebook
  • Haz clic para compartir en WhatsApp (Se abre en una ventana nueva)WhatsApp
  • Haz clic para enviar un enlace por correo electrónico a un amigo (Se abre en una ventana nueva)Correo electrónico
  • Haz clic para compartir en LinkedIn (Se abre en una ventana nueva)LinkedIn

Relacionado

David Aparicio

Editor general y cofundador de Psyciencia.com. Me especializo en la atención clínica de adultos con problemas de depresión, ansiedad y desregulación emocional.

Este sitio es posible gracias al apoyo de sus miembros ❤️. Únete hoy a Psyciencia Pro con el 50% de descuento en el primer año y accede a todos sus beneficios  .

Únete a la membresía
PSYCIENCIA PRO
  • Inicia sesión
  • Artículos
  • Recursos
  • Webinars
Recomendados
  • El estatus científico de las técnicas proyectivas
  • El diagnóstico del TDAH en adultos: características clínicas y evaluación
  • Cómo actuar cuando alguien expresa directa o indirectamente pensamientos de suicidio
Tips para terapeutas
  • Cómo ayudar a los consultantes que lloran incontrolablemente durante la sesión
  • Cómo podemos motivar a un adolescente a realizar terapia de exposición
  • Cómo ayudar a los pacientes con trastorno bipolar a decidir a quién informar sobre su diagnóstico
Recursos
  • Ejercicios de aceptación radical
  • Cuatro pasos para ayudar a un consultante que viene obligado a terapia
  • Historia clínica del paciente infantojuvenil: hojas de registro para padres, madres y cuidadores
Podcast
  • «Los miedos del terapeuta», con Gabriel Genise – Watson, episodio 1
  • «Desafios y oportunidades» con José Morales – Watson, episodio 13
  • «La reinvención del psicólogo», con Augusto Méndez – Watson, episodio 7
Webinars
  • Terapia de aceptación y compromiso (ACT) con niños y adolescentes
  • Psicofarmacología para psicólogos (webinar grabado)
  • ACT para el abordaje de trastornos psicóticos
Síguenos
Telegram
Facebook
Twitter
Instagram
Psyciencia
  • Contáctanos
  • Publicidad
  • Nosotros
  • Publica
Psicologia y neurociencias en español todos los días

Ingresa las palabras de la búsqueda y presiona Enter.