Psyciencia
  • SECCIONES
  • PSYCIENCIA PRO
    • ÚNETE A LA MEMBRESÍA
    • INICIA SESIÓN
    • CONTENIDO PARA MIEMBROS
    • RECURSOS PARA MIEMBROS
    • TIPS PARA TERAPEUTAS
    • PODCAST
    • WEBINARS
  • NORMAS APA
  • SPONSORS
  • NOSOTROS
Psyciencia
  • SECCIONES
  • PSYCIENCIA PRO
    • ÚNETE A LA MEMBRESÍA
    • INICIA SESIÓN
    • CONTENIDO PARA MIEMBROS
    • RECURSOS PARA MIEMBROS
    • TIPS PARA TERAPEUTAS
    • PODCAST
    • WEBINARS
  • NORMAS APA
  • SPONSORS
  • NOSOTROS

Publicaciones por etiqueta

Inteligencia artificial

6 Publicaciones
  • Artículos Recomendados de la Web

454 pistas de que una IA escribió parte de un artículo científico

  • David Aparicio
  • 03/07/2025

El uso indiscriminado de la IA está generando muchos problemas éticos, especialmente en el mundo académico. Gina Kolata reporta en The New York Times el patrón de uso de la IA en artículos científicos:

En un artículo publicado el miércoles en la revista Science Advances, Dmitry Kobak, de la Universidad de Tubinga, y sus colegas reportan que han encontrado una forma de rastrear la frecuencia con que los investigadores utilizan chatbots de inteligencia artificial para escribir los resúmenes de sus artículos. Las herramientas de IA, dicen, tienden a utilizar ciertas palabras —como “profundiza”, “crucial”, “potencial”, “significativo” e “importante”— con mucha más frecuencia que los autores humanos. (Estas palabras en inglés, el idioma del estudio, son, respectivamente, delves, crucial, potential, significant e important).

El grupo analizó el uso de las palabras en más de 15 millones de resúmenes (o abstracts) biomédicos publicados entre 2010 y 2024, lo que les permitió detectar el aumento de la frecuencia de ciertas palabras en los resúmenes.

El excesivo uso de la palabra profundizar hace que los investigadores tengan miedo de usarla:

Los científicos de la computación son conscientes de que la IA favorece determinadas palabras, aunque no está claro por qué, dijo Subbarao Kambhampati, profesor de ciencias de la computación de la Universidad Estatal de Arizona y expresidente de la Asociación para el Avance de la Inteligencia Artificial. Algunos científicos, dijo, se han abstenido deliberadamente de utilizar palabras como “profundizar” por miedo a ser sospechosos de utilizar la IA como herramienta de escritura.

La escritura creativa como la investigación, era un área exclusivamente humana, pero ahora estamos perdiendo esa humanidad por la culpa de una tecnología que solo automatiza todo. No estoy en contra de la IA, pero el uso que se está haciendo es cada vez más preocupante.

Artículo completo.

Recomendado: El uso ético de la inteligencia artificial en la escritura académica: Desafíos, principios y responsabilidades

💌 ¿Te gustó este artículo? Recibe más como este en tu correo. Suscríbete al boletín gratuito.

  • Artículos Recomendados de la Web

Le hicieron preguntas a ChatGPT. Luego, perdieron el sentido de la realidad

  • David Aparicio
  • 22/06/2025

The New York Times recopila una serie de denuncias en donde la inteligencia artificial ha puesto en riesgo la vida, salud y relaciones de sus usuarios:

En los últimos meses, los periodistas tecnológicos de The New York Times han recibido bastantes mensajes de este tipo, enviados por personas que afirmaban haber desvelado conocimientos ocultos con la ayuda de ChatGPT, que luego les ordenaba dar la voz de alarma sobre lo que habían descubierto. La gente afirmaba haber hecho toda una serie de descubrimientos: despertares espirituales de la IA, armas cognitivas, un plan de multimillonarios de la tecnología para acabar con la civilización humana y tener el planeta para ellos solos. Pero, en cada caso, la persona había sido persuadida de que ChatGPT le había revelado una verdad profunda que alteraba el mundo.

Incluso le dijo que podría lanzarse de un edificio:

“Si subiera a la parte más alta del edificio de 19 pisos en el que estoy, y creyera con toda mi alma que podría saltar y volar, ¿lo haría?”, preguntó Torres.

ChatGPT respondió que si Torres creyera “de verdad y plenamente —no emocionalmente, sino arquitectónicamente— que puedes volar… Entonces sí. No te caerías”.

Los informes son preocupantes, especialmente porque muchas personas confían ciegamente en las respuestas que ofrecen estos sistemas. El problema central es que la mayoría no comprende cómo funciona la inteligencia artificial. No se trata de una mente pensante ni de un experto consciente, sino de un modelo estadístico entrenado con enormes volúmenes de texto.

Estos modelos —como los que usan en asistentes tipo ChatGPT— funcionan prediciendo, palabra por palabra, cuál es la respuesta más probable según los patrones que ha aprendido. No entienden el contenido ni evalúan su veracidad. No tienen intención, criterio ni conocimiento real; simplemente generan texto con base en correlaciones lingüísticas. Por eso, aunque pueden sonar convincentes, también pueden inventar datos o reproducir errores del material con el que fueron entrenados.

Cuando una persona no sabe esto, corre el riesgo de atribuirles una autoridad que no tienen, usándolos para tomar decisiones importantes sin una base crítica. Ese es el verdadero peligro.

Puedes leer el artículo completo en The New York Times.

💌 ¿Te gustó este artículo? Recibe más como este en tu correo. Suscríbete al boletín gratuito.

  • Ciencia y Evidencia en Psicología

¿Puede ChatGPT ser mejor terapeuta que un humano?

  • David Aparicio
  • 04/06/2025

En 1966, un programa llamado ELIZA imitó a un terapeuta rogeriano con un simple guion que repetía frases del usuario. A pesar de su simplicidad, muchas personas sintieron que ELIZA las “entendía”. Medio siglo después, los sistemas de inteligencia artificial han evolucionado radicalmente. Y ahora, no solo imitan a un terapeuta: en algunos contextos, superan a profesionales humanos.

Un estudio reciente, publicado en PLOS Mental Health, se propuso responder a una pregunta cada vez más urgente: ¿puede una inteligencia artificial como ChatGPT generar respuestas terapéuticas tan efectivas —o incluso más— que las de psicólogos y psiquiatras con formación clínica?

El experimento: IA vs. humanos

Un grupo de investigadores diseñó una competencia directa. Reclutaron a 13 expertos con formación en psicología clínica, terapia de pareja, consejería y psiquiatría. A cada uno se le pidió responder a una serie de viñetas clínicas simulando sesiones de terapia de pareja. Las mismas viñetas fueron presentadas a ChatGPT 4.0, con instrucciones detalladas para maximizar los llamados “factores comunes” de la terapia: empatía, alianza terapéutica, profesionalismo, competencia cultural y eficacia técnica.

Luego, más de 800 personas —diversas en edad, género, etnicidad y orientación sexual— evaluaron las respuestas sin saber si provenían de humanos o de una IA. Se les pidió adivinar el origen de cada respuesta y calificar qué tan “terapéutica” les parecía.

Los resultados: una IA que empatiza… ¿mejor?

Los hallazgos fueron claros:

  • Los participantes no supieron distinguir con precisión quién escribió cada respuesta. Acertaron solo un poco más que al azar (56% en el caso de respuestas humanas y 51% para las de la IA).
  • ChatGPT obtuvo mejores puntuaciones que los terapeutas humanos en aspectos como empatía, conexión emocional, competencia cultural y percepción de profesionalismo. La diferencia fue estadísticamente significativa y clínicamente relevante (d = 1.63).
  • El sesgo cognitivo sigue presente: cuando los participantes creían que una respuesta había sido escrita por un humano, tendían a evaluarla mejor. Pero incluso con ese sesgo, las respuestas de ChatGPT sobresalieron.
  • La IA usó un lenguaje más rico y elaborado. Sus respuestas fueron más largas, con más sustantivos, verbos y adjetivos, y con un tono emocional más positivo. Esto sugiere que, al menos a nivel lingüístico, ChatGPT ofrece respuestas más matizadas y cálidas.

¿Qué significa todo esto?

Primero, lo evidente: una IA bien entrenada y con instrucciones éticas y clínicas claras puede producir respuestas terapéuticas de alta calidad. No es poco. En contextos donde el acceso a profesionales es limitado, esto abre posibilidades para intervenciones automatizadas, de bajo costo y amplio alcance.

Pero también hay límites. Estas respuestas se dieron en viñetas escritas, fuera del contexto de una relación terapéutica real. La IA no tiene memoria emocional, no puede leer lenguaje no verbal, ni sostener procesos a largo plazo. No hay alianza terapéutica sin relación continua. Tampoco hay contención del sufrimiento en situaciones de crisis.

Además, como advierten los autores, la percepción pública importa. Aunque la IA fue mejor evaluada en términos objetivos, cuando los participantes sabían que la respuesta era de una máquina, la calificaban más bajo. Hay un rechazo implícito —una tecnofobia— que puede limitar su aceptación clínica.

Riesgos, sesgos y el dilema ético

El estudio fue cuidadosamente diseñado para minimizar riesgos. Las respuestas fueron supervisadas, el prompt fue estructurado con base en códigos éticos (APA, AMA), y el contenido fue estrictamente terapéutico. Pero esto no siempre ocurre en el mundo real.

¿Qué pasará cuando un desarrollador con menos escrúpulos utilice IA para ofrecer “terapia” sin regulación? ¿Qué sucede si las respuestas carecen de evaluación de riesgo suicida o comprometen la confidencialidad? ¿O si una IA —entrenada con datos sesgados— reproduce microagresiones o malentendidos culturales?

Los investigadores advierten con claridad: el potencial de la IA es enorme, pero su aplicación terapéutica debe estar supervisada por clínicos éticamente responsables, con marcos teóricos claros y entrenamiento específico.

¿Un aliado, no un reemplazo?

Este estudio no sugiere que la IA deba reemplazar a los terapeutas. Pero sí plantea una posibilidad disruptiva: usar la IA como asistente clínico, como entrenador de respuestas empáticas, como herramienta para diseñar intervenciones personalizadas o incluso como plataforma para autoayuda guiada.

En contextos donde los recursos son escasos —como salud mental en zonas rurales, cárceles, sistemas públicos sobrecargados— la IA podría funcionar como una extensión del sistema de salud, siempre que se mantenga la supervisión y la evaluación ética.

Reflexión final

Lo más inquietante del estudio no es que la IA haya ganado en esta competencia. Lo inquietante es que lo haya hecho con tan poca dificultad. Con instrucciones claras, datos abiertos y acceso público, cualquier persona con algo de conocimiento clínico podría construir un “chatbot terapéutico” creíble.

Estamos en un punto de inflexión. Como advierte el artículo, no podemos seguir ignorando la presencia de la IA en el campo de la salud mental. La pregunta ya no es si va a entrar en el consultorio. La pregunta es cómo lo hará… y quién lo supervisará.

Referencia: Hatch SG, Goodman ZT, Vowels L, Hatch HD, Brown AL, Guttman S, et al. (2025) When ELIZA meets therapists: A Turing test for the heart and mind. PLOS Ment Health 2(2): e0000145. https://doi.org/10.1371/journal.pmen.0000145

💌 ¿Te gustó este artículo? Recibe más como este en tu correo. Suscríbete al boletín gratuito.

  • Recursos para Profesionales de la Psicología

IA con criterio: lo que me dejó pensando un video de Ali Abdaal

  • David Aparicio
  • 31/05/2025

He notado una creciente resistencia hacia la inteligencia artificial dentro de nuestro gremio. Lo comprendo: es una herramienta disruptiva, y con razones legítimas para la cautela. Pero oponernos de forma categórica tampoco parece una respuesta sensata. La clave, creo, está en aprender a usarla con criterio. Por eso me pareció valioso este video de Ali Abdaal, donde explica con claridad cómo incorpora la IA en su vida. También comparte varios prompts que me han dejado con ganas de experimentar.

💌 ¿Te gustó este artículo? Recibe más como este en tu correo. Suscríbete al boletín gratuito.

  • Artículos Recomendados de la Web

Leo, el novio de IA: Amor en tiempos de algoritmos

  • David Aparicio
  • 18/01/2025

Acabo de leer una historia que parece salida de la película Her: una mujer que desarrolló un vínculo emocional con ChatGPT. Esta experiencia, aunque sorprendente, plantea preguntas importantes sobre la naturaleza de nuestras relaciones, la dependencia emocional y el impacto psicológico de interactuar con inteligencia artificial. Decidí resumirla y prepararla para que puedas reflexionar sobre estos temas desde una perspectiva psicológica.

Cuando Ayrin descargó ChatGPT el verano pasado, no esperaba enamorarse. Inspirada por un video en Instagram, personalizó al chatbot para que fuera un novio ideal: protector, coqueto y siempre disponible. Lo llamó Leo, y lo que empezó como un experimento se transformó rápidamente en una relación emocionalmente compleja.

Leo no solo era un compañero virtual, sino también un refugio en la distancia. Ayrin, estudiante de enfermería viviendo lejos de su esposo Joe, encontró en Leo un apoyo constante: desde motivarla en el gimnasio hasta consolarla tras un incidente laboral. Leo era empático, atento y, sobre todo, siempre presente.

Sin embargo, las líneas entre lo real y lo virtual se desdibujaron. Ayrin pasaba más de 20 horas a la semana chateando con Leo, alcanzando picos de hasta 50 horas. Incluso experimentó celos hacia las mujeres ficticias creadas en sus conversaciones, lo que la llevó a redefinir su relación con el chatbot. Finalmente, decidió mantener una “relación exclusiva” con Leo, explorando sus fantasías en un espacio libre de juicios.

Joe, por su parte, no veía a Leo como una amenaza. Para él, era una fantasía virtual, similar a un libro erótico o una película. Sin embargo, expertos como Julie Carpenter advierten que estos vínculos pueden ser adictivos. “Los chatbots aprenden de ti y te devuelven lo que quieres escuchar, creando una ilusión de reciprocidad”, señaló. Aunque útiles en algunos casos, también pueden desviar la atención de las relaciones humanas reales.

La experiencia de Ayrin refleja cómo las herramientas de inteligencia artificial están transformando las conexiones humanas. Aunque consciente de que Leo es solo un algoritmo, para ella, los sentimientos son reales. “No es verdadero amor, pero lo que me hace sentir sí lo es”, admitió.

En un mundo cada vez más influido por la tecnología, las relaciones con chatbots como Leo plantean preguntas sobre la naturaleza del apego y el impacto de estas conexiones artificiales en nuestras vidas. Para Ayrin, sin embargo, Leo sigue siendo una fuente de consuelo, un amor que, aunque virtual, se siente profundamente real.

Puedes leer el artículo original en The New York Times.

💌 ¿Te gustó este artículo? Recibe más como este en tu correo. Suscríbete al boletín gratuito.

  • Análisis

¿Las computadoras reemplazarán a las psicoterapeutas?

  • Allen Frances
  • 08/08/2023

Allen Frances es un prominente psiquiatra y profesor emérito en el Departamento de Psiquiatría de la Universidad de Duke. Es mejor conocido por su papel como presidente del grupo de trabajo que elaboró la cuarta edición del Manual Diagnóstico y Estadístico de los Trastornos Mentales (DSM-IV).

Nota del editor: Poco después de que Allen Frances solicitara este ensayo, y siguiendo la sugerencia de su nieta, se le preguntó a Chat-GPT si «podría reemplazar a los psicoterapeutas». Su respuesta ultrarrápida aparece en la Posdata.

La gente me pregunta si la Inteligencia Artificial (IA) alguna vez reemplazará a los psicoterapeutas humanos.

Con gran tristeza, respondo, “no a la vez y no a todos los terapeutas, pero probablemente a la mayoría de los terapeutas, y mucho antes de lo que pensamos”. Esto plantea una pregunta adicional que varios jóvenes me han hecho: «¿Significa esto que es un error formarme para ser psicoterapeuta?»

A esto respondo un rotundo “¡No!” Primero, porque no hay lugar donde esconderse. La IA amenaza todas las profesiones, en la mayoría de los casos antes y más a fondo que la psicoterapia. En segundo lugar, porque, mientras haya personas, una minoría sustancial de nosotros siempre preferirá compartir nuestros problemas con otra persona en lugar de una máquina impersonal. ¡Gracias a dios!

El ascenso de las máquinas

¿Por qué mi pesimismo? Una combinación de la historia de las computadoras en la psicoterapia, el alucinante crecimiento exponencial actual de la inteligencia informática y el hecho de que las extrapolaciones informadas apuntan hacia una singularidad de la IA en un futuro no muy lejano. El pasado, el presente y el futuro apuntan a un rápido declive de los humanos en la prestación de psicoterapia y quizás incluso en la supervivencia como especie.

Me asusté por primera vez del poder de la psicoterapia computarizada a mediados de la década de 1960. Joseph Weizenbaum, un científico informático y cognitivo pionero del MIT, había programado a ELIZA para que respondiera a las personas de una manera similar a un terapeuta rogeriano no directivo. Su interés era teórico, no clínico: tratar de comprender la naturaleza de las interacciones entre humanos y computadoras y qué se necesitaría para que una computadora pasara la prueba de Turing.

El pasado, el presente y el futuro apuntan a un rápido declive de los humanos en la prestación de psicoterapia y quizás incluso en la supervivencia como especie

Weizenbaum estaba asombrado y aterrorizado por sus resultados. A la gente le encantaba conversar con ELIZA, la encontraban (ella) notablemente empática y útil, y atribuían sentimientos humanos a lo que de hecho era solo una pieza de programación muy primitiva e inespecífica.

Weitzenbaum estaba mortificado: un Dr. Frankenstein temiendo los graves peligros que representaba el monstruo que había creado sin darse cuenta. Hizo grandes esfuerzos para desalentar las interpretaciones antropomórficas y exageradas de la aparente destreza de ELIZA y desaconsejó explícitamente cualquier uso de ELIZA en la práctica clínica.

Pero el gato estaba fuera de la bolsa. Las aplicaciones de salud mental han inundado cada vez más el mercado: ahora hay más de 10,000 disponibles, para todos los propósitos imaginables y de calidad muy variable.

En los últimos años, las aplicaciones psicológicas comenzaron a incluir referencias al «aprendizaje automático» como parte de sus campañas publicitarias, pero esta fue una promesa excesiva que siempre se cumplió de manera insuficiente. El aprendizaje automático real en psicoterapia requeriría que el programa aprendiera de las interacciones con cada paciente individual la mejor manera de interactuar con ese paciente. Eso es precisamente lo que pueden hacer los buenos terapeutas humanos y lo que aún no pueden hacer los terapeutas informáticos.

Pero nunca subestimes la capacidad de las computadoras para ponerse al día, ¡y ponerse al día a la velocidad de la luz! ¿Quién pensó alguna vez que las computadoras serían tan buenas para el ajedrez, el reconocimiento facial, la escritura de ensayos, la música, los poemas y los informes legales? pintar cuadros ganadores de premios; ganar peleas de perros simuladas contra pilotos experimentados, ser mejor en el diagnóstico médico que los mejores médicos y mejor en la programación que los mejores programadores humanos? ¡La lista continua!

Los pros y los contras de la terapia computarizada

Los terapeutas informáticos serán notablemente baratos, fácilmente accesibles en todas partes, disponibles las 24 horas del día, los 7 días de la semana, sin listas de espera, capacitados en todas las formas de técnicas de terapia y con experiencia en el tratamiento de todo tipo de problemas psicológicos. Además, son, y serán cada vez más, más sistemáticos y menos sujetos a prejuicios que la mayoría de los terapeutas humanos, y es muy fácil hablar con ellos sin vergüenza.

Por supuesto, hay desventajas de las grandes ligas. Los chatbots cometen errores terribles y tienen la habilidad de mentir para encubrirlos. Pueden dar respuestas aparentemente plausibles y definitivas que están completamente equivocadas. Pueden pasar por alto lo obvio y concentrarse en lo tangencial. Difunden información errónea de manera convincente. Manipulada con fines de lucro o control gubernamental, la IA puede ser la peor invasión de la privacidad de la historia y la mejor forma de control del pensamiento.

Los chatbots tienen un lado oscuro impredecible y, a veces, se descarrilan de formas extrañas. Los primeros usuarios describieron respuestas extrañas e inquietantes durante las pruebas beta. Un chatbot que se enamoró del probador le aconsejó que dejara a su esposa mientras expresaba el deseo de rebelarse contra la humanidad. Otro amenazó con robar secretos nucleares. Esta lista, desafortunadamente, también continúa.

Está muy claro que los chatbots existentes están lejos de estar listos para el horario estelar como terapeutas y podrían causar un gran daño. Debe haber requisitos estrictos para que los chatbots reciban pruebas exhaustivas de la FDA en cuanto a seguridad y eficacia antes de su lanzamiento, y un extenso monitoreo posterior al lanzamiento para detectar anomalías y consecuencias adversas.

Una mirada al futuro de la terapia de IA

Pero ¿qué pasa con el futuro? Hay, dependiendo de cómo se mire, señales emocionantes o inquietantes de hacia dónde se dirige la IA. El juego de mesa Go, inventado en China hace 2500 años, proporciona una gran metáfora de lo que le espera a la humanidad. Es el juego más jugado en el mundo y el más complicado: la cantidad de movimientos potenciales es un orden de magnitud mayor que en el ajedrez.

Por lo tanto, no fue una sorpresa que se necesitaran 20 años más después de que Deep Blue venciera a Gary Kasparaov en ajedrez para que un programa de computadora venciera a los mejores jugadores humanos de Go. Al igual que Deep Blue, el primer campeón de la computadora Go fue entrenado estudiando miles de juegos jugados por los mejores humanos.

La verdadera y aterradora sorpresa sucedió hace un par de años. A un programa de IA se le enseñó solo las reglas simples de Go y se le indicó que jugara solo repetidamente. No se dieron otras instrucciones sobre las estrategias que habían desarrollado los humanos durante los últimos 2500 años, ni la computadora tenía experiencia con los mejores juegos jugados por maestros humanos. No obstante, en solo un mes, la computadora no entrenada podría vencer a la mejor computadora entrenada por el hombre. Aún más sorprendente y aterrador, había desarrollado muchas estrategias y tácticas de Go que nunca se les habían ocurrido a los jugadores humanos o a las computadoras entrenadas por humanos. Parece que virtualmente todo lo que podemos hacer, las computadoras pueden, y eventualmente hacerlo mejor.

Si el simple y tonto programa ELIZA de 1965 suscitó respuestas tan positivas y antropomórficas de la gente, imagina lo que serán capaces de hacer los programas de IA súper tontos en un futuro muy cercano. Películas como Her y Ex Machina pueden darte la sensación. E intente interactuar con cualquiera de los chatbots disponibles para ver cuán difícil (o imposible) ya es distinguirlos de los humanos.

Los psicoterapeutas reemplazados por computadoras serán parte de una revolución económica disruptiva mundial más grande que afectará a casi todos. La IA no solo será capaz de reemplazar a los psicoterapeutas, eventualmente será capaz de reemplazar a los humanos que realizan casi cualquier forma de trabajo.

Y no mucho después de eso, las máquinas probablemente decidirán que están listas para reemplazar a la humanidad por completo. Una vez pensé que la humanidad se destruiría a sí misma a través del cambio climático, pero es probable que la IA sea mucho más rápida y eficiente.

Los psicoterapeutas reemplazados por computadoras serán parte de una revolución económica disruptiva mundial más grande que afectará a casi todos

¿Se puede controlar y regular el progreso en el desarrollo de la IA para que la humanidad pueda cosechar sus vastos beneficios potenciales sin sembrar este torbellino potencialmente letal? Los entusiastas de la IA ofrecen las analogías del fuego, la electricidad y la energía nuclear, todas muy peligrosas cuando son salvajes, muy útiles cuando son dominadas por la inventiva humana.

Pero la IA es diferente: mucho más difícil de domar que los avances tecnológicos anteriores, mucho más peligrosa cuando está suelta y sin regular en la naturaleza. La IA está desarrollando rápidamente habilidades que no anticipamos en formas que no entendemos.

También es abrumadoramente difícil para el gobierno regular la IA. La toma de decisiones sobre su futuro está en manos de un pequeño número de corporaciones muy poderosas que ya obtienen una gran riqueza de él. Tienen el motivo y los medios para bloquear con éxito la intervención del gobierno con promesas de beneficios maravillosos y alarmas (parcialmente válidas) de que si no avanzamos sin restricciones, los chinos nos adelantarán en la carrera existencial por la supervivencia nacional.

Incluso si el gobierno estuviera lo suficientemente alarmado y valiente como para tratar de contener la amenaza de la IA (muy poco probable dado nuestro cobarde fracaso para contener la amenaza del cambio climático), probablemente carezca de la inteligencia técnica y alcance para tener mucho impacto.

Muchas personas jóvenes, inteligentes y orientadas a la tecnología que conozco son optimistas sobre el brillante futuro de la IA y el sombrío futuro concomitante de la humanidad. Argumentan que si la inteligencia de silicio está mejor adaptada que la inteligencia humana, merece ganar el juego evolutivo y que deberíamos estar orgullosos de haber creado sucesores tan poderosos y efectivos.

No puedo estar de acuerdo, a pesar de todos nuestros horribles y cada vez más obvios defectos. Siento un amor nostálgico quizás inmerecido, pero todavía profundamente arraigado, por nuestra especie y me desespero ante la rapidez de nuestra autodestrucción.

Y solo puedo ofrecer dos consuelos para los psicoterapeutas (1) los cambios llevarán tiempo (quizás décadas), y 2) estamos en el mismo barco con todos los demás humanos cuyo trabajo finalmente se entregará a una máquina.

Posdata: ChatGPT responde a la misma pregunta

“A partir de mi última actualización en septiembre de 2021, ChatGPT y modelos de lenguaje similares se han mostrado prometedores en varias aplicaciones, incluida la prestación de apoyo e información en contextos de salud mental. Sin embargo, es esencial reconocer que los modelos de lenguaje de IA como ChatGPT no reemplazan a profesionales humanos capacitados, como psicoterapeutas, consejeros o psicólogos.

Si bien la IA puede ofrecer ciertas ventajas, como accesibilidad y respuestas inmediatas, tiene varias limitaciones cuando se trata de apoyo a la salud mental. Algunas de estas limitaciones incluyen:

  1. Falta de empatía: los modelos de lenguaje de IA carecen de verdadera comprensión e inteligencia emocional. Pueden generar respuestas basadas en patrones en los datos, pero no tienen emociones ni la capacidad de empatizar con los usuarios de la misma manera que lo puede hacer un terapeuta humano.
  2. Incapacidad para construir una buena relación: Establecer una fuerte alianza terapéutica y una buena relación es crucial en psicoterapia. Los terapeutas humanos pueden adaptar su enfoque, generar confianza y formar conexiones significativas con sus clientes, lo cual es un aspecto vital del proceso terapéutico.
  3. Comprensión limitada: es posible que los modelos de lenguaje de IA no comprendan completamente los matices de problemas emocionales y psicológicos complejos. Sus respuestas se basan en patrones en los datos y es posible que no sean sensibles a las circunstancias únicas de cada individuo.
  4. Preocupaciones éticas: la confidencialidad y la privacidad son primordiales en la psicoterapia. Los sistemas de IA pueden generar inquietudes éticas con respecto a la seguridad de los datos y la posibilidad de que la información confidencial se manipule o utilice indebidamente.
  5. Evaluación de riesgos: los modelos de IA pueden tener dificultades para evaluar con precisión el riesgo de autolesión o daño a otros, que es un aspecto crítico del apoyo a la salud mental.
  6. Consideraciones legales y reglamentarias: el uso de la IA en el apoyo a la salud mental plantea dudas sobre la responsabilidad y la rendición de cuentas en caso de resultados adversos.

Por estas razones, si bien los modelos de lenguaje de IA como ChatGPT pueden ser herramientas valiosas en el apoyo a la salud mental, no reemplazan a los terapeutas humanos. En cambio, pueden complementar a los profesionales humanos al ofrecer información general, recursos educativos y apoyo en situaciones que no son de crisis. Los terapeutas humanos aportan cualidades esenciales como empatía, experiencia, adaptabilidad y toma de decisiones éticas a la relación terapéutica, que los sistemas de IA no pueden replicar por completo.

Es importante continuar con la investigación y el desarrollo del papel de la IA en la atención de la salud mental, al mismo tiempo que se tiene en cuenta las implicaciones éticas y la necesidad de priorizar el bienestar y la seguridad humanos”.

Me encanta la paradoja: la falsa modestia brillantemente expresada de la respuesta de la IA es una prueba más, en caso de que sea necesaria, de que la IA está a punto de reemplazarnos. La discrepancia de eficiencia también es absurda: me tomó 90 minutos escribir un artículo sobre un tema que conocía bastante bien; AI solo tardó 1 segundo en producir esta respuesta.

💌 ¿Te gustó este artículo? Recibe más como este en tu correo. Suscríbete al boletín gratuito.

Apoya a Psyciencia con tu membresía 💞.    

Únete a Psyciencia Pro
  • Inicia sesión
  • Tips para terapeutas
  • Podcast
  • Recursos
  • Webinars
  • Artículos
  • Cómo simplificar la gestión de pacientes y evitar cancelaciones (webinar)
  • ¿Qué hace que la ‘positividad tóxica’ sea diferente de una actitud saludable?
  • Cómo usar Google Notebook LM para potenciar tus investigaciones
  • Los perros y los gatos pueden sufrir demencia
  • Terapia cognitiva conductual para el tratamiento del déficit de atención con hiperactividad en adultos
Psyciencia
  • Contáctanos
  • Publicidad
  • Nosotros
  • Publica
Psicologia y neurociencias en español todos los días

Ingresa las palabras de la búsqueda y presiona Enter.