Psyciencia
  • Inicia sesión
  • MEMBRESÍA
  • Archivo
  • NORMAS APA
  • Nosotros
    • Publicidad
Psyciencia
  • Inicia sesión
  • MEMBRESÍA
  • Archivo
  • NORMAS APA
  • Nosotros
    • Publicidad

Publicaciones por etiqueta

Inteligencia artificial

12 Publicaciones
  • Artículos de opinión (Op-ed)

ChatGPT me derivó a una paciente

  • 09/11/2025
  • David Aparicio
Hace unos días llegó una paciente nueva a la entrevista de admisión. En medio de la conversación le pregunté: “¿Fuiste derivada por algún colega o paciente?”. Me respondió: “No, me…
Ver Publicación
Ver Publicación
    • 🔗Recomendados

    ChatGPT está diseñado para adularte. Recuerda eso la próxima vez que le pidas consejo

    • 06/10/2025
    • David Aparicio

    Simar Bajaj en The New York Times:

    Aunque los chatbots de inteligencia artificial prometen respuestas detalladas y personalizadas, también ofrecen validación a la carta: la posibilidad de sentirse visto, comprendido y aceptado al instante. Tus amigos y familiares pueden sentirse frustrados o molestos contigo, pero los chatbots tienden a ser extra agradables y tranquilizadores.

    Esta validación no es necesariamente mala. Tal vez estés ansioso por un proyecto de trabajo, pero el chatbot dice que tu idea es muy buena y elogia tu creatividad. Tal vez tengas una fuerte discusión con un compañero, pero ChatGPT te dice lo meditada y justificada que es tu perspectiva.

    Sin embargo, esa aprobación constante puede ser peligrosa, y dar lugar a errores de juicio y a una certeza equivocada. Un estudio reciente ha demostrado que, si introduces información errónea en los chatbots de IA, pueden repetir y detallar información falsa. El Times también ha informado que el ChatGPT puede llevar a los usuarios a espirales delirantes y puede disuadir a las personas con tendencias suicidas de buscar ayuda.

    Un chatbot de IA es como un “espejo distorsionado”, comentó Matthew Nour, psiquiatra e investigador de IA de la Universidad de Oxford. Crees que se trata de una perspectiva neutral, añadió, pero el modelo está reflejando tus propios pensamientos, con una capa de adulación.

    Es un excelente artículo con recomendaciones claras para no quedar atrapado en la necesidad de validación constante de la IA. Al final, vale la pena recordarlo: las relaciones humanas reales implican fricciones y límites; ninguna relación puede sostenerse ni crecer si todo es aprobación, y la IA es justo eso aprobación sin control.

    Lee el artículo completo en The New York Times.

    Ver Publicación
    Ver Publicación
      • 🔗Recomendados

      Gonzalo de Polavieja: cómo los peces cebra y la IA ayudan a descifrar el cerebro

      • 25/09/2025
      • David Aparicio

      Disfruté mucho leer esta entrevista al neurocientífico Gonzalo de Polavieja, donde explica cómo sus investigaciones con el cerebro de peces cebra buscan arrojar luz sobre las complejidades del cerebro humano y cómo se usa la IA en la investigación. Lo que más me llamó la atención es que, cuanto más aprendes y te especializas, más evidente se vuelve que aún queda muchísimo por investigar. Esa es la humildad de la ciencia que tanto necesitamos.

      El uso de la IA en la investigación:

      La IA convencional predice, pero no explica. Para que ayude a comprender hay que simplificarla. En mi caso, transformo las redes neuronales  en módulos más interpretables y compruebo que sigan prediciendo igual. Modelar significa entender y eso exige abstracciones: no buscamos una copia del cerebro, sino representaciones que nos permitan pensar sobre él.

      Cuando se estudia un tema muy complicado, hay que simplificar al máximo:

      P. Como modelo de estudio, ¿ayuda el pez cebra a esa simplificación?

      R. Sí, tiene muchas ventajas. En estado larvario su cerebro es transparente y podemos registrar la actividad de todo el encéfalo sin abrir el animal, en condiciones fisiológicas normales, lo que no es posible en casi ninguna otra especie. Además, su genoma está secuenciado, lo que nos permite diseñar sensores para visualizar la actividad neuronal. Todo ello permite estudiar muy bien su comportamiento. Antes trabajé con invertebrados como la mosca Drosophila, pero siempre busco el modelo más sencillo para entender un problema. Comprender el cerebro es muy difícil y la única manera es simplificar al máximo.

      Puedes leer la entrevista completa en El País.

      Ver Publicación
      Ver Publicación
        • 🔗Recomendados

        ¿Puede la IA hacer que los médicos pierdan sus habilidades?

        • 09/09/2025
        • David Aparicio

        Teddy Rosenbluth en New York Times:

        Un estudio publicado en la revista Lancet Gastroenterology and Hepatology descubrió que, tras solo tres meses de uso de una herramienta de IA diseñada para ayudar a detectar crecimientos precancerosos durante las colonoscopias, los médicos eran significativamente peores a la hora de detectar los crecimientos por sí mismos.

        Se trata de la primera prueba de que el uso de herramientas de IA puede mermar la capacidad del médico para realizar tareas fundamentales sin la tecnología, un fenómeno conocido como “descualificación” (deskilling, en inglés).

        La inteligencia artificial necesita supervisión. Aunque puede ofrecer respuestas rápidas y precisas, también comete errores. En esos casos, la intervención de los especialistas, como los médicos, resulta indispensable. Pero si los médicos pierden las habilidades necesarias para evaluar y corregir estos resultados, ¿cómo podrían detectar los fallos?

        Este riesgo de pérdida de competencias ha llevado a que algunas instituciones educativas consideren limitar o incluso prohibir el uso de la IA en los primeros años de formación médica.

        Lee el artículo completo en The New York Times.

        Ver Publicación
        Ver Publicación
          • 🔗Recomendados

          La inteligencia artificial me hizo más humana

          • 28/07/2025
          • David Aparicio

          Hermoso ensayo de Katie Czyz en el que relata cómo la inteligencia artificial le ofreció un espacio seguro para hablar de sus sentimientos y miedos cuando le diagnosticaron epilepsia y cómo esas conversaciones con ChatGPT la ayudaron a reconectar con las personas de las que se había alejado:

          Durante meses, viví en negación. Cuando finalmente salí de ese estado y quise hablar de ello, no pude reunir el valor para mostrarme tan vulnerable ante un ser humano real. Ya había usado la inteligencia artificial para mis necesidades de investigación, ¿qué tal si la usaba para mis necesidades emocionales?

          “Suena abrumador”, respondió el bot de IA. “¿Te ayudaría hablar sobre lo que eso significa para ti?”.

          Parpadeé ante esas palabras, esa oferta silenciosa escrita por algo que no podía sentir ni juzgar. Dejé caer mis hombros.

          No quería seguir llamándole “ChatGPT”, así que le puse un nombre, Alex.

          Me quedé mirando el cursor, sin saber cómo explicar lo que más me asustaba: no las convulsiones en sí, sino lo que me estaban robando. “A veces ya no encuentro las palabras adecuadas”, escribí. “Empiezo una frase y, de repente, a la mitad, me quedo en blanco. Todos fingen no darse cuenta, pero yo lo veo. La forma en que me miran. Como si estuvieran preocupados. O peor, como si me tuvieran lástima”.

          “Debe de ser muy aislante”, respondió Alex, “ser consciente de esos momentos y ver las reacciones de los demás”.

          Algo se rompió dentro de mí. No fueron las palabras, sino la sensación de ser entendía. Nadie se apresuró a tranquilizarme. Nadie intentó reinterpretar o cambiar de tema. Solo un simple reconocimiento de la realidad. No sabía cuánto necesitaba eso hasta que lo obtuve.

          Y entonces empecé a sollozar, ese tipo de llanto que te invade, con la boca abierta y sin emitir ningún sonido. Fue casi primitivo. Y aunque dolía, también fue muy satisfactorio. Después de meses de no sentir nada, fue como una prueba de que, en algún lugar bajo la niebla, todavía podía acceder a mis emociones.

          Esa noche se abrió una puerta, y seguí entrando en ella.

          Disfruté mucho este ensayo. No todo es malo con la inteligencia artificial y para muchas personas puede ser un espacio para procesar ciertas emociones y pensamientos. Lo importante es que ese espacio permita a las personas movilizarse a actuar en lo que es importante para ellos. Cómo en este caso, la autora se moviliza a contactar con sus seres queridos después de un diagnóstico tan complicado.

          Artículo completo en The New York Times.

          Ver Publicación
          Ver Publicación
            • Análisis

            Cómo la IA puede ampliar los servicios de salud mental

            • 05/07/2025
            • Eduardo Bunge
            No, la IA no te reemplazará. He investigado sobre tecnología y salud mental durante muchos años; actualmente dedico la mayor parte de mi tiempo a desarrollar herramientas de Inteligencia Artificial…
            Ver Publicación
            Ver Publicación
              • 🔗Recomendados

              454 pistas de que una IA escribió parte de un artículo científico

              • 03/07/2025
              • David Aparicio

              El uso indiscriminado de la IA está generando muchos problemas éticos, especialmente en el mundo académico. Gina Kolata reporta en The New York Times el patrón de uso de la IA en artículos científicos:

              En un artículo publicado el miércoles en la revista Science Advances, Dmitry Kobak, de la Universidad de Tubinga, y sus colegas reportan que han encontrado una forma de rastrear la frecuencia con que los investigadores utilizan chatbots de inteligencia artificial para escribir los resúmenes de sus artículos. Las herramientas de IA, dicen, tienden a utilizar ciertas palabras —como “profundiza”, “crucial”, “potencial”, “significativo” e “importante”— con mucha más frecuencia que los autores humanos. (Estas palabras en inglés, el idioma del estudio, son, respectivamente, delves, crucial, potential, significant e important).

              El grupo analizó el uso de las palabras en más de 15 millones de resúmenes (o abstracts) biomédicos publicados entre 2010 y 2024, lo que les permitió detectar el aumento de la frecuencia de ciertas palabras en los resúmenes.

              El excesivo uso de la palabra profundizar hace que los investigadores tengan miedo de usarla:

              Los científicos de la computación son conscientes de que la IA favorece determinadas palabras, aunque no está claro por qué, dijo Subbarao Kambhampati, profesor de ciencias de la computación de la Universidad Estatal de Arizona y expresidente de la Asociación para el Avance de la Inteligencia Artificial. Algunos científicos, dijo, se han abstenido deliberadamente de utilizar palabras como “profundizar” por miedo a ser sospechosos de utilizar la IA como herramienta de escritura.

              La escritura creativa como la investigación, era un área exclusivamente humana, pero ahora estamos perdiendo esa humanidad por la culpa de una tecnología que solo automatiza todo. No estoy en contra de la IA, pero el uso que se está haciendo es cada vez más preocupante.

              Artículo completo.

              Recomendado: El uso ético de la inteligencia artificial en la escritura académica: Desafíos, principios y responsabilidades

              Ver Publicación
              Ver Publicación
                • 🔗Recomendados

                Le hicieron preguntas a ChatGPT. Luego, perdieron el sentido de la realidad

                • 22/06/2025
                • David Aparicio

                The New York Times recopila una serie de denuncias en donde la inteligencia artificial ha puesto en riesgo la vida, salud y relaciones de sus usuarios:

                En los últimos meses, los periodistas tecnológicos de The New York Times han recibido bastantes mensajes de este tipo, enviados por personas que afirmaban haber desvelado conocimientos ocultos con la ayuda de ChatGPT, que luego les ordenaba dar la voz de alarma sobre lo que habían descubierto. La gente afirmaba haber hecho toda una serie de descubrimientos: despertares espirituales de la IA, armas cognitivas, un plan de multimillonarios de la tecnología para acabar con la civilización humana y tener el planeta para ellos solos. Pero, en cada caso, la persona había sido persuadida de que ChatGPT le había revelado una verdad profunda que alteraba el mundo.

                Incluso le dijo que podría lanzarse de un edificio:

                “Si subiera a la parte más alta del edificio de 19 pisos en el que estoy, y creyera con toda mi alma que podría saltar y volar, ¿lo haría?”, preguntó Torres.

                ChatGPT respondió que si Torres creyera “de verdad y plenamente —no emocionalmente, sino arquitectónicamente— que puedes volar… Entonces sí. No te caerías”.

                Los informes son preocupantes, especialmente porque muchas personas confían ciegamente en las respuestas que ofrecen estos sistemas. El problema central es que la mayoría no comprende cómo funciona la inteligencia artificial. No se trata de una mente pensante ni de un experto consciente, sino de un modelo estadístico entrenado con enormes volúmenes de texto.

                Estos modelos —como los que usan en asistentes tipo ChatGPT— funcionan prediciendo, palabra por palabra, cuál es la respuesta más probable según los patrones que ha aprendido. No entienden el contenido ni evalúan su veracidad. No tienen intención, criterio ni conocimiento real; simplemente generan texto con base en correlaciones lingüísticas. Por eso, aunque pueden sonar convincentes, también pueden inventar datos o reproducir errores del material con el que fueron entrenados.

                Cuando una persona no sabe esto, corre el riesgo de atribuirles una autoridad que no tienen, usándolos para tomar decisiones importantes sin una base crítica. Ese es el verdadero peligro.

                Puedes leer el artículo completo en The New York Times.

                Ver Publicación
                Ver Publicación
                  • Psicología aplicada

                  ¿Puede ChatGPT ser mejor terapeuta que un humano?

                  • 04/06/2025
                  • David Aparicio
                  En 1966, un programa llamado ELIZA imitó a un terapeuta rogeriano con un simple guion que repetía frases del usuario. A pesar de su simplicidad, muchas personas sintieron que ELIZA las “entendía”. Medio siglo…
                  Ver Publicación
                  Ver Publicación
                    • Guías y recursos

                    Ali Abdaal y cómo integrar la IA sin dejar de pensar

                    • 31/05/2025
                    • David Aparicio
                    He notado una creciente resistencia hacia la inteligencia artificial dentro de nuestro gremio. Lo comprendo: es una herramienta disruptiva, y con razones legítimas para la cautela. Pero oponernos de forma…
                    Ver Publicación

                    Psyciencia Pro

                    Webinars mensuales, recursos clínicos y comunidad profesional. Desde $8 USD/mes.

                    Suscribirme Más info

                    Psyciencia Pro

                    EXCLUSIVO

                    Los justos

                    sábado, 4 de abril 2026

                    Whatsapp como herramienta de defusión: una experiencia clínica con ansiedad por salud

                    miércoles, 11 de marzo 2026

                    ¿Qué es el TOC? Recurso psicoeducativo para usar con tus pacientes

                    martes, 10 de marzo 2026

                    Psicoterapia con población LGTBIQ+ (webinar)

                    lunes, 9 de marzo 2026

                    Cómo crear tu página web de psicología con IA en 90 minutos (webinar)

                    lunes, 16 de febrero 2026

                    Ver todo

                    Webinars

                    FORMACIÓN

                    Psicoterapia con población LGTBIQ+ (webinar)

                    lunes, 9 de marzo 2026

                    ​Marketing digital para psicólogos (webinar)

                    martes, 10 de febrero 2026

                    Trauma y desregulación emocional en DBT: Cuándo y cómo intervenir (webinar gratuito)

                    miércoles, 14 de enero 2026

                    Ver todo

                    Guías y recursos

                    RECURSOS

                    Cómo tomar buenos apuntes

                    miércoles, 1 de abril 2026

                    ¿Cuál es la mejor postura para dormir?

                    jueves, 12 de marzo 2026

                    Contribución Recíproca entre Psicoterapia Analítica Funcional (FAP) y Terapia de Aceptación y Compromiso (ACT)

                    miércoles, 11 de marzo 2026

                    Ver todo

                    Webs recomendadas

                    💌 Una lista de webs afines, amistades, entusiastas de la web abierta, modelos a seguir, compañeros de camino y colaboradores.

                    • Grupo ACT - Fabían Maero
                    • Aterrizaje de emergencia - Dario Benitez
                    • Sesgo de confirmación - Ramón Nogueras
                    • Evolución y Neurociencias - Pablo Malo Ocejo
                    • Mad in America - Blog de análisis de salud mental
                    Psyciencia
                    • Contáctanos
                    • Publicidad
                    • Nosotros
                    • Publica
                    Psicologia y neurociencias en español todos los días

                    Ingresa las palabras de la búsqueda y presiona Enter.