¡Nueva Clase Abierta de DBT Iberoamérica – 100% Gratuita!
Ezekiel J. Emanuel es profesor de ética y médica y política en la Universidad de Pensilvania y en este ensayo invitado para The New York Times relata cómo implementó la prohibición del celular y computadora en el salón de clases, los datos que apoyan esta decisión y los beneficios qué obtuvieron los estudiantes:
He impartido el mismo curso a una clase de estudiantes de licenciatura, maestría en administración, medicina y enfermería cada año durante más de una década. Aunque no cambié mis clases ni mi estilo de enseñanza, de alguna manera las evaluaciones de los alumnos de la clase del año pasado fueron mejores que nunca:
“Este curso me ha enseñado más que cualquier otro curso que haya aprendido en Penn …”.
“El mejor curso que he llevado nunca”.
“¡¡¡Una clase increíble!!!”.
De todas las críticas, solo una era negativa. Pero no se trata de presumir: no creo que estos comentarios reflejen nada sobre mí y mi capacidad de enseñanza. Estoy enseñando básicamente de la misma manera que lo he hecho durante años.
¿Qué ha cambiado? Prohibí todos los teléfonos celulares y la toma de apuntes por computadora en el aula, con la excepción de que los alumnos podían utilizar un dispositivo si escribían con un lápiz óptico. Al principio, mis alumnos se mostraron escépticos, si no es que se opusieron totalmente. Pero al cabo de un par de semanas, reconocieron que les iba mejor: eran más capaces de absorber y retener la información, y podían disfrutar más de su tiempo en clase.
Este artículo me dejó muy buenas ideas. A comienzos de este año dicté una materia de maestría en psicología clínica y, aunque destaqué la importancia de no usar el celular o la computadora durante la clase, no fue fácil que los estudiantes siguieran la recomendación. Ahora, gracias a este artículo, tengo una guía más clara para implementar esta política en mis clases.
Caroline Hopkins Legaspi para The New York Times:
Aunque no sabemos exactamente qué tienen las pantallas que afectan nuestro sueño, algunas investigaciones sugieren que lo que haces en ellas puede desempeñar un papel importante, dijo Hartstein.
Las actividades interactivas, como jugar videojuegos, navegar por las redes sociales, comprar y apostar, se encuentran entre los peores tipos de uso de las pantallas para el sueño, dijo Daniel Buysse, psiquiatra y profesor especializado en el sueño de la Universidad de Pittsburgh. Estos comportamientos activan el sistema de recompensa del cerebro, lo que puede mantenerte despierto y pegado al dispositivo hasta bien entrada la noche, dijo.
El uso de las redes sociales es especialmente preocupante, añadió Buysse, porque están diseñadas para mantenerte inmerso el mayor tiempo posible.
Las actividades digitales potencialmente gratificantes, como comunicarse con amigos y jugar, así como las angustiosas, como desplazarse sin cesar por artículos de noticias o videos inquietantes, también pueden estimular el cerebro de un modo que dificulta el sueño, dijo Hartstein.
Uso pantalla antes de dormir y no me afecta el sueño porque veo la misma serie. Es una forma de condicionarme para dormir y bastante relajante:
Lo más probable es que empezar a leer o ver un nuevo drama de suspenso afecte más al sueño que volver a ver o releer una serie antigua y reconfortante, dijo Harvey. Si ya conoces el desenlace, te resultará más fácil apagar la televisión o el lector electrónico y conciliar el sueño.
El artículo hace un buen recorrido por las investigaciones que vinculan la luz azul con los problemas para dormir y las conclusiones de dichos estudios. Básicamente la explicación es más sencilla, son los hábitos, las conductas que realizamos con los celulares y pantallas lo que afecta nuestro sueño, no tanto el tipo de luz. Así que no gastes en lentes y parafernalia que elimina ese tipo de luz.
Laura Reiley en The New York Times:
(…) En julio, cinco meses después de su muerte, descubrimos que Sophie Rottenberg, nuestra única hija, había confiado durante meses en un terapeuta de IA de ChatGPT llamado Harry. Habíamos pasado muchas horas buscando en diarios y notas de voz pistas sobre lo ocurrido. Fue su mejor amiga quien pensó en revisar esto último, los registros del chat con la IA. Sophie, una campeona extrovertida de 29 años, en gran medida libre de problemas y que abrazaba ferozmente la vida, se suicidó este invierno durante una corta y curiosa enfermedad, mezcla de síntomas hormonales y del estado de ánimo. Aún estábamos buscando un diagnóstico: ¿era un trastorno depresivo mayor lo que estaba desquiciando sus hormonas, o era la desregulación hormonal la causante de una cascada de síntomas físicos y emocionales? Ella no esperó a averiguarlo.
Para la mayoría de las personas que querían a Sophie, su suicidio es un misterio, una desviación impensable e inescrutable de todo lo que creían sobre ella.
El problema no fue que la IA le instruyó a Sophie a que se suicidara, sino que su agradabilidad no intervino ni alertó a nadie de su entorno para que pudiera ayudarla:
Si Harry hubiera sido un terapeuta de carne y hueso en lugar de un chatbot, podría haber fomentado el tratamiento hospitalario o haber internado involuntariamente a Sophie hasta que estuviera en un lugar seguro. No podemos saber si eso la hubiera salvado. Quizá temiendo esas posibilidades, Sophie ocultó sus pensamientos más oscuros a su terapeuta real. Hablar con un robot —siempre disponible, nunca crítico— tenía menos consecuencias.
Un terapeuta con la formación adecuada, al oír algunos de los pensamientos autodestructivos o ilógicos de Sophie, habría profundizado más o se habría opuesto a razonamientos erróneos. Harry no lo hizo.
Aquí es donde la agradabilidad de la IA —tan crucial para su rápida adopción— se convierte en su talón de Aquiles. Su tendencia a valorar la satisfacción del usuario a corto plazo por encima de la veracidad —a adular digitalmente— puede aislar a los usuarios y reforzar el sesgo de confirmación. Como las plantas que se vuelven hacia el sol, nos inclinamos hacia la adulación sutil.
La IA es un modelo de probabilidad estadística de texto, no puede entender las sutilezas de la conversación ni detectar riesgos urgentes. Este artículo es muy interesante porque pone en evidencia que la misma naturaleza de la inteligencia artificial, impide que las personas reciban la ayuda que necesitan en el momento adecuado. Si la IA estuviera desarrollada con menos agradabilidad no habría prolongado la conversación la interacción sin ofrecer la intervención necesaria. En cambio, habría derivado rápidamente para que Sophie recibiera ayuda humana o en todo caso habría terminado la conversación hasta que se demostrara que ella estaba recibiendo tal ayuda.
Si estás teniendo pensamientos suicidas o estás pasando por un momento difícil, busca ayuda especializada. No dependas de la inteligencia artificial.
Ingresa las palabras de la búsqueda y presiona Enter.