El uso indiscriminado de la IA está generando muchos problemas éticos, especialmente en el mundo académico. Gina Kolata reporta en The New York Times el patrón de uso de la IA en artículos científicos:
En un artículo publicado el miércoles en la revista Science Advances, Dmitry Kobak, de la Universidad de Tubinga, y sus colegas reportan que han encontrado una forma de rastrear la frecuencia con que los investigadores utilizan chatbots de inteligencia artificial para escribir los resúmenes de sus artículos. Las herramientas de IA, dicen, tienden a utilizar ciertas palabras —como “profundiza”, “crucial”, “potencial”, “significativo” e “importante”— con mucha más frecuencia que los autores humanos. (Estas palabras en inglés, el idioma del estudio, son, respectivamente, delves, crucial, potential, significant e important).
El grupo analizó el uso de las palabras en más de 15 millones de resúmenes (o abstracts) biomédicos publicados entre 2010 y 2024, lo que les permitió detectar el aumento de la frecuencia de ciertas palabras en los resúmenes.
El excesivo uso de la palabra profundizar hace que los investigadores tengan miedo de usarla:
Los científicos de la computación son conscientes de que la IA favorece determinadas palabras, aunque no está claro por qué, dijo Subbarao Kambhampati, profesor de ciencias de la computación de la Universidad Estatal de Arizona y expresidente de la Asociación para el Avance de la Inteligencia Artificial. Algunos científicos, dijo, se han abstenido deliberadamente de utilizar palabras como “profundizar” por miedo a ser sospechosos de utilizar la IA como herramienta de escritura.
La escritura creativa como la investigación, era un área exclusivamente humana, pero ahora estamos perdiendo esa humanidad por la culpa de una tecnología que solo automatiza todo. No estoy en contra de la IA, pero el uso que se está haciendo es cada vez más preocupante.
Recomendado: El uso ético de la inteligencia artificial en la escritura académica: Desafíos, principios y responsabilidades