Puedes escuchar este artículo en versión en podcast producida por Google Notebook LM.
La aparición generalizada de herramientas de inteligencia artificial (IA) generativa, como el Chat Generative Pre-trained Transformer (ChatGPT) en 2022, ha transformado la manera en que los investigadores abordan sus tareas, ofreciendo una mayor eficiencia en el proceso académico. Estas herramientas, que son modelos de lenguaje grandes (LLM) basados en vastos catálogos de texto generados por humanos, están diseñadas para construir respuestas coherentes a preguntas complejas a partir de relaciones estadísticas en sus datos de entrenamiento. Aunque las versiones iniciales producían contenido de baja calidad, su mejora ha sido rápida y continúa, prometiendo cambios en la práctica de la investigación, de manera similar a cómo otras herramientas de software han influido en el proceso investigativo en décadas pasadas.
Sin embargo, a diferencia de las herramientas anteriores que simplemente asistían en la eficiencia, la IA generativa presenta un desafío a las nociones tradicionales de integridad académica al tener la capacidad de producir contenido escrito novedoso por sí misma. Esta capacidad ha generado preocupación sobre la utilidad, precisión e integridad de la IA cuando se utiliza para redactar manuscritos académicos.
Desafíos clave de la escritura asistida por IA
El uso de LLM-powered IA ha revelado varios problemas significativos que ponen en tela de juicio su fiabilidad:
- Plagio: Las herramientas de IA generativa acceden a datos disponibles públicamente, lo que puede resultar en contenido que se asemeja mucho (o exactamente) a la fuente original. Esto plantea preocupaciones sobre plagio y posible infracción de derechos de autor si el contenido no es detectado y editado por los investigadores. La falta de experiencia en el contenido podría llevar a que los autores citen texto plagiado generado por IA sin saberlo, creando un «efecto bola de nieve».
- Alucinación de la IA: Este fenómeno ocurre cuando la herramienta de IA genera contenido convincente pero completamente fabricado, sin sentido o factualmente inexacto en respuesta a las indicaciones del usuario. La IA no está diseñada para evaluar la precisión o autenticidad del contenido, y los modelos actuales no pueden diferenciar entre datos reales y ficticios, lo que lleva a la inclusión frecuente de declaraciones inexactas o contenido fabricado con fuentes falsas, especialmente en documentos médicos. Además, la IA puede reproducir o amplificar sesgos inherentes a los datos de origen, lo que podría propagar desinformación o amenazar la integridad del investigador.
- Referencias inexactas o fabricadas: Las herramientas de IA son «notoriamente deficientes» en la referenciación de literatura médica. Estudios han demostrado que un porcentaje significativo de referencias generadas por ChatGPT son incorrectas, con DOI erróneos o fabricados, o artículos completamente inventados. Otros estudios encontraron que casi la mitad de las referencias generadas eran fabricadas, y una gran proporción de las auténticas eran inexactas en cuanto a título, autoría o PMID. Solo un 7% de las referencias generadas por ChatGPT fueron completamente auténticas y precisas, lo que indica un problema significativo de fiabilidad.
Debido a estos problemas, se desaconseja el uso exclusivo de la IA generativa basada en LLM para escribir contenido que se utilizará textualmente sin edición humana en resúmenes, artículos o propuestas de investigación médicas, o para generar referencias. Los investigadores son, en última instancia, plenamente responsables de la originalidad, precisión y relevancia de su manuscrito y de la referenciación adecuada.
Orientaciones de revistas y editores
Los editores y revistas académicas tienen un interés directo en garantizar la integridad de la investigación publicada. Principios clave sobre el uso de la IA generativa incluyen la transparencia sobre su uso y la no autoría de la IA. Las herramientas de IA no cumplen con los estándares de autoría académica, ya que no pueden responsabilizarse por la precisión del contenido, ni aprobar o respaldar investigaciones posteriores sobre las afirmaciones hechas en el trabajo. Por lo tanto, no deben ser acreditadas como autores. La forma más transparente de revelar su uso es en la sección de métodos del manuscrito, detallando cómo se utilizaron y cómo se manejó la salida generada por la IA.
Uso ético de la IA en la escritura: Un enfoque por niveles
Para guiar a los académicos, se han propuesto «niveles éticos» de uso de la IA, basados en la comprensión de cómo funcionan los LLM y si su uso afectaría negativamente el pensamiento crítico y el desarrollo académico humano:
- Nivel éticamente más aceptable: Incluye usos en los que la IA se utiliza principalmente para reestructurar texto o ideas preexistentes. Esto abarca la revisión de gramática y ortografía, la mejora de la legibilidad y el flujo, y la traducción de textos. Por ejemplo, ChatGPT puede reescribir contenido de manera gramaticalmente correcta y sin errores ortográficos, o ayudar a traducir un manuscrito a un idioma no nativo, aunque siempre se recomienda la revisión humana, especialmente por un hablante nativo para traducciones.
- Nivel éticamente contingente: Estas posibilidades dependen de las acciones del autor al trabajar con el contenido generado por IA. Incluyen el uso de ChatGPT para generar un esquema, resumir contenido, mejorar la claridad de un borrador o generar ideas para una «lluvia de ideas». En estos casos, la IA genera texto novedoso y tiene un mayor potencial para introducir sesgos, alucinaciones o plagio si se utiliza sin un juicio crítico. Es crucial que los autores se aseguren de que el producto final refleje con precisión sus propias ideas y que el contenido generado por IA no altere el significado clave.
- Nivel éticamente dudoso: Implica usos que son más problemáticos. Esto incluye redactar texto de novo sin proporcionar contenido original en la indicación, desarrollar nuevos conceptos para una sección específica del texto, la interpretación de datos, la revisión de literatura o la verificación de cumplimiento ético y plagio. Delegar estas tareas a la IA puede introducir sesgos y alucinaciones, y priva a los autores de la oportunidad de interactuar profundamente con el material de origen, lo cual es vital para desarrollar una comprensión integral de la pregunta de investigación. La IA también es notoriamente poco fiable en la citación de referencias, y su uso para evitar el plagio es cuestionable debido a posibles reproducciones de elementos de su conjunto de entrenamiento.
Lista de verificación para autores: Consideraciones clave
Para guiar el uso ético de la IA, se sugieren cuatro preguntas clave que los autores deben considerar:
- ¿He utilizado la IA generativa de manera que asegure que las ideas, percepciones, interpretaciones y análisis críticos principales son míos?
- ¿He utilizado la IA generativa de manera que garantice que los humanos mantendrán la competencia en las habilidades básicas de investigación y escritura?
- ¿He verificado exhaustivamente para asegurarme de que todo el contenido (y las referencias) en mi manuscrito es preciso, fiable y libre de sesgos?
- ¿He divulgado exactamente cómo se utilizaron las herramientas de IA generativa en la redacción del manuscrito y qué partes del manuscrito implicaron el uso de IA generativa?
Si la respuesta a cualquiera de estas preguntas es «no», se anima encarecidamente al autor a reflexionar sobre el proceso de escritura y reconsiderar los pasos para abordar directamente el problema ético. Incluso si las respuestas a las preguntas 1 a 3 sugieren un uso ético de la IA, la divulgación clara y explícita sigue siendo necesaria.
Conclusión
Si bien la IA generativa ofrece un tremendo potencial para mejorar la eficiencia en la escritura académica, es fundamental abordarla con precaución y una sólida comprensión de sus limitaciones. El objetivo principal es fomentar la capacidad de los investigadores para pensar profundamente y ofrecer soluciones coherentes basadas en la evidencia. Subcontratar tareas intelectuales a herramientas de IA conlleva el riesgo de que estas habilidades necesarias se pierdan con el tiempo. A medida que la tecnología evoluciona, también lo harán las recomendaciones para su uso ético. El diálogo continuo dentro de la comunidad de investigación es esencial para asegurar que la aplicación ética de las herramientas de IA generativa en la escritura académica sea coherente con el estado evolutivo de la tecnología.
Referencia: Cheng, A., Calhoun, A., & Reedy, G. (2025). Artificial intelligence-assisted academic writing: recommendations for ethical use. Advances in Simulation, 10, Artículo 22. https://doi.org/10.1186/s41077-025-00350-6