Psyciencia
  • SECCIONES
  • PSYCIENCIA PRO
    • ÚNETE A LA MEMBRESÍA
    • INICIA SESIÓN
    • CONTENIDO PARA MIEMBROS
    • RECURSOS PARA MIEMBROS
    • TIPS PARA TERAPEUTAS
    • PODCAST
    • WEBINARS
  • NORMAS APA
  • SPONSORS
  • NOSOTROS
Psyciencia
  • SECCIONES
  • PSYCIENCIA PRO
    • ÚNETE A LA MEMBRESÍA
    • INICIA SESIÓN
    • CONTENIDO PARA MIEMBROS
    • RECURSOS PARA MIEMBROS
    • TIPS PARA TERAPEUTAS
    • PODCAST
    • WEBINARS
  • NORMAS APA
  • SPONSORS
  • NOSOTROS
  • Ciencia y Evidencia en Psicología

El uso ético de la inteligencia artificial en la escritura académica: Desafíos, principios y responsabilidades

  • 10/06/2025
  • David Aparicio

Puedes escuchar este artículo en versión en podcast producida por Google Notebook LM.

La aparición generalizada de herramientas de inteligencia artificial (IA) generativa, como el Chat Generative Pre-trained Transformer (ChatGPT) en 2022, ha transformado la manera en que los investigadores abordan sus tareas, ofreciendo una mayor eficiencia en el proceso académico. Estas herramientas, que son modelos de lenguaje grandes (LLM) basados en vastos catálogos de texto generados por humanos, están diseñadas para construir respuestas coherentes a preguntas complejas a partir de relaciones estadísticas en sus datos de entrenamiento. Aunque las versiones iniciales producían contenido de baja calidad, su mejora ha sido rápida y continúa, prometiendo cambios en la práctica de la investigación, de manera similar a cómo otras herramientas de software han influido en el proceso investigativo en décadas pasadas.

Sin embargo, a diferencia de las herramientas anteriores que simplemente asistían en la eficiencia, la IA generativa presenta un desafío a las nociones tradicionales de integridad académica al tener la capacidad de producir contenido escrito novedoso por sí misma. Esta capacidad ha generado preocupación sobre la utilidad, precisión e integridad de la IA cuando se utiliza para redactar manuscritos académicos.

Desafíos clave de la escritura asistida por IA

El uso de LLM-powered IA ha revelado varios problemas significativos que ponen en tela de juicio su fiabilidad:

  • Plagio: Las herramientas de IA generativa acceden a datos disponibles públicamente, lo que puede resultar en contenido que se asemeja mucho (o exactamente) a la fuente original. Esto plantea preocupaciones sobre plagio y posible infracción de derechos de autor si el contenido no es detectado y editado por los investigadores. La falta de experiencia en el contenido podría llevar a que los autores citen texto plagiado generado por IA sin saberlo, creando un «efecto bola de nieve».
  • Alucinación de la IA: Este fenómeno ocurre cuando la herramienta de IA genera contenido convincente pero completamente fabricado, sin sentido o factualmente inexacto en respuesta a las indicaciones del usuario. La IA no está diseñada para evaluar la precisión o autenticidad del contenido, y los modelos actuales no pueden diferenciar entre datos reales y ficticios, lo que lleva a la inclusión frecuente de declaraciones inexactas o contenido fabricado con fuentes falsas, especialmente en documentos médicos. Además, la IA puede reproducir o amplificar sesgos inherentes a los datos de origen, lo que podría propagar desinformación o amenazar la integridad del investigador.
  • Referencias inexactas o fabricadas: Las herramientas de IA son «notoriamente deficientes» en la referenciación de literatura médica. Estudios han demostrado que un porcentaje significativo de referencias generadas por ChatGPT son incorrectas, con DOI erróneos o fabricados, o artículos completamente inventados. Otros estudios encontraron que casi la mitad de las referencias generadas eran fabricadas, y una gran proporción de las auténticas eran inexactas en cuanto a título, autoría o PMID. Solo un 7% de las referencias generadas por ChatGPT fueron completamente auténticas y precisas, lo que indica un problema significativo de fiabilidad.

Debido a estos problemas, se desaconseja el uso exclusivo de la IA generativa basada en LLM para escribir contenido que se utilizará textualmente sin edición humana en resúmenes, artículos o propuestas de investigación médicas, o para generar referencias. Los investigadores son, en última instancia, plenamente responsables de la originalidad, precisión y relevancia de su manuscrito y de la referenciación adecuada.

Orientaciones de revistas y editores

Los editores y revistas académicas tienen un interés directo en garantizar la integridad de la investigación publicada. Principios clave sobre el uso de la IA generativa incluyen la transparencia sobre su uso y la no autoría de la IA. Las herramientas de IA no cumplen con los estándares de autoría académica, ya que no pueden responsabilizarse por la precisión del contenido, ni aprobar o respaldar investigaciones posteriores sobre las afirmaciones hechas en el trabajo. Por lo tanto, no deben ser acreditadas como autores. La forma más transparente de revelar su uso es en la sección de métodos del manuscrito, detallando cómo se utilizaron y cómo se manejó la salida generada por la IA.

Uso ético de la IA en la escritura: Un enfoque por niveles

Para guiar a los académicos, se han propuesto «niveles éticos» de uso de la IA, basados en la comprensión de cómo funcionan los LLM y si su uso afectaría negativamente el pensamiento crítico y el desarrollo académico humano:

  1. Nivel éticamente más aceptable: Incluye usos en los que la IA se utiliza principalmente para reestructurar texto o ideas preexistentes. Esto abarca la revisión de gramática y ortografía, la mejora de la legibilidad y el flujo, y la traducción de textos. Por ejemplo, ChatGPT puede reescribir contenido de manera gramaticalmente correcta y sin errores ortográficos, o ayudar a traducir un manuscrito a un idioma no nativo, aunque siempre se recomienda la revisión humana, especialmente por un hablante nativo para traducciones.
  2. Nivel éticamente contingente: Estas posibilidades dependen de las acciones del autor al trabajar con el contenido generado por IA. Incluyen el uso de ChatGPT para generar un esquema, resumir contenido, mejorar la claridad de un borrador o generar ideas para una «lluvia de ideas». En estos casos, la IA genera texto novedoso y tiene un mayor potencial para introducir sesgos, alucinaciones o plagio si se utiliza sin un juicio crítico. Es crucial que los autores se aseguren de que el producto final refleje con precisión sus propias ideas y que el contenido generado por IA no altere el significado clave.
  3. Nivel éticamente dudoso: Implica usos que son más problemáticos. Esto incluye redactar texto de novo sin proporcionar contenido original en la indicación, desarrollar nuevos conceptos para una sección específica del texto, la interpretación de datos, la revisión de literatura o la verificación de cumplimiento ético y plagio. Delegar estas tareas a la IA puede introducir sesgos y alucinaciones, y priva a los autores de la oportunidad de interactuar profundamente con el material de origen, lo cual es vital para desarrollar una comprensión integral de la pregunta de investigación. La IA también es notoriamente poco fiable en la citación de referencias, y su uso para evitar el plagio es cuestionable debido a posibles reproducciones de elementos de su conjunto de entrenamiento.

Lista de verificación para autores: Consideraciones clave

Para guiar el uso ético de la IA, se sugieren cuatro preguntas clave que los autores deben considerar:

  1. ¿He utilizado la IA generativa de manera que asegure que las ideas, percepciones, interpretaciones y análisis críticos principales son míos?
  2. ¿He utilizado la IA generativa de manera que garantice que los humanos mantendrán la competencia en las habilidades básicas de investigación y escritura?
  3. ¿He verificado exhaustivamente para asegurarme de que todo el contenido (y las referencias) en mi manuscrito es preciso, fiable y libre de sesgos?
  4. ¿He divulgado exactamente cómo se utilizaron las herramientas de IA generativa en la redacción del manuscrito y qué partes del manuscrito implicaron el uso de IA generativa?

Si la respuesta a cualquiera de estas preguntas es «no», se anima encarecidamente al autor a reflexionar sobre el proceso de escritura y reconsiderar los pasos para abordar directamente el problema ético. Incluso si las respuestas a las preguntas 1 a 3 sugieren un uso ético de la IA, la divulgación clara y explícita sigue siendo necesaria.

Conclusión

Si bien la IA generativa ofrece un tremendo potencial para mejorar la eficiencia en la escritura académica, es fundamental abordarla con precaución y una sólida comprensión de sus limitaciones. El objetivo principal es fomentar la capacidad de los investigadores para pensar profundamente y ofrecer soluciones coherentes basadas en la evidencia. Subcontratar tareas intelectuales a herramientas de IA conlleva el riesgo de que estas habilidades necesarias se pierdan con el tiempo. A medida que la tecnología evoluciona, también lo harán las recomendaciones para su uso ético. El diálogo continuo dentro de la comunidad de investigación es esencial para asegurar que la aplicación ética de las herramientas de IA generativa en la escritura académica sea coherente con el estado evolutivo de la tecnología.

Referencia: Cheng, A., Calhoun, A., & Reedy, G. (2025). Artificial intelligence-assisted academic writing: recommendations for ethical use. Advances in Simulation, 10, Artículo 22. https://doi.org/10.1186/s41077-025-00350-6

  • Haz clic para compartir en Facebook (Se abre en una ventana nueva) Facebook
  • Haz clic para compartir en WhatsApp (Se abre en una ventana nueva) WhatsApp
  • Haz clic para compartir en X (Se abre en una ventana nueva) X

Relacionado

David Aparicio

Editor general y cofundador de Psyciencia.com. Me especializo en la atención clínica de adultos con problemas de depresión, ansiedad y desregulación emocional.

Deja una respuesta Cancelar la respuesta

Lo siento, debes estar conectado para publicar un comentario.

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.

Este sitio es posible gracias al apoyo de sus miembros ❤️. Únete hoy a Psyciencia Pro con el 50% de descuento en el primer año y accede a todos sus beneficios  .

Únete a la membresía
PSYCIENCIA PRO
  • Inicia sesión
  • Artículos
  • Recursos
  • Webinars
Recomendados
  • El estatus científico de las técnicas proyectivas
  • El diagnóstico del TDAH en adultos: características clínicas y evaluación
  • Cómo actuar cuando alguien expresa directa o indirectamente pensamientos de suicidio
Tips para terapeutas
  • Cómo terminar a tiempo las sesiones de psicoterapia
  • Cómo lidiar con los pensamientos autocríticos para promover la autoaceptación
  • ¿Qué hacer cuando tu paciente no para de hacer juicios sobre si mismo?
Recursos
  • Preferencias de tratamiento en salud mental: Una escala para incrementar las opciones de los consultantes
  • No puedo dejar de pensar: 20 ejercicios para ayudar a los pacientes para liberarse de los pensamientos obsesivos y rumia
  • Tarjetas DNA-V para trabajar flexibilidad psicológica con adolescentes
Podcast
  • «La vida del terapeuta», con Fabián Maero – Watson, episodio 5
  • «La reinvención del psicólogo», con Augusto Méndez – Watson, episodio 7
  • «Tengo TDAH, Y ¿ahora qué?», con Mariano Scandar – Watson, episodio 8
Webinars
  • Entrenamiento a padres, madres y cuidadores como intervención de crianza efectiva
  • Evaluación online del TDAH en adultos (webinar grabado)
  • Elementos de la terapia dialéctica conductual para el abordaje del riesgo suicida
Síguenos
Telegram
Facebook
Twitter
Instagram
Psyciencia
  • Contáctanos
  • Publicidad
  • Nosotros
  • Publica
Psicologia y neurociencias en español todos los días

Ingresa las palabras de la búsqueda y presiona Enter.