Polémica: ChatGPT aparece como co-autor en trabajos de investigación | 26 ENE 23

¿Puede un robot ser autor de un artículo científico?

Al menos cuatro artículos acreditan a la herramienta de IA como coautor, mientras los editores se esfuerzan por regular su uso.

El chatbot de inteligencia artificial (IA) ChatGPT que ha arrasado en todo el mundo ha hecho su debut formal en la literatura científica, acumulando al menos cuatro créditos de autoría en artículos publicados y preprints.

Los editores de revistas, investigadores y editores ahora están debatiendo el lugar de tales herramientas de IA en la literatura publicada, y si es apropiado citar al bot como autor. Los editores están compitiendo para crear políticas para el chatbot, que fue lanzado como una herramienta de uso gratuito en noviembre por la empresa de tecnología OpenAI en San Francisco, California.

ChatGPT escribe ensayos inteligentes: ¿deberían preocuparse los profesores?

ChatGPT es un modelo de lenguaje (LLM), que genera oraciones convincentes al imitar los patrones estadísticos del lenguaje en una enorme base de datos de texto recopilado de Internet. El bot ya está revolucionando sectores, incluido el académico: en particular, está planteando preguntas sobre el futuro de los ensayos universitarios y la producción de investigación.

Los editores y los servidores de preimpresión contactados por el equipo de noticias de Nature están de acuerdo en que las IA como ChatGPT no cumplen con los criterios para un autor de estudio, porque no pueden asumir la responsabilidad por el contenido y la integridad de los artículos científicos. Pero algunos editores dicen que la contribución de una IA a la redacción de artículos puede reconocerse en secciones distintas de la lista de autores.

En un caso, un editor le dijo a Nature que ChatGPT había sido citado como coautor por error y que la revista lo corregiría.

Autor artificial

ChatGPT es uno de los 12 autores en una preimpresión sobre el uso de la herramienta para la educación médica, publicado en el repositorio médico medRxiv en diciembre del año pasado.

El equipo detrás del repositorio y su sitio hermano, bioRxiv, están discutiendo si es apropiado usar y acreditar herramientas de inteligencia artificial como ChatGPT al escribir estudios, dice el cofundador Richard Sever, director asistente de prensa del Laboratorio Cold Spring Harbor en Nueva York. Las convenciones podrían cambiar, añade.

“Necesitamos distinguir el rol formal de un autor de un manuscrito académico de la noción más general de un autor como escritor de un documento”, dice Sever. Los autores asumen la responsabilidad legal de su trabajo, por lo que solo deben incluirse personas, dice. “Por supuesto, las personas pueden tratar de colarse, esto ya sucedió en medRxiv, al igual que las personas han enumerado mascotas, personas ficticias, etc. como autores en artículos de revistas en el pasado, pero eso es un problema de control más que un problema de política. ” (Victor Tseng, el autor correspondiente de la preimpresión y director médico de Ansible Health en Mountain View, California, no respondió a una solicitud de comentarios).

Un editorial en la revista Nurse Education in Practice este mes acredita a la IA como coautor, junto con Siobhan O'Connor, investigadora de tecnología de la salud en la Universidad de Manchester, Reino Unido. Roger Watson, editor en jefe de la revista, dice que este crédito se deslizó por error y pronto será corregido. “Eso fue un descuido de mi parte”, dice, porque las editoriales pasan por un sistema de gestión diferente al de los artículos de investigación.

Y Alex Zhavoronkov, director ejecutivo de Insilico Medicine, una compañía de descubrimiento de fármacos impulsada por IA en Hong Kong, reconoció a ChatGPT como coautor de un artículo de perspectiva en la revista Oncoscience el mes pasado. Dice que su empresa ha publicado más de 80 artículos producidos por herramientas de IA generativa. “No somos nuevos en este campo”, dice. El último artículo analiza los pros y los contras de tomar la droga rapamicina, en el contexto de un argumento filosófico llamado la apuesta de Pascal. ChatGPT escribió un artículo mucho mejor que las generaciones anteriores de herramientas generativas de IA, dice Zhavoronkov. Él dice que los pares de Oncoscience revisaron este documento después de que le pidió a su editor que lo hiciera. La revista no respondió a la solicitud de comentarios de Nature.

 

Comentarios

Para ver los comentarios de sus colegas o para expresar su opinión debe ingresar con su cuenta de IntraMed.

AAIP RNBD
Términos y condiciones de uso | Política de privacidad | Todos los derechos reservados | Copyright 1997-2024