Precaución, cuidado y consideración | 28 MAR 23

Buenas prácticas para usar inteligencia artificial al escribir manuscritos científicos

La ciencia creativa depende de las buenas prácticas de uso de la herramienta
Autor/a: Jillian M. Buriak, Deji Akinwande, Natalie Artzi, et al Best Practices for Using AI When Writing Scientific Manuscripts

La llegada de herramientas de lenguaje impulsadas por inteligencia artificial (IA), como ChatGPT ha generado una explosión de interés a nivel mundial. Muchos investigadores científicos y universidades de todo el mundo han expresado su preocupación por el potencial de ChatGPT para transformar la comunicación científica antes de que hayamos tenido tiempo de considerar las ramificaciones de dicha herramienta o verificado que el texto que genera es realmente correcto.

La calidad humana de la estructura del texto producida por ChatGPT puede engañar a los lectores haciéndoles creer que es de origen humano. Ahora es evidente, sin embargo, que el texto generado puede estar plagado de errores, puede ser superficial y puede generar referencias e inferencias falsas. Más importante aún, ChatGPT a veces hace conexiones que no tienen sentido y son falsas.

Hemos preparado un breve resumen de algunas de las fortalezas y debilidades de ChatGPT (y futuros bots de lenguaje de IA) y concluimos con un conjunto de nuestras recomendaciones de mejores prácticas para los científicos al usar tales herramientas en cualquier etapa de su investigación, particularmente en la etapa de escritura del manuscrito. En su encarnación actual, ChatGPT es simplemente un bot de lenguaje eficiente que genera texto mediante conexiones lingüísticas. Es, en la actualidad, "solo una máquina gigante de autocompletar". Debe reconocerse que ChatGPT se basa en su base de datos y contenido existentes y, al momento de escribir este editorial, no incluye información publicada o publicada después de 2021, lo que restringe su utilidad cuando se aplica a la redacción de reseñas actualizadas, perspectivas e introducciones. Por lo tanto, para revisiones y perspectivas, ChatGPT es deficiente debido a su falta de capacidades analíticas que se espera que posean los científicos y las experiencias que nos informan.

La preocupación más importante es que estos bots de lenguaje de IA son incapaces de comprender nueva información, generar conocimientos o análisis profundos, lo que limitaría la discusión dentro de un artículo científico.

Si bien parecen estar bien formulados, los resultados son, sin embargo, superficiales, y una confianza excesiva en el resultado podría sofocar la creatividad en toda la empresa científica. Las herramientas de IA son adecuadas para regurgitar la sabiduría convencional, pero no para identificar o generar resultados únicos.

 

Comentarios

Para ver los comentarios de sus colegas o para expresar su opinión debe ingresar con su cuenta de IntraMed.

AAIP RNBD
Términos y condiciones de uso | Política de privacidad | Todos los derechos reservados | Copyright 1997-2024