Tecnología

/ Publicado el 31 de enero de 2023

Controvérsia: ChatGPT aparece como coautor em trabalhos de pesquisa

Um robô pode ser autor de um artigo científico?

Pelo menos quatro artigos creditam a ferramenta de IA como coautora, enquanto os editores lutam para regulamentar seu uso.

O chatbot de inteligência artificial (IA), ChatGPT, que conquistou o mundo, fez sua estreia formal na literatura científica, acumulando pelo menos quatro autorias em artigos publicados e pré-prints.

Editores de periódicos e pesquisadores estão debatendo o lugar de tais ferramentas de IA na literatura publicada e se é apropriado citar o bot como autor. Os editores estão correndo para criar políticas para a utilização do chatbot, que foi lançado como uma ferramenta gratuita em novembro pela empresa de tecnologia OpenAI em San Francisco, Califórnia.

O ChatGPT é um modelo de linguagem (LLM), que gera frases convincentes imitando padrões estatísticos de linguagem em um enorme banco de dados de texto coletado da Internet. O mesmo está revolucionando diversos setores, incluindo a academia: em particular, está levantando questões sobre o futuro dos ensaios universitários e da produção de pesquisas.

Editores e servidores de pré-impressão contatados pela equipe de notícias da Nature concordaram que IAs como o ChatGPT não atendem aos critérios para um autor de estudo, porque não podem assumir a responsabilidade pelo conteúdo e integridade dos artigos. Mas alguns editores afirmaram que a contribuição de uma IA para a redação do artigo pode ser reconhecida em seções separadas da lista de autores.

Em um caso, um editor disse à Nature que o ChatGPT havia sido citado como coautor por engano e que a revista iria corrigi-lo.

Autor artificial

O ChatGPT é um dos 12 autores de um pré-print sobre o uso da ferramenta para educação médica, publicada no repositório médico medRxiv em dezembro do ano passado.

A equipe por trás do repositório e de seu site irmão, bioRxiv, está discutindo a adequação de usar e credenciar ferramentas de inteligência artificial como o ChatGPT ao escrever estudos, diz o cofundador Richard Sever, diretor assistente de imprensa do Cold Spring Harbor Laboratory em Nova York.

“Precisamos distinguir o papel formal de um autor de um manuscrito acadêmico da noção mais geral de um autor como redator de um documento”, diz Sever. Os autores assumiram a responsabilidade legal por seu trabalho, portanto, apenas pessoas devem ser incluídas, diz ele. “Claro, as pessoas podem tentar entrar sorrateiramente, isso já aconteceu no medRxiv, assim como as pessoas que listaram animais de estimação, pessoas fictícias etc. como autores de artigos de periódicos no passado, mas isso é mais um problema de controle do que um problema de política.” Disse Victor Tseng, autor correspondente da pré-impressão e diretor médico da Ansible Health em Mountain View, Califórnia.

Um editorial da revista Nurse Education in Practice deste mês creditou a AI como coautora, juntamente com Siobhan O'Connor, pesquisadora de tecnologia em saúde da Universidade de Manchester, no Reino Unido. Roger Watson, editor-chefe da revista, diz que esse crédito foi inserido por engano e logo será corrigido. “Foi um descuido da minha parte”, diz ele, porque os editores passam por um sistema de gerenciamento diferente dos artigos de pesquisa.

Além disso, Alex Zhavoronkov, CEO da Insilico Medicine, uma empresa de descoberta de medicamentos com inteligência artificial em Hong Kong, creditou ao ChatGPT como coautor de um artigo de perspectiva na revista Oncoscience no mês passado. Ele diz que sua empresa publicou mais de 80 artigos produzidos por ferramentas generativas de IA. “Não somos novos neste campo”, diz ele. O artigo mais recente discute os prós e os contras de tomar a droga rapamicina, no contexto de um argumento filosófico chamado Aposta de Pascal. O ChatGPT escreveu um artigo muito melhor do que as gerações anteriores de ferramentas generativas de IA, diz Zhavoronkov. Ele diz que a Oncoscience revisou este artigo depois que ele pediu a seu editor para fazê-lo.

Um quarto artigo, coescrito por um chatbot anterior chamado GPT-3 e publicado no servidor de pré-print francês HAL em junho de 2022, será publicado em breve em um periódico revisado por pares, diz a coautora Almira Osmanovic Thunström. Ela disse que um periódico rejeitou o artigo após a revisão, mas um segundo o aceitou com GPT-3 como autor depois que ela reescreveu o artigo em resposta aos pedidos dos revisores.

Política do editor

Os editores-chefes da Nature e da Science disseram que o ChatGPT não atende ao padrão de autoria. "A atribuição de autoria carrega a responsabilidade pelo trabalho, que não pode ser efetivamente aplicada a LLMs", diz Magdalena Skipper, editora-chefe da Nature em Londres. Os autores que usam o LLM de alguma forma durante o desenvolvimento de um artigo devem documentar seu uso nas seções de métodos ou agradecimentos, se aplicável, disse.

“Não permitiríamos que a IA aparecesse como autor em um artigo que publicamos, e o uso de texto gerado por IA sem a devida citação pode ser considerado plágio”, diz Holden Thorp, editor-chefe da família de revistas Science em Washington DC.

A editora Taylor & Francis em Londres está revisando sua política, diz Sabina Alam, diretora de ética e integridade editorial. Ela concorda que os autores são responsáveis ​​pela validade e integridade de seu trabalho e devem citar qualquer uso do LLM na seção de agradecimentos. Taylor & Francis ainda não receberam nenhuma submissão creditando ChatGPT como co-autor.

O servidor de pré-impressão de ciências físicas arXiv teve discussões internas e está começando a convergir para uma abordagem para o uso de IA generativa, diz o diretor de ciências Steinn Sigurdsson, astrônomo da Universidade Estadual da Pensilvânia na Universidade Park. Ele concorda que uma ferramenta de software não pode ser a autora de um envio, em parte porque não é possível concordar com os termos de uso e o direito de distribuir conteúdo. Sigurdsson não tem conhecimento de nenhuma pré-impressão do arXiv que liste o ChatGPT como coautor e diz que a orientação para os autores será disponibilizada em breve.

A ética da IA generativa

Já existem diretrizes claras de autoria que significam que o ChatGPT não deve ser creditado como coautor, diz Matt Hodgkinson, gerente de integridade de pesquisa do Escritório de Integridade de Pesquisa do Reino Unido em Londres, falando em caráter pessoal. Uma diretriz é que um co-autor deve fazer uma "contribuição acadêmica significativa" para o artigo, o que pode ser possível com ferramentas como o ChatGPT, diz ele. Mas também deve ter a capacidade de concordar em ser coautor e assumir a responsabilidade por um estudo, ou pelo menos pela parte para a qual ele contribuiu. “É realmente a segunda parte em que a ideia de coautoria de uma ferramenta de IA realmente atinge um obstáculo”, diz ele.

Zhavoronkov diz que quando tentou fazer com que o ChatGPT escrevesse mais artigos técnicos do que a perspectiva que publicou, falhou. “Muitas vezes, ele retorna afirmações que não são necessariamente verdadeiras e, se você fizer a mesma pergunta várias vezes, receberá respostas diferentes”, diz ele. "Portanto, definitivamente estarei preocupado com o uso indevido do sistema na academia, porque agora, pessoas sem experiência no domínio podem tentar escrever artigos científicos."