Política de Uso de IA Generativa
POLÍTICA DE USO DE IA GENERATIVA
A Revista Eletrônica Direito e Política (RDP) busca constantemente aprimorar suas políticas de publicação. Com o avanço da tecnologia, especialmente no campo da Inteligência Artificial, tornou-se necessário adotar diretrizes específicas para a utilização de IA generativa na publicação científica.
Para esse fim, a RDP adotou as recomendações da World Association of Medical Editors (WAME), realizando as adaptações necessárias para atender às especificidades da área jurídica. As diretrizes da WAME são amplamente utilizadas e adaptadas em nível global, sendo incorporadas por diversos periódicos científicos de alto impacto.
São recomendações adotadas pela RDP:
Recomendação 1: Chatbots não podem ser autores: Alguns periódicos passaram a publicar artigos nos quais chatbots, como Bard, Bing e ChatGPT, foram utilizados, havendo até casos em que essas ferramentas foram listadas como coautoras. No entanto, o status legal de autor varia entre países e, na maioria das jurisdições, exige-se que o autor seja uma pessoa física. Chatbots não possuem capacidade para conceder “aprovação final da versão a ser publicada” nem para “assumir responsabilidade por todos os aspectos do trabalho, garantindo que questões relacionadas à precisão ou integridade de qualquer parte sejam devidamente investigadas e resolvidas”. Da mesma forma, ferramentas de IA não são capazes de “compreender” uma declaração de conflito de interesses e carecem de legitimidade para assiná-la. Além disso, não possuem afiliação independente de seus desenvolvedores. Considerando que os autores que submetem um manuscrito devem assegurar que todos os indicados como autores atendam plenamente aos critérios de autoria, conclui-se que chatbots não podem ser reconhecidos ou incluídos como autores.
Recomendação 2 : Os autores devem ser transparentes ao utilizar chatbots e fornecer informações sobre como foram utilizados. A extensão e o tipo de uso de chatbots em publicações de periódicos devem ser indicados. Além disso, os autores devem reconhecer a assistência na redação e fornecer, nos métodos, informações detalhadas sobre como o estudo foi conduzo e os resultados gerados.
Recomendação 2.1: Autores que enviarem um artigo no qual um chatbot/IA foi usado para redigir um novo texto devem observar tal uso nos agradecimentos; todos os prompts usados para gerar um novo texto ou para converter texto ou prompts de texto em tabelas ou ilustrações devem ser especificados.
Recomendação 2.2 Quando uma ferramenta de IA, como um chatbot, for utilizada para realizar ou gerar trabalho analítico, auxiliar na divulgação de resultados ( por exemplo , geração de tabelas ou figuras) ou escrever códigos de computador, isso deve ser declarado no corpo do artigo, tanto no Resumo quanto na seção Métodos. Para permitir o escrutínio científico, incluindo a replicação e a identificação de falsificações, devem ser fornecidos o prompt completo utilizado para gerar os resultados da pesquisa, a hora e a data da consulta, a ferramenta de IA utilizada e sua versão.
Recomendação 3: Os autores são responsáveis pelo material fornecido por um chatbot em seu artigo (incluindo a precisão do que é apresentado e a ausência de plágio) e pela atribuição apropriada de todas as fontes (incluindo fontes originais para o material gerado pelo chatbot). Os autores de artigos elaborados com o auxílio de chatbots são integralmente responsáveis pelo material gerado por essas ferramentas, incluindo sua exatidão. Cabe ao autor assegurar que o conteúdo reflita seus próprios dados e ideias, não constitua plágio, fabricação ou falsificação e, portanto, não configure potencial má conduta científica, independentemente da forma como o texto tenha sido produzido. Do mesmo modo, os autores devem garantir que todo o material citado seja devidamente atribuído, com referências completas, e que as fontes indicadas sustentem as afirmações apresentadas pelo chatbot. Considerando que essas ferramentas podem ser projetadas de modo a omitir fontes contrárias aos pontos de vista expressos, é dever dos autores localizar, analisar e incluir tais contraposições em seus trabalhos (ressaltando-se que vieses também podem ocorrer em produções de autores humanos). Além disso, os autores devem identificar claramente o chatbot utilizado, bem como o prompt (declaração de consulta) empregado, especificando as medidas adotadas para mitigar o risco de plágio, oferecer uma visão equilibrada e assegurar a precisão de todas as referências apresentadas.
Recomendação 4: Editores e revisores devem especificar, aos autores e entre si, qualquer uso de chatbots na avaliação do manuscrito e na geração de revisões e correspondências. Caso utilizem chatbots em suas comunicações com os autores e entre si, devem explicar como foram utilizados. Editores e revisores são responsáveis por qualquer conteúdo e citações gerados por um chatbot. Eles devem estar cientes de que os chatbots retêm as informações fornecidas a eles, incluindo o conteúdo do manuscrito, e que fornecer o manuscrito de um autor a um chatbot viola a confidencialidade do manuscrito submetido.
As recomendações para o uso de IA Generativa podem ser atualizadas a qualquer momento, sendo garantido que todos os usuários cadastrados no periódico serão comunicados.











