Política de Uso de IA Genrativa
POLÍTICA DE USO DE IA GENERATIVA
La Revista Eletrônica Direito e Política (RDP) busca constantemente mejorar sus políticas de publicación. Con el avance de la tecnología, especialmente en el campo de la Inteligencia Artificial, se ha hecho necesario adoptar directrices específicas para el uso de IA generativa en la publicación científica.
Con este fin, la RDP adoptó las recomendaciones de la World Association of Medical Editors (WAME), realizando las adaptaciones necesarias para atender a las especificidades del área jurídica. Las directrices de WAME son ampliamente utilizadas y adaptadas a nivel global, siendo incorporadas por diversas revistas científicas de alto impacto.
Las recomendaciones adoptadas por la RDP son:
Recomendación 1: Los chatbots no pueden ser autores. Algunas revistas han comenzado a publicar artículos en los que se utilizaron chatbots como Bard, Bing y ChatGPT, existiendo incluso casos en los que estas herramientas fueron listadas como coautores. Sin embargo, el estatus legal de autor varía entre países y, en la mayoría de las jurisdicciones, se exige que el autor sea una persona física. Los chatbots no pueden otorgar la “aprobación final de la versión a publicarse” ni “asumir la responsabilidad por todos los aspectos del trabajo, garantizando que las cuestiones relacionadas con la precisión o la integridad de cualquier parte sean debidamente investigadas y resueltas”. De igual forma, las herramientas de IA no son capaces de “comprender” una declaración de conflicto de intereses y carecen de legitimidad para firmarla. Además, no poseen afiliación independiente de sus desarrolladores. Considerando que los autores que presentan un manuscrito deben asegurar que todos los indicados como autores cumplan plenamente con los criterios de autoría, se concluye que los chatbots no pueden ser reconocidos ni incluidos como autores.
Recomendación 2: Los autores deben ser transparentes al utilizar chatbots y proporcionar información sobre cómo fueron utilizados. La extensión y el tipo de uso de los chatbots en publicaciones de revistas deben ser indicados. Asimismo, los autores deben reconocer la asistencia en la redacción y proporcionar, en los métodos, información detallada sobre cómo se realizó el estudio y los resultados generados.
Recomendación 2.1: Los autores que envíen un artículo en el que se haya utilizado un chatbot/IA para redactar un nuevo texto deben indicar dicho uso en los agradecimientos; todos los prompts utilizados para generar un nuevo texto o para convertir texto o prompts en tablas o ilustraciones deben ser especificados.
Recomendación 2.2: Cuando una herramienta de IA, como un chatbot, sea utilizada para realizar o generar trabajo analítico, ayudar en la presentación de resultados (por ejemplo, generación de tablas o figuras) o redactar códigos de computadora, esto debe declararse en el cuerpo del artículo, tanto en el Resumen como en la sección de Métodos. Para permitir el escrutinio científico, incluida la replicación y la identificación de falsificaciones, deben proporcionarse el prompt completo utilizado para generar los resultados de la investigación, la hora y la fecha de la consulta, la herramienta de IA utilizada y su versión.
Recomendación 3: Los autores son responsables del material proporcionado por un chatbot en su artículo (incluyendo la exactitud de lo presentado y la ausencia de plagio) y de la atribución adecuada de todas las fuentes (incluyendo las fuentes originales para el material generado por el chatbot). Los autores de artículos elaborados con la ayuda de chatbots son plenamente responsables del material generado por estas herramientas, incluida su exactitud. Corresponde al autor asegurar que el contenido refleje sus propios datos e ideas, no constituya plagio, fabricación o falsificación y, por tanto, no configure una posible mala conducta científica, independientemente de la forma en que el texto haya sido producido. Del mismo modo, los autores deben garantizar que todo el material citado sea debidamente atribuido, con referencias completas, y que las fuentes indicadas respalden las afirmaciones presentadas por el chatbot. Considerando que estas herramientas pueden estar diseñadas para omitir fuentes contrarias a los puntos de vista expresados, es deber de los autores localizar, analizar e incluir tales contraargumentos en sus trabajos (destacándose que los sesgos también pueden darse en producciones de autores humanos). Además, los autores deben identificar claramente el chatbot utilizado, así como el prompt empleado, especificando las medidas adoptadas para mitigar el riesgo de plagio, ofrecer una visión equilibrada y asegurar la exactitud de todas las referencias presentadas.
Recomendación 4: Los editores y revisores deben especificar, a los autores y entre sí, cualquier uso de chatbots en la evaluación del manuscrito y en la generación de revisiones y correspondencia. En caso de utilizar chatbots en sus comunicaciones con los autores o entre sí, deben explicar cómo fueron utilizados. Los editores y revisores son responsables de cualquier contenido y cita generados por un chatbot. Deben ser conscientes de que los chatbots retienen la información que se les proporciona, incluido el contenido del manuscrito, y que proporcionar el manuscrito de un autor a un chatbot viola la confidencialidad del manuscrito enviado.
Las recomendaciones para el uso de IA Generativa pueden actualizarse en cualquier momento, garantizándose que todos los usuarios registrados en la revista sean comunicados.











