Acessibilidade / Reportar erro

Apontamentos sobre o uso de AI na produção e na comunicação de pesquisas

Notes on the Use of AI in Research Production and Communication

Com esse número, encerramos o ciclo anual da Revista Brasileira de História. O dossiê “Confrontando a eugenia: novas perspectivas e abordagens” é uma grata e importante contribuição da revista e de seus autores para o debate sobre a história da ciência em um momento em que ainda somos afligidas(os) pelos efeitos da pandemia de Covid-19. Como esquecer os agudos debates em torno da produção do conhecimento, e também das permanências em nosso cotidiano de teorias racistas e xenófobas que continuam impactando de forma contundente os sistemas democráticos nesse mundo pós-pandêmico?

Neste cenário, que nos parece sempre atravessado por demandas urgentes, uma delas colocou a comunidade científica em estado de alerta quando, no final de 2022, a empresa OpenAI lançou ao mundo seu modelo de Inteligência Artificial aberta ao grande público via internet: o ChatGPT.

Desenvolvido como um sistema de AI generativo, o produto apresentado pela OpenAI é capaz de gerar conteúdos de forma autônoma nas mais diferentes linguagens, como texto, imagem, vídeo e áudio, além de programação de software. Também pode corrigir, traduzir e melhorar argumentos a ela solicitados de forma surpreendente. Há ainda outra importante característica do modelo generativo operado pelo ChatGPT e seus similares1 1 Após o lançamento do ChatGPT, várias outras Bigtechs colocaram também seus produtos no mercado, com destaque para o Google Bard e o Bing Chat (Microsoft). : ele é capaz de aprender ou ser treinado por/com humanos. O modelo trabalha com um sistema de aprendizado profundo que tem por base uma rede neural artificial “que processa informações em etapas sucessivas, permitindo que o modelo aprenda representações complexas dos dados.” (Introducing Chatgpt, 2023INTRODUCING CHATGPT. [s.d.]. Disponível em: Disponível em: https://openai.com/blog/chatgpt . Acesso em: 24 out. 2023.
https://openai.com/blog/chatgpt...
).

Tais potencialidades, sem dúvida, têm colocado questões importantes à produção do conhecimento, ao ensino e à pesquisa, que nos parecem estar definitivamente afetados pelos usos atuais e futuros da AI em seus processos de construção. Não por acaso, inúmeras sociedades científicas no mundo têm reunido esforços para pensar os usos da ferramenta na ciência, tanto sobre seus benefícios como também sobre os desafios ético-políticos e humanos gerados por ela.

Em maio de 2023, a UNESCO lançou o Guidance for Generative AI in Education and Research, destinado a acadêmicos e professores, a fim de orientar sobre os usos da AI tanto no ensino como na produção acadêmica.

Recentemente, a SBPC realizou, em seu Jornal da Ciência, um amplo painel de debate em torno do tema, demonstrando que estamos apenas na primeira fase de entendimento sobre as questões trazidas pelos usos da AI (SBPC, 2023SBPC - Jornal da Ciência . Jun./Jul. 2023. Disponível em: Disponível em: http://jcnoticias.jornaldaciencia.org.br/wp-content/uploads/2023/07/JC_804.pdf . Acesso em: 10 out. 2023.
http://jcnoticias.jornaldaciencia.org.br...
). No artigo “Sinal de alerta na produção de conhecimento” são apontadas ao menos duas grandes questões para serem refletidas: a interferência da AI na aceleração da produtividade científica e o potencial colonialismo de dados possibilitado pelo seu uso.

Nesse sentido, o pesquisador da UFPR Rafael Cardoso Sampaio, membro do Instituto Nacional de Ciência e Tecnologia em Democracia Digital (INCT. DD), alerta para o fato de “que vai ser uma mudança total do paradigma de como a gente faz ciência, todos os passos vão ser muito afetados, da busca e leitura dos artigos, ao fichamento, a análise dos dados, como a gente escreve e apresenta os textos […]” (Sinal de alerta na produção. 2023SINAL DE ALERTA NA PRODUÇÃO de conhecimento. SBPC - Jornal da Ciência , ano XXXVII, n. 804, pp. 8-9, jun./jul. 2023. Disponível em: Disponível em: http://jcnoticias.jornaldacien-cia.org.br/wp-content/uploads/2023/07/JC_804.pdf . Acesso 10 em: out. 2023
http://jcnoticias.jornaldacien-cia.org.b...
, p. 8). Para o pesquisador, não há dúvida de que todas as fases desse processo serão modificadas. Opinião similar é a de Ernest Spinak, engenheiro de sistemas e colaborador da rede Scielo. Em artigo publicado no blog da própria rede, chama a atenção para o fato de que a IA está gerando uma revolução no campo do conhecimento para a qual não há retorno (Scielo, 2023SCIELO. Guide to the Use of Artificial Intelligence Tools and Resources in Research Communication on SciELO. 14 set. 2023. Disponível em: Disponível em: https://25.scielo.org/wp-content/uploads/2023/09/2-Susan-Guide-to-the-Use-of-AI-tools-and-resources-20230914-EN.pdf . Acesso em: 10 out. 2023.
https://25.scielo.org/wp-content/uploads...
).

Por outro lado, são alarmantes as potenciais desigualdades sobre o controle e o uso dessa tecnologia e suas distorções entre o Norte e o Sul Global. Como chama a atenção o relatório da UNESCO (2023UNESCO. Guidance for Generative AI in Education and Research. Paris: United Nations Educational, Scientific and Cultural Organization, 2023.), há grandes possibilidades de o processo aumentar enormemente o fosso entre países ricos e pobres no controle de dados, aprofundando o que eles denominam de pobreza digital, isso porque, segundo o documento, são empresas situadas no EUA, na Europa e na China que mantêm o controle sobre toda a arquitetura de treinamento e processamento de gigantescos bancos de dados. O documento ressalta que:

The rapid pervasion of GenAI in technologically advanced countries and regions has accelerated exponentially the generation and processing of data and has simultaneously intensified the concentration of AI wealth in the Global North. As an immediate consequence, the data-poor regions have been further excluded and put at long-term risk of being colonized by the standards embedded in the GPT models.

Além disso, ao serem ancorados nesses países, submetidos a legislações pautadas pelo Norte, tais conteúdos têm se sobreposto aos de outras regiões de forma bastante perigosa, o que levanta a questão, por exemplo, sobre a falta de clareza e adequação às leis locais de proteção de dados, além das recorrentes denúncias de uso de propriedade intelectual no aprendizado de sistema. Além dos usos de dados nacionais, institucionais e individuais, que são manejados em sistemas de processamento cada vez mais opacos.

Essas questões colocam a necessidade urgente do debate a respeito do que muitos pesquisadores da área têm chamado de Governança de Algoritmos. Os pesquisadores Filgueiras, Mendonça e Almeida (2023FILGUEIRAS, Fernando; MENDONÇA, Ricardo Fabrino; ALMEIDA, Virgílio. Governando algoritmos: interdisciplinaridade, democracia e poder. SBPC - Jornal da Ciência, ano XXXVII, n. 804, pp. 15-16, jun./jul. 2023.) destacam que alguns princípios são fundamentais nesse aspecto. São eles: justiça, transparência, responsabilidade, responsabilização e explicabilidade.

Considerando os elementos colocados brevemente acima, cabe-nos uma questão mais específica a respeito da produção de artigos e das editorias de revistas científicas: qual o futuro dos periódicos a partir do uso da AI? Certamente não será aqui que a questão será respondida, mas ela está posta e atualmente tem sido objeto de intensos debates entre editores e bibliotecas de periódicos, de tal forma que, no mês de setembro de 2023, a Rede SciELO lançou um documento preliminar para tratar da questão e propor minimamente algumas linhas de orientação sobre o tema. O documento faz recomendações a autores, editores e revisores.

Ainda bastante geral, o texto reconhece que o uso de AI já é uma realidade posta na produção de pesquisa e artigos. É sabido que uma boa parte dos cientistas têm usado o modelo LLM (Large Language Models) em diversas etapas da pesquisa, seja tradução, correção, melhora e geração de artigos, além de análise complexa de dados. O documento do SciELO é claro ao afirmar que somente humanos são considerados autores, e que estes devem assumir toda a responsabilidade quando mobilizar a AI em seus trabalhos - linha assumida pelo COPE (Committee on Publication Ethics), como mencionamos abaixo. Embora a afirmação pareça evidente, em se tratando de usos de AI generativa, a realidade não é tão simples e não é isto que chegamos a observar.

Ao longo de 2023, o COPE lançou uma série de artigos abordando diferentes nuances do problema. Ressalto duas que são particularmente complexas: a responsabilidade ética e a transparência sobre o uso da tecnologia na pesquisa.

A questão ética é crucial e certamente é o centro nevrálgico no que concerne aos usos da AI na produção de trabalhos científicos, isso porque incide diretamente sobre a responsabilidade da produção, da autoria, dos acordos de licença, dos direitos autorais. Parece claro que uma AI não poderá responder por nenhum desses quesitos. Segundo Spinak (2023SPINAK, Ernesto. Inteligência Artificial e a comunicação da pesquisa. 30 ago. 2023. Disponível em: Disponível em: https://blog.scielo.org/blog/2023/08/30/inteligencia-artificial-e-a-comunicacao-da-pesquisa/ . Acesso em: 15 out. 2023.
https://blog.scielo.org/blog/2023/08/30/...
), há um entendimento geral, entre boa parte das comunidades científicas, pela proibição de que AI seja indicada em autoria de artigos e livros. Há inclusive, da parte de alguns periódicos, a proibição total da mesma, como “Science, Nature e muitos outras, […] [sobre] o uso de aplicações de LLM nos artigos recebidos” (Spinak, 2023SPINAK, Ernesto. Inteligência Artificial e a comunicação da pesquisa. 30 ago. 2023. Disponível em: Disponível em: https://blog.scielo.org/blog/2023/08/30/inteligencia-artificial-e-a-comunicacao-da-pesquisa/ . Acesso em: 15 out. 2023.
https://blog.scielo.org/blog/2023/08/30/...
).

Em fevereiro de 2023, O COPE (Committee on Publication Ethics) lançou seu posicionamento quanto à questão, também afirmando que as AIs não podem ser listadas como autoras em artigo. O Comitê deixa que claro que, ao utilizarem a ferramenta para a geração de textos, imagens, produção de elementos gráficos, tabelas e processamento de dados, os autores devem ser bastante claros na informação de usos desses elementos em secções do artigo, na descrição de materiais e métodos (COPE, 2023aCOPE. Artificial Intelligence and Authorship. 23 fev. 2023a. Disponível em: Disponível em: https://publicationethics.org/news/artificial-intelligence-and-authorship . Acesso em: 15 out. 2023.
https://publicationethics.org/news/artif...
). Deste modo, finaliza o comunicado: “Authors are fully responsible for the content of their manuscript, even those parts produced by an AI tool, and are thus liable for any breach of publication ethics.”

Nesse sentido, o princípio da transparência passa a ser um elemento fundamental para as boas práticas da pesquisa. Faz-se necessário que os/as autores/as sejam claros/as quanto aos usos da ferramenta em seus trabalhos, e em que etapas a mesma foi utilizada.

Nessa breve reflexão, foram apontados alguns aspectos sobre o uso da Inteligência Artificial na produção de pesquisa e, mais especificamente, os impactos disso na comunicação científica em periódicos. De forma geral, o processo de editoração e revisão de artigos, a partir do uso das chamadas LLMs, como é o caso do ChatGPT, ainda encontra várias questões que estão longe de serem totalmente compreendidas. Por exemplo, o documento preliminar do Scielo indica que os editores são responsáveis por realizar o escrutínio científico adequado e garantir a integridade da pesquisa dos documentos científicos publicados (Scielo, 2023SCIELO. Guide to the Use of Artificial Intelligence Tools and Resources in Research Communication on SciELO. 14 set. 2023. Disponível em: Disponível em: https://25.scielo.org/wp-content/uploads/2023/09/2-Susan-Guide-to-the-Use-of-AI-tools-and-resources-20230914-EN.pdf . Acesso em: 10 out. 2023.
https://25.scielo.org/wp-content/uploads...
). Contudo, esta tem sido uma das maiores interrogações para a verificação do uso de AI na produção de artigos. Diferentemente dos programas de detecção de plágio, eficazes e largamente utilizados por editores para detectar violações na produção de artigos, programas de detecção de AI ainda são altamente problemáticos a ponto de serem desaconselhados por um bom número de entidades científicas, isso porque são imprecisos e podem cometer graves erros de interpretação. Pesquisas inclusive apontam que tais programas podem realizar avaliações discriminatórias de trabalhos, sobretudo para os não nativos de língua inglesa.

Em matéria de julho de 2023, publicada no jornal The Guardian, foi noticiado que pesquisadores da Universidade de Stanford analisaram 7 programas de detectação de AI a partir de redações simples para proficiência de língua inglesa, e constataram que 98% dos ensaios foram erroneamente atribuídos a IA, quando na verdade foram feitos por humanos. O sistema quase sempre avalia mal não nativos do idioma, por esses não dominarem certo grau de complexidade na produção textual.

Este é apenas um exemplo sobre os desafios que teremos pela frente. Parece-nos que, mais do que investirmos em programas de detecção de AI, será necessário repensar profundamente a própria cultura de produção e divulgação das pesquisas. Sem dúvida, a ética já era a questão ouro para a produção das boas práticas da pesquisa. Todavia, ao lidarmos com uma ferramenta que quase sempre responde a partir de padrões opacos de constituição, para os quais falta transparência e informação sobre como suas respostas são construídas, a clareza sobre o papel humano em qualquer trabalho será o diferencial.

REFERÊNCIAS

  • 1
    Após o lançamento do ChatGPT, várias outras Bigtechs colocaram também seus produtos no mercado, com destaque para o Google Bard e o Bing Chat (Microsoft).
  • *
    Este texto foi produzido por humana.
  • *
    O ChaGPT foi consultado como fonte para melhor entendimento dos conceitos que envolvem o desenvolvimento da AI.
  • 4
    Nota: Agradeço a Marcos Eduardo de Sousa pela leitura atenta do texto e pelas sugestões.

Datas de Publicação

  • Publicação nesta coleção
    18 Dez 2023
  • Data do Fascículo
    Sep-Dec 2023
Associação Nacional de História - ANPUH Av. Professor Lineu Prestes, 338, Cidade Universitária, Caixa Postal 8105, 05508-900 São Paulo SP Brazil, Tel. / Fax: +55 11 3091-3047 - São Paulo - SP - Brazil
E-mail: rbh@anpuh.org