Inteligência Artificial e Pesquisa Acadêmica
Não é novidade que a Inteligência Artificial (IA) tenha avançado e alcançado muitos espaços, incluindo-se o ambiente da pesquisa acadêmica. Desde chatbots, capazes de responder perguntas e orientar estudantes e pesquisadores, até sistemas mais sofisticados que auxiliam na análise de dados complexos, a IA tem transformado a forma como os pesquisadores conduzem seus estudos.
Ferramentas de gerenciamento de referências, como Mendeley e Zotero, ganharam reforços com algoritmos que sugerem artigos relevantes com base nos padrões de leitura. Além disso, plataformas como Consensus, Scispace, Litmaps e tantas outras, oferecem a possibilidade de buscar artigos científicos utilizando processamento de linguagem natural, permitindo consultas mais rápidas e precisas.
Outro destaque é o uso de IA em análises qualitativas e quantitativas, com softwares que utilizam aprendizado de máquina para identificar padrões, realizar previsões ou mesmo automatizar cálculos estatísticos complexos. Ferramentas de revisão de literatura fornecem insights sobre citações e o impacto dos artigos, facilitando a seleção de materiais para embasar pesquisas.
No contexto da produção acadêmica, a IA também se mostra útil na redação assistida, com ferramentas como Grammarly e LanguageTool, que aprimoram a clareza e correção dos textos, e recursos, como o Cite This For Me e Fast Format, que oferecem suporte até mesmo na formatação de trabalhos, citações e referências nos padrões APA (American Psychological Association) e Associação Brasileira de Normas Técnicas (ABNT).
Contudo, há riscos na aplicações de IA na pesquisa acadêmica, como o aspecto ético ao manipular dados ou gerar análises, o que pode resultar em interpretações tendenciosas ou enganosas se não forem devidamente validadas. Além disso, a dependência excessiva dessas tecnologias também pode levar à redução da criticidade por parte dos pesquisadores, que podem aceitar resultados fornecidos pela IA sem uma análise aprofundada.
Adicionalmente, o uso de IA deve ser analisado em relação à segurança e privacidade dos dados, uma vez que muitos softwares requerem o envio de informações sensíveis para servidores externos. Esses desafios ressaltam a necessidade de regulamentações claras e o desenvolvimento de boas práticas para orientar o uso ético, responsável e transparente da inteligência artificial na produção acadêmica, garantindo que a inovação tecnológica complemente, em vez de substituir, o rigor científico.
Assim, como tentativa de “regular” e orientar o uso ético e transparente da IA na pesquisa acadêmica, periódicos, tais como a Revista Brasileira de Direito Processual Penal, Brazilian Administration Review (BAR) e International Journal of Innovation (IJI), publicaram editoriais opinando a temática. As principais conclusões presentes nos editoriais são as que constam nos parágrafos a seguir.
Garrido (2023) destaca que a inteligência artificial possui o potencial de impulsionar o avanço científico e otimizar o processo editorial, tornando-o mais ágil. No entanto, ele também alerta para alguns riscos associados ao uso dessas tecnologias. Um deles é o fato de que os sistemas de IA dependem dos dados que lhes são fornecidos ou que geram por conta própria, os quais podem ser pouco transparentes e eventualmente carregados de vieses ou preconceitos, levantando questionamentos sobre sua origem. Além disso, outro risco identificado é a dificuldade dessas ferramentas em interpretar dados dentro de um contexto mais amplo, o que pode comprometer a análise. Por fim, ressalta o desafio relacionado à substituição da criatividade humana, que é algo intrinsecamente limitado nas aplicações de IA.
A elaboração de um artigo envolve um esforço criativo que combina aspectos teóricos, metodológicos, composicionais, fenomenológicos e de enquadramento. Nesse contexto, segundo Pigola (2023), a IA tem o potencial de ser integrada em diferentes etapas do processo, desempenhando um papel significativo na pesquisa e inovação. Por exemplo, a IA tem sido amplamente utilizada em pesquisas qualitativas como modelo de transcrição de fala de uso geral, além de ampliar metodologias e facilitar a análise de grandes conjuntos de dados. No entanto, como mencionado, a autora reitera as preocupações éticas e práticas que têm surgido, especialmente no que se refere à atribuição de crédito autoral para conteúdos gerados por IA.
Baseado nas diretrizes da WAME (World Association of Medical Editors, Associação Mundial dos Editores em Medicina), do COPE (Committee on Publication Ethics, Comitê de Ética na Publicação) e as Manuscript Guidelines dos periódicos Springer Nature, Vasconcellos (2023) enumera alguns pontos:
primeiramente, sistemas de inteligência artificial não devem ser indicados como autores, uma vez que não podem assumir responsabilidade pela pesquisa ou pelo texto produzido;
os autores que fizerem uso de ferramentas de IA devem declarar essa utilização na seção de metodologia ou nos agradecimentos do artigo;
o pesquisador deve cumprir requisitos básicos de atuação, incluindo: 1) contribuir efetivamente para a pesquisa, tanto em sua concepção ou desenvolvimento quanto na redação e revisão crítica; 2) aprovar a versão final do artigo e concordar com os argumentos apresentados; e 3) assumir responsabilidade pela integridade do artigo e da pesquisa em sua totalidade.
para garantir a transparência na produção de conhecimento científico aberto, os autores devem explicitar o uso de chatbots e ferramentas de inteligência artificial tanto na redação de artigos quanto em outras etapas do processo de pesquisa. Essa declaração deve ser inserida na seção de metodologia ou nos agradecimentos, detalhando o comando utilizado, a ferramenta empregada e a data da pesquisa, assegurando a possibilidade de replicação do processo.
além disso, os autores são responsáveis por quaisquer erros, plágios ou outras más-práticas que possam surgir em suas pesquisas devido à utilização de mecanismos de inteligência artificial, reafirmando a necessidade de supervisão e responsabilidade humanas em todo o processo.
Outras iniciativas, que partiram de organizações de pesquisa, foram propostas, a saber:
A Sociedade Brasileira de Estudos Interdisciplinares da Comunicação (Intercom) lançou em dezembro de 2024 o e-book "Diretrizes para o uso ético e responsável da Inteligência Artificial Generativa", cujo objetivo é fomentar o debate e promover práticas éticas no uso dessa tecnologia no ambiente acadêmico, reunindo as contribuições dos professores Rafael Cardoso Sampaio (UFPR), Marcelo Sabbatini (UFPE) e Ricardo Limongi (UFG). Você pode acessar aqui as diretrizes.
A Comissão Europeia, em colaboração com os países e partes interessadas do Fórum da Área de Pesquisa Europeia (ERA), elaboraram as “Living guidelines on the responsible use of generative AI in research”, um conjunto de recomendações para orientar a comunidade de pesquisa europeia na adoção responsável da tecnologia, com o objetivo de unificar diferentes perspectivas e oferecer segurança aos pesquisadores que utilizam IA generativa no campo científico. Acesse aqui as diretrizes.
Como podemos perceber, o uso da IA na pesquisa acadêmica e na produção científica apresenta grande potencial para acelerar descobertas, otimizar processos e ampliar as possibilidades de análise, mas também exige atenção redobrada quanto à ética, transparência e responsabilidade. Ferramentas como a IA podem ser grandes aliadas quando utilizadas de forma consciente e responsável, garantindo que a inovação tecnológica complemente, e não substitua, o rigor científico.
E você, o que acha sobre o uso da IA? Já tem utilizado essas tecnologias no seu dia a dia? Conhece alguma outra diretriz sobre a utilização da IA na pesquisa?
Deixe seu comentário e participe da discussão!
Nota 1: Este texto contou com o suporte da ferramenta ChatGPT-4 para geração da imagem de capa, revisão final e aprimoramento da escrita, sendo o autor totalmente responsável pelas informações aqui apresentadas.
Nota 2: A imagem de capa destaca o papel crescente da inteligência artificial (IA) na pesquisa acadêmica. Representada por um robô humanóide interagindo com tecnologias avançadas, a imagem simboliza a integração da IA com práticas científicas.
Referências:
European Commission. ERA Forum Stakeholders' Document (2024). Living guidelines on the responsible use of generative AI in research. Recuperado de https://research-and-innovation.ec.europa.eu/document/2b6cf7e5-36ac-41cb-aab5-0d32050143dc_en
Garrido, I. L.. (2023). Artificial Intelligence and Academic Journals: For Better and for Worse. BAR - Brazilian Administration Review, 20(4), e230145. https://doi.org/10.1590/1807-7692bar2023230145
Pigola, A., Scafuto, IC, da Costa, PR, & Nassif, VMJ (2023). Inteligência artificial na pesquisa acadêmica. International Journal of Innovation , 11 (3), e25408. https://doi.org/10.5585/2023.25408
Vasconcellos, V. G. de. (2023). Editorial – Inteligência artificial e coautoria de trabalhos científicos: discussões sobre utilização de ChatGPT em pesquisa e redação científicas. Revista Brasileira de Direito Processual Penal, 9(3). https://doi.org/10.22197/rbdpp.v9i3.913
Sampaio, R. C; Sabbatini, M.; & Limongi, R. Diretrizes para o uso ético e responsável da inteligência artificial generativa [livro eletrônico]: um guia prático para pesquisadores. São Paulo: Sociedade Brasileira de Estudos Interdisciplinares da Comunicação - Intercom, 2024. Recuperado de https://prpg.unicamp.br/wp-content/uploads/sites/10/2025/01/livro-diretrizes-ia-1.pdf