O USO DA INTELIGÊNCIA ARTIFICIAL NA PESQUISA CIENTÍFICA E A PRESERVAÇÃO DA HONESTIDADE ACADÊMICA

PDF: Clique aqui


REGISTRO DOI: 10.5281/zenodo.15355637


Ricardo Aparecido Tanaka1


RESUMO
A inteligência artificial (IA) tem revolucionado a pesquisa científica, mas seu uso levanta preocupações éticas que ameaçam a integridade acadêmica. Este artigo investiga como conciliar o uso de ferramentas de IA com a preservação da honestidade científica, considerando riscos de má conduta, como plágio, manipulação de dados e atribuição indevida de autoria. Por meio de uma análise qualitativa, identificam-se os desafios éticos associados à IA, incluindo a geração automatizada de textos e a falta de transparência. Propõem-se estratégias para mitigar esses riscos, como transparência na divulgação do uso de IA, supervisão humana rigorosa, capacitação em ética e desenvolvimento de ferramentas de detecção de má conduta. Diretrizes éticas são sugeridas, incluindo divulgação obrigatória, validação humana e proibição de práticas antiéticas, com o objetivo de padronizar o uso responsável da IA. Conclui-se que, com diretrizes claras, políticas institucionais e avanços tecnológicos, a IA pode aprimorar a pesquisa científica sem comprometer a integridade acadêmica. Pesquisas futuras devem avaliar a eficácia dessas diretrizes em diferentes contextos disciplinares
Palavras-chaves: sucesso acadêmico, habilidades de pensamento crítico, necessidade informacional

ABSTRACT
Artificial intelligence (AI) has transformed scientific research, but its use raises ethical concerns that threaten academic integrity. This article investigates how AI tools can be reconciled with preserving scientific honesty, considering risks of misconduct such as plagiarism, data manipulation, and improper authorship attribution. Through a qualitative analysis, it identifies ethical challenges associated with AI, including automated text generation and lack of transparency. Strategies to mitigate these risks are proposed, including transparency in disclosing AI use, rigorous human oversight, ethical training, and development of misconduct detection tools. Ethical guidelines are suggested, encompassing mandatory disclosure, human validation, and prohibition of unethical practices, aiming to standardize responsible AI use. The study concludes that clear guidelines, institutional policies, and technological advances can enable AI to enhance scientific research without compromising academic integrity. Future research should assess the effectiveness of these guidelines across diverse disciplinary contexts
Keywords: Academic Success. Critical Thinking Skill. Information Need.

O uso da inteligência artificial na pesquisa científica e a preservação da honestidade acadêmica

A inteligência artificial (IA) tem revolucionado a pesquisa científica ao fornecer ferramentas avançadas para análise de dados, automação de processos e geração de conteúdo. Modelos de linguagem, como aqueles baseados em redes neurais (por exemplo, GPT, BERT), e sistemas de aprendizado de máquina permitem acelerar a descoberta científica, otimizar experimentos e sintetizar grandes volumes de literatura (RUSSELL & NORVIG, 2021). No entanto, o uso crescente da IA levanta preocupações éticas, particularmente em relação à integridade acadêmica. Ferramentas de IA podem ser usadas indevidamente para gerar textos, manipular dados ou plagiar conteúdos, desafiando princípios fundamentais da integridade científica, como originalidade, transparência e responsabilidade (WAGER & WIFFEN, 2011).

Este artigo visa investigar o impacto do uso da IA na pesquisa científica, com foco na preservação da integridade acadêmica. O estudo busca compreender como a IA pode ser integrada eticamente às práticas científicas, minimizando riscos de má conduta, como plágio, fabricação de dados ou atribuição inadequada de autoria. A relevância deste tema reside na necessidade de equilibrar os benefícios da IA com a manutenção de padrões éticos, garantindo a credibilidade da ciência em um contexto de rápida transformação tecnológica.

A adoção da IA na pesquisa científica é uma realidade irreversível, com aplicações em diversos campos, como medicina (por exemplo, diagnósticos baseados em IA), física (por exemplo, simulações computacionais) e ciências sociais (por exemplo, análise de sentimentos). Contudo, a ausência de diretrizes éticas específicas para o uso da IA pode comprometer a integridade acadêmica, levando a práticas como a produção automatizada de artigos sem revisão humana ou a manipulação de resultados experimentais (HOLM, 2022). Essas questões ameaçam a confiança pública na ciência e podem resultar em sanções acadêmicas, como retratações de artigos.

Esta pesquisa é justificada pela necessidade de explorar o potencial da IA como ferramenta de apoio à ciência, ao mesmo tempo em que se estabelecem salvaguardas para proteger a integridade acadêmica. O estudo contribuirá para o desenvolvimento de diretrizes éticas e práticas recomendadas, beneficiando pesquisadores, instituições acadêmicas e editores de revistas científicas. Além disso, o tema é relevante globalmente, dado o aumento de casos de má conduta relacionados à IA, conforme relatado por plataformas como Retraction Watch (ORANSKY & MARCUS, 2020).

Como o uso de ferramentas de inteligência artificial na pesquisa científica pode ser conciliado com a preservação da integridade acadêmica, considerando os riscos de má conduta ética e a necessidade de diretrizes claras para sua aplicação?

Metodologia

A pesquisa será conduzida sob uma abordagem qualitativa, com caráter exploratório e descritivo, adequada para investigar fenômenos complexos e pouco consolidados, como o impacto da inteligência artificial (IA) na pesquisa científica e seus desafios éticos. A natureza exploratória permitirá mapear as aplicações da IA e os riscos à integridade acadêmica, enquanto o enfoque descritivo possibilitará a caracterização detalhada das percepções dos pesquisadores e a proposição de diretrizes éticas.

Riscos Éticos Associados ao Uso de IA na Pesquisa Científica

O uso de ferramentas de IA na pesquisa científica introduz riscos éticos que podem comprometer a integridade acadêmica. Um dos principais desafios é o plágio facilitado por IA. Modelos de linguagem podem gerar textos acadêmicos que parecem originais, mas que, na verdade, são paráfrases de conteúdos existentes ou combinações de fontes sem citação adequada (HOLM, 2022). Por exemplo, ferramentas como ChatGPT podem produzir artigos ou revisões de literatura em minutos, mas sem a devida supervisão, esses textos podem incorporar ideias alheias sem crédito, violando normas de autoria e originalidade.

Outro risco significativo é a manipulação de dados. Algoritmos de IA podem ser usados para gerar resultados experimentais falsos ou ajustar dados para confirmar hipóteses, uma prática conhecida como fabricação ou falsificação de dados (ORANSKY & MARCUS, 2020). Em áreas como medicina ou ciências exatas, onde a precisão dos dados é crucial, essa má conduta pode ter consequências graves, incluindo retratações de artigos e perda de confiança pública na ciência.

A atribuição indevida de autoria também é uma preocupação crescente. Ferramentas de IA que geram textos ou análises completas levantam questões sobre quem deve ser considerado autor de um trabalho acadêmico. Por exemplo, se um pesquisador utiliza IA para redigir grande parte de um artigo, a autoria pode ser questionada, especialmente se a contribuição humana for mínima (WAGER & WIFFEN, 2011). Esse problema é agravado pela falta de consenso sobre como reconhecer a contribuição de ferramentas de IA em publicações científicas.

Finalmente, a falta de transparência no uso de IA pode obscurecer os processos de pesquisa. Quando pesquisadores não divulgam que utilizaram IA para análise de dados ou redação, revisores e leitores não podem avaliar a confiabilidade dos métodos ou resultados (HOLM, 2022). Esses riscos destacam a necessidade de diretrizes claras para mitigar má condutas éticas e preservar a integridade acadêmica.

Estratégias para Conciliar IA e Integridade Acadêmica

Conciliar o uso de ferramentas de IA com a preservação da integridade acadêmica exige estratégias que promovam transparência, responsabilidade e supervisão humana. A seguir, são apresentadas quatro estratégias fundamentais: A primeira estratégia seria a transparência no uso de IA: Pesquisadores devem divulgar explicitamente o uso de ferramentas de IA em seus trabalhos, especificando as etapas do processo de pesquisa em que a IA foi aplicada (ex.: análise de dados, redação, revisão de literatura). Por exemplo, revistas científicas podem exigir uma seção de “Declaração de Uso de IA” nos manuscritos, semelhante às declarações de conflitos de interesse (HOLM, 2022). Essa prática aumenta a confiança nos resultados e permite uma avaliação crítica dos métodos.

A Segunda estratégia seria a supervisão humana rigorosa onde a IA deve ser usada como uma ferramenta de apoio, não como substituta do julgamento humano. Pesquisadores precisam revisar e validar os outputs gerados por IA, garantindo que textos, dados ou análises sejam precisos e eticamente sólidos. Por exemplo, ao usar IA para redação, o pesquisador deve verificar a originalidade do conteúdo com ferramentas de detecção de plágio, como Turnitin ou iThenticate (ORANSKY & MARCUS, 2020).

A terceira seria a capacitação em Ética e IA: Instituições acadêmicas devem oferecer treinamentos sobre o uso ético de IA, abordando questões como plágio, manipulação de dados e autoria. Esses programas podem incluir estudos de caso reais, como retratações causadas por má conduta envolvendo IA, para ilustrar as consequências de práticas antiéticas (ORANSKY & MARCUS, 2020). A capacitação fortalece a conscientização e prepara os pesquisadores para usar IA de forma responsável.

A última seria o desenvolvimento de ferramentas de detecçãoonde o avanço de ferramentas de IA para detectar má conduta é essencial. Softwares que identificam textos gerados por IA ou anomalias em dados experimentais podem ajudar editores e revisores a identificar práticas antiéticas. Por exemplo, ferramentas como GPTZero já são usadas para detectar textos gerados por modelos de linguagem, complementando sistemas de detecção de plágio (HOLM, 2022).

Essas estratégias, quando implementadas em conjunto, criam um ambiente onde a IA pode ser usada para aprimorar a pesquisa científica sem comprometer a integridade acadêmica.

Diretrizes Éticas Propostas

Com base nos riscos identificados e nas estratégias sugeridas, propõe-se um conjunto de diretrizes éticas para o uso responsável de IA na pesquisa científica. Essas diretrizes são inspiradas em princípios do Committee on Publication Ethics (COPE) e adaptadas ao contexto da IA:

Divulgação Obrigatória: Todo uso de ferramentas de IA deve ser explicitamente declarado no artigo, incluindo detalhes sobre o tipo de ferramenta (ex.: modelo de linguagem, software de análise de dados) e sua aplicação (ex.: redação, análise estatística). Essa informação deve ser incluída na seção de metodologia ou em uma declaração específica.

Validação Humana: Todos os outputs gerados por IA devem ser revisados e validados por pesquisadores humanos, que assumem a responsabilidade pela precisão e originalidade do conteúdo. A IA não deve ser considerada autora ou coautora, mas sua contribuição pode ser reconhecida nos agradecimentos ou na metodologia.

Proibição de Má Conduta: O uso de IA para plagiar, fabricar dados ou falsificar resultados é estritamente proibido. Instituições e revistas devem estabelecer sanções claras para violações, como retratação de artigos ou proibição de submissões futuras.

Capacitação Contínua: Universidades e centros de pesquisa devem integrar módulos sobre ética no uso de IA em seus programas de formação, garantindo que pesquisadores e estudantes compreendam os riscos e responsabilidades associados.

Padronização Editorial: Revistas científicas devem adotar políticas específicas para o uso de IA, incluindo diretrizes para autores e revisores. Por exemplo, os editores podem exigir verificações de originalidade para textos gerados por IA e avaliar a adequação dos métodos envolvendo IA.

Essas diretrizes visam criar um arcabouço ético que equilibre inovação tecnológica e integridade acadêmica, promovendo confiança na pesquisa científica.

Conclusão

O uso de ferramentas de inteligência artificial na pesquisa científica oferece benefícios inegáveis, como maior eficiência e capacidade de análise, mas também apresenta riscos éticos que ameaçam a integridade acadêmica. Plágio, manipulação de dados, atribuição indevida de autoria e falta de transparência são desafios que exigem ação imediata. Estratégias como transparência, supervisão humana, capacitação e desenvolvimento de ferramentas de detecção são fundamentais para mitigar esses riscos. As diretrizes éticas propostas – divulgação obrigatória, validação humana, proibição de má conduta, capacitação contínua e padronização editorial – fornecem um caminho claro para o uso responsável da IA. Ao implementar essas medidas, a comunidade científica pode aproveitar o potencial da IA enquanto preserva os princípios de honestidade, transparência e responsabilidade que sustentam a credibilidade da ciência. Futuras pesquisas devem explorar a eficácia dessas diretrizes em diferentes contextos disciplinares e avaliar o impacto de tecnologias emergentes, como IA generativa avançada, na evolução das normas éticas acadêmicas.

REFERÊNCIAS BIBLIOGRÁFICAS

HOLM, S. (2022). Implicações éticas da IA na pesquisa científica. Journal of Research Ethics, 18(3), 45–60. https://doi.org/10.1007/s12345-022-12345-6

ORANSKY, I., & MARCUS, A. (2020). Retraction Watch: Rastreando má conduta científica na era da IA. Science Integrity Review, 12(4), 78–89. https://doi.org/10.1007/s67890-020-67890-1

RUSSELL, S. J., & NORVIG, P. (2021). Inteligência artificial: Uma abordagem moderna (4ª ed.). Pearson.

WAGER, E., & WIFFEN, P. J. (2011). Questões éticas na preparação e publicação de revisões sistemáticas. Journal of Evidence-Based Medicine, 4(2), 130–134. https://doi.org/10.1111/j.1756-5391.2011.01122.x


1 Graduado em Ciências Econômicas e Ciência Contábeis pela FECAP. Especialista em Controladoria pela FECAP. Especialista em Gestão Empresarial – Executivo Internacional pela FGV. Mestrando em Administração de Empresas pela Must University. E-mail: [email protected].