




Estude fácil! Tem muito documento disponível na Docsity
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Prepare-se para as provas
Estude fácil! Tem muito documento disponível na Docsity
Prepare-se para as provas com trabalhos de outros alunos como você, aqui na Docsity
Os melhores documentos à venda: Trabalhos de alunos formados
Prepare-se com as videoaulas e exercícios resolvidos criados a partir da grade da sua Universidade
Responda perguntas de provas passadas e avalie sua preparação.
Ganhe pontos para baixar
Ganhe pontos ajudando outros esrudantes ou compre um plano Premium
Comunidade
Peça ajuda à comunidade e tire suas dúvidas relacionadas ao estudo
Descubra as melhores universidades em seu país de acordo com os usuários da Docsity
Guias grátis
Baixe gratuitamente nossos guias de estudo, métodos para diminuir a ansiedade, dicas de TCC preparadas pelos professores da Docsity
Resumo: O crescente avanço e acessibilidade de ferramentas de Inteligência Artificial (IA) generativa têm levantado preocupações significativas sobre a integridade da pesquisa acadêmica e o processo de revisão por pares. Este artigo explora o problema da contaminação de artigos científicos com informações falsas ou fabricadas, geradas por IA, e seus potenciais impactos na qualidade e confiabilidade do conhecimento científico. Analisamos os desafios que os revisores enfrentam para identificar conteúdo gerado por IA e discutimos possíveis soluções e diretrizes para mitigar esses riscos, garantindo a manutenção da ética e da rigorosidade na produção e avaliação da ciência. Palavras-chave: Inteligência Artificial, Artigos Acadêmicos, Revisão por Pares, Integridade da Pesquisa, Informação Falsa, Ética na Publicação.
Tipologia: Manuais, Projetos, Pesquisas
1 / 8
Esta página não é visível na pré-visualização
Não perca as partes importantes!
Lucas Duarte Neotti neottilucas@gmail.com
Resumo: O crescente avanço e acessibilidade de ferramentas de Inteligência Artificial (IA) generativa têm levantado preocupações significativas sobre a integridade da pesquisa acadêmica e o processo de revisão por pares. Este artigo explora o problema da contaminação de artigos científicos com informações falsas ou fabricadas, geradas por IA, e seus potenciais impactos na qualidade e confiabilidade do conhecimento científico. Analisamos os desafios que os revisores enfrentam para identificar conteúdo gerado por IA e discutimos possíveis soluções e diretrizes para mitigar esses riscos, garantindo a manutenção da ética e da rigorosidade na produção e avaliação da ciência.
Palavras-chave: Inteligência Artificial, Artigos Acadêmicos, Revisão por Pares, Integridade da Pesquisa, Informação Falsa, Ética na Publicação.
A Inteligência Artificial (IA) evoluiu rapidamente, com modelos generativos como GPT-3 e seus sucessores demonstrando a capacidade de produzir texto coerente e aparentemente original em uma variedade de estilos e formatos. Embora essas ferramentas ofereçam potencial para auxiliar na pesquisa e na escrita, sua crescente sofisticação também apresenta desafios significativos para a integridade da produção científica [1]. Uma das maiores preocupações reside na possibilidade de autores utilizarem IA para gerar parcial ou totalmente artigos acadêmicos, introduzindo informações imprecisas, fabricadas ou até mesmo plagiadas sem a devida atribuição [2]. O processo de revisão por pares, fundamental para garantir a qualidade e a validade das publicações científicas, enfrenta um novo nível de complexidade diante da capacidade da IA de gerar textos plausíveis, mas potencialmente enganosos. A dificuldade em distinguir entre conteúdo genuíno e aquele gerado por IA pode comprometer a eficácia da revisão, levando à publicação de trabalhos falhos ou fraudulentos [3]. Este artigo se propõe a discutir o problema do uso indevido de IA na criação de artigos acadêmicos e seus impactos no processo de revisão por pares. Serão explorados os desafios específicos que a IA impõe à detecção de
informações falsas e serão apresentadas possíveis estratégias e diretrizes para a comunidade acadêmica enfrentar essa crescente ameaça à integridade da ciência.
2. O CRESCENTE USO E POTENCIAL ABUSO DE IA NA CRIAÇÃO DE ARTIGOS ACADÊMICOS
A facilidade de acesso e a crescente sofisticação das ferramentas de IA generativa tornaram tentador para alguns pesquisadores utilizá-las em diversas etapas da produção de um artigo científico. Desde a geração de introduções e revisões de literatura até a criação de resultados e discussões, a IA pode produzir texto rapidamente, economizando tempo e esforço. No entanto, essa conveniência traz consigo o risco de comprometer a precisão e a originalidade do trabalho [4]. Dados recentes sugerem um aumento preocupante na submissão de artigos com conteúdo gerado por IA. Embora dados específicos sobre a prevalência exata sejam difíceis de obter devido à natureza oculta dessa prática, relatos anedóticos de editores e revisores, juntamente com o desenvolvimento de ferramentas de detecção de IA, indicam uma tendência crescente. Estimativas preliminares apontam para um aumento significativo nos últimos anos, com alguns estudos sugerindo que uma porcentagem considerável de submissões pode conter algum nível de texto gerado por IA não declarado [5]. A capacidade da IA de gerar informações falsas ou fabricadas de forma convincente é particularmente alarmante. Modelos de linguagem podem ser treinados em grandes volumes de dados, incluindo informações incorretas ou tendenciosas, que podem ser replicadas e amplificadas em artigos gerados por IA. Além disso, a IA pode ser utilizada para criar resultados experimentais fictícios ou manipular dados existentes para apresentar conclusões desejadas, tornando a detecção dessas fraudes um desafio significativo para os revisores [6].
A falha em detectar e impedir a publicação de artigos contendo informações falsas geradas por IA pode ter consequências graves para a comunidade científica e para a sociedade em geral:
Erosão da Confiança na Ciência: A publicação de resultados não confiáveis pode minar a confiança do público na pesquisa científica e em seus resultados [12].
Disseminação de Conhecimento Erróneo: Informações falsas podem se propagar pela literatura científica, influenciando futuras pesquisas e levando a conclusões equivocadas [13].
Impacto em Áreas Críticas: Em áreas como medicina e engenharia, a publicação de informações falsas pode ter consequências diretas e perigosas para a saúde e a segurança pública [14].
Desperdício de Recursos: Pesquisadores podem perder tempo e recursos tentando replicar ou construir sobre resultados falsos [15].
Comprometimento da Integridade Acadêmica: A aceitação tácita do uso não ético de IA na pesquisa pode enfraquecer os princípios de honestidade e rigor que fundamentam a academia [16].
5. ESTRATÉGIAS E DIRETRIZES PARA MITIGAR OS RISCOS
Para enfrentar o desafio do uso indevido de IA na pesquisa acadêmica, é necessário um esforço multifacetado envolvendo autores, revisores, editores e instituições:
Educação e Conscientização: É crucial educar pesquisadores sobre as implicações éticas do uso de IA na escrita científica e sobre as políticas das revistas em relação a essa prática [17].
Políticas Editoriais Claras: As revistas devem desenvolver e comunicar claramente suas políticas sobre o uso de IA na criação de artigos, exigindo transparência e estabelecendo limites para sua utilização [18].
Desenvolvimento e Implementação de Ferramentas de Detecção de IA: Investimentos em pesquisa e desenvolvimento de ferramentas eficazes para identificar texto gerado por IA são essenciais para auxiliar os revisores e editores [19].
Fortalecimento do Processo de Revisão: As revistas podem considerar a implementação de revisões mais focadas em aspectos como a originalidade da metodologia, a plausibilidade dos dados e a consistência interna do artigo [20].
Transparência na Autoria: Exigir que os autores declarem explicitamente o uso de qualquer ferramenta de IA em seu trabalho, especificando as partes do artigo em que foram utilizadas e o papel da IA no processo [21].
Ênfase na Ética da Pesquisa: Instituições acadêmicas e agências de financiamento devem reforçar a importância da ética na pesquisa e implementar mecanismos para detectar e punir condutas inadequadas envolvendo o uso de IA [22].
Colaboração Interdisciplinar: A colaboração entre especialistas em IA, editores, revisores e pesquisadores é fundamental para desenvolver estratégias eficazes de detecção e prevenção [23].
[5] Thorp, H. H. (2023). ChatGPT is fun, but not an author. Science , 379 (6630), 379.
[6] Carlini, N., Tramer, F., Wallace, E., Roberts, R., Lane-Fox, B., Kohli, A., ... & Zhang, Y. (2019). Defending against neural fake news. In Proceedings of the 33rd International Conference on Neural Information Processing Systems (pp. 3921-3931).
[7] Brown, T. B., Mann, B., Ryder, N., Subbiah, M., Kaplan, J., Dhariwal, P., ... & Amodei, D. (2020). Language models are few-shot learners. In Advances in neural information processing systems (Vol. 33, pp. 1877-1901).
[8] Checco, A., & Spectre, D. (2023). Fake references generated by large language models: detection strategies and impact on scientific literature. arXiv preprint arXiv:2310..
[9] Fanelli, D. (2009). How many scientists fabricate and falsify research? A systematic review and meta-analysis of survey data. PloS one , 4 (5), e5738.
[10] Tennant, J. P., Dugan, J. M., Graziotin, D., Michalak, M., Crick, T., Masuzzo, P., ... & Ross-Hellauer, T. (2017). What motivates researchers to do peer review? Incentives and recognition in scholarly communication. F1000Research , 6 , 1152.
[11] Gao, C. A., Howard, D., Markov, N. A., Roberts, E., Li, L., & Haven, T. (2022). Comparing human and artificial intelligence writing. arXiv preprint arXiv:2203..
[12] Oreskes, N., & Conway, E. M. (2010). Merchants of doubt: How a handful of scientists obscured the truth on issues from tobacco smoke to global warming****. Bloomsbury Publishing USA.
[13] Ioannidis, J. P. A. (2005). Why most published research findings are false. PLoS medicine , 2 (8), e124.
[14] Prasad, V., & Ioannidis, J. P. A. (2014 ). Evidence-based de- implementation for contradicted, nonbeneficial, and wasteful medical practices. JAMA , 311 (19), 1952-1953.
[15] Begley, C. G., & Ellis, L. M. (2012). Drug development: raise standards for preclinical cancer research. Nature , 483 (7391), 531-533.
[16] Merton, R. K. (1973). The normative structure of science. In The sociology of science: Theoretical and empirical investigations (pp. 267-278). University of Chicago press.
[17] Allen, A. L. (2003). Privacy-as-data-control: Towards a new paradigm. The Yale Law Journal , 112 (7), 1479-1508.
[18] COPE Council. (2023). COPE guidance for editors on AI image generators****. Committee on Publication Ethics.
[19] Mitchell, M., Wu, S., Brat, G., Thoppilan, R., Jaffe, P., Tenney, D., ... & Gebru, T. (2023). Model cards for model reporting. In Proceedings of the conference on fairness, accountability, and transparency (pp. 1316-1326).
[20] Kelly, J., Sadeghi, A., & Moher, D. (2014). CONSORT 2010 explanation and elaboration: updated guidelines for reporting parallel group randomised trials. BMJ , 348 , g3058.
[21] Marcus, G., & Davis, E. (2019). Rebooting AI: Building artificial intelligence we can trust. Pantheon.
[22] National Academies of Sciences, Engineering, and Medicine. (2017). Fostering integrity in research. National Academies Press.
[23] Birukou, A., Blanzieri, E., & Montresor, A. (2011). Trust management in social media. In Social network analysis for information systems (pp. 1-24). Springer, Boston, MA.