RISCOS DE DESINFORMAÇÃO GERADOS POR IA E ESTRATÉGIAS DE MITIGAÇÃO

Autores

  • Rodrigo Thomé de Moura Autor

DOI:

https://doi.org/10.63330/aurumpub.021-010

Palavras-chave:

Inteligência Artificial, Desinformação, Deepfakes, Segurança informacional, Mitigação

Resumo

Este trabalho analisou os riscos de desinformação gerados pela Inteligência Artificial e apresentou estratégias de mitigação capazes de reduzir seus impactos sociais, políticos e institucionais. O estudo teve como objetivo investigar de que forma tecnologias de IA, especialmente modelos generativos, ampliaram a produção e a circulação de conteúdos falsos, enganosos e manipulados, além de avaliar consequências desse fenômeno para a confiança pública, a democracia, a ciência e a segurança nacional. A pesquisa adotou metodologia bibliográfica e qualitativa, baseada na revisão de artigos científicos, relatórios institucionais e obras especializadas que discutiram Inteligência Artificial, desinformação digital e integridade informacional. Os resultados mostraram que a IA generativa permitiu a criação de textos, imagens, vídeos e áudios sintéticos em grande velocidade e escala, tornando a desinformação mais sofisticada e difícil de detectar. Observou-se que o realismo crescente de deepfakes, a clonagem de voz e a automação em redes de bots ampliaram significativamente a capacidade de manipulação de percepções públicas, favorecendo campanhas coordenadas e interferências em processos democráticos. A análise identificou também que esse cenário contribuiu para a erosão da confiança nas instituições, para o descrédito em evidências científicas e para vulnerabilidades em áreas sensíveis, como saúde pública e segurança nacional. O estudo concluiu que a mitigação desses riscos depende da combinação de estratégias técnicas, políticas e educacionais, incluindo ferramentas de detecção de mídias sintéticas, regulamentações de transparência algorítmica, políticas de governança digital e programas de alfabetização midiática capazes de fortalecer a capacidade crítica dos cidadãos diante do ambiente informacional contemporâneo.

Downloads

Os dados de download ainda não estão disponíveis.

Referências

CHESNEY, Robert; CITRON, Danielle. Deep fakes: A looming challenge for privacy, democracy, and national security. California Law Review, v. 107, p. 1753–1819, 2019. Disponível em: https://www.californialawreview.org/print/deep-fakes-a-looming- challenge-for-privacy-democracy-and-national-security/. Acesso em: 14 nov. 2025.

FLORIDI, Luciano. The ethics of artificial intelligence. Oxford: Oxford University Press, 2021.

GOODFELLOW, Ian; BENGIO, Yoshua; COURVILLE, Aaron. Deep learning. Cambridge: MIT Press, 2016.

KAPLAN, Jared et al. Scaling laws for neural language models. arXiv, 2020. Disponível em: https://arxiv.org/abs/2001.08361. Acesso em: 14 nov. 2025.

VOSOUGHI, Soroush; ROY, Deb; ARAL, Sinan. The spread of true and false news online. Science, v. 359, n. 6380, p. 1146–1151, 2018. Disponível em: https://www.science.org/doi/10.1126/science.aap9559. Acesso em: 14 nov. 2025.

WARDLE, Claire; DERAKHSHAN, Hossein. Information disorder: Toward an interdisciplinary framework. Strasbourg: Council of Europe, 2017. Disponível em: https://firstdraftnews.org/wp-content/uploads/2017/11/PREMS-162317-GBR-2018- Report-de%CC%81sinformation-1.pdf. Acesso em: 14 nov. 2025.

ZANNETTOU, Savvas et al. Disinformation warfare: Understanding state-sponsored trolls on Twitter and their influence on the web. In: Companion Proceedings of the World Wide Web Conference (WWW), 2019. Disponível em: https://arxiv.org/pdf/1801.09288. Acesso em: 14 nov. 2025.

ZUBOFF, Shoshana. The age of surveillance capitalism: the fight for a human future at the new frontier of power. New York: PublicAffairs, 2019.

Publicado

2025-12-17

Como Citar

RISCOS DE DESINFORMAÇÃO GERADOS POR IA E ESTRATÉGIAS DE MITIGAÇÃO. (2025). Aurum Editora, 110-119. https://doi.org/10.63330/aurumpub.021-010