INTELIGÊNCIA ARTIFICIAL EXPLICÁVEL (XAI) NA DETECÇÃO DE FRAUDES FINANCEIRAS: DESAFIOS E OPORTUNIDADES PARA AUMENTAR A TRANSPARÊNCIA EM SISTEMAS BANCÁRIOS
DOI:
https://doi.org/10.63330/armv1n5-014Palavras-chave:
Inteligência Artificial Explicável, XAI, Detecção de Fraudes, Machine Learning, Transparência Algorítmica, Sistemas Bancários, Compliance, Governança AlgorítmicaResumo
A crescente sofisticação das fraudes financeiras tem impulsionado instituições bancárias a adotarem sistemas de inteligência artificial (IA) para detecção automatizada de transações suspeitas. Contudo, a natureza de "caixa-preta" dos algoritmos de machine learning tradicionais levanta questões críticas sobre transparência, conformidade regulatória e confiança dos usuários. Este artigo investiga a aplicação da Inteligência Artificial Explicável (XAI) como solução para aumentar a interpretabilidade dos sistemas de detecção de fraudes financeiras. Através de uma revisão sistemática da literatura e análise de casos práticos, examina-se como técnicas de XAI podem equilibrar eficácia preditiva com transparência algorítmica. Os resultados indicam que ferramentas como LIME (Local Interpretable Model-agnostic Explanations) e SHAP (SHapley Additive exPlanations) oferecem caminhos promissores para criar sistemas de detecção que sejam simultaneamente precisos e interpretáveis. O estudo conclui que a implementação de XAI em sistemas bancários não apenas atende às crescentes demandas regulatórias, mas também fortalece a confiança dos clientes e melhora a eficiência operacional das equipes de compliance.
Downloads
Publicado
Edição
Seção
Licença
Copyright (c) 2025 José Henrique Salles Pinheiro (Autor)

Este trabalho está licenciado sob uma licença Creative Commons Attribution-NonCommercial-NoDerivatives 4.0 International License.