Ameaças de IA com deepfakes comprometem o sistema de KYC; os bancos e as plataformas cripto enfrentam novos desafios

Notícias da Gate, mensagens: a inteligência artificial de deepfakes avançados está a tornar-se uma nova ameaça que enfrenta os sistemas de KYC de bancos e plataformas de criptomoedas. Relatórios recentes indicam que atacantes da dark web já desenvolveram e estão a vender uma ferramenta que combina deepfakes e clonagem de voz em tempo real, capaz de contornar as verificações de identidade tradicionais. A ferramenta não só consegue gerar identidades sintéticas altamente convincentes, como também simular movimentos faciais naturais e respostas de voz, tornando difícil para os revisores de KYC distinguirem o verdadeiro do falso.

O surgimento de fraudes em KYC baseadas em inteligência artificial quebrou os padrões tradicionais de validação. Bancos e plataformas cripto dependem da verificação de documentos, do reconhecimento facial e de testes de liveness, mas esta ferramenta consegue contornar as três camadas de segurança em simultâneo. Os atacantes já não precisam de roubar informações de identidade reais; em vez disso, conseguem gerar rapidamente várias identidades virtuais e realizar, num curto espaço de tempo, registos em massa e atividades fraudulentas.

Especialistas em fintech alertam que, em grande parte, os sistemas de KYC existentes não conseguem identificar totalmente comportamentos avançados de deepfakes. Algumas empresas já começaram a implementar ferramentas de deteção baseadas em inteligência artificial, analisando microexpressões e anomalias de comportamento para melhorar a taxa de deteção, mas os atacantes também estão a atualizar continuamente a tecnologia. A rápida evolução da inteligência artificial para fraude de identidade cria uma competição contínua entre defesa e ataque, aumentando a pressão de segurança sobre as plataformas de finanças digitais.

Especialistas recomendam que as empresas criem um sistema de defesa em múltiplas camadas, combinando monitorização por inteligência artificial e revisão manual, e ao mesmo tempo introduzam meios de análise de comportamento para acompanhar atividades suspeitas após o registo do utilizador. Esta estratégia dinâmica de proteção ajuda a detetar continuamente potenciais fraudes para além da fase de verificação. À medida que as ferramentas de deepfakes baseadas em inteligência artificial continuam a evoluir, os riscos de segurança enfrentados pelos sistemas de KYC vão persistir a longo prazo.

Este desenvolvimento serve como um alerta para as instituições financeiras: um único método de verificação já não consegue garantir a segurança da identidade digital, sendo necessário reforçar o investimento em deteção inteligente e em defesa adaptativa para fazer face à vaga de fraudes impulsionadas por inteligência artificial e criar um ambiente fiável para as plataformas de finanças digitais.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.
Comentário
0/400
Sem comentários