
O setor das criptomoedas enfrenta uma vaga inédita de fraudes potenciadas por IA, que operam a uma escala e sofisticação sem paralelo. Ari Redbord, responsável global de políticas e assuntos governamentais na TRM Labs, afirma que modelos generativos estão a ser utilizados para lançar milhares de fraudes em simultâneo, em múltiplas plataformas e redes blockchain. “Estamos perante um ecossistema criminoso mais inteligente, mais rápido e com capacidade de expansão infinita”, realçou.
O funcionamento destes ataques impulsionados por IA revela um grau preocupante de sofisticação. Os modelos generativos de IA conseguem analisar e adaptar-se, em tempo real, às preferências linguísticas, localização geográfica e pegada digital das vítimas. Esta personalização torna as fraudes exponencialmente mais credíveis do que as tentativas tradicionais. Em operações de ransomware, algoritmos de inteligência artificial selecionam vítimas com base na probabilidade de pagamento, redigem exigências de resgate personalizadas e conduzem conversações negociais que imitam padrões humanos com precisão notável.
Os ataques de engenharia social evoluíram para operações altamente credíveis graças à tecnologia deepfake. Vozes e vídeos deepfake são utilizados para defraudar empresas e particulares através de esquemas de “imitação de executivos”, nos quais criminosos se fazem passar por membros de direção para autorizar transações, e burlas de “emergência familiar”, em que vozes geradas por IA de familiares são usadas para extorquir dinheiro sob falsos pretextos.
As fraudes on-chain são outra área onde as ferramentas de IA revelam o seu potencial perigoso. Estes sistemas escrevem scripts complexos que movimentam fundos entre centenas de carteiras em segundos, criando rotas de branqueamento a um ritmo impossível para qualquer operador humano. Esta movimentação automática dificulta o rastreio tradicional do percurso dos fundos antes de desaparecerem na vasta rede blockchain.
Perante este cenário de ameaça em escalada, o setor das criptomoedas começou a utilizar inteligência artificial como arma defensiva contra fraudes potenciadas por IA. Empresas de análise de blockchain, empresas de cibersegurança, bolsas de criptomoedas e investigadores académicos colaboram para construir sistemas sofisticados de machine learning, capazes de detetar, sinalizar e mitigar atividade fraudulenta muito antes de as vítimas perderem fundos.
A TRM Labs integrou inteligência artificial em todas as camadas da sua plataforma de inteligência blockchain, criando um sistema de defesa abrangente. A empresa recorre a algoritmos avançados de machine learning para processar biliões de pontos de dados em mais de 40 redes blockchain em simultâneo. Esta capacidade permite mapear redes complexas de carteiras, identificar novas tipologias de fraude e detetar padrões comportamentais anómalos indicativos de atividade ilícita nas fases iniciais.
“Estes sistemas não se limitam a identificar padrões — aprendem-nos”, comentou Redbord. “À medida que os dados evoluem e surgem novas técnicas de fraude, os nossos modelos adaptam-se, respondendo em tempo real à dinâmica dos mercados de criptomoedas.” Esta aprendizagem adaptativa é essencial num contexto onde as táticas fraudulentas mudam rapidamente.
A Sardine, plataforma de risco por IA fundada em 2020, desenvolveu uma abordagem multicamada à deteção de fraude. Alex Kushnir, responsável pelo desenvolvimento comercial da Sardine, explica que a infraestrutura de deteção de fraude da empresa integra três camadas, funcionando em conjunto para criar uma rede de segurança abrangente.
A primeira camada dedica-se à recolha de dados, captando sinais detalhados de cada sessão do utilizador em plataformas financeiras. Inclui atributos do dispositivo, como especificações de hardware e sistema operativo, deteção de eventuais manipulações em aplicações e análise comportamental do modo como o utilizador interage — desde padrões de escrita a movimentos de rato e hábitos de navegação.
A segunda camada assegura acesso a uma rede alargada de fornecedores de dados de confiança, permitindo validar qualquer input do utilizador face a bases de dados conhecidas. Este cruzamento possibilita identificar informação suspeita antes de ser usada em transações fraudulentas.
A terceira camada implementa partilha de dados em consórcio, permitindo a partilha de informação relativa a agentes maliciosos entre organizações participantes. Esta abordagem colaborativa cria uma rede distribuída de inteligência, beneficiando todos ao agregar informação sobre ameaças a nível setorial.
A Sardine utiliza um motor de risco em tempo real, que atua com base em cada indicador, combatendo fraudes à medida que acontecem, em vez de depender de análises retrospetivas. Kushnir nota que IA agentic e grandes modelos de linguagem são usados sobretudo para automação e eficiência operacional, e não para deteção direta em tempo real. “Em vez de programar regras de deteção de fraude, o que exige conhecimento técnico e tempo, basta escrever o que se pretende avaliar e um agente de IA constrói, testa e implementa a regra, se cumprir os requisitos”, explicou. Esta democratização da criação de regras permite respostas mais rápidas a novas ameaças.
As aplicações práticas dos sistemas defensivos potenciados por IA demonstram a sua eficácia em cenários reais. Matt Vega, chefe de equipa da Sardine, explica que, assim que o sistema deteta um padrão suspeito, a inteligência artificial faz uma análise profunda para recomendar medidas que impeçam o vetor de ataque. “Este processo levaria um dia inteiro a um analista humano, mas com IA demora apenas segundos”, afirmou. Esta rapidez é crucial para prevenir a fraude antes de qualquer transferência de fundos.
A Sardine trabalha de perto com as principais bolsas de criptomoedas para sinalizar comportamentos de utilizador invulgares em tempo real. As transações são analisadas na plataforma de decisão da Sardine, onde a IA ajuda a determinar o desfecho, proporcionando aviso prévio de potenciais fraudes. Esta abordagem proativa permite intervir antes de as transações fraudulentas se concretizarem, protegendo a plataforma e os seus utilizadores.
A TRM Labs já se deparou com fraudes potenciadas por IA em investigações. A empresa testemunhou um deepfake em direto durante uma videochamada com um alegado burlão. “Suspeitámos do uso de tecnologia deepfake devido à linha do cabelo pouco natural e pequenas incoerências nos movimentos faciais”, explicou Redbord. “Ferramentas de deteção por IA permitiram confirmar que a imagem era provavelmente gerada por IA, e não real.” Embora a TRM Labs tenha conseguido identificar esta fraude, esta operação e outras associadas roubaram cerca de 60 milhões $ a vítimas desinformadas, mostrando a eficácia das ferramentas e a urgência de uma adoção generalizada.
A empresa de cibersegurança Kidas também utiliza inteligência artificial para detetar e prevenir fraudes via análise avançada de conteúdos. Ron Kerbs, fundador e CEO, explica que os modelos próprios da Kidas analisam conteúdos, padrões comportamentais e incoerências áudio-visuais em tempo real, identificando deepfakes e phishing criados por LLM no momento da interação. “Isto permite atribuir pontuação de risco instantânea e intervir imediatamente, a única forma de contrariar fraudes automatizadas em larga escala”, sublinhou Kerbs.
Num caso recente, a ferramenta de deteção da Kidas intercetou com sucesso duas tentativas distintas de fraude com criptoativos no Discord, plataforma popular entre burlões. Estas interceções evitaram perdas a potenciais vítimas e forneceram inteligência valiosa sobre táticas emergentes.
Apesar do sucesso das ferramentas potenciadas por IA na deteção e prevenção de fraudes sofisticadas, especialistas alertam que estes ataques continuarão a crescer em frequência e complexidade. “A IA está a reduzir a barreira de entrada para o crime sofisticado, tornando as fraudes altamente escaláveis e personalizadas; por isso, vão certamente ganhar tração”, observou Kerbs. A democratização das ferramentas faz com que até criminosos com poucos conhecimentos técnicos possam lançar operações complexas.
Ainda assim, há medidas concretas que os utilizadores podem adotar para se protegerem. Vega refere que muitos ataques envolvem sites de imitação, para onde as vítimas são dirigidas e onde clicam em ligações maliciosas aparentemente legítimas.
“Os utilizadores devem procurar letras do alfabeto grego ou outros caracteres Unicode que imitam visualmente as latinas em websites”, aconselhou Vega. “Uma grande empresa tecnológica foi vítima desta técnica quando um atacante criou um site falso com um ‘A’ grego idêntico ao ‘A’ latino do nome.” Este ataque explora a semelhança visual de caracteres de diferentes alfabetos para criar URLs falsas credíveis.
Os utilizadores devem ainda ter cuidado com ligações patrocinadas nos resultados de pesquisa, já que os burlões compram espaço publicitário para colocar sites fraudulentos no topo. Verificar cuidadosamente os URLs antes de clicar, confirmando a presença de encriptação HTTPS e a ortografia exata do domínio, pode evitar muitos ataques.
Para além das precauções individuais, empresas como a Sardine e a TRM Labs trabalham em estreita colaboração com autoridades reguladoras para definir mecanismos de proteção baseados em IA para mitigar o risco de fraude a nível sistémico. Esta articulação entre setor privado e entidades públicas é essencial para criar defesas abrangentes.
“Estamos a criar sistemas que dão às autoridades e profissionais de compliance a mesma velocidade, escala e alcance que os criminosos têm — desde detetar anomalias em tempo real até identificar operações de branqueamento cross-chain”, afirmou Redbord. “A inteligência artificial permite-nos passar de uma gestão de risco reativa, em que só reagimos após o crime, para uma abordagem preditiva, em que podemos identificar e prevenir a fraude antes de acontecer.” Esta mudança de paradigma representa uma evolução fundamental na prevenção de fraude no setor das criptomoedas, permitindo que as defesas potenciadas por IA possam superar os ataques também potenciados por IA.
A IA deteta esquemas de phishing, fraudes Ponzi, projetos de tokens falsos, manipulação pump-and-dump, transações suspeitas de carteiras, imitação por deepfake e padrões de branqueamento de capitais. Algoritmos de machine learning identificam volumes de negociação anómalos, agrupamentos de endereços e ataques de engenharia social em tempo real.
Os sistemas de IA detetam fraude através do reconhecimento de padrões, analisando comportamentos de transação, históricos de carteiras e ligações de rede. Modelos de machine learning identificam anomalias, phishing e táticas de branqueamento em tempo real, sinalizando atividades suspeitas antes de serem executadas e protegendo utilizadores legítimos com monitorização contínua da blockchain.
A deteção de anomalias, análise comportamental e modelos de deep learning são especialmente eficazes. Estas técnicas analisam padrões de transação, movimentos de carteiras e metadados de comunicação em tempo real, adaptando-se automaticamente a novos métodos de fraude através de re-treinamento contínuo dos modelos.
Sim, a IA identifica vídeos deepfake através de reconhecimento facial avançado, análise de voz e deteção de padrões comportamentais. Os sistemas modernos detetam incoerências na iluminação, movimentos faciais e sincronização áudio, reduzindo significativamente o risco de burlas com deepfake.
A IA analisa padrões de transação, comportamento dos utilizadores e anomalias na rede para detetar bolsas fraudulentas e endereços suspeitos. Algoritmos de machine learning identificam sinais de alerta como volumes de negociação invulgares, assinaturas de branqueamento de capitais e táticas de fraude em tempo real, protegendo os utilizadores contra esquemas de criptoativos.
Os sistemas atuais de deteção de fraude potenciados por IA em criptoativos atingem taxas de precisão de 85 a 95%, identificando eficazmente padrões suspeitos, anomalias e assinaturas de fraude conhecidas em tempo real. Os modelos de machine learning melhoram continuamente, detetando phishing, esquemas Ponzi e manipulação de mercado com crescente precisão e rapidez.
A IA enfrenta desafios como a rápida evolução das táticas fraudulentas, falsos positivos, acesso limitado a dados off-chain e necessidade de atualização constante dos modelos. Os criminosos adaptam-se mais depressa do que a IA aprende, pelo que é essencial a colaboração e o conhecimento humano contínuo para garantir proteção eficaz.
Os burlões recorrem à ofuscação de código, malware polimórfico com assinaturas em constante mutação, phishing sofisticado que imita plataformas legítimas, exploração de vulnerabilidades zero-day e engenharia social para contornar o reconhecimento de padrões e os modelos de machine learning.











