Futuros
Aceda a centenas de contratos perpétuos
TradFi
Ouro
Plataforma de ativos tradicionais globais
Opções
Hot
Negoceie Opções Vanilla ao estilo europeu
Conta Unificada
Maximize a eficiência do seu capital
Negociação de demonstração
Introdução à negociação de futuros
Prepare-se para a sua negociação de futuros
Eventos de futuros
Participe em eventos para recompensas
Negociação de demonstração
Utilize fundos virtuais para experimentar uma negociação sem riscos
Lançamento
CandyDrop
Recolher doces para ganhar airdrops
Launchpool
Faça staking rapidamente, ganhe potenciais novos tokens
HODLer Airdrop
Detenha GT e obtenha airdrops maciços de graça
Pre-IPOs
Desbloquear acesso completo a IPO de ações globais
Pontos Alpha
Negoceie ativos on-chain para airdrops
Pontos de futuros
Ganhe pontos de futuros e receba recompensas de airdrop
Investimento
Simple Earn
Ganhe juros com tokens inativos
Investimento automático
Invista automaticamente de forma regular.
Investimento Duplo
Aproveite a volatilidade do mercado
Soft Staking
Ganhe recompensas com staking flexível
Empréstimo de criptomoedas
0 Fees
Dê em garantia uma criptomoeda para pedir outra emprestada
Centro de empréstimos
Centro de empréstimos integrado
Casa Branca Acusa a China de 'Roubo em Escala Industrial' de Modelos de IA Americanos
Resumidamente
A Casa Branca alertou na quinta-feira que “entidades estrangeiras” alegadamente estão a realizar campanhas de “escala industrial” para copiar as capacidades de modelos de inteligência artificial americanos, usando táticas incluindo jailbreaks e redes de contas falsas para extrair informações proprietárias e replicar o seu desempenho. Num memorando intitulado “Destilação Adversária de Modelos de IA Americanos”, o Assessor do Presidente para Ciência e Tecnologia e Diretor do Gabinete de Ciência e Tecnologia Michael Kratsios afirmou que o governo dos EUA possui informações indicando esforços coordenados para destilar sistemas de IA de fronteira dos EUA. “Os EUA têm evidências de que entidades estrangeiras, principalmente na China, estão a conduzir campanhas de destilação em escala industrial para roubar IA americana,” escreveu Kratsios na X. “Tomaremos medidas para proteger a inovação americana.”
De acordo com a administração do Presidente Donald Trump, as campanhas usam “dez milhares de contas proxy” para evitar detecção e explorar técnicas de jailbreak para extrair capacidades de forma sistemática, num que é conhecido como ataque de destilação.
Um ataque de destilação é um método de treinar um modelo de IA menor para aprender com as saídas de um maior. A questão tem-se tornado uma preocupação crescente entre as empresas de IA dos EUA. Em fevereiro, a Anthropic acusou laboratórios chineses de IA, DeepSeek, Moonshot e MiniMax, de extrair milhões de respostas do Claude — usando aproximadamente 24.000 contas fraudulentas — para treinar sistemas concorrentes. Modelos desenvolvidos através de campanhas de destilação não autorizadas podem não corresponder ao desempenho completo dos originais. Ainda assim, podem parecer comparáveis em certos benchmarks a uma fração do custo.
A administração alertou que ataques de destilação também podem remover salvaguardas de segurança e outros controles destinados a manter os sistemas de IA “ ideologicamente neutros e à procura da verdade.” A administração Trump afirmou que as agências federais irão colaborar com empresas de IA dos EUA para fortalecer as proteções em torno de modelos de fronteira, coordenar com a indústria privada para desenvolver defesas contra campanhas de destilação em grande escala, e explorar formas de responsabilizar os atores estrangeiros. Embora o memorando reconheça que a destilação legal pode ajudar a criar modelos menores, mais eficientes, de código aberto e de peso aberto, afirmou que esforços não autorizados de copiar sistemas de IA americanos ultrapassam os limites. “Não há nada de inovador em extrair e copiar sistematicamente as inovações da indústria americana,” disse o memorando. O Gabinete de Ciência e Tecnologia não respondeu imediatamente a um pedido de comentário do Decrypt.