A OpenAI, a Anthropic e o Google iniciam um mecanismo conjunto para detectar comportamento de destilação de IA

AI蒸餾行為

De acordo com a Bloomberg em 16 de abril, a OpenAI, a Anthropic PBC e o Google iniciaram uma colaboração por meio do setor de organização sem fins lucrativos Frontier Model Forum, compartilhando informações para detectar e impedir comportamentos de extração (steaming) de modelos de IA adversariais que violam os termos de serviço. A OpenAI confirmou à Bloomberg que participa do trabalho de compartilhamento de informações sobre extração adversarial.

Marco de colaboração: mecanismo de compartilhamento de informações do Frontier Model Forum

O Frontier Model Forum foi cofundado em 2023 pela OpenAI, Anthropic, Google e Microsoft. De acordo com a Bloomberg, as três empresas atualmente trocam informações por meio dessa organização, com o objetivo de identificar solicitações massivas de dados adversariais, rastrear tentativas de extração que violam os termos de serviço e coordenar para impedir as ações relacionadas. O Google já publicou um post indicando que identificou um aumento nas tentativas de extração de modelos.

De acordo com a Bloomberg, esse modelo de compartilhamento de informações está alinhado com as práticas existentes na indústria de segurança na rede, que há muito tempo reforça a defesa por meio da troca entre empresas de dados de ataques e estratégias dos adversários.

Memorando do Congresso da OpenAI e registros de acusações relacionadas

De acordo com um memorando (fevereiro de 2026) apresentado pela OpenAI ao Comitê Especial da Câmara dos EUA sobre a China (House Select Committee on China), a OpenAI acusa a empresa chinesa de IA DeepSeek de tentar “pegar carona” (“carona”) na tecnologia desenvolvida pela OpenAI e outros laboratórios americanos de ponta, e afirma que ela continua usando técnicas de extração de dados para extrair resultados de modelos americanos para desenvolver uma nova versão de um robô de chat, além de adotar métodos cada vez mais sofisticados.

A Anthropic divulgou um comunicado em fevereiro de 2026, identificando três laboratórios chineses de IA — DeepSeek, Moonshot e MiniMax — e os acusando de extrair ilegalmente funcionalidades do modelo Claude por meio de extração adversarial. A Anthropic já havia proibido empresas chinesas de usar o Claude em 2025. A Bloomberg também já havia reportado que, depois de o DeepSeek lançar o modelo de raciocínio R1 em janeiro de 2025, a Microsoft e a OpenAI abriram investigações sobre se houve extração ilegal de dados de modelos americanos.

Posição do governo Trump e limitações de conformidade antitruste

De acordo com documentos públicos de política, autoridades do governo Trump indicaram estar dispostas a promover o compartilhamento de informações entre empresas de IA para lidar com ameaças de extração adversarial. O “Plano de Ação para a Inteligência Artificial” divulgado pelo presidente Trump faz um apelo explícito à criação de compartilhamento de informações e centros de análise, e parte desse objetivo é justamente enfrentar as condutas acima.

De acordo com a Bloomberg, a abrangência do compartilhamento de informações sobre extração técnica entre as três empresas ainda é limitada, porque elas não têm certeza de quais informações podem ser compartilhadas em conformidade com as orientações antitruste vigentes; as três empresas disseram que pretendem expandir o escopo da colaboração após o governo dos EUA definir claramente as estruturas de orientação relevantes.

Perguntas frequentes

A OpenAI, a Anthropic e o Google colaboram por meio de qual organização?

De acordo com a Bloomberg, as três empresas realizam o compartilhamento de informações por meio do Frontier Model Forum. Essa organização foi cofundada em 2023 pela OpenAI, Anthropic, Google e Microsoft, e é uma organização sem fins lucrativos do setor.

O que a OpenAI apresentou ao Congresso dos EUA sobre o problema de IA extraída (steaming)?

De acordo com informações públicas da OpenAI, a OpenAI enviou um memorando (fevereiro de 2026) ao Comitê Especial da Câmara dos EUA sobre a China, acusando o DeepSeek de usar técnicas de extração de dados para extrair continuamente resultados de modelos americanos e, com base nisso, desenvolver uma nova versão de robôs de chat.

Quais ações já publicadas a Anthropic tomou sobre o problema de extração de laboratórios de IA na China?

De acordo com um comunicado público da Anthropic, a Anthropic proibiu empresas chinesas de usar o modelo Claude em 2025 e, em fevereiro de 2026, identificou três laboratórios chineses de IA — DeepSeek, Moonshot e MiniMax —, acusando-os de extrair ilegalmente funcionalidades do modelo Claude por meio de extração adversarial.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Abertura da 2026 SusHi Tech Tokyo; pavilhão de Taiwan lidera com 27 novas startups aprofundando a cooperação entre Taiwan e Japão

O Conselho de Desenvolvimento Nacional lidera 27 startups para participar da SusHi Tech Tokyo 2026, construindo o Pavilhão de Taiwan como o maior estande nacional, demonstrando a força da IA e das tecnologias sustentáveis, e impulsionando a Aliança Estratégica de Startups da Ásia por meio da marca Startup Island TAIWAN. Durante o período do evento, serão assinados memorandos com o lado japonês para aprofundar a cooperação na cadeia de suprimentos; além disso, será realizado o Asia MirAI Day, promovendo a rede de startups da Ásia-Pacífico. A previsão é atrair mais de 60 mil participantes, 700 startups e mais de 10 mil reuniões comerciais.

ChainNewsAbmedia52m atrás

A OpenAI Perdeu Metas de Crescimento; Ações de Tecnologia Caem

Seis grandes ações de tecnologia caíram acentuadamente após relatos de que a OpenAI não atingiu suas próprias metas de crescimento e vendas, sinalizando que os traders estão reavaliando a capacidade da empresa de financiar compromissos massivos com infraestrutura de computação. As quedas de terça-feira afetaram a Coreweave (CRWV), a SoftBank Group (9984.T),

CryptoFrontier1h atrás

Mercados Asiáticos Prontos para um Início Discreto com a Intensificação da Liquidação de Tech dos EUA em Meio a Preocupações com a OpenAI

Mensagem do Gate News, 28 de abril — As ações asiáticas devem abrir com cautela após uma liquidação liderada por tecnologia nos mercados dos EUA, desencadeada por relatos de que a OpenAI não conseguiu cumprir suas próprias metas para aquisição de novos usuários e vendas. O S&P 500 caiu em relação aos níveis recordes na notícia, levantando preocupações sobre se

GateNews3h atrás

Anthropic atinge avaliação de $1 trilhões, ultrapassando a OpenAI em mercados secundários

Mensagem da Gate News, 28 de abril — A Anthropic ultrapassou a OpenAI na avaliação do mercado privado, com seu valor implícito passando de $1 trilhões em negociações secundárias recentes. A avaliação da OpenAI se estabilizou em cerca de $880 bilhões em mercados semelhantes. A mudança marca uma alteração dramática de momento no setor de IA,

GateNews4h atrás

A NVIDIA lança o Nemotron 3 Nano Omni aberto e multimodal

A NVIDIA anuncia o lançamento como open source do modelo multimodal Nemotron 3 Nano Omni, integrando visão, voz e linguagem em um único modelo, como a camada de percepção para agentes de IA. O núcleo é o 30B-A3B MoE, com contexto de 256K e taxa de transferência de 9x; suporta entradas como texto, imagem, áudio, vídeo etc., com saída em texto. Em conjunto com o Nemotron 3 Super/Ultra, é aplicável a cenários como operação de computadores, inteligência em documentos e compreensão de áudio e vídeo; além disso, publica pesos e dados de treinamento, com implantação abrangendo o local, NIM e plataformas de terceiros.

ChainNewsAbmedia5h atrás

O Claude Code adiciona notificações push no celular: lembretes automáticos quando tarefas longas forem concluídas ou quando precisarem de aprovação

O Claude Code agora pode enviar notificações por push no celular, para lembrar quando uma tarefa de longa duração for concluída ou quando for necessário a intervenção do usuário. As condições de ativação são quando o Remote Control é iniciado e quando a configuração “Push when Claude decides” está habilitada. A ferramenta de push de baixo nível foi adicionada a partir do v2.1.110 em 15 de abril, e este comunicado é voltado para marketing externo.

ChainNewsAbmedia6h atrás
Comentário
0/400
Sem comentários