Anthropic, OpenAI reduzem a linguagem de segurança à medida que a corrida pela IA acelera

Decrypt
XAI3,65%

Resumo

  • TIME relata que a Anthropic abandonou uma promessa de interromper o treino sem garantias de salvaguardas.
  • A OpenAI também removeu a palavra “seguramente” de sua missão após reestruturação para uma entidade com fins lucrativos.
  • Especialistas afirmam que a mudança reflete alterações políticas, económicas e intelectuais.

A Anthropic eliminou uma promessa central de segurança de sua Política de Escalonamento Responsável, segundo um relatório da TIME. As mudanças afrouxam um compromisso que antes proibia o desenvolvedor de IA Claude de treinar sistemas avançados sem garantias de salvaguardas em vigor. A decisão redefine a forma como a empresa se posiciona na corrida pela IA contra rivais como OpenAI, Google e xAI. A Anthropic há muito se apresenta como um dos laboratórios mais focados em segurança do setor, mas, sob a política revista, a Anthropic não promete mais interromper o treino se as mitigação de riscos não estiverem totalmente implementadas. “Sentimos que não ajudaria ninguém se parássemos de treinar modelos de IA,” disse Jared Kaplan, diretor de ciência da Anthropic, à TIME. “Com o avanço rápido da IA, não fazia sentido para nós fazer compromissos unilaterais… se os concorrentes estão avançando rapidamente.” 

A mudança ocorre enquanto a Anthropic se encontra envolvida numa disputa pública com o Secretário de Defesa dos EUA, Pete Hegseth, por recusar-se a conceder ao Pentágono acesso total ao Claude, tornando-se o único grande laboratório de IA, entre Google, xAI, Meta e OpenAI, a adotar essa postura. Edward Geist, pesquisador sênior de políticas na RAND Corporation, afirmou que a antiga abordagem de “segurança de IA” surgiu de uma comunidade intelectual específica que precedeu os grandes modelos de linguagem atuais. “Há alguns anos, existia o campo da segurança de IA,” disse Geist à Decrypt. “A segurança de IA estava associada a um conjunto de opiniões que vinham da comunidade de pessoas preocupadas com IA poderosa antes de termos esses LLMs.” Geist afirmou que os primeiros defensores da segurança de IA trabalhavam com uma visão muito diferente de como seria a inteligência artificial avançada.

“Eles acabaram conceptualizando o problema de uma forma que, em certos aspectos, imaginava algo qualitativamente diferente desses atuais LLMs, para melhor ou pior,” disse Geist. Geist também afirmou que a mudança na linguagem envia um sinal aos investidores e formuladores de políticas. “Parte disso é um sinal para várias constituências de que muitas dessas empresas querem dar a impressão de que não estão retendo esforços na competição econômica por causa de preocupações com a ‘segurança de IA’,” afirmou, acrescentando que a terminologia em si está mudando para se adaptar aos tempos. A Anthropic não é a única a revisar sua linguagem de segurança. O que define a segurança de IA? Um relatório recente da organização de notícias sem fins lucrativos, The Conversation, destacou como a OpenAI também alterou sua declaração de missão no seu arquivo de IRS de 2024, removendo a palavra “seguramente.” A declaração anterior da empresa prometia construir uma IA de uso geral que “beneficie a humanidade de forma segura, sem a necessidade de gerar retorno financeiro.” A versão atual afirma que seu objetivo é “garantir que a inteligência artificial geral beneficie toda a humanidade.” “O problema com o termo segurança de IA é que ninguém parece saber exatamente o que isso significa,” disse Geist. “Por outro lado, o termo segurança de IA também era contestado.” A nova política da Anthropic enfatiza medidas de transparência, como a publicação de “roteiros de segurança de fronteira” e relatórios de risco regulares, e afirma que atrasará o desenvolvimento se acreditar que há um risco significativo de catástrofe.

As mudanças nas políticas da Anthropic e da OpenAI ocorrem enquanto as empresas buscam fortalecer sua posição comercial. No início deste mês, a Anthropic anunciou que levantou 30 bilhões de dólares numa avaliação de cerca de 380 bilhões de dólares. Ao mesmo tempo, a OpenAI está finalizando uma rodada de financiamento apoiada pela Amazon, Microsoft e Nvidia, que pode atingir 100 bilhões de dólares. A Anthropic e a OpenAI, juntamente com Google e xAI, receberam contratos governamentais lucrativos do Departamento de Defesa dos EUA. Para a Anthropic, no entanto, o contrato parece estar em dúvida, à medida que o Pentágono avalia se deve cortar laços com a empresa de IA devido a reclamações de acesso. À medida que o capital entra no setor e a competição geopolítica se intensifica, Hamza Chaudhry, líder de IA e Segurança Nacional no Future of Life Institute, afirmou que a mudança de política reflete dinâmicas políticas em mudança, e não uma tentativa de conquistar negócios do Pentágono. “Se fosse esse o caso, eles teriam simplesmente recuado do que o Pentágono disse há uma semana,” disse Chaudhry à Decrypt. “Dario [Amodei] não teria comparecido à reunião.” Em vez disso, Chaudhry afirmou que a reformulação reflete um ponto de virada na forma como as empresas de IA falam sobre risco, à medida que a pressão política e os interesses competitivos aumentam. “A Anthropic agora diz: ‘Olha, não podemos mais falar de segurança, não podemos pausar incondicionalmente, e vamos defender uma regulamentação muito mais leve,’” concluiu.

Ver original
Isenção de responsabilidade: As informações contidas nesta página podem ser provenientes de terceiros e não representam os pontos de vista ou opiniões da Gate. O conteúdo apresentado nesta página é apenas para referência e não constitui qualquer aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou o carácter exaustivo das informações e não poderá ser responsabilizada por quaisquer perdas resultantes da utilização destas informações. Os investimentos em ativos virtuais implicam riscos elevados e estão sujeitos a uma volatilidade de preços significativa. Pode perder todo o seu capital investido. Compreenda plenamente os riscos relevantes e tome decisões prudentes com base na sua própria situação financeira e tolerância ao risco. Para mais informações, consulte a Isenção de responsabilidade.
Comentar
0/400
Nenhum comentário
Negocie cripto em qualquer lugar e a qualquer hora
qrCode
Digitalizar para transferir a aplicação Gate
Novidades
Português (Portugal)
  • 简体中文
  • English
  • Tiếng Việt
  • 繁體中文
  • Español
  • Русский
  • Français (Afrique)
  • Português (Portugal)
  • Bahasa Indonesia
  • 日本語
  • بالعربية
  • Українська
  • Português (Brasil)