Powell e Bessent alertam os bancos para riscos de segurança decorrentes da IA Mythos da Anthropic: Bloomberg

Em resumo

  • Autoridades dos EUA alertaram os principais bancos sobre riscos de cibersegurança associados ao modelo de IA Mythos da Anthropic, segundo o Bloomberg.
  • O sistema poderá identificar e explorar vulnerabilidades em sistemas operativos e navegadores.
  • A Anthropic tem acesso limitado ao modelo enquanto avalia potenciais riscos de segurança.

O ministro das Finanças dos EUA, Scott Bessent, e a presidente do Banco da Reserva Federal, Jerome Powell, reuniram-se, segundo informações divulgadas, esta semana com CEOs de bancos de Wall Street para alertar para riscos de cibersegurança associados a um novo modelo de inteligência artificial da Anthropic. De acordo com um relatório do Bloomberg, a reunião incluiu executivos da Citigroup, Bank of America, Wells Fargo, Morgan Stanley e Goldman Sachs. Os responsáveis discutiram o novo modelo de IA da Anthropic, Mythos, que recentemente tem gerado preocupação generalizada pelas suas alegadas capacidades avançadas de cibersegurança. Os responsáveis convocaram a reunião para garantir que os bancos compreendem os riscos apresentados por sistemas capazes de identificar e explorar vulnerabilidades de software em sistemas operativos e navegadores web, e para incentivar as instituições a reforçarem as defesas contra potenciais ciberataques assistidos por IA que visem infraestruturas financeiras.

Investigadores de segurança alertaram que ferramentas capazes de descobrir vulnerabilidades de forma automática podem acelerar tanto o trabalho de cibersegurança defensiva como a pirataria maliciosa, caso sejam usadas indevidamente.  O modelo Mythos da Anthropic surgiu pela primeira vez online em março, após materiais preliminares sobre o sistema terem vazado, revelando o que a empresa descreveu como o seu modelo de IA mais capaz até então. Em testes, o sistema terá encontrado milhares de vulnerabilidades de software previamente desconhecidas, incluindo falhas zero-day em sistemas operativos e navegadores web de grande relevância. Os investigadores da Anthropic afirmaram num relatório publicado no início desta semana que as capacidades de descoberta de vulnerabilidades do Mythos Preview não foram treinadas intencionalmente, mas antes emergiram de melhorias mais amplas no código, raciocínio e autonomia do modelo.

“As mesmas melhorias que tornam o modelo substancialmente mais eficaz na correção de vulnerabilidades também o tornam substancialmente mais eficaz na exploração das mesmas”, escreveu a empresa. Devido a essas capacidades, a Anthropic restringiu o acesso a um pequeno grupo de organizações de cibersegurança. “Dada a força das suas capacidades, estamos a ser deliberados quanto à forma como o disponibilizamos”, disse a Anthropic num comunicado. “Tal como é prática padrão na indústria, trabalhamos com um pequeno grupo de clientes com acesso antecipado para testar o modelo. Consideramos este modelo uma mudança de patamar e o mais capaz que construímos até à data.” Para fazer face a esse risco, a Anthropic está a testar o Mythos através do Project Glasswing, uma colaboração com grandes empresas de tecnologia e cibersegurança que utiliza o modelo para identificar e corrigir vulnerabilidades em software crítico antes que os atacantes as possam explorar. “O Project Glasswing é um ponto de partida. Nenhuma organização consegue resolver estes problemas de cibersegurança sozinha”, afirmou a empresa num comunicado. “Os developers de IA da Frontier, outras empresas de software, investigadores de segurança, mantenedores de open source e governos por todo o mundo têm todos papéis essenciais a desempenhar.” A Anthropic não respondeu imediatamente ao pedido de comentário da Decrypt.

Aviso: As informações nesta página podem ser provenientes de terceiros e não representam as opiniões ou pontos de vista da Gate. O conteúdo exibido nesta página é apenas para referência e não constitui aconselhamento financeiro, de investimento ou jurídico. A Gate não garante a exatidão ou integridade das informações e não será responsável por quaisquer perdas decorrentes do uso dessas informações. Os investimentos em ativos virtuais apresentam altos riscos e estão sujeitos a uma volatilidade de preços significativa. Você pode perder todo o capital investido. Por favor, compreenda completamente os riscos envolvidos e tome decisões prudentes com base em sua própria situação financeira e tolerância ao risco. Para mais detalhes, consulte o Aviso Legal.

Related Articles

Membro do Conselho do Fed Bowman: os reguladores precisam considerar como lidar com novas tecnologias como o Anthropic Mythos

PANews, 2 de maio, informou que a membro do Conselho de Governadores do Federal Reserve, Bowman, declarou que os reguladores precisam considerar como supervisionar da melhor forma novas tecnologias como o Mythos, da Anthropic. “Por um lado, essa capacidade permite que as empresas lidem com vulnerabilidades que elas próprias identificam, reforçando a segurança cibernética”, disse Bowman. “Mas, por outro lado, se for usada de forma mal-intencionada, ela pode ser utilizada para identificar e explorar fraquezas”. A Anthropic, ao avaliar medidas de proteção contra essa poderosa nova tecnologia, já limitou o lançamento de seu mais recente modelo de inteligência artificial. O modelo também levou autoridades do governo Trump a começarem a considerar a possibilidade de ataques cibernéticos que representem uma ameaça à estabilidade financeira.

GateNews5m atrás

Tribunal de Hangzhou impede demissões apenas com IA e apoia trabalhador após corte de 40% no salário em 28 de abril

De acordo com a Bloomberg, em 28 de abril, o Tribunal Intermediário Popular de Hangzhou decidiu que os empregadores não podem demitir trabalhadores nem reduzir salários apenas porque a IA automatizou suas funções. O tribunal confirmou a indenização de um trabalhador cujo salário foi reduzido em 40% e que foi demitido após recusar uma nova designação quando a IA

GateNews15m atrás

Tribunal chinês divulga novo precedente: automação com IA sem demitir funcionários por motivos legais

O tribunal de Hangzhou divulgou a mais recente decisão judicial, afirmando que é ilegal demitir, rebaixar de cargo ou reduzir significativamente o salário de funcionários sob o pretexto de introduzir tecnologias como IA. No caso em questão, o trabalhador foi rebaixado devido à automação e enfrentou uma redução salarial de até 40%; ao final, a corte decidiu a favor de sua indenização, destacando que, ao impulsionar a automação, é necessário garantir conformidade e oferecer reorientação de funções e requalificação.

ChainNewsAbmedia31m atrás

Hoskinson discute o papel do Midnight no ecossistema da Cardano no The Breakdown

Charles Hoskinson, fundador da Cardano e cofundador da Ethereum, apareceu como convidado no episódio 701 do podcast "The Breakdown", apresentado por David Gokhshtein, para discutir o projeto Midnight, os desafios de experiência do usuário no cripto e sua visão para o futuro da blockchain. Durante a entrevista, Hoskinson

CryptoFrontier7h atrás

A Berkshire Energy vê oportunidade de crescimento na demanda por energia impulsionada por IA

De acordo com Beating, na assembleia de acionistas da Berkshire, o CEO Abel destacou que a demanda de eletricidade impulsionada por IA está criando novas oportunidades de crescimento para o negócio de energia da empresa, com metade das suas concessionárias de energia já atendendo requisitos de energia relacionados a IA. Em Iowa, data centers agora contabilizam

GateNews10h atrás

Depoimentos na 1ª semana do processo de Musk vs. Altman: ele admite que a XAI está “destilando” a OpenAI, e alerta que a IA é como um Exterminador

馬斯克, na primeira semana de depoimento em um tribunal federal de Oakland, acusou Altman e Brockman de fraudar recursos iniciais de uma organização sem fins lucrativos, alertou sobre riscos catastróficos de fim do mundo com a IA e admitiu que parte do xAI foi “destilada” de modelos da OpenAI; ele declarou ter investido US$ 38 milhões e ter visto a OpenAI se transformar de uma entidade sem fins lucrativos em uma empresa avaliada em US$ 800 bilhões. O investimento da Microsoft em 2022 é visto como um ponto de virada na quebra de confiança. A OpenAI argumenta que Musk tentou aliciar pessoas e contesta com a alegação de motivações competitivas. Na segunda semana, novos depoentes incluem Russell e Brockman.

ChainNewsAbmedia12h atrás
Comentário
0/400
Sem comentários