TIMEの報告によると、Anthropicは責任あるスケーリング方針から中心的な安全誓約を撤回した。これにより、かつてClaude AIの開発者が保証された安全策なしに高度なAIシステムの訓練を行わないと約束していた部分が緩和された。
この動きは、OpenAI、Google、xAIなどのライバルと競うAIレースにおいて、同社の立ち位置を再形成するものだ。Anthropicは長らく、安全性に最も重きを置く研究所の一つとされてきたが、改訂された方針の下では、安全対策が完全に整っていなくても訓練を停止しないと約束しなくなった。
「私たちは、AIモデルの訓練を停止することが誰の役にも立たないと感じました」と、Anthropicの最高科学責任者ジャレッド・カプランはTIMEに語った。「AIの急速な進歩を考えると、一方的に約束をするのは意味がないと感じました…競合他社が先を行っている中で」
この変更は、Anthropicが米国防長官ピート・ヘグセットとの間で、ペンタゴンにClaudeへの完全アクセスを拒否したことで公の論争に巻き込まれている最中に起きたものであり、Google、xAI、Meta、OpenAIの中で唯一その立場を取るAI研究所となった。
RANDコーポレーションの上級政策研究員エドワード・ガイストは、以前の「AI安全性」の枠組みは、今日の大規模言語モデル(LLM)以前の特定の知的コミュニティから生まれたものであると述べた。
「数年前までは、AI安全性の分野がありました」とガイストはDecryptに語った。「AI安全性は、これらのLLMが登場する前に強力なAIに関心を持つコミュニティから出てきた特定の見解と関連付けられていました」
ガイストは、初期のAI安全性の提唱者たちは、進化した人工知能の姿について全く異なるビジョンを持っていたと述べた。
「彼らは問題を、現行のLLMとは質的に異なるものを想定して概念化していた部分もあります」とガイストは言った。 また、言語の変化は投資家や政策立案者へのシグナルでもあると指摘した。 「これは、さまざまな関係者に対して、多くの企業が『AI安全性』を理由に経済競争の妨げになっていないという印象を与えたいという意図の一部です」と彼は述べ、用語自体も時代に合わせて変化していると付け加えた。 Anthropicだけでなく、安全性に関する表現を見直す動きは他にもある。 AI安全性の定義とは何か? 非営利ニュース組織のThe Conversationによる最近の報告では、OpenAIも2024年のIRS申告書でミッションステートメントを変更し、「安全に」の語を削除したことが指摘されている。 同社の以前の声明は、「人類に安全に利益をもたらす汎用AIを構築する」と約束していたが、更新されたバージョンでは、「人工汎用知能がすべての人類に利益をもたらすことを確実にする」と述べている。 「AIセキュリティという用語の問題は、それが何を意味するのか誰も正確にはわかっていないことです」とガイストは言った。「とはいえ、AI安全性の用語もまた議論の余地がありました」 Anthropicの新しい方針は、「最先端の安全性ロードマップ」や定期的な「リスク報告書」の公開といった透明性措置を強調し、大きなリスクがあると判断した場合には開発を遅らせると述べている。
AnthropicとOpenAIの方針の変化は、両社が商業的地位を強化しようとする動きの一環だ。 今月初め、Anthropicは約3800億ドルの評価額で300億ドルを調達したと発表した。一方、OpenAIはAmazon、Microsoft、Nvidiaの支援を受けた資金調達ラウンドを最終調整しており、その額は1000億ドルに達する可能性がある。 AnthropicとOpenAIは、GoogleやxAIとともに、米国防総省から多額の政府契約を獲得している。しかし、Anthropicにとっては、 Pentagonがアクセス問題を理由に契約を打ち切るかどうかを検討しているため、その契約は不透明になっている。 資金が sectorに流入し、地政学的競争が激化する中、Future of Life InstituteのAIと国家安全保障責任者ハムザ・チャウドリーは、方針の変更は政治的な動きの変化を反映していると述べた。 「もしそれが目的だったら、彼らは一週間前にペンタゴンが言ったことからただ撤退していただろう」とチャウドリーはDecryptに語った。「ダリオ(アモデイ)は会いに来なかったはずです」 代わりに、チャウドリーは、リスクについてのAI企業の議論が、政治的圧力と競争の高まりとともに変わる転換点を示していると述べた。 「Anthropicは今、『安全性』を言い続けることはできない、無条件に停止することもできない、そしてより軽い規制を求めていく」と彼は言った。