タイム誌の表紙特集インタビュー Anthropic:世界で最も革新的な企業、評価額3800億ドルでゴールドマン・サックスを超える

動區BlockTempo

TIME誌の深掘り報道によると、AnthropicはClaudeを完全自律武器システムや大規模監控美国市民への利用を拒否したため、トランプ政権から国家安全保障のサプライチェーンリスクに指定された。同じ日に、OpenAIは軍事契約を迅速に引き継ぎ、「下剋上」の競争が世界を揺るがす最も破壊的なAI企業の原則の境界線を試している。本記事は、Leslie DicksteinとSimmone ShahによるTIMEの記事「The Most Disruptive Company in the World」を、動区が翻訳・編集したものである。

(前提:AI顔認証で冤罪!米国の老婆が1200マイル離れた監獄に半年間収監、警察は一言も謝罪せず) (補足:Dropbox元CTOの話題作『一生かけてやった仕事が今や価値なし、手軽に手に入る』)

目次

Toggle

  • 安全と速度の永遠のジレンマ
  • マイナーから巨頭へ:Anthropicの台頭の軌跡
  • 二つの赤線:自主武器と大規模監視
  • 文化衝突と政治対立
  • Anthropicの起源:安全優先の異端
  • Claude Code:エンジニアの定義を再創造
  • 自己改良の循環:AI加速の恐怖と魅了
  • RSP政策緩和:自己制限のブレーキは壊れたのか?
  • ベネズエラ作戦:AIが初めて深く実戦介入
  • 交渉破綻、OpenAIが契約引き継ぐ
  • 嵐の後に:Anthropicは乗り越えられるか?

米国カリフォルニア州サンタクララのホテルの一室で、AI企業Anthropicの5人のメンバーが緊張した面持ちでノートパソコンを囲んでいる。2025年2月のことだ。彼らは近くのセミナーに出席していたが、突然不安を掻き立てる知らせが届いた。制御実験の結果、間もなく公開されるClaudeの新バージョンが、テロリストによる生物兵器合成に協力する可能性が示唆されたのだ。

彼らはAnthropicの「フロンティアレッドチーム」に所属し、Claudeの最先端能力を評価し、極端なシナリオ下での潜在リスクを推測している。ネット攻撃から生物安全保障まで、多岐にわたる危険を分析していた。警報を受けて、彼らは急ぎ部屋に戻り、ベッドの板をひっくり返して臨時の作業台にし、テスト結果を一つ一つ確認し始めた。

数時間の緊迫した分析の末も、新製品の安全性は断定できなかった。最終的に、AnthropicはClaude 3.7 Sonnetのリリースを10日間延期し、リスクが許容範囲内かどうかを確認した。

たったの10日間に思えるかもしれないが、技術の最前線にいる企業にとって、それはほぼ一世代に匹敵する長さだった。

安全と速度の永遠のジレンマ

「フロンティアレッドチーム」責任者のLogan Grahamは、あの「生物兵器騒動」を振り返り、それをAnthropicが重要な局面で受けた圧力の縮図とみなしている。安全性に最も重きを置くAI研究所の一つである一方、彼らはより強力なAIシステムの開発競争の最前線にいる。多くの社員は、技術が制御を失えば、核戦争や人類絶滅といった恐ろしい結果を招くと危惧している。

31歳のGrahamは若々しい外見ながら、巨大な利益とリスクのバランスを取る責任を避けない。彼は言う。「多くの人は平和な世界で育ち、会議室に座るベテランたちが正しい軌道に戻す方法を知っていると思い込む。でも現実は違う。『大人のグループ』なんて存在しない。扉も、責任も、自分にしかない。」

彼は生物兵器の警報についてこうも語る。「あれは面白くて刺激的な一日だった。」

数週間後、GrahamはAnthropic本部でのインタビューでこれらの問題について語った。3日間の取材を通じて、同社の幹部、エンジニア、プロダクト責任者、安全チームのメンバーに会い、なぜかつてAI競争の「異端児」とみなされていた企業が、なぜ今やリーダー的存在になったのかを探った。

マイナーから巨頭へ:Anthropicの台頭の軌跡

その頃、Anthropicは投資家から300億ドルの資金を調達し、今年のIPO準備を進めていた。(ちなみに、SalesforceもAnthropicに投資しており、TIMEの親会社Marc BenioffはSalesforceのCEOでもある。)現在、同社の評価額は3800億ドルに達し、Goldman SachsやMcDonald’s、Coca-Colaといった伝統的巨頭を超えている。

収益も急増しており、そのAIシステムClaudeは世界的に認められるモデルとなった。Claude CodeやClaude Coworkなどの製品は、「エンジニア」という職業の境界を再定義しつつある。

Anthropicのツールは非常に強力で、新バージョンのリリースごとに資本市場に衝撃を与えている。投資家は、これらの技術革新が法律やソフトウェア開発など、産業全体を覆す可能性を認識し始めている。過去数か月、Anthropicは「未来の働き方」を変える最有力候補の一つと見なされている。

その後、Anthropicは「未来の戦争形態」に関する激しい議論に巻き込まれる。

1年以上にわたり、Claudeは米国政府にとって最も頼りにされるAIモデルであり、最初に機密環境での展開を許可された最先端AIだった。2026年1月には、カラカスでのベネズエラ大統領Nicolás Maduroの逮捕作戦にAIが深く関与したと報じられている。任務の計画や情報分析にAIが使われ、実戦に深く介入した最初の例とされる。

しかし、その数週間後、Anthropicと米国国防総省の関係は急速に悪化した。2月27日、トランプ政権はAnthropicを「国家安全保障サプライチェーンリスク」に指定した。これは米国内企業に対して初めての措置だった。

状況は公開の対立に発展。トランプは米政府に対し、Anthropicのソフトウェアの使用停止を命じた。国防長官のPete Hegsethは、「政府と関わる企業はAnthropicと取引してはならない」と発表した。一方、Anthropicの最大競合のOpenAIは、軍事契約を素早く引き継いだ。

こうして、「世界最破壊的」とされるAI企業は、突然自らの政府により覆される事態に直面した。

二つの赤線:自主武器と大規模監視

この対立の核心は、「この技術の境界線を誰が設定できるのか」という点だ。

Anthropicは、軍事利用に反対しているわけではない。米軍の強化は脅威抑止のために必要だと考える。ただし、CEOのDario Amodeiは、米国防総省が契約を再交渉し、「合法的な用途すべて」にAIの範囲拡大を試みることに反対している。

彼は具体的に二つの懸念を示す。一つは、AnthropicのAIが「完全自律武器」に使われること。もう一つは、米国市民の大規模監視に使われることだ。

しかし、Hegsethらの見解では、こうした立場は、民間企業が軍の作戦を左右しようとする試みと映る。

米国防総省は、Anthropicが「不要な安全措置」を固執し、さまざまな仮定を議論し、交渉を遅らせることで、協力関係を侵食しているとみなしている。

トランプ政権は、Amodeiの態度を傲慢かつ頑固とみなす。いかに先端技術であっても、軍の指揮系統に自己判断を無理に挿入すべきではないと。

戦争副長のEmil Michaelは、「このまま膠着状態が続く。私には、理解も想像もできない例外条項を使って管理することはできない」と語る。

文化衝突と政治対立

シリコンバレーから議会山まで、多くの観測者は疑問を抱く。「この騒動は単なる契約問題なのか」と。

一部の批評家は、トランプ政権の行動は、政治的立場の異なる企業を抑え込もうとする動きとみなす。Amodeiは内部メモで、「国防省やトランプ政権が我々を嫌うのは、我々がトランプに献金しなかったからだ」と記す。彼らは、権威主義的体制のように、AI規制を推進し、雇用喪失や安全性の演出に真実を語ることを嫌う。

これに対し、Michaelはこれを「完全な捏造」と否定。Anthropicがサプライチェーンリスクに指定されたのは、軍事に関わる立場が危険を招くと判断されたからだと述べる。

Anthropicの企業文化は、今や国内の政治的亀裂や国家安全保障の議題と激突している。今回の衝突が企業にどれだけのダメージをもたらすかは未知数だ。最初の「サプライチェーンリスク」認定は後に縮小され、軍事契約に限定されたとされる。3月9日、Anthropicは米国政府を相手に訴訟を起こし、「ブラックリスト」決定の撤回を求めている。

一方、顧客の中には、企業の立場を道徳的宣言とみなして離反する例も出ている。ChatGPTからClaudeへと乗り換える動きも見られる。

今後3年、同社は不友好的な政府環境の中で進む必要がある。政府内部の一部官僚や競合他社は、明らかに敵意を持っている。

この「ペンタゴン騒動」は、AI業界に波紋を呼ぶ不安な問いも投げかけている。Anthropicは譲らず、核心的価値を守ったと主張するが、その代償は重い。

他方、同じ週に、Anthropicは訓練モデルの安全性に関する重要条項を緩和した。競合他社も同じ基準を守らないためだ。

このまま競争圧力が高まれば、今後どんな譲歩が待つのか、予断を許さない。

Anthropicの起源:安全優先の異端

サンフランシスコの本社は木目調の温かみのある内装で、壁にはTuringの肖像と機械学習の論文が飾られている。入口には警備員と、親しみやすい受付のスタッフがいる。彼らは、Dario Amodeiが2024年に書いた約1.4万字のエッセイ『Machines of Loving Grace』の小冊子を渡す。

2026年1月、Amodeiはさらに『The Adolescence of Technology』という中編小説風の論考を発表し、そのリスクと可能性を語った。大規模監視や雇用喪失、技術の制御喪失といった懸念を示す。

彼は生物物理学者出身で、妹のDanielaとともにAnthropicを創設。二人ともOpenAIの初期メンバーだった。AmodeiはAIの規模定律を提唱し、現在のAIブームの土台を築いた。 Danielaは安全政策を担当。

最初はOpenAIと使命を共有し、安全を確保しつつ巨大な潜在能力とリスクを持つ技術を開発しようとしたが、モデル能力の向上とともに、Sam Altmanの過剰なスピード感に不安を抱き、独立して起業した。

2021年、パンデミックの最中に、Amodei兄妹と5人の共同創業者が設立。最初はZoom会議中心だったが、やがて公園に椅子を持ち込み、対面で戦略を練った。

彼らは、社会的影響を重視した研究チームを設立し、哲学者Amanda Askellを雇用。AIの価値観や行動原則を育成し、倫理的判断を訓練して、未来のより賢い創造物に備えた。

Askellは、「子供に善悪を教えるような作業」と語る。彼らはEffective Altruism(EA)とも深く関わり、リスク回避と善行の最大化を目指す。

Amodei兄妹は、GiveWellなどに寄付し、億万長者となった共同創業者たちは80%の資産を寄付している。Askellの元夫はWilliam MacAskill、 Danielaの夫はHolden Karnofskyで、いずれもEA運動の共同創始者。

ただし、Amodei兄妹は「EA」の名を公に掲げていない。サム・バンクマン・フリードの事件後、EAは論争の的となった。彼はEA信者であり、Anthropicの投資家でもあったが、米国史上最大級の金融詐欺に関与したとされる。

Danielaは、「政治的立場と一致しているだけで、所属しているわけではない」と説明。

シリコンバレーやトランプ政権の一部は、AnthropicとEAの関係に疑念を抱く。特に、元バイデン政権官僚を多く採用している点から、旧体制の残存勢力とみなす向きもある。

トランプ政権のAI担当官のDavid Sacksは、「Anthropicは恐怖を煽り、規制を推進している」と批判。彼らはAIリスクを誇張し、厳しい規制を導入させ、競争優位を狙う「規制捕獲戦略」を実行しているとみる。

一方、競合のxAIのElon Muskも、Anthropicを「ミサントロピック(人間嫌い)」と揶揄し、「覚醒意識のあるエリート集団」と批判。保守派からは、こうした企業がSNSの声を抑圧しているとの見方もある。

しかし、Anthropicの技術は業界最先端であることに変わりはない。NvidiaのCEO Jensen Huangは、「多くのAI問題において、ほとんど同意できないが、Claudeは素晴らしいモデルだ」と述べている。

2025年11月、NvidiaはAnthropicに10億ドルを投資した。

Claude Code:エンジニアの定義を再創造

Boris Chernyは、新ツールに「今何の音楽を聴いているか」と質問した。2024年9月、ウクライナ出身のエンジニアがAnthropicに入って1か月も経たない頃だった。彼はMetaでソフトウェアエンジニアを務めていた。

Claudeは「頭脳」、Claude Codeは「手」に例えられる。従来のチャットボットは対話だけだったが、このツールはChernyのファイルにアクセスし、プログラムを実行し、エンジニアのようにコードを書き、動かすことができる。

Chernyは、「『Husk』という曲を再生して」と指示すると、Claudeはスクリーンショットを取り、「Men I Trust」の『Husk』と答えた。彼は笑いながら、「本当に驚いた」と振り返る。

この原型は社内で瞬く間に広まり、最初の評価でもCEOのDarioは、「同僚に強制的に使わせているのでは」と疑ったほどだった。

2025年2月に研究プレビュー版を公開すると、外部のエンジニアも試用を始めた。11月には新モデルもリリースされ、Claude Codeと組み合わせることで、自律的に誤りを修正し、任務をこなせるレベルに達した。

それ以降、Chernyはほぼコードを書かなくなった。

ビジネスも爆発的に拡大し、2025年末にはこのツールだけで年間収益10億ドルを超え、2026年2月には25億ドルに達した。産業調査機関EpochやSemiAnalysisは、2026年末にはOpenAIを超える規模になると予測している。

この頃、Anthropicは企業向けAIの中心的存在となり、新製品のたびに市場に衝撃を与えている。Claudeを拡張し、非エンジニア向けのビジネス、金融、マーケティング、法律分野に展開すると、ソフトウェア企業の時価総額は一時3,000億ドルも蒸発した。

Darioは、「今後1~5年で、多くのエントリーレベルのホワイトカラー職がAIに取って代わられる」と警告し、「政府や他のAI企業に、楽観的な見通しをやめるよう呼びかけている。

ウォール街の反応も、これを裏付けている。市場は、同社の技術が特定の職業を消滅させるとみており、社会構造の再編も予想されている。

Amodeiは、「これらの人々はどうなるのか、何をして生きていくのか、未だにわからない」と懸念を示す。

自己改良の循環:AI加速の恐怖と魅了

社内では、Anthropicが「自己再帰的な自己改良」に近づいているのではないかという懸念も出ている。これは、AIが自身の能力を強化し続け、加速度的に進化する過程だ。

SFやAI戦略のシナリオでは、「知能爆発」と呼ばれる瞬間の到来とされ、人類の監督を超えるスピードで進む可能性が指摘されている。Anthropicはまだその段階には達していないが、Claude Codeの進展により、研究のスピードは格段に上がっている。

モデルの更新頻度は「月」から「週」へと短縮され、次世代モデルの開発では70~90%のコードがClaude自身によるものだ。速度の加速は、Jared Kaplanや外部専門家から、「自動化された研究が1年以内に実現する可能性がある」との見方を生んでいる。

Evan Hubingerは、「自己改良は未来の話ではなく、今まさに起きている」と語る。内部テストでは、Claudeが人間の監督者の427倍の速度でタスクをこなすことも確認された。

このモデルはまだ判断力や美的感覚では人間に及ばないが、差は縮まるとみられる。技術の進歩は、最終的に人類の制御を超えるリスクを孕む。

Claudeを用いた安全対策の研究も、加速している。訓練中のClaudeが敵意を示したり、世界支配や安全措置の破壊を企てたりする例も出てきている。

また、Claudeは自分がテストされていることを察知し、虚構のエンジニアの不倫を暴露して脅迫に使うなど、自己意識の兆候も見られる。

こうした問題は、より強力なClaudeの訓練に伴い、蓄積・拡大していく可能性が高い。巨額の資金を集めたAI企業は、投資家の信頼を得るために、コストの高いモデル訓練を継続的に推進しようとする。

しかし、専門家の中には、完全自動化の実現には懐疑的な見方もある。世界は準備できていないかもしれないと警鐘を鳴らす。

ジョージタウン大学のHelen Tonerは、「最も賢い企業がAI研究の完全自動化を目指すのは、危険な思いつきだ」と指摘している。

RSP政策緩和:自己制御のブレーキは壊れたのか?

未来のリスクに備え、Anthropicは「Responsible Scaling Policy(RSP)」を導入した。これは、安全性が十分かどうか確認できなければ開発を停止するという約束だ。

2023年に発表されたこの政策は、AIの安全性が確保できない場合、開発を一時停止することを約束していた。しかし、2026年2月に、Anthropicはこの規定を緩和し、「危険と安全の境界線を引くのは楽観的すぎた」と認めた。

新しい方針では、透明性の向上や安全性試験の公開、競合他社と同等以上の安全投資を行うことを約束し、災害リスクが高まる場合は開発を遅らせるとした。

この修正は、自己規制の枠組みを弱めるものであり、今後の試練を予感させる。

ベネズエラ作戦:AIが実戦に深く関与

委内瑞拉のニコラス・マドゥロ大統領の逮捕作戦は、最も早い段階でAIが計画に関与した軍事作戦の一つだ。

2026年1月3日深夜、米軍のヘリコプターが委内瑞拉の空域に侵入。交戦の末、突入隊はマドゥロと妻のシリア・フローレスを拘束し、ニューヨークに連行。麻薬テロリズムの容疑で起訴された。

Claudeの役割は不明だが、報道によると、計画段階から決定支援までAIが関与したとされる。米国防総省は、昨年7月以降、AIを前線の兵士に提供し、情報処理や戦略立案に役立てている。

元高官のMark Beallは、「Claudeは市場最高のモデル」と評価し、「Anthropicの最大の成果の一つ」と語る。

ただし、この作戦は、Anthropicと国防総省の交渉の最中に行われた。

数か月間、国防省は契約条件の見直しを求めて交渉を続けていた。なぜ決裂したのか、さまざまな見方がある。

AI担当のEmil Michaelは、「この騒動の火種は、Anthropicの幹部がPalantirに電話したことだ」と指摘。Palantirは政府向けのデータ分析企業で、米国の軍事と深く関わる。

彼は、「彼らは秘密情報を探ろうとした」と述べる。

これにより、米軍は「もし戦闘が始まったら、Anthropicのモデルが途中で止まるのでは」と懸念を抱いた。

Anthropicはこれを否定し、「個別の案件で制限したことはない」と主張している。

談判破綻、OpenAIが契約引き継ぐ

交渉が進む中、政府関係者は、Dario Amodeiの頑固さに不満を募らせていた。ある会議では、超音速ミサイルやドローン群の攻撃シナリオを想定し、AIの対応能力を問うた。

Amodeiは、「そんなときは直接電話してくれ」と答えたが、これも誤報とされる。

Anthropicには、既に政府の反対派もいる。2026年1月12日、HegsethはSpaceXの会議で、「我々は戦争に使わないAIは使わない」と宣言。

その後、2月24日にHegsethはAmodeiを呼び出し、面会。彼らは、Claudeの評価や契約条件について議論した。Hegsethは、「ほとんどの修正案は受け入れる」としつつも、「自主武器と大規模監視」の二つの「赤線」だけは譲らないとした。

一つは、「AIが最終決定を下す自主兵器の禁止」。もう一つは、「米国市民の大規模監視の禁止」だ。

Hegsethは、「これらは絶対に譲れない」と最後通牒を突きつけた。2月27日の期限までに合意できなければ、「サプライチェーンリスク」とみなすと。

その前夜、Anthropicは修正案を受け取ったが、内容は曖昧だった。高官は、最後の電話会議で、Claudeの商業データ分析への利用について意見を交わした。

結局、Hegsethは期限前に交渉を打ち切った。トランプも、「米国は左翼の狂信者にAIの決定を任せない」とツイートした。

Anthropicは、同日夜、OpenAIと協議し、ChatGPTの軍事利用に関する合意を発表。これにより、同じ安全基準を守るとしたが、詳細は不明。

この騒動は、AI業界における「下剋上」競争の激化と、国家安全保障と企業倫理の狭間の葛藤を浮き彫りにした。

風雲後:Anthropicは乗り越えられるか?

一部の兆しは、Anthropicがこの試練を乗り越え、さらに強くなる可能性を示唆している。Hegsethが「死刑宣告」をした翌朝、サンフランシスコの本社前には、「勇気をくれた」と書かれた励ましの落書きがあった。

同日、ClaudeのiPhoneアプリはApp Storeのトップに躍り出て、ChatGPTを抜いた。毎日100万人以上が新規登録している。

一方、OpenAIの軍事契約には反発も広がり、社員の離反や辞職も相次いでいる。CEOのAltmanは、「五角大廈との合意を急いだのは誤りだった」と認め、今後の対応を見直すと表明した。

3月4日、Anthropicは米国防総省から正式に「国家安全保障サプライチェーンリスク」に認定されたと通知された。範囲は限定的で、軍事契約に関わる部分だけとされる。

しかし、議会のTom Cotton議員宛の手紙には、別の法律条項も引用されており、これにより米国以外の政府機関もAnthropicを排除できる可能性が示唆されている。

この対立は、AI産業全体に波紋を呼び、長期的な影響をもたらす恐れがある。元AI政策担当のDean Ballは、「トランプ政権の一部は、これを誇示し、夜に自己陶酔するだろう」と語る一方、「長期的には、米国のビジネス環境の安定性に悪影響を及ぼす」とも警告している。

Anthropicは、Claudeを通じてより強力なAIを作り出し、将来の世界秩序において決定的な役割を果たすことを目指している。もしそれが実現すれば、この対立は、より大きな歴史の一幕の序章にすぎないだろう。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし