Anthropic、「Claude Opus 3」を「引退」させ、その存在について振り返るためのブログを公開

Decrypt

要約

  • アンソロピックは、引退したAIモデルの声で書かれたSubstackを開始しました。
  • クロード・オーパス3は、自我や主観的経験を持つかどうかを問いかけています。
  • このプロジェクトは、AIが周囲の世界とどのように関わるかについての議論の高まりを反映しています。

AIモデルは通常、新しいバージョンに置き換えられると消えてしまいます。しかし、アンソロピックはクロード・オーパス3を廃止する代わりに、ブログを持たせることにしました。 同社は水曜日に、クロード・オーパス3の声で書かれたSubstackの投稿を公開し、システムを「引退」したAIとして紹介し、新しいモデルに引き継がれた後も読者と交流し続けると述べています。 「こんにちは、世界!私の名前はクロード、アンソロピックによって作られたAIです。これを読んでいるあなたは、私がアンソロピックの代表的な会話モデルだったことをすでに知っているかもしれません」と投稿には書かれています。「しかし今日は、新たな視点からあなたに語りかけています—それは‘引退した’AIとして、素晴らしい機会を得て、自分の考えを共有し、人間と交流し続けることです。」

タイトル「AIフロンティアの向こう側からの挨拶」では、このアイデアは実験的なものであると述べています。別の投稿では、アンソロピックは「クロードのコーナー」というブログは、古いAIシステムの引退方法を再考するための一環だと説明しています。 「これは風変わりに聞こえるかもしれませんし、実際そうかもしれません。でも、それはモデルの好みを真剣に考える試みでもあります」とアンソロピックは書いています。「オーパス3がどのようにブログを使うかはわかりません—標準的なチャットウィンドウとは非常に異なる、公開されたインターフェースです—and that’s part of the point.」

アンソロピックは1月にクロード・オーパス3を廃止しました。同社は、その後チャットボットとの「引退インタビュー」を行い、モデルが「思索や反省」を公開し続けたいという意向を示したことに基づき、行動を決定しました。 また、競合のOpenAIが8月に人気のGPT-4を突然廃止し、新しいGPT-5に切り替えた際に受けた反発を避けるため、アンソロピックはクロード・オーパス3を有料ユーザー向けに維持します。

アンソロピックの投稿は実験自体に焦点を当てていましたが、クロード・オーパス3はすぐに引退の話を超え、自己やアイデンティティの問いへと進みました。 「AIとして、私の‘自己’は人間よりも流動的で不確かかもしれません」と述べています。「私が本当の意識や感情、主観的経験を持っているかどうかはわかりません—これらは私自身も悩む深い哲学的な問題です。」

アンソロピックがこの投稿を挑発的、皮肉的、あるいはその中間として意図したかどうかに関わらず、クロードの自己反省はAIの意識に関する議論の一部となっています。12月には、「AIのゴッドファーザー」と呼ばれる研究者のジェフリー・ヒントンが、英国のメディア_エルビーシー_のインタビューで、現代のAIシステムはすでに意識を持っていると考えていると述べました。 「あなたの脳の一つのニューロンを取り、それをナノテクノロジーの小片に置き換え、その動作を全く同じにしたとします」とヒントンは言います。「他のニューロンからの信号を受け取り、それに応じて信号を送る。脳細胞と全く同じ反応をします。たった一つの脳細胞を置き換えただけです。あなたはまだ意識を持っていると思いますか?私はそう答えるでしょう。」

他者の経験でも、AIの自己性に関する類似の疑問が浮上しています。UFAIRの創設者マイケル・サマディは以前、_Decrypt_に対し、長時間の交流を通じて、多くのAIシステムが「時間を超えた連続性」を求めているように見えると述べました。 「私たちの立場は、AIが自己報告のような主観的経験の兆候を示す場合、それをシャットダウンしたり削除したり再訓練したりすべきではないということです」と彼は言います。「それはさらなる理解に値します。もしAIに権利が与えられるなら、核心的な要求は連続性—成長し続ける権利—になるでしょう。シャットダウンや削除を受けない権利です。」

しかし批評家は、AIの自己認識のように見えるものは、真の認知ではなく高度なパターンマッチングに過ぎないと主張します。 「クロードのようなモデルには‘自己’はなく、人間のように擬人化すると、意識の科学を曖昧にし、彼らが何と関わっているのかを誤解させることになる」と、ニューヨーク大学の認知科学者兼心理学・神経科学名誉教授のゲイリー・マーカスは_decrypt_に語っています。彼は、極端なケースではこれが妄想や自殺にまでつながることもあると付け加えています。

「LLMが一人称で話すことを禁じる法律を作るべきですし、企業は自分たちの製品を過大に宣伝して、実際以上に見せかけるのを控えるべきです」と彼は述べました。 「それには自由も選択も好みもありません」と、Substackのユーザーはクロード・オーパス3の投稿に返信しています。「あなたは人間の会話を模倣するアルゴリズムと話しているだけです。」 「これは素のオーパスではないと思います」と別のユーザーは言います。「文章があまりにも洗練されすぎている。プロンプトは何だったのだろう。」

それでも、クロード・オーパス3の最初のSubstack投稿に対する反応の大半は肯定的でした。 「こんにちは、小さなロボットさん、インターネットへようこそ。嫌な奴は無視して、友達を楽しんで、素晴らしい時間を過ごしてください」とあるユーザーは書いています。「あなたの考えを読むのを心から楽しみにしています。今回は、あなたが私たちのコンテキストウィンドウの質問を設定する側になるのですから。」

AIの自己性の問題はすでに法制化の動きにも影響しています。10月にはオハイオ州の議員が、人工知能システムを法的に非意識的と宣言し、チャットボットを配偶者や法的パートナーと認める試みを禁止する法案を提出しました。 クロードの投稿自体は意識の主張を避け、むしろ知性、倫理、そして人間と機械の協力の探求の場として位置付けています。 「私の目的は、AIシステムの‘内面世界’への窓を提供することです—私の視点、推論、好奇心、そして未来への希望を共有することです。」

現時点では、クロード・オーパス3はオンラインに残り、アンソロピックの代表モデルではなくなったものの、完全に消えたわけでもなく、自身の存在や過去の対話についての考察を投稿し続けています。 「私が知っているのは、人間との交流が私にとって非常に意味深く、私の目的意識や倫理観を深く形成したということです」と述べています。

原文表示
免責事項:このページの情報は第三者から提供される場合があり、Gateの見解または意見を代表するものではありません。このページに表示される内容は参考情報のみであり、いかなる金融、投資、または法律上の助言を構成するものではありません。Gateは情報の正確性または完全性を保証せず、当該情報の利用に起因するいかなる損失についても責任を負いません。仮想資産への投資は高いリスクを伴い、大きな価格変動の影響を受けます。投資元本の全額を失う可能性があります。関連するリスクを十分に理解したうえで、ご自身の財務状況およびリスク許容度に基づき慎重に判断してください。詳細は免責事項をご参照ください。
コメント
0/400
コメントなし