最近、OpenClawが「ロブスター養殖」ブームを巻き起こしている。モルガン・スタンレーは、OpenClawを代表とする人工知能エージェント(AIエージェント)がハードウェア需要の変化を引き起こしていると指摘している。人工知能のボトルネックは計算能力からデータ処理へと移行し、タスクの実行には単なる思考以上に多くのDRAM(ダイナミック・ランダム・アクセス・メモリ)が必要となり、DRAMの供給はより逼迫していく見込みだ。
同行はSKハイニックスの目標株価を130万韓国ウォンに引き上げ、同時にサムスン電子の普通株の目標株価も25.1万韓国ウォンに引き上げ、いずれも「買い増し」評価を維持している。
レポートによると、メモリ価格は年々加速して上昇しており、現在は上昇局面の中期段階にある。具体的には、2026年第2四半期において、高性能計算向けのDRAM DDR5の価格は、四半期ごとに50%超の大幅な上昇が見込まれ、より広範に使われるDDR4についても、30%から40%の範囲で値上がりすると予測されている。サーバー向けのNANDフラッシュメモリのeSSD製品の価格も倍増する可能性がある。
OpenClawとChatGPTのような「質問応答型」の生成型人工知能は異なり、その動作はより効率的なアシスタントチームのようなものである。自主的にウェブ情報を検索し、外部ソフトウェアツールを呼び出し、文書を読み分析し、さらにはプログラムコードを実行して、最終的に複雑な出力結果を導き出す。
モルガン・スタンレーの分析によると、多段階の調整やツール呼び出し、フローの編成を伴う実行モデルは、人工知能のハードウェアのボトルネックをGPU(グラフィックス・プロセッシング・ユニット)からCPU(セントラル・プロセッシング・ユニット)とメモリへと移行させている。CPUの計算時間が全体のタスク実行を遅らせる要因となる。また、多数のエージェント間で継続的にコンテキストを共有し、KVキャッシュ(キー・バリュー・キャッシュ)をオフロードし、各中間ステップの結果を保存・検索する必要があり、これが極めてDRAMを消費する。
一方、従来の大規模言語モデル(LLM)の時代には、GPUの計算能力が決定的なボトルネックとみなされていた。CPUは単にトークン(AIの計算資源やサービス課金の単位)をテキストに変換するだけでよく、DRAMもキャッシュの読み書きのために必要な範囲で十分だった。
「ロブスター養殖」ブームから「撤退ブーム」へ、AIエージェントの概念はすでに過熱したのか?
16.72M 人気度
559.94K 人気度
14.99K 人気度
1.13M 人気度
31.17K 人気度
【AI+ハードウェア】「ロブスター」OpenClawがハードウェア需要の変化を引き起こし、メモリ価格は今後も上昇し続ける? モルガン・スタンレー:思考よりも実行にはより多くのDRAMが必要
最近、OpenClawが「ロブスター養殖」ブームを巻き起こしている。モルガン・スタンレーは、OpenClawを代表とする人工知能エージェント(AIエージェント)がハードウェア需要の変化を引き起こしていると指摘している。人工知能のボトルネックは計算能力からデータ処理へと移行し、タスクの実行には単なる思考以上に多くのDRAM(ダイナミック・ランダム・アクセス・メモリ)が必要となり、DRAMの供給はより逼迫していく見込みだ。
同行はSKハイニックスの目標株価を130万韓国ウォンに引き上げ、同時にサムスン電子の普通株の目標株価も25.1万韓国ウォンに引き上げ、いずれも「買い増し」評価を維持している。
レポートによると、メモリ価格は年々加速して上昇しており、現在は上昇局面の中期段階にある。具体的には、2026年第2四半期において、高性能計算向けのDRAM DDR5の価格は、四半期ごとに50%超の大幅な上昇が見込まれ、より広範に使われるDDR4についても、30%から40%の範囲で値上がりすると予測されている。サーバー向けのNANDフラッシュメモリのeSSD製品の価格も倍増する可能性がある。
AIの「自主実行」モードにおけるハードウェアのボトルネック移行とDRAM需要の逼迫
OpenClawとChatGPTのような「質問応答型」の生成型人工知能は異なり、その動作はより効率的なアシスタントチームのようなものである。自主的にウェブ情報を検索し、外部ソフトウェアツールを呼び出し、文書を読み分析し、さらにはプログラムコードを実行して、最終的に複雑な出力結果を導き出す。
モルガン・スタンレーの分析によると、多段階の調整やツール呼び出し、フローの編成を伴う実行モデルは、人工知能のハードウェアのボトルネックをGPU(グラフィックス・プロセッシング・ユニット)からCPU(セントラル・プロセッシング・ユニット)とメモリへと移行させている。CPUの計算時間が全体のタスク実行を遅らせる要因となる。また、多数のエージェント間で継続的にコンテキストを共有し、KVキャッシュ(キー・バリュー・キャッシュ)をオフロードし、各中間ステップの結果を保存・検索する必要があり、これが極めてDRAMを消費する。
一方、従来の大規模言語モデル(LLM)の時代には、GPUの計算能力が決定的なボトルネックとみなされていた。CPUは単にトークン(AIの計算資源やサービス課金の単位)をテキストに変換するだけでよく、DRAMもキャッシュの読み書きのために必要な範囲で十分だった。
「ロブスター養殖」ブームから「撤退ブーム」へ、AIエージェントの概念はすでに過熱したのか?