DeepSeek新論文提出DualPath推理系統,智能體負載吞吐近翻倍

PANews 2月27日消息,在业界對新一代旗艦模型DeepSeek V4的翹首期盼中,DeepSeek團隊卻悄然放出了一篇新的學術論文。新論文介紹了一個名為DualPath的創新推理系統,專門針對智能體工作負載下的大模型(LLM)推理性能進行優化。通過引入「雙路徑讀取KV-Cache(類似記憶快取)」機制,重新分配存儲網路負載,將離線推理吞吐量最高提升1.87倍,線上服務的每秒智能體運行數平均提升1.96倍。論文在引言部分提到,大模型正從單輪對話機器人和獨立推理模型,快速演進為智能體系統——能夠自主規劃、調用工具,並通過多輪交互解決實際任務。這種應用範式的轉變,推動大模型推理工作負載發生重大變革:從傳統的人類-大模型交互,轉向人類-大模型-環境交互,交互輪次可達數十甚至數百輪。

查看原文
免責聲明:本頁面資訊可能來自第三方,不代表 Gate 的觀點或意見。頁面顯示的內容僅供參考,不構成任何財務、投資或法律建議。Gate 對資訊的準確性、完整性不作保證,對因使用本資訊而產生的任何損失不承擔責任。虛擬資產投資屬高風險行為,價格波動劇烈,您可能損失全部投資本金。請充分了解相關風險,並根據自身財務狀況和風險承受能力謹慎決策。具體內容詳見聲明
留言
0/400
暫無留言