在 AI 成為企業標配工具之後,一個過去被視為「體感問題」的現象,正在快速浮上檯面:LLM(大型語言模型)正在「變笨」。網友 Wisely Chen 指出,所謂「LLM 降智」並非都市傳說,而是已能透過數據被持續追蹤,且正對企業工作流程造成實質影響。
他以自身經驗為例,4 月 15 日 Anthropic 旗下 Claude 系列服務出現全面降級,包含 claude.ai、API 與 Claude Code 均顯示「Degraded Performance」。這並非單純變慢或偶發錯誤,而是回應品質明顯崩盤,甚至出現無法正常使用的情況,導致其當日三個開發任務全數延誤。
這類情境對個人開發者而言或許只是效率下降,但對企業 IT 團隊來說,影響則被成倍放大。當一個團隊有多名工程師同時依賴 AI 工具進行 coding、文件撰寫與流程自動化,一次模型降級,意味著整體生產力在同一時間出現集體下滑,進而轉化為可觀的時間與成本損失。
AI 感覺變笨了?數據證實「早已降級」
Wisely Chen 指出,「GPT 變笨」、「Claude 不如以前」這類說法在社群流傳已久,但長期缺乏客觀數據支撐。直到近期出現持續監控模型品質的平台,這種現象才首次被量化。
其中,StupidMeter 對包括 OpenAI、Anthropic、Google 等主流模型進行 24 小時自動化測試,追蹤正確性、推理能力與穩定性等指標。與傳統一次性 benchmark 不同,這類系統更接近企業監控 API 或服務可用性的方式,觀察模型在實際使用環境中的表現波動。
數據結果相當直觀:目前多數主流模型均處於警告或降級狀態,僅少數模型維持正常。這意味著模型品質的不穩定,並非單一產品問題,而是整體產業的普遍現象。
LLM 偷降智,影響 AI 工作流企業穩定性
對企業而言,這樣的變化代表 AI 已從「提升效率的工具」,轉變為「影響穩定性的變數」。倘若企業日常工作流程從寫程式、做 code review,到產出文件與分析報告都已高度依賴 LLM。一旦模型在某一天出現推理能力下降、回答品質不穩,這些問題不會像傳統軟體 bug 一樣局部發生,而是會同時滲透進所有使用 AI 的環節。
更關鍵的是,這種波動往往難以預測,也難以即時察覺。多數企業並不具備持續監控模型品質的機制,通常是在產出結果異常、或團隊效率下降後,才意識到問題來自模型本身。在這樣的情境下,「降智」不再只是使用者的主觀感受,而是一種會直接影響企業營運節奏的系統性風險。
當 AI 成為水電,穩定性成為新的關鍵指標
Wisely Chen 將 LLM 的角色比喻為「現代企業的水電」。當 AI 已深入日常營運,成為不可或缺的基礎能力,其穩定性的重要性也隨之提升。
過去企業評估 AI 工具,多聚焦於模型能力、價格與功能,但隨著「降智」現象浮現,另一個更關鍵的指標正在浮現,那就是穩定性。當模型品質可能在未通知的情況下變動,企業不再只是「使用 AI」,要開始承擔一種新型態的基礎設施風險。更絕望的是,只看前沿的大型語言模型的話,基本上在算力問題未解決前,都可能會繼續發生。
這篇文章 數據曝「Claude 降智」並非都市傳說,AI 模型不穩定成企業風險 最早出現於 鏈新聞 ABMedia。
相關文章