tradingkey.logo

人工智慧成人工智障?蘋果AI研究:推理模型LRM簡易問題想太多、復雜問題崩潰

TradingKey2025年6月9日 08:13

TradingKey - 在市場擔憂iPhone製造商蘋果(AAPL)在人工智慧發展方面落伍之際,蘋果最新的一篇AI研究揭露了現在流行的AI大模型的「繁榮假象」:AI推理模型遠達不到預期的推理功能——簡單問題復雜化,復雜問題直接陷入崩潰。

6月,蘋果發表了一篇名為《思考的幻覺:從問題復雜性的角度理解推理模型的優點和局限性》的研究報告。文章指出,現有的一些號稱具有「推理能力」或思考能力的AI模型實際上並不具備通用和穩健的推理能力。

無論是OpenAI的o1、再到DeepSeek R1、Claude和Gemini等領先模型,他們已經發展到不是簡單給出答案,而是生成詳盡的「思維鏈」(Chain-of-thought,CoT)、模仿人類解決問題時的思考過程、甚至自我反思和修正的模型。

研究人員稱之為「大型推理模型」(Large Reasoning Models,LRMs)。不少人認為,這種技術的發展將推動人類向理想的通用人工智慧(AGI)邁進。

與常見的強調最終答案準確性的基準測試不同,蘋果公司通過不同的複雜性的問題環境對標準模型LLM和推理模型LRM進行了比較,結果推理模型有一些情況下還不如標準模型。

  • 低複雜度模式:不帶思考鏈的標準LLM比LRM更準確、更高效,LRM模型容易陷入過度思考的陷阱,造成計算資源浪費和引入錯誤。
  • 中等複雜模式:LRM的思考鏈的優勢開始顯現,詳盡的思考過程確實幫助模型更好應對增加的挑戰。
  • 高復雜模式:當問題復雜度升至某個臨界點,LLM和LRM模型都徹底崩潰,準確率降至0。

然而,現實生活中的多數問題都屬於高複雜度模式,這凸顯了推理AI模型在實際應用上的挑戰。

谷歌執行長Sundar Pichai用「人工鋸齒智慧」(Artificial Jagged Intelligenc,AJI)來描述AI不穩定的能力——AI給出的答案時而令人讚歎,時而會犯簡單的數字錯誤,比如連strawberry有多少個r字母都不清楚。

免責聲明:本網站提供的資訊僅供教育和參考之用,不應視為財務或投資建議。

相關文章

Tradingkey
tradingkey.logo
tradingkey.logo
日內數據由路孚特(Refinitiv)提供,並受使用條款約束。歷史及當前收盤數據均由路孚特提供。所有報價均以當地交易所時間為準。美股報價的即時最後成交數據僅反映透過納斯達克報告的交易。日內數據延遲至少15分鐘或遵循交易所要求。
* 參考、分析和交易策略由提供商Trading Central提供,觀點基於分析師的獨立評估和判斷,未考慮投資者的投資目標和財務狀況。
風險提示:我們的網站和行動應用程式僅提供關於某些投資產品的一般資訊。Finsights 不提供財務建議或對任何投資產品的推薦,且提供此類資訊不應被解釋為 Finsights 提供財務建議或推薦。
投資產品存在重大投資風險,包括可能損失投資的本金,且可能並不適合所有人。投資產品的過去表現並不代表其未來表現。
Finsights 可能允許第三方廣告商或關聯公司在我們的網站或行動應用程式的任何部分放置或投放廣告,並可能根據您與廣告的互動情況獲得報酬。
© 版權所有: FINSIGHTS MEDIA PTE. LTD. 版權所有
KeyAI