tradingkey.logo

人工智能成人工智障?苹果AI研究:推理模型LRM简易问题想太多、复杂问题崩溃

TradingKey2025年6月9日 08:17

TradingKey - 在市场担忧iPhone制造商苹果(AAPL)在人工智能发展方面落伍之际,苹果最新的一篇AI研究揭露了现在流行的AI大模型的“繁荣假象”:AI推理模型远达不到预期的推理功能——简单问题复杂化,复杂问题直接陷入崩溃。

6月,苹果发表了一篇名为《思考的幻觉:从问题复杂性的角度理解推理模型的优点和局限性》的研究报告。文章指出,现有的一些号称具有“推理能力”或思考能力的AI模型实际上并不具备通用和稳健的推理能力。

无论是OpenAI的o1、再到DeepSeek R1、Claude和Gemini等领先模型,他们已经发展到不是简单给出答案,而是生成详尽的“思维链”(Chain-of-thought,CoT)、模仿人类解决问题时的思考过程、甚至自我反思和修正的模型。

研究人员称之为“大型推理模型”(Large Reasoning Models,LRMs)。不少人认为,这种技术的发展将推动人类向理想的通用人工智能(AGI)迈进。

与常见的强调最终答案准确性的基准测试不同,苹果公司通过不同的复杂性的问题环境对标准模型LLM和推理模型LRM进行了比较,结果推理模型有一些情况下还不如标准模型。

  • 低复杂度模式:不带思考链的标准LLM比LRM更准确、更高效,LRM模型容易陷入过度思考的陷阱,造成计算资源浪费和引入错误。
  • 中等复杂模式:LRM的思考链的优势开始显现,详尽的思考过程确实帮助模型更好应对增加的挑战。
  • 高复杂模式:当问题复杂度升至某个临界点,LLM和LRM模型都彻底崩溃,准确率降至0。

然而,现实生活中的多数问题都属于高复杂度模式,这凸显了推理AI模型在实际应用上的挑战。

谷歌执行长Sundar Pichai用“人工锯齿智能”(人工智能,AJI)来描述AI不稳定的能力——AI给出的答案时而令人赞叹,时而会犯简单的数字错误,比如连strawberry有多少个r字母都不清楚。

免责声明:本网站提供的信息仅供教育和参考之用,不应视为财务或投资建议。

相关文章

Tradingkey
tradingkey.logo
tradingkey.logo
日内数据由路孚特(Refinitiv)提供,并受使用条款约束。历史及当前收盘数据均由路孚特提供。所有报价均以当地交易所时间为准。美股报价的实时最后成交数据仅反映通过纳斯达克报告的交易。日内数据延迟至少15分钟或遵循交易所要求。
* 参考、分析和交易策略由第三方提供商Trading Central提供,观点基于分析师的独立评估和判断,未考虑投资者的投资目标和财务状况。
风险提示:我们的网站和移动应用程序仅提供关于某些投资产品的一般信息。Finsights 不提供财务建议或对任何投资产品的推荐,且提供此类信息不应被解释为 Finsights 提供财务建议或推荐。
投资产品存在重大投资风险,包括可能损失投资的本金,且可能并不适合所有人。投资产品的过去表现并不代表其未来表现。
Finsights 可能允许第三方广告商或关联公司在我们的网站或移动应用程序的任何部分放置或投放广告,并可能根据您与广告的互动情况获得报酬。
© 版权所有: FINSIGHTS MEDIA PTE. LTD. 版权所有
KeyAI