要点
包括美光和闪迪在内的内存股,因市场担忧谷歌的 TurboQuant 算法而下跌。
谷歌的 TurboQuant 算法可显著提升内存使用效率。
分析师认为,TurboQuant 提升效率反而可能增加整体硬件需求,而不是减少,这体现了“杰文斯悖论”。
本周以来,表现强劲的内存股如美光和闪迪遭遇打压,而原因可能与谷歌在本周一篇研究论文中详细介绍的 TurboQuant 压缩算法有关。
美光科技 (MU)和 闪迪 (SNDK)周四分别下跌4%和6%。近几个月内存股大幅上涨,因此出现波动并不罕见。但分析师指出,Google周二发布的一篇介绍 TurboQuant 算法的博客,可能成为市场担忧的触发因素。
TurboQuant 是一种旨在解决“键值缓存”(key-value cache)瓶颈问题的算法。谷歌将该缓存形容为一种“数字速查表”,实际上相当于人工智能模型的短期记忆。虽然可以通过压缩技术在这张“速查表”中存放更多信息,但它仍然很快会被填满。而且压缩可能导致模型产生“幻觉”,即出现错误输出。
TurboQuant 的设计正是为了解决这些问题。谷歌研究人员表示,在不降低模型准确性的前提下,TurboQuant 可将 AI 模型中的“键值内存规模”至少缩小六倍,同时将运行速度提升最多八倍。
对于那些押注美光和闪迪上涨、并受益于 AI 对内存处理器和存储容量需求不断增长的投资者来说,听到任何与“AI 内存使用减少六倍”相关的消息,都可能令人不安。
不过,TurboQuant 实际上并没有听起来那么可怕。首先,它并不算新技术——该算法的技术草稿早在 2025 年 4 月就已在网上出现。因此,它很可能并不代表当前 AI 公司最前沿的技术水平,而且在今天的模型中,其效果也未必如宣称的那样显著。
Jordan Klein(瑞穗证券技术、媒体与电信行业专家)写道:“我敢肯定,目前每一家云计算巨头和大语言模型开发者,都有大量工程师和优秀科学家在研究类似技术。但如果这项技术真的如此出色且已在谷歌大规模应用,相信我,他们是不会公开发表论文的。”
其次,也是更重要的一点,更高效的内存使用很可能带来的结果是——整体硬件需求反而增加。
一个类比是 2025 年 1 月,当DeepSeek展示出先进 AI 模型可以以相对低成本训练时,引发了约 1 万亿美元的市场恐慌,市场担心芯片和其他组件出现过度投资。然而随后发生的却是“Jevons Paradox(杰文斯悖论)”:更强大、更高效的模型反而显著提升了对 AI 服务的需求,从而证明需要更多投资。
闪迪首席财务官Luis Visoso在与美国银行证券分析师的交流中,也提到了类似的逻辑。
美国银行分析师Wamsi Mohan在一份研究报告中写道:“Visoso 先生指出,[TurboQuant] 可以提高超大规模资本开支(capex)的投资回报率,而这种效率提升反过来可能推动需求上升。”
Mohan 维持对闪迪股票的“买入”评级,并给出 900 美元的目标价。
内存股此前的大幅上涨以及投资规模的不断扩大,使得投资者对任何可能预示周期反转、导致供过于求的信号都保持警惕。但从目前来看,TurboQuant 并不像是那个会终结上涨动能的因素。