在人工智能基础设施持续扩张、存储芯片供需紧张的背景下,一项来自谷歌的技术突破,正在引发资本市场对行业逻辑的重新评估。
近日,谷歌发布名为TurboQuant的内存压缩算法,宣称可在不损失模型精度的情况下,将大语言模型运行所需的内存占用降低至少六倍,并在部分测试中实现约八倍性能提升。
这一技术直指当前AI计算中的核心瓶颈——高维向量带来的“缓存占用压力”,通过改进向量量化方法,在压缩数据体积的同时维持计算精度。
受该消息影响,全球存储与内存产业链公司股价普遍承压。包括美光科技(MU.O)、西部数据(WDC.O)以及闪迪(SNDK.O)等企业股价出现下跌,市场担忧未来单位算力所需内存规模下降,从而削弱行业需求基础。
这一反应并非孤立事件。过去一年,在生成式AI需求推动下,内存芯片价格持续上涨,行业甚至出现阶段性供应紧张。 在此背景下,任何可能“提高效率、降低硬件需求”的技术突破,均容易触发市场对需求拐点的敏感预期。
从技术路径看,TurboQuant属于经典“向量量化”方法的迭代升级。其核心在于通过两阶段压缩机制,在减少数据维度的同时消除量化误差,从而实现“高压缩率+零精度损失”的目标。
这一改进意味着,在相同硬件条件下,AI模型可以处理更长上下文或更大批量任务,本质上提升的是“单位算力产出效率”,而非直接替代硬件本身。
围绕该技术的产业影响,市场迅速形成分歧。一部分投资者担忧,若单次任务所需内存下降,将直接压缩硬件需求;但主流投行与部分分析师则引用“杰文斯悖论”提出相反判断。
该理论认为,技术效率提升往往不会减少资源消耗,反而可能因成本下降而刺激更大规模需求扩张。
在AI场景中,更低的算力成本意味着模型部署门槛降低、应用场景扩展,从而带动总体计算与存储需求进一步增长。
市场已有类似先例。此前中国低成本大模型方案曾引发“高端算力需求下降”的担忧,但随后行业需求反而加速扩张,验证效率提升与需求增长之间的正反馈关系。
从基本面看,当前内存行业的核心矛盾仍在供给端。AI数据中心扩建、云厂商资本开支上行,使得DRAM与NAND需求持续高位运行,供应紧张格局尚未明显缓解。
因此,多数机构认为,TurboQuant短期内难以改变行业供需结构,其影响更多体现在中长期效率曲线的重塑,而非立即削弱出货量。
摩根士丹利分析师金尚勋(Shawn Kim)在报告中写道,TurboQuant对超大规模云服务提供商是利好,因为其带来了投资回报机会。他还补充称,从长期来看,这项技术也可能有利于内存制造商,因为“更低的每个token成本也可能带来更高的产品采用需求”。
Ortus Advisors分析师安德鲁·杰克逊(Andrew Jackson)在Smartkarma的一份报告中写道,鉴于供应极度紧张,谷歌的这一进展“对需求的影响可能微乎其微”。