昊梵体育网

谷歌一篇论文引爆存储芯片崩盘!AI内存需求暴降6倍,推理狂飙8倍 炸裂!谷歌一篇

谷歌一篇论文引爆存储芯片崩盘!AI内存需求暴降6倍,推理狂飙8倍 炸裂!谷歌一篇论文,直接把全球存储芯片巨头干懵了,市值一夜蒸发超900亿美元! 事情是这样的,谷歌研究院放出了一个叫TurboQuant的压缩算法,号称能把大模型推理时的KV缓存内存占用直接压到原来的六分之一,在H100上推理速度还能飙升8倍。 消息一出,美光跌近7%,闪迪暴跌11%,SK海力士跌超6%,三星也没扛住。A股这边恒烁股份、兆易创新、佰维存储全线跳水。 Cloudflare的CEO Matthew Prince直接喊出这是谷歌的DeepSeek时刻。 但我仔细看完技术细节后,想跟大家说几个关键点: ✅第一,TurboQuant只压缩推理阶段的KV缓存,跟模型权重占用的HBM没半毛钱关系,跟训练更没关系。 ✅第二,所谓8倍提速是跟32bit的老基线比的,现在主流早就用4bit量化了,Lynx Equity Strategies的分析师KC Rajkumar说得很直白:媒体夸大了。 ✅第三,这技术目前只在Gemma、Mistral这些8B级别的开源模型上验证过,谷歌自家的Gemini都还没公布适配情况。 摩根士丹利的研报说得最透彻:6倍压缩的结果大概率是同样的显存跑更长的上下文、更多的并发,而非少买内存。 这就是经济学里经典的杰文斯悖论,蒸汽机效率提高了,煤炭消耗反而暴增。DeepSeek刚出来的时候市场也恐慌过一波,结果呢?英伟达后来再创历史新高。 2026年服务器DRAM需求预计增长39%,HBM需求年增58%,SK海力士自己都说芯片库存只剩4周。 说白了,这波更像是涨太多之后的获利回吐找了个由头。 算力军备竞赛里,最锋利的武器未必是更大的芯片,也可能是更聪明的数学。但更聪明的数学,从来只会让人类用掉更多的算力。 你们觉得存储芯片这波是真见顶了,还是上车机会?评论区聊聊👇