谷歌发布的一项新型AI内存压缩技术,将大型语言模型运行时的缓存内存占用至少减少6倍。很多人慌了,也让美股存储芯片板块经历了一场剧烈的下跌。
事实真的如此不堪吗?
当前的推理模型早已广泛采用4比特量化数据,谷歌所谓的8倍性能提升是建立在与老旧的32位模型对比之上的。
这些先进的压缩技术,仅仅是为了缓解算力瓶颈,并不会破坏未来三到五年内因供应受限而依然坚挺的内存与闪存需求。
从算力部署的真实演进来看,这项旨在打破AI内存瓶颈的技术,最终可能不仅不会摧毁存储需求,反而会成为推动行业进一步扩张的催化剂。
前进的路上总会不断创新,Deepseek出来,英伟大还是老大。
存储周期不会因为一个技术改变,就结束,只能说明存储太缺了。就和博通说cpo没那么快普及一样,一点浪花而已,我们拥有的是整个海洋。