有人问我,英伟达到底凭什么这么值钱?
我说,你去看CUDA就明白了。
CUDA是2006年英伟达推出的一套编程平台,就是让程序员能用GPU 运行各种计算,就这么个东西,现在成了整个AI行业的命门,几乎所有大模型都运行在上面。
为什么别人绕不开它?有四道墙。
第一道墙,是开发者,全球超过400万开发者基于CUDA写代码。这些人花了大量时间学习这套东西,写了大量代码,你让他们换到AMD的ROCm?他们宁可多花钱买英伟达,也不想重来一遍。这不是技术问题,这是人的问题。
第二道墙,是软件库。英伟达这些年攒了一堆现成的工具:TensorRT负责推理加速,cuDNN专门优化神经网络,NCCL搞定多卡通信。这些库都是跟英伟达的硬件深度绑定优化的,换块AMD的卡,你得重新验证每一个库的表现,费时费力,结果还不一定效果好。
第三道墙,是迁移成本,一家公司的AI模型如果基于CUDA开发,换平台不只是改几行代码就可以了,团队要重新培训,文档要重新写,踩过的坑要重新踩一遍。这笔账算下来,很多公司直接放弃,乖乖续费买英伟达的卡。
第四道墙,是时间。英伟达搞CUDA将近二十年了,AMD的ROCm才刚起步,哪怕其他厂家每年进步30%,追上也要七八年。AI行业哪等得了那么久。
当然,CUDA的护城河也不是铁板一块。谷歌早就在用自己的TPU 运行内部任务,Meta、OpenAI也在用 AMD的卡做部分工作负载。PyTorch现在加了编译器层,理论上可以让代码不那么依赖底层芯片。
但这些裂缝,还远没有变成缺口。
真正能撼动英伟达的,不是哪家芯片公司做出了更快的硬件,而是整个行业攒出了一套足够好用的"翻译层",让代码不用改就能在任何芯片上完美运行。
在那之前,英伟达还是老大

评论列表