第(2/3)页 这是一个极度长远的阳谋。 随时间推移,越来越多程序员习惯用CUDA。 各种基于CUDA的科学计算库、深度学习框架开始在开源社区生长。 当2025年大模型时代爆发,全球科技公司都需要海量算力训练AI时,他们发现一个绝望的现实。 所有成熟AI算法,所有好用的深度学习框架,底层代码都是基于CUDA写的。 而CUDA,是英伟达的私有闭源技术。 它只支持英伟达自家显卡。 如果买一批AMD显卡,会发现根本无法运行主流AI算法,因为AMD硬件解析不了CUDA指令。 想在AMD显卡上跑通大模型,必须把整个软件生态从底层重写。 这个工作量,大到没有公司愿意承担。 这就是为什么,到了AI时代,所有人都只能捏着鼻子去抢购英伟达高价算力卡。 算力可以制造,但生态一旦形成,就是一道叹息之墙。 夏冬放下手机,揉了揉眉心。 他现在处境很矛盾。 如果批准吴泽明的迁移方案,盛夏科技算力危机立刻就能解决。 凭借CUDA的并行计算能力,快看网推荐算法效率至少提升数十倍,服务器压力彻底释放。 但这等于替英伟达测试他们还不成熟的早期生态。 盛夏科技作为国内目前数据量最大、算法最先进的互联网公司,一旦全面拥抱CUDA,在这个平台跑通所有推荐逻辑。 那就会形成路径依赖。 盛夏科技的程序员会越来越习惯调用CUDA函数库。 等几年后,陆奇和国内团队把盛夏科技自己的通用GPU流片成功。 夏冬总不能指望自家硬件去支持对手的私有协议。 到那时,盛夏科技自己开发的GPU,会面临完全没有软件可跑的尴尬。 要让手下这批习惯了CUDA的程序员,重新学一套新指令集,把快看网庞大的底层代码全部重写。 那将是一场灾难。 时间成本和试错成本,都会拖垮整个公司。 夏冬在办公室里踱步。 不能因噎废食,服务器必须救,现阶段只有英伟达显卡加CUDA能解决燃眉之急。 但这口毒奶,不能毫无防备地咽下去。 第(2/3)页