引用格兰投研的文字,真是行到水穷处,坐看云起时
这时候,
英伟达老黄又恰逢适宜站出来说,巨额AI支出“合理且可持续”。

在老黄眼里,这一轮AI基础设施建设周期,起码还要持续七到八年。
一句话,直接把华尔街那帮天天盯着财报,看AI是不是泡沫的分析师干沉默了。

倒是与我周四文章的判断不谋而合。
老黄从哪来的底气呢?
根源来自计算的基础逻辑变了。
过去60年,我们用的电脑一直用的是显性编程。简单说就是程序员把每一步指令都确定好,CPU扮演一个听话但不会自己思考的搬运工角色,把指派的活干好就行。
现在,生成式AI完全是另一套逻辑,隐形编程。可以理解成给他一个需求,然后让AI自己去想办法实现。有点甲方派活的意思。这时候以前那种按部就班的计算架构就用不上了,得换成大规模的GPU加速计算。
现在全球有价值1万亿美元的
数据中心,里面装的大多是老旧的CPU。现在的时代,这些东西根本承载不了AI排山倒海般的并行计算需求。
这就代表,这一万亿美元的旧设施,要全部进行现代化改造,完成全新的GPU架构升级。
这不是选择题,这是生存题。是全球AI巨头们正在进行的存量替换。
现在再翻过来,看谷歌和
亚马逊1800亿美元和2000亿美元的资本支出,大概就能理解其中原因了。
再加上老美把大模型的能力提升向推理侧转移,以及一贯的大力出奇迹思路,对算力的要求只会越来越高。
经过测算,这种玩法下,算力成本比上一代增加了4.5倍左右。
以前是一个大厨炒一盘菜,现在是四个大厨通力合作炒一盘菜。
按这样的形势发展下去,未来大模型只会越来越卷,谁能调动的算力多,谁的体验就好。
当各大巨头都在拼命堆算力的时候,供应链就成了左右结果的胜负手。
大家都在抢光模块、抢晶圆、抢核心代工。什么稀缺,什么溢价能力就强。
现在的AI产业链其实很像木桶,任何一个短板补齐了,都会带动其他环节放量。在交易节奏上,要注意硬件之间的带动关系。
实在不会看,就盯紧光模块和核心算力基建,这是海外算力后面确定性最高的方向。