2025.9.21:逻辑非原创,仅是我自己很认可,所以整理一下供自己学参考。
第一阶段:训练端,逻辑是需要海量的数据和巨大的算力,去“训练”出一个AI大脑(类似于ChatGPT),特点是由少数巨头和大型云公司主导,一次性投入巨大,耗费数以万计的顶级GPU和巨额资金。而在顶级GPU方面
英伟达是绝对霸主,在行业内只能买他家的产品,有垄断性,所以业绩非常亮眼,但美股买不了,只能买给英伟达加工的龙头企业,业绩也是不错的。
第二阶段:推理端,将大脑的能力分散到各处去解决实际问题,千万级应用和公司参与,要求低延迟、低功耗、低成本。也就是说AI下沉到边缘和终端(手机、汽车、IoT),这导致了需求特征的根本性改变:
1.对芯片的要求变了:从追求极致算力(H100)到追求能效比(每瓦特功耗提供的算力)。这就是为什么
高通(手机/XR/
汽车芯片),英伟达(
机器人/边缘AI)会成为推理时代的新贵。通富买入的逻辑就在这里,AMD的最大封装供应商,而AMD比起H100更有性价比,不是说英伟达不行,是AMD已经够满足终端设备的算力需求了。
2. 对存储的需求变了:云端推理需要HBM(高带宽内存)满足高带宽,而海量的边缘终端需要LPDDR(低功耗内存)和NAND Flash(闪存)来满足低功耗和模型存储的需求。SK海力士、三星、美光的涨价和业绩预期正是这一逻辑的直接体现。HBM供给高度集中,龙头厂商拥有极强的定价权和利润兑现能力(HBM的堆叠工艺和TSV(硅通孔)技术壁垒导致目前只有SK海力士、三星、美光三家能大规模量产),HBM和高端LPDDR业务进行价值重估。它们不再被看作是“大宗商品”,而是高技术壁垒、高附加值的AI核心组件,估值体系正在发生变化。
3. 商业模式变了:从卖硬件(显卡)一次性收入,转向按需收费的云服务(MaaS)和授权费,市场空间和持续性变得更好。此外我们还需要寻找什么?是能够整合AI能力并爆发出业绩的公司,关于AI应用落地,游戏行业是其中最快、最显性的领域之一,这也是
巨人网络持续上涨的逻辑,他炒的压根就不是游戏。
这里推理端有几个炒作方向:
1. 云端推理硬件(“直接继承者”):芯片:英伟达
逻辑:推理同样需要强大的算力集群,巨头们的资本开支会持续投入。
2.边缘与终端推理(“全新增量”)
芯片:高通(骁龙平台)、英伟达(Jetson平台)、ARM(IP授权)。
存储:SK海力士、三星、美光(LPDDR、NAND Flash需求激增)。
逻辑:
AI手机、
AI PC、
智能汽车、IoT设备等亿万级终端带来的蓝海市场。
3.软件与服务(“赋能者”):
云平台:
微软Azure、
亚马逊AWS、谷歌云、阿里云(提供MaaS,直接变现)。
模型优化:模型压缩、量化工具提供商(让大模型能在小设备上跑起来)。
应用开发商:将AI能力应用于具体场景(如办公、教育、金融),是需求的最终源头。
4.底层基础设施(“卖水人”):
散热:液冷技术成为高密度推理服务器的标配。
电力:巨大的、持续的电能消耗,利好
储能相关企业。
相关标的:
香农芯创深耕半导体分销业务,已取得SK海力士、MTK和AMD的经销商资质,联合海力士、大普微联合设立海普存储发力企业级SSD和RDIMM产品,已发布自研的企业级SSD、DDR4/DDR5RDIMM三款内存产品。
瑞芯微是国内领先的AIoTSoC芯片企业,公司与ARM长期保持良好的合作关系,会根据瑞芯微自身芯片产品的设计需求采购相应IP授权。公司能够为下游客户及生态伙伴提供从0.2TOPs到6TOPs的不同算力水平的AIoT芯片,其中RK3588、RK3576带有6TOPs NPU处理单元,能够支持端侧主流3B以下参数级别的模型部署。与阿里云合作
智能家居AI芯片。
立讯精密通过收购Qorvo封测厂间接为高通提供射频产品组装和测试服务
科华数据推动“AI智慧电能”“液冷”“算力”等业务出海。算电协同大势所趋,公司已实现
数据中心与“光储”的融合,推出数据中心光储解决方案,并通过
智慧能源系统,打造“源网荷储”一体化体系。科华数据的远期价值,核心在于公司多年对于UPS、HVDC等供配电产品的技术积累与深刻理解,以及与大厂长期合作形成的运营经验与资源积累,这使得公司不仅受益于AIDC建设推动的上游设备顺周期逻辑,更有望成为多个云厂商在AIDC供电+温控的核心合作对象,提供产品以及一体化解决方案,占据国内稀缺的类似“维谛(Vertiv)”的生态位。
应用方面找了一圈没有看到合适的,就先这样吧