大摩 AI 生态系统研讨会,关于中国 AI 供应链的关键图表
一、全球与区域大背景
生成式AI → 半导体产业的核心驱动力生成式AI的发展把算力需求推向新高,半导体产业预计在本十年末突破1万亿美元市场规模,其中AI半导体贡献近一半。摩尔定律转向系统级创新不再仅依赖制程微缩,而是通过先进封装(CoWoS/SoIC)、高带宽存储(HBM)、光电共封装(CPO)、定制 ASIC等方式延续算力提升。资本开支浪潮本十年内,AI相关资本开支预计累计3–4万亿美元,数据中心与AI专用芯片是核心投向,Google TPU虽迟但到?
二、中美对比:两条不同路径美国:专有模型 + GPU主导
NVIDIA GPU形成事实标准。
OpenAI、Anthropic等依靠封闭式大模型和庞大资金优势。
中国:开放模型 + 推理侧驱动全球前十大SOTA模型中,中国占一半。国内形成开放权重(开源大模型)战略,以推理需求为主,降低对GPU绝对依赖。本质原因就是AI能力公式中的AI算力子项还是弱,所以阿里当下最佳发展路径一定是自研+外采ASIC+外采GPU混合路径。第一阶段一定是外采为主,自研ASIC真没那么简单。如果不懂技术,只看海外各种ASIC推迟新闻就心中有数了。反过来讲,正式因为ASIC没这么简单,作为ASIC的代表Google TPU才有预期差。国内六大科技巨头2025年资本开支预计同比 +62%,达到3730亿元人民币,大规模投入数据中心和 AI Infra。
三、应用层:
从 2C 到 2B 的双线演进2C 端(消费)腾讯、阿里、百度、字节、月之暗面等纷纷推出千万 DAU的原生AI应用。微 信、支付宝、淘宝、美团等超级应用逐步嵌入AI → 成为AI Agent入口。2B 端(企业)应用场景快速扩散:广告营销、医疗、金融、电商、工业、能源、办公。企业侧 AI 应用强调 降本增效 + 行业知识集成,与 OpenAI 的通用性路线不同。
四、硬件与供应链的价值迁移
算力核心:
GPU + ASIC短期:NVIDIA GPU 仍为训练标准;ASIC 用于推理加速。
长期:GPU+ASIC 组合不可或缺。关于这点笔者也讲过多次了,不谋而合,GPU+ASIC一定是双轮驱动。
AI 服务器的拐点
NVIDIA AI 服务器出货量预计在 2026 年见顶。
行业重心转向 :
系统集成 & 基础设施:液冷散热(CDU、浸没式液冷、冷板液冷)
电源架构(HVDC 800V 高压直流)
服务器 ODM 能力与模块化设计
价值重分配
传统 GPU 芯片 ASP 增速放缓后,先进封装、散热、电力系统、光模块(CPO/硅光)成为新利润池。
TW地区、中国大陆的代工、封装、散热与光模块厂商受益显著。上证指数今日看盘[超话]