DeepSeekV4掀开的中国AI新战局:低成本长上下文、国产算力与智能体时代

老牛慧谈商业 2026-04-27 01:12:57

DeepSeek V4掀开的中国AI新战局:低成本长上下文、国产算力与智能体时代的真正拐点

DeepSeek V4的意义,表面上看是一次新模型发布,深层看则是中国AI产业进入下一阶段竞争的信号。高盛的判断很明确:V4最关键的价值,不只是参数更大、上下文更长、性能更强,而是它通过架构创新,把长上下文推理成本大幅压下来,为更复杂的智能体应用真正落地打开空间。

过去AI模型竞争,很多时候拼的是谁的模型更大、谁的榜单更高、谁的推理更强。但智能体时代真正要解决的问题,是成本、速度、稳定性和长任务处理能力。一个模型如果可以读更长的内容、记住更多上下文、完成更复杂的连续任务,同时推理成本还能明显下降,它才有机会从技术展示走向大规模商业应用。DeepSeek V4的核心价值,就在这里。

这次DeepSeek V4分为Pro和Flash两个版本。Pro是旗舰版本,参数量达到1.6万亿,激活参数为490亿;Flash相对轻量,参数量为2840亿,激活参数为130亿。更重要的是,两款模型都支持100万token级别的超长上下文窗口,已经和海外顶级模型处在同一梯队。但真正值得关注的地方,是它在内存占用和KV缓存上的压缩能力。

按照高盛的测算,V4 Pro在100万上下文场景下,单token推理所需浮点运算量只有DeepSeek V3.2的27%,KV缓存占用只有10%;V4 Flash的效率更激进,浮点运算量降到10%,KV缓存压缩到7%。这组数字背后的含义很大:长上下文过去是高成本、高显存、高门槛的能力,现在DeepSeek把它变得更便宜、更可扩展、更适合真实业务调用。

支撑这种变化的,是DeepSeek在底层架构上的几项创新。V4引入了混合注意力机制,将压缩稀疏注意力和重度压缩注意力结合起来。前者先对KV缓存做序列维度压缩,再进行稀疏注意力计算;后者压缩更激进,但保留稠密注意力的优势。两者配合,使模型在处理超长输入时,对临时内存的需求大幅下降。简单说,就是模型能看得更长,记得更多,同时不再那么吃算力和显存。

除了注意力机制,V4还通过mHC机制增强多层网络的信息传递稳定性,并采用Muon作为主要训练优化器,部分模块继续保留AdamW,以适应比V3更复杂的网络结构。这说明DeepSeek这一次并不是单纯堆参数,而是在模型训练、架构压缩、长上下文处理和推理效率之间做了一套系统性重构。

这种效率提升,对普通聊天机器人当然有价值,但真正的爆发点在智能体。未来AI要承担更长周期、更复杂链条的任务,比如读大量文件、调用多种工具、连续分析公司经营数据、写代码、做研究、跟踪项目、处理企业流程。这里面的核心门槛不是能不能回答一句话,而是能不能在极长上下文中持续保持判断力和执行力。DeepSeek V4降低长上下文成本,等于是给复杂智能体应用铺了一条更现实的商业道路。

更值得注意的是,DeepSeek V4还释放了一个重要产业信号:它正在把华为昇腾950超级节点纳入未来商业路径。DeepSeek预计,随着昇腾950在2026年下半年实现大规模供货,V4 Pro的API定价有望明显下降。这个判断的分量很重,因为它不仅关系到DeepSeek自身的成本曲线,也关系到中国顶尖AI模型向国产算力迁移的速度。

在外部高端芯片持续受限的背景下,中国AI公司要想长期参与全球竞争,就不能只依赖单一外部供应体系。DeepSeek明确押注国产算力,意味着国产芯片、国产模型、国产云基础设施之间的协同正在变得更现实。一旦模型效率提升叠加国产算力扩容,中国AI应用的边际成本就会继续下降,更多企业和开发者才有机会真正用得起、用得久、用得深。

DeepSeek V4的开源发布,也会进一步加剧国内大模型竞争。高盛提到,近期国内模型阵营正在密集迭代,包括Kimi K2.6、阿里Qwen3.6-Max、腾讯Hy3预览版、小米V2.5,以及预计5月推出的MiniMax M3和Hailuo。中国AI模型市场已经从早期的规模竞赛,进入更细分的差异化竞争阶段。

接下来的关键,不再只是模型会不会聊天,而是谁能在具体任务中交出更高成功率。高盛认为,未来模型定价权主要取决于两个方向:一是编程能力和任务完成率,二是多模态能力。前者决定模型能不能真正成为生产力工具,后者决定模型能不能从文本走向图像、视频、语音乃至复杂交互场景。智谱在代码能力上表现突出,字节、阿里和MiniMax则在多模态方向投入较深。

不同类型玩家也会形成不同打法。独立AI公司组织效率更高,决策链条更短,更适合快速迭代模型和产品。高盛认为,像MiniMax这类独立玩家,即便基础文本API定价极低,仍有望实现40%左右的毛利率。互联网大厂则拥有现金流、流量、云基础设施和场景优势,更适合长期投入AI基础设施和企业服务,但也需要建立更独立的团队激励机制,才能留住顶尖AI人才。

这也解释了为什么巨头会对顶层AI能力保持高度关注。高盛援引市场消息称,腾讯和阿里正在洽谈以超过200亿美元估值投资DeepSeek,而智谱和MiniMax的估值也处在较高水平。无论最终交易如何变化,这都说明一件事:顶级模型能力已经成为中国互联网巨头争夺未来入口的关键资产。

从投资逻辑看,高盛依然把云计算和数据中心放在中国互联网子赛道的首选位置。原因很直接:AI应用越普及,token需求越大;智能体任务越复杂,云算力消耗越高;企业客户越依赖AI工具,云服务和token的定价能力就越容易改善。换句话说,模型竞争越激烈,底层基础设施反而越重要。

在企业云市场,阿里依然凭借外部AI云收入规模保持领先;在消费端AI市场,字节跳动则是AI聊天机器人日均token使用量最大的玩家之一。高盛还提到,中国AIGC应用的日活跃用户整体保持强劲增长,2026年3月环比增速达到36%。这说明AI需求并没有停留在概念层面,而是在真实用户行为中持续扩张。

因此,高盛继续强调万国数据、世纪互联、阿里巴巴和金山云这几类标的,作为把握中国AI基础设施扩张红利的重要方向。其背后逻辑并不复杂:当模型越来越便宜、调用越来越频繁、应用越来越复杂,真正承接流量和算力需求的,最终还是云平台和数据中心。

DeepSeek V4真正带来的冲击,不只是中国又多了一个强模型,而是它把AI产业的竞争焦点往前推了一步。过去行业看重模型能力,现在开始看重成本效率;过去看重单点性能,现在更看重长任务承载;过去依赖外部算力,现在国产算力正在进入核心叙事;过去AI应用很多停在演示阶段,现在复杂智能体有机会走向规模化落地。

这才是DeepSeek V4对中国AI的真正意义。它让市场看到,中国AI并没有沿着海外模型的路径简单追赶,而是在效率、开源、国产算力和应用落地之间,寻找一条更适合自己的产业路线。谁能把模型能力变成低成本、可调用、可持续、可商业化的生产力,谁才会在下一轮AI竞争中掌握真正的话语权。

0 阅读:2
老牛慧谈商业

老牛慧谈商业

感谢大家的关注