我觉得DeepSeekV4一发布就开源,最大的亮点就是:Ds4直接证明,前几天黄仁勋说的话全对了。 就在4月24日,国产大模型团队DeepSeek放出了王炸,全新的DeepSeekV4系列预览版正式上线,并且同步完成全量开源。消息一出,不仅国内AI圈炸开了锅,就连海外科技平台都被这条消息刷屏,无数开发者和行业研究者第一时间涌入开源平台,只为第一时间见证这款国产模型的真正实力。 要知道,就在这次发布之前,很多人对AI行业的认知还停留在“顶级能力=闭源垄断”的固有印象里。 全球顶尖的大模型,无论是OpenAI的GPT系列,还是Anthropic的Claude系列,无一例外都走的是闭源路线,把核心技术牢牢攥在自己手里,只通过API接口对外提供收费服务。谁也没想到,DeepSeek这次直接反其道而行之,把两款性能拉满的新模型,毫无保留地开源了。 这次发布的V4系列,含金量到底有多高?简单来说,它直接把曾经只有顶级闭源模型才拥有的能力,变成了全行业都能免费用到的标配。 整个系列包含两款模型,主打旗舰性能的V4-Pro,总参数量达到1.6万亿,激活参数490亿,在知识储备、复杂推理、代码能力、智能体任务上,已经能比肩全球顶尖的闭源模型;主打极致性价比的V4-Flash,总参数2840亿,激活参数仅130亿,用极小的参数量实现了极高的推理效率,同时还能保证核心能力不掉队。 更让人震撼的是,这两款模型,全系列都把100万token上下文作为了标配。 这是什么概念?相当于模型一次就能读懂上百万字的完整文档,不管是整本的行业报告、完整的代码项目,还是长篇的法律文书,都能一次性处理完成。 而DeepSeek还通过全新的混合注意力架构,把百万token场景下的单token计算量降到了上一代的27%,KV缓存更是仅为上一代的10%,直接把长文本处理的成本打了下来。有海外硬件工程师直言,这项突破甚至可能解决当下全球AI行业都头疼的HBM显存短缺问题。 而最让行业意外的,是它的定价和开源决心。根据海外平台的测算,DeepSeekV4的使用成本,仅为ClaudeOpus4.7的二十分之一。 有从业者做了个形象的对比,如果一家企业把AI预算从闭源模型换成DeepSeekV4,原本只能用4个月的预算,现在能足足用上7年。 更关键的是,它不是只开放了有限的API调用,而是把完整的模型权重、58页的技术报告全部公开,任何个人、开发者和中小企业,都能免费下载、二次开发和商用,真正把顶级AI能力的门槛彻底拉平了。 而这一切,恰恰完美印证了黄仁勋此前的判断,也让当初那些质疑他的人彻底闭了嘴。 就在前不久的链博会上,黄仁勋在北京的演讲中,当着全球行业的面,说出了两句让很多人半信半疑的话。一句是“中国的开源AI是推动全球进步的催化剂”,另一句,是他直言DeepSeek等中国大模型,是当之无愧的世界级模型,甚至专门称赞DeepSeek的论文,既是A+的科学论文,也是A+的工程论文。 当时不少人觉得,黄仁勋这番话不过是商业客套,甚至有人调侃,他只是为了给英伟达的芯片在中国市场铺路,才特意给中国大模型说好话。 毕竟在很多人的固有认知里,AI行业的话语权始终握在硅谷巨头手里,中国的大模型就算有进步,也很难和全球顶级选手掰手腕,更别说靠开源推动全球行业进步了。 但DeepSeekV4的发布,直接用实打实的技术实力,证明了黄仁勋说的每一句话,都不是空穴来风。 很多人没看懂,DeepSeek这次开源的意义,从来都不只是发布了一款性能强劲的模型。它真正打破的,是海外巨头用闭源筑起的技术高墙。在此之前,顶级大模型的核心技术,始终被少数几家海外公司垄断,中小企业和普通开发者只能花钱买服务,根本没有触碰核心技术的机会。而DeepSeek直接把顶级能力的模型开源,相当于把AI创新的钥匙,交到了全球每一个开发者手里。 更难得的是,它没有被单一的算力生态绑定。这次发布的V4系列,不仅在英伟达的GPU平台上完成了极致优化,还同步完成了华为昇腾NPU的适配验证,寒武纪的芯片也实现了发布即适配,相关代码全部同步开源。这恰恰印证了黄仁勋说的,开源的价值,是让所有人都能为AI进步贡献力量,汇聚全行业的资源创新,最终造福整个生态系统。 曾经有人质疑,开源模型永远做不出顶级性能,只能在闭源模型身后追赶。但DeepSeek用一次次的突破,打破了这个偏见。从之前的模型迭代,到这次V4系列在推理、代码、长文本等多个维度,超越一众开源模型,甚至比肩全球顶级闭源模型,它用实力证明,开源不是落后者的无奈选择,而是引领者的底气。

bluepoint
关键是国产gpu都说支持,实际如何都知道