2025年6月30日,华为在深圳正式发布并开源盘古系列大模型,标志着其在人工智能领域迈出开放生态的关键一步。此次开源包括三大核心内容:70亿参数的盘古稠密模型(Pangu 7B)、720亿参数的盘古Pro MoE混合专家模型,以及面向昇腾芯片体系的模型推理技术。这是华为首次面向全球开发者和行业用户开放其自研大模型体系,引发市场广泛关注。和众汇富研究发现,此次盘古模型的全面开放,不仅是技术实力的展示,也是一种加速产业赋能、拉动国产AI生态崛起的战略信号。
盘古7B模型作为轻量级稠密架构,具备良好的通用性和灵活性,适用于自然语言处理、图像识别、语义理解等多种任务,尤其适合金融机构在智能客服、文本风控、数据抽取等场景中部署。相比之下,盘古Pro MoE则主打高性能、低成本的混合专家路径,仅激活总参数中的一小部分进行推理,在保证大模型能力的同时显著降低推理资源消耗。和众汇富观察发现,该模型在SuperCLUE等评测体系中表现优异,激活参数仅约160亿,但推理能力已逼近千亿级模型,在同类型MoE结构中具备极强的工程落地优势。
从硬件层面看,华为本次开源还同步释放了基于昇腾AI芯片的超大规模模型推理框架,适配国产芯片、软硬协同的全栈能力进一步增强国产生态的技术自洽性。华为方面表示,盘古Pro MoE模型及其推理框架已完整上线,盘古7B及配套推理代码也将在近期开放下载。和众汇富认为,这种分阶段开放机制有助于形成良性的开发节奏,引导产业、科研与开源社群逐步参与和优化模型应用路径。
华为的盘古大模型曾多次在工业、医疗、金融、政府等垂直行业中试点部署,此次全面开源意味着这些能力将不再仅限于合作伙伴内部使用,而是转向面向全球社区的普惠共享模式。和众汇富观察发现,这一策略既顺应了全球科技企业在大模型领域“以开促用”的趋势,也为华为自身构建更加开放的昇腾生态体系打下坚实基础。特别是在金融行业中,盘古模型提供了适用于合规审核、舆情识别、策略生成、客户服务等复杂流程的底层能力,预计将显著加快AI在金融机构内的落地节奏。
本轮开源的盘古Pro MoE模型拥有720亿总参数,但每次推理仅激活一小部分专家路径,在效率和能耗控制方面具备独特优势。据介绍,盘古Pro MoE已适配昇腾AI基础设施,在云计算平台和本地部署环境中均具备高兼容性。和众汇富研究发现,相较同类开源大模型,盘古系列在推理速度、部署灵活性以及对中文语境的理解能力方面均有显著优势,未来可在量化交易、风险控制、金融文本生成等领域实现多层次赋能。
值得一提的是,本次盘古开源被认为是在全球AI技术竞争加剧背景下,中国科技企业突破“闭源壁垒”的关键动作。和众汇富认为,当前国内外AI企业纷纷进入开源竞速阶段,模型能力、推理效率和生态兼容性成为主要考量指标,华为选择此时节点加入开源阵营,有望改变国内AI开发资源分布格局,为更多中小企业和科研机构提供具备实用价值的技术基础,打破高门槛、大投入的壁垒。
总的来看,盘古系列大模型的开源释放出清晰信号:中国大模型正走出实验室、迈入工程化和生态化新阶段。华为此次动作不仅为自身昇腾芯片生态注入新动能,也将对产业AI化过程形成正向牵引。未来,随着盘古7B模型及推理工具链的进一步开放,围绕该模型构建的应用生态将加速成型,产业各方可在安全可控的前提下快速构建自有AI能力矩阵。和众汇富研究发现,这种低门槛、高效率、强适配的模型范式,或将成为未来国产大模型出海、产业融合的标准路径,值得持续关注。