-
《Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Experts Layer》论文解读与行业影响
一、论文主要内容《Outrageously Large Neural Networks: The Sparsely-Gated Mixture-of-Exper... -
华为开源盘古7B稠密和72B混合专家模型
6月30日,华为于正式宣布开源盘古70亿参数的稠密模型、盘古Pro MoE720亿参数的混合专家模型,以及基于升腾的模型推理技术。此次开源举措,是华为践行升腾生...