Skywork MoE

使用场景在C-Eval、MMLU、CMMLU等流行基准测试上的评估使用HuggingFace进行Skywork-MoE-Base模型的推理示例基于vLLM的Sk...

  • Skywork MoE

    类别:AI模型,AI 模型推理训练,MoE模型,大规模语言模型,门控逻辑归一化,自适应辅助损失系数,优质新品,开源,
    官网:https://github.com/SkyworkAI/Skywork-MoE 更新时间:2025-08-01 18:15:14
  • 使用场景

    在C-Eval、MMLU、CMMLU等流行基准测试上的评估

    使用HuggingFace进行Skywork-MoE-Base模型的推理示例

    基于vLLM的Skywork-MoE-Base模型快速部署示例

    产品特色

    Gating Logit Normalization技术,增强专家多样化

    Adaptive Auxiliary Loss Coefficients技术,允许层特定的辅助损失系数调整

    与Hugging Face、ModelScope、Wisemodel等平台兼容

    支持在8xA100/A800或更高GPU硬件配置上进行推理

    提供vLLM模型推理的快速部署方法

    支持fp8精度,可在8*4090上运行Skywork-MoE-Base模型

    提供详细的技术报告和社区许可协议

    使用教程

    安装必要的依赖,包括pytorch-nightly版本和vllm-flash-attn

    克隆Skywork提供的vllm源代码

    根据本地环境配置并编译安装vllm

    使用docker运行vllm,设置模型路径和工作目录

    通过vllm的LLM类和SamplingParams类进行文本生成