使用场景
在数学问题解答中,模型能够根据问题和答案生成推理步骤和奖励。
在代码评估中,模型能够对代码的每一步进行评分,帮助优化代码质量。
在多语言环境下,模型能够处理中文和英文的数据集,展现出跨语言的推理能力。
产品特色
• 推理能力提升:模型在标准基准测试中显示出推理技能的显著提升。
• 多模型系列:包括Skywork o1 Open-Llama-3.1-8B、Skywork o1 Open-PRM-Qwen-2.5-1.5B和Skywork o1 Open-PRM-Qwen-2.5-7B三个高级模型。
• 增量过程奖励:Skywork o1 Open-PRM-Qwen-2.5-1.5B专为复杂问题解决设计,通过增量过程奖励增强推理能力。
• 扩展推理任务:Skywork o1 Open-PRM-Qwen-2.5-7B扩展了1.5B模型的能力,能够处理更具挑战性的推理任务。
• 多语言支持:包括中文和英文的数据集,能够处理多语言的推理任务。
• 竞赛级数据集:使用了包括奥林匹克竞赛级别的数据集,如OlympiadBench、AIME-24和AMC-23。
• 代码评估:Skywork-o1-Open-PRM-Qwen-2.5-7B还涉及到代码评估,使用HumanEval、MBPP和LiveCodeBench等数据集。
使用教程
1. 克隆Skywork PRM推理仓库:使用git命令克隆Skywork-o1-PRM-Inference仓库到本地。
2. 运行PRM推理:根据提供的代码示例,准备输入数据并使用模型进行推理。
3. 安装vllm和vllm PRM插件:通过pip安装vllm和相关插件,以便在本地运行PRM模型。
4. 启动vllm服务器:配置并启动vllm服务器,以便进行模型推理。
5. 向服务器请求推理:使用提供的代码示例,向vllm服务器发送推理请求并获取结果。