使用场景
硬件制造商使用MLPerf Client基准测试来比较不同GPU在AI任务中的性能。
软件开发者利用MLPerf Client测试其AI应用在不同硬件配置下的性能表现。
AI研究人员使用MLPerf Client来评估不同优化技术对模型性能的影响。
产品特色
评估个人电脑上的大型语言模型和其他AI工作负载性能
提供清晰的性能指标,帮助理解系统处理生成性AI工作负载的能力
推动AI在个人电脑领域的创新和竞争
支持多种硬件加速路径,包括ONNX Runtime GenAI和Intel OpenVINO
使用Llama 2 7B大型语言模型进行测试,覆盖内容生成、创意写作、摘要等多种任务
系统需求明确,支持AMD、Intel和NVIDIA的特定硬件配置
提供详细的Q&A部分,帮助用户了解如何运行基准测试和解读结果
使用教程
1. 访问MLPerf Client的GitHub发布页面,下载最新版本的基准测试工具。
2. 确保系统满足基准测试的硬件和软件需求,包括安装Microsoft Visual C++ Redistributable。
3. 将下载的Zip文件解压到本地驱动器的文件夹中。
4. 打开命令行界面,导航到解压后的文件夹。
5. 使用-c标志和配置文件名运行基准测试可执行文件,例如:mlperf-windows.exe -c Nvidia_ORT-GenAI-DML_GPU.json。
6. 等待基准测试下载所需的文件,然后开始运行测试。
7. 查看测试结果,包括Time to first token (TTFT)和Tokens per second (TPS)等性能指标。
8. 根据需要调整配置文件,以测试不同的硬件加速路径或模型优化。