Openemma

使用场景研究人员使用OpenEMMA在nuScenes数据集上测试新的自动驾驶算法。开发者利用OpenEMMA提供的框架开发出自己的自动驾驶决策系统。教育机构使...

  • Openemma

    类别:模型训练与部署,研究工具,自动驾驶,端到端模型,多模态,预训练模型,开源,普通产品,开源,
    官网:https://github.com/taco-group/openemma 更新时间:2025-08-02 10:09:52
  • 使用场景

    研究人员使用OpenEMMA在nuScenes数据集上测试新的自动驾驶算法。

    开发者利用OpenEMMA提供的框架开发出自己的自动驾驶决策系统。

    教育机构使用OpenEMMA作为教学工具,向学生展示自动驾驶技术的实际应用。

    产品特色

    • 利用预训练的视觉语言模型(VLMs)整合文本和视觉输入

    • 精确预测自动驾驶车辆的未来路径点

    • 提供模型决策的理由和解释

    • 支持YOLO-3D等外部工具进行关键物体检测

    • 支持多种模型,如GPT-4、LLaVA、Llama和Qwen2

    • 生成预测路径的可视化图像和编译视频

    • 支持nuScenes数据集进行模型训练和测试

    使用教程

    1. 设置Conda环境并激活:conda create -n openemma python=3.8; conda activate openemma

    2. 克隆OpenEMMA仓库:git clone git@github.com:taco-group/OpenEMMA.git; cd OpenEMMA

    3. 安装依赖:pip install -r requirements.txt

    4. 设置GPT-4 API访问权限:export OPENAI_API_KEY="your_openai_api_key"

    5. 准备输入数据:下载并解压nuScenes数据集

    6. 运行OpenEMMA:python main.py --model-path [model] --dataroot [dataset_dir] --version [version] --method openemma

    7. 解读输出:包括路径点、决策理由、标注图像和编译视频