EXAONE 3.5 7.8B Instruct GGUF

使用场景研究人员使用EXAONE 3.5模型进行长文本的语义理解和分析。开发者利用EXAONE 3.5模型开发多语言对话系统。企业使用EXAONE 3.5模型优...

  • EXAONE 3.5 7.8B Instruct GGUF

    类别:AI模型,开发与工具,文本生成,Transformers,GGUF,英语,韩语,lg-ai,exaone,长上下文理解,普通产品,开源,
    官网:https://huggingface.co/LGAI-EXAONE/EXAONE-3.5-7.8B-Instruct-GGUF 更新时间:2025-08-02 10:05:15
  • 使用场景

    研究人员使用EXAONE 3.5模型进行长文本的语义理解和分析。

    开发者利用EXAONE 3.5模型开发多语言对话系统。

    企业使用EXAONE 3.5模型优化其客户服务自动化流程。

    产品特色

    支持长达32K令牌的长上下文处理能力。

    在真实世界用例和长上下文理解方面展现出最先进的性能。

    与近期发布的类似大小模型相比,在通用领域保持竞争力。

    提供多种精度的指令调优7.8B语言模型,包括Q8_0、Q6_0、Q5_K_M、Q4_K_M、IQ4_XS等量化类型。

    支持多种部署框架,如TensorRT-LLM、vLLM、SGLang、llama.cpp和Ollama。

    模型经过优化,适用于小或资源受限的设备。

    提供预量化的EXAONE 3.5模型,使用AWQ和多种量化类型。

    使用教程

    1. 安装llama.cpp,具体安装指南请参考llama.cpp的GitHub仓库。

    2. 下载EXAONE 3.5模型的GGUF格式文件。

    3. 使用huggingface-cli下载指定的EXAONE 3.5模型文件,例如:'huggingface-cli download LGAI-EXAONE/EXAONE-3.5-7.8B-Instruct-GGUF --include "EXAONE-3.5-7.8B-Instruct-BF16*.gguf" --local-dir .'

    4. 使用llama-cli运行模型进行对话模式的推理,例如:'llama-cli -cnv -m ./EXAONE-3.5-7.8B-Instruct-BF16.gguf -p "You are EXAONE model from LG AI Research, a helpful assistant."'