使用场景
使用Qwen2.5-Turbo处理10部长篇小说,生成每部小说的详细摘要。
将150小时的演讲记录转换为简洁的会议纪要。
为30000行代码提供上下文理解,以辅助代码生成和错误检测。
产品特色
支持高达1M个token的上下文长度,能处理超长文本。
在1M-token Passkey Retrieval任务中实现100%准确率。
在RULER长文本评估基准测试中得分93.1,性能超越GPT-4。
集成稀疏注意力机制,生成第一个token的时间从4.9分钟缩短至68秒。
处理成本为每1M个token 0.3元,性价比高。
保持短文本处理的高性能,与GPT-4o-mini相当。
通过API服务提供使用,兼容标准Qwen API和OpenAI API。
使用教程
1. 准备一个长文本文件,例如'example.txt'。
2. 使用Python编写代码,导入必要的库。
3. 读取长文本文件内容,并添加用户输入。
4. 设置环境变量'YOUR_API_KEY',获取API密钥。
5. 创建OpenAI客户端实例,指定API密钥和基础URL。
6. 调用客户端的chat.completions.create方法,传入模型名称和消息。
7. 打印返回的完成结果。