使用场景
研究人员可以利用该模型快速检索不同语言的学术文献中的关键图表和内容。
企业分析师能够跨语言搜索行业报告中的可视化数据和分析结果。
内容创作者可以方便地查找多语言文档中的灵感素材和参考资料。
产品特色
支持多语言(意大利语、西班牙语、英语、法语、德语)文档检索
低 VRAM 和快速推理,推理速度比基础模型快 3 倍,VRAM 使用量更低
跨语言检索能力强,可实现不同语言间的文档搜索
采用 Matryoshka 表示学习,可将向量大小缩小 3 倍,同时保持 98% 的嵌入质量
提供 SentenceTransformers 和 LlamaIndex 直接集成,易于生成嵌入
使用教程
1. 通过 pip 安装 llama-index-embeddings-huggingface 或 sentence-transformers 库。
2. 导入相应的模型类,如 HuggingFaceEmbedding 或 SentenceTransformer。
3. 创建模型实例,指定模型名称和其他参数,如设备类型。
4. 使用模型的 get_image_embedding 或 encode 方法,传入图像文件路径或查询文本,获取嵌入向量。
5. 利用得到的嵌入向量进行文档检索等操作。
