从报错到解决:深入剖析LangChain中ollama与OpenAIEmbeddings的兼容性改造

news2026/3/25 19:43:32
1. 问题背景当ollama遇上OpenAIEmbeddings最近在折腾LangChain项目时遇到一个挺有意思的问题。我想用本地部署的ollama服务替代OpenAIEmbeddings结果刚跑起来就报了个400错误。错误信息显示invalid input type这让我有点懵——明明参数都配置对了啊。先说说为什么会有这个需求。很多开发者现在都喜欢用ollama本地部署大模型毕竟数据隐私和调用成本都是实打实的优势。而LangChain的OpenAIEmbeddings又是处理文本嵌入的利器如果能把这俩结合起来那真是既省钱又安全。但现实往往比理想骨感直接替换就会遇到这个经典的兼容性问题。我当时的测试代码很简单from langchain_openai import OpenAIEmbeddings embeddings OpenAIEmbeddings( modelbge-large-zh-v1.5, openai_api_basehttp://127.0.0.1:11434/v1/, api_keyollama ) output embeddings.embed_query(你好)看起来人畜无害的几行代码却抛出了openai.BadRequestError。这个错误表面上是说输入类型无效但实际暗藏玄机。接下来就带大家一步步拆解这个问题看看怎么让ollama和OpenAIEmbeddings愉快地玩耍。2. 错误排查从表象到本质2.1 第一反应参数检查遇到报错的第一反应当然是检查参数。我反复核对了ollama的API文档和OpenAIEmbeddings的接口要求openai_api_base确实指向了ollama的/v1/端点api_key按ollama要求设置了任意字符串model参数也正确指定了ollama支持的模型甚至用curl直接测试了API连通性curl http://127.0.0.1:11434/v1/embeddings \ -H Content-Type: application/json \ -d { input: [测试文本], model: bge-large-zh-v1.5 }结果这个请求是能正常返回的说明ollama服务本身没问题。那么问题很可能出在LangChain的封装逻辑上。2.2 深入调试Tokenization的锅用调试器跟踪代码执行发现关键问题出在_get_len_safe_embeddings方法里。OpenAIEmbeddings默认会对输入文本进行Tokenization处理而ollama的API并不需要这个步骤。具体来说原始文本传入后OpenAIEmbeddings会先进行分块和Tokenize处理后的数据结构与ollama API的预期不符ollama收到变形的数据后直接拒绝返回400错误这就解释了为什么curl能通但Python代码不行——数据预处理环节出了问题。要解决这个问题我们需要绕过OpenAIEmbeddings的默认Tokenization逻辑。3. 解决方案定制兼容层3.1 继承与重写最优雅的解决方案是创建OpenAIEmbeddings的子类重写关键方法from typing import List, Optional from langchain_community.embeddings import OpenAIEmbeddings class OllamaCompatibleEmbeddings(OpenAIEmbeddings): def _tokenize(self, texts: List[str], chunk_size: int) - tuple: 禁用Tokenization直接返回原始文本 indices list(range(len(texts))) return (range(0, len(texts), chunk_size), texts, indices)这个_tokenize方法的重写是关键它让后续处理直接使用原始文本跳过了可能导致问题的Tokenization步骤。3.2 同步与异步处理为了完整支持LangChain的各种使用场景我们需要同时处理同步和异步调用def _get_len_safe_embeddings( self, texts: List[str], *, engine: str, chunk_size: Optional[int] None ) - List[List[float]]: 同步版本的嵌入获取 _chunk_size chunk_size or self.chunk_size batched_embeddings: List[List[float]] [] for i in range(0, len(texts), _chunk_size): chunk texts[i: i _chunk_size] response self.client.create( inputchunk, modelself.model, **{k: v for k, v in self._invocation_params.items() if k ! model} ) if not isinstance(response, dict): response response.model_dump() batched_embeddings.extend(r[embedding] for r in response[data]) return batched_embeddings async def _aget_len_safe_embeddings( self, texts: List[str], *, engine: str, chunk_size: Optional[int] None ) - List[List[float]]: 异步版本的嵌入获取 _chunk_size chunk_size or self.chunk_size batched_embeddings: List[List[float]] [] for i in range(0, len(texts), _chunk_size): chunk texts[i: i _chunk_size] response await self.async_client.create( inputchunk, modelself.model, **{k: v for k, v in self._invocation_params.items() if k ! model} ) if not isinstance(response, dict): response response.model_dump() batched_embeddings.extend(r[embedding] for r in response[data]) return batched_embeddings这两个方法的核心修改点是直接使用原始文本列表作为input显式传递model参数保持其他调用参数不变4. 实际应用与效果验证4.1 使用方法改造后的调用方式与原版几乎一致embeddings OllamaCompatibleEmbeddings( modelbge-large-zh-v1.5, openai_api_basehttp://127.0.0.1:11434/v1/, api_keyollama, chunk_size512 ) output embeddings.embed_query(你好)唯一的区别就是把OpenAIEmbeddings换成了我们自定义的OllamaCompatibleEmbeddings类。4.2 性能考量在实际测试中发现几个值得注意的点分块大小ollama对长文本的处理能力有限建议chunk_size不要超过512批处理适当增大batch_size可以提高吞吐量但要注意内存消耗错误处理ollama的错误响应格式与OpenAI略有不同必要时可以重写错误处理逻辑下面是一个更完整的示例展示了如何批量处理文档documents [文档1内容, 文档2内容, ...] embeddings OllamaCompatibleEmbeddings( modelbge-large-zh-v1.5, openai_api_basehttp://127.0.0.1:11434/v1/, api_keyollama ) # 批量获取嵌入 doc_embeddings embeddings.embed_documents(documents) # 查询相似度 query 搜索词 query_embedding embeddings.embed_query(query)5. 深入原理为什么需要这样改5.1 ollama与OpenAI API的差异虽然ollama兼容OpenAI API格式但在一些细节处理上仍有差异特性OpenAI APIollamaTokenization必需可选输入格式Token IDs原始文本模型参数必须指定可选错误响应结构化简化版这些差异正是导致兼容性问题的根源。我们的改造方案本质上是在LangChain这一层做了适配让ollama能够接受OpenAIEmbeddings生成的数据格式。5.2 LangChain的设计哲学LangChain的Embeddings类设计遵循了几个原则安全性默认进行长度检查和Tokenization通用性适配不同后端服务可扩展性允许通过继承进行定制我们的解决方案正是利用了这种可扩展性。通过重写关键方法既保留了LangChain的核心功能又适配了ollama的特殊需求。6. 进阶话题更多可能性6.1 支持其他本地模型这套方案不仅适用于ollama稍作修改就能适配其他兼容OpenAI API的本地服务比如FastChat开源的OpenAI兼容服务LocalAI支持多种开源模型的API服务自定义服务自行实现的兼容端点只需要调整model参数和可能的少量请求参数同样的代码就能跑起来。6.2 性能优化技巧在实际使用中我还发现几个提升效率的小技巧连接池调整httpx的连接池大小减少连接建立开销超时设置根据网络状况适当调整timeout缓存机制对频繁查询的文本可以添加缓存层例如可以这样优化初始化参数embeddings OllamaCompatibleEmbeddings( modelbge-large-zh-v1.5, openai_api_basehttp://127.0.0.1:11434/v1/, api_keyollama, timeout30.0, # 适当延长超时 chunk_size256 # 根据硬件调整 )7. 避坑指南你可能遇到的问题在实际部署过程中我踩过几个坑值得分享版本兼容性不同版本的LangChain可能修改了Embeddings的内部实现需要检查方法签名是否变化模型支持不是所有ollama支持的模型都能完美兼容建议先用小数据量测试内存管理批量处理大量文本时注意监控内存使用必要时手动分批次处理比如有一次我遇到了内存泄漏问题最后发现是异步客户端没有正确关闭。解决方案是在使用完毕后显式调用await embeddings.async_client.close()8. 完整代码示例为了方便大家直接使用这里提供完整的实现代码from typing import List, Optional from langchain_community.embeddings import OpenAIEmbeddings class OllamaCompatibleEmbeddings(OpenAIEmbeddings): 兼容ollama的OpenAIEmbeddings实现 def _tokenize(self, texts: List[str], chunk_size: int) - tuple: indices list(range(len(texts))) return (range(0, len(texts), chunk_size), texts, indices) def _get_len_safe_embeddings( self, texts: List[str], *, engine: str, chunk_size: Optional[int] None ) - List[List[float]]: _chunk_size chunk_size or self.chunk_size batched_embeddings: List[List[float]] [] for i in range(0, len(texts), _chunk_size): chunk texts[i: i _chunk_size] response self.client.create( inputchunk, modelself.model, **{k: v for k, v in self._invocation_params.items() if k ! model} ) if not isinstance(response, dict): response response.model_dump() batched_embeddings.extend(r[embedding] for r in response[data]) return batched_embeddings async def _aget_len_safe_embeddings( self, texts: List[str], *, engine: str, chunk_size: Optional[int] None ) - List[List[float]]: _chunk_size chunk_size or self.chunk_size batched_embeddings: List[List[float]] [] for i in range(0, len(texts), _chunk_size): chunk texts[i: i _chunk_size] response await self.async_client.create( inputchunk, modelself.model, **{k: v for k, v in self._invocation_params.items() if k ! model} ) if not isinstance(response, dict): response response.model_dump() batched_embeddings.extend(r[embedding] for r in response[data]) return batched_embeddings使用这个方案后我的LangChain应用成功切换到了本地ollama服务既保证了数据隐私又大幅降低了API调用成本。整个过程虽然遇到些波折但最终的解决方案既干净又可靠。如果你也面临类似的需求不妨试试这个方案相信能帮你省下不少调试时间。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2448488.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…