Node.js 结合 LangChainJS 实现智能对话系统的实战探索

news2026/4/6 7:32:17
1. 为什么选择Node.js和LangChainJS构建智能对话系统最近几年智能对话系统已经成为开发者工具箱里的标配。作为一个在AI领域摸爬滚打多年的老手我发现Node.js和LangChainJS的组合特别适合快速搭建这类系统。Node.js的异步非阻塞特性让它天生适合处理对话系统的并发请求而LangChainJS则把大模型调用的复杂性封装成了简单易用的API。你可能要问为什么不直接用Python我刚开始也这么想直到接手了一个需要与现有Node.js后端集成的项目。用Node.js可以直接复用现有代码库省去了跨语言调用的麻烦。LangChainJS虽然是JavaScript版本但功能上并不比Python版差多少特别是在1.0版本发布后API设计更加合理了。2. 环境准备与基础配置2.1 搭建Node.js开发环境我建议直接用nvm来管理Node.js版本这样切换版本特别方便。下面是我常用的初始化命令nvm install 18 nvm use 18 npm init -y记得检查Node.js版本是否在16以上因为LangChainJS的一些特性需要较新的运行时支持。我遇到过有人在Node.js 14上折腾半天结果发现不兼容的情况这种坑咱们能避就避。2.2 安装核心依赖安装LangChainJS和OpenAI库时有个小技巧指定精确版本号可以避免后续的兼容性问题。这是我的package.json中相关依赖的配置dependencies: { langchain/openai: ^0.1.0, langchain: ^0.1.0, openai: ^4.0.0 }安装时建议使用npm install --save-exact这样可以锁定版本。我吃过自动升级导致API变更的亏现在都养成了固定版本的习惯。3. 基础对话功能实现3.1 直接调用大模型API先来看最基础的调用方式。虽然这不是LangChainJS的专属功能但理解这个对后续学习很重要import OpenAI from openai; const openai new OpenAI({ apiKey: 你的API_KEY, baseURL: https://api.chatanywhere.tech/v1 }); async function simpleChat() { const response await openai.chat.completions.create({ model: gpt-3.5-turbo, messages: [ { role: system, content: 你是一个乐于助人的助手 }, { role: user, content: Node.js是什么 } ], temperature: 0.7 }); console.log(response.choices[0].message.content); } simpleChat();这里有几个参数需要注意temperature控制输出的随机性0最确定1最随机system消息用来设定AI的角色实际项目中建议把API key放在环境变量里3.2 使用LangChainJS封装对话逻辑现在升级到LangChainJS的写法这才是我们今天的重点import { ChatOpenAI } from langchain/openai; import { HumanMessage, SystemMessage } from langchain/core/messages; const chat new ChatOpenAI({ modelName: gpt-3.5-turbo, temperature: 0.7 }); async function langchainChat() { const response await chat.invoke([ new SystemMessage(你是一个专业的Node.js开发助手), new HumanMessage(如何用Node.js读取大文件) ]); console.log(response.content); } langchainChat();LangChainJS把消息类型封装成了SystemMessage和HumanMessage这样的类代码可读性更好。我在实际项目中发现这种结构化设计让后续添加消息历史管理变得特别容易。4. 进阶功能实现4.1 带记忆的对话系统真正的对话系统需要记住上下文。LangChainJS提供了简单的记忆机制import { ConversationChain } from langchain/chains; import { BufferMemory } from langchain/memory; const memory new BufferMemory(); const chain new ConversationChain({ llm: chat, memory: memory }); async function chatWithMemory() { await chain.call({ input: 我叫张三 }); const response await chain.call({ input: 我叫什么名字 }); console.log(response.response); // 应该会回答张三 }BufferMemory默认会把对话历史保存在内存中。对于生产环境你可能需要换成RedisMemory这样的持久化存储。我做过测试在对话轮次超过20轮后内存版的性能会明显下降。4.2 使用提示模板硬编码提示词不利于维护LangChainJS的提示模板可以解决这个问题import { ChatPromptTemplate } from langchain/core/prompts; const prompt ChatPromptTemplate.fromMessages([ [system, 你是一个专业的{role}], [human, {question}] ]); async function templateChat() { const formattedPrompt await prompt.format({ role: JavaScript专家, question: 箭头函数和普通函数有什么区别 }); const response await chat.invoke(formattedPrompt); console.log(response.content); }模板支持变量插值这在多语言场景下特别有用。我曾经做过一个项目用同一个模板生成英语和中文的提示词只需要切换变量值就行。5. 实战项目构建客服机器人5.1 设计系统架构让我们把这些知识点整合成一个简单的客服机器人。架构分为三层接口层Express.js处理HTTP请求逻辑层LangChainJS处理对话逻辑存储层用MongoDB保存对话历史先安装额外依赖npm install express body-parser mongodb5.2 核心代码实现import express from express; import { MongoClient } from mongodb; import { ConversationChain } from langchain/chains; import { ChatOpenAI } from langchain/openai; import { BufferMemory } from langchain/memory; const app express(); app.use(express.json()); const client new MongoClient(mongodb://localhost:27017); await client.connect(); const db client.db(chatbot); const conversations db.collection(conversations); const chat new ChatOpenAI({ temperature: 0.5 }); const memory new BufferMemory({ chatHistory: { async getMessages(sessionId) { const doc await conversations.findOne({ sessionId }); return doc?.messages || []; }, async addMessage(message, sessionId) { await conversations.updateOne( { sessionId }, { $push: { messages: message } }, { upsert: true } ); } } }); app.post(/chat, async (req, res) { const { message, sessionId } req.body; const chain new ConversationChain({ llm: chat, memory }); const response await chain.call({ input: message, sessionId }); res.json({ response: response.response }); }); app.listen(3000, () console.log(Server running on port 3000));这个实现虽然简单但包含了几个关键点使用MongoDB持久化对话历史通过sessionId区分不同会话暴露RESTful接口供前端调用我在实际部署时还添加了速率限制和错误处理这里为了简洁就先省略了。6. 性能优化与调试技巧6.1 减少延迟的实践大模型调用难免会有延迟我总结了几个优化方法流式响应使用stream: true选项可以逐步接收响应const stream await chat.stream([/* messages */]); for await (const chunk of stream) { process.stdout.write(chunk.content); }设置合理超时OpenAI客户端默认没有超时建议设置const chat new ChatOpenAI({ timeout: 10000 // 10秒超时 });缓存常见回答对高频问题可以本地缓存答案6.2 常见问题排查调试AI应用比传统软件更棘手这里分享几个我遇到的典型问题问题1API返回内容不符合预期检查temperature参数是否合适验证system message是否明确尝试简化提示词问题2内存泄漏定期清理BufferMemory监控Node.js进程内存使用考虑使用外部存储替代内存存储问题3响应速度慢降级模型版本如从gpt-4降到gpt-3.5启用流式响应改善用户体验检查网络延迟7. 部署与监控7.1 生产环境部署用Docker部署是个不错的选择这是我的Dockerfile示例FROM node:18-alpine WORKDIR /app COPY package*.json ./ RUN npm install --production COPY . . EXPOSE 3000 CMD [node, server.js]配合PM2可以更好地管理进程pm2 start server.js -i max --name chatbot7.2 监控指标设置完善的监控应该包括API响应时间错误率并发请求数大模型token使用量我用PrometheusGrafana搭建的监控面板会跟踪这些指标import { collectDefaultMetrics } from prom-client; collectDefaultMetrics(); app.get(/metrics, async (req, res) { res.set(Content-Type, register.contentType); res.end(await register.metrics()); });8. 扩展思路与应用场景8.1 集成知识库单纯的对话系统还不够我最近的项目都加入了知识库检索import { MemoryVectorStore } from langchain/vectorstores/memory; import { OpenAIEmbeddings } from langchain/openai; const vectorStore await MemoryVectorStore.fromTexts( [Node.js使用事件循环处理异步操作], [{ id: 1 }], new OpenAIEmbeddings() ); const results await vectorStore.similaritySearch(Node.js如何处理异步?, 1);8.2 多模态扩展虽然本文聚焦文本对话但LangChainJS也支持图像处理。比如这个图片描述生成import { ChatOpenAI } from langchain/openai; const visionModel new ChatOpenAI({ modelName: gpt-4-vision-preview }); async function describeImage(imageUrl) { const response await visionModel.invoke([ new HumanMessage({ content: [ { type: text, text: 描述这张图片 }, { type: image_url, image_url: imageUrl } ] }) ]); return response.content; }这个功能在客服系统中特别有用用户可以直接发送产品图片询问相关问题。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2488343.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…