Nomic-Embed-Text-V2-MoE全栈开发:Node.js后端API服务搭建指南

news2026/3/21 15:04:30
Nomic-Embed-Text-V2-MoE全栈开发Node.js后端API服务搭建指南你是不是也遇到过这样的场景手头有一个用Python写的、效果很棒的Nomic-Embed-Text-V2-MoE模型想把它集成到你的Web应用里但前端是JavaScript生态后端又不想完全用Python来写感觉技术栈有点拧巴。没错这就是很多全栈开发者会面临的现实问题。模型是Python的但业务系统可能是Node.js的强行混在一起部署和维护都挺麻烦。今天我就来分享一个比较清爽的解决方案用Node.js和Express框架搭建一个专门提供文本嵌入服务的RESTful API。前端应用通过简单的HTTP请求就能拿到文本向量后端则负责调用Python模型两边各司其职架构清晰多了。用这种方式你可以把模型推理这部分相对“重”的逻辑封装起来对外只暴露一个轻量的API接口。无论是Web前端、移动端还是其他微服务都能方便地调用。下面我就带你一步步把它实现出来。1. 项目目标与环境准备在开始敲代码之前我们先明确一下这次要完成的事情。核心目标是构建一个服务它接收一段文本调用Nomic-Embed-Text-V2-MoE模型计算出对应的向量然后把向量结果通过JSON格式返回给调用方。整个技术栈会这样分工Node.js Express: 作为HTTP服务器处理API请求和响应这是我们的主战场。Python脚本: 封装模型加载和推理的具体逻辑它是个“专家”只负责计算。通信桥梁: 用Node.js的child_process模块来调用Python脚本这是一种简单直接的跨语言调用方式。首先你得确保电脑上已经装好了Node.js和Python。打开终端分别检查一下版本node --version python --version我建议Node.js版本在16以上Python版本在3.8以上这样兼容性比较好。如果还没安装可以去官网下载安装包过程很简单这里就不赘述了。接下来我们创建一个新的项目目录并初始化Node.js项目。mkdir nomic-embed-api cd nomic-embed-api npm init -y这个命令会生成一个package.json文件记录项目的基本信息和依赖。然后安装我们需要的核心依赖包。主要是Express框架以及一些辅助工具。npm install express cors npm install --save-dev nodemon dotenvexpress: 我们的Web框架。cors: 用来处理跨域请求的中间件方便前端调用。nodemon: 开发工具监听文件变化自动重启服务提升开发效率。dotenv: 用来加载环境变量把配置比如端口号、模型路径从代码里分离出来更安全、更灵活。2. 构建核心的Node.js API服务环境准备好后我们来搭建服务的骨架。在项目根目录下创建两个文件.env和app.js。.env文件用来存放配置PORT3000 MODEL_PATH./models/nomic-embed-text-v2-moe PYTHON_SCRIPT_PATH./scripts/embed.pyapp.js是我们的主服务入口文件require(dotenv).config(); // 加载环境变量 const express require(express); const cors require(cors); const { spawn } require(child_process); // 用于调用Python脚本 const path require(path); const app express(); const PORT process.env.PORT || 3000; // 中间件配置 app.use(cors()); // 启用CORS允许跨域请求 app.use(express.json()); // 解析JSON格式的请求体 app.use(express.urlencoded({ extended: true })); // 解析URL-encoded格式的请求体 // 一个简单的健康检查端点 app.get(/health, (req, res) { res.json({ status: OK, message: Embedding API is running }); }); // 核心的文本嵌入端点 app.post(/embed, async (req, res) { const { text } req.body; if (!text || typeof text ! string) { return res.status(400).json({ error: Invalid input. Please provide a text string in the request body. }); } console.log(Received embedding request for text: ${text.substring(0, 50)}...); // 调用Python脚本进行推理 try { const embedding await getEmbeddingFromPython(text); res.json({ text: text, embedding: embedding, dimension: embedding.length }); } catch (error) { console.error(Error during embedding generation:, error); res.status(500).json({ error: Failed to generate embedding, details: error.message }); } }); // 封装调用Python进程的函数 function getEmbeddingFromPython(text) { return new Promise((resolve, reject) { // 获取Python脚本的绝对路径 const pythonScriptPath path.resolve(process.env.PYTHON_SCRIPT_PATH); // 启动Python子进程 const pythonProcess spawn(python, [pythonScriptPath], { stdio: [pipe, pipe, pipe] }); let outputData ; let errorData ; // 接收Python脚本的标准输出即嵌入向量 pythonProcess.stdout.on(data, (data) { outputData data.toString(); }); // 接收Python脚本的错误输出 pythonProcess.stderr.on(data, (data) { errorData data.toString(); }); // 进程结束事件 pythonProcess.on(close, (code) { if (code ! 0) { reject(new Error(Python script exited with code ${code}: ${errorData})); return; } try { // 假设Python脚本输出的是JSON字符串包含一个embedding数组 const result JSON.parse(outputData); resolve(result.embedding); } catch (parseError) { reject(new Error(Failed to parse Python script output: ${parseError.message}. Output was: ${outputData})); } }); // 向Python进程的标准输入发送文本数据 pythonProcess.stdin.write(JSON.stringify({ text: text }) \n); pythonProcess.stdin.end(); }); } // 启动服务器 app.listen(PORT, () { console.log( Embedding API server is running on http://localhost:${PORT}); });这段代码做了几件关键事情创建了一个Express应用配置了必要的中间件。定义了一个/health端点用于健康检查。定义了一个/embed端点这是我们的核心。它接收POST请求从请求体中拿到文本。在/embed端点内部调用getEmbeddingFromPython函数。这个函数会启动一个Python子进程把文本传给它然后等待Python进程返回计算结果。最后把计算得到的向量包装成JSON响应回去。现在服务端的架子搭好了但还缺真正干活的“工人”——Python脚本。3. 创建Python模型推理脚本Node.js服务负责接待和派活具体的模型计算还得靠Python。我们在项目里创建一个scripts目录然后在里面新建embed.py文件。# scripts/embed.py import sys import json import torch from transformers import AutoModel, AutoTokenizer import numpy as np # 初始化模型和分词器使用缓存避免每次调用都重复加载 MODEL_NAME nomic-ai/nomic-embed-text-v2-moe tokenizer None model None def load_model(): 惰性加载模型只在第一次调用时加载 global tokenizer, model if tokenizer is None or model is None: print(fLoading model {MODEL_NAME}..., filesys.stderr) tokenizer AutoTokenizer.from_pretrained(MODEL_NAME, trust_remote_codeTrue) model AutoModel.from_pretrained(MODEL_NAME, trust_remote_codeTrue) model.eval() # 设置为评估模式 print(Model loaded successfully., filesys.stderr) return tokenizer, model def get_embedding(text): 计算输入文本的嵌入向量 tokenizer, model load_model() # 对文本进行编码 inputs tokenizer(text, return_tensorspt, paddingTrue, truncationTrue, max_length8192) # 不计算梯度进行推理 with torch.no_grad(): outputs model(**inputs) # 通常使用最后一层隐藏状态的平均值作为句子向量 # 注意具体使用哪个层、如何池化需要根据Nomic-Embed-Text-V2-MoE的文档调整 embeddings outputs.last_hidden_state.mean(dim1).squeeze().numpy() # 将numpy数组转换为Python列表以便JSON序列化 return embeddings.tolist() if __name__ __main__: # 从标准输入读取数据 for line in sys.stdin: try: data json.loads(line.strip()) input_text data.get(text, ) if not input_text: result {error: No text provided} else: embedding_vector get_embedding(input_text) result {embedding: embedding_vector} # 将结果输出到标准输出 print(json.dumps(result)) sys.stdout.flush() # 确保立即输出 except json.JSONDecodeError: print(json.dumps({error: Invalid JSON input})) sys.stdout.flush() except Exception as e: print(json.dumps({error: str(e)})) sys.stdout.flush()这个Python脚本扮演了一个独立计算单元的角色load_model函数负责加载模型和分词器并且用了全局变量来缓存避免每次调用都重新加载这对性能至关重要。get_embedding函数是核心它接收文本进行编码、模型推理最后输出向量。这里我用了最后一层隐藏状态的平均值作为句子向量这是一个常见做法。但你需要特别注意不同的嵌入模型可能有不同的推荐用法最好查阅Nomic-Embed-Text-V2-MoE的官方文档看看他们建议用什么池化方法。脚本的主循环从标准输入(sys.stdin)读取JSON格式的文本调用get_embedding计算再把结果写成JSON格式输出到标准输出(sys.stdout)。这种通过标准输入输出通信的方式正是Node.js子进程能调用它的关键。4. 测试与运行你的API代码都写完了我们来试试看它能不能跑通。首先确保你的Python环境已经安装了必要的库。在终端里运行pip install torch transformers然后回到项目根目录启动我们的Node.js服务。因为我们安装了nodemon可以用它来启动这样修改代码后会自动重启。在package.json的scripts字段里添加一个启动命令{ scripts: { start: node app.js, dev: nodemon app.js } }现在运行开发命令npm run dev如果看到终端输出 Embedding API server is running on http://localhost:3000说明服务启动成功了。接下来我们测试一下API。你可以用任何喜欢的工具比如curl、Postman或者写一个简单的测试脚本。这里我用curl来演示curl -X POST http://localhost:3000/embed \ -H Content-Type: application/json \ -d {text: 全栈开发如何集成AI模型}如果一切正常你会收到一个JSON响应里面包含了输入的文本和对应的长串向量数组以及向量的维度。你也可以在浏览器里访问http://localhost:3000/health应该会看到健康检查的成功信息。5. 前端调用与生产环境考量API跑通后前端调用就非常简单了。在任何JavaScript项目中你都可以使用fetch或者axios来调用这个嵌入服务。// 前端调用示例 (使用fetch) async function getTextEmbedding(text) { try { const response await fetch(http://你的服务器地址:3000/embed, { method: POST, headers: { Content-Type: application/json, }, body: JSON.stringify({ text: text }), }); if (!response.ok) { throw new Error(HTTP error! status: ${response.status}); } const data await response.json(); console.log(Generated embedding dimension:, data.dimension); return data.embedding; // 这是一个浮点数数组 } catch (error) { console.error(Failed to fetch embedding:, error); return null; } } // 使用示例 getTextEmbedding(这是一个测试句子).then(embedding { if (embedding) { // 在这里使用向量比如进行相似度计算、存入向量数据库等 console.log(Embedding vector:, embedding); } });把服务部署到生产环境时有几个点需要考虑性能与并发目前的简单实现每次请求都启动一个Python进程开销较大。对于生产环境可以考虑使用gRPC或者HTTP服务器如用FastAPI包装Python模型来提供更高效的进程间通信甚至用模型服务化框架如Triton Inference Server来管理模型。错误处理与健壮性需要增强错误处理比如模型加载失败、输入文本过长、进程僵死等情况。安全增加API密钥认证、请求限流、输入文本过滤等安全措施。可观测性添加日志记录、性能指标监控如请求延迟、错误率。部署可以使用Docker将Node.js服务和Python环境一起容器化确保环境一致性。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2426268.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…