nomic-embed-text-v2-moe实战案例:跨境电商多语SKU描述语义去重系统

news2026/3/14 5:35:20
nomic-embed-text-v2-moe实战案例跨境电商多语SKU描述语义去重系统1. 引言跨境电商的SKU描述之痛如果你在跨境电商平台工作过或者自己经营过海外店铺一定遇到过这样的头疼事商品库里有成千上万个SKU很多商品的描述看起来不一样但说的其实是同一个东西。比如一个卖手机壳的店铺里可能有这样的几条描述“适用于iPhone 15 Pro Max的防摔透明手机壳”“iPhone 15 Pro Max保护套透明防摔设计”“透明防摔手机保护壳兼容iPhone 15 Pro Max”这三条描述用人的眼睛一看就知道是同一个商品。但系统不知道它会当成三个不同的SKU来处理。结果就是库存管理混乱、采购重复、营销资源浪费甚至影响用户体验。更麻烦的是跨境电商还要面对多语言问题。同一个商品英文描述、西班牙语描述、法语描述虽然意思一样但文字完全不同。传统的关键词匹配、字符串相似度计算在这些场景下基本失效。今天我就带你用nomic-embed-text-v2-moe这个强大的多语言嵌入模型亲手搭建一个智能的SKU描述语义去重系统。不需要复杂的算法知识跟着做就能搞定。2. 为什么选择nomic-embed-text-v2-moe在开始动手之前我们先简单了解一下为什么这个模型特别适合解决我们的问题。2.1 模型的核心优势nomic-embed-text-v2-moe有几个硬核优势正好击中跨境电商SKU去重的痛点多语言能力超强支持大约100种语言。这意味着无论你的商品描述是英文、中文、西班牙语、法语还是日语、韩语模型都能理解它们的语义。对于跨境电商来说这是刚需。性能与效率的完美平衡这个模型只有3.05亿参数但在多语言检索任务上的表现能跟参数规模大一倍的模型竞争。简单说就是“小而美”部署成本低推理速度快但效果不打折。灵活的嵌入维度它采用了Matryoshka嵌入训练技术。这个名字听起来复杂其实原理很简单——就像俄罗斯套娃一样你可以根据需要选择不同大小的嵌入向量。存储成本能降低3倍但性能损失很小。对于要处理海量SKU数据的电商系统这能省下不少存储和计算资源。完全开源透明模型权重、训练代码、训练数据全部开源。这意味着你可以完全掌控不用担心黑盒问题也方便后续的定制化开发。2.2 对比市场上的其他方案为了让你更直观地看到它的优势我们看看它跟其他主流多语言嵌入模型的对比模型参数量百万嵌入维度BEIR得分MIRACL得分是否开源Nomic Embed v230576852.8665.80✅mE5 Base27876848.8862.30❌mGTE Base30576851.1063.40❌Arctic Embed v2 Base30576855.4059.90❌BGE M3568102448.8069.20❌从表格可以看出nomic-embed-text-v2-moe在参数量适中的情况下取得了相当不错的成绩。特别是考虑到它完全开源对于企业应用来说可控性和可定制性更强。3. 环境准备与快速部署好了理论部分就到这里。现在我们来动手搭建环境。整个过程很简单跟着步骤走就行。3.1 使用Ollama部署模型Ollama是一个特别方便的模型部署工具就像Docker for AI模型一样一键拉取、一键运行。首先确保你的系统已经安装了Ollama。如果没有去官网下载安装就几分钟的事。然后打开终端运行下面这条命令ollama run nomic-embed-text第一次运行会下载模型可能需要一点时间取决于你的网速。模型大小大概1.2GB左右。下载完成后模型就自动运行起来了。你可以测试一下是否正常curl http://localhost:11434/api/embeddings -d { model: nomic-embed-text, prompt: Hello, world! }如果返回了一个768维的向量说明部署成功了。3.2 搭建Gradio前端界面模型跑起来了但我们总不能每次都通过命令行来调用。我们需要一个简单直观的界面让业务人员也能用。Gradio是一个快速构建AI应用界面的Python库几行代码就能做出一个Web界面。先安装必要的库pip install gradio requests numpy然后创建一个Python文件比如叫sku_deduplicator.pyimport gradio as gr import requests import numpy as np from typing import List, Dict import json # Ollama API的地址 OLLAMA_URL http://localhost:11434/api/embeddings def get_embedding(text: str) - List[float]: 获取文本的嵌入向量 try: response requests.post( OLLAMA_URL, json{ model: nomic-embed-text, prompt: text }, timeout30 ) response.raise_for_status() return response.json()[embedding] except Exception as e: print(f获取嵌入向量失败: {e}) return None def calculate_similarity(vec1: List[float], vec2: List[float]) - float: 计算两个向量的余弦相似度 if vec1 is None or vec2 is None: return 0.0 vec1 np.array(vec1) vec2 np.array(vec2) # 余弦相似度计算 dot_product np.dot(vec1, vec2) norm1 np.linalg.norm(vec1) norm2 np.linalg.norm(vec2) if norm1 0 or norm2 0: return 0.0 return float(dot_product / (norm1 * norm2)) def find_duplicates(sku_descriptions: str, threshold: float 0.85) - Dict: 找出相似的SKU描述 # 按行分割描述 descriptions [desc.strip() for desc in sku_descriptions.split(\n) if desc.strip()] if len(descriptions) 2: return {error: 至少需要输入两个SKU描述} # 获取所有描述的嵌入向量 print(正在计算嵌入向量...) embeddings [] for desc in descriptions: emb get_embedding(desc) if emb: embeddings.append(emb) else: embeddings.append(None) # 计算相似度矩阵 print(正在计算相似度...) results [] for i in range(len(descriptions)): for j in range(i 1, len(descriptions)): if embeddings[i] is not None and embeddings[j] is not None: similarity calculate_similarity(embeddings[i], embeddings[j]) if similarity threshold: results.append({ sku1: descriptions[i], sku2: descriptions[j], similarity: round(similarity, 3), is_duplicate: similarity threshold }) # 按相似度排序 results.sort(keylambda x: x[similarity], reverseTrue) return { total_descriptions: len(descriptions), threshold: threshold, duplicate_pairs: results, duplicate_count: len(results) } # 创建Gradio界面 with gr.Blocks(titleSKU语义去重系统) as demo: gr.Markdown(# 跨境电商SKU语义去重系统) gr.Markdown(输入多个SKU描述系统会自动找出语义相似的重复项) with gr.Row(): with gr.Column(scale2): sku_input gr.Textbox( label输入SKU描述每行一个, placeholder例如\n适用于iPhone 15的防摔手机壳\niPhone 15保护套防摔设计\n防摔透明手机壳兼容iPhone 15, lines10 ) threshold_slider gr.Slider( minimum0.5, maximum1.0, value0.85, step0.05, label相似度阈值, info阈值越高判断为重复的标准越严格 ) analyze_btn gr.Button(分析相似度, variantprimary) with gr.Column(scale3): output_json gr.JSON(label分析结果) with gr.Accordion(可视化结果, openFalse): duplicates_table gr.Dataframe( headers[SKU描述1, SKU描述2, 相似度, 是否重复], label相似SKU对 ) summary_text gr.Textbox(label分析摘要, interactiveFalse) # 绑定事件 analyze_btn.click( fnfind_duplicates, inputs[sku_input, threshold_slider], outputs[output_json] ).then( fnlambda result: ( [[item[sku1], item[sku2], item[similarity], 是 if item[is_duplicate] else 否] for item in result.get(duplicate_pairs, [])], f共分析 {result.get(total_descriptions, 0)} 个SKU描述发现 {result.get(duplicate_count, 0)} 对相似描述 ), inputs[output_json], outputs[duplicates_table, summary_text] ) # 示例数据 gr.Examples( examples[[ 适用于iPhone 15 Pro Max的防摔透明手机壳\n iPhone 15 Pro Max保护套透明防摔设计\n 透明防摔手机保护壳兼容iPhone 15 Pro Max\n Samsung Galaxy S24 Ultra leather case\n Galaxy S24 Ultra protective leather cover\n 皮质手机壳适用于三星S24 Ultra\n Wireless Bluetooth headphones noise cancelling\n 蓝牙无线降噪耳机\n Noise cancellation wireless earphones ]], inputs[sku_input], label点击使用示例数据 ) if __name__ __main__: demo.launch(server_name0.0.0.0, server_port7860)保存文件然后在终端运行python sku_deduplicator.py打开浏览器访问http://localhost:7860就能看到我们搭建的SKU去重系统界面了。4. 实战演练处理真实跨境电商数据现在系统搭好了我们来试试它的实际效果。我会用一些真实的跨境电商SKU数据来演示。4.1 测试多语言SKU描述假设我们有一个跨境电商店铺卖电子产品配件。商品库里有这样一些SKU描述Apple iPhone 15 Pro Max silicone case - black Funda de silicona para iPhone 15 Pro Max - negro Étui en silicone pour iPhone 15 Pro Max - noir iPhone 15 Pro Max硅胶保护壳-黑色 Wireless charging pad fast charge 20W 充电板无线快充20W Almohadilla de carga inalámbrica carga rápida 20W Tablette de charge sans fil charge rapide 20W Bluetooth speaker portable waterproof 便携式防水蓝牙音箱 Altavoz Bluetooth portátil resistente al agua Haut-parleur Bluetooth portable étanche把这些描述复制到我们的系统里设置相似度阈值为0.82点击“分析相似度”。你会看到类似这样的结果{ total_descriptions: 12, threshold: 0.82, duplicate_pairs: [ { sku1: Apple iPhone 15 Pro Max silicone case - black, sku2: Funda de silicona para iPhone 15 Pro Max - negro, similarity: 0.894, is_duplicate: true }, { sku1: Apple iPhone 15 Pro Max silicone case - black, sku2: Étui en silicone pour iPhone 15 Pro Max - noir, similarity: 0.887, is_duplicate: true }, { sku1: Apple iPhone 15 Pro Max silicone case - black, sku2: iPhone 15 Pro Max硅胶保护壳-黑色, similarity: 0.856, is_duplicate: true }, { sku1: Wireless charging pad fast charge 20W, sku2: 充电板无线快充20W, similarity: 0.872, is_duplicate: true }, { sku1: Wireless charging pad fast charge 20W, sku2: Almohadilla de carga inalámbrica carga rápida 20W, similarity: 0.901, is_duplicate: true } ], duplicate_count: 5 }看到了吗系统准确地识别出了英文、西班牙语、法语、中文的iPhone手机壳是同一个商品英文、中文、西班牙语的无线充电板是同一个商品蓝牙音箱的各个语言版本也被正确分组4.2 处理同义词和不同表述再来看一个更复杂的例子。有时候同一个商品会有不同的营销表述High-speed USB-C cable 100W 2 meters USB-C charging cable fast charge 100W length 2m 100W fast charging USB Type-C cable 2 meter USB-C to USB-C cable 2m supports 100W PD Portable power bank 30000mAh with PD 30000mAh portable charger power delivery External battery 30000mAh with fast charging Power bank 30K mAh supports PD 3.0把这些描述输入系统阈值设为0.8结果会显示前4条描述都是关于100W USB-C线被识别为相似后4条描述都是关于30000mAh充电宝被识别为相似即使这些描述用了不同的词汇cable vs charging cable、不同的单位写法2 meters vs 2m vs 2 meter、不同的产品名称power bank vs portable charger vs external battery模型都能理解它们的语义相似性。4.3 调整阈值找到最佳平衡点阈值设置是个技术活设置太高会漏掉一些重复项设置太低会把不相关的商品也判为重复。我建议你根据实际数据来调整高精度场景比如价格昂贵的商品阈值设高一点比如0.88-0.92一般场景大多数商品0.82-0.87是比较平衡的选择初步筛查场景可以设到0.75-0.8先找出所有可能的重复再人工复核你可以用历史数据来测试看看在不同阈值下系统的准确率和召回率如何找到最适合你业务的平衡点。5. 进阶应用集成到现有系统上面的Gradio界面适合演示和小规模使用。如果要处理成千上万的SKU或者要集成到现有的电商系统中我们需要更高效的方案。5.1 批量处理脚本首先写一个批量处理的Python脚本import pandas as pd import numpy as np from typing import List, Tuple import requests import json from tqdm import tqdm import time class BatchSKUDeduplicator: def __init__(self, ollama_url: str http://localhost:11434/api/embeddings): self.ollama_url ollama_url self.batch_size 32 # 批量处理大小根据你的硬件调整 def get_batch_embeddings(self, texts: List[str]) - List[List[float]]: 批量获取嵌入向量 embeddings [] for i in range(0, len(texts), self.batch_size): batch texts[i:i self.batch_size] batch_embeddings [] for text in batch: try: response requests.post( self.ollama_url, json{ model: nomic-embed-text, prompt: text }, timeout60 ) if response.status_code 200: batch_embeddings.append(response.json()[embedding]) else: batch_embeddings.append(None) except Exception as e: print(f处理文本失败: {text[:50]}... 错误: {e}) batch_embeddings.append(None) embeddings.extend(batch_embeddings) time.sleep(0.1) # 避免请求过快 return embeddings def find_duplicate_groups(self, sku_data: pd.DataFrame, threshold: float 0.85) - pd.DataFrame: 找出重复的SKU组 Args: sku_data: DataFrame包含sku_id和description列 threshold: 相似度阈值 Returns: 包含重复组信息的DataFrame print(f开始处理 {len(sku_data)} 个SKU...) # 获取所有描述的嵌入向量 print(计算嵌入向量...) descriptions sku_data[description].tolist() embeddings self.get_batch_embeddings(descriptions) # 构建相似度矩阵 print(计算相似度...) duplicate_pairs [] for i in tqdm(range(len(sku_data))): if embeddings[i] is None: continue for j in range(i 1, len(sku_data)): if embeddings[j] is None: continue # 计算余弦相似度 vec_i np.array(embeddings[i]) vec_j np.array(embeddings[j]) similarity np.dot(vec_i, vec_j) / (np.linalg.norm(vec_i) * np.linalg.norm(vec_j)) if similarity threshold: duplicate_pairs.append({ sku_id_1: sku_data.iloc[i][sku_id], description_1: sku_data.iloc[i][description], sku_id_2: sku_data.iloc[j][sku_id], description_2: sku_data.iloc[j][description], similarity: round(similarity, 4) }) # 转换为DataFrame result_df pd.DataFrame(duplicate_pairs) if len(result_df) 0: # 按相似度排序 result_df result_df.sort_values(similarity, ascendingFalse) # 添加重复组ID result_df[group_id] self._assign_group_ids(result_df) return result_df def _assign_group_ids(self, duplicate_pairs: pd.DataFrame) - List[int]: 为重复的SKU分配组ID # 使用并查集算法找出连通分量 sku_to_group {} group_counter 0 for _, row in duplicate_pairs.iterrows(): sku1 row[sku_id_1] sku2 row[sku_id_2] if sku1 not in sku_to_group and sku2 not in sku_to_group: # 两个SKU都不在任何组中创建新组 sku_to_group[sku1] group_counter sku_to_group[sku2] group_counter group_counter 1 elif sku1 in sku_to_group and sku2 not in sku_to_group: # sku1在某个组中把sku2加入该组 sku_to_group[sku2] sku_to_group[sku1] elif sku2 in sku_to_group and sku1 not in sku_to_group: # sku2在某个组中把sku1加入该组 sku_to_group[sku1] sku_to_group[sku2] elif sku_to_group[sku1] ! sku_to_group[sku2]: # 两个SKU在不同的组中需要合并组 group1 sku_to_group[sku1] group2 sku_to_group[sku2] # 将所有属于group2的SKU改为group1 for sku, group in sku_to_group.items(): if group group2: sku_to_group[sku] group1 # 为结果中的每个SKU对分配组ID group_ids [] for _, row in duplicate_pairs.iterrows(): group_ids.append(sku_to_group[row[sku_id_1]]) return group_ids # 使用示例 if __name__ __main__: # 读取SKU数据假设是CSV文件 sku_data pd.read_csv(sku_descriptions.csv) # 初始化去重器 deduplicator BatchSKUDeduplicator() # 找出重复的SKU duplicates deduplicator.find_duplicate_groups(sku_data, threshold0.85) # 保存结果 duplicates.to_csv(duplicate_skus.csv, indexFalse) # 打印统计信息 print(f\n分析完成) print(f总SKU数量: {len(sku_data)}) print(f发现的重复对数量: {len(duplicates)}) if len(duplicates) 0: print(f重复组数量: {duplicates[group_id].nunique()}) print(\n前10个重复组:) for group_id in duplicates[group_id].unique()[:10]: group_data duplicates[duplicates[group_id] group_id] print(f\n组 {group_id} (共{len(group_data)}对):) for _, row in group_data.head(3).iterrows(): print(f {row[sku_id_1]} ←→ {row[sku_id_2]} (相似度: {row[similarity]}))这个脚本可以处理大量的SKU数据并输出详细的重复分析报告。5.2 与数据库集成如果你想把去重功能集成到现有的电商系统中可以这样设计import sqlite3 # 或者你用的其他数据库驱动 from typing import List, Dict import numpy as np class SKUDeduplicationService: def __init__(self, db_path: str, ollama_url: str http://localhost:11434/api/embeddings): self.db_path db_path self.ollama_url ollama_url self.embedding_cache {} # 缓存嵌入向量避免重复计算 def get_sku_embedding(self, sku_id: str, description: str) - List[float]: 获取SKU描述的嵌入向量带缓存 cache_key f{sku_id}_{hash(description)} if cache_key in self.embedding_cache: return self.embedding_cache[cache_key] # 调用Ollama API获取嵌入向量 response requests.post( self.ollama_url, json{ model: nomic-embed-text, prompt: description } ) if response.status_code 200: embedding response.json()[embedding] self.embedding_cache[cache_key] embedding return embedding else: return None def find_similar_skus(self, target_sku_id: str, threshold: float 0.85, limit: int 10) - List[Dict]: 查找与目标SKU相似的SKU # 从数据库获取目标SKU信息 conn sqlite3.connect(self.db_path) cursor conn.cursor() cursor.execute( SELECT sku_id, description FROM skus WHERE sku_id ?, (target_sku_id,) ) target_sku cursor.fetchone() if not target_sku: return [] target_id, target_desc target_sku target_embedding self.get_sku_embedding(target_id, target_desc) if target_embedding is None: return [] # 获取所有其他SKU cursor.execute( SELECT sku_id, description FROM skus WHERE sku_id ! ?, (target_sku_id,) ) all_skus cursor.fetchall() # 计算相似度 similar_skus [] for sku_id, description in all_skus: sku_embedding self.get_sku_embedding(sku_id, description) if sku_embedding is None: continue # 计算余弦相似度 similarity np.dot(target_embedding, sku_embedding) / ( np.linalg.norm(target_embedding) * np.linalg.norm(sku_embedding) ) if similarity threshold: similar_skus.append({ sku_id: sku_id, description: description, similarity: float(similarity) }) conn.close() # 按相似度排序并限制数量 similar_skus.sort(keylambda x: x[similarity], reverseTrue) return similar_skus[:limit] def batch_deduplicate(self, threshold: float 0.85) - List[List[str]]: 批量去重返回重复的SKU组 conn sqlite3.connect(self.db_path) cursor conn.cursor() # 获取所有SKU cursor.execute(SELECT sku_id, description FROM skus) all_skus cursor.fetchall() # 计算所有SKU的嵌入向量 sku_embeddings {} for sku_id, description in all_skus: embedding self.get_sku_embedding(sku_id, description) if embedding is not None: sku_embeddings[sku_id] { description: description, embedding: embedding } # 使用并查集找出重复组 parent {sku_id: sku_id for sku_id in sku_embeddings.keys()} def find(x): if parent[x] ! x: parent[x] find(parent[x]) return parent[x] def union(x, y): root_x find(x) root_y find(y) if root_x ! root_y: parent[root_y] root_x # 比较所有SKU对 sku_ids list(sku_embeddings.keys()) for i in range(len(sku_ids)): for j in range(i 1, len(sku_ids)): sku1 sku_ids[i] sku2 sku_ids[j] emb1 sku_embeddings[sku1][embedding] emb2 sku_embeddings[sku2][embedding] similarity np.dot(emb1, emb2) / ( np.linalg.norm(emb1) * np.linalg.norm(emb2) ) if similarity threshold: union(sku1, sku2) # 分组结果 groups {} for sku_id in sku_embeddings.keys(): root find(sku_id) if root not in groups: groups[root] [] groups[root].append(sku_id) # 过滤掉只有一个SKU的组 duplicate_groups [group for group in groups.values() if len(group) 1] conn.close() return duplicate_groups这个服务类可以方便地集成到你的电商后台系统中实现实时的SKU去重检查。6. 性能优化与实用技巧在实际使用中你可能会遇到性能问题特别是当SKU数量很大的时候。这里分享几个优化技巧6.1 向量索引加速当你有成千上万个SKU时两两比较相似度的计算量会非常大。这时候可以用向量数据库来加速import chromadb from chromadb.config import Settings class VectorIndexSKUDeduplicator: def __init__(self, persist_directory: str ./chroma_db): # 初始化ChromaDB客户端 self.client chromadb.Client(Settings( chroma_db_implduckdbparquet, persist_directorypersist_directory )) # 创建或获取集合 self.collection self.client.get_or_create_collection( namesku_embeddings, metadata{hnsw:space: cosine} # 使用余弦相似度 ) def index_skus(self, sku_data: pd.DataFrame): 将SKU索引到向量数据库 documents [] embeddings [] ids [] for _, row in sku_data.iterrows(): sku_id row[sku_id] description row[description] # 获取嵌入向量 embedding self.get_embedding(description) if embedding is not None: documents.append(description) embeddings.append(embedding) ids.append(str(sku_id)) # 批量添加到向量数据库 self.collection.add( embeddingsembeddings, documentsdocuments, idsids ) def find_similar_skus_fast(self, query_description: str, n_results: int 10, threshold: float 0.85) - List[Dict]: 快速查找相似的SKU # 获取查询文本的嵌入向量 query_embedding self.get_embedding(query_description) if query_embedding is None: return [] # 在向量数据库中搜索 results self.collection.query( query_embeddings[query_embedding], n_resultsn_results * 2 # 多查一些后面再过滤 ) # 处理结果 similar_skus [] for i, (sku_id, distance, description) in enumerate(zip( results[ids][0], results[distances][0], results[documents][0] )): # ChromaDB返回的是距离需要转换为相似度 # 余弦距离 1 - 余弦相似度 similarity 1 - distance if similarity threshold: similar_skus.append({ sku_id: sku_id, description: description, similarity: float(similarity) }) if len(similar_skus) n_results: break return similar_skus使用向量数据库后查询速度可以从O(n²)降到O(log n)对于大规模数据特别有效。6.2 缓存策略嵌入向量的计算是比较耗时的合理的缓存可以大幅提升性能import pickle import hashlib from datetime import datetime, timedelta class EmbeddingCache: def __init__(self, cache_file: str embedding_cache.pkl, ttl_hours: int 24): self.cache_file cache_file self.ttl timedelta(hoursttl_hours) self.cache self.load_cache() def get_cache_key(self, text: str) - str: 生成缓存键 return hashlib.md5(text.encode(utf-8)).hexdigest() def get(self, text: str): 获取缓存 key self.get_cache_key(text) if key in self.cache: cached_data self.cache[key] # 检查是否过期 if datetime.now() - cached_data[timestamp] self.ttl: return cached_data[embedding] return None def set(self, text: str, embedding: List[float]): 设置缓存 key self.get_cache_key(text) self.cache[key] { embedding: embedding, timestamp: datetime.now() } self.save_cache() def load_cache(self): 加载缓存 try: with open(self.cache_file, rb) as f: return pickle.load(f) except FileNotFoundError: return {} def save_cache(self): 保存缓存 with open(self.cache_file, wb) as f: pickle.dump(self.cache, f)6.3 批量处理与异步对于超大规模的数据可以考虑使用异步处理和批量化import asyncio import aiohttp from concurrent.futures import ThreadPoolExecutor class AsyncSKUProcessor: def __init__(self, ollama_url: str http://localhost:11434/api/embeddings, max_workers: int 10): self.ollama_url ollama_url self.max_workers max_workers async def get_embedding_async(self, session: aiohttp.ClientSession, text: str) - List[float]: 异步获取嵌入向量 try: async with session.post( self.ollama_url, json{ model: nomic-embed-text, prompt: text }, timeoutaiohttp.ClientTimeout(total30) ) as response: if response.status 200: data await response.json() return data.get(embedding) except Exception as e: print(f异步请求失败: {e}) return None async def process_batch_async(self, texts: List[str]) - List[List[float]]: 异步批量处理 embeddings [] # 使用信号量控制并发数 semaphore asyncio.Semaphore(self.max_workers) async def bounded_fetch(session, text): async with semaphore: return await self.get_embedding_async(session, text) async with aiohttp.ClientSession() as session: tasks [bounded_fetch(session, text) for text in texts] embeddings await asyncio.gather(*tasks, return_exceptionsTrue) # 处理异常结果 valid_embeddings [] for emb in embeddings: if isinstance(emb, Exception): valid_embeddings.append(None) else: valid_embeddings.append(emb) return valid_embeddings def process_large_dataset(self, sku_data: pd.DataFrame, batch_size: int 100): 处理大规模数据集 all_embeddings [] # 分批处理 for i in range(0, len(sku_data), batch_size): batch sku_data.iloc[i:i batch_size] batch_texts batch[description].tolist() print(f处理批次 {i//batch_size 1}/{(len(sku_data)-1)//batch_size 1}) # 运行异步任务 embeddings asyncio.run(self.process_batch_async(batch_texts)) all_embeddings.extend(embeddings) # 可选保存进度 if i % (batch_size * 10) 0: self.save_progress(sku_data, all_embeddings, i) return all_embeddings7. 总结通过这个实战项目我们完成了一个完整的跨境电商多语SKU描述语义去重系统。让我简单总结一下关键点7.1 系统核心价值这个系统解决了跨境电商的几个核心痛点多语言统一处理无论SKU描述是英文、中文、西班牙语还是其他语言系统都能理解它们的语义准确识别重复商品。语义级去重不再依赖简单的关键词匹配而是理解描述的真实含义。即使表述方式不同、用词不同只要说的是同一个商品系统就能识别出来。高效易用基于Ollama和Gradio的部署方案让非技术人员也能轻松使用。批量处理脚本和数据库集成方案让大规模应用成为可能。成本可控nomic-embed-text-v2-moe模型在效果和效率之间取得了很好的平衡完全开源也避免了商业授权费用。7.2 实际应用建议在实际部署时我建议从小规模开始先用几百个SKU测试调整阈值参数观察效果。确认准确率满足要求后再扩展到全量数据。分阶段实施可以先用于新SKU的录入检查防止新增重复。然后再处理历史数据逐步清理已有的重复SKU。结合人工审核虽然模型的准确率很高但对于重要或高价值的商品建议加入人工审核环节。系统可以给出相似度评分和候选重复项由运营人员最终确认。定期更新商品描述的语言和表述方式会变化建议定期比如每季度重新计算嵌入向量确保系统的准确性。7.3 扩展可能性这个系统的基础框架还可以扩展到其他应用场景商品分类自动化根据描述语义自动给商品打标签、分类智能搜索增强基于语义相似度改进电商站内搜索竞品监控监控竞争对手的商品上架基于语义匹配发现同类商品多平台商品同步识别不同电商平台上的同一个商品技术总是在进步但解决问题的思路是相通的。希望这个实战案例能给你带来启发无论是解决SKU去重问题还是其他需要语义理解的场景nomic-embed-text-v2-moe都是一个强大而实用的工具。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2410086.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…