StructBERT快速部署:开箱即用的中文句子相似度计算工具,支持多种场景

news2026/3/16 3:30:30
StructBERT快速部署开箱即用的中文句子相似度计算工具支持多种场景1. 引言你的智能文本理解助手三分钟就能用起来想象一下这个场景你是一个电商平台的客服主管每天要处理成千上万的用户咨询。用户问“怎么改密码”你的知识库里写着“如何修改登录密码”用户说“快递没到”知识库里有“物流延误怎么办”。怎么才能让系统自动把这些看似不同、实则意思相近的问题匹配起来或者你是一个内容平台的产品经理用户上传的文章里可能有大量重复或高度相似的内容人工审核效率太低怎么快速识别并处理这就是中文句子相似度计算要解决的问题。而今天我要介绍的StructBERT就是一个能让你在几分钟内搭建起专业级文本相似度服务的工具。最棒的是这个工具已经为你准备好了——基于百度StructBERT大模型预装在镜像里开机就能用。你不用关心复杂的模型训练、环境配置甚至不用写一行启动命令打开网页就能开始计算两个句子的相似程度。相似度范围是0到1数字越大表示两个句子意思越接近。比如“今天天气很好”和“今天阳光明媚”的相似度可能在0.85左右而“今天天气很好”和“我喜欢吃苹果”的相似度可能只有0.12。接下来我会带你从零开始快速上手这个强大的工具并展示它在不同场景下的实际应用。2. 三分钟快速上手真的开箱即用2.1 好消息服务已经自动运行了很多人一听到“AI模型部署”就头疼觉得要配置环境、安装依赖、调试参数没几个小时搞不定。但StructBERT镜像打破了这个惯例——服务已经配置好开机自启你什么都不用做它就在那里运行着。打开浏览器输入给你的访问地址比如http://gpu-pod698386bfe177c841fb0af650-5000.web.gpu.csdn.net/一个漂亮的紫色渐变界面就会出现在你面前。页面顶部有个状态指示灯如果是绿色的恭喜你服务正在健康运行。如果是红色的也别急后面我会告诉你怎么解决。2.2 界面初体验比想象中更简单这个Web界面设计得很贴心主要就三个功能区域一眼就能看懂单句对比最常用的功能输入两个句子点一下按钮相似度分数就出来了批量对比输入一个标准句子和多个候选句子一次性找出最相关的API说明给开发者准备的可以直接用代码调用界面上还有几个示例按钮点一下就能看到预设的测试句子非常适合第一次使用的人快速感受效果。2.3 你的第一次相似度计算我们来做个简单的测试感受一下这个工具的能力在“句子1”框里输入今天天气很好在“句子2”框里输入今天阳光明媚点击“计算相似度”按钮等待一两秒结果就出来了。你会看到一个0到1之间的数字还有一个彩色的进度条。如果相似度在0.7以上进度条是绿色的标签显示“高度相似”如果在0.4到0.7之间是黄色的“中等相似”低于0.4就是红色的“低相似度”。再试试完全不同的句子句子1今天天气很好句子2我喜欢吃苹果这次相似度应该很低可能只有0.1左右。你看工具能清楚地区分意思相近和完全不同的句子。3. 深入核心功能不只是计算两个句子3.1 单句对比精准理解每一对关系单句对比是最基础也最常用的功能但它的价值远不止于算出一个数字。理解相似度的含义相似度分数不是随便给的它反映了两个句子在语义层面的接近程度。我根据自己的使用经验总结了一个实用的判断标准0.9-1.0几乎相同的意思可能是抄袭或高度重复的内容0.7-0.9核心意思一致表达方式不同适合问答匹配0.4-0.7有一定关联但不完全一致适合相关内容推荐0.0-0.4基本没有关系属于不同话题实际使用技巧在实际使用中我发现几个小技巧能让你得到更准确的结果文本预处理很重要计算前可以简单清理一下文本比如去掉多余的空格、统一大小写。虽然工具本身会处理但干净的输入能减少干扰。注意标点符号的影响中文的标点有时候会影响相似度计算。比如“你好吗”和“你好吗”可能因为问号而有细微差异根据你的需求决定是否要保留标点。长句子的处理对于很长的句子相似度计算可能会偏低因为包含了更多信息。如果比较的是段落或文章可以考虑先分段或提取关键句。3.2 批量对比一次处理多个候选批量对比功能特别实用它能帮你从一堆候选句子中快速找出最相关的那几个。使用场景举例假设你正在搭建一个智能客服系统用户问“我的快递为什么还没到”。你的知识库里有这些问题我的包裹什么时候能送到快递延误是什么原因我要退货怎么操作快递费用怎么计算用批量对比功能你一次性能得到所有候选问题的相似度分数并且自动按分数从高到低排序。这样你就能快速确定用户的问题最匹配哪个标准问题。操作步骤很简单在“源句子”框输入要比对的标准句子在“目标句子列表”框输入多个候选句子每行一个这点很重要点击“批量计算”按钮查看排序后的结果表格结果表格不仅显示相似度分数还有颜色标签一眼就能看出哪些是高度相关的。3.3 程序化调用集成到你的系统中如果你需要把相似度计算集成到自己的程序里Web界面可能不够用。这时候API接口就派上用场了。最简单的调用方式用curl命令就能测试curl -X POST http://127.0.0.1:5000/similarity \ -H Content-Type: application/json \ -d { sentence1: 今天天气很好, sentence2: 今天阳光明媚 }返回的JSON格式很清晰{ similarity: 0.8542, sentence1: 今天天气很好, sentence2: 今天阳光明媚 }Python集成示例在实际项目中你可能会用Python调用。这里有个完整的例子import requests import json class SentenceSimilarityClient: def __init__(self, base_urlhttp://127.0.0.1:5000): self.base_url base_url def compare(self, sentence1, sentence2): 计算两个句子的相似度 url f{self.base_url}/similarity data { sentence1: sentence1, sentence2: sentence2 } try: response requests.post(url, jsondata, timeout5) response.raise_for_status() result response.json() return result.get(similarity, 0) except Exception as e: print(f计算相似度时出错: {e}) return 0 def batch_compare(self, source, targets): 批量计算相似度 url f{self.base_url}/batch_similarity data { source: source, targets: targets } try: response requests.post(url, jsondata, timeout10) response.raise_for_status() result response.json() return result.get(results, []) except Exception as e: print(f批量计算时出错: {e}) return [] # 使用示例 client SentenceSimilarityClient() # 单句对比 similarity client.compare(如何修改密码, 密码忘记了怎么办) print(f相似度: {similarity:.4f}) # 批量对比 source 快递还没收到 targets [ 物流信息查询, 包裹配送状态, 退货申请流程, 快递费用咨询 ] results client.batch_compare(source, targets) print(\n批量对比结果:) for item in results: print(f{item[sentence]}: {item[similarity]:.4f})这个客户端类封装了基本的调用逻辑你可以直接用在项目里。4. 实战应用场景解决真实业务问题4.1 场景一智能客服问答匹配这是相似度计算最经典的应用场景。用户的问题千变万化但核心意思可能就那么几种。传统做法的问题以前的做法通常是关键词匹配比如用户问“怎么改密码”系统要预设“改”、“密码”、“修改”、“重置”等一系列关键词还要考虑同义词、近义词维护起来很麻烦。使用相似度计算的优势现在你只需要一个标准问题库用户提问时实时计算用户问题与每个标准问题的相似度取分数最高的那个。def find_best_answer(user_question, qa_pairs, threshold0.7): 为用户问题找到最匹配的答案 Args: user_question: 用户问题 qa_pairs: 列表每个元素是(标准问题, 答案) threshold: 匹配阈值默认0.7 Returns: 匹配的答案或None # 提取所有标准问题 standard_questions [q for q, _ in qa_pairs] # 批量计算相似度 client SentenceSimilarityClient() results client.batch_compare(user_question, standard_questions) if not results: return None # 找到相似度最高的 best_match max(results, keylambda x: x[similarity]) # 检查是否达到阈值 if best_match[similarity] threshold: # 找到对应的答案 for q, a in qa_pairs: if q best_match[sentence]: return a return None # 知识库示例 qa_database [ (如何修改登录密码, 请进入设置-账户安全-修改密码进行操作), (密码忘记了怎么办, 可以通过手机验证或邮箱验证找回密码), (怎样注册新账号, 点击首页右上角的注册按钮按提示填写信息), (如何注销账号, 注销账号请联系客服处理电话400-xxx-xxxx), (会员如何退款, 会员退款请提供订单号客服会在24小时内处理) ] # 用户提问 user_question 我的密码想改一下 # 查找答案 answer find_best_answer(user_question, qa_database) if answer: print(f匹配到问题答案{answer}) else: print(未找到匹配问题转人工客服)这种方法的好处是维护简单——你只需要维护标准问题和答案不用操心各种问法的匹配规则。4.2 场景二文本内容去重对于内容平台、论坛、电商评论等场景去重是个硬需求。人工审核效率低简单的字符串匹配又不够智能。相似度去重的优势基于相似度的去重能识别“意思相同但表达不同”的内容比如“这个产品非常好用”“这个产品很棒很好用”“产品质量不错推荐购买”虽然字面上不完全一样但核心意思都是好评相似度计算能识别这种语义上的重复。def remove_similar_content(contents, similarity_threshold0.85): 去除相似内容保留唯一内容 Args: contents: 内容列表 similarity_threshold: 相似度阈值高于此值视为重复 Returns: 去重后的内容列表 if not contents: return [] client SentenceSimilarityClient() unique_contents [contents[0]] # 保留第一个 for new_content in contents[1:]: is_duplicate False # 与已保留的内容比较 for existing in unique_contents: similarity client.compare(new_content, existing) if similarity similarity_threshold: is_duplicate True print(f发现重复内容相似度{similarity:.2f}:) print(f 原文: {existing}) print(f 重复: {new_content}) break if not is_duplicate: unique_contents.append(new_content) return unique_contents # 测试数据 user_comments [ 这个手机拍照效果很棒, 这款手机相机拍出来的照片很清晰, 电池续航时间太短了, 待机时间不够用经常要充电, 屏幕显示效果很好, 这个手机拍照效果很棒, # 完全重复 显示屏色彩鲜艳看着舒服 ] # 去重处理 unique_comments remove_similar_content(user_comments) print(f\n原始评论数: {len(user_comments)}) print(f去重后评论数: {len(unique_comments)}) print(\n保留的评论:) for i, comment in enumerate(unique_comments, 1): print(f{i}. {comment})你可以根据业务需求调整阈值。严格查重可以用0.9以上的阈值宽松去重可以用0.7-0.8。4.3 场景三个性化内容推荐基于用户阅读或搜索的内容推荐相似的文章、商品或视频这是提升用户体验的关键。实现思路将用户当前查看的内容作为源文本计算与候选内容的相似度按相似度排序推荐最相关的内容def recommend_similar_items(user_content, candidate_items, top_n3): 推荐相似内容 Args: user_content: 用户当前查看的内容 candidate_items: 候选内容列表每个元素是(内容, 其他信息) top_n: 推荐数量 Returns: 推荐的内容列表 if not candidate_items: return [] # 提取纯文本内容 candidate_texts [item[0] for item in candidate_items] # 批量计算相似度 client SentenceSimilarityClient() results client.batch_compare(user_content, candidate_texts) if not results: return [] # 创建文本到完整信息的映射 text_to_item {item[0]: item for item in candidate_items} # 按相似度排序 sorted_results sorted( results, keylambda x: x[similarity], reverseTrue ) # 返回Top N recommendations [] for result in sorted_results[:top_n]: text result[sentence] similarity result[similarity] full_item text_to_item.get(text) if full_item: recommendations.append((full_item, similarity)) return recommendations # 文章库示例 articles [ (深度学习在自然语言处理中的应用, 科技, 2024-03-15), (Python机器学习入门教程, 编程, 2024-03-10), (自然语言处理技术综述, 科技, 2024-03-05), (深度学习模型训练技巧, 科技, 2024-02-28), (Python编程基础指南, 编程, 2024-02-20) ] # 用户正在阅读的文章 current_article NLP技术在文本分析中的应用 # 推荐相似文章 recommendations recommend_similar_items(current_article, articles, top_n3) print(f基于文章《{current_article}》的推荐\n) for i, (article_info, similarity) in enumerate(recommendations, 1): title, category, date article_info print(f{i}. 《{title}》) print(f 分类{category} | 日期{date} | 相似度{similarity:.2f})这种方法比基于标签或分类的推荐更精准因为它直接比较内容本身的相似度。5. 高级技巧与优化建议5.1 设置合理的相似度阈值相似度阈值不是固定的需要根据具体场景调整。我总结了一些经验值严格匹配场景阈值0.9论文查重、代码查重法律文档比对重要数据去重一般匹配场景阈值0.7-0.9客服问答匹配内容推荐系统搜索相关性排序宽松匹配场景阈值0.4-0.7相关话题发现内容聚类分析兴趣标签扩展在实际使用中你可以先设定一个初始阈值然后根据实际效果调整。一个实用的方法是收集一些正例应该匹配的和负例不应该匹配的测试不同阈值下的准确率。5.2 文本预处理提升准确率在计算相似度之前对文本做一些预处理往往能提升结果的准确性。import re import jieba def preprocess_text(text, use_jiebaFalse): 文本预处理函数 Args: text: 原始文本 use_jieba: 是否使用分词对于长文本效果更好 Returns: 处理后的文本 if not text: return # 1. 去除多余空白字符 text re.sub(r\s, , text).strip() # 2. 全角转半角可选 # text text.replace(, ,).replace(。, .).replace(, !) # 3. 去除特殊字符根据需求 # 保留中文、英文、数字、常见标点 # text re.sub(r[^\w\s\u4e00-\u9fff。、], , text) # 4. 分词处理对于长文本 if use_jieba and len(text) 10: words jieba.lcut(text) text .join(words) return text # 使用示例 raw_text 今天 天气 很好 我们 去 公园 玩 。 clean_text preprocess_text(raw_text) print(f原始: {raw_text}) print(f处理: {clean_text}) # 对比预处理前后的相似度 client SentenceSimilarityClient() s1_raw 人工智能(AI)改变世界 s2_raw AI技术改变世界 s1_clean preprocess_text(s1_raw) s2_clean preprocess_text(s2_raw) similarity_raw client.compare(s1_raw, s2_raw) similarity_clean client.compare(s1_clean, s2_clean) print(f\n预处理前相似度: {similarity_raw:.4f}) print(f预处理后相似度: {similarity_clean:.4f})预处理的程度取决于你的具体需求。如果只是简单的句子比较基本的空格清理就够了如果是文档级别的比较可能需要更复杂的处理。5.3 批量处理性能优化当需要处理大量文本时直接调用API可能效率不高。这里有几个优化建议1. 本地批量处理如果数据量很大可以考虑在本地批量处理减少网络请求def batch_process_locally(sentence_pairs): 本地批量处理减少网络开销 假设你已经将服务部署在本地 client SentenceSimilarityClient(http://127.0.0.1:5000) results [] batch_size 10 # 每批处理10对 for i in range(0, len(sentence_pairs), batch_size): batch sentence_pairs[i:ibatch_size] batch_results [] for s1, s2 in batch: similarity client.compare(s1, s2) batch_results.append({ sentence1: s1, sentence2: s2, similarity: similarity }) results.extend(batch_results) # 进度提示 if (i batch_size) % 100 0: print(f已处理 {i batch_size}/{len(sentence_pairs)} 对) return results2. 结果缓存对于重复的计算可以使用缓存避免重复计算import hashlib from functools import lru_cache class CachedSimilarityClient: def __init__(self, base_urlhttp://127.0.0.1:5000): self.client SentenceSimilarityClient(base_url) self.cache {} # 简单内存缓存 def _get_cache_key(self, s1, s2): 生成缓存键 # 排序确保 (A,B) 和 (B,A) 用同一个缓存 sorted_pair tuple(sorted([s1, s2])) key hashlib.md5(str(sorted_pair).encode()).hexdigest() return key def compare(self, sentence1, sentence2, use_cacheTrue): 带缓存的相似度计算 if not use_cache: return self.client.compare(sentence1, sentence2) cache_key self._get_cache_key(sentence1, sentence2) if cache_key in self.cache: return self.cache[cache_key] similarity self.client.compare(sentence1, sentence2) self.cache[cache_key] similarity return similarity def batch_compare(self, source, targets, use_cacheTrue): 带缓存的批量计算 if not use_cache: return self.client.batch_compare(source, targets) results [] for target in targets: similarity self.compare(source, target, use_cacheTrue) results.append({ sentence: target, similarity: similarity }) # 按相似度排序 results.sort(keylambda x: x[similarity], reverseTrue) return results # 使用缓存客户端 cached_client CachedSimilarityClient() # 第一次计算会调用API result1 cached_client.compare(今天天气很好, 今天阳光明媚) print(f第一次计算: {result1:.4f}) # 第二次相同计算直接从缓存读取 result2 cached_client.compare(今天天气很好, 今天阳光明媚) print(f第二次计算缓存: {result2:.4f})对于生产环境可以考虑使用Redis等外部缓存系统。6. 常见问题与解决方案6.1 服务无法访问怎么办如果你打不开Web界面可以按以下步骤排查第一步检查服务是否运行# 查看进程 ps aux | grep python.*app.py # 如果没看到相关进程启动服务 cd /root/nlp_structbert_project bash scripts/start.sh # 等待几秒再检查 sleep 3 ps aux | grep python.*app.py第二步测试本地访问# 尝试本地访问 curl http://127.0.0.1:5000/ # 如果返回HTML内容说明服务正常 # 如果连接被拒绝可能是端口问题第三步检查端口占用# 查看5000端口是否被占用 netstat -tlnp | grep 5000 # 如果被其他程序占用可以修改端口 # 编辑app.py修改最后一行port参数 # app.run(host0.0.0.0, port8080, threadedTrue)第四步查看错误日志# 查看最近的错误信息 tail -100 /root/nlp_structbert_project/logs/startup.log # 实时查看日志 tail -f /root/nlp_structbert_project/logs/startup.log6.2 计算结果不准确怎么办有时候你会发现相似度计算结果和预期不太一样这可能有几个原因原因一使用的是简化版算法默认安装使用的是Jaccard简化版算法它基于字符重叠计算相似度速度快但精度有限。对于复杂的语义理解可能不够准确。解决方案切换到完整版模型# 1. 安装完整依赖 conda activate torch28 pip install modelscope # 2. 重启服务 bash /root/nlp_structbert_project/scripts/restart.sh # 3. 等待模型加载首次需要下载耐心等待 # 查看日志确认加载进度 tail -f /root/nlp_structbert_project/logs/startup.log完整版模型基于深度学习能理解句子语义精度更高但需要更多内存和加载时间。原因二文本本身有歧义中文有很多一词多义的情况比如“苹果”可以指水果也可以指公司。这种情况下即使人类也可能判断不准。解决方案添加上下文信息# 在比较时提供更多上下文 def compare_with_context(sentence1, context1, sentence2, context2): 带上下文的相似度计算 # 将上下文和句子组合 full_text1 f{context1} {sentence1} if context1 else sentence1 full_text2 f{context2} {sentence2} if context2 else sentence2 client SentenceSimilarityClient() return client.compare(full_text1, full_text2) # 示例区分“苹果”的不同含义 similarity1 compare_with_context( 苹果, 水果, 苹果, 水果 ) # 应该较高 similarity2 compare_with_context( 苹果, 水果, 苹果, 手机 ) # 应该较低 print(f相同上下文: {similarity1:.4f}) print(f不同上下文: {similarity2:.4f})原因三阈值设置不合理相似度本身是一个连续值你需要根据业务需求设定合理的阈值。def adaptive_threshold(sentence_length): 根据句子长度自适应调整阈值 短文本需要更高相似度长文本可以放宽 if sentence_length 10: # 很短 return 0.9 elif sentence_length 30: # 中等 return 0.7 else: # 很长 return 0.5 # 使用自适应阈值 def is_similar_adaptive(s1, s2): client SentenceSimilarityClient() similarity client.compare(s1, s2) # 取两个句子长度的平均值 avg_length (len(s1) len(s2)) / 2 threshold adaptive_threshold(avg_length) return similarity threshold, similarity, threshold # 测试 test_pairs [ (你好, 您好), # 短文本 (今天天气很好适合出去玩, 阳光明媚出门游玩的好日子), # 中等长度 (深度学习是人工智能的一个重要分支它通过多层神经网络学习数据的特征表示, 深度学习作为AI的核心技术利用深度神经网络从数据中自动提取特征) # 长文本 ] for s1, s2 in test_pairs: is_match, similarity, threshold is_similar_adaptive(s1, s2) print(f句子1: {s1}) print(f句子2: {s2}) print(f相似度: {similarity:.4f}, 阈值: {threshold:.2f}, 是否匹配: {is_match}) print()6.3 服务自动停止怎么办如果服务运行一段时间后自动停止可能是以下原因内存不足# 查看内存使用情况 free -h # 如果内存不足考虑 # 1. 关闭其他不必要的程序 # 2. 使用简化版算法内存需求更低 # 3. 增加服务器内存使用Supervisor管理进程服务已经配置了Supervisor它会自动监控和重启服务# 查看服务状态 supervisorctl status nlp_structbert # 如果停止手动启动 supervisorctl start nlp_structbert # 查看Supervisor日志 supervisorctl tail -f nlp_structbert配置自动重启如果Supervisor没有自动重启检查配置文件# 查看Supervisor配置 cat /etc/supervisor/conf.d/nlp_structbert.conf # 确保有以下配置 # autostarttrue # autorestarttrue # startretries37. 总结从工具到解决方案StructBERT中文句子相似度计算工具的价值不仅在于它提供了一个可用的服务更在于它降低了文本相似度计算的技术门槛。核心优势总结开箱即用无需复杂配置部署即用灵活易用提供Web界面和API两种方式满足不同需求性能平衡默认的简化版适合大多数场景需要高精度时可切换完整版场景丰富覆盖问答匹配、文本去重、内容推荐等多种应用实际应用建议根据我的经验给你几个实用建议对于刚接触的用户先从Web界面开始用示例按钮感受效果理解相似度分数的含义。尝试不同的句子对建立对工具能力的直观认识。对于开发者先用API接口做原型验证确认效果符合预期后再集成到系统中。注意错误处理和超时设置生产环境建议添加重试机制。对于产品经理不要只看相似度数字要结合业务场景设定合理的阈值。可以先收集一些测试用例验证不同阈值下的效果找到最适合你们业务的平衡点。对于运维人员关注服务稳定性和资源使用。简化版内存占用小适合并发量大的场景完整版精度高适合对准确性要求高的场景。根据实际需求选择。最后的技术细节当前版本使用的是Jaccard简化版算法它的特点是计算速度快毫秒级响应内存占用小约200MB适合大规模文本处理精度对于一般场景足够如果需要更高的精度可以切换到深度学习完整版安装ModelScopepip install modelscope修改配置将算法改为deep_learning重启服务bash scripts/restart.sh注意完整版需要更多内存首次加载较慢无论选择哪个版本这个工具都能为你的项目提供强大的文本处理能力。从简单的句子对比到复杂的语义理解从单次查询到批量处理它都能胜任。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2414828.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…