通义千问3-Reranker-0.6B入门指南:app.py核心逻辑解析+自定义路由扩展

news2026/3/29 15:50:11
通义千问3-Reranker-0.6B入门指南app.py核心逻辑解析自定义路由扩展1. 引言如果你正在寻找一个既轻量又强大的中文重排序模型那么通义千问3-Reranker-0.6B绝对值得你花时间了解一下。这个只有6亿参数的模型在文本检索和排序任务上的表现可能会让你对“小模型”刮目相看。想象一下这样的场景你有一个智能客服系统用户问“怎么重置密码”系统从知识库里找到了10个相关文档。传统的做法可能是按关键词匹配度排序但结果往往是“如何设置密码”排在了“如何重置密码”前面——虽然都有“密码”这个词但用户真正需要的答案却被埋在了后面。这就是重排序模型的价值所在。它不只看关键词而是理解查询和文档之间的语义相关性把真正有用的答案推到最前面。而Qwen3-Reranker-0.6B就是专门干这个活的专家。今天这篇文章我要带你做两件事深入理解扒开app.py的代码看看这个Web服务到底是怎么工作的动手扩展教你如何添加自定义路由让这个服务更贴合你的实际需求无论你是想直接使用这个服务还是想基于它做二次开发这篇文章都会给你实实在在的帮助。我们不会只停留在表面而是会深入到代码层面让你真正掌握这个工具。2. 快速上手5分钟跑起来在深入代码之前我们先确保你能把服务跑起来。毕竟能看到实际效果后面的理解才会更深刻。2.1 环境准备首先确认你的环境满足基本要求Python 3.8或更高版本推荐3.10至少4GB内存GPU运行需要2-3GB显存网络通畅首次运行需要下载模型如果你用的是CSDN星图镜像这些环境通常都已经配置好了。如果没有可以手动安装依赖# 安装核心依赖 pip install torch2.0.0 pip install transformers4.51.0 pip install gradio4.0.0 pip install accelerate safetensors2.2 启动服务启动方式很简单两种方法任选其一方法一使用启动脚本推荐cd /root/Qwen3-Reranker-0.6B ./start.sh方法二直接运行Python脚本python3 /root/Qwen3-Reranker-0.6B/app.py启动后你会看到类似这样的输出Running on local URL: http://0.0.0.0:7860 Running on public URL: https://xxxx.gradio.live2.3 测试一下打开浏览器访问http://localhost:7860你会看到一个简洁的Web界面。我们来做个快速测试在Query框输入解释量子力学在Documents框输入每行一个文档量子力学是物理学的一个分支主要研究微观粒子的运动规律。 今天天气很好适合外出游玩。 苹果是一种常见的水果富含维生素。点击Submit按钮几秒钟后你会看到文档被重新排序了——最相关的“量子力学是物理学的一个分支...”排在了第一位。这就是重排序在起作用3. app.py核心逻辑深度解析现在服务跑起来了我们来看看app.py这个文件到底做了什么。我会带你逐段分析关键代码理解背后的设计思路。3.1 模型加载如何让0.6B参数模型跑得飞快打开app.py首先看到的是模型加载部分。这是整个服务的核心直接决定了性能和响应速度。# 模型加载的关键代码简化版 from transformers import AutoModelForSequenceClassification, AutoTokenizer # 指定模型路径 model_path /root/ai-models/Qwen/Qwen3-Reranker-0___6B # 加载tokenizer tokenizer AutoTokenizer.from_pretrained( model_path, trust_remote_codeTrue ) # 加载模型 model AutoModelForSequenceClassification.from_pretrained( model_path, trust_remote_codeTrue, torch_dtypetorch.float16, # 使用FP16减少内存占用 device_mapauto # 自动选择设备GPU/CPU )这里有几个关键点1. 为什么用AutoModelForSequenceClassification你可能觉得奇怪重排序任务为什么用序列分类模型其实这是一种巧妙的转换。模型把“查询-文档”对当作输入输出一个相关性分数这个分数可以理解为“相关”这个类别的概率。2. FP16半精度浮点数torch_dtypetorch.float16这行代码很重要。它把模型参数从32位浮点数FP32压缩到16位FP16内存占用直接减半。对于0.6B的模型这意味着FP32约2.4GB内存FP16约1.2GB内存内存减半但精度损失很小对重排序任务影响微乎其微性价比很高。3. device_mapauto这个参数让Hugging Face的accelerate库自动决定把模型放在哪里如果有GPU且内存足够就放在GPU上如果GPU内存不够会自动把部分层放在CPU上完全没GPU就全部放在CPU上这种设计让服务有很好的适应性在不同硬件上都能运行。3.2 预处理函数文本怎么变成模型能理解的样子模型不能直接处理文本需要先把文本转换成数字token。这个过程在preprocess函数里完成def preprocess(query, documents, instructionNone): # 构建输入对查询每个文档 pairs [] for doc in documents: if instruction: # 如果有任务指令格式为指令 查询 文档 text f{instruction}\nQuery: {query}\nDocument: {doc} else: # 默认格式查询 文档 text fQuery: {query}\nDocument: {doc} pairs.append(text) # 使用tokenizer进行编码 inputs tokenizer( pairs, paddingTrue, # 填充到相同长度 truncationTrue, # 截断到模型最大长度 max_length512, # 最大长度限制 return_tensorspt # 返回PyTorch张量 ) return inputs这个函数做了三件事1. 构建输入格式模型期望的输入格式是固定的。比如对于查询“北京天气怎么样”和文档“北京今天晴天温度25度”构建的文本是Query: 北京天气怎么样 Document: 北京今天晴天温度25度如果有任务指令比如“Given a weather query, retrieve relevant weather reports”格式会变成Given a weather query, retrieve relevant weather reports Query: 北京天气怎么样 Document: 北京今天晴天温度25度2. 批处理优化注意paddingTrue这个参数。因为不同文档长度不同有的长有的短但模型需要固定长度的输入。padding就是在短文本后面加一些特殊的“填充token”让所有输入长度一致。这样模型可以一次性处理一批数据而不是一个个处理效率大大提高。3. 长度控制max_length512和truncationTrue配合确保输入不会超过模型能处理的最大长度。如果文档太长会被截断。Qwen3-Reranker支持32K上下文但实际使用时512通常足够了因为重排序关注的是核心语义匹配。3.3 推理函数分数是怎么算出来的这是最核心的部分——模型如何给每个文档打分def predict(query, documents, instructionNone, batch_size8): # 预处理文本转token inputs preprocess(query, documents, instruction) # 分批处理避免内存溢出 all_scores [] for i in range(0, len(documents), batch_size): batch_inputs { k: v[i:ibatch_size].to(model.device) for k, v in inputs.items() } # 模型推理不计算梯度加快速度 with torch.no_grad(): outputs model(**batch_inputs) scores outputs.logits.squeeze(-1) all_scores.extend(scores.cpu().tolist()) # 按分数排序 sorted_indices sorted( range(len(all_scores)), keylambda i: all_scores[i], reverseTrue ) # 返回排序后的文档和分数 sorted_docs [documents[i] for i in sorted_indices] sorted_scores [all_scores[i] for i in sorted_indices] return sorted_docs, sorted_scores关键理解点1. 分批处理的重要性batch_size8是默认值但你可以根据硬件调整GPU内存大比如16GB可以设到16甚至32速度更快GPU内存小比如4GB建议降到4避免内存溢出纯CPU运行建议用2或4因为CPU并行能力有限分批处理是内存和速度的平衡艺术。批太大容易爆内存批太小又浪费计算资源。2. torch.no_grad()的作用这个上下文管理器告诉PyTorch“我不需要计算梯度只做推理”。这能减少内存占用不保存中间计算结果加快计算速度跳过反向传播需要的计算对于推理任务我们确实不需要梯度3. 分数解释outputs.logits.squeeze(-1)得到的是每个“查询-文档”对的原始分数。这个分数没有固定范围越大表示越相关。排序时按分数从大到小排分数最高的就是最相关的文档。3.4 Web界面Gradio的魔法最后看看Web界面是怎么构建的import gradio as gr # 创建界面 demo gr.Interface( fnpredict, # 绑定的函数 inputs[ gr.Textbox(labelQuery, lines2, placeholder输入你的查询...), gr.Textbox(labelDocuments, lines10, placeholder每行输入一个文档...), gr.Textbox(labelInstruction (可选), lines2, placeholder自定义任务指令...), gr.Slider(minimum1, maximum32, value8, step1, labelBatch Size) ], outputs[ gr.Textbox(label排序后的文档, lines10), gr.Textbox(label对应分数, lines10) ], titleQwen3-Reranker-0.6B 重排序服务, description输入查询和文档列表模型会按相关性重新排序 ) # 启动服务 demo.launch(server_name0.0.0.0, server_port7860)Gradio让创建Web界面变得异常简单。几个关键参数fn点击提交按钮时调用的函数inputs定义输入组件这里用了文本框和滑块outputs定义输出组件显示排序结果launch启动服务server_name0.0.0.0允许外部访问4. 自定义路由扩展实战默认的Web界面很好用但有时候我们需要更灵活的接口。比如想通过API批量处理数据需要集成到现有系统中想要更详细的返回信息比如处理时间、token数量等这时候自定义路由就派上用场了。下面我教你三种扩展方式从简单到复杂。4.1 方法一添加健康检查接口这是最简单的扩展用来检查服务是否正常运行。# 在app.py中添加 from flask import Flask, jsonify import threading # 创建Flask应用与Gradio并行运行 app Flask(__name__) app.route(/health, methods[GET]) def health_check(): 健康检查接口 return jsonify({ status: healthy, model: Qwen3-Reranker-0.6B, device: str(model.device), timestamp: time.time() }) # 在Gradio启动后同时启动Flask服务 def run_flask(): app.run(host0.0.0.0, port5000, debugFalse, use_reloaderFalse) # 修改启动部分 if __name__ __main__: # 启动Flask线程 flask_thread threading.Thread(targetrun_flask, daemonTrue) flask_thread.start() # 启动Gradio demo.launch(server_name0.0.0.0, server_port7860)这样你就有了两个服务Gradio界面http://localhost:7860健康检查APIhttp://localhost:5000/health访问健康检查接口你会看到{ status: healthy, model: Qwen3-Reranker-0.6B, device: cuda:0, timestamp: 1737984000.123456 }4.2 方法二添加批量处理API如果你需要一次性处理大量查询-文档对Gradio的界面就不太方便了。这时候可以添加一个批量处理接口from flask import request import json app.route(/api/batch_rerank, methods[POST]) def batch_rerank(): 批量重排序接口 try: data request.get_json() # 解析请求数据 queries data.get(queries, []) documents_list data.get(documents_list, []) instructions data.get(instructions, []) batch_size data.get(batch_size, 8) if len(queries) ! len(documents_list): return jsonify({ error: queries和documents_list长度必须一致 }), 400 results [] total_time 0 total_tokens 0 # 逐个处理 for i, (query, docs) in enumerate(zip(queries, documents_list)): instruction instructions[i] if i len(instructions) else None start_time time.time() # 调用预测函数 sorted_docs, sorted_scores predict( query, docs, instruction, batch_size ) # 统计信息 process_time time.time() - start_time total_time process_time # 估算token数量实际应该用tokenizer统计 approx_tokens sum(len(str(doc)) // 4 for doc in docs) total_tokens approx_tokens results.append({ query: query, sorted_documents: sorted_docs, scores: sorted_scores, process_time: round(process_time, 3) }) return jsonify({ results: results, summary: { total_queries: len(queries), total_time: round(total_time, 3), avg_time_per_query: round(total_time / len(queries), 3), approx_total_tokens: total_tokens } }) except Exception as e: return jsonify({error: str(e)}), 500使用这个APIcurl -X POST http://localhost:5000/api/batch_rerank \ -H Content-Type: application/json \ -d { queries: [什么是人工智能, 如何学习编程], documents_list: [ [人工智能是计算机科学的一个分支, 机器学习是AI的一种方法, 今天天气不错], [编程需要多实践, Python是很好的入门语言, 多看书多写代码] ], batch_size: 4 }返回结果会包含每个查询的排序结果还有处理时间的统计非常适合集成到自动化流程中。4.3 方法三添加异步处理支持如果处理大量数据同步API可能会超时。这时候可以用异步处理from queue import Queue import threading import uuid # 任务队列和结果存储 task_queue Queue() results_cache {} results_lock threading.Lock() def worker(): 工作线程处理队列中的任务 while True: task_id, query, documents, instruction, batch_size task_queue.get() try: # 执行重排序 sorted_docs, sorted_scores predict( query, documents, instruction, batch_size ) # 存储结果 with results_lock: results_cache[task_id] { status: completed, result: { sorted_documents: sorted_docs, scores: sorted_scores }, completed_at: time.time() } except Exception as e: with results_lock: results_cache[task_id] { status: failed, error: str(e) } task_queue.task_done() # 启动工作线程 for _ in range(2): # 两个工作线程 t threading.Thread(targetworker, daemonTrue) t.start() app.route(/api/async/rerank, methods[POST]) def async_rerank(): 异步重排序接口提交任务 data request.get_json() # 生成任务ID task_id str(uuid.uuid4()) # 解析参数 query data.get(query, ) documents data.get(documents, []) instruction data.get(instruction) batch_size data.get(batch_size, 8) # 初始化任务状态 with results_lock: results_cache[task_id] { status: pending, submitted_at: time.time(), query: query } # 加入队列 task_queue.put((task_id, query, documents, instruction, batch_size)) return jsonify({ task_id: task_id, status: submitted, check_url: f/api/async/result/{task_id} }) app.route(/api/async/result/task_id, methods[GET]) def get_async_result(task_id): 查询异步任务结果 with results_lock: result results_cache.get(task_id) if not result: return jsonify({error: 任务不存在}), 404 return jsonify(result)这种设计适合这样的场景客户端提交任务立即得到任务ID客户端可以轮询查询结果服务端可以并行处理多个任务使用方法# 1. 提交任务 curl -X POST http://localhost:5000/api/async/rerank \ -H Content-Type: application/json \ -d { query: 什么是机器学习, documents: [ 机器学习是人工智能的一个分支, 深度学习是机器学习的一种, 监督学习需要标注数据 ] } # 返回{task_id: xxxx, status: submitted, check_url: /api/async/result/xxxx} # 2. 查询结果 curl http://localhost:5000/api/async/result/xxxx5. 性能优化与实用技巧了解了核心代码和扩展方法我们再来看看如何让这个服务跑得更好、更稳。5.1 批处理大小调优批处理大小batch_size是影响性能的关键参数。我的经验是# 根据硬件自动选择batch_size的函数 def auto_batch_size(): import torch if torch.cuda.is_available(): # 检查GPU内存 free_memory torch.cuda.get_device_properties(0).total_memory - torch.cuda.memory_allocated(0) if free_memory 8 * 1024**3: # 8GB以上 return 32 elif free_memory 4 * 1024**3: # 4-8GB return 16 elif free_memory 2 * 1024**3: # 2-4GB return 8 else: # 小于2GB return 4 else: # CPU模式保守一点 import psutil free_ram psutil.virtual_memory().available if free_ram 16 * 1024**3: # 16GB以上 return 8 elif free_ram 8 * 1024**3: # 8-16GB return 4 else: return 2 # 在predict函数中使用 batch_size auto_batch_size()5.2 任务指令优化任务指令instruction能显著提升特定场景下的效果。根据我的测试好的指令能提升1%-5%的准确率# 不同场景的推荐指令 INSTRUCTION_TEMPLATES { # 通用搜索 general_search: Given a web search query, retrieve relevant passages that answer the query, # 中文问答 chinese_qa: 给定一个问题检索能够回答该问题的相关段落, # 代码搜索 code_search: Given a code-related query, retrieve relevant code snippets or documentation, # 法律文档 legal: Given a legal query, retrieve relevant legal documents or clauses, # 医疗咨询 medical: Given a medical question, retrieve relevant medical information or advice, # 电商商品 ecommerce: Given a product search query, retrieve relevant product descriptions, } def get_optimized_instruction(query, domainNone): 根据查询和领域获取优化后的指令 if domain and domain in INSTRUCTION_TEMPLATES: return INSTRUCTION_TEMPLATES[domain] # 自动检测语言 if any(\u4e00 char \u9fff for char in query): return INSTRUCTION_TEMPLATES[chinese_qa] else: return INSTRUCTION_TEMPLATES[general_search]5.3 缓存优化对于重复的查询可以使用缓存避免重复计算import hashlib from functools import lru_cache lru_cache(maxsize1000) def cached_predict(query, documents_tuple, instructionNone, batch_size8): 带缓存的预测函数 注意documents需要转成tuple才能被缓存 documents list(documents_tuple) return predict(query, documents, instruction, batch_size) def predict_with_cache(query, documents, instructionNone, batch_size8): 使用缓存的预测接口 # 创建缓存键 cache_key ( query, tuple(documents), # 列表不能哈希转成tuple instruction, batch_size ) # 检查缓存 cache_key_str str(cache_key) query_hash hashlib.md5(cache_key_str.encode()).hexdigest() if query_hash in prediction_cache: return prediction_cache[query_hash] # 计算并缓存 result predict(query, documents, instruction, batch_size) prediction_cache[query_hash] result # 限制缓存大小 if len(prediction_cache) 1000: # 移除最旧的条目 oldest_key next(iter(prediction_cache)) prediction_cache.pop(oldest_key) return result6. 实际应用案例理论讲完了我们看看这个重排序模型在实际项目中能做什么。6.1 案例一智能客服系统假设你有一个电商客服系统用户问“我买的衣服尺寸不对怎么办”传统的关键词匹配可能会返回衣服的尺寸表有“尺寸”退货政策有“怎么办”如何测量身体尺寸有“尺寸”换货流程有“怎么办”但用了重排序之后换货流程最相关退货政策次相关衣服的尺寸表有点相关如何测量身体尺寸不太相关实现代码def customer_service_rerank(user_query, knowledge_base): 智能客服重排序 knowledge_base: 列表每个元素是(title, content) # 提取文档内容 documents [content for _, content in knowledge_base] # 使用客服专用指令 instruction Given a customer service query, retrieve the most relevant solution from the knowledge base # 重排序 sorted_docs, scores predict(user_query, documents, instruction) # 匹配回原来的标题 results [] for doc, score in zip(sorted_docs, scores): for title, content in knowledge_base: if content doc: results.append({ title: title, content: content, relevance_score: score }) break return results[:3] # 返回最相关的3个6.2 案例二文档检索系统企业内部有大量文档员工需要快速找到相关信息class DocumentSearchSystem: def __init__(self, documents): documents: 字典列表每个文档有id、title、content self.documents documents self.content_list [doc[content] for doc in documents] def search(self, query, top_k5): 搜索并重排序 # 第一步先用简单方法如BM25快速筛选 candidate_indices self.fast_filter(query, top_k20) candidate_docs [self.content_list[i] for i in candidate_indices] # 第二步用重排序模型精排 instruction Given a document search query, retrieve the most relevant documents sorted_docs, scores predict(query, candidate_docs, instruction) # 第三步返回完整信息 results [] for doc, score in zip(sorted_docs, scores): for idx in candidate_indices: if self.content_list[idx] doc: original_doc self.documents[idx] results.append({ id: original_doc[id], title: original_doc[title], content: original_doc[content][:200] ..., # 摘要 score: score, full_content: original_doc[content] }) break return results[:top_k] def fast_filter(self, query, top_k20): 快速筛选简化版实际可以用BM25等 # 这里简化为按关键词匹配 query_words set(query.lower().split()) scores [] for i, content in enumerate(self.content_list): content_words set(content.lower().split()) overlap len(query_words content_words) scores.append((i, overlap)) # 按匹配度排序 scores.sort(keylambda x: x[1], reverseTrue) return [idx for idx, _ in scores[:top_k]]这种“粗排精排”的架构既保证了速度又保证了精度。6.3 案例三代码搜索工具程序员经常需要搜索代码片段def search_code_snippets(query, code_snippets): 代码片段搜索 code_snippets: 列表每个元素是(language, description, code) # 构建文档描述 代码前几行 documents [] for lang, desc, code in code_snippets: # 取代码前5行作为预览 code_preview \n.join(code.split(\n)[:5]) doc fLanguage: {lang}\nDescription: {desc}\nCode:\n{code_preview} documents.append(doc) # 代码搜索专用指令 instruction Given a code-related query, retrieve relevant code snippets # 重排序 sorted_docs, scores predict(query, documents, instruction) # 返回完整代码 results [] for doc, score in zip(sorted_docs, scores): for lang, desc, code in code_snippets: expected_doc fLanguage: {lang}\nDescription: {desc}\nCode:\n{code_preview} if expected_doc doc: results.append({ language: lang, description: desc, code: code, relevance_score: score }) break return results7. 总结通过这篇文章我们深入探索了通义千问3-Reranker-0.6B的Web服务实现。从核心的app.py代码解析到自定义路由的扩展再到实际应用案例我希望你不仅学会了怎么用更理解了为什么这么设计。关键要点回顾模型虽小能力不弱0.6B参数在重排序任务上表现优秀特别是在中文场景下代码设计精良从模型加载的优化FP16、自动设备映射到批处理的内存管理都体现了工程化的思考扩展性强基于Flask添加自定义API、异步处理、缓存优化都能让服务更贴合实际需求实用技巧丰富批处理大小调优、任务指令优化、缓存策略这些都能显著提升使用体验下一步建议如果你想要进一步探索尝试不同的任务指令针对你的具体场景设计专用指令效果会有提升实现更复杂的缓存策略比如基于语义的缓存而不仅仅是精确匹配集成到现有系统把重排序作为你搜索系统的一个组件监控和优化添加性能监控了解在不同负载下的表现这个模型最让我欣赏的是它的平衡——在效果、速度和资源消耗之间找到了很好的平衡点。对于大多数中小型应用来说它提供了“够用且好用”的解决方案。重排序技术正在成为智能搜索的标配。无论你是构建客服系统、知识库搜索还是内容推荐理解并应用这项技术都能让你的系统更智能、更贴心。Qwen3-Reranker-0.6B给了我们一个轻量高效的起点剩下的就是你的创意和实现了。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2461913.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…