BGE-Reranker-v2-m3批量处理优化:提升高并发排序效率

news2026/3/29 19:57:46
BGE-Reranker-v2-m3批量处理优化提升高并发排序效率你是不是也遇到过这样的问题在搭建RAG系统时向量检索返回了一大堆文档但真正相关的却没几个。大模型拿着这些“噪音”文档生成答案结果要么答非所问要么干脆开始“胡说八道”。这就是典型的“搜不准”问题。向量检索虽然快但它只看表面相似度很容易被关键词误导。比如你问“如何预防感冒”它可能把“感冒药广告”排在最前面而真正讲预防措施的文档却被埋在了后面。今天要介绍的BGE-Reranker-v2-m3就是专门解决这个问题的“文档质检员”。它能深度分析查询和文档的逻辑关系把真正相关的文档挑出来重新排序。但问题来了——当你要处理成百上千个查询时一个个排队等它打分效率实在太低了。这篇文章就来聊聊怎么让这个“质检员”从单打独斗变成流水线作业实现批量处理优化大幅提升高并发场景下的排序效率。1. 理解BGE-Reranker的核心价值1.1 向量检索的局限性先来看个简单的例子。假设你的RAG系统里有这些文档文档A“感冒的症状包括流鼻涕、咳嗽、发烧”文档B“XX牌感冒药快速缓解症状家中常备”文档C“预防感冒的方法勤洗手、戴口罩、增强免疫力”当你查询“如何预防感冒”时向量检索可能会这样排序文档B因为“感冒”关键词匹配度高文档A也有“感冒”关键词文档C虽然最相关但关键词匹配度不够看到了吗最相关的文档C反而排在了最后。这就是向量检索的“关键词陷阱”——它只看词频和相似度不理解语义逻辑。1.2 Reranker如何破局BGE-Reranker-v2-m3采用Cross-Encoder架构它的工作方式完全不同。它不是单独计算查询和文档的向量而是把查询和文档拼接在一起让模型整体判断它们的匹配程度。还是刚才的例子Reranker会这样分析查询“如何预防感冒”文档B“XX牌感冒药快速缓解症状家中常备” → 模型判断这是广告不是预防方法相关性低文档C“预防感冒的方法勤洗手、戴口罩、增强免疫力” → 模型判断这正是预防方法相关性高最终排序就变成了文档C 文档A 文档B。大模型拿到这个排序结果生成答案的准确性自然就上去了。2. 从单条处理到批量优化的必要性2.1 单条处理的瓶颈镜像里自带的测试脚本很好用能让你快速验证功能。但如果你仔细看代码会发现它是这样工作的# test.py中的核心代码片段 scores model.compute_score([[query, document1], [query, document2]])这种调用方式在处理少量查询时没问题但在实际生产环境中你会面临同时有多个用户查询需要处理每个查询对应几十甚至上百个候选文档实时性要求高用户等不起如果还是一个个排队处理延迟会非常高。想象一下每个查询-文档对需要50毫秒100个查询×每个查询50个文档5000个对总耗时就是250秒——用户早就等不及了。2.2 批量处理的优势批量处理的核心思想是“一次处理多个”这能带来几个明显的好处效率提升GPU擅长并行计算一次处理100个样本可能只需要处理1个样本的2-3倍时间而不是100倍。资源利用率避免了频繁的模型加载、数据搬运等开销让GPU保持“忙碌”状态。吞吐量增加单位时间内能处理更多的查询支撑更高的并发量。说得直白点就是把原来的“来一个处理一个”的小作坊模式升级成“来一批处理一批”的流水线模式。3. 批量处理优化实战3.1 基础批量实现我们先从最简单的批量处理开始。假设你有一个查询和多个候选文档import torch from FlagEmbedding import FlagReranker # 初始化模型 model FlagReranker(BAAI/bge-reranker-v2-m3, use_fp16True) # 准备批量数据 query 如何预防感冒 documents [ 感冒的症状包括流鼻涕、咳嗽、发烧, XX牌感冒药快速缓解症状家中常备, 预防感冒的方法勤洗手、戴口罩、增强免疫力, 感冒是由病毒引起的呼吸道感染, 治疗感冒通常需要休息和多喝水 ] # 构建查询-文档对 pairs [[query, doc] for doc in documents] # 批量打分 scores model.compute_score(pairs, batch_size32) # 按分数排序 sorted_results sorted(zip(documents, scores), keylambda x: x[1], reverseTrue) print(排序结果) for i, (doc, score) in enumerate(sorted_results, 1): print(f{i}. 分数{score:.4f} | 文档{doc[:50]}...)这个例子中我们一次性处理了5个文档。batch_size32参数告诉模型每次最多处理32个对如果超过就分批处理。3.2 多查询批量处理实际场景中更常见的是多个查询同时到来。这时候我们需要更高效的组织方式def batch_rerank_multiple_queries(queries, all_documents, model, batch_size32): 批量处理多个查询的rerank任务 参数 queries: 查询列表如 [query1, query2, ...] all_documents: 每个查询对应的候选文档列表 model: 已加载的reranker模型 batch_size: 批处理大小 返回 排序后的结果列表 all_results [] for query_idx, query in enumerate(queries): documents all_documents[query_idx] # 构建该查询的所有对 pairs [[query, doc] for doc in documents] # 分批处理 batch_scores [] for i in range(0, len(pairs), batch_size): batch pairs[i:i batch_size] scores model.compute_score(batch) batch_scores.extend(scores) # 排序 sorted_docs sorted(zip(documents, batch_scores), keylambda x: x[1], reverseTrue) all_results.append({ query: query, ranked_documents: sorted_docs }) return all_results # 使用示例 queries [如何预防感冒, 感冒的治疗方法] documents_list [ [感冒的症状包括流鼻涕..., 预防感冒的方法..., XX牌感冒药...], [治疗感冒需要休息..., 感冒药的使用方法..., 中医治疗感冒...] ] results batch_rerank_multiple_queries(queries, documents_list, model)3.3 动态批处理优化固定批处理大小不一定是最优的。当文档长度差异很大时我们可以根据实际内容动态调整class DynamicBatchReranker: def __init__(self, model, max_batch_tokens4096): self.model model self.max_batch_tokens max_batch_tokens # 最大token数限制 def estimate_tokens(self, text): 简单估算token数实际应用中可用更精确的方法 # 中文大致按字词数估算英文按单词数 return len(text) * 0.7 def dynamic_batch(self, pairs): 根据内容长度动态分批次 batches [] current_batch [] current_tokens 0 for query, doc in pairs: pair_tokens self.estimate_tokens(query) self.estimate_tokens(doc) # 如果当前批次加上这个对会超限或者批次已满就开启新批次 if (current_tokens pair_tokens self.max_batch_tokens or len(current_batch) 32): # 也限制最大对数量 if current_batch: batches.append(current_batch) current_batch [[query, doc]] current_tokens pair_tokens else: current_batch.append([query, doc]) current_tokens pair_tokens if current_batch: batches.append(current_batch) return batches def compute_score(self, pairs): batches self.dynamic_batch(pairs) all_scores [] for batch in batches: scores self.model.compute_score(batch) all_scores.extend(scores) return all_scores # 使用动态批处理 dynamic_reranker DynamicBatchReranker(model) pairs [[query1, 短文档], [query2, 这是一个非常长的文档...], ...] scores dynamic_reranker.compute_score(pairs)4. 性能优化技巧4.1 合理设置批处理大小批处理大小不是越大越好需要根据你的硬件条件来调整def find_optimal_batch_size(model, sample_pairs, max_batch_size128): 寻找最优批处理大小 import time best_size 8 best_time float(inf) for batch_size in [8, 16, 32, 64, 128]: if batch_size max_batch_size: continue # 预热 _ model.compute_score(sample_pairs[:batch_size]) # 测试性能 start_time time.time() for i in range(0, len(sample_pairs), batch_size): batch sample_pairs[i:i batch_size] _ model.compute_score(batch) elapsed time.time() - start_time print(f批处理大小 {batch_size}: {elapsed:.3f}秒) if elapsed best_time: best_time elapsed best_size batch_size return best_size # 准备测试数据 test_pairs [[测试查询, 测试文档 str(i)] for i in range(1000)] optimal_size find_optimal_batch_size(model, test_pairs) print(f推荐批处理大小: {optimal_size})4.2 异步处理提升吞吐量对于高并发场景异步处理可以进一步提升系统吞吐量import asyncio from concurrent.futures import ThreadPoolExecutor class AsyncReranker: def __init__(self, model, max_workers4): self.model model self.executor ThreadPoolExecutor(max_workersmax_workers) async def async_compute_score(self, pairs): 异步计算分数 loop asyncio.get_event_loop() # 将同步函数转为异步 scores await loop.run_in_executor( self.executor, self.model.compute_score, pairs ) return scores async def process_queries_async(self, queries_docs_dict, batch_size32): 异步处理多个查询 tasks [] for query, documents in queries_docs_dict.items(): # 分批 for i in range(0, len(documents), batch_size): batch_docs documents[i:i batch_size] pairs [[query, doc] for doc in batch_docs] # 创建异步任务 task self.async_compute_score(pairs) tasks.append((query, batch_docs, task)) # 等待所有任务完成 results {} for query, batch_docs, task in tasks: scores await task if query not in results: results[query] [] results[query].extend(zip(batch_docs, scores)) # 对每个查询的结果排序 for query in results: results[query].sort(keylambda x: x[1], reverseTrue) return results # 使用示例 async def main(): reranker AsyncReranker(model) # 模拟多个并发查询 queries_data { 查询1: [文档1-1, 文档1-2, 文档1-3], 查询2: [文档2-1, 文档2-2], 查询3: [文档3-1, 文档3-2, 文档3-3, 文档3-4] } results await reranker.process_queries_async(queries_data) print(results) # 运行异步任务 asyncio.run(main())4.3 内存优化策略处理大量数据时内存管理很重要class MemoryEfficientReranker: def __init__(self, model_path, use_fp16True): self.model_path model_path self.use_fp16 use_fp16 self.model None def load_model(self): 延迟加载模型减少启动内存占用 if self.model is None: from FlagEmbedding import FlagReranker self.model FlagReranker(self.model_path, use_fp16self.use_fp16) def process_streaming(self, query_doc_stream, batch_size32): 流式处理适用于数据量大的场景 self.load_model() results [] current_batch [] for query, doc in query_doc_stream: current_batch.append([query, doc]) if len(current_batch) batch_size: # 处理当前批次 scores self.model.compute_score(current_batch) results.extend(zip(current_batch, scores)) # 清空批次释放内存 current_batch [] # 处理剩余数据 if current_batch: scores self.model.compute_score(current_batch) results.extend(zip(current_batch, scores)) return results def clear_model(self): 显式释放模型内存 if self.model is not None: import torch del self.model torch.cuda.empty_cache() if torch.cuda.is_available() else None self.model None # 使用示例 def generate_query_docs(): 模拟数据流 for i in range(1000): yield f查询{i}, f文档内容{i} reranker MemoryEfficientReranker(BAAI/bge-reranker-v2-m3) results reranker.process_streaming(generate_query_docs(), batch_size64) reranker.clear_model() # 处理完成后释放内存5. 实际应用场景示例5.1 电商搜索优化假设你正在搭建一个电商智能客服系统用户会问各种商品相关问题def optimize_ecommerce_search(user_query, product_descriptions, model): 优化电商搜索结果的rerank # 第一步向量检索模拟 vector_results vector_search(user_query, product_descriptions) # 第二步rerank优化 pairs [[user_query, desc] for desc in vector_results] scores model.compute_score(pairs, batch_size32) # 第三步综合排序结合原始分数和rerank分数 final_scores [] for i, (desc, vector_score) in enumerate(vector_results): rerank_score scores[i] # 加权综合可根据业务调整权重 combined_score 0.3 * vector_score 0.7 * rerank_score final_scores.append((desc, combined_score)) # 按综合分数排序 final_scores.sort(keylambda x: x[1], reverseTrue) return final_scores[:10] # 返回前10个最相关结果 # 实际使用 user_queries [ 适合夏天穿的透气运动鞋, 给宝宝用的安全奶瓶, 办公室用的人体工学椅 ] # 批量处理所有查询 all_results {} for query in user_queries: # 假设get_product_descriptions是获取候选商品的函数 candidates get_product_descriptions(query) ranked optimize_ecommerce_search(query, candidates, model) all_results[query] ranked5.2 文档问答系统在文档问答系统中reranker能显著提升答案的准确性class DocumentQASystem: def __init__(self, reranker_model, embedding_model): self.reranker reranker_model self.embedding_model embedding_model self.documents [] # 文档库 def add_documents(self, docs): 添加文档到知识库 self.documents.extend(docs) def answer_question(self, question, top_k5, rerank_top_n20): 回答用户问题 # 1. 向量检索获取初步结果 query_embedding self.embedding_model.encode(question) doc_embeddings self.embedding_model.encode(self.documents) # 计算相似度简化示例 similarities cosine_similarity([query_embedding], doc_embeddings)[0] initial_results sorted( zip(self.documents, similarities), keylambda x: x[1], reverseTrue )[:rerank_top_n] # 2. Rerank精排 pairs [[question, doc] for doc, _ in initial_results] rerank_scores self.reranker.compute_score(pairs, batch_size32) # 3. 结合两种分数 final_results [] for (doc, vec_score), rerank_score in zip(initial_results, rerank_scores): # 可以调整权重这里给rerank更高权重 final_score 0.2 * vec_score 0.8 * rerank_score final_results.append((doc, final_score)) # 4. 返回最相关的文档 final_results.sort(keylambda x: x[1], reverseTrue) relevant_docs [doc for doc, _ in final_results[:top_k]] # 5. 用大模型生成最终答案这里简化 context \n.join(relevant_docs) answer llm_generate_answer(question, context) return answer, relevant_docs # 使用示例 qa_system DocumentQASystem(model, embedding_model) qa_system.add_documents([文档1内容, 文档2内容, ...]) question Reranker模型的主要作用是什么 answer, supporting_docs qa_system.answer_question(question) print(f答案{answer}) print(f参考文档{supporting_docs})6. 监控与调优6.1 性能监控在实际部署中监控系统性能很重要import time from collections import defaultdict class RerankerMonitor: def __init__(self): self.metrics defaultdict(list) def record_latency(self, batch_size, num_pairs, latency): 记录延迟数据 self.metrics[latency].append({ batch_size: batch_size, num_pairs: num_pairs, latency: latency, timestamp: time.time() }) def record_throughput(self, queries_processed, time_taken): 记录吞吐量 throughput queries_processed / time_taken self.metrics[throughput].append({ queries: queries_processed, time: time_taken, throughput: throughput, timestamp: time.time() }) def get_performance_report(self): 生成性能报告 if not self.metrics[latency]: return 暂无性能数据 latencies [m[latency] for m in self.metrics[latency]] avg_latency sum(latencies) / len(latencies) report f Reranker性能报告 - 平均延迟{avg_latency:.3f}秒/批次 - 总处理量{sum(m[num_pairs] for m in self.metrics[latency])}个查询-文档对 if self.metrics[throughput]: throughputs [m[throughput] for m in self.metrics[throughput]] avg_throughput sum(throughputs) / len(throughputs) report f- 平均吞吐量{avg_throughput:.1f} 查询/秒\n return report # 在reranker中集成监控 class MonitoredReranker: def __init__(self, model, monitorNone): self.model model self.monitor monitor or RerankerMonitor() def compute_score_with_monitor(self, pairs, batch_size32): start_time time.time() # 分批处理 all_scores [] for i in range(0, len(pairs), batch_size): batch pairs[i:i batch_size] batch_start time.time() scores self.model.compute_score(batch) all_scores.extend(scores) batch_latency time.time() - batch_start self.monitor.record_latency( batch_sizelen(batch), num_pairslen(batch), latencybatch_latency ) total_time time.time() - start_time self.monitor.record_throughput(len(pairs), total_time) return all_scores6.2 批量大小自动调优根据实时监控数据动态调整批处理大小class AdaptiveBatchReranker: def __init__(self, model, initial_batch_size16): self.model model self.batch_size initial_batch_size self.performance_history [] self.adjustment_threshold 10 # 每10次调整一次 def compute_score(self, pairs): start_time time.time() # 使用当前批处理大小 all_scores [] for i in range(0, len(pairs), self.batch_size): batch pairs[i:i self.batch_size] scores self.model.compute_score(batch) all_scores.extend(scores) latency time.time() - start_time # 记录性能 self.performance_history.append({ batch_size: self.batch_size, num_pairs: len(pairs), latency: latency, throughput: len(pairs) / latency }) # 自动调整批处理大小 if len(self.performance_history) % self.adjustment_threshold 0: self._adjust_batch_size() return all_scores def _adjust_batch_size(self): 根据历史性能调整批处理大小 if len(self.performance_history) 2: return # 分析最近几次的性能 recent self.performance_history[-5:] avg_throughput sum(p[throughput] for p in recent) / len(recent) # 简单调整策略如果吞吐量下降减小batch_size如果稳定尝试增大 if len(self.performance_history) 10: older self.performance_history[-10:-5] older_throughput sum(p[throughput] for p in older) / len(older) if avg_throughput older_throughput * 0.9: # 吞吐量下降10% self.batch_size max(8, self.batch_size // 2) print(f吞吐量下降减小batch_size到{self.batch_size}) elif avg_throughput older_throughput * 1.1: # 吞吐量上升10% self.batch_size min(128, self.batch_size * 2) print(f吞吐量上升增大batch_size到{self.batch_size})7. 总结通过批量处理优化BGE-Reranker-v2-m3在高并发场景下的排序效率可以得到显著提升。关键要点总结如下7.1 核心优化策略批量处理是基础将多个查询-文档对一次性送入模型充分利用GPU的并行计算能力这是提升效率的最直接方法。动态调整是关键固定批处理大小可能不是最优的。根据文档长度、硬件资源动态调整批次能在保证质量的前提下最大化吞吐量。异步处理提吞吐对于高并发场景异步处理能让CPU在等待GPU计算时处理其他任务进一步提升系统整体吞吐量。内存管理不可忽视处理大量数据时合理的内存管理能避免OOM错误确保系统稳定运行。7.2 实践建议从小批量开始如果不确定最优批处理大小可以从16或32开始通过监控逐步调整。监控性能指标密切关注延迟、吞吐量、GPU利用率等指标数据驱动的调优最有效。考虑业务特点不同的应用场景可能需要不同的优化策略。电商搜索可能更注重实时性而文档分析可能更注重准确性。测试验证任何优化都要通过A/B测试验证效果确保在提升效率的同时不降低排序质量。7.3 最后的话BGE-Reranker-v2-m3本身已经是一个强大的工具但只有配合合理的工程优化才能发挥它的最大价值。批量处理优化不是一蹴而就的需要根据你的具体场景、数据特点和硬件条件不断调整。记住好的优化是让系统在资源有限的情况下处理更多的请求返回更好的结果。希望本文的批量处理方案能帮你构建更高效、更智能的RAG系统。获取更多AI镜像想探索更多AI镜像和应用场景访问 CSDN星图镜像广场提供丰富的预置镜像覆盖大模型推理、图像生成、视频生成、模型微调等多个领域支持一键部署。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2462513.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…