Deep Searcher:解析混合搜索,打通向量检索的最后一公里

news2026/5/7 4:39:19
1. 项目概述向量检索的“最后一公里”难题最近在折腾RAG检索增强生成应用发现一个挺普遍的问题向量数据库确实好用把文本转成向量塞进去靠相似度搜索能快速找到相关内容。但实际用起来尤其是面对复杂、模糊的用户查询时光靠向量相似度这一把“锤子”总觉得差点意思。比如用户问“帮我找一下上个月关于市场策略调整的会议纪要里面好像提到了竞争对手的新产品”这种查询包含了明确的结构化信息时间上个月类型会议纪要主题市场策略调整和模糊的语义信息“提到了竞争对手的新产品”。纯向量搜索可能找到一堆讨论“市场策略”或“竞争对手”的文档但很难精准锁定“上个月”且“是会议纪要”的那一份。这其实就是向量检索的“最后一公里”难题语义搜索向量擅长理解意图但缺乏精确的约束能力而传统的关键词过滤元数据过滤虽然精准却无法理解语义。zilliztech/deep-searcher这个项目在我看来就是试图用一套相对轻量的方案把这两条路打通实现“混合搜索”Hybrid Search让检索结果既准又全。它不是要替代 Milvus 或 Zilliz Cloud 这样的专业向量数据库而是作为一个智能的检索增强层尤其适合已经搭建了向量库、但搜索效果遇到瓶颈的团队进行快速集成和效果提升。简单说Deep Searcher 的核心工作是解析你的自然语言查询自动拆解出其中隐含的过滤条件元数据和语义搜索意图然后组合成高效的查询语句发给后端的向量数据库比如 Milvus执行最后对结果进行智能的融合与重排把最相关的结果送到你面前。它扮演的是“查询理解”和“查询优化”的角色。2. 核心设计思路从“用户怎么说”到“数据库怎么查”Deep Searcher 的设计哲学很清晰不让用户开发者去操心查询的构造。在传统的混合搜索实现中我们往往需要手动设计一套规则或接口让前端把过滤条件和搜索词分开传过来。比如search(query市场策略, filterdoc_type meeting_minutes AND date 2024-03-01)。这要求调用方对数据模式Schema非常清楚并且有较强的逻辑组装能力。Deep Searcher 换了个思路你只需要给我一句人话剩下的我来搞定。它的工作流可以拆解为几个核心环节我结合自己的理解画了个简单的逻辑图用文字描述查询解析Query Parsing这是第一步也是智能的起点。系统接收到自然语言查询后会利用内置的模型推测是经过微调的轻量级语言模型或基于Prompt的LLM来理解这句话。它的目标是识别出两类信息结构化过滤条件比如时间“上个月”、文档类型“会议纪要”、作者、标签等。这些条件通常对应向量集合Collection中的元数据字段。语义搜索核心Query Embedding即抛开过滤条件后用户真正想搜索的“语义核心”。比如“市场策略调整”和“竞争对手的新产品”就是需要被转换成向量进行相似度匹配的部分。查询转换Query Transformation将解析出的自然语言信息转换成后端向量数据库能理解的查询语言。将“上个月”这样的相对时间转换成具体的日期范围如date 2024-03-01 AND date 2024-03-31。将“会议纪要”映射到元数据字段doc_type的值meeting_minutes。将“市场策略调整 竞争对手的新产品”这段文本通过嵌入模型Embedding Model转换为一个高维向量。查询执行Query Execution组装最终的查询请求。这里就是混合搜索发生的地方。以 Milvus 为例Deep Searcher 会构造一个类似这样的查询# 伪代码示意 Deep Searcher 内部构造的查询逻辑 results collection.search( data[query_vector], # 语义核心生成的向量 anns_fieldembedding, # 向量字段名 param{metric_type: IP, params: {nprobe: 10}}, # 搜索参数 limit100, # 初步召回数量可以设大一些 exprdoc_type meeting_minutes AND date 2024-03-01, # 解析出的过滤表达式 output_fields[content, title, date] # 需要返回的字段 )注意过滤条件expr和向量搜索是同时发生的。Milvus 会在满足过滤条件的子集中进行向量相似度计算这比先过滤再搜索或先搜索再过滤都要高效和准确。结果重排Re-ranking这是提升效果的关键一步。初步的向量搜索返回的是一个按相似度分数如内积或余弦距离排序的列表。但有时语义相似度高的文档未必是最符合用户复杂意图的。Deep Searcher 可能会引入一个轻量级的交叉编码器Cross-Encoder或利用 LLM 对 Top K 个结果进行更精细的相关性评估根据评估分数对结果进行重新排序让排名更符合人类直觉。注意上述流程是我根据项目目标和技术趋势推断的典型设计。具体到deep-searcher的实现可能需要查阅其源码或文档来确认每一步的具体技术选型例如是用规则还是模型做查询解析重排模型的具体型号等。但无论如何这个“解析-转换-执行-重排”的管道是混合搜索系统的通用范式。2.1 为什么是“Deep”我认为这里的“Deep”有几层含义深度理解查询不同于简单的关键词匹配它试图深度理解自然语言查询中的复合意图。深度整合搜索技术它不是单一技术而是将语义搜索、结构化过滤、结果重排等多种搜索技术深度整合在一个工作流中。降低使用深度让开发者无需深入掌握混合搜索的所有细节就能获得其带来的效果提升降低了高级搜索能力的应用门槛。3. 关键技术点拆解与选型考量要构建这样一个系统有几个关键的技术决策点。虽然我们看不到deep-searcher的全部源码但可以基于常见实践探讨它可能如何实现以及为什么这么选。3.1 查询解析器规则、模型还是大语言模型这是智能的源头。如何从“上个月关于市场策略调整的会议纪要”中提取出{time: “last_month” doc_type: “meeting_minutes”}和语义核心“市场策略调整”方案一基于规则/启发式方法使用正则表达式或关键字词典。例如匹配“XX月”、“上周”、“今年”等时间模式匹配“报告”、“纪要”、“方案”等文档类型。这种方式速度快、可控性强、无需训练数据但灵活性差无法处理未预定义的表述如“年初那份文件”和复杂句式。方案二专用微调模型训练一个序列标注或文本分类模型如 BERT-CRF专门用于识别查询中的实体类型时间、类型、作者等。这种方式准确率较高能理解一些上下文但需要标注数据且模型能力局限于预设的实体类型。方案三大语言模型LLM Prompt利用 ChatGPT、GLM 等大模型的强大理解能力通过精心设计的 Prompt如“请从以下查询中提取结构化过滤条件{query}。可能涉及的字段有date, doc_type, author...”来解析。这种方式极度灵活能处理复杂、模糊的表述甚至理解“那份很长的PDF”可能指代文件大小或格式。但延迟高、成本高且输出格式可能不稳定。我的判断与选型建议 对于一个开源项目平衡性能、成本和易用性至关重要。deep-searcher很可能采用了一种混合策略高频、明确的模式用规则比如标准的日期格式“2024-01-01”、明确的枚举值“会议纪要”对应meeting_minutes。这能保证核心场景的稳定和高效。复杂、模糊的解析用轻量级模型或LLM对于规则覆盖不到的查询可以 fallback 到一个轻量化的本地模型如经过微调的 100M 参数级别的小模型或者在配置了LLM API密钥的情况下使用LLM进行解析。项目可能会提供配置项让用户根据自身情况选择解析模式。实操心得在自建类似系统时我建议从规则开始快速覆盖80%的常见查询。随着积累将解析日志中规则处理不了或处理错的案例拿出来作为训练数据去微调一个小模型实现“规则打底模型增强”的渐进式智能化。盲目上LLM初期成本和复杂度会很高。3.2 嵌入模型与向量化统一与对齐语义搜索的核心是将查询和文档转换成向量。这里有一个关键点查询的语义核心和数据库中的文档必须使用同一个嵌入模型进行向量化否则相似度计算没有意义。模型选型deep-searcher可能需要内置或允许用户指定一个嵌入模型。对于开源方案BAAI/bge-small-zh-v1.5或moka-ai/m3e-base是中文领域热门且效果不错的轻量级选择。对于英文thenlper/gte-small或BAAI/bge-small-en-v1.5是常见选项。向量维度对齐用户必须确保deep-searcher使用的嵌入模型与当初构建向量库时所用的模型是同一个或至少是同一系列、向量维度相同的。如果向量库用的是bge-large(1024维)而deep-searcher配置成了bge-small(384维)搜索将完全失效。动态向量化deep-searcher在收到查询后需要实时调用嵌入模型将解析出的语义核心文本转换成向量。这部分延迟直接影响搜索响应时间。配置要点 在部署deep-searcher时估计需要在配置文件中明确指定embedding_model: name: BAAI/bge-small-zh-v1.5 device: cpu # 或 cuda:0 normalize_embeddings: true # 通常建议归一化使用余弦相似度同时在项目文档中必须强烈提醒用户请检查你的向量库构建模型与此处配置是否一致3.3 混合查询的组装与执行这是与向量数据库交互的核心。deep-searcher需要支持不同的后端。从项目名看它很可能优先支持 Zilliz Cloud托管版Milvus和开源的 Milvus。查询组装将解析出的过滤条件转换成后端数据库的过滤表达式语法。Milvus 使用一种简单的表达式语言例如a 10 and b like ‘%abc%’。deep-searcher需要正确拼接这些条件处理字符串转义、时间格式转换等细节。搜索参数除了向量和过滤条件搜索本身还有参数如metric_type相似度度量方式L2、IP、余弦等、offset、limit、nprobe搜索精度/速度权衡参数等。deep-searcher可能需要提供默认值并允许用户通过API覆盖。多路召回与融合进阶更复杂的混合搜索可能不止“向量过滤”这一路。还可能包括纯关键词召回稀疏检索例如同时用BM25算法搜索一下召回那些关键词匹配度高的文档。多向量模型召回用不同嵌入模型生成不同向量进行多路向量搜索。deep-searcher未来可能会支持这类多路召回并对各路人马召回的候选结果进行融合与重排。3.4 结果重排器从“相似”到“相关”向量搜索返回的是基于向量空间距离的“相似度”排名。但“相似”不一定等于“相关”。例如查询“如何养猫”一篇讲“猫的品种”的文档和一篇讲“猫粮选购”的文档向量可能都很相似但用户当下可能更关心“饲养方法”。重排器Re-ranker的作用就是进行更精细的语义匹配判断。交叉编码器Cross-Encoder这是重排的利器。它与生成嵌入模型的双编码器Bi-Encoder不同。双编码器是查询和文档分别编码然后比较向量。而交叉编码器是将查询和文档一起输入模型进行深度的交互式注意力计算直接输出一个相关分数。这个分数通常比向量相似度更能反映相关性。像BAAI/bge-reranker-base这类模型就是干这个的。大语言模型LLM重排让 LLM 根据查询对一组候选文档进行相关性排序或打分。这种方式理解能力最强可以综合考虑语义、事实性、时效性等多种因素但成本也最高。轻量级策略如果没有重排模型也可以采用一些启发式策略比如将同时满足更多元数据过滤条件的结果排名提前或者根据文档的时效性如发布日期对相似度分数进行加权。我的经验对于大多数中小规模应用“向量搜索 过滤 轻量级交叉编码器重排”是性价比极高的组合。可以先召回100个候选然后用一个小的Cross-Encoder对Top 30进行重排开销增加不多但效果提升显著。deep-searcher如果内置或可配置一个轻量级重排模型会大大提升其开箱即用的价值。4. 实战搭建与集成 Deep Searcher假设我们现在有一个已经存好文档向量的 Milvus 数据库现在想集成deep-searcher来提供智能混合搜索API。以下是基于其项目理念的推测性部署和使用步骤。4.1 环境准备与部署首先我们需要拉取代码并理解项目结构。# 1. 克隆仓库 git clone https://github.com/zilliztech/deep-searcher.git cd deep-searcher # 2. 查看项目结构推测 # ├── configs/ # 配置文件 # ├── src/ # 核心源码 # │ ├── query_parser/ # 查询解析模块 # │ ├── embedder/ # 向量化模块 # │ ├── retriever/ # 检索执行模块与Milvus交互 # │ └── reranker/ # 重排模块 # ├── api/ # FastAPI或类似框架的API服务 # ├── docker-compose.yml # 可能提供的容器化部署 # └── requirements.txt # Python依赖安装依赖pip install -r requirements.txt # 典型依赖可能包括pymilvus, transformers, torch, fastapi, uvicorn, pydantic, dateparser等配置文件调整这是最关键的一步。需要创建一个配置文件如config.yaml指定所有连接和模型参数。# config.yaml 示例 milvus: uri: localhost:19530 # Milvus服务地址 token: # 如果连接Zilliz Cloud则需要token collection_name: my_documents # 你的集合名称 embedding: model_name: BAAI/bge-small-zh-v1.5 # 必须与建库模型一致 device: cpu normalize: true reranking: # 重排配置可选 enable: true model_name: BAAI/bge-reranker-base device: cpu top_k: 30 # 对前30个结果进行重排 query_parser: mode: hybrid # 混合模式规则 轻量模型 llm_fallback: false # 是否启用LLM回退若启用需配置API key # 可能包含字段映射规则如 field_mappings: - user_query_keyword: [文档, 文件] target_field: doc_type - user_query_keyword: [我, 作者] target_field: author启动服务# 假设项目入口为 main.py uvicorn main:app --host 0.0.0.0 --port 8000 # 或者使用项目提供的启动脚本 python scripts/start_server.py --config config.yaml4.2 API 调用示例服务启动后会提供一个简单的 HTTP API推测为 RESTful。搜索请求curl -X POST http://localhost:8000/v1/search \ -H Content-Type: application/json \ -d { query: 帮我找一下上个月关于市场策略调整的会议纪要里面好像提到了竞争对手的新产品, top_k: 10 }预期的响应结构{ code: 0, msg: success, data: { query_parsed: { semantic_query: 市场策略调整 竞争对手的新产品, filters: [ doc_type meeting_minutes, date 2024-03-01, date 2024-03-31 ] }, results: [ { id: 12345, score: 0.876, // 重排后的综合分数 document: { title: 2024年3月15日市场部月度会议纪要, content: ...本次会议重点讨论了Q2市场策略调整方案...并对竞争对手X公司近期发布的新产品Y进行了分析..., date: 2024-03-15, doc_type: meeting_minutes } }, // ... 其他结果 ], latency: { parsing_ms: 45, embedding_ms: 120, search_ms: 25, reranking_ms: 80, total_ms: 270 } } }这个响应不仅返回了搜索结果还展示了查询被解析成的结构化信息以及各阶段的耗时对于调试和优化非常有帮助。4.3 与现有系统集成deep-searcher的理想定位是作为一个独立的搜索中间件。集成方式很简单前端/客户端将原本直接调用向量数据库搜索 API 的代码改为调用deep-searcher的 API。输入从复杂的“查询向量过滤表达式”变为一句“自然语言”。后端服务如果你的后端原本封装了搜索逻辑现在可以将这个逻辑委托给deep-searcher服务。或者你可以将deep-searcher的代码作为库如果它提供直接集成到你的Python服务中。数据流一致性确保文档入库向量化的管道与deep-searcher使用的嵌入模型保持一致。最好将模型配置中心化两边引用同一个配置。5. 性能调优与常见问题排查在实际使用中我们肯定会遇到各种性能或效果问题。以下是一些基于经验的调优方向和排查思路。5.1 性能瓶颈分析从上述流程看潜在瓶颈点有查询解析延迟如果使用LLM延迟可能高达数百毫秒到数秒。优化尽可能使用规则和轻量模型对LLM解析结果进行缓存相同的查询语句缓存一段时间。向量化延迟嵌入模型推理耗时。优化使用更小的模型如bge-small对比bge-large启用批处理如果同时处理多个查询使用 GPU 加速考虑使用模型量化技术。向量搜索延迟受限于 Milvus 集群性能、索引类型HNSW, IVF_FLAT等、搜索参数nprobe以及过滤条件的数据分布。优化在 Milvus 侧优化索引调整nprobe平衡精度与速度确保频繁过滤的字段建立了标量索引。重排延迟交叉编码器需要两两计算复杂度是 O(N)。优化严格控制重排的候选数量top_k如30使用更快的重排模型只在必要时启用重排。监控建议像上面API响应里的latency字段应该拆分开来并记录到监控系统如Prometheus这样可以清晰定位每次请求慢在哪个环节。5.2 搜索效果不佳排查如果发现返回的结果不相关可以按以下步骤排查问题现象可能原因排查步骤与解决方案结果完全无关像是随机返回1. 查询向量化模型与建库模型不一致。2. 向量字段或度量类型配置错误。1.核对模型确认deep-searcher配置的embedding_model与建库时所用模型名称、版本完全一致。2.检查Milvus集合确认集合中向量字段的名称如embedding和索引的度量类型如COSINE与deep-searcher查询时使用的参数匹配。过滤条件未生效返回了不符合条件的数据1. 查询解析器未能正确提取过滤条件。2. 过滤条件表达式拼写错误或字段名不对。3. 数据中的元数据格式与条件不匹配如日期格式。1.查看解析日志检查API返回的query_parsed.filters字段看解析出的表达式是否正确。2.检查字段映射确认用户查询中的词如“会议纪要”是否正确映射到了集合的元数据字段如doc_type和值如meeting_minutes。3.数据清洗确保入库数据的元数据格式规范、统一。结果相关但排序不合理1. 向量相似度本身区分度不高。2. 需要重排器介入。1.评估嵌入模型尝试不同的嵌入模型或在领域数据上微调现有模型。2.启用/调整重排开启重排功能并尝试调整重排模型或重排的候选数量top_k。3.尝试混合度量结合关键词匹配分数如BM25与向量分数进行加权融合。对某些复杂查询理解错误查询解析器规则或小模型能力不足。1.收集bad cases将解析错误的查询记录下来。2.增强规则针对高频错误模式补充规则。3.启用LLM回退对于规则处理不了的配置LLM进行解析需权衡成本。5.3 扩展性与高可用对于生产环境需要考虑服务化与负载均衡将deep-searcher部署为多个实例前面用 Nginx 或 Kubernetes Service 做负载均衡。模型服务分离嵌入模型和重排模型推理是计算密集型任务。可以考虑使用专门的模型推理服务如 Triton Inference Server, TensorFlow Servingdeep-searcher通过 RPC 调用实现模型与业务逻辑的解耦和独立扩缩容。配置热更新模型路径、规则映射等配置最好支持不重启服务的热更新。连接池与超时管理好与 Milvus 的连接池设置合理的连接、读写超时时间避免因向量数据库抖动导致服务雪崩。6. 总结与展望让搜索更“懂你”zilliztech/deep-searcher瞄准的是一个非常实际的痛点。它试图封装混合搜索的复杂性为开发者提供一个“开箱即用”或“易于集成”的智能搜索网关。它的价值不在于发明了新算法而在于工程化的整合和体验的简化。从我个人的经验来看这类工具的成功关键取决于几点解析的准确率这是智能的源头如果总是解析错后续再好也白搭。需要一个持续优化的管道。性能与开销的平衡不能为了智能引入不可接受的延迟和成本。轻量级模型、缓存、计算资源的合理利用是关键。可观测性必须提供清晰的日志、指标和调试信息让开发者能看清“黑盒”内部发生了什么方便排查和调优。可扩展性允许用户自定义解析规则、接入自己的嵌入/重排模型、支持更多的后端向量数据库如 Weaviate, Qdrant 等。如果deep-searcher能在这几个方面做得扎实它将成为 RAG 应用、知识库系统、内容推荐平台等场景中一个非常有力的组件帮助众多团队快速跨越从“能用”到“好用”的搜索体验鸿沟。毕竟让机器更“懂”人话始终是提升产品体验的关键一步。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2590396.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…