腾讯面试官问我:“传统 RAG 到底卡在哪?GraphRAG 和 LightRAG 怎么选?”,我震惊:“啥,我刚学RAG,怎么就成传统了”

news2026/4/29 11:30:54
很多录友看完后反馈传统 RAG 的那些优化手段确实好用但有一类问题怎么优化都答不好——问某某文档里提到的某个具体技术细节RAG 没问题但问整个知识库的核心主题是什么“这几个概念之间有什么关联”RAG 就开始瞎拼碎片了。这不是调参能解决的问题是传统 RAG 的结构性天花板。后来面试官也追上来了“你们 RAG 检索到了但答不对怎么办”“GraphRAG 了解吗”LightRAG 和 GraphRAG 区别一问一个不吱声。传统 RAG 到底卡在哪GraphRAG 怎么突破的LightRAG 又是什么两者怎么选这篇把 RAG 的下一代演进从头讲透。读完这篇你会搞清楚传统 RAG 的天花板在哪、GraphRAG 的完整链路怎么跑、GraphRAG 落地踩什么坑、LightRAG 怎么补位、实战场景怎么选。这些搞明白面试官追问到多深都不怕。目录RAG 检索到了但答不对——传统 RAG 的三个天花板RAG 的演进从找文本到找关系GraphRAG 的完整链路从原始文档到社区摘要GraphRAG 落地踩的三个坑LightRAG更轻、更快、增量友好GraphRAG 和 LightRAG 到底怎么选大厂真实面试追问汇总RAG 检索到了但答不对——传统 RAG 的三个天花板面试官一般这么问你们 RAG 系统有没有遇到检索到了但答不对的情况什么类型的问题答不好“或者RAG 检索到了正确信息但生成的回答还是拼凑感很强你怎么理解这个问题”一个例子说清楚 RAG 撞墙在哪假设你有一个公司内部知识库里面全是项目文档、技术方案、会议纪要。有人问了一个问题“我们公司所有项目的技术栈趋势是什么”传统 RAG 怎么答它把问题转成向量去向量库里找最相似的文本块。找到的是一堆零散的片段“项目 A 用了 Spring Boot”“项目 B 迁移到了 Go”“项目 C 在试 Rust”……然后把这些片段丢给 LLM 拼一个回答。拼出来的是一堆事实的堆砌不是趋势。因为你根本没有一个视角能把所有项目的全貌看清楚LLM 拿到的就是碎片它再怎么聪明也只能拼碎片。这不是 RAG 的 bug是向量检索的本质限制。传统 RAG 的三个天花板① 碎片化检索——查到的是文本块不是知识传统 RAG 把文档切成 chunk每个 chunk 独立变成向量。检索的时候你拿到的是和问题最相似的文本块。但很多问题的答案不是一个文本块能覆盖的它需要把多个文本块里的信息关联起来。比如张三和李四在哪个项目上有合作这个信息可能分散在三个文档里——文档 1 提到张三负责项目 X文档 2 提到李四参与了项目 X文档 3 提到项目 X 的具体内容。传统 RAG 最多能捞到其中一个很难同时把三个都捞出来并关联上。② 全局问题瞎答——问整体只能拼局部像核心技术主题有哪些整体技术路线怎么演变的这种全局性问题需要的是对整个知识库的理解而不是几个相似的文本块。上篇讲过 Rerank 和混合检索能提升检索精度但它们优化的是找更相似的文本块不是把碎片拼成全貌。你把 Top-5 变成 Top-20拿到的还是碎片只是碎片更多了。③ 跨文档关系断裂——A 和 B 的联系全丢了公司 A 收购了公司 B在文档 1 里公司 B 和公司 C 有合作在文档 2 里。那公司 A 和公司 C 之间有没有间接关系传统 RAG 答不了——因为每个 chunk 是独立 embedding 的chunk 之间没有关系这个概念。这不是调参能解决的讲透RAG讲的混合检索、Rerank、Query 改写都是在找更好的文本块。但有些问题需要的不是更好的文本块是实体之间的关系和全局的结构性理解。这才是 GraphRAG 要解决的问题。RAG VS GraphRAGRAG 的演进从找文本到找关系面试官会问“GraphRAG 和传统 RAG 本质区别是什么RAG 这条线是怎么演进过来的”三代 RAG 的演进路线要理解 GraphRAG 为什么出现得先看 RAG 这条线是怎么一步步走过来的。Naive RAG——最原始的 RAG文档切块 → 向量化 → 检索 → 塞给 LLM 生成。问题很多检索不准、幻觉严重、没有 Rerank。讲透RAG讲的很多优化手段在 Naive RAG 里都没有。Advanced RAG——在讲透RAG里详细讲过的那些优化混合检索补上关键词匹配的短板、Rerank 做精排提准、Query 改写对付模糊问题、Parent-Child 检索兼顾精度和上下文。这些优化确实把找文本块这件事做到了极致。GraphRAG——换了一条路不再只找文本块而是先建一个知识图谱把实体和关系都结构化地存下来检索时走图谱找关系。从找文本变成了找关系。演进逻辑特别清晰Naive RAG 的问题是找不准→ Advanced RAG 把检索策略调到最好 → 但有些问题不是找文本块能解决的 → GraphRAG 换了检索范式。RAG三代演进从找文本到找关系一句话定位 GraphRAG给 RAG 装上知识图谱让检索从找文本块变成找实体和关系。传统 RAG 检索的是和问题相似的文本GraphRAG 检索的是和问题相关的实体、关系、社区。前者是局部匹配后者是结构化理解。GraphRAG 的完整链路从原始文档到社区摘要面试官会问“GraphRAG 的索引阶段是怎么工作的查询阶段有几种方式”GraphRAG 是谁做的微软研究院2024 年 4 月公开核心团队是 Darren Edge 等人。论文标题叫《From Local to Global: A Graph RAG Approach to Query-Focused Summarization》。开源在 GitHub 上2024 年底已经在 Azure 上正式商用。微软做这个的动机很直接他们试了很多传统 RAG 的优化发现全局性问题怎么都答不好。于是换了个思路——与其优化检索策略不如换一种知识组织方式。索引阶段把文档变成带社区的知识图谱整个索引阶段分六步第一步文档切块。和传统 RAG 一样把原始文档切成文本块默认约 300 token带 overlap。第二步LLM 提取实体和关系。每个文本块送给 LLM让 LLM 识别出里面的实体人、组织、地点、事件、概念等和关系谁做了什么、谁和谁什么关系。这一步是整个流程最烧钱的地方——每个文本块都要过一遍 LLM。文本块[张三加入了项目X负责后端架构设计] ↓ LLM提取实体[张三(人), 项目X(项目)]关系[张三 → 负责后端架构设计 → 项目X]第三步实体去重与合并。同一个实体在不同文档里可能出现多次Apple和Apple Inc.是同一个实体得合并成一个节点。第四步构建知识图谱。所有实体变成节点关系变成边。至此你的文本语料变成了一个结构化的图。第五步Leiden 社区检测。用 Leiden 算法Louvain 的改进版对图谱做社区划分找出紧密连接的实体群。Leiden 会产生层级式的社区结构——底层是小社区几个紧密关联的实体上层是社区之社区最顶层是整个图。第六步生成社区摘要。对每个层级的每个社区用 LLM 生成一份结构化摘要community report描述这个社区里的关键实体、核心关系、主要主题。索引阶段最终产出四个东西实体表、关系表、社区表含摘要、文本块的向量索引。查询阶段本地查询 vs 全局查询GraphRAG 提供两种查询方式对应两类完全不同的问题本地查询Local Search——答具体问题从用户问题里提取关键实体 → 在图谱里找到对应节点 → 沿着边遍历关联的实体、关系、文本块、所在社区的摘要 → 把这些上下文喂给 LLM 生成回答。适合问“张三在项目 X 里负责什么”——沿着实体张三和项目X在图上走一圈就能答。全局查询Global Search——答整体问题这是 GraphRAG 的杀手锏用 Map-Reduce 方式回答全局性问题Map 阶段把某个层级所有社区的摘要分成若干组每组摘要 用户问题送给 LLM让 LLM 生成一个部分答案Reduce 阶段把所有部分答案汇总再送给 LLM 生成最终的综合回答层级可以调选低层级社区 → 答案更细致选高层级社区 → 答案更概括。适合问“公司所有项目的技术栈趋势是什么”——每个社区摘要已经预计算好了局部主题Map-Reduce 再把它们综合成全局答案。用开头讲的例子再走一遍回到那个问题“公司所有项目的技术栈趋势是什么”传统 RAG检索几个提到技术栈的文本块 → LLM 拼碎片 → 答案是零散事实的堆砌。GraphRAG索引阶段已经把所有项目的技术实体和关系提取到了图谱里每个社区的摘要已经预计算了局部技术主题 → 全局查询走 Map-Reduce 把所有社区摘要综合 → 答案是有结构、有层次的趋势总结。这就是 GraphRAG 的核心价值它不是在查询时现拼而是在索引阶段就把全局理解预先算好了。GraphRAG 的完整链路GraphRAG 落地踩的三个坑面试官会问“GraphRAG 这么好你们落地遇到什么问题”概念漂亮是一回事落地是另一回事。GraphRAG 真正的难度不在理论在这些具体的坑里。坑一建图太贵——token 烧钱、索引慢索引阶段每个文本块都要过一遍 LLM 提取实体和关系然后每个社区还要过一遍 LLM 生成摘要。这意味着你原始文档有多少 token索引阶段的 token 消耗至少是 2-5 倍。具体数字100 万 token 的原始文档索引阶段可能消耗 200-500 万 token。而且不是钱花完就行的索引时间也长——百万级文档的索引可能要跑好几个小时。对比传统 RAG只需要 Embedding 一次几乎不花 LLM token。GraphRAG 的索引成本可能是传统 RAG 的10 倍以上。坑二增量更新难——新增文档图要重建吗这是 GraphRAG 最头疼的问题。知识库不可能一成不变每天都有新文档进来。但 GraphRAG 的社区结构是全局性的——新增一批实体和关系进去整个图的社区边界可能全变了。原来 A 和 B 是同一个社区加了新实体后可能被拆开原来 C 和 D 不在一个社区加了新关系后可能合并。这意味着新增 10% 的文档可能需要重跑 30-50% 的索引流程重新做社区检测、重新生成社区摘要。增量更新导致社区重组微软在 2024 年 10 月推出了 DRIFT 搜索模式Dynamic Reasoning and Inference with Flexible Traversal这是本地查询和全局查询之外的第三种查询方式——先用社区摘要做全局预判再沿着图谱做局部深挖在成本和深度之间找平衡。但这仍然没有解决增量更新的问题——DRIFT 改进的是查询策略不是索引策略。新增文档后社区结构变了还是得重建。坑三社区粒度难定——太粗丢细节太细则爆炸Leiden 算法会产生多层级的社区结构但到底用哪一层做查询没有万能答案。层级太高社区太大→ 每个社区涵盖太多实体摘要太笼统细节丢光。层级太低社区太小→ 社区数量爆炸Map-Reduce 时要处理几百上千个社区摘要token 成本飙升延迟也跟着涨。实际操作中这个层级得根据你的数据量和查询需求反复调试。没有一个公式能直接算出来。三个坑的本质坑本质建图太贵用 LLM 做结构化提取成本是 Embedding 的 10 倍增量更新难社区是全局结构局部变更会引发全局调整粒度难定层级选择是精确性和成本之间的权衡没有银弹这三个坑有一个共同根源GraphRAG 用了全局预计算的思路——先花大成本把整个知识库的结构理解预先算好查询时直接用。这个思路答全局性问题确实强但代价就是贵、重、不灵活。LightRAG 就是从这个矛盾里长出来的。LightRAG更轻、更快、增量友好面试官会问“LightRAG 是什么和 GraphRAG 有什么区别为什么会有 LightRAG”LightRAG 为什么会出现GraphRAG 的核心矛盾它的强项全局预计算恰恰是它的弱点成本高、更新难。很多团队看完 GraphRAG 的论文觉得好一算成本直接劝退。或者建好图了结果知识库每天都在更新增量更新跑不起。而且不是所有场景都需要那么强的全局理解能力很多时候只是想在传统 RAG 基础上加点关系能力就够了。LightRAG 就是冲着这个矛盾来的能不能用更轻的方式获得图增强检索的好处同时还能方便地增量更新LightRAG 由港大数据科学实验室HKUDS开发2024 年 10 月发布论文标题《LightRAG: A Lightweight Retrieval-Augmented Generation Framework》。核心原理双层检索图谱LightRAG 不搞社区检测那一套它建的是一个双层图谱底层实体层图谱节点 实体人、组织、概念等边 实体之间的直接关系每个节点存实体名称、类型、描述、来源文本块这一层管具体查询——张三在项目 X 里做什么这种问题在实体层图谱上找张三节点沿着边走就能拿到相关上下文。上层关系层图谱节点 关键关系/交互不是实体本身边 关系之间的连接因果、时序、主题关联这一层管全局查询——技术栈趋势是什么这种问题关系层图谱已经把跨实体的模式捕捉到了不需要预计算社区摘要。两层图谱都带有向量嵌入检索时走图遍历 向量相似度的混合方式。LightRAG双层图谱四种查询模式四种查询模式LightRAG 提供四种查询模式按需选模式怎么查适合什么问题Naive纯向量检索和传统 RAG 一样简单事实查询Local在实体层图谱找实体 → 遍历邻居 → 生成回答具体问题“张三做什么”Global在关系层图谱找主题模式 → 生成回答全局问题“核心趋势”HybridLocal Global 合并兼顾细节和全局增量插入LightRAG 的杀手锏这是 LightRAG 和 GraphRAG 最大的区别。GraphRAG 增量更新新文档进来 → 可能要重新做社区检测 → 重新生成社区摘要 → 大量 LLM 调用 → 成本高、耗时长。LightRAG 增量插入新文档进来 → LLM 提取实体和关系 → 和已有图谱做实体去重匹配 → 新实体加节点已有实体合并描述 → 新关系加边 → 只更新受影响的向量嵌入 →完事。关键区别LightRAG没有社区结构所以不需要重跑聚类算法。图谱只是往里加节点和边局部更新就行。增量插入的复杂度是 O(局部变更)不是 O(整个图谱)。实体去重怎么做三层匹配名称精确匹配 → 名称模糊匹配 描述向量相似度 → 模糊时 LLM 辅助判断。匹配上了就合并没匹配上就新增。用开篇的例子再走一遍“公司所有项目的技术栈趋势是什么”LightRAG在关系层图谱上检索找到和技术栈相关的高层关系节点 → 这些节点已经跨实体地捕捉了项目间的技术关联模式 → 生成回答。和 GraphRAG 的区别GraphRAG 是预计算好的社区摘要做 Map-ReduceLightRAG 是在关系层图谱上实时检索。GraphRAG 的全局答案通常更完整毕竟是预计算好的但 LightRAG 的增量更新成本低得多而且大部分场景下回答质量也够用。GraphRAG 和 LightRAG 到底怎么选面试官会问“你们项目用的 GraphRAG 还是 LightRAG为什么什么场景该用哪个”核心区别维度GraphRAGLightRAG开发者微软研究院港大 HKUDS知识结构知识图谱 Leiden 社区层级双层图谱实体层 关系层全局理解方式预计算社区摘要 → Map-Reduce关系层图谱实时检索索引成本高2-5x 源 token中比 GraphRAG 少约 40-60%索引耗时长百万文档约 3.8 小时短同规模约 2.1 小时增量更新难需重建社区结构易直接往图里加节点和边全局查询质量强预计算摘要完整性好中上实时检索够用但不如预计算本地查询质量强强部署复杂度高低什么场景选 GraphRAG知识库大且相对稳定——法律档案、研究论文库、历史文档建一次图用很久全局洞察是刚需——“所有案件的判决趋势”“跨论文的药物相互作用模式”这类问题 GraphRAG 的预计算摘要优势明显预算充足——能接受 10 倍于传统 RAG 的索引成本更新频率低——周更或月更增量更新的痛点不大典型场景律所的案件分析系统、药企的文献检索平台、情报分析系统。什么场景选 LightRAG知识库动态更新——新闻聚合、客服知识库、产品文档每天都有新内容成本敏感——创业团队或中小规模项目GraphRAG 的索引成本扛不住快速上线——想先跑起来看效果不想花几小时建图查询类型混合——既有具体问题又有全局问题但全局问题不需要极致完整典型场景新闻聚合平台的智能问答、客服知识库、研究者的个人论文库。总结要深度选 GraphRAG要灵活选 LightRAG。GraphRAG 像先花大价钱修一条高速公路——前期投入大但跑起来又快又稳LightRAG 像修一条普通公路随时可以加宽——前期成本低增量灵活但极致性能不如高速公路。面试时别只说我用了 GraphRAG要说清楚为什么选它——你的数据规模多大、更新频率多高、查询类型偏什么、预算多少。选型的逻辑比选型本身更重要。GraphRAG vs LightRAG 选型决策树大厂真实面试追问汇总以下是各大厂在 GraphRAG / LightRAG 方向的真实追问整理汇总。概念理解类QGraphRAG 和知识图谱问答KGQA有什么区别KGQA 是直接在已有知识图谱上做问答图谱是事先人工或半人工构建的。GraphRAG 的图谱是自动从文本中提取的不需要预先建好图谱。另外 GraphRAG 还保留了原始文本块图谱和文本协同检索不只是靠图谱。这是它比纯 KGQA 更鲁棒的地方。Q为什么 GraphRAG 用 Leiden 不用 LouvainLouvain 有一个已知问题可能产生内部不连通的社区——社区里的节点并不全连通。Leiden 是 Louvain 的改进版保证社区内部一定连通。对于知识图谱这种节点连接不均匀的图这个保证很重要。Q传统 RAG 加上知识图谱就是 GraphRAG 吗不完全是。加一个知识图谱做辅助检索确实能提升效果但 GraphRAG 的核心创新不在有图谱而在社区摘要的预计算。如果只是建个图谱做实体检索没有社区层级和预计算摘要全局性问题还是答不好。GraphRAG 知识图谱 社区层级 预计算摘要 Map-Reduce 查询四个缺一不可。技术深挖类QGraphRAG 的实体提取准确率不够怎么办三个方向一是优化提取 Prompt给 LLM 提供领域术语表和实体类型定义二是后处理过滤用规则或二次 LLM 调用清洗低置信度的实体和关系三是引入 NER 模型做初筛再用 LLM 做精细提取。实际项目中纯靠 LLM 提取的准确率在 70-80%加上后处理能到 85%。QLightRAG 的增量插入会不会导致图谱越来越乱会。随着不断插入新实体和关系图谱可能变得稀疏或冗余。LightRAG 的去重机制能防住大部分重复节点但长期运行后还是需要定期做一次图谱清洗——合并冗余节点、修剪低权重的边、删除孤立的实体。这和数据库需要定期维护是一个道理。QGraphRAG 的 Map-Reduce 查询 token 消耗大不大大。全局查询要把所有相关社区的摘要都过一遍 LLM社区数量多的话 token 消耗很高。优化方式选择更高层级的社区数量更少、每个更概括或者先对社区摘要做一次筛选只把和问题相关的送进 Map 阶段。场景设计类Q设计一个法律文档检索系统GraphRAG 和 LightRAG 你选哪个选 GraphRAG。理由法律文档库通常规模大但更新频率低法规变动不频繁全局性问题多“近五年合同纠纷案件的判决趋势”而且预算通常充足。法律场景对答案完整性要求高GraphRAG 的预计算社区摘要优势明显。Q设计一个新闻聚合平台的智能问答你选哪个选 LightRAG。理由新闻每分钟都在更新增量插入是刚需用户查询既有具体的“某某事件的最新进展”也有偏全局的“本周科技行业的热点话题”LightRAG 的四种查询模式都能覆盖而且新闻平台通常对成本敏感LightRAG 的索引成本只有 GraphRAG 的一半左右。Q如果预算有限但又有全局查询需求怎么办三种思路一是用 LightRAG 的 Hybrid 模式大部分场景够用二是传统 RAG 简单图谱辅助不加社区摘要只在实体检索时走图谱成本可控、效果有提升三是用 GraphRAG 但只在核心数据子集上建图非核心数据走传统 RAG混合架构。写在最后传统 RAG 优化了找更好的文本块但有些问题需要的不是更好的文本块是实体之间的关系和全局的结构性理解。这是 GraphRAG 出现的根本原因。GraphRAG 用知识图谱 社区摘要预计算的方式突破了传统 RAG 的天花板尤其擅长全局性问题。但代价也很明确索引成本高、增量更新难、社区粒度难调。LightRAG 用双层图谱 增量插入的方式在图增强检索和轻量灵活之间找到了平衡点。它不强求预计算的全局理解但增量友好、成本低、部署快。要深度选 GraphRAG要灵活选 LightRAG。选型的关键是看你的数据特征静态 vs 动态、查询需求具体 vs 全局和资源约束预算、时间。如果你正在做 RAG 项目先想清楚你的知识库多久更新一次用户问得最多的是具体问题还是全局问题预算多少这三个答案决定了你的选择。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2565414.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…