长上下文语言模型(LCLMs):让AI拥有更强的长期记忆

news2026/3/19 20:02:50
引言想象一下当你阅读一本小说时如果只能记住最后几页的内容会是多么糟糕的体验同样大语言模型LLM在处理长文本时也曾面临类似的困境。为什么长上下文如此重要在实际应用中许多任务都需要模型处理超长文本•文档分析分析整本书籍、长篇报告、法律合同•对话系统处理长期的多轮对话历史记住用户的偏好•代码理解理解大型代码库的跨文件依赖关系•医疗诊断综合分析患者的完整病史和检查报告•金融分析处理多年的财务数据进行趋势预测传统Transformer模型的上下文窗口通常限制在2K-4K tokens大约1500-3000个汉字这远远无法满足实际需求。那么研究者们是如何突破这个限制将上下文窗口扩展到128K甚至200K tokens的呢一、架构创新四种主要的架构改进方法每种方法都有其独特的优势和适用场景。1. 高效注意力机制核心问题标准Transformer的注意力机制复杂度是O(n²)这意味着当序列长度n增加时• 计算量呈平方级增长100K长度是1K长度的10000倍计算量• 内存消耗呈平方级增长• 推理速度显著下降模型架构的演进解决方案详解1.1 稀疏注意力Sparse Attention原理不是让每个token都关注所有其他token而是只关注部分重要的位置。主要方法•固定模式稀疏如Longformer使用滑动窗口全局注意力• 滑动窗口每个token只关注周围的W个token如W512• 全局注意力部分关键token如分类token可以关注所有位置•可学习稀疏如Reformer学习哪些位置最重要•随机注意力如BigBird随机选择部分注意力连接示例假设我们有一篇10000字的论文使用稀疏注意力时• 每个段落内的句子紧密关注局部窗口• 标题和摘要被所有段落关注全局token• 偶尔有跨段落的随机连接随机注意力1.2 线性注意力Linear Attention原理通过数学技巧将注意力计算从O(n²)降至O(n)。核心思想利用核函数技巧Kernel Trick将注意力计算中的矩阵乘法顺序重新排列标准注意力Softmax(QK^T)V - 复杂度O(n²)线性注意力φ(Q)φ(K)^TV - 复杂度O(n)代表模型Linear Transformer, Performer, Transformer-XL权衡虽然速度快但通常会损失一定的精度。1.3 局部注意力与分块处理方法将长序列分成多个块chunks每个块内部使用密集注意力。代表模型•SplitTransformer简单分块•FNet使用傅里叶变换替代部分注意力2. 位置编码让模型理解先后顺序核心问题Transformer本身是置换不变的permutation invariant即打乱输入顺序会得到相同的结果。因此必须显式地告诉模型每个token的位置信息。2.1 绝对位置编码APE经典方法在embedding层添加固定的位置向量。问题难以泛化到训练时未见过的序列长度。示例如果模型只在最长2048的位置上训练它如何理解位置2049、5000甚至1000002.2 相对位置编码RPE核心思想不编码我在第5个位置而是编码我和那个词相距3个位置。优势更好的泛化能力可以处理任意长度的序列。代表方法•T5 bias在注意力分数中添加可学习的偏置•DeBERTa解耦内容和位置信息2.3 ALiBiAttention with Linear Biases原理在注意力分数中添加一个与距离成正比的静态偏置Attention_score QK^T / sqrt(d) m * |i - j|其中m是一个负数i和j是位置索引距离越远惩罚越大。特点• 非常简单只需在推理时修改注意力分数• 可以外推到比训练时更长的序列• 不需要在embedding中添加位置编码2.4 RoPERotary Position Embedding当前最流行的方法被Llama、Mistral、PaLM等主流模型采用。原理通过旋转矩阵将位置信息编码到query和key中对于位置m将query向量旋转m*θ角度对于位置n将key向量旋转n*θ角度直观理解• 想象两个向量旋转角度差反映了它们的相对距离• 距离越远点积相似度越小示例位置0: 向量不旋转位置1: 旋转θ角度位置2: 旋转2θ角度...位置m: 旋转mθ角度位置0和位置2的相对关系2θ位置5和位置7的相对关系2θ相同这就是为什么RoPE能很好地捕捉相对位置关系。优势• 理论基础扎实基于复数和几何• 外推性能好• 计算效率高• 易于实现长上下文变体•YaRN改进的温度缩放•NTK-aware scaling调整频率基数•PIPosition Interpolation在更长位置上插值3. 记忆增强机制给AI配备笔记本核心思想Transformer的隐状态本质上是短期记忆类似人的工作记忆容量有限。记忆增强机制给模型配备外部记忆可以长期存储和检索信息。3.1 显式记忆/存储Explicit Memory方法在架构中添加专门的矩阵或向量。代表工作•Transformer-XL使用段级递归和相对位置编码•Compressive Transformer将旧的隐状态压缩后存储•Memorizing Transformer显式存储k-nearest邻居示例模型阅读一本书时• 当前章节保存在隐状态中• 之前的重要情节压缩后存储在内存中• 需要时可以从内存中检索相关信息3.2 KV Cache优化背景在生成式推理中每次生成新token时都要重新计算之前所有token的KV矩阵。优化缓存已计算的KV对避免重复计算。挑战KV cache的内存占用与序列长度线性增长对于100K tokens会消耗大量显存。解决方案•PagedAttention类似操作系统的虚拟内存管理•FlashAttention通过注意力算法优化减少内存访问•Multi-Query Attention多个头共享KV投影•Grouped-Query Attention折中方案分组共享KV3.3 分层记忆/存储Hierarchical Memory灵感模仿人类的记忆系统•感官记忆瞬时、大容量如视觉暂留•短期记忆/工作记忆当前正在处理的信息•长期记忆通过巩固形成的持久记忆实现•快速内存当前的隐状态容量小但访问快•慢速内存压缩的历史信息容量大但访问慢•检索机制决定何时从慢速内存读取4. 分层与递归架构核心思想不是一次性处理整个序列而是分层次或递归地处理。4.1 分层TransformerHierarchical Transformer方法底层处理将长序列分成多个片段每个片段独立处理高层整合将底层的输出压缩、整合再次处理示例第一层处理100K tokens分成100个1K tokens的片段第二层将100个片段的表示压缩成10个超级片段第三层将10个超级片段压缩成1个全局表示优势有效感受野呈指数增长4.2 递归TransformerRecursive Transformer方法迭代处理每次迭代处理更长的上下文。代表模型•Universal Transformer重复应用同一层•Recall Transformer在生成时可以回顾之前的内容4.3 状态空间模型State Space Models, SSM新兴方向如Mamba、RWKV特点• 计算复杂度O(n)线性而非二次• 具有类似RNN的状态传递机制• 可以处理无限长序列理论上权衡在长序列任务上表现优异但在复杂的推理任务上可能不如传统注意力。二、训练策略让模型学会处理长文本仅有架构创新还不够训练长上下文模型的策略也同等重要。LCLM的训练Pipeline1. 数据工程挑战数据稀缺高质量的长文本数据不如短文本丰富质量参差长文档常包含无关内容、重复信息多样性不足某个领域的长文档可能很多其他领域很少解决方案详解1.1 数据合成Data Synthesis方法1文档拼接[文档1] [分隔符] [文档2] [分隔符] [文档3]关键设计• 使用清晰的分隔符如特殊token[DOC_BREAK]• 添加文档元数据如来源、时间戳• 平衡不同类型的文档方法2从短文档生成长文档• 使用语言模型扩展短文本• 填充中间内容• 保持逻辑一致性1.2 课程学习Curriculum Learning策略从简单到困难逐步增加序列长度。示例第一阶段在2K-4K长度的序列上训练预热第二阶段逐渐增加到8K、16K、32K第三阶段在64K-128K长度上精调理论依据让模型先掌握基本的语言建模能力再学习处理长距离依赖。1.3 质量过滤Quality Filtering过滤标准•去重删除重复或高度相似的文档•困惑度筛选过滤掉模型预测困惑度异常的文档可能是低质量或乱码•语言识别确保文档是预期语言•格式验证检查文档结构是否完整2. 持续预训练Continued Pre-training两阶段训练范式阶段1基础模型预训练• 目标学习通用语言理解能力• 数据大规模混合语料• 长度通常2K-4K tokens阶段2长上下文持续预训练• 目标扩展上下文窗口学习处理长序列• 数据专门收集的长文本语料• 长度逐步扩展到目标长度如32K、128K关键技巧2.1 长度上采样Length Upsampling• 训练时优先使用更长的序列• 例如80%的批次使用32K-128K长度20%使用较短长度• 确保模型充分学习长距离依赖2.2 序列长度插值Sequence Length Interpolation•问题位置编码在预训练时只见过0-2048的位置如何外推到100000•解决不重新训练位置编码而是插值已有的位置编码方法对比原始位置0, 1, 2, ..., 2048朴素外推不好位置0, 1, 2, ..., 2048, 2049, ..., 100000- 新位置没有训练过效果差插值好将0-2048拉伸到0-100000- 位置i变成 i * (100000/2048)- 每个位置都在训练过的位置之间代表方法•PI (Position Interpolation)线性插值•YaRN考虑非线性的温度缩放•NTK-aware调整频率基数2.3 梯度检查点Gradient Checkpointing•目的节省训练时的显存•方法不保存所有中间激活而是在反向传播时重新计算•权衡用计算时间换显存空间2.4 混合精度训练• 使用FP16或BF16存储激活和梯度• 关键操作使用FP32保持精度• 显著减少显存占用3. 有监督微调Supervised Fine-tuning目标在特定任务上优化模型的长上下文能力。数据构建•长文档问答给定长文档和问题生成答案•长文档摘要压缩长文档为简洁摘要•信息检索从长文档中提取特定信息•代码补全给定长代码上下文补全后续代码训练技巧•任务混合不要只训练单一任务保持多样性•难度梯度从简单检索开始逐步到复杂推理•负面样本包含需要区分相关和不相关信息的样本4. 指令调优与对齐目标让模型学会听话理解如何利用长上下文完成用户的指令。方法4.1 指令数据设计原则• 明确性指令清晰表达任务需求• 多样性覆盖不同类型的长上下文任务• 真实性模拟真实使用场景示例指令请阅读以下长篇研究报告并总结其核心发现、研究方法和局限性。请确保摘要涵盖所有主要章节。输入[100页研究报告]输出[结构化的摘要]4.2 RLHF人类反馈强化学习流程收集人类对模型输出的偏好数据训练奖励模型Reward Model使用PPO等算法优化策略模型在长上下文场景的特殊考虑• 评估者也需要阅读长文本成本高• 可能需要分段评估• 关注是否正确利用了长上下文而非仅仅答案正确4.3 测试时增强Test-time Augmentation检索增强生成RAG• 不是让模型记住所有信息• 而是在需要时检索相关文档• 将检索到的文档拼接到上下文中优势• 可以处理理论上无限的信息• 更新知识只需更新检索库• 减少模型的记忆负担三、工作流程设计外部增强术如果说改进模型架构是内功修炼那么工作流程设计就是招式创新。核心在于不修改模型本身(不改变模型参数)而是巧妙运用外部组件来突破上下文限制。长上下文四种外部增强策略1. 提示压缩给AI的速记本想象你要向同事解释一个复杂项目有两种方式•方式A把100页文档全部发给他•方式B用200字摘要讲清核心要点提示压缩就是方式B。它分为两种1.1 硬压缩保留人话的精简术SelectiveContext像个挑剔的编辑用一个小模型给每个词打分自动删除的、“了”、和等冗余词最高压缩20倍。它的核心算法是计算token自信息如果一个词能显著降低整句的困惑度PPL就保留否则就删除。LLMLingua更聪明它先问“这段话对回答用户问题有多重要“然后用预算控制器按需分配字数。比如用户问产品价格”它会把产品描述从500字压缩到50字但保留价格表原封不动。LLMLingua使用一个轻量的LLaMA-7B作为压缩模型”通过动态规划算法在限定预算内选择最优token子集目标函数是max Σ(信息增益) - λ·(token数量)示例把下面这段产品说明“我们这款智能手表采用了最先进的芯片技术具有心率监测、血氧检测、睡眠追踪等多项功能外观设计时尚简约适合各种场合佩戴…”压缩成“智能手表心率/血氧/睡眠监测时尚外观”模型理解速度提升5倍核心信息毫发无损。1.2 软压缩AI才懂的暗号软压缩不保留文字而是把整段话变成一串密码连续向量体积更小速度更快。ICAE上下文自编码器是个翻译官它把1000字的用户评论翻译成50个密码AI解码时只需看密码就能还原原意。其实现是一个编码器-解码器架构• 编码器BERT级模型将文本编码为记忆槽• 解码器冻结的LLM从记忆槽重建文本• 训练目标最小化重建误差实测显示这种方法让模型能处理的上下文长度扩展10倍同时保持95%以上的信息保真度。2. 记忆系统给AI配一个外脑Transformer的注意力机制就像人的短期记忆容量有限。记忆系统则给AI配了一个可随时查阅的外脑笔记本2.1 文本记忆像人类一样记笔记MemoryBank模仿人类的遗忘曲线——经常用的信息记得牢不用的慢慢忘。它给每条记忆打三个分•新鲜度score_recency exp(-0.1·天数)•重要性让LLM打分1-10分用户密码这种可能给10分闲聊话题给2分•相关性score_relevance cos(当前查询嵌入, 记忆嵌入)最终得分score 0.3·新鲜度 0.5·重要性 0.2·相关性实现细节每次检索时只取Top-K当记忆满时删除分数最低的条目。这模拟了人脑的海马体重放机制。2.2 连续记忆AI的速写本LongMem把长文本切成片段把每段的精髓KV缓存值存起来。当需要时通过速写快速回忆。实现上LongMem在LLM旁加一个SideNet辅助网络主模型 → 输出隐藏状态 → SideNet检索 → 返回相关KV对 → 联合注意力机制这就像一个学生做开卷考试不是翻整本书而是直接翻到贴了书签的重点页。2.3 参数记忆把知识刻进DNADSI可微搜索索引更彻底——它把问题→答案的映射关系直接训练成模型权重。就像把乘法表背下来不需要每次计算。实现方法将文档ID作为特殊token训练目标是P(doc_id | query) softmax(MLP(query_embeddings))DSI解决灾难性遗忘问题引入锐度感知最小化L max_{||ε||≤ρ} L(θε)这迫使模型收敛到平坦最小值就像记住知识时不仅记内容还记上下文不易忘记。3. RAG增强从翻书到查字典RAG检索增强生成是经典的长文本处理方案先找相关章节再精读回答。但传统RAG像翻书长上下文模型让它升级为查字典3.1 智能分块不再盲目切块传统RAG按固定长度切分文档可能把第一章和节切分开导致语义断裂。Late Chunking先理解全文再切分确保每个块都包含完整语境。实现步骤用长上下文嵌入模型编码整文档如Embedding-3-Large在嵌入空间进行聚类语义连贯的段落自动成组每个块嵌入 组内所有token嵌入的平均值效果检索准确率提升25%因为块边界不再破坏语义。3.2 检索升级从关键词匹配到意图理解BGE-M3支持混合检索• 稀疏检索BM25处理精确关键词• 密集检索向量相似度处理语义• 多粒度同时支持字、词、句三级检索REAPER更聪明它会分解复杂查询用户问为什么特斯拉股价下跌但马斯克财富增加了分解为1. 特斯拉近期股价走势检索financial news2. 马斯克财富构成检索wealth tracking3. 股价与个人财富的关系检索economics theory最终答案 综合123的推理3.3 生成融合让检索结果无缝衔接Fusion-in-Decoder把检索到的10个段落和问题一起编码让模型自己学会哪些信息重要。实现架构检索结果1检索结果2 → 独立编码 → 拼接 → 联合注意力 → 生成答案...检索结果10这就像做开卷考试不是照抄答案而是综合多本书的观点写出原创分析。4. 智能体系统从单兵作战到团队协作当文本长到单个人工智能读不完时多智能体协作登场了4.1 单智能体会规划的超级读者ReadAgent像一个资深研究员实现三步走粗读用滑动窗口扫描100页报告每10页生成一个摘要token记笔记维护一个分层记忆树根节点全文摘要叶节点段落摘要精读当用户问具体问题时只激活相关叶节点回溯原文GraphReader的实现更精妙•建图将文档转为知识图谱• 节点用命名实体识别提取• 边用关系抽取模型建立•遍历用深度优先搜索注意力机制动态决定探索路径•决策每个节点用Policy Network评估要不要继续深挖这就像一个侦探在犯罪现场不是地毯式搜查而是根据线索有策略地排查。4.2 多智能体分工明确的课题组**Chain of Agent (CoA)**像课题组的导师带学生通信协议Manager: 找出财报中的三大风险Worker1: 我负责市场风险发现...Worker2: 我负责财务风险发现...Worker3: 我负责法律风险发现...Manager: 综合评估风险等级高建议...每个Worker只处理10页通过消息队列异步通信整体效率线性扩展。LongAgent解决冲突的机制更细致• Leader分配任务时给每个Worker的上下文有10%重叠• Worker返回结果后Leader用一致性检验识别矛盾• 矛盾部分触发重读机制让第三个Worker仲裁性能数据处理1000页文档时CoA的准确率比单模型高35%速度提升4倍并行处理。四、评估基准如何衡量长上下文能力1. 经典基准测试1.1 Needle-in-Haystack Test干草堆找针测试方法准备一个长文档如10K-100K tokens在文档的随机位置插入一个针一句特定的话要求模型找到并提取这句话变量• 针的位置开头、中间、结尾• 文档长度• 针的数量单针vs多针• 干扰信息相似但不完全相同的内容评估指标• 准确找到针的概率• 提取内容的完整度示例文档[9000字的无关内容] 魔法数字是42 [9000字的无关内容]问题文档中提到的魔法数字是什么期望答案42发现• 许多模型在开头和结尾表现好中间表现差U型曲线• RoPE等方法显著改善了中间位置的性能1.2 LongBench内容综合性的长上下文基准包含多个任务任务类型具体任务上下文长度评估重点问答单文档QA、多文档QA5K-20K信息检索和理解摘要单文档摘要、多文档摘要5K-20K信息压缩合成少样本学习、上下文学习5K-20K利用示例的能力代码代码补全5K-15K长代码理解特点• 中文为主• 覆盖多种任务类型• 长度适中不是极限长度测试1.3 InfiniteBench目标测试极限长度最长128K tokens任务类型•长 book QA基于整本书的问答•长视频理解理解长视频的多个帧•数学推理基于长上下文的数学问题•代码推理大型代码库的理解特点• 真正的长上下文平均50K tokens• 多模态文本图像/视频• 接近实际应用场景1.4 RULER全称Robust Evaluation of Long-context Language Models测试维度•多针检索在长文档中查找多个特定的针•多跳推理需要结合文档中多处信息才能回答•聚合推理需要对多个信息进行汇总、计算•重排序按照特定顺序排列信息示例任务多跳推理文档Alice出生于1990年。Bob比Alice小3岁。 Charlie比Bob大5岁。问题Charlie多大推理路径1. Alice: 19902. Bob Alice 3 19933. Charlie Bob 5 1998答案1998年出生1.5 评估指标详解困惑度Perplexity, PPLPPL exp(-1/N * sum(log P(word_i | context)))• 越低越好• 评估语言建模的基本能力• 但不一定与任务性能直接相关任务准确率Accuracy• 问答任务的准确率• F1分数考虑部分正确• 精确率和召回率上下文利用率Context Utilization• 模型是否真正使用了全部上下文• 测试方法在上下文的不同位置放置关键信息• 理想情况所有位置的性能一致鲁棒性Robustness• 对噪声的容忍度• 对无关信息的过滤能力• 对矛盾信息的处理效率Efficiency• 推理速度• 显存占用• 吞吐量tokens/秒2. 评估实践的洞察重要发现发现1U型曲线现象• 模型在开头和结尾的检索表现好• 中间位置的表现差• 原因注意力机制更关注开始和结束• 改进RoPE、ALiBi等方法缓解了这个问题发现2长度泛化• 在长度L上训练的模型在L时性能下降• 但某些方法如RoPE插值可以外推• 外推能力差异很大发现3任务需求• 不是所有任务都需要超长上下文• 简单问答4K-8K足够• 复杂推理可能需要32K• 文档分析需要64K-128K发现4质量vs长度• 重要的不是上下文长度而是如何利用• 有些模型在64K上表现不如在32K上精心优化的模型• 位置编码、注意力机制等细节很重要五、代表性模型详解1. GPT-4 Turbo (128K)技术特点• 密集注意力没有使用稀疏注意力• 优化的训练管线• 推理时的KV cache优化优势• 性能强大在多个基准上领先• 上下文利用充分权衡• 成本高计算和存储• 推理速度相对慢2. Claude 2.1 (200K)技术特点• 强调长文档理解• 优化的注意力机制• 可能使用了某些内存增强技术独特之处• 目前最长的商用上下文窗口之一• 在文档分析和理解任务上表现优异• 支持上传和分析大型PDF应用场景• 法律文档分析• 学术论文理解• 长篇报告总结3. Llama 2 Long (32K-100K)技术特点• 基于Llama 2架构• 持续预训练在长文本数据上• 使用了位置插值技术训练方法收集长文本数据书籍、报告等从Llama 2开始持续预训练使用长度插值扩展位置编码在长上下文任务上微调开源价值• 为研究社区提供了强大的基线• 可以进一步微调和优化4. Mistral 7B (32K)技术特点• 滑动窗口注意力Sliding Window Attention• 分组查询注意力GQA• 仅32K长度但效率高滑动窗口• 每个token只关注前4096个token• 理论感受野更长通过堆叠多层• 计算效率高权衡• 可能不如密集注意力在某些任务上• 但速度和成本优势明显5. YaRN (128K)核心技术改进的RoPE位置编码改进点•温度缩放调整位置编码的缩放因子•插值策略比原始PI更好的插值方法•NTK-aware调整频率基数以保持高频信息方法详解原始RoPE: θ_i base^(-2i/d)YaRN修改:1. 缩放: position * scale_factor2. 温度: θ_i (base^(-2i/d))^temperature3. 插值: 在更长的位置上插值效果• 可以从短上下文模型如Llama 2扩展到128K• 不需要完整的持续预训练• 相对简单有效6. LongLoRA (100K)核心技术高效的微调方法问题标准微调长上下文模型需要大量计算资源。解决方案移 shifted sparse attention (S2-Attn)• 训练时使用稀疏注意力节省计算• 推理时切换回密集注意力保持性能LoRA适配器• 冻结大部分模型参数• 只训练少量适配器参数• 显著减少训练成本优势• 在单张GPU上就能微调• 可以扩展到100K• 不需要重新训练整个模型7. 其他重要模型Mamba (状态空间模型)• 线性复杂度O(n)• 可以处理无限长序列• 但在某些任务上不如注意力Ring Attention• 分布式注意力计算• 将序列分布在多个设备上• 实现环状注意力模式Command R• 强调检索增强• 128K上下文 RAG• 在实际应用中表现优异六、应用场景长上下文语言模型应用场景七、结语长上下文能力让AI从短期记忆进化到长期记忆这是通向更智能、更实用AI系统的关键一步。未来的AI系统将不仅记住更多而且理解更深、推理更强。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2427465.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…