Meta AI的多模态生成式推荐系统 MSC-GRec 的大模型级量化与落地实践

news2026/3/24 22:45:44
一、导语Lead本文将深度解读由 Meta AI 和苏黎世联邦理工学院ETH Zurich联合提出的最新生成式推荐模型MSC-GRecMultimodal Semantic and Collaborative Generative Recommender。在处理海量商品库时传统的序列推荐系统面临着巨大的内存开销Embedding 词表爆炸。而现有的“生成式推荐Generative Recommendation”虽然通过生成离散语义代码Semantic Codes解决了内存问题但在大库上的推荐精度却始终无法超越传统模型。MSC-GRec 通过三大核心创新打破了这一僵局将协同过滤信号作为独立模态融入大语言模型范式、提出基于 DINO 框架的图像自监督量化学习RQ-DINO以及引入约束序列学习Constrained Training机制。它在三个超大规模真实数据集上全面击败了传统序列推荐和现有生成式方法标志着生成式推荐真正具备了在工业级海量数据上落地的统治力。二、研究背景为什么要解决这个问题在深入理解 MSC-GRec 之前我们需要先剖析推荐系统过去十年面临的底层架构演进以及当前业界遭遇的“内存墙”与“语义墙”两大核心痛点。只有理解了这些痛点我们才能明白为什么生成式推荐Generative Recommendation被视为下一代推荐范式以及为什么它在落地时又困难重重。1. 当前领域面临的核心问题ID 范式的“内存墙”与“语义墙”传统的推荐系统尤其是以 SASRec 为代表的序列推荐模型本质上遵循着一种基于 ID 的匹配范式ID-based Paradigm。系统会为数据库中的每一个商品Item分配一个独一无二的原子 ID如 Item_9527并为每个 ID 学习一个高维的稠密向量Embedding。在推理时模型根据用户的历史点击序列计算出一个 User Embedding然后在庞大的 Item Embedding 表中进行近似最近邻检索ANN Search或者点积打分。这种范式在过去非常有效但在当今动辄数以亿计的商品库面前暴露出两个致命的局限•内存墙Memory Wall瓶颈每一个商品都需要在内存中维护一个浮点数向量。如果库里有 10 亿个商品一个维度为 256 的 FP32 Embedding 表将占用惊人的数百 GB 显存。这导致工业界不得不花费极其高昂的硬件成本来维护这些巨大的 Embedding 表且极大限制了模型的扩展能力。•语义墙Semantic Wall与冷启动难题孤立的 ID 本身不包含任何物理世界的语义信息。模型完全依靠用户交互的“共现频率Co-occurrence”来学习向量即协同过滤信号。这意味着如果一个新商品刚刚上架零交互它的 Embedding 就是随机初始化的模型根本不知道它到底是一部手机还是一把牙刷导致严重的冷启动问题。通俗类比传统的 ID 推荐就像一个完全不识字但记忆力极强的图书管理员。他只记得“借过编号 A001 书的人通常也会借 B002”但他完全不知道 A001 是一本《科幻小说》B002 是一本《太空歌剧》。一旦进来一本新书新 ID他就彻底懵了。2. 生成式推荐Generative Recommendation的崛起与局限为了打破上述双墙业界近年来受大语言模型LLM的启发提出了一种颠覆性的范式生成式推荐Generative Recommendation。其核心思想是抛弃原子 ID 和巨大的 Embedding 表将每个商品表示为一段简短、包含语义的离散代码序列Discrete Semantic Codes。例如通过残差量化RQ技术将一本《哈利波特》的文本描述量化为代码序列 。其中24可能代表“图书”156代表“奇幻”92代表“魔法学校”。这样推荐任务就从“在海量向量库中做点积检索”变成了类似 ChatGPT 的Next-token Prediction生成下一个词。模型通过阅读用户历史浏览的代码序列直接逐个 Token 地生成下一个推荐商品的代码。生成式推荐带来了显而易见的优势极度省内存不再需要存储亿级别商品的 Embedding 表。模型只需要记住一个极小的词表例如 256 个 Token商品表示由这 256 个 Token 组合而成内存需求呈指数级断崖式下降。天生具备语义和泛化能力由于代码是基于商品文本/图像生成的相似的商品会共享前缀代码。新商品只要有文本描述就能被量化为相似的代码从而完美解决冷启动。然而理想很丰满现实却很骨感。现有的生成式推荐模型如基于文本的 TIGER在小规模数据集上表现惊艳但在面临真实的海量商品库时其推荐精度却始终无法超越传统的序列模型如 SASRec。3. 为什么这个问题一直没有被很好解决生成式推荐在大库上“水土不服”的根本原因在于现有的研究陷入了两个误区•只重语义抛弃了协同过滤信号Collaborative Signals现有的生成式模型大多只依赖文本或图像来生成代码。但是推荐系统与纯 NLP/CV 任务不同。在商业场景中“经常被一起购买”的属性协同过滤往往比“长得相似”或“描述相似”更具决定性。比如用户买完“手机”后往往需要买“手机壳”这两者在文本或图像上毫无相似之处纯语义模型很难将它们联系起来而传统的 ID 模型却能通过共现轻易捕捉这种关系。现有方法如 LETTER 或 CoST试图通过复杂的对比损失函数强行对齐语义与协同信号但这往往导致模型在训练时顾此失彼难以达到最优。•模态单一且量化方式粗糙真实世界是多模态的。现有的方法大多只盯着文本Text如果遇到缺乏文本描述的场景如纯视频、纯图像流模型就抓瞎了。此外直接使用预训练好的图像编码器如 CLIP提取特征再进行量化往往会保留大量对推荐无用的背景高频细节而不是提取“这件衣服是什么风格”这种高层语义。综上所述当前推荐系统领域迫切需要一种**既能享受生成式框架带来的“内存红利”和“语义泛化能力”又能完美融合“协同过滤信号”和“多模态特征”**的工业级大模型解决方案。这就是 MSC-GRec 诞生的时代背景。三、核心研究问题1. 论文试图解决的核心问题是什么论文试图解决的核心问题是如何设计一个多模态生成式推荐框架在不增加内存开销和推理延迟的前提下将协同过滤信号和多模态语义信号文本、图像深度融合从而在海量商品数据集上全面超越传统基于 ID 的序列推荐模型。深入拆解这个任务•输入是什么用户的历史交互商品序列。每个商品具备多种模态信息如商品标题文本、商品缩略图以及它在历史序列模型中的协同过滤表示。•输出是什么系统预测出的下一个最符合用户兴趣的商品。在生成式范式下输出具体表现为一段属于该预测商品的离散多层级代码序列Discrete Semantic Code Sequence。•为什么这个问题很难异构信息的融合冲突文本、图像和协同过滤信号处于完全不同的表示空间。如何在一个自回归Autoregressive生成的框架内优雅地融合这些信息而不引起模态间的梯度冲突图像量化的低效性推荐系统关注的是图像背后的“用户偏好语义”而不是图像的“像素重建”。传统的图像离散化方法如 VQ-VAE基于重建误差在此处完全不适用。捷径学习Shortcut Learning与词表爆炸随着商品库扩大理论上可能的代码组合数量呈指数级增长。但现实中只有一小部分代码组合真正对应着真实的商品。自回归模型在训练时往往会消耗大量算力去“死记硬背”哪些代码组合是合法的、哪些是非法的而不是去专注学习“用户到底喜欢什么”。这会导致严重的过拟合和性能饱和。2. 创新作者提出了什么新的方法、模型或技术为了攻克上述难题Meta AI 的研究团队提出了MSC-GRec (Multimodal Semantic and Collaborative Generative Recommender)。其核心创新可以归纳为“一个框架、两把尖刀”A. 方法的整体思路与模型结构MSC-GRec 彻底摒弃了“试图把所有模态压进同一个代码本”的做法。相反它采用了一种**“异构输入独立量化统一处理单模态解码”的创新架构。在输入端模型将商品的文本、图像、以及传统序列模型如 SASRec学习到的 Item Embedding**分别独立进行残差量化Residual Quantization, RQ得到各自模态的层级代码序列。模型将这些不同模态的代码拼接在一起作为输入。这就巧妙地将“协同过滤信号”视作了一种额外的“语言模态”注入了模型。B. 核心创新点 1基于 DINO 的图像自监督量化学习 (RQ-DINO)以往处理图像模态时要么使用重建损失VQ-VAE导致失去语义要么直接量化冻结的 CLIP 向量导致域偏移Domain Shift。MSC-GRec 创造性地将残差量化RQ直接嵌入到当前最先进的计算机视觉自监督学习框架DINOSelf-Distillation with No Labels之中。在教师-学生自蒸馏的训练中模型强制对学生网络Student的中间表征进行残差量化然后用量化后的特征去逼近教师网络Teacher的稠密输出。这使得网络在没有标签的情况下自发地学习出既满足层级量化要求、又高度浓缩了高级语义的图像离散代码。C. 核心创新点 2约束序列学习 (Constrained Sequence Learning)为了解决大模型在海量商品前产生的“捷径学习死记硬背”现象作者提出了一种极其优雅的训练策略调整。在计算 Softmax 交叉熵损失时传统的生成式大模型会将当前 Token 候选与整个词表比如 256 个 Token进行归一化。但在 MSC-GRec 中作者利用已知商品的离散代码构建了一棵前缀树Prefix Tree / Trie。在训练的每一步Softmax 的分母仅在当前路径下合法的子节点Permissible Codes中进行求和。这不仅没有任何额外的计算开销树可以预先计算好而且彻底阻断了模型去记忆无效代码路径的企图强制大模型将所有的参数容量都用于对“真实商品”进行精确排序。3. 比较论文与哪些现有方法进行了比较论文在严格的学术基准下与当今工业界和学术界两大阵营的最强 Baseline 进行了全面对比•序列推荐阵营Sequential Recommendation•SASRec引入自注意力机制的序列推荐基石模型目前在大规模稀疏数据集上依然是最强且最稳定的 Baseline 之一。•BERT4Rec、GRU4Rec、Caser、FDSA涵盖了双向 Transformer、RNN、CNN 和特征增强的各个方向的经典方法。•其特点检索精度极高特别是 SASRec协同信号捕捉极其敏锐但致命弱点是必须依赖庞大的 Item Embedding 表缺乏跨商品语义共享能力。•生成式推荐阵营Generative Recommendation•TIGER谷歌提出的生成式推荐鼻祖级框架基于文本语义进行残差量化。•LETTER CoST试图在生成式框架中引入对比学习以对齐语义与协同信号。•ETE-GRec将序列编码器和商品分词器进行端到端联合循环优化的最新模型。•MQL4GRec处理多模态生成式推荐的最先进方法。•其特点内存极低具备语义理解能力但在海量商品数据上的排序能力长期被 SASRec 等传统模型压制。MSC-GRec 与它们的核心差异它首次通过“模态融合”的方式不借助复杂的对比损失对齐函数直接将 SASRec 的稠密输出量化为“协同词汇”让大模型去阅读。相比于纯文本的 TIGER它懂协同过滤相比于纯协同过滤的 SASRec它拥有多模态语义和极低的内存占用相比于 LETTER 等对比学习方案它更加端到端且避免了多目标优化的梯度打架。4. 核心理论假设作者提出 MSC-GRec 架构底层的核心理论假设主要有两个“协同过滤与语义特征是正交且互补的模态”假设作者认为商品的长相图像、名字文本与它在商业生态中的位置协同信号是描述该商品的三种完全不同的“语言Languages”。试图用一个一维的代码序列强行融合它们例如 Early Fusion 或 Contrastive Loss会损失大量信息。理论解释如果将它们作为平行的独立模态输入序列模型Transformer强大的自注意力机制天生就具备在上下文Context中寻找跨模态关联特征的能力。让大模型自己去判断何时该用“图像相似度”推荐何时该用“协同共现率”推荐远胜于人工设计对齐损失。“受限解空间提升泛化能力”假设 (Constrained Space Hypothesis)传统的序列生成将推荐问题视作在绝对无约束的空间中游荡。但实际的商品库是封闭且固定的。直觉上的理解就像参加一场选择题考试如果你知道只有 A、B、C 是有效选项虽然答题卡上印着 A 到 Z你就不应该把脑力浪费在考虑“这题选 Z 会不会扣分”上。通过在训练阶段引入前缀树约束Constrained Training直接将模型的解空间从“理论宇宙”压缩到“现实商品库”模型就能将所有的表征容量集中在区分 A、B、C 究竟谁更优上从而带来排序性能的巨大飞跃。四、研究方法Methodology本节我们将深入解构 MSC-GRec 的系统架构看看它是如何一步步将多模态数据转化为推荐决策的。4.1 整体方法框架MSC-GRec 的整体工作流分为**离线量化Offline Quantization和在线序列学习Online Sequence Learning**两个宏观阶段详见论文图 1独立模态的分词与量化Tokenization系统获取所有商品的基础信息。•文本模态使用预训练的 LLM如 LLAMA提取商品文本的稠密向量Text Embedding。•图像模态使用本文独创的 RQ-DINO 框架直接从像素级别提取并量化图像特征。•协同过滤模态在历史日志上离线训练一个标准的 SASRec 模型提取出其学到的 Item Embedding。随后利用残差量化RQ技术将这三个稠密向量分别转化为长度为 的离散代码序列。并在每种模态的末尾添加一个独特的防碰撞代码Collision Code确保没有任何两个商品拥有完全相同的代码。多模态组合与历史序列构建对于每个商品 它现在由三种模态的代码序列拼接而成。将用户历史点击的商品按时间顺序排列就构成了一个极其丰富的多模态词元序列作为大模型的输入Encoder Input。预测与受限解码Prediction Decoding使用基于 T5 架构的 Encoder-Decoder 大模型。Encoder 负责阅读用户的多模态历史。Decoder 负责生成下一个预测商品。关键设计为了保持极高的推理效率解码端Decoder并不需要生成所有模态的代码。系统指定单一的优势模态通常是协同代码作为 Target 进行自回归预测。在推理阶段使用受限集束搜索Constrained Beam Search在预构建的商品前缀树上游走最终锁定用户最可能点击的商品。4.2 关键技术模块详解接下来我们深挖 MSC-GRec 能够拉开性能差距的三个核心技术组件。模块一基于 DINO 的图像自监督量化 (RQ-DINO)传统的生成式推荐多半使用 VQ-VAE 来量化图像。VQ-VAE 包含一个 Encoder 和一个 Decoder训练目标是让 Decoder 能把量化后的代码重新还原成原始图像像素。这在推荐系统中是灾难性的因为重建像素会逼迫模型把宝贵的离散代码容量浪费在记录背景颜色、光影细节等无关信息上而忽略了“这件商品属于哪种款式”的语义特征。作者摒弃了重建目标巧妙地借用了DINO 框架一种先进的视觉自监督蒸馏技术。DINO 包含两个网络学生网络Student 和教师网络Teacher 。教师的参数是学生参数的历史指数移动平均EMA。训练目标是让学生输出的概率分布逼近教师的概率分布其中 交叉熵 用于拉近两者的表征。RQ-DINO 的魔改作者在学生网络计算出特征 后强制在其上插入一层**残差量化RQ**模块得到量化后的近似特征 。然后再送入分类头去逼近教师网络这个看似微小的改动意义极其深远由于没有了像素重建损失且 DINO 天生致力于提取全局级的高级语义如物体的轮廓、类别、风格模型被强制在保留高级语义的前提下自发地寻找到最优的离散化层级结构。这一模块直接拔高了图像特征在推荐中的含金量。模块二约束序列训练 (Constrained Training)我们再来细看前文提到的解决“捷径学习”的约束训练机制。在标准的自回归生成如 GPT 系列中预测第 个层级代码时的损失函数是全局 Softmax其中 是整个词表 是正确代码的 Logit。模型为了降低损失不仅需要提高正确代码的得分还要压低所有错误代码的得分。但在推荐系统中大量代码组合在现实中是“空”的即没有任何商品被分配给这段代码组合。如果在训练时让模型去压低这些“空”组合的得分本质上是在浪费模型的拟合能力去记忆数据库结构也就是所谓的“捷径学习Shortcut Learning”。约束 Softmax作者预先构建了一棵包含所有真实商品代码路径的前缀树 。给定已经生成的前缀代码序列 我们可以查树得到当前节点所有合法的孩子节点集合Permissible Next Codes记作 。训练时的损失函数被严格修改为公式分母中的求和范围从“整个词表 ”剧减为了“仅限合法的孩子节点”。这种对解空间的硬约束使得模型不再去记忆哪些代码不存在而是全心全意对真正存在的商品候选项进行精确的打分排序这也是 MSC-GRec 能够斩获极高 Recall1 的秘密武器。模块三层级与模态感知的双重位置编码 (Adapted Position Embeddings)在自然语言处理中T5 模型通常使用相对位置编码来感知距离。但在 MSC-GRec 的多模态序列中每个商品由多个模态组成每个模态又由多层代码Level 1, Level 2…组成。传统的对数分箱Logarithmically Spaced Bins相对位置编码无法理解这种复杂的结构嵌套。为此作者设计了双重相对位置编码机制跨商品位置编码Across-items用于感知两个代码在交互历史中属于第几个不同的商品宏观时间跨度。商品内位置编码Within-items用于感知两个代码在同一个商品内部处于何种模态、何种量化层级微观结构关系。两者相加作为最终的相对位置偏置注入注意力机制极大增强了 Transformer 对复杂代码结构的理解能力。五、实验结果与分析为了证明 MSC-GRec 的统治力作者在三个超大规模真实数据集上进行了极为硬核的评测。这不仅是学术验证更是直指工业级落地的压力测试。1. 实验数据集的“巨大化”不同于以往生成式推荐论文只在几十万条日志的极小数据集上测试本文选用了规模大一个数量级的工业级数据•Amazon Beauty (2023 最新版)拥有 72 万用户超 20 万商品642 万次交互。•Amazon Sports (2023 最新版)拥有 40 万用户超 15 万商品343 万次交互。•PixelRec这是一个专门针对图像推荐的庞大数据集拥有惊人的888 万用户40 万商品高达 1.58 亿次交互且极其稀疏99.996%。2. 突破历史时刻首个击败 SASRec 的生成式模型在推荐系统学术界有一个著名的“痛点”尽管花里胡哨的新模型层出不穷但只要把超参数调好极其简单暴力的 SASRec基于 ID 的纯自注意力序列模型往往能碾压一切特别是在商品库巨大时。实验结果见论文 Table 2极其振奋人心•对阵生成式基线模型MSC-GRec 表现出断崖式的领先。在 Amazon Beauty 上它的 Recall10 比表现最好的生成式对手ETEGRec高出10.9%NDCG10 高出12.0%。在图像主导的极大数据集 PixelRec 上其 Recall10 甚至比基线高出了恐怖的33.6%。这证明了多模态联合输入远胜于试图将模态强行对齐对冲的过往方案。•对阵最强序列模型 SASRecMSC-GRec 成为首个在大规模数据集上全面超越 SASRec 的生成式推荐方法。特别是在严格的排名指标 Recall1精准预测下一个商品上在 PixelRec 数据集中SASRec 仅为 0.0044而 MSC-GRec 达到了 0.0066相对提升超过50%。为什么会有这样的结果因为 MSC-GRec 相当于“站在了 SASRec 的肩膀上”。传统的 SASRec 虽然强但面对长尾物品容易受制于纯基于共现频率的稀疏性。MSC-GRec 将 SASRec 的输出提炼为离散代码作为“协同模态”同时输入给大模型极其丰富的文本和图像语义代码。当大模型遇到长尾新商品时协同模态的代码可能很模糊但图像和文本模态提供了坚实的语义支撑使得泛化预测成为可能。并且MSC-GRec 仅使用离散代码表述商品这就彻底解决了 SASRec 无法突破的“百 GB 级内存墙”问题。3. Ablation Study剖析模块的真正价值沙普利值分析为了严谨地证明“多模态”不是在堆砌特征作者借用了博弈论中的**沙普利值Shapley Values**来量化每一种模态对最终收益的绝对贡献。• 分析表明协同过滤Collaborative模态依然是推荐系统的主力军其对性能的贡献占比最大。• 但是即使剥离协同信号仅保留文本和图像MSC-GRec 的表现依然超越了目前所有的纯生成式推荐 Baseline。文本和图像展示了显著且正交的贡献价值证明了框架对多模态信息的有效融合与抗残缺Missing Modalities鲁棒性。在图像提取方式对比中Table 3c使用作者独创的RQ-DINO进行端到端自监督量化其指标显著高于传统的“先用 DINO 提取特征再用 RQ 进行后置量化Post-hoc”。这印证了我们之前的分析将量化约束直接写入网络的前向传播中有助于大模型主动丢弃对于推荐无用的高频像素噪声专心提炼意图语义。学AI大模型的正确顺序千万不要搞错了2026年AI风口已来各行各业的AI渗透肉眼可见超多公司要么转型做AI相关产品要么高薪挖AI技术人才机遇直接摆在眼前有往AI方向发展或者本身有后端编程基础的朋友直接冲AI大模型应用开发转岗超合适就算暂时不打算转岗了解大模型、RAG、Prompt、Agent这些热门概念能上手做简单项目也绝对是求职加分王给大家整理了超全最新的AI大模型应用开发学习清单和资料手把手帮你快速入门学习路线:✅大模型基础认知—大模型核心原理、发展历程、主流模型GPT、文心一言等特点解析✅核心技术模块—RAG检索增强生成、Prompt工程实战、Agent智能体开发逻辑✅开发基础能力—Python进阶、API接口调用、大模型开发框架LangChain等实操✅应用场景开发—智能问答系统、企业知识库、AIGC内容生成工具、行业定制化大模型应用✅项目落地流程—需求拆解、技术选型、模型调优、测试上线、运维迭代✅面试求职冲刺—岗位JD解析、简历AI项目包装、高频面试题汇总、模拟面经以上6大模块看似清晰好上手实则每个部分都有扎实的核心内容需要吃透我把大模型的学习全流程已经整理好了抓住AI时代风口轻松解锁职业新可能希望大家都能把握机遇实现薪资/职业跃迁这份完整版的大模型 AI 学习资料已经上传CSDN朋友们如果需要可以微信扫描下方CSDN官方认证二维码免费领取【保证100%免费】

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2445393.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…