【第三十七周】论文阅读03

news2026/3/23 16:00:34
文章目录摘要Abstract一、《LLaVA-Scissor: Token Compression with Semantic Connected Components for Video LLMs》1. 摘要2. 介绍3. 相关工作4. Llava-删除5. 实验5.1 压缩类型5.2 令牌压缩中的递减规律二、FastVLM: Efficient Vision Encoding for Vision Language Models1. 摘要2. 介绍3. 结构3.1 FastViT作为图像编码器3.1.1 视觉编码器与语言解码器的协同作用3.1.2 静态分辨率 vs. 动态分辨率3.1.3 与Token剪枝/下采样方法的对比3.2 FastViTHD: 为高分辨率VLM量身定制的新编码器3.3 架构图三、Question-Guided Visual Token Compression in MLLMs for Efficient VQA Qg-Vtc1. 摘要2. 介绍3. 相关工作4. 方法4.1 概述4.2 压缩模块4.3 视觉编码器4.4 分层压缩策略4.5 模型架构:四、《Glyph Scaling Context Windows via Visual-Text Compression》1. 摘要2. 介绍3. 相关工作4. 方法4.1 任务定义4.2 持续预训练Continual Pre-training4.3 LLM驱动的渲染搜索LLM-Driven Rendering Search4.4 后训练Post-Training让模型“适应”压缩后的输入4.5 GLyph模型的流程总结摘要本周主要阅读了视觉token压缩的四篇论文压缩发方法为语义感知合并编码器优化和查询引导压缩。其中《LLaVA-Scissor: Token Compression with Semantic Connected Components for Video LLMs》属于语义感知合并即基于语义连通组件或对象级表征进行合并符合人类视觉认知系统减少幻觉。《FastVLM: Efficient Vision Encoding for Vision Language Models》属于编码器优化优化视觉编码器本身的效率 从源头减少token生成数量。《Question-Guided Visual Token Compression in MLLMs for Efficient VQA Qg-Vtc》和《Glyph Scaling Context Windows via Visual-Text Compression》 属于查询引导压缩利用用户指令/问题作为条件引导压缩过程同时保留任务相关关键信息实现“按需压缩”。AbstractThis week, I mainly read four papers on visual token compression. The compression methods covered include semantic-aware merging, encoder optimization, and query-guided compression.Among them, 《LLaVA-Scissor: Token Compression with Semantic Connected Components for Video LLMs》 falls into semantic-aware merging. It performs token merging based on semantic connected components or object-level representations, which aligns with the human visual cognitive system and reduces hallucinations.《FastVLM: Efficient Vision Encoding for Vision Language Models》 belongs to encoder optimization. It improves the efficiency of the vision encoder itself and reduces the number of generated tokens from the source.《Question-Guided Visual Token Compression in MLLMs for Efficient VQA (Qg-Vtc)》and 《Glyph Scaling Context Windows via Visual-Text Compression》 are categorized as query-guided compression. These methods use user instructions or questions as conditions to guide the compression process, while preserving task-relevant key information to achieve “on-demand compression”.一、《LLaVA-Scissor: Token Compression with Semantic Connected Components for Video LLMs》1. 摘要本文提出了一种针对视频多模态大型语言模型设计的免训练token压缩策略LLaVA -删除。以往的方法大多尝试基于注意力分数压缩标记但未能有效捕获所有语义区域往往导致标记冗余。我们提出使用语义连接组件( SCC )的方法将token分配到token集合中不同的语义区域以确保全面的语义覆盖。结果是一个两步时空token压缩策略在空间域和时间域都使用SCC。该策略通过用一组互不重叠的语义token来表示整个视频可以有效地压缩token。2. 介绍不同token压缩范式的说明。□每个格子表示视频token颜色代表不同的语义。( a )基于注意力机制的方法不能覆盖所有的语义区域。( b )基于分段的方法通过叠加每个分段的token来引入时间冗余。( c )我们的两步时空压缩策略能够在每一帧中识别独特的语义信息并消除时间冗余从而产生不重叠的视频token。论文主要贡献指出现有的基于注意力分数的方法不能完全表示整个token集并提出了语义连接组件( SCC )一种捕获token集中所有不同语义区域的token压缩策略。提出了LLaVA -删除一种为视频MLLMs设计的两步时空token压缩可以生成更全面和有效的视频内容表示。实验表明在各种视频理解基准上LLaVA -删除优于其他token压缩方法。3. 相关工作介绍1视觉大语言模型并且讲述当代视觉大语言模型存在的问题处理长视频的计算效率不理想2现存多模态大语言模型token压缩的方法存在的问题忽略时间冗余以及语义相似的信息可能在时间上不相邻或空间上不一致的事实导致在堆叠来自每个片段的标记时产生冗余而LLaVA -删除在空间和时间上都执行token压缩注1空间不一定一致一辆飞驰的汽车它可以从画面左侧到右侧此时汽车对象不变但是位置发生变化。2传统的视频压缩方法存在一个隐含的错误假设它们假设相同的东西会出现在固定的位置或者时间上相邻的帧里内容变化不大导致它们无法很好地处理物体的运动最终会造成信息冗余重复计算了没动的背景或者信息丢失漏掉了移动的物体。4. Llava-删除语义连通组件Semantic Connected Components, SCC核心思想通过计算token之间的相似度构建一个图结构将token视为节点相似度高于阈值则连边然后找出图中的连通组件每个组件代表一个独特的语义区域。连通组件类似连通图内部任意两节点都可以相连代价或多或少。由此可知连通组件内部语义相同每个组件代表一个独特语义区。优势不依赖空间位置能捕捉全局语义关系保证不同语义区域之间无重叠语义覆盖更全面每个组件只保留一个代表性token实现压缩。两步时空压缩策略1空间压缩对每一帧单独应用SCC提取该帧内所有独特的语义区域得到每帧的代表性token集。2时间压缩将所有帧的代表性token拼接后再次应用SCC去除跨帧重复的语义信息得到最终的非重叠语义token集。3最终合并将原始所有token与最终代表性token进行相似度匹配合并到最相似的语义组件中得到最终的压缩token序列。5. 实验5.1 压缩类型我们对LLaVA -删除的token压缩能力进行了广泛的评估包括视频问答、长视频理解和综合多选题等多个视频理解基准。实验结果表明本文提出的LLaVA -删除优于其他token压缩方法在各种视频理解基准中取得了优异的性能尤其是在低token保持率下。视频问答长视频理解综合多选题主要实验方法消融实验控制变量法实验相关参数分析相似度阈值 τ对压缩后令牌数量的影响τ 越低压缩越强令牌数减少。分析误差容忍度 ϵ 对连通组件计算的影响ϵ≤0.05时组件数趋于稳定因此设为0.05。5.2 令牌压缩中的递减规律冗余性验证在保留比例从90%降至35%时多数方法性能与原模型接近甚至均匀采样也仅小幅下降说明视频令牌存在大量冗余。保留比例整个视频经过压缩后最终保留下来的令牌总数占原始输入令牌总数的百分比。语义损失分析当保留比例低于35%如10%、3%所有方法性能急剧下降但LLaVA-Scissor的下降幅度最小。例如在3%保留时LLaVA-Scissor仍保持86.8%的原始性能比FastV高出6.1%证明其能更好地保留关键语义。二、FastVLM: Efficient Vision Encoding for Vision Language Models1. 摘要对图像分辨率、视觉编码延迟、视觉token数量以及大语言模型大小之间的相互影响进行了全面的效率分析并在此基础上提出了FastVLM。该模型的核心是一个名为FastViTHD的新型混合视觉编码器它专为高分辨率图像设计能够输出更少的视觉token并显著缩短编码时间。FastVLM通过直接缩放输入图像就能在视觉token数量与图像分辨率之间达到最佳平衡无需额外的token剪枝简化了模型设计。性能表现在LLaVA-1.5的设置下与之前的工作相比FastVLM在保持相似性能的同时将首 token 生成时间TTFT 提升了3.2倍。与最高分辨率下的LLaVA-OneVision相比在使用相同的0.5B LLM时FastVLM在关键基准测试上取得了更好的性能且TTFT提升了85倍视觉编码器尺寸缩小了3.4倍。2. 介绍现存的问题1高分辨率图像导致视觉 token 数量激增增加 LLM 预填充时间2视觉编码器本身在高分辨率下延迟高3现有方法虽然提升分辨率但引入额外延迟和语义断裂。主要贡献1提出FastViTHD视觉编码器混合架构卷积 Transformer通过额外的下采样阶段生成更少的视觉token显著降低LLM预填充时间。2系统性分析VLM的精度-延迟权衡综合考虑视觉编码延迟 LLM预填充时间在实际硬件上进行基准测试。提出Pareto最优曲线指导不同LLM大小与分辨率的组合选择。3多尺度特征融合与训练策略优化引入多阶段训练Stage 1: 投影层训练Stage 1.5: 分辨率适应Stage 2: 指令微调Stage 3: 高质量指令微调。使用深度可分离卷积DWConv融合多尺度特征提升性能。4显著的效率提升在多个VLM基准上表现更优3. 结构首先探索采用FastViT混合视觉编码器进行视觉语言建模。然后我们引入架构干预来提高VLM任务的表现。本文提出了一种新的混合视觉编码器Fast Vi THD用于实现高效的高分辨率VLM。3.1 FastViT作为图像编码器核心发现1混合架构是天然的“好苗子”。FastViT一种混合了卷积和Transformer的架构作为视觉编码器优势1分辨率可扩展其卷积组件使其能很好地适应不同分辨率的输入2Token效率高由于卷积的下采样特性在相同输入分辨率下它生成的token数量远少于ViT。3在 768 分辨率下性能优于 ViT-L/14 在 336 分辨率的表现。核心发现2多尺度特征融合能“再加分”1提取不同阶段的特征2使用深度可分离卷积DWConv进行融合可以补充最后层的高层语义特征提升性能。小结: 一个设计良好的混合架构FastViT在VLM任务中相比传统的ViT已经展现出了显著的“速度-性能”优势。通过简单的多尺度融合还能再进一步提升。3.1.1 视觉编码器与语言解码器的协同作用VLM中的精度-延迟权衡受到多种因素的影响。一方面VLM的整体性能取决于( 1 )输入图像的分辨率( 2 )视觉令牌的数量和质量( 3 ) LLM的性能。实验将FastViT和FastViTHD分别与三种不同大小的LLM (Qwen2-0.5B/1.5B/7B) 和多种分辨率配对绘制出每个视觉编码器的Pareto最优曲线结论1FastViTHD全方面优于FastViT2揭示了最优搭配规律例如曲线显示对于小LLM一味提高分辨率收益不大因为视觉编码延迟会占主导图5也佐证了这一点。FastViTHD为不同LLM找到了最佳的分辨率“甜点”。3.1.2 静态分辨率 vs. 动态分辨率静态分辨率模型只接受一种固定尺寸的输入。无论你给的原始图片有多大或多小模型都会通过缩放Resize的方式把它变成这个固定的尺寸再进行处理。动态分辨率根据输入图像的原始尺寸和长宽比动态地调整处理方式最常见的就是我们之前聊过的瓦片推理瓦片推理切割编码拼接。将图片切成多个大小相同的小块瓦片将每个瓦片分别送入视觉编码器将编码器的分辨率设置为瓦片大小进行处理最后模型会将这些瓦片产生的视觉token按照原来的位置拼接起来形成对整张图的理解供LLM使用。结论直接将模型的输入分辨率设置为期望分辨率可以提供最好的精度-延迟平衡。 如果需要动态分辨率使用更少的瓦片设置会表现出更好的精度-延迟权衡。3.1.3 与Token剪枝/下采样方法的对比FastViTHD减少token的方式架构性下采样与近年来流行的“先多生成token再剪枝”的方法相比孰优孰劣结论:1架构性下采样完胜FastViTHD通过训练在低分辨率下取得的性能就已经超过了绝大多数剪枝方法在高分辨率下的性能。2“少而精”优于“多而剪”与其先生成大量token再费力剪枝不如从一开始就通过精心设计的架构生成高质量、低数量的token。3.2 FastViTHD: 为高分辨率VLM量身定制的新编码器设计目标更低延迟 更少 token核心设计1极致地下采样生成极少的Token思路VLM的延迟由“视觉编码延迟”和“LLM预填充延迟”两部分组成。FastViTHD的设计目标是同时降低这两者。降低视觉编码延迟通过高效的卷积和优化的架构设计实现。降低LLM预填充延迟通过生成更少的视觉token实现。创新点增加一个下采样阶段通常有4个阶段总下采样倍率为16。FastViTHD引入了第5个阶段将总下采样倍率提升到了64下采样阶段核心设计2混合阶段各司其职3.3 架构图三、Question-Guided Visual Token Compression in MLLMs for Efficient VQA Qg-Vtc1. 摘要多模态大预言模型视觉问答任务中 集成视觉信息增加了处理令牌的数量导致更高的GPU内存使用量和计算开销。图像较文本有更多冗余并且并非所有细节为有效信息。方法介绍QG - VTC一种新颖的问题引导视觉令牌压缩方法用于基于MLLM的视觉问答任务。QG - VTC使用一个预训练的文本编码器和一个可学习的前馈层将用户问题嵌入到视觉编码器的特征空间中然后计算问题嵌入和视觉令牌之间的相关性得分最后通过选择最相关的令牌并对其他令牌进行软压缩。优势该方法仅使用1 / 8的视觉令牌就可以达到与未压缩模型相当的性能并且保证了与用户需求的微调相关性。2. 介绍本文的贡献总结如下提出了一种问题引导的视觉令牌压缩方法QG - VTC。它根据用户的问题选择性地保留最相关的视觉令牌并使用加权平均的方法合并相关性较低的视觉令牌。该方法在尽可能减少图像信息损失的情况下大幅减少了令牌数量。我们的方法使用分层策略将问题引导的视觉令牌压缩模块集成到视觉编码器中。该方法在保留局部图像细节的同时利用了深层的、语义丰富的信息减少了LLM和视觉编码器本身的计算负荷。通过大量实验我们在多个基准上获得了最先进SOTAState-Of-The-Art结果。值得注意的是我们仅用1 / 8的视觉令牌和大约30 %的原始计算负载来匹配性能。3. 相关工作对现有压缩方法进行介绍得出现有方法的局限性。同时较现有方法QG-VTC的优势在于1问题引导QG-VTC是第一个在视觉编码器内部引入用户问题作为压缩依据的方法。2压缩位置QG-VTC实现了视觉编码器内部的分层压缩从而在减少LLM负担的同时也大幅降低了视觉编码器自身的计算量。3软压缩机制相比于直接剪枝QG-VTC采用注意力分数加权的软回收方式进一步减少了信息丢失。软回收把不太相关图片的残余有用信息融合到保留的标记中4. 方法4.1 概述QG - VTC它通过基于用户问题的分层压缩方法来减少视觉编码器中的视觉令牌。方法本质上是利用用户问题的特征向量在视觉编码器的多层中动态筛选出最相关的视觉标记并将其他低相关标记的有效信息融合到这些保留的标记中从而实现精细化的压缩。通过这种多次的、精细的筛选与融合最终只留下一小部分与问题高度相关的视觉标记同时最大程度地避免了重要信息的丢失4.2 压缩模块在具体的Transformer层内部QG-VTC是如何利用用户问题来减少视觉令牌数量的。流程1输入视觉token与文本查询2自注意力计算计算每个视觉token对其他所有token的关注程度得到注意力分数矩阵A3计算问题与视觉token的相关性得到相关性分数C4划分token根据相关性分数C对所有视觉token进行划分保留组令牌总是保留加上 C 分数最高的前 n 个视觉令牌。压缩组剩下的 m 个相关性最低的视觉令牌。5软压缩公式说明对于保留组中的某个令牌i它要从压缩组的每个令牌j 那里回收一部分信息回收的权重就是原来令牌i对令牌j的注意力大小 A(i,j)A(i,j)。这样即便某个图像块整体上与问题不相关它包含的少量有用细节比如背景颜色也能通过注意力机制被补充到关键区域去。6输出保留组的n n1 个token4.3 视觉编码器压缩位置的选择浅层与深层4.4 分层压缩策略策略优势如下1压缩平滑避免了一次性大幅压缩带来的信息断崖式丢失。2信息交互在两个压缩层之间插入一个普通层如13层让被压缩和融合后的新令牌有机会再次进行全局交互为下一轮更精细的筛选做准备。3减少编码器负担由于在编码器的中间层就开始减少令牌数量后续层的计算量特别是自注意力的二次计算部分会显著下降从而节省了视觉编码器自身的计算资源4.5 模型架构:模型的计算细节四、《Glyph Scaling Context Windows via Visual-Text Compression》1. 摘要Glyph框架将长文本渲染成图像并使用视觉语言模型( VLMs )对其进行处理。 该方法在保留语义信息的同时大幅压缩了文本输入我们设计了一个LLM驱动的遗传搜索来确定最佳的视觉渲染配置以平衡精度和压缩。通过大量的实验证明了该方法实现了3 - 4倍的令牌压缩同时保持了精度。这种压缩也导致大约4 ×快的预填充和解码以及大约2 ×快的SFT训练。2. 介绍主要贡献1新范式提出首次系统性地将视觉压缩引入长上下文建模2自动渲染搜索设计了LLM驱动的遗传搜索算法自动找到最优渲染配置兼顾压缩与性能。3显著的效率提升压缩比达 3-4倍预填充速度提升 4.8倍解码速度提升 4.4倍SFT训练速度提升约 2倍4跨模态泛化能力即使训练数据以渲染文本为主Glyph在实际文档理解任务中仍表现优异3. 相关工作1长上下文建模通过对注意力位置编码插值等进行改进如优化数据微调来扩展模型上下文窗口降低长序列的计算复杂度。方法局限性并未减少输入Token数量2多模态大语言模型关注多模态视觉-语言模型的发展由早期注重将视觉信息和语言模型进行结合到提升提升编码能力使模型具备信息压缩潜力OCR一个token可以承载多个文字4. 方法Glyph包括3个主要阶段对渲染的长文本数据进行持续的预训练LLM驱动的遗传搜索最优渲染配置以及使用SFT、RL进行后训练。这些阶段共同实现了高效的长上下文建模和视觉-文本压缩。4.1 任务定义任务形式转变由于上下文太长因此直接转变为页面图片进行理解C—V此时原本三元组变为目标变为渲染管道文本排版样式和视觉密度由【分辨率页面尺寸字体样式字体大小缩进方式…等】参数决定渲染过程由配置向量θ控制压缩比θ 的选择直接影响信息密度通过字体大小、dpi和视觉清晰度通过布局、间距从而在压缩率与模型可读性之间取得平衡。4.2 持续预训练Continual Pre-training将大量长文本渲染为多种风格的图像如文档风格、网页风格、代码风格等训练VLM理解这些“视觉文本”使图片与原文本语义对齐。数据构建多样化的渲染配置将文本渲染成多种图片样式避免风格单一排除不合理配置如行高小于字体大小等无效组合预定义风格主题包含三类任务三类任务联合训练使模型具备在视觉压缩上下文下的阅读、推理和生成能力1OCR任务从图像中重构文本2交错语言建模部分文本渲染为图片剩余仍为文本3生成任务根据部分图像模型补全缺失内容。4.3 LLM驱动的渲染搜索LLM-Driven Rendering Search虽然预训练使用多种渲染样式但是下游任务仍具有特定偏好因此使用遗传算法搜索最优的渲染参数θ以在压缩率与模型性能之间取得最佳平衡。遗传算法流程1初始化种群从预训练使用的渲染配置中随机采样一批候选配置 。2渲染验证集用每个候选配置将验证集一组长文本渲染成图像。3评估使用当前模型Glyph-Base对渲染后的数据进行推理记录每个配置下的任务准确率和压缩比。4LLM分析与建议利用一个强大的LLM分析当前种群配置与性能的关系提出有价值的变异和交叉策略生成新一代候选配置。5记录与选择将所有配置及其性能记录在搜索历史中根据性能排名采样优秀配置进入下一次遗传算法。算法迭代进行直到种群收敛连续若干代无明显性能提升。最终得到最优配置 θ 。这种LLM驱动的搜索能自动平衡压缩率和模型性能比人工或随机调参更高效。4.4 后训练Post-Training让模型“适应”压缩后的输入确定θ后此时模型已经看得懂图像进一步优化使模型能够在图像上完成文本任务。包含三种优化方式1监督微调SFT教会模型“怎么答”让模型从“会读”变成“会答”使用最优渲染配置θ生成训练数据并引入“思考式”推理格式如 …让训练模型学会输入图像 经过推理得到 输出答案的映射。2强化学习RL教会模型“答得更好”SFT数据中不一定包含最优回答模型可能答对了但推理过程混乱或格式不符合要求。用强化学习直接优化最终答案质量。采用GRPO算法让模型自己生成多个候选答案用外部LLM评分准确率格式奖励告诉模型什么样的答案更好。3辅助OCR对齐任务让模型“看得清”压缩后的字而不是“猜”字增强模型对图像中文字的识别能力防止模型在追求压缩时牺牲文字识别精度。4.5 GLyph模型的流程总结四篇论文均聚焦多模态模型的token 压缩从不同维度提升效率LLaVA-Scissor面向视频 LLM提出免训练的语义连通分量SCC 时空两步压缩先单帧空间语义聚类再跨帧去时间冗余保留完整语义。FastVLM提出FastViTHD混合视觉编码器以卷积 Transformer 架构级下采样减少高分辨率图像 token 与编码延迟无需额外剪枝推理速度提升 3.2 倍。Qg-VTC针对 VQA问题引导压缩用文本编码器嵌入问题筛选与问题相关的视觉 token降低无关信息开销。Glyph创新视觉 - 文本压缩将长文本渲染为图像用 VLM 处理配合 LLM 驱动的遗传搜索优化渲染实现 3–4 倍 token 压缩扩展上下文窗口。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2440884.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…