多模态对话:结合视觉、语音与文本的交互理解

news2026/4/16 16:20:22
点击“AladdinEdu你的AI学习实践工作坊”注册即送-H卡级别算力沉浸式云原生集成开发环境80G大显存多卡并行按量弹性计费教育用户更享超低价。第一章 引言从单一通道到全感官交互人类之间的自然对话从来不是纯文本的。当我们面对面交流时我们不仅倾听对方的言语内容还同时处理着丰富的副语言信息语调的抑扬顿挫传递着情绪的温度面部的微表情透露着真实的态度手势的指向锚定着谈论的对象甚至环境的背景音也在为对话提供上下文。这种多通道、多模态的信息融合构成了人类高效、鲁棒且充满情感色彩的沟通方式。反观人工智能领域对话系统的发展长期沿着单模态的路径演进。早期的ELIZA、基于检索的 chatbots到后来的Transformer基座模型如GPT系列本质上都是纯文本的对话智能体。语音助手如Siri、Alexa虽然支持语音交互但其内部核心依然是“语音转文本ASR→ 文本对话 → 文本转语音TTS”的管道式架构语音与文本模态之间是割裂的副语言信息如笑声、停顿、重音在处理过程中被大量丢弃。而视觉信息则长期被排除在对话系统之外直到最近几年才随着多模态大模型的兴起而开始被整合。多模态对话Multimodal Dialogue旨在打破模态壁垒让对话系统能够像人类一样同时理解并生成视觉、语音、文本三种核心模态的信息。这不仅是技术能力的自然延伸更是交互体验的质变需求场景理解的升维当用户指着窗外说“那栋楼的设计真特别”纯文本系统只能回答“请问您指的是哪栋楼”而多模态系统通过摄像头捕捉指向手势和视野画面可以直接理解指代对象并回应“确实它的流线型外立面很有未来感”。情感计算的深化纯文本的“我很好”可能掩盖语音中低落的语调多模态系统能够感知这种不一致并以更恰当的方式给予情感支持。信息表达的丰富当询问“故宫的九龙壁在哪里”时系统不仅可以用语言描述位置还可以直接展示一张地图截图或实景照片甚至播放一段解说语音。从技术演进视角看多模态对话正站在三条技术路线的交汇点上视觉-语言预训练VLP的突破CLIP、ALBEF、BLIP-2等模型实现了图像与文本在统一语义空间的对齐。语音-文本联合建模的进展Whisper、AudioLM、Qwen-Audio等模型打破了ASR管道的瓶颈能够保留并利用副语言特征。多模态大语言模型MLLM的崛起GPT-4V、LLaVA、Qwen-VL等模型将视觉编码器与LLM对齐使对话系统获得了“看图说话”和“视情应答”的能力。本文将围绕多模态对话的理解、融合与生成三大核心环节构建一幅从理论到实践的完整技术地图。我们将深入探讨多模态感知编码、跨模态对齐融合、多模态对话状态管理、以及面向真实场景的应用落地挑战。第二章 多模态对话系统的架构全景与传统的纯文本任务型对话管道不同多模态对话系统需要处理异步、异构、非结构化的多种输入流其架构设计面临着独特的挑战。2.1 经典管道架构及其多模态扩展传统的任务型对话管道为ASR → NLU → DST → DPL → NLG → TTS。在多模态场景下这一管道需要被扩展为多模态输入并行处理的架构[视觉流] 摄像头图像 → 视觉编码器 → 视觉特征 [语音流] 麦克风音频 → 语音编码器 → 语音特征含副语言 转写文本 [文本流] 聊天框输入 → 文本编码器 → 文本特征 ↓ (跨模态融合层) [多模态联合表示] ↓ [多模态对话理解] (MM-NLU MM-DST) ↓ [多模态对话策略] (MM-DPL) ↓ [多模态回复生成] (文本回复 图片选择/生成 语音合成)这种管道架构的优点在于模块化与可解释性各模块可独立优化和替换。但缺点也显而易见误差传播视觉识别错误会导致DST错误、灵活性受限难以处理模态间的隐式关联。2.2 端到端多模态对话模型受LLM统一建模思想的启发研究者开始探索端到端多模态对话模型。这类模型将图像、语音、文本序列化为统一的Token序列输入到一个Transformer解码器中直接生成文本回复或控制指令。代表性工作FlamingoDeepMind提出的视觉语言模型通过Perceiver Resampler将视觉特征压缩为固定数量的Token与文本Token交错输入LLM。AnyGPT统一处理文本、图像、语音、音乐的任意模态到任意模态生成。Next-GPT采用模态特定的编码器和解码器通过LLM作为中央调度器连接各模态。核心优势避免了管道架构的刚性能够端到端地学习模态间的隐式关联对训练数据中的噪声更具鲁棒性。实际挑战计算成本极高、幻觉问题跨模态放大模型可能“看到”不存在的东西并据此回答、可控性差难以精确干预模型的视觉注意力区域。2.3 混合架构工业落地的务实之选在当前的工业实践中混合架构是平衡性能、成本与可控性的主流选择单模态专家模型预处理利用成熟的ASR引擎完成语音转写同时保留音视频特征用于情感分析利用成熟的目标检测模型提取图像中的显著物体和文字。多模态大模型核心调度将预处理后的结构化/半结构化信息文本、物体标签、OCR文字、情感分数输入MLLM进行综合理解和回复生成。后处理安全围栏对生成的文本和图像进行合规检查过滤不当内容。这种架构最大限度地利用了现有成熟技术栈同时借助MLLM的强大推理能力处理复杂的跨模态关联是目前落地最快、风险最低的路径。第三章 多模态感知与编码让机器“看到”与“听到”多模态对话的第一步是将连续的物理世界信号光子、声波转化为可供神经网络计算的离散表征。3.1 视觉编码从像素到语义视觉输入通常包含两种类型静态图像如用户上传的照片和动态视频流如视频通话中的实时画面。编码的目标是提取与对话相关的视觉语义信息。3.1.1 基于CNN的经典视觉骨干网络在ViTVision Transformer普及之前ResNet、EfficientNet等CNN网络是视觉编码的标准选择。它们通过堆叠的卷积层和下采样操作将一张 ( H \times W \times 3 ) 的图像压缩为一个 ( h \times w \times d ) 的特征图Feature Map其中每个空间位置对应原图一个感受野的向量表示。用途提取局部纹理、边缘、物体部件特征。局限缺乏全局感受野难以捕捉长距离依赖关系如“左边的狗比右边的猫大”。3.1.2 Vision Transformer (ViT)ViT将图像分割为固定大小的Patches如16x16像素块将每个Patch线性投影为向量并加上位置编码然后送入标准Transformer编码器。优势自注意力机制天然具有全局感受野能够更好地建模物体间的空间关系这对理解“指着某物”的对话场景至关重要。变体Swin Transformer引入了窗口注意力和移位窗口机制在保持全局建模能力的同时显著降低了计算复杂度是当前MLLM中最常用的视觉编码器之一。3.1.3 面向对话的视觉特征需求并非所有视觉细节都对对话有用。例如用户问“这是什么品种的狗”模型需要聚焦于狗的细粒度分类特征用户问“这张照片是在哪里拍的”模型需要关注背景地标和环境线索。因此多模态对话中的视觉编码往往需要多层次特征低层特征边缘、纹理用于图像生成或细节描述。高层语义特征物体类别、场景类型、人脸身份。文本特征OCR图像中的文字信息对对话理解往往至关重要如菜单、路牌、产品标签。在预处理阶段调用OCR引擎提取文字及其位置坐标作为额外的模态输入。3.2 语音编码超越转写的副语言信息语音不仅是文本的声学载体更是情感的载体。传统的ASR-Pipeline将语音压缩为文本丢弃了如何说的全部信息这在多模态对话中是一种巨大的信息损失。3.2.1 语音的声学特征提取原始音频波形经过预处理预加重、分帧、加窗后通常提取为梅尔频率倒谱系数MFCC或梅尔频谱图Mel-Spectrogram。这些二维特征时间帧 × 频带可以视作一张“图像”送入CNN或Transformer进行处理。3.2.2 自监督语音预训练模型受BERT启发自监督学习彻底改变了语音编码的范式。通过在海量无标注音频上进行掩码预测或对比学习模型学会了提取富含音素、说话人、情感和声学环境信息的通用语音表征。Wav2Vec 2.0 / HuBERT通过Transformer编码器将音频序列编码为与文本长度可比的隐状态序列。这些隐状态既可以被送入ASR头解码为文本也可以直接用于下游任务如情感识别、说话人分割。WhisperOpenAI提出的弱监督语音模型能够处理多语言语音识别、语音翻译和语种识别。其编码器输出的跨模态语音表征已经被证明在下游对话理解任务中优于单纯的ASR文本。3.2.3 语音编码在多模态对话中的双重角色在多模态对话中语音编码器承担两个关键使命语义提取为系统提供准确的文本内容这是对话理解的基础。副语言感知提取音量、语速、基频、音质等特征用于推断用户的情感状态愤怒、疲惫、兴奋、话轮转换意图是话已说完还是短暂停顿和强调重点哪个词被重读了。这些副语言特征向量通常会被作为额外的Token或条件偏置注入到多模态融合层或对话策略网络中。第四章 跨模态对齐与融合构建统一的语义空间多模态编码器输出的视觉特征、语音特征和文本特征处于不同的语义空间具有不同的维度和分布。跨模态融合的核心任务是将这些异构表示对齐并整合为一个统一的联合表示供后续的对话理解与生成使用。4.1 跨模态对齐建立模态间的桥梁对齐的目标是让不同模态中语义相似的实体在向量空间中彼此靠近。4.1.1 对比学习范式CLIP及其变体CLIP开创了大规模视觉-文本对比学习的先河。通过在海量图像文本描述对上训练双塔模型使得配对的图文向量具有高余弦相似度不配对的则相似度低。技术细节损失函数InfoNCE Loss对于批次内 ( N ) 个图文对最大化对角线上的正样本相似度最小化非对角线上的负样本相似度。在多模态对话中的应用CLIP对齐后的视觉编码器可以作为MLLM的“眼睛”。LLaVA、MiniGPT-4等模型均采用预训练的CLIP ViT作为视觉骨干并通过一个可学习的投影层将其输出映射到LLM的文本Embedding空间。4.1.2 跨模态注意力机制对比学习实现的是全局对齐整张图对应整句话。而对话往往涉及细粒度对齐例如“图中穿红色衣服的女孩”。这需要跨模态注意力来实现。Co-Attention视觉特征序列和文本特征序列互相计算注意力权重使得模型能够聚焦于与文本Token相关的图像区域。Cross-Attention in Transformer Decoder在Flamingo等模型中视觉特征被压缩为一组Prefix Token插入到LLM的每一层Cross-Attention中。文本Token作为Query视觉Token作为Key和Value从而在生成每个文本词时都能动态地检索相关的视觉信息。4.2 多模态融合策略何时融合根据融合发生的时机可分为早期融合、中期融合和晚期融合。融合策略操作层级优点缺点在多模态对话中的适用性早期融合输入层拼接简单直接模态交互充分对时序不对齐、采样率差异敏感适用于同步性强的多模态流如唇语识别中期融合特征层交互平衡了交互充分性与灵活性架构设计复杂计算量较大当前主流方案尤其适合Transformer架构晚期融合决策层投票各模态独立建模鲁棒性强模态间缺乏深度交互互补性差适用于模态可靠性差异大的场景如容灾备份当前多模态对话的主流融合范式是基于Transformer的中期融合视觉编码器提取Patch序列特征。语音编码器提取帧级特征。文本经过Tokenization和Embedding。三类序列通过特殊分隔符拼接为一条长序列送入LLM进行自回归生成或双向编码。Q-FormerBLIP-2的压缩融合思路为了避免过长的视觉序列导致LLM计算爆炸BLIP-2提出了Q-Former。它使用一组可学习的Query向量通过Cross-Attention从视觉编码器中抽取与文本最相关的信息压缩为固定数量如32个的Token。这是一种信息瓶颈式的高效融合。第五章 多模态对话理解NLU与DST的视觉升维当对话系统获得了“眼睛”和“耳朵”传统的NLU和DST任务被赋予了全新的内涵。5.1 多模态自然语言理解MM-NLU传统的NLU只需处理文本查询而MM-NLU需要结合视觉上下文来消解文本中的歧义。5.1.1 指代表达理解这是多模态对话中最核心的NLU子任务。用户话语中包含的代词“它”、“那个”或名词短语“红色的杯子”需要被锚定到视觉场景中的具体物体上。技术路径两阶段方法先用目标检测器提取图像中的所有候选物体Bounding Boxes 标签再将文本与每个候选物体的视觉特征标签拼接送入分类器判断是否为指代对象。这是工业界最成熟、可控性最强的方法。端到端方法基于MLLM直接向MLLM提问“请指出图中穿蓝色衬衫的人”模型通过自回归生成该物体的坐标如box[x1, y1, x2, y2]/box或分割Mask的Token序列。KOSMOS-2、Shikra等模型已经验证了这种范式的可行性。5.1.2 场景感知的意图识别同一句文本在不同视觉场景下对应完全不同的意图。场景A厨房用户说“太暗了” → 意图TurnOnLight。场景B书房看书用户说“太暗了” → 意图ComplainAboutLighting可能引发推荐台灯或调整阅读模式。MM-NLU需要将视觉场景特征场景类别、光照条件估计作为额外的条件输入意图分类器。5.2 多模态对话状态跟踪MM-DST在传统的任务型对话中DST维护的是一张槽位-值对表如destination: 北京。在多模态对话中槽值不再仅限于离散的枚举值或字符串而可能是图像片段、视频帧、音频指纹。新型槽位类型视觉槽位item_image用户要买的商品照片、face_id人脸特征向量、scene_locationGPS坐标或视觉定位特征。语音槽位voice_sample声纹特征用于身份验证或个性化TTS。技术挑战状态表示如何将高维的视觉特征向量作为状态的一部分进行存储、更新和检索状态更新逻辑用户说“不是旁边那个红色的”。系统需要理解“旁边”的空间关系在状态中执行空间推理更新视觉槽位的指向。解决方案探索显式状态机 视觉记忆库DST维护一张文本槽值表 一个图像ID或特征向量索引。当需要更新视觉槽位时调用指代表达理解模块重新锚定。隐式状态MLLM长上下文将整个对话历史包括每一轮被指代的图像裁剪块全部保留在MLLM的上下文窗口中。模型在生成回复时直接从上下文中“回忆”视觉信息。这种方法简单有效但对上下文窗口长度要求高且存在“遗忘”风险。第六章 多模态对话策略与回复生成理解之后是行动与表达。多模态对话策略需要决定说什么、展示什么、用什么语气说。6.1 多模态对话策略MM-DPL策略网络的输入是多模态状态文本槽值 视觉特征 情感分数输出是多模态对话动作Multimodal Dialogue Act。动作空间的扩展传统动作Request(槽位)、Inform(槽位值)、Confirm。多模态扩展动作ShowImage(image_id, caption)展示特定图片并配以文字说明。HighlightRegion(bbox)在用户界面上高亮某个区域如AR眼镜中圈出目标。PlayAudio(audio_id)播放一段音效或语音备忘录。AdjustSpeakingStyle(emotion)指示TTS引擎以特定情感如“温暖”、“严肃”朗读文本。策略学习范式基于规则在特定条件下触发多模态动作如查到商品后自动ShowImage。适用于确定性高的业务流程。监督学习模仿学习从人机对话日志中学习何时展示图片更有效。日志需标注用户后续行为点击、购买作为奖励信号。强化学习将“用户凝视图片时长”、“任务完成速度”作为奖励函数的一部分训练策略网络自主决定多模态动作的最佳组合。6.2 多模态回复生成回复生成是系统对外的“门面”多模态能力在此得到最直观的展现。6.2.1 文本为主、模态为辅的生成当前最稳妥的模式。MLLM生成文本回复并在特定位置插入特殊Token来触发非文本模态的生成或检索。文本 图片检索MLLM生成描述性文本同时输出一个检索Query如“埃菲尔铁塔夜景”系统后端从图库或搜索引擎返回最相关图片。文本 Emoji/贴纸MLLM在生成文本时直接输出Emoji或表情符号的文本代码由前端渲染。这是情感表达的一种低成本多模态手段。6.2.2 语音回复的副语言控制TTS不应总是用一成不变的平淡语调朗读。多模态对话系统可以根据对话状态和策略决策动态控制TTS的韵律参数。参数控制语速快/慢、音高高/低、音量大/小、停顿时长。情感TTS利用情感语音数据集训练的模型如EmotiVoice直接输入文本和目标情感标签如happy、sad生成具有相应情感色彩的语音。音色克隆对于需要强人格一致性的虚拟助手可使用少量目标说话人语音样本进行音色微调。6.2.3 图像生成作为回复当图库中没有合适图片时可以调用文生图模型如Stable Diffusion、DALL-E实时生成。应用场景“帮我画一只戴着帽子的猫” → 直接生成并展示。风险控制文生图涉及版权、偏见、敏感内容等合规风险。在工业场景中必须经过Prompt安全审核和生成图像后审核双重围栏。通常建议优先检索生成作为备选。第七章 评估体系如何衡量多模态对话的质量多模态对话的评估是一个尚未有共识的开放难题。传统单模态指标无法全面反映多模态交互的质量。7.1 任务完成度评估对于目标明确的任务型多模态对话如视觉辅助购物任务成功率依然是终极指标。但需扩展定义信息获取成功率用户关于视觉内容的问题是否被正确回答可通过多选题测试。推荐点击率系统展示的图片是否被用户点击查看详情或保存。7.2 模态协同度评估好的多模态对话不是各模态的简单堆砌而是有机协同。冗余与互补性文本和图像是互相冗余说了又展示还是互补文本描述历史图像展示现状可通过人工评判量表测量。时序一致性在视频对话中系统的高亮标注是否与语音解说在时间上精确同步7.3 自动评估指标探索CLIPScore for Diversity计算系统展示图片与对话文本的CLIP相似度评估图文相关性。EM ScoreExact Match for Visual Grounding指代表达理解任务中预测的边界框与真实标注框的交并比IoU大于0.5的比例。MLLM-as-a-Judge利用GPT-4V等强大多模态模型作为裁判对另一模型的图文联合回复进行打分。这是当前最前沿的自动化评估探索方向但其自身偏差仍需审慎对待。7.4 主流多模态对话数据集与基准数据集模态任务类型规模MMDialog文本 图像开放域多模态闲聊100万对话SIMMC 2.1文本 图像任务型购物对话家具、服饰11k对话OpenViDial 2.0文本 图像电影截图基于视觉上下文的对话生成500万轮MuSiQue文本 图像多跳视觉问答25k问答AudioCaps / Clotho音频 文本音频描述生成50k音频-描述对第八章 应用场景与工程实践8.1 具身智能与家用机器人多模态对话是家用服务机器人实现自然交互的核心。用户“把那个蓝色的杯子拿给我。” 机器人需要视觉识别“蓝色的杯子”理解“那个”的指向手势。对话如果不确定反问“是沙发旁边那个吗”执行规划抓取路径。反馈语音回复“好的给您”。8.2 无障碍辅助技术为视障人士服务的视觉问答助手如Be My AI。用户拍摄周围环境询问“前面是否有障碍物”或“这件衣服是什么颜色的”系统通过语音播报答案。这里对指代精确性和描述简洁性要求极高。8.3 智能座舱与车载助手车载场景是多模态对话的天然试验场。驾驶员视线不能离开路面主要通过语音手势与车辆交互“把空调温度调高一点”语音 手指向中控屏方向手势确认交互对象。系统通过车内摄像头识别驾驶员疲劳状态主动发起对话“您看起来有点疲惫需要为您播放提神的音乐吗”8.4 虚拟数字人与情感陪伴虚拟数字人需要结合语音语调、面部表情、肢体动作来提供沉浸式陪伴。对话系统需同时驱动语音合成说什么、怎么说。面部动画Blendshape参数如同步的口型、眉毛上扬。肢体动作挥手、点头。工程上通常采用行为树或动画状态机与对话策略联动。第九章 挑战与未来方向9.1 模态对齐的鲁棒性当前模型在理想环境下表现良好但在模态缺失如光线昏暗、模态噪声如背景嘈杂、模态冲突如笑着说悲伤的事时性能急剧下降。构建对模态扰动鲁棒的融合机制是重要研究方向。9.2 多模态幻觉问题MLLM可能会“看到”图像中并不存在的物体并据此进行对话。例如对于一张普通街道照片模型可能回答“那个路牌上写着‘长安街’”但实际上路牌模糊不清。这种多模态幻觉比纯文本幻觉危害更大因为它直接误导用户对物理世界的认知。研究检索增强生成和不确定性量化是缓解之道。9.3 隐私与算力的博弈多模态对话涉及摄像头和麦克风的持续采集隐私保护是红线。端侧多模态模型On-Device MLLM通过将视觉和语音编码器、小型LLM部署在本地设备手机、汽车域控制器实现数据不出设备是必然的技术趋势。但这要求模型在极致压缩和量化的同时保持可用的性能。9.4 持续学习与个性化每个人的家庭环境、口音、常用词汇都不同。多模态对话系统需要具备在线学习或快速适配能力在获得用户授权的前提下利用本地交互数据微调模型越用越懂用户。第十章 结语多模态对话正站在感知智能与认知智能的交汇点上。它不仅是自然语言处理、计算机视觉、语音信号处理的技术加法更是对人机交互范式的根本性重塑。当机器能够同时“看见”我们的世界、“听懂”我们的语调、“理解”我们的意图并以图文音并茂的方式回应时一种更加自然、高效、充满温度的人机关系将成为可能。希望本文能够为读者勾勒出一幅多模态对话的技术全景图并为您的探索之旅提供一份扎实的参考坐标。点击“AladdinEdu你的AI学习实践工作坊”注册即送-H卡级别算力沉浸式云原生集成开发环境80G大显存多卡并行按量弹性计费教育用户更享超低价。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2523791.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…