如何用扩散时间步令牌(DDT)让LLM真正‘看懂‘图像?一个技术拆解
如何用扩散时间步令牌DDT让LLM真正看懂图像一个技术拆解当大型语言模型LLM在文本领域展现出惊人能力时一个根本性问题始终困扰着研究者为什么同样的架构在处理图像时表现平平传统方法将图像分割为空间令牌spatial tokens但这些二维片段缺乏语言模型擅长的递归结构。扩散时间步令牌Diffusion Timestep Tokens, DDT的提出正在彻底改变这一局面。1. 为什么传统方法失败了空间令牌的根本缺陷在计算机视觉领域将图像转换为令牌序列的标准做法是通过卷积神经网络或视觉Transformer提取局部特征。这些空间令牌存在三个致命弱点缺乏递归性每个令牌独立编码局部信息无法像语言那样通过前文预测后文信息冗余相邻令牌包含大量重复的底层视觉特征模态冲突理解任务需要抽象语义生成任务需要保留细节# 传统空间令牌生成示例ViT风格 def extract_spatial_tokens(image): patches split_into_patches(image) # 通常16x16像素 tokens [encode_patch(p) for p in patches] # 独立编码每个区块 return tokens # 长度固定的无序集合对比实验显示当LLM处理256个空间令牌时指标文本序列空间令牌DDT令牌困惑度PPL12.387.615.2注意力集中度0.820.310.78序列建模准确率94%38%89%2. DDT的核心创新时间步驱动的递归视觉语言扩散模型在生成图像时会经历从噪声到清晰图像的渐进过程。DDT令牌的关键洞察在于扩散过程的每个时间步都对应特定的信息抽象层级。2.1 令牌生成机制DDT令牌的生成流程包含三个关键组件连续特征编码器将输入图像映射到潜空间向量量化VQ层产生离散令牌扩散解码器用前t个令牌重建图像递归关系表示为f_{t1}(x_0) (f_t(x_0), V_{t1})其中V_{t1}专门补偿x_{t1}较x_t丢失的属性提示这种设计使每个新令牌都建立在前序令牌基础上形成类似语言的递归结构2.2 与扩散模型的协同工作在训练阶段系统通过两个关键损失函数优化重建误差确保令牌能准确还原图像Commitment损失提升量化码本利用率实验显示DDT的码本利用率达到99%而传统VQ方法通常只有60-70%。这意味着几乎每个离散令牌都得到了有效利用。3. 实际应用统一的多模态建模框架将DDT集成到LLM中需要解决几个工程挑战3.1 词汇表扩展典型实现需要扩展原始LLM的词汇表class DDT_LLaMA(nn.Module): def __init__(self, base_llm): super().__init__() self.llm base_llm # 添加65536个视觉令牌类型 self.llm.resize_token_embeddings(base_llm.config.vocab_size 65536) self.diffusion_decoder load_pretrained_diffusion_model()3.2 两阶段训练策略预训练阶段使用200M图文对目标最小化下一个令牌预测误差指令微调阶段使用人工标注的指令数据优化任务特定表现3.3 推理流程文本提示被转换为标准文本令牌LLM自回归生成DDT令牌序列扩散解码器将令牌序列转换为图像在MagicBrush图像编辑基准测试中这种端到端方法的表现模型L1误差 ↓CVS相似度 ↑人类偏好率DDT-LLaMA7.192.4%65%MGIE8.291.1%25%UltraEdit6.688.4%10%4. 超越生成DDT在理解任务中的优势传统观念认为专用理解模型总会优于通用MLLM。但DDT打破了这一认知4.1 视觉问答VQA表现在标准VQA v2.0测试集上DDT-LLaMA66.3%准确率Emu360.3%BLIP-258.1%4.2 逐步解码的认知优势DDT支持子集解码这一独特能力使用前20%令牌恢复基本轮廓和色彩使用前50%令牌添加主要物体和纹理使用100%令牌完善细节和背景这种特性使模型能够实现渐进式图像生成支持先生成轮廓再添加细节的交互方式在计算资源有限时快速生成草图在A/B测试中当要求生成戴红帽的熊猫然后添加绿衬衫时传统方法需要两次完整生成DDT-LLaMA可通过追加令牌实现增量编辑人类评估者65%偏好DDT的结果
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2430307.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!