VoCo-LLaMA:利用大语言模型实现视觉信息语义压缩,突破多模态上下文窗口限制

news2026/5/10 17:46:50
1. 项目概述用大语言模型“压缩”视觉信息最近在折腾多模态大模型时我一直在思考一个问题视觉信息太“占地方”了。一张图片经过视觉编码器比如CLIP的ViT处理后通常会生成几百甚至上千个视觉标记vision tokens。当我们要处理视频时这个数量会呈指数级增长直接撑爆大语言模型LLM有限的上下文窗口。传统的思路是优化模型架构或者用更复杂的注意力机制但总感觉是在“螺蛳壳里做道场”治标不治本。直到我看到CVPR 2025的这篇工作——VoCo-LLaMA它提供了一个非常巧妙的思路为什么不直接让大语言模型自己来“压缩”视觉信息呢这个想法让我眼前一亮。简单来说VoCo-LLaMA的核心是训练一个LLaMA-based的模型让它学会将数百个原始的视觉标记理解并“浓缩”成一个单一的、信息密度极高的“视觉压缩标记”Vision Compression token简称VoCo token。这就像让一个语言大师看一幅画然后让他用一句话精准概括画中的核心内容与意境这句话虽然短但信息量极大。这个项目的价值在于它不仅仅是一个压缩工具更是解锁视觉-语言模型VLM上下文窗口潜力的关键。想象一下原本只能处理几张图片的模型现在可以流畅地分析一段短视频甚至更长的视觉序列这对于视频理解、长文档图文分析等场景是革命性的。我花了一些时间复现和研究了他们的代码与思路下面就把我的实践过程、核心原理的拆解以及踩过的一些坑分享给大家。2. 核心思路拆解为什么让LLM做压缩是可行的在深入代码之前我们必须先理解VoCo-LLaMA设计的底层逻辑。这不仅仅是把一堆token塞进模型那么简单。2.1 传统视觉编码的瓶颈目前主流的视觉-语言模型如LLaVA其工作流程可以概括为视觉编码输入图像通过一个冻结的视觉编码器如CLIP-ViT-L/14转换为一系列视觉标记。一张224x224的图片经过ViT处理后会得到256个视觉标记197个patch tokens 1个[CLS] token。投影对齐这些视觉标记通过一个可训练的多层感知机MLP投影层被映射到语言模型的词嵌入空间。语言模型理解投影后的视觉标记与文本指令标记拼接在一起送入大语言模型进行理解和生成。这里的瓶颈显而易见视觉标记序列太长。对于LLaVA-1.5每张图片对应256个标记。处理4张图片就需要1024个标记这几乎占满了Vicuna-7B模型2048的上下文窗口留给生成回答的空间所剩无几。处理视频更是遥不可及。2.2 VoCo-LLaMA的破局思路LLM即压缩器VoCo-LLaMA的突破性想法是既然大语言模型最终要理解这些视觉标记那么何不让它在理解的中间过程中主动学习一种更高效的表示方式这个想法基于两个关键洞察LLM具备强大的序列建模与抽象能力大语言模型在训练过程中已经学会了如何从海量文本序列中提取、抽象和归纳信息。这种能力同样可以迁移到视觉标记序列上。视觉标记虽然来自图像但在投影到语言空间后对LLM来说它们就是一种特殊的“外语”序列。存在信息冗余连续的视觉标记之间包含大量的空间和语义冗余。相邻的patch可能描述的是同一物体的一部分LLM完全有能力推断出这些局部信息属于一个整体并用一个更高级的概念token来代表。因此VoCo-LLaMA的做法是在投影层之后大语言模型之前插入一个“压缩阶段”。这个阶段由LLM自身的一部分层来承担。模型被训练成读入一长串原始的投影视觉标记经过若干层Transformer块的处理后输出一个固定长度的、极短的VoCo标记序列例如将256个token压缩为1个或4个。这个短序列承载了原始长序列的绝大部分语义信息。关键理解这不同于传统的编码-解码压缩如JPEG。这是一种“语义压缩”或“理解性压缩”。目标是保留对后续语言生成任务最关键的信息而不是像素级的保真度。就像我们记笔记是用关键词代替长篇大论。2.3 模型架构与训练策略VoCo-LLaMA基于LLaVA-1.5的架构进行修改视觉编码器冻结的CLIP-ViT-L/14。投影层可训练的MLP将ViT输出映射到语言空间。大语言模型Vicuna-7B-v1.5。关键修改在于我们指定Vicuna的中间某几层例如第10层到第16层作为“压缩器”。这些层的输入是完整的投影视觉标记序列而它们的输出取最后一个或几个位置的隐藏状态则被作为压缩后的VoCo tokens。训练数据仅使用LLaVA-1.5的视觉指令微调数据665K。在训练时模型同时学习两件事(1) 正确地进行视觉问答即原始LLaVA任务(2) 生成有效的VoCo tokens。损失函数是标准的自回归语言建模损失但计算时模型是基于被压缩后的VoCo tokens以及之前的文本来生成回答的。这种设计的精妙之处在于端到端训练。压缩的目标不是重建图像而是为了更好地完成下游的视觉问答任务。压缩器LLM中间层会自发地学习保留那些对回答问题有用的视觉信息过滤掉无关细节。3. 环境搭建与数据准备实操理论清楚了动手实践才是硬道理。VoCo-LLaMA的代码基于LLaVA环境搭建有一定复杂度我把自己配置的过程和遇到的坑详细记录如下。3.1 系统环境与依赖安装我使用的环境是Ubuntu 20.04CUDA 11.88张A100 40GB GPU。如果你GPU资源不同需要调整后续的批量大小设置。# 1. 克隆仓库 git clone https://github.com/Yxxxb/VoCo-LLaMA.git cd VoCo-LLaMA # 2. 创建并激活conda环境 conda create -n voco_llama python3.10 -y conda activate voco_llama # 3. 安装核心包 pip install --upgrade pip # 使用-e可编辑模式安装非常关键方便后续调试和修改代码 pip install -e .到这里基础环境就好了。但如果你需要从头训练还需要安装训练相关的依赖和优化库。# 4. 安装训练依赖和Flash Attention pip install -e .[train] # Flash Attention能显著加速训练并降低显存但安装容易出问题 pip install flash-attn --no-build-isolation实操心得一Flash Attention的坑flash-attn的安装是对系统环境要求最苛刻的一步。如果上述命令失败大概率是CUDA环境或编译器版本不匹配。我的解决方案是确保nvcc --version和conda环境内的cudatoolkit版本一致。尝试从源码编译pip install flash-attn --no-build-isolation --no-cache-dir。如果还不行可以暂时注释掉训练脚本中关于use_flash_attn的设置用普通注意力机制只是训练会慢一些。安装完成后需要按照README执行一个关键操作cp VoCo-LLaMA/llava/model/language_model/cache_py/modeling_attn_mask_utils.py /path/to/your/conda/env/lib/python3.10/site-packages/transformers/modeling_attn_mask_utils.py这个操作覆盖了Transformers库中的一个文件目的是为了适配VoCo-LLaMA中自定义的注意力掩码逻辑用于处理压缩前后的序列长度变化。务必检查目标路径是否正确。3.2 数据准备一个需要耐心的体力活VoCo-LLaMA使用LLaVA-1.5的665K混合指令数据进行训练。你需要下载两样东西预训练权重和训练数据。1. 下载预训练权重从LLaVA官方Model Zoo下载对齐好的检查点。对于7B模型你需要llava-v1.5-7b包含Vicuna-7B语言模型和投影层的权重。 使用Hugging Face CLI或直接git lfs clone到./checkpoints目录下。2. 下载并整理训练数据这是最繁琐的一步。数据包括一个标注文件llava_v1_5_mix665k.json和来自5个数据集的图像COCO约11.8万张训练图片。GQA约9.4万张图片。OCR-VQA约10万张图片。TextVQA约2.8万张训练验证图片。Visual Genome (VG)约10.8万张图片。我的操作流程与建议规划存储总数据量超过100GB确保有足够硬盘空间。我专门挂载了一个大容量数据盘。编写下载脚本手动一个个下载解压效率太低。我写了一个download_data.sh脚本利用wget或curl进行批量下载和校验。对于Google Drive链接如OCR-VQA使用gdown工具。统一目录结构严格按照要求组织文件夹。我创建了一个playground/data的软链接指向实际的数据存储盘避免占用系统盘空间。./playground/data (或软链接指向的实际路径) ├── coco │ └── train2017 ├── gqa │ └── images ├── ocr_vqa │ └── images ├── textvqa │ └── train_images └── vg ├── VG_100K └── VG_100K_2验证数据下载解压后用一个小脚本检查每个文件夹下的图片数量是否与预期大致相符并确保llava_v1_5_mix665k.json中的图像路径能被正确解析。注意事项数据准备阶段最容易出错的是路径问题。在后续训练命令中会通过参数--image_folder指定这个./playground/data的路径。如果结构不对训练时会因找不到图片而失败。4. 模型训练与关键参数解析环境数据就绪接下来就是核心的训练阶段。VoCo-LLaMA的作者提供了训练脚本scripts/finetune.sh我们需要深入理解其中的关键参数。4.1 训练脚本拆解让我们打开finetune.sh看看里面到底配置了什么#!/bin/bash torchrun --nproc_per_node8 \ llava/train/train_mem.py \ --model_name_or_path ./checkpoints/llava-v1.5-7b \ --version v1 \ --data_path ./playground/data/llava_v1_5_mix665k.json \ --image_folder ./playground/data \ --vision_tower openai/clip-vit-large-patch14-336 \ --mm_projector_type mlp2x_gelu \ --tune_mm_mlp_adapter True \ --bf16 True \ --output_dir ./checkpoints/voco_llama_7b \ --num_train_epochs 1 \ --per_device_train_batch_size 4 \ --per_device_eval_batch_size 4 \ --gradient_accumulation_steps 4 \ --evaluation_strategy no \ --save_strategy steps \ --save_steps 50000 \ --save_total_limit 1 \ --learning_rate 2e-5 \ --weight_decay 0. \ --warmup_ratio 0.03 \ --lr_scheduler_type cosine \ --logging_steps 1 \ --tf32 True \ --model_max_length 2048 \ --gradient_checkpointing True \ --lazy_preprocess True \ --report_to tensorboard \ --cache_dir ./cache_dir \ --compression_layer 10 \ # 关键参数从第几层开始压缩 --num_compression_tokens 1 \ # 关键参数压缩成几个token关键参数解析--nproc_per_node8: 使用8张GPU进行数据并行训练。--model_name_or_path: 指向你下载的LLaVA-1.5-7B预训练权重。--data_path--image_folder: 指向你的标注文件和图像根目录。--tune_mm_mlp_adapter True:仅训练投影层MLP这是LLaVA的标准做法视觉编码器和语言模型的大部分参数被冻结极大减少计算量。--bf16--tf32: 使用混合精度训练节省显存并加速。--per_device_train_batch_size 4--gradient_accumulation_steps 4: 每张GPU批大小为4累积4步因此全局批大小 4 * 4 * 8 128。这是需要保持稳定的关键值影响优化稳定性。--compression_layer 10:这是VoCo-LLaMA的核心参数。它指定从语言模型的第10层开始将之前层的输出作为“压缩器”的输入并将其输出指定位置作为压缩后的VoCo tokens。层数越靠前压缩器看到的上下文越“原始”越靠后则包含更多高层语义。--num_compression_tokens 1: 压缩后的token数量。设为1即压缩为单个token这是压缩率最高的模式。也可以设为4或8保留更多信息。4.2 单卡与多卡训练调整如果你没有8张A100需要调整配置。核心原则是保持全局批大小global batch size不变128以保证优化效果与论文一致。假设你只有4张A10040GB将--nproc_per_node改为4。可以尝试将--per_device_train_batch_size降至2同时将--gradient_accumulation_steps增至16因为 2 * 16 * 4 128。注意gradient_accumulation_steps增大会延迟参数更新但理论上不影响最终收敛。需要监控显存使用。假设你只有1张GPU例如A100 40GB使用python直接运行脚本去掉torchrun。设置--per_device_train_batch_size2--gradient_accumulation_steps642 * 64 * 1 128。这非常考验GPU显存。即使批量设为2由于要处理长序列压缩前一张40GB的A100也可能吃紧。你可能需要启用更激进的梯度检查点--gradient_checkpointing True已开启甚至考虑使用--num_compression_tokens 4来稍微缩短序列长度或者使用模型并行等更高级的策略这超出了本文基础范围。实操心得二监控与调试训练启动后务必使用nvidia-smi监控显存占用并使用TensorBoard--report_to tensorboard查看损失曲线。最初的几个step损失应该从一个小值开始稳步下降。如果损失为NaN或异常高可能是数据加载有问题如图片路径错误、混合精度不稳定或全局批大小设置不当。4.3 理解训练过程压缩如何发生在训练中模型的前向传播过程如下图像经过CLIP-ViT生成256个视觉标记。这些标记通过可训练的MLP投影层得到256个语言空间的嵌入向量。这256个向量连同文本指令的嵌入一起输入到Vicuna模型中。当计算进行到第10层compression_layer10时模型会取出这256个视觉标记对应位置的隐藏状态。这些隐藏状态被送入一个特殊的“压缩头”通常是一个线性层聚合例如通过平均池化或一个可学习的查询成1个向量。这个向量就是VoCo token。接下来的关键操作用这1个VoCo token替换掉原来的256个视觉标记。从第11层开始语言模型基于这个简短的VoCo token和之前的文本上下文继续前向传播并最终生成答案。损失函数计算模型生成的答案与真实答案之间的差异并通过反向传播同时优化投影层MLP和那个“压缩头”让模型学会如何生成一个能最大程度保留答题所需信息的VoCo token。5. 效果评估与对比分析训练完成后我们需要评估VoCo-LLaMA的性能。论文中主要关注两点视觉理解能力的保持度和上下文窗口的利用率提升。5.1 标准视觉基准测试遵循LLaVA的评估方案在多个标准VQA基准上进行测试VQAv2 通用视觉问答。GQA 需要组合推理的视觉问答。ScienceQA-IMG 科学知识视觉问答。VizWiz 为视障人士设计的视觉问答。TextVQA 需要阅读图像中文字的视觉问答。MMBench 综合性多模态评测。如何复现评估按照LLaVA官方评估指南准备各个测试集的数据。使用训练好的VoCo-LLaMA检查点加载模型。运行对应的评估脚本。通常需要将模型切换到评估模式并遍历测试集生成答案然后与标准答案对比计算准确率。预期结果根据论文当压缩到1个token时压缩率256:1VoCo-LLaMA-7B在大多数基准上性能下降非常小例如在VQAv2上仅下降约1-2个百分点。这说明单个VoCo token确实捕获了图像的核心语义。当压缩到4个token时性能几乎与原始LLaVA-1.5持平。5.2 长上下文与视频理解演示这是VoCo-LLaMA真正闪耀的地方。传统的LLaVA处理多图对话时会很快达到上下文限制。我们可以设计一个简单的测试准备输入构造一个包含多张图片的提示词例如“请依次描述这四张图片的内容并总结它们的共同主题。” 附上四张相关的图片。使用原始LLaVA由于总token数4*256 文本远超2048模型要么无法处理要么只能截断部分图像信息导致回答不完整或错误。使用VoCo-LLaMA每张图片被压缩为1个token。4张图片只需4个token加上文本总长度远低于限制。模型能够流畅地分析每一张图片并给出连贯的综合回答。视频理解论文还展示了通过对连续视频帧的压缩token序列进行训练模型可以学习时间动态。例如输入一段“倒水”动作的视频帧压缩序列模型可以回答“这个人在做什么”。这为高效的视频语言模型开辟了道路。注意事项评估时务必确保模型处于正确的模式。压缩操作只在训练和推理的特定阶段激活。在llava/model/multimodal_encoder/builder.py和llava/model/language_model/llava_llama.py中有关于compression_layer和num_compression_tokens的逻辑控制加载模型时要正确传入这些参数。6. 常见问题与故障排查在复现过程中我遇到了不少问题这里总结一下希望能帮你避坑。Q1: 训练时出现CUDA out of memory错误。A1: 这是最常见的问题。按以下步骤排查降低批量大小首先尝试减少--per_device_train_batch_size。增加梯度累积按比例增加--gradient_accumulation_steps以保持全局批大小。启用梯度检查点确保--gradient_checkpointing True已开启。这会用计算时间换显存。使用更小的压缩token数尝试将--num_compression_tokens从1改为4或8。虽然压缩率降低但压缩器输入的序列长度不变输出的短序列变长对显存影响不大主要影响的是压缩后LLM处理的序列长度有时反而能降低显存。检查图像尺寸确保输入图像被正确预处理为336x336CLIP-ViT-L/14-336的要求更大的尺寸会产生更多视觉标记消耗更多显存。Q2: 评估结果远低于论文报告值。A2:检查数据泄露确保训练集和测试集没有重叠。LLaVA的665K混合数据包含了部分测试集的训练数据但官方评估脚本会处理。自己划分数据时要格外小心。检查模型加载确认加载的检查点包含了训练好的投影层和压缩头权重而不仅仅是原始LLaVA权重。检查压缩参数评估脚本中compression_layer和num_compression_tokens必须与训练时完全一致。评估模式使用model.eval()并确保没有启用dropout等训练特有的模块。Q3: 生成的回答质量差似乎没理解图片。A3:压缩层位置不当compression_layer可能太靠前或太靠后。太靠前如第2层语言模型还没能充分理解视觉信息就进行了压缩信息损失大。太靠后如第24层压缩效果有限。论文中10-16层是一个经验性的甜点区。可以尝试微调这个参数。训练不充分1个epoch的训练可能对某些数据不够。可以尝试增加--num_train_epochs到2或3同时监控验证集损失是否已收敛。投影层问题虽然视觉编码器冻结但投影层是从头训练的。如果投影层训练不稳定会导致视觉信息无法有效对齐到语言空间。可以尝试降低学习率或使用更稳定的优化器设置。Q4: 如何将VoCo-LLaMA集成到我自己的项目中A4:模型加载参考llava/model/builder.py中的load_pretrained_model函数确保正确加载VoCo-LLaMA的配置类和模型权重。预处理图像预处理流程与LLaVA完全相同使用CLIP的处理器。文本使用Vicuna的tokenizer。推理流程在构造模型输入时需要告诉模型在哪个位置进行压缩。这通常通过一个特殊的“压缩标记”或在forward函数中传入compression_layer参数来实现。你需要仔细阅读llava/model/language_model/llava_llama.py中关于forward函数的修改部分理解压缩token是如何被插入和使用的。Q5: 除了Vicuna能用在其他LLM上吗A5:理论上可以。VoCo-LLaMA的核心思想是通用的。你需要选择一个视觉编码器如CLIP和一个语言模型如LLaMA-2, Qwen, Yi等。在两者之间添加一个可训练的投影层。在语言模型的中间层插入压缩逻辑。这需要修改该LLM的模型定义文件在指定层之后截取隐藏状态应用压缩头并用压缩token序列替换原始视觉序列。使用视觉指令数据对其进行端到端微调。这个过程需要较强的模型架构修改和调试能力。VoCo-LLaMA为我们提供了一个极其优雅的思路来解决视觉token的“膨胀”问题。它不再与模型的上限对抗而是巧妙地利用模型自身的能力来创造信息密度更高的表示。从实验到真正稳定、高效的部署可能还需要在压缩的保真度、不同层压缩的适应性、以及对超长视频序列的支持上进行更多探索。但这个方向无疑为构建能处理更丰富、更长时间跨度的多模态模型打开了一扇新的大门。我个人的体会是这类“让模型自我优化其输入表示”的工作比单纯扩大模型规模或数据量往往能带来更根本性的效率提升。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2595437.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…