ZO2框架:18GB显存微调175B大模型,零阶优化与智能卸载技术解析

news2026/5/14 6:09:03
1. 项目概述用18GB显存微调175B大模型ZO2框架如何实现如果你尝试过在单张消费级显卡上微调一个百亿参数级别的大语言模型大概率会立刻被“CUDA out of memory”的提示劝退。传统的全参数微调光是加载一个175B参数的模型其权重本身就需要数百GB的显存这还没算上训练过程中前向传播、反向传播、优化器状态等产生的额外开销。这就像试图用一辆家用轿车的后备箱去装下一整个集装箱的货物根本无从下手。但最近开源的一个框架——ZO2却宣称能在仅18GB GPU显存的条件下完成对OPT-175B这种庞然大物的全参数微调。这个数字听起来有些不可思议它甚至比很多模型本身的权重文件还要小。我第一次看到这个项目时和许多同行一样第一反应是怀疑这是不是用了极致的量化或者只是微调了部分参数但深入研究其论文和代码后我发现它的核心思路非常巧妙它没有去“压缩货物”而是彻底改变了“装卸和运输”的方式。ZO2的核心是零阶优化与智能卸载两项技术的深度结合。简单来说它通过一种不需要计算梯度即零阶的优化算法绕开了训练中最吃显存的反向传播过程同时它设计了一套高效的调度策略将模型的绝大部分参数“寄存”在CPU内存甚至硬盘中只在需要计算的瞬间将特定的参数块“快递”到GPU上。这种“即用即取、用完即还”的模式使得显存需求从承载整个模型骤降为仅承载当前计算所需的几个数据块。这不仅仅是技术上的讨巧更是对现有硬件限制下大模型微调范式的一次重要探索。对于广大研究者、创业团队甚至个人开发者而言这意味着我们有可能在有限的硬件资源下探索此前遥不可及的超大规模模型的定制化能力。2. 核心原理拆解零阶优化与智能卸载是如何协同工作的要理解ZO2为何能大幅降低显存必须拆开看它的两大支柱零阶优化方法和基于此设计的卸载策略。这两者缺一不可共同构成了其超低显存消耗的基石。2.1 为什么是零阶优化它如何规避显存瓶颈在深度学习的传统训练中我们熟悉的是基于梯度的一阶优化方法如SGD、Adam。其流程可以简化为前向传播计算损失 - 反向传播计算梯度 - 根据梯度更新参数。其中反向传播是显存的“头号杀手”。为了计算某一层的梯度系统需要保存该层前向传播中的所有中间激活值Activations对于175B的模型这些激活值可能轻易占用数百GB甚至上TB的显存。零阶优化方法以ZO2主要实现的MeZO-SGD为例提供了一条完全不同的路径。它不需要计算梯度。其核心思想类似于“黑箱优化”通过轻微扰动模型参数观察损失函数的变化来估计优化的方向。具体步骤通常如下参数扰动对当前参数 θ采样一个随机扰动向量 ε通常服从标准正态分布。损失评估分别计算扰动后的损失 L(θε) 和 L(θ-ε)或 L(θε) 与原始损失 L(θ)。梯度估计利用损失差值来估计梯度。例如一种简单的估计是g ≈ (L(θε) - L(θ)) / ε。这个估计值 g 被称为伪梯度。参数更新使用这个伪梯度 g像普通SGD一样更新参数θ θ - η * g。这个过程的关键在于它只需要进行两次前向传播计算L(θε)和L(θ)而完全避免了反向传播。因此训练过程中需要存储在显存里的从“模型参数优化器状态梯度激活值”大幅减少为“模型参数当前计算所需的少量激活值”。尤其是移除了与模型深度成正比的激活值存储这是显存下降的核心原因。注意零阶优化的效率通常低于一阶优化因为它提供的是梯度的噪声估计而非精确梯度。这意味着要达到相同的精度可能需要更多的训练步骤即更多次前向传播。ZO2的贡献在于它通过高效的卸载设计使得即使步骤增多其单步的计算和通信开销也极低从而在总时间上保持竞争力。2.2 ZO2的智能卸载策略动态调度与计算通信重叠仅仅使用零阶优化虽然避免了反向传播的显存但模型参数本身以FP16精度存储175B参数仍需约350GB仍然远超单卡显存。这时就需要“卸载”。常见的卸载方案是将参数存放在CPU内存但简单的“需要时整体调入、整体调出”会带来巨大的数据传输延迟GPU会长时间等待数据利用率极低。ZO2的智能之处在于它设计了一个与零阶优化特性高度匹配的细粒度、动态调度卸载策略。它并不是以整个模型为单位进行搬运而是以更小的参数块Parameter Block为单位。其工作流程可以概括为参数分区与常驻将模型的所有参数划分为多个块。其中一个非常小的“工作集”常驻在GPU显存中。这个工作集的大小是经过精心计算的刚好能容纳当前零阶优化步骤中同时被扰动和计算所需的那部分参数。按需流水线加载当训练循环开始处理下一个批次的数据时调度器会提前分析接下来需要用到哪些参数块。它会在GPU计算当前批次的同时异步地将下一批次需要的参数块从CPU内存预取到GPU显存中。这就是“计算-通信重叠”。惰性换出对于已经完成计算、且短期内不再需要的参数块系统并不会立即将其移回CPU而是采用一种惰性策略等待显存压力增大或该块空间被新块需要时再执行换出操作减少不必要的传输。这种策略之所以能与零阶优化完美结合是因为零阶优化的每一步两次前向传播所涉及的具体参数是已知且确定的由随机扰动向量ε决定ε中非零元素对应的参数才需要被加载。调度器可以精确地预知未来几步的计算需求从而做出最优的预取决策。我个人的理解是这就像是一个高度组织化的仓库管理系统。CPU内存是中心大仓库GPU是高效处理台。ZO2的调度器就是最聪明的调度员它永远知道下一个处理台上要加工哪几个零件参数块并且总是在当前零件加工时就提前把下一批零件从大仓库运到了处理台旁边的临时缓存区GPU显存。处理台GPU永远不需要等待始终满负荷运转。而那个临时缓存区只需要容纳一批零件的空间即可无需容纳整个仓库的库存。3. 实操指南从环境搭建到运行你的第一个ZO2微调任务理论很美妙但更重要的是上手实践。下面我将以在单张24GB显存的RTX 4090上微调facebook/opt-2.7b模型在SST-2情感分类任务为例带你走通全流程。即使你的显卡只有12GB或16GB也可以尝试更小的模型如OPT-1.3B。3.1 环境安装与依赖准备ZO2提供了两种安装方式。对于大多数想要复现实验或进行开发的用户我推荐使用第一种方式它能创建一个独立、完整的环境。首先确保你的系统已安装conda或miniconda。然后执行以下命令# 1. 克隆仓库 git clone https://github.com/liangyuwang/zo2.git cd zo2/ # 2. 使用conda创建并激活环境根据提供的env.yml文件 conda env create -f env.yml conda activate zo2这个env.yml文件定义了所有必要的依赖包括特定版本的PyTorch、Transformers等。使用它能最大程度避免版本冲突。如果遇到网络问题导致某些包下载缓慢可以考虑先配置conda的国内镜像源。实操心得在安装前最好用nvidia-smi和conda --version确认一下你的CUDA驱动版本和Conda可用性。ZO2要求CUDA 12.1如果你的环境是CUDA 11.8可能需要先升级驱动或寻找对应版本的PyTorch进行适配。不过项目提供的env.yml通常已锁定兼容版本。3.2 使用MeZO-Runner快速进行任务评估ZO2项目提供了一个非常方便的脚本工具MeZO-Runner位于example/mezo_runner/目录下。它封装了数据加载、模型初始化、训练和评估的完整流程非常适合快速验证框架功能和对不同任务进行基准测试。假设我们要在SST-2任务上微调OPT-2.7B模型可以按以下步骤操作# 进入Runner目录 cd example/mezo_runner/ # 设置环境变量指定使用第一张GPUGPU0 export CUDA_VISIBLE_DEVICES0 # 运行微调脚本。这里关键参数解释 # MODEL: 指定Hugging Face模型ID # TASK: 指定GLUE任务名SST2 # MODE: ft 代表全参数微调 # LR: 学习率零阶优化的学习率通常需要设置得很小 # EPS: 扰动系数控制参数扰动的幅度 # STEPS: 总训练步数 # EVAL_STEPS: 每多少步评估一次 MODELfacebook/opt-2.7b TASKSST2 MODEft LR1e-7 EPS1e-3 STEPS20000 EVAL_STEPS4000 bash mezo.sh执行这个命令后脚本会自动从Hugging Face下载opt-2.7b模型和SST-2数据集初始化ZO2配置并开始训练。你会在终端看到类似如下的日志输出其中特别需要关注的是显存使用情况[ZO2 Info] Initializing with offloading_devicecpu, working_devicecuda. [ZO2 Info] Model facebook/opt-2.7b loaded. Total parameters: 2.7B. [ZO2 Info] Estimated GPU memory with ZO2: ~4.14 GB. [Train] Step 100/20000 | Loss: 0.6931 | GPU Mem: 4.21 GB ... [Eval] Step 4000 | Accuracy: 0.8512你会惊讶地发现微调一个2.7B参数的模型显存占用真的被稳定地控制在4.2GB左右远低于常规方法所需的15GB以上。这就是ZO2卸载策略生效的直接证明。3.3 深入定制使用ZOTrainer集成到你的训练流程如果你希望将ZO2更灵活地集成到自己的项目中或者想使用自定义的数据集和训练循环那么直接使用ZOTrainer是更好的选择。ZOTrainer的设计仿照了Hugging Face的Trainer提供了熟悉的接口。下面是一个完整的示例展示如何用ZOTrainer微调一个OPT-125M模型用于演示实际中125M模型无需ZO2也可训练此处仅为展示流程from zo2 import ZOConfig, zo_hf_init from zo2.trainer.hf_transformers import ZOTrainer from transformers import AutoTokenizer, AutoModelForCausalLM, TrainingArguments, DataCollatorForLanguageModeling from datasets import load_dataset # 1. 定义ZO2配置 zo_config ZOConfig( methodmezo-sgd, # 使用MeZO-SGD零阶方法 zo2True, # 启用ZO2的智能卸载 offloading_devicecpu, # 卸载目标设备为CPU内存 working_devicecuda:0, # 计算设备为GPU lr1e-5, # 学习率 eps1e-3 # 扰动系数 ) # 2. 在zo_hf_init上下文管理器内初始化模型 # 这个上下文管理器会接管Transformers的模型加载过程为其注入ZO2所需的钩子和状态。 with zo_hf_init(zo_config): model AutoModelForCausalLM.from_pretrained(facebook/opt-125m) # 关键一步调用zo_init根据zo_config设置模型的卸载和优化策略 model.zo_init(zo_config) # 3. 加载tokenizer和数据 tokenizer AutoTokenizer.from_pretrained(facebook/opt-125m) tokenizer.pad_token tokenizer.eos_token # 为OPT模型设置pad token dataset load_dataset(wikitext, wikitext-2-raw-v1) def tokenize_function(examples): return tokenizer(examples[text], truncationTrue, paddingmax_length, max_length128) tokenized_datasets dataset.map(tokenize_function, batchedTrue, remove_columns[text]) data_collator DataCollatorForLanguageModeling(tokenizertokenizer, mlmFalse) # 4. 定义训练参数 training_args TrainingArguments( output_dir./zo2-opt125m-wikitext, overwrite_output_dirTrue, num_train_epochs1, per_device_train_batch_size4, save_steps500, logging_steps100, evaluation_strategysteps, eval_steps500, ) # 5. 创建ZOTrainer并开始训练 trainer ZOTrainer( modelmodel, argstraining_args, train_datasettokenized_datasets[train], eval_datasettokenized_datasets[validation], data_collatordata_collator, tokenizertokenizer, ) trainer.train()这段代码的结构与标准Hugging Face训练脚本几乎一致核心区别在于ZOConfig的创建、zo_hf_init上下文管理器以及model.zo_init()的调用。这种设计使得已有代码迁移到ZO2的成本非常低。3.4 更底层的控制自定义训练循环对于需要极致控制的研究者ZO2也允许你完全自定义训练循环。这在调试、实现复杂训练逻辑或与其他库深度集成时非常有用。import torch from zo2 import ZOConfig, zo_hf_init from transformers import AutoTokenizer, AutoModelForCausalLM from datasets import load_dataset # 初始化ZO2配置和模型同上 zo_config ZOConfig(methodmezo-sgd, zo2True, offloading_devicecpu, working_devicecuda, lr1e-5) with zo_hf_init(zo_config): model AutoModelForCausalLM.from_pretrained(facebook/opt-125m) model.zo_init(zo_config) tokenizer AutoTokenizer.from_pretrained(facebook/opt-125m) dataset load_dataset(wikitext, wikitext-2-raw-v1) # ... 数据预处理创建DataLoader ... optimizer torch.optim.SGD(model.parameters(), lrzo_config.lr) # 使用SGD但实际更新由ZO2内部处理 model.train() for batch_idx, batch in enumerate(train_dataloader): # 关键将模型切换到训练模式并准备进行零阶优化步骤 model.zo_train() # 将数据移动到GPU input_ids batch[input_ids].to(cuda:0) labels batch[labels].to(cuda:0) # 前向传播计算损失。ZO2会在内部自动执行参数扰动和伪梯度计算。 loss model(input_idsinput_ids, labelslabels).loss # 反向传播在ZO2中这里执行的是基于伪梯度的更新 loss.backward() optimizer.step() optimizer.zero_grad() # 评估阶段 if batch_idx % 100 0: model.zo_eval() # 切换到评估模式关闭参数扰动 with torch.no_grad(): # ... 在验证集上计算指标 ... model.zo_train() # 切换回训练模式在这个循环中model.zo_train()和model.zo_eval()是两个至关重要的方法。它们不仅像model.train()/model.eval()一样切换Dropout等层的状态更重要的是它们会通知ZO2内部调度器切换参数的管理策略例如在eval模式下可能采用不同的预取策略或禁用扰动。4. 性能、效果与局限性分析ZO2实战中的真实表现任何一项技术都有其适用的边界。ZO2在显存上的突破是革命性的但我们也必须客观地审视它在其他维度的表现以便在项目中做出正确的技术选型。4.1 显存节省与时间开销的权衡ZO2最大的卖点就是极致的显存节省。根据论文和实测数据其显存消耗与模型参数数量几乎呈亚线性增长而非传统方法的线性或超线性增长。这使得微调超大模型成为可能。模型规模 (OPT)传统全微调预估显存 (GB)ZO2实测显存 (GB)节省比例1.3B~203.75~81%2.7B~404.14~90%6.7B~1004.99~95%175B100018.0498%然而节省显存的代价是可能增加训练时间。零阶优化由于使用噪声梯度估计收敛速度通常慢于一阶方法。这意味着需要更多的训练步数前向传播次数来达到相近的精度。同时频繁的参数在CPU和GPU之间搬运会引入通信开销。ZO2通过其智能调度计算-通信重叠极大地缓解了通信开销使得单步训练时间与不卸载的情况相差不大。因此总的时间开销主要取决于零阶优化本身所需的额外步数。在实际任务中如SST-2、RTE等GLUE任务论文显示ZO2MeZO-SGD在达到与LoRA等高效微调方法相近精度时所需的总训练时间墙钟时间是可比甚至有时更优的因为它避免了Adapter层引入的额外计算。个人体会如果你的瓶颈是显存即没有足够大的卡来跑传统方法那么ZO2带来的时间开销是完全可接受的因为它让你“跑起来了”。如果你的瓶颈是时间例如需要快速迭代实验并且你有充足的显存那么传统的一阶微调或LoRA可能仍是首选。4.2 任务效果对比在下游任务上表现如何根据原论文和项目提供的实验ZO2在全参数微调下的效果是可靠的。在像SST-2情感分析、RTE文本蕴含这样的经典NLU任务上使用ZO2微调OPT、Qwen等模型最终达到的准确率与使用全参数一阶微调在足够显存下的结果相差无几通常在1-2个百分点之内。这证明了零阶优化虽然梯度信息粗糙但通过足够多的迭代仍然能够有效地将模型优化到任务所需的最优点附近。对于许多理解类任务模型本身已经具备了强大的语言能力微调更像是一种“对齐”或“激发”对优化路径的精度要求并非极端严苛这为零阶优化提供了发挥空间。4.3 当前局限性与发展方向了解局限性有助于我们避开坑位并期待项目的未来演进。支持的模型和算法有限目前ZO2官方主要支持OPT系列模型和MeZO-SGD算法。对于更流行的LLaMA、Qwen、DeepSeek等架构以及其他的零阶方法如ZO-AdaMM、ZO-SignSGD支持仍在开发中。这意味着如果你想微调LLaMA-70B可能需要自己进行一些适配工作。对生成任务的效果待验证大部分现有实验集中在分类、蕴含等理解任务。对于文本生成、代码生成等任务零阶优化的效果如何仍需更多社区验证。这类任务对模型输出的连贯性和创造性要求更高可能对优化精度更敏感。超参数敏感性零阶优化对学习率LR、扰动系数EPS等超参数可能比一阶方法更敏感。需要更多的调参经验来获得最佳效果。项目提供的示例配置是一个很好的起点。磁盘卸载尚在规划目前卸载目的地是CPU内存。对于参数量远超主机内存的巨型模型如万亿参数未来支持磁盘卸载将是关键。5. 常见问题与故障排查实录在实际部署和运行ZO2的过程中你可能会遇到一些典型问题。这里我总结了一些自己和其他社区成员遇到的情况及解决方案。5.1 安装与环境问题问题1在创建conda环境时解决依赖冲突耗时很长或失败。原因env.yml中锁定的包版本可能与你的系统已有环境或CUDA版本不兼容。解决可以尝试先创建一个干净的Python环境如conda create -n zo2 python3.10然后手动安装核心依赖pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu121假设CUDA 12.1再根据requirements.txt或setup.py安装其他包。关注项目的Issue页面看是否有其他人遇到类似问题及解决方案。问题2运行时提示CUDA error: out of memory但nvidia-smi显示显存远未用满。原因这可能是由PyTorch的内存碎片或CUDA上下文缓存导致的。ZO2虽然管理模型参数内存但PyTorch自身仍会为算子、中间结果等分配缓存。解决在训练脚本开始处添加torch.cuda.empty_cache()。尝试设置环境变量PYTORCH_CUDA_ALLOC_CONFmax_split_size_mb:128来优化内存分配器。适当减小per_device_train_batch_size。5.2 训练过程与收敛问题问题3训练损失下降非常缓慢或者波动巨大。原因这是零阶优化的典型特征。由于使用噪声梯度估计更新方向随机性大导致损失曲线不像一阶优化那样平滑下降。解决调整学习率和扰动系数这是最重要的两个超参数。通常LR需要设得非常小如1e-7到1e-5EPS在1e-3到1e-1之间尝试。可以先用小模型如OPT-125M在少量数据上做网格搜索。增加训练步数零阶优化需要更多的迭代。将max_steps或num_train_epochs设置为常规方法的数倍。检查数据确保数据加载和预处理正确特别是标签对齐。问题4评估准确率远低于预期或与论文报告结果差距大。原因除了超参数问题还可能是因为模型没有切换到正确的模式。解决确保评估模式在验证/测试时务必调用model.zo_eval()或使用ZOTrainer它会自动处理。在zo_eval模式下模型参数不会被扰动得到的是确定性输出。检查任务格式对于分类任务确保你取的是logits中对应标签的维度并正确计算准确率。可以参考example/mezo_runner/中的评估代码。复现种子设置随机种子torch.manual_seed,np.random.seed以确保实验可复现。5.3 功能与扩展问题问题5我想用ZO2微调LLaMA或Qwen模型该怎么办现状截至当前ZO2对LLaMA、Qwen的原生支持仍在开发中。但社区已有一些非官方的尝试。尝试方案关注官方动态查看项目的Roadmap和Pull Requests官方支持可能是最快的。社区适配在GitHub Issues或相关论坛搜索可能有开发者分享了适配代码。核心是将ZO2的钩子正确挂载到目标模型的结构上。自行适配这需要深入理解ZO2的代码特别是zo2/engine/和zo2/inject/模块了解其如何劫持PyTorch的nn.Module的前向传播和参数访问。这是一个高级任务。问题6除了分类我想用ZO2做SFT有监督微调或者DPO直接偏好优化是否可行原理上可行ZO2是一个优化和内存管理框架不限制损失函数的形式。只要你的训练循环能计算出损失值无论是分类损失、SFT的交叉熵损失还是DPO的偏好损失ZO2就可以利用这个损失值进行零阶优化。实操建议可以从ZOTrainer或自定义训练循环的demo出发将你的数据加载和损失计算逻辑替换进去。关键依然是确保在训练步骤调用model.zo_train()和loss.backward()在评估步骤调用model.zo_eval()。ZO2的出现为大模型微调的民主化推开了一扇新的大门。它不一定在所有场景下都是最优解但当你的硬件预算有限却又渴望探索大模型的微调奥秘时它无疑提供了一个极具吸引力的选择。随着其生态的逐步完善支持更多的模型和算法相信它会在未来的AI工程实践中扮演越来越重要的角色。至少对我来说它已经成为了在有限资源下进行大规模模型实验的必备工具之一。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2595434.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…