DeepSeek-R1大模型微调实战:从LoRA原理到完整项目部署指南

news2026/5/13 18:40:03
1. 项目概述一个面向开发者的开源大模型微调项目最近在开源社区里一个名为FareedKhan-dev/train-deepseek-r1的项目引起了我的注意。乍一看这只是一个托管在代码托管平台上的仓库但如果你像我一样在过去几年里深度参与过从零开始训练或微调大型语言模型LLM的实战你就会立刻意识到这个标题背后蕴含的是一套完整、可复现的、针对特定开源大模型DeepSeek-R1进行定制化训练的技术方案。它绝不仅仅是一个简单的代码集合而更像是一份由先行者踩过无数坑后精心整理出来的“实战手册”。这个项目的核心价值在于它试图解决一个让许多开发者和研究者头疼的经典问题如何高效、低成本地将一个强大的基础大模型如 DeepSeek-R1通过微调Fine-tuning的方式适配到我们自己的特定任务或领域无论是想让模型精通法律文书写作、医疗问答还是生成特定风格的代码或文案微调都是必经之路。然而从数据准备、环境配置、训练脚本编写到超参数调优每一步都充满了技术细节和潜在的陷阱。train-deepseek-r1项目正是瞄准了这个痛点提供了一个从数据到模型的端到端流水线参考。对于刚接触大模型微调的朋友可以把它理解为你拿到了一份顶级大厨的“私房菜谱”。菜谱项目代码告诉你做一道名菜微调后的专业模型需要哪些食材数据、厨具GPU/算力、火候训练参数和步骤。但和所有菜谱一样直接照搬可能还是会翻车因为你的厨房环境本地机器或云环境、食材批次数据质量可能都不同。因此我将结合自己多次微调百亿参数级别模型的经验不仅带你解读这份“菜谱”更会重点分享那些菜谱上不会写的“厨房心得”和“救场技巧”让你能真正复现并掌握这项核心技能。2. 核心思路与技术选型拆解在深入代码之前我们必须先理解微调一个像 DeepSeek-R1 这样规模的模型整体技术路线是如何设计的。这决定了项目的可行性、效率以及最终模型的质量。2.1 微调策略的权衡Full vs. PEFT面对一个参数量可能达到百亿甚至千亿级别的基础模型第一种最“暴力”的思路是全参数微调Full Fine-tuning。即加载预训练好的 DeepSeek-R1 模型然后在你的专属数据上更新模型的所有参数。这种方法理论上能最大程度地让模型适应新数据但代价极其高昂需要存储整个模型的多个副本优化器状态、梯度、参数对 GPU 显存的要求是天文数字通常需要数十张顶级 A100/H100 显卡这显然不是个人或中小团队能承受的。因此当前社区和工业界的绝对主流是参数高效微调技术。train-deepseek-r1项目几乎必然会采用这类技术。其中最流行、最成熟的当属LoRA。它的核心思想非常巧妙我们不再动那些庞大的原始模型参数将其“冻结”而是为模型中的一些关键层通常是注意力机制中的查询Q、键K、值V和输出O投影矩阵注入一系列小巧的、可训练的“适配器”矩阵。在训练时只更新这些新增的小矩阵在推理时再将适配器的效果合并回原模型几乎不增加额外的推理延迟。提示为什么是 QKVO 矩阵因为这些矩阵直接决定了模型如何“注意”输入文本的不同部分是模型理解语义和生成内容的核心。修改它们就能以最小的代价最有效地改变模型的行为。除了 LoRA项目也可能集成QLoRA技术。这是 LoRA 的“升级版”它先对原始大模型进行 4-bit 量化大幅降低显存占用再在量化后的模型上应用 LoRA。这进一步将微调的门槛降低使得在单张 24GB 显存的消费级显卡如 RTX 4090上微调 70B 参数模型成为可能。我猜测train-deepseek-r1的项目结构会提供 LoRA 和 QLoRA 的配置选项让用户根据自身硬件条件进行选择。2.2 训练框架与生态的选择确定了微调方法下一个关键选择是用什么工具来实现。这里有几个主流选项PyTorch 自定义训练循环最灵活但需要从零实现梯度累积、混合精度训练、模型保存加载等所有细节对新手极不友好。Transformers AccelerateHugging Face 生态的核心组合。Transformers库提供了丰富的预训练模型和便捷的加载接口Accelerate库简化了分布式训练的设备管理。这是许多研究项目的起点。专为微调设计的框架如Unsloth、Axolotl、LLaMA-Factory等。这些框架封装了最佳实践提供了开箱即用的配置文件支持多种微调方法LoRA, QLoora, Full和数据集格式极大提升了效率。从项目名称的简洁性和实用性推断train-deepseek-r1极有可能基于Unsloth或Axolotl这类高阶框架构建。以 Unsloth 为例它通过高度优化的内核融合操作、更快的注意力实现宣称可以将训练速度提升数倍并显著减少显存占用。这对于希望快速迭代实验的个人开发者来说吸引力巨大。项目代码很可能提供了一个清晰的配置文件如train_config.yaml或train.py中的参数集合你只需要修改这个文件中的数据路径、模型名称和几个关键超参数就能一键启动训练。2.3 数据处理流程的设计数据是微调的“食材”其处理流程直接决定最终模型的“口味”。一个完整的流程通常包括格式化将你的原始数据可能是 JSON、CSV、TXT转换成模型能理解的对话格式或指令跟随格式。例如ChatML 格式|im_start|user\n...|im_end|\n|im_start|assistant\n...|im_end|或 Alpaca 格式### Instruction:\n...\n### Response:\n...。分词使用与 DeepSeek-R1 原模型完全一致的分词器Tokenizer将文本转换成数字 IDToken。这一步必须严格对应否则相当于让一个懂英语的模型去学乱码。打包为了训练效率不会一条数据一个批次。通常会将多条数据拼接起来然后切割成固定长度如 2048 tokens的片段。这能减少填充Padding带来的计算浪费。在项目中你可能会看到一个独立的data_prepare.py脚本或者训练脚本中集成了数据加载模块。关键是要检查它是否提供了灵活的数据接口允许你轻松接入自己的数据集。3. 环境配置与依赖部署详解拿到项目代码后第一步不是直接运行而是搭建一个稳定、可复现的训练环境。这里面的坑我踩过不少。3.1 硬件与驱动层准备GPU 是核心微调 DeepSeek-R1 的某个版本如 7B、14B显存是最关键的资源。一个快速的估算方法是模型参数量单位B乘以 2字节再乘以 4用于参数、梯度、优化器状态和激活值得到一个以 GB 为单位的近似显存需求。对于 QLoRA这个需求可以大幅降低。7B 模型 Full 微调约需 7 * 2 * 4 56 GB 以上显存。7B 模型 QLoRA 微调可能只需要 12-20 GB 显存。70B 模型 QLoRA 微调可能需要 40-80 GB 显存取决于量化等级和适配器大小。请根据你的目标模型大小和微调方法准备硬件。云服务如 AWS、GCP、阿里云等按需租用 GPU 实例是常见选择。CUDA 与 cuDNN确保你的 NVIDIA 驱动、CUDA 工具包版本与 PyTorch 等深度学习框架要求的版本严格匹配。例如PyTorch 2.x 通常需要 CUDA 11.8 或 12.x。版本不匹配是导致“神奇错误”的最常见原因。3.2 软件环境搭建项目通常会提供一个requirements.txt或pyproject.toml文件。强烈建议使用Conda或venv创建独立的 Python 虚拟环境避免与系统或其他项目的包冲突。# 使用 Conda 创建环境的示例 conda create -n deepseek-finetune python3.10 -y conda activate deepseek-finetune # 安装 PyTorch请根据 CUDA 版本去官网获取正确命令 pip install torch torchvision torchaudio --index-url https://download.pytorch.org/whl/cu118 # 安装项目依赖 pip install -r requirements.txtrequirements.txt里可能包含的关键库有transformers加载模型和分词器。accelerate简化训练循环。peft实现 LoRA、QLoRA 等参数高效微调。datasets高效的数据集加载和处理。trl可能来自 Hugging Face专门用于强化学习微调如 RLHF如果项目涉及奖励模型训练则会用到。bitsandbytes实现 4-bit/8-bit 量化QLoRA 的基石。wandb训练过程可视化与实验跟踪。注意安装bitsandbytes在 Windows 上可能非常棘手通常需要从源码编译。Linux 环境是首选。如果遇到问题可以尝试寻找预编译的 wheel 包或者考虑在云端的 Linux 实例上进行开发。3.3 模型与数据获取模型下载项目脚本可能会自动从 Hugging Face Hub 下载deepseek-ai/DeepSeek-R1。但由于网络原因下载可能缓慢或中断。建议提前使用huggingface-cli或git lfs手动下载到本地目录然后在配置中指定本地路径。# 使用 huggingface-cli 下载需先登录 huggingface-cli download deepseek-ai/DeepSeek-R1-7B --local-dir ./models/DeepSeek-R1-7B数据准备按照项目要求的结构准备你的数据。通常是一个 JSON 或 JSONL 文件每条记录包含instruction指令、input可选输入、output期望输出。数据质量至关重要指令清晰、输出准确、格式一致、避免噪声。4. 核心训练配置与参数解析这是微调的“火候”控制台每一个参数都影响着训练过程和模型性能。我们打开项目的配置文件假设为config.yaml来逐一拆解。4.1 模型与微调参数# config.yaml 示例片段 model_name_or_path: ./models/DeepSeek-R1-7B # 或 deepseek-ai/DeepSeek-R1-7B use_qlora: true # 启用 QLoRA lora_r: 64 # LoRA 秩Rank决定适配器的大小。常见值 8, 16, 32, 64。越大能力越强但越容易过拟合。 lora_alpha: 128 # LoRA 缩放因子通常设为 r 的 2 倍。与学习率共同作用。 lora_dropout: 0.1 # 防止过拟合的 Dropout 率。 target_modules: [q_proj, k_proj, v_proj, o_proj] # 将 LoRA 适配器注入到哪些模块。lora_r这是最重要的参数之一。它决定了 LoRA 矩阵的内在维度。r8意味着添加的参数量极少训练快但表征能力可能有限r64则添加更多参数拟合能力更强但需要更多显存和计算且可能记住训练数据细节过拟合。对于大多数指令微调任务r8或16是一个不错的起点。target_modules除了注意力层的 QKVO有时也会包含全连接层如gate_proj,up_proj,down_proj。项目默认设置通常是经过验证的最佳实践。除非有特殊需求否则不建议新手修改。4.2 训练超参数per_device_train_batch_size: 2 # 每张 GPU 上的批次大小 gradient_accumulation_steps: 8 # 梯度累积步数 # 有效总批次大小 per_device_train_batch_size * gradient_accumulation_steps * GPU数量 learning_rate: 2e-4 # 学习率QLoRA下通常比全参数微调大1e-4 到 5e-4 num_train_epochs: 3 # 训练轮数 max_seq_length: 2048 # 序列最大长度需根据数据长度和显存调整 optimizer: adamw_8bit # 使用 8-bit AdamW 优化器节省显存 lr_scheduler_type: cosine # 余弦退火学习率调度器 warmup_ratio: 0.03 # 训练开始时学习率从0线性增加到设定值的预热比例批次大小与梯度累积由于显存限制单次前向-反向传播能处理的样本数per_device_train_batch_size可能很小如1或2。gradient_accumulation_steps允许我们模拟更大的批次先进行 N 次前向传播累积梯度再进行一次参数更新。这有助于稳定训练。有效总批次大小是影响训练稳定性和最终效果的关键。学习率QLoRA 的学习率通常设置得较高因为只有少量参数被更新。2e-4是一个常用起点。可以使用学习率查找器LR Finder工具进行粗略扫描但注意 QLoRA 的行为可能与全参数训练不同。序列长度max_seq_length必须覆盖你的数据中最长样本的长度否则会被截断。但设置得越大显存消耗呈平方级增长由于注意力机制。需要权衡。4.3 数据与输出配置dataset_path: ./data/my_finetune_data.jsonl dataset_format: alpaca # 或 chatml output_dir: ./output/deepseek-r1-lora save_steps: 500 # 每多少步保存一次检查点 logging_steps: 10 # 每多少步打印一次日志 report_to: wandb # 使用 Weights Biases 记录实验确保你的dataset_format与数据文件的格式严格匹配否则数据加载会失败。5. 完整训练流程与实操记录假设我们已经准备好了环境、模型、数据和配置文件现在可以启动训练了。5.1 训练启动与监控通常项目会提供一个主训练脚本如train.py。运行命令可能如下accelerate launch --num_processes2 train.py --config config.yaml # 或者如果框架封装得很好可能更简单 python train.py --config config.yamlaccelerate launch是 Hugging Face Accelerate 库的命令用于简化单机多卡或多机训练。--num_processes2表示使用2个GPU进程。训练开始后控制台会打印日志显示当前 epoch、步数、损失loss、学习率等信息。损失值是首要监控指标它应该总体呈下降趋势并在后期趋于平稳。如果损失剧烈震荡或上升可能是学习率太高或批次大小不合适。强烈建议集成实验跟踪工具如Weights Biases (wandb)或TensorBoard。它们能可视化损失曲线、学习率变化甚至记录模型生成的样例让你对训练过程一目了然。在 config 中设置report_to: wandb并提前登录 wandb训练数据就会自动上传到你的个人面板。5.2 中间检查与问题干预训练不会总是一帆风顺。你需要学会看“仪表盘”损失不下降首先检查数据。是不是数据格式错了模型根本没学到有效内容可以尝试在训练前用几行代码测试一下数据加载和模型前向传播是否正常。其次检查学习率尝试调低一个数量级如从2e-4到2e-5。损失变为 NaN 或无限大这是梯度爆炸的典型症状。可以尝试启用梯度裁剪--max_grad_norm 1.0降低学习率减小批次大小或者检查数据中是否有异常值如极长的数字序列。显存溢出OOM这是最常见的错误。尝试启用梯度检查点Gradient Checkpointing它会用计算时间换显存降低max_seq_length减小per_device_train_batch_size增加gradient_accumulation_steps以保持总批次大小或者换用更激进的量化如 4-bit 的 QLoRA。5.3 模型保存与合并训练完成后PEFTLoRA模型通常只保存适配器权重一个很小的文件如adapter_model.bin而不是整个模型。这便于分享和存储。但在推理时我们需要将适配器与基础模型合并。项目可能会提供合并脚本例如merge_lora.py。合并后你会得到一个完整的、可以像普通模型一样加载和使用的模型文件。python merge_lora.py \ --base_model ./models/DeepSeek-R1-7B \ --lora_model ./output/deepseek-r1-lora/checkpoint-1000 \ --output_dir ./merged_model合并后的模型可以直接用transformers的AutoModelForCausalLM加载用于推理或进一步部署。6. 推理测试与效果评估训练结束不是终点评估模型的实际表现才是关键。微调效果好不好不能只看训练损失必须进行实际推理测试。6.1 构建测试脚本编写一个简单的推理脚本加载合并后的模型或基础模型PeftModel输入一些训练时未见过的指令观察输出。from transformers import AutoTokenizer, AutoModelForCausalLM import torch model_path ./merged_model tokenizer AutoTokenizer.from_pretrained(model_path) model AutoModelForCausalLM.from_pretrained(model_path, torch_dtypetorch.float16, device_mapauto) prompt 请用Python写一个快速排序函数。 inputs tokenizer(prompt, return_tensorspt).to(model.device) outputs model.generate(**inputs, max_new_tokens256, temperature0.7) print(tokenizer.decode(outputs[0], skip_special_tokensTrue))重点关注指令遵循能力模型是否理解了你的指令并做出了相应回应知识保留模型在微调后是否还保留着原有的通用知识比如历史、科学常识微调有时会导致“灾难性遗忘”。风格与格式输出是否符合你数据集中定义的风格如严谨的法律语言、活泼的文案风格6.2 系统化评估方法对于更严肃的项目需要建立评估基准人工评估设计一批测试问题让真人从相关性、准确性、流畅性、有用性等维度打分。这是最可靠但最耗时的方法。自动化指标使用像ROUGE、BLEU适用于翻译、摘要或BERTScore来衡量生成文本与参考文本的相似度。对于代码生成可以用单元测试通过率来评估。基准数据集使用公开的评测数据集如MMLU大规模多任务语言理解、HumanEval代码生成等对比微调前后模型得分的变化。这能客观衡量模型在通用能力上的变化。7. 常见问题排查与实战心得结合我自己的经验这里汇总一些微调过程中高频出现的问题和解决思路。7.1 环境与依赖问题问题现象可能原因解决方案ImportError: cannot import name ... from transformers库版本不兼容。train-deepseek-r1项目可能依赖于较新或较特定版本的transformers、peft等。严格按照项目requirements.txt或文档指定的版本安装。使用 pip freezeCUDA error: out of memory显存不足。这是最常见问题。依次尝试1. 减小per_device_train_batch_size。2. 启用梯度检查点。3. 使用--gradient_checkpointing。4. 降低max_seq_length。5. 确认是否启用了use_qlora: true。6. 换用更大显存的 GPU。RuntimeError: Expected all tensors to be on the same device张量不在同一个设备CPU/GPU上。通常是因为自定义了数据加载或模型部分结构。确保在将数据输入模型前执行inputs inputs.to(model.device)。使用accelerate可以自动管理设备。bitsandbytes安装失败或在 Windows 上无法使用bitsandbytes对 Windows 原生支持不友好。最佳方案在 Linux 环境下运行。如果必须在 Windows可尝试使用 WSL2或寻找社区维护的预编译轮子但这通常不稳定。7.2 训练过程问题问题现象可能原因解决方案Loss 非常高且不下降学习率设置过大数据格式错误导致模型无法学习分词器不匹配。1. 将学习率调低一个数量级如从1e-3到1e-4试试。2. 打印并检查几条预处理后的数据看格式是否正确。3. 确保使用的分词器与模型名称完全一致。Loss 为 NaN梯度爆炸。1. 启用梯度裁剪在训练参数中添加--max_grad_norm 1.0。2. 降低学习率。3. 检查数据中是否有异常数值如inf。训练速度异常缓慢没有使用 Flash Attention 2数据加载是瓶颈CPU 内存不足导致频繁交换。1. 确保安装了flash-attn库并在加载模型时传入use_flash_attention_2True如果模型支持。2. 使用datasets库的缓存和内存映射功能。3. 监控系统资源确保 CPU 内存充足。模型输出乱码或重复常见于训练后期可能是过拟合或学习率策略问题。1. 尝试早停Early Stopping在验证集损失不再下降时停止训练。2. 使用更激进的学习率调度如余弦退火。3. 增加 LoRA Dropout (lora_dropout)。7.3 模型效果问题问题现象可能原因解决方案灾难性遗忘模型在新任务上表现好但忘了原有通用知识。微调数据量太小或太偏覆盖不了原模型的知识分布微调强度太大。1. 在微调数据中混入少量通用语料如 5%-10%。2. 降低学习率减少训练轮数。3. 尝试更“轻柔”的微调方法如lora_r调小。过拟合在训练数据上表现完美在新数据上很差。训练数据量不足训练轮数过多模型容量LoRA rankr相对于数据过大。1. 收集更多样化的数据。2. 减少训练轮数 (num_train_epochs)。3. 减小lora_r。4. 增加lora_dropout。指令遵循能力弱训练数据中指令-响应对的质量不高或格式不一致模型没有学会区分指令和上下文。1. 严格清洗数据确保指令清晰、响应准确。2. 使用统一的、模型能识别的对话模板如 ChatML。3. 在指令前后添加明确的特殊标记。7.4 个人实战心得从小开始快速迭代不要一开始就用全部数据和最大模型。用一个小子集如 1000 条样本和模型的小版本如 7B进行快速实验验证整个流程数据、训练、推理是否跑通效果趋势是否正确。这能节省大量时间和算力。数据质量 数据数量 算法技巧1000条高质量、清洗干净、格式统一的数据远胜于10万条充满噪声的脏数据。在数据准备上花的时间会在训练和调试阶段加倍地省回来。善用实验跟踪一定要用wandb或tensorboard。每次实验都记录完整的超参数配置。当发现某个模型效果好时你能精确地复现它而不是靠记忆。理解你的评估标准在训练前就想好如何评估模型。是人工看感觉还是用自动化指标定义清晰的评估标准才能指导你调整超参数的方向。社区是你的后盾遇到诡异的问题先去项目的 Issue 页面、Hugging Face 论坛或相关 Discord 频道搜索。你遇到的坑很可能别人已经踩过并提供了解决方案。FareedKhan-dev/train-deepseek-r1这样的项目提供了一个宝贵的起点和参考框架。但它不是银弹。真正的价值在于你通过运行它、修改它、调试它从而深入理解大模型微调每一个环节背后的原理和权衡。这个过程积累的经验才是你作为开发者或研究者最核心的资产。希望这份结合项目解读与实战经验的指南能帮你更顺畅地开启自己的大模型定制之旅。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2609915.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…