大语言模型微调实战:从LoRA到QLoRA的高效适配策略

news2026/5/6 14:15:44
1. 项目概述大语言模型微调的核心价值最近在GitHub上看到一个热度很高的项目ashishpatel26/LLM-Finetuning。这个仓库名直白地指向了当前AI领域最核心的实践之一大语言模型的微调。对于很多刚接触LLM的朋友来说可能会觉得“微调”这个词听起来很专业甚至有些遥不可及。但实际上它恰恰是让那些动辄千亿参数的“庞然大物”真正为你所用的关键一步。简单来说预训练好的大模型就像一个博学但缺乏特定领域经验的通才它知道很多但未必能精准地回答你的专业问题或者按照你期望的风格进行创作。微调就是为这位“通才”进行一场针对性的、高效率的“岗前培训”。这个项目之所以吸引我是因为它没有停留在理论层面而是直接提供了从数据准备、模型选择、训练配置到评估部署的一整套可操作的代码和流程。无论你是想打造一个精通法律文书写作的助手一个能理解你公司内部知识库的问答机器人还是一个具有特定品牌口吻的营销文案生成器微调都是必经之路。通过这个项目我们可以深入理解如何将通用的GPT、LLaMA、BLOOM等模型驯化成解决特定任务的得力工具。接下来我将结合自己的实践经验拆解微调的全流程分享其中的核心思路、实操要点以及那些容易踩坑的细节。2. 微调策略全景解析从全参数到高效适配在动手写代码之前我们必须先想清楚到底要对模型“动多大的手术”不同的微调策略在效果、资源消耗和训练速度上差异巨大。ashishpatel26/LLM-Finetuning项目通常会涵盖几种主流策略理解它们的优劣是成功的第一步。2.1 全参数微调效果的天花板与资源的无底洞全参数微调是最直接、理论上效果最好的方法。顾名思义它会更新模型所有权重参数。这相当于让模型从头到尾重新学习你提供的数据因此它能最大程度地吸收新知识适应新任务。为什么有时必须用全参微调当你的目标任务与模型预训练时的数据分布差异极大时比如让一个通用聊天模型去学习生成高度结构化的代码或者理解某个极小众领域的专业术语全参微调可能是唯一有效的选择。因为它能调整模型最底层的特征表示。实操中的残酷现实然而全参微调的代价是巨大的。以一个有70亿参数的模型为例使用BF16混合精度训练仅模型参数本身就需要大约14GB的显存。加上优化器状态如AdamW、梯度、激活值等显存需求轻松突破40GB。这几乎是非顶级消费级显卡如RTX 4090 24GB无法承受的。更不用说千亿级模型了。因此全参微调通常是拥有海量计算资源的机构或云服务用户的选项。注意即使显存勉强够用也要警惕训练时间。全参微调可能需要数天甚至数周对实验迭代速度是极大的挑战。在资源有限的情况下贸然尝试全参微调很容易陷入“训练一周效果平平”的困境。2.2 高效微调技术在效果与效率间寻找平衡正因为全参微调的昂贵一系列高效微调技术应运而生。它们的核心思想是只更新模型的一小部分参数或者引入少量新的可训练参数从而大幅降低计算和存储开销。2.2.1 LoRA当前社区实践的绝对主流LoRALow-Rank Adaptation的思路非常巧妙。它不在原始权重矩阵W上直接做大的更新而是假设模型在适应新任务时其权重变化具有“低秩”特性。因此它引入两个小的矩阵A和B使得更新量 ΔW BA。其中B和A的维度远小于W。 例如对于一个768x768的权重矩阵如果设置LoRA的秩r8那么A的维度是768x8B的维度是8x768。可训练参数从约59万768768骤降到约1.2万7688 8*768。通常只将LoRA适配器应用于模型中的注意力模块Q, K, V, O投影层参数量减少到原来的0.1%甚至更少。LoRA的优势显存友好训练时只需存储小矩阵的梯度和优化器状态显存占用仅为全参微调的几分之一。部署灵活训练完成后可以将BA矩阵合并回原始权重得到一个独立的、无需额外加载适配器的模型推理速度与原始模型一致。也可以选择不合并动态加载适配器实现一个基础模型服务多个任务。效果接近全参在许多任务上尤其是指令跟随和风格化任务LoRA能达到与全参微调媲美的效果。2.2.2 QLoRA在消费级显卡上微调大模型的利器QLoRA是LoRA的进一步升级它结合了量化技术。其核心是将预训练模型权重量化为4-bitNF4格式但在前向和反向传播时将权重反量化回BF16精度进行计算。同时像LoRA一样只训练这些低秩适配器。QLoRA的魔法通过4-bit量化一个65B参数的模型其权重在显存中只需占用大约32GB65B * 0.5 bytes这使得在单张40GB或48GB显存的显卡上微调超大模型成为可能。虽然计算时会有反量化的开销但相比显存瓶颈这个代价是完全可以接受的。ashishpatel26/LLM-Finetuning项目若支持QLoRA那它的实用性将大大增强。2.2.3 P-Tuning与Prefix-Tuning另一种高效路径这类方法侧重于在输入层面做文章。P-Tuning将一系列可训练的“连续提示”向量插入到输入词嵌入中模型通过这些软提示来激发其完成特定任务的能力。Prefix-Tuning则是在每一层Transformer的注意力机制前添加可训练的前缀向量。 它们的优点是参数效率极高有时只需数万参数。但在一些复杂任务上其效果可能不如LoRA稳定且生成的“提示”难以直观解释。策略选择心法资源极度有限24GB显存任务相对简单优先尝试LoRA秩r可以从8或16开始。资源有限但任务复杂或模型巨大30BQLoRA是你的首选。追求极致效果且有充足资源可以尝试全参微调或结合LoRA进行。需要快速进行多任务实验LoRA或P-Tuning系列便于快速切换和比较不同适配器。3. 数据工程微调成功的基石模型和策略选得再好如果数据出了问题一切都是徒劳。微调数据的质量直接决定了模型的上限。这部分工作往往比写训练脚本更耗时也更重要。3.1 数据格式与构建从对话到指令目前主流的微调数据格式是对话格式例如Alpaca格式或ChatML格式。这很好地对应了LLM交互的本质。Alpaca格式示例{ instruction: 写一首关于春天的诗。, input: , output: 春风拂面柳丝长细雨润物百花香...此处省略 }ChatML格式示例{ messages: [ {role: system, content: 你是一个诗人助手。}, {role: user, content: 写一首关于春天的诗。}, {role: assistant, content: 春风拂面柳丝长细雨润物百花香...} ] }如何构建高质量数据明确任务定义你的模型最终要做什么是单轮问答、多轮对话、文本续写还是代码生成这决定了你数据的结构。利用现有模型生成这是一个高效的方法。你可以用GPT-4等更强的模型根据一些“种子”指令或场景批量生成高质量的“指令-输出”对。然后进行人工筛选和修正。这被称为“蒸馏”。收集真实交互数据如果你有产品可以收集用户与现有AI系统的匿名对话日志。这是最宝贵的数据但需要仔细清洗去除噪音和敏感信息。数据量并非绝对对于LoRA等高效微调几百到几千条高质量数据往往就能带来显著提升。盲目追求数万条低质数据不如精炼一千条优质数据。3.2 数据清洗与预处理魔鬼在细节中原始数据几乎总是“脏”的必须经过清洗。去除无关信息HTML标签、特殊字符、乱码、广告文本等。标准化格式统一日期、数字、专有名词的写法。处理长度异常过短的样本可能信息不足过长的样本可能导致训练效率低下甚至显存溢出。需要设定合理的截断或过滤策略。去重完全重复或高度相似的样本会导致模型过拟合。敏感信息过滤移除包含个人身份信息、攻击性言论、偏见内容的数据。分词与长度处理使用与模型对应的分词器Tokenizer对文本进行分词。关键一步是统一序列长度。填充将短序列补足到固定长度。截断将长序列截断到模型最大上下文长度如4096。 这里有一个重要技巧在计算损失Loss时通常会对填充部分Padding Tokens进行掩码使其不参与梯度计算。在Hugging Face的Trainer中可以通过设置data_collator为DataCollatorForSeq2Seq并指定paddingTrue和label_pad_token_id为-100来实现因为-100在计算交叉熵损失时会被忽略。3.3 数据增强小数据集的“强心剂”当数据量有限时数据增强可以有效地提升模型的泛化能力。回译将文本翻译成另一种语言再翻译回来可以得到语义相同但表述不同的句子。同义词替换使用词库或词向量替换句子中的部分非核心词汇。句式改写主动句变被动句陈述句变疑问句等。指令改写对同一条指令用多种不同的方式表达。例如“总结这篇文章”可以改写为“请为下面这段文字生成一个摘要”、“你能概括一下主要内容吗”。实操心得数据增强要适度避免引入语义扭曲或语法错误。最好能对增强后的数据进行人工抽查。对于关键任务宁可数据少而精也不要多而杂。4. 训练流程深度实操与参数精调有了数据和策略我们进入核心的训练环节。这里以使用Hugging Facetransformers和peft(Parameter-Efficient Fine-Tuning) 库结合LoRA微调一个模型为例拆解每一步。4.1 环境搭建与模型加载首先确保环境包含必要的库transformers,datasets,accelerate,peft,bitsandbytes(如果使用QLoRA),trl(如果需要RLHF)等。from transformers import AutoModelForCausalLM, AutoTokenizer, TrainingArguments, Trainer from peft import LoraConfig, get_peft_model, TaskType import torch加载模型与分词器model_name meta-llama/Llama-2-7b-chat-hf # 示例模型 tokenizer AutoTokenizer.from_pretrained(model_name) # 关键设置padding token如果tokenizer没有的话 if tokenizer.pad_token is None: tokenizer.pad_token tokenizer.eos_token # 通常用eos_token作为pad_token model AutoModelForCausalLM.from_pretrained( model_name, load_in_4bitTrue, # 启用QLoRA bnb_4bit_compute_dtypetorch.bfloat16, # 计算精度 bnb_4bit_use_double_quantTrue, # 双重量化进一步节省内存 bnb_4bit_quant_typenf4, # 量化类型 device_mapauto, # 自动分配多GPU trust_remote_codeTrue # 如果模型需要 )这里使用了bitsandbytes库的4-bit量化加载这是QLoRA的关键。device_map”auto”可以让accelerate库自动将模型层分布到多个GPU上对于大模型非常有用。4.2 配置LoRA适配器接下来我们告诉peft库要对模型的哪些部分应用LoRA。lora_config LoraConfig( task_typeTaskType.CAUSAL_LM, # 因果语言模型任务 r8, # LoRA的秩最重要的超参数之一 lora_alpha32, # 缩放因子通常设为r的2-4倍 lora_dropout0.1, # LoRA层的dropout率防止过拟合 target_modules[q_proj, k_proj, v_proj, o_proj], # 针对LLaMA架构 biasnone, # 是否训练偏置项 ) peft_model get_peft_model(model, lora_config) peft_model.print_trainable_parameters() # 打印可训练参数量确认远小于总参数量r (秩)这是LoRA最重要的超参数。越大适配能力越强但参数越多越可能过拟合。一般从4、8、16开始尝试。对于7B模型r8是一个不错的起点。target_modules需要根据模型架构调整。对于LLaMA通常是注意力层的四个投影矩阵。对于GPT-2可能是c_attn和c_proj。查看模型结构print(model)来确定。lora_alpha可以理解为学习率的缩放因子。经验上保持lora_alpha/r为一个固定值如2或4有助于稳定训练。4.3 定义数据整理与训练参数数据整理函数def tokenize_function(example): # 假设数据格式为 {instruction: ..., input: ..., output: ...} prompt f### Instruction:\n{example[instruction]}\n\n### Input:\n{example[input]}\n\n### Response:\n full_text prompt example[output] tokenizer.eos_token tokenized tokenizer(full_text, truncationTrue, max_length512) # 创建labels将prompt部分设为-100以忽略其损失 prompt_len len(tokenizer(prompt, truncationTrue, max_length512)[input_ids]) tokenized[labels] [-100] * prompt_len tokenized[input_ids][prompt_len:] return tokenized # 使用datasets库加载并处理数据 from datasets import load_dataset dataset load_dataset(json, data_filesmy_data.json) tokenized_dataset dataset.map(tokenize_function, batchedTrue)这里的关键是labels的处理我们只希望模型学习生成“Response”部分因此将“Instruction”和“Input”部分的标签设为-100损失忽略标记。配置训练参数training_args TrainingArguments( output_dir./llama2-lora-finetuned, per_device_train_batch_size4, # 根据显存调整 gradient_accumulation_steps4, # 模拟更大的batch size num_train_epochs3, # 训练轮数 logging_steps10, save_steps500, learning_rate2e-4, # LoRA学习率通常比全参微调大1e-4到5e-4 fp16True, # 或bf16True (如果硬件支持) warmup_steps100, optimpaged_adamw_8bit, # 使用分页AdamW优化器节省内存 lr_scheduler_typecosine, report_totensorboard, remove_unused_columnsFalse, )batch size受显存限制。通过gradient_accumulation_steps进行梯度累积可以等效增大batch size。例如per_device_train_batch_size4且gradient_accumulation_steps4等效batch size为16。学习率LoRA的学习率可以设得比全参微调通常5e-5高一个数量级因为更新的参数很少。优化器paged_adamw_8bit来自bitsandbytes是内存优化的AdamW版本对QLoRA训练非常友好。4.4 启动训练与保存trainer Trainer( modelpeft_model, argstraining_args, train_datasettokenized_dataset[train], data_collatorDataCollatorForSeq2Seq(tokenizer, pad_to_multiple_of8), # 填充到8的倍数某些硬件上效率更高 ) trainer.train()训练开始后密切关注损失曲线。正常情况下损失应该稳步下降并逐渐趋于平缓。保存与合并训练完成后保存LoRA适配器权重peft_model.save_pretrained(./my-lora-adapters)如果你想得到一个独立的、完整的模型文件用于部署可以将LoRA权重合并回原模型from peft import PeftModel # 重新加载基础模型非量化 base_model AutoModelForCausalLM.from_pretrained(model_name, torch_dtypetorch.float16) # 加载LoRA适配器并合并 model PeftModel.from_pretrained(base_model, ./my-lora-adapters) merged_model model.merge_and_unload() # 保存合并后的模型 merged_model.save_pretrained(./merged-finetuned-model) tokenizer.save_pretrained(./merged-finetuned-model)5. 评估、部署与持续迭代训练完成不是终点评估模型表现并部署到实际环境才是价值实现的开始。5.1 多维度评估策略不要只看训练损失必须从多个角度评估微调后的模型。1. 人工评估黄金标准设计一个涵盖各种场景的测试集50-100条由真人进行评估。评估维度包括相关性回答是否与问题相关准确性事实信息是否正确完整性是否全面回答了问题流畅性与风格语言是否通顺是否符合期望的风格如专业、亲切、简洁 可以设计打分表1-5分计算平均分。2. 自动评估指标困惑度在保留的验证集上计算困惑度衡量模型对数据的拟合程度。但需注意低困惑度不一定代表高质量生成。BLEU/ROUGE对于翻译、摘要等任务可以计算与参考文本的n-gram重叠度。但对开放域对话评估作用有限。基于LLM的评估使用一个更强的LLM如GPT-4作为裁判让它根据给定的准则对微调模型的输出进行评分或比较。这种方法越来越流行与人工评估相关性较高。3. A/B测试如果条件允许将微调后的模型与基线模型未微调的或采用其他方法微调的一起上线进行小流量的A/B测试比较关键业务指标如用户满意度、任务完成率、对话轮次等。5.2 部署方案选型如何将训练好的模型服务化方案一使用专有推理框架高性能首选vLLM目前社区最火的推理框架之一采用PagedAttention技术极大地提高了吞吐量降低延迟。特别适合高并发场景。TGIHugging Face的Text Generation Inference功能强大支持连续批处理、流式输出等。 部署示例vLLM# 启动一个API服务器 python -m vllm.entrypoints.api_server \ --model ./merged-finetuned-model \ --tensor-parallel-size 2 \ # 张量并行用于多GPU --served-model-name my-finetuned-llm方案二使用通用Web框架灵活轻量FastAPI Transformers自己编写API灵活性最高便于集成自定义逻辑。from fastapi import FastAPI from transformers import pipeline app FastAPI() generator pipeline(text-generation, model./merged-finetuned-model, device0) app.post(/generate) def generate_text(request: dict): prompt request[prompt] result generator(prompt, max_new_tokens200, temperature0.7) return {response: result[0][generated_text]}方案三云托管服务Replicate、Banana、RunPod等平台提供了简单的模型部署流程无需自己管理服务器。各大云厂商的AI平台如AWS SageMaker Google Vertex AI Azure ML提供企业级的托管服务。部署注意事项量化为了进一步降低部署成本可以对合并后的模型进行量化如GPTQ AWQ。这能大幅减少内存占用和提升推理速度但可能会带来轻微的质量损失。缓存对于频繁出现的提示可以引入缓存机制。监控部署后必须监控API的延迟、吞吐量、错误率和资源使用情况。5.3 持续迭代与模型维护模型上线后需要建立持续的迭代循环。1. 收集反馈数据这是最重要的步骤。通过日志记录用户与模型的真实交互。特别注意用户主动修改或重新生成回答的情况。对话被用户提前终止的情况。用户给出的负面反馈或低评分。2. 数据清洗与标注将收集到的原始交互转化为高质量的微调数据格式。可能需要人工标注员对模糊的案例进行判断和修正。3. 增量训练与版本管理不要每次都从头开始训练。可以基于上一版模型使用新收集的数据进行增量训练。使用LoRA可以很方便地训练新的适配器并与旧的适配器进行比较或融合。 建立严格的模型版本管理如使用DVC MLflow记录每次训练的数据、超参数、评估结果和模型文件。4. 评估与回滚新模型上线前必须在独立的测试集和线上小流量环境中进行充分评估。如果关键指标下降必须有快速回滚到旧版本的机制。微调大语言模型是一个系统工程从策略选择、数据打磨、训练调参到评估部署每个环节都充满了细节和挑战。ashishpatel26/LLM-Finetuning这类项目为我们提供了优秀的起点和工具链但真正的成功来自于对业务需求的深刻理解、对数据质量的执着追求以及在实践中不断试错和总结的经验。记住没有“一招鲜”的超参最好的配置永远来自于你的具体任务、数据和资源约束下的反复实验。开始动手从第一个小数据集和第一个LoRA实验跑起来你会在过程中学到远比这篇文章更多的东西。

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2585118.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…