32G显存消费级显卡也能搞定!LoRA+VLLM生产级部署,AI专属模型全流程实战教程

news2026/5/15 2:06:37
本文详细介绍了如何使用LoRA微调和vLLM推理部署在32G消费级显卡上完成AI模型从训练到上线的全流程。内容涵盖完整代码、逐行解释以及生产级部署方案包括数据预处理、模型加载、LoRA配置、训练参数设置、模型合并和vLLM部署等关键步骤。通过显存优化策略使得在资源有限的情况下也能高效运行并提供了常见问题解答和优化技巧总结。完整训练代码 vLLM 生产级部署方案32G 消费级显卡全流程跑通想拥有自己的专属 AI 模型却被动辄数百 GB 的显存需求劝退今天这篇教程带你用LoRA 微调vLLM 推理部署在32G 消费级显卡上完成从训练到上线的全流程。文章包含完整代码、逐行详细解释以及生产级部署方案收藏这一篇就够了。整体流程概览加载数据集 → 数据预处理 → 加载基座模型 → 配置LoRA → 训练 → 保存 → 清理显存 → 合并模型 → vLLM部署上线我们一步步来。一、环境准备pip install transformers datasets peft accelerate torch vllm核心依赖说明transformersHugging Face 模型框架训练主力datasets数据处理工具peft参数高效微调库LoRA 就在这里accelerate分布式训练与显存优化torchPyTorch 深度学习框架vllm高性能推理引擎部署用二、加载数据集from datasets import load_datasetimport transformersds load_dataset(json, data_filesalpaca_gpt4_data_zh.json)ds ds[train]print(ds[:3])print(transformers.__version__)详细解释load_dataset(json, data_filesalpaca_gpt4_data_zh.json)从 JSON 文件加载中文指令微调数据集。每条数据包含三个字段字段含义示例instruction指令“请解释什么是光合作用”input输入可选提供任务的上下文或具体输入output期望输出“光合作用是植物利用光能…”ds[train]取训练集。print(ds[:3])打印前 3 条数据快速验证格式。print(transformers.__version__)记录版本号方便日后复现。三、数据预处理核心步骤3.1 加载分词器from transformers import AutoTokenizertokenizer AutoTokenizer.from_pretrained(/home/will/models/llama)tokenizer.pad_token tokenizer.eos_tokenAutoTokenizer.from_pretrained(...)加载与 LLaMA 模型配套的分词器把文本转成模型能理解的 token IDstokenizer.pad_token tokenizer.eos_tokenLLaMA 原始分词器没有定义 pad_token借用 eos_token结束标记来补齐 batch 内的短序列3.2 构造训练样本def process_func(example): MAX_LENGTH 512 instruction tokenizer( \n.join([Human: example[instruction], example[input]]).strip() \n\nAssistant: , add_special_tokensFalse ) response tokenizer( example[output] tokenizer.eos_token, add_special_tokensFalse ) input_ids instruction[input_ids] response[input_ids] attention_mask instruction[attention_mask] response[attention_mask] labels [-100] * len(instruction[input_ids]) response[input_ids] if len(input_ids) MAX_LENGTH: input_ids input_ids[:MAX_LENGTH] attention_mask attention_mask[:MAX_LENGTH] labels labels[:MAX_LENGTH] return { input_ids: input_ids, attention_mask: attention_mask, labels: labels }这段代码是整篇文章最需要理解的部分 对话格式构造把数据拼接成如下格式Human: 请解释什么是光合作用Assistant: 光合作用是植物利用光能...eosHuman:代表用户提问Assistant:代表模型回答。这种格式让模型学会问答对话模式。 add_special_tokensFalse默认分词器会在文本开头自动加bos。设为 False 是因为我们要手动控制 token 拼接顺序——先 instruction 后 response由自己决定特殊标记的位置。 labels 的设置指令微调的精髓labels [-100] * len(instruction[input_ids]) response[input_ids]-100是 CrossEntropyLoss 的ignore_index标记为 -100 的位置不计算损失、不参与训练只有Assistant:之后的回复部分才参与训练为什么因为我们要训练的是模型 “如何回答”而不是训练它 “如何重复问题”。完整 input_ids: [Human: ... \n\nAssistant: ...回复内容...] |←────── 忽略不训练 ──────→|←── 训练这部分 ──→|对应 labels: [-100, -100, ..., -100, 回复的token_ids...] MAX_LENGTH 512限制每条样本最大 512 个 token。超长截断目的是控制显存——序列越长显存消耗越大。32G 显卡处理 512 长度比较安全。3.3 执行预处理tokenized_ds ds.map(process_func, remove_columnsds.column_names)print(tokenized_ds)print(tokenizer.decode(tokenized_ds[0][input_ids]))print(tokenizer.decode(list(filter(lambda x: x ! -100, tokenized_ds[0][labels]))))ds.map(...)对每条样本应用处理函数remove_columns...删除原始列只保留input_ids、attention_mask、labels下面三行验证处理结果打印数据结构、还原 input_ids 为文本、过滤 -100 后还原 labels确保格式正确四、加载基座模型import torchfrom transformers import AutoModelForCausalLMmodel AutoModelForCausalLM.from_pretrained( /home/will/models/llama, low_cpu_mem_usageTrue, torch_dtypetorch.float16, device_mapauto, use_cacheFalse)参数详解参数值为什么这么设low_cpu_mem_usageTrue减少 CPU 内存占用避免加载大模型时 OOMtorch_dtypefloat16半精度显存比 float32 减半32G 显卡必备device_mapauto自动将模型层分配到可用 GPUuse_cacheFalse训练时不需要推理 KV cache关掉省显存 8bit 量化选项代码注释中提供# model AutoModelForCausalLM.from_pretrained(# /home/will/models/llama,# load_in_8bitTrue,# device_mapauto,# use_cacheFalse# )如果模型较大如 13B建议开启 8bit 量化需安装bitsandbytes。五、配置 LoRA 微调from peft import LoraConfig, TaskType, get_peft_modelconfig LoraConfig(task_typeTaskType.CAUSAL_LM)model get_peft_model(model, config)model.print_trainable_parameters()LoRA 原理一句话不改动原始权重在每层旁边加一个小型旁路适配器只训练这个小适配器。就像改造大楼不需要重建只需要在每层加个小阳台——阳台很小成本自然低。LoraConfig 默认参数参数默认值含义r8秩rank决定适配器大小。越大表达能力越强lora_alpha8缩放系数控制 LoRA 权重影响力lora_dropout0Dropout 比率防过拟合target_modulesNone自动检测所有线性层q_proj, v_proj 等生产环境建议显式指定config LoraConfig( task_typeTaskType.CAUSAL_LM, r16, lora_alpha32, # 通常是 r 的 2 倍 lora_dropout0.05, target_modules[q_proj, v_proj],)get_peft_model 做了什么原始模型权重被冻结不参与训练不需要梯度只有 LoRA 适配器的参数可训练可训练参数通常只有原模型的0.1% ~ 1%执行print_trainable_parameters()你会看到类似trainable params: 4,194,304 || all params: 7,000,000,000 || trainable%: 0.0599%7B 的模型只训练约 400 万参数六、配置训练参数from transformers import TrainingArguments, Trainer, DataCollatorForSeq2Seqargs TrainingArguments( output_dir./chatbot, per_device_train_batch_size1, per_device_eval_batch_size1, gradient_accumulation_steps8, logging_steps10, num_train_epochs1, gradient_checkpointingTrue, optimadamw_torch, save_steps500, save_total_limit2, fp16True, bf16False, dataloader_num_workers0, remove_unused_columnsFalse,)参数逐行详解参数值含义output_dir./chatbot模型和检查点保存目录per_device_train_batch_size1每张 GPU 每次处理 1 条32G 显卡安全值gradient_accumulation_steps8梯度累积。等效 batch_size 1 × 8 8。每 8 步才更新一次权重logging_steps10每 10 步打印训练日志num_train_epochs1指令微调 1-3 轮即可多了容易过拟合gradient_checkpointingTrue梯度检查点。用时间换显存省约 60% 激活显存optimadamw_torchAdamW 优化器save_steps500每 500 步保存检查点save_total_limit2最多保留 2 个检查点超了自动删最旧的fp16True混合精度训练bf16False不启用 bf16需 Ampere 架构 RTX 30/40 系列dataloader_num_workers0主进程加载避免多进程问题remove_unused_columnsFalse保留所有数据列关于有效 Batch Size有效 batch_size per_device_batch_size × gradient_accumulation_steps × GPU数量 1 × 8 × 1 8虽然每次只处理 1 条数据但通过梯度累积等效于 batch_size8 的训练效果。七、开始训练trainer Trainer( modelmodel, argsargs, train_datasettokenized_ds.select(range(6000)), data_collatorDataCollatorForSeq2Seq(tokenizertokenizer, paddingTrue))import gcgc.collect()torch.cuda.empty_cache()trainer.train()关键点tokenized_ds.select(range(6000))取前 6000 条样本。大数据集可先取一部分跑通流程DataCollatorForSeq2Seqbatch 内序列对齐自动 paddinggc.collect()torch.cuda.empty_cache()训练前清理显存碎片trainer.train()一行启动自动处理前向传播、反向传播、梯度累积、学习率调度、日志记录、检查点保存训练日志示例{loss: 1.2345, learning_rate: 5e-5, epoch: 0.5}{loss: 1.1234, learning_rate: 4.8e-5, epoch: 0.6}loss 逐渐下降模型在认真学习八、保存模型trainer.save_model()tokenizer.save_pretrained(./chatbot)这里保存的只是 LoRA 适配器的权重通常只有几十 MB不是完整模型。好处同一基础模型可以训练多个不同任务的适配器灵活切换。九、清理显存为合并做准备del modeldel trainertorch.cuda.empty_cache()gc.collect()删除训练对象释放显存。下一步的模型合并需要额外空间不清理会 OOM。十、合并模型base_model AutoModelForCausalLM.from_pretrained( /home/will/models/llama, torch_dtypetorch.float16, device_mapcpu, low_cpu_mem_usageTrue)from peft import PeftModelmodel PeftModel.from_pretrained(base_model, ./chatbot)merged_model model.merge_and_unload()merged_output_dir ./chatbot_mergedmerged_model.save_pretrained(merged_output_dir)tokenizer.save_pretrained(merged_output_dir)print(fMerged model saved to {merged_output_dir})print(Training and merge completed!)为什么要合并LoRA 训练后权重是 “分离” 的——基础模型一套适配器一套。合并把 LoRA 权重加回基础模型对应层得到完整的独立模型。为什么加载到 CPUdevice_mapcpu合并不需要 GPU 加速把 GPU 腾出来避免显存不足32G 显卡同时加载基础模型 做合并操作压力太大合并后的目录结构./chatbot_merged/├── config.json # 模型配置├── pytorch_model.bin # 完整模型权重├── tokenizer.json # 分词器文件├── tokenizer_config.json└── ...十一、vLLM 部署上线模型训练合并完成后就可以部署了。这里我们使用vLLM——目前最快的开源大模型推理引擎。启动命令python -m vllm.entrypoints.openai.api_server \ --model /code/chatbot_merged \ --served-model-name llama \ --max-model-len 8192 \ --host 0.0.0.0 \ --port 6006 \ --dtype bfloat16 \ --gpu-memory-utilization 0.8 \ --trust-request-chat-template \ --enable-auto-tool-choice \ --tool-call-parser hermes参数逐行详解参数值含义--model/code/chatbot_merged指向合并后的模型目录--served-model-namellamaAPI 中显示的模型名称--max-model-len8192最大上下文长度 8K。模型能处理的最长 token 数--host0.0.0.0监听所有网络接口允许远程访问--port6006服务端口--dtypebfloat16使用 bf16 精度推理。比 fp16 数值稳定性更好不会溢出前提是你的显卡支持 bf16RTX 30/40 系列都支持--gpu-memory-utilization0.8限制 GPU 显存使用率为 80%。留 20% 给系统和其他进程避免把显卡吃满导致崩溃--trust-request-chat-template—信任模型自带的对话模板自动处理 Human/Assistant 格式--enable-auto-tool-choice—启用自动工具选择让模型能够自主决定何时调用外部工具--tool-call-parserhermes使用 Hermes 格式解析工具调用。如果你的模型支持 Function CallingvLLM 会自动识别并执行为什么用 vLLM相比直接用 transformers 推理vLLM 有巨大优势特性transformersvLLM推理速度基准快 2-10 倍显存效率一般PagedAttention 技术显存利用率极高并发处理差支持高并发自带批处理API 兼容性需要自己写兼容 OpenAI API 格式最关键的一点vLLM 的 API 完全兼容 OpenAI 格式。这意味着所有用 OpenAI SDK 的代码只需要改一行就能切换到自己的模型# 只需要改 base_url其他代码不用动from openai import OpenAIclient OpenAI( base_urlhttp://localhost:6006/v1, api_keynot-needed # 本地部署不需要 key)response client.chat.completions.create( modelllama, messages[ {role: user, content: 请介绍一下中国的首都} ])print(response.choices[0].message.content)验证服务是否正常启动后访问http://你的IP:6006/v1/models如果返回模型信息说明服务正常。也可以用 curl 测试curl http://localhost:6006/v1/chat/completions \ -H Content-Type: application/json \ -d { model: llama, messages: [ {role: user, content: 你好请自我介绍一下} ] }关于 dtype 的补充说明训练时用的是fp16部署用的是bf16。这是可以的模型权重在合并后保存在磁盘上加载时 vLLM 会自动转换bf16比fp16数值范围更大推理时更稳定不容易出现 NaN前提条件你的显卡需要支持 bf16RTX 3090/4090 等 Ampere/Ada 架构都支持如果你的显卡不支持 bf16如 RTX 2080Ti改成--dtype float16即可。十二、32G 显卡优化总结训练阶段技巧效果float16半精度显存减半gradient_checkpointing省约 60% 激活显存batch_size1gradient_accumulation8小 batch 模拟大 batchMAX_LENGTH512控制序列长度训练后delempty_cache及时释放显存模型合并放在 CPU避免 GPU OOM推理阶段技巧效果--gpu-memory-utilization 0.8限制显存使用留出余量--dtype bfloat16更稳定的半精度推理--max-model-len 8192支持长上下文训练时 512 也没关系推理时可以更长vLLM PagedAttention显存利用率远高于原生推理十三、常见问题Q1: 训练很慢怎么办先用少量数据1000 条跑通流程降低MAX_LENGTH到 256确认模型确实跑在 GPU 上Q2: loss 不下降添加learning_rate2e-4到 TrainingArguments用tokenizer.decode检查数据格式尝试num_train_epochs3Q3: 合并时 OOM确保训练后已del model并清理显存device_mapcpu必须设Q4: vLLM 启动报错 Out of Memory降低--gpu-memory-utilization到 0.7 或 0.6减小--max-model-len确认没有其他进程占用 GPUnvidia-smi查看Q5: 训练用 fp16部署用 bf16 会不会有问题不会。合并后的模型权重加载时 vLLM 会自动转换精度bf16 比 fp16 数值范围更大推理更稳定​最后我在一线科技企业深耕十二载见证过太多因技术更迭而跃迁的案例。那些率先拥抱 AI 的同事早已在效率与薪资上形成代际优势我意识到有很多经验和知识值得分享给大家也可以通过我们的能力和经验解答大家在大模型的学习中的很多困惑。我整理出这套 AI 大模型突围资料包✅AI大模型学习路线图✅Agent行业报告✅100集大模型视频教程✅大模型书籍PDF✅DeepSeek教程✅AI产品经理入门资料完整的大模型学习和面试资料已经上传带到CSDN的官方了有需要的朋友可以扫描下方二维码免费领取【保证100%免费】​​为什么说现在普通人就业/升职加薪的首选是AI大模型人工智能技术的爆发式增长正以不可逆转之势重塑就业市场版图。从DeepSeek等国产大模型引发的科技圈热议到全国两会关于AI产业发展的政策聚焦再到招聘会上排起的长队AI的热度已从技术领域渗透到就业市场的每一个角落。智联招聘的最新数据给出了最直观的印证2025年2月AI领域求职人数同比增幅突破200%远超其他行业平均水平整个人工智能行业的求职增速达到33.4%位居各行业榜首其中人工智能工程师岗位的求职热度更是飙升69.6%。AI产业的快速扩张也让人才供需矛盾愈发突出。麦肯锡报告明确预测到2030年中国AI专业人才需求将达600万人人才缺口可能高达400万人这一缺口不仅存在于核心技术领域更蔓延至产业应用的各个环节。​​资料包有什么①从入门到精通的全套视频教程⑤⑥包含提示词工程、RAG、Agent等技术点② AI大模型学习路线图还有视频解说全过程AI大模型学习路线③学习电子书籍和技术文档市面上的大模型书籍确实太多了这些是我精选出来的④各大厂大模型面试题目详解⑤ 这些资料真的有用吗?这份资料由我和鲁为民博士共同整理鲁为民博士先后获得了北京清华大学学士和美国加州理工学院博士学位在包括IEEE Transactions等学术期刊和诸多国际会议上发表了超过50篇学术论文、取得了多项美国和中国发明专利同时还斩获了吴文俊人工智能科学技术奖。目前我正在和鲁博士共同进行人工智能的研究。所有的视频教程由智泊AI老师录制且资料与智泊AI共享相互补充。这份学习大礼包应该算是现在最全面的大模型学习资料了。资料内容涵盖了从入门到进阶的各类视频教程和实战项目无论你是小白还是有些技术基础的这份资料都绝对能帮助你提升薪资待遇转行大模型岗位。智泊AI始终秉持着“让每个人平等享受到优质教育资源”的育人理念‌通过动态追踪大模型开发、数据标注伦理等前沿技术趋势‌构建起前沿课程智能实训精准就业的高效培养体系。课堂上不光教理论还带着学员做了十多个真实项目。学员要亲自上手搞数据清洗、模型调优这些硬核操作把课本知识变成真本事‌​​​​如果说你是以下人群中的其中一类都可以来智泊AI学习人工智能找到高薪工作一次小小的“投资”换来的是终身受益应届毕业生‌无工作经验但想要系统学习AI大模型技术期待通过实战项目掌握核心技术。零基础转型‌非技术背景但关注AI应用场景计划通过低代码工具实现“AI行业”跨界‌。业务赋能 ‌突破瓶颈传统开发者Java/前端等学习Transformer架构与LangChain框架向AI全栈工程师转型‌。获取方式有需要的小伙伴可以保存图片到wx扫描二v码免费领取【保证100%免费】**​

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2613796.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…