【论文解读】MAML:模型无关的元学习框架
玄同 765大语言模型 (LLM) 开发工程师 | 中国传媒大学 · 数字媒体技术智能交互与游戏设计CSDN · 个人主页 | GitHub · Follow关于作者深耕领域大语言模型开发 / RAG 知识库 / AI Agent 落地 / 模型微调技术栈Python | RAG (LangChain / Dify Milvus) | FastAPI Docker工程能力专注模型工程化部署、知识库构建与优化擅长全流程解决方案「让 AI 交互更智能让技术落地更高效」欢迎技术探讨与项目合作解锁大模型与智能交互的无限可能【论文解读】MAML模型无关的元学习框架论文Model-Agnostic Meta-Learning for Fast Adaptation of Deep Networks作者Chelsea Finn, Pieter Abbeel, Sergey Levine (UC Berkeley)发表会议ICML 2017论文链接https://arxiv.org/abs/1703.03400摘要MAML提出了一种模型无关的元学习算法通过学习一个好的参数初始化使得模型能够在少量梯度更新后快速适应新任务。该方法与任何基于梯度优化的模型兼容适用于分类、回归、强化学习等多种学习问题。本文深入解析MAML的核心思想、算法实现及其对小样本学习和元学习领域的影响。一、从学习到学会学习传统的机器学习关注如何在一个特定任务上训练模型。但现实世界中我们经常面临一系列相关但不同的任务。比如一个图像分类系统可能需要识别新的类别一个机器人可能需要适应新的环境一个推荐系统可能需要处理新用户的偏好。这就引出了**元学习Meta-Learning**的概念学会学习。元学习的目标不是解决某个具体任务而是学习一种能力使得模型能够快速适应新任务。想象一个场景你是一个经验丰富的程序员学习一门新编程语言只需要几天而一个编程新手可能需要几个月。这种快速学习新语言的能力就是元学习要解决的问题。MAML的核心思想是学习一个好的初始参数使得模型在新任务上只需要几步梯度更新就能达到良好性能。元学习任务分布 p(T)元训练学习初始化参数新任务 T_new少量梯度更新解决新任务传统学习任务T模型训练解决任务T二、MAML的核心思想MAML的直觉可以用一句话概括寻找一个参数空间中的好位置从这个位置出发向任何任务方向走几步都能到达该任务的最优解附近。这就像登山传统学习是从随机位置出发向山顶攀登而MAML是寻找一个高地从这个高地出发向任何方向走几步都能到达附近的山顶。2.1 问题形式化假设我们有一个任务分布p ( T ) p(\mathcal{T})p(T)每个任务T i \mathcal{T}_iTi有一个损失函数L T i \mathcal{L}_{\mathcal{T}_i}LTi。MAML的目标是找到一个初始参数θ \thetaθ使得对于从p ( T ) p(\mathcal{T})p(T)采样的任何新任务只需要几步梯度更新就能达到低损失。具体来说对于一个新任务T i \mathcal{T}_iTi我们进行K KK步梯度更新θ i ′ θ − α ∇ θ L T i ( f θ ) \theta_i \theta - \alpha \nabla_\theta \mathcal{L}_{\mathcal{T}_i}(f_\theta)θi′θ−α∇θLTi(fθ)其中α \alphaα是任务内的学习率。MAML的元目标是最小化更新后参数的损失min θ ∑ T i ∼ p ( T ) L T i ( f θ i ′ ) \min_\theta \sum_{\mathcal{T}_i \sim p(\mathcal{T})} \mathcal{L}_{\mathcal{T}_i}(f_{\theta_i})θminTi∼p(T)∑LTi(fθi′)2.2 双层优化MAML本质上是一个双层优化问题。内层优化在每个任务上进行梯度更新得到任务特定的参数外层优化调整初始参数使得内层优化后的损失最小。内层优化任务适应采样任务 Ti计算梯度∇θL_Ti(θ)更新参数θi θ - α∇θL_Ti(θ)计算适应后损失L_Ti(θi)外层优化元更新更新初始参数 θθ ← θ - β∇θΣL(θ)2.3 梯度计算MAML的关键技术挑战是如何计算外层优化的梯度。由于θ i ′ \theta_iθi′是通过梯度更新得到的我们需要计算梯度关于梯度的梯度∇ θ L T i ( f θ i ′ ) ∇ θ L T i ( f θ − α ∇ θ L T i ( f θ ) ) \nabla_\theta \mathcal{L}_{\mathcal{T}_i}(f_{\theta_i}) \nabla_\theta \mathcal{L}_{\mathcal{T}_i}(f_{\theta - \alpha \nabla_\theta \mathcal{L}_{\mathcal{T}_i}(f_\theta)})∇θLTi(fθi′)∇θLTi(fθ−α∇θLTi(fθ))这涉及到二阶导数的计算。在实践中可以使用自动微分系统来计算或者使用一阶近似First-Order MAML来避免二阶导数。三、MAML算法实现importtorchimporttorch.nnasnnimporttorch.nn.functionalasFfromtypingimportList,CallablefromcopyimportdeepcopyclassMAML: MAML元学习算法 通过学习好的初始化参数实现快速适应新任务。 Attributes: model: 基础模型 inner_lr: 内层学习率任务适应 outer_lr: 外层学习率元更新 num_inner_steps: 内层更新步数 first_order: 是否使用一阶近似 def__init__(self,model:nn.Module,inner_lr:float0.01,outer_lr:float0.001,num_inner_steps:int1,first_order:boolFalse):self.modelmodel self.inner_lrinner_lr self.outer_lrouter_lr self.num_inner_stepsnum_inner_steps self.first_orderfirst_order self.optimizertorch.optim.Adam(model.parameters(),lrouter_lr)definner_loop(self,task_support:tuple,num_steps:intNone)-nn.Module: 内层循环任务适应 Args: task_support: 任务支持集 (x, y) num_steps: 更新步数 Returns: 适应后的模型 num_stepsnum_stepsorself.num_inner_steps adapted_modeldeepcopy(self.model)optimizertorch.optim.SGD(adapted_model.parameters(),lrself.inner_lr)x_support,y_supporttask_supportfor_inrange(num_steps):predictionsadapted_model(x_support)lossF.mse_loss(predictions,y_support)optimizer.zero_grad()loss.backward()optimizer.step()ifself.first_order:adapted_modelself._detach_model(adapted_model)returnadapted_modeldefmeta_update(self,task_batch:List[tuple])-float: 元更新外层优化 Args: task_batch: 任务批次每个任务包含(support, query) Returns: 平均元损失 meta_loss0.0fortask_support,task_queryintask_batch:adapted_modelself.inner_loop(task_support)x_query,y_querytask_query predictionsadapted_model(x_query)task_lossF.mse_loss(predictions,y_query)meta_losstask_loss meta_lossmeta_loss/len(task_batch)self.optimizer.zero_grad()meta_loss.backward()self.optimizer.step()returnmeta_loss.item()defadapt(self,task_support:tuple,num_steps:intNone)-nn.Module: 适应新任务 Args: task_support: 新任务的支持集 num_steps: 更新步数 Returns: 适应后的模型 returnself.inner_loop(task_support,num_steps)def_detach_model(self,model:nn.Module)-nn.Module:分离模型参数的计算图一阶近似forparaminmodel.parameters():param.detach_()returnmodelclassMAMLModel(nn.Module): MAML基础模型示例 简单的多层感知机用于回归任务。 def__init__(self,input_dim:int,hidden_dim:int40,output_dim:int1):super().__init__()self.netnn.Sequential(nn.Linear(input_dim,hidden_dim),nn.ReLU(),nn.Linear(hidden_dim,hidden_dim),nn.ReLU(),nn.Linear(hidden_dim,output_dim))defforward(self,x:torch.Tensor)-torch.Tensor:returnself.net(x)四、MAML的应用场景MAML的模型无关特性使其可以应用于多种学习问题。小样本图像分类是MAML最经典的应用场景。给定一个包含多个类别的图像数据集每个类别只有少量样本目标是学习一个模型能够快速适应新类别的分类任务。强化学习中MAML可以学习一个策略的初始化使得智能体能够在少量交互后适应新环境。比如一个学会行走的机器人可以快速适应不同的地形。神经架构搜索中MAML可以用于快速评估不同架构在新任务上的性能加速搜索过程。五、MAML的变体与改进MAML提出后涌现了许多改进工作。**First-Order MAML (FOMAML)**忽略二阶导数只使用一阶近似。这大大降低了计算成本同时保持了大部分性能。Reptile提出了一种更简单的元学习算法不需要计算梯度关于梯度的梯度。它通过在多个任务上交替训练来学习初始化参数。Meta-SGD将内层学习率也作为可学习的参数使得模型能够自适应地调整每个任务的学习步长。六、总结MAML以其简洁优雅的设计成为元学习领域的里程碑工作。它的核心贡献可以概括为三点模型无关性与任何基于梯度优化的模型兼容简单有效不需要复杂的架构设计广泛适用支持分类、回归、强化学习等多种任务。MAML的成功启示我们好的初始化参数蕴含了丰富的先验知识。通过元学习我们可以将多个任务的知识压缩到一个初始参数中实现快速适应新任务的能力。参考链接MAML论文MAML GitHubReptile论文
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2411624.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!