从Gridworld到吃豆人:用Python拆解强化学习三大核心算法(值迭代、策略调参、Q学习)

news2026/4/1 22:22:54
从Gridworld到吃豆人Python实战强化学习三大核心算法1. 强化学习基础与马尔可夫决策过程想象一下你正在训练一只小狗完成障碍赛跑。每次它正确跳过障碍你会给予零食奖励如果撞到障碍则没有任何奖励。经过多次尝试小狗逐渐学会了最优路径——这就是强化学习的核心思想。在人工智能领域我们通过类似的试错奖励机制让智能体Agent学会在复杂环境中做出最佳决策。马尔可夫决策过程MDP为这种学习提供了数学框架。一个标准的MDP包含五个关键要素状态State环境当前情况的完整描述。在Gridworld中可能是智能体所在的网格坐标在吃豆人中则包括Pacman位置、剩余豆子分布等。动作Action智能体在每个状态可以采取的行为。Gridworld中可能是上、下、左、右移动吃豆人中还包括停止动作。转移概率Transition Probability执行某动作后状态转换的可能性。Gridworld中向北移动可能有80%概率成功20%概率因噪声而偏移。奖励函数Reward即时反馈信号。吃豆人吃豆得10分被幽灵抓到则-100分。折扣因子γ权衡即时奖励与未来奖励重要性的参数通常取值0.9到0.99。# Gridworld状态示例 class GridWorldState: def __init__(self, x, y): self.x x # 水平坐标 self.y y # 垂直坐标 self.is_terminal False # 是否为终止状态 def __eq__(self, other): return self.x other.x and self.y other.y贝尔曼方程是MDP的核心数学工具它建立了当前状态价值与后续状态价值之间的关系V*(s) max_a [ R(s,a) γ * Σ_s P(s|s,a) * V*(s) ]其中V*(s)表示状态s的最优价值R(s,a)是立即奖励P(s|s,a)是转移概率。这个递归公式表明当前状态的最优价值等于立即奖励加上所有可能后续状态的最优价值的折扣期望。2. 值迭代算法离线规划的经典方法值迭代Value Iteration属于离线规划算法它假设我们完全了解环境的动态特性即知道所有状态的转移概率和奖励。这种方法通过反复迭代更新状态价值最终收敛到最优价值函数。算法实现可分为三个关键步骤初始化将所有状态价值设为0或随机值迭代更新对每个状态应用贝尔曼最优方程策略提取当价值函数收敛后选择使Q值最大的动作def value_iteration(mdp, epsilon0.001, max_iterations1000): # 初始化所有状态价值为0 V {state: 0 for state in mdp.get_states()} for i in range(max_iterations): delta 0 new_V {} for state in mdp.get_states(): if mdp.is_terminal(state): new_V[state] 0 continue # 计算所有可能动作的Q值 q_values [] for action in mdp.get_actions(state): q_value 0 transitions mdp.get_transitions(state, action) for (next_state, prob) in transitions: reward mdp.get_reward(state, action, next_state) q_value prob * (reward gamma * V[next_state]) q_values.append(q_value) # 取最大Q值作为新状态价值 new_V[state] max(q_values) if q_values else 0 delta max(delta, abs(new_V[state] - V[state])) V new_V if delta epsilon: # 收敛判断 break # 提取最优策略 policy {} for state in mdp.get_states(): if mdp.is_terminal(state): policy[state] None continue best_action None best_value -float(inf) for action in mdp.get_actions(state): q_value 0 transitions mdp.get_transitions(state, action) for (next_state, prob) in transitions: reward mdp.get_reward(state, action, next_state) q_value prob * (reward gamma * V[next_state]) if q_value best_value: best_value q_value best_action action policy[state] best_action return V, policy值迭代有两个重要特性值得注意收敛保证在折扣因子γ1的情况下算法保证收敛到唯一最优解异步更新可以使用就地更新用新值立即覆盖旧值或同步更新保留旧值直到所有状态计算完成在Gridworld实验中我们可以观察到值迭代的典型行为迭代次数最大价值变化策略稳定性11.00%50.4530%100.1265%200.00198%提示实际应用中通常会设置一个较小的阈值如0.001来判断收敛而非固定迭代次数。3. Q学习无需环境模型的在线学习与值迭代不同Q学习Q-Learning是一种无模型的强化学习算法它不需要预先知道环境的转移概率。这种特性使其特别适合真实世界的应用场景如游戏AI、机器人控制等。Q学习的核心是Q函数表示在状态s采取动作a后遵循最优策略的期望总回报Q(s,a) R(s,a) γ * max_a Q(s,a)算法通过以下更新规则逐步优化Q值Q(s,a) ← (1-α)Q(s,a) α[R γ * max_a Q(s,a)]其中α是学习率控制新信息覆盖旧值的速度。class QLearningAgent: def __init__(self, actions, alpha0.1, gamma0.9, epsilon0.1): self.q_table defaultdict(float) # Q值表 self.actions actions # 可用动作集 self.alpha alpha # 学习率 self.gamma gamma # 折扣因子 self.epsilon epsilon # 探索概率 def get_action(self, state): # ε-greedy策略选择动作 if random.random() self.epsilon: return random.choice(self.actions) else: return self.best_action(state) def best_action(self, state): # 找出当前状态下Q值最大的动作 q_values [self.q_table[(state, a)] for a in self.actions] max_q max(q_values) # 可能有多个动作具有相同Q值 best_actions [a for a in self.actions if self.q_table[(state, a)] max_q] return random.choice(best_actions) def learn(self, state, action, reward, next_state): # Q学习更新规则 current_q self.q_table[(state, action)] max_next_q max([self.q_table[(next_state, a)] for a in self.actions]) new_q current_q self.alpha * ( reward self.gamma * max_next_q - current_q) self.q_table[(state, action)] new_q在吃豆人游戏中应用Q学习时我们需要特别注意状态表示。完整的状态空间包括Pacman位置 (x,y)每个豆子的存在与否 (2^d种可能d是豆子数量)每个幽灵的位置和状态 (正常/恐慌)这种组合会导致状态空间爆炸。解决方法包括特征工程提取关键特征而非原始状态函数逼近使用神经网络近似Q函数即DQN状态抽象将相似状态分组处理注意Q学习属于off-policy算法意味着它可以学习最优策略同时遵循不同的行为策略如ε-greedy进行探索。4. 策略调参折扣因子与奖励设计的艺术强化学习算法的性能很大程度上取决于超参数设置和奖励函数设计。以Gridworld为例我们可以通过调整三个关键参数显著改变智能体行为折扣因子γ控制未来奖励的重要性γ接近0近视只关心即时奖励γ接近1远视考虑长期回报噪声参数ε动作执行的不确定性高噪声动作结果不可靠鼓励保守策略低噪声动作结果确定可采取更激进策略生存奖励Living Reward每步存活的小额奖励/惩罚正奖励鼓励延长生存时间负奖励鼓励快速完成任务下表展示了不同参数组合对Gridworld智能体行为的影响场景折扣因子噪声生存奖励典型行为快速安全0.50.1-0.1选择最近出口避开危险冒险捷径0.90.0-0.5冒险穿越危险区域获取高回报保守长线0.950.20.1绕远路确保安全无限徘徊0.990.01.0避免终止状态永远移动奖励函数设计是强化学习中最具挑战性的环节之一。常见的设计原则包括稀疏奖励只在关键事件给予奖励如吃豆、到达终点优点易于实现缺点学习效率低可能需要大量探索密集奖励提供丰富的中间反馈如距离目标的接近程度优点加速学习缺点可能导致奖励黑客找到获取奖励但不解决问题的策略基于势能的奖励使用启发式函数引导学习def potential_based_reward(state, next_state): base_reward ... # 基础奖励 potential heuristic(next_state) - heuristic(state) return base_reward potential在吃豆人项目中一个有效的奖励设计方案可能是def get_reward(state, action, next_state): if eaten_ghost(next_state): return 50 # 吃到恐慌状态的幽灵 elif eaten_pellet(next_state): return 10 # 吃到能量豆 elif eaten_food(next_state): return 1 # 吃到普通豆子 elif pacman_died(next_state): return -100 # 被幽灵抓到 else: return -0.1 # 每步小惩罚鼓励高效通关5. 算法对比与实战建议值迭代、策略迭代和Q学习代表了强化学习的不同方法论。理解它们的区别对实际应用至关重要特性值迭代Q学习策略梯度需求完整MDP模型仅需状态-动作-奖励仅需状态-动作-奖励更新方式离线批量更新在线增量更新在线/离线均可收敛性保证收敛在适当条件下收敛可能收敛到局部最优适用场景小规模已知环境中大规模未知环境高维/连续动作空间实现复杂度中等较低较高对于Python实现强化学习算法我有几个实用建议使用面向对象设计将MDP、Agent等概念封装为类class MDP: def get_states(self): ... def get_actions(self, state): ... def get_transitions(self, state, action): ... class Agent: def __init__(self, mdp): ... def update(self, state, action, reward, next_state): ... def get_action(self, state): ...可视化调试绘制价值函数和策略变化def plot_values(V): grid np.zeros((width, height)) for (x,y), v in V.items(): grid[x][y] v plt.imshow(grid.T, cmaphot) plt.colorbar()参数敏感性测试系统探索超参数空间for gamma in [0.5, 0.7, 0.9, 0.95, 0.99]: for epsilon in [0.01, 0.05, 0.1, 0.2]: agent QLearningAgent(gammagamma, epsilonepsilon) rewards train(agent, env, episodes1000) plot_learning_curve(rewards, labelfγ{gamma}, ε{epsilon})使用标准测试环境从Gridworld扩展到更复杂环境OpenAI Gymgym.make(FrozenLake-v1)PyGame自定义吃豆人环境Unity ML-Agents3D复杂环境在真实项目中我发现Q学习结合以下技巧效果显著提升经验回放Experience Replay存储转移样本(s,a,r,s)在缓冲区随机抽样训练目标网络Target Network使用独立网络生成目标Q值稳定训练双Q学习Double Q-Learning分离动作选择和价值评估减少过高估计class DQNAgent: def __init__(self, state_size, action_size): self.model self._build_model() # 主网络 self.target_model self._build_model() # 目标网络 self.memory deque(maxlen2000) # 经验回放缓冲区 def remember(self, state, action, reward, next_state, done): self.memory.append((state, action, reward, next_state, done)) def replay(self, batch_size): minibatch random.sample(self.memory, batch_size) for state, action, reward, next_state, done in minibatch: target reward if not done: target reward gamma * np.amax( self.target_model.predict(next_state)[0]) target_f self.model.predict(state) target_f[0][action] target self.model.fit(state, target_f, epochs1, verbose0) def update_target(self): self.target_model.set_weights(self.model.get_weights())

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2464733.html

如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!

相关文章

SpringBoot-17-MyBatis动态SQL标签之常用标签

文章目录 1 代码1.1 实体User.java1.2 接口UserMapper.java1.3 映射UserMapper.xml1.3.1 标签if1.3.2 标签if和where1.3.3 标签choose和when和otherwise1.4 UserController.java2 常用动态SQL标签2.1 标签set2.1.1 UserMapper.java2.1.2 UserMapper.xml2.1.3 UserController.ja…

wordpress后台更新后 前端没变化的解决方法

使用siteground主机的wordpress网站,会出现更新了网站内容和修改了php模板文件、js文件、css文件、图片文件后,网站没有变化的情况。 不熟悉siteground主机的新手,遇到这个问题,就很抓狂,明明是哪都没操作错误&#x…

网络编程(Modbus进阶)

思维导图 Modbus RTU(先学一点理论) 概念 Modbus RTU 是工业自动化领域 最广泛应用的串行通信协议,由 Modicon 公司(现施耐德电气)于 1979 年推出。它以 高效率、强健性、易实现的特点成为工业控制系统的通信标准。 包…

UE5 学习系列(二)用户操作界面及介绍

这篇博客是 UE5 学习系列博客的第二篇,在第一篇的基础上展开这篇内容。博客参考的 B 站视频资料和第一篇的链接如下: 【Note】:如果你已经完成安装等操作,可以只执行第一篇博客中 2. 新建一个空白游戏项目 章节操作,重…

IDEA运行Tomcat出现乱码问题解决汇总

最近正值期末周,有很多同学在写期末Java web作业时,运行tomcat出现乱码问题,经过多次解决与研究,我做了如下整理: 原因: IDEA本身编码与tomcat的编码与Windows编码不同导致,Windows 系统控制台…

利用最小二乘法找圆心和半径

#include <iostream> #include <vector> #include <cmath> #include <Eigen/Dense> // 需安装Eigen库用于矩阵运算 // 定义点结构 struct Point { double x, y; Point(double x_, double y_) : x(x_), y(y_) {} }; // 最小二乘法求圆心和半径 …

使用docker在3台服务器上搭建基于redis 6.x的一主两从三台均是哨兵模式

一、环境及版本说明 如果服务器已经安装了docker,则忽略此步骤,如果没有安装,则可以按照一下方式安装: 1. 在线安装(有互联网环境): 请看我这篇文章 传送阵>> 点我查看 2. 离线安装(内网环境):请看我这篇文章 传送阵>> 点我查看 说明&#xff1a;假设每台服务器已…

XML Group端口详解

在XML数据映射过程中&#xff0c;经常需要对数据进行分组聚合操作。例如&#xff0c;当处理包含多个物料明细的XML文件时&#xff0c;可能需要将相同物料号的明细归为一组&#xff0c;或对相同物料号的数量进行求和计算。传统实现方式通常需要编写脚本代码&#xff0c;增加了开…

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器的上位机配置操作说明

LBE-LEX系列工业语音播放器|预警播报器|喇叭蜂鸣器专为工业环境精心打造&#xff0c;完美适配AGV和无人叉车。同时&#xff0c;集成以太网与语音合成技术&#xff0c;为各类高级系统&#xff08;如MES、调度系统、库位管理、立库等&#xff09;提供高效便捷的语音交互体验。 L…

(LeetCode 每日一题) 3442. 奇偶频次间的最大差值 I (哈希、字符串)

题目&#xff1a;3442. 奇偶频次间的最大差值 I 思路 &#xff1a;哈希&#xff0c;时间复杂度0(n)。 用哈希表来记录每个字符串中字符的分布情况&#xff0c;哈希表这里用数组即可实现。 C版本&#xff1a; class Solution { public:int maxDifference(string s) {int a[26]…

【大模型RAG】拍照搜题技术架构速览:三层管道、两级检索、兜底大模型

摘要 拍照搜题系统采用“三层管道&#xff08;多模态 OCR → 语义检索 → 答案渲染&#xff09;、两级检索&#xff08;倒排 BM25 向量 HNSW&#xff09;并以大语言模型兜底”的整体框架&#xff1a; 多模态 OCR 层 将题目图片经过超分、去噪、倾斜校正后&#xff0c;分别用…

【Axure高保真原型】引导弹窗

今天和大家中分享引导弹窗的原型模板&#xff0c;载入页面后&#xff0c;会显示引导弹窗&#xff0c;适用于引导用户使用页面&#xff0c;点击完成后&#xff0c;会显示下一个引导弹窗&#xff0c;直至最后一个引导弹窗完成后进入首页。具体效果可以点击下方视频观看或打开下方…

接口测试中缓存处理策略

在接口测试中&#xff0c;缓存处理策略是一个关键环节&#xff0c;直接影响测试结果的准确性和可靠性。合理的缓存处理策略能够确保测试环境的一致性&#xff0c;避免因缓存数据导致的测试偏差。以下是接口测试中常见的缓存处理策略及其详细说明&#xff1a; 一、缓存处理的核…

龙虎榜——20250610

上证指数放量收阴线&#xff0c;个股多数下跌&#xff0c;盘中受消息影响大幅波动。 深证指数放量收阴线形成顶分型&#xff0c;指数短线有调整的需求&#xff0c;大概需要一两天。 2025年6月10日龙虎榜行业方向分析 1. 金融科技 代表标的&#xff1a;御银股份、雄帝科技 驱动…

观成科技:隐蔽隧道工具Ligolo-ng加密流量分析

1.工具介绍 Ligolo-ng是一款由go编写的高效隧道工具&#xff0c;该工具基于TUN接口实现其功能&#xff0c;利用反向TCP/TLS连接建立一条隐蔽的通信信道&#xff0c;支持使用Let’s Encrypt自动生成证书。Ligolo-ng的通信隐蔽性体现在其支持多种连接方式&#xff0c;适应复杂网…

铭豹扩展坞 USB转网口 突然无法识别解决方法

当 USB 转网口扩展坞在一台笔记本上无法识别,但在其他电脑上正常工作时,问题通常出在笔记本自身或其与扩展坞的兼容性上。以下是系统化的定位思路和排查步骤,帮助你快速找到故障原因: 背景: 一个M-pard(铭豹)扩展坞的网卡突然无法识别了,扩展出来的三个USB接口正常。…

未来机器人的大脑:如何用神经网络模拟器实现更智能的决策?

编辑&#xff1a;陈萍萍的公主一点人工一点智能 未来机器人的大脑&#xff1a;如何用神经网络模拟器实现更智能的决策&#xff1f;RWM通过双自回归机制有效解决了复合误差、部分可观测性和随机动力学等关键挑战&#xff0c;在不依赖领域特定归纳偏见的条件下实现了卓越的预测准…

Linux应用开发之网络套接字编程(实例篇)

服务端与客户端单连接 服务端代码 #include <sys/socket.h> #include <sys/types.h> #include <netinet/in.h> #include <stdio.h> #include <stdlib.h> #include <string.h> #include <arpa/inet.h> #include <pthread.h> …

华为云AI开发平台ModelArts

华为云ModelArts&#xff1a;重塑AI开发流程的“智能引擎”与“创新加速器”&#xff01; 在人工智能浪潮席卷全球的2025年&#xff0c;企业拥抱AI的意愿空前高涨&#xff0c;但技术门槛高、流程复杂、资源投入巨大的现实&#xff0c;却让许多创新构想止步于实验室。数据科学家…

深度学习在微纳光子学中的应用

深度学习在微纳光子学中的主要应用方向 深度学习与微纳光子学的结合主要集中在以下几个方向&#xff1a; 逆向设计 通过神经网络快速预测微纳结构的光学响应&#xff0c;替代传统耗时的数值模拟方法。例如设计超表面、光子晶体等结构。 特征提取与优化 从复杂的光学数据中自…