从Gridworld到吃豆人:用Python拆解强化学习三大核心算法(值迭代、策略调参、Q学习)
从Gridworld到吃豆人Python实战强化学习三大核心算法1. 强化学习基础与马尔可夫决策过程想象一下你正在训练一只小狗完成障碍赛跑。每次它正确跳过障碍你会给予零食奖励如果撞到障碍则没有任何奖励。经过多次尝试小狗逐渐学会了最优路径——这就是强化学习的核心思想。在人工智能领域我们通过类似的试错奖励机制让智能体Agent学会在复杂环境中做出最佳决策。马尔可夫决策过程MDP为这种学习提供了数学框架。一个标准的MDP包含五个关键要素状态State环境当前情况的完整描述。在Gridworld中可能是智能体所在的网格坐标在吃豆人中则包括Pacman位置、剩余豆子分布等。动作Action智能体在每个状态可以采取的行为。Gridworld中可能是上、下、左、右移动吃豆人中还包括停止动作。转移概率Transition Probability执行某动作后状态转换的可能性。Gridworld中向北移动可能有80%概率成功20%概率因噪声而偏移。奖励函数Reward即时反馈信号。吃豆人吃豆得10分被幽灵抓到则-100分。折扣因子γ权衡即时奖励与未来奖励重要性的参数通常取值0.9到0.99。# Gridworld状态示例 class GridWorldState: def __init__(self, x, y): self.x x # 水平坐标 self.y y # 垂直坐标 self.is_terminal False # 是否为终止状态 def __eq__(self, other): return self.x other.x and self.y other.y贝尔曼方程是MDP的核心数学工具它建立了当前状态价值与后续状态价值之间的关系V*(s) max_a [ R(s,a) γ * Σ_s P(s|s,a) * V*(s) ]其中V*(s)表示状态s的最优价值R(s,a)是立即奖励P(s|s,a)是转移概率。这个递归公式表明当前状态的最优价值等于立即奖励加上所有可能后续状态的最优价值的折扣期望。2. 值迭代算法离线规划的经典方法值迭代Value Iteration属于离线规划算法它假设我们完全了解环境的动态特性即知道所有状态的转移概率和奖励。这种方法通过反复迭代更新状态价值最终收敛到最优价值函数。算法实现可分为三个关键步骤初始化将所有状态价值设为0或随机值迭代更新对每个状态应用贝尔曼最优方程策略提取当价值函数收敛后选择使Q值最大的动作def value_iteration(mdp, epsilon0.001, max_iterations1000): # 初始化所有状态价值为0 V {state: 0 for state in mdp.get_states()} for i in range(max_iterations): delta 0 new_V {} for state in mdp.get_states(): if mdp.is_terminal(state): new_V[state] 0 continue # 计算所有可能动作的Q值 q_values [] for action in mdp.get_actions(state): q_value 0 transitions mdp.get_transitions(state, action) for (next_state, prob) in transitions: reward mdp.get_reward(state, action, next_state) q_value prob * (reward gamma * V[next_state]) q_values.append(q_value) # 取最大Q值作为新状态价值 new_V[state] max(q_values) if q_values else 0 delta max(delta, abs(new_V[state] - V[state])) V new_V if delta epsilon: # 收敛判断 break # 提取最优策略 policy {} for state in mdp.get_states(): if mdp.is_terminal(state): policy[state] None continue best_action None best_value -float(inf) for action in mdp.get_actions(state): q_value 0 transitions mdp.get_transitions(state, action) for (next_state, prob) in transitions: reward mdp.get_reward(state, action, next_state) q_value prob * (reward gamma * V[next_state]) if q_value best_value: best_value q_value best_action action policy[state] best_action return V, policy值迭代有两个重要特性值得注意收敛保证在折扣因子γ1的情况下算法保证收敛到唯一最优解异步更新可以使用就地更新用新值立即覆盖旧值或同步更新保留旧值直到所有状态计算完成在Gridworld实验中我们可以观察到值迭代的典型行为迭代次数最大价值变化策略稳定性11.00%50.4530%100.1265%200.00198%提示实际应用中通常会设置一个较小的阈值如0.001来判断收敛而非固定迭代次数。3. Q学习无需环境模型的在线学习与值迭代不同Q学习Q-Learning是一种无模型的强化学习算法它不需要预先知道环境的转移概率。这种特性使其特别适合真实世界的应用场景如游戏AI、机器人控制等。Q学习的核心是Q函数表示在状态s采取动作a后遵循最优策略的期望总回报Q(s,a) R(s,a) γ * max_a Q(s,a)算法通过以下更新规则逐步优化Q值Q(s,a) ← (1-α)Q(s,a) α[R γ * max_a Q(s,a)]其中α是学习率控制新信息覆盖旧值的速度。class QLearningAgent: def __init__(self, actions, alpha0.1, gamma0.9, epsilon0.1): self.q_table defaultdict(float) # Q值表 self.actions actions # 可用动作集 self.alpha alpha # 学习率 self.gamma gamma # 折扣因子 self.epsilon epsilon # 探索概率 def get_action(self, state): # ε-greedy策略选择动作 if random.random() self.epsilon: return random.choice(self.actions) else: return self.best_action(state) def best_action(self, state): # 找出当前状态下Q值最大的动作 q_values [self.q_table[(state, a)] for a in self.actions] max_q max(q_values) # 可能有多个动作具有相同Q值 best_actions [a for a in self.actions if self.q_table[(state, a)] max_q] return random.choice(best_actions) def learn(self, state, action, reward, next_state): # Q学习更新规则 current_q self.q_table[(state, action)] max_next_q max([self.q_table[(next_state, a)] for a in self.actions]) new_q current_q self.alpha * ( reward self.gamma * max_next_q - current_q) self.q_table[(state, action)] new_q在吃豆人游戏中应用Q学习时我们需要特别注意状态表示。完整的状态空间包括Pacman位置 (x,y)每个豆子的存在与否 (2^d种可能d是豆子数量)每个幽灵的位置和状态 (正常/恐慌)这种组合会导致状态空间爆炸。解决方法包括特征工程提取关键特征而非原始状态函数逼近使用神经网络近似Q函数即DQN状态抽象将相似状态分组处理注意Q学习属于off-policy算法意味着它可以学习最优策略同时遵循不同的行为策略如ε-greedy进行探索。4. 策略调参折扣因子与奖励设计的艺术强化学习算法的性能很大程度上取决于超参数设置和奖励函数设计。以Gridworld为例我们可以通过调整三个关键参数显著改变智能体行为折扣因子γ控制未来奖励的重要性γ接近0近视只关心即时奖励γ接近1远视考虑长期回报噪声参数ε动作执行的不确定性高噪声动作结果不可靠鼓励保守策略低噪声动作结果确定可采取更激进策略生存奖励Living Reward每步存活的小额奖励/惩罚正奖励鼓励延长生存时间负奖励鼓励快速完成任务下表展示了不同参数组合对Gridworld智能体行为的影响场景折扣因子噪声生存奖励典型行为快速安全0.50.1-0.1选择最近出口避开危险冒险捷径0.90.0-0.5冒险穿越危险区域获取高回报保守长线0.950.20.1绕远路确保安全无限徘徊0.990.01.0避免终止状态永远移动奖励函数设计是强化学习中最具挑战性的环节之一。常见的设计原则包括稀疏奖励只在关键事件给予奖励如吃豆、到达终点优点易于实现缺点学习效率低可能需要大量探索密集奖励提供丰富的中间反馈如距离目标的接近程度优点加速学习缺点可能导致奖励黑客找到获取奖励但不解决问题的策略基于势能的奖励使用启发式函数引导学习def potential_based_reward(state, next_state): base_reward ... # 基础奖励 potential heuristic(next_state) - heuristic(state) return base_reward potential在吃豆人项目中一个有效的奖励设计方案可能是def get_reward(state, action, next_state): if eaten_ghost(next_state): return 50 # 吃到恐慌状态的幽灵 elif eaten_pellet(next_state): return 10 # 吃到能量豆 elif eaten_food(next_state): return 1 # 吃到普通豆子 elif pacman_died(next_state): return -100 # 被幽灵抓到 else: return -0.1 # 每步小惩罚鼓励高效通关5. 算法对比与实战建议值迭代、策略迭代和Q学习代表了强化学习的不同方法论。理解它们的区别对实际应用至关重要特性值迭代Q学习策略梯度需求完整MDP模型仅需状态-动作-奖励仅需状态-动作-奖励更新方式离线批量更新在线增量更新在线/离线均可收敛性保证收敛在适当条件下收敛可能收敛到局部最优适用场景小规模已知环境中大规模未知环境高维/连续动作空间实现复杂度中等较低较高对于Python实现强化学习算法我有几个实用建议使用面向对象设计将MDP、Agent等概念封装为类class MDP: def get_states(self): ... def get_actions(self, state): ... def get_transitions(self, state, action): ... class Agent: def __init__(self, mdp): ... def update(self, state, action, reward, next_state): ... def get_action(self, state): ...可视化调试绘制价值函数和策略变化def plot_values(V): grid np.zeros((width, height)) for (x,y), v in V.items(): grid[x][y] v plt.imshow(grid.T, cmaphot) plt.colorbar()参数敏感性测试系统探索超参数空间for gamma in [0.5, 0.7, 0.9, 0.95, 0.99]: for epsilon in [0.01, 0.05, 0.1, 0.2]: agent QLearningAgent(gammagamma, epsilonepsilon) rewards train(agent, env, episodes1000) plot_learning_curve(rewards, labelfγ{gamma}, ε{epsilon})使用标准测试环境从Gridworld扩展到更复杂环境OpenAI Gymgym.make(FrozenLake-v1)PyGame自定义吃豆人环境Unity ML-Agents3D复杂环境在真实项目中我发现Q学习结合以下技巧效果显著提升经验回放Experience Replay存储转移样本(s,a,r,s)在缓冲区随机抽样训练目标网络Target Network使用独立网络生成目标Q值稳定训练双Q学习Double Q-Learning分离动作选择和价值评估减少过高估计class DQNAgent: def __init__(self, state_size, action_size): self.model self._build_model() # 主网络 self.target_model self._build_model() # 目标网络 self.memory deque(maxlen2000) # 经验回放缓冲区 def remember(self, state, action, reward, next_state, done): self.memory.append((state, action, reward, next_state, done)) def replay(self, batch_size): minibatch random.sample(self.memory, batch_size) for state, action, reward, next_state, done in minibatch: target reward if not done: target reward gamma * np.amax( self.target_model.predict(next_state)[0]) target_f self.model.predict(state) target_f[0][action] target self.model.fit(state, target_f, epochs1, verbose0) def update_target(self): self.target_model.set_weights(self.model.get_weights())
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。如若转载,请注明出处:http://www.coloradmin.cn/o/2464733.html
如若内容造成侵权/违法违规/事实不符,请联系多彩编程网进行投诉反馈,一经查实,立即删除!