关键词:
在前面讲到的DQN系列强化学习算法中,我们主要对价值函数进行了近似表示,基于价值来学习。这种Value Based强化学习方法在很多领域都得到比较好的应用,但是Value Based强化学习方法也有很多局限性,因此在另一些场景下我们需要其他的方法,比如本篇讨论的策略梯度(Policy Gradient),它是Policy Based强化学习方法,基于策略来学习。
本文参考了Sutton的强化学习书第13章和策略梯度的论文。
1. Value Based强化学习方法的不足
DQN系列强化学习算法主要的问题主要有三点。
第一点是对连续动作的处理能力不足。DQN之类的方法一般都是只处理离散动作,无法处理连续动作。虽然有NAF DQN之类的变通方法,但是并不优雅。比如我们之前提到的经典的冰球世界(PuckWorld) 强化学习问题,具体的动态demo见这里。环境由一个正方形区域构成代表着冰球场地,场地内大的圆代表着运动员个体,小圆代表着目标冰球。在这个正方形环境中,小圆会每隔一定的时间随机改变在场地的位置,而代表个体的大圆的任务就是尽可能快的接近冰球目标。大圆可以操作的行为是在水平和竖直共四个方向上施加一个时间乘时长的力,借此来改变大圆的速度。假如此时这个力的大小和方向是可以灵活选择的,那么使用普通的DQN之类的算法就不好做了。因为此时策略是一个有具体值有方向的力,我们可以把这个力在水平和垂直方向分解。那么这个力就是两个连续的向量组成,这个策略使用离散的方式是不好表达的,但是用Policy Based强化学习方法却很容易建模。
第二点是对受限状态下的问题处理能力不足。在使用特征来描述状态空间中的某一个状态时,有可能因为个体观测的限制或者建模的局限,导致真实环境下本来不同的两个状态却再我们建模后拥有相同的特征描述,进而很有可能导致我们的value Based方法无法得到最优解。此时使用Policy Based强化学习方法也很有效。
第三点是无法解决随机策略问题。Value Based强化学习方法对应的最优策略通常是确定性策略,因为其是从众多行为价值中选择一个最大价值的行为,而有些问题的最优策略却是随机策略,这种情况下同样是无法通过基于价值的学习来求解的。这时也可以考虑使用Policy Based强化学习方法。
由于上面这些原因,Value Based强化学习方法不能通吃所有的场景,我们需要新的解决上述类别问题的方法,比如Policy Based强化学习方法。
2. Policy Based强化学习方法引入
回想我们在alue Based强化学习方法里,我们对价值函数进行了近似表示,引入了一个动作价值函数$hatq$,这个函数由参数$w$描述,并接受状态$s$与动作$a$作为输入,计算后得到近似的动作价值,即:$$hatq(s,a,w) approx q_pi(s,a)$$
在Policy Based强化学习方法下,我们采样类似的思路,只不过这时我们对策略进行近似表示。此时策略$pi$可以被被描述为一个包含参数$ heta$的函数,即:$$pi_ heta(s,a) = P(a|s, heta)approx pi(a|s)$$
将策略表示成一个连续的函数后,我们就可以用连续函数的优化方法来寻找最优的策略了。而最常用的方法就是梯度上升法了,那么这个梯度对应的优化目标如何定义呢?
3. 策略梯度的优化目标
我们要用梯度上升来寻找最优的梯度,首先就要找到一个可以优化的函数目标。
最简单的优化目标就是初始状态收获的期望,即优化目标为:$$J_1( heta) = V_pi_ heta(s_1) = mathbbE_pi_ heta(G_1) $$
但是有的问题是没有明确的初始状态的,那么我们的优化目标可以定义平均价值,即:$$J_avV( heta) =sumlimits_sd_pi_ heta(s)V_pi_ heta(s)$$
其中,$d_pi_ heta(s)$是基于策略$pi_ heta$生成的马尔科夫链关于状态的静态分布。
或者定义为每一时间步的平均奖励,即:$$J_avR( heta) = =sumlimits_sd_pi_ heta(s) sumlimits_a pi_ heta(s,a) R_s^a$$
无论我们是采用$J_1,J_avV$还是$J_avR$来表示优化目标,最终对$ heta$求导的梯度都可以表示为:$$ abla_ heta J( heta) = mathbbE_pi_ heta[ abla_ hetalog pi_ heta(s,a) Q_pi(s,a)]$$
具体的证明过程这里就不再列了,如果大家感兴趣,可以去看策略梯度的论文的附录1,里面有详细的证明。
当然我们还可以采用很多其他可能的优化目标来做梯度上升,此时我们的梯度式子里面的$ abla_ hetalog pi_ heta(s,a)$部分并不改变,变化的只是后面的$ Q_pi(s,a)]$部分。对于$ abla_ hetalog pi_ heta(s,a)$,我们一般称为分值函数(score function)。
现在梯度的式子已经有了,后面剩下的就是策略函数$pi_ heta(s,a)$的设计了。
4. 策略函数的设计
现在我们回头看一下策略函数$ pi_ heta(s,a) $的设计,在前面它一直是一个数学符号。
最常用的策略函数就是softmax策略函数了,它主要应用于离散空间中,softmax策略使用描述状态和行为的特征$phi(s,a)$ 与参数$ heta$的线性组合来权衡一个行为发生的几率,即:$$pi_ heta(s,a) = frace^phi(s,a)^T hetasumlimits_be^phi(s,b)^T heta$$
则通过求导很容易求出对应的分值函数为:$$ abla_ hetalog pi_ heta(s,a) = phi(s,a) - mathbbE_pi_ heta[phi(s,.)]$$
另一种高斯策略则是应用于连续行为空间的一种常用策略。该策略对应的行为从高斯分布$ mathbbN(phi(s)^T heta, sigma^2)$中产生。高斯策略对应的分值函数求导可以得到为:$$ abla_ hetalog pi_ heta(s,a) = = frac(a-phi(s)^T heta)phi(s)sigma^2$$
有策略梯度的公式和策略函数,我们可以得到第一版的策略梯度算法了。
5. 蒙特卡罗策略梯度reinforce算法
这里我们讨论最简单的策略梯度算法,蒙特卡罗策略梯度reinforce算法, 使用价值函数$v(s)$来近似代替策略梯度公式里面的$Q_pi(s,a)$。算法的流程很简单,如下所示:
输入:N个蒙特卡罗完整序列,训练步长$alpha$
输出:策略函数的参数$ heta$
1. for 每个蒙特卡罗序列:
a. 用蒙特卡罗法计算序列每个时间位置t的状态价值$v_t$
b. 对序列每个时间位置t,使用梯度上升法,更新策略函数的参数$ heta$:$$ heta = heta + alpha abla_ hetalog pi_ heta(s_t,a_t) v_t$$
2. 返回策略函数的参数$ heta$
这里的策略函数可以是softmax策略,高斯策略或者其他策略。
6. 策略梯度实例
这里给出第5节的蒙特卡罗策略梯度reinforce算法的一个实例。仍然使用了OpenAI Gym中的CartPole-v0游戏来作为我们算法应用。CartPole-v0游戏的介绍参见这里。它比较简单,基本要求就是控制下面的cart移动使连接在上面的pole保持垂直不倒。这个任务只有两个离散动作,要么向左用力,要么向右用力。而state状态就是这个cart的位置和速度, pole的角度和角速度,4维的特征。坚持到200分的奖励则为过关。
完整的代码参见我的github:https://github.com/ljpzzz/machinelearning/blob/master/reinforcement-learning/policy_gradient.py
这里我们采用softmax策略作为我们的策略函数,同时,softmax的前置部分,也就是我们的策略模型用一个三层的softmax神经网络来表示。这样好处就是梯度的更新可以交给神经网络来做。
我们的softmax神经网络的结构如下,注意这个网络不是价值Q网络,而是策略网络:
def create_softmax_network(self): # network weights W1 = self.weight_variable([self.state_dim, 20]) b1 = self.bias_variable([20]) W2 = self.weight_variable([20, self.action_dim]) b2 = self.bias_variable([self.action_dim]) # input layer self.state_input = tf.placeholder("float", [None, self.state_dim]) self.tf_acts = tf.placeholder(tf.int32, [None, ], name="actions_num") self.tf_vt = tf.placeholder(tf.float32, [None, ], name="actions_value") # hidden layers h_layer = tf.nn.relu(tf.matmul(self.state_input, W1) + b1) # softmax layer self.softmax_input = tf.matmul(h_layer, W2) + b2 #softmax output self.all_act_prob = tf.nn.softmax(self.softmax_input, name=‘act_prob‘) self.neg_log_prob = tf.nn.sparse_softmax_cross_entropy_with_logits(logits=self.softmax_input, labels=self.tf_acts) self.loss = tf.reduce_mean(self.neg_log_prob * self.tf_vt) # reward guided loss self.train_op = tf.train.AdamOptimizer(LEARNING_RATE).minimize(self.loss)
注意我们的损失函数是softmax交叉熵损失函数和状态价值函数的乘积,这样TensorFlow后面可以自动帮我们做梯度的迭代优化。
另一个要注意的点就是蒙特卡罗法里面价值函数的计算,一般是从后向前算,这样前面的价值的计算可以利用后面的价值作为中间结果,简化计算,对应代码如下:
def learn(self): discounted_ep_rs = np.zeros_like(self.ep_rs) running_add = 0 for t in reversed(range(0, len(self.ep_rs))): running_add = running_add * GAMMA + self.ep_rs[t] discounted_ep_rs[t] = running_add discounted_ep_rs -= np.mean(discounted_ep_rs) discounted_ep_rs /= np.std(discounted_ep_rs)
其余部分和之前的DQN的代码类似。
7. 策略梯度小结
策略梯度提供了和DQN之类的方法不同的新思路,但是我们上面的蒙特卡罗策略梯度reinforce算法却并不完美。由于是蒙特卡罗法,我们需要完全的序列样本才能做算法迭代,同时蒙特卡罗法使用收获的期望来计算状态价值,会导致行为有较多的变异性,我们的参数更新的方向很可能不是策略梯度的最优方向。
因此,Policy Based的强化学习方法还需要改进,注意到我们之前有Value Based强化学习方法,那么两者能不能结合起来一起使用呢?下一篇我们讨论Policy Based+Value Based结合的策略梯度方法Actor-Critic。
(欢迎转载,转载请注明出处。欢迎沟通交流: [email protected])
(十三)从零开始学人工智能-强化学习:值函数近似和策略梯度
目录强化学习--值函数近似和策略梯度1.值函数近似1.1线性函数近似1.2深度神经网络近似2.策略梯度声明参考资料强化学习--值函数近似和策略梯度前两节内容都是强化学习的一些基础理论,只能解决一些中小规模的问题,实际情... 查看详情
深度强化学习policygradients模型解析,附pytorch完整代码(代码片段)
大家好,今天和各位分享一下基于策略的深度强化学习方法,策略梯度法是对策略进行建模,然后通过梯度上升更新策略网络的参数。我们使用了OpenAI的gym库,基于策略梯度法完成了一个小游戏。完整代码可以从... 查看详情
强化学习--policygradient(代码片段)
PolicyGradient综述: PolicyGradient,通过学习当前环境,直接给出要输出的动作的概率值。 PolicyGradient 不是单步更新,只能等玩完一个epoch,再更新参数,所以是一个off-policy 数学推导 最大化R,,用梯度下降,需... 查看详情
策略梯度(policygradient)
...含两种方法,其中一种是基于策略的角度考虑的方法,而PolicyGradient则是Policybased的基础方法。Valuebased的典型方法则是Q-learning方法,Actor-Critic则是Valuebased和Policybased方法相结合,它拥有两个Networks,分别是Actor和Critic,Actor使用Pol... 查看详情
强化学习——离散与连续动作空间(随机策略梯度与确定策略梯度)
强化学习——离散与连续动作空间(随机策略梯度与确定策略梯度)1.动作空间1.1离散动作空间1.2连续动作空间2.确定策略梯度做连续控制2.1确定策略梯度推导2.2确定策略梯度网络的改进2.2.1使用Target网络2.2.2其余改进2.3总... 查看详情
深度强化学习-策略梯度算法深入理解
...解策略梯度算法的公式。本文主要参考了百度飞桨的视频PolicyGradient算法有兴趣的小伙伴可以看看,我觉得讲的非常透彻。2手写数字识别我们先来看一下手写数字识别案列,采用LeNet网络,其输入为一张手写数字照片&... 查看详情
强化学习笔记3---policygradient基本概念
本文章为学习李宏毅老师视频的学习笔记,视频链接调整theta,就可以调整选择trajectory的概率只能求出该路径奖励的期望值,方法是穷举所有路径并将奖励值加和这么复杂的推导,咱们就是说瞟一眼就可以了,... 查看详情
ai相关术语了解记录
...wardModel奖励模型 TrainpolicywithPPO 训练策略模型PolicyGradient RL,策略梯度强化学习PPO ProximalPolicyOptimization,近端策略优化 LLM(Largelanguagemodel)大型语言模型 RLReinforcementLearning强化学习强化学习是一种机器学... 查看详情
强化学习(davidsilver)7:策略梯度算法
1、valuebased方法/policybased方法优劣学生指出:因为valuebased需要更多的存储silver:why?silver:(自问自答)因为策略值比值函数更有效PPT总结:优势:更好的收敛特性在高维或者连续的action空间里面有效可以学习随机策略劣势:收... 查看详情
####好好好#####强化学习白话解释
...化学习的问题。Q学习,深度Q网络(DQN),策略梯度(PolicyGradients),演员-评论家(Actor- 查看详情
强化学习介绍
强化学习算法类型 策略梯度:可直接区别以上的目标基于值:估计最优策略(不明确哪个是最优的策略情况下估计)的值函数和Q函数Actor-critic(演员-评论家):使用当前策略去估计值函数和Q函数来改进策略基于模型:... 查看详情
proximalpolicyoptimization(ppo)算法理解:从策略梯度开始
近端策略优化(PPO)算法是OpenAI在2017提出的一种强化学习算法,被认为是目前强化学习领域的SOTA方法,也是适用性最广的算法之一。本文将从PPO算法的基础入手,理解从传统策略梯度算法(例如REIFORCE算... 查看详情
近端策略优化深度强化学习算法
...opaper策略梯度以下是马尔可夫决策过程MDP的相关基础以及强化学习的优化目标:策略梯度PolicyGradoent的相关推导: openaispinningup重要性采样通过从一个已知的分布中采样来估计另一个分布。 查看详情
深度强化学习ppo模型解析,附pytorch完整代码(代码片段)
...in/Model1.算法原理PPO算法之所以被提出,根本原因在于PolicyGradient在处理连续动作空间时Learningrate取值抉择困难。Learningrate取值过小,就会导致深度强化学习收敛性较差,陷入完不成训练的局面,取值过大则导致新... 查看详情
强化学习笔记:ppo近端策略优化(proximalpolicyoptimization)(代码片段)
...,搜集很多的路径τ。根据它搜集到的路径,按照policygradient的式子去更新policy的参数。 但问题是,一旦我们更新了参 查看详情
浅谈策略梯度(pg)算法
...是入门PolicyOptimization的非常好的教材,特别适合初学者。PolicyGradient(策略梯度,简称PG)算法是策略优化中的核心概念,本章我们就将从最简单的PG推导开始,一步步揭开策略优化算法的神秘面纱。如果用一句话来表达策略梯度... 查看详情
详解策略梯度算法
...策略梯度的方法。1.蒙特卡罗再讲解策略梯度算法(PolicyGradient,简称PG)前,大家可以先了解一下蒙特卡罗算法,首先我们来看一个小故事 查看详情
理解梯度策略推导
...章中,您将找到带有权重列表和Softmax激活列表的CartPole和PolicyGradient示例。这是我重新创建的非常简单的CartPole策略梯度示例,效果很好。imp 查看详情