Policy-Based Reinforcement Learning. 策略学习。
本讲用一个神经网络来近似 policy 函数,即 Policy Network,策略网络。
我们回顾一下 策略函数 Policy Function :
策略函数 \(\pi(a | s)\)是一个 概率密度函数(PDF),输入时当前状态s,输出为一个概率分布,表征每个 action 的概率,
拿到 策略函数 输出的 概率密度 后,agent 面向所有动作做一次随机抽样,但各个动作的概率不同。
策略学习的思路即,有了合适的 策略函数,我们就能很好的控制 agent 自动地运动 。
问题与 价值学习 的相近:我们事先并不知道这样一个策略函数,我们如何得到一个近似的策略函数呢?
如果 一个小游戏只有 5个状态10个动作,那么画一张表,通过反复地游戏得到它们的概率填入表中即可,但事实上游戏十分复杂。
我们需要做函数近似,通过学习来近似 策略函数。而函数近似的方法很多,神经网络就是其中的一种,用于近似策略函数的神经网络就是 Policy Network。
Policy Network.
用策略网络\(\pi(a|s;\theta)\)来近似\(\pi(a|s)\),其中 θ 是神经网络的参数,初始的 θ 是随机初始化的,通过后续的学习来改进 θ 。
比如对于超级玛丽这样的游戏:

状态画面经过卷积 Conv 提取特征,特征经过全连接层 Dense 再通过 softmax 层(归一化)得到一个动作的概率分布,动作的概率集合全部加起来要等于1。
State-Value-Function.
折扣回报函数:
动作价值函数:
状态价值函数
基于上面的回顾,状态价值函数:
下面我们要用 神经网络 来近似 状态价值函数:
用策略网络 \(\pi(a|s;\theta)\) 来近似 \(\pi(a|s)\)
把 \(\pi(a|s_t)\) 函数替换成 \(\pi(a|s_t;\theta)\),即为:
\(V(s_t;\theta) = \sum_a\pi(a|s_t;\theta)\cdot Q_\pi(s_t,a)\)
这样,状态价值函数就可以写成:\(V(s;\theta) ,V\) 可以评价策略网络的好坏,给定状态 S ,策略网络越好 V 的值就越大。可以通过改进参数 \(\theta\),让$V(s;\theta) $变大。
基于上述想法,可把目标函数定义为 \(V(s;\theta)\) 的期望 :\(J(\theta)=\mathbb{E}_{S}[V({S};\theta)]\),期望是关于状态 S 求的,这样我们的目标就是改进\(\theta\),使得 \(J(\theta)\) 越大越好。
J 函数可以理解为,使用策略函数 \(\pi\) ,agent的胜算有多大。
如何改进 \(\theta\) ? 即使用策略梯度算法(Policy gradient ascent)
观测到状态 s,这个 s 是从状态的概率分布中随机抽样出来的。
把$V(s;\theta) $关于 s 求导可以得到一个梯度,然后用梯度上升来更新 \(\theta\),\(\beta\)是学习率。
\(\theta \leftarrow \theta +\beta\cdot \frac{\partial V(s;\theta)}{\partial \theta}\)
注意:我们这里算的是 V 关于 \(\theta\) 的导数,是一个随机梯度,随机性来源于状态 s
为什么要用梯度上升,因为我们想让目标函数 \(J(\theta)\) 变得越来越大。
其中 \(\frac{\partial V(s;\theta)}{\partial \theta}\) 被叫做 Policy gradient 策略梯度。
策略梯度是 V 函数 对 策略神经网络参数 \(\theta\) 的导数。
策略梯度算法的推导后续补上,目前按照视频听懂了,但是推导过程还不够严谨。
\(\pi\) 关于 θ 的导数 ✖ \(Q_\pi\),再做连加;
\(\frac{\partial V(s;\theta)}{\partial \theta}=\sum_a\frac{ \partial \pi(a|s;\theta) }{\partial \theta}\cdot Q_\pi(s,a)\)
\(\log\pi\) 关于 \(\theta\) 的导数,乘以 \(Q_\pi\),再关于随机变量 A 求期望。
\(\frac{\partial V(s;\theta)}{\partial \theta}=\mathbb{E}_{A\sim\pi(\cdot|s;\theta)}[\frac{ \partial log\pi(A|s;\theta) }{\partial \theta})\cdot Q_\pi(s,a)\)
这两种形式是等价的。
有了前面两个公式,来计算策略梯度:
如果动作是离散的:可以使用第一个公式:
\(\frac{\partial V(s;\theta)}{\partial \theta}=\sum_a\frac{ \partial \pi(a|s;\theta) }{\partial \theta}\cdot Q_\pi(s,a)\)
对于每个动作 a , 计算 \(f(a,\theta)=\frac{\partial{\pi(a|s;\theta)}}{\partial\theta}\cdot{Q_\pi(s,a)}\)
策略梯度就是把 每个动作的 f 值 加起来:
$ \frac{\partial{V(s;\theta)}}{\partial \theta}=f(a_1,\theta)+f(a_2,\theta)+...+f(a_n,\theta)$
而对于连续的动作,使用第二个公式:
\(\frac{\partial V(s;\theta)}{\partial \theta}=\mathbb{E}_{A\sim\pi(\cdot|s;\theta)}[\frac{ \partial log\pi(A|s;\theta) }{\partial \theta})\cdot Q_\pi(s,a)\)
要求期望的话,需要对 A 进行定积分,而这不可能,因为 \(\pi\) 函数是一个复杂的神经网络,无法通过数学公式积分。只能通过蒙特卡洛近似来近似的算出来:
根据概率密度函数 \(\pi\) 随机抽样得到一个动作 \(\widehat{a}\) ,
计算 \(g(\widehat{a},\theta)=\frac{\partial{log\pi(\widehat{a}|s;\theta)}}{\partial\theta}\cdot Q_\pi(s,\widehat{a})\)
注意这里的 \(\widehat{a}\)是抽样出来的已确定的值。
根据公式2,g 函数 关于 A 求期望即为策略梯度:
\(\mathbb{E}_{A}[g(\widehat{a},\theta)] = \frac{\partial V(s;\theta)}{\partial \theta}\)
由于 \(\widehat{a}\) 是随机抽出来的,,所以 g 函数是 策略梯度的无偏估计。
由于4中结论,所以可以使用 g函数来近似 策略梯度,这就是蒙特卡洛近似。
蒙特卡洛近似:
随机抽取一个或很多个样本,用随机样本来近似期望。
mark 一个课程 CS285 Lecture。
其实上面还有一点没说,就是 \(q_t\) 怎么计算?,即 \(Q_\pi\)怎么计算。
方法1:Reinforce 算法
用策略网络 \(\pi\) 来控制 agent 运动,从一开始玩到游戏结束,把整个游戏轨迹都记录下来:
观测到所有奖励 r ,就可以算出折扣回报 \(u_t = \sum_{k=t}^{T}\gamma^{k-t}r_k\)。
由于\(Q_\pi(s_t,a_t) = \mathbb{E}[U_t]\),所以可以使用\(u_t\)来近似$Q_\pi(s_t,a_t) $
即使用\(q_t = u_t\)
总结就是用观测到的$ u_t\(来代替\)Q_\pi(s_t,a_t)$函数
方法2:用一个神经网络来近似\(Q_\pi\)
原本已经拿神经网络来近似一个策略函数 \(\pi\),现在又拿另一个神经网络近似 \(Q_\pi\) ,这样就有了两个神经网络,对于两个神经网络就涉及到了Actor-Critic。
策略学习的思路是,我们如果能够得到一个好的 策略函数 \(\pi\) ,我们就能用 \(\pi\) 自动控制 agent 。即:\(a_t \sim\pi(\cdot | s)\)
为了得到这样一个策略函数,我们使用一个 神经网络 Policy Network \(\pi(a|s;\theta)\) 来近似策略函数。
要得到神经网络需要得到它的参数 θ,求解的算法是策略梯度算法;策略梯度就是价值函数关于θ的导数。算出θ后用梯度上升来迭代θ,以使得目标函数\(J(\theta)=\mathbb{E}_{S}[V({S};\theta)]\)越大越好。
目录前言滤波电路科普主要分类实际情况单位的概念常用评价参数函数型滤波器简单分析滤波电路构成低通滤波器RC低通滤波器RL低通滤波器高通滤波器RC高通滤波器RL高通滤波器部分摘自《LC滤波器设计与制作》,侵权删。前言最近需要学习放大电路和滤波电路,但是由于只在之前做音乐频谱分析仪的时候简单了解过一点点运放,所以也是相当从零开始学习了。滤波电路科普主要分类滤波器:主要是从不同频率的成分中提取出特定频率的信号。有源滤波器:由RC元件与运算放大器组成的滤波器。可滤除某一次或多次谐波,最普通易于采用的无源滤波器结构是将电感与电容串联,可对主要次谐波(3、5、7)构成低阻抗旁路。无源滤波器:无源滤波器,又称
最近在学习CAN,记录一下,也供大家参考交流。推荐几个我觉得很好的CAN学习,本文也是在看了他们的好文之后做的笔记首先是瑞萨的CAN入门,真的通透;秀!靠这篇我竟然2天理解了CAN协议!实战STM32F4CAN!原文链接:https://blog.csdn.net/XiaoXiaoPengBo/article/details/116206252CAN详解(小白教程)原文链接:https://blog.csdn.net/xwwwj/article/details/105372234一篇易懂的CAN通讯协议指南1一篇易懂的CAN通讯协议指南1-知乎(zhihu.com)视频推荐CAN总线个人知识总
深度学习部署:Windows安装pycocotools报错解决方法1.pycocotools库的简介2.pycocotools安装的坑3.解决办法更多Ai资讯:公主号AiCharm本系列是作者在跑一些深度学习实例时,遇到的各种各样的问题及解决办法,希望能够帮助到大家。ERROR:Commanderroredoutwithexitstatus1:'D:\Anaconda3\python.exe'-u-c'importsys,setuptools,tokenize;sys.argv[0]='"'"'C:\\Users\\46653\\AppData\\Local\\Temp\\pip-instal
我完全不是程序员,正在学习使用Ruby和Rails框架进行编程。我目前正在使用Ruby1.8.7和Rails3.0.3,但我想知道我是否应该升级到Ruby1.9,因为我真的没有任何升级的“遗留”成本。缺点是什么?我是否会遇到与普通gem的兼容性问题,或者甚至其他我不太了解甚至无法预料的问题? 最佳答案 你应该升级。不要坚持从1.8.7开始。如果您发现不支持1.9.2的gem,请避免使用它们(因为它们很可能不被维护)。如果您对gem是否兼容1.9.2有任何疑问,您可以在以下位置查看:http://www.railsplugins.or
如何学习ruby的正则表达式?(对于假人) 最佳答案 http://www.rubular.com/在Ruby中使用正则表达式时是一个很棒的工具,因为它可以立即将结果可视化。 关于ruby-我如何学习ruby的正则表达式?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/1881231/
我想使用两种不同的protect_from_forgery策略构建一个Rails应用程序:一种用于Web应用程序,一种用于API。在我的应用程序Controller中,我有这行代码:protect_from_forgerywith::exception为了防止CSRF攻击,它工作得很好。在我的API命名空间中,我创建了一个继承self的应用程序Controller的api_controller,它是API命名空间中所有其他Controller的父类,我将上面的代码更改为:protect_from_forgery:null_session.遗憾的是,我在尝试发出POST请求时遇到错误:“
深度学习12.CNN经典网络VGG16一、简介1.VGG来源2.VGG分类3.不同模型的参数数量4.3x3卷积核的好处5.关于学习率调度6.批归一化二、VGG16层分析1.层划分2.参数展开过程图解3.参数传递示例4.VGG16各层参数数量三、代码分析1.VGG16模型定义2.训练3.测试一、简介1.VGG来源VGG(VisualGeometryGroup)是一个视觉几何组在2014年提出的深度卷积神经网络架构。VGG在2014年ImageNet图像分类竞赛亚军,定位竞赛冠军;VGG网络采用连续的小卷积核(3x3)和池化层构建深度神经网络,网络深度可以达到16层或19层,其中VGG16和VGG
文章目录1、自相关函数ACF2、偏自相关函数PACF3、ARIMA(p,d,q)的阶数判断4、代码实现1、引入所需依赖2、数据读取与处理3、一阶差分与绘图4、ACF5、PACF1、自相关函数ACF自相关函数反映了同一序列在不同时序的取值之间的相关性。公式:ACF(k)=ρk=Cov(yt,yt−k)Var(yt)ACF(k)=\rho_{k}=\frac{Cov(y_{t},y_{t-k})}{Var(y_{t})}ACF(k)=ρk=Var(yt)Cov(yt,yt−k)其中分子用于求协方差矩阵,分母用于计算样本方差。求出的ACF值为[-1,1]。但对于一个平稳的AR模型,求出其滞
写在之前Shader变体、Shader属性定义技巧、自定义材质面板,这三个知识点任何一个单拿出来都是一套知识体系,不能一概而论,本文章目的在于将学习和实际工作中遇见的问题进行总结,类似于网络笔记之用,方便后续回顾查看,如有以偏概全、不祥不尽之处,还望海涵。1、Shader变体先看一段代码......Properties{ [KeywordEnum(on,off)]USL_USE_COL("IsUseColorMixTex?",int)=0 [Toggle(IS_RED_ON)]_IsRed("IsRed?",int)=0}......//中间省略,后续会有完整代码 #pragmamulti_c
TCL脚本语言简介•TCL(ToolCommandLanguage)是一种解释执行的脚本语言(ScriptingLanguage),它提供了通用的编程能力:支持变量、过程和控制结构;同时TCL还拥有一个功能强大的固有的核心命令集。TCL经常被用于快速原型开发,脚本编程,GUI和测试等方面。•实际上包含了两个部分:一个语言和一个库。首先,Tcl是一种简单的脚本语言,主要使用于发布命令给一些互交程序如文本编辑器、调试器和shell。由于TCL的解释器是用C\C++语言的过程库实现的,因此在某种意义上我们又可以把TCL看作C库,这个库中有丰富的用于扩展TCL命令的C\C++过程和函数,所以,Tcl是