草庐IT

强化学习-学习笔记4 | Actor-Critic

Clivia Du 2023-03-28 原文

Actor-Critic 是价值学习和策略学习的结合。Actor 是策略网络,用来控制agent运动,可以看做是运动员。Critic 是价值网络,用来给动作打分,像是裁判。

4. Actor-Critic

4.1 价值网络与策略网络构建

a. 原理介绍

状态价值函数:

$ V_\pi(s)=\sum_{{a}}\pi({a}|{s})\cdot Q_\pi({s},{a})$ (离散情况,如果是连续的需要换成定积分)

V 是动作价值函数 \(Q_\pi\) 的期望,\(\pi({s}|{a})\) 策略函数控制 agent 做运动,\(Q_\pi({s},{a})\) 价值函数评价动作好坏。但是上述这两个函数我们都不知道,但是可以分别用一个神经网络来近似这两个函数,然后用Actor-Critic方法来同时学习这两个网络。

策略网络(actor):用网络 \(\pi({s}|{a};\theta)\) 来近似 \(\pi({s}|{a})\)\(\theta\) 是网络参数

价值网络(critic):用网络 \(q({s},{a};w)\) 来近似 \(Q_\pi({s},{a})\)\(w\) 是网络参数

actor 是一个体操运动员,可以自己做动作,而 agent 想要做的更好,但是不知道怎么改进,这就需要裁判给她打分,这样运动员就知道什么样动作的分数高,什么样动作的分数低,这样就能改进自己,让分数越来越高。

这样:$ V_\pi({s})=\sum_{{a}}\pi({a}|{s})\cdot Q_\pi({s},{a})\approx\sum_a\pi(a|s;\theta)\cdot q(s,a;w)$$

b. Actor 搭建

策略网络。

  • 输入:状态 s
  • 输出:可能的动作概率分布
  • \(\mathcal{A}\) 是动作集,如\(\mathcal{A}\) =
  • \(\sum_{a\in\mathcal{A}}\pi(a|s,\theta)=1\)

卷积层 Conv 把 state 变成 一个特征向量 feature ,用一个或多个全连接层 Dense 把特征向量 映射为紫色,归一化处理后得到每个动作的概率。

c. Critic搭建

输入:有两个,状态 s 和动作 a

输出:近似的动作价值函数(scalar)

如果 动作 是离散的,可以用 one-hot coding 来表示,比如向左为[1,0,0],向右为[0,1,0] ······ 分别用卷积层与全连接层从输入中提取特征,得到两个特征向量,然后把这两个特征向量拼接起来,得到一个更高的特征向量,最后用一个全连接层输出一个实数,这个实数就是裁判给运动员打的分数。这个动作说明,处在状态 s 的情况下,做出动作 a 是好还是坏。这个价值网络可以与策略网络共享卷积层参数,也可以跟策略网络完全独立。

4.2 Actor-Critic Method

同时训练策略网络与动作网络就称为 Actor-Critic Method。

定义:使用神经网络来近似 两个价值函数

训练:更新参数 \(\theta、w\)

  • 更新策略网络\(\pi({s}|{a};\theta)\)是为了让\(V({s};\theta,w)\)的值增加
    • 监督信号仅由价值网络提供
    • 运动员actor 根据裁判critic 的打分来不断提高自己的水平
  • 更新价值网络\(q({s},{a};w)\)是为了让打分更精准
    • 监督信号仅来自环境的奖励
    • 一开始裁判是随机打分,但是会根据环境给的奖励提高打分水平,使其接近真实打分。

步骤总结:

  1. 观测状态 \(s_t\)
  2. \(s_t\) 作为输入,根据策略网络 \(\pi({\cdot}|{s_t};\theta_t)\) 随机采样一个动作 \(a_t\)
  3. 实施动作 \(a_t\) 并观测新状态 \(s_{t+1}\) 以及奖励 \(r_t\)
  4. 用奖励 \(r_t\) 通过 TD 算法 在价值网络中更新 w,让裁判变得更准确
  5. 使用 策略梯度算法 在策略网络中更新\(\theta\),让运动员技术更好

a. TD 更新价值网络

  • 用价值网络 Q 给 动作\(a_t、a_{t+1}\) 打分,即计算 \(q({s_t}, {a_t} ;w_t)\)\(q({s_{t+1}},{a_{t+1}};w_t)\)

  • 计算TD target:\(y_t = {r_t} + \gamma \cdot q({s_{t+1}},{a_{t+1}};w_t)\)

    比对上一篇笔记中的策略学习,需要用蒙特卡洛来近似\(q({s_t},{a_t} ;w_t)\),而使用价值网络来近似更真实一些。

  • 损失函数是预测值与部分真实值之间的差。

    Loss值: \(L(w)=\frac{1}{2}[q({s_t},{a_t};w)-y_t]^2\)

  • 梯度下降:\(W_{t+1} = w_t -\alpha \cdot \frac{\partial L(w)}{\partial w}|w=w_t\)

b. 策略梯度更新策略网络

状态价值函数 V 相当于运动员所有动作的平均分:

\(V({s};\theta,w)=\sum_a\pi({s}|{a};\theta)\cdot q({s},{a};w)\)

策略梯度:函数 \(V({s};\theta,w)\) 关于参数 \(\theta\) 的导数

  • \(g({a},\theta)=\frac{\partial log \pi({a}|{s};\theta)}{\partial \theta} \cdot q({s},{a};w)\),这里 q 相当于裁判的打分
  • \(\frac{\partial V(s;\theta;w_t)}{\partial \theta} = \mathbb{E}_{A}[g({A},\theta)]\)策略梯度相当于对函数 g 求期望,把 A 给消掉,但是很难求期望,用蒙特卡洛近似取样求就行了。

算法:

根据策略网络随机抽样得到动作 a :\({a} \sim \pi(\cdot|{s_t};\theta_t)\)

对于 \(\pi\) 随机抽样保证\(g(a,\theta)\)是无偏估计

有了随机梯度 g,可以做一次梯度上升:\(\theta_{t+1} = \theta_t + \beta \cdot g({a},\theta_t)\),此处 \(\beta\) 是学习率。

c. 过程梳理

下面我们以运动员和裁判的例子梳理一下过程:

首先,运动员(左侧的策略网络)观测当前状态 s ,控制 agent 做出动作 a;运动员想要进步,但它不知道怎样变得更好(或者没有评判标准),因此引入裁判来给予运动员评价:

运动员做出动作后,裁判员(价值网络)会根据 a 和 s 对运动员(策略网络)打一个分 q,这样运动员根据 q 来改进自己:

运动员的“技术”指的是 策略网络中的参数,我们此前认定参数越好,我们的效果就越好。在这个模型中,运动员拿到 s、q 以及 a来计算 策略梯度,通过梯度上升来更新参数。通过改进 “技术”,运动员的平均分(就是value q)会越来越高。

但值得注意的是:至此,运动员一直是在裁判的评判下进行的,他的标准 q 是裁判给的。运动员的平均分 q 越高也不能说明真实水平的上升。我们还需要提升裁判的水平。

增加一个想法:我觉得 actor-critic 的思想是两部分,一是让 评判标准更接近上帝 的想法,二是 在给定评判标准下 让执行效果拿到更大的分数。

对于 价值网络/裁判 来说 初始的打分是随机的。裁判要靠 奖励r 来提高打分的水平,这里奖励r 就相当于 上帝的判断。价值网络根据 a、s、r 来给出分数 q ,通过相邻两次的分数 \(q_t、q_{t+1}\) 以及 \(r_t\),使用 TD 算法 来更新参数,提高效果

d. 算法总结

下面稍微正式一点的总结一下:

  1. 观测旧状态 \(s_t\),根据策略网络\(\pi({\cdot}|{s_t};\theta_t)\)随机采样一个动作\(a_t\)

  2. agent 执行动作\(a_t\);环境会告诉我们新的状态\(s_{t+1}\)和奖励\(r_t\)

  3. 拿新的状态\(s_{t+1}\)作为输入,用策略网络\(\pi\)计算出新的概率并随机采样新的动作:\({\tilde{a}_{t+1}} \sim \pi({\cdot}|{s_{t+1}};\theta_t)\)这个动作只是假想的动作agent不会执行,只是拿来算下 Q 值。

  4. 接下来算两次价值网络的输出:\(q_t=q({s_t},{a_t};w_t)和q_{t+1}=q({s_{t+1}},{\tilde{a}_{t+1}};w_t)\)\({\tilde{a}_{t+1}}\)用完就丢掉了,并不会真正执行

  5. 计算TD error:\(\delta_t = {q_t}-\underbrace{({r_t}+\gamma \cdot {q_{t+1}})}_{TD \\\ target}\)

  6. 对价值网络求导:\(d_{w,t} = \frac{\partial q({s_t},{a_t};w)}{\partial w}|w=w_t\)

    这一步 torch 和 tensenflow 都可以自动求导。

  7. TD算法 更新价值网络,让裁判打分更精准:\(w_{t+1}=w_t - \alpha \cdot \delta_t\cdot d_{w,t}\)

  8. 对策略网络$$\pi$$求导:\(d_{\theta,t}=\frac{\partial log \pi({a_t}|{s_t},\theta)}{\partial \theta}|\theta=\theta_t\)

    同理,可以自动求导

  9. 用梯度上升来更新策略网络,让运动员平均成绩更高:\(\theta_{t+1} = \theta_t + \beta \cdot {q_t} \cdot d_{\theta,t}\),这里\({q_t} \cdot d_{\theta,t}\)是策略梯度的蒙特卡洛近似

每一轮迭代做以上9个步骤,且制作一次动作,观测一次奖励,更新一次神经网络参数。

根据策略梯度算法推导,算法第 9 步用到了 \({q_t}\),它是裁判给动作打的分数,书和论文通常拿 \({\delta_t}\) 来替代 \({q_t}\)\({q_t}\) 是标准算法,\({\delta_t}\) 是Policy Gradient With Baseline(效果更好),都是对的,算出来期望也相等。

Baseline是什么?接近 \(q_t\) 的数都可以作为 Baseline,但不能是 \(a_t\) 的函数。

至于为什么baseline效果更好,因为可以更好的计算方差,更快的收敛。

这里的等价后面再讨论。这里先理解。

4.3 总结

我们的目标是:状态价值函数:$ V_\pi({s})=\sum_{{a}}\pi({a}|{s})\cdot Q_\pi({s},{a})$,越大越好

  • 但是直接学 \(\pi\) 函数不容易,用神经网络-策略网络 \(\pi({s}|{a};\theta)\) 来近似
  • 计算 策略梯度 的时候有个困难就是不知道动作价值函数 \(Q_\pi\),所以要用神经网络-价值网络\(q({s},{a};w)\)来近似。

在训练时:

  • agent由 策略网络(actor) 给出动作 \(a_t \sim \pi(\cdot|{s_t};\theta)\)
  • 价值网络 q 辅助训练 \(\pi\),给出评分

训练后:

  • 还是由策略网络给出动作\(a_t \sim \pi(\cdot|{s_t};\theta)\)
  • 价值网络 q 不再使用

如何训练:

用策略梯度来更新策略网络:

  • 尽可能提升状态价值:$ V_\pi({s})=\sum_a\pi(a|s;\theta)\cdot q(s,a;w)$
  • 计算策略梯度,用蒙特卡洛算: \(\frac{\partial V(s;\theta;w_t)}{\partial \theta} = \mathbb{E}_{A}[\frac{\partial \\\ log \\\ \pi({a}|{s};\theta)}{\partial \theta} \cdot q({s},{a};w)]\)
  • 执行梯度上升。

TD 算法更新价值网络

  • \(q_t = q(s_t,a_t;w)\)是价值网络是对期望回报的估计;

  • TD target:\(y_t = r_t + \gamma \cdot \mathop{max}\limits_{a} q(s_{t+1},a_{t+1};w)\)\(y_t\)也是价值网络是对期望回报的估计,不过它用到了真实奖励,因此更靠谱一点,所以将其作为 target,相当于机器学习中的标签。

  • \(q_t与y_t\)差值平方作为损失函数计算梯度:

    \(\frac{\partial(q_t-y_t)^2/2}{\partial w} = (q_t-y_t)\cdot\frac{\partial q(s_t,a_t;w)}{\partial w}\)

  • 梯度下降,缩小\(q_t与y_t\)差距。

x. 参考教程

有关强化学习-学习笔记4 | Actor-Critic的更多相关文章

  1. LC滤波器设计学习笔记(一)滤波电路入门 - 2

    目录前言滤波电路科普主要分类实际情况单位的概念常用评价参数函数型滤波器简单分析滤波电路构成低通滤波器RC低通滤波器RL低通滤波器高通滤波器RC高通滤波器RL高通滤波器部分摘自《LC滤波器设计与制作》,侵权删。前言最近需要学习放大电路和滤波电路,但是由于只在之前做音乐频谱分析仪的时候简单了解过一点点运放,所以也是相当从零开始学习了。滤波电路科普主要分类滤波器:主要是从不同频率的成分中提取出特定频率的信号。有源滤波器:由RC元件与运算放大器组成的滤波器。可滤除某一次或多次谐波,最普通易于采用的无源滤波器结构是将电感与电容串联,可对主要次谐波(3、5、7)构成低阻抗旁路。无源滤波器:无源滤波器,又称

  2. CAN协议的学习与理解 - 2

    最近在学习CAN,记录一下,也供大家参考交流。推荐几个我觉得很好的CAN学习,本文也是在看了他们的好文之后做的笔记首先是瑞萨的CAN入门,真的通透;秀!靠这篇我竟然2天理解了CAN协议!实战STM32F4CAN!原文链接:https://blog.csdn.net/XiaoXiaoPengBo/article/details/116206252CAN详解(小白教程)原文链接:https://blog.csdn.net/xwwwj/article/details/105372234一篇易懂的CAN通讯协议指南1一篇易懂的CAN通讯协议指南1-知乎(zhihu.com)视频推荐CAN总线个人知识总

  3. 深度学习部署:Windows安装pycocotools报错解决方法 - 2

    深度学习部署:Windows安装pycocotools报错解决方法1.pycocotools库的简介2.pycocotools安装的坑3.解决办法更多Ai资讯:公主号AiCharm本系列是作者在跑一些深度学习实例时,遇到的各种各样的问题及解决办法,希望能够帮助到大家。ERROR:Commanderroredoutwithexitstatus1:'D:\Anaconda3\python.exe'-u-c'importsys,setuptools,tokenize;sys.argv[0]='"'"'C:\\Users\\46653\\AppData\\Local\\Temp\\pip-instal

  4. ruby - 我正在学习编程并选择了 Ruby。我应该升级到 Ruby 1.9 吗? - 2

    我完全不是程序员,正在学习使用Ruby和Rails框架进行编程。我目前正在使用Ruby1.8.7和Rails3.0.3,但我想知道我是否应该升级到Ruby1.9,因为我真的没有任何升级的“遗留”成本。缺点是什么?我是否会遇到与普通gem的兼容性问题,或者甚至其他我不太了解甚至无法预料的问题? 最佳答案 你应该升级。不要坚持从1.8.7开始。如果您发现不支持1.9.2的gem,请避免使用它们(因为它们很可能不被维护)。如果您对gem是否兼容1.9.2有任何疑问,您可以在以下位置查看:http://www.railsplugins.or

  5. ruby - 我如何学习 ruby​​ 的正则表达式? - 2

    如何学习ruby​​的正则表达式?(对于假人) 最佳答案 http://www.rubular.com/在Ruby中使用正则表达式时是一个很棒的工具,因为它可以立即将结果可视化。 关于ruby-我如何学习ruby​​的正则表达式?,我们在StackOverflow上找到一个类似的问题: https://stackoverflow.com/questions/1881231/

  6. 深度学习12. CNN经典网络 VGG16 - 2

    深度学习12.CNN经典网络VGG16一、简介1.VGG来源2.VGG分类3.不同模型的参数数量4.3x3卷积核的好处5.关于学习率调度6.批归一化二、VGG16层分析1.层划分2.参数展开过程图解3.参数传递示例4.VGG16各层参数数量三、代码分析1.VGG16模型定义2.训练3.测试一、简介1.VGG来源VGG(VisualGeometryGroup)是一个视觉几何组在2014年提出的深度卷积神经网络架构。VGG在2014年ImageNet图像分类竞赛亚军,定位竞赛冠军;VGG网络采用连续的小卷积核(3x3)和池化层构建深度神经网络,网络深度可以达到16层或19层,其中VGG16和VGG

  7. 机器学习——时间序列ARIMA模型(四):自相关函数ACF和偏自相关函数PACF用于判断ARIMA模型中p、q参数取值 - 2

    文章目录1、自相关函数ACF2、偏自相关函数PACF3、ARIMA(p,d,q)的阶数判断4、代码实现1、引入所需依赖2、数据读取与处理3、一阶差分与绘图4、ACF5、PACF1、自相关函数ACF自相关函数反映了同一序列在不同时序的取值之间的相关性。公式:ACF(k)=ρk=Cov(yt,yt−k)Var(yt)ACF(k)=\rho_{k}=\frac{Cov(y_{t},y_{t-k})}{Var(y_{t})}ACF(k)=ρk​=Var(yt​)Cov(yt​,yt−k​)​其中分子用于求协方差矩阵,分母用于计算样本方差。求出的ACF值为[-1,1]。但对于一个平稳的AR模型,求出其滞

  8. Unity Shader 学习笔记(5)Shader变体、Shader属性定义技巧、自定义材质面板 - 2

    写在之前Shader变体、Shader属性定义技巧、自定义材质面板,这三个知识点任何一个单拿出来都是一套知识体系,不能一概而论,本文章目的在于将学习和实际工作中遇见的问题进行总结,类似于网络笔记之用,方便后续回顾查看,如有以偏概全、不祥不尽之处,还望海涵。1、Shader变体先看一段代码......Properties{ [KeywordEnum(on,off)]USL_USE_COL("IsUseColorMixTex?",int)=0 [Toggle(IS_RED_ON)]_IsRed("IsRed?",int)=0}......//中间省略,后续会有完整代码 #pragmamulti_c

  9. Tcl脚本入门笔记详解(一) - 2

    TCL脚本语言简介•TCL(ToolCommandLanguage)是一种解释执行的脚本语言(ScriptingLanguage),它提供了通用的编程能力:支持变量、过程和控制结构;同时TCL还拥有一个功能强大的固有的核心命令集。TCL经常被用于快速原型开发,脚本编程,GUI和测试等方面。•实际上包含了两个部分:一个语言和一个库。首先,Tcl是一种简单的脚本语言,主要使用于发布命令给一些互交程序如文本编辑器、调试器和shell。由于TCL的解释器是用C\C++语言的过程库实现的,因此在某种意义上我们又可以把TCL看作C库,这个库中有丰富的用于扩展TCL命令的C\C++过程和函数,所以,Tcl是

  10. ruby-on-rails - 这个 C 和 PHP 程序员如何学习 Ruby 和 Rails? - 2

    按照目前的情况,这个问题不适合我们的问答形式。我们希望答案得到事实、引用或专业知识的支持,但这个问题可能会引发辩论、争论、投票或扩展讨论。如果您觉得这个问题可以改进并可能重新打开,visitthehelpcenter指导。关闭9年前。我来自C、php和bash背景,很容易学习,因为它们都有相同的C结构,我可以将其与我已经知道的联系起来。然后2年前我学了Python并且学得很好,Python对我来说比Ruby更容易学。然后从去年开始,我一直在尝试学习Ruby,然后是Rails,我承认,直到现在我还是学不会,讽刺的是那些打着简单易学的烙印,但是对于我这样一个老练的程序员来说,我只是无法将它

随机推荐