深度 Q 网络的过拟合问题与优化方法

释放双眼,带上耳机,听听看~!
本文讨论了在学习完 DQN 后,可能遇到的过拟合问题,并提出了针对性的优化方法。文章介绍了深度 Q 网络的核心理解,以及如何使用时序差分方法更新网络参数。同时,针对过拟合问题,提出了损失函数的优化方法。

DQN的过拟合问题

建议在学完 DQN 之后有不理解的再看本笔记,本文的环境都是 OpenAI 的开源库 gymnasium 的 Pendulum-v1,其给的最大奖励是 0,也就是直立状态,其他状态都给负奖励,因此可以以 0 为基准讨论过拟合问题。

深度 Q 网络的过拟合问题与优化方法

深度 Q 网络

核心理解

在普通DQN中,我们会建立两个网络,一个 Q 网络,参数为 ωomega,另一个是目标 Q 网络,参数为 ω∗omega^*,目标 Q 网络的参数是若干回合更新一次,而 Q 网络是每个状态动作之后都会更新,因为 Q 网络要追目标 Q 网络,而且目标 Q 网络的动作选择是 Q 值最大的那个,如果只建立一个网络,那么 Q 值大的动作会被更多地选择,也就被更多地高估;但这种状态下仍然会被高估,因为目标网络总是选择最大的 Q 值。

深度 Q 网络的关键在于时序差分方法更新网络参数 θtheta,目标 Q 值是用目标 Q 网络得来的,rr表示本轮环境反馈的奖励,γgamma表示折扣因子,ωomega是网络的参数,s′s’a′a’表示目标 Q 网络对下一状态 Q 值的估计,由于网络输出的是若干动作的若干 Q 值,因此选其中最大的 Q 值,得出 QtargetQ_{target}作为目标 Q 值;而本轮 Q 值很简单,就是 Qω(s,a)Q_{omega}(s,a),用均方差 MSE 即可算出损失,进而梯度更新。

Qtarget=r+γmax⁡a′∈AQω∗(s′,a′)Q=Qω(s,a)loss=12(Qtarget−Q)2begin{align}
& Q_{target} = r + gamma mathop{max} limits_{a’in A} Q_{omega^*}(s’,a’) nonumber \
& Q = Q_{omega}(s,a) nonumber \
& loss = frac{1}{2}(Q_{target} – Q)^2 nonumber
end{align}

其中 QtargetQ_{target} 也可以写成如下式子,因为 s′s’ 是给定了的,a′a’ 的选取就是使得 Qω∗Q_{omega^*} 最大的那个动作

Qtarget=r+γQω∗(s′,argmax⁡a′Qω∗(s′,a′))Q_{target}=r+gamma Q_{omega^*}left(s’, mathop{operatorname{argmax}} limits_{a’} Q_{omega^*}(s’,a’)right)

完整损失函数可以写为

loss=argmin⁡ω12N∑i=1N[Qω(si,ai)−(ri+γmax⁡a′Qω∗(si′,a′))]2loss = mathop{operatorname{argmin}} limits_{omega} frac{1}{2N} sum^N_{i=1}left[Q_{omega}(s_i,a_i) – ( r_i + gamma mathop{operatorname{max}} limits_{a’} Q_{omega^*}(s_i’,a’)) right]^2

其中 1Nfrac{1}{N} 是批量均值,12frac{1}{2} 是最后两个值的均值,该公式求使损失最小的参数 ωomega,在程序中不用写这么复杂:

# pytorch 2.0.1
# states和actions等都是一个批量的数据,tensor类
import torch.nn.functional as F
import torch

q_net = Qnet().to('cuda')
target_q_net = Qnet().to('cuda')

optimizer = torch.optim.Adam(q_net.parameters(), lr=learning_rate) # Adam优化器
...
Q_target = r + gamma * target_q_net(next_states).max(1)[0].view(-1, 1) * (1 - dones | truncated) # 直接选出最大的Q值
Q_value = q_net(states).gather(1, actions) # 依据当前动作选出该动作的Q值
loss = torch.mean(F.mes_loss(Q_value, Q_target)) # 求批量的均方差之后再求均值,即1/2N
optimizer.zero_grad() # 设置0梯度避免积累
loss.backward() # 反向传播计算梯度
optimizer.step() # 执行梯度下降

改进方案

Double DQN

在普通 DQN 中,目标网络总是选择最大的 Q 值,虽然比从原网络直接估计 Q 值要好,但也有可能过拟合,比如对一个奖励最大就是 0 的环境来说,Q 网络要拟合它的奖励,尽管越往后总体会越趋近于 0,但是它有可能输出会大于 0,目标 Q 网络同理,因此如果总是选目标 Q 网络估计的最大 Q 值,那就有可能把原 Q 网络往输出大于 0 的方向引导,造成过拟合,或者说过高的 Q 值估计。

前面提到目标 Q 网络的更新是比较慢的,假设原网络已经过拟合了,我们的目标 Q 值还是用目标 Q 网络估计,但不选择最大的那个 Q 值,而选择原网络最大 Q 值对应的那个动作,按照这个动作去选择目标 Q 网络给出的 Q 值,因为目标 Q 网络更新的比较慢,所以可能没有原网络那么过拟合,所以选到的 Q 会比较低,这样原 Q 网络的参数就会调整得不那么过拟合,从而一定程度抑制了过拟合。

这样的修改可以写成如下公式,区别就是选择动作的网络变了,变成原网络,从参数上看得出来

原DQN⁡:Qtarget=r+γQω∗(s′,argmaxa′Qω∗(s′,a′))Double DQN⁡:Qtarget=r+γQω∗(s′,argmaxa′Qω(s′,a′))begin{align}
原operatorname{DQN}:& Q_{target}=r+gamma Q_{omega^*}(s’, mathop{mathrm{argmax}} limits_{a’} Q_{omega^*}(s’,a’)) \
operatorname{Double~DQN}:& Q_{target}=r+gamma Q_{omega^*}(s’, mathop{mathrm{argmax}} limits_{a’} Q_{omega}(s’,a’)) \
end{align}

代码方面有如下改动

# ======> # 下个状态的最大Q值, Double DQN的区别
if self.dqn_type == 'DoubleDQN' or 'DuelingDQN':  # 先在q网络确定动作, 再对应到目标网络的价值上
    max_action = self.q_net(next_states).max(1)[1].view(-1, 1)
    max_next_q_values = self.target_q_net(next_states).gather(1, max_action)
else:  # DQN的情况, 直接用目标网络估计价值
    max_next_q_values = self.target_q_net(next_states).max(1)[0].view(-1, 1)

这样的改动是有效果的,左边是普通 DQN,右边是 Double DQN,如下图

深度 Q 网络的过拟合问题与优化方法深度 Q 网络的过拟合问题与优化方法

本文的环境是 Pendulum-v1,其给的最大奖励是 0,也就是直立状态,其他状态都给负奖励,普通 DQN 在一些轮次中,估计的 Q 值比较大,有的接近 10,也就是过拟合,右边的 Double DQN 中,在 epsilon降低之后的训练中出现了严重过拟合,但是在后期稳定之后就很少过拟合了,但还有一个缺点,就是有的轮次的 Q 值突然下降,说明对于该轮次选择的动作学习的不好,因为网络每次只是针对选择的一个动作造成的误差进行梯度下降,这样就忽略了其他动作的学习,如果有状态动作没有被采样到,就没有被很好的学习到。

Dueling DQN

主要区别是网络设计上,普通 DQN 的网络一般如下

class Qnet(torch.nn.Module):
    ''' 只有一层隐藏层的Q网络 '''
    def __init__(self, state_dim, hidden_dim, action_dim):
        super(Qnet, self).__init__()
        self.fc1 = torch.nn.Linear(state_dim, hidden_dim)
        self.fc2 = torch.nn.Linear(hidden_dim, action_dim)

    def forward(self, x):
        x = F.relu(self.fc1(x))  # 输出一个Q值
        return self.fc2(x)

Dueling DQN 采用对偶输出的设计,共用一个隐藏层,但是输出层输出两个值,并且加和作为最终输出,其设计如下

class VAnet(torch.nn.Module):
    ''' 只有一层隐藏层的A网络和V网络 '''
    def __init__(self, state_dim, hidden_dim, action_dim):
        super(VAnet, self).__init__()
        self.fc1 = torch.nn.Linear(state_dim, hidden_dim)  # 共享网络部分
        self.fc_A = torch.nn.Linear(hidden_dim, action_dim)
        self.fc_V = torch.nn.Linear(hidden_dim, 1)

    def forward(self, x):
        A = self.fc_A(F.relu(self.fc1(x)))  # 状态动作优势
        V = self.fc_V(F.relu(self.fc1(x)))  # 状态价值
        Q = V + A - A.mean(-1).view(-1, 1)  # Q值由V值和A值计算得到
        return Q

实际上最初想的是 A = Q - V,即估计的 Q 值减去当前状态的价值 V 等于动作优势 A,这样更好理解,但是我们需要网络给出 Q 值,因此改写成 Q = V + A

注:A 和 Q 有两个参数 s,a,所以叫 状态动作优势/价值;V 只有一个参数 s,所以叫 状态价值。

V 值,代表当前状态的价值,如果是一个批量,那么有两个维度,大小是(批量数, 1);另一个是 A,表示当前动作的相对优势(人为定义的),它类似传统的 Q 值,即给出了该状态下每个动作的 Q 值,如果输入的是一个批量,那么大小是(批量, 动作空间);其中 A 一般是多维的,类似之前输出 Q 值,因为每个状态都对应一个 Q 值,并且有一个状态批量,而 V 是一维的,代表每个状态的一个状态价值。所谓状态价值,可以理解为有的状态很差,无论采用什么动作都很难获得比较好的回报,那么这时候状态价值就很低,反之同理。

在网络中需要限制 A 的更新,Q=V+(A−Aˉ)Q = V + (A – bar{A})AA 减去 Aˉbar{A},会使得 A 整体更接近 0,并且均值为 0,这是为了减少 A 在梯度下降中的调整大小,从而使得梯度下降主要影响 V,V 的输出比较简单,也好调整一些,而改变了 V,也就同时改变了所有动作的 A 值(矩阵运算的广播机制),等于改变了所有动作的 Q 值(同时增加或者减少),因此在某个状态下的学习会对所有动作的估计产生影响,而不是只改变 Q 值最大的那个动作的估计。

在前面的普通 DQN 和 Double DQN 中,没有 A 和 V 的概念,网络直接输出 Q,在反向传播中,只考虑了 Q 值最大的那个动作,就只是考虑了该动作造成的误差。

这样的改动也是有效果的,左边是 Double DQN,右边是 Deuling DQN,后者后期 Q 值出现大幅下降的情况减少了,并且下降的幅度也变小了,如下图

深度 Q 网络的过拟合问题与优化方法深度 Q 网络的过拟合问题与优化方法

关于过拟合的研究

Double DQN 的目的是抑制过拟合,但是无法完全避免,实际上动作空间越大越容易过拟合。

设动作空间为 m,也就是有 m 个动作可供选择,假设状态 ss 下所有动作 a′a’ 的期望回报无差异,都为 Q∗(s,a′)Q^*(s,a’),网络估计的 Q 值是 Qω(s,a)Q_{omega}(s,a),那么误差可以表示为 ϵa=max⁡aQω(s,a)−Q∗(s,a′)epsilon_a = mathop{max}limits_{a} Q_{omega}(s,a) -Q^*(s,a’),假设误差 ϵaepsilon_a 服从[-1, 1]的均匀分布,并且各动作 aa 相互独立,有 E(max⁡aϵa)=(m−1)2m−1m+1E(maxlimits_{a} epsilon_a)=frac{(m-1)2^{m-1}}{m+1},这是随着 m 的增大而增大的。证明如下:

ϵaepsilon_a 的分布函数如下:

P(ϵa≤x)={0,x<−11+x2,−1≤x<11,1≤xP(epsilon_a le x) =
begin{cases}
begin{align}
&0, & x<-1 nonumber \
&frac{1+x}{2}, & -1 le x <1 nonumber \
&1, & 1le x nonumber \
end{align}
end{cases}

又因为各动作是独立的,一共有 m 个动作,因此对于使得误差最大的动作 aa 有分布函数:

P(max⁡aϵa≤x)={0,x<−1(1+x2)m,−1≤x<11,1≤xP(maxlimits_{a} epsilon_a le x) =
begin{cases}
begin{align}
&0, & x<-1 nonumber \
&left(frac{1+x}{2}right)^m, & -1 le x <1 nonumber \
&1, & 1le x nonumber \
end{align}
end{cases}

对该分布函数求期望:

E(max⁡aϵa)=∫−11xd⁡(1+x)m2=[x(1+x)m2]−11−∫−11(1+x)m2dx=2m−1−[(1+x)m+12(m+1)]−11=2m−1−2mm+1=2m−1(m+1)−2m−1×2m+1=(m−1)2m−1m+1begin{align}
E(maxlimits_{a} epsilon_a) & = int_{-1}^1 x operatorname{d}frac{(1+x)^m}{2} nonumber \
& = left[frac{x(1+x)^m}{2}right]^1_{-1} – int_{-1}^1 frac{(1+x)^m}{2}mathrm{d}x nonumber \
& = 2^{m-1} – left[frac{(1+x)^{m+1}}{2(m+1)}right]^1_{-1} nonumber \
& = 2^{m-1} – frac{2^m}{m+1} nonumber \
& = frac{2^{m-1}(m+1)-2^{m-1}times2}{m+1} nonumber \
& = frac{(m-1)2^{m-1}}{m+1} nonumber
end{align}

内容参考

《强化学习教程》《动手学强化学习》

本网站的内容主要来自互联网上的各种资源,仅供参考和信息分享之用,不代表本网站拥有相关版权或知识产权。如您认为内容侵犯您的权益,请联系我们,我们将尽快采取行动,包括删除或更正。
AI教程

Efficient Transformers: A Survey - Longformer: The Long-Document Transformer

2023-11-27 17:51:14

AI教程

动手学数据分析:数据载入及初步观察

2023-11-27 17:57:14

个人中心
购物车
优惠劵
今日签到
有新私信 私信列表
搜索