[RL Notes] 离轨策略
Contents [show]
1. 同轨策略和离轨策略
通过确保智能体不断地选择所有可能的动作,可以让智能体不断地进行试探,有两种方法可以达到这一点。
同轨策略(on-policy)方法使用相同的策略生成采样数据序列以及用于实际决策的待评估和改进的策略。前文中的蒙特卡洛试探性出发算法和 ε-软策略都属于同轨策略。ε-软策略不要求满足试探性出发的假设,但它在获得收益和在试探最优动作上都不是最优的。
离轨策略(off-policy)方法中,用于评估或改进的策略与生成采样数据的策略是不同的。其中智能体学习的策略称为目标策略,记为 π(a|s),例如最优策略;用于生成行动样本的策略称为行动策略,记为 b(a|s),它定义了智能体的行动,通常是探索性的策略。在离轨策略学习中,学习所用的数据离开(off)了待学习的目标策略。可以将同轨策略看成是目标策略和行动策略相同的离轨策略。
将目标策略和行动策略分离开来可以让智能体不断地进行探索。如果智能体只按照目标策略行动,它就只能访问到很少的一部分状态;而如果智能体按照探索性的行动策略进行行动,就可以访问到更多的状态。在离轨策略中,行为策略必须包含目标策略,即如果 π(a|s)>0,则要有 b(a|s)>0。
2. 重要度采样
在离轨策略中,我们从分布 b(行动策略)中采样得到样本 x,x∼b,而我们的目标是预测随机变量在分布 π(目标策略)下的期望,即 Eπ[X]。这里不能再简单地通过对样本求平均来估计 Eπ[X],因为样本来自行动策略 b 而不是目标策略 π。根据定义
Eπ[X]≐∑x∈Xxπ(x)
其中 π(x) 是在策略 π 下观测到 x 的概率。可得
Eπ[X]=∑x∈Xxπ(x)b(x)b(x)=∑x∈Xxπ(x)b(x)b(x)=∑x∈Xxρ(x)b(x)
其中 b(x) 是在策略 b 下观测到 x 的概率,ρ(x)=π(x)b(x),称为重要度采样比。将 xρ(x) 看成是一个新的随机变量,上式可进一步写成
Eπ[X]=∑x∈X(xρ(x))b(x)=Eb[Xρ(X)]
由此就将 π 下的期望写成了 b 下的期望。可以很容易地进行估计 b 下的期望
Eb[Xρ(X)]=∑x∈Xxρ(x)b(x)≈1nn∑i=1xiρ(xi)
上式中的 xi 是从 b 中采样得到的。
由式 (3)、式 (4),就得到了使用行动策略的样本估计目标策略的方法
Eπ[X]≈1nn∑i=1xiρ(xi)
3. 一个例子
假设 b 和 π 的分布分别如表一、表二所示
表一
x | 1 | 2 | 3 | 4 |
---|---|---|---|---|
b(x) | 0.85 | 0.05 | 0.05 | 0.05 |
表二
x | 1 | 2 | 3 | 4 |
---|---|---|---|---|
π(x) | 0.30 | 0.40 | 0.10 | 0.20 |
由表二可知 Eπ[X]=2.2。
从 b 中采样得到一个样本 x1=1,此时有
b(x1)=0.85π(x1)=0.30ρ(x1)=π(x1)b(x1)=30851∑i=1xiρ(xi)=1×3085≈0.35
接着从 b 中采样得到的第二个样本 x2=3,此时有
b(x2)=0.05π(x2)=0.10ρ(x2)=π(x2)b(x2)=1051n2∑i=1xiρ(xi)=1×3085+3×1052≈3.18
然后又从 b 中采样得到的第三个样本 x3=1,此时有
b(x3)=0.85π(x3)=0.30ρ(x3)=π(x3)b(x3)=30851n3∑i=1xiρ(xi)=1×3085+3×105+1×30853≈2.24
可见估计值越来越接近真实值 Eπ[X]=2.2。