雷锋网 AI 科技评论按:在机器学习和深度强化学习研究中,可重复性成为了最近最为热门、最常被人诟病的话题之一。复现一篇基于强化学习的文章远比想象的难,具体分析可参照《lessons learned from reproducing a deep RL paper》。

事实上,一般情况下,源代码库并不总是被完整发布的,科学性的论文中时常会省略部分实现技巧。近期,Herderson 等人对造成复现困难的各种参数进行了深入的调查。他们使用了当下热门的深度强化学习的算法,如 DDPG、ACKTR、TRPO 和 PPO 等,并结合 OpenAI Gym 中的经典基准测试,如 Half-Cheetah, Hopper 和 Swimmer 等,研究代码库、网络大小、激活函数、奖励缩放或随机种子对性能产生的影响。结果中最令人惊讶的是,同样的算法、用同一组超参数进行训练时,每一次运行后的结果也会大相径庭。

也许最令人惊讶的是:使用相同的超参数和 10 个不同的随机种子运行相同的算法 10 次,其中 5 个种子的表现做平均和另外 5 个种子做平均,得到的两条学习曲线仿佛是来自两个不同的统计分布的。然后,他们展示了这样一个表格:

随机区组设计和完全随机实验(强化学习实验里到底需要多少个随机种子的严格证明)(1)

该表显示了 Henderson 等人参考的所有深度 RL 论文使用了少于5粒种子。更糟糕的是,一些论文实际上展现了最佳表现的平均值!正如 Henderson 等人刚才展示的那样,算法表现的不稳定性使得研究者可以通过挑选种子的方式声称某个算法比另一个算法的表现更好,即便事实上并不是这样。这个问题的解决方案是使用更多随机种子,以平均更多不同试验的结果,最终获得更稳健的算法性能度量。那么,到底使用多少才是合适的呢?应该使用 10 个,还是应该像Mania等人提出的那样使用 100?答案当然是,看情况

如果您阅读此博客,我猜您肯定处于以下情况:您希望比较两种算法的性能,以确定哪种算法在给定环境中表现最佳。不幸的是,相同算法的两次运行通常会产生不同的性能数值。这可能是由于各种因素造成的,例如随机发生器产生的种子(随机种子,简称种子)、智能体的初始条件、环境的随机性等。

本文中描述的部分统计过程可以在 Github上找到。这篇文章可在ArXiv上找到。雷锋网 AI 科技评论对全文进行了编译。

统计问题的定义

一段算法的表现可以通过数学建模成一个随机的变量

并且在环境中运行该算法可以得到实现

将这个过程重复

遍,可以得到统计样本

。一个随机变量通常可以用其平均值

和其标准偏差

来表示特征。当然了,平均值和偏差都是未知的。但是可以计算的是它们的期望值

其中,

被称为经验平均值,

被称为经验标准偏差。样本越大,估算结果的置信度就越高。

比较两个表现分别为

的算法。如果

遵循正态分布。描述它们差值的随机变量

也满足正态分布,并且

。在这种情况下,

平均值的估算值为

,并且

的估算值为

。影响效果可以用两个表现的平均差值来表示:

测试两个算法的性能差在数学上等同于测试它们运行结果的差值

的差。那么,根据上面的推理,从随机变量

产生的两个样本

相减得到的变量

所得的进行计算即为所需的样本

示例一

为了说明本文中提出的概念,采用两种算法(Algo1 和 Algo2),并在 OpenAI Gym 框架中的 Half-Cheetah 环境中进行比较。所使用的实际算法在这里并不那么重要,稍后会公布。首先,进行初步研究,对每个算法设定 N = 5 个随机种子,并在图2中绘制结果。该图显示了平均学习曲线与 95% 置信区间。学习曲线的每个点是 10 个评价时段中的奖励的累积值。该算法性能的度量值是过去 10 个点(即最后 100个评价时段)的平均性能。从图中可以看出,Algo1 的表现似乎优于 Algo2;而且,越靠近结尾的位置,置信区间的重叠也并不多。当然,我们需要在得出任何结论之前进行统计学的测试。

随机区组设计和完全随机实验(强化学习实验里到底需要多少个随机种子的严格证明)(2)

将性能与差异测试进行比较

在差异测试中,统计学家首先定义零假设

和替代假设

。设定如下:

这些假设指的是双尾的情况。如果你有一个先验的算法表现最好,假设为Algo1,也可以使用单尾版本:

在一开始,统计学家经常会使用零假设。一旦一个样本

获得了,可以估算观测数据的概率

为极值。极值的含义是远离零假设的数值,即

的数值远离0。概率的值可以回答下面的问题:观测一个样本或更加极端的样本出现的概率,假设两个算法的表现没有本质的不同时。在数学上,可以使用单尾版本的公式来描述这一过程:

同样的,也可双尾描述:

当这个概率变得非常低时,这意味着两个没有性能差异的算法产生收集的样本

是非常不可能的。差异明显可以表现为概率

在单尾情况下比

的值小,并在双尾情况下比

的数值小。通常将

的数值设置为0.05或者更低。值得注意的是,尽管概率很低,依然是二十分之一的几率出现误报,即在声称没有差异时存在真正地差异。

另一种看待这种情况的方法是考虑置信区间。可以计算两种置信区间:

统计中可以出现两种类型的错误:

选择适当的统计实验

为了进行性能评估,必须首先确认需要使用的统计实验。在 Herderson 的论文中,two-sample t-test 和自举置信区间试验可用于此目的。Herderson 等人也同时推荐了 Kolmogorov-Smirnov 实验,用于测试两个样本是否来自同一个分布区间。但这种测试不能用于比较 RL 算法,因为它不能证明任何顺序关系。

T-test 和 Welch's test

为了验证两个种群具有相同的均值的假设(零假设

)。一个 2-sample t-test 可以在两个种群的变量假设为一致时进行测试。但是,这种假设在对比两个不同的算法时并不是每次都成立的(比如 DDPG 和 TRPO 算法)。在这种情况下,2-sample t-test的变种 Welch's test 被提出了。T-test 包含几个假设:

基于这些假设,可以通过如下公式对统计值 t 和自由度v 进行描述,这里使用 Welch–Satterthwaite公式:

同时,

是两个样本的经验标准偏差,N 为样本的大小(两个样本的大小是一样的)。那么 t-statistics 默认遵循 t-distribution,是钟型的,同时其宽度取决于自由度。自由度越高,分布越扁平。

如下图,可以让人更好的理解这个原理。值得注意的是,这边是在单尾情况下,并得到了正差值。

随机区组设计和完全随机实验(强化学习实验里到底需要多少个随机种子的严格证明)(3)

t-distribution 由其概率密度函数

(图中左侧曲线)定义。累积分布函数

的概率总和,即为:

在上图中,

代表在单尾情况下满足

的 t-value。当

时,概率p小于α,实验结果否定了零假设

。另一方面,当

小于

时,概率p的值大于α,实验未否定零假设。从图片上可以看出,将阈值设置为

,会导致上文所提到的第二种错误。出现错误的几率是图中深蓝色阴影所表示的部分,可以用数学的方式表达如下:

使用积分的转换属性,可以将β重写为:

总结一下,给定两个样本

使用 Welch's t-test 实验的步骤为:

基于

计算自由度 v 和 t-statistics;

通过 t-table 查表获取

的值或使用 CDF 函数评估;

将 t-statistics 和

的数值进行对比。

值得注意的是,

并不意味着两个算法之间没有差异。只能表明没有足够的证据证明在

置信度的基础下差异是存在的(也可能意味着第二种错误的情况)。噪音可能会妨碍测试检测差异的能力。在这种情况下,增加样本量N 可以帮助发现差异。

选择 t-test 的显著级别 α 会导致第一种错误的情况。但是,上图显示的是减少这种概率归结为提高

的值,这最终导致了第二种错误的出现。通过提高样本的数量N,降低β,同时保持α 为恒定值,可以使估算的

更加准确,这最终使得图片中的分布曲线更为扁平,更小的 β 值。下一部分介绍了在同时满足αβ 的情况下,选择合适的样本数量N 的方法。

自举置信区间

Bootstrapped 置信区间是一种不对性能差异的分布做出任何假设的方法。它通过在实际收集的样本中重新采样并通过计算每个生成的样本的平均值来估计置信区间。

给定正态分布的真实平均μ和标准偏差σ,一个简单的公式给出95%置信区间。但在这里,考虑一个未知的分布F(给定一个算法的性能分布)。正如我们上面看到的,经验平均值是其真实均值的无偏估计,但是我们如何计算的置信区间?一种解决方案是使用Bootstrapp原理。

假设有一个测试样本

,其中N 是样本的数量。通过原始样本内的置换采样,可以得到经验bootstrap的样本,标记为

,其样本数量与原测试数量是相同的。在bootstrap原理中,对于原始样本上和自举样本上计算的任何统计数据,其变化是保持一致的。更多的解释和理由可以从麻省理工学院的这份文章中找到。因此,可以通过bootstrap样本的变化量来近似经验平均值的变化(这里可以值变化范围)。

计算过程由如下几步实现:

从原始样本中提取并使用相同的bootstrap的样本数量和样本信息;

计算每个样本的经验平均值,即为

计算差值

使用公式

计算bootstrapped置信区间。范围通常在

和矢量

的概率百分比

之间(如α=0.05,范围则为2.5th和97.5th)。

Bootstrap的样本数量B 需要选择相对较大的值(如1000)。如果置信区间的范围不包含0,这就意味着置信为

时,差值只为正或者负(范围最大值最小值均为正或均为负)。通过这种方式,可以清楚的获得两个算法的性能表现的统计显著差值。可以通过如下链接,参考一个实际应用。

继示例一

这里,设置α=0.05会导致第一种错误的出现。对两个有5个随机种子样本进行Welch's test和bootstrap置信区间测试,p-value 为0.031,

。由于p-value 低于α,同时CI1置信区间并不包含0,两个测试都是通过的。这意味着两个实验结果都表明了算法Algo1Algo2的性能表现有显著不同,且有95%的置信度。若真的检测失败,即仅仅存在 5% 的可能性会误报出算法性能有显著不同的结果。

事实上,在实验时,确实碰到了第一种错误。如此确信的原因是:

实验中选取的Algo1和Algo2其实是两个完全相同的算法

它们都是权威的DDPG的实现算法。代码库可以从资料库下载。这就意味着

是一个真假设,并且两个算法的平均值是相同的。第一个结论是错误的,必须要承认,在这里实验结果是第一种错误,即在正确的时候否认了

。但是,统计测试通常伴随着一些假设,这导致最终实验碰到第一种错误

理论分析:样本大小选择所带来的功率

在实验实现环节,强制选择 α 作为显著等级的选择。第二种错误β现在需要进行估算。β是在

为真的否认

失败的概率。当影响因子

和第一种错误的概率 α是常数时,β 是样本数量N 的函数。选择样本的数量N来满足β的需求就称为统计功率分析(statistical power analysis)。这回答了文章最一开始提出的问题:若显著等级为α,选择多大的样本容量来满足1-β的概率发现影响因子

?下一章节将会介绍在Welch's test中选择合适的 N的步骤。

如前文中描述的那样,β 可以使用公式进行分析:

在这里,

为以0为中心点t-distribution的累积分布函数,

为临界值,

为影响因子

的t-value。

示例二

为了更好的理解本文的含义,使用两个DDPG的算法:一个有执行扰动(Algo1),一个有参数扰动(Algo2)。两个算法都在OpenAI Gym框架下的Half-Cheetah环境中执行。

步骤1 - 画图学习

为了实际的获得β,首先需要进行两个算法

的标准偏差的估算。在这个步骤中,算法在环境中计算,并获得两个大小为 n的样本 x1 和 x2 。然后对其经验平均值

和标准偏差

进行计算。

继示例二

这里,设置样本容量为n=5,经验平均值

为(3523,4905),经验标准偏差

=(1341,990),如下图描述,其中红色曲线表示Algo2,蓝色曲线标识Algo1。从图中可以看出,两个算法的表现有轻微的不同,并且

随机区组设计和完全随机实验(强化学习实验里到底需要多少个随机种子的严格证明)(4)

步骤2 - 选择样本大小

给定一个统计测试(如Welch's test),一个显著等级α(如α=0.05)和Algo1、Algo2的经验估算标准偏差,可以计算得到β,通过基于样本容量N和影响因子

若N 在[2, 50]中取,

取自于

,通过前文公式计算

V

。最后,通过前文公式计算第二种错误的概率β。下图展示了β 在不同的

时的数值变化曲线。黑色虚线是

从图中可以读取到,N=5 时,β=0.51。这意味着当影响因子为1382时,有51%的概率得到第二种错误的实验结果。为了使错误概率降低到20%以下,N的选择需要大于10(图中,β=0.19 的点)。

随机区组设计和完全随机实验(强化学习实验里到底需要多少个随机种子的严格证明)(5)

上述实验中,当N=10时,满足影响因子为1382的概率条件,并在welch's test的前提之下,使用的经验估算值为

。但是,需要值得注意的是,这样的实验结果是基于多个近似,包括

,并假设了t-value的钟形分布。

步骤三 - 进行统计测试

两个算法都需要被执行,以获取一个容量为 N的新的样本

,从而可以应用统计测试。

继示例二

这里,设置N=10,并执行Welch's test和bootstrap测试。通过实验,获得Algo1和Algo2的经验平均值

和经验标准偏差

。这两个实验结果都否定了

,Welch's test的p-value 为0.0037,并且bootstrap测试的差值置信区间为

。两个实验都通过了。在下图中,N=5 N=10的曲线都绘制了。将样本容量提高到10时,原本在样本容量为5的情况下不能被识别的显著差异就显示出来了。有更多的随机种子,估算的

更具鲁棒性,更多的证据可以证明Algo2的性能比Algo1算法的性能好,这可以通过图片中的尖峰进行识别。

随机区组设计和完全随机实验(强化学习实验里到底需要多少个随机种子的严格证明)(6)

实践:从假设中产生偏差的影响

给定相应的假设,t-test 和 bootstrap 实验在选择显著等级为α时,都面临第一种错误的问题。为了得到正确的错误概率信息,这些假设都需要被仔细的检查。首先,基于实验数据,需要计算第一种错误概率的经验评估,并展示:1)bootstrap测试对小样本容量极度敏感;2)t-test的结果可能会对非正太分布的数据有偏差。然后,在实验中,也验证了,低样本数导致了s1和s2的估算值的不准确性,并造成β计算较大的误差,最终造成从实验中反馈的样本数量需求也偏低。

第一种错误的经验估算

给定样本数量N第一种错误的概率可以通过如下几个步骤进行估算:

对给定的算法进行双倍数的操作(2 X N)。这可以确保

是正确的,因为所有的测量都来源于同一个数据分布;

N个样本随机的一分为二。并把每个部分当作是从两个不同的算法中分离出来的样本;

测试两种虚拟算法的差异并记录结果;

重复此过程T次(例如T = 1000);

计算H0被拒绝的时间比例。这是α的经验评价。

示例三

使用示例二中的Algo1算法。经过42次实验,如上的过程,N的选择范围为[2,21]。下图展现了实验的结果。在α=0.05的情况下,当N取值过小时,经验估算的false positive的几率比基准值高出很多。

随机区组设计和完全随机实验(强化学习实验里到底需要多少个随机种子的严格证明)(7)

在实验中,bootstrap测试的置信区间不能使用在小样本量的计算中(α 的值设置为0.05以下,以确保true positive的概率低于0.05。在示例一中,N=5,则遇到了第一种错误。在上图中,这种可能性在bootstrap测试中得到约10%的计算结果,Welch's测试中获得了高于5%的结果。

经验标准偏差的影响

基于样本容量 N和标准偏差的经验估算值,Welch's test计算了t的统计信息和自由度V。当N的值很低时,S1和S2估算值低于实际的标准偏差值。这导致了更小的V和 更低的

,并最终影响了低 β值。最后,更低的β在环路中影响了样本容量的选择。这对样本容量N的计算有着显著影响。下图在两个分布

中,false positive几率β。图中两个结果的区别是,左侧的图片使用了真实的数值进行计算,而右侧的图片使用了经验评估值。从实验结果可以看出,不管使用哪一种数值,基于β的样本容量的选择是一致的。

随机区组设计和完全随机实验(强化学习实验里到底需要多少个随机种子的严格证明)(8)

重要的是:

结论

在本文中,详细的介绍了在比较两个强化算法的时候遇到的统计问题。并定义了第一种错误和第二种错误,同时还提出了ad-hoc统计测试的方法进行性能对比测试。最后,作者还介绍了在测试中选择正确的样本数量的方法,并通过实际案例进行了分析和描述。

本文最重要的意义并不仅限于方法和应用的介绍,而是基于本文的理论进行的后续的研究。通过挑战Welch's test和bootstrap测试的假设,作者发现了几个问题。首先,作者发现了在实验中,经验推断值和理论实际值的显著差异。为了规避这个问题,作者提出了N=20的最低样本容量要求,指出bootstrap测试必须使用在样本数量N>20的情况下,只有满足这样的要求,才能符合false positive几率的要求(的精度。为了顺利的进行推算和计算,在实验一开始就需要选择系统的大于功率分析的规定。

推荐的实验设定

最后,作者非常谦虚的留言:需要注意的是,本文的作者并不是一个专业的统计学者,如果在文中发现任何统计学上的问题,请随时与作者联系~

via openlab-flowers.inria.fr,雷锋网 AI 科技评论编译

,