分类:计算机对手情况下的情感因素
研究背景和问题
在博弈实验的研究中,有的时候为了对比突出人-人博弈时候的行为和考虑的因素,人们经常采用把对家换成计算机算法的方式。例如我们自己的分类:概率测试和最后通牒研究以及Nick等人的最后通牒中的学习能力问题的工作[1]都采用了计算机算法当做博弈被试的对家。这个时候,一般认为,由于对家是计算机,人类被试就不回去考虑公平性、利他性、声誉等问题。当然,不考虑利他有可能导致更加利他的行为——因为给对方多点无所谓反正对方收不到因此不需要考虑对自身不利的不公平的厌恶,或者更加不利他的行为——因为这个时候利他也没用它感受不到。这个结果倒不是大问题。关键是,这些因素原则上就不会成为决策中需要考虑的因素了。那么,一旦这样的因素去掉了,是不是,能够有行为上的可以测量的区别呢?如何才能肯定确实这些因素被去掉了呢?
为了检验计算机对家是否真的去掉了跟人类情感有关的因素,我们设计了下面的实验。
实验设计
考虑一个如下的收益矩阵:[math]\displaystyle{ \left[\begin{array}{c|c} 1,1 & 2,1 \\ \hline 1,2 & 2,2 \end{array}\right] }[/math]。其特点是,博弈者自身的收益不受自己的行为影响,却受到对家的影响。因此,如果需要考虑对家的收益,不管是出于公平性还是利他性,则确实存在一个对于特定的博弈者的特定的“好”的行为选择的问题;对于这个不考虑对家的收益的被试,则两个行为选择是一样的不可区分的。因此,理想情况下,对家是计算机,我们不需要考虑对家的收益,于是,这个时候人类被试应该是处于任意选择的状态。当然,这个任意选择可能是意味着大样本的情况下,均值的[math]\displaystyle{ 50\% }[/math],也可能意味着人类被试的选择和计算机被试的选择无关。根据这样的一个推断,我们就可以通过实际实验来检验是否在对家是计算机算法的时候,人类被试确实不考虑情感的因素。
- 在计算机被试采用不同程度的利他(以概率[math]\displaystyle{ q }[/math]选择行为2)的情况下,对比人类被试的行为
- [math]\displaystyle{ q=\frac{2}{3} }[/math]
- [math]\displaystyle{ q=\frac{1}{2} }[/math]
- [math]\displaystyle{ q=\frac{1}{3} }[/math]
- 在对被试是计算机算法的不同程度的提示的情况下,对比人类被试的行为
- 仅仅在实验说明阶段指出来对家是计算机算法
- 在实验的每一轮,给出收益的时候强调,对家是计算机算法
- 在实验的每一轮,给出收益的时候强调,对家是计算机算法,并且不能获得实际收益
主要结果
我们发现,
- 在前面的三组对比中,我们仅仅使用了第二组对比设计中的第一种设置——仅仅在实验说明阶段做提醒,这个时候,三组实验人类被试的行为选择有显著区别。
- 在后面的三组对比中,我们仅仅考虑了[math]\displaystyle{ q=\frac{1}{3} }[/math]的情况,这个时候,前两组实验的结果没区别,后一组实验的结果和前两组有显著区别。
这样的实验结果说明,在没有经过非常明确的不断地提示和强化的情形下,人类被试的行为就算对家是计算机——这一点在实验说明之后有问题检测来保证——的情况下,仍然有情感上的考虑。这个实验结果还说明,在不断强化和提醒的条件下,这样的情感效益可以被减弱。这个结果,对于将来的需要采用人与计算机博弈的实验设计是非常有意义的,不管是在我们自己的还是其他人的工作中。
下一步的工作
- 完成论文写作和发表的工作。
- 原则上,其他[math]\displaystyle{ q }[/math]值的情况下的实验,也应该开展一下。
参考文献
- ↑ Brenner, T., Vriend, N. J., 2006. On the behavior of proposers in ultimatum games. Journal of Economic Behavior & Organization 61 (4), 617-631.
本分类目前不含有任何页面或媒体文件。