分类:计算机对手情况下的情感因素

来自Big Physics
Jinshanw讨论 | 贡献2017年11月2日 (四) 23:03的版本 →‎实验设计


研究背景和问题

在博弈实验的研究中,有的时候为了对比突出人-人博弈时候的行为和考虑的因素,人们经常采用把对家换成计算机算法的方式。例如我们自己的分类:概率测试和最后通牒研究以及Nick等人的最后通牒中的学习能力问题的工作[1]都采用了计算机算法当做博弈被试的对家。这个时候,一般认为,由于对家是计算机,人类被试就不回去考虑公平性、利他性、声誉等问题。当然,不考虑利他有可能导致更加利他的行为——因为给对方多点无所谓反正对方收不到因此不需要考虑对自身不利的不公平的厌恶,或者更加不利他的行为——因为这个时候利他也没用它感受不到。这个结果倒不是大问题。关键是,这些因素原则上就不会成为决策中需要考虑的因素了。那么,一旦这样的因素去掉了,是不是,能够有行为上的可以测量的区别呢?如何才能肯定确实这些因素被去掉了呢?

为了检验计算机对家是否真的去掉了跟人类情感有关的因素,我们设计了下面的实验。

实验设计

考虑一个如下的收益矩阵:[math]\displaystyle{ \left[\begin{array}{c|c} 1,1 & 2,1 \\ \hline 1,2 & 2,2 \end{array}\right] }[/math]。其特点是,博弈者自身的收益不受自己的行为影响,却受到对家的影响。因此,如果需要考虑对家的收益,不管是出于公平性还是利他性,则确实存在一个对于特定的博弈者的特定的“好”的行为选择的问题;对于这个不考虑对家的收益的被试,则两个行为选择是一样的不可区分的。因此,理想情况下,对家是计算机,我们不需要考虑对家的收益,于是,这个时候人类被试应该是处于任意选择的状态。当然,这个任意选择可能是意味着大样本的情况下,均值的[math]\displaystyle{ 50\% }[/math],也可能意味着人类被试的选择和计算机被试的选择无关。根据这样的一个推断,我们就可以通过实际实验来检验是否在对家是计算机算法的时候,人类被试确实不考虑情感的因素。

  1.  在计算机被试采用不同程度的利他(以概率[math]\displaystyle{ q }[/math]选择行为2)的情况下,对比人类被试的行为
    1. [math]\displaystyle{ q=\frac{2}{3} }[/math]
    2. [math]\displaystyle{ q=\frac{1}{2} }[/math]
    3. [math]\displaystyle{ q=\frac{1}{3} }[/math]
  2. 在对被试是计算机算法的不同程度的提示的情况下,对比人类被试的行为
    1. 仅仅在实验说明阶段指出来对家是计算机算法
    2. 在实验的每一轮,给出收益的时候强调,对家是计算机算法
    3. 在实验的每一轮,给出收益的时候强调,对家是计算机算法,并且不能获得实际收益

主要结果

下一步的工作

  1. 完成论文写作和发表的工作。


参考文献

  1. Brenner, T., Vriend, N. J., 2006. On the behavior of proposers in ultimatum games. Journal of Economic Behavior & Organization 61 (4), 617-631.

本分类目前不含有任何页面或媒体文件。