“算法厌恶”何时存在:基于任务类型和任务感知(图文)

时间: 2020-07-11 16:01:31   阅读:


  2020年6月27日上午九点,中国营销工程与创新研究中心(以下简称“MEI”)2019-2020年第二学期第21次研讨会(以下简称“Seminar”)在MEI如期举行,参与本次研讨会的有黄敏学老师、朱华伟老师及MEI各位成员。

  本次Seminar由余正东研读文章《Task-Dependent Algorithm Aversion》。

  算法(algorithm)是机器完成特定任务所需要遵循的一系列指令。人工智能领域的快速发展赋予了算法理解和生成自然语言、学习经验、乃至理解和模拟人类情感的能力(如图一至图三)。如今,在各种各样的任务情形下,算法甚至可以胜过专家人类。

图片1.png

  图一 百度AI医疗影像标注        图二 自动驾驶汽车        图三面部表情分析

  即便如此,大量研究表明消费者仍会更加倾向于选择真实的人类而非AI来完成任务——这被称之为算法厌恶(algorithm aversion),例如,进行医疗咨询、股市预测时,人们更加偏好来自人类而非机器的建议;在进行招聘决策时,人类面试被认为比机器面试更专业和灵活。值得注意的是,近年也有少量研究发现,算法厌恶并非一贯存在,例如,在进行需要客观结果输出的数字相关任务时,人们会更加相信算法。综合以往文献,消费者是否厌恶算法或欣赏算法,取决于使用算法的任务类型以及人们如何感知该任务。由此,本文的贡献如下:

  1.     厘清了具有不同特点的任务如何影响对算法的信任和使用意愿。

  2.     探索了在算法决策优于人类决策的情况下,降低算法厌恶的方法。

  研究假设

  任务的客观性是本文研究的切入点。客观任务(objective task)是指包含了可量化和可测量事实的任务,主观任务(subjective task)是指基于个人观点或直觉而得以开放解释的任务。以往研究表明,外行人认为完成客观任务需要逻辑思考和规则分析能力,而完成主观任务更有赖于直觉和本能。任务的客观性并非是某个任务所天生、固有的,它可能是一种可塑的感知,这种感知在不同的人、不同的时间段之间都具有异质性,本文利用这种异质性来实现对任务客观性的操纵。

  任务的客观性对消费者信任和使用算法的影响取决于消费者相信算法具有哪些能力。在关于非人的相关研究中,有两类人类能力受到关注。一是人类独有能力(human uniqueness abilities),二是人性能力(human nature abilities)。前者包括人类天性中的逻辑、理性等认知能力,将人类与动物区分开,并也能为机器所有;后者主要是人类天性中的情感、情绪等感性能力,人和动物都可能有这种能力,而机器却没有。同样,心灵感知(mind perception)相关文献也研究了类似的维度:一是代理机能(agency),即参与既定计划和行动的能力;二是经验能力(experience),即通过情绪和感官进行体验的能力。机器往往被视为有更强的代理机能和更弱的经验能力,且赋予机器经验能力往往会导致更多的负面效应;消费者也更倾向于赋予机器更多的认知而非情感能力。客观任务与认知能力有更强的联系,主观任务与情感能力有更强的联系,由此提出假设:

  H1:相比于客观任务,消费者在主观任务中对算法的信任和依赖更少。

  信任是决定消费者是否使用某项科技的重要因素,所以本文除了关注算法的真实使用情况,也将消费者对算法的信任纳入了考虑。

  任务的客观性取决于任务是如何被提出以及任务中的元素是如何被强调的。同一个任务可能既能够以测量分析的方式完成,也能够以直觉感性的方式完成,很难说清楚哪种方式更加优越,不同消费者的偏好也并无规律可循。这种不确定性给了本研究就客观性对任务进行框架性设定的机会。由此提出假设:

  H2:将任务描述为受益于定量分析(相对于直觉),可以提高感知到的任务客观性和消费者对算法的信任和依赖。

  除了改变任务是如何被感知的,算法本身被如何感知也是决定算法是否被更多使用的重要因素。虽然前文提出机器被普遍认为缺乏情感能力,但这种认知也变得更加模糊,因为在实践中,AI已经能够完成画画、写诗、作曲、通过面部表情识别人类情绪和语调等具有较高主观性工作。

  本文认为,提升算法的类人感知能够对任务客观性的效应进行调节,这种调节可能既有积极成分而又有消极成分。一方面,提升算法的类人感知能够增进消费者对算法完成主观任务的效率认知,因为消费者相信处理这类任务有赖于情感能力,而这种能力以往被认为是机器所缺乏的;另一方面,提升算法的类人感知也可能导致消费者的心理不适,因为这意味着人之于机器的独特性进一步模糊了,根据社会认同理论,人们对机器的评价可能会更加消极。由此,提出一个问题:

  增加算法的感知人类情感相似性(affective human-likeness)会降低还是增加感知任务客观性对用户使用算法的影响?

0627-4.png

  

  图四 本文模型

  实证过程

  本文通过六组实验对假设进行验证。

  研究1:本研究的目的验证H1,即相比于客观任务,消费者在主观任务中对算法的信任和依赖更少。本研究是实验室实验,测量了26个任务中参与者自我报告的对算法的信任度。在实验的第一阶段,共有250人参与,对任务的客观性等维度进行0-100评分;在第二阶段,共有387人参与,被随机分配至两种实验情形之一(trust in humans vs. trust in algorithms),并就人或机器完成任务的信任度进行0-100评分。实验结果证明H1成立。

  研究2:本研究目的是再次验证研究1的结果,由于信任可能与实际行为有所出入,所以本研究进行了田野实验,所有参与者的真实行为都被观察记录。对实验情景进行了2(人类建议 vs. AI建议)x2(婚恋咨询 vs. 金融咨询)设计,在Facebook进行广告推广,广告的点击率是本研究的因变量。结果表明,人类建议的婚恋咨询广告点击率显著高于AI建议的婚恋咨询广告,AI建议的金融咨询广告点击率高于人类建议的婚恋咨询广告呈边际显著。因而在主观性较强的任务上,AI的可信度比人类低。

  研究3:本研究目的是验证在某些主观性较强的任务中,即使算法决策优于人类决策并且有充分的证据证明时,人们也并不信任算法优于人类。 被试被分配入有证据组和无证据,对9个任务中使用人类和AI的意愿进行打分,并再次测量研究1中的变量。结果表明,当提供有算法优于人类的证据时,消费者对算法的使用意愿有显著提升,但是在主观性较强的任务情景下,这种提升的幅度很小。

  研究4:本研究的目的是验证H2,即当主观性较强的任务被描述为能够从定量分析中受益时,消费者对算法的信任度会提高。结果表明,给定任务的客观性感知是可塑的,且当任务被感知为客观性较强时,消费者对算法完成任务的效率感知和算法信任都得到提升。

  研究5:本研究的目的是通过田野实验再次验证研究4结果在实践中是否适用。对主观性较强的任务进行客观化的操纵,在Facebook上发布AI婚恋咨询服务广告,对广告的点击率进行统计。结果表明,当婚恋咨询的结果被描述为受益于定量分析时,广告的点击率有显著提升。H2成立。

  研究6:本研究目的是探索完成主观性较强的任务时,对AI增加类人情感感知会对算法使用意愿起积极作用还是消极作用。结果表明,当被试被告知算法具有低人类相似性时,任务客观性框架效应显著,这与此前研究一致;然而,当被试被告知算法具有高人类相似性时,先前的任务客观性框架效应消失了。虽然增加算法的类人情感感知会同时带来效率感知提升和心理不适感增强,但是总体来说正面感知会与负面感知相抵,在合力上呈现正向的效果。

  研究结论

  1.对于给定任务,消费者对算法的信任与感知的客观性正相关。

  2.将主观任务重新定义为易于量化和测量,会增加参与者对这些任务的感知客观性以及有效性( effectiveness) ,从而增加了对算法的信任;并且,如果算法被认为是有效的,任何不适( discomfort )的初始影响都可以减少。

  3.增加算法的感知人类情感相似性即通过提供算法具有情感能力的实际示例,可以消除任务主观性的影响,提高对算法的信任和使用,这表明算法的有效性对算法使用意愿的影响大于不适感。

0627-5.png

  图五 本次研究

  至此,本次Seminar文章研读完毕。

  之后,张任萍、张皓、毛宋萍分享了最近的研究进展,展示研究结果。针对研究中的问题,老师提出了一些建议,并且明确了进一步的研究计划。

  至此,本学期第二十一次Seminar圆满结束。

  文字/毛文萱

  供图/毛文萱

  审核/鄢敏锐

  网站编辑 / 王宇雨