面部表情与情绪识别的关联存争议,AI的度量指标真的可信吗?
2019年07月29日 由 Aaron 发表
53720
0
人工智能真的有情商吗?情绪识别真的能揭示一个人的感受吗?
随着人工智能应用场景越来越多,研究人员希望它们能自动完成一些情感任务,比如看着一个人的脸,了解他们的感受。
为实现这一目标,微软,IBM和亚马逊等科技公司都出售他们所谓的“情绪识别”算法,这种算法可以推断人们基于面部分析的感受。例如,如果有人皱眉,噘起嘴唇,就意味着他们生气了。如果他们的眼睛睁大,眉毛抬起,嘴巴闭得很紧,这意味着他们会害怕。
用户可以通过各种方式使用这种技术,从构建寻找威胁的自动化监控系统,到有望淘汰不感兴趣的候选人的求职软件。
根据人们的表情轻易地推断出他们的感受,这一观点存在争议。
“数据很清楚,”美国东北大学心理学教授Lisa Feldman Barrett表示,“它们能察觉到皱眉,但这与检测到愤怒完全不是一回事。”
情绪与表情的关联
这项研究是由心理科学协会委托进行的,五位来自该领域的杰出科学家被要求仔细研究这些证据。每一位评论家都代表了情感科学世界中不同的理论阵营。
Barrett说:“我们不确定是否能够就这些数据达成共识,但是我们做到了。”他们花了两年的时间来研究这些数据,研究涉及了1000多个不同的研究。
他们的发现很详细,总的来说,情绪以多种方式表达,这使得很难可靠地从一组简单的面部动作中推断出某人的感受。
数据显示,平均而言人们在生气时,只有不到30%的时间会皱眉,所以这不一定是愤怒的表现,这意味着超过70%的时间,人们生气时不会皱眉。最重要的是,当人们不生气时,也会经常皱眉。”
反过来,这意味着使用人工智能以这种方式评估人们情绪的公司会误导消费者。你真的希望只有30%准确率的算法用在法庭、医疗诊断或机场等公共场合吗?
当然,这篇综述并没有否认常见或典型的面部表情可能存在,也没有否认我们对面部表情交际能力的信念在社会中发挥着巨大的作用。
该研究认识到情绪研究领域存在着各种各样的信念。具体而言,它反驳的是通过表达可靠地识别情绪的想法,这是一种源于20世纪60年代心理学家Paul Ekman的理论。
研究表明,某些面部表情和情绪之间有很强的相关性,但这些研究往往在方法论上存在缺陷。例如,他们用演员拉夸张的脸作为他们情绪的出发点。当被试被要求给这些表情贴标签时,他们经常被要求从有限的情绪选择中做出选择,从而促使他们达成某种共识。当人们被要求在脸上标注情绪并且没有给出选择时,答案会有很大差异
度量指标
人们直观地理解情绪比这更复杂。然而,这些微妙之处很少被出售情绪分析工具的公司所承认。例如,微软认为,人工智能的进步使其软件能够识别8种核心情绪状态,基于反映这些情绪的普遍面部表情,这正是本文所反驳的观点。
当然,这种批评并不新鲜。研究者一直警告,我们的情绪识别的模型过于简单。作为回应,销售这些工具的公司经常说他们的分析是基于更多的信号,而不仅仅是面部表情。困难在于知道这些信号如何平衡。
价值200亿美元的在情感识别市场中领先的Affectiva 表示,它正在尝试收集更多指标。去年,它推出了一种工具,通过结合面部和语音分析来衡量驾驶员的情绪。其他研究人员正在研究步态分析和眼动追踪等指标。
在一份声明中,Affectiva首席执行官兼联合创始人Rana el Kaliouby表示,这次审查与该公司的工作非常一致。“就像本文的作者一样,我们不认同这个行业只注重6种基本情绪和面部表情与情绪状态的原型一对一映射,”el Kaliouby说,“表情与情感的关系非常微妙、复杂,也不典型。”
Barrett相信,通过更复杂的指标,我们将能够更准确地衡量未来的情绪。“我绝对相信这是可能的,但这并不一定会阻止目前有限的技术扩散。”
特别是在机器学习中,我们经常看到度量指标被用来做决策,并不是因为它们是可靠的,而是因为它们可以度量。这是一项擅长发现联系的技术,而这可能导致各种虚假的分析:从扫描保姆的社交媒体帖子来检测他们的态度,到分析公司盈利电话记录来试图预测股价。通常,只要提到人工智能,就会给人一种不值得信任的假象。
如果情绪识别变得普遍,那么我们就会接受它并改变我们的行为以适应其失败。就像人们现在的行为知识一样,他们在网上做的事情会被各种算法解释。
也许这篇综述中最重要的一点是,我们需要以一种更复杂的方式来思考情感。情绪的表达是多样的,复杂的,情境的。她将这种思维上的必要转变比作达尔文的物种起源,比如他的研究如何推翻了对动物王国过于简单化的看法。
论文:
journals.sagepub.com/stoken/default+domain/10.1177%2F1529100619832930-FREE/pdf