当坐在你面前的是一位AI面试官,如何提升它的好感度?
给自己加个(虚拟的)书架背景就行。像这样:
没错,不需要其他任何改变,单纯改改背景。
AI面试官对你的好感度,一下子就提升了15%!
怎么回事?
AI面试官喜欢什么?
这个AI面试官,来自德国慕尼黑的一家初创公司。
据开发者称,它能通过分析应聘者的声音、语言、手势和面部表情,来快速得出一种名为“大五人格测试”(OCEAN)的结果,包括:
- 开放/求新性O(Openness to experience)
- 尽责性C(Conscientiousness)
- 外向性E(Extroversion)
- 亲和性A(Agreeableness)
- 情绪性N(Neuroticism)
其中,前4项得分越高越好,第5项的得分则是越低越好(更不容易情绪化)。
调查者们先是找来了一位女士,用她的自我介绍视频来“测试”这个AI面试官。
下面这些数据,是这位女士直接面试的结果:
那么,如果她戴上眼镜呢?
神奇的事情出现了,AI面试官认为,她戴上眼镜后,尽责性就会降低10分!
那么,试试戴上帽子?
看来AI很喜欢戴上帽子的她。现在,这位女士在AI面试官眼里,看起来更开放、更有责任感、更不容易情绪化了。
有点意思。
接下来,调查者们又让另一个“应聘者”去测试AI面试官。
先是加个书架:
AI面试官立即“好感大增”,给出了几乎高出15%的分数。
测试人员又在自己背后放了一张照片。
AI面试官似乎也很喜欢有背景的图片,也“因此”给出了更高的应聘分数。
不仅如此,就连光线的亮暗,都会影响到AI面试官的心情。
如果视频亮度更低,AI面试官还会给出更低的分数。
在面部表情、说话语音、语言乃至手势都没有改变的情况下,仅仅是着装、光线、甚至背景,就能改变AI面试官的判断结果。
这是来自德国巴伐利亚广播公司(Bavarian Broadcasting)的记者们,对这家初创公司进行调查的结果。目前,这家公司“不愿意透露姓名”。
相关的软件开发者表示,他们参照了Retorio公司的AI模型训练方法。
Retorio公司的AI系统,采用了超过12000个不同年龄、性别和种族背景的人的视频进行训练。此外,还有2500人在OCEAN评估的基础上,根据自己的性格对结果进行了评价。据Retorio声称,这个AI模型评估准确率,能达到人类观察员的评估准确率的90%。
不过,现在的调查结果,显然不符合这家初创公司提倡的“公平、公正”的面试。
对此,这家初创公司声称,应聘者可以录制很多次面试视频,并最终决定应用哪个版本,其中视频质量也应该被考虑进去。
所有这些过程,面试者都可以在“无压力”的情况下完成。
需要相应约束制度
事实上,目前已经有类似的AI产品,在美国被投入使用。
例如,来自美国犹他州的Hirevue公司(主打视频面试软件),就声称有700家公司都是它的客户。
但它的产品,却受到了来自AI专家的质疑。他们认为,Hirevue生产的软件,算法和面试结果并不透明。
例如,美国新闻工作室The Markup的负责人Julia Angwin就认为,“面部特征会影响工作表现”这一说法毫无科学依据。
最近,Hirevue也确实从他们的产品中移除了“面部表情分析”这个功能。
他们内部评估发现,“视觉分析结果”与“工作表现”,真的没啥关系……
这家公司,现在计划将更多精力投入到“语音分析”这一功能中去。
而且,“AI面试官”面临的,不止技术上的质疑。
有人力资源部门经理担心,如果公司应用了AI面试官,可能会导致应聘人数下降(大家都不愿意申请了)、以及公司数据保护等问题。
对此,图宾根大学的计算机科学教授Katharina Zweig认为,整体来说,AI是一个很好的工具,值得被应用,但如果用AI来评判人类行为,绝对会遇到困难。
如果AI的需求量确实非常大,至少也需要对相应的服装、环境等诸多无关条件作出约束,以免这些因素误导AI的判断。
网友评论
对于这次AI的评判结果,有网友觉得非常可笑。
他在自己的背景和脸上P了一堆书,并调侃:好,现在我已经入选了!
但也有网友表示,现实世界里,“书架”确实是个印象加分项。
甚至真的有这种工作:替那些装成“知识分子”的富人们搭配书架,在上面摆放书籍……
此外,也有网友认为,对于AI模型而言,数据偏见和算法不足,都会导致不可靠的结果。
在达到“真正的AI”之前,“AI”只是个营销术语而已。
不过,Retorio公司的AI模型,其实也是根据人类面试官的视频面试结果,训练得出的。
AI面试官的“偏见”从何而来?确实不好说。
参考链接:
https://web.br.de/interaktiv/ki-bewerbung/en/
https://twitter.com/hatr/status/1361756449802768387
“