人形机器人的相似度与人类的好感度不成正比。根据日本机器人专家森政弘1970年提出的恐怖谷理论,随着物体拟人程度增加,人类的反应呈增-减-增曲线。当拟人度达到某一程度时,人类好感度会大幅下降,甚至还会觉得拟人物惊悚可怕。 Facebook正在努力让自己的机器人尽快跨过恐怖谷。 近日,Facebook人工智能实验室(FAIR)的研究人员就开发出一个善于表达情绪的机器人。这是由一个由AI算法操控的虚拟动画机器人,在观察几小时人类Skype聊天视频能模仿人的表情。 68个面部标记区块为了更好模拟人类的情感表达方式,研究人员将动画中的人脸分成68个区块,在Skype对话中重点观察这些部位的变化。在交谈中,人类的点头、眨眼和嘴部的动作变化都会反应出来,机器人会学会这些面部变化。 观察一段时间后,动画机器人可以实时预测可能出现的面部表情。如果视频中人在笑,机器人也可能张开嘴,或者歪着头。 测验结果随后,Facebook研究人员进行了一组测验。志愿者们观看了人和人对话的原版视频,以及训练后的机器人模拟的反应,他们认为机器人表现得自然且真实。 因为现在算法还只能表现在动画中,尚不清楚算法支持的人形机器人的反应如何。 学习面部交流的基本规则不够以创造真正的对话伙伴,以色列特拉维夫大学的博士生Goren Gordon说,“真正的面部表情是要基于所思所感的。” “在这种情况下,Facebook系统会创造出一种平均性格”,卡内基梅隆大学语言技术学院副教授louis-Philippe Morency说。在未来,机器人的性格可能更复杂,或能根据谈话对象调整自己的性格。 机器人不擅长人类之间互动的这些微妙元素,Gordon说。他同时表达了对机器人的期望:“在某一时刻,我们终会走出恐怖谷,走到另一边。” Facebook将在本月24号温哥华召开的IROS 2017上展示这项技术,现在已将这项技术的论文《Learn2Smile: Learning Non-Verbal Interaction Through Observation》公开。 论文摘要在这篇论文中,我们研究了人类和智能体面对面交流中的非语言面部暗示,提出了基于用户表情自动学习并升级智能体面部情感表达的方式。我们用数百个视频训练神经网络,包含人类相互对话的视频,这其中没有加入外部的人为监督。 实验结果显示,我们的智能体面部标记模型可以长时间预测人类的表情;对比结果也表明,模型显著优于基线方式。最后,我们进行了更深入的研究以更好地理解模型性能。 |
发表评论