如果你走到一个长着人头的机器人面前,它首先对你微笑,你会怎么做?你可能会回以微笑,也许会觉得你们两个正在真诚地互动。但机器人如何知道如何做到这一点呢?或者一个更好的问题,它如何知道让你回以微笑?
虽然我们已经习惯了擅长语言交流的机器人(部分归功于ChatGPT等大型语言模型的进步),但它们的非语言交流技能,尤其是面部表情,却远远落后。设计一个机器人不仅可以做出各种面部表情,而且知道何时使用它们是一项艰巨的任务。
应对挑战
哥伦比亚工程学院的创意机器实验室五年多以来一直致力于应对这一挑战。在今天发表在《科学机器人》杂志上的一项新研究中,该小组推出了Emo,这是一种可以预测面部表情并与人类同时执行的机器人。它甚至学会了在人微笑前约840毫秒预测即将到来的微笑,并与人同时共同表达微笑。
该团队由人工智能(AI)和机器人领域的顶尖研究员HodLipson领导,面临两个挑战:如何机械地设计一个富有表现力的多功能机器人面部(涉及复杂的硬件和驱动机制),以及知道要生成哪种表情。使它们显得自然、及时、真实。
该团队建议训练一个机器人来预测人类未来的面部表情,并与人同时执行它们。这些表情的时机至关重要——延迟的面部模仿看起来不真诚,但面部共同表达感觉更真实,因为它需要正确推断人类的情绪状态才能及时执行。
Emo如何与你联系
Emo是一个类人头部,其面部配备26个执行器,可实现各种细致入微的面部表情。头部覆盖有柔软的硅胶外壳和磁性附着系统,可轻松定制和快速维护。为了实现更逼真的互动,研究人员在每只眼睛的瞳孔内集成了高分辨率摄像头,使Emo能够进行眼神交流,这对于非语言交流至关重要。
该团队开发了两种人工智能模型:一种通过分析目标面部的细微变化来预测人类面部表情,另一种则使用相应的面部表情生成运动命令。
为了训练机器人如何做出面部表情,研究人员将Emo放在镜头前,让它做随机动作。几个小时后,机器人学会了面部表情和运动指令之间的关系——就像人类通过照镜子练习面部表情一样。这就是团队所说的“自我建模”——类似于我们人类在做出某些表情时想象自己是什么样子的能力。
然后,团队播放了人类面部表情的视频,供Emo逐帧观察。经过持续几个小时的训练后,Emo可以通过观察人们开始形成微笑意图时面部的微小变化来预测人们的面部表情。
该研究的主要作者YuhangHu表示:“我认为准确预测人类面部表情是HRI的一场革命。传统上,机器人的设计并没有考虑人类在互动过程中的表情。现在,机器人可以将人类面部表情作为反馈。”谁是博士学位?利普森实验室哥伦比亚工程学院的学生。
“当机器人与人实时做出共同表情时,不仅可以提高交互质量,还有助于建立人与机器人之间的信任。未来与机器人交互时,它会观察并解读你的面部表情,就像一个真人一样。”
下一步是什么
研究人员现在正致力于使用ChatGPT等大型语言模型将言语交流整合到Emo中。随着机器人的行为变得越来越像人类,利普森很清楚与这项新技术相关的伦理考虑。
机械工程系创新教授Lipson、James和SallyScapa表示:“虽然这种功能预示着从家庭助理到教育辅助等众多积极应用,但开发人员和用户有责任谨慎行事并考虑道德因素。”哥伦比亚大学工程学院、哥伦比亚大学Makerspace联合主任、数据科学研究所成员
“但这也非常令人兴奋——通过开发能够准确解释和模仿人类表情的机器人,我们正在向这样一个未来迈进:机器人可以无缝地融入我们的日常生活,提供陪伴、帮助,甚至同理心。想象一个世界,与机器人互动就像与朋友交谈一样自然舒适。”
标签:
免责声明:本文由用户上传,如有侵权请联系删除!