大阪大学工程研究生院的一位科学家提出了一个数字尺度来量化机器人安卓人脸的表情。通过关注面部变形的范围而不是机械致动器的数量,新系统可以更准确地测量机器人能够模拟人类的实际情绪。这项发表在《高级机器人学》上的工作可能有助于开发出更逼真的机器人,能够快速传递信息。
想象一下,在你下一次去购物中心时,你会去问讯台询问一家新店的方向。但是,令你惊讶的是,一个安卓操作系统正在办公桌上工作。虽然听起来像科幻小说,但这种情况在未来可能并不遥远。然而,这方面的一个障碍是缺乏衡量android人脸表情的标准方法。如果该指数能同样适用于人类和机器人,那将特别有用。
现在,大阪大学提出了一种新的评估方法来精确测量android机器人面部的机械性能。虽然面部表情对于社交互动中的信息传递非常重要,但机械致动器再现人类情感的程度可能会有很大差异。
“我们的目标是了解一张android人脸与人类相比有多富有表情,”作者石原久司说。虽然以前的评估方法只关注特定的协调面部运动,但新方法采用了每个皮肤部分可以移动的空间范围作为“表现力”的数字指标。也就是说,不是计算控制运动或评估这些图案质量的机械促动器可以创建的面部图案的数量,新的索引着眼于面部每个点可访问的总空间运动范围。
在这项研究中,两个机器人鈥攐ne代表儿童,一个代表成年女性鈥攚与三名成年男性一起进行了ere分析。使用光学运动捕捉系统测量每个受试者100多个面部点的位移。研究发现,机器人的表情明显低于人类,尤其是在面部下部。事实上,即使在最宽松的评估中,机器人的潜在运动范围也只有人类的20%左右。
石原说:“这种方法有望帮助开发出具有与人类能力相当的表达能力的机器人。”。未来对这种评估方法的研究可能有助于android开发人员创建具有更高表现力的机器人。