新华社北京12月31日电 日本大阪大学近日发布公报说,该校领导的研究小组开发出一种动态面部表情合成技术,可使人形机器人更好地表达情绪状态,如兴奋或困倦。这项技术有望显著提升交流型机器人的价值,使它们能够以更自然、更像人类的方式与人类交换信息。
据公报介绍,虽然人形机器人可以微笑、皱眉或表现出其他各种熟悉的表情,但要在这些表情背后找到一致的情感状态却很困难,令人无法确定它的真正感受,从而让人产生一种不适感。
传统上,人形机器人的面部表情采用“拼凑法”来实现。这种方法需要准备多个预先设定的动作场景,以确保在这些场景之间切换时避免不自然的面部动作。但在实际运用中充满挑战,不仅需要提前准备复杂的动作场景,在过渡过程中尽量减少不自然的动作,还要微调动作以精细控制所传达的表情。
在这项新研究中,大阪大学等机构人员开发出一种借助“波形运动”的动态面部表情合成技术。该技术将各种构成表情的面部动作表示为单独的波,如眨眼、打哈欠等。这些波被传播到相关的面部区域并叠加起来,从而实时生成复杂的面部表情。该方法不需要提前准备复杂多样的动作数据,同时避免了不自然的面部动作过渡。
这种技术还可以根据机器人的内部状态调整个别波形,可以使机器人的内部条件变化即时反映为面部动作的变化。
研究人员表示,在该技术辅助下,具备复杂面部动作的机器人将能够展现更生动的表情,并且能够根据周围环境变化展现情绪变化,这将极大丰富人与机器人之间的交流。
相关论文已发表在日本《机器人与机电一体化杂志》上。
【纠错】 【责任编辑:王頔】