IT之家 1 月 3 日消息,據(jù)《Popular Science》今日報道,近年來,一部分雙足機器人在動作靈活性和人類化表現(xiàn)上取得了顯著進(jìn)步。然而,它們的面部表情依然顯得僵硬,無法以接近人類的速度和復(fù)雜度模擬面部肌肉的動態(tài)變化。
不過,日本大阪大學(xué)的研究人員提出了一種新的“動態(tài)喚醒表情”系統(tǒng),有望為這一問題提供解決方案,使機器人能夠更快、更自然地再現(xiàn)面部表情。
研究人員將打哈欠、眨眼和呼吸等面部動作歸類為不同的波形信號,并與嘴唇開合、眉毛移動和頭部傾斜等動作幅度掛鉤。在實驗中,研究人員根據(jù)“困倦”到“興奮”的情緒光譜設(shè)置控制參數(shù)。這些波形通過傳播和疊加動態(tài)調(diào)整機器人的面部特征表現(xiàn),從而避免了過去為每種表情手動編排動作的復(fù)雜過程。
研究團(tuán)隊在論文中指出:“自動生成動態(tài)面部表情以傳達(dá)機器人的情緒狀態(tài),對于社交型機器人來說至關(guān)重要。”他們強調(diào),當(dāng)前機器人表情的生成依賴于拼湊式的預(yù)錄動作,這往往難以達(dá)到真實效果。
以“困倦”情緒為例,該系統(tǒng)會調(diào)節(jié)機器人在呼吸、打哈欠和眨眼等參數(shù)上的表現(xiàn)。這些動作會進(jìn)一步疊加,放大或縮小嘴部、眼皮和頭部的變化。最終,經(jīng)過計算的表情幾乎可以瞬間呈現(xiàn)。
研究負(fù)責(zé)人大須賀公一( Koichi Osuka )表示:“這項動態(tài)表情合成研究的突破,將幫助機器人實現(xiàn)更復(fù)雜的面部動作,展現(xiàn)更生動的表情,并根據(jù)環(huán)境變化和人類互動傳達(dá)情緒!
這項研究已經(jīng)發(fā)表在《機器人與機電一體化》上,IT之家附鏈接:點此前往