展會信息港展會大全

日本大阪大學(xué)開發(fā)新型系統(tǒng),令機器人快速、無縫模仿人類表情
來源:互聯(lián)網(wǎng)   發(fā)布日期:2025-01-03 08:04:38   瀏覽:347次  

導(dǎo)讀:IT之家 1 月 3 日消息,據(jù)《Popular Science》今日報道,近年來,一部分雙足機器人在動作靈活性和人類化表現(xiàn)上取得了顯著進(jìn)步。然而,它們的面部表情依然顯得僵硬,無法以接近人類的速度和復(fù)雜度模擬面部肌肉的動態(tài)變化。不過,日本大阪大學(xué)的研究人員提出了一種新的“動態(tài)喚醒表情”系統(tǒng),有望為這一問題提供解決方案,使機器人能夠更快、更自然地再現(xiàn)面部表情。研究人員將打 ......

IT之家 1 月 3 日消息,據(jù)《Popular Science》今日報道,近年來,一部分雙足機器人在動作靈活性和人類化表現(xiàn)上取得了顯著進(jìn)步。然而,它們的面部表情依然顯得僵硬,無法以接近人類的速度和復(fù)雜度模擬面部肌肉的動態(tài)變化。

不過,日本大阪大學(xué)的研究人員提出了一種新的“動態(tài)喚醒表情”系統(tǒng),有望為這一問題提供解決方案,使機器人能夠更快、更自然地再現(xiàn)面部表情。

日本大阪大學(xué)開發(fā)新型系統(tǒng),令機器人快速、無縫模仿人類表情

研究人員將打哈欠、眨眼和呼吸等面部動作歸類為不同的波形信號,并與嘴唇開合、眉毛移動和頭部傾斜等動作幅度掛鉤。在實驗中,研究人員根據(jù)“困倦”到“興奮”的情緒光譜設(shè)置控制參數(shù)。這些波形通過傳播和疊加動態(tài)調(diào)整機器人的面部特征表現(xiàn),從而避免了過去為每種表情手動編排動作的復(fù)雜過程。

研究團(tuán)隊在論文中指出:“自動生成動態(tài)面部表情以傳達(dá)機器人的情緒狀態(tài),對于社交型機器人來說至關(guān)重要。”他們強調(diào),當(dāng)前機器人表情的生成依賴于拼湊式的預(yù)錄動作,這往往難以達(dá)到真實效果。

以“困倦”情緒為例,該系統(tǒng)會調(diào)節(jié)機器人在呼吸、打哈欠和眨眼等參數(shù)上的表現(xiàn)。這些動作會進(jìn)一步疊加,放大或縮小嘴部、眼皮和頭部的變化。最終,經(jīng)過計算的表情幾乎可以瞬間呈現(xiàn)。

研究負(fù)責(zé)人大須賀公一( Koichi Osuka )表示:“這項動態(tài)表情合成研究的突破,將幫助機器人實現(xiàn)更復(fù)雜的面部動作,展現(xiàn)更生動的表情,并根據(jù)環(huán)境變化和人類互動傳達(dá)情緒!

這項研究已經(jīng)發(fā)表在《機器人與機電一體化》上,IT之家附鏈接:點此前往

贊助本站

相關(guān)熱詞: 機器人 大阪大學(xué) 日本 臉部

相關(guān)內(nèi)容
AiLab云推薦
展開

熱門欄目HotCates

Copyright © 2010-2025 AiLab Team. 人工智能實驗室 版權(quán)所有    關(guān)于我們 | 聯(lián)系我們 | 廣告服務(wù) | 公司動態(tài) | 免責(zé)聲明 | 隱私條款 | 工作機會 | 展會港