Meta新專利可為VR應用實現(xiàn)更逼真的口型同步

作者 | 發(fā)布日期 2022 年 09 月 30 日 10:38 | 分類 產(chǎn)業(yè)

近日,Meta申請的一項新專利展示了一項技術(shù),該技術(shù)可以為電子游戲和VR應用帶來更逼真的嘴唇同步和面部動畫。通過這些更逼真的面部動作創(chuàng)建NPC和玩家虛擬化身,為更逼真、引人入勝和沉浸式的游戲和體驗打開了大門。

盡管幾十年來圖形在電子游戲中取得了進步,近年來允許創(chuàng)建近乎逼真的虛擬角色,但為這些角色描繪逼真的語音和面部表情仍然是開發(fā)人員面臨的挑戰(zhàn)。游戲玩家的大腦習慣于看到和閱讀其他人的臉,因此即使是電子游戲角色上最好的面部動畫也很容易陷入恐怖谷效應,導致角色看起來“不對勁”,甚至完全令人不安。Meta的專利可以即時生成逼真的嘴唇同步和面部表情,為開發(fā)人員節(jié)省時間,并提高玩家的沉浸感。

該專利詳細介紹了將用戶語音轉(zhuǎn)換為逼真的嘴唇同步和面部動畫的各種方法,使開發(fā)人員能夠靈活地選擇使用該系統(tǒng)。該專利中概述的一種方法涉及使用多個人的音頻和視頻記錄的數(shù)據(jù)集,因為他們閱讀了50個不同的語音平衡句子,系統(tǒng)在閱讀每個句子時會跟蹤他們的面部表情。通過跟蹤個人在閱讀每句話時臉部和嘴部的動作,系統(tǒng)可以從這些動作中提取信息,并將它們混合在一起,以逼真地為角色制作動畫,甚至包括眨眼和揚眉等微妙的動作。

圖片來源:拍信網(wǎng)正版圖庫

除了能夠基于現(xiàn)有數(shù)據(jù)集生成面部動畫和嘴唇同步外,該專利還描述了該系統(tǒng)如何使用集成到VR頭顯中的攝像頭做同樣的事情。此功能可以讓VR用戶擁有準確模仿自己面部表情的虛擬化身,從而在多人游戲和VR Chat等社交VR體驗中提供更加沉浸式的體驗。

從Valve的Source引擎使用動畫系統(tǒng)來模擬對話的每個音素(構(gòu)成單詞的單個聲音)建立面部動作模型,到Bandi團隊使用MotionScan技術(shù)通過32個高清攝像機系統(tǒng)捕捉《黑色海岸》演員的表演,開發(fā)者們始終在努力為游戲創(chuàng)造真實的面孔。Meta的專利可能預示著這一探索中的巨大技術(shù)飛躍,并可能有助于在游戲和VR體驗中開創(chuàng)一個高質(zhì)量、逼真的面部動畫的新時代。(來源:新浪VR)

更多LED相關(guān)資訊,請點擊LED網(wǎng)或關(guān)注微信公眾賬號(cnledw2013) 。