迪士尼最新成果:給虛擬人物或者CG動畫實時配音
迪士尼研究人員協同幾所大學研究院,發表最新論文,介紹了最新項研究成果:機器通過深度學習,模擬人類真實語言和口型與發音關系,實時為VR中的虛擬動畫CG角色或者人物配音。
從視頻來看,不僅口型是基本吻合,而且聲音也是原裝的的。
從論文里提到的,研究人員闡述了這個“神經網絡/深度學習”(neural network/ deep learning )系統,同一位演講者通過8小時的講話訓練共2543個句子,習得不同音節與口型之間的匹配,并且能夠將不同的口型與發音實時對應起來。
可以從迪士尼發布的新視頻看到,通過訓練,這套系統是來自不同人說的不同語種的語言(中文那個有驚喜)這套系統可以分析,可以自動匹配好相應的口型。并且可以自動關聯到虛擬人物或者動畫的面部動作。
從迪士尼演示視頻中介紹可以看出,通過系統深入學習的具有以下幾個很具吸引力的特性:運行比較實時,需要極少數修正參數,輕松調整語言邏輯性,變于編輯,創建帶有個性化情感的語言,與現有的動畫重定向方式兼容。
目前給動畫片的CG角色配音都是由熟練的動畫師手工完成技術熟練。此前如我們介紹過奧斯卡今年最佳的視效提名影片、例如在迪士尼的《奇幻森林》中,為猩猩王Louie的配音都是老戲骨Christopher Walken(蝙蝠俠、斷頭谷等,1978年奧獎最佳男配)他們是大家非常熟悉的。大多數的觀眾會覺得他的樣貌特征會有一種與Louie合體的感覺,這也是團隊的杰作凸顯這部影片的特效——把為動物角色配音的明星們的動物角色融與面貌特征合在一起,創建屬于CG明星“動物形象。例如老比爾·莫瑞是為那只熊配音的。但是這樣需要付出的代價(技術、資源和預算)都是超高的,否則也不會贏得奧斯卡提名。這對于好萊塢高票房回饋的最好禮物,但更大范圍的應用和普及就不能指望用得起特效團隊了。
迪士尼的這套最新機器神經系統,雖然暫時還無法實現大銀幕上那種,角色表情與配音合二為一的清晰逼真效果。但是它的實時配音和自動合成還是在很多場合都有很實際的應用。比如大型角色扮演的沒錢請動畫師手工制作、受時效性限制(直播)的或者游戲直播項目等。
目前在VR里,這個系統可以為用戶的虛擬形象實時配音。不僅可以保持現實中的口型,甚至還有聲音。這似乎解決了目前現實角色與VR社交中虛擬阿凡達“同步開口”的問題。雖然面部動作捕捉技術實際上是跟蹤口型最準確的方式,但就目前的情形看,這一技術想要普遍進入市場應用仍然需要一個較長的時間,在此之前,迪士尼的機器神經系統還是能頂上用場的。
其中一方面,這個系統其實對于動畫和VR內容的創作、甚至社交平臺上的應用都是很吸引人的,即使不能用在大銀幕上。
誰將獲得89屆奧斯卡最佳視效獎5部特效巨制?
目前迪士尼最新混合現實技術:CG電影角色互動的直接無需頭盔手控。
通過實戰經驗:VR交互設計由迪士尼設計師親自教你。
免責聲明: 以上整理自互聯網,與本站無關。其原創性以及文中陳述文字和內容未經本站證實,對本文以及其中全部或者部分內容、文字的真實性、完整性、及時性本站不作任何保證或承諾,請讀者僅作參考,并請自行核實相關內容。(我們重在分享,尊重原創,如有侵權請聯系在線客服在24小時內刪除)
聯系客服
立即下單