Oculus于2016年推出了Oculus Avatars,旨在支持用戶在虛擬現(xiàn)實中會面娛樂。自那以后,這家公司就不斷優(yōu)化Oculus Avatars,并增加了大量的自定義選項,如毛發(fā)和配飾,希望為用戶提供更大的靈活度和選擇。今天,Oculus正式帶來了全新的表達功能,同時更新了各個平臺的虛擬角色編輯器,添加了一系列的定制選項。
Expressive Avatars能夠模擬眼睛和嘴巴運動,幫助你在VR中進行自然的交互。借助全新的Avatar Editor,你現(xiàn)在可以自由選擇新的膚色,發(fā)型和服飾,從而在VR交互中實現(xiàn)更為個性化的自己。Oculus表示,Expressive Avatars是基于用戶反饋,同時結(jié)合他們多年來在機器學(xué)習(xí),工程和設(shè)計等方面的研究與創(chuàng)新結(jié)晶。這家公司說道,目標(biāo)“非常簡單:支持VR中人與人的有意義交互,無論彼此身在何方。”
自2016年推出Oculus Platform以來,Oculus就致力于通過Oculus Touch等硬件優(yōu)化和Rift Core 2.0等平臺更新來強化虛擬現(xiàn)實中的社交臨場感。這家公司在2016年12月推出了Oculus Avatars,允許用戶通過一組面孔,發(fā)型和紋理效果來創(chuàng)建虛擬自我。Oculus在2018年升級了Oculus Avatars,提供了新的外觀,提升了自定義選項,并且?guī)砹巳碌腁vatar Editor。在今年年初,這家公司增加了Public Homes的支持,為Home添加了又一層社交維度,允許用戶有機會以前所未有的方式來探索Rift社區(qū),并與之互動。
Oculus指出,Expressive Avatars是向前邁出的一大步,但在VR中模擬最基本的人類表達是一項巨大的設(shè)計挑戰(zhàn),比如說微笑。它需要多支團隊中的數(shù)十個人攜手努力。為了創(chuàng)建富有表現(xiàn)力的虛擬化身,Oculus Avatar團隊開發(fā)了可以準(zhǔn)確地模擬人類交談時的說話方式和眼神目光的算法,而且所有這一切都無需攝像頭。Expressive Avatars不會通過攝像頭追蹤你的眼睛或臉部。它們都只是基于復(fù)雜模型的模擬。Oculus Avatar團隊投注了大量的精力來為VR編寫這種行為模型,然后不斷調(diào)整優(yōu)化,從而努力令虛擬現(xiàn)實中的交互感覺更加逼真。
如果已經(jīng)準(zhǔn)備好裝扮自己的Expressive Avatar,你可以馬上通過Oculus Go或Oculus Rift前往Home。在未來數(shù)周時間里,一系列的第三方應(yīng)用都將支持全新的虛擬角色,如《PokerStars VR》,《Tribe XR DJ》和《Epic Rollercoaster》等等。
原文鏈接:https://yivian.com/news/59116.html
來源:映維網(wǎng)