現(xiàn)場體驗:感受AR和面捕技術(shù)的魅力
虛幻引擎使用全息遠(yuǎn)程訪問功能將高端PC畫面效果帶入混合現(xiàn)實,使HoloLens 2能夠顯示具有大量細(xì)節(jié)的全息影像,遠(yuǎn)遠(yuǎn)超過僅使用邊緣計算和渲染所能達到的程度。根據(jù)真實任務(wù)的數(shù)據(jù)和影像資料重構(gòu)的《Apollo 11 Mission AR》具有平臺領(lǐng)先的視覺效果,包括在基于物理的渲染環(huán)境中顯示700萬多邊形,以及完全動態(tài)的光影、多層材質(zhì)和體積效果——全部從運行虛幻的聯(lián)網(wǎng)PC實時無線流送。活動現(xiàn)場,任何人都能通過HoloLens2設(shè)備交互體驗阿波羅11號這一歷史性任務(wù),包括發(fā)射過程本身,土星5號的精確模型,登月過程的詳細(xì)再現(xiàn),以及尼爾·阿姆斯特朗在月球上里程碑式的首次漫步場景。
此外,最新發(fā)布的iOS面部捕捉應(yīng)用——虛幻引擎Live Link Face也在活動現(xiàn)場亮相,供觀眾親身體驗面部動畫。Live Link Face可以直接將高品質(zhì)的面部動畫從你的iPhone實時流送到虛幻引擎中的角色上。該應(yīng)用的追蹤功能利用了蘋果的ARKit和iPhone的TrueDepth前置攝像頭,可以對表演者的面部進行交互式追蹤,并通過Live Link直接將該數(shù)據(jù)從網(wǎng)絡(luò)發(fā)送到虛幻引擎中。這一應(yīng)用的出現(xiàn)后,虛擬制片和制作能夠?qū)崟r流送的面部動畫將變得更加簡單輕松。