在早前舉行的CES 2019大會上,過去數(shù)年間一直在研發(fā)無線VR壓縮技術(shù)的DisplayLink演示了一項名為“注視點壓縮”的技術(shù),同時給人留下了深刻的印象。他們指出,這項技術(shù)能夠大大提高壓縮效率,同時將原來所需的帶寬降至三分之一。根據(jù)美國專利及商標(biāo)局日前公布的一份最新專利,原來谷歌早在2017年7月就提交了與注視點壓縮有關(guān)的專利申請。
延伸閱讀:DisplayLink為無線VR演示“注視點壓縮”技術(shù),可將所需帶寬降至1/3
大家或許不會對注視點渲染這個概念感到陌生:由于我們的眼睛只能在視場中心范圍內(nèi)看到高保真度內(nèi)容,所以VR系統(tǒng)可以集中渲染注視點位置的圖像,并降低外圍視場的圖像質(zhì)量較低,從而降低整體系統(tǒng)的渲染消耗。對于這一點,眼動追蹤可確保系統(tǒng)能夠始終在用戶視場中心渲染高質(zhì)量圖像。如果足夠優(yōu)秀,用戶將完全不會察覺到任何的不同。
注視點壓縮同樣利用了類似的原理,谷歌在文件中寫道:“處理單元配置為渲染代表圖像高敏銳度區(qū)域的第一像素,以及代表圖像低敏銳度區(qū)域的第二像素。塑形器配置為根據(jù)低敏銳度區(qū)域的至少一個維度重新組織第一像素。多路復(fù)用器配置為多路復(fù)用重新組織的第一像素和第二像素以形成顯示數(shù)據(jù)流。編碼器配置為壓縮傳輸至顯示器的顯示數(shù)據(jù)流。解碼器配置為解壓縮顯示數(shù)據(jù)流。解復(fù)用器配置為解復(fù)用第一像素和第二像素。另一個處理單元配置為混合第一像素和第二像素以形成表示圖像的混合像素值。”
相關(guān)專利:Foveated Compression of Display Streams
簡單來說,谷歌系統(tǒng)將利用眼動追蹤把圖像劃分為中心注視點的高敏銳度區(qū)域和外圍視場的低敏銳度區(qū)域,然后利用算法盡量保持高敏銳的原始像素,并重點解壓縮低敏銳度區(qū)域,從而有效降低無線傳輸所需的帶寬,并且提供中心注視點區(qū)域“幾乎無損”的質(zhì)量。
值得一提的是,谷歌研究院在2017年同樣撰寫了一篇名為 “Strategies for Foveated Compression and Transmission(注視點沿所與傳輸策略)”的論文。
另外,這篇論文的作者是負(fù)責(zé)谷歌VR渲染研究工作的Behnam Bastani,而Facebook已于2018年將其挖到了專注于沉浸式技術(shù)研究的Facebook Reality Lab。
原文鏈接:https://yivian.com/news/55604.html
來源:映維網(wǎng)