很早大家就發現,360 度視頻和真正的 VR 相比差一些,於是就有很文章站出來説這些都是“偽 VR”。
他們給出的理由是,絕大部分的 360 度視頻都不是 3D 拍攝的,更不用説 6 自由度移動。
也正是看出了這一點,包括 Facebook、Sony、英特爾在內在 VR 領先公司都在嘗試 6 自由度 VR 視頻。但他們通常需要用到好幾個高端相機組合拍攝,產生巨大的數據量,並由於運算量太大還得在雲端剪輯。
不過 Adobe 或許可以改變這一點,他們剛剛展示了一項新技術,可以將平面的 360 度視頻變成 6 自由度視頻。如此,“偽 VR”也可以變“真 VR”了。
Adobe 的這項研究由該公司的首席研究員在本週的 National Association of Broadcasters Show(國家廣播協會展)上發佈。最初由國外媒體 Variety 獨家報道。
所謂的 360 度視頻變 6 自由度視頻,從用户體驗上來看,是指之前用户只能在 360 度視頻裏轉動頭部看四周,6 自由度則可以讓用户不僅能轉動頭,還能在視頻裏上下前後左右地移動頭部,就像是在真實世界裏看東西一樣。
那麼 Adobe 是怎麼做到的呢?
據該公司的研究員介紹,他們使用了一種新的扭曲算法(warping algorithm),這種算法可以在固定視點的視頻裏模擬出新的視點,同時保持 120 fps的幀率。
簡單來説就是,普通的 360 度視頻只有一個視點,就是相機的位置,而要想變 6 自由度,就得在這個位置周圍創造新的視點,這樣你才能前後左右移動,而周圍的畫面不動。
實際上,這一新算法不僅可以用在創造 6 自由度體驗上,還能用於視頻防抖,讓一些手持拍攝時抖動造成的動態模糊畫面更平滑。
不過,實現這些功能有一個條件,那就是相機必須得動,畢竟只在一個點拍攝是算不出精確深度的。
在 Adobe 發佈的研究論文裏,研究員介紹了這項功能實現的基本流程:
首先他們採用了一個運動恢復結構(structure-from-motion,SfM)算法來計算相機的運動並創造一個基本的三維重建架構。(雷鋒網注:運動恢復結構是基於計算機視覺的三維重建方法之一)
用這個方法推測出三維幾何值後,他們把視頻的每一幀都映射(map)到一個六面的球體上,然後針對每個面運行標準的計算機視覺追蹤算法。
對於將畫面映射到六面體時不可避免會產生的失真情況,他們使用大於 45 度的視場角(FOV)產生畫面重疊區域來解決。下面這個視頻展示了算法實際運行的情況。
雖然很厲害,但這技術也不是萬能的。除了要求相機要動外,三維重建的質量也取決於合成視點的位置與初始視點位置的距離。就是説,雖然能產生 6 自由度的體驗,但如果你移動得太快太遠,效果就會打比較大的折扣。
此外,有些自然現象也會帶來問題,比如畫面中遇到一大片沒什麼紋理的區域,遮擋情況以及光照的改變,它們可能會在重建點的畫面中造成嚴重的噪點,以及在 3D 效果裏帶來“黑洞”(holes)效果。
在固定點的畫面中,也會看到一些非靜態物體的扭曲,這是由於算法試圖將合成的幀和初始幀融合在一起。
俗話説,後期再厲害,不如把素材拍得好一點。所以很多公司直接用光場相機來拍攝 6 自由度視頻,比如 HypeVR 帶激光雷達(LiDAR)的 6K/60 FPS 相機,還有雷鋒網之前報道過的 Lytro 那巨型的 Immerge 相機。使用這些相機顯然可以拍出更高質量的 3D 效果。
不過,話又説回來,這些相機全都是又大又貴的定製化產品,普通人一般用不起。所以,雷鋒網(公眾號:雷鋒網)認為,Adobe 的這套技術就算不完美,也給了普通用户做出 6 自由度視頻的希望。
Via RoadtoVR
來源:Variety
雷鋒網原創文章,未經授權禁止轉載。詳情見轉載須知。
資料來源:雷鋒網
作者/編輯:劉芳平
請按此登錄後留言。未成為會員? 立即註冊