慢動作是當今影視作品中經(jīng)常用到的技術(shù),他能更好地吸引觀眾,讓人們看到正常速度下看不到的細節(jié),帶來視覺沖擊;把人們更好地帶入角色的腦海,傳遞情感。
隨著技術(shù)進步,如今我們的手機也可以拍慢動作了。如果只是發(fā)個朋友圈、Instagram,iPhone 相機里的 Slow-Motion 絕對夠用了!
但如果想要拍專業(yè)級的慢動作呢?你往往需要一臺相當高端的相機。然而一般的慢鏡頭相機都是 1000fps(每秒幀數(shù))起步,幾千美金都是正常的;專業(yè)級則要到 3000fps 甚至更數(shù)萬 fps,價格往往上萬美元了。
并不是所有人都能成為 The Slow Mo Guys 啊……
上面圖片就是來自 The Slow Mo Guys??纯?,用十幾萬刀的慢鏡頭相機拍出來的就是不一樣……
如果換成渣幀率的相機呢,就變成了這樣??
為什么一點都不連貫?zāi)??因為慢鏡頭的原理就是用高幀率拍攝,幀率越高,按照 60 或者 120fps 的正常幀率播放時就會顯得越順滑。
相機本身幀率低,非要強行慢放,還要啥效果???
但如果非要呢?
隆重介紹英偉達最近發(fā)布的一個新技術(shù):機器學習自動生成慢鏡頭:
靠算法來實現(xiàn)的慢動作
傳統(tǒng)的慢鏡頭,是因為相機真的拍到了那么多幀的畫面。
而相信你也看明白了,英偉達這個黑科技,并不需要那么多幀:它是用算法給標準視頻補充更多的幀,從而將其變成一段高幀率視頻,也就有了慢動作。
這是什么意思呢?用下面這張圖來舉例,比方說正常相機拍到的是下面那組的 10 幀,英偉達黑科技就是用計算 " 強行 " 生成額外的幀,插在已有的幀中間。
這些新生成的畫面,到底應(yīng)該長什么樣,就全靠算法來模擬了。過去也有類似的算法生成,效果并不好,而從剛才的視頻里,你也看出來英偉達已經(jīng)遠遠超過以假亂真的程度了——這明明就是真的慢鏡頭嘛!
這項黑科技的名字,叫做 " 可變長度多幀插值 " ( Variable-Length Multi-Frame Interpolation ) 。
它可以在標準視頻的基礎(chǔ)上,以令人難以想象的準確度,生成新的 " 假幀 ",進而變成流暢且清晰的慢動作視頻。原始視頻的幀率必須達到或高于 30fps。
最厲害的是,這個慢鏡頭,你想要多慢就可以多慢,比如可以變成 60fps,就是已有的每兩幀之間多插一幀;也可以變成 900 幀,也就是每兩幀之間多插 29 幀……
英偉達將這項技術(shù)形象地稱為:超級慢動作
而且英偉達表示,這個算法在測試中 " 比已有的最前沿方法效果都更好 "。
比如下圖中展示了六個同類的算法,可以看出前五個都有不同程度的畫面畸變,f 的真實度最好,也正是英偉達的技術(shù)。
AI 腦補多少補多少
這項所謂的多幀插值技術(shù),其實并不是什么新鮮東西。
如果你還記得小時候看電視,看球賽感覺特別順暢,看電視劇感覺畫面奶里奶氣,柔和的不像話,那么恭喜你:你已經(jīng)感受過一個名叫動態(tài)插值的技術(shù)了……
這是因為在很早以前,電視就有這個能力了,它可以對兩幀畫面進行一定程度的復(fù)制和演化,生成新的一幀,然后插進去。
英偉達的新算法也是兩幀之間,但名字里" 可變多幀 "意思是可以在任意兩幀之間完成插值,其中插值和遮擋推理會在一個端對端的卷積神經(jīng)網(wǎng)絡(luò)上同時進行建模。
比方說原視頻的 1、2、3 幀,英偉達的黑科技可以在 1 和 3 之間新生成一個,跟真實的 2 幀進行比對,從而優(yōu)化算法。
所有人都可以這樣做,為什么英偉達贏了?答案是顯而易見的:他們坐擁著大量的顯卡……
在訓練算法過程中,英偉達使用了 Tesla V100 GPU,以及改良后的 PyTorch 深度學習框架。英偉達共使用了 1132 段視頻,共 37.6 萬獨立視頻幀數(shù)。
為了更直觀的展現(xiàn)自己的成果,英偉達還真和 The Slow Mo Guys 合作了。開頭的視頻里展示了英偉達用他們發(fā)在網(wǎng)上的慢鏡頭視頻進一步生成的 " 更慢鏡頭 " 視頻,效果可以說相當驚人了。
AI 的這次突破背后更重要的是,它讓慢動作制作有了擺脫硬件約束的可能。
英偉達在論文中表示,他們希望未來通過云端完成大部分處理過程,進而讓這項技術(shù)能在消費級設(shè)備上得到普及。
這句話的意思是:以后你可以在手機上隨便拍拍,服務(wù)器自動給你做出超慢鏡頭……
是不是很值得期待?
只不過到那時,我們可能又要遇到另一個問題:
當視頻里面一大半的幀都是 AI 強行 " 瞎編 " 出來的,那還算的上是真實的視頻么?
【來源:品玩】