在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            博客專欄

            EEPW首頁 > 博客 > CVPR 2022|只用一張圖+相機走位,AI就能腦補周圍環(huán)境!

            CVPR 2022|只用一張圖+相機走位,AI就能腦補周圍環(huán)境!

            發(fā)布人:計算機視覺工坊 時間:2022-04-10 來源:工程師 發(fā)布文章
            來源丨量子位

            編輯丨極市平臺

            站在門口看一眼,AI就能腦補出房間里面長什么樣:

            圖片

            是不是有線上VR看房那味兒了?

            不只是室內(nèi)效果,來個遠景長鏡頭航拍也是so easy:

            圖片

            而且渲染出的圖像通通都是高保真效果,仿佛是用真相機拍出來的一樣。

            最近一段時間,用2D圖片合成3D場景的研究火了一波又一波。

            但是過去的許多研究,合成場景往往都局限在一個范圍比較小的空間里。

            比如此前大火的NeRF,效果就是圍繞畫面主體展開。

            圖片

            這一次的新進展,則是將視角進一步延伸,更側重讓AI預測出遠距離的畫面。

            比如給出一個房間門口,它就能合成穿過門、走過走廊后的場景了。

            圖片

            目前,該研究的相關論文已被CVPR2022接收。

            輸入單張畫面和相機軌跡

            讓AI根據(jù)一個畫面,就推測出后面的內(nèi)容,這個感覺是不是和讓AI寫文章有點類似?

            實際上,研究人員這次用到的正是NLP領域常用的Transformer

            他們利用自回歸Transformer的方法,通過輸入單個場景圖像和攝像機運動軌跡,讓生成的每幀畫面與運動軌跡位置一一對應,從而合成出一個遠距離的長鏡頭效果。

            圖片

            整個過程可以分為兩個階段。

            • 第一階段先預訓練了一個VQ-GAN,可以把輸入圖像映射到token上。

            VQ-GAN是一個基于Transformer的圖像生成模型,其最大特點就是生成的圖像非常高清。

            在這部分,編碼器會將圖像編碼為離散表示,****將表示映射為高保真輸出。

            • 第二階段,在將圖像處理成token后,研究人員用了類似GPT的架構來做自回歸。

            具體訓練過程中,要將輸入圖像和起始相機軌跡位置編碼為特定模態(tài)的token,同時添加一個解耦的位置輸入P.E.。

            然后,token被喂給自回歸Transformer來預測圖像。

            模型從輸入的單個圖像開始推理,并通過預測前后幀來不斷增加輸入。

            研究人員發(fā)現(xiàn),并非每個軌跡時刻生成的幀都同樣重要。因此,他們還利用了一個局部性約束來引導模型更專注于關鍵幀的輸出。

            這個局部性約束是通過攝像機軌跡來引入的。

            基于兩幀畫面所對應的攝像機軌跡位置,研究人員可以定位重疊幀,并能確定下一幀在哪。

            為了結合以上內(nèi)容,他們利用MLP計算了一個“相機感知偏差”。

            這種方法會使得在優(yōu)化時更加容易,而且對保證生成畫面的一致性上,起到了至關重要的作用。

            實驗結果

            本項研究在RealEstate10K、Matterport3D數(shù)據(jù)集上進行實驗。

            結果顯示,相較于不規(guī)定相機軌跡的模型,該方法生成圖像的質(zhì)量更好。

            圖片

            與離散相機軌跡的方法相比,該方法的效果也明顯更好。

            圖片

            作者還對模型的注意力情況進行了可視化分析。

            結果顯示,運動軌跡位置附近貢獻的注意力更多。

            圖片

            在消融實驗上,結果顯示該方法在Matterport3D數(shù)據(jù)集上,相機感知偏差和解耦位置的嵌入,都對提高圖像質(zhì)量和幀與幀之間的一致性有所幫助。

            圖片

            兩位作者均是華人

            Xuanchi Ren為香港科技大學本科生。

            圖片

            他曾在微軟亞研院實習過,2021年暑期與Xiaolong Wang教授有過合作。

            Xiaolong Wang是加州大學圣地亞哥分校助理教授。

            圖片

            他博士畢業(yè)于卡內(nèi)基梅隆大學機器人專業(yè)。

            研究興趣有計算機視覺、機器學習和機器人等。特別自我監(jiān)督學習、視頻理解、常識推理、強化學習和機器人技術等領域。

            論文地址:
            https://xrenaa.github.io/look-outside-room/

            本文僅做學術分享,如有侵權,請聯(lián)系刪文。


            *博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權請聯(lián)系工作人員刪除。



            關鍵詞: AI

            相關推薦

            技術專區(qū)

            關閉