在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            博客專欄

            EEPW首頁 > 博客 > CVPR 2022丨清華大學(xué)提出:無監(jiān)督域泛化 (UDG)

            CVPR 2022丨清華大學(xué)提出:無監(jiān)督域泛化 (UDG)

            發(fā)布人:計算機(jī)視覺工坊 時間:2022-07-23 來源:工程師 發(fā)布文章

            導(dǎo)讀

             

            近日,清華大學(xué)崔鵬團(tuán)隊在CVPR 2022上發(fā)表了一篇工作,針對傳統(tǒng)域泛化 (DG) 問題需要大量有標(biāo)簽數(shù)據(jù)的問題,提出了無監(jiān)督域泛化 (UDG) 問題,旨在通過利用無標(biāo)簽數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練提升模型在未知域上的泛化能力,并為 UDG 提出了 DARLING 算法。該算法僅使用ImageNet 數(shù)據(jù)量 1/10 的無標(biāo)簽數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練即可在DomainNet上超過ImageNet預(yù)訓(xùn)練的效果。

            1 DG簡介&現(xiàn)有DG的問題

            目前深度學(xué)習(xí)在很多研究領(lǐng)域特別是計算機(jī)視覺領(lǐng)域取得了前所未有的進(jìn)展,而大部分深度學(xué)習(xí)算法假設(shè)訓(xùn)練數(shù)據(jù)(應(yīng)用前可獲取的數(shù)據(jù))和測試數(shù)據(jù)(實際應(yīng)用中遇到的實例)是獨立同分布的。當(dāng)訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)分布不同時,傳統(tǒng)深度模型對訓(xùn)練數(shù)據(jù)的充分?jǐn)M合會造成其在測試數(shù)據(jù)上的預(yù)測失敗,進(jìn)而導(dǎo)致模型應(yīng)用于不同環(huán)境時的可信度降低。

            圖片圖1. 傳統(tǒng)DG

            越來越多的研究者開始研究模型遷移到未知分布數(shù)據(jù)的域泛化問題 (Domain Generalization, DG),如圖1所示。域泛化問題旨在通過模型對多個源域數(shù)據(jù)的學(xué)習(xí)來提高在未知目標(biāo)域上的預(yù)測表現(xiàn)。

            許多現(xiàn)有DG方法都依賴于充分的訓(xùn)練數(shù)據(jù)學(xué)習(xí)跨域不變的表征,但人工標(biāo)注大量跨域數(shù)據(jù)開銷極大或難以實現(xiàn)(比如醫(yī)療圖片等特殊領(lǐng)域標(biāo)注難度大,成本高)。并且現(xiàn)有DG算法均默認(rèn)使用ImageNet上預(yù)訓(xùn)練的參數(shù)作為模型的初始化,而ImageNet作為若干個域的混合體,用作預(yù)訓(xùn)練可能會給模型引入偏差。例如對于DG的一個benchmark PACS數(shù)據(jù)集來說,ImageNet相當(dāng)于其中的”photo”域,對于DomainNet數(shù)據(jù)集來說ImageNet相當(dāng)于其中的”real”域,所以這個有類別標(biāo)注的預(yù)訓(xùn)練過程相當(dāng)于在DG數(shù)據(jù)中的一個域上進(jìn)行,會引入在域上的偏差 (比如幾乎所有的方法在”photo”和”real”域上的表現(xiàn)都是最好的)。

            2 無監(jiān)督預(yù)泛化 (UDG) 問題

            為了減少提升模型泛化能力對有標(biāo)注的跨域數(shù)據(jù)的依賴,本文提出無監(jiān)督域泛化問題,旨在使用無類別標(biāo)注的數(shù)據(jù)提高模型在未知域上的泛化能力。實驗證明使用異質(zhì)性數(shù)據(jù)進(jìn)行合適地?zé)o監(jiān)督預(yù)訓(xùn)練在DG上的表現(xiàn)優(yōu)于ImageNet 預(yù)訓(xùn)練策略。

            無監(jiān)督域泛化 (UDG) 問題如圖2所示。在UDG中,為了避免ImageNet等預(yù)訓(xùn)練數(shù)據(jù)對DG問題帶來的偏置,模型均采用隨機(jī)初始化。模型使用用來自不同源域的無標(biāo)簽數(shù)據(jù)進(jìn)行預(yù)訓(xùn)練,學(xué)到表征空間。然后模型在有類別標(biāo)簽的源域數(shù)據(jù)上進(jìn)行訓(xùn)練,微調(diào)表征空間和學(xué)習(xí)分類器,最終在未見過的目標(biāo)域上進(jìn)行測試。預(yù)訓(xùn)練和訓(xùn)練數(shù)據(jù)的域之間可以有重疊,而所有訓(xùn)練數(shù)據(jù) (包括有標(biāo)簽和無標(biāo)簽數(shù)據(jù)) 和測試數(shù)據(jù)之間沒有域重疊。用于finetuning的有標(biāo)簽數(shù)據(jù)與測試數(shù)據(jù)共享相同的類別空間以支持模型學(xué)習(xí)表征到被別的映射。

            圖片圖2. 無監(jiān)督域泛化 (UDG) 問題3 方法設(shè)計

            近年來,自監(jiān)督學(xué)習(xí) (self-supervised learning) 取得了長足發(fā)展,以SimCLR v2、MoCo v2為代表的自監(jiān)督學(xué)習(xí)算法利用大量互聯(lián)網(wǎng)中易獲取的無標(biāo)簽數(shù)據(jù)學(xué)習(xí)表征空間,消除了模型預(yù)訓(xùn)練對有標(biāo)簽數(shù)據(jù)的依賴,并在很多下游任務(wù)中超過了ImageNet預(yù)訓(xùn)練的效果。

            一個直接的思路是將自監(jiān)督學(xué)習(xí)的算法應(yīng)用到無監(jiān)督域泛化 (UDG) 問題中,從而利用大量易獲取的無標(biāo)簽數(shù)據(jù)提高模型在未知領(lǐng)域上的泛化能力。而在UDG中,用以預(yù)訓(xùn)練的數(shù)據(jù)中存在強(qiáng)異質(zhì)性,所以直接使用對比學(xué)習(xí)的方法會導(dǎo)致模型學(xué)習(xí)到域相關(guān)的特征而非物體類別相關(guān)的特征,所以在未見過的目標(biāo)域上測試時無法準(zhǔn)確識別物體類別。具體來說,對比學(xué)習(xí)的關(guān)鍵在于區(qū)分負(fù)樣本對中的不同圖片,如果負(fù)樣本對中的圖片來自不同的域,且這兩種域非常容易區(qū)分 (如簡筆畫域與照片域),則模型很容易根據(jù)域相關(guān)的特征來區(qū)分負(fù)樣本對中的圖片而不需學(xué)到真正對下游任務(wù)有效的信息 (如物體類別的特征),所以這樣學(xué)出來的特征空間在下游任務(wù)上表現(xiàn)較差。

            基于以上的觀察,本文提出了Domain-Aware Representation LearnING (DARLING) 算法來解決UDG預(yù)訓(xùn)練數(shù)據(jù)中顯著且誤導(dǎo)性的跨域異質(zhì)性,學(xué)習(xí)與域無關(guān)而與物體相關(guān)的特征。DARLING的結(jié)構(gòu)圖3所示。

            圖片圖3. DARLING 結(jié)構(gòu)圖

            如前所述,現(xiàn)有對比學(xué)習(xí)方法采用的contrastive loss并未考慮數(shù)據(jù)中異質(zhì)性的影響,即其計算方式為

            其中  為負(fù)樣本隊列,  與  為同一張圖片經(jīng)過兩種預(yù)處理和編碼得到的特征向量。而 DARLING考慮了負(fù)樣本對中域差異的影響, 所以圖片偽標(biāo)簽 (pseudo label) 的產(chǎn)生機(jī)制可建模為

            其中  為域d中的樣本索引的集合。進(jìn)而每張圖片域的產(chǎn)生機(jī)制可建模為

            其中函數(shù)h可以由一個參數(shù)為  的卷積神經(jīng)網(wǎng)絡(luò)代表。故給定每個輸入樣本  后, 其偽標(biāo)簽的 預(yù)測概率可表示為

            故DARLING的對比損失函數(shù)可表示為

            從直覺上講,一個負(fù)樣本對中的兩個樣本的“域相關(guān)”的特征越接近,網(wǎng)絡(luò)學(xué)習(xí)區(qū)分它們就會利用更多“域無關(guān)”的特征,所以由這種負(fù)樣本對產(chǎn)生的訓(xùn)練損失權(quán)重應(yīng)該較高;而反之當(dāng)一個負(fù)樣本對中的兩個樣本“域相關(guān)”的特征區(qū)別足夠顯著,則網(wǎng)絡(luò)更傾向于利用“域相關(guān)”的特征進(jìn)一步推遠(yuǎn)它們在表征空間中的距離,而這不利于下游任務(wù),所以這種負(fù)樣本對的損失權(quán)重應(yīng)該降低。

            DARLING利用一個子網(wǎng)絡(luò)學(xué)習(xí)負(fù)樣本對的域相似程度,并以之為其訓(xùn)練損失加權(quán)。極端情況下,如果每個負(fù)樣本對中的兩個樣本都來自于同一個域,那么網(wǎng)絡(luò)只能使用“域無關(guān)”的特征將其區(qū)分,所以學(xué)到的特征就關(guān)注于物體類別相關(guān)的特征。

            另外,作為一個無監(jiān)督預(yù)訓(xùn)練方法,DARLING學(xué)到的參數(shù)可以作為模型初始化與現(xiàn)有所有DG算法融合而進(jìn)一步提升模型的泛化能力。

            4 實驗結(jié)果

            本文在PACS,DomainNet和CIFAR-C等數(shù)據(jù)集上驗證了UDG問題的意義以及DARLING方法的有效性。

            如表1所示,在DomainNet上,DARLING的表現(xiàn)優(yōu)于所有現(xiàn)有SOTA無監(jiān)督/自監(jiān)督學(xué)習(xí)算法,且當(dāng)預(yù)訓(xùn)練數(shù)據(jù)的類別數(shù)量越高時,DARLING相對于其他方法的提升越明顯。

            圖片表1. DomainNet數(shù)據(jù)集結(jié)果

            表2為DARLING與各SOTA算法在CIFAR-C上的結(jié)果,由于CIFAR-C中的域個數(shù)更多,所以我們可以使得預(yù)訓(xùn)練數(shù)據(jù),訓(xùn)練數(shù)據(jù)和測試數(shù)據(jù)三者間不存在域重合且預(yù)訓(xùn)練數(shù)據(jù)與測試數(shù)據(jù)不存在類別重合,以完全避免預(yù)訓(xùn)練中任何情況的域信息或類別信息泄漏。DARLING在所有測試域上均超過了現(xiàn)有SOTA算法。

            圖片表2. CIFAR-C數(shù)據(jù)集結(jié)果

            表3為DARLING與現(xiàn)有DG算法結(jié)合后在DomainNet上的結(jié)果,DARLING作為預(yù)訓(xùn)練模型初始化可以顯著提高現(xiàn)有DG算法的泛化能力。

            圖片表3. DARLING與現(xiàn)有DG方法結(jié)合

            圖4為DARLING與ImageNet預(yù)訓(xùn)練的對比,當(dāng)參與預(yù)訓(xùn)練的數(shù)據(jù)中物體類別超過100時DARLING的表現(xiàn)優(yōu)于ImageNet預(yù)訓(xùn)練。請注意當(dāng)物體類別數(shù)量為100時用于DARLING預(yù)訓(xùn)練的數(shù)據(jù)量和類別數(shù)量只有ImageNet的1/10,且這些數(shù)據(jù)是沒有類別標(biāo)簽的。這充分說明了使用ImageNet預(yù)訓(xùn)練作為DG算法的初始化并非最好選擇,使用遠(yuǎn)小于ImageNet數(shù)據(jù)量的UDG算法即可超越ImageNet預(yù)訓(xùn)練的效果,這也為未來的UDG算法提供了基礎(chǔ)與展望的空間。

            圖片圖4. 與ImageNet預(yù)訓(xùn)練對比5 總結(jié)

            無監(jiān)督域泛化 (UDG) 問題不僅減輕了DG算法對有標(biāo)簽數(shù)據(jù)的依賴,且僅使用少量無標(biāo)簽數(shù)據(jù) (1/10) 就可以達(dá)到與ImageNet 預(yù)訓(xùn)練類似的效果,這充分說明ImageNet預(yù)訓(xùn)練并非DG算法初始化的最優(yōu)選擇,且為未來研究預(yù)訓(xùn)練方法對模型泛化能力的影響提供了啟發(fā)與基礎(chǔ)。

            本文僅做學(xué)術(shù)分享,如有侵權(quán),請聯(lián)系刪文。

            *博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



            關(guān)鍵詞: AI

            相關(guān)推薦

            技術(shù)專區(qū)

            關(guān)閉