在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            新聞中心

            EEPW首頁(yè) > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > 一種改進(jìn)的可遷移深度學(xué)習(xí)模型*

            一種改進(jìn)的可遷移深度學(xué)習(xí)模型*

            作者:李政儀1 ,邱春榮1 ,馬 洋2 (1.長(zhǎng)沙民政學(xué)院軟件學(xué)院,長(zhǎng)沙 410004;2.湖南航天宏圖無(wú)人機(jī)系統(tǒng)有限公司,長(zhǎng)沙 410000) 時(shí)間:2022-10-25 來(lái)源:電子產(chǎn)品世界 收藏

            摘 要:本文設(shè)計(jì)了一種改進(jìn)的模型。該模型能夠在離開(kāi)可靠的訓(xùn)練環(huán)境(其中存在標(biāo)簽)并被置于純粹的數(shù)據(jù)的領(lǐng)域時(shí),輸出依然可以持續(xù)得到改善,這種訓(xùn)練方式可以降低對(duì)監(jiān)督學(xué)習(xí)的依賴程度。

            本文引用地址:http://www.biyoush.com/article/202210/439590.htm

            關(guān)鍵詞;

            *基金項(xiàng)目:湖南省教育廳科學(xué)研究課題“基于的智能無(wú)人機(jī)目標(biāo)檢測(cè)算法研究”(20C0105);

            湖南省自然科學(xué)基金項(xiàng)目《基于高光譜特征信息融合的油菜籽品質(zhì)參數(shù)反演與建?!罚?021JJ60093);

            校級(jí)培育項(xiàng)目“基于深度學(xué)習(xí)的目標(biāo)檢測(cè)算法研究”(22mypy15)

            1 引言

            隨著深度學(xué)習(xí)的發(fā)展,深度卷積神經(jīng)網(wǎng)絡(luò)在圖像識(shí)別上取得了很大突破 , 基于深度學(xué)習(xí)的圖像識(shí)別方法避免了傳統(tǒng)圖像處理時(shí)最費(fèi)時(shí)費(fèi)力的特征提取部分,設(shè)計(jì)者只需要關(guān)注網(wǎng)絡(luò)結(jié)構(gòu)的設(shè)計(jì),網(wǎng)絡(luò)自動(dòng)提取的特征越好,圖像分類的準(zhǔn)確率就越高。然而,上述分類模型的訓(xùn)練都需要帶大量標(biāo)簽圖像樣本作為訓(xùn)練集,模型的性能嚴(yán)重依賴標(biāo)簽圖像數(shù)據(jù)集的質(zhì)量和規(guī)模,人工標(biāo)簽大量圖像數(shù)據(jù)集的成本高 [1];面對(duì)互聯(lián)網(wǎng)上出現(xiàn)的海量圖像,圖像標(biāo)簽的難度大大增加。為了提高數(shù)據(jù)分析的精度,深度學(xué)習(xí)技術(shù)的應(yīng)用需要大量計(jì)算,由于模型結(jié)構(gòu)越來(lái)越復(fù)雜,計(jì)算量成指數(shù)增長(zhǎng) [2],如何優(yōu)化深度學(xué)習(xí)的神經(jīng)網(wǎng)絡(luò)模型是需要著重解決的問(wèn)題。

            2 基于弱監(jiān)督的深度學(xué)習(xí)模型設(shè)計(jì)

            與控制算法類似,有監(jiān)督的深度學(xué)習(xí)算法 [3] 通過(guò)一個(gè)目標(biāo)函數(shù)利用反饋。這個(gè)目標(biāo)函數(shù)的輸出作為輸入(或“控制信號(hào)”)給反向傳播進(jìn)行自我修正。我們解決的主要問(wèn)題是為深度學(xué)習(xí)算法找到一種方法,當(dāng)它進(jìn)入可靠的訓(xùn)練環(huán)境(其中存在標(biāo)簽),遇到純粹的數(shù)據(jù)的區(qū)域時(shí),還能繼續(xù)改善其輸出。在這種環(huán)境中,機(jī)器必須減少對(duì)監(jiān)督的依賴。因此我們?cè)O(shè)計(jì)了一種基于弱監(jiān)督的可遷移學(xué)習(xí)模型。此模型是將一個(gè)預(yù)先訓(xùn)練好的模型用于另一個(gè)學(xué)習(xí)任務(wù)的過(guò)程(可能是在一個(gè)不同的、 不相關(guān)的區(qū)域)。這樣在一個(gè)新的數(shù)據(jù)集上完全訓(xùn)練一個(gè)模型所需的計(jì)算時(shí)間和數(shù)據(jù)就會(huì)大大減少。預(yù)訓(xùn)練網(wǎng)絡(luò)中的多個(gè)低層可以重新應(yīng)用于另一個(gè)數(shù)據(jù)集,在那里它們可以重新得到訓(xùn)練。在重新訓(xùn)練的過(guò)程中,預(yù)訓(xùn)練模型的最后一層可以針對(duì)新的數(shù)據(jù)集進(jìn)行微調(diào)。

            基于弱監(jiān)督的可遷移學(xué)習(xí)模型的核心在于數(shù)據(jù)的導(dǎo)入和在神經(jīng)網(wǎng)絡(luò)中的循環(huán)方法。收集高質(zhì)量和足夠大的真實(shí)世界數(shù)據(jù)集來(lái)進(jìn)行訓(xùn)練,具有挑戰(zhàn)性并且高耗時(shí)。本學(xué)習(xí)模型通過(guò)要求一個(gè)相對(duì)較小的數(shù)據(jù)集來(lái)減輕這一負(fù)擔(dān),并以有效的方式使用該數(shù)據(jù)集來(lái)改進(jìn)模型?;谌醣O(jiān)督可遷移深度學(xué)習(xí)模型的數(shù)據(jù)流圖如圖 1 所示。

            image.png

            對(duì)于復(fù)雜的數(shù)據(jù)集或有相似數(shù)據(jù)的數(shù)據(jù)集,基于弱監(jiān)督的可遷移學(xué)習(xí)是一種初始化神經(jīng)網(wǎng)絡(luò)的有效方法,并使其有更大的機(jī)會(huì)獲得更高的初始精度。初始生成的第 0 代數(shù)據(jù)集可以用小規(guī)模的數(shù)據(jù)點(diǎn)組成,這些數(shù)據(jù)點(diǎn)會(huì)被標(biāo)注標(biāo)簽。由機(jī)器讀取原始的、未標(biāo)記的數(shù)據(jù)被分割成適當(dāng)大小的可用處理模塊,以滿足可用的處理能力。然后將相似的每一組數(shù)據(jù)集都假定為有效的數(shù)據(jù),分批送入神經(jīng)網(wǎng)絡(luò)。直觀地說(shuō),原始的、無(wú)標(biāo)簽的數(shù)據(jù)由神經(jīng)網(wǎng)絡(luò)處理,用來(lái)確定每個(gè)數(shù)據(jù)點(diǎn)的標(biāo)簽。一旦這個(gè)新數(shù)據(jù)被標(biāo)記,符合預(yù)定義標(biāo)簽的數(shù)據(jù)點(diǎn)就會(huì)與第 0 代數(shù)據(jù)相結(jié)合。然后,模型在新一代數(shù)據(jù)集上進(jìn)行訓(xùn)練。這種數(shù)據(jù)融合對(duì)于模型的整體改進(jìn)能力至關(guān)重要,測(cè)試產(chǎn)生的結(jié)果優(yōu)于不加區(qū)分地處理所有未標(biāo)注的數(shù)據(jù)。一旦創(chuàng)建了新一代的數(shù)據(jù)集,它就會(huì)被流回,用更大、更準(zhǔn)確、更強(qiáng)大的標(biāo)簽數(shù)據(jù)集合重新調(diào)整模型。這個(gè)過(guò)程將重復(fù)進(jìn)行,使模型得到改善,使得數(shù)據(jù)集得到增長(zhǎng)??蛇w移學(xué)習(xí)模型使用一個(gè) CNN(卷積神經(jīng)網(wǎng)絡(luò)),這個(gè) CNN 很簡(jiǎn)單:它由兩個(gè)卷積層組成,每個(gè)卷積層都被重新激活。卷積層之后是一個(gè) 2×2 的最大池子層,反過(guò)來(lái)又反饋到一個(gè)全連接的、重新激活的層,然后分配一個(gè) softmax 分類器。

            為了提高代碼的速度和避免用可能的錯(cuò)誤預(yù)測(cè)來(lái)稀釋訓(xùn)練集,模型預(yù)測(cè)每批數(shù)據(jù)的標(biāo)簽,并在由第 0 代數(shù)據(jù)和新預(yù)測(cè)的數(shù)據(jù)合成的訓(xùn)練集中進(jìn)行訓(xùn)練。附加的預(yù)測(cè)被存儲(chǔ)在一個(gè)先進(jìn)先出(FIFO)的隊(duì)列式數(shù)據(jù)結(jié)構(gòu)中。這樣一來(lái),模型對(duì)以前樣本的記憶和訓(xùn)練,在新的批次出現(xiàn)之前至少會(huì)停留幾個(gè)迭代。同時(shí),預(yù)置的第 0 代數(shù)據(jù)仍然是永久性的,每次迭代代碼都會(huì)將第 0 代和隊(duì)列的內(nèi)容一起進(jìn)行訓(xùn)練。學(xué)習(xí)循環(huán)的另一個(gè)關(guān)鍵點(diǎn)是其不確定性的樣本提取。在 FIFO 隊(duì)列中預(yù)測(cè)的上一批訓(xùn)練數(shù)據(jù)追加到第 0 代之前,代碼會(huì)檢查每個(gè)樣本的前兩個(gè)標(biāo)簽的概率。如果一個(gè)樣本的前兩個(gè)標(biāo)簽概率相同或在一定范圍內(nèi),那么在追加到 0 代之前,該樣本將從訓(xùn)練集中提取出來(lái)。在這些情況下,附加的批次較??;提取后留下的空白沒(méi)有被新的數(shù)據(jù)重新填補(bǔ)。因此,該模型避免了在不確定的預(yù)測(cè)上進(jìn)行訓(xùn)練。這已被證明可以提高平均和最大的訓(xùn)練精度。基于弱監(jiān)督的可遷移深度學(xué)習(xí)的算法如圖 2 所示。

            1666688221827605.png

            圖2 基于弱監(jiān)督的可遷移深度學(xué)習(xí)的算法

            3 實(shí)驗(yàn)測(cè)試

            MNIST 數(shù)據(jù)集是由 LeCun 等人開(kāi)發(fā)的,用于評(píng)估手寫數(shù)字分類問(wèn)題的機(jī)器學(xué)習(xí)模型 [4]。該數(shù)據(jù)集是由美國(guó)國(guó)家標(biāo)準(zhǔn)與技術(shù)研究所(NIST)提供的一些掃描文件數(shù)據(jù)集構(gòu)建的。數(shù)字的圖像取自各種掃描文件,尺寸標(biāo)準(zhǔn)化并居中。該數(shù)據(jù)集已被研究人員廣泛使用,因此可以對(duì)性能進(jìn)行明確的衡量。這使得它成為評(píng)估模型的優(yōu)秀數(shù)據(jù)集,使開(kāi)發(fā)者能夠?qū)W⒂跈C(jī)器學(xué)習(xí) [5]。數(shù)據(jù)集中每張圖片是一個(gè) 28×28 像素的正方形。一個(gè)標(biāo)準(zhǔn)的分割數(shù)據(jù)集被用來(lái)評(píng)估和比較模型,其中 10 000 張圖片被用來(lái)訓(xùn)練一個(gè)模型,另一組 5 000 張圖片被用來(lái)測(cè)試。

            1666688473641452.png

            圖3 載入MNIST數(shù)據(jù)集的樣本圖像

            基于弱監(jiān)督的可遷移學(xué)習(xí)模型測(cè)試從加載 MNIST 數(shù)據(jù)集開(kāi)始。數(shù)據(jù)被分流到兩個(gè)不同的類別:小于 5 的數(shù)字(L5)和大于或等于 5 的數(shù)字(G5)。L5 數(shù)據(jù)集用于預(yù)訓(xùn)練模型的權(quán)重;然后這些權(quán)重將被轉(zhuǎn)移到模型上,該模型將不斷學(xué)習(xí)如何標(biāo)記 G5 數(shù)字。在轉(zhuǎn)移了基于 L5 的權(quán)重后,代碼首次將模型引入一小批 G5 數(shù)據(jù)中。將這批初始數(shù)據(jù)的規(guī)模定在 200 個(gè)左右,這是讓模型對(duì) G5 數(shù)字有必要的認(rèn)識(shí)和理解的最小數(shù)量。該模型在這些數(shù)字的原始、正確的標(biāo)簽上進(jìn)行訓(xùn)練。這個(gè)由 300 個(gè) 樣本組成的原始數(shù)據(jù)集連同其標(biāo)簽被稱為第 0 代。這就是持續(xù)學(xué)習(xí)的開(kāi)始。一旦模型對(duì)數(shù)據(jù)集有了一些了解,代碼就會(huì)進(jìn)入一個(gè)循環(huán),其中模型會(huì)處理一批又一批原始的、沒(méi)有標(biāo)簽的數(shù)據(jù)。模型預(yù)測(cè)每批數(shù)據(jù)的標(biāo)簽,并在由第 0 代樣本和新猜測(cè)的樣本組成的聯(lián)合訓(xùn)練集中進(jìn)行訓(xùn)練。學(xué)習(xí)循環(huán)的下一次迭代將下一批 G5 數(shù)據(jù)追加到這個(gè)訓(xùn)練集上。一個(gè)小的初始數(shù)據(jù)集可以在其整個(gè)運(yùn)行過(guò)程中進(jìn)行訓(xùn)練。迄今為止改進(jìn)最大的遷移學(xué)習(xí)方法使用了 35 代,初始 0 代大小為 100 張圖像,隨后幾代的數(shù)據(jù)子集為 400 張圖像。同時(shí)將此算法在 CIFAR-10 數(shù)據(jù)集上進(jìn)行訓(xùn)練,圖 4 顯示在兩個(gè)數(shù)據(jù)集上訓(xùn)練的準(zhǔn)確率。

            1666688501748048.png

            圖4 基于弱監(jiān)督的可遷移學(xué)習(xí)模型測(cè)試準(zhǔn)確率圖

            如圖 4 所示,每一代初始模型的測(cè)試準(zhǔn)確率開(kāi)始為 56.70%,但在進(jìn)行了 35 代遷移學(xué)習(xí)后,模型的準(zhǔn)確率提高到 92.5%。而且在 CIFAR-10 數(shù)據(jù)集的準(zhǔn)確率也由最初的 49% 提升到 91.2%。實(shí)驗(yàn)證明了一個(gè)小的初始數(shù)據(jù)集可以用來(lái)創(chuàng)建一個(gè)隨著時(shí)間推移不斷改進(jìn)和學(xué)習(xí)的模型。

            4 結(jié)論

            本文的研究表明,在一個(gè)相對(duì)較小的、初始標(biāo)記的圖像數(shù)據(jù)集的情況下,可以采用一個(gè)改進(jìn)的弱監(jiān)督可遷移學(xué)習(xí)模型,該模型可以通過(guò)一些未標(biāo)記的圖像來(lái)改進(jìn)自己,節(jié)省初始數(shù)據(jù)集的訓(xùn)練時(shí)間。由于該模型開(kāi)始時(shí)的準(zhǔn)確度相對(duì)較低,只有在更多的無(wú)標(biāo)簽數(shù)據(jù)集中才能得到改善,因此系統(tǒng)必須能夠在模型有時(shí)間改善之前處理不合格的標(biāo)簽數(shù)據(jù)。

            參考文獻(xiàn):

            [1] 周強(qiáng).面向圖像分類的遷移學(xué)習(xí)算法研究[D].北京:北京郵電大學(xué),2021.

            [2] 魏文怡.基于深度學(xué)習(xí)的無(wú)人機(jī)目標(biāo)識(shí)別方法研究[D].南京:南京航空航天大學(xué),2019.

            [3] Weiss K,Khoshgoftaar T M,Wang D D.A survey of transfer learning[J].Journal of Big Data,2016,3(1):1-40.

            [4] ZHAOR,YANRQ,CHEN Z H,et al.Deep learning and its applications to machine health monitoring[J].Mechani-cal Systems and Signal Processing,2019(115):213-237.

            [5] 卜文銳.基于MNIST數(shù)據(jù)集的參數(shù)最優(yōu)化算法比較研究[J].電子技術(shù)與軟件工程.2021(11):187-188.

            (注:本文轉(zhuǎn)載自《電子產(chǎn)品世界》雜志2022年10月期)



            評(píng)論


            相關(guān)推薦

            技術(shù)專區(qū)

            關(guān)閉