在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<abbr id="27omo"></abbr>

<menu id="27omo"><dl id="27omo"></dl></menu>
    • <label id="27omo"><tt id="27omo"></tt></label>

      博客專欄

      EEPW首頁 > 博客 > 基于深度學(xué)習(xí)的特征提取和匹配(1)

      基于深度學(xué)習(xí)的特征提取和匹配(1)

      發(fā)布人:計算機視覺工坊 時間:2021-05-14 來源:工程師 發(fā)布文章

      作者丨黃浴@知乎

      來源丨h(huán)ttps://zhuanlan.zhihu.com/p/78053406

      編輯丨計算機視覺life

      計算機視覺需要圖像預(yù)處理,比如特征提取,包括特征點,邊緣和輪廓之類。以前做跟蹤和3-D重建,首先就得提取特征。特征點以前成功的就是SIFT/SURF/FAST之類,現(xiàn)在完全可以通過CNN模型形成的特征圖來定義。

      特征提取

      ? Discriminative learning of deep convolutional feature point descriptors【1】

      該方法通過卷積神經(jīng)網(wǎng)絡(luò)(CNN)學(xué)習(xí)鑒別式補丁表示,特別是訓(xùn)練具有成對(非)相應(yīng)補丁的Siamese網(wǎng)絡(luò)。在訓(xùn)練和測試期間它使用L2距離,提出了一種128-D描述符,其歐幾里德距離反映了補丁相似性,并且可作任何涉及SIFT的替代。

      如圖所示,用一個Siamese網(wǎng)絡(luò)來學(xué)習(xí)這樣的描述符,其中非線性映射由CNN表示,它對對應(yīng)或非對應(yīng)補丁對優(yōu)化。補丁通過模型提取描述符然后計算其L2范數(shù),作為圖像描述符的標(biāo)準(zhǔn)相似性度量。而目標(biāo)是學(xué)習(xí)一個描述符,在其空間中讓非對應(yīng)的補丁相隔甚遠,而在對應(yīng)的補丁緊密相連。

      1.jpg

      考慮每個圖像塊xi具有索引pi,該索引pi唯一地標(biāo)識從給定視點大致投影到2D圖像塊的3D點,而目標(biāo)函數(shù)定義如下:

      2.png

      其中p1,p2分別是投影到x1,x2的3D點索引。

      這里下表給出的是三層網(wǎng)絡(luò)架構(gòu):64×64輸入在第3層中產(chǎn)生128維輸出。每個卷積層由四個子層組成:濾波器層,非線性層,池化層和歸一化層。

      3.jpg

      非線性層,使用雙曲線切線單元(Tanh)池化層使用L2池化,歸一化很重要,這里使用減法歸一化,在第一和二層之后用高斯核減去5×5鄰域的加權(quán)平均值。

      ? Learned Invariant Feature Transform【2】

      LIFT是一種深度網(wǎng)絡(luò)架構(gòu),實現(xiàn)了完整的特征點檢測、朝向估計和特征描述,如圖所示。

      4.jpg

      下圖是以Siamese架構(gòu)為基礎(chǔ)的整個特征檢測和描述流水線。為了訓(xùn)練網(wǎng)絡(luò),采用圖中的四分支Siamese結(jié)構(gòu)。每個分支包含三個不同CNN,一個檢測器、一個朝向估計器和一個描述子。使用四聯(lián)(quadruplets)圖像補丁。每個包括:圖像塊P1和P2對應(yīng)于同樣3D點的不同視圖,圖像塊P3包含不同3D點的投影,圖像塊P4不包含任何顯著特征點。在訓(xùn)練期間,每個四聯(lián)第i個補丁Pi將通過第i個分支。

      5.jpg

      為了實現(xiàn)端到端可微分,每個分支的組件連接如下:

      1) 給定輸入圖像塊P,檢測器提供得分圖S;

      2) 在得分圖S上執(zhí)行soft argmax 并返回單個潛在特征點位置x。

      3) 用空間變換器層裁剪(Spatial Transformer layer Crop)提取一個以x為中心的較小的補丁p(如圖5-3), 作為朝向估計器的輸入。

      4) 朝向估計器預(yù)測補丁方向θ。

      5) 根據(jù)該方向第二個空間變換器層(圖中的Rot)旋轉(zhuǎn)p產(chǎn)生pθ。

      6) pθ送到描述子網(wǎng)絡(luò)計算特征向量d。

      最后的運行結(jié)構(gòu)如圖所示。由于朝向估計器和描述子只在局部最大值進行評估,將檢測器解耦并在傳統(tǒng)NMS的尺度空間中運行,以獲得其他兩個組件的建議。

      6.jpg

      最后看LIFT和SIFT結(jié)果比較的例子,如圖所示。

      7.jpg

      征匹配

      MatchNet【3】

      MatchNet由一個深度卷積網(wǎng)絡(luò)組成,該網(wǎng)絡(luò)從補丁中提取特征,并由三個全連接層組成網(wǎng)絡(luò)計算所提取特征之間的相似性。

      如圖是MatchNet訓(xùn)練時的網(wǎng)絡(luò)架構(gòu)(圖C),聯(lián)合學(xué)習(xí)將補丁映射到特征表示的特征網(wǎng)絡(luò)(圖 A)和將特征對映射到相似性的測度網(wǎng)絡(luò)(圖 B)。輸出尺寸由(高×寬×深)給出。PS是卷積和池化層的補丁大小; S是步幅。層類型:C=卷積,MP=最大池化,F(xiàn)C=全連接。因為填充卷積層和池化層,故輸出高度和寬度是輸入除以步幅的值。對FC層,大小B,F(xiàn)選自:B∈{64,128,256,512},F(xiàn)∈{128,256,512,1024}。除FC3外,所有卷積層和FC層用ReLU激活,輸出用Softmax歸一化。

      8.jpg

      下圖是MatchNet預(yù)測的流水線圖,網(wǎng)絡(luò)拆解為并行的特征網(wǎng)絡(luò)和測度網(wǎng)絡(luò)。分兩個階段使用特征網(wǎng)絡(luò)和測度網(wǎng)絡(luò):首先為所有補丁生成特征編碼,然后將這些特征配對并推送它們通過測度網(wǎng)絡(luò)獲得分數(shù)。

      9.jpg


      *博客內(nèi)容為網(wǎng)友個人發(fā)布,僅代表博主個人觀點,如有侵權(quán)請聯(lián)系工作人員刪除。



      關(guān)鍵詞: 深度學(xué)習(xí)

      相關(guān)推薦

      技術(shù)專區(qū)

      關(guān)閉
      ×

      “芯”朋友见面大会
      珠海|11.14|泰克“芯”朋友见面大会珠海站|泰克带您从测试角度看半导体的整条产业链,快来报名抢位吧>>