在线看毛片网站电影-亚洲国产欧美日韩精品一区二区三区,国产欧美乱夫不卡无乱码,国产精品欧美久久久天天影视,精品一区二区三区视频在线观看,亚洲国产精品人成乱码天天看,日韩久久久一区,91精品国产91免费

<menu id="6qfwx"><li id="6qfwx"></li></menu>
    1. <menu id="6qfwx"><dl id="6qfwx"></dl></menu>

      <label id="6qfwx"><ol id="6qfwx"></ol></label><menu id="6qfwx"></menu><object id="6qfwx"><strike id="6qfwx"><noscript id="6qfwx"></noscript></strike></object>
        1. <center id="6qfwx"><dl id="6qfwx"></dl></center>

            新聞中心

            EEPW首頁(yè) > 智能計(jì)算 > 設(shè)計(jì)應(yīng)用 > 細(xì)觀Diffusion隱空間里UNet的訓(xùn)練流程(一)

            細(xì)觀Diffusion隱空間里UNet的訓(xùn)練流程(一)

            作者:高煥堂 時(shí)間:2023-08-17 來(lái)源:電子產(chǎn)品世界 收藏

            在上一期里,您已經(jīng)領(lǐng)會(huì)Encoder 和Decoder 兩者的涵意和功能了。請(qǐng)您看看圖1 里,在兩者之間有個(gè)空間,通稱(chēng)為:(latent space)。

            本文引用地址:http://www.biyoush.com/article/202308/449711.htm

            image.png

            圖1 (圖源:https://arxiv.org/pdf/1909.11573.pdf)

            本期以SD(Stable ) 模型為例,來(lái)欣賞其里的架構(gòu)之美。由于 里的主角是:模型。于是,先來(lái)細(xì)觀 隱空間里模型的訓(xùn)練流程。

            1 簡(jiǎn)介模型

            在本專(zhuān)欄里,曾經(jīng)詳細(xì)介紹過(guò)AE(autoencoder),相信您對(duì)AE 已經(jīng)很熟悉了, 不再重復(fù)介紹AE模型。

            UNet是AE模型的延伸型式。由于典型AE 模型的特性是: 其前段的Encoder( 編碼器) 是特征提取的過(guò)程, 會(huì)過(guò)濾掉一些信息。這些被過(guò)濾掉的信息, 就沒(méi)有辦法傳遞到后段的Decoder( 解碼器) 了。

            于是,UNet 就來(lái)延伸AE 模型,將原有的Encoder與Decoder 之間增加了一些連結(jié),例如Encoder 的每一層輸出都與對(duì)映層級(jí)的譯碼器連接。因此使得編碼器每一層的信息,額外輸入到譯碼器的對(duì)映層,讓Decoder在重建的過(guò)程中,比較不會(huì)遺失掉重要的信息了。而Unet 模型的架構(gòu)如其名呈現(xiàn)一個(gè)U 字形( 圖2)。

            1692279998823007.png

            圖2

            (來(lái)源:https://www.researchgate.net/)

            如此,UNet 使用對(duì)映層級(jí)的連接來(lái)保留小且精細(xì)尺度的特征。

            2 Diffusion隱空間里的UNet角色

            在AIGC 潮流中,SD(Stable Diffusion) 產(chǎn)品的推出是AIGC 圖像生成發(fā)展歷程中的一個(gè)里程碑,提供了高性能模型,能快速生成創(chuàng)意十足的圖像( 圖3)。

            1692280208519898.png

            圖3 (來(lái)源:https://jalammar.github.io/illustrated-stable-diffusion/)

            SD 提供兩項(xiàng)主要功能:輸入文本(Text) 提示來(lái)生成圖像( 即text2img);輸入圖像,然后根據(jù)文本描述來(lái)修改圖像( 即輸入text + img)。在SD 隱空間里,UNet 扮演關(guān)鍵性角色( 圖4)。

            1692280287998261.png

            圖4 (來(lái)源:https://jalammar.github.io/illustrated-stable-diffusion/)

            在SD 隱空間里, 使用了1 個(gè)UNet 模型, 并搭配1 個(gè)時(shí)間調(diào)度(scheduling) 器,來(lái)?yè)?dān)任圖像生成的核心任務(wù)。擴(kuò)散(diffusion) 一詞描述了SD 隱空間里進(jìn)行的圖像生成情形,整個(gè)過(guò)程都是在隱空間里逐步推進(jìn)(stepby step) 的,每一步都會(huì)增加更多的噪音(noise)。例如,我們準(zhǔn)備了一張圖像,接著產(chǎn)生隨機(jī)噪音加入到圖像中,然后將這含有噪音的圖像輸入給UNet,讓它來(lái)預(yù)測(cè)噪音。

            為了加速圖像的生成效率,SD 使用VAE 的Encoder 先將原圖像壓縮為4×64×64型式的隱空間數(shù)組(array),然后才展開(kāi)上述的擴(kuò)散、生成過(guò)程。換句話說(shuō),整個(gè)擴(kuò)散過(guò)程都是在隱空間里進(jìn)行的。

            3 認(rèn)識(shí)噪音(Noise)

            剛才提到了,我們將隨機(jī)噪音添加到原圖像里,成為含噪音圖像(noisyimage)。然后把它輸入給UNet 模型,讓它預(yù)測(cè)出此圖像所含的噪音。在SD里,使用數(shù)學(xué)運(yùn)算,根據(jù)時(shí)間步數(shù)(time step) 來(lái)決定將多少噪音量添加到原圖像里( 圖5)。

            1692280390211391.png

            圖5 來(lái)源(https://jalammar.github.io/illustrated-stable-diffusion/)

            圖4 里的step-1 是: 準(zhǔn)備1 張?jiān)瓐D像, 并使用VAE的Encoder將原圖壓縮為4x64x64 型式的數(shù)組。接著,step-2 是:產(chǎn)生1 張也是4x64x64 型式的隨機(jī)噪音數(shù)組;step-3 是:選取1 個(gè)隨機(jī)整數(shù)( 如圖里的0~3),即是時(shí)間步數(shù)(time step),并由此整數(shù)( 即時(shí)間步數(shù))來(lái)決定欲添加的噪音量;step-4 是:將所決定的噪音量實(shí)際添加到原圖像的壓縮數(shù)組里,就成為含有噪音的圖像了。

            4 訓(xùn)練UNet模型

            4.1 輸入1張訓(xùn)練圖像

            剛才提到:我們會(huì)根據(jù)時(shí)間步數(shù)(time step) 來(lái)計(jì)算出多少噪音量將添加到原圖像里。也就是,我們掌握了兩項(xiàng)數(shù)據(jù):含噪音的圖像(noisy image) 數(shù)組;時(shí)間步數(shù)(time step)。我們就把這兩項(xiàng)數(shù)據(jù)輸入給UNet 模型,來(lái)訓(xùn)練它,讓它學(xué)習(xí)預(yù)測(cè)所添加的噪音,所以它輸出是:預(yù)測(cè)噪音(predicted noise)。在訓(xùn)練過(guò)程中,希望它輸出的預(yù)測(cè)噪音愈接近所添加的噪音就愈好,也就是預(yù)測(cè)誤差值(loss) 愈小愈好( 圖6)。

            1692280487703750.png

            圖6 (來(lái)源:https://medium.com/@steinsfu/diffusion-model-clearlyexplained-cd331bd41166)

            4.2 訓(xùn)練很多回合

            在實(shí)際訓(xùn)練UNet模型時(shí),把全部圖像的壓縮數(shù)組都輸入給UNet,讓它學(xué)習(xí)一遍,通稱(chēng)為:訓(xùn)練1 回合(epoch)。在每一回合里,都會(huì)為每一張圖像搭配1 個(gè)隨機(jī)整數(shù)( 即時(shí)間步數(shù)) 值。并根據(jù)時(shí)間步數(shù)值來(lái)計(jì)算出噪音量,于是得到兩項(xiàng)數(shù)據(jù):含噪音的圖像數(shù)組和時(shí)間步數(shù)。然后,把這兩項(xiàng)數(shù)據(jù)輸入給UNet 模型,來(lái)訓(xùn)練它,讓它學(xué)習(xí)預(yù)測(cè)噪音( 圖7)。

            1692280564338583.png

            圖7 (來(lái)源:https://medium.com/@steinsfu/diffusion-model-clearlyexplained-cd331bd41166)

            上述SD 的UNet 訓(xùn)練方法比較特殊之處是:這UNet的功能是輸出是噪音,而不是去除噪音。

            5 結(jié)束語(yǔ)

            本期說(shuō)明了SD 隱空間里UNet 模型的角色及其訓(xùn)練步流程的起步。下一期,將繼續(xù)介紹及欣賞SD 隱空間的架構(gòu)之美,也領(lǐng)會(huì)AIGC 生成藝術(shù)的源點(diǎn)。

            (本文來(lái)源于《電子產(chǎn)品世界》雜志2023年8月期)



            關(guān)鍵詞: 202308 Diffusion 隱空間 UNet

            評(píng)論


            相關(guān)推薦

            技術(shù)專(zhuān)區(qū)

            關(guān)閉