<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > ICCV 2021 | 兼顧圖像超分辨率、圖像再縮放,ETH提出新型統一框架HCFlow,已開(kāi)源

ICCV 2021 | 兼顧圖像超分辨率、圖像再縮放,ETH提出新型統一框架HCFlow,已開(kāi)源

發(fā)布人:機器之心 時(shí)間:2021-09-12 來(lái)源:工程師 發(fā)布文章

來(lái)自蘇黎世聯(lián)邦理工學(xué)院計算機視覺(jué)實(shí)驗室的研究者提出了一種統一框架 HCFlow,該框架可以同時(shí)處理圖像超分辨率和圖像再縮放,并在通用圖像超分辨率、人臉圖像超分辨率和圖像再縮放上等任務(wù)上取得了最佳結果。該論文已被 ICCV2021 接收。

近年來(lái),歸一化流(Normalizing Flow)模型在圖像超分辨率(image SR)[SRFlow, ECCV2020]和圖像再縮放(image rescaling)[IRN, ECCV2020]任務(wù)上取得了驚人的效果。盡管這兩個(gè)任務(wù)有本質(zhì)的不同,但都具有高度的相似性?;谝陨蟽蓚€(gè)工作,來(lái)自蘇黎世聯(lián)邦理工學(xué)院計算機視覺(jué)實(shí)驗室的研究者提出了 HCFlow,使用一個(gè)統一的框架處理圖像超分辨率和圖像再縮放,并在通用圖像超分辨率、人臉圖像超分辨率和圖像再縮放上等任務(wù)上取得了最佳結果。該論文已被 ICCV2021 接收。

1.png

論文地址: https://arxiv.org/abs/2108.05301

Github 地址: https://github.com/JingyunLiang/HCFlow 

摘要

近期,歸一化流(Normalizing Flow)模型在底層視覺(jué)領(lǐng)域取得了驚人的效果。在圖像超分辨率上(image SR),可以用來(lái)從低分辨率圖像中預測出細節不同的高質(zhì)量高分辨率(?diverse photo-realistic)圖像。在圖像再縮放(image rescaling)上,可以用來(lái)聯(lián)合建模下采樣和上采樣過(guò)程,從而提升性能。

本文提出了一個(gè)統一的框架 HCFlow,可以用于處理這兩個(gè)問(wèn)題。具體而言,HCFlow 通過(guò)對低分辨率圖像和丟失的高頻信息進(jìn)行概率建模,在高分辨率和低分辨率圖像之間學(xué)習一個(gè)雙射(bijection)。其中,高頻信息的建模過(guò)程以一種多層級的方式條件依賴(lài)于低分辨率圖像。在訓練中,該研究使用最大似然損失函數進(jìn)行優(yōu)化,并引入了感知損失函數(perceptual loss)和生成對抗損失函數(GAN loss)等進(jìn)一步提升模型效果。

實(shí)驗結果表明,HCFlow 在通用圖像超分辨率、人臉圖像超分辨率和圖像再縮放等任務(wù)上取得了最佳的結果。

 圖像超分辨率 v.s. 圖像再縮放

圖像超分辨率的目標是從低分辨率圖像中重建出高分辨率圖像。低分辨率圖像空間一般是給定的。例如,雙三次降采樣 (bicubic downsampling)圖像。

圖像再縮放的目標是將高分辨率圖像下采樣到視覺(jué)效果較好的低分辨率圖像,并且保證可以很好地恢復出原本的高分辨率圖像。與圖像超分任務(wù)不同,圖像再縮放中低分辨率圖像空間是可以自己定義的。它的主要應用場(chǎng)景是減少圖像存儲和帶寬。

方法

 歸一化流簡(jiǎn)單介紹

歸一化流(Normalizing Flow)模型致力于在目標空間(例如高分辨率圖像 x)和隱空間(例如服從高斯分布的隱變量 z)之間學(xué)習一個(gè)雙射。它的模型結構通常是由多層可逆變換組成的一個(gè)可逆神經(jīng)網(wǎng)絡(luò )(invertible neural network):

2.png

根據變量變換公式(change of variable formula)和鏈式法則,模型參數可以通過(guò)下面的最大似然損失函數進(jìn)行優(yōu)化:

3.png

更多入門(mén)信息可以參考:

RealNVP論文:https://arxiv.org/abs/1605.08803

Glow論文:https://arxiv.org/abs/1807.03039

Eric Jang博客:https://blog.evjang.com/2018/01/nf1.html

滑鐵盧大學(xué)CS480:https://www.youtube.com/watch?v=3KUvxIOJD0k

低分辨率圖像空間建模

圖像超分辨率和圖像再縮放任務(wù)實(shí)際上都有一個(gè)圖像退化(降采樣)和圖像超分(上采樣)的過(guò)程?;跉w一化流模型,該研究可以在高分辨率圖像 x 和低分辨率圖像 y 以及一個(gè)編碼高頻信息的隱變量 a 之間學(xué)習一個(gè)可逆雙射變換4.png。由于直接對自然圖像進(jìn)行概率建模是很難的,該研究設計了一個(gè)基于真實(shí)低分辨率圖像 y * 的條件分布模型:

5.png

理想情況下,研究者希望 y 和 y * 越接近越好,所以他們將 p(y|y*)表示為狄拉克函數6.png,并通過(guò)一個(gè)具有極小方差的高斯分布來(lái)近似表示 p(y|y*):

7.png

由于高頻信息 p(a|y)可以通過(guò)另一個(gè)歸一化流模型變換為一個(gè)高斯分布 p(z),整個(gè)模型可以定義為:

8.png

這樣,高分辨率圖像 x 就可以通過(guò)一個(gè)可逆神經(jīng)網(wǎng)絡(luò )變換為低分辨率圖像 y 和編碼高頻信息的隱變量 z,且都服從參數已知的高斯分布。因此,我們可以方便地通過(guò)計算最大似然損失函數來(lái)優(yōu)化模型。

 多層級網(wǎng)絡(luò )結構

為了更好地建模低分辨率圖像和高頻信息之間的關(guān)系(即 p(a|y)),該研究進(jìn)一步提出了一個(gè)多層級條件依賴(lài)建??蚣?。在保持整體網(wǎng)絡(luò )可逆性的條件下,逐步恢復高頻信息,重建出高分辨率圖像。如下圖所示,歸一化流的前向過(guò)程類(lèi)似于二叉樹(shù)的深度優(yōu)先遍歷,而反向過(guò)程則從最深層逐步計算至第一層。y 和 a 分別代表各層的低頻和高頻信息,數字代表計算順序,藍色箭頭代表條件依賴(lài)關(guān)系。

9.png

具體的網(wǎng)絡(luò )結構如下圖所示。

10.png

實(shí)驗

 圖像超分辨率

該研究使用最大似然損失函數訓練模型,并使用 L1 損失函數,感知損失函數(perceptual loss)和生成對抗損失函數(GAN loss)進(jìn)一步提升模型效果。在參數量下降 1/3 的情況下,HCFlow 在通用圖像超分辨率和人臉圖像超分辨率上,都取得了最佳的結果。在不同的隨機采樣中,可以生成細節不同的高質(zhì)量高分辨率圖像。值得注意的是,與 基于 GAN 的模型類(lèi)似,基于歸一化流的模型主要關(guān)注視覺(jué)效果,PSNR 通常有所下降。

11.png12.png13.png

圖像再縮放

由于圖像再縮放通常不關(guān)注重建結果的多樣性,HCFlow 采用與 IRN (ECCV2020)一致的訓練策略,將前向過(guò)程和反向過(guò)程分別視為編碼和解碼過(guò)程。訓練損失函數包括在高分辨率圖像和低分辨率圖像上的 L1 損失函數,以及在隱變量上的約束。在相近的模型參數量下,取得了 0.10-0.34dB 的提升。

14.png15.png

更多的模型細節請閱讀 [論文原文] 和已開(kāi)源的[代碼]。

*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>