<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>
"); //-->

博客專(zhuān)欄

EEPW首頁(yè) > 博客 > 檢測并消除瑕疵,DeSRA讓真實(shí)場(chǎng)景超分中的GAN更加完美

檢測并消除瑕疵,DeSRA讓真實(shí)場(chǎng)景超分中的GAN更加完美

發(fā)布人:數據派THU 時(shí)間:2023-08-22 來(lái)源:工程師 發(fā)布文章
真實(shí)場(chǎng)景超分中 GAN 帶來(lái)的瑕疵困擾你嗎?

使用生成對抗網(wǎng)絡(luò )(GAN)進(jìn)行圖像超分辨率(SR)已經(jīng)在恢復逼真細節方面取得了巨大成功。然而,眾所周知,基于 GAN 的 SR 模型會(huì )產(chǎn)生令人難以接受的偽影,特別是在實(shí)際場(chǎng)景中。以往的研究通常在訓練階段通過(guò)額外的損失懲罰來(lái)抑制瑕疵,但這些方法只適用于訓練過(guò)程中生成的同分布下的瑕疵類(lèi)型。而當這些方法應用于真實(shí)世界場(chǎng)景中時(shí),我們觀(guān)察到這些方法在推理過(guò)程中仍然會(huì )產(chǎn)生明顯的瑕疵。針對此,來(lái)自騰訊 ARC Lab,XPixel 團隊和澳門(mén)大學(xué)的研究者們提出了 DeSRA 的新方法并發(fā)表論文。它能夠對在推理階段中產(chǎn)生的超分瑕疵進(jìn)行檢測并消除。該論文被 ICML 2023 所接收。

圖片


  • 論文鏈接:

  • https://arxiv.org/abs/2307.02457

  • 代碼鏈接:

  • https://github.com/TencentARC/DeSRA



“GAN 訓練時(shí)出現的瑕疵” 與 “GAN 推理時(shí)出現的瑕疵”


基于 GAN 的方法在生成帶有紋理的逼真復原結果方面取得了巨大成功。BSRGAN [1] 和 Real-ESRGAN [2] 將基于 GAN 的模型擴展到了真實(shí)場(chǎng)景應用,展示了它們恢復真實(shí)世界圖像紋理的能力。然而, GAN-SR 方法經(jīng)常會(huì )生成令人視覺(jué)上難以接受的偽影,嚴重影響用戶(hù)體驗。這個(gè)問(wèn)題在真實(shí)世界場(chǎng)景中更加嚴重,因為低分辨率圖像的退化是未知且復雜的。


圖片

第一列:低清輸入;第二列:現有超分方法引起瑕疵;第三列:DeSRA 檢測出瑕疵區域;第四列:DeSRA 去除瑕疵
為了緩解瑕疵的生成,LDL [3] 通過(guò)分析紋理類(lèi)型,計算每個(gè)像素是瑕疵的概率,并在訓練過(guò)程中通過(guò)增加損失進(jìn)而對瑕疵進(jìn)行抑制。雖然它確實(shí)改善了 GAN-SR 的結果,但我們仍然可以觀(guān)察到 LDL 在推理真實(shí)世界測試數據時(shí)會(huì )存在明顯瑕疵,如上圖所示。因此,僅僅通過(guò)改善模型的訓練很難解決這些瑕疵問(wèn)題,因為這些瑕疵在 GAN-SR 模型的訓練過(guò)程中可能并不出現。
這里我們區分一下 GAN 訓練出現的瑕疵和測試出現的瑕疵:

  • GAN 訓練出現的瑕疵(GAN-training artifacts):出現在訓練階段,主要是由于訓練時(shí)網(wǎng)絡(luò )優(yōu)化的不穩定和在同分布數據上的 SR 的 ill-pose 導致。在有干凈的高清圖像存在的情況下,可以在訓練過(guò)程中對這些瑕疵加以約束,進(jìn)而緩解瑕疵的生成,如 LDL [3]。
  • GAN 推理出現的瑕疵(GAN-inference artifacts):出現在推理階段,這些偽影通常是在真實(shí)世界未見(jiàn)過(guò)的數據中出現的。這些瑕疵通常不在訓練數據的分布中,并不會(huì )在訓練階段出現。因此,通過(guò)改善訓練過(guò)程的方法(例如 LDL [3])無(wú)法解決這些瑕疵問(wèn)題。


處理 GAN 推理時(shí)產(chǎn)生的瑕疵是一項新的、具有挑戰性的任務(wù)。首先真實(shí)場(chǎng)景的低分辨率圖片沒(méi)有對應的高清圖片。此外,由于這些偽影在訓練集中可能很少甚至從未出現過(guò),因此很難模擬這些瑕疵。換句話(huà)說(shuō),這些瑕疵對于模型來(lái)說(shuō)是未知的,而且超出了其訓練數據的分布范圍。解決這個(gè)問(wèn)題是將 GAN-SR 模型應用于實(shí)際場(chǎng)景的關(guān)鍵,具有重要的實(shí)用價(jià)值。


檢測 GAN 推理時(shí)出現的瑕疵


圖片


在本文中,研究團隊專(zhuān)注于處理 GAN 推理時(shí)產(chǎn)生的瑕疵。這些瑕疵對實(shí)際的應用有很大的負面影響,因此解決它們具有很大的實(shí)際價(jià)值。由于這些瑕疵的復雜性和多樣性,一次性解決所有瑕疵是具有挑戰性的。


本文主要處理有著(zhù)以下兩個(gè)特征的瑕疵:


  • 這些瑕疵不會(huì )出現在預訓練的 MSE-SR 模型中。

  • 這些瑕疵很明顯且面積較大,能夠很容易被人眼捕捉到。上圖展示了一些包含這些瑕疵的樣例。


對于前一特征,研究團隊希望確保瑕疵是由 GAN 引起的,而相應的 MSE-SR 結果對于測試數據是良好的參考結果,從而區分瑕疵。其原理在于,GAN 瑕疵的呈現通常是有著(zhù)過(guò)多不需要的高頻 “細節”。換句話(huà)說(shuō),研究團隊引入 GAN 訓練來(lái)生成精細的細節,但他們不希望 GAN 生成的內容與 MSE-SR 的結果相差太大。注意,即使對于沒(méi)有見(jiàn)過(guò)的真實(shí)場(chǎng)景的測試數據,MSE-SR 結果也很容易獲得,因為我們通常是基于 MSE-SR 模型進(jìn)行微調以獲得 GAN-SR 模型。對于后一特征,之所以?xún)?yōu)化考慮那些明顯且占據較大區域的瑕疵,是因為這種類(lèi)型的瑕疵對人的感知有很大影響。


具體的,研究團隊首先設計了一個(gè)定量指標,通過(guò)計算局部方差來(lái)衡量 MSE-based 和 GAN-based 模型生成結果之間的紋理差異。該指標總共包含著(zhù)以下幾個(gè)部分。


  • 局部紋理復雜性:局部區域 P 內像素強度的標準差 σ(i, j) 來(lái)表示局部紋理


圖片


  • 絕對紋理差異 d:兩個(gè)局部區域的標準差(x 表示 GAN-SR 區域,y 表示 MSE-SR 區域)


圖片


  • 相對紋理差異 d’:


圖片


  • 歸一化到 [0, 1]:


圖片


  • 引入一個(gè)常數 C:處理分母相對較小的情況

圖片


在獲得紋理差異圖 D 后,可以利用它來(lái)確定需要處理的區域。然而,僅僅使用紋理復雜度的差異作為判斷依據是不夠的,因為不同語(yǔ)義區域的感知容忍度是不同的。例如,復雜紋理區域中的細節,如植被、頭發(fā)等,很難被感知為瑕疵,而平滑或規則紋理區域中的像素差異較大,例如海洋、天空和建筑物,對人類(lèi)感知敏感,容易被看作瑕疵。因此,研究團隊我根據語(yǔ)義信息對偽影圖 D 進(jìn)行了進(jìn)一步的調整,得到圖片,下圖的第六列。


圖片


最后,研究團隊通過(guò)形態(tài)學(xué)操作來(lái)獲得最終的瑕疵檢測結果,即下圖的第七列。具體來(lái)說(shuō),他們首先使用一個(gè) 5×5 全為 1 的矩陣進(jìn)行腐蝕操作。然后,使用該矩陣進(jìn)行膨脹操作以連接不連續的區域。接下來(lái),使用一個(gè) 3×3 全為 1 的矩陣來(lái)填充地圖中的空洞。最后,過(guò)濾掉離散的小區域作為檢測噪聲。
去除 GAN 推理時(shí)出現的瑕疵


對復原結果中瑕疵的檢測本身具有很大的實(shí)際價(jià)值?;谠摻Y果,研究團隊希望進(jìn)一步改進(jìn) GAN-SR 模型??紤]到對于實(shí)際應用而言,有著(zhù)明顯的瑕疵往往是用戶(hù)無(wú)法容忍的,而沒(méi)有瑕疵的弱恢復結果(細節少一點(diǎn))比帶有瑕疵的強恢復結果更可接受。因此,他們利用 MSE-SR 結果作為模型輸出的參考。如下圖所示,研究團隊使用 MSE-SR 結果替換在 GAN-SR 結果中檢測到瑕疵的區域。合并的圖像用作偽高清圖片(偽 GT)。
圖片
其中圖片表示生成的偽 GT,圖片圖片分別是 MSE-SR 和 GAN-SR 結果,(?) 表示逐元素相乘,M 是檢測到的偽影地圖。然后,研究團隊使用少量數據從真實(shí)數據中生成數據對(x,圖片)來(lái)微調模型,其中 x 表示 LR 數據。只需要進(jìn)行少量迭代的微調(在本次實(shí)驗中大約 1K 次迭代就足夠了),更新后的模型將產(chǎn)生視覺(jué)感知良好且沒(méi)有明顯瑕疵的結果。此外,它不會(huì )影響沒(méi)有瑕疵的區域中的細節。這種方法的工作機制是通過(guò)微調過(guò)程將合成數據的分布與實(shí)際數據的分布之間的差距縮小,從而減輕 GAN-inference 中的瑕疵問(wèn)題。



圖片


實(shí)驗評估與分析

研究團隊使用 Real-ESRGAN [2],LDL [3] 以及 SwinIR [4] 來(lái)驗證他們的方法的有效性??紤]到現有的幾個(gè)真實(shí)世界的超分辨率數據集都假設了特定相機的退化情況,導致會(huì )與實(shí)際情況相差甚遠。因此,他們構建了一個(gè)人工標注的瑕疵數據集??紤]到圖像內容和退化的多樣性,他們使用 ImageNet 1K 的驗證集作為真實(shí)世界的低分辨率數據。然后,選擇每種方法中有 200 張有 GAN-inference 瑕疵的圖像來(lái)構建瑕疵數據集,并使用 labelme 手動(dòng)標記瑕疵區域。這是首個(gè)用于 GAN-inference 瑕疵檢測的數據集。對于微調過(guò)程,他們對 200 張圖片進(jìn)行劃分,其中 50 張用于模型的微調,另外 150 張作為驗證集。


評估指標


由于缺乏真實(shí)世界低分辨率數據的高清參考圖片,經(jīng)典指標如 PSNR、SSIM 無(wú)法采用。因此,研究團隊考慮三個(gè)指標來(lái)評估檢測結果,包括 1) 檢測到的瑕疵區域與實(shí)際的(人工標注的)瑕疵區域之間的交并比(IoU),2) 檢測結果的精確度和 3) 檢測結果的召回率。當用 A 和 B 表示特定區域 z 的檢測到的瑕疵區域和實(shí)際的瑕疵區域時(shí),IoU 定義為:圖片


計算每個(gè)圖像的 IoU,并使用驗證集上的平均 IoU 來(lái)評估檢測算法。較高的 IoU 意味著(zhù)更好的檢測準確性。然后,我們將檢測到的瑕疵區域集合定義為 S,正確樣本集合 T 定義為:

圖片


精確度 =圖片表示正確檢測的區域數(圖片)占總檢測到的區域數(圖片)的比例。


研究團隊將實(shí)際的瑕疵區域定義為 G,并通過(guò)以下方式計算檢測到的 GT 瑕疵區域集合 R:

圖片

召回率 =圖片表示正確檢測到的 GT 瑕疵區域數(圖片)占總 GT 瑕疵區域數(圖片)的比例。其中,p 是一個(gè)閾值,研究團隊根據經(jīng)驗將其設置為 0.5。


瑕疵檢測結果


如下表所示,針對 LDL 模型中的瑕疵檢測結果中,本文方法獲得了最好的 IoU 和 Precision,遠遠超過(guò)其他方案。需要注意的是,LDL 在 threshold=0.001 時(shí)獲得了最高的召回率。這是因為該方案將大部分區域視為瑕疵,因此這種檢測結果幾乎沒(méi)有意義。Real-ESRGAN 和 SwinIR 的結果可以參考原文。


圖片

研究團隊同時(shí)對比了使用 DeSRA 微調策略之前和之后的瑕疵檢測結果,結果如下表所示,當應用他們的 DeSRA 之后,Real-ESRGAN 的 IoU 從 51.1 降至 12.9,LDL 的 IoU 從 44.5 降至 13.9,說(shuō)明瑕疵區域的檢測面積大大減少。去除率分別為 75.43% 和 74.97%,表明在微調之后,測試數據中四分之三的瑕疵可以完全消除。此外,他們的方法沒(méi)有引入額外瑕疵,添加率為 0。


本文在下圖中提供了使用與未使用該文方法改進(jìn) GAN-SR 模型的結果的視覺(jué)比較。與原始的模型結果相比,改進(jìn)的 GAN-SR 模型生成的結果在視覺(jué)質(zhì)量上更好,沒(méi)有明顯的 GAN-SR 瑕疵。所有這些實(shí)驗結果證明了本文方法能有效的緩解模型在處理真實(shí)的低清圖片時(shí)會(huì )出現的瑕疵。


圖片
圖片
User Study
圖片

為了進(jìn)一步驗證本文 DeSRA 微調策略的有效性,研究團隊進(jìn)行了兩項用戶(hù)研究。第一項是比較原始 GAN-SR 模型和微調后的 GAN-SR 模型生成的結果。對于這個(gè)實(shí)驗,比較的重心是圖片中是否存在明顯的偽影。研究團隊產(chǎn)生了共 20 組圖像,每組包含 GAN-SR 模型和微調后的 GAN-SR 模型的輸出結果。這些圖像被隨機打亂。共有 15 人參與了用戶(hù)研究,并為每組選擇他們認為偽影較少的圖像。最終的統計結果如圖 9 所示。82.23% 的參與者認為微調后的 GAN-SR 模型生成的結果較少存在偽影??梢钥闯?,本文方法在很大程度上消除了原始模型產(chǎn)生的瑕疵。


第二項是對微調的 GAN-SR 模型和原始的 MSE-SR 模型結果的比較。這個(gè)實(shí)驗是為了比較模型生成的結果是否有更多的細節。研究團隊總共產(chǎn)生了 20 組圖像,每組圖像包含了 MSE-SR 模型和微調的 GAN-SR 模型的輸出結果。這些圖像被隨機打亂??偣灿?15 個(gè)人參加用戶(hù)研究,并為每組選擇他們認為有更多細節的圖像。最終的統計結果如圖 9 所示。93% 的參與者認為微調的 GAN-SR 模型生成的結果有著(zhù)更多的細節??梢钥闯?,微調的 GAN-SR 模型仍然比 MSE-SR 模型能夠生成更多的細節。


結論


在這項工作中,研究團隊分析了 GAN 在推理階段引入的瑕疵,并提出了方法來(lái)檢測和消除這些瑕疵。具體而言,他們首先計算了 MSE-SR 和 GAN-SR 的相對局部方差,并進(jìn)一步結合語(yǔ)義信息來(lái)定位有瑕疵的區域。在檢測到存在瑕疵的區域后,他們使用基于 MSE 的結果作為偽高清圖片來(lái)微調模型。通過(guò)僅使用少量數據,微調的模型可以成功消除原始模型在推理過(guò)程中的瑕疵。實(shí)驗結果顯示了他們的方法在檢測和去除瑕疵方面的優(yōu)越性,并且顯著(zhù)提高了 GAN-SR 模型在實(shí)際應用中的能力。


在線(xiàn)持續學(xué)習


本文方法可以與持續學(xué)習相結合,從而提供一個(gè)新的范式來(lái)解決在線(xiàn)推理階段中出現的瑕疵問(wèn)題。例如,對于處理真實(shí)世界數據的在線(xiàn)超分辨率系統,可以使用研究團隊的檢測流程來(lái)檢測復原的結果是否具有 GAN-inference 瑕疵。然后,他們可以使用檢測到的帶有瑕疵的圖像快速對超分辨率模型進(jìn)行微調,使其能夠處理類(lèi)似的瑕疵,直到系統遇到新的 GAN-inference 瑕疵。持續學(xué)習已經(jīng)在高層視覺(jué)任務(wù)上得到廣泛研究,但尚未應用于超分辨率。研究團隊希望在未來(lái)研究這個(gè)問(wèn)題,因為它可以極大地推進(jìn) GAN-SR 方法在實(shí)際場(chǎng)景中的應用。


參考文獻:[1] BSRGAN: Designing a Practical Degradation Model for Deep Blind Image Super-Resolution.[2] Real-ESRGAN: Training real-world blind super-resolution with pure synthetic data.[3] LDL: Details or artifacts: A locally discriminative learning approach to realistic image super-resolution. [4] SwinIR: Image restoration using swin transformer.


*博客內容為網(wǎng)友個(gè)人發(fā)布,僅代表博主個(gè)人觀(guān)點(diǎn),如有侵權請聯(lián)系工作人員刪除。



關(guān)鍵詞: AI

相關(guān)推薦

技術(shù)專(zhuān)區

關(guān)閉
国产精品自在自线亚洲|国产精品无圣光一区二区|国产日产欧洲无码视频|久久久一本精品99久久K精品66|欧美人与动牲交片免费播放
<dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><small id="yhprb"></small><dfn id="yhprb"></dfn><small id="yhprb"><delect id="yhprb"></delect></small><small id="yhprb"></small><small id="yhprb"></small> <delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"></dfn><dfn id="yhprb"></dfn><s id="yhprb"><noframes id="yhprb"><small id="yhprb"><dfn id="yhprb"></dfn></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><small id="yhprb"></small><dfn id="yhprb"><delect id="yhprb"></delect></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn> <small id="yhprb"></small><delect id="yhprb"><strike id="yhprb"></strike></delect><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn><dfn id="yhprb"><s id="yhprb"><strike id="yhprb"></strike></s></dfn><dfn id="yhprb"><s id="yhprb"></s></dfn>