#960
summarized by : fnakamura
Learning Invariant Representation for Unsupervised Image Restoration

どんな論文か?

画像復元の教師なし表現学習手法を提案、noise と clean の domain transfer を行なう。両ドメインから抽出する潜在表現がセマンティックな情報のみ含むと、再構成がドメイン・シフトを生じる点、リッチなテクスチャや特徴を保持するノイズに不変な表現の学習を狙い、セマンティクスと背景の一貫性を保つことで表現の頑健性を改善した。効率的な訓練とより早い収束で SOTA 同様の性能を達成。
placeholder

新規性

Noise, Clean の両ドメインの Encoder, Generator で変換・再構成をするが、ノイズを別にエンコードし種々のノイズを扱う。加えて、背景一貫性のために、変換元と変換先にGaussian-Blurを複数の程度加えたものが一致するようにL1 Lossを取る。さらに、セマンティクス一貫性のために、変換元と変換先から訓練済みモデルで抽出した表現が一致するようにL2 Lossを取る。

結果

Gaussian および Poisson ノイズ、および医療画像における実際のノイズに対して既存手法と比較、PSNR と SSIM で評価し、他の SOTA 手法を上回る、あるいは、同程度の結果であった。

その他(なぜ通ったか?等)