#206
summarized by : Masanori YANO
Generic Perceptual Loss for Modeling Structured Output Dependencies

どんな論文か?

超解像やスタイル変換で使用されるPerceptual Lossの本質は学習済みの重みではなくネットワーク構造で、ランダムな重みでも機能することを示し、ランダムな重みのCNNを用いたPerceptual Lossをセグメンテーションなどのタスクに適用すると精度が向上することを示した論文。
placeholder

新規性

Perceptual Lossの本質は学習済みの重みではなくネットワーク構造であることと、ランダムな重みのCNNを用いたPerceptual Lossの適用範囲をセグメンテーションなどのタスクに拡張することを提案した。

結果

セマンティックセグメンテーション、深度推定及びインスタンスセグメンテーションのタスクにPerceptual Lossを適用し、ランダムな重みのCNNでも精度が向上する結果。なお、Table 1のネットワーク構造による比較ではVGGが最も効果を示し、Table 4ではランダムな初期化の方法で結果が変動することも示している。

その他(なぜ通ったか?等)

ランダムな重みのVGGでもPerceptual Lossが機能することを超解像で示したFigure 1はインパクトあり、従来とは異なるタスクにも拡張したことと合わせて通ったと考えられる。「常識を疑う」ことの大切さを感じた。