#212
summarized by : 角田良太朗
KD-MVS: Knowledge Distillation Based Self-Supervised Learning for Multi-View Stereo

どんな論文か?

Multi-view stereoのself-supervised学習において、photometric-lossにfeature-errorもロスに加えた学習、その後それを教師モデルとして、その推論結果の有効そうな領域に限りdepth分布をガウシアンと仮定し、KLdivergenceによる蒸留を行う。その結果supervisedを超える制度を達成。
placeholder

新規性

feature-errorはperceptual-lossと異な理、VGGのようなpretrained-modelは使わない。その理由として、学習中のencoderの方がlocalityを強く学習しているからと主張。 蒸留時は教師モデルで求めた各画像からのdepthをref画像に集約させた時、それらがガウス分布に従うとして最尤推定により平均分散を決定する。

結果

CasMVSNetをベースとして、Tanks-and-Templesベンチマークで1位を達成。またDTUデータセットでも他手法を大きく上回る。

その他(なぜ通ったか?等)

https://github.com/megvii-research/KD-MVS