#221
summarized by : Ryunosuke Ishikawa
Pre-Train, Self-Train, Distill: A Simple Recipe for Supersizing 3D Reconstruction

どんな論文か?

最先端の単一視点再構成システムでは、ほんの一握りの物体しか3Dを推測することができない。大量の学習データが利用が必要。しかし、一般的なオブジェクトの画像に対する3D監視を得ることは非常に困難である。
placeholder

新規性

正則化や余分な制約によってこの結合モデルを学習するのではなく、いくつかのカテゴリについて合成3D学習データを用いて、事前学習を行う。 前景マスクのアノテーションが付与された実環境の多様な画像に対して、カテゴリに特化したモデルの自己学習を行う。 その後数百の多様な物体カテゴリにまたがる物体を再構成するために、単一のモデルを学習する。

結果

本アプローチは、統一モデルを学習するため、学習プロセスを単純化すると同時に、モデルがカテゴリ間の共通構造から未見のカテゴリに対しても意味のある再構成を行うことができる。 150以上のオブジェクトカテゴリに対して3次元推論を学習できることが示された。 しかし、細かい形状の詳細を捉えることができない。また、孤立した物体の画像に依存しているため、より困難な画像を学習することと推論することができなかった。

その他(なぜ通ったか?等)