#198
summarized by : Haruhi Shida
HuMMan: Multi-modal 4D Human Dataset for Versatile Sensing and Modeling

どんな論文か?

大規模マルチモーダルHuman データセットであるHuMManを提供.本データセットは複数のモダリティを持っており,複数のタスクでの研究を促進するために,動作認識、2Dおよび3D姿勢推定、3Dパラメトリック人体復元、テクスチャメッシュ再構成のためのベースラインとベンチマークを一通り提供する。
placeholder

新規性

既存のデータセット比べて魅力的な点が4つある. 1)カラー画像、点群、キーポイント、SMPLパラメータ、テクスチャメッシュを含むマルチモーダルデータとアノテーション 2) 一般的なモバイルデバイスをセンサー群に含む 3) 基本動作を網羅した500アクションセット 4) アクション認識、姿勢推定、パラメトリック人体復元、テクスチャメッシュ再構成などの複数のタスクがサポート、評価されている

結果

比較実験で,既存のデータセット比べて大規模かつ包括的で様々なモダリティを提供していることがわかった.(添付写真)

その他(なぜ通ったか?等)

project page: https://caizhongang.github.io/projects/HuMMan/ 添付写真: 既存のデータセットとの比較結果