#351
summarized by : hayamizu ryo
Target-Aware Dual Adversarial Learning and a Multi-Scenario Multi-Modality Benchmark To Fuse Infrared and Visible for Object Detection

どんな論文か?

自動走行や監視カメラにおいて赤外線センサと可視センサを組み合わせて対象を自動で検出するようなマルチモーダルイメージングの研究は近年注目を集めている.しかし,従来のIVIFアプローチもdeep IVIFアプローチも追従検出に関してはそれほど着手されていない.そこで本論文では融合と検出の統合問題に対する2レベル最適化定式化(bilevel optimization formulation)を提案する.
placeholder

新規性

画像の融合と物体検出の両方を2値最適化することで高い検出精度を実現,より少ないパラメータでターゲットを考慮したTarDALを提案した.TarDALは共通点を探しながら差異から学習することで赤外線情報とテクスチャ情報を保持する.また,検証用に赤外線センサと光学センサを備えた同期型撮像システムを構築し,赤外線画像と可視画像のペアと注釈付きオブジェクトからなるデータセットを構築した.

結果

DenseFuse,FusionGAN,RFN,GANMcC,DDcGAN,MFEIF,U2FusionとTarDALの融合性能を比較した結果,人物を高いコントラストと輪郭を顕著に示し,可視画像からテクスチャを鮮明に生成した.

その他(なぜ通ったか?等)

https://github.com/dlut-dimt/TarDAL