#29
summarized by : Masaki Inaba
Self-Supervised Product Quantization for Deep Unsupervised Image Retrieval

どんな論文か?

ImageNet学習済み特徴と近傍探索技術を組み合わせた画像検索手法が優れた検索性能を実現しているが、膨大な量のアノテーションが必要でありコストが高い。この課題を自己教師有り学習による画像検索により解決。
placeholder

新規性

自己教師有り学習の枠組みを応用し、教師無しで画像特徴からProduct Quantizationをend-to-endで学習する画像検索手法を提案。量子化後の特徴ベクトルを近づけるのではなく、図に示すCross Quantized Contrastive learning strategyにより、コードワードと特徴記述を同時に学習する点が大きな差分。

結果

CIFAR-10, FLICKR25K, NUS-WIDEそれぞれのデータセットでImageNet教師有り含めた既存手法の性能を上回り、SotA。

その他(なぜ通ったか?等)

https://github.com/youngkyunJang/SPQ mAPによる評価だけでなく検索速度性能の評価結果も気になる。