#674
summarized by : ERLYN MANGUILIMOTAN
Generative Dual Adversarial Network for Generalized Zero-Shot Learning

どんな論文か?

本稿では、見ているクラスと見えていないクラスからの新しい画像についての分類タスクのテストを行うために、モデルにいくつかの見たクラスの画像とラベルのペアを学習させる一般化ゼロショット学習の問題を検討します。
placeholder

新規性

論文投稿1)視覚から意味へ、意味から視覚への方法を統一する生成的双対敵対ネットワーク(GDAN)を提案し、2)リグレッサーと弁別器もお互いから学ぶことができるように新しい双対敵対者損失を設計した。 ジェネレータとリグレッサ(デュアルGAN)に加えて、この作品は、視覚とテキストの特徴ペアの類似性を測定するための識別ネットワークを追加します。

結果

提案モデルは、最先端の一般化されたゼロショット学習と比較して、いくつかのデータセット(SUN、CUB、aPY、AWA2)で評価されています。 結果は、見たと 目に見えないクラス、提案は最高の精度を達成 すべてのベースラインの中で、そして大幅に改善されて 見たクラスから画像を分類することに。 それはまた深い埋め込みモデルと生成モデルよりも優れています。

その他(なぜ通ったか?等)