- …
- …
#691
summarized by : ERLYN MANGUILIMOTAN
どんな論文か?
この論文では、オフラインで訓練された訓練済みモデルと、事前に準備された大規模データセットで訓練された訓練済みモデルとの間の問題に対処します。 これは、データが継続的に流れ込む現実世界のアプリケーションではしばしば困難です。 本論文は、統合分類器を漸増的に学習するための新しい枠組みを開発した、すなわちそれは新旧両方のクラスを扱う。
新規性
本論文は、増分設定の下で統一分類子を学習するための新しい枠組みを紹介した。 それは3つの要素を組み込んでいます。1)すべてのクラスにわたってバランスの取れた大きさを強制するために、2)古いクラスの幾何学的構成を維持するために3)クラス間分離 。
結果
このアプローチは、CI-FAR100とImageNetの2つのデータセットで評価されています。 ベースラインとして、マルチクラスの逐次学習のための方法であるiCarlが使用されています。 CIFAR100では、添付の図5に示すように、提案された方法は分類または平均増分精度の傾向においてiCaRLより優れています。
その他(なぜ通ったか?等)
逐次学習のためのより挑戦的なベンチマークであるImageNetでは、提案された方法はiCaRLよりも優れています。 最終段階で1000クラスの全体的な分類エラーを13%以上減らすことができます(図6)。
- …
- …