#3
summarized by : Anonymous
PT4AL: Using Self-Supervised Pretext Tasks for Active Learning

どんな論文か?

各バッチから深層能動学習のSoTA論文.事前学習として回転予測のPretext-taskを利用,Pretext-taskのLossでサンプルをソートし,サイクル数分のバッチに分割,各サイクルで各バッチからLeastConfidentなサンプルをクエリしアノテーションを行う.
placeholder

新規性

Pretext-taskのLossでサンプルをソートするため,最初のサイクルから難易度の高いデータを選択することが可能(通常はランダムに選択する必要があり,精度がばらつきやすい).

結果

CIFAR10において1,000枚から初めて10,000枚までデータを追加する深層能動学習の設定でSoTAを達成.最初のサイクル時点でランダムより9.81%高い.また,Caltech-101,ImageNet-67での比較も高精度.

その他(なぜ通ったか?等)

Git: https://github.com/johnsk95/PT4AL 通った理由はSoTAだから?しかしコードではleakageしている.また,比較手法の精度が比較手法の提案論文内の数字よりかなり低くなっており,実験結果はかなり怪しい.