#144
summarized by : Akihiro FUJII
An Impartial Take to the CNN vs Transformer Robustness Contest

どんな論文か?

Transformer (Swin, ViT) とCNN (ConvNext、BiT) を短絡的学習、分布外検出などの頑健性を調査した論文。両者に明確な差は見られなかったという結果。

新規性

Transformer (Swin, ViT) とCNN (ConvNext) を分布外検出などさまざまな実験から頑健性を調査した点。

結果

Transformerには共変量シフト条件下で汎化する性能がある一方、ショートカット学習をしてしまう特徴がある、などの結果。CNNとTransformerどちらが明確に頑健性において優れているとは言えないとの結果

その他(なぜ通ったか?等)