#654
summarized by : Takaya Yamazoe
A Theoretically Sound Upper Bound on the Triplet Loss for Improving the Efficiency of Deep Distance Metric Learning

どんな論文か?

DNNを用いたクラス分類方法にDeep distance metric learning(DML)という手法がある。DMLはサンプル同士の距離を測り、距離の近いものは同じクラスになるように最適化するが、DMLの最適化に使われるtriplet lossはエポック毎にO(N^3/C)の計算量がかかり、非効率である。本研究では、triplet lossの計算量を線形に落とす手法を提案する。
placeholder

新規性

triplet lossの計算量を削減する研究は今までにも行われてきたが、計算量を線形に落としたのは本研究が初である。提案手法では、従来のtriplet lossの最適化のステップであったセントロイド最適化を必要としない。

結果

CUB-200-2011データセットとCAR196データセットを用いて、従来手法とクラスタリングパフォーマンスと学習時間を比較した。CUB-200-2011に対しては従来手法のパフォーマンスを上回った。CAR196に対しては従来手法のパフォーマンスに劣ったものの、学習時間を大幅に縮めることに成功した。

その他(なぜ通ったか?等)