#539
summarized by : Tsubura Kazuki
Beyond Gradient Descent for Regularized Segmentation Losses

どんな論文か?

勾配降下法(GD)が単純であるため,ニューラルネットを学習するためのデフォルトな手法となった.弱教師あり学習したCNNセグメンテーションの文脈で,GDが不十分であっても,ADMによって最先端を達成することを実証.
placeholder

新規性

勾配降下法に代わるものとして,ネットワークトレーニング中の正則化損失を最小にするための alternating direction method (ADM)を提案.

結果

α拡大によるグリッドCRF損失に対するADMは,コンバージェンスを大幅に改善し,低いトレーニング損失を達成.たとえば,ADMを最初に1000回繰り返すと,グリッドCRFの損失がGDの最良の結果よりも少なくなる.

その他(なぜ通ったか?等)