- …
- …
#539
summarized by : Tsubura Kazuki
どんな論文か?
勾配降下法(GD)が単純であるため,ニューラルネットを学習するためのデフォルトな手法となった.弱教師あり学習したCNNセグメンテーションの文脈で,GDが不十分であっても,ADMによって最先端を達成することを実証.
新規性
勾配降下法に代わるものとして,ネットワークトレーニング中の正則化損失を最小にするための alternating direction method (ADM)を提案.
結果
α拡大によるグリッドCRF損失に対するADMは,コンバージェンスを大幅に改善し,低いトレーニング損失を達成.たとえば,ADMを最初に1000回繰り返すと,グリッドCRFの損失がGDの最良の結果よりも少なくなる.
その他(なぜ通ったか?等)
- …
- …