#259
summarized by : Haruhi Shida
FedLTN: Federated Learning for Sparse and Personalized Lottery Ticket Networks

どんな論文か?

本論文では宝くじ仮説に動機付けられた新しいアプローチであるFedLTNを提案.非同一・独立分布(non-IID)なデータ設定下において,通信効率が良くパーソナライズされたFLを実現するために,スパースでパーソナライズされたLottery networksを学習することを提案する.
placeholder

新規性

「より速く,より大きなモデルのスパース性を達成するための巻き戻しを行わないポストプルーニング」を提案.この手法でLTHをFL設定に適用する際の最も差し迫った課題である,遅いモデルの刈り込みと収束に対処している.

結果

FedLTNとFedLTN with Jump-Startは,既存のFLアプローチと比較して,高いローカルテスト精度を達成し,モデルの刈り込みを大幅に加速し,通信コストを4.7倍に削減する. CIFAR-10においてFedLTNはLotteryFL,FedAvgと比較してそれぞれ6.8%,9.8%高いローカルクライアントテスト精度を達成した(詳しくは添付画像を参照).

その他(なぜ通ったか?等)