#561
summarized by : fnakamura
RL-CycleGAN: Reinforcement Learning Aware Simulation-to-Real

どんな論文か?

シミュレータ画像を実画像に変換する sim2real で、タスクと無関係に画像変換すると失われる可能性があるタスク関連の特徴を保持する RL-CycleGAN を提案、sim2real の他の手法では要求されることのあるタスクごとの人手によるエンジニアリングの必要性を除外した。
placeholder

新規性

Q値が変換に対して不変となるようにする RL-scene consistency loss を導入、例えば、Q値をシミュレータ画像 x から推定する Q_sim と実画像 y から推定する Q_real を用意、sim2real 変換を G, real2sim 変換を F とし、Q_sim(x), Q_real(G(x)), Q_sim(F(G(x))) の各Q値が類似するような損失を構成する。

結果

物体把持のタスクで、CycleGAN や GraspGAN 等の他の手法と比較して、より高い把持成功率となった。

その他(なぜ通ったか?等)