Description
はじめに
強化学習は環境に柔軟に適応する知能エージェントにおける基本機能と考えられます。近年は深層学習などのアーキテクチャとして、認識技術と組み合わされて自動運転などの実践的な場でつかわれれはじめており、さらにロボットなどにおいても今後は適用されてゆくシーンが増えてゆくでしょう、こうした背景から、実践的な強化学習や,実世界で動かす強化学習(ロボット・自動運転),強化学習を部品として組み合わせる(アーキテクチャ),といったトピックについて重視し情報共有する場として強化学習アーキテクチャ勉強会を開始しました。
本勉強会において積極的に議論に加わっていただき、今後、論文紹介などの形で貢献いただけるかたの参加をお待ちしております。
当勉強会の運営方針などについては、https://rlarch.connpass.com/ を御覧ください。
- Google Group : https://goo.gl/xznKlY (注:KlYのIは「L」の小文字です)
- Slack : https://join.slack.com/t/rlarch/shared_invite/MjM2Mzc3MDE1MzYyLTE1MDQ2MjIzNDItNjFmNmU2NWJlYg
スケジュール
- 18:50 〜18:55 オープニング
- 18:55〜19:45 論文紹介:Learning a Prior over Intent via Meta-Inverse Reinforcement Learning (発表35分、質疑応答15分)
※ 19:00にビル入り口が施錠されるため、19時以前にお越しください(万が一19時を過ぎてしまった場合はインターホンにてご連絡ください)
講演概要:
発表者:比嘉 亮太(NEC)
-
タイトル: 論文紹介:Learning a Prior over Intent via Meta-Inverse Reinforcement Learning
-
アブストラクト: 実問題に強化学習を適用する場合、どの様に目的を達成するための報酬関数の設定が問題となる。逆強化学習は、エキスパートの行動データより報酬関数を推定することで上記の課題を解決する。しかしながら、実世界で共通の変化(例えば、任意のタイプのドアを開くデモンストレーション)を網羅するデータセットを用意することは高いコストを有する。実際には、逆強化学習は報酬関数を復元することは困難な限られたデモンストレーションで行われる。先の問題を解決するために、本論文ではメタ学習を逆強化学習に組み合わせ、異なるタスクのデモンストレーションから報酬関数の共通の構造を学習する”prior over intent”学習を提案している。未知のダイナミクスに対する将来の研究課題を関連させて、今回の論文を紹介する。
-
参考文献:
[1] K. Xu, E. Ratner, A. Dragan, S. Levine, and C. Finn, “Learning a Prior over Intent via Meta-Inverse Reinforcement Learning”, arXiv preprint arXiv: 1805.12573 (2018) https://arxiv.org/abs/1805.12573
Media View all Media
If you add event media, up to 3 items will be shown here.