IROS 2013: 人間に注意を払うロボット
ATL調査隊
こんにちわ。ATL調査隊です。
ロボットに言うことを聞かせるのは難しいことですが、何体かのロボットに言うことを聞かせるのは、もっと難しいことです。しかしロボット工学者はその解法に向かって一歩前進しました。今月初めにあったIROSでは、ロボットたちが、人間が話していることや見ているもの、やっていることに注意を払うことができる、ことが発表されました。この研究は、ロボットを制御する、より自然な方法に繋がるかもしれません。
グループの中の何人かに、何か命令することを考えてみてください。それぞれの人を順に見ながら、「貴方と貴方、そして貴方」と言ったり、やってほしいことを仕草で示したりするのではないでしょうか。相手をじっと見ることで注意をひくのは、人間にとって直感的なことです。サイモン・フレーザー大学(ちなみに、この大学には素晴らしいバグパイプ・バンドがあります)の研究者たちは、人間が注意を払っているものに注意を払うよう、ロボットに教えています。
これがそのコンセプトビデオです。
AR Droneは音声の命令を聞きながら、カメラで人間を見、同時に顔認識を行うことで、人間がどのロボットに注意を払っているか検出します。命令するとき、人間がどこに焦点をおいているかに基づいて、ロボットたちは人間が自分たちのうち誰に命令しているのか決定します。この方法は、命令対象のロボットが複数でも一体だけでも、すでにグループ内にいるかいないかといったことにも関わらず、機能します。
下の写真は、三体のロボットからのカメラ画像です。ユーザーが見ているロボット(左)が最高得点を取得していることがわかります。
自分に注意を向けられているとロボットが考えたときは、ロボットのLEDの色が変わって、ユーザーに知らせます。
同様の原理は、ジェスチャーと同じぐらい効果的です。
この研究のポイントは、何も知らないユーザーでもすぐに利用できる直感的な命令方法を構築することです。そのための課題として、 ロボットがいくつかのチームに分けられるようにして、特定のロボットが簡単に異なるグループに出たり入ったりできるようにすることが挙げられます。ジェスチャー制御を拡張すれば、方向を示すことにも使えます。そういったことを全部合わせれば、6つの無人飛行機に向かって「お前とお前は青チーム、あっちに飛んでいけ。お前たち3機は赤チームだ、この区域を巡回しろ。ああ、お前は青チームに加われ」といった命令を出すこともできるでしょう。とても簡単そうに聞こえますが、ロボット工学者の苦労によって、こんな夢がもうそこまで来ているのです。
サイモン・フレーザー大学(カナダ・ブリティッシュコロンビア州バーナビー)の研究者らが、IROS 2013(東京)において発表したものから。
" ‘You Two! Take Off!’: Creating, Modifying, and Commanding Groups of Robots Using Face Engagement and Indirect Speech in Voice Commands," by Shokoofeh Pourmehr, Valiallah (Mani) Monajjemi, Richard Vaughan, and Greg Mori
“HRI in the Sky: Creating and Commanding Teams of UAVs with a Vision-mediated Gestural Interface,” by Valiallah (Mani) Monajjemi, Jens Wawerla, Richard Vaughan, and Greg Mori,