オフラインの動作生成と違い,人との対話で必要となるジェスチャ動作の生成は高い応答性が必要となります.さらに,アクトロイドは人間らしい見た目を持つため動作においても人間らしい振る舞いが要求されます.
そこで,私たちはモーションキャプチャによって撮影された人間の動作をあらかじめ再構成可能な形でデータベース化し,それらをロボットの自己干渉なくスムーズに繋ぎあわせる手法を提案しました.これによりリアルタイム性と人間らしい動作生成を両立し,応答性の高いインタラクションを可能としました.
真正面の話者に対して特定された対話を行うと仮定すると,各ボディジェスチャはそれぞれ一つの固定された動作シーケンスを再生するだけで済みます.しかし,実世界ではそういった仮定は成り立ちません.話者は移動し,対象物(指さしたい物体など)は環境によって異なります.そこで,動作データベース中にある類似動作を,話者の立ち位置や対象物の指示方向などをパラメータとして合成することでこの問題を解決します.
奈良先端科学技術大学院大学の情報科学研究科は,平城遷都1300年祭の会場で2010年10月2日〜15日にかけて各研究室が研究成果の展示を行いました(http://www.naist.jp/event/1300_j.html). その中で,私たちロボティクス講座は多人数との対話を実現するインタラクションシステムのデモを行いました.このデモで得られた知見から,人間に与えるロボットの印象や滞留時間を向上させることが確認できました.