![2016s.png 2016s.png](//naist-robotics.github.io/images/2016s.png) 研究室紹介 | ![1s.png 1s.png](//naist-robotics.github.io/images/2018/1s.png) 移動ロボットのための安全かつ効率的な局所的経路計画 | ![2s.png 2s.png](//naist-robotics.github.io/images/2018/2s.png) ヒューマノイドロボットの実時間全身動作生成 | ![3s.png 3s.png](//naist-robotics.github.io/images/2018/3s.png) ヒューマノイドロボットによる作業中の接触力を考慮した動作生成 |
![4s.png 4s.png](//naist-robotics.github.io/images/2018/4s.png) 対人サービスにおけるアンドロイドロボットの美しい所作の生成 | ![5s.png 5s.png](//naist-robotics.github.io/images/2018/5s.png) アイコンタクト実現のためのアンドロイドの眼球運動のキャリブレーションと視線生成 | ![6s.png 6s.png](//naist-robotics.github.io/images/2018/6s.png) Dual-armed clothes sorting and folding with the NAIST OpenHand M25 | ![7s.png 7s.png](//naist-robotics.github.io/images/2018/7s.png) ロボットアームによる容器形状を考慮したすくい動作の生成 |
![8s.png 8s.png](//naist-robotics.github.io/images/2018/8s.png) Tactile-based Pouring Motion Inspired by Human Skill | ![9s.png 9s.png](//naist-robotics.github.io/images/2018/9s.png) アクティブロボットにおけるタッチ技術の実装と評価 | ![10s.png 10s.png](//naist-robotics.github.io/images/2018/10s.png) Automatic Annotation of Training Data Using Visual Markers for Object Detection in Automated Factories | ![11s.png 11s.png](//naist-robotics.github.io/images/2018/11s.png) セマンティックマップを用いた視差マップの改善 |
![12s.png 12s.png](//naist-robotics.github.io/images/2018/12s.png) セマンティックオブジェクト獲得のための一人称視点RGB-D映像を用いた手動作の識別 | ![13s.png 13s.png](//naist-robotics.github.io/images/2018/13s.png) 距離センサアレイを用いた前腕形状計測に基づく手の動作認識 | ![14s.png 14s.png](//naist-robotics.github.io/images/2018/14s.png) マルチコプターによる持ち上げ不能な物体の押し動作 | ![15s.png 15s.png](//naist-robotics.github.io/images/2018/15s.png) Eye Tracking through Corneal Surface Reflection |
![16s.png 16s.png](//naist-robotics.github.io/images/2018/16s.png) 生活時間推定のための移動ロボットを用いた人の注視物体推定 |