役割
エントランスに2台設置され、体験上の注意点やパビリオンに関する情報を来場者に発信する
サイズ
W300 × D310 × H484 mm (尻尾部分を除く)
重さ
4.3kg
仕様
- 国立研究開発法人理化学研究所ガーディアンロボットプロジェクト* にて研究開発されたロボット。プロジェクトで開発された、ロボットが主体的にさりげない支援を実現するための認識機能や対話機能などが実装されている
- アイアイ同士が大阪弁で会話
- アイアイが座る石柱にはモニターがセットされ、会話を同時通訳した英文がリアルタイムで記載される
- 動作自由度:頭部2自由度、腕各2自由度、腰1自由度、口開閉1自由度の計8自由度
- センサ:本体の周囲に、距離画像カメラ 1個、LiDAR 2個、マイクロフォンアレイ(16ch) 2個
- 外見:リアルな猿の風貌(猿の顔と全身を覆う毛皮)
* ガーディアンロボットプロジェクト
2019年4月より開始。人とAI・ロボットが柔軟に共存する未来社会に向け、心理学、脳科学や認知科学とAI研究の強みを相乗的に取り入れた次世代ロボット(「脳×AI」)の社会実装に向けた研究開発を推進。従来のロボットが人間の詳細な命令に基づいて限られたタスクのみをこなすものがほとんどであったのに対し、当プロジェクトでは自律して置かれた環境や支援すべき人間の状態を認識し、適切なやりとりのもと、人間の自主性を損ねず、さりげない支援を実現するロボットを目指す。
機能詳細
(1)人の位置と発話内容の認識
2個のLiDARを用いて人の位置を計測し、人の位置と2個のマイクロフォンアレイから得られた音情報を用いて、周囲のさまざまな音の中から人の発話だけを抽出。大規模言語モデルに基づく認識システムにより、人の発話内容を認識することができる。
(2)周囲の状況の認識
距離画像センサと大規模データに基づく認識システムにより、アイアイの周囲にいる人の様子(何色の服を着ているか、何を持っているかなど)を認識することができる。
(3)対話機能
来場者の様子や発話を認識して周囲の様子を認識し、その場の出来事を取り入れながら大規模言語モデルに基づいて対話を生成することで、来場者はその場を共有した感覚を持つことができる。
(4)2体対話機能
2体のロボットが直接来場者に話しかけるのではなく、周囲の様子を認識し、それに基づいて2体で話すように対話。こうすることで、来場者をロボットがつくり出したコンテキストに引き込むことができる。