下川原英理 研究室
下川原英理 准教授
AIスピーカーや受付ロボットなど,日常で対話ロボットと接する機会が増えてきました.このようなロボットが,人と対話しながら成長する知的システムについて研究しています.個々の人に寄り添ったロボットサービスを提供するためには,言葉による対話だけでなく,行動や表情の変化など,マルチモーダルに人を理解する必要があると考えています.例えば「目は口ほどにものを言う」と言われるように,人は言葉だけでなく,目の動きから相手の心情を推し量ることができます.人と同じように,ロボットもいろいろな角度から人を理解することができれば,人とロボットの関係はさらに深いものになるのではないでしょうか.そこで,発話データやセンサ情報と人工知能を組み合わせ,個々のユーザの内的状態を推定する手法を研究しています.さらに,位置情報やスマートウォッチの心拍データなどの複数のセンサと連携した,対話システムの研究も進めています.このような研究を通して,日々変化する人の状態に応じてサービスを提供し,時には導いてくれる,そんなパートナーとしての知的ロボットを目指しています.