■動画
マルチモーダル対話型自動運転 https://youtu.be/EkVdZUEEFwM

「完全無人タクシー」は自動運転車によって実現が期待されている有望なサービス分野の1つだ。海外ではグーグルの兄弟会社であるウェイモ(Waymo)が年内にも商用サービスの開始を予定しており、今夏には東京都内でも日の丸タクシーとZMPによる実証実験が実施された。

現在想定されている自動運転タクシーでは、カーナビのように具体的な住所や建物名などで目的地を指定する。だから、現在の有人タクシーで私たちが当たり前のようにやっているように、「そこ曲がって」「その先に停めて」と音声やジャスチャーなどを交えながら柔軟な指示を飛ばすことはできない。

名古屋大学と徳島大学、アイシン精機は共同で、自動運転オープンソースソフトウェア「オートウェア(Autoware)」を利用し、音声・視線・ジェスチャーで操作できる自動運転車を開発した。音声認識、顔画像認識、ジャスチャー認識を組み合わせた複数の入力を同時並行的に乗客の「意図」として理解し、処理できるのが特徴。乗客はタクシーのドライバーへ指示するようにコミュニケーションを取りながら自動運転車を操作できるという。

こうしたさまざまな入力内容を受け付け、機器の操作に反映するインターフェイスは「マルチモーダル・インタフェース」と呼ばれる。自動運転に限らず、ロボットやAIと人間のと協調・共生を実現する上でも活用が期待できそうだ。

https://www.technologyreview.jp/nl/a-self-driving-car-that-can-be-operated-as-if-to-instruct-a-taxi-driver/