アイシン、ドライバーとの対話型自動運転車開発

雑誌に載らない話vol260
アイシン精機は2018年10月25日、名古屋大学、徳島大学との共同プロジェクトで、音声・視線・ジェスチャーを用いて操作する自動運転車を開発したと発表した。
アイシン、ドライバーとの対話型自動運転車開発

名古屋大学・大学院の武田一哉教授、竹内栄二朗准教授、石黒祥生特任准教授らの研究グループが、徳島大学、アイシン精機と共同し、さらに豊田中央研究所の協力により、自動運転オープンソースソフトウェア「Autoware」を利用して音声認識・顔画像認識・ジェスチャー認識を組み合わせたマルチモーダル・インタフェースで自動車を直観的に操作するシステムを開発したもの。なお、この研究は、平成28年度から始まった科学技術振興機構「産学共創プラットフォーム共同研究推進プログラム」の支援のもとで行なわれている。

今回の研究、開発のポイントは、自動運転車を操作できるマルチモーダル・インタフェースを用い、音声・視線・ジェスチャーで「タクシー運転手に指示するように」自動運転車を操作可能という点だ。そのために音声認識技術、視線・顔向き・口動作認識技術、ジェスチャー認識などの技術を採用。将来の「機械-人間」協奏の一つの在り方を示している。例えば「そこを曲がって」と指をさせば、人間の意図するところで曲がってくれるなど、コミュニケーションを取りながら操作できる自動運転車が実現しているのだ。


The Mortor Weekly

ページのトップに戻る