ロボット分野におけるAI(人工知能)の活用が、研究段階から実証段階に進んできている。特に、産業分野におけるロボットの適用が盛んな日本では、注目すべき分野だ。日本ロボット学会の理事と人工知能学会の理事を務めてきた、早稲田大学 尾形哲也教授に、ロボットにおけるAI活用の現状とこれからを尋ねた。(聞き手は、森側 真一=日経BP総研 イノベーションICTラボ 上席研究員 兼 ビジネスAIセンター長)

ロボットにおけるAI活用は現在どの程度進んでいますか。

 既に、AIによる自然言語処理で人と対話する家庭用ロボットや、AIによる画像認識でモノをピッキングするなど製造現場でのロボット活用、農業分野でのドローンやオフィスの警備、といった様々な分野で進んでいます。ただ、本格的なロボットとAIの融合は企業での応用が始まったばかりです。

 従来は画像を認識する目と、音声を聞く耳を活用したものでした。ロボットではさらに、手足によるつかんだ感覚(力覚)や触った感覚(触覚)など身体性を用いたところでAI、特にディープラーニング技術を生かすことができます。これらの応用が重視されるようになってきました。

早稲田大学 尾形 哲也 氏
1995年、早稲田大学大学院理工学研究科修士課程修了。日本学術振興会特別研究員、早稲田大学助手、理化学研究所脳科学総合研究センター研究員、京都大学大学院情報学研究科准教授を経て、2012年より現職。17年以降、産業技術総合研究所人工知能研究センター特定フェロー(クロスアポイントメント)なども務める。日本ロボット学会理事、人工知能学会理事を歴任。また17年より日本ディープラーニング協会理事。(撮影:菊池 くらげ、以下同)
[画像のクリックで拡大表示]

 例を挙げましょう。実証実験で、タオルを折り畳むロボットを制作しました。当初のデモンストレーションでは画像認識と動作のみの処理で、ディープラーニングを用いないものでした。この場合、タオルを3Dモデリングし、カメラで撮った画像から3Dモデルにマッチング、ロボットのアームとタオルの距離を測ってアームを制御する、といったプログラムが必要になります。

 こうした画像認識は処理に時間がかかります。これに対し、ディープラーニングによってこうしたプログラムを省略し処理時間を劇的に短くでき、なおかつタオル以外でも応用できます。実際、このロボットは本を畳むという学習をしていませんが、“本”をタオルとして畳むといった作業が可能です。タオルのモデルを使わず、ロボットのAIは、数秒後に何が起こるかを予想してアームを動かしているのです。

 その後、エクサウィザーズ、デンソーウェーブ、ベッコフオートメーションとの共同研究においては、映像とともにロボットが備える触覚センサーのデータを取り、力覚を利用するロボットの開発に取り組みました。これにより、タオルを折り畳むだけではなくサラダの盛り付けなどの動作も、ロボットが安定して行えるようになります。

 こうしたディープラーニングを用いたロボット動作の学習に対する研究は、各企業と共同で進めています。例えば、日立製作所とは「ドアを開けて通過する」ロボットを開発しました。また我々の技術を応用する形で、エクサウィザーズ、大成建設、デンソーウェーブ、ベッコフオートメーションは「指定した分量の液体を計量して容器に移す」ロボットを開発しています。

ロボット分野での研究は、どういった段階にありますか。

 こうしたディープラーニングを活用したロボット動作の生成研究は、ここ2年くらいに急速に進んできた分野です。

 ロボットの歴史を振り返ると、1980年代に第2次ロボットブームが起こりました。産業ロボットが本格的に普及し、工場内の決まったところで決まった作業を行うために活用されました。産業ロボットの生産台数はいまだに日本が世界1位です。1990年代の終わりごろから、ソニーのaibo(アイボ)などコミュニケーションするロボットが出始めました。これが第3次ロボットブームです。二足歩行を実現したホンダのASIMO(アシモ)によって、多くの人がロボットの未来を想像しました。

 ところがここからなかなか難しい状況が続きました。コミュニケーションや二足歩行ができることにどういう意味があるのか、ただ歩けるだけで知能的なことはできない、という批判です。

この先は日経クロステック Active会員の登録が必要です

日経クロステック Activeは、IT/製造/建設各分野にかかわる企業向け製品・サービスについて、選択や導入を支援する情報サイトです。製品・サービス情報、導入事例などのコンテンツを多数掲載しています。初めてご覧になる際には、会員登録(無料)をお願いいたします。