グーグル、曖昧な指示を理解し対応できるロボットをテスト中--AI言語モデルを応用 - CNET Japan
https://japan.cnet.com/article/35191952/

Stephen Shankland (CNET News) 翻訳校正: 高森郁哉 (ガリレオ)2022年08月17日 12時41分

Googleは、ロボットが現実世界の複雑さに対処するための驚くべき新たな手法を見つけた。それは、ロボットに言語を理解する方法を教えることだ。

https://japan.cnet.com/storage/2022/08/17/02caa90f55ff80375c9d1ffbda3d1b41/20220811-google-palm-saycan-robot-01.jpg
提供:Stephen Shankland/CNET

Googleは、親会社Alphabetのロボット事業部門Everyday Robotsのロボットに、言語を扱う最新の人工知能(AI)技術「PaLM」(Pathways Language Modelの略)を組み合わせた。その結果生まれた「PaLM-SayCan」という技術を、米国時間8月16日に公開した。

この技術により、GoogleのAI言語モデルに現実世界に関する知識が十分に組み込まれると、ロボットは人間の曖昧な指示を解釈し、それに応える一連の動作を組み立てられるようになる。これは、自動車の組み立てラインでフロントガラスを取り付けるような厳密に制御された状況で、大部分のロボットが正確にスクリプトで指定された動作に従っているのとは対照的だ。

 PaLM-SayCanは研究プロジェクトだが、すぐに実用化できそうなほどの成果をあげている。同社は、予測不可能で複雑な実生活の中で役立つロボットを開発するため、比較的制御された実験環境ではなく、実際のオフィス内のキッチンでテストを行ってきた。テスラの人型ロボット「Tesla Bot」(「Optimus」)、Boston Dynamicsの「SpotMini」、Amazonの「Astro」などのプロジェクトと同様に、この技術はロボットがやがてSFの世界から現実のものとなる可能性を示している。

 PaLM-SayCanは、AIの研究者から「飲み物をこぼしたので、手伝ってくれる?」と頼まれると、オフィス内のキッチンのフロアを滑らかに車輪で移動し、デジタルカメラの映像でカウンターに置かれたスポンジを見つけ、モーター駆動のアームでつかみ上げて、研究者の所まで運ぶ。また、「ペプシ」と「コカコーラ」の缶を判別したり、引き出しを開けてポテトチップスの袋を探したりもできる。(略)



※省略していますので全文はソース元を参照して下さい。