AIアシスタントがユーザーの質問を理解し、正確に回答する能力を比較した調査結果が発表されました。Google Assistantが高い成績を残し、AmazonのAlexaが大きく成績を伸ばす一方、Siriは質問を理解して回答した割合が低く、誤答率が高い結果となりました。

約5,000の質問でAIアシスタントの能力を比較!
各社のAIアシスタントが、どの程度質問に的確に答えられるを比較した調査結果をアメリカの調査会社Stone Templeが発表しました。

調査は、以下の5タイプのAIアシスタントに4,942の質問を投げかけて、回答を比較しています。


Alexa (Amazon)
Cornata (Microsoft) 搭載のスマートスピーカー「Invoke」
Google Assistant (Google) Google Home版
Google Assistant (Google) スマートフォン版
Siri (Apple)

比較にあたっては、「言葉での回答があったか」「データベースから回答しているか」「Wikipediaなど外部ソースから回答しているか」「AIアシスタントが質問を理解できなかった頻度」「回答が間違っていた回数」といった指標で評価しています。

なお、各社のAIアシスタントには、レストランの予約、商品の発注といった機能もありますが、調査の対象となっていません。

質問に回答しようとする割合、Siriは最下位
質問を理解し、回答しようとした割合である「回答試行率」)(濃い緑と、そのうち一発で質問に十分な回答をした割合を示す「完全回答率」(薄い緑)を示したのが以下のグラフです。

なお、回答試行率には、「まだ勉強中です」「すみません、よく分かりません」といった回答はカウントされません。
https://iphone-mania.jp/wp-content/uploads/2018/04/StoneTemple-1.jpg

Google Assistantのスマートフォン版が回答試行率、完全回答率ともにトップに立っています。

一方、Siriは回答試行率が約40%と、他のAIアシスタントと比べて低くなっています。
以下ソース
https://iphone-mania.jp/news-210765/