0001ムヒタ ★
2018/04/29(日) 10:43:31.20ID:CAP_USER約5,000の質問でAIアシスタントの能力を比較!
各社のAIアシスタントが、どの程度質問に的確に答えられるを比較した調査結果をアメリカの調査会社Stone Templeが発表しました。
調査は、以下の5タイプのAIアシスタントに4,942の質問を投げかけて、回答を比較しています。
Alexa (Amazon)
Cornata (Microsoft) 搭載のスマートスピーカー「Invoke」
Google Assistant (Google) Google Home版
Google Assistant (Google) スマートフォン版
Siri (Apple)
比較にあたっては、「言葉での回答があったか」「データベースから回答しているか」「Wikipediaなど外部ソースから回答しているか」「AIアシスタントが質問を理解できなかった頻度」「回答が間違っていた回数」といった指標で評価しています。
なお、各社のAIアシスタントには、レストランの予約、商品の発注といった機能もありますが、調査の対象となっていません。
質問に回答しようとする割合、Siriは最下位
質問を理解し、回答しようとした割合である「回答試行率」)(濃い緑と、そのうち一発で質問に十分な回答をした割合を示す「完全回答率」(薄い緑)を示したのが以下のグラフです。
なお、回答試行率には、「まだ勉強中です」「すみません、よく分かりません」といった回答はカウントされません。
https://iphone-mania.jp/wp-content/uploads/2018/04/StoneTemple-1.jpg
Google Assistantのスマートフォン版が回答試行率、完全回答率ともにトップに立っています。
一方、Siriは回答試行率が約40%と、他のAIアシスタントと比べて低くなっています。
以下ソース
https://iphone-mania.jp/news-210765/