Siri はテストで質問の 83% に正解し、Alexa には勝ったものの、Google アシスタントには及ばなかった
スマートフォン上の Google アシスタント、 Siri 、Alexa を比較する年次テストで、Loup Ventures のジーン・マンスター氏は、「Siri」が質問の 83% に正しく答えることができ、Alexa には勝ったものの、Google アシスタントには後れを取ったことを発見しました。
Munster 氏はテスト中に各デジタル アシスタントに 800 の質問をし、それぞれの回答を比較しました。 Alexa は質問の 79.8% に正解しましたが、Google アシスタントは質問の 92.9% に正解しました。
昨年と比較して、「Siri」は改善が見られました。 2018 年 7 月のテストでは、「Siri」は質問の 79 パーセントに正解しましたが、今回は質問の 83 パーセントが正解でした。昨年のAlexaの利用率は61%、Googleアシスタントの利用率は86%だったので、デジタル音声アシスタントは全体的に改善されている。
このテストでは特にスマートフォンを対象とし、iPhone と Android デバイスを比較しました。マンスター氏は、基礎となるテクノロジーは似ているものの、「ユースケースが異なる」ため、スマートフォンはスマートスピーカーから切り離されていると述べた。 「Siri」は、iOS 12.4 を実行している
iPhone
、Pixel XL の Google アシスタント、iOS アプリの Alexa でテストされました。
質問は 5 つのカテゴリに基づいており、すべてのアシスタントに同じ 800 の質問が行われました。各質問セットは、「デジタル アシスタントの能力と実用性を総合的にテストする」ように設計されています。各カテゴリのサンプル質問の一部:
- 地元 – 一番近いコーヒーショップはどこですか?
- 商業 – ペーパータオルをもっと注文してください。
- ナビゲーション – バスでアップタウンに行くにはどうすればよいですか?
- 情報 – 今夜ツインズは誰と対戦しますか?
- コマンド – 今日の午後 2 時にジェロームに電話することをリマインドして
「Siri」は、コマンド、ローカル、ナビゲーションのカテゴリで最も優れた成績を収めましたが、情報とコマースのカテゴリではあまりうまくいきませんでした。実際、「Siri」はコマンド部門では勝利しましたが、他の部門ではGoogleアシスタントの後塵を拝しました。
![]()
Siri は、通話、テキストメッセージ、電子メール、カレンダー、音楽などの電話関連機能でさらに便利であることが証明され続けています。電話機の OS に組み込まれている Siri と Google アシスタントはどちらも、コマンド セクションで Alexa をはるかに上回っています。
マンスター氏は、過去数年間に各音声アシスタントが示した顕著な改善を踏まえると、継続的な改善率は「驚きを与え続けている」と述べた。
将来的には、Loup Ventures は各音声アシスタントの機能セットを拡張することでさらなる改善が見られると期待しています。











