米Googleは2019年5月7日(米国時間)、カリフォルニア州マウンテンビューで開催中の開発者向け年次イベント Google I/O において、Google Assistant の音声処理をスマホ端末内(ローカル)で行うことを可能にし、応答処理を高速化すると発表した。従来はネットワーク経由で行っていた。
複雑な音声処理を行うためには数百ギガバイトのストレージとインターネット接続が必要だった。これを深層学習の革新により500MB未満に縮小し、デバイスで処理することが可能になったという。
Hey Google のウェイクワードなしで Assistant が高速処理
音声をデバイスで処理することが可能になったことで高速化が実現、Google は "Next Generation of Assistant" であると説明、従来比で10倍以上の速度で音声を処理できるという。会場では、Google Assistant に「カレンダーを開いて」「電卓を出して」「写真を開いて」「タイマー10分をセットして」「今日の天気は?」「明日(の天気は)どう?」「John Legend の Twitter を見せて」「Lyft で私のホテルまで(Get a lyft ride to my hotel)」「セルフィーするよ(Take a selfie)」と連続してさまざまなアプリに渡るコマンドを出しながらも、Assistant は高速に、正しく処理する実演デモが行われた。これらは、"Hey Google" のウェイクワードなしで応答している。
複雑な音声シナリオも処理可能に
複数のアプリにまたがる複雑な音声シナリオを Google Assistant が円滑に処理する実演デモとして、友人にメールの返信を書いて送信するまでのタスクを音声で行う様子も披露された。メール本文を発話している最中に"set subject to~" というコマンドを入れると自動的にメール件名が入り、最後に "Send it" と言うとメールが送信された。
デバイス内で処理可能になったことでネットワーク遅延の影響を受けることがない点で、競合の Siri や Cortana、Alexa に対する優位性となるだろう。本機能は今年後半に予定される新しい Pixel 端末に搭載される予定だ。