JP2020529044A - 選択システム及び選択方法 - Google Patents

選択システム及び選択方法 Download PDF

Info

Publication number
JP2020529044A
JP2020529044A JP2020504154A JP2020504154A JP2020529044A JP 2020529044 A JP2020529044 A JP 2020529044A JP 2020504154 A JP2020504154 A JP 2020504154A JP 2020504154 A JP2020504154 A JP 2020504154A JP 2020529044 A JP2020529044 A JP 2020529044A
Authority
JP
Japan
Prior art keywords
voice
voice command
identifying
preferred
vehicle infotainment
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020504154A
Other languages
English (en)
Other versions
JP7254763B2 (ja
Inventor
ムスタファ ターカー フィリク,
ムスタファ ターカー フィリク,
ニルス レンケ,
ニルス レンケ,
レイムン エミール シュマルド,
レイムン エミール シュマルド,
Original Assignee
セレンス オペレーティング カンパニー
セレンス オペレーティング カンパニー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by セレンス オペレーティング カンパニー, セレンス オペレーティング カンパニー filed Critical セレンス オペレーティング カンパニー
Publication of JP2020529044A publication Critical patent/JP2020529044A/ja
Application granted granted Critical
Publication of JP7254763B2 publication Critical patent/JP7254763B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output
    • G06F3/167Audio in a user interface, e.g. using voice commands for navigating, audio feedback
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/027Concept to speech synthesisers; Generation of natural phrases from machine-based concepts
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L13/00Speech synthesis; Text to speech systems
    • G10L13/02Methods for producing synthetic speech; Speech synthesisers
    • G10L13/04Details of speech synthesis systems, e.g. synthesiser structure or memory management
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • Human Computer Interaction (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Acoustics & Sound (AREA)
  • General Health & Medical Sciences (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Navigation (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

車両インフォテインメントシステムにおいてユーザから音声コマンドを受信するための方法、コンピュータプログラム製品、及びコンピューティングシステムが開示され、該車両インフォテインメントシステムは外部システムとのインタフェースとなるように構成される。音声コマンドを実行するため優先システムが特定される。音声コマンドは優先システムにルーティングされ、該優先システムは車両インフォテインメントシステム及び外部システムから選択される。【選択図】図1

Description

[関連出願]
本願は、2017年7月28日に出願した米国特許出願第15/663,280号の優先権を主張し、そのすべての内容が言及によって本明細書に援用される。
[技術分野]
本開示は、選択システム、より具体的には車両用インフォテインメントシステム内で使用される選択システムに関する。
現在の自動車は高度にコンピュータ化されている。さらに、自動車の新規購入者は走行中に常に接続できるカー・エレクトロニクスに非常に関心を抱いているということが調査によって示されている。ゆえに、自動車製造業者は、現在、ユーザに多様なタイプの機能を提供する車両内の高度な音声制御インフォテインメントシステムを提供している。このインフォテインメントシステムが提供する具体的な一機能は、外部システム(スマートフォン及びタブレット型コンピュータなど)とのインタフェースとなることである。
残念ながら、このインフォテインメントシステムのための音声インタフェースは、外部システムによって提供される機能とインフォテインメントシステムによって提供される機能との間の選択が困難であるとされているため、十分ではないことがある。
一態様において、コンピュータ実装方法は、コンピューティングデバイスにおいて実行され、車両インフォテインメントシステムにおいてユーザから音声コマンドを受信することを含み、車両インフォテインメントシステムは外部システムとのインタフェースとなるように構成される。音声コマンドを実行するため、優先システムが特定される。音声コマンドは優先システムにルーティングされ、優先システムは車両インフォテインメントシステム及び外部システムから選択される。
以下の特徴の1つ以上を含むことができる。外部システムは、携帯電話、スマートフォン、タブレット型コンピューティングデバイス、携帯型コンピューティングデバイス、及びハンドヘルドエンタテインメントデバイスの1つ以上を含むことができる。音声コマンドを実行するため優先システムを特定することは、音声コマンドに関連する定義システムプリファレンス及び音声コマンドに関連する学習システムプリファレンスの1つ以上に少なくとも部分的に基づいて優先システムを特定することを含むことができる。音声コマンドを実行するため優先システムを特定することは、音声コマンド内に含まれる埋込みシステムプリファレンスに少なくとも部分的に基づいて優先システムを特定することを含むことができる。音声コマンドを実行するため優先システムを特定することは、車両インフォテインメントシステム及び外部システムの1つにおける動作中セッションの存在に少なくとも部分的に基づいて優先システムを特定することを含むことができる。音声コマンドを実行するため優先システムを特定することは、ユーザに音声による質問を行うことと、ユーザになされた音声による質問に関してユーザから受信した音声による応答に少なくとも部分的に基づいて優先システムを特定することとを含むことができる。音声コマンドを実行するため優先システムを特定することは、車両インフォテインメントシステム及び外部システムの双方に音声コマンドを提供することと、車両インフォテインメントシステム及び外部システムの1つ以上から受信した応答に少なくとも部分的に基づいて優先システムを決定することとを含むことができる。外部システムにおけるテキストを音声にする声の性別を判定することができる。車両インフォテインメントシステムにおけるテキストを音声にする声の性別は、外部システムにおけるテキストを音声にする声の性別に基づいて設定することができる。
他の態様において、コンピュータプログラム製品はコンピュータ可読媒体に存在し、そこに保存した複数の命令を有する。命令は、プロセッサによって実行されると、プロセッサに、車両インフォテインメントシステムにおいてユーザから音声コマンドを受信することを含む操作を行わせ、車両インフォテインメントシステムは外部システムとのインタフェースとなるように構成される。音声コマンドを実行するため、優先システムが特定される。音声コマンドは優先システムにルーティングされ、優先システムは車両インフォテインメントシステム及び外部システムから選択される。
以下の特徴の1つ以上を含むことができる。外部システムは、携帯電話、スマートフォン、タブレット型コンピューティングデバイス、携帯型コンピューティングデバイス、及びハンドヘルドエンタテインメントデバイスの1つ以上を含むことができる。音声コマンドを実行するため優先システムを特定することは、音声コマンドに関連する定義システムプリファレンス及び音声コマンドに関連する学習システムプリファレンスの1つ以上に少なくとも部分的に基づいて優先システムを特定することを含むことができる。音声コマンドを実行するため優先システムを特定することは、音声コマンド内に含まれる埋込みシステムプリファレンスに少なくとも部分的に基づいて優先システムを特定することを含むことができる。音声コマンドを実行するため優先システムを特定することは、車両インフォテインメントシステム及び外部システムの1つにおける動作中セッションの存在に少なくとも部分的に基づいて優先システムを特定することを含むことができる。音声コマンドを実行するため優先システムを特定することは、ユーザに音声による質問を行うことと、ユーザになされた音声による質問に関してユーザから受信した音声による応答に少なくとも部分的に基づいて優先システムを特定することとを含むことができる。音声コマンドを実行するため優先システムを特定することは、車両インフォテインメントシステム及び外部システムの双方に音声コマンドを提供することと、車両インフォテインメントシステム及び外部システムの1つ以上から受信した応答に少なくとも部分的に基づいて優先システムを決定することとを含むことができる。外部システムにおけるテキストを音声にする声の性別を判定することができる。車両インフォテインメントシステムにおけるテキストを音声にする声の性別は、外部システムにおけるテキストを音声にする声の性別に基づいて設定することができる。
他の態様において、コンピューティングシステムは、車両インフォテインメントシステムにおいてユーザから音声コマンドを受信することを含む操作を行うように構成されたプロセッサ及びメモリを含み、車両インフォテインメントシステムは外部システムとのインタフェースとなるように構成される。音声コマンドを実行するため、優先システムが特定される。音声コマンドは優先システムにルーティングされ、優先システムは車両インフォテインメントシステム及び外部システムから選択される。
以下の特徴の1つ以上を含むことができる。外部システムは、携帯電話、スマートフォン、タブレット型コンピューティングデバイス、携帯型コンピューティングデバイス、及びハンドヘルドエンタテインメントデバイスの1つ以上を含むことができる。音声コマンドを実行するため優先システムを特定することは、音声コマンドに関連する定義システムプリファレンス及び音声コマンドに関連する学習システムプリファレンスの1つ以上に少なくとも部分的に基づいて優先システムを特定することを含むことができる。音声コマンドを実行するため優先システムを特定することは、音声コマンド内に含まれる埋込みシステムプリファレンスに少なくとも部分的に基づいて優先システムを特定することを含むことができる。音声コマンドを実行するため優先システムを特定することは、車両インフォテインメントシステム及び外部システムの1つにおける動作中セッションの存在に少なくとも部分的に基づいて優先システムを特定することを含むことができる。音声コマンドを実行するため優先システムを特定することは、ユーザに音声による質問を行うことと、ユーザになされた音声による質問に関してユーザから受信した音声による応答に少なくとも部分的に基づいて優先システムを特定することとを含むことができる。音声コマンドを実行するため優先システムを特定することは、車両インフォテインメントシステム及び外部システムの双方に音声コマンドを提供することと、車両インフォテインメントシステム及び外部システムの1つ以上から受信した応答に少なくとも部分的に基づいて優先システムを決定することとを含むことができる。外部システムにおけるテキストを音声にする声の性別を判定することができる。車両インフォテインメントシステムにおけるテキストを音声にする声の性別は、外部システムにおけるテキストを音声にする声の性別に基づいて設定することができる。
1つ以上の態様の詳細は、添付の図面及び以下の詳細な説明に示される。他の特徴及び利点は、詳細な説明、図面、及び特許請求の範囲から明らかになる。
図1は、本開示の実施形態におけるシステム選択プロセスを実行するインフォテインメントシステムの模式図である。 図2は、本開示の実施形態における図1のシステム選択プロセスのフローチャートである。
種々の図面の同様の符号は同様の要素を示す。
システム概要
図1においてシステム選択プロセス10が示される。システム選択プロセス10は車両インフォテインメントシステム12(コンピューティングデバイス)に存在するとともに車両インフォテインメントシステム12によって実行することができる。車両インフォテインメントシステム12の例は、車両ナビゲーションシステム、車両音楽システム、車両ビデオシステム、及び車両クライメートコントロールシステムなどの車両に組み込まれる任意のタイプのインフォテインメントシステムを含むことができる。
車両インフォテインメントシステム12に接続された記憶デバイス14に保存することができるシステム選択プロセス10の命令セット及びサブルーチンは、車両インフォテインメントシステム12内に含まれる1つ以上のプロセッサ(図示せず)又は1つ以上のメモリアーキテクチャ(図示せず)によって実行することができる。記憶デバイス14の例は、ハードディスクドライブ、RAIDデバイス、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、及びあらゆる形態のフラッシュメモリ記憶デバイスを含むことができるが、これらに限定されない。車両インフォテインメントシステム12はオペレーティングシステムを実行することができ、その例は、Microsoft Windows(登録商標)、Android(登録商標)、iOS、Linux(登録商標)、又はカスタムオペレーティングシステムを含むことができるが、これらに限定されない。
車両インフォテインメントシステム12は、ユーザ(例えばユーザ16)にとって興味のある/有用なものであり得る多様な機能を実行するように構成することができる。そうした機能の例は、ラジオ機能(例えば地上ラジオ局や衛星ラジオ局を再生可能なもの)、オーディオ機能(例えばオーディオを再生可能なものであって、このオーディオはディスクによる又は記憶デバイス14においてローカルに保存したものであり得る)、ビデオ機能(例えばビデオを再生可能なものであって、このビデオはディスクによる又は記憶デバイス14においてローカルに保存したものであり得る)、及びナビゲーション機能(例えばナビゲーション/ガイダンス機能の実行が可能なもの)を含むことができるが、これらに限定されない。
車両インフォテインメントシステム12は、上述の機能の選択を可能にする複数のボタン(例えば物理的ボタン又は電子式ボタン)を含むことができる。例えば、上述のラジオ機能は、「ラジオ」ボタン18によって選択可能であり、上述のオーディオ機能は「オーディオ」ボタン20によって選択可能であり、上述のビデオ機能は「ビデオ」ボタン22によって選択可能であり、上述のナビゲーション機能は「ナビ」ボタン24によって選択可能である。
車両インフォテインメントシステム12は、1つ以上の外部システム(例えば外部システム26)とのインタフェースとなるように構成することができる。外部システム26の例は、携帯電話、スマートフォン、タブレット型コンピューティングデバイス、携帯型コンピューティングデバイス、リモートコンピューティングデバイス、ハンドヘルドエンタテインメントデバイス(例えばゲームデバイスなど)、又はクラウドサービス/プラットフォームを含むことができるが、これらに限定されない。外部システム26は、車両インフォテインメントシステム12とのインタフェースとなるとき、結線接続(例えばUSBケーブル28)によって車両インフォテインメントシステム12と解放可能に接続することができる。あるいは、外部システム26は、外部システム26と車両インフォテインメントシステム12のアンテナ32との間に得られる無線通信チャンネル30を介して車両インフォテインメントシステム12と無線接続することができる。無線通信チャンネル30の例は、Bluetooth(登録商標)通信チャンネルを含むことができるがこれに限定されない。当該技術分野で知られているように、Bluetoothは、近距離無線接続を使用して、例えば携帯電話、コンピュータ、及び個人情報端末を相互接続させる通信業の規格である。
車両インフォテインメントシステム12及び/又は外部システム26は、外部ネットワーク(例えばネットワーク34)に無線接続する/外部ネットワークにアクセスするように構成することができる。ネットワーク34の例は、インターネット、セルラーネットワーク、WiFi(登録商標)ネットワーク、及び/又はクラウドベースコンピューティングプラットフォームを含むことができるが、これらに限定されない。
上述のように、車両インフォテインメントシステム12は、ユーザ(例えばユーザ16)にとって興味のある/有用なものであり得る多様な機能を実行するように構成することができる。これらの機能の一部は、外部システム26に存在する(によって提供される)機能であり得る。そうした機能の例は、電話機能(例えば車両インフォテインメントシステム12を介して外部システム26を使用して電話をかけることを可能にするもの)、及びシステムアクセス機能(例えばユーザ16が外部システム26のコンテンツ又は機能にアクセス可能にするもの)を含むことができる。したがって、上述の電話機能は、「電話」ボタン36によって選択可能であり、上述のシステムアクセス機能は「外部」ボタン38によって選択可能であり得る。また、車両インフォテインメントシステム12は、そうした機能の使用を実現するディスプレイスクリーン40及び1つ以上のノブ/ダイアル42、44を含むことができる。
車両インフォテインメントシステム12は、マイクロホン組立体46及び音声をテキストにする変換システム48(マサチューセッツ州バーリントンのニュアンスコミュニケーションズにより販売されているものなど)を含むことができる。したがって、車両インフォテインメントシステム12は、(この例では)ユーザ16によって発話されて提供される音声コマンド(例えば音声コマンド50)を受け取るように構成することができる。以下により詳細に記載されるように、これらの音声コマンド(例えば音声コマンド50)は、ユーザ16がハンズフリーで上述の機能にアクセスして制御することができるように構成することができる。
残念ながら、(この例では)車両インフォテインメントシステム12及び外部システム26が双方ともユーザ16に機能を提供することができることから(これらの種々の機能は重複することがある)、車両インフォテインメントシステム12及び外部システム26のいずれでも提供及び処理することができ得る機能に対して音声コマンド(例えば音声コマンド50)が受信されるとき混乱が起こり得る。例えば、音声コマンド(例えば音声コマンド50)が走行方向を尋ねるものである場合、このナビゲーション機能は、車両インフォテインメントシステム12内に含まれるナビゲーションシステム又は外部システム26にインストールされたナビゲーションアプリケーション(例えばWaze(登録商標)、Apple(登録商標)マップ、Google(登録商標)マップ)のいずれでも提供されることができる。したがって、システム選択プロセス10がこれらの音声コマンド(例えば音声コマンド50)をインターセプトするように構成されて、音声コマンドを適切な(又は優先される)システムにルーティングすることができる。
また図2を参照すると、ユーザ16が運転しており、音声コマンド50を出す以下の例を想定する。例えば、ユーザ16は、車両インフォテインメントシステム12が設置された車両内で音声コマンドボタン(図示せず)を選択し、そして、ユーザ16は音声コマンド50を言うことができる。あるいは、ユーザ16は、起動ワード/フレーズ(例えば「ヘイ、Siri(登録商標)」又は「ヘイ、Alexa(登録商標)」)を言い、そして音声コマンド50を言うことができる、又は、ユーザ16は、単に音声コマンド50を言い、システム選択プロセス10が要求を理解することができる、又は、ユーザ16は音声コマンド50を言うことでシステム選択プロセス10によってなされたプロンプト/要求に応答することができる。そして、システム選択プロセス10は、車両インフォテインメントシステム12において(ユーザ16から)音声コマンド50を受信する100ことができる。
音声コマンド50の例は、地上ラジオ局を再生すること、衛星ラジオ局を再生すること、音楽ライブラリ内の音楽を再生すること、所望の目的地への走行方向を取得すること、配偶者に電話をかけること、地域のガソリンスタンドを探すこと、地域の食事をするところを探すこと、及び株式相場を受信することに関するコマンドを含むことができるが、これらに限定されない。
音声コマンド50を受信する100際、システム選択プロセス10は、音声コマンド50を実行する優先システムを特定する102ことができ、この優先システムは、例えば車両インフォテインメントシステム12及び外部システム26から選択することができる。優先システムが特定される102と、システム選択プロセス10は音声コマンド50をこの優先システムにルーティングする104ことができる。
優先システムの特定
優先システムがシステム選択プロセス10によって特定される102方法は、種々の方法を使用してなすことができる。例えば、一部のシステムプリファレンスは事前に定義される一方、他のシステムプリファレンスは学習させることができる。さらに、一部の音声コマンドはシステム選択プロセス10には未知のものであり、さらなる質問を必要とし得る。
定義プリファレンス
音声コマンド(例えば音声コマンド50)を実行するため(車両インフォテインメントシステム12及び外部システム26から選択される)優先システムを特定する102とき、システム選択プロセス10は、音声コマンドに関連する定義システムプリファレンス及び音声コマンドに関連する学習システムプリファレンスの1つ以上に少なくとも部分的に基づいて優先システムを特定する106ことができる。
システム選択プロセス10が、音声コマンドに関連する定義システムプリファレンスに少なくとも部分的に基づいて優先システムを特定する106構成において、ルックアップテーブル(例えばルックアップテーブル52)を使用することができる。例えば、システム選択プロセス10は、ルックアップテーブル52にアクセスすることができ、ルックアップテーブル52は種々の音声コマンドを例えば車両インフォテインメントシステム12又は外部システム26の種々の機能と関連させることができる。ルックアップテーブル52はローカルで保存される、又はリモートで保存されることができる。例えば、ルックアップテーブル52は、車両インフォテインメントシステム12に接続された記憶デバイス14内にローカルで保存される(又はそこに保存される)ことができる。あるいは、ルックアップテーブル52はネットワーク34内にリモートで保存されることができる。ルックアップテーブル52内に定義された関連性は、ユーザ(例えばユーザ16)によって定義される、車両インフォテインメントシステム12の製造者によって定義される、又は車両インフォテインメントシステム12が設置される車両の製造業者によって設計されることができる。
例えば、ルックアップテーブル52内に定義されるのエントリタイプのサンプルは、
ナビゲーション音声コマンド→ローカル機能
地上ラジオ音声コマンド→ローカル機能
電話音声コマンド→リモート機能
衛星ラジオ音声コマンド→リモート機能、を含むことができるがこれらに限定されない。
したがって、音声コマンドに関連する定義システムプリファレンスに(少なくとも部分的に)基づいて優先システムを特定する106構成において、音声コマンド50がイエローストーン国立公園への走行方向を要求する場合、システム選択プロセス10は、ルックアップテーブル52を処理して、音声コマンド50を、車両インフォテインメントシステム12(すなわち優先システム)内に含まれるナビゲーション機能にルーティングする104ことができる。さらに、音声コマンド50が96.5FM(すなわち地上ラジオ局)の再生を要求する場合、システム選択プロセス10は、ルックアップテーブル52を処理して、音声コマンド50を、車両インフォテインメントシステム12(すなわち優先システム)内に含まれるラジオ機能にルーティングする104ことができる。一方、音声コマンド50が電話番号212−555−1212に電話をかけることを要求する場合、システム選択プロセス10は、ルックアップテーブル52を処理して、音声コマンド50を、リモートシステム26(すなわち優先システム)内に含まれる電話機能にルーティングする104ことができる。さらに、音声コマンド50が「シリウスサマージャズ」(すなわち衛星ラジオ局)の再生を要求する場合、システム選択プロセス10は、ルックアップテーブル52を処理して、音声コマンド50を、リモートシステム26(すなわち優先システム)内に含まれる衛星ラジオ機能にルーティングする104ことができる。リモートシステム26内に含まれる衛星ラジオ機能は、リモートシステム26において実行される1つ以上のアプリケーション(例えばアプリケーション54、56、58、60)を介してリモートシステム26によって実現することができる。
音声コマンド50が、a)車両インフォテインメントシステム12又は外部システム26のいずれでも行われ得る機能を要求し、b)どの優先システムがその特定のタイプの機能に関連するかに関してルックアップテーブル52が何も示さないという場合、定義システムレベルデフォルトを適用することができる。例えば、音声コマンド50が「50年代の音楽を再生してください」というものであり、ルックアップテーブル52が要求されたオーディオ機能の優先システムを特定しないことを想定する。さらに、この要求されるオーディオ機能は、車両インフォテインメントシステム12において利用可能なローカルに保存した音楽コンテンツを介して車両インフォテインメントシステム12によって提供され得る。あるいは、この要求されるオーディオ機能は、リモートシステム26において利用可能なローカルに保存した音楽コンテンツ、又はリモートシステム26でアクセス可能なリモートで利用可能な音楽コンテンツを介して外部システム26によって提供され得る。したがって、そうした状況において、例えばそうした未定義機能要求をローカルシステム(例えば車両インフォテインメントシステム12)にルーティングする定義システムレベルデフォルトを適用することができる。
システム選択プロセス10が音声コマンドに関連する学習システムプリファレンスに少なくとも部分的に基づいて優先システムを特定する106構成において、システム選択プロセス10は、音声コマンド(例えば音声コマンド50)内に定義される機能が過去に処理された方法を判定し、現在音声コマンド50をどう処理するかを決定するためにその処理履歴を使用することができる。例えば、音声コマンド50がボストンのローガン空港への走行方向を要求し、ナビゲーション機能への直近の7つの要求が車両インフォテインメントシステム12内に含まれるナビゲーション機能によって行われた場合、システム選択プロセス10は、音声コマンド50を、車両インフォテインメントシステム12(すなわち優先システム)内に含まれるナビゲーション機能にルーティングする104ことができる。
システム選択プロセス10が、学習システムプリファレンスに少なくとも部分的に基づいて優先システムを特定する106とき、システム選択プロセス10は、一部の形態の機械学習及び/又は人工知能を使用することができる。例えば、システム選択プロセス10は、そうした学習プリファレンスを得るため、確率モデルを使用して車両インフォテインメントシステム12及び外部システム26内の機能使用データを分析することができる。
埋込みプリファレンス
音声コマンド(例えば音声コマンド50)を実行するため(車両インフォテインメントシステム12及び外部システム26から選択される)優先システムを特定する102とき、システム選択プロセス10は、音声コマンド内に含まれる埋込みシステムプリファレンスに少なくとも部分的に基づいて優先システムを特定する108ことができる。
例えば、音声コマンド50が「アップルミュージックでレッドツェッペリンを再生してください」である場合、システム選択プロセス10は、音声コマンド50の一部が要求される特定の機能を示すかを判定するように音声コマンド50を処理及び/又は解析しすることで、優先システムを特定する110ことができる。リモートシステム26がApple(登録商標)製品であると想定すると、リモートシステム26は、「アップルミュージック」システムを介してレッドツェッペリンを再生させるアプリケーション(例えばアプリケーション54、56、58、60)を含み得る。したがって、音声コマンド50の「アップルミュージック」部分を特定する110際、システム選択プロセス10は、音声コマンド50を、リモートシステム26(すなわち優先システム)内のオーディオ機能/アップルミュージックアプリケーションにルーティングする104ことができる。
動作中セッション
音声コマンド(例えば音声コマンド50)を実行するため(車両インフォテインメントシステム12及び外部システム26から選択される)優先システムを特定する102とき、システム選択プロセス10は、車両インフォテインメントシステム及び外部システムの1つにおける動作中セッションの存在に少なくとも部分的に基づいて優先システムを特定する110ことができる。
例えば、ユーザ16がイエローストーン国立公園へと車を運転しており、ガソリンが必要であると気づいたと想定する。したがって、ユーザ16は、「最も近いガソリンスタンドを教えてください」という音声コマンド50を出すことができる。したがって、ユーザ16が現在車両インフォテインメントシステム12のナビゲーション機能を使用しているとき、システム選択プロセス10は、音声コマンド50を、車両インフォテインメントシステム12(すなわち優先システム)内のナビゲーション機能にルーティングする104ことができる。
情報の要求
音声コマンド(例えば音声コマンド50)を実行するため(車両インフォテインメントシステム12及び外部システム26から選択される)優先システムを特定する102とき、システム選択プロセス10は、ユーザに音声による質問をし112、ユーザになされた音声による質問に関してユーザから受信した音声による応答に少なくとも部分的に基づいて優先システムを特定する114ことができる。
上述のように、音声コマンド50が、a)車両インフォテインメントシステム12又は外部システム26のいずれでも行われ得る機能を要求し、b)どの優先システムがその特定のタイプの機能に関連するかに関してルックアップテーブル52が何も示さないという状況があり得る。
(上述のように)定義システムレベルデフォルトが適用されるが、他の構成も可能である。例えば、音声コマンド50が「50年代の音楽を再生してください」というものであり、ルックアップテーブル50が要求されたオーディオ機能の優先システムを特定せず、この要求されたオーディオ機能が、車両インフォテインメントシステム12において利用可能なローカルに保存された音楽コンテンツを介して車両インフォテインメントシステム12によって提供されることができるということをまた想定する。あるいは、この要求されるオーディオ機能は、リモートシステム26において利用可能なローカルに保存した音楽コンテンツ、又はリモートシステム26でアクセス可能なリモートで利用可能な音楽コンテンツを介して外部システム26によって提供され得る。したがって、そうした状況において、システム選択プロセス10は、音声による質問62をする112ことができる(例えば、「50年代の音楽をどのように再生しますか?ローカルですか?リモートですか?パンドラですか?」)そして、ユーザ16は、音声による応答64を行う(例えば、「ローカルで」)ことができ、システム選択プロセス10は、ユーザ16になされた音声による質問62に関してユーザ16から受信した音声による応答64に少なくとも部分的に基づいて優先システム(例えば車両インフォテインメントシステム12)を特定する114ことができる。
唯一の選択肢
音声コマンド(例えば音声コマンド50)を実行するため(車両インフォテインメントシステム12及び外部システム26から選択される)優先システムを特定する102とき、音声コマンド50において要求される機能を提供するために(又は提供できる)1つのシステムのみが利用可能である場合、システム選択プロセス10は、その利用可能なシステムを選択することができる。
例えば、車両インフォテインメントシステム12はナビゲーション機能を含まないと想定する。音声コマンド50はフロリダ州オーランドのディズニーワールドへの走行方向を要求するとさらに想定する。したがって、システム選択プロセス10は、音声コマンド50を、外部システム26(すなわち優先システム)内に含まれるナビゲーション機能にルーティングする104ことができ、これは、車両インフォテインメントシステム12がそうした機能を含まない又は提供しないためである。
最初に応答
音声コマンド(例えば音声コマンド50)を実行するため(車両インフォテインメントシステム12及び外部システム26から選択される)優先システムを特定する102とき、システム選択プロセス10は、音声コマンド50を、車両インフォテインメントシステム12及び外部システム26の双方に提供して116、車両インフォテインメントシステム12及び外部システム26の1つ以上から受信した応答に少なくとも部分的に基づいて優先システムを判定する118ことができる。
上述のように、音声コマンド50が、a)車両インフォテインメントシステム12又は外部システム26のいずれでも行われ得る機能を要求し、b)どの優先システムがその特定のタイプの機能に関連するかに関してルックアップテーブル52が何も示さないという状況があり得る。
例えば、音声コマンド50が「50年代の音楽を再生してください」というものであり、ルックアップテーブル52が要求されたオーディオ機能の優先システムを特定しないことをまた想定する。したがって、システム選択プロセス10は、音声コマンド50を、車両インフォテインメントシステム12及び外部システム26の双方に提供する116ことができる。そして、システム選択プロセス10は、車両インフォテインメントシステム12及び外部システム26からの応答を聞き、受信した応答に少なくとも部分的に基づいて優先システムを決定する118ことができる。
例えば、システム選択プロセス10は、応答する最初のシステムとして優先システムを特定することができる。したがって、車両インフォテインメントシステム12が50年代の音楽を再生開始すると、システム選択プロセス10は、例えば外部システム26からなされた要求をキャンセルする、又は外部システム26のオーディオをミュートすることができる。
他の例として、音声コマンド50が「リストランテパブロにナビゲーションしてください」であると想定する。したがって、システム選択プロセス10は、音声コマンド50を、車両インフォテインメントシステム12及び外部システム26の双方に提供する116ことができる。そして、システム選択プロセス10は、車両インフォテインメントシステム12及び外部システム26からの応答を聞くことができる。車両インフォテインメントシステム12が「すみません、一致するものは見つかりませんでした」と応答する場合、その応答はシステム選択プロセス10によって伏せられることができる。一方、外部システム26が「一致するものが見つかりました」と応答する場合、システム選択プロセス10は、外部システム26を優先システムとするように決定する118ことができる。
音声一致
システム選択プロセス10は、外部システム26におけるテキストを音声にする声の性別を判定する120ため外部システム26内に含まれるテキストを音声にするシステムをモニターするように構成することができる。そして、システム選択プロセス10は、外部システム26におけるテキストを音声にする声の性別に基づいて、車両インフォテインメントシステム12におけるテキストを音声にする声の性別を設定する122ことができる。例えば、車両インフォテインメントシステム12は、a)(同種のユーザエクスペリエンスを提供するため)車両インフォテインメントシステム12のテキストを音声にする声を外部システム26のテキストを音声にする声に一致させる、又はb)(オーディオシステムの違いを区別させるため)車両インフォテインメントシステム12のテキストを音声にする声を外部システム26のテキストを音声にする声の反対のものにするように、車両インフォテインメントシステム12の声の性別を設定することができる。
さらに、特定の性別について車両インフォテインメントシステム12において利用可能な1つ以上のテキストを音声にする声が存在する(例えば、「ジェニファー」であるテキストを音声にする声及び「シェリー」であるテキストを音声にする声が存在する)場合、システム選択プロセス10は、外部システム26のテキストを音声にする声に最も近く一致するテキストを音声にする声(「ジェニファー」又は「シェリー」)を選択することができる。例えば、車両インフォテインメントシステム12が、外部システム26におけるSiriのテキストを音声にする声を検出する場合、「シェリー」であるテキストを音声にする声がSiriのテキストを音声にする声に類似した音であるため、システム選択プロセス10は、車両インフォテインメントシステム12において「シェリー」であるテキストを音声にする声を設定することができる。
サードパーティシステム
システム選択プロセス10は、音声コマンド50をサードパーティシステムにルーティングするように構成することができる。上述のように、ネットワーク34の例は、インターネット、セルラーネットワーク、WiFi(登録商標)ネットワーク、及び/又はクラウドベースコンピューティングプラットフォームを含むことができるが、これらに限定されない。したがって、音声コマンド50を受信する際、システム選択プロセス10は、音声コマンド50を、ネットワーク34を介して利用可能なサードパーティシステムにルーティングするように構成することができ、ユーザ16が例えばホームセキュリティシステムをセットする/セット解除する、ガレージの戸を開く、家の玄関の鍵を開ける、又はアパートメントの温度を調節することができる。
一般
当業者によって理解されるように、本開示は、方法、システム、又はコンピュータプログラム製品として実現することができる。したがって、本開示は、全体的にハードウエアの実施形態、全体的にソフトウエアの実施形態(ファームウエア、常駐ソフトウエア、マイクロコード等を含む)、又はすべて「回路」、「モジュール」、又は「システム」として本明細書に一般に言及されるソフトウエア要素とハードウエア要素とを組み合わせる実施形態の形態をとることができる。さらに、本開示は、コンピュータ使用可能記憶媒体において実現されるコンピュータ使用可能プログラムコードを有するコンピュータ使用可能記憶媒体におけるコンピュータプログラム製品の形態をとることができる。
任意の適切なコンピュータ使用可能媒体又はコンピュータ可読媒体を使用することができる。コンピュータ使用可能媒体又はコンピュータ可読媒体は、例えば、電子、磁気、光学、電磁気、赤外線、又は半導体のシステム、装置、デバイス、又は伝達媒体であり得るが、これらに限定されない。コンピュータ可読媒体のより具体的な例(網羅的でないリスト)は、1つ以上のワイヤを有する電気接続部、携帯型コンピュータフロッピーディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROM若しくはフラッシュメモリ)、光ファイバー、携帯型コンパクトディスクリードオンリーメモリ(CD−ROM)、光学記憶デバイス、インターネット若しくはイントラネットを支える伝送媒体、又は磁気記憶デバイスを含むことができる。また、コンピュータ使用可能媒体又はコンピュータ可読媒体は、プログラムが、例えば紙又は他の媒体の光学スキャニングによって電子的に取り込まれ、コンパイルされ、解釈され、又は必要であれば適切な方法で処理され、コンピュータメモリに保存することができるとき、プログラムが印刷される紙又は適切な媒体であり得る。この文書の文脈において、コンピュータ使用可能媒体又はコンピュータ可読媒体は、命令実行システム、装置、又はデバイスによって、又はそれらに関して使用されるプログラムを含む、保存する、通信する、伝達する、又は転送することができる任意の媒体であり得る。コンピュータ使用可能媒体は、ベースバンドにおいて、又は搬送波の一部としてのいずれかで、該媒体で実現されるコンピュータ使用可能プログラムコードを含む伝達データシグナルを含むことができる。コンピュータ使用可能プログラムコードは、インターネット、ワイヤライン、光ファイバーケーブル、RF等を含むがこれらに限定されない任意の適切な媒体を使用して伝送することができる。
本開示の操作を行うためのコンピュータプログラムコードは、Java(登録商標)、Smalltalk(登録商標)、C++などのオブジェクト指向プログラミング言語で書かれ得る。しかしながら、本開示の操作を行うためのコンピュータプログラムコードは、「C」プログラミング言語又は類似のプログラミング言語などの従来の手続き型プログラミング言語でも書かれ得る。プログラムコードは、スタンドアローンのソフトウエアパッケージとして、全体的にユーザのコンピュータにおいて、部分的にユーザのコンピュータにおいて、又は部分的にユーザのコンピュータにおいて且つ部分的にリモートのコンピュータにおいて、又は全体的にリモートのコンピュータ若しくはサーバにおいて、実行することができる。後者において、リモートのコンピュータは、ローカルエリアネットワーク/広域ネットワーク/インターネット(例えばネットワーク14)によってユーザのコンピュータに接続することができる。
本開示は、本開示の実施形態における方法、装置(システム)、及びコンピュータプログラミング製品のフローチャート図及び/又はブロック図に関して記載される。フローチャート図及び/又はブロック図の各ブロックは、フローチャート図及び/又はブロック図のブロックの組合せは、コンピュータプログラム命令によって実施することができると理解される。コンピュータプログラム命令は、汎用コンピュータ/専用コンピュータ/他のプログラマブルデータ処理装置のプロセッサに提供されて、コンピュータ又は他のプログラマブルデータ処理装置のプロセッサを介して実行する命令が、フローチャート及び/又はブロック図のブロックに特定される機能/動作を実施するための手段を生成するようにすることができる。
また、これらのコンピュータプログラム命令は、コンピュータ又は他のプログラマブルデータ処理装置を特定の方法で機能させることができるコンピュータ可読メモリに保存されて、コンピュータ可読メモリに保存した命令が、フローチャート及び/又はブロック図のブロックに特定される機能/動作を実施する命令手段を含むものを生成するようにすることができる。
また、コンピュータプログラム命令は、コンピュータ又は他のプログラマブルデータ処理装置にロードされて一連の操作ステップをコンピュータ又は他のプログラマブル装置において行わせ、コンピュータ又は他のプログラマブル装置において実行する命令が、フローチャート及び/又はブロック図のブロックに特定される機能/動作を実施するためのステップを提供するようにコンピュータ実施プロセスを生成することができる。
図面におけるフローチャート及びブロック図は、本開示の種々の実施形態におけるシステム、方法、及びコンピュータプログラム製品の可能な態様のアーキテクチャ、機能、及び操作を示し得る。これについて、フローチャート又はブロック図における各ブロックは、特定の論理機能を実施するための1つ以上の実行可能命令を含むモジュール、セグメント、又はコード部に相当し得る。また、一部の他の態様において、ブロックに示される機能は、図に示される順序から離れて行われ得ることが留意される必要がある。例えば、連続で示される2つのブロックは、実際に実質的に共に実行することができる、又はブロックは、関与する機能に対応して、しばしば逆の順に実行することができる。ブロック図及び/又はフローチャート図の各ブロック、並びにブロック図及び/又はフローチャート図のブロックの組合せは、特定の機能若しくは動作を行う専用のハードウエアベースシステム、又は専用のハードウエアとコンピュータ命令との組合せによって実施することができる。
本明細書において使用される用語は、特定の実施形態を記載する目的のみに使用され、本開示を限定することを意図しない。本明細書に使用されるとき、単数形の「a」、「an」、及び「the」は、文脈において明らかに示されない限り、複数形をも含むことが意図される。「含む」及び/又は「含むこと」という用語は、本明細書において使用されるとき、記載の特徴、構成物、ステップ、操作、要素、及び/又は部品の存在を特定するが、1つ以上の他の特徴、構成物、ステップ、操作、要素、部品、及び/又はそれらの群の存在又は追加を妨げるものではない。
以下の特許請求の範囲における、すべてのミーンズ又はステップ・プラス・ファンクション要素の対応する構造、材料、動作、及び同等物は、具体的に記載されたような他の記載の要素と組み合わせてそのファンクションを行うための任意の構造、材料、又は動作を含むことを意図する。本開示の記載は、例示及び説明の目的で提示されているが、網羅的であること、又は開示の形態における本開示に限定することを意図しない。多くの改変又は変形は、本開示の範囲及び意図から外れることなく当業者にとって明らかなものであろう。実施形態は、本開示の原理及びその実際的応用を最も良好に説明し、考慮される特定の使用に適するような種々の改変を含む種々の実施形態の開示を他の当業者が理解できるように、選択及び記載された。
多数の態様が記載されている。このように本願の開示を詳細に、またその実施形態を参照して説明してきたが、添付の特許請求の範囲で規定される本開示の範囲から外れることなく改変及び変形が可能であることは明らかである。

Claims (24)

  1. コンピューティングデバイスにおいて実行されるコンピュータ実装方法であって、
    外部システムとのインタフェースとなるように構成される車両インフォテインメントシステムにおいてユーザから音声コマンドを受信すること、
    前記音声コマンドを実行するため優先システムを特定すること、並びに
    前記車両インフォテインメントシステム及び前記外部システムから選択される前記優先システムに前記音声コマンドをルーティングすることを含む、方法。
  2. 前記外部システムは、
    携帯電話、
    スマートフォン、
    タブレット型コンピューティングデバイス、
    携帯型コンピューティングデバイス、及び
    ハンドヘルドエンタテインメントデバイスの1つ以上を含む、請求項1に記載のコンピュータ実装方法。
  3. 前記音声コマンドを実行するため優先システムを特定することは、
    前記音声コマンドに関連する定義システムプリファレンス及び前記音声コマンドに関連する学習システムプリファレンスの1つ以上に少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項1に記載のコンピュータ実装方法。
  4. 前記音声コマンドを実行するため優先システムを特定することは、
    前記音声コマンド内に含まれる埋込みシステムプリファレンスに少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項1に記載のコンピュータ実装方法。
  5. 前記音声コマンドを実行するため優先システムを特定することは、
    前記車両インフォテインメントシステム及び前記外部システムの1つにおける動作中セッションの存在に少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項1に記載のコンピュータ実装方法。
  6. 前記音声コマンドを実行するため優先システムを特定することは、
    前記ユーザに音声による質問を行うこと、及び
    前記ユーザになされた前記音声による質問に関して前記ユーザから受信した音声による応答に少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項1に記載のコンピュータ実装方法。
  7. 前記音声コマンドを実行するため優先システムを特定することは、
    前記車両インフォテインメントシステム及び前記外部システムの双方に前記音声コマンドを提供すること、及び
    前記車両インフォテインメントシステム及び前記外部システムの1つ以上から受信した応答に少なくとも部分的に基づいて前記優先システムを決定することを含む、請求項1に記載のコンピュータ実装方法。
  8. 前記音声コマンドを実行するため優先システムを特定することは、
    前記外部システムにおけるテキストを音声にする声の性別を判定すること、及び
    前記外部システムにおけるテキストを音声にする声の性別に基づいて、前記車両インフォテインメントシステムにおけるテキストを音声にする声の性別を設定することを含む、請求項1に記載のコンピュータ実装方法。
  9. プロセッサによって実行されると、前記プロセッサに、
    外部システムとのインタフェースとなるように構成される車両インフォテインメントシステムにおいてユーザから音声コマンドを受信すること、
    前記音声コマンドを実行するため優先システムを特定すること、並びに
    前記車両インフォテインメントシステム及び前記外部システムから選択される前記優先システムに前記音声コマンドをルーティングすること、を含む操作を行わせるコンピュータ可読媒体に保存した複数の命令を有する前記コンピュータ可読媒体に存在するコンピュータプログラム製品。
  10. 前記外部システムは、
    携帯電話、
    スマートフォン、
    タブレット型コンピューティングデバイス、
    携帯型コンピューティングデバイス、及び
    ハンドヘルドエンタテインメントデバイスの1つ以上を含む、請求項9に記載のコンピュータプログラム製品。
  11. 前記音声コマンドを実行するため優先システムを特定することは、
    前記音声コマンドに関連する定義システムプリファレンス及び前記音声コマンドに関連する学習システムプリファレンスの1つ以上に少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項9に記載のコンピュータプログラム製品。
  12. 前記音声コマンドを実行するため優先システムを特定することは、
    前記音声コマンド内に含まれる埋込みシステムプリファレンスに少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項9に記載のコンピュータプログラム製品。
  13. 前記音声コマンドを実行するため優先システムを特定することは、
    前記車両インフォテインメントシステム及び前記外部システムの1つにおける動作中セッションの存在に少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項9に記載のコンピュータプログラム製品。
  14. 前記音声コマンドを実行するため優先システムを特定することは、
    前記ユーザに音声による質問を行うこと、及び
    前記ユーザになされた前記音声による質問に関して前記ユーザから受信した音声による応答に少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項9に記載のコンピュータプログラム製品。
  15. 前記音声コマンドを実行するため優先システムを特定することは、
    前記車両インフォテインメントシステム及び前記外部システムの双方に前記音声コマンドを提供すること、及び
    前記車両インフォテインメントシステム及び前記外部システムの1つ以上から受信した応答に少なくとも部分的に基づいて前記優先システムを決定することを含む、請求項9に記載のコンピュータプログラム製品。
  16. 前記音声コマンドを実行するため優先システムを特定することは、
    前記外部システムにおけるテキストを音声にする声の性別を判定すること、及び
    前記外部システムにおけるテキストを音声にする声の性別に基づいて、前記車両インフォテインメントシステムにおけるテキストを音声にする声の性別を設定することを含む、請求項9に記載のコンピュータプログラム製品。
  17. 外部システムとのインタフェースとなるように構成される車両インフォテインメントシステムにおいてユーザから音声コマンドを受信すること、
    前記音声コマンドを実行するため優先システムを特定すること、並びに
    前記車両インフォテインメントシステム及び前記外部システムから選択される前記優先システムに前記音声コマンドをルーティングすること、を含む操作を行うように構成されたプロセッサ及びメモリを含むコンピューティングシステム。
  18. 前記外部システムは、
    携帯電話、
    スマートフォン、
    タブレット型コンピューティングデバイス、
    携帯型コンピューティングデバイス、及び
    ハンドヘルドエンタテインメントデバイスの1つ以上を含む、請求項17に記載のコンピューティングシステム。
  19. 前記音声コマンドを実行するため優先システムを特定することは、
    前記音声コマンドに関連する定義システムプリファレンス及び前記音声コマンドに関連する学習システムプリファレンスの1つ以上に少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項17に記載のコンピューティングシステム。
  20. 前記音声コマンドを実行するため優先システムを特定することは、
    前記音声コマンド内に含まれる埋込みシステムプリファレンスに少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項17に記載のコンピューティングシステム。
  21. 前記音声コマンドを実行するため優先システムを特定することは、
    前記車両インフォテインメントシステム及び前記外部システムの1つにおける動作中セッションの存在に少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項17に記載のコンピューティングシステム。
  22. 前記音声コマンドを実行するため優先システムを特定することは、
    前記ユーザに音声による質問を行うこと、及び
    前記ユーザになされた前記音声による質問に関して前記ユーザから受信した音声による応答に少なくとも部分的に基づいて前記優先システムを特定することを含む、請求項17に記載のコンピューティングシステム。
  23. 前記音声コマンドを実行するため優先システムを特定することは、
    前記車両インフォテインメントシステム及び前記外部システムの双方に前記音声コマンドを提供すること、及び
    前記車両インフォテインメントシステム及び前記外部システムの1つ以上から受信した応答に少なくとも部分的に基づいて前記優先システムを決定することを含む、請求項17に記載のコンピューティングシステム。
  24. 前記音声コマンドを実行するため優先システムを特定することは、
    前記外部システムにおけるテキストを音声にする声の性別を判定すること、及び
    前記外部システムにおけるテキストを音声にする声の性別に基づいて、前記車両インフォテインメントシステムにおけるテキストを音声にする声の性別を設定することを含む、請求項17に記載のコンピューティングシステム。

JP2020504154A 2017-07-28 2018-07-25 選択システム及び選択方法 Active JP7254763B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US15/663,280 US11205421B2 (en) 2017-07-28 2017-07-28 Selection system and method
US15/663,280 2017-07-28
PCT/US2018/043664 WO2019023330A1 (en) 2017-07-28 2018-07-25 SYSTEM AND METHOD OF SELECTION

Publications (2)

Publication Number Publication Date
JP2020529044A true JP2020529044A (ja) 2020-10-01
JP7254763B2 JP7254763B2 (ja) 2023-04-10

Family

ID=65041404

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020504154A Active JP7254763B2 (ja) 2017-07-28 2018-07-25 選択システム及び選択方法

Country Status (6)

Country Link
US (1) US11205421B2 (ja)
EP (1) EP3659138A4 (ja)
JP (1) JP7254763B2 (ja)
KR (2) KR20200035413A (ja)
CN (1) CN111095400A (ja)
WO (1) WO2019023330A1 (ja)

Families Citing this family (63)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9947316B2 (en) 2016-02-22 2018-04-17 Sonos, Inc. Voice control of a media playback system
US10095470B2 (en) 2016-02-22 2018-10-09 Sonos, Inc. Audio response playback
US10264030B2 (en) 2016-02-22 2019-04-16 Sonos, Inc. Networked microphone device control
US9965247B2 (en) 2016-02-22 2018-05-08 Sonos, Inc. Voice controlled media playback system based on user profile
US9772817B2 (en) 2016-02-22 2017-09-26 Sonos, Inc. Room-corrected voice detection
US9811314B2 (en) 2016-02-22 2017-11-07 Sonos, Inc. Metadata exchange involving a networked playback system and a networked microphone system
US9978390B2 (en) 2016-06-09 2018-05-22 Sonos, Inc. Dynamic player selection for audio signal processing
US10152969B2 (en) 2016-07-15 2018-12-11 Sonos, Inc. Voice detection by multiple devices
US10134399B2 (en) 2016-07-15 2018-11-20 Sonos, Inc. Contextualization of voice inputs
US10115400B2 (en) 2016-08-05 2018-10-30 Sonos, Inc. Multiple voice services
US9942678B1 (en) 2016-09-27 2018-04-10 Sonos, Inc. Audio playback settings for voice interaction
US9743204B1 (en) 2016-09-30 2017-08-22 Sonos, Inc. Multi-orientation playback device microphones
US10181323B2 (en) 2016-10-19 2019-01-15 Sonos, Inc. Arbitration-based voice recognition
US10475449B2 (en) 2017-08-07 2019-11-12 Sonos, Inc. Wake-word detection suppression
US10048930B1 (en) 2017-09-08 2018-08-14 Sonos, Inc. Dynamic computation of system response volume
US10446165B2 (en) 2017-09-27 2019-10-15 Sonos, Inc. Robust short-time fourier transform acoustic echo cancellation during audio playback
US10051366B1 (en) 2017-09-28 2018-08-14 Sonos, Inc. Three-dimensional beam forming with a microphone array
US10482868B2 (en) 2017-09-28 2019-11-19 Sonos, Inc. Multi-channel acoustic echo cancellation
US10621981B2 (en) 2017-09-28 2020-04-14 Sonos, Inc. Tone interference cancellation
US10466962B2 (en) 2017-09-29 2019-11-05 Sonos, Inc. Media playback system with voice assistance
US11360736B1 (en) * 2017-11-03 2022-06-14 Amazon Technologies, Inc. System command processing
US10880650B2 (en) 2017-12-10 2020-12-29 Sonos, Inc. Network microphone devices with automatic do not disturb actuation capabilities
US10818290B2 (en) 2017-12-11 2020-10-27 Sonos, Inc. Home graph
WO2019152722A1 (en) 2018-01-31 2019-08-08 Sonos, Inc. Device designation of playback and network microphone device arrangements
US11175880B2 (en) 2018-05-10 2021-11-16 Sonos, Inc. Systems and methods for voice-assisted media content selection
US10847178B2 (en) 2018-05-18 2020-11-24 Sonos, Inc. Linear filtering for noise-suppressed speech detection
US10959029B2 (en) 2018-05-25 2021-03-23 Sonos, Inc. Determining and adapting to changes in microphone performance of playback devices
US10681460B2 (en) 2018-06-28 2020-06-09 Sonos, Inc. Systems and methods for associating playback devices with voice assistant services
US10461710B1 (en) 2018-08-28 2019-10-29 Sonos, Inc. Media playback system with maximum volume setting
US11076035B2 (en) 2018-08-28 2021-07-27 Sonos, Inc. Do not disturb feature for audio notifications
US10587430B1 (en) 2018-09-14 2020-03-10 Sonos, Inc. Networked devices, systems, and methods for associating playback devices based on sound codes
US10878811B2 (en) 2018-09-14 2020-12-29 Sonos, Inc. Networked devices, systems, and methods for intelligently deactivating wake-word engines
US11024331B2 (en) 2018-09-21 2021-06-01 Sonos, Inc. Voice detection optimization using sound metadata
US10811015B2 (en) 2018-09-25 2020-10-20 Sonos, Inc. Voice detection optimization based on selected voice assistant service
US11100923B2 (en) 2018-09-28 2021-08-24 Sonos, Inc. Systems and methods for selective wake word detection using neural network models
US10692518B2 (en) 2018-09-29 2020-06-23 Sonos, Inc. Linear filtering for noise-suppressed speech detection via multiple network microphone devices
US11899519B2 (en) 2018-10-23 2024-02-13 Sonos, Inc. Multiple stage network microphone device with reduced power consumption and processing load
EP3654249A1 (en) 2018-11-15 2020-05-20 Snips Dilated convolutions and gating for efficient keyword spotting
US11183183B2 (en) 2018-12-07 2021-11-23 Sonos, Inc. Systems and methods of operating media playback systems having multiple voice assistant services
US11132989B2 (en) 2018-12-13 2021-09-28 Sonos, Inc. Networked microphone devices, systems, and methods of localized arbitration
US10602268B1 (en) 2018-12-20 2020-03-24 Sonos, Inc. Optimization of network microphone devices using noise classification
US10867604B2 (en) 2019-02-08 2020-12-15 Sonos, Inc. Devices, systems, and methods for distributed voice processing
US11315556B2 (en) 2019-02-08 2022-04-26 Sonos, Inc. Devices, systems, and methods for distributed voice processing by transmitting sound data associated with a wake word to an appropriate device for identification
US11120794B2 (en) 2019-05-03 2021-09-14 Sonos, Inc. Voice assistant persistence across multiple network microphone devices
US11200894B2 (en) 2019-06-12 2021-12-14 Sonos, Inc. Network microphone device with command keyword eventing
US11361756B2 (en) 2019-06-12 2022-06-14 Sonos, Inc. Conditional wake word eventing based on environment
US10586540B1 (en) 2019-06-12 2020-03-10 Sonos, Inc. Network microphone device with command keyword conditioning
US10871943B1 (en) 2019-07-31 2020-12-22 Sonos, Inc. Noise classification for event detection
US11138969B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11138975B2 (en) 2019-07-31 2021-10-05 Sonos, Inc. Locally distributed keyword detection
US11189286B2 (en) 2019-10-22 2021-11-30 Sonos, Inc. VAS toggle based on device orientation
US11200900B2 (en) 2019-12-20 2021-12-14 Sonos, Inc. Offline voice control
US11562740B2 (en) 2020-01-07 2023-01-24 Sonos, Inc. Voice verification for media playback
US11556307B2 (en) 2020-01-31 2023-01-17 Sonos, Inc. Local voice data processing
US11308958B2 (en) 2020-02-07 2022-04-19 Sonos, Inc. Localized wakeword verification
US11308962B2 (en) 2020-05-20 2022-04-19 Sonos, Inc. Input detection windowing
US11482224B2 (en) 2020-05-20 2022-10-25 Sonos, Inc. Command keywords with input detection windowing
US11727919B2 (en) 2020-05-20 2023-08-15 Sonos, Inc. Memory allocation for keyword spotting engines
US11698771B2 (en) 2020-08-25 2023-07-11 Sonos, Inc. Vocal guidance engines for playback devices
US11984123B2 (en) 2020-11-12 2024-05-14 Sonos, Inc. Network device interaction by range
US11915691B2 (en) * 2021-01-19 2024-02-27 Samsung Electronics Co., Ltd. Electronic apparatus and controlling method thereof
US11551700B2 (en) 2021-01-25 2023-01-10 Sonos, Inc. Systems and methods for power-efficient keyword detection
CN114274894B (zh) * 2021-11-22 2023-05-30 岚图汽车科技有限公司 车辆的控制方法和相关设备

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249685A (ja) * 2000-03-03 2001-09-14 Alpine Electronics Inc 音声対話装置
JP2012013910A (ja) * 2010-06-30 2012-01-19 Denso Corp 音声認識端末
JP2015141226A (ja) * 2014-01-27 2015-08-03 パイオニア株式会社 情報処理装置
JP2016114395A (ja) * 2014-12-12 2016-06-23 クラリオン株式会社 音声入力補助装置、音声入力補助システムおよび音声入力方法

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7398209B2 (en) * 2002-06-03 2008-07-08 Voicebox Technologies, Inc. Systems and methods for responding to natural language speech utterance
US7197331B2 (en) * 2002-12-30 2007-03-27 Motorola, Inc. Method and apparatus for selective distributed speech recognition
US8000452B2 (en) * 2004-07-26 2011-08-16 General Motors Llc Method and system for predictive interactive voice recognition
US7826945B2 (en) * 2005-07-01 2010-11-02 You Zhang Automobile speech-recognition interface
US7949529B2 (en) * 2005-08-29 2011-05-24 Voicebox Technologies, Inc. Mobile systems and methods of supporting natural language human-machine interactions
US20090190735A1 (en) * 2008-01-24 2009-07-30 General Motors Corporation Method and system for enhancing telematics services
US8099289B2 (en) * 2008-02-13 2012-01-17 Sensory, Inc. Voice interface and search for electronic devices including bluetooth headsets and remote systems
US9495012B2 (en) * 2011-09-27 2016-11-15 Z124 Secondary single screen mode activation through user interface activation
US20130238326A1 (en) * 2012-03-08 2013-09-12 Lg Electronics Inc. Apparatus and method for multiple device voice control
US9401140B1 (en) * 2012-08-22 2016-07-26 Amazon Technologies, Inc. Unsupervised acoustic model training
US9271111B2 (en) * 2012-12-14 2016-02-23 Amazon Technologies, Inc. Response endpoint selection
US10255930B2 (en) 2013-06-28 2019-04-09 Harman International Industries, Incorporated Wireless control of linked devices
US9357361B2 (en) * 2013-08-25 2016-05-31 Tara Chand Singhal Apparatus and method for vehicle safety for hands free SMS capability in a moving vehicle
CN104731854B (zh) * 2013-12-18 2020-02-04 哈曼国际工业有限公司 语音识别查询响应***
US9368119B2 (en) * 2014-03-25 2016-06-14 GM Global Technology Operations LLC Methods and apparatus to convert received graphical and/or textual user commands into voice commands for application control
US10008216B2 (en) * 2014-04-15 2018-06-26 Speech Morphing Systems, Inc. Method and apparatus for exemplary morphing computer system background
JP6482911B2 (ja) * 2014-07-01 2019-03-13 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America 機器制御方法および電気機器
US9412379B2 (en) * 2014-09-16 2016-08-09 Toyota Motor Engineering & Manufacturing North America, Inc. Method for initiating a wireless communication link using voice recognition
US9812128B2 (en) * 2014-10-09 2017-11-07 Google Inc. Device leadership negotiation among voice interface devices
US9812126B2 (en) * 2014-11-28 2017-11-07 Microsoft Technology Licensing, Llc Device arbitration for listening devices
US10031722B1 (en) * 2015-03-17 2018-07-24 Amazon Technologies, Inc. Grouping devices for voice control
US9546005B2 (en) * 2015-04-07 2017-01-17 Honeywell International Inc. Voice router
US10235129B1 (en) * 2015-06-29 2019-03-19 Amazon Technologies, Inc. Joining users to communications via voice commands
US10026399B2 (en) * 2015-09-11 2018-07-17 Amazon Technologies, Inc. Arbitration between voice-enabled devices
US11400997B2 (en) * 2016-05-23 2022-08-02 Indian Motorcycle International, LLC Display systems and methods for a recreational vehicle
KR20170132622A (ko) * 2016-05-24 2017-12-04 삼성전자주식회사 음성 인식 기능을 갖는 전자 장치 및 전자 장치의 동작 방법
US10831440B2 (en) * 2016-09-26 2020-11-10 Lenovo (Singapore) Pte. Ltd. Coordinating input on multiple local devices
KR20180083587A (ko) * 2017-01-13 2018-07-23 삼성전자주식회사 전자 장치 및 그의 동작 방법
US10255917B2 (en) * 2017-03-31 2019-04-09 International Business Machines Corporation Coordinating the execution of a voice command across multiple connected devices

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001249685A (ja) * 2000-03-03 2001-09-14 Alpine Electronics Inc 音声対話装置
JP2012013910A (ja) * 2010-06-30 2012-01-19 Denso Corp 音声認識端末
JP2015141226A (ja) * 2014-01-27 2015-08-03 パイオニア株式会社 情報処理装置
JP2016114395A (ja) * 2014-12-12 2016-06-23 クラリオン株式会社 音声入力補助装置、音声入力補助システムおよび音声入力方法

Also Published As

Publication number Publication date
KR20240072281A (ko) 2024-05-23
WO2019023330A1 (en) 2019-01-31
US11205421B2 (en) 2021-12-21
KR20200035413A (ko) 2020-04-03
EP3659138A4 (en) 2021-02-24
CN111095400A (zh) 2020-05-01
EP3659138A1 (en) 2020-06-03
JP7254763B2 (ja) 2023-04-10
US20190311712A1 (en) 2019-10-10

Similar Documents

Publication Publication Date Title
JP7254763B2 (ja) 選択システム及び選択方法
US11676601B2 (en) Voice assistant tracking and activation
US11250859B2 (en) Accessing multiple virtual personal assistants (VPA) from a single device
US9679562B2 (en) Managing in vehicle speech interfaces to computer-based cloud services due recognized speech, based on context
US9326088B2 (en) Mobile voice platform architecture with remote service interfaces
CN107004411B (zh) 话音应用架构
US8909153B2 (en) Vehicle communications using a mobile device
CN103677799B (zh) 用于车辆***的主观命令控制的方法和设备
US9583100B2 (en) Centralized speech logger analysis
US9183835B2 (en) Speech-based user interface for a mobile device
US9997160B2 (en) Systems and methods for dynamic download of embedded voice components
US20130197907A1 (en) Services identification and initiation for a speech-based interface to a mobile device
US9558015B2 (en) Methods and apparatus for activating applications
US20140066053A1 (en) Automatically managing a wireless connection at a mobile device
US20130103404A1 (en) Mobile voice platform architecture
CN105323353B (zh) 移动装置音频指示
KR102368388B1 (ko) 차량 단말 및 웨어러블 기기 간 연동 장치 및 차량 단말 및 웨어러블 기기 간 연동 방법
CN106134166A (zh) 语音接口的语言的自动选择
US20180190287A1 (en) Selection system and method
KR20120042166A (ko) 어학 학습 시스템 및 어학 학습 방법

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20200318

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7426

Effective date: 20200318

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210623

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220621

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220628

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221125

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230329

R150 Certificate of patent or registration of utility model

Ref document number: 7254763

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150