JP2020009439A - インタラクション方法および装置 - Google Patents

インタラクション方法および装置 Download PDF

Info

Publication number
JP2020009439A
JP2020009439A JP2019122909A JP2019122909A JP2020009439A JP 2020009439 A JP2020009439 A JP 2020009439A JP 2019122909 A JP2019122909 A JP 2019122909A JP 2019122909 A JP2019122909 A JP 2019122909A JP 2020009439 A JP2020009439 A JP 2020009439A
Authority
JP
Japan
Prior art keywords
information
user
request information
inquiry
intention
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019122909A
Other languages
English (en)
Other versions
JP7112991B2 (ja
Inventor
メンメン・チャン
Mengmeng Zhang
ジョンジ・ファン
Zhongji Fan
レイ・シー
Lei Shi
リー・ワン
Wang Le
チャン・ジュ
Qiang Ju
チャオ・イン
Chao Yin
ウェイ・シェン
Wei Shen
ジャン・シェ
Jiang Hsieh
ラン・シュウ
Ran Xu
ジンヤ・ワン
Jingya Wang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Baidu Online Network Technology Beijing Co Ltd
Original Assignee
Baidu Online Network Technology Beijing Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Baidu Online Network Technology Beijing Co Ltd filed Critical Baidu Online Network Technology Beijing Co Ltd
Publication of JP2020009439A publication Critical patent/JP2020009439A/ja
Application granted granted Critical
Publication of JP7112991B2 publication Critical patent/JP7112991B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/50Network services
    • H04L67/55Push-based network services
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/90Details of database functions independent of the retrieved data types
    • G06F16/903Querying
    • G06F16/9032Query formulation
    • G06F16/90332Natural language query formulation or dialogue systems
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F16/00Information retrieval; Database structures therefor; File system structures therefor
    • G06F16/20Information retrieval; Database structures therefor; File system structures therefor of structured data, e.g. relational data
    • G06F16/24Querying
    • G06F16/245Query processing
    • G06F16/2452Query translation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/20Natural language analysis
    • G06F40/279Recognition of textual entities
    • G06F40/289Phrasal analysis, e.g. finite state techniques or chunking
    • G06F40/295Named entity recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F40/00Handling natural language data
    • G06F40/30Semantic analysis
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L15/18Speech classification or search using natural language modelling
    • G10L15/1815Semantic context, e.g. disambiguation of the recognition hypotheses based on word meaning
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/08Speech classification or search
    • G10L2015/088Word spotting
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/223Execution procedure of a spoken command
    • GPHYSICS
    • G10MUSICAL INSTRUMENTS; ACOUSTICS
    • G10LSPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
    • G10L15/00Speech recognition
    • G10L15/22Procedures used during a speech recognition process, e.g. man-machine dialogue
    • G10L2015/225Feedback of the input speech

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Computational Linguistics (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Artificial Intelligence (AREA)
  • General Health & Medical Sciences (AREA)
  • Databases & Information Systems (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Acoustics & Sound (AREA)
  • Multimedia (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • User Interface Of Digital Computer (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

【課題】インタラクション方法および装置を提供する。【解決手段】要求情報が複数の照会意図に関連付けられていること及び照会意図に関連付けられていないことの一方を含む案内条件を満たすとの判定に応答し、案内情報を生成してユーザにフィードバックする。また、要求情報と案内情報に対応するフィードバック情報に基づいて、意図の明確な要求情報を生成し、意図の明確な要求情報とバインディングされたプッシュ情報をユーザにフィードバックすることとを含む。ユーザとインタラクションする過程において、ユーザにより入力された要求情報に対して複数の照会意図が関連付けられているか意図が不完全な状況などでは、ユーザとのインタラクションにより、明確な照会意図が関連付けられている意図の明確な要求情報を決定し、対応するプッシュ情報を取得しユーザにフィードバックする。その過程において、ユーザへのフィードバック精度を向上させる。【選択図】図2

Description

本願はコンピュータ分野に関し、具体的にインタラクション分野に関し、特にインタラクション方法及び装置に関する。
例えば音声でユーザとインタラクションすることにより、ユーザが取得しようとする情報をフィードバックする機能は、インテリジェントデバイスの基礎機能である。現在、一般的なインタラクションプロセスは、ユーザがある方面の情報を取得しようとする際に、照会意図に関連付ける要求情報を入力して、要求情報によって照会意図を決定できると、照会意図に基づいてユーザにフィードバックする情報を決定して、決定された情報をユーザにフィードバックする一方、要求情報によって照会意図を決定できないと、ユーザに情報をフィードバックしない。
本願の実施例は、インタラクション方法及び装置を提供する。
第1態様では、本願の実施例は、ユーザにより入力された要求情報が、複数の照会意図が関連付けられていること及び照会意図が関連付けられていないことの一方を含む案内条件を満たすと判定したことに応答して、案内情報を生成するとともに、案内情報をユーザにフィードバックすることと、要求情報とユーザにより入力さらた案内情報に対応するフィードバック情報に基づいて、意図の明確な要求情報を生成するとともに、意図の明確な要求情報とバインディングされたプッシュ情報をユーザにフィードバックすることとを含む、インタラクション方法を提供する。
第2態様では、本願の実施例は、ユーザにより入力された要求情報が、複数の照会意図が関連付けられていること及び照会意図が関連付けられていないことの一方を含む案内条件を満たすと判定したことに応答して、案内情報を生成するとともに、案内情報をユーザにフィードバックするように構成される応答手段と、要求情報とユーザにより入力さらた案内情報に対応するフィードバック情報に基づいて、意図の明確な要求情報を生成するとともに、意図の明確な要求情報とバインディングされたプッシュ情報をユーザにフィードバックするように構成されるフィードバック手段とを備える、インタラクション装置を提供する。
本願の実施例が提供するインタラクション方法及び装置は、ユーザにより入力された要求情報が、複数の照会意図が関連付けられていること及び照会意図が関連付けられていないことの一方を含む案内条件を満たすと判定したことに応答して、案内情報を生成するとともに、案内情報をユーザにフィードバックすることと、要求情報とユーザにより入力さらた案内情報に対応するフィードバック情報に基づいて、意図の明確な要求情報を生成するとともに、意図の明確な要求情報とバインディングされたプッシュ情報をユーザにフィードバックすることとを含む。ユーザとインタラクションする過程において、ユーザにより入力された要求情報に対して複数の照会意図が関連付けられている状況、意図が不完全な状況などでは、ユーザとのインタラクションにより、明確な照会意図が関連付けられている意図の明確な要求情報を決定し、意図の明確な要求情報を利用して対応するプッシュ情報を取得しユーザにフィードバックして、ユーザとインタラクションする過程において、ユーザが取得しようとする情報をフィードバックする精度を向上させる。
本願の他の特徴、目的および利点は、以下の図面を参照して説明される非限定的な実施例を読むことによって、より明らかになる。
本願の実施例を実現するのに適した例示的なシステム構成を示す。 本願のインタラクション方法にかかる一実施例を示すフローチャートである。 本願のインタラクション装置にかかる一実施例の構成概略図である。 本願の実施例の端末を実現するのに適したコンピュータシステムの構成概略図である。
以下、図面及び実施例を参照しながら本願をさらに詳細に説明する。本明細書に記載された具体的な実施例は、単に本発明を説明するためのものであり、本発明を限定するものではないことが理解されるべきである。なお、説明の便宜上、図面には、かかる発明に関連する部分のみが示されている。
なお、矛盾しない場合に、本願における実施例及び実施例における特徴は互いに組み合わせることができる。以下、図面及び実施例を参照しながら本願を詳細に説明する。。
図1を参照すると、本願の実施例を実現するこの適合した例示的なシステム構成が示されている。
図1に示すように、端末101、ネットワーク102、サーバ103を含む。ネットワーク102は、有線通信ネットワークまたは無線通信ネットワークであってもよい。
端末101は、インテリジェントデバイス、スマートフォン、タブレット型コンピュータ、車載端末であってもよい。ユーザがある方面の情報を取得する必要がある場合に、ユーザは、端末101で要求情報を入力する。ユーザは、音声で要求情報を入力することができる。端末101のユーザが端末101で入力した要求情報は、サーバ103に送信される。サーバ103は、ユーザにより入力された要求情報が案内条件を満たするか否かを判断することができ、ユーザにより入力された要求情報が案内条件を満たすと判断した場合に、案内情報を生成して、案内情報を端末101に送信して、端末101によってユーザにフィードバックされることができる。ユーザは、フィードバック情報を入力することができ、端末101は、ユーザにより入力されたフィードバック情報をサーバに送信することができ、サーバ103は、要求情報及びユーザにより入力された案内情報に対応するフィードバック情報に基づいて、意図の明確な要求情報を生成するとともに、意図の明確な要求情報とバインディングされたプッシュ情報を端末101に送信して、端末101によってユーザにフィードバックされることができる。
図2を参照すると、本願のインタラクション方法にかかる一実施例のフローが示されている。該方法は、ユーザにより入力された要求情報が案内条件を満たすと判定したことに応答して、案内情報を生成するとともに、案内情報をユーザにフィードバックするステップ201を含む。
本実施例において、案内条件は、複数の照会意図が関連付けられていること及び照会意図が関連付けられていないことの一方を含む。
本実施例において、ユーザは端末で要求情報を入力することができ、端末は要求情報をサーバに送信することができる。サーバは、ユーザにより入力された要求情報が案内条件を満たしているか否かを判断することができる。要求情報にプッシュ情報がバインディングされていないと判定した場合に、要求情報に照会意図が関連付けられていないと判定することができ、ひいては案内条件を満たすと判定することができる。要求情報に複数のプッシュ情報がバインディングされていない場合に、ユーザにより入力された要求情報に複数の照会意図が関連付けられていると判定することができ、ひいては案内条件を満たすと判定することができる。
本実施例のいくつかの選択可能な実施形態において、要求情報は、情報照会要求情報、マルチメディアコンテンツ要求情報及び通話要求情報のいずれか1つを含む。情報照会要求情報は、ユーザが天気、交通、生活などの一般的なタイプの情報を取得しようとするニーズに関連付けられている。マルチメディアコンテンツ要求情報は、ユーザがマルチメディアコンテンツを取得しようとするニーズに関連付けられている。通話要求情報は、ユーザの連絡先との通話ニーズに関連付けられている。
本実施例において、サーバに複数のスロットが予め設定されており、1つの単語が出現する位置を1つのスロットと称することができ、1つのスロットにおける値が複数であってもよい。各スロットの値を組み合わせることにより、大量の異なる予め設定された単語の組み合わせを構成することができ、サーバには大量の異なる予め設定された単語の組み合わせが予め記憶されており、予め設定された単語の組み合わせのそれぞれは1つの照会意図を示することができ、予め設定された単語の組み合わせのそれぞれにプッシュ情報が予めバインディングされている。例えば、サーバに予め設定された全てのスロットには、動作に対応するスロットと、リソース名称に対応するスロットと、リソースタイプに対応するスロットが含まれている。動作に対応するスロットの値は、閲覧したい、聞きたい、開き、再生などを含むことができる。リソース名称に対応するスロットの値は、大量のリソース名称を含むことができる。リソースタイプに対応するスロットの値は、ニュース、クリップ、音楽、映画を含むことができる。動作に対応するスロット、リソース名称に対応するスロット、リソースタイプに対応するスロットの異なる値を組み合わせることにより、複数の予め設定された単語の組み合わせを構成することができ、予め設定された単語の組み合わせのそれぞれは1つの照会意図を示すことができ、予め設定された単語の組み合わせのそれぞれにプッシュ情報が予めバインディングされている。ユーザにより入力された要求情報が予め設定された単語の組み合わせにマッチングしたかどうかによって、ユーザにより入力された要求情報に対応するプッシュ情報があるかどうかを判定することができ、ひいては照会意図が関連付けられているか否かを判定することができる。ユーザにより入力された要求情報が1つの予め設定された単語の組み合わせにマッチングした場合、この要求情報にこの予め設定された単語の組合せにバインディングされたプッシュ情報がバインディングされていると判定することができる。
本実施例において、ユーザにより入力された要求情報に複数の照会意図が関連付けられていると判定すると、フィードバックを行って照会意図をさらに明確にするようにユーザを案内するための案内情報を生成することができる。
例えば、ユーザは1つの要求情報を入力して、この要求情報は、サーバに予め記憶された複数の予め設定された単語の組み合わせにマッチングしており、各予め設定された単語の組み合わせにプッシュ情報が予めバインディングされており、マッチングしたすべての予め設定された単語の組み合わせには、プッシュ情報に含まれる複数の異なるタイプのプッシュ情報が予めバインディングされている。案内情報、例えば、「どのタイプの情報を取得しようとしますか」を生成することができる。
本実施例において、ユーザにより入力された要求情報に照会意図が関連付けられていないと判定した場合、他の要求情報を利用してプッシュ情報を取得するか否かを決定するようにユーザを案内するための案内情報を生成することができる。
例えば、ユーザにより入力された要求情報がサーバに予め記憶されたいずれかの照会意図を示すための予め設定された単語の組み合わせにマッチングしない場合に、インタラクション履歴に基づいて、要求情報における1つの単語を別の単語で置換した後に、予め設定された単語の組み合わせにマッチングした場合に、かかる置換を行って、新たな要求情報を取得することができる。そして、案内情報を生成することができ、例えば、「新たな要求情報を入力したいですか」を生成する。
また、例えば、サーバにユーザの連絡先情報に関連する複数の予め設定された単語組み合わせが予め記憶されており、予め設定された単語の組み合わせは、連絡先の氏名、連絡先の電話を含む。ユーザにより入力された要求情報は、1つの連絡先の氏名である小明を含むと、サーバは、ユーザにより入力された要求情報が小明の氏名及び小明の電話を含む予め設定された単語の組み合わせにマッチングしたと判定することができ、案内情報である「小明に電話をかけたいですか」を生成することができる。
本実施例のいくつかの選択可能な実施形態において、ユーザにより入力された要求情報は、ユーザにより入力された照会音声に対して音声認識を行って得られたものである。ユーザは、端末で要求情報に対応する照会音声を入力することができ、端末はユーザにより入力された要求情報に対応する照会音声をサーバに送信する。サーバによってこの照会音声を音声認識して、ユーザにより入力された要求情報を取得することができる。
本実施例のいくつかの選択可能な実施形態において、ユーザにより入力された要求情報がエンティティキーワードを含み、サーバにこのエンティティキーワードで示されるエンティティに属する複数のリソースタイプのプッシュ情報が予め記憶されており、各リソースタイプのプッシュ情報のそれぞれがこのエンティティキーワードを含む予め設定された1つの単語の組み合わせにバインディングされると、このユーザにより入力された要求情報と各リソースタイプのプッシュ情報のぞれぞれにバインディングされた、予め設定された単語の組み合わせのいずれにもマッチングしたと判定して、ユーザにより入力された要求情報に複数の照会意図が関連付けられていると判定することができる。エンティティキーワードで示されるエンティティの複数のリソースタイプから少なくとも1つのタイプを選択するようにユーザを案内するための案内情報を生成することができる。
例えば、ユーザは、要求情報である「ラヴソング」に対応する音声を入力する。この要求情報には、エンティティキーワードとしての「ラヴソング」のみが含まれている。サーバは、この端末から送信された音声を受信した後、音声認識により、ユーザが要求情報である「ラヴソング」を入力したと判定する。サーバは、ラヴソングというエンティティについて、ムービービデオリソースプールと音楽リソースプールとの両方にプッシュ情報が存在すると判定することができる。ラヴソングというエンティティのリソースタイプには映画、音楽などのリソースタイプが含まれる。プッシュ情報にはリソース名称、リソースの再生アドレスなどが含まれることができる。サーバは、ユーザにより入力された要求情報には、「ラヴソング」という映画を見る、「ラヴソング」という音楽を聞くなどの照会意図が関連付けられていると判定する。サーバは、「ラヴソングという映画及び音楽があり、どちらがほしいですか」という案内情報を生成することができる。サーバは、「ラヴソングという映画及び音楽があり、どちらがほしいですか」という案内情報を端末に送信する。端末は案内情報を受信した後に、「ラヴソングという映画及び音楽があり、どちらがほしいですか」という案内情報をユーザに提示する。
本実施例のいくつかの選択可能な実施形態において、ユーザにより入力された要求情報に対応するプッシュ情報がないと判定する場合、即ちユーザにより入力された要求情報に照会意図が関連付けられていないと判定して、且つユーザにより入力された要求情報における重みの高い複数の単語が1つの予め設定された単語の組み合わせに出現する場合に、ユーザにより入力された要求情報が不完全であるとさらに判定することができる。フィードバック情報を入力し続けてフィードバック情報と要求情報とで意図の明確な情報を構成するようにユーザを案内するための案内情報を生成することができる。言い換えれば、この案内情報は、フィードバック情報を入力し続けるようにユーザを案内するためのものであり、案内情報をユーザにフィードバックした後に、ユーザはフィードバック情報を入力し続けることができ、フィードバック情報と要求情報とでプッシュ情報がバインディングされている意図の明確な要求情報を構成することができる。
ユーザにより入力された要求情報に対応するプッシュ情報がないと判断した場合、即ちユーザにより入力された要求情報に照会意図が関連付けられていないと判定して、且つユーザにより入力された要求情報に予め設定された動作キーワードのみが含まれ、予め設定された動作キーワードに対応する動作対象キーワードが含まれない場合に、ユーザにより入力された要求情報が不完全であるとさらに判定することができる。また、予め設定された動作キーワードに対応する動作対象キーワードをフィードバック情報として入力し続けるようにユーザを案内するための案内情報を生成することができる。
例えば、ユーザが要求情報「見たい」を入力すると、この要求情報には予め設定された動作キーワード「見たい」のみが含まれている。サーバは、プッシュ情報がバインディングされ「見たい」を含む複数の予め設定された単語の組み合わせが予め格納されていると判定することができるが、「見たい」対象のコンテンツは空である。
サーバは、ユーザにより入力された要求情報が不完全であると判定することができる。サーバは、「よく聞こえません。何を見たいですか」という案内情報を生成することができる。サーバは、「よく聞こえません。何を見たいですか」という案内情報を端末に送信して、端末が受信した後に、ユーザに「よく聞こえません。何を見たいですか」という案内情報をユーザに提示する。ユーザは、「見たい」に対応する動作対象キーワードである、例えば「偶像研修生クリップ」に対応する音声をフィードバック情報として入力することができる。端末はこの音声をサーバに送信する。サーバは、音声認識を行った後に、ユーザにより入力されたフィードバック情報が、「見たい」に対応する動作対象キーワードである、例えば「偶像研修生クリップ」であると判定する。
本実施例のいくつかの選択可能な実施形態において、ユーザにより入力された要求情報に対応するプッシュ情報がないと判断した場合、即ちユーザにより入力された要求情報に照会意図が関連付けられていないと判定して、且つユーザにより入力された要求情報と類似する要求情報にプッシュ情報がバインディングされていると判定した場合に、ユーザにより入力された要求情報と類似の要求情報を意図の明確な要求情報として利用して、プッシュ情報を取得するかを決定するようにユーザを案内するための案内情報を生成することができる。
例えば、ユーザは、要求情報である「アイドル研修生クリップ」に対応する音声を入力する。サーバは、この端末から送信された音声を受信して音声認識を行った後に、ユーザにより入力された要求情報が「アイドル研修生クリップ」であると判定する。単語分割により「アイドル研修生、クリップ}を得た後に、{アイドル研修生、クリップ}にマッチングした予め設定された単語の組合せがないと判定する。サーバは、{アイドル研修生、クリップ}と、プッシュ情報がバインディングされている、予め設定された単語の組み合わせとの意味の類似度を計算して、計算された意味の類似度に基づいて、プッシュ情報がバインディングされている、予め設定された単語の組み合わせから、{アイドル研修生、クリップ}の意味と類似する{偶像研修生、クリップ}を含む予め設定された単語の組み合わせを検索することができる。{偶像研修生、クリップ}を含む予め設定された単語の組み合わせには、偶像研修生のクリップの再生アドレス、インターフェースを含むプッシュ情報がバインディングされている。サーバは、「偶像研修生のクリップを見たいですよね」という案内情報を生成することができる。「偶像研修生のクリップを見たいですよね」という案内情報を端末に送信する。端末は、サーバから送信された案内情報を受信した後に、「偶像研修生のクリップを見たいですよね」という案内情報をユーザに提示する。
上記インタラクション方法は、要求情報とユーザにより入力された案内情報に対応するフィードバック情報に基づいて、意図の明確な要求情報を生成するとともに、意図の明確な要求情報とバインディングされたプッシュ情報をユーザにフィードバックするステップ202を含む。
本実施例において、ユーザにより入力された要求情報に複数の照会意図が関連付けられていると判定した場合、案内情報を生成して、ユーザに案内情報をフィードバックした後に、ユーザは案内情報に対応するフィードバック情報を入力することができる。そして、要求情報とユーザにより入力された案内情報に対応するフィードバック情報に基づいて、意図の明確な要求情報を生成するとともに、意図の明確な要求情報とバインディングされたプッシュ情報をユーザにフィードバックすることができる。意図の明確な要求情報にはプッシュ情報がバインディングされている。
例えば、ユーザは1つの要求情報を入力する。この要求情報は、サーバに予め記憶された照会意図を示す複数の予め設定された単語の組み合わせにマッチングしたものである。各予め設定された単語の組み合わせにプッシュ情報が予めバインディングされている。予め設定された単語の組み合わせのぞれぞれに予めバインディングされているプッシュ情報には、複数の異なるタイプのプッシュ情報が含まれている。「どのタイプの情報を取得しようとしますか」とう案内情報を生成することができる。案内情報をユーザにフィードバックした後に、ユーザにより入力されたフィードバック情報を受信することができる。フィードバック情報は、ユーザにより入力された取得しようとするタイプの名称であってもよく、フィードバック情報をユーザにより入力された要求情報と組み合わせることにより、プッシュ情報がバインディングされている意図の明確な要求情報を構成することができる。それにより、意図の明確な要求情報によりプッシュ情報を取得して、プッシュ情報をユーザにプッシュすることができる。
本実施例において、ユーザにより入力された要求情報に照会意図が関連付けられていないと判定した場合に、他の要求情報を利用してプッシュ情報を取得するか否かを決定するようにユーザを案内するための案内情報を生成して、この案内情報をユーザにフィードバックした後に、ユーザはフィードバック情報を入力することができる。フィードバック情報は、肯定的な情報を示すものであってもよいし、否定的な情報を示すものであってもよい。ユーザにより入力された要求情報及びフィードバック情報に基づいて、意図の明確な要求情報を生成することができる。
例えば、ユーザにより入力された要求情報がサーバに予め記憶されたいずれかの照会意図を示すための予め設定された単語の組み合わせにマッチングしない場合に、インタラクション履歴に基づいて、要求情報における1つの単語を別の単語で置換した後に、照会意図を示すための予め設定された単語の組み合わせにマッチングした場合に、かかる置換を行って、新たな要求情報を取得することができる。そして、案内情報を生成することができ、例えば、「新たな要求情報を入力したいですか」という案内情報を生成する。案内情報をユーザにフィードバックした後に、ユーザは、肯定を示す単語、例えば「はい」、又は否定を示す単語、例えば「いいえ」を入力することができる。ユーザにより入力されたフィードバック情報が肯定を示す単語であると判定すると、この新たな要求情報をそのまま意図の明確な要求情報とすることができる。
本実施例において、ユーザにより入力された要求情報はエンティティキーワードを含み、ユーザにより入力された要求情報に複数の照会意図が関連付けられていると判断した後に、エンティティキーワードで示されるエンティティの複数のリソースタイプから少なくとも1つのタイプを選択するようにユーザを案内するための案内情報を生成することができる。案内情報をユーザにフィードバックした後、ユーザにより入力されたフィードバック情報を受信することができ、フィードバック情報は、エンティティキーワードで示されるエンティティの複数のリソースタイプから選択されたリソースタイプの名称であってもよい。サーバは、選択されたリソースタイプの名称をフィードバック情報としてエンティティキーワードと組み合わせることにより、プッシュ情報がバインディングされている意図の明確な要求情報を構成することができる。それにより、意図の明確な要求情報によりプッシュ情報を取得して、プッシュ情報をユーザにプッシュすることができる。
例えば、ユーザは、要求情報である「ラヴソング」に対応する音声を入力する。サーバは、この端末から送信された音声を受信した後、音声認識により、ユーザが要求情報である「ラヴソング」を入力したと判定する。サーバは、ラヴソングというエンティティついて、ムービービデオリソースプールと音楽リソースプールとの両方にプッシュ情報が存在すると判定することができる。プッシュ情報にはリソース名称、リソースの再生アドレスなどが含まれることができる。サーバは、ユーザにより入力された要求情報には、「ラヴソング」という映画を見る、「ラヴソング」という音楽を聞くなどの照会意図が関連付けられていると判定する。サーバは、「ラヴソングという映画及び音楽があり、どちらがほしいですか」という案内情報を生成することができる。サーバは、「ラヴソングという映画及び音楽があり、どちらがほしいですか」という案内情報を端末に送信する。端末は案内情報を受信した後に、「ラヴソングという映画及び音楽があり、どちらがほしいですか」という案内情報をユーザに提示する。ユーザは「映画」に対応する音声又は「音楽」に対応する音声を入力することができ、端末は「映画」に対応する音声又は「音楽」に対応する音声をサーバに送信して、サーバは、ユーザにより入力されたフィードバック情報が「映画」又は「音楽」であると判定して、「ラヴソング」と「映画」又は「音楽」とを意図の明確な要求情報に組み合わせることにより、「ラヴソング」という名称の映画に対応するプッシュ情報又は「ラヴソング」という音楽に対応するプッシュ情報を取得することができる。
本実施例において、ユーザにより入力された要求情報に照会意図が関連付けられていないと判定して、且つユーザにより入力された要求情報が不完全であると判定した場合に、フィードバック情報を入力し続けてフィードバック情報と要求情報とで意図の明確な情報を構成するようにユーザを案内するための案内情報を生成することができる。言い換えれば、この案内情報は、フィードバック情報を入力し続けるようにユーザを案内するためのものであり、案内情報をユーザにフィードバックした後に、ユーザはフィードバック情報を入力し続けることができ、フィードバック情報と要求情報とでプッシュ情報がバインディングされている意図の明確な要求情報を構成することができる。
例えば、ユーザが要求情報「見たい」を入力すると、この要求情報には予め設定された動作キーワード「見たい」のみが含まれている。サーバは、プッシュ情報がバインディングされ「見たい」を含む複数の予め設定された単語の組み合わせが予め格納されていると判定することができるが、「見たい」対象のコンテンツは空である。サーバは、ユーザにより入力された要求情報が不完全であると判定することができる。サーバは、「よく聞こえません。何を見たいですか」という案内情報を生成することができる。サーバは、「よく聞こえません。何を見たいですか」という案内情報を端末に送信して、端末が受信した後に、ユーザに「よく聞こえません。何を見たいですか」という案内情報をユーザに提示する。ユーザは、「見たい」に対応する動作対象キーワードである、例えば「偶像研修生クリップ」に対応する音声をフィードバック情報として入力することができる。端末は、この音声をサーバに送信する。サーバは、音声認識を行った後に、ユーザにより入力されたフィードバック情報が「見たい」に対応する動作対象キーワード、例えば「偶像研修生クリップ」であると判定して、「見たい」と、続けて入力されたフィードバック情報とをプッシュ情報がバインディングされている意図の明確な要求情報に組み合わせることができる。
本実施例において、ユーザにより入力された要求情報に対応するプッシュ情報がないと判断した場合、即ちユーザにより入力された要求情報に照会意図が関連付けられていないと判定して、且つユーザにより入力された要求情報と類似する要求情報にプッシュ情報がバインディングされていると判定した場合に、ユーザにより入力された要求情報の意味と類似の要求情報を意図の明確な要求情報として利用して、プッシュ情報を取得するかを決定するようにユーザを案内するための案内情報を生成することができる。
例えば、ユーザは、要求情報である「アイドル研修生クリップ」に対応する音声を入力する。サーバは、この端末から送信された音声を受信して音声認識を行った後に、ユーザにより入力された要求情報が「アイドル研修生クリップ」であると判定する。単語分割により「アイドル研修生、クリップ}を得た後に、{アイドル研修生、クリップ}にマッチングした予め設定された単語の組合せがないと判定する。サーバは、{アイドル研修生、クリップ}と、プッシュ情報がバインディングされている、予め設定された単語の組み合わせとの意味の類似度を計算して、計算された意味の類似度に基づいて、プッシュ情報がバインディングされている、予め設定された単語の組み合わせから、{アイドル研修生、クリップ}の意味と類似する{偶像研修生、クリップ}を含む予め設定された単語の組み合わせを検索することができる。{偶像研修生、クリップ}を含む予め設定された単語の組み合わせには、偶像研修生のクリップの再生アドレス、インターフェースを含むプッシュ情報がバインディングされている。サーバは、「偶像研修生のクリップを見たいですよね」という案内情報を生成することができる。「偶像研修生のクリップを見たいですよね」という案内情報を端末に送信する。端末は、サーバから送信された案内情報を受信した後に、「偶像研修生のクリップを見たいですよね」という案内情報をユーザに提示する。ユーザは、肯定を示す単語に対応する音声、例えば「はい」に対応する音声、又は否定を示す単語に対応する音声、例えば「いいえ」に対応する音声を入力することができる。サーバは、音声認識を行った後に、ユーザにより入力されたフィードバック情報が肯定を示す単語又は否定を示す単語であると判定する。ユーザにより入力されたフィードバック情報が肯定を示す単語であると判定すると、{偶像研修生、クリップ}を含む予め設定された単語の組み合せをそのまま意図の明確な情報とすることができる。
図3を参照すると、上記各図に示される方法の実施として、本願はインタラクション装置の一実施例を提供して、この装置の実施例は図2に示される方法の実施例に対応する。
図3に示すように、本実施例のインタラクション装置は、応答手段301、フィードバック手段302を備える。ここで、応答手段301は、ユーザにより入力された要求情報が、複数の照会意図が関連付けられていること及び照会意図が関連付けられていないことの一方を含む案内条件を満たすと判定したことに応答して、案内情報を生成するとともに、案内情報をユーザにフィードバックするように構成され、フィードバック手段302は、要求情報とユーザにより入力さらた案内情報に対応するフィードバック情報に基づいて、意図の明確な要求情報を生成するとともに、意図の明確な要求情報とバインディングされたプッシュ情報をユーザにフィードバックするように構成される。
本実施例のいくつかの選択可能な実施形態において、要求情報は、情報照会要求情報、マルチメディアコンテンツ要求情報及び通話要求情報のいずれか1つを含む。
本実施例のいくつかの選択可能な実施形態において、案内条件は、複数の照会意図が関連付けられていることを含み、要求情報は、エンティティキーワードを含み、前記案内情報は、前記エンティティキーワードで示されるエンティティのリソースタイプから少なくとも一つのリソースタイプを選択するようにユーザを案内するためのものである。
本実施例のいくつかの選択可能な実施形態において、案内条件は、照会意図が関連付けられていないことを含み、前記案内情報は、フィードバック情報を入力し続けてフィードバック情報と要求情報とで意図の明確な情報を構成するようにユーザを案内するためのものである。
本実施例のいくつかの選択可能な実施形態において、要求情報は、予め設定された動作キーワードを含み、フィードバック情報は、予め設定された動作キーワードに対応する動作対象キーワードを含む。
本実施例のいくつかの選択可能な実施形態において、案内条件は、照会意図が関連付けられていないことを含み、前記案内情報は、ユーザにより入力された要求情報と意味的に類似する要求情報を意図の明確な要求情報とするかどうかを決定するようにユーザを案内するためのものである。
本実施例のいくつかの選択可能な実施形態において、要求情報は、ユーザにより入力された照会音声に対して音声認識を行って得られたものであり、フィードバック情報は、ユーザにより入力されたフィードバック音声に対して音声認識を行って得られたものである。
図4には、本願の実施例のサーバを実現するのに適したコンピュータシステムの構成概略図が示されている。
図4に示すように、コンピュータシステムは、ROM(Read Only Memory)402に格納されているプログラム、または記憶部408からRAM(Random Access Memory)403にロードされたプログラムに従って各種の適切な動作および処理を実行するCPU(Central Processing Unit)401を備える。RAM403には、コンピュータシステムが動作するために必要な各種プログラムやデータも記憶されている。CPU401、ROM402及びRAM403は、バス404を介して相互に接続されている。また、バス404には、入出力(I/O)インタフェース405も接続されている。
I/Oインタフェース405には、入力部406と、出力部407と、ハードディスクなどを含む記憶部408と、LANカードやモデムなどのネットワークインタフェースカードを含む通信部409とが接続されている。通信部409は、インターネットのようなネットワークを介して通信処理を行う。ドライブ410も、必要に応じてI/Oインタフェース405に接続される。磁気ディスクや光ディスク、光磁気ディスク、半導体メモリなどのリムーバブルメディア411は、必要に応じてドライブ410にインストールされることにより、リムーバブルメディア711から読み出されたコンピュータプログラムが必要に応じて記憶部408にインストールされる。
特に、本願の実施例で説明されたプロセスは、コンピュータプログラムとして実施されることができる。例えば、本願の実施例は、フローチャートに示される方法を実行するための命令を含むコンピュータ可読媒体に担持されたコンピュータプログラムを含むコンピュータプログラム製品を含む。このコンピュータプログラムは、通信部409を介してネットワークからダウンロードしてインストールされ、および/またはリムーバブルメディア411からインストールされることができる。このコンピュータプログラムが中央処理手段(CPU)401によって実行されると、本願の方法で限定された上記機能が実行される。
なお、本願に記載のコンピュータ可読媒体は、コンピュータ可読信号媒体やコンピュータ可読記憶媒体、又は上記両方の任意の組み合わせであってもよい。コンピュータ可読記憶媒体は、特に限定されないが、例えば、電気や磁気、光、電磁気、赤外線または半導体のシステム、装置またはデバイスであってもく、またはこれらの任意の組み合わせであってもよい。コンピュータ可読記憶媒体のより具体的な例には、1つまたは複数のリードを有する電気的接続、ポータブルコンピュータディスク、ハードディスク、ランダムアクセスメモリ(RAM)、リードオンリーメモリ(ROM)、消去可能プログラマブルリードオンリーメモリ(EPROMまたはフラッシュメモリ)、光ファイバ、ポータブルコンパクトディスク読み取り専用メモリ(CD−ROM)、光記憶デバイス、磁気記憶デバイス、または上述の任意の適切な組合せが含まれるが、これらに限定されない。本願において、コンピュータ可読記憶媒体は、プログラムを含むかまたは格納する任意の有形媒体であってもよく、そのプログラムは、情報を実行するシステム、装置またはデバイスによって使用されてもよく、またはそれらとともに使用されてもよい。本願において、コンピュータ可読信号媒体は、ベースバンドでまたはキャリアの一部として伝搬される、コンピュータ読み取り可能なプログラムコードを担持するデータ信号を含むことができる。このように伝搬されるデータ信号は、電磁信号、光信号、または上述の任意の適切な組み合わせを含む様々な形態とすることができるが、これらに限定されない。コンピュータ可読信号媒体は、さらに、情報を実行するシステム、装置またはデバイスによって使用され、またはそれらとともに使用されるプログラムを送信、伝播または伝搬することが可能なコンピュータ可読記憶媒体以外の任意のコンピュータ可読媒体とすることができる。コンピュータ可読媒体に含まれるプログラムコードは、無線や電線、光ケーブル、RFなど、またはそれらの任意の適切な組合せを含む任意の適切な媒体を介して伝送されてることができるが、これらに限定されない。
図面におけるフローチャートおよびブロック図は、本願の様々な実施例によるシステム、方法およびコンピュータプログラム製品の実施可能な構成、機能および動作を示す。この点に関して、フローチャートまたはブロック図の各ブロックは、所定の論理機能を実施するための1つまたは複数の実行可能な情報を含むモジュール、ブロックまたはコードの一部を示すことができる。なお、いくつかの置換例としての実施例では、ブロックに示す機能は、図面に示す順序とは異なる順序で実行されてもよい。例えば、接続して示される2つのブロックは、実際に、実質的に並行して実行されてもよく、かかる機能によっては、相互に逆の順序で実行されてもよい。なお、ブロック図および/またはフローチャートにおける各ブロック、ならびにブロック図および/またはフローチャートにおけるブロックの組合せは、所定の機能または動作を実行する専用のハードウェアによるシステムによって実施されてもよく、または専用ハードウェアとコンピュータ情報との組合せによって実施されてもよい。
以上の説明は、本出願の好適な実施例及び適用される技術原理の説明に過ぎない。当業者であれば、本願に係る発明の範囲は、上記技術的特徴の特定の組み合わせからなる技術的手段に限定されるものではなく、同時に前記発明の主旨から逸脱しない範囲で上記技術的特徴又はその等価な特徴によって任意に組み合わせて形成される他の技術的手段を含むことが理解されべきである。例えば、上記特徴が本願に開示された(これに限定されない)同様な機能を有する技術的特徴と相互に置換されて形成される技術的手段である。

Claims (15)

  1. ユーザにより入力された要求情報が、複数の照会意図が関連付けられていること及び照会意図が関連付けられていないことの一方を含む案内条件を満たすと判定したことに応答して、案内情報を生成するとともに、案内情報をユーザにフィードバックすることと、
    要求情報とユーザにより入力された案内情報に対応するフィードバック情報に基づいて、意図の明確な要求情報を生成するとともに、意図の明確な要求情報とバインディングされたプッシュ情報をユーザにフィードバックすることとを含むインタラクション方法。
  2. 要求情報は、情報照会要求情報、マルチメディアコンテンツ要求情報、及び通話要求情報のいずれか一つを含む、請求項1に記載の方法。
  3. 案内条件は、複数の照会意図が関連付けられていることを含み、要求情報は、エンティティキーワードを含み、前記案内情報は、前記エンティティキーワードで示されるエンティティのリソースタイプから少なくとも一つのリソースタイプを選択するようにユーザを案内するためのものである、請求項2に記載の方法。
  4. 案内条件は、照会意図が関連付けられていないことを含み、前記案内情報は、フィードバック情報を入力し続けてフィードバック情報と要求情報とで意図の明確な情報を構成するようにユーザを案内するためのものである、請求項2に記載の方法。
  5. 要求情報は、予め設定された動作キーワードを含み、フィードバック情報は、予め設定された動作キーワードに対応する動作対象キーワードを含む、請求項4に記載の方法。
  6. 案内条件は、照会意図が関連付けられていないことを含み、前記案内情報は、ユーザにより入力された要求情報と意味的に類似する要求情報を意図の明確な要求情報とするかどうかを決定するようにユーザを案内するためのものである、請求項2に記載の方法。
  7. 要求情報は、ユーザにより入力された照会音声に対して音声認識を行って得られたものであり、フィードバック情報は、ユーザにより入力されたフィードバック音声に対して音声認識を行って得られたものである、請求項1〜6のいずれか1項に記載の方法。
  8. ユーザにより入力された要求情報が、複数の照会意図が関連付けられていること及び照会意図が関連付けられていないことの一方を含む案内条件を満たすと判定したことに応答して、案内情報を生成するとともに、案内情報をユーザにフィードバックするように構成される応答手段と、
    要求情報とユーザにより入力された案内情報に対応するフィードバック情報に基づいて、意図の明確な要求情報を生成するとともに、意図の明確な要求情報とバインディングされたプッシュ情報をユーザにフィードバックするように構成されるフィードバック手段とを備えるインタラクション装置。
  9. 要求情報は、情報照会要求情報、マルチメディアコンテンツ要求情報、及び通話要求情報のいずれか一つを含む、請求項8に記載の装置。
  10. 案内条件は、複数の照会意図が関連付けられていることを含み、要求情報は、エンティティキーワードを含み、前記案内情報は、前記エンティティキーワードで示されるエンティティのリソースタイプから少なくとも一つのリソースタイプを選択するようにユーザを案内するためのものである、請求項9に記載の装置。
  11. 案内条件は、照会意図が関連付けられていないことを含み、前記案内情報は、フィードバック情報を入力し続けてフィードバック情報と要求情報とで意図の明確な情報を構成するようにユーザを案内するためのものである、請求項9に記載の装置。
  12. 要求情報は、予め設定された動作キーワードを含み、フィードバック情報は、予め設定された動作キーワードに対応する動作対象キーワードを含む、請求項11に記載の装置。
  13. 案内条件は、照会意図が関連付けられていないことを含み、前記案内情報は、ユーザにより入力された要求情報と意味的に類似する要求情報を意図の明確な要求情報とするかどうかを決定するようにユーザを案内するためのものである、請求項9に記載の装置。
  14. 要求情報は、ユーザにより入力された照会音声に対して音声認識を行って得られたものであり、フィードバック情報は、ユーザにより入力されたフィードバック音声に対して音声認識を行って得られたものである、請求項8〜13のいずれか1項に記載の装置。
  15. コンピュータプログラムが記憶されているコンピュータ可読媒体であって、前記コンピュータプログラムが実行される場合、請求項1〜7のいずれか1項に記載の方法を実現させる、コンピュータ可読媒体。
JP2019122909A 2018-07-04 2019-07-01 インタラクション方法および装置 Active JP7112991B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN201810725631.8A CN108881466B (zh) 2018-07-04 2018-07-04 交互方法和装置
CN201810725631.8 2018-07-04

Publications (2)

Publication Number Publication Date
JP2020009439A true JP2020009439A (ja) 2020-01-16
JP7112991B2 JP7112991B2 (ja) 2022-08-04

Family

ID=64298862

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019122909A Active JP7112991B2 (ja) 2018-07-04 2019-07-01 インタラクション方法および装置

Country Status (3)

Country Link
US (1) US11081108B2 (ja)
JP (1) JP7112991B2 (ja)
CN (1) CN108881466B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210174795A1 (en) * 2019-12-10 2021-06-10 Rovi Guides, Inc. Systems and methods for providing voice command recommendations

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10726838B2 (en) * 2018-06-14 2020-07-28 Disney Enterprises, Inc. System and method of generating effects during live recitations of stories
CN109979450B (zh) * 2019-03-11 2021-12-07 海信视像科技股份有限公司 信息处理方法、装置及电子设备
CN113327609B (zh) * 2019-04-23 2022-06-28 百度在线网络技术(北京)有限公司 用于语音识别的方法和装置
CN110413627A (zh) * 2019-07-30 2019-11-05 腾讯科技(深圳)有限公司 一种信息优化方法、装置、服务器及存储介质
US12020696B2 (en) * 2019-10-21 2024-06-25 Soundhound Ai Ip, Llc Automatic synchronization for an offline virtual assistant
CN111128168A (zh) * 2019-12-30 2020-05-08 斑马网络技术有限公司 语音控制方法、装置及存储介质
CN112004131A (zh) * 2020-08-12 2020-11-27 海信电子科技(武汉)有限公司 一种显示***
CN112053688B (zh) * 2020-08-27 2024-03-08 海信视像科技股份有限公司 一种语音交互方法及交互设备、服务器
CN112740323B (zh) * 2020-12-26 2022-10-11 华为技术有限公司 一种语音理解方法及装置
CN113299293A (zh) * 2021-05-25 2021-08-24 阿波罗智联(北京)科技有限公司 语音识别结果处理方法和装置、电子设备、计算机介质

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04182857A (ja) * 1990-11-19 1992-06-30 Nippon Telegr & Teleph Corp <Ntt> コマンド処理方式
JP2001249685A (ja) * 2000-03-03 2001-09-14 Alpine Electronics Inc 音声対話装置
JP2011150682A (ja) * 2010-01-22 2011-08-04 Google Inc 音声コマンドの多次元曖昧性解消
US20140272821A1 (en) * 2013-03-15 2014-09-18 Apple Inc. User training by intelligent digital assistant

Family Cites Families (30)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP0826172A2 (en) * 1996-03-05 1998-03-04 Koninklijke Philips Electronics N.V. Transaction system based on a bidirectional speech channel through status graph building and problem detection for thereupon providing feedback to a human user person
US6944447B2 (en) * 2001-04-27 2005-09-13 Accenture Llp Location-based services
US8082264B2 (en) * 2004-04-07 2011-12-20 Inquira, Inc. Automated scheme for identifying user intent in real-time
RU2007104707A (ru) * 2004-07-09 2008-08-20 Аол Ллк (Us) Устранение неоднозначности неоднозначных символов
US20060235694A1 (en) * 2005-04-14 2006-10-19 International Business Machines Corporation Integrating conversational speech into Web browsers
US9009046B1 (en) * 2005-09-27 2015-04-14 At&T Intellectual Property Ii, L.P. System and method for disambiguating multiple intents in a natural language dialog system
US9318108B2 (en) * 2010-01-18 2016-04-19 Apple Inc. Intelligent automated assistant
US7734623B2 (en) * 2006-11-07 2010-06-08 Cycorp, Inc. Semantics-based method and apparatus for document analysis
CN101339551B (zh) * 2007-07-05 2013-01-30 日电(中国)有限公司 自然语言查询需求扩展设备及其方法
US8140335B2 (en) * 2007-12-11 2012-03-20 Voicebox Technologies, Inc. System and method for providing a natural language voice user interface in an integrated voice navigation services environment
US8527489B1 (en) * 2012-03-07 2013-09-03 Google Inc. Suggesting a search engine to search for resources
US20130282702A1 (en) * 2012-04-18 2013-10-24 Yahoo! Inc. Method and system for search assistance
US9183310B2 (en) * 2012-06-12 2015-11-10 Microsoft Technology Licensing, Llc Disambiguating intents within search engine result pages
US9805718B2 (en) * 2013-04-19 2017-10-31 Sri Internaitonal Clarifying natural language input using targeted questions
US20140344261A1 (en) * 2013-05-20 2014-11-20 Chacha Search, Inc Method and system for analyzing a request
US10380193B2 (en) * 2014-01-08 2019-08-13 Microsoft Technology Licensing, Llc Result prominence in search
DE112014006614B4 (de) * 2014-04-22 2018-04-12 Mitsubishi Electric Corporation Benutzerschnittstellensystem, Benutzerschnittstellensteuereinrichtung, Benutzerschnittstellensteuerverfahren und Benutzerschnittstellensteuerprogramm
US10726831B2 (en) * 2014-05-20 2020-07-28 Amazon Technologies, Inc. Context interpretation in natural language processing using previous dialog acts
CN106157955A (zh) * 2015-03-30 2016-11-23 阿里巴巴集团控股有限公司 一种语音控制方法及装置
US10388277B1 (en) * 2015-06-25 2019-08-20 Amazon Technologies, Inc. Allocation of local and remote resources for speech processing
US10769189B2 (en) * 2015-11-13 2020-09-08 Microsoft Technology Licensing, Llc Computer speech recognition and semantic understanding from activity patterns
US20170242886A1 (en) * 2016-02-19 2017-08-24 Jack Mobile Inc. User intent and context based search results
US9922648B2 (en) * 2016-03-01 2018-03-20 Google Llc Developer voice actions system
US20190005950A1 (en) * 2016-03-30 2019-01-03 Mitsubishi Electric Corporation Intention estimation device and intention estimation method
DK179309B1 (en) * 2016-06-09 2018-04-23 Apple Inc Intelligent automated assistant in a home environment
US10257241B2 (en) * 2016-12-21 2019-04-09 Cisco Technology, Inc. Multimodal stream processing-based cognitive collaboration system
US10277743B1 (en) * 2017-03-21 2019-04-30 Amazon Technologies, Inc. Configurable natural language contact flow
CN107452378A (zh) * 2017-08-15 2017-12-08 北京百度网讯科技有限公司 基于人工智能的语音交互方法和装置
CN108153904A (zh) * 2018-01-17 2018-06-12 北京百度网讯科技有限公司 语料收集方法、装置和计算机设备
US10922493B1 (en) * 2018-09-28 2021-02-16 Splunk Inc. Determining a relationship recommendation for a natural language request

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04182857A (ja) * 1990-11-19 1992-06-30 Nippon Telegr & Teleph Corp <Ntt> コマンド処理方式
JP2001249685A (ja) * 2000-03-03 2001-09-14 Alpine Electronics Inc 音声対話装置
JP2011150682A (ja) * 2010-01-22 2011-08-04 Google Inc 音声コマンドの多次元曖昧性解消
US20140272821A1 (en) * 2013-03-15 2014-09-18 Apple Inc. User training by intelligent digital assistant

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20210174795A1 (en) * 2019-12-10 2021-06-10 Rovi Guides, Inc. Systems and methods for providing voice command recommendations
US11676586B2 (en) * 2019-12-10 2023-06-13 Rovi Guides, Inc. Systems and methods for providing voice command recommendations
US12027169B2 (en) * 2019-12-10 2024-07-02 Rovi Guides, Inc. Systems and methods for providing voice command recommendations

Also Published As

Publication number Publication date
US20200013400A1 (en) 2020-01-09
CN108881466B (zh) 2020-06-26
US11081108B2 (en) 2021-08-03
CN108881466A (zh) 2018-11-23
JP7112991B2 (ja) 2022-08-04

Similar Documents

Publication Publication Date Title
JP7112991B2 (ja) インタラクション方法および装置
KR102660922B1 (ko) 복수의 지능형 개인 비서 서비스를 위한 관리 계층
US10573303B2 (en) Method and apparatus for voice control
JP6850321B2 (ja) 情報を生成するための方法と装置
US12034988B2 (en) Radio station provider management systems and methods
US10013232B2 (en) Wireless speaker connection management
US20150347511A1 (en) Universal identifier
CN107844587B (zh) 用于更新多媒体播放列表的方法和装置
EP3420479B1 (en) Digital media content comparator
WO2016110156A1 (zh) 语音搜索方法、装置、终端和计算机存储介质
US10372754B2 (en) Creating an audio file sample based upon user preferences
US20190138265A1 (en) Systems and methods for managing displayless portable electronic devices
WO2017109478A1 (en) Media content sharing between users having associated content platforms
CN113360704A (zh) 语音播放方法、装置和电子设备
CN112148848A (zh) 一种问答处理方法及装置
CN103745009A (zh) 信息处理方法和信息处理设备
CN111046219B (zh) 音频文件存储、搜索的方法、装置、终端、服务器及***
US20230376760A1 (en) Steering for Unstructured Media Stations
CN108062353A (zh) 播放多媒体文件的方法和电子设备
KR102220253B1 (ko) 메신저 서비스 시스템, 그 시스템에서의 상용구를 이용한 메신저 서비스 방법 및 장치
CN107340968B (zh) 一种基于手势来播放多媒体文件的方法、设备和计算机可读存储介质
CN117319718A (zh) 媒体控制方法、车载终端、存储介质及计算机程序产品
JP2024511336A (ja) 音楽コンテンツを推薦する方法および装置
KR101954802B1 (ko) 오디오 데이터를 이용한 프레즌스 정보 제공 시스템, 이를 위한 장치 및 방법
JP2013073273A (ja) 通信装置、通信システム、検索方法、及び、プログラム

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190729

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190729

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200811

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200818

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20201113

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201209

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210216

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210430

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20210531

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210705

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210727

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210914

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20210914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220104

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220404

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220705

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220725

R150 Certificate of patent or registration of utility model

Ref document number: 7112991

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150