JP6309539B2 - 音声入力を実現する方法および装置 - Google Patents
音声入力を実現する方法および装置 Download PDFInfo
- Publication number
- JP6309539B2 JP6309539B2 JP2015549964A JP2015549964A JP6309539B2 JP 6309539 B2 JP6309539 B2 JP 6309539B2 JP 2015549964 A JP2015549964 A JP 2015549964A JP 2015549964 A JP2015549964 A JP 2015549964A JP 6309539 B2 JP6309539 B2 JP 6309539B2
- Authority
- JP
- Japan
- Prior art keywords
- participle
- input
- information
- character string
- user
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000000034 method Methods 0.000 title claims description 53
- 230000005540 biological transmission Effects 0.000 claims description 27
- 238000012790 confirmation Methods 0.000 claims description 5
- 238000004891 communication Methods 0.000 description 33
- 230000004044 response Effects 0.000 description 6
- 238000010586 diagram Methods 0.000 description 4
- 238000010801 machine learning Methods 0.000 description 4
- 238000003672 processing method Methods 0.000 description 2
- 238000012549 training Methods 0.000 description 2
- 238000011161 development Methods 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000003993 interaction Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/08—Speech classification or search
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F3/00—Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
- G06F3/16—Sound input; Sound output
- G06F3/167—Audio in a user interface, e.g. using voice commands for navigating, audio feedback
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/28—Constructional details of speech recognition systems
- G10L15/30—Distributed recognition, e.g. in client-server systems, for mobile phones or network applications
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/04—Segmentation; Word boundary detection
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/26—Speech to text systems
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/221—Announcement of recognition results
-
- G—PHYSICS
- G10—MUSICAL INSTRUMENTS; ACOUSTICS
- G10L—SPEECH ANALYSIS TECHNIQUES OR SPEECH SYNTHESIS; SPEECH RECOGNITION; SPEECH OR VOICE PROCESSING TECHNIQUES; SPEECH OR AUDIO CODING OR DECODING
- G10L15/00—Speech recognition
- G10L15/22—Procedures used during a speech recognition process, e.g. man-machine dialogue
- G10L2015/226—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics
- G10L2015/228—Procedures used during a speech recognition process, e.g. man-machine dialogue using non-speech characteristics of application context
Landscapes
- Engineering & Computer Science (AREA)
- Health & Medical Sciences (AREA)
- Audiology, Speech & Language Pathology (AREA)
- Human Computer Interaction (AREA)
- Physics & Mathematics (AREA)
- Multimedia (AREA)
- Computational Linguistics (AREA)
- Acoustics & Sound (AREA)
- Theoretical Computer Science (AREA)
- General Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- General Engineering & Computer Science (AREA)
- Telephonic Communication Services (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
- User Interface Of Digital Computer (AREA)
- Machine Translation (AREA)
Description
本発明の一態様によれば、ネットワーク装置端末において音声入力を実現する方法であって、
音声入力を獲得するステップaと、
音声認識モデルに基づいて、前記音声入力情報に対応する入力文字列を確定するステップbと、
前記入力文字列中の分詞が対応する出現確率情報を確定して、前記分詞の確度情報を獲得するステップcと、
前記入力文字列および前記分詞の確度情報を前記音声入力情報に対応するユーザ装置に送信するステップdとを含む方法を提供する。
ネットワーク装置が送信した音声入力情報が対応する入力文字列、および前記入力文字列中の分詞の確度情報を獲得するステップAと、
前記分詞の確度情報に基づいて、前記入力文字列をユーザに提供するステップBと、
を含む方法をさらに提供する。
音声入力情報を獲得する入力獲得ユニットと、
音声認識モデルに基づいて、前記音声入力情報に対応する入力文字列を確定する配列確定ユニットと、
前記入力文字列中の分詞が対応する出現確率情報を確定して、前記分詞の確度情報を獲得する確度確定ユニットと、
前記入力文字列および前記分詞の確度情報を前記音声入力情報に対応するユーザ装置に送信する送信ユニットと、
を含むネットワーク装置をさらに提供する。
ネットワーク装置が送信した音声入力情報が対応する入力文字列、および前記入力文字列中の分詞の確度情報を獲得する配列獲得ユニットと、
前記分詞の確度情報に基づいて、前記入力文字列をユーザに提供する提供ユニットと、
を含むユーザ装置をさらに提供する。
当業者は、その他の音声入力実現可能なネットワーク装置およびユーザ装置を本発明に同様に適用したものも、本発明の保護範囲内に含まれ、引用を以てここに含まれるものとすることを理解されたい。
具体的には、前記配列確定ユニット12は、予め設定されたまたは学習にて得られた音声認識モデルに基づいて、例えば音声入力情報に分割を行うことにより、前記音声入力情報に対応する1つまたは複数の入力音節を獲得し、前記入力音節の固有ベクトルを順次前記音声認識モデルのテンプレート等にマッチングさせることにより、前記音節に対応する1つまたは複数の分詞または候補分詞を獲得し、順次前記入力音節にマッチングを行うことにより、前記音声入力情報に対応する入力文字列を確定する。
そのうち、前記入力文字列には前記音声入力情報に対応する複数の分詞または候補分詞を含む。
具体的には、前記閾値確定ユニットは、前記分詞および前記分詞が対応する候補分詞の出現確率情報を獲得してもよく、例えば前記1つまたは複数の分詞および候補分詞の出現確率に対して、平均、加重平均、メジアン等の方式を実行し、前記出現確率閾値を確定する。
例えば、前記分詞および候補分詞の出現確率情報が{50%、45%、5%}である場合、出現確率閾値を50%としても、不適切である可能性が高い。
具体的には、前記配列確定ユニット12は、例えば前記音声入力情報が対応する文脈情報を結合し、対応する音声認識モデルを確定する。
あるいは、汎用の音声認識モデルを用いて前記入力文字列を確定し、前記文脈情報を結合し、前記入力文字列に対して、例えば文脈マッチングを向上させる文字列の重み付けまたは優先度等の調整を行う。そのうち、前記入力文字列の確定方式と図1における前記配列確定ユニット12の確定方式は同一または相似していることから、詳述しないが、引用を以てここに含まれるものとする。
具体的には、選択肢提供ユニット26’は、前記選択肢受信ユニット25’で獲得した1つまたは複数の選択肢に基づいて、システムが予め設定した、またはユーザが設定する方式で、前記1つまたは複数の選択肢のうち少なくとも1つを、前記ユーザとインタラクションを行うことによって前記ユーザに提供する。
ここで、前記ユーザは前記音声入力情報の提供に対応するユーザ、あるいは前記音声入力情報を受信する指定されたユーザ等を含むが、これに限定されるものではない。
具体的には、ステップs1において、ネットワーク装置1が音声入力情報を獲得し、ステップs2において、ネットワーク装置1が音声認識モデルに基づいて、前記音声入力情報に対応する入力文字列を確定し、ステップs3において、ネットワーク装置1が前記入力文字列中の分詞が対応する出現確率情報を確定して、前記分詞の確度情報を獲得し、ステップs4において、ネットワーク装置1が前記入力文字列および前記分詞の確度情報を前記音声入力情報に対応するユーザ装置に送信する。それに対応して、ステップs4において、ユーザ装置2が、ネットワーク装置が送信した音声入力情報が対応する入力文字列、および前記入力文字列中の分詞の確度情報を獲得し、ステップs5において、ユーザ装置2が前記分詞の確度情報に基づいて、前記入力文字列をユーザに提供する。
具体的には、ステップs1’において、ネットワーク装置1が音声入力情報を獲得し、ステップs2’において、ネットワーク装置1が音声認識モデルに基づいて、前記音声入力情報に対応する入力文字列を確定し、ステップs3’において、ネットワーク装置1が前記入力文字列中の分詞が対応する出現確率情報を確定して、前記分詞の確度情報を獲得し、ステップs4’において、ネットワーク装置1が前記入力文字列および前記分詞の確度情報を前記音声入力情報に対応するユーザ装置に送信する。
Claims (16)
- ネットワーク装置端末において音声入力を実現する方法であって、
音声入力情報を獲得するステップaと、
予め設定されたまたは学習にて得られた音声認識モデルに基づいて、前記音声入力情報を分割することにより、前記音声入力情報に対応する1つまたは複数の入力音節を獲得し、前記入力音節の固有ベクトルを順次前記音声認識モデルのテンプレートにマッチングさせることにより、当該各音節に対応する1つまたは複数の分詞を獲得し、順次前記入力音節にマッチングを行うことにより前記音声入力情報に対応する入力文字列を確定するステップであって、前記入力文字列は、前記音声入力情報に対応する複数の分詞と、同じ入力音節に対応する同音異義語である少なくとも2つの分詞を含むものであるステップbと、
前記入力文字列中の分詞の前記入力文字列における条件付き確率を確定して、前記分詞の出現確率情報とし、出現確率閾値及び前記分詞の前記出現確率情報に基づいて前記分詞の確度情報を確定するステップcと、
前記入力文字列および前記分詞の確度情報を前記音声入力情報に対応するユーザ装置に送信するステップdと、
を含む方法。 - 前記ユーザ装置が送信した前記入力文字列中の前記少なくとも1つの分詞に関する選択肢のアクセス要求を獲得するステップと、
前記アクセス要求に基づいて、前記少なくとも1つの分詞に対応する1つまたは複数の選択肢を確定するステップxと、
前記1つまたは複数の選択肢を前記ユーザ装置に送信するステップと、
をさらに含む請求項1に記載の方法。 - 前記ステップxは、前記アクセス要求に基づいて、前記少なくとも1つの分詞の文脈情報に合わせて基づいて、前記少なくとも1つの分詞に対応する1つまたは複数の選択肢を確定するステップを含む請求項2に記載の方法。
- 前記分詞の出現確率情報、および前記分詞に対応する候補分詞の出現確率情報に基づいて前記出現確率閾値を確定するステップをさらに含む請求項1に記載の方法。
- 前記ステップbは、音声認識モデルに基づいて、前記音声入力情報が対応する文脈情報に合わせて基づいて、前記音声入力情報に対応する入力文字列を確定するステップを含む請求項1〜4のいずれか1項に記載の方法。
- ユーザ装置端末において音声入力の実現を補助する方法であって、
ネットワーク装置が送信した音声入力情報が対応する入力文字列、および前記入力文字列中の分詞の確度情報を獲得するステップであって、前記入力文字列は、前記音声入力情報に対応する複数の分詞と、同じ入力音節に対応する同音異義語である少なくとも2つの分詞を含むものであり、前記確度情報は前記分詞の前記入力文字列中の条件付き確率により確定されるステップAと、
前記分詞の確度情報に基づいて、前記入力文字列をユーザに提供するステップBと、
を含み、
前記入力文字列は、前記ネットワーク装置により、
予め設定されたまたは学習にて得られた音声認識モデルに基づいて、前記音声入力情報を分割することにより、前記音声入力情報に対応する1つまたは複数の入力音節を獲得し、前記入力音節の固有ベクトルを順次前記音声認識モデルのテンプレートにマッチングさせることにより、当該各音節に対応する1つまたは複数の分詞を獲得し、順次前記入力音節にマッチングを行うことにより前記音声入力情報に対応する入力文字列を確定する
ことにより、確定されるものである
方法。 - 前記ユーザの前記入力文字列中の少なくとも1つの分詞に対する選択肢の要求操作を獲得するステップと、
前記要求操作に基づいて前記ネットワーク装置に前記少なくとも1つの分詞に関する選択肢のアクセス要求を送信するステップと、
前記ネットワーク装置が前記アクセス要求に基づいて送信した1つまたは複数の選択肢を受信するステップと、
前記1つまたは複数の選択肢のうち少なくとも1つを前記ユーザに提供するステップと、
をさらに含む請求項6に記載の方法。 - ユーザの前記1つまたは複数の選択肢のうち少なくとも1つに対する選択操作を獲得するステップと、
前記選択操作に対応する選択肢に基づいて、前記入力文字列中の対応する分詞を置換して、更新後の前記入力文字列を獲得するステップと、
をさらに含む請求項7に記載の方法。 - 音声入力を実現するネットワーク装置であって、
音声入力情報を獲得する入力獲得ユニットと、
予め設定されたまたは学習にて得られた音声認識モデルに基づいて、音声入力情報を分割することにより、前記音声入力情報に対応する1つまたは複数の入力音節を獲得し、前記入力音節の固有ベクトルを順次前記音声認識モデルのテンプレートにマッチングさせることにより、当該各音節に対応する1つまたは複数の分詞を獲得し、順次前記入力音節にマッチングを行うことにより前記音声入力情報に対応する入力文字列を確定するユニットであって、前記入力文字列は、前記音声入力情報に対応する複数の分詞と、同じ入力音節に対応する同音異義語である少なくとも2つの分詞を含むものである配列確定ユニットと、
前記入力文字列中の分詞の前記入力文字列における条件付き確率を確定して、前記分詞の出現確率情報とし、出現確率閾値及び前記分詞の前記出現確率情報に基づいて前記分詞の確度情報を獲得する確度確定ユニットと、
前記入力文字列および前記分詞の確度情報を前記音声入力情報に対応するユーザ装置に送信する送信ユニットと、
を含むネットワーク装置。 - 前記ユーザ装置が送信した前記入力文字列中の前記少なくとも1つの分詞に関する選択肢のアクセス要求を獲得する要求獲得ユニットと、
前記アクセス要求に基づいて、前記少なくとも1つの分詞に対応する1つまたは複数の選択肢を確定する選択肢確定ユニットと、
前記1つまたは複数の選択肢を前記ユーザ装置に送信する選択肢送信ユニットと、
をさらに含む請求項9に記載のネットワーク装置。 - 前記選択肢確定ユニットは、前記アクセス要求に基づいて、前記少なくとも1つの分詞の文脈情報に合わせて基づいて、前記少なくとも1つの分詞に対応する1つまたは複数の選択肢を確定する請求項10に記載のネットワーク装置。
- 前記分詞の出現確率情報、および前記分詞に対応する候補分詞の出現確率情報に基づいて前記出現確率閾値を確定する閾値確定ユニットをさらに含む請求項9に記載のネットワーク装置。
- 前記配列確定ユニットは、音声認識モデルに基づいて、前記音声入力情報が対応する文脈情報に合わせて基づいて、前記音声入力情報に対応する入力文字列を確定する請求項9〜12のいずれか1項に記載のネットワーク装置。
- 音声入力の実現を補助するユーザ装置であって、
ネットワーク装置が送信した音声入力情報が対応する入力文字列、および前記入力文字列中の分詞の確度情報を獲得する配列獲得ユニットであって、前記入力文字列は、前記音声入力情報に対応する複数の分詞と、同じ入力音節に対応する同音異義語である少なくとも2つの分詞を含むものであり、前記確度情報は前記分詞の前記入力文字列中の条件付き確率により確定される配列獲得ユニットと、
前記分詞の確度情報に基づいて、前記入力文字列をユーザに提供する提供ユニットと、
を含み、
前記入力文字列は、前記ネットワーク装置により、
予め設定されたまたは学習にて得られた音声認識モデルに基づいて、前記音声入力情報を分割することにより、前記音声入力情報に対応する1つまたは複数の入力音節を獲得し、前記入力音節の固有ベクトルを順次前記音声認識モデルのテンプレートにマッチングさせることにより、当該各音節に対応する1つまたは複数の分詞を獲得し、順次前記入力音節にマッチングを行うことにより前記音声入力情報に対応する入力文字列を確定する
ことにより、確定されるものである
ユーザ装置。 - 前記ユーザの前記入力文字列中の少なくとも1つの分詞に対する選択肢の要求操作を獲得する選択肢要求獲得ユニットと、
前記要求操作に基づいて前記ネットワーク装置に前記少なくとも1つの分詞に関する選択肢のアクセス要求を送信するアクセス要求送信ユニットと、
前記ネットワーク装置が前記アクセス要求に基づいて送信した1つまたは複数の選択肢を受信する選択肢受信ユニットと、
前記1つまたは複数の選択肢のうち少なくとも1つを前記ユーザに提供する選択肢提供ユニットと、
をさらに含む請求項14に記載のユーザ装置。 - ユーザの前記1つまたは複数の選択肢のうち少なくとも1つに対する選択操作を獲得する操作獲得ユニットと、
前記選択操作が対応する選択肢に基づいて、前記入力文字列中の対応する分詞を置換して、更新後の前記入力文字列を獲得する置換ユニットと、
をさらに含む請求項15に記載のユーザ装置。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
CN201210592826.2A CN103076893B (zh) | 2012-12-31 | 2012-12-31 | 一种用于实现语音输入的方法与设备 |
CN201210592826.2 | 2012-12-31 | ||
PCT/CN2013/089721 WO2014101687A1 (zh) | 2012-12-31 | 2013-12-17 | 一种用于实现语音输入的方法与设备 |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2016505893A JP2016505893A (ja) | 2016-02-25 |
JP2016505893A5 JP2016505893A5 (ja) | 2017-02-09 |
JP6309539B2 true JP6309539B2 (ja) | 2018-04-11 |
Family
ID=48153449
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015549964A Active JP6309539B2 (ja) | 2012-12-31 | 2013-12-17 | 音声入力を実現する方法および装置 |
Country Status (5)
Country | Link |
---|---|
US (1) | US10199036B2 (ja) |
EP (1) | EP2940551B1 (ja) |
JP (1) | JP6309539B2 (ja) |
CN (1) | CN103076893B (ja) |
WO (1) | WO2014101687A1 (ja) |
Families Citing this family (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN103076893B (zh) * | 2012-12-31 | 2016-08-17 | 百度在线网络技术(北京)有限公司 | 一种用于实现语音输入的方法与设备 |
CN105159473B (zh) * | 2015-08-17 | 2018-02-13 | 百度在线网络技术(北京)有限公司 | 一种语言模型计算处理方法及*** |
KR102450853B1 (ko) * | 2015-11-30 | 2022-10-04 | 삼성전자주식회사 | 음성 인식 장치 및 방법 |
CN105700704B (zh) * | 2016-03-21 | 2018-08-28 | 深圳五洲无线股份有限公司 | 小尺寸屏幕下的文字输入方法和装置 |
US9990564B2 (en) * | 2016-03-29 | 2018-06-05 | Wipro Limited | System and method for optical character recognition |
CN107516176B (zh) | 2016-06-17 | 2021-03-19 | 菜鸟智能物流控股有限公司 | 物流信息处理方法及装置 |
CN108241438B (zh) * | 2016-12-23 | 2022-02-25 | 北京搜狗科技发展有限公司 | 一种输入方法、装置和用于输入的装置 |
CN107068145B (zh) * | 2016-12-30 | 2019-02-15 | 中南大学 | 语音评测方法及*** |
CN109543174B (zh) * | 2017-09-21 | 2023-05-09 | 广州腾讯科技有限公司 | 文本选择方法、装置、计算机可读存储介质和计算机设备 |
US11875798B2 (en) * | 2021-05-03 | 2024-01-16 | International Business Machines Corporation | Profiles for enhanced speech recognition training |
Family Cites Families (49)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPS57195300A (en) | 1981-05-26 | 1982-11-30 | Sanyo Electric Co | Voice recognition unit |
EP0302614B1 (en) * | 1987-07-16 | 1993-03-10 | Fujitsu Limited | Speech recognition device |
US5033087A (en) * | 1989-03-14 | 1991-07-16 | International Business Machines Corp. | Method and apparatus for the automatic determination of phonological rules as for a continuous speech recognition system |
US5267345A (en) * | 1992-02-10 | 1993-11-30 | International Business Machines Corporation | Speech recognition apparatus which predicts word classes from context and words from word classes |
US5233681A (en) * | 1992-04-24 | 1993-08-03 | International Business Machines Corporation | Context-dependent speech recognizer using estimated next word context |
JPH0689302A (ja) * | 1992-09-08 | 1994-03-29 | Hitachi Ltd | 辞書メモリ |
WO1994014270A1 (en) * | 1992-12-17 | 1994-06-23 | Bell Atlantic Network Services, Inc. | Mechanized directory assistance |
US5467425A (en) * | 1993-02-26 | 1995-11-14 | International Business Machines Corporation | Building scalable N-gram language models using maximum likelihood maximum entropy N-gram models |
JP3758241B2 (ja) * | 1996-08-01 | 2006-03-22 | 三菱電機株式会社 | 音声情報検索装置 |
CN1161701C (zh) * | 1997-03-14 | 2004-08-11 | 欧姆龙株式会社 | 语言识别装置和语言识别方法 |
US6269335B1 (en) * | 1998-08-14 | 2001-07-31 | International Business Machines Corporation | Apparatus and methods for identifying homophones among words in a speech recognition system |
US6356866B1 (en) * | 1998-10-07 | 2002-03-12 | Microsoft Corporation | Method for converting a phonetic character string into the text of an Asian language |
US6526380B1 (en) * | 1999-03-26 | 2003-02-25 | Koninklijke Philips Electronics N.V. | Speech recognition system having parallel large vocabulary recognition engines |
EP1189203B1 (en) * | 2000-09-18 | 2006-05-17 | L & H Holdings USA, Inc. | Homophone selection in speech recognition |
US20020184019A1 (en) | 2001-05-31 | 2002-12-05 | International Business Machines Corporation | Method of using empirical substitution data in speech recognition |
US20030078777A1 (en) * | 2001-08-22 | 2003-04-24 | Shyue-Chin Shiau | Speech recognition system for mobile Internet/Intranet communication |
JP4072718B2 (ja) * | 2002-11-21 | 2008-04-09 | ソニー株式会社 | 音声処理装置および方法、記録媒体並びにプログラム |
JP2005031758A (ja) * | 2003-07-07 | 2005-02-03 | Canon Inc | 音声処理装置及び方法 |
JP4012143B2 (ja) * | 2003-12-16 | 2007-11-21 | キヤノン株式会社 | 情報処理装置およびデータ入力方法 |
US7574356B2 (en) * | 2004-07-19 | 2009-08-11 | At&T Intellectual Property Ii, L.P. | System and method for spelling recognition using speech and non-speech input |
US8825379B2 (en) * | 2005-01-05 | 2014-09-02 | Sirius Xm Connected Vehicle Services Inc. | Systems and methods for off-board voice-automated vehicle navigation |
KR100679044B1 (ko) * | 2005-03-07 | 2007-02-06 | 삼성전자주식회사 | 사용자 적응형 음성 인식 방법 및 장치 |
US20080130699A1 (en) | 2006-12-05 | 2008-06-05 | Motorola, Inc. | Content selection using speech recognition |
JP5207642B2 (ja) * | 2007-03-06 | 2013-06-12 | ニュアンス コミュニケーションズ,インコーポレイテッド | 語句として新たに認識するべき文字列を取得するためのシステム、方法及びコンピュータプログラム |
US7844456B2 (en) * | 2007-03-09 | 2010-11-30 | Microsoft Corporation | Grammar confusability metric for speech recognition |
EP1975923B1 (en) | 2007-03-28 | 2016-04-27 | Nuance Communications, Inc. | Multilingual non-native speech recognition |
JP5042799B2 (ja) * | 2007-04-16 | 2012-10-03 | ソニー株式会社 | 音声チャットシステム、情報処理装置およびプログラム |
JP4412504B2 (ja) * | 2007-04-17 | 2010-02-10 | 本田技研工業株式会社 | 音声認識装置、音声認識方法、及び音声認識用プログラム |
US8457946B2 (en) * | 2007-04-26 | 2013-06-04 | Microsoft Corporation | Recognition architecture for generating Asian characters |
US7953598B2 (en) * | 2007-12-17 | 2011-05-31 | Verizon Patent And Licensing Inc. | Grammar weighting voice recognition information |
US9177551B2 (en) * | 2008-01-22 | 2015-11-03 | At&T Intellectual Property I, L.P. | System and method of providing speech processing in user interface |
US20090228273A1 (en) * | 2008-03-05 | 2009-09-10 | Microsoft Corporation | Handwriting-based user interface for correction of speech recognition errors |
US8224656B2 (en) * | 2008-03-14 | 2012-07-17 | Microsoft Corporation | Speech recognition disambiguation on mobile devices |
JP4709887B2 (ja) * | 2008-04-22 | 2011-06-29 | 株式会社エヌ・ティ・ティ・ドコモ | 音声認識結果訂正装置および音声認識結果訂正方法、ならびに音声認識結果訂正システム |
US8762153B2 (en) * | 2008-08-18 | 2014-06-24 | At&T Intellectual Property I, L.P. | System and method for improving name dialer performance |
US8494852B2 (en) * | 2010-01-05 | 2013-07-23 | Google Inc. | Word-level correction of speech input |
US9069755B2 (en) * | 2010-03-11 | 2015-06-30 | Microsoft Technology Licensing, Llc | N-gram model smoothing with independently controllable parameters |
CN102063195B (zh) * | 2010-04-06 | 2013-08-28 | 百度在线网络技术(北京)有限公司 | 一种用于供用户进行中英文混合输入的方法与设备 |
CN102299934A (zh) | 2010-06-23 | 2011-12-28 | 上海博路信息技术有限公司 | 一种基于云模式和语音识别的语音输入方法 |
US8473289B2 (en) * | 2010-08-06 | 2013-06-25 | Google Inc. | Disambiguating input based on context |
KR101208166B1 (ko) * | 2010-12-16 | 2012-12-04 | 엔에이치엔(주) | 온라인 음성인식을 처리하는 음성인식 클라이언트 시스템, 음성인식 서버 시스템 및 음성인식 방법 |
KR101233561B1 (ko) | 2011-05-12 | 2013-02-14 | 엔에이치엔(주) | 단어 수준의 후보 생성에 기초한 음성 인식 시스템 및 방법 |
JP5752488B2 (ja) | 2011-05-31 | 2015-07-22 | 株式会社Nttドコモ | 音声認識装置、音声認識方法、及び音声認識プログラム |
US8706472B2 (en) * | 2011-08-11 | 2014-04-22 | Apple Inc. | Method for disambiguating multiple readings in language conversion |
CN102385619A (zh) * | 2011-10-19 | 2012-03-21 | 百度在线网络技术(北京)有限公司 | 一种根据语音输入信息提供访问建议的方法与设备 |
US9620122B2 (en) * | 2011-12-08 | 2017-04-11 | Lenovo (Singapore) Pte. Ltd | Hybrid speech recognition |
US8346563B1 (en) * | 2012-04-10 | 2013-01-01 | Artificial Solutions Ltd. | System and methods for delivering advanced natural language interaction applications |
US9431012B2 (en) * | 2012-04-30 | 2016-08-30 | 2236008 Ontario Inc. | Post processing of natural language automatic speech recognition |
CN103076893B (zh) | 2012-12-31 | 2016-08-17 | 百度在线网络技术(北京)有限公司 | 一种用于实现语音输入的方法与设备 |
-
2012
- 2012-12-31 CN CN201210592826.2A patent/CN103076893B/zh active Active
-
2013
- 2013-12-17 EP EP13869832.9A patent/EP2940551B1/en active Active
- 2013-12-17 JP JP2015549964A patent/JP6309539B2/ja active Active
- 2013-12-17 WO PCT/CN2013/089721 patent/WO2014101687A1/zh active Application Filing
- 2013-12-17 US US14/412,374 patent/US10199036B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10199036B2 (en) | 2019-02-05 |
WO2014101687A1 (zh) | 2014-07-03 |
EP2940551A4 (en) | 2016-08-03 |
CN103076893B (zh) | 2016-08-17 |
EP2940551B1 (en) | 2018-11-28 |
JP2016505893A (ja) | 2016-02-25 |
EP2940551A1 (en) | 2015-11-04 |
CN103076893A (zh) | 2013-05-01 |
US20150302852A1 (en) | 2015-10-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6309539B2 (ja) | 音声入力を実現する方法および装置 | |
US10628474B2 (en) | Probabalistic generation of diverse summaries | |
CN110334344B (zh) | 一种语义意图识别方法、装置、设备及存储介质 | |
US20190251165A1 (en) | Conversational agent | |
US20180349387A1 (en) | Computerized system and method for search query auto-completion | |
WO2016004763A1 (zh) | 业务推荐方法和具有智能助手的装置 | |
WO2020103721A1 (zh) | 信息处理的方法、装置及存储介质 | |
JP6517352B2 (ja) | 翻訳情報の提供方法及びシステム | |
US11630560B2 (en) | Map information display method and apparatus, electronic device, and computer storage medium | |
US20190385739A1 (en) | Triage dialogue method, device and system | |
JP2015118708A (ja) | 検索結果を提供するための方法及び装置 | |
JP2016508264A (ja) | 入力文字列に対応する入力候補アイテムを提供する方法及び装置 | |
CN111931067A (zh) | 兴趣点推荐方法、装置、设备和介质 | |
CN109032381B (zh) | 一种基于上下文的输入方法、装置、存储介质及终端 | |
US20200167429A1 (en) | Efficient use of word embeddings for text classification | |
JP7430820B2 (ja) | ソートモデルのトレーニング方法及び装置、電子機器、コンピュータ可読記憶媒体、コンピュータプログラム | |
EP2916239A1 (en) | Method and device for providing search result on mobile terminal | |
CN108628830A (zh) | 一种语义识别的方法和装置 | |
JP2008287210A5 (ja) | ||
WO2020026366A1 (ja) | 特許評価判定方法、特許評価判定装置、および特許評価判定プログラム | |
JP2019053386A (ja) | 情報処理装置、情報処理方法、およびプログラム | |
US20230281391A1 (en) | Systems and methods for biomedical information extraction, analytic generation and visual representation thereof | |
CN105677882B (zh) | 一种展示评论信息的方法和装置 | |
US20210406329A1 (en) | Question answering processing method and apparatus, and storage medium | |
WO2015109902A1 (zh) | 个性化信息的处理方法、装置、设备及非易失性计算机存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20161216 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20161216 |
|
A871 | Explanation of circumstances concerning accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A871 Effective date: 20161227 |
|
A975 | Report on accelerated examination |
Free format text: JAPANESE INTERMEDIATE CODE: A971005 Effective date: 20170131 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170508 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170808 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20171108 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171213 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20180214 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20180314 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6309539 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |