JPH01237597A - Voice recognizing and correcting device - Google Patents

Voice recognizing and correcting device

Info

Publication number
JPH01237597A
JPH01237597A JP63064599A JP6459988A JPH01237597A JP H01237597 A JPH01237597 A JP H01237597A JP 63064599 A JP63064599 A JP 63064599A JP 6459988 A JP6459988 A JP 6459988A JP H01237597 A JPH01237597 A JP H01237597A
Authority
JP
Japan
Prior art keywords
input
circuit
speech
voice
recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP63064599A
Other languages
Japanese (ja)
Inventor
Toru Sanada
真田 徹
Akihiro Kimura
晋太 木村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP63064599A priority Critical patent/JPH01237597A/en
Publication of JPH01237597A publication Critical patent/JPH01237597A/en
Pending legal-status Critical Current

Links

Abstract

PURPOSE:To facilitate the recognition and the correction by storing the first input voice and subsequently, discriminating which part of the first input voice it is, when a voice of only a corrected part has been reinputted and deciding definitely the recognition of the input voice when the next candidate which has been displayed confirms with the input voice. CONSTITUTION:An input voice is analyzed by an acoustic analyzing part 11, and an acoustic parameter time series is stored in a sentence voice spotting part 13. Subsequently, by comparing said voice with a dictionary by a sentence voice recognizing part 12 by using the acoustic parameter time series outputted from the acoustic analyzing part 11, it is converted to a character sentence, and a result of conversion is displayed on a display part 14. In this state, when an erroneous recognition part is detected, the character sentence which has become the next candidate is displayed on the display part by bringing only its erroneous recognition part to voice input again. In such a way, a user can be released from a complicated operation for instructing an initial end and a terminal of the erroneous recognition part by a cursor on the display part in order to correct an erroneous recognition.

Description

【発明の詳細な説明】 〔概  要〕 単語毎に区切らずに連続して発生した音声を認識する連
続音声認識装置に係、特に認識誤りの訂正を行う音声認
識訂正装置に関し、 カーソルキー操作による使用者に対する負担を軽減して
認識誤りがあった際には再度誤り部分を発声することに
よって、認識訂正を行えるようにすることを目的とし、 入力音声の成分を分析する音響分析部と、該音響分析部
から出力された最初の入力音声を第1の候補に基づいて
認識する音声認識部と、該音声認識部の出力を表示する
手段と、前記音響分析部から出力された、最初の入力音
声を記憶するとともに、次に訂正部分だけの音声が再入
力されたときに、前記最初の入力音声のうちのどの部分
であるかを判別し、当該訂正部分について次の候補を前
記音声認識部に出力する音声スポツティング部と、前記
表示手段で表示された前記衣の候補が前記入力音声に合
致している場合に、該入力音声の認識を確定する手段と
からなるように構成する。
[Detailed Description of the Invention] [Summary] This invention relates to a continuous speech recognition device that recognizes speech that occurs continuously without separating each word, and in particular to a speech recognition correction device that corrects recognition errors. The purpose of this system is to reduce the burden on the user and, in the event of a recognition error, to be able to correct the recognition by re-uttering the erroneous part. a speech recognition section that recognizes the first input speech output from the acoustic analysis section based on a first candidate; a means for displaying the output of the speech recognition section; and a first input speech output from the acoustic analysis section. In addition to storing the speech, when the next time that only the corrected portion of the speech is re-inputted, it determines which part of the first input speech it is, and selects the next candidate for the corrected portion as the speech recognition unit. and means for determining recognition of the input voice when the clothing candidate displayed by the display means matches the input voice.

〔産業上の利用分野〕[Industrial application field]

本発明は、単語毎に区切らずに連続して発生した音声を
認識する連続音声認識装置に係り、特に認識誤りの訂正
を行う音声認識訂正装置に関する。
The present invention relates to a continuous speech recognition device that recognizes continuously generated speech without dividing each word, and more particularly to a speech recognition correction device that corrects recognition errors.

〔従来の技術〕[Conventional technology]

従来は第5図に示すように音声をまず音響分析部1に入
力し、ここで入力音声を分析して音響パラメータ時系列
、つまり音声波形データを所定長の分析フレームに分割
し、各分析フレームにおける音声パワーの周波数特性を
時系列に配列したデータに変換する。音響パラメータ時
系列を用いて、文章音声認識部2で文字文章に変換して
入力音声を認識する。この認識は、入力音声の音響パラ
メータ時系列と辞書に記憶されている音響パラメータ時
系列とについて連続DPマツチングによって比較するこ
とによって行われる。この認識結果は表示部4により表
示される。表示された文字文章中に認識誤りがあった場
合には使用者がカーソル指示部3によって、カーソルを
用いて誤り箇所を指示する。表示部4上でカーソルによ
って指示された部分について次候補となっている文章に
置き換え、この次に表れた文字文章が正しい音声認識を
行った結果であるが、否がを使用者が判断する。
Conventionally, as shown in Fig. 5, audio is first input to the acoustic analysis unit 1, where the input audio is analyzed and the audio parameter time series, that is, the audio waveform data, is divided into analysis frames of a predetermined length, and each analysis frame is Convert the frequency characteristics of the audio power in to data arranged in time series. Using the acoustic parameter time series, the text speech recognition unit 2 converts the input speech into text and recognizes the input speech. This recognition is performed by comparing the acoustic parameter time series of the input speech and the acoustic parameter time series stored in the dictionary by continuous DP matching. This recognition result is displayed on the display section 4. If there is a recognition error in the displayed text, the user uses the cursor instruction section 3 to indicate the location of the error. The part indicated by the cursor on the display section 4 is replaced with the next candidate sentence, and the character sentence that appears next is the result of correct voice recognition, but the user decides whether or not it is correct.

そしてこのカーソル指示による訂正を繰り返し行い、使
用者の要求する音声認識結果が表示された後、これを認
識結果として文章音声認識部2に出力する。
Then, the correction based on the cursor instruction is repeated, and after the voice recognition result requested by the user is displayed, this is outputted to the text voice recognition section 2 as the recognition result.

〔発明が解決しようとする課題〕[Problem to be solved by the invention]

第5図に示した従来の技術では認識誤りの箇所を人手に
よりカーソルを用いて指示する作業が必要である。この
とき、表示部4に表示された文字文章中認識誤りの箇所
の始端と終端とを判別してカーソルで指示する必要があ
るので、カーソルの移動操作が煩雑である。従って、音
声認識は、カーソルキーやマウス等のボインティングデ
イバイスの使用をできるだけ減少させることが望ましい
のにかかわらず、使用者にカーソルキー等の負担を強い
ることになる。
In the conventional technique shown in FIG. 5, it is necessary to manually indicate the location of the recognition error using a cursor. At this time, it is necessary to determine the beginning and end of the portion of the text displayed on the display unit 4 where the recognition error occurred and indicate it with the cursor, which makes the cursor movement operation complicated. Therefore, although it is desirable to reduce the use of pointing devices such as cursor keys and a mouse as much as possible, voice recognition imposes a burden on the user.

本発明は上記従来の問題点を解消し、使用者がカーソル
の移動操作を行わずに音声の認識訂正を行えるようにす
ることを目的とする。
SUMMARY OF THE INVENTION An object of the present invention is to solve the above-mentioned conventional problems and to enable a user to recognize and correct speech without moving a cursor.

〔課題を解決するための手段〕[Means to solve the problem]

第1図には本発明の原理ブロック図を示し、入力音声は
音響分析部11で分析し、音響パラメータ時系列を文章
音声スポツティング部13に保存する。そして、音響分
析部11から出力する音響パラメータ時系列を用いて、
従来例と同様に、文章音声認識部12で辞書と比較する
ことにより文字文章に変換し、表示部14に変換結果を
表示する。使用者はこの表示結果を目視することにより
認識誤りがあったことを判別した場合には、その誤った
部分のみを使用者が音声により再度入力する。そして入
力された音声を音響分析部11で再度音響パラメータ時
系列に変換する。そしてこの再度入力された訂正部分の
入力音声に対応する音響パラメータ時系列と、文章音声
スポツティング部13において先に保存されていた入力
音声全体の音響パラメータ時系列との例えば音声パワー
がマツチする部分を探索する。これにより、入力音声全
体のうちで特に誤認識をおこした部分を音声によって指
示することができる。この指示された部分を文章音声認
識部12に入力し、この部分の第1の候補を次候補とな
っている文字文章に置き換える。そしてこの次候補を表
示部14に表示して正しい認識であるか否を使用者が判
別する。これを繰り返して使用者の要求する結果が表示
部14に表示されたのちこれを認識結果として出力する
FIG. 1 shows a block diagram of the principle of the present invention. Input speech is analyzed by an acoustic analysis section 11, and an acoustic parameter time series is stored in a text speech spotting section 13. Then, using the acoustic parameter time series output from the acoustic analysis unit 11,
Similar to the conventional example, the text-speech recognition unit 12 converts the text into text by comparing it with a dictionary, and displays the conversion result on the display unit 14. When the user determines that a recognition error has occurred by visually observing the display results, the user inputs only the erroneous part by voice again. The input voice is then converted into an acoustic parameter time series again by the acoustic analysis unit 11. Then, for example, a portion where the audio power of the audio parameter time series corresponding to the input audio of the corrected portion input again and the audio parameter time series of the entire input audio previously stored in the text audio spotting unit 13 matches. Explore. As a result, it is possible to specify by voice the portion of the input voice that is particularly misrecognized. This designated portion is input to the text speech recognition unit 12, and the first candidate for this portion is replaced with the next candidate character sentence. Then, this next candidate is displayed on the display unit 14, and the user determines whether the recognition is correct or not. This is repeated until the result requested by the user is displayed on the display section 14, which is then output as the recognition result.

〔作   用〕[For production]

本発明によれば、入力音声信号全体を表示部上に表示し
た後、誤認識部分を見つけた場合にはその誤認識部分の
みを再度音声入力することにより、表示部上に次候補と
なった文字文章を表示することができる。このため誤認
識を訂正するために、表示部上でカーソルによって誤認
識部分の始端及び終端を指示するという煩雑な操作から
使用者を一切開放することができる。
According to the present invention, after displaying the entire input audio signal on the display section, if an erroneously recognized part is found, only that erroneously recognized part is input as the next candidate on the display part. Text can be displayed. Therefore, in order to correct misrecognition, the user can be freed from the troublesome operation of pointing the start and end of the misrecognized portion using a cursor on the display section.

〔実  施  例〕〔Example〕

第2図は本発明の一実施例のブロック図である。 FIG. 2 is a block diagram of one embodiment of the present invention.

入力音声をまず多数の異なる通過周波数帯域を持つバン
ドパスフィルタからなるBPF群21に入力し、入力音
声の音響パラメータの時系列を分析する。このBPF群
21の出力の音響パラメータ時系列は、記憶回路27に
記憶される。また、BPF群21の出力の音響パラメー
タ時系列は連続DPマツチング回路22に入力され、単
語辞書23中の音響パラメータ時系列とDPマツチング
を行う。単語ラティス整理回路24によりこの単語ラテ
ィスを生成する。単語ラティスは単語候補を複数個ずつ
配列したものである。単語候補の順位づけされた単語ラ
ティスをその単語の始端時刻と終端時刻とともに、単語
ラティス記憶回路29に記憶する。文章候補の第1位と
なったものをCRT25に表示するとともに、記憶回路
26に格納する。この記憶回路26は使用者がCRT2
5を目視し、確定キーを押すことにより、正しい認識で
あることが確認されたときには、その記憶内容を認識結
果として出力する。
Input audio is first input to a BPF group 21 consisting of bandpass filters having a large number of different pass frequency bands, and the time series of acoustic parameters of the input audio is analyzed. The acoustic parameter time series output from the BPF group 21 is stored in the storage circuit 27. Further, the acoustic parameter time series output from the BPF group 21 is input to a continuous DP matching circuit 22, and DP matching is performed with the acoustic parameter time series in the word dictionary 23. This word lattice is generated by the word lattice arrangement circuit 24. A word lattice is an array of word candidates. The word lattice in which the word candidates are ranked is stored in the word lattice storage circuit 29 together with the start and end times of the word. The first sentence candidate is displayed on the CRT 25 and stored in the memory circuit 26. This memory circuit 26 is connected to the CRT2 by the user.
5 and presses the confirmation key to confirm that the recognition is correct, the stored contents are output as the recognition result.

もしCRT25に表示された文字文章が誤っていた場合
には、訂正キーを押して誤った部分のみ再度音声で入力
する。訂正キーを押すと訂正キー制御回路30により、
記憶回路27に記憶されていた入力文章全体のフィルタ
出力の音響パラメータ時系列が、連続DPマツチング回
路28に入力される。
If the text displayed on the CRT 25 is incorrect, press the correction key and re-enter only the incorrect part by voice. When the correction key is pressed, the correction key control circuit 30
The filter output acoustic parameter time series of the entire input sentence stored in the storage circuit 27 is input to the continuous DP matching circuit 28.

そして、再入力された誤った部分のみに対応する音声は
、BPF群21で音響パラメータ時系列に変換され、連
続DPマツチング回路28に送られる。連続DPマツチ
ング回路28では記憶されていた入力文書全体の音響パ
ラメータ時系列の中から、再入力された音声の音響パラ
メータ時系列が最もよくマツチする部分を探す。探し出
した部分の始端と終端の時刻例えば入力音声の最初から
500m5から1 sec迄という情報を始終端変更回
路31に送る。始終端変更回路31では始端から予め与
えられた闇値をひき終端に予め与えられた闇値を加える
。すなわち、候補サーチを正確に行うために訂正部分の
始終端の幅をすこし広げる。この変更された始端終端を
サーチ回路32に送る。
Then, the re-input audio corresponding to only the erroneous part is converted into an acoustic parameter time series by the BPF group 21 and sent to the continuous DP matching circuit 28. The continuous DP matching circuit 28 searches for a part that best matches the acoustic parameter time series of the re-input speech from among the stored acoustic parameter time series of the entire input document. Information about the start and end times of the found portion, for example, 500 m5 to 1 sec from the beginning of the input audio, is sent to the start and end change circuit 31. The start/end end changing circuit 31 subtracts a predetermined darkness value from the start end and adds a predetermined darkness value to the end end. That is, in order to accurately search for candidates, the width of the beginning and end of the corrected portion is slightly widened. The changed start and end points are sent to the search circuit 32.

サーチ回路32は単語ラティス記憶回路29から単語ラ
ティスを読み込み、順位が第1位でかつ始終端変更回路
31から送られてきた始終端の内側に入る単語を見つけ
る。
The search circuit 32 reads the word lattice from the word lattice storage circuit 29 and finds the word that is ranked first and falls inside the start and end points sent from the start and end change circuit 31.

すなわち、認識を誤った単語として表示されている現在
の第1位の候補単語を見つける。
That is, the current No. 1 candidate word that is displayed as an incorrectly recognized word is found.

次に、1位−最下位+1位置き換え回路33により、1
位にある見つけた単語の順位を最下位の候補のひとつ下
すなわち、最下位+1位に書き換える。次に、ソート回
路34で単語ラティス順位をソートすると2位にあった
単語が1位に上がり、以下順位が繰り上がり、今、最下
位+1位に書き込んだ単語候補が最下位へと上がる。
Next, the 1st-lowest + 1st-place replacement circuit 33 replaces 1
Rewrite the ranking of the word found in the lowest position to one position below the lowest candidate, that is, to the lowest + 1st position. Next, when the word lattice ranking is sorted by the sorting circuit 34, the word that was in second place is moved up to first place, and the subsequent rankings are moved up, and the word candidate that has just been written in the lowest position + one position is moved up to the lowest position.

この結果の1位から最下位までの候補の単語が配列され
た単語ラティスを再び単語ラティス記憶回路29に送り
返す。
The word lattice in which the candidate words from the first place to the last place are arranged is sent back to the word lattice storage circuit 29 again.

単語ラティス整理回路24は単語ラティス記憶回路29
を参照して、新たに第1位となった候補をCRT25と
記憶回路26に出力する。
The word lattice organizing circuit 24 is a word lattice storage circuit 29
, and outputs the newly ranked candidate to the CRT 25 and the storage circuit 26.

そして、使用者は新たに第1位となった候補が正しい音
声入力であるかどうかを判断し、正しい時には確定キー
を押すことにより、記憶回路26はその単語を認識結果
として出力する。
Then, the user determines whether the newly ranked first candidate is the correct voice input, and when it is correct, by pressing the confirm key, the memory circuit 26 outputs the word as a recognition result.

もし、正しくないときには、使用者は再度訂正キーを押
して、その誤った部分の音声入力を行い、前述した処理
が繰り返される。
If it is incorrect, the user presses the correction key again to input the incorrect part of the voice, and the above-described process is repeated.

例えば、「象の鼻は長い」が音声として入力したとする
と、第3図のような単語ラティスが単語ラティス整理回
路24中に記憶される。最初の入力の「象の鼻は長い」
は図示のような音声パワーをもち、これに対して、候補
第1位として「象の棚は高い」が候補第1位、「鼻は長
い」は候補第2位、「ない」が候補第3位となる。CR
T25に第1候補の「象の棚は高い」と出力される。こ
の場合、訂正キーを押して「鼻は長い」と誤った部分の
みを音声で再入力する。すると、第4図に示すように連
′17tDPマツチング回路28中で、再入力された音
声と最初に入力された音声とがマツチングがとられる。
For example, if "An elephant's trunk is long" is input as a voice, a word lattice as shown in FIG. 3 is stored in the word lattice sorting circuit 24. First input: "Elephants have long trunks"
has the voice power as shown in the figure, and on the other hand, "The elephant's shelf is high" is the first candidate, "The nose is long" is the second candidate, and "No" is the first candidate. 3rd place. CR
At T25, the first candidate "Elephant shelf is high" is output. In this case, press the correction key and re-enter only the incorrect part, ``I have a long nose,'' by voice. Then, as shown in FIG. 4, the re-input voice and the first input voice are matched in the DP matching circuit 28.

これによって最初に入力された音声のどの部分が誤って
おり、再入力されたかがわかる。最初の入力の音声パワ
ーの波形と再入力の音声パワーの波形とが最も近似して
いる部分を抽出つまり、スポツティングが行われる。次
に、始終端変更回路31とサーチ回路32と1位→最下
位+1位置き換え回路33とソート回路34により再入
力音声にマツチした部分についてのみ順位の入れ換えが
行われる。そして、最初に入力された音声ラティスの1
位「棚は高い」は最下位になり、2位だった「鼻は長い
」は入れ換えられて1位になる。これにより、単語ラテ
ィス整理回路24から「象の鼻は長い」とCRT25及
び記憶回路26に出力される。これは正しい入力である
ので、確定キーを押せば、記憶回路26から認識結果と
して「象の鼻は長い」が出力されることになる。
This lets you know which parts of the originally input audio were incorrect and should be re-entered. Spotting is performed to extract the part where the waveform of the audio power of the first input and the waveform of the audio power of the re-input are most similar. Next, the start/end change circuit 31, the search circuit 32, the 1st->lowest+1st-place replacement circuit 33, and the sorting circuit 34 change the order of only the part that matches the re-input audio. Then, 1 of the first input audio lattice
The second place, ``The shelf is high,'' is now at the bottom, and the second place, ``My nose is long,'' has been swapped and becomes the first place. As a result, the word lattice organizing circuit 24 outputs "An elephant's trunk is long" to the CRT 25 and the memory circuit 26. Since this is a correct input, if the confirm key is pressed, the memory circuit 26 will output "Elephants have long trunks" as a recognition result.

〔発明の効果〕〔Effect of the invention〕

本発明によれば、音声入力にあって、誤った部分のみを
再度使用者が入力することによって、音声認識の誤りを
訂正することができるので、音声入力の訂正にあたって
カーソルを移動操作する必要がな(、認識訂正を極めて
容易に行うことかのできるという効果を奏する。
According to the present invention, errors in speech recognition can be corrected by the user re-entering only the erroneous part of the speech input, so there is no need to move the cursor when correcting the speech input. (This has the effect of making recognition correction extremely easy.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の音声認識訂正装置の原理ブロック図、 第2図は本発明の一実施例のブロック図、第3図は上記
実施例における、単語ラティス記t!回路における単語
ラティスの構造を示す図、第4図は第2図に示した実施
例において、単語認識の訂正を行う順序を説明する図、 第5図は従来の音声認識訂正装置のブロック図である。 11・・・音響分析部、 12・・・文章音声認識部、 13・・・文章音声スポツティング部、14・・・表示
部。
FIG. 1 is a block diagram of the principle of the speech recognition and correction device of the present invention, FIG. 2 is a block diagram of an embodiment of the present invention, and FIG. 3 is a word lattice t! in the above embodiment. Figure 4 is a diagram showing the structure of a word lattice in a circuit; Figure 4 is a diagram explaining the order in which word recognition is corrected in the embodiment shown in Figure 2; Figure 5 is a block diagram of a conventional speech recognition correction device. be. 11... Acoustic analysis section, 12... Text speech recognition section, 13... Text speech spotting section, 14... Display section.

Claims (1)

【特許請求の範囲】 1)入力音声の成分を分析する音響分析部(11)と、
該音響分析部(11)から出力された最初の入力音声を
第1の候補に基づいて認識する音声認識部(12)と、
該音声認識部(12)の出力を表示する手段(14)と
、前記音響分析部(11)から出力された、最初の入力
音声を記憶するとともに、次に訂正部分だけの音声が再
入力されたときに、前記最初の入力音声のうちのどの部
分であるかを判別し、当該訂正部分について次の候補を
前記音声認識部(12)に出力する文章音声スポッティ
ング部(13)と、前記表示部(14)で表示された前
記次の候補が前記入力音声に合致している場合に、該入
力音声の認識を確定する手段とからなることを特徴とす
る音声認識訂正装置。 2)前記音声スポッティング部(13)は、音響分析部
(11)から出力される前記入力音声を記憶する記憶回
路(27)と、前回表示された入力音声の一部に誤りが
あった際に、この誤りを訂正するための信号を入力する
訂正制御回路(30)と、前記記憶回路(27)と訂正
制御回路(30)との出力を受けて、次に入力された訂
正部分だけの入力音声と前記記憶回路(27)に記憶さ
れた入力音声の全体とを比較して訂正される部分を抽出
する連続DPマッチング回路(28)とを含むことを特
徴とする請求項1記載の音声認識訂正装置。 3)前記音声スポッティング部(13)はさらに前記連
続DPマッチング回路(28)の出力を受けて前記入力
音声の訂正部分の始端と終端とを変更する始終端変更回
路(31)と、単語ラティスの候補の入れ替えを行うラ
ティス順位入替回路を有することを特徴とする請求項2
記載の音声認識訂正装置。 4)前記ラティス順位入替回路は、前記始終端変更回路
(31)の出力を受けてその始終端の範囲に入る単語ラ
ティスをサーチするサーチ回路(32)と、該始終端の
間に入る単語候補の第1位を最下位の下へ回す候補順位
書換回路(33)と、該候補順位SH書換回路(33)
の出力を受けて候補順位をソーティングし次に新たな第
1位の候補を出力させるソート回路(34)とからなる
ことを特徴とする請求項3記載の音声認識訂正装置。 5)音声入力を認識して表示し、次に訂正部分のみを再
度音声入力し、最初の音声入力と再度の音声入力とを比
較して訂正部分を特定し、該訂正部分の認識の次候補を
表示することを特徴とする音声認識訂正方法。
[Claims] 1) an acoustic analysis unit (11) that analyzes components of input audio;
a speech recognition section (12) that recognizes the first input speech output from the acoustic analysis section (11) based on the first candidate;
Means (14) for displaying the output of the speech recognition section (12) and the first input speech outputted from the acoustic analysis section (11) are stored, and then only the corrected portion of the speech is re-inputted. a sentence speech spotting section (13) that determines which part of the first input speech is the corrected part and outputs the next candidate for the corrected part to the speech recognition section (12); A speech recognition and correction device comprising: means for confirming recognition of the input speech when the next candidate displayed in section (14) matches the input speech. 2) The audio spotting unit (13) includes a storage circuit (27) that stores the input audio output from the acoustic analysis unit (11), and a memory circuit (27) that stores the input audio that is output from the acoustic analysis unit (11), , a correction control circuit (30) which inputs a signal for correcting this error, receives the outputs of the storage circuit (27) and the correction control circuit (30), and inputs only the corrected part that is input next. The speech recognition system according to claim 1, further comprising a continuous DP matching circuit (28) for comparing the speech and the entire input speech stored in the storage circuit (27) and extracting a portion to be corrected. correction device. 3) The voice spotting unit (13) further includes a start/end change circuit (31) that receives the output of the continuous DP matching circuit (28) and changes the start and end of the corrected portion of the input voice; Claim 2 characterized by comprising a lattice rank exchange circuit for exchanging candidates.
The speech recognition correction device described. 4) The lattice rank switching circuit includes a search circuit (32) that receives the output of the start/end change circuit (31) and searches for word lattices that fall within the range of the start/end ends, and word candidates that fall between the start/end ends. a candidate rank rewriting circuit (33) that moves the first rank to the lowest rank, and a candidate rank SH rewriting circuit (33)
4. The speech recognition and correction apparatus according to claim 3, further comprising a sorting circuit (34) for sorting the candidate rankings in response to the output from the above, and then outputting a new first-ranked candidate. 5) Recognize and display the voice input, then input only the corrected part again, compare the first voice input with the second voice input to identify the corrected part, and select the next candidate for recognition of the corrected part. A speech recognition correction method characterized by displaying.
JP63064599A 1988-03-17 1988-03-17 Voice recognizing and correcting device Pending JPH01237597A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP63064599A JPH01237597A (en) 1988-03-17 1988-03-17 Voice recognizing and correcting device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP63064599A JPH01237597A (en) 1988-03-17 1988-03-17 Voice recognizing and correcting device

Publications (1)

Publication Number Publication Date
JPH01237597A true JPH01237597A (en) 1989-09-22

Family

ID=13262879

Family Applications (1)

Application Number Title Priority Date Filing Date
JP63064599A Pending JPH01237597A (en) 1988-03-17 1988-03-17 Voice recognizing and correcting device

Country Status (1)

Country Link
JP (1) JPH01237597A (en)

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002287792A (en) * 2001-03-27 2002-10-04 Denso Corp Voice recognition device
JP2006243575A (en) * 2005-03-07 2006-09-14 Nec Corp Speech transcribing support device, and method and program therefor
JP2006267319A (en) * 2005-03-23 2006-10-05 Nec Corp Support system for converting voice to writing, method thereof, and system for determination of correction part
JP2007093789A (en) * 2005-09-27 2007-04-12 Toshiba Corp Speech recognition apparatus, speech recognition method, and speech recognition program
JP2009047920A (en) * 2007-08-20 2009-03-05 Toshiba Corp Device and method for interacting with user by speech
JP2011158902A (en) * 2010-01-28 2011-08-18 Honda Motor Co Ltd Speech recognition apparatus, speech recognition method, and speech recognition robot
CN105210147A (en) * 2014-04-22 2015-12-30 科伊基股份有限公司 Method and device for improving set of at least one semantic unit, and computer-readable recording medium
CN109785829A (en) * 2017-11-15 2019-05-21 百度在线网络技术(北京)有限公司 A kind of customer service householder method and system based on voice control
CN110289000A (en) * 2019-05-27 2019-09-27 北京蓦然认知科技有限公司 A kind of audio recognition method, device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61281361A (en) * 1985-05-20 1986-12-11 Sanyo Electric Co Ltd Word processor
JPS63800A (en) * 1986-06-20 1988-01-05 三菱電機株式会社 Digital remote control transmitter

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61281361A (en) * 1985-05-20 1986-12-11 Sanyo Electric Co Ltd Word processor
JPS63800A (en) * 1986-06-20 1988-01-05 三菱電機株式会社 Digital remote control transmitter

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002287792A (en) * 2001-03-27 2002-10-04 Denso Corp Voice recognition device
JP4604377B2 (en) * 2001-03-27 2011-01-05 株式会社デンソー Voice recognition device
JP4736478B2 (en) * 2005-03-07 2011-07-27 日本電気株式会社 Voice transcription support device, method and program thereof
JP2006243575A (en) * 2005-03-07 2006-09-14 Nec Corp Speech transcribing support device, and method and program therefor
JP2006267319A (en) * 2005-03-23 2006-10-05 Nec Corp Support system for converting voice to writing, method thereof, and system for determination of correction part
JP2007093789A (en) * 2005-09-27 2007-04-12 Toshiba Corp Speech recognition apparatus, speech recognition method, and speech recognition program
JP4542974B2 (en) * 2005-09-27 2010-09-15 株式会社東芝 Speech recognition apparatus, speech recognition method, and speech recognition program
US7983912B2 (en) 2005-09-27 2011-07-19 Kabushiki Kaisha Toshiba Apparatus, method, and computer program product for correcting a misrecognized utterance using a whole or a partial re-utterance
JP2009047920A (en) * 2007-08-20 2009-03-05 Toshiba Corp Device and method for interacting with user by speech
JP2011158902A (en) * 2010-01-28 2011-08-18 Honda Motor Co Ltd Speech recognition apparatus, speech recognition method, and speech recognition robot
US8886534B2 (en) 2010-01-28 2014-11-11 Honda Motor Co., Ltd. Speech recognition apparatus, speech recognition method, and speech recognition robot
CN105210147A (en) * 2014-04-22 2015-12-30 科伊基股份有限公司 Method and device for improving set of at least one semantic unit, and computer-readable recording medium
JP2016521383A (en) * 2014-04-22 2016-07-21 キューキー インコーポレイテッドKeukey Inc. Method, apparatus and computer readable recording medium for improving a set of at least one semantic unit
CN110675866A (en) * 2014-04-22 2020-01-10 纳宝株式会社 Method, apparatus and computer-readable recording medium for improving at least one semantic unit set
CN110675866B (en) * 2014-04-22 2023-09-29 纳宝株式会社 Method, apparatus and computer readable recording medium for improving at least one semantic unit set
CN109785829A (en) * 2017-11-15 2019-05-21 百度在线网络技术(北京)有限公司 A kind of customer service householder method and system based on voice control
CN110289000A (en) * 2019-05-27 2019-09-27 北京蓦然认知科技有限公司 A kind of audio recognition method, device

Similar Documents

Publication Publication Date Title
US5329609A (en) Recognition apparatus with function of displaying plural recognition candidates
US5481454A (en) Sign language/word translation system
JPS62239231A (en) Speech recognition method by inputting lip picture
JPS6131477B2 (en)
JPH01237597A (en) Voice recognizing and correcting device
JP2002116793A (en) Data input system and method
JPH1152984A (en) Recognition object display system in speech recognition device
JPS6211731B2 (en)
JP2000200093A (en) Speech recognition device and method used therefor, and record medium where control program therefor is recorded
JPH04254896A (en) Speech recognition correction device
JPH0744656A (en) Handwritten character recognizing device
CN106168945B (en) Audio output device and audio output method
JP3120443B2 (en) Command processing unit
JPS62154169A (en) Dictionary retrieving method for kana-to-kanji converting device
JPH0442363A (en) Portable voice recognizing electronic dictionary
JP2005284865A (en) Cantonese input program
JPS6312062A (en) Kana-kanji converting device
JPH01137383A (en) Character recognizing device
JPH11282490A (en) Speech recognition device and storage medium
JPH03153300A (en) Voice input device
JP2874815B2 (en) Japanese character reader
JPH01177094A (en) Data retrieving device
JP2005293208A (en) Information display controller, server, and program
JPH0318987A (en) Dictionary registering method
JPH11338493A (en) Information processor and processing method, and offering medium