JPS63249899A - Voice recognition word specifying system - Google Patents

Voice recognition word specifying system

Info

Publication number
JPS63249899A
JPS63249899A JP62084227A JP8422787A JPS63249899A JP S63249899 A JPS63249899 A JP S63249899A JP 62084227 A JP62084227 A JP 62084227A JP 8422787 A JP8422787 A JP 8422787A JP S63249899 A JPS63249899 A JP S63249899A
Authority
JP
Japan
Prior art keywords
word
kana
kanji
notation
speech recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP62084227A
Other languages
Japanese (ja)
Inventor
竹内 亜紀彦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP62084227A priority Critical patent/JPS63249899A/en
Publication of JPS63249899A publication Critical patent/JPS63249899A/en
Pending legal-status Critical Current

Links

Abstract

(57)【要約】本公報は電子出願前の出願データであるた
め要約のデータは記録されません。
(57) [Summary] This bulletin contains application data before electronic filing, so abstract data is not recorded.

Description

【発明の詳細な説明】 〔概要〕 利用者が、カナ表記で定義した単語辞書に基づいて音声
認識を行う音声認識システムにおいて、単語指定時に、
先ず漢字表現を入力し、その入力された漢字1字毎に、
カナを指定して、漢字の1文字毎に区切り記号の付加さ
れたカナ表記を得るようにしたものである。
[Detailed Description of the Invention] [Summary] In a speech recognition system in which a user performs speech recognition based on a word dictionary defined in kana notation, when specifying a word,
First, input the kanji expression, and for each input kanji,
By specifying kana, the kana notation is obtained with a delimiter added to each character of the kanji.

〔産業上の利用分野〕[Industrial application field]

本発明は、利用者が、カナ表記で定義した単語辞書に基
づいて音声認識を行う音声認識システムにおける単語指
定方式に関する。
The present invention relates to a word specification method in a speech recognition system in which a user performs speech recognition based on a word dictionary defined in kana notation.

最近の計算機技術の進歩に伴って、実用化されつつある
音声集配システム、音声区分はシステム等の分野におい
て、集配/区分は作業の多様化が進み、そこで利用者が
使用する単語の数が増加する動向にある。
With recent advances in computer technology, voice collection and delivery systems and audio classification systems are becoming more and more practical, and the work involved in collection and classification is becoming more diverse, and the number of words used by users is increasing. There is a trend to do so.

従って、該利用者が使用する単語の登録作業の労力を減
らしたいと云う要求が出ており、その対策の1つとして
、音声は単音節で登録し、単語はカナ表記で行い、該カ
ナ表記に従って、単音節を連結して単語辞書を生成する
方法が採られている。
Therefore, there is a demand for reducing the labor involved in registering the words used by these users, and one of the countermeasures is to register sounds as monosyllables, write words in kana, and write the words in kana. Accordingly, a method of creating a word dictionary by concatenating monosyllables has been adopted.

この方法では、単語の音声を直接登録する場合に比べる
と、単語辞書に登録される単語の音声パターンの精度が
低下する問題がある。
This method has a problem in that the accuracy of the sound patterns of words registered in the word dictionary is lower than when the sounds of words are directly registered.

この音声パターンの精度が低下する要因として、カナ表
記されたものと、実際に発声される音声との間に差があ
ることが考えられる。
A possible factor that reduces the accuracy of this voice pattern is that there is a difference between what is written in kana and the voice that is actually uttered.

従って、登録単語に対する音節パターンの精度を低下さ
せない単語指定方式が必要とされる。
Therefore, there is a need for a word designation method that does not reduce the accuracy of syllable patterns for registered words.

〔従来の技術と発明が解決しようとする問題点〕第4図
は従来の単語指定方式を説明する図である。
[Prior art and problems to be solved by the invention] FIG. 4 is a diagram illustrating a conventional word designation method.

本図に示した、音節登録型の音声認識システムにおいて
は、登録時に、離散単音節、例えば、「工」 「イ」 
「ワ」 「ト」 「つ」 「キ」 「ヨ」「つ」−を発
声して、音節登録部1で音節辞書(テンプレート) l
aに登録する。
In the syllable registration type speech recognition system shown in this figure, at the time of registration, discrete single syllables, such as
Say "wa", "to", "tsu", "ki", "yo", "tsu" - and create a syllable dictionary (template) in syllable registration section 1.
Register to a.

一方、単語については、カナ表記で、例えば「エイリ」
「トウキヨウ」−を入力すると、音節表現変換部2にお
いて、変換ルール2aが参照され、例えば、「エイ」→
「ニー」、「トウ」悼「トー」、「キョウ」呻「キョー
」5等の変換が施されて、「エーリ」「トーキヨー」等
の単語が生成され、単語テンプレート生成部4に入力さ
れる。
On the other hand, words can be written in kana, such as "Eiri".
When "Tokyo" - is input, the conversion rule 2a is referred to in the syllable expression conversion unit 2, and for example, "ei" →
Conversions such as "nee", "tou", "tou", "kyou", "kyo", etc. are performed to generate words such as "eri" and "tokyo", which are input into the word template generation section 4. .

単語テンプレート生成部4においては、上記カナ表記さ
れた単語に対応する単音節が連結されて、単語テンプレ
ート(単語辞書) 4aが作成される。
In the word template generation unit 4, monosyllables corresponding to the words written in kana are concatenated to create a word template (word dictionary) 4a.

このようにして生成された単語辞書に登録された音声パ
ターンと、別途入力された音声の音声パターンとが、照
合部5において、公知のパターンマツチ法等によって照
合され、最も距離の短い音声パターンに対する、例えば
、登録番号が認識結果として出力される。
The speech pattern registered in the word dictionary generated in this way and the speech pattern of the separately input speech are matched in the matching section 5 by a known pattern matching method, etc., and the speech pattern with the shortest distance is compared. For example, the registration number is output as the recognition result.

上記において、単語に対して入力されたカナ表記は、特
定の変換ルールによって、例えば、「エイ」悼「ニー」
、「トウ」峙rト−J。
In the above, the kana notation input for the word is changed according to specific conversion rules, such as ``ei'', ``nee'', etc.
, "Tou" vs. R-J.

「キョウ」呻「キヨーj等 に変換される例を示したが、これは、通常、単語を発声
する場合、母音の長音化現象(例えば、「連続音声中の
母音の音形について」佐藤 滋。
I showed an example of conversion into "Kyou", "Kyo", "Kiyo j", etc., but this is usually due to the phenomenon of vowel lengthening when pronouncing words (for example, "About the sound shape of vowels in continuous speech" by Shigeru Sato) .

粕谷 英樹著1日本音響学会、音声研究会資料583−
25 (1983−6) 、 3.母音変形191頁〜
参照)によって、上記のようなカナ表記にした方が、実
際に発声される単語の音声パターンに近づくと云う事実
に基づくものである。
Written by Hideki Kasuya 1 Acoustical Society of Japan, Speech Research Group Material 583-
25 (1983-6), 3. Vowel transformation page 191~
This is based on the fact that the above-mentioned kana notation is closer to the sound pattern of the word actually uttered.

一般に、単語に対して指定されたカナ表記と。In general, the kana notation specified for a word.

該単語に対して実際に発声される音声との間には、複雑
な関係があり、カナ表記からだけでは、例えば、形態素
境界(単語の発声においては、「絵入り」悼「工/イリ
」、「営利」→「エイ/す」の如(に、それぞれの単語
に対して、発声の境界が異なり、この発声の境界を形態
素境界と呼んでいる)を指定することができないことか
ら、実際に発声されるのに近い単語辞書が得られないと
云う問題があった。
There is a complicated relationship between the sounds actually uttered for the word, and from the kana notation alone, for example, morpheme boundaries (in the utterance of the word, ``picture'', ``kō/iri'', Since it is not possible to specify the utterance boundaries for each word, such as ``profit'' → ``ei/su'' (the utterance boundaries are called morpheme boundaries), it is difficult to actually There was a problem in that it was not possible to obtain a dictionary of words that were close to those uttered.

上記の形態素境界を利用者に指定させて、単語指定を行
わせようとすると、利用者に、発声に関する高度な知識
を要求することになり、現実的でなくなると云う問題が
あった。
If the user were to specify the above-mentioned morpheme boundaries and then specify words, the problem would be that the user would be required to have advanced knowledge about pronunciation, which would be impractical.

本発明は上記従来の欠点に鑑み、音節登録型の音声認識
システムにおける単語の指定方式において、日本語には
漢字が使われていることに着目し、利用者に、個々の単
語が持っている形態素境界を意識させることなくカナ指
定を入力させて、利用者の発声する単語の音声パターン
に近いカナ表記を生成する方法を提供することを目的と
するものである。
In view of the above-mentioned conventional drawbacks, the present invention focuses on the fact that Japanese uses kanji in the word specification method of a syllable registration type speech recognition system, and allows the user to understand the meaning of each word. The purpose of this invention is to provide a method for generating kana notation that is close to the sound pattern of the word uttered by the user by inputting kana specifications without making the user aware of morpheme boundaries.

〔問題点を解決するための手段〕[Means for solving problems]

第1図は本発明の音声認識単語指定方式の構成例を示し
た図である。
FIG. 1 is a diagram showing an example of the configuration of a speech recognition word designation method according to the present invention.

本発明においては、 利用者がカナ表記で定義した単語辞書4aに基づいて、
音声認識を行う音声認識システムにおいて、 上記単語辞書4aを生成する際の単語指定時に、該単語
の漢字表現を入力■し、該入力した漢字1字毎にカナを
指定■する手段を設け、 該手段によって入力された単語指定により、該漢字の1
文字毎に区切り記号の付加されたカナ表記を得るように
構成する。
In the present invention, based on the word dictionary 4a defined by the user in kana notation,
In a voice recognition system that performs voice recognition, when specifying a word when generating the word dictionary 4a, a means is provided for inputting a kanji expression of the word and specifying a kana for each input kanji character. 1 of the kanji by specifying the word input by the means.
Configure to obtain kana notation with a delimiter added to each character.

〔作用〕[Effect]

即ち、本発明によれば、利用者が、カナ表記で定義した
単語辞書に基づいて音声認識を行う音声認識システムに
おいて、単語指定時に、先ず漢字表現を入力し、その入
力された漢字1字毎に、カナを指定して、漢字の1文字
毎に区切り記号の付加されたカナ表記を得るようにした
ものであるので、入力した漢字の1文字毎にカナを指定
する為、簡単で間違いの少ない単語指定ができ、且つ実
際の発声に近いカナ表記が得られ、音声認識の性能が向
上する効果がある。
That is, according to the present invention, in a speech recognition system that performs speech recognition based on a word dictionary defined in kana notation, when specifying a word, the user first inputs a kanji expression, and then This method is designed to specify kana and obtain the kana notation with a delimiter added to each character of the kanji, so it is easy and easy to avoid errors because it specifies kana for each character of the input kanji. It is possible to specify fewer words, obtain kana notation that is close to the actual utterance, and has the effect of improving speech recognition performance.

〔実施例) 以下本発明の実施例を図面によって詳述する。〔Example) Embodiments of the present invention will be described in detail below with reference to the drawings.

前述の第1図が本発明の音声認識単語指定方式の構成例
を示した図であり、第2図は本発明による単語指定方式
を示した図であり、第3図は本発明を実施したときの変
換ルールの例を示した図であって、第1図、第2図にお
ける漢字指定■と、該漢字に対応したカナ指定■、及び
、変換ルール2aが本発明を実施するのに必要な手段で
ある。
The above-mentioned FIG. 1 is a diagram showing an example of the configuration of the speech recognition word designation method of the present invention, FIG. 2 is a diagram showing the word designation method according to the present invention, and FIG. 1 and 2, the kanji designation ■, the kana designation ■ corresponding to the kanji, and the conversion rule 2a are necessary to implement the present invention. It is a method.

以下、第1図〜第3図によって、本発明の音声認識パタ
ーン指定方式を説明をする。
The speech recognition pattern designation method of the present invention will be explained below with reference to FIGS. 1 to 3.

本発明を実施しても、音節テンプレート1aに登録され
ている離散単音節を、音節表現変換部2から出力される
カナ表記された単語に基づいて連結し、単語テンブレー
) 4aを生成し、該生成された単語の音声パターンと
、入力された音声の音声パターンとを照合して音声認識
を行う過程は特に変わることはないので省略し、ここで
は、音節表現変換部2における単語指定方式を中心にし
て説明する。
Even if the present invention is implemented, the discrete single syllables registered in the syllable template 1a are concatenated based on the word written in kana output from the syllable expression conversion unit 2, and the word template 4a is generated. The process of performing speech recognition by comparing the speech pattern of the generated word with the speech pattern of the input speech is not particularly different and will therefore be omitted here. Let me explain.

本発明によるカナ表記指定時においては、第2図の単語
指定時の表示画面に示すように、先ず、メニュー°漢字
指定°を選択して、漢字を用いた表記を入力する。本例
においては、「営利」が入力されている。
When specifying kana notation according to the present invention, as shown in the display screen when specifying a word in FIG. 2, first select the menu ``Kanji specification'' and input the notation using kanji. In this example, "commercial" is input.

次に、メニュー°カナ指定′を選択して、前に入力され
ている漢字の1文字毎に、 “振すガナ゛を指定する。
Next, select ``Specify Kana'' from the menu and specify ``Shaku Gana'' for each previously input kanji character.

上記の漢字に対しては、図示の如く、それぞれ「エイ」
 「す」が振られる。
For the above kanji, as shown in the diagram, "ei"
"S" is shaken.

図示していない他の例を示すと、「東京」と云う漢字を
入力した場合には、該漢字の1文字毎に「トウ」 「キ
ョウ」なるカナが振られることになる。
To give another example not shown, if the kanji ``Tokyo'' is input, the kana ``tou'' and ``kyou'' will be added to each character of the kanji.

このような単語指定が行われることにより、第1図の音
節表現変換部2においては、「エイ#す#」「トウ#キ
ョウ#」で示すカナ表記を生成する。このカナ表記にお
いて、「#」は漢字1文字毎の区切りを示しており、前
述の形態素境界を示す記号に対応する。
By specifying such a word, the syllabic expression conversion unit 2 shown in FIG. 1 generates kana notation shown as "ei#su#" and "to#kyo#." In this kana notation, "#" indicates a break between each Kanji character, and corresponds to the above-mentioned symbol indicating a morpheme boundary.

このように生成されたカナ表記の単語に対して、第3図
に示した、例えば、 「エイ#」に)「ニー」 「トウ#」悼「トー」 「キョウ#」呻「キョー」 「す#」→「す」 のような変換ルール2aを適用することにより、「エー
ゾ」、「トーキヨー」 なる、実際の発声に近いカナ表記が得られるので、該カ
ナ表記に対応した、音声パターンが単語テンプレート生
成部4で生成され、単語テンプレート4aに格納される
For the words in kana notation generated in this way, as shown in Figure 3, for example, ``ei #'', ``nee'', ``tou #'', ``to'', ``kyo #'', groan ``kyo'', ``su'' By applying conversion rule 2a such as "#" → "su", you can obtain kana notation that is close to the actual pronunciation, such as "Eizo" and "Tokyo", so the sound pattern corresponding to the kana notation becomes a word. It is generated by the template generation unit 4 and stored in the word template 4a.

このように、本発明は、音節登録型の音声認識システム
における単語指定方式において、日本語に漢字が使用さ
れていることに着目し、登録単語のカナ表記を行う時に
、該単語に対応する漢字を入力し、続いて、該入力され
た漢字の工文字毎にカナを振ることにより、カナ表記と
漢字との対応付けを行わせて、後は自動的に、該漢字に
振られているカナを漢字1文字毎に区切りを付けて区切
り符号「#」を付加したものを当該単語に対するカナ表
記とすると共に、変換ルールも、該区切り符号を含めた
カナ表記に対応する変換を施すようにして、実際の発声
される音声に近い音声パターンが単語テンプレートに登
録されるようにした所に特徴がある。
As described above, the present invention focuses on the fact that kanji are used in Japanese in a word specification method in a syllable registration type speech recognition system, and when writing registered words in kana, the kanji corresponding to the word is used. By inputting ``Kana'' and then assigning a kana to each technical character of the input kanji, the correspondence between the kana notation and the kanji is established, and then the kana assigned to the kanji is automatically assigned. Separate each kanji character and add a delimiter "#" to the kana notation for the word, and the conversion rules also apply conversions that correspond to the kana notation including the delimiter. , the feature is that a voice pattern close to the actual voice is registered in the word template.

〔発明の効果〕〔Effect of the invention〕

以上、詳細に説明したように、本発明の音声認識単語指
定方式は、利用者が、カナ表記で定義した単語辞書に基
づいて音声認識を行う音声認識システムにおいて、単語
指定時に、先ず漢字表現を入力し、その人力された漢字
1字毎に、カナを指定して、漢字の1文字毎に区切り記
号の付加されたカナ表記を得るようにしたものであるの
で、入力した漢字の1文字毎にカナを指定する為、簡単
で間違いの少ない単語指定ができ、且つ実際の発声に近
いカナ表記が得られ、音声認識の性能が向上する効果が
ある。
As explained above in detail, the voice recognition word specification method of the present invention is such that when a user specifies a word, the user first inputs a kanji expression in a voice recognition system that performs voice recognition based on a word dictionary defined in kana notation. For each kanji that is entered and manually written, kana is specified, and the kana notation with a delimiter added to each kanji character is obtained. Since kana is specified for each word, it is possible to easily specify words with fewer mistakes, and kana notation that is close to the actual utterance can be obtained, which has the effect of improving speech recognition performance.

【図面の簡単な説明】[Brief explanation of drawings]

第1図は本発明の音声認識単語指定方式の構成例を示し
た図。 第2図は本発明による単語指定方式を示した図。 第3図は本発明を実施したときの変換ルールの例を示し
た図。 第4図は従来の単語指定方式を説明する図。 である。 図面において、 1は音節登録部。 1aは音節テンプレート (音節辞書)。 2は音節表現変換部、  2aは変換ルール。 3は音声分析部。 4は単語テンプレート生成部。 4aは単語テンプレート(単語辞書)。 5は照合部、     6は結果判定部。 ■、■は入力操作、  Iは区切り符号。 をそれぞれ示す。
FIG. 1 is a diagram showing an example of the configuration of a voice recognition word designation method according to the present invention. FIG. 2 is a diagram showing a word designation method according to the present invention. FIG. 3 is a diagram showing an example of conversion rules when implementing the present invention. FIG. 4 is a diagram explaining a conventional word specification method. It is. In the drawing, 1 is the syllable registration part. 1a is a syllable template (syllable dictionary). 2 is a syllable expression conversion unit, and 2a is a conversion rule. 3 is the voice analysis department. 4 is a word template generation unit. 4a is a word template (word dictionary). 5 is a collation unit, and 6 is a result determination unit. ■, ■ are input operations, I is a delimiter. are shown respectively.

Claims (1)

【特許請求の範囲】 利用者がカナ表記で定義した単語辞書(4a)に基づい
て、音声認識を行う音声認識システムにおいて、 上記単語辞書(4a)を生成する際の単語指定時に、該
単語の漢字表現を入力([1])し、該入力した漢字1
字毎にカナを指定([2])する手段を設け、該手段に
よって入力された単語指定により、該漢字の1文字毎に
区切り記号の付加されたカナ表記を得ることを特徴とす
る音声認識単語指定方式。
[Claims] In a speech recognition system that performs speech recognition based on a word dictionary (4a) defined by a user in kana notation, when specifying a word when generating the word dictionary (4a), Input a kanji expression ([1]) and enter the kanji 1
A voice recognition system characterized by providing means for specifying kana ([2]) for each character, and by specifying a word inputted by the means, obtaining kana notation with a delimiter added for each character of the kanji. Word specification method.
JP62084227A 1987-04-06 1987-04-06 Voice recognition word specifying system Pending JPS63249899A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP62084227A JPS63249899A (en) 1987-04-06 1987-04-06 Voice recognition word specifying system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP62084227A JPS63249899A (en) 1987-04-06 1987-04-06 Voice recognition word specifying system

Publications (1)

Publication Number Publication Date
JPS63249899A true JPS63249899A (en) 1988-10-17

Family

ID=13824588

Family Applications (1)

Application Number Title Priority Date Filing Date
JP62084227A Pending JPS63249899A (en) 1987-04-06 1987-04-06 Voice recognition word specifying system

Country Status (1)

Country Link
JP (1) JPS63249899A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018031985A (en) * 2016-08-26 2018-03-01 恒次 國分 Speech recognition complementary system

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2018031985A (en) * 2016-08-26 2018-03-01 恒次 國分 Speech recognition complementary system

Similar Documents

Publication Publication Date Title
WO2020062680A1 (en) Waveform splicing method and apparatus based on double syllable mixing, and device, and storage medium
JP6003115B2 (en) Singing sequence data editing apparatus and singing sequence data editing method
JP2006236037A (en) Voice interaction content creation method, device, program and recording medium
JPS63249899A (en) Voice recognition word specifying system
JP3414326B2 (en) Speech synthesis dictionary registration apparatus and method
JP2016197184A (en) Pronunciation learning content providing device, system, program, and method
JP2580565B2 (en) Voice information dictionary creation device
JP4026512B2 (en) Singing composition data input program and singing composition data input device
JPH08272388A (en) Device and method for synthesizing voice
JPS6184771A (en) Voice input device
JPS60142464A (en) Sentense formation system by voice input
JP2002123281A (en) Speech synthesizer
JP6340839B2 (en) Speech synthesizer, synthesized speech editing method, and synthesized speech editing computer program
JPH03245192A (en) Method for determining pronunciation of foreign language word
WO2022196087A1 (en) Information procesing device, information processing method, and information processing program
JP2000003355A (en) Chinese input conversion processor, new word register method used for the same, and recording medium
JP2003005776A (en) Voice synthesizing device
JPH08194494A (en) Sentence analyzing method and device
JP3553981B2 (en) Dictionary registration method and device
JPH05210482A (en) Method for managing sounding dictionary
JPH10161847A (en) Document data speech conversion system
JPH1063651A (en) Chinese language input device
JP2022141520A (en) Voice synthesis symbol editing device, method and program
JP2004145014A (en) Apparatus and method for automatic vocal answering
JPH07152392A (en) Voice synthesis device