JP3378547B2 - Voice recognition method and apparatus - Google Patents

Voice recognition method and apparatus

Info

Publication number
JP3378547B2
JP3378547B2 JP37140599A JP37140599A JP3378547B2 JP 3378547 B2 JP3378547 B2 JP 3378547B2 JP 37140599 A JP37140599 A JP 37140599A JP 37140599 A JP37140599 A JP 37140599A JP 3378547 B2 JP3378547 B2 JP 3378547B2
Authority
JP
Japan
Prior art keywords
language
matching
speech
voice
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP37140599A
Other languages
Japanese (ja)
Other versions
JP2001188556A (en
Inventor
貴敏 實廣
豪 川端
明弘 今村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP37140599A priority Critical patent/JP3378547B2/en
Publication of JP2001188556A publication Critical patent/JP2001188556A/en
Application granted granted Critical
Publication of JP3378547B2 publication Critical patent/JP3378547B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、言語的な各カテゴ
リの音声特徴量をモデル化しておき、入力音声特徴量系
列に対する各モデルの照合スコアを求めて入力音声の認
識を行う音声認識方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a speech recognition method for recognizing an input speech by modeling speech features of each linguistic category and obtaining a matching score of each model with respect to an input speech feature series. Regarding the device.

【0002】[0002]

【従来の技術】確率、統計論に基づいた確率モデルによ
る認識方法は、音声、文字、図形などのパターン認識に
おいて有用な技術である。以下では、音声認識におい
て、現在主流になっている、隠れマルコフモデル(Hid
den Markov Model、以下HMMと記す)による従来技
術について説明する。隠れマルコフモデルについては、
例えば、中川聖一「確率モデルによる音声認識」電磁情
報通信学会編(1988)に詳述されている。
2. Description of the Related Art A probabilistic model-based recognition method based on probability and statistics is a useful technique for pattern recognition of voices, characters, and figures. In the following, Hidden Markov Model (Hid
A conventional technique by den Markov Model (hereinafter referred to as HMM) will be described. For hidden Markov models,
For example, it is described in detail in Seiichi Nakagawa, "Speech Recognition by Probabilistic Model", edited by Institute of Electro-Communications (1988).

【0003】従来の音声認識装置において、音素ごとに
HMMを用いてモデル化しておく方法は、性能が高く、
現在の主流になっている。図4に、従来のこの種の音声
認識装置のブロック図を示す。音声信号入力端子11か
ら入力された音声をA/D変換部12においてデジタル
化し、そのデジタル音声信号を音声特徴パラメータ分析
部13において分析し、音声特徴パラメータを抽出す
る。この音声特徴パラメータを用いて、照合部14にお
いて、あらかじめ用意された単語リスト(単語等の表記
と読みのリスト)16と音声モデル16により生成され
る音声認識候補パターン(照合パターン)と入力音声と
の照合を行う。このときの各認識候補に対する照合スコ
アを候補選択部25において比較し、最も高いスコアを
示す認識候補を選択する。ここで選ばれた候補が認識結
果出力部26によって出力される。
In the conventional speech recognition apparatus, the method of modeling each phoneme using HMM has high performance,
It has become the current mainstream. FIG. 4 shows a block diagram of a conventional voice recognition device of this type. The voice input from the voice signal input terminal 11 is digitized by the A / D converter 12, and the digital voice signal is analyzed by the voice feature parameter analyzer 13 to extract voice feature parameters. Using this voice feature parameter, the matching unit 14 prepares a word list (list of words and readings) 16 prepared in advance, a voice recognition candidate pattern (matching pattern) generated by the voice model 16, and an input voice. Is checked. The matching score for each recognition candidate at this time is compared in the candidate selection unit 25, and the recognition candidate having the highest score is selected. The candidates selected here are output by the recognition result output unit 26.

【0004】[0004]

【発明が解決しようとする課題】これまでの音声認識技
術では、一般にある特定の言語に対し、音声モデルを用
意することで、その言語の音声認識を可能にしてきた。
複数の言語に対しては、それぞれの言語の音声モデルを
用意することで、各言語音声を認識できる。母国語でな
い話者に対しては、そういった話者の発声を集めること
で、母国語でない話者の音声モデルを構築できる。だ
が、それだけでは、母国語ではない話者の発声には対応
できない。発話者のその言語に対する習熟度により、発
話様式が大きく異なる。また、外国語に熟練した話者で
あっても、状況により、必ずしもその言語の発声ではな
く、母国語で外来語として扱っているような発声をする
場合もある。一方、複数言語の母国語話者による音声モ
デルを用いるだけの音声認識システムでは、発話者側で
は、母国語でない言語に対して、発声する度に、発声す
べき言語を意識する必要があり、大変不便で、また、認
識精度も高くなかった。
In the speech recognition technology up to the present, generally, by preparing a speech model for a specific language, speech recognition of that language has been enabled.
For a plurality of languages, it is possible to recognize each language voice by preparing a voice model for each language. For speakers who are not native speakers, a speech model of speakers who are not native speakers can be constructed by collecting the utterances of those speakers. However, this alone cannot handle the utterances of speakers who are not native speakers. The utterance style varies greatly depending on the speaker's proficiency with the language. In addition, even a speaker who is proficient in a foreign language may not necessarily speak in that language, but may speak as a foreign language in his native language. On the other hand, in a speech recognition system that only uses a speech model of a native language speaker of multiple languages, the speaker side needs to be aware of the language to be uttered each time it utters a language that is not the native language. It was very inconvenient and the recognition accuracy was not high.

【0005】なお、例えば特開平10−254350号
公報には、母国語話者による音声モデルを、他言語の母
国語話者による発声との類似性によって入れ替えること
により、母国語でない話者の認識精度を向上させる技術
が記載されているが、発音の個人差により認識性能が変
化する等、汎用性の点で問題がある。
Note that, for example, in Japanese Unexamined Patent Publication No. 10-254350, the recognition of non-native speakers is carried out by replacing the speech model by the native speaker with the similarity of the utterance by the native speakers of other languages. Although a technique for improving accuracy is described, there is a problem in versatility such that recognition performance changes due to individual differences in pronunciation.

【0006】本発明の目的は、認識対象言語の母国語話
者だけでなく、認識対象言語の母国語でない話者の音声
も、高精度で認識することができ、かつ、発音の個人差
による影響の少ない汎用性の高い音声認識方法及び装置
を提供することにある。
The object of the present invention is to recognize not only the speaker of the native language of the recognition target language but also the speaker of a language other than the native language of the recognition target language with high accuracy and depending on individual differences in pronunciation. An object of the present invention is to provide a highly versatile voice recognition method and device with little influence.

【0007】[0007]

【課題を解決するための手段】本発明では、利用する話
者の母国語でない言語に対して、母国語による読みや発
音で表現される照合パターンを与え、認識対象言語の母
国語話者による音声モデルだけでなく、利用話者の母国
語に対する音声モデルを同時に入力音声の照合に使うこ
とで、母国語話者だけでなく、母国語でない話者の音声
を認識できるようにする。また、母国語でない話者によ
る認識対象言語の音声モデルも用いることで、より一
層、幅広い発話様式を覆うことができるようにする。
According to the present invention, a matching pattern expressed by reading or pronunciation in a native language is given to a language which is not the native language of the speaker to be used, and a native language speaker of the recognition target language is used. By using not only the voice model but also the voice model corresponding to the native language of the user speaker for the matching of the input voice, the voices of not only the native language speaker but also the non-native language speaker can be recognized. Further, by using a speech model of a recognition target language by a speaker who is not a native language, it is possible to cover a wider range of utterance styles.

【0008】本発明によれば、認識対象言語の母国語で
ない話者による母国語話者に近い発音であっても、母国
語話者発声による音声モデル、または、母国語でない話
者で、母国語話者に近い発声による音声モデルにより認
識することができる。また、認識対象言語に対して母国
語でない話者の母国語で外来語的な発音をする場合に
は、母国語による発音、読みを与え、母国語音声モデル
をあてはめた照合パターンを用いて認識することができ
る。
According to the present invention, even if the pronunciation of a language other than the native language of the recognition target language is close to that of the native language speaker, the speech model produced by the native language speaker or a speaker who is not the native language, It can be recognized by a voice model with utterance close to that of a Japanese speaker. Also, when a foreign language is pronounced in the native language of a speaker who is not the native language for the recognition target language, the pronunciation and reading in the native language are given, and recognition is performed using a matching pattern to which the native language speech model is applied. can do.

【0009】[0009]

【発明の実施の形態】以下、本発明の一実施の形態につ
いて図面により詳述する。図1に、本発明を適用した音
声認識装置の一実施例の全体的構成図を示す。本実施例
は、言語1と言語2の2種類の言語を認識でき、さら
に、言語2の言語については、他言語の言語1の母国語
話者による音声も認識できる音声認識装置を示してい
る。A/D変換部12、音声特徴パラメータ分析部1
3、照合スコア比較候補選択部17、認識結果出力部1
8は、図4の従来の場合と同様である。ただし、照合ス
コア比較候補選択部17は、後述の照合部19、22、
24の各照合結果を入力して、それらの中から最も高い
スコアを示す認識候補を選択するように構成される。
BEST MODE FOR CARRYING OUT THE INVENTION An embodiment of the present invention will be described in detail below with reference to the drawings. FIG. 1 shows an overall configuration diagram of an embodiment of a voice recognition device to which the present invention is applied. The present embodiment shows a voice recognition device capable of recognizing two kinds of languages, language 1 and language 2, and also recognizing a voice of a native language speaker of language 1 of another language for language 2. . A / D converter 12, voice feature parameter analyzer 1
3, collation score comparison candidate selection unit 17, recognition result output unit 1
8 is the same as the conventional case of FIG. However, the matching score comparison candidate selection unit 17 uses the matching units 19 and 22, which will be described later,
It is configured to input each of the 24 matching results and select a recognition candidate having the highest score from them.

【0010】図1において、言語1、言語2とも、母国
語話者による専用の音声モデル16、21を持ち、それ
ぞれの言語に応じた表記と読み発音を明記した単語リス
ト15、20を用意する。図2の(a)、(b)に単語
リスト15、20の一例を示す。言語1の言語に対し
て、その母国語話者による音声を認識する場合、単語リ
スト15と音声モデル16を用い、照合部14におい
て、言語1の音声認識候補パターン(照合パターン)と
入力音声との照合を行う。同様に言語2の言語に対し
て、その母国語話者による音声を認識する場合には、単
語リスト20と音声モデル21を用い、照合部19にお
いて、言語2の音声認識候補パターンと入力音声との照
合を行う。これは従来方法と同様である。図1では、別
々に照合部14、19を表現しているが、言語的な特性
は音声モデル、単語リストで吸収できるため、照合部自
体は共通のものが使える。照合部14や19で得られる
音声認識候補に対する照合スコアを候補選択部17で比
較し、スコアのよいものを最終的な候補とし、認識結果
として出力部18から出力する。これにより、複数の言
語音声(ここでは言語1と2の音声)に対し、同時に音
声認識を行うことができる。
In FIG. 1, both language 1 and language 2 have dedicated voice models 16 and 21 by native speakers, and word lists 15 and 20 in which notations and pronunciations are specified according to each language are prepared. . 2A and 2B show examples of word lists 15 and 20, respectively. When recognizing the voice of the native language speaker for the language of language 1, the word list 15 and the voice model 16 are used, and the matching unit 14 uses the voice recognition candidate pattern (matching pattern) of the language 1 and the input voice. Is checked. Similarly, in the case of recognizing the voice of the native language speaker for the language of language 2, the word list 20 and the voice model 21 are used, and the matching unit 19 uses the voice recognition candidate pattern of language 2 and the input voice. Is checked. This is similar to the conventional method. In FIG. 1, the matching units 14 and 19 are expressed separately, but since the linguistic characteristics can be absorbed by the voice model and the word list, the common matching unit can be used. The matching scores for the voice recognition candidates obtained by the matching units 14 and 19 are compared by the candidate selecting unit 17, and the candidate having a good score is determined as the final candidate and output from the output unit 18 as the recognition result. As a result, it is possible to simultaneously perform voice recognition on a plurality of language voices (voices of languages 1 and 2 here).

【0011】ただし、各言語に対し、母国語話者による
音声モデルだけでは、母国語でない言語を認識する場合
には認識精度が低下する。例として、言語1を日本語、
言語2を英語とし、日本語を母国語とする日本人が発声
した英語を認識する場合を考える。日本人の場合、英語
を発声したつもりでも、実際には、アメリカ人などが話
すような英語とはかけ離れている場合が多い。日本語に
はないような音素[r]、[l]、[f]などの発声
は、多くの日本人が苦手としている。このような日本人
の英語を、英語を母国語とするイギリス人やアメリカ人
の発声により作成した音声モデルで認識するのはたいて
い困難である。
However, for each language, the recognition accuracy is lowered when only a speech model by a native language speaker is used to recognize a language other than the native language. As an example, language 1 is Japanese,
Consider the case of recognizing English spoken by a Japanese whose native language is Japanese and language 2 is English. In the case of Japanese people, in many cases, even though they intend to speak English, they are often far from the English spoken by Americans. Many Japanese are not good at uttering phonemes [r], [l], and [f] that are not found in Japanese. It is usually difficult to recognize such Japanese English with a speech model created by utterances of English or American whose native language is English.

【0012】また、別の問題として、英語の上手な日本
人であっても、英語を必ず英語的な発音で発声するとは
限らず、状況によっては、日本語的な発声をする。例え
ば、「computer」という英単語を英語として発
声することもあるだろうし、「こんぴゅーた」と日本語
的に読むこともありえる。この同じ単語に対する2種類
の発声は、音声としては全く異なるものになる。したが
って、英単語であっても、日本人英語、母国語でない話
者の発声を、英語音声モデルだけで認識するのは困難で
ある。
Further, as another problem, even a Japanese who is good at English does not always speak English with an English pronunciation, and in some circumstances, speaks Japanese. For example, the English word "computer" may be uttered in English, or "konpyuta" may be read in Japanese. The two types of utterances for the same word are completely different in voice. Therefore, even for English words, it is difficult to recognize the utterances of speakers who are not native English speakers or Japanese speakers only with the English speech model.

【0013】本発明では、これら2つの問題に対する対
策を大きく2つ行う。一つは、母国語でない話者による
発声から音声モデルを作成すること、もう一つは、母国
語の音声モデルを用いて、他言語単語の発音を母国語で
の発音で置き換えたものを用意し、認識時に、母国語音
声モデルによる照合パターンとして用いる。
In the present invention, two major measures are taken against these two problems. One is to create a speech model from utterances by speakers who are not in the native language, and another is to use the speech model of the native language and replace the pronunciation of other language words with the pronunciation in the native language. However, at the time of recognition, it is used as a matching pattern based on the native language speech model.

【0014】前者は、図1において、言語1母国語話者
による言語2用の音声モデル23と言語2用単語リスト
20を用い、言語2用(言語1母国語話者)照合部22
で照合を行う。これは、例で言うと、日本人英語の音声
を収集し、その音声モデルを作成して用いることにあた
る。単語リストは英語用のリストを使う。ここで得られ
れる認識候補の照合パターンは、日本人が英語らしく発
声した時の音声パターンに相当する。
The former uses a speech model 23 for a language 2 by a native language speaker of language 1 and a word list 20 for language 2 in FIG. 1, and uses a language 2 (language 1 native language speaker) collation unit 22.
Check with. For example, this corresponds to collecting Japanese English voices and creating and using a voice model thereof. Use the English list for the word list. The matching pattern of the recognition candidates obtained here corresponds to a voice pattern when a Japanese utters an English voice.

【0015】後者は、図1において、言語1用の音声モ
デル16と言語1から言語2へ発音を対応させた単語リ
スト27を用い、言語1→言語2用の照合部24で照合
を行う。ここで、単語リスト27は、単語リスト生成部
25において、言語1から言語2へ発音を対応させるた
めの発音変換モデル(発音変換辞書、規則等)26を参
照して、言語2用単語リスト20から作成する。例で
は、英単語に片仮名で書くような日本語読みを与え、日
本語音声モデルで音声認識することにあたる。これは、
日本人が英語を片仮名読みした発声や、英語発声のつも
りであっても、日本語音声の特徴のほうが多く存在する
ような発声に対して対応できる。図2の(c)に、言語
1→2用単語リスト27の一例を示す。
In the latter case, in FIG. 1, the collation unit 24 for language 1 → language 2 performs collation by using the speech model 16 for language 1 and the word list 27 in which pronunciation is corresponded from language 1 to language 2. Here, the word list 27 refers to the pronunciation conversion model (pronunciation conversion dictionary, rules, etc.) 26 for associating pronunciations from language 1 to language 2 in the word list generation unit 25, and refers to the word list 20 for language 2. Create from. In the example, Japanese pronunciation is given to English words such as writing in Katakana, and speech recognition is performed using the Japanese speech model. this is,
Even if a Japanese person speaks English in katakana, or if he / she intends to speak in English, he / she can deal with speech that has more characteristics of Japanese speech. FIG. 2C shows an example of the word list 1 for language 1 → 2.

【0016】以下に、単語リスト生成部25および発音
変換モデル26により、言語2用単語リスト20から言
語1→2用単語リスト27を作成するいくつかの実施例
を示す。
Below, several embodiments will be shown in which the word list generator 25 and the pronunciation conversion model 26 create the language 1 → 2 word list 27 from the language 2 word list 20.

【0017】(1)発声変換モデル26として、あらか
じめ言語2の単語に対し、言語1の発音を明記した辞書
を作成して用意し、単語リスト生成部26において、辞
書引きで、言語2用単語リスト20の英単語等に日本語
読みをつけ、言語1→2用単語リスト27とする。ここ
で、外来語として浸透しているものは、使われていそう
な読みをつける。そうでないものは、仮名に置き換える
とこうなるだろうと思われるものを読みとしてつける。
(1) As the voicing conversion model 26, a dictionary in which the pronunciation of the language 1 is clearly specified is prepared for the words of the language 2 in advance, and the word list generation unit 26 draws the dictionary for the words for the language 2. Japanese words are added to the English words and the like in the list 20 to form a word list 27 for language 1 → 2 . Here, the words that are pervasive as foreign words are given the readings that are likely to be used. For those that do not, read as what you think would be like this if you replace it with a kana.

【0018】(2)発声変換モデル26として、あらか
じめ単語表記あるいは発音記号から読みへの変換規則に
よる変換部分的な表記や発音記号列から仮名への変換規
則を用意しておき、単語リスト生成部25において、言
語2用単語リスト20内の単語にそれをあてはめ、自動
で読みを生成し、言語−2用単語リスト27を得る。
(2) As the utterance conversion model 26, a partial notation based on a conversion rule from a word notation or a phonetic symbol to a pronunciation and a conversion rule from a phonetic symbol string to a kana are prepared in advance. In 25, it is applied to the words in the word list 20 for language 2 to automatically generate a reading, and the word list 27 for language-2 is obtained.

【0019】(3) 統計的手法による単語表記あるい
は発音記号からの変換を利用する。発声変換モデル26
として、上記(1)で作成した辞書や、多くの人に多数
の単語について読みを付加してもらったものを用いて、
言語2用単語リスト20の英語の単語表記、あるいは発
音表記と日本語読みを対応づけるような確率モデルを作
成する。そのモデルを用いて、単語リスト生成部25に
おいて、言語2用単語リスト20の英単語に対し、日本
語読みを自動生成し、言語1−2用単語リスト27を得
る。
(3) Use of word notation or phonetic symbol conversion by a statistical method. Speech conversion model 26
As an example, using the dictionary created in (1) above or the one that many people have added readings for many words,
A probabilistic model that associates the English word notation or the phonetic notation of the word list 20 for language 2 with the Japanese reading is created. Using the model, the word list generating unit 25 automatically generates Japanese reading for the English words in the word list 20 for language 2, and obtains the word list 27 for language 1-2.

【0020】ここで、(1)〜(3)に示したような技
術には、機械翻訳技術の分野で使われている音訳技術が
ある。これは英単語を日本語の片仮名表記に翻訳する技
術であり、ここで適用しようとしている音声認識にも利
用できる。例えば、塚田・増田,「英単語に対する日本
語読み付与方法の検討」(情報処理学会、第53回全国
大会、2−359、平成8年後期)には、変換規則の生
成、その音声合成への適用が記載されており、(2)の
方法に利用できる。また、Knight and Graehl,「Ma
chine Transliteration」(Computational Linguisti
cs,Vol.24,NO.4,p.599,1998)に
は、機械翻訳において、統計的手法により英語の発音記
号から日本語の発音記号へ変換する技術が記載されてお
り、(3)の方法に利用できる。
Here, the techniques shown in (1) to (3) include transliteration techniques used in the field of machine translation techniques. This is a technology that translates English words into Japanese Katakana notation, and can also be used for speech recognition, which is being applied here. For example, Tsukada and Masuda, "Examination of Japanese reading addition method for English words" (Information Processing Society of Japan, 53rd National Convention, 2-359, late 1996), describes conversion rule generation and its speech synthesis. Is described and can be used for the method (2). See also Knight and Graehl, “Ma
chine Transliteration "(Computational Linguisti
cs, Vol. 24, NO. 4, p. 599, 1998) describes a technique for converting English phonetic symbols into Japanese phonetic symbols by a statistical method in machine translation, (3). Available in any way.

【0021】さらに、(3)の手法には、本出願人の先
願にかかる特願平11−324892号で提案した英単
語の表記からカタカナ表記を生成する方法を利用するこ
ともできる。先願の方法は次のような内容のものであ
る。まず、基本単位となる英文字とカタカナとの対応を
設定しておく。「s/ス」「ta/テー」「tio/シ
ョ」「n/ン]などのように、子音と母音の組み合わせ
やアルファベット1文字に対する仮名を設定する。ま
た、英単語とカタカナ表記を単語単位で対応付けたリス
トを用意しておく。このリストを用いて、基本単位をも
とに、対応付けを動的計画法により行う。対応付けられ
たリストから、基本単位の連鎖統計(ngram)を取
っておく。この統計量を用いて、英単語表記からカタカ
ナ文字列が確率スコアとともに生成できる。
Further, as the method (3), a method of generating katakana notation from the notation of English words proposed in Japanese Patent Application No. 11-324892, which is a prior application of the present applicant, can be used. The method of the earlier application has the following contents. First, set the correspondence between English characters, which are the basic units, and katakana. Set a combination of consonants and vowels or a kana for one letter of the alphabet, such as “s / s”, “ta / ta”, “tio / show”, “n / n”, etc. Also, use English words and katakana notation in word units. A dynamic programming method is used to perform the association based on the basic units using this list. From the associated lists, the chain statistics (ngram) of the basic units can be obtained. Note that this statistic can be used to generate Katakana character strings along with probability scores from English word notation.

【0022】(4) 音節あるいは音素モデルの対応付
けによる変換を利用する。上記の方法では、日本語の音
節構造(子音+母音の構造など)が必ず含まれる。英語
では、日本語にない構造も取るため(子音連鎖、子音で
終わる、など)、上記の方法だけでは不十分である。そ
こで、発声変換モデル26に、あらかじめ音節あるいは
音素のレベルで、英語と日本語で近い、あるいは、置き
換わりやすいものを対応づけておき、単語リスト生成部
25において、この対応表にしたがって、言語2用単語
リスト20の単語等の発音を置き換えることで言語1→
2用単語リスト27を得る。
(4) Utilizing conversion by associating syllables or phoneme models. The above method always includes the Japanese syllable structure (consonant + vowel structure, etc.). In English, the above method is not enough because it takes a structure not found in Japanese (consonant chain, ends with consonant, etc.). Therefore, the vowel conversion model 26 is associated in advance with a syllable or phoneme level that is close to or easy to replace in English and Japanese, and the word list generation unit 25 uses the correspondence table for the language 2 according to this correspondence table. Language 1 by replacing the pronunciation of words etc. in word list 20
The second word list 27 is obtained.

【数1】 この2つ目の例で、「すとり」と仮名で書くと、子音+
母音の構造が存在するため、子音[s]、[t]、
[r]の間に母音[u]、[o]、[i]が挿入され
る。この音素列がそのまま認識候補のパターンになるた
め、発声が英語的で、母音を含まない場合には、うまく
マッチングが取れないことになる。
[Equation 1] In this second example, if you write "sutori" in the kana, it will be a consonant +
Due to the existence of the vowel structure, consonants [s], [t],
Vowels [u], [o], and [i] are inserted between [r]. Since this phoneme string becomes the pattern of the recognition candidate as it is, if the utterance is English-like and does not include a vowel, it is not possible to successfully match.

【0023】音声認識装置を構築する場合、上記(1)
〜(4)の方法の一つあるいは二つ以上を組み合わせて
利用することができる。
When constructing the voice recognition device, the above (1)
One or more of the methods (4) to (4) can be used in combination.

【0024】次に、図1の実施例における認識処理の全
体的流れを図3により簡単に説明する。入力端子11か
ら入力された音声信号をA/D変換部12にてデジタル
信号に変換した後(ステップ101)、音声特徴パラメ
ータ分析部13において、ある長さの分析フレーム単位
で音声分析を行い、音声特徴パラメータを得る(ステッ
プ102)。実施例では、このフレーム単位で、以下の
処理を繰り返し行う。
Next, the overall flow of the recognition processing in the embodiment of FIG. 1 will be briefly described with reference to FIG. After the voice signal input from the input terminal 11 is converted into a digital signal by the A / D converter 12 (step 101), the voice feature parameter analyzer 13 performs voice analysis in units of a certain length of analysis frame, Obtain voice feature parameters (step 102). In the embodiment, the following processing is repeated for each frame.

【0025】単語リストに応じた音声認識候補が存在す
る場合(ステップ103でYES)、言語1用照合部1
4、言語2用照合部19、言語1母国語話者に対する言
語2用照合部22、言語1から言語2への発音変換によ
る照合部24のそれぞれへ、音声特徴パラメータを送る
(ステップ104〜107)。一方、音声終端を待た
ず、候補がない場合は(ステップ103でNO)、結果
を得ないまま、認識処理を終える。各照合部14、1
9、22、24では、それぞれ、対応の単語リストと音
声モデルとを用いて音声認識パターン(照合パターン)
を作成して入力音声特徴パラメータとの照合を行い(ス
テップ108〜111)、その照合スコアを元に、各認
識候補のスコアを計算する(ステップ112〜11
5)。即ち、照合部14では、言語1単語リスト15と
言語1用音声モデル16を用いて、言語1の母国語話者
に対する言語1用の照合パターンを得、入力音声特徴パ
ラメータとの照合計算を行う。照合部19では、言語2
用単語リスト20と言語2用音声モデル21を用いて、
言語2の母国語話者に対する言語2用の照合パターンを
得、入力音声特徴パラメータとの照合計算を行う。照合
部22では、言語2用単語リスト20と言語2用(言語
1母国語話者)音声モデル23を用いて、言語1の母国
語話者に対する言語2用の照合パターンを得、入力音声
パラメータとの照合を行う。照合部24では、言語1→
2用単語リスト27と言語1用音声モデル16を用い
て、言語2用として言語1の母国語話者の照合パターン
を得、入力音声パラメータとの照合を行う。照合スコア
比較候補選択部17では、各照合部14、19,22、
24からの照合スコアを用いて、照合スコア比較および
候補選択を行う(ステップ116)。
If there is a voice recognition candidate corresponding to the word list (YES in step 103), the language 1 collation unit 1
4, the speech feature parameter is sent to each of the language 2 collation unit 19, the language 2 collation unit 22 for a language 1 native speaker, and the collation unit 24 by pronunciation conversion from the language 1 to the language 2 (steps 104 to 107). ). On the other hand, if there is no candidate (NO at step 103) without waiting for the end of voice, the recognition process ends without obtaining a result. Each matching unit 14, 1
In 9, 22, and 24, a speech recognition pattern (matching pattern) using the corresponding word list and speech model, respectively.
Is created and collated with the input voice feature parameter (steps 108 to 111), and the score of each recognition candidate is calculated based on the collation score (steps 112 to 11).
5). That is, the matching unit 14 uses the language 1 word list 15 and the language 1 speech model 16 to obtain a matching pattern for the language 1 for the native language speaker of the language 1 and performs matching calculation with the input speech feature parameter. . In the matching unit 19, the language 2
Using the word list 20 for speech and the speech model 21 for language 2,
The matching pattern for the language 2 for the native language speaker of the language 2 is obtained, and the matching calculation with the input voice feature parameter is performed. The matching unit 22 obtains a matching pattern for the language 2 for the native speaker of the language 1 using the word list 20 for the language 2 and the speech model 23 for the language 2 (language 1 native speaker), and the input speech parameter Match with. In the matching unit 24, the language 1 →
Using the second word list 27 and the language 1 speech model 16, the matching pattern of the native speaker of the language 1 for the language 2
And input voice parameters are matched. In the matching score comparison candidate selection unit 17, each matching unit 14, 19, 22,
Matching scores from 24 are used for matching score comparison and candidate selection (step 116).

【0026】以下、現在のフレームが音声終端でなけれ
ば(ステップ117でNO)、次のフレームに対し、ス
テップ102からの処理を繰り返す。音声終端であれば
(ステップ117でYES)、照合処理を終了し、残っ
ている認識候補を結果として認識結果出力部18から出
力する。
Thereafter, if the current frame is not the voice end (NO in step 117), the process from step 102 is repeated for the next frame. If it is the end of the voice (YES in step 117), the matching process is ended, and the remaining recognition candidates are output from the recognition result output unit 18 as a result.

【0027】このように、本実施例によれば母国語話者
の音声モデルによる候補、母国語でない話者の音声モデ
ルによる候補、母国語の音声モデルを用いて、他言語単
語の発音を母国語での発音で置き換えた候補、等を用意
することにより、複数言語の音声認識、さらに、母国
語、母国語でない話者の発声に対して、言語を選択する
ことなく、同時に音声認識が可能になる。
As described above, according to the present embodiment, the pronunciation of another language is pronounced by using the candidate based on the voice model of the native speaker, the candidate based on the voice model of the speaker who is not the native language, and the voice model of the native language. By preparing candidates that have been replaced by pronunciations in the national language, it is possible to simultaneously recognize voices in multiple languages, and even for native speakers and non-native speakers, without selecting a language. become.

【0028】なお、図1では、2つの言語、言語1の母
国語話者についてのみの実施例を示したが、同様な手法
により、言語1から2への対応もでき、また、3つ以上
の言語への応用も可能である。
Although FIG. 1 shows an embodiment only for native speakers of two languages, language 1, language 1 to 2 can be dealt with by a similar method, and three or more languages can be used. Is also applicable to the language.

【0029】[0029]

【発明の効果】以上述べたように、本発明によれば、複
数の言語に対する音声モデル、単語リストだけでなく、
母国語でない話者の音声モデル、他言語単語に対する母
国語への発音変換等を用いることで、母国語以外の話者
による発音の個人差によらない、汎用性のある高い精度
の音声認識が可能になる。また、複数言語において、母
国語話者、および母国語でない話者の発声を、言語を選
択することなく、同時に音声認識を可能にすることがで
きる。
As described above, according to the present invention, not only the voice models and word lists for a plurality of languages but also
By using a speech model of a speaker who is not a native language, pronunciation conversion of other language words into a native language, etc., versatile and highly accurate speech recognition that does not depend on individual differences in pronunciation by speakers other than the native language It will be possible. In addition, in a plurality of languages, it is possible to simultaneously recognize the utterances of the native language speaker and the non-native language speaker without selecting a language.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の音声認識方法を適用した音声認識装置
の一実施例を示すブロック図である。
FIG. 1 is a block diagram showing an embodiment of a voice recognition device to which a voice recognition method of the present invention is applied.

【図2】図1の単語リストの具体例を示す図である。FIG. 2 is a diagram showing a specific example of the word list of FIG.

【図3】図1の実施例における音声認識処理手順の一例
を示す流れ図である。
3 is a flowchart showing an example of a voice recognition processing procedure in the embodiment of FIG.

【図4】従来の音声認識装置の機能構成を示すブロック
図である。
FIG. 4 is a block diagram showing a functional configuration of a conventional voice recognition device.

【符号の説明】[Explanation of symbols]

11 音声信号入力端子 12 A/D変換部 13 音声特徴パラメータ分析部 14 言語1用照合部 15 言語1用単語リスト 16 言語1用音声モデル 17 照合スコア比較候補選択部 18 認識結果出力部 19 言語2用照合部 20 言語2用単語リスト 21 言語2用音声モデル 22 言語2用(言語1母国語話者)照合部 23 言語2用音声モデル(言語1母国語話者) 24 言語1→2用照合部 25 単語リスト生成部 26 言語1→2に対する発音変換モデル 27 言語1→2用単語リスト 11 Audio signal input terminal 12 A / D converter 13 Speech feature parameter analysis unit 14 Language 1 collation unit Word list for 15 languages 1 16 language 1 voice models 17 Collation score comparison candidate selection unit 18 Recognition result output section 19 Language 2 collation unit Word list for 20 languages 2 21 Language 2 voice model 22 Language 2 (Language 1 Native speaker) Collation unit 23 Language 2 Speech Model (Language 1 Native speaker) 24 Language 1 → 2 collation unit 25 Word list generator 26 Pronunciation conversion model for 1 to 2 languages Word list for 27 languages 1 → 2

───────────────────────────────────────────────────── フロントページの続き (56)参考文献 特開 平10−254350(JP,A) 特開 平10−116093(JP,A) 特開 平10−133686(JP,A) 特開 平11−250063(JP,A) 特開 平11−231888(JP,A) (58)調査した分野(Int.Cl.7,DB名) G10L 15/10 G10L 15/06 ─────────────────────────────────────────────────── ─── Continuation of the front page (56) Reference JP-A-10-254350 (JP, A) JP-A-10-116093 (JP, A) JP-A-10-133686 (JP, A) JP-A-11- 250063 (JP, A) JP 11-231888 (JP, A) (58) Fields investigated (Int.Cl. 7 , DB name) G10L 15/10 G10L 15/06

Claims (4)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】 入力音声信号から音声特徴パラメータを
抽出し、あらかじめ用意された言語的単位の各カテゴリ
の特徴を表現した音声モデルによる音声認識候補パター
ン(以下、照合パターン)と前記入力音声信号から抽出
した音声特徴パラメータとの照合スコアを計算し、高い
スコアが示す照合パターンが表現する認識対象を出力す
る音声認識方法において、認識対象言語の母国語話者による音声モデルを用いた照
合パターンにより、入力音声信号から抽出した音声特徴
パラメータとの照合スコアを計算し認識対象とする言語と他言語の表記、あるいは発音記号
から、部分的な記号連鎖を元に、認識対象とする言語と
他言語との発音の対応をあらかじめ取っておき、他言語
の母国語話者による他言語音声モデルを用いて認識対象
を識別できる照合パターンを生成し、該照合パターンに
より、入力音声信号から抽出した音声特徴パラメータと
の照合スコアを計算し、 高いスコアが示す照合パターンが表現する認識対象を出
力することを特徴とする音声認識方法。
1. A speech recognition candidate pattern (hereinafter referred to as a collation pattern) based on a speech model in which a speech feature parameter is extracted from an input speech signal and the characteristics of each category of a linguistic unit prepared in advance are extracted from the input speech signal. In the speech recognition method that calculates the matching score with the extracted speech feature parameters and outputs the recognition target represented by the matching pattern indicated by the high score, the verification is performed using the speech model of the native language speaker of the recognition target language.
Voice features extracted from the input voice signal by the matching pattern
The matching score with the parameter is calculated , and the language to be recognized and the notation in other languages or phonetic symbols
Based on the partial symbol chain,
Pre-correspondence of pronunciation with other languages
Targets of Multilingual Speech Models by Native Speakers
Generate a matching pattern that can identify
From the voice feature parameters extracted from the input voice signal
A speech recognition method characterized by calculating a matching score of, and outputting a recognition target represented by a matching pattern indicated by a high score.
【請求項2】 入力音声信号から音声特徴パラメータを
抽出し、あらかじめ用意された言語的単位の各カテゴリ
の特徴を表現した音声モデルによる照合パターンと前記
入力音声から抽出した音声特徴パラメータとの照合スコ
アを計算し、高いスコアを示す照合パターンが表現する
認識対象を出力する音声認識方法において、認識対象言語の母国語話者による音声モデルを用いた照
合パターンにより、入力音声信号から抽出した音声特徴
パラメータとの照合スコアを計算し他言語の母国語話者による認識対象言語の音声モデルを
用いた照合パターンにより、入力音声信号から抽出した
音声特徴パラメータとの照合スコアを計算し、 認識対象とする言語と他言語の表記、あるいは発音記号
から、部分的な記号連鎖を元に、認識対象とする言語と
他言語との発音の対応をあらかじめ取っておき、他言語
の母国語話者による他言語音声モデルを用いて認識対象
を識別できる照合パターンを生成し、該照合パターンに
より、入力音声信号から抽出した音声特徴パラメータと
の照合スコアを計算し、 高いスコアが示す照合パターンが表現する認識対象を出
力することを特徴とする音声認識方法。
2. A matching score between a matching pattern obtained by extracting a speech characteristic parameter from an input speech signal and expressing a characteristic of each category of a linguistic unit prepared in advance and a speech characteristic parameter extracted from the input speech. In the speech recognition method that outputs the recognition target represented by the matching pattern with a high score, and uses the speech model of the native language speaker of the recognition target language.
Voice features extracted from the input voice signal by the matching pattern
The matching score with the parameter is calculated, and the speech model of the language to be recognized by the native speaker of another language is calculated.
Extracted from the input voice signal according to the matching pattern used
The matching score with the speech feature parameter is calculated, and the recognition target language and other language notation or phonetic symbols
Based on the partial symbol chain,
Pre-correspondence of pronunciation with other languages
Targets of Multilingual Speech Models by Native Speakers
Generate a matching pattern that can identify
From the voice feature parameters extracted from the input voice signal
A speech recognition method characterized by calculating a matching score of, and outputting a recognition target represented by a matching pattern indicated by a high score.
【請求項3】 入力音声信号から音声特徴パラメータを
抽出し、あらかじめ用意された言語的単位の各カテゴリ
の特徴を表現した音声モデルによる照合パターンと前記
入力音声信号から抽出した音声特徴パラメータとの照合
スコアを計算し、高いスコアが示す照合パターンが表現
する認識対象を出力する音声認識装置において、複数言語に対応したそれぞれの母国語話者による音声モ
デルと、 認識対象言語の母国語話者による音声モデルを用いた照
合パターンと入力音声信号から抽出した音声特徴パラメ
ータとの照合スコアを計算する第1照合手段と、 認識対象とする言語と他言語の表記、あるいは発音記号
から、部分的な記号連鎖を元に、認識対象とする言語と
他言語との発音の対応をあらかじめ取っておいたリスト
により、他言語の母国語話者による他言語音声モデルを
用いて認識対象を識別できる照合パターンを生成し、該
照合パターンと、入力音声信号から抽出した音声特徴パ
ラメータとの照合スコアを計算する第2照合手段と、 前記第1および第2照合手段による照合スコアを比較
し、高いスコアを示す照合パターンが表現する認識対象
を出力する手段と、 を有することを特徴とする音声認識装置。
3. Matching between a voice feature parameter extracted from the input voice signal and a voice pattern parameter extracted from the input voice signal by extracting a voice feature parameter from the input voice signal and using a voice model expressing the features of each category of a linguistic unit prepared in advance. In a voice recognition device that calculates a score and outputs a recognition target represented by a matching pattern indicated by a high score, a voice recognition device for each native language speaker corresponding to multiple languages is used.
Dell and the native language speaker of the target language for verification using a speech model.
Voice feature parameters extracted from the matching pattern and the input voice signal
First matching means for calculating a matching score with the data , notation of the language to be recognized and another language, or phonetic symbols
Based on the partial symbol chain,
List of correspondences in pronunciation with other languages
Allows a multilingual speech model by a native speaker of another language
Generate a matching pattern that can identify the recognition target using
The matching pattern and the voice feature pattern extracted from the input voice signal.
The second matching means for calculating the matching score with the parameter and the matching scores by the first and second matching means are compared.
And the recognition target represented by the matching pattern with a high score
And a means for outputting the voice recognition device.
【請求項4】 入力音声信号から音声特徴パラメータを
抽出し、あらかじめ用意された言語的単位の各カテゴリ
の特徴を表現した音声モデルによる照合パターンと前記
入力音声信号から抽出した音声特徴パラメータとの照合
スコアを計算し、高いスコアが示す照合パターンが表現
する認識対象を出力する音声認識装置において、 複数言語に対し、母国語話者による音声モデルと、母国
語話者が他言語を発声したときの音声モデルと、 認識対象言語の母国語話者による音声モデルを用いた照
合パターンと入力音声信号から抽出した音声特徴パラメ
ータとの照合スコアを計算する第1照合手段と、 他言語の母国語話者による認識対象言語の音声モデルを
用いた照合パターンと入力音声信号から抽出した音声特
徴パラメータとの照合スコアを計算する第2照合手段
と、 認識対象とする言語と他言語の表記、あるいは発音記号
から、部分的な記号連鎖を元に、認識対象とする言語と
他言語との発音の対応をあらかじめ取っておいたリスト
により、他言語の母国語話者による他言語音声モデルを
用いて認識対象を識別できる照合パターンを生成し、該
照合パターンと、入力音声信号から抽出した音声特徴パ
ラメータとの照合スコアを計算する第3照合手段と、 前記第1、第2および第3照合手段による照合スコアを
比較し、高いスコアを示す照合パターンが表現する認識
対象を出力する手段と、 を有することを特徴とする音声認識装置。
4. A voice feature parameter is obtained from an input voice signal.
Each category of extracted and prepared linguistic units
The matching pattern by the voice model expressing the characteristics of
Matching with speech feature parameters extracted from input speech signal
Calculates the score and expresses the matching pattern indicated by the high score.
In a speech recognition device that outputs a target to be recognized , a speech model by a native speaker and
The verification is performed using the speech model when the speaker speaks another language and the speech model of the native language speaker of the recognition target language.
Voice feature parameters extracted from the matching pattern and the input voice signal
A first matching means for calculating a matching score with the data, and a speech model of a target language recognized by a native speaker of another language.
The matching pattern used and the speech feature extracted from the input speech signal.
Second matching means for calculating a matching score with the signature parameter
And the language to be recognized and other language notation or phonetic symbols
Based on the partial symbol chain,
List of correspondences in pronunciation with other languages
Allows a multilingual speech model by a native speaker of another language
Generate a matching pattern that can identify the recognition target using
The matching pattern and the voice feature pattern extracted from the input voice signal.
The third matching means for calculating the matching score with the parameter and the matching scores by the first, second and third matching means.
Recognition expressed by matching patterns that compare and show high scores
And a means for outputting a target .
JP37140599A 1999-12-27 1999-12-27 Voice recognition method and apparatus Expired - Fee Related JP3378547B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP37140599A JP3378547B2 (en) 1999-12-27 1999-12-27 Voice recognition method and apparatus

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP37140599A JP3378547B2 (en) 1999-12-27 1999-12-27 Voice recognition method and apparatus

Publications (2)

Publication Number Publication Date
JP2001188556A JP2001188556A (en) 2001-07-10
JP3378547B2 true JP3378547B2 (en) 2003-02-17

Family

ID=18498660

Family Applications (1)

Application Number Title Priority Date Filing Date
JP37140599A Expired - Fee Related JP3378547B2 (en) 1999-12-27 1999-12-27 Voice recognition method and apparatus

Country Status (1)

Country Link
JP (1) JP3378547B2 (en)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4706893B2 (en) * 2004-01-07 2011-06-22 ソニー株式会社 Voice recognition apparatus and method, program, and recording medium
JP2011033874A (en) * 2009-08-03 2011-02-17 Alpine Electronics Inc Device for multilingual voice recognition, multilingual voice recognition dictionary creation method
CN102687197B (en) * 2010-01-22 2014-07-23 三菱电机株式会社 Recognition dictionary creation device, speech recognition device, and speech synthesis device
US10403265B2 (en) * 2014-12-24 2019-09-03 Mitsubishi Electric Corporation Voice recognition apparatus and voice recognition method
WO2021019775A1 (en) * 2019-08-01 2021-02-04 三菱電機株式会社 Multilingual voice recognition device and multilingual voice recognition method

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH10116093A (en) * 1996-10-09 1998-05-06 Nec Corp Voice recognition device
JP3039399B2 (en) * 1996-10-31 2000-05-08 日本電気株式会社 Non-native speech recognition device
JPH10254350A (en) * 1997-03-13 1998-09-25 Mitsubishi Electric Corp Speech recognition device
JPH11231888A (en) * 1998-02-13 1999-08-27 Mitsubishi Electric Corp Voice model generating device
JPH11250063A (en) * 1998-02-27 1999-09-17 Toshiba Corp Retrieval device and method therefor

Also Published As

Publication number Publication date
JP2001188556A (en) 2001-07-10

Similar Documents

Publication Publication Date Title
US6910012B2 (en) Method and system for speech recognition using phonetically similar word alternatives
JP5208352B2 (en) Segmental tone modeling for tonal languages
JP4054507B2 (en) Voice information processing method and apparatus, and storage medium
US6510410B1 (en) Method and apparatus for recognizing tone languages using pitch information
US20090138266A1 (en) Apparatus, method, and computer program product for recognizing speech
JP2004258658A (en) Continuous speech recognition method using inter-word phoneme information and device thereforfor
JP2003316386A (en) Method, device, and program for speech recognition
JPS62235998A (en) Syllable identification system
JP2008209717A (en) Device, method and program for processing inputted speech
JPH11344990A (en) Method and device utilizing decision trees generating plural pronunciations with respect to spelled word and evaluating the same
JP2007047412A (en) Apparatus and method for generating recognition grammar model and voice recognition apparatus
KR101424193B1 (en) System And Method of Pronunciation Variation Modeling Based on Indirect data-driven method for Foreign Speech Recognition
JP3378547B2 (en) Voice recognition method and apparatus
Azim et al. Large vocabulary Arabic continuous speech recognition using tied states acoustic models
JP6436806B2 (en) Speech synthesis data creation method and speech synthesis data creation device
JP2004133003A (en) Method and apparatus for preparing speech recognition dictionary and speech recognizing apparatus
Abujar et al. A comprehensive text analysis for Bengali TTS using unicode
Tjalve et al. Pronunciation variation modelling using accent features
Nursetyo LatAksLate: Javanese script translator based on Indonesian speech recognition using sphinx-4 and *** API
JP2001312293A (en) Method and device for voice recognition, and computer- readable storage medium
Syadida et al. Sphinx4 for indonesian continuous speech recognition system
Pranjol et al. Bengali speech recognition: An overview
JP2006343405A (en) Speech-understanding device, speech-understanding method, method for preparing word/semantic expression merge database, its program and storage medium
JP3277522B2 (en) Voice recognition method
Manjunath et al. Improvement of phone recognition accuracy using source and system features

Legal Events

Date Code Title Description
FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20071206

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20081206

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20091206

Year of fee payment: 7

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101206

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20101206

Year of fee payment: 8

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111206

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111206

Year of fee payment: 9

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121206

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121206

Year of fee payment: 10

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131206

Year of fee payment: 11

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees