JPS5864548A - Japanese voice processing system - Google Patents

Japanese voice processing system

Info

Publication number
JPS5864548A
JPS5864548A JP56163796A JP16379681A JPS5864548A JP S5864548 A JPS5864548 A JP S5864548A JP 56163796 A JP56163796 A JP 56163796A JP 16379681 A JP16379681 A JP 16379681A JP S5864548 A JPS5864548 A JP S5864548A
Authority
JP
Japan
Prior art keywords
voice
output
input
data
audio
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP56163796A
Other languages
Japanese (ja)
Inventor
Osamu Araya
新家 修
Saburo Ando
三郎 安藤
Shinichi Yokomizo
横溝 信一
Masachika Matsumoto
松本 正至
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP56163796A priority Critical patent/JPS5864548A/en
Publication of JPS5864548A publication Critical patent/JPS5864548A/en
Pending legal-status Critical Current

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/16Sound input; Sound output

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • Audiology, Speech & Language Pathology (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • General Physics & Mathematics (AREA)

Abstract

PURPOSE:To improve processing efficiency and to prevent occurrence of erroneous operation, by selecting either a screen data or a voice output data under order control, and thus enabling to output data sent from a host to a terminal to be voiced simultaneously with displaying of the screen data. CONSTITUTION:A Japanese system terminal 1 as an online terminal is connected to a host computer 5, a keyboard 3 and a CRT display device 2 are connected to the terminal 1, and a Japanese data control part 4 is provided. To this control part 4, the voice input and output control part 10 of a voice processing part 6 is connected. Further, a voice recognition part 8 connected to a micropohone 7, and a voice console panel 9, a file storage device 11, and a speaker 13 are connected to the control part 10. Then, the output of the control part 10 is applied to the control part 4 to select either one of screen data and voice output data, and thus data sent from the computer 4 to the terminal 1 is enabled to be voiced out simultaneously with screen data display, thereby improving processing efficiency and preventing erroneous operation.

Description

【発明の詳細な説明】 本発明は、日本語処理システムにおいて、音声入力をキ
ーボードと同等に使用できるようにするとともに、音声
出力を画面表示に対して相補的あるいは並列的に使用で
きるようにするための手段に関するものであり、それに
より、日本語処理システムの操作性、利用性を向上きせ
ることを目的とする。
DETAILED DESCRIPTION OF THE INVENTION The present invention enables voice input to be used in a Japanese language processing system in the same manner as a keyboard, and also enables voice output to be used complementary to or in parallel with screen display. The purpose is to improve the operability and usability of Japanese language processing systems.

従来、ワード・プロセッサ等の日本語処理システムでは
、キーボードとCRT表示装置とを用いて、文字の入力
、カナ−漢字変換、編集等の操作を行なっている。しか
し、複雑な日本語処理の作業を、キー操作および画面表
示のみに依存して長時間続けた場合、能率低下やミスの
多発を生じるようになる点で問題があった。
Conventionally, in Japanese language processing systems such as word processors, operations such as character input, kana-kanji conversion, editing, etc. are performed using a keyboard and a CRT display device. However, if complicated Japanese language processing work continues for a long time depending only on key operations and screen displays, there is a problem in that efficiency decreases and mistakes occur frequently.

本発明は、音声入力をキーボードと全く同等の入力手段
として任意に選択的に使用できるようにし、また処理過
程での必要に応じて、ンステムから操作者に対して適切
なメツセージを音声で与えることができるようにして、
上述した問題の改善を図るものである。
The present invention enables voice input to be used selectively as an input means completely equivalent to a keyboard, and also allows the system to give an appropriate message to the operator by voice as necessary in the processing process. so that you can
This is an attempt to improve the above-mentioned problem.

本発明は%に、キーボードおよび表示装置分含む日本語
処理システムに対して、音声入力および音声出力手段を
結合するための効率的なインターフェイス手段を提供す
るものであり、その構成として、キーボード、表示装置
、日本語データ制御部からなる日本語処理部と、ホスト
・コンピュータと、音声入力部、音声出力部、音声入出
力制御部からなる音声処理部とをそなえ、上記音声入力
部は上記キーボードと同等の文字コード入力機能を崩し
、上記音声出力部には日本語データ制御部における文字
データがオーダ制御に基ついて音声出力データとして与
えられることができ、そして上記音声入出力制御部は音
声入力部および音声出力部を制御して音声コードデ〜り
の送受信制御を”行なうとともに日本語処理部と音声処
理部とのインターフェイス制御を行なうことを%徴とす
る。
The present invention provides an efficient interface means for connecting voice input and voice output means to a Japanese language processing system including a keyboard and a display device. The device is equipped with a Japanese language processing section consisting of a Japanese data control section, a host computer, a voice processing section consisting of a voice input section, a voice output section, and a voice input/output control section, and the voice input section is equipped with the keyboard and the voice input section. By breaking the equivalent character code input function, character data in the Japanese data control section can be given to the voice output section as voice output data based on order control, and the voice input/output control section can be given to the voice input section. It also controls the audio output unit to control the transmission and reception of audio code data, and also controls the interface between the Japanese language processing unit and the audio processing unit.

以下に、本発明を実施例にしたがって説明する。The present invention will be explained below based on examples.

第1図は、本発明の実施例のブロック図である。FIG. 1 is a block diagram of an embodiment of the invention.

図中、1は日本語処理システムのオンライン端末、2は
CR’lr表示装置、3はキーボード、4は日本語デー
タ制御部、5はホスト・コンピュータ、6け音声処理部
、7けマイクロホン、8は音声g識部、9は音声操作盤
、10は音声入出力制御部、1】はファイル記憶装置、
12は音声合成部、13dスピーカをそれぞれ示す。
In the figure, 1 is the online terminal of the Japanese language processing system, 2 is the CR'lr display device, 3 is the keyboard, 4 is the Japanese data control unit, 5 is the host computer, 6 audio processing units, 7 microphones, 8 1 is a voice recognition unit, 9 is a voice operation panel, 10 is a voice input/output control unit, 1 is a file storage device,
Reference numeral 12 indicates a voice synthesis section and 13d a speaker.

日本語処理システム1は、カナ、漢字、英数字等の文字
データについて、カナ−漢字変換、編集・文章作成等の
日本語処理を行なう通常的なシステムである。ここでは
、ホスト・コンピュータ5に対するオンライン端末とし
て使用されている。
The Japanese processing system 1 is a typical system that performs Japanese processing such as kana-kanji conversion, editing, and text creation for character data such as kana, kanji, and alphanumeric characters. Here, it is used as an online terminal for the host computer 5.

日本語処理システム端末1に結合された音声処理部6は
、不特定話者用あるいは特定話者用の認識システムを有
しておシ、特定話者による音声入力を行なう場合には、
予め音声基本パラメータの辞書登録処理を行なう必要が
ある。このため、登録モードとgRモードの2つのモー
ドが設はられている。
The speech processing unit 6 coupled to the Japanese language processing system terminal 1 has a recognition system for unspecified speakers or for specific speakers, and when performing voice input by a specific speaker,
It is necessary to perform dictionary registration processing of basic voice parameters in advance. For this reason, two modes are provided: registration mode and gR mode.

音声認識部8の音声認識範囲は、カナ、数字、アルファ
ベット、少数のコマンド等の、キーボード3によって入
力される文字に対応する、たとえば]00余種のもので
ある。そして音声認識部8の出力文字コードのインター
フェイスは、キーボード3の出力インターフェイスに一
致している。この出力信号は、たとえば8ビツト・コー
ドで与えられるが、キーボードの座標位置信号であって
もよい。
The speech recognition range of the speech recognition unit 8 is, for example, more than 00 characters corresponding to characters inputted by the keyboard 3, such as kana, numbers, alphabets, and a small number of commands. The output character code interface of the voice recognition unit 8 matches the output interface of the keyboard 3. This output signal is provided, for example, in an 8-bit code, but may also be a keyboard coordinate position signal.

音声入出力制御部10は、後述するように、キーボード
3、音声認識部8、音声操作盤9からの入力部ね込み要
求を受は付け、割り込み順序にしたがって入力源を選択
し、入力データをキーボードコードに変換して日本語デ
ータ制御部4に転送する処理を行なう。
As will be described later, the voice input/output control section 10 accepts input section requests from the keyboard 3, voice recognition section 8, and voice operation panel 9, selects an input source according to the interrupt order, and inputs input data. A process of converting it into a keyboard code and transmitting it to the Japanese data control unit 4 is performed.

第2図は、音声入出力制御部10の制御動作の詳細な餅
明図である。
FIG. 2 is a detailed diagram of the control operation of the audio input/output control unit 10.

図中、2 、3 、4 、8 、9 、11 、12は
、第1図に示す要素と同一である。また、13は割り込
み処理、14は入分配処理、15は入力処理、16は出
力処理、1.7Uローカル処理を示す。
In the figure, 2, 3, 4, 8, 9, 11, and 12 are the same elements as shown in FIG. Further, 13 indicates interrupt processing, 14 indicates input/distribution processing, 15 indicates input processing, 16 indicates output processing, and 1.7U local processing.

音声入出力制御部10は、キーボード3がらのキー人力
、日本語データ制御部からの音声出方データ転送、音声
認識部8からの認識結果出力、音声操作盤9からのキー
人力、ファイル記憶装置tllからのファイル処理、そ
して音声合成部12への音声パラメータ転送、表示装置
2への表示文字列転送についてそれぞれ割シ込み要求を
受は付け、優先順位にしたがって、割り込み処理13を
行なう。
The voice input/output control unit 10 handles key input from the keyboard 3, voice output data transfer from the Japanese data control unit, recognition result output from the voice recognition unit 8, key input from the voice operation panel 9, and a file storage device. Interruption requests are accepted for file processing from TLL, audio parameter transfer to the speech synthesis section 12, and display character string transfer to the display device 2, and interrupt processing 13 is performed in accordance with the priority order.

割り込み処理13は、次に入分配処理14に制御ヲ移し
、割り込み要求内容にしたがい、音声入力あるいはキー
人力の入力処理15、音声出力、画面出力、ベリファイ
の有無などの出力処理16を行なう。更に必要に応じて
、ローカル処理17において、音声辞書登録処理、音声
辞書ロード処理、音声操作盤ユーティリティ、出力音声
パラメータ・ロード処理、フロッピィ・ユーティリティ
、RASチェック処理等が実行される。
The interrupt processing 13 then transfers control to the input/distribution processing 14, which performs voice input or manual key input processing 15, and output processing 16 such as voice output, screen output, verification presence/absence, etc., according to the contents of the interrupt request. Further, as necessary, in the local processing 17, voice dictionary registration processing, voice dictionary loading processing, voice operation panel utility, output voice parameter loading processing, floppy utility, RAS check processing, etc. are executed.

第3図は、ホスト−コンピュータ5からオンライン端末
1に転送されるデータの実施例を示す。
FIG. 3 shows an example of data transferred from the host-computer 5 to the online terminal 1. FIG.

オーダ部は、その後続するデータ部が画面データである
か音声出力データであるかの識別表示を有する。たとえ
ば、音声出力識別オーダ直後の2バイトによ勺指定され
る2バイト単位の音声出力データ数だけが、日本語デー
タ制御部4におはるオーダ制御により、音声入出力制御
部10に転送される。
The order section has an identification indication as to whether the data section that follows it is screen data or audio output data. For example, only the number of 2-byte audio output data specified by the 2 bytes immediately after the audio output identification order is transferred to the audio input/output controller 10 under the order control of the Japanese data controller 4. Ru.

日本語データ制御部4から音声入出力制御部10に入力
されたデータは、制御部10でバッファリングされた後
コマンド解析処理され、指定された音声出力、画面表示
、カーソル移動等の処理が、なこれる。
The data input from the Japanese data control unit 4 to the voice input/output control unit 10 is buffered in the control unit 10 and then subjected to command analysis processing, and processes such as specified voice output, screen display, cursor movement, etc. Nakoreru.

第4図け、音声人力において便用される音声辞書とコー
ド変換テーブルの構成例ケ示す。図において、18#i
音声認識部8内に置かれた音声辞書、19#i音声入出
力制御部10内に首かれたコード変換テーブルを示す。
Figure 4 shows an example of the configuration of a voice dictionary and code conversion table that are conveniently used in voice input. In the figure, 18#i
A speech dictionary placed in the speech recognition section 8 and a code conversion table placed in the 19#i speech input/output control section 10 are shown.

音声辞書18ハ、入力音声をたとえば単音節で音声分析
した結果の音声パラメータと、該音声パラメータに対応
する音°声コードおよびカテゴライズ情報とからなって
いる。該カテゴライズ情報は、音声辞書ヲカテゴリーに
分割するためのものであり、連続的に入力された音声(
たとえば単音節)間に一定の関連がある場合に、そのカ
テゴリー情報を与えておくことにより、後続音声のパラ
メータに対してもっとも適合可能性の高い音声コードを
抽出できるようにする機能をもつ。
The speech dictionary 18c consists of speech parameters resulting from speech analysis of input speech, for example, in monosyllables, and speech codes and categorization information corresponding to the speech parameters. The categorization information is for dividing the speech dictionary into categories, and is for dividing the speech dictionary into categories.
For example, when there is a certain relationship between monosyllables, it has a function that allows the extraction of the speech code that is most likely to match the parameters of the subsequent speech by providing category information.

コード変換テーブル19ケ、カテゴライズ情報と、音声
コードと、該音声コードに対応中るキーボードの文字キ
ー・コードとからなっている。
It consists of 19 code conversion tables, categorization information, voice codes, and keyboard character key codes that correspond to the voice codes.

音声認識部8から送られた音声コードは、テーブル】9
で文字キー・コードに変換されるとともに、該欄のカテ
ゴライズ情報が音声認識部8に送られる。音声認識部8
は、次に入力さ′i″した音響についての音声辞書の検
索を、まず該カテゴライズ情報の指示するカテゴリー(
複数でもよい)を優先させて行ない、音声コードを取り
出す。カテゴリーが無指足の場合には、辞書全体が検索
対象となる。
The voice code sent from the voice recognition unit 8 is shown in table】9
At the same time, the categorization information in the column is sent to the speech recognition section 8. Voice recognition section 8
Next, search the speech dictionary for the input sound 'i'', first by searching the category (
(You may have more than one) and take out the audio code. If the category is andactyly, the entire dictionary is searched.

次号音声辞書の作成とそのカテゴライズ処理について述
べる。
The next issue describes the creation of a speech dictionary and its categorization process.

特定話者音声認識において作成される話者の音声辞書は
、通常、単音節辞書についてはθ〜9、A −Z 、ア
〜ン、ガルボ、ガルボなどの固定の範囲のものであり、
単語辞書についてはコマンドなど特定対象範囲に限定し
てつくられている。これらは、制御部がもつ音声コード
と文字コードとの対応表があらかじめ足められているこ
とから定形登録と呼ばれる。
A speaker's speech dictionary created in speaker-specific speech recognition usually has a fixed range such as θ~9, A-Z, A~n, Garbo, Garbo for monosyllable dictionaries,
Word dictionaries are created for specific target ranges such as commands. These are called fixed-form registrations because the correspondence table between voice codes and character codes that the control unit has has been added in advance.

これに対して、音声コードと文字コードとの対応表を使
用者が任意に作成できるものを任意登録と呼ぶ。特にこ
の場合に、カテゴライズ情報を用いて対応表の音声コー
ドをカテゴリー化し、音声コードを探索する場合にその
カテゴリーを指定することKよって探索範囲を絞ること
が行なわれる。
On the other hand, when a user can arbitrarily create a correspondence table between voice codes and character codes, it is called voluntary registration. Particularly in this case, the categorization information is used to categorize the audio codes in the correspondence table, and when searching for an audio code, the search range is narrowed down by specifying the category.

本実施例では、音声辞書の登録は、音声操作盤9からの
指示によシ、音声入出力制御部10から音声認識部8を
登録モードに設定させることで開始される。
In this embodiment, registration of the voice dictionary is started by setting the voice recognition unit 8 to the registration mode from the voice input/output control unit 10 in response to an instruction from the voice operation panel 9.

登録モードにおいて、音声パラメータの辞書登録処理す
るために、まずマイクロホン7から入力すべき音声の文
字をCRT表示装置2上に表示するか、あるいけその音
声をスピーカ13から出力して話者に指示を与え、話者
は指示された文字あるいは音を順次発声することが行な
われる。マイクロホン7から入力された音声信号は、音
響認識部8において音声基本パラメータに変換される。
In the registration mode, in order to register voice parameters in the dictionary, first display the characters of the voice to be input from the microphone 7 on the CRT display device 2, or output the corresponding voice from the speaker 13 to instruct the speaker. is given, and the speaker utters the indicated letters or sounds in sequence. The audio signal input from the microphone 7 is converted into basic audio parameters in the acoustic recognition section 8.

入力指示された音声の音声コードと、入力された話者の
音声の音声基本パラメータとが、対応表として、音声認
識部8内のバッファに書き込まれる。この手続きが、す
べての基本的な音声について繰り返された後、全体が、
当該特定話者に対する音声辞書として、音声認識部8内
にロードされ、また必要な場合、ファイル記憶装置11
 K格納される、以上のようにして定形音声辞書を作成
した後、次に、任意音声辞書の作成に移る。まず、音声
操作盤からの指示により、音声認識部8を認識モードに
切替える。ここでは任!登録したい文字あるいは文字列
を発声し、音声入力する。入力音声は、音声認識部8で
音声パラメータに変換し、さきに登録した定形音声辞書
から、該音声パラメータにもっとも近い音声パラメータ
をもつ音声コードを取り出し、日本語データ制御部4に
転送し、CRT上に表示する。
The voice code of the voice instructed to be input and the voice basic parameters of the input speaker's voice are written into a buffer in the voice recognition unit 8 as a correspondence table. After this procedure is repeated for all elementary voices, the whole
It is loaded into the speech recognition unit 8 as a speech dictionary for the particular speaker, and is also stored in the file storage device 11 if necessary.
After creating the fixed-form speech dictionary stored in K as described above, the next step is to create an arbitrary speech dictionary. First, the voice recognition section 8 is switched to recognition mode by an instruction from the voice operation panel. I'm in charge here! Speak the characters or character strings you want to register and input them by voice. The input voice is converted into voice parameters by the voice recognition unit 8, and the voice code with the voice parameters closest to the voice parameters is extracted from the previously registered fixed voice dictionary, transferred to the Japanese data control unit 4, and then output to the CRT. Display above.

このようにしである1つの文字あるいは文字列がCI?
T表示されたら、この文字あるいは文字列に対するカテ
ゴライズ情報全入力する。カテゴライズ1#報は、上記
CRT表示されている文字あるいは文字列(f?:、と
えば「トウキヨウ」)に対するカテゴリーと、該文字あ
るいは文字列に後続する可能性の商い文字あるいは文字
列(たとえば「ト」)のカテゴリーとを含んでいる。こ
れらのカテゴライズ情報は、音声入出力制御部10のコ
ード変換テーブル上に、音声コード、文字列と対応させ
て記入これる。
In this way, is one character or string of characters CI?
When T is displayed, enter all the categorization information for this character or character string. Category 1 # information is the category for the character or character string displayed on the CRT (f?:, for example, "Tokyo"), and the probability of following the character or character string (for example, "Tokyo"). This includes the following categories: This categorization information is entered on the code conversion table of the audio input/output control unit 10 in correspondence with the audio code and character string.

必要とするだけの任意文字、文字列等について上記テー
ブルを作成した後、音声操作盤9からの指示で、音声認
識部8を登録モードに設定する。
After creating the above table for as many arbitrary characters, character strings, etc. as needed, the voice recognition section 8 is set to registration mode in response to instructions from the voice operation panel 9.

ここで、さきに作成した任意文字、文字列等を、順次C
RT表示して、話者に指示を与え、話者/′1CRT表
示された文字または文字列について発声し、音声入力を
行なう。これらの手続きは、定形登録の方法と同じであ
り、このようにして任意登録の音声辞書が作成される。
Here, input the arbitrary characters, character strings, etc. created earlier in C
RT is displayed, instructions are given to the speaker, speaker/'1 speaks the characters or character strings displayed on the CRT, and performs voice input. These procedures are the same as the fixed form registration method, and in this way a voice dictionary with optional registration is created.

音声入力を行なう場合には、音声操作m9から音声入出
力制御部10に指示して、音声認識部8を認識モードに
切り替える。このとき同時に、音声操作盤9から、音声
入力が特定話者モードか不特定話者モードかの指定を行
なう、 音声認識部8は、特定話者モードと不特定話者モードと
のいずれが指定されたかにより、それぞれに対応する音
声辞書を、ファイル記憶装置11からロードする。なお
、不特定話者用の音声辞書は、予め音声処理部6内に装
備されているものとする。
When performing voice input, the voice input/output control unit 10 is instructed from the voice operation m9 to switch the voice recognition unit 8 to recognition mode. At the same time, the voice operation panel 9 specifies whether the voice input is a specific speaker mode or an unspecified speaker mode. The corresponding speech dictionary is loaded from the file storage device 11 depending on whether the speech dictionary is selected or not. It is assumed that the speech dictionary for unspecified speakers is installed in the speech processing section 6 in advance.

音声入力が開始されると、入力された音声は、音声認識
部8において音声パラメータ化され、音声辞書中に登録
されている各音声の音声パラメータと比較される。比較
は、双方の音声のパラメータ間の距離計算を行ない、音
声辞書中の各音声について類似度の順位付けをすること
で行なわれる。
When voice input is started, the input voice is converted into voice parameters in the voice recognition section 8 and compared with the voice parameters of each voice registered in the voice dictionary. The comparison is performed by calculating the distance between the parameters of both voices and ranking each voice in the voice dictionary by degree of similarity.

まず、第1順位の類似度をもつ音声が辞書から選ばれ、
その音声コードが、音声認識部8から音声入出力制御部
10に通知される。音声入出力制御部10は、該音声コ
ードをコード変換テーブル19により文字キーコードに
変換して日本語データ制御部4に送るとともK CRT
表示装置2に表示させる。
First, the voice with the first similarity is selected from the dictionary,
The voice code is notified from the voice recognition section 8 to the voice input/output control section 10. The audio input/output controller 10 converts the audio code into a character key code using the code conversion table 19 and sends it to the Japanese data controller 4.
It is displayed on the display device 2.

また音声操作盤9から指示で、該音声コードの音声パラ
メータを音声合成部12へ送9、そこで音声に変換して
、スピーカ13から音声出力させることもできる。
Further, in response to an instruction from the voice operation panel 9, the voice parameters of the voice code can be sent to the voice synthesis section 12, where they are converted into voice and outputted as voice from the speaker 13.

上記したようにしてCRT表示された文字あるいはスピ
ーカからの音声出力が、入力された音声に対応せず誤っ
ている場合には、音声操作盤9からの指示により、音声
gR部8内の類似度第2順位の音声を選択し、前と同様
にCRT表示あるいは音声出力させる。入力音声に対応
した正しい文字あるいはコマンドが入力されたとき、次
の音声が入力される。このようにして、必要な文字ある
いは文字列が正しく日本語データ制御部4に転送されC
RT表示される。
If the characters displayed on the CRT or the audio output from the speaker as described above do not correspond to the input audio and are incorrect, the similarity level in the audio gR section 8 is determined by instructions from the audio operation panel 9. Select the second-ranked audio and display it on the CRT or output the audio as before. When the correct character or command corresponding to the input voice is input, the next voice is input. In this way, the necessary characters or character strings are correctly transferred to the Japanese data control unit 4.
RT will be displayed.

音声入力されたデータは、日本語データ制御部4とホス
ト・コンピュータ5とによ多日本語処理される。ホスト
・コンピュータ5からオンライン端末1を見たとき、音
声処理部6はオンライン端末の蔭に隠れているが、ホス
トから端末へのメツセージの中で音声出力したい場合に
は転送データの頭部に置かれたオーダ中に音声出力識別
用の表示を与える。日本語データ制御部4は該オーダを
判別して、それが音声出力オーダである場合に、音声処
理部6に割り込みをかけ、該音声出力データを転送する
The voice-input data is processed by the Japanese data control section 4 and the host computer 5. When viewing the online terminal 1 from the host computer 5, the audio processing unit 6 is hidden behind the online terminal, but if you want to output audio in a message from the host to the terminal, it can be placed at the beginning of the transferred data. Provide an indication for audio output identification during the ordered order. The Japanese data control unit 4 determines the order, and if it is an audio output order, interrupts the audio processing unit 6 and transfers the audio output data.

音声入出力制御部10け、日本語データ制御部4から転
送された音声出力データをバッファリングし、音声パラ
メータに変換して音声合成部12へ送り、スピーカ13
から音声出力はせる。
The audio input/output control unit 10 buffers the audio output data transferred from the Japanese data control unit 4, converts it into audio parameters, sends it to the audio synthesis unit 12, and sends it to the speaker 13.
Allows audio output from.

なお、本実施例では、ホストから端末へ送られるデータ
は、画面データと音声出力データとのいずれか一方がオ
ーダ制御により選択されるように構成されている。しか
し、画面データ表示と同時に音声出力も可能にするオー
ダ種別を設けることも簡単に行なうことができる。
In this embodiment, the data sent from the host to the terminal is configured such that either screen data or audio output data is selected by order control. However, it is also possible to easily provide an order type that allows for audio output at the same time as screen data display.

また、本実施例では、後続文字あるいは文字列に対する
カテゴライズ情報を辞書作成時に入力するようにしてい
るが、学習機能をもたせることにより、日本語処理過程
において文字あるいは文字列間の結合頻度情報を抽出し
、設定するようにしてもよい。また、カテゴライズ情報
を101とした場合には、音声辞書全体が探索対象範囲
となる。
In addition, in this embodiment, categorization information for subsequent characters or character strings is input at the time of dictionary creation, but by providing a learning function, connection frequency information between characters or character strings can be extracted during the Japanese language processing process. You may also set it. Furthermore, when the categorization information is set to 101, the entire speech dictionary becomes the search target range.

他方、カテゴライズ情報が設定されている場合にも、適
切な文字コードを選択できないときには、カテゴリーに
拘束されない探索が行なわれる。
On the other hand, even if categorization information is set, if an appropriate character code cannot be selected, a search is performed that is not restricted by category.

【図面の簡単な説明】[Brief explanation of the drawing]

第1図は本発明の実施例の構成図、第2図は本実施例に
おける音声入出力制御部の制御動作の説明図、第3図は
ホストから端末への転送データの構成例、第4図は音声
辞書およびコード変換テーブルの構成例を示す。 図中、1は日本語処理システム端末、2はCRT表示装
置w13はキーボード、4は日本語データ制御部、5は
ホストコンピュータ、6は音声処理部、7けマイクロホ
ン、8は音声認識部、9は音声操作盤、10は音声入出
力制御部、11はファイル記憶装置、12は音声合成部
、13はスピーカー、18は音声辞書、19はコード変
換テーブル、をそtしそれ示す。 軸杵出願人  富士通株式会社 代坤人弁理士  長谷 川 文 廣 (外1名) 砕 1 閲 仲2図
FIG. 1 is a configuration diagram of an embodiment of the present invention, FIG. 2 is an explanatory diagram of the control operation of the audio input/output control unit in this embodiment, FIG. 3 is an example of the configuration of data transferred from the host to the terminal, and FIG. The figure shows an example of the configuration of a speech dictionary and code conversion table. In the figure, 1 is a Japanese processing system terminal, 2 is a CRT display device w13 is a keyboard, 4 is a Japanese data control unit, 5 is a host computer, 6 is a voice processing unit, 7 is a microphone, 8 is a voice recognition unit, 9 10 is a voice operation panel, 10 is a voice input/output control unit, 11 is a file storage device, 12 is a voice synthesis unit, 13 is a speaker, 18 is a voice dictionary, and 19 is a code conversion table. Applicant for the axle: Fujitsu Limited, patent attorney Fumihiro Hasegawa (1 other person)

Claims (1)

【特許請求の範囲】[Claims] キーボード、表示装置、日本語データ制御部からなる日
本語処理部と、ホスト・コンピュータと、音声入力部、
音声出力部、音声入出力制御部からなる音声処理部とを
そなえ、上記音声入力部は上記キーボードと同等の文字
コード入力機能を有し、上記音声出力部には日本語デー
タ制御部における文字データがオーダ制御に基づいて音
声出力データとして与えられることができ、そして上記
音声入出力制御部は音声入力部および音声出力部を制御
して音声コードデータの送受信制御を行なうとともに日
本語処理部と音声処理部とのインターフェイス制御を行
なうことを特徴とする音声日本語処理システム。
a Japanese language processing section consisting of a keyboard, a display device, a Japanese data control section, a host computer, a voice input section,
It is equipped with a voice processing unit consisting of a voice output unit and a voice input/output control unit, the voice input unit has a character code input function equivalent to the keyboard, and the voice output unit inputs character data in the Japanese data control unit. can be given as audio output data based on order control, and the audio input/output control section controls the audio input section and the audio output section to control the transmission and reception of audio code data, and also communicates with the Japanese language processing section and the audio. A spoken Japanese language processing system characterized by controlling an interface with a processing section.
JP56163796A 1981-10-14 1981-10-14 Japanese voice processing system Pending JPS5864548A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP56163796A JPS5864548A (en) 1981-10-14 1981-10-14 Japanese voice processing system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP56163796A JPS5864548A (en) 1981-10-14 1981-10-14 Japanese voice processing system

Publications (1)

Publication Number Publication Date
JPS5864548A true JPS5864548A (en) 1983-04-16

Family

ID=15780861

Family Applications (1)

Application Number Title Priority Date Filing Date
JP56163796A Pending JPS5864548A (en) 1981-10-14 1981-10-14 Japanese voice processing system

Country Status (1)

Country Link
JP (1) JPS5864548A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61140405U (en) * 1985-02-20 1986-08-30
JPH0478834U (en) * 1990-11-22 1992-07-09
JP2020503541A (en) * 2017-06-30 2020-01-30 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Voiceprint creation / registration method and device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61140405U (en) * 1985-02-20 1986-08-30
JPH0478834U (en) * 1990-11-22 1992-07-09
JP2020503541A (en) * 2017-06-30 2020-01-30 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Voiceprint creation / registration method and device
JP2021021955A (en) * 2017-06-30 2021-02-18 バイドゥ オンライン ネットワーク テクノロジー (ベイジン) カンパニー リミテッド Method and device for generating and registering voiceprint
US11100934B2 (en) 2017-06-30 2021-08-24 Baidu Online Network Technology (Beijing) Co., Ltd. Method and apparatus for voiceprint creation and registration

Similar Documents

Publication Publication Date Title
US5970448A (en) Historical database storing relationships of successively spoken words
US6125347A (en) System for controlling multiple user application programs by spoken input
JP2848458B2 (en) Language translation system
EP1016078B1 (en) Speech recognition computer input method and device
US7260529B1 (en) Command insertion system and method for voice recognition applications
US7047195B2 (en) Speech translation device and computer readable medium
EP0840286B1 (en) Method and system for displaying a variable number of alternative words during speech recognition
JP3333123B2 (en) Method and system for buffering words recognized during speech recognition
EP0840288A2 (en) Method and system for editing phrases during continuous speech recognition
JP3476007B2 (en) Recognition word registration method, speech recognition method, speech recognition device, storage medium storing software product for registration of recognition word, storage medium storing software product for speech recognition
JPH10133684A (en) Method and system for selecting alternative word during speech recognition
KR20050071334A (en) Method for entering text
JP2002116796A (en) Voice processor and method for voice processing and storage medium
JP2005043461A (en) Voice recognition method and voice recognition device
US20020152075A1 (en) Composite input method
JP3104661B2 (en) Japanese writing system
JP2000075887A (en) Device, method and system for pattern recognition
JPS5864548A (en) Japanese voice processing system
EP0840287A2 (en) Method and system for selecting recognized words when correcting recognized speech
JPS634206B2 (en)
JPH0685983A (en) Voice electronic blackboard
JP2001306293A (en) Method and device for inputting information, and storage medium
JPH08160988A (en) Speech recognition device
JPH03217900A (en) Text voice synthesizing device
JPH1063292A (en) Device and method for voice processing