JP3060379B2 - Information providing system, information providing processing method, and recording medium - Google Patents

Information providing system, information providing processing method, and recording medium

Info

Publication number
JP3060379B2
JP3060379B2 JP11055537A JP5553799A JP3060379B2 JP 3060379 B2 JP3060379 B2 JP 3060379B2 JP 11055537 A JP11055537 A JP 11055537A JP 5553799 A JP5553799 A JP 5553799A JP 3060379 B2 JP3060379 B2 JP 3060379B2
Authority
JP
Japan
Prior art keywords
information
various
voice
recognition dictionary
information providing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP11055537A
Other languages
Japanese (ja)
Other versions
JP2000067319A (en
Inventor
尚 鈴木
Original Assignee
株式会社デジキューブ
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社デジキューブ filed Critical 株式会社デジキューブ
Priority to JP11055537A priority Critical patent/JP3060379B2/en
Publication of JP2000067319A publication Critical patent/JP2000067319A/en
Application granted granted Critical
Publication of JP3060379B2 publication Critical patent/JP3060379B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、コンビニエンスス
トアに代表される店舗に設置する商品販売情報処理端末
装置等のように利用者が所望する情報を提供する情報提
供装置、及び情報管理装置と複数の情報提供装置によっ
て構成される情報提供システム等に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an information providing device for providing information desired by a user, such as a merchandise sales information processing terminal device installed in a store represented by a convenience store, and an information management device. And an information providing system configured by the information providing apparatus.

【0002】[0002]

【従来の技術】コンビニエンスストアに代表される店に
設置する什器として、ゲームソフトの販売用に、多種の
商品カードを入れて並べた陳列棚と、ゲームのプロモー
ション映像を表示するモニターを組み込んだものがあ
る。
2. Description of the Related Art Fixtures installed in stores, such as convenience stores, are provided with display shelves on which various types of product cards are placed and a monitor for displaying game promotion images for sale of game software. There is.

【0003】また、表示情報が切り替わる表示画面兼用
のタッチパネルを備え、そのタッチパネルに対するメニ
ュー画面からの入力操作により、ショッピングの配送申
し込みや予約、チケットの予約を含む購入、ゲームの書
換申し込み、各種の情報や商品の紹介といった多機能を
具備したものもある。また、音声認識技術を用いて利用
客が音声による入力操作を行うことができるものもあ
る。
[0003] Further, a touch panel is provided with a display screen for switching display information. By input operation of the touch panel from a menu screen, shopping delivery application and reservation, purchase including ticket reservation, game renewal application, various kinds of information are provided. Some have multiple functions such as introduction of products and products. In some cases, the user can perform an input operation by voice using voice recognition technology.

【0004】[0004]

【発明が解決しようとする課題】しかしながら、メニュ
ーの構成は、図32に示すような階層構造となっている
ため、タッチパネルを使用する場合、例えば、ゲームソ
フトを選択する際には、まず、図33に示すように、音
楽、映像、ゲーム、チケット、プリント等の分類が表示
された初期メニュー画面からゲームを選択操作し、次い
で表示される図34に示すような、シューティング、R
PG、シミュレーション等の各ジャンルが表示されたジ
ャンル選択画面から所望のジャンルを選択操作する。そ
して、更に図35に示すような、A社、B社、C社等の
各メーカーが表示されたメーカー選択画面から所望のメ
ーカーを選択操作してから、最後に、図36に示すよう
な、Xの冒険、Y物語、Zファンタジー等の各タイトル
が表示された商品選択画面から所望の商品を選択操作す
ることにより、図37に示すような所望のゲームソフト
の表示画面に到達することができる。
However, since the menu structure has a hierarchical structure as shown in FIG. 32, when using a touch panel, for example, when selecting game software, first, the menu shown in FIG. As shown in FIG. 33, a game is selected and operated from an initial menu screen on which classifications of music, video, game, ticket, print, etc. are displayed, and then shooting, R, and the like are displayed as shown in FIG.
A desired genre is selected and operated from a genre selection screen on which genres such as PG and simulation are displayed. Then, after selecting and operating a desired maker from a maker selection screen on which maker A, B, C and the like are displayed as shown in FIG. 35, finally, as shown in FIG. By selecting and operating a desired product from a product selection screen on which titles such as Adventure of X, Story of Y, and Z Fantasy are displayed, it is possible to reach a display screen of a desired game software as shown in FIG. .

【0005】このように、ゲームを例に取った場合、タ
ッチパネルによる4回の操作手順を経なければならず、
利用客に非常な煩雑さを感じさせていた。
As described above, when taking a game as an example, it is necessary to go through four operation procedures using a touch panel.
It made the customers feel very complicated.

【0006】また、音声認識技術を採用した場合には、
不特定話者に対応するための多数の音声サンプルを収集
することが困難であることから、音声認識精度の面にお
いて改良の余地があった。
[0006] When the speech recognition technology is adopted,
Since it is difficult to collect a large number of speech samples for responding to an unspecified speaker, there is room for improvement in terms of speech recognition accuracy.

【0007】そこで、本発明の課題は、ネットワークを
介して収集した多数の音声サンプルによる学習機能によ
り高精度な音声認識処理が可能な音声入力によるメニュ
ー選択機能と、利用客がメニューの構造を意識せずに所
望の情報に到達できる機能を備えたことにより、利用客
の利便性を高められる情報提供装置、及び情報提供シス
テム等を提供することである。
[0007] Therefore, an object of the present invention is to provide a menu selection function by voice input that enables high-precision voice recognition processing by a learning function using a large number of voice samples collected via a network, and that the user be aware of the menu structure. It is an object of the present invention to provide an information providing apparatus, an information providing system, and the like, which are provided with a function capable of reaching desired information without requiring the user, thereby improving the convenience of the user.

【0008】[0008]

【課題を解決するための手段】以上の課題を解決すべく
本発明の情報提供システムによれば、ネットワークサー
バとしての情報管理装置と、ネットワーククライアント
としての複数の情報提供装置とが、ネットワークを介し
て接続されることによって構成される情報提供システム
であって、 前記情報管理装置は、管理側情報格納手段に
よって、各種情報と、当該各種情報を識別する各種識別
項目と、当該各種情報の情報内容を複数の観点から分類
するために該各種識別項目と関連付けられた各種分類項
目とを随時更新管理して格納し、配信手段によって、こ
の管理側情報格納手段に格納された各種情報、各種識別
項目、及び各種分類項目を前記ネットワークを介して前
記複数の情報提供装置に配信すると、 前記情報提供装置
は、受信手段によって、前記情報管理装置から配信され
た各種情報、各種識別項目、及び各種分類項目を前記ネ
ットワークを介して受信し、情報格納手段によって、こ
の受信手段により受信された各種情報、各種識別項目、
及び各種分類項目を対応付けて格納し、音声入力手段に
よって、音声を入力し、音声認識手段によって、この音
声入力手段から入力された音声を認識して文字情報を
得、情報検索手段によって、この音声認識手段により得
られた文字情報から前記識別項目あるいは前記分類項目
に対応する語彙を抽出し、該抽出語彙に対応する識別項
目及び該識別項目に対応付けられた情報、あるいは該抽
出語彙に対応する分類項目及び該分類項目に関連付けら
れた識別項目を前記情報格納手段から検索し、情報出力
手段によって、この情報検索手段により検索された識別
項目及び情報を、その情報内容に応じた各種情報形態で
出力し、あるいは検索された分類項目及び識別項目を出
力し、認識辞書格納手段によって、前記音声認識手段が
入力音声を認識するための音声認識辞書を格納し、辞書
更新手段によって、前記音声認識手段による入力音声の
認識結果に基づいて前記認識辞書格納手段に格納された
音声認識辞書を更新し、送信手段によって、この辞書更
新手段により更新された音声認識辞書の更新情報を前記
ネットワークを介して前記情報管理装置に送信する。
してさらに、前記情報管理装置は、受信手段によって、
前記情報提供装置から送信された音声認識辞書の更新情
報を受信し、管理側辞書格納手段によって、この受信手
段により受信された音声認識辞書の更新情報に基づいて
前記複数の情報提供装置において利用される音声認識辞
書を随時更新管理して格納すると、前記配信手段によっ
て、該管理側辞書格納手段により更新された音声認識辞
書の更新情報を前記ネットワークを介して前記複数の情
報提供装置に配信し、 前記情報提供装置は、前記受信手
段が前記情報管理装置から配信された音声認識辞書の更
新情報を前記ネットワークを介して受信すると、前記辞
書更新手段は、該受信された音声認識辞書の更新情報と
自己の音声認識辞書の内容とを比較し、この比較結果に
基づいて自己の音声認識辞書の内容を更新する。
Means for Solving the Problems To solve the above problems
According to the information providing system of the present invention, the network server
Information management device and network client
And a plurality of information providing devices through a network
Information providing system configured by being connected
In the information management device, the management-side information storage means
Therefore, various information and various identifications for identifying the various information
Classify items and information contents of the various information from multiple viewpoints
Classification items associated with the various identification items to perform
The eyes and the eyes are updated and managed at any time and stored.
Various information and various identifications stored in the management side information storage means
Items and various classification items via the network
Delivering to a plurality of information providing devices,
Is distributed from the information management device by the receiving means.
Information, various identification items, and various classification items
Received via the network and stored by the information storage means.
Various information received by the receiving means, various identification items,
And various classification items are stored in association with each other, and
Therefore, a voice is input, and this voice is
Recognizes the voice input from the voice input means and converts text information
By the information retrieving means,
The identification item or the classification item
Vocabulary corresponding to the extracted vocabulary, and an identification term corresponding to the extracted vocabulary
Information associated with the eye and the identification item, or the extraction
Classification items corresponding to the vocabulary and associated with the classification items
Retrieves the identified identification item from the information storage means and outputs the information.
By means of the identification retrieved by this information retrieval means
Items and information in various information formats according to the information content
Output, or output the searched classification items and identification items.
And the voice recognition means is operated by the recognition dictionary storage means.
Stores a speech recognition dictionary for recognizing input speech, and stores the dictionary.
Updating means for inputting speech by the speech recognition means;
It is stored in the recognition dictionary storage means based on the recognition result.
Update the voice recognition dictionary, and use the transmitting means to update this dictionary.
The updated information of the speech recognition dictionary updated by the new means is
The information is transmitted to the information management device via a network. So
And further, the information management device, by the receiving means,
Update information of the speech recognition dictionary transmitted from the information providing device
Information is received, and the receiving
Based on the speech recognition dictionary update information received by the stage
Voice recognition words used in the plurality of information providing devices
The document is updated and managed as needed, and stored by the distribution means.
The speech recognition word updated by the management-side dictionary storage means.
The update information of the document is transmitted to the plurality of information via the network.
To the information providing device, and the information providing device
Step is to update the speech recognition dictionary delivered from the information management device.
Upon receiving new information via the network,
Writing means for updating the received speech recognition dictionary and
Compare it with the contents of your own voice recognition dictionary.
The content of the own speech recognition dictionary is updated based on this.

【0009】また、本発明の情報提供処理方法によれ
ば、ネットワークサーバとしての情報管理装置と、ネッ
トワーククライアントとしての複数の情報提供装置と
が、ネットワークを介して接続されることによって構成
される情報提供システムにおける情報の提供処理手順を
設定する情報提供処理方法であって、 前記情報管理装置
が、各種情報と、当該各種情報を識別する各種識別項目
と、当該各種情報の情報内容を複数の観点から分類する
ために該各種識別項目と関連付けられた各種分類項目と
を随時更新管理して管理側情報格納手段に格納し、この
管理側情報格納手段に格納された各種情報、各種識別項
目、及び各種分類項目を前記ネットワークを介して前記
複数の情報提供装置に配信すると、 前記情報提供装置
が、前記情報管理装置から配信された各種情報、各種識
別項目、及び各種分類項目を前記ネットワークを介して
受信し、この受信された各種情報、各種識別項目、及び
各種分類項目を対応付けて情報格納手段に格納し、音声
を入力させた後、この入力された音声を認識して文字情
報を得て、この音声認識により得られた文字情報から前
記識別項目あるいは前記分類項目に対応する語彙を抽出
し、該抽出語彙に対応する識別項目及び該識別項目に対
応付けられた情報、あるいは該抽出語彙に対応する分類
項目及び該分類項目に関連付けられた識別項目を前記情
報格納手段から検索し、この検索された識別項目及び情
報を、その情報内容に応じた各種情報形態で出力し、あ
るいは検索された分類項目及び識別項目を出力して、前
記入力音声を認識するための音声認識辞書を認識辞書格
納手段に格納し、前記入力音声の認識結果に基づいて前
記認識辞書格納手段に格納された音声認識辞書を更新し
た後、この更新された音声認識辞書の更新情報を前記ネ
ットワークを介して前記情報管理装置に送信する。 そし
てさらに、前記情報管理装置が、前記情報提供装置から
送信された音声認識辞書の更新情報を受信し、この受信
された音声認識辞書の更新情報に基づいて前記複数の情
報提供装置において利用される音声認識辞書を随時更新
管理して管理側辞書格納手段に格納し、該管理側辞書格
納手段において更新された音声認識辞書の更新情報を前
記ネットワークを介して前記複数の情報提供装置に配信
すると、 前記情報提供装置が、前記情報管理装置から配
信された音声認識辞書の更新情報を前記ネットワークを
介して受信し、この受信された音声認識辞書の更新情報
と自己の音声認識辞書の内容とを比較し、この比較結果
に基づいて自己の音声認識辞書の内容を更新する。
Further , according to the information providing processing method of the present invention,
For example, an information management device as a network server and a network
Multiple information providing devices as network clients
Are configured by being connected via a network
Of the information provision process in the information provision system
An information providing processing method to be set, wherein the information management device
Are various information and various identification items that identify the various information
And classify the information content of the various information from multiple viewpoints
Various classification items associated with the various identification items
Is updated at any time and stored in the management-side information storage means.
Various information and various identification items stored in the management side information storage means
Eyes, and various classification items through the network
When delivering to a plurality of information providing devices, the information providing device
Are various information and various knowledge distributed from the information management device.
Separate items and various classification items via the network
Received, the received various information, various identification items, and
Various classification items are stored in the information storage means in association with
After inputting the character,
Information, and from the character information obtained by this speech recognition,
Extract the vocabulary corresponding to the identification item or the classification item
The identification item corresponding to the extracted vocabulary and the identification item
Assigned information or classification corresponding to the extracted vocabulary
Items and the identification items associated with the classification items
From the information storage means, and the retrieved identification items and information are retrieved.
Information in various information formats according to the information content.
Or output the searched classification item and identification item, and
A dictionary for recognizing speech recognition dictionaries for recognizing input speech
Storage means, and based on the recognition result of the input voice,
Update the speech recognition dictionary stored in the
After that, the updated information of the updated speech recognition dictionary is
The information is transmitted to the information management device via a network. Soshi
Further, the information management device is configured to
Receives the transmitted speech recognition dictionary update information and
The plurality of information based on the updated speech recognition dictionary information.
Update the voice recognition dictionary used in the information providing device as needed
Manage and store it in the management-side dictionary storage means;
The updated information of the speech recognition dictionary updated by the
Distributed to the plurality of information providing devices via the network
Then, the information providing device distributes the information from the information management device.
Updates the received speech recognition dictionary update information to the network.
Received via this received speech recognition dictionary update information
Is compared with the contents of the own voice recognition dictionary.
And updates the contents of its own voice recognition dictionary based on the.

【0010】また、本発明の記録媒体によれば、ネット
ワークサーバとしての情報管理装置と、ネットワークク
ライアントとしての複数の情報提供装置とが、ネットワ
ークを介して接続されることによって構成される情報提
供システムにおいて情報を提供処理するための処理プロ
グラムを記録した記録媒体であって、この記録媒体に記
録された処理プログラムを実行することによって、 前記
情報管理装置が、各種情報と、当該各種情報を識別する
各種識別項目と、当該各種情報の情報内容を複数の観点
から分類するために該各種識別項目と関連付けられた各
種分類項目とを随時更新管理して管理側情報格納手段に
格納し、この管理側情報格納手段に格納された各種情
報、各種識別項目、及び各種分類項目を前記ネットワー
クを介して前記複数の情報提供装置に配信すると、 前記
情報提供装置が、前記情報管理装置から配信された各種
情報、各種識別項目、及び各種分類項目を前記ネットワ
ークを介して受信し、この受信された各種情報、各種識
別項目、及び各種分類項目を対応付けて情報格納手段に
格納し、音声を入力させた後、この入力された音声を認
識して文字情報を得て、この音声認識により得られた文
字情報から前記識別項目あるいは前記分類項目に対応す
る語彙を抽出し、該抽出語彙に対応する識別項目及び該
識別項目に対応付けられた情報、あるいは該抽出語彙に
対応する分類項目及び該分類項目に関連付けられた識別
項目を前記情報格納手段から検索し、この検索された識
別項目及び情報を、その情報内容に応じた各種情報形態
で出力し、あるいは検索された分類項目及び識別項目を
出力して、前記入力音声を認識するための音声認識辞書
を認識辞書格納手段に格納し、前記入力音声の認識結果
に基づいて前記認識辞書格納手段に格納された音声認識
辞書を更新した後、この更新された音声認識辞書の更新
情報を前記ネットワークを介して前記情報管理装置に送
信する。 そしてさらに、前記情報管理装置が、前記情報
提供装置から送信された音声認識辞書の更新情報を受信
し、この受信された音声認識辞書の更新情報に基づいて
前記複数の情報提供装置において利用される音声認識辞
書を随時更新管理して管理側辞書格納手段に格納し、該
管理側辞書格納手段において更新された音声認識辞書の
更新情報を前記ネットワークを介して前記複数の情報提
供装置に配信する と、 前記情報提供装置が、前記情報管
理装置から配信された音声認識辞書の更新情報を前記ネ
ットワークを介して受信し、この受信された音声認識辞
書の更新情報と自己の音声認識辞書の内容とを比較し、
この比較結果に基づいて自己の音声認識辞書の内容を更
新する。
Further , according to the recording medium of the present invention, the network
An information management device as a work server and a network
Network with multiple information providing devices as clients
Information provided by being connected via a network
Processing system for providing and processing information
A recording medium on which a gram is recorded.
By executing the recording has been processed programs, the
An information management device identifies various information and the various information
Various identification items and the information content of the various information
From each of the various identification items to classify from
Update and manage the species classification items as needed and store them in the management-side information storage means.
And store various information stored in the management-side information storage means.
Information, various identification items, and various classification items in the network.
When delivered to the plurality of the information providing apparatus via the click, the
The information providing device is configured to receive various information distributed from the information management device.
Information, various identification items, and various classification items
Received via the network, and received various information and various knowledge
Different items and various classification items are associated and stored in the information storage unit.
After storing and inputting the voice, the input voice is recognized.
Sentence obtained by this speech recognition
Corresponding to the identification item or the classification item from the character information.
Vocabulary is extracted, an identification item corresponding to the extracted vocabulary and the
The information associated with the identification item or the extracted vocabulary
The corresponding category and the identification associated with the category
An item is retrieved from the information storage means, and the retrieved
Different items and information in various information formats according to the information content
Or output the searched classification items and identification items.
A speech recognition dictionary for outputting and recognizing the input speech
Is stored in the recognition dictionary storage means, and the recognition result of the input voice is stored.
Speech recognition stored in the recognition dictionary storage means based on
After updating the dictionary, update this updated speech recognition dictionary
Sending information to the information management device via the network.
I believe. And furthermore, the information management device, the information
Receives the update information of the speech recognition dictionary sent from the providing device
Then, based on the received speech recognition dictionary update information,
Voice recognition words used in the plurality of information providing devices
The document is updated and stored at any time and stored in the management dictionary storage unit.
Of the speech recognition dictionary updated in the management-side dictionary storage means.
Update information is provided to the plurality of information via the network.
When delivered to the test apparatus, the information providing device, the information tube
The update information of the speech recognition dictionary delivered from the
Received through the network and this received speech recognition word
Compare the updated information of the book with the contents of your own voice recognition dictionary,
Based on the result of this comparison, the content of the own speech recognition dictionary is updated.
To renew.

【0011】したがって、情報提供装置の情報格納手段
に格納する各種情報、識別項目、及び分類項目が、情報
管理装置から送信されるため、容易に追加することがで
き、これによって、たとえば、多数の情報提供装置を設
置した場合にも、各種情報等の追加を容易に行うことが
でき、人件費や労力負担の増加を防ぐことができる。ま
た、発売直後の情報など、利用者が希望する情報を速や
かに販売することができ、利用者の利便性を高めること
ができる。
Therefore, the information storage means of the information providing device
The various information, identification items, and classification items stored in the
Since it is sent from the management device, it can be easily added.
This allows, for example, the installation of a large number of information provision devices.
Can easily add various information
It is possible to prevent an increase in labor costs and labor burden. Ma
In addition, information that users want, such as information immediately after release,
Crabs can be sold to enhance user convenience
Can be.

【0012】また、従来の音声認識装置においては困難
であった不特定話者の多数の音声サンプルの収集とその
認識結果を、音声認識辞書の更新情報として、情報管理
装置が複数の情報提供装置から受信することによって容
易に実現し、多数の音声サンプルを用いたことによっ
て、情報管理装置内で管理された音声認識辞書の音声認
識精度を向上させることができる。また、この情報管理
装置内で管理された音声認識辞書が情報提供装置にフィ
ードバックされることにより、情報提供装置における音
声認識処理の精度を向上させることができ、利用客に対
するサービスの質を向上させることができる。
In addition, it is difficult with a conventional speech recognition device.
Of a large number of speech samples from unspecified speakers
Information management using recognition results as update information of the speech recognition dictionary
The device receives the information from multiple information
Easy to implement and use a large number of audio samples.
The voice recognition dictionary managed by the information management device.
The recognition accuracy can be improved. Also, this information management
The speech recognition dictionary managed in the device is
The sound in the information providing device
The accuracy of voice recognition processing can be improved,
The quality of the service provided can be improved.

【0013】[0013]

【0014】[0014]

【0015】[0015]

【0016】[0016]

【0017】[0017]

【0018】[0018]

【0019】[0019]

【0020】[0020]

【0021】[0021]

【0022】[0022]

【0023】[0023]

【0024】[0024]

【0025】[0025]

【0026】[0026]

【0027】[0027]

【0028】[0028]

【0029】[0029]

【0030】[0030]

【0031】[0031]

【0032】[0032]

【0033】[0033]

【0034】[0034]

【0035】[0035]

【0036】[0036]

【0037】[0037]

【0038】[0038]

【0039】[0039]

【0040】[0040]

【発明の実施の形態】以下、図を参照して本発明に係る
情報提供システムの実施の形態を詳細に説明する。図1
〜図36を参照して、本発明の情報提供システムを適用
した一実施の形態における商品販売情報処理システム1
について詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS An embodiment of an information providing system according to the present invention will be described below in detail with reference to the drawings. FIG.
Referring to FIG. 36, a merchandise sales information processing system 1 according to an embodiment to which the information providing system of the present invention is applied.
Will be described in detail.

【0041】まず構成を説明する。図1は、本実施の形
態の商品販売情報処理システム1における情報のやりと
りを概念的に示した全体構成図である。この図1に示す
ように、商品販売情報処理システム1の構成員は、販売
管理センターB、及び店舗Aである。販売センターと店
舗Aとは例えば、専用回線、またはISDN(Integrat
ed Services Digital Network )等の公衆回線を利用し
て接続されており、各地に点在するコンビニエンススト
アに代表される店舗Aには、販売管理センターBから音
楽、映像、ゲーム、チケット等のコンテンツ情報が随時
送信される。
First, the configuration will be described. FIG. 1 is an overall configuration diagram conceptually showing exchange of information in the product sales information processing system 1 of the present embodiment. As shown in FIG. 1, the members of the product sales information processing system 1 are a sales management center B and a store A. The sales center and the store A are connected, for example, by a dedicated line or ISDN (Integrat
ed Services Digital Network) and other public lines, and stores A typified by convenience stores scattered in various locations have content information such as music, video, games, tickets, etc. Is transmitted from time to time.

【0042】また、販売管理センターBは、CS(Comm
unication Satellite :通信衛星)等の衛星通信を介し
て広告映像等を含む各種コンテンツ情報を配信すること
も可能であり、各地に点在する店舗Aは、専用のアンテ
ナとチューナによって配信される情報を受信し、店内に
設置される商品販売情報処理端末装置4の表示画面に表
示するなどして来店した客に対してコンテンツ情報を提
供する。
Further, the sales management center B is provided by CS (Comm.
It is also possible to distribute various types of content information including advertising images and the like via satellite communication such as a communication satellite (communication satellite). Stores A scattered in various locations store information distributed by dedicated antennas and tuners. The content information is provided to the customer who has received the information and displayed it on the display screen of the product sales information processing terminal device 4 installed in the store.

【0043】また、店舗Aに設置される商品販売情報処
理端末装置4の販売状況を示す販売データが商品販売情
報管理装置3に対して送信される他、店舗Aと販売管理
センターBの間では、後述する音声認識辞書学習処理
(図28参照)に関する音声データが送受信される。す
なわち、図1に示すように、店舗A側からは、後述する
取得音声データ413Qが販売管理センターBに対して
送信され、この取得音声データ413Qを音声認識辞書
学習処理によって適切な音声データに加工された学習音
声データ37Dが販売管理センターBから各地に点在す
る店舗Aに対して送信される。また、販売管理センター
B側からは、新規のコンテンツ情報に関する追加データ
37Cが各店舗Aに対して送信される。
Further, sales data indicating the sales status of the product sales information processing terminal device 4 installed in the store A is transmitted to the product sales information management device 3, and between the store A and the sales management center B In addition, voice data relating to a voice recognition dictionary learning process described later (see FIG. 28) is transmitted and received. That is, as shown in FIG. 1, from the store A, acquired voice data 413Q to be described later is transmitted to the sales management center B, and the acquired voice data 413Q is processed into appropriate voice data by voice recognition dictionary learning processing. The learned learning data 37D is transmitted from the sales management center B to stores A scattered in various places. Further, from the sales management center B side, additional data 37C relating to the new content information is transmitted to each store A.

【0044】図2は、商品販売情報処理システム1を構
成する販売管理センターB、及び店舗Aに設置される各
装置の接続関係を示すブロック図である。この図2に示
すように、商品販売情報処理システム1は、ネットワー
ク2に対して、販売管理センターBに設置されるネット
ワークサーバとしての商品販売情報管理装置3、及び各
店舗Aに設置されるネットワーククライアントとしての
複数の商品販売情報処理端末装置4が接続されることに
より構成されている。ネットワーク2は、専用回線によ
って接続されるもの、ISDN等の公衆回線によって接
続されるもの、あるいは無線通信によって接続されるも
の等の様々な接続形態を適用することが可能であるが、
情報管理の信頼性の観点から、セキュリティの確保され
ているネットワークであることが好ましい。
FIG. 2 is a block diagram showing a connection relationship between devices installed in the sales management center B and the store A which constitute the product sales information processing system 1. As shown in FIG. 2, the merchandise sales information processing system 1 is different from the network 2 in that the merchandise sales information management device 3 as a network server installed in the sales management center B and the network installed in each store A It is configured by connecting a plurality of product sales information processing terminal devices 4 as clients. The network 2 can adopt various connection forms such as a connection through a dedicated line, a connection through a public line such as ISDN, and a connection through wireless communication.
From the viewpoint of the reliability of information management, it is preferable that the network is a network with security.

【0045】次に商品販売情報処理システム1を構成す
る各装置について詳細に説明する。図3は、図2に示す
商品販売情報管理装置3の概略内部構成を示すブロック
図である。
Next, each device constituting the product sales information processing system 1 will be described in detail. FIG. 3 is a block diagram showing a schematic internal configuration of the product sales information management device 3 shown in FIG.

【0046】この図3において、商品販売情報管理装置
3は、CPU31、入力装置32、表示装置33、通信
装置34、RAM35、及びHDドライブ36によって
構成され、各部はバス38によって接続されている。
In FIG. 3, the merchandise sales information management device 3 includes a CPU 31, an input device 32, a display device 33, a communication device 34, a RAM 35, and an HD drive 36, and each unit is connected by a bus 38.

【0047】CPU(Central Processing Unit )31
は、HDドライブ36に記録されている当該商品販売情
報管理装置3に対応する各種アプリケーションプログラ
ムの中から指定されたアプリケーションプログラム、入
力装置32から入力される各種指示あるいはデータをR
AM35内のワークエリアに格納し、この入力指示及び
入力データに応じてRAM35内に格納したアプリケー
ションプログラムに従って各種処理を実行し、その処理
結果をRAM35内のワークエリアに格納するととも
に、表示装置33に表示する。そして、ワークエリアに
格納した処理結果を入力装置32から入力指示されるH
Dドライブ36内の保存先に保存する。
CPU (Central Processing Unit) 31
Is an application program designated from among various application programs recorded on the HD drive 36 and corresponding to the merchandise sales information management device 3, and various instructions or data input from the input device 32.
In accordance with the input instructions and the input data, various processes are executed in accordance with the application program stored in the RAM 35, and the processing results are stored in the work area in the RAM 35, and stored in the display device 33. indicate. The processing result stored in the work area H
The data is stored in the storage destination in the D drive 36.

【0048】入力装置32は、カーソルキー、数字入力
キー及び各種機能キー等を備えたキーボードと、ポイン
ティングデバイスであるマウスと、を備え、キーボード
で押下されたキーの押下信号をCPU31に出力すると
ともに、マウスによる操作信号をCPU31に出力す
る。
The input device 32 includes a keyboard having cursor keys, numeric input keys, various function keys, and the like, and a mouse as a pointing device. The input device 32 outputs to the CPU 31 a pressing signal of a key pressed by the keyboard. , And outputs an operation signal from the mouse to the CPU 31.

【0049】表示装置33は、CRT(Cathode Ray Tu
be)、液晶表示装置等により構成され、CPU31から
入力される表示データに基づいて画面表示を行う。
The display device 33 is a CRT (Cathode Ray Tu)
be), composed of a liquid crystal display device or the like, and performs screen display based on display data input from the CPU 31.

【0050】通信装置34は、ターミナルアダプタ(T
A:Tarminal Adapter)、またはルーター等によって構
成され、ISDN回線、あるいは専用線等の通信回線を
介してネットワーク2に接続される複数の商品販売情報
処理端末装置4のそれぞれとの通信を行うための制御を
行う。また、衛星アンテナ、及びデコーダを備えること
によって衛星通信が可能である。
The communication device 34 is a terminal adapter (T
A: A terminal adapter or a router for communicating with each of a plurality of product sales information processing terminal devices 4 connected to the network 2 via a communication line such as an ISDN line or a dedicated line. Perform control. In addition, satellite communication is possible by providing a satellite antenna and a decoder.

【0051】RAM(Random Access Memory)35は、
指定されたプログラム、入力指示、入力データ及び処理
結果等を格納するワークエリアを有する。
The RAM (Random Access Memory) 35
It has a work area for storing designated programs, input instructions, input data, processing results, and the like.

【0052】HDドライブ36には当該商品販売情報管
理装置3に対応する商品販売情報管理プログラム、サー
バーアプリケーションプログラム、後述する音声認識辞
書学習処理プログラム、及びこれらのプログラムで処理
されたデータ等を記録する。
In the HD drive 36, a merchandise sales information management program, a server application program, a speech recognition dictionary learning processing program described later corresponding to the merchandise sales information management device 3, and data processed by these programs are recorded. .

【0053】図4は、HDドライブ36に格納される送
受信データの構成を示す図である。この図4において、
商品販売情報管理装置3が複数の商品販売情報処理端末
装置4のそれぞれから受信するデータとして取得音声デ
ータ37A、及び販売データ37Bがあり、商品販売情
報管理装置3から複数の商品販売情報処理端末装置4の
それぞれに対して送信されるデータとして追加データ3
7C、及び学習音声データ37Dがある。
FIG. 4 is a diagram showing a configuration of transmission / reception data stored in the HD drive 36. In FIG.
There are acquired voice data 37A and sales data 37B as data that the product sales information management device 3 receives from each of the plurality of product sales information processing terminal devices 4, and a plurality of product sales information processing terminal devices from the product sales information management device 3. 4 as additional data to be transmitted to each of
7C and learning voice data 37D.

【0054】取得音声データ37Aは、各地に点在する
多数の商品販売情報処理端末装置4が利用客の音声をサ
ンプルとして取得した取得音声データがそれぞれの商品
販売情報処理端末装置4から定期的に送信されるもので
ある。販売データ37Bは、それぞれの商品販売情報処
理端末装置4が販売したコンテンツに関する販売データ
がそれぞれの商品販売情報処理端末装置4から定期的に
送信されるものである。
Acquisition voice data 37A is obtained from a plurality of merchandise sales information processing terminal devices 4 periodically scattered from each of the product sales information processing terminal devices 4 by a plurality of product sales information processing terminal devices 4 scattered in various places. What is sent. The sales data 37B is data in which sales data relating to contents sold by the respective merchandise sales information processing terminal devices 4 are periodically transmitted from the respective merchandise sales information processing terminal devices 4.

【0055】追加データ37Cは、新規コンテンツに対
する各種データを商品販売情報処理端末装置4に追加す
るためのデータであり、後述する図7に示す各種データ
と同一の構成の追加差分データである。また、この追加
データ37Cとして複数種類のデータを用意して地域ご
とに配信内容を変更することにより、地域限定の商品等
にも対応することが可能となる。学習音声データ37D
は、受信した取得音声データ37Aを解析して音声認識
辞書学習処理を行い、適度な容量のデータに編集したも
のであり、取得した多数の音声サンプルによって音声認
識辞書を学習させた結果を商品販売情報処理端末装置4
に配信するためのデータである。
The additional data 37C is data for adding various data for the new content to the merchandise sales information processing terminal device 4, and is additional difference data having the same configuration as the various data shown in FIG. 7 described later. Further, by preparing a plurality of types of data as the additional data 37C and changing the distribution content for each region, it is possible to deal with products limited to a region. Learning voice data 37D
Is obtained by analyzing the received voice data 37A and performing a voice recognition dictionary learning process to edit the data into an appropriate amount of data. Information processing terminal device 4
Data to be delivered to

【0056】以上が、図2に示す商品販売情報管理装置
3の概略内部構成を示す図3の各部についての説明であ
る。
The above is an explanation of each part in FIG. 3 showing a schematic internal configuration of the merchandise sales information management device 3 shown in FIG.

【0057】次いで図5は、図2に示す商品販売情報処
理端末装置4の概略内部構成を示す図である。
Next, FIG. 5 is a diagram showing a schematic internal configuration of the commodity sales information processing terminal device 4 shown in FIG.

【0058】この図5において、商品販売情報処理端末
装置4は、CPU401、入力部402、メイン表示部
403、サブ表示部404、音声認識部405、音声合
成部406、デジタルカメラ407、通信制御部40
8、レシート発行部409、チケット発行部410、R
OM411、RAM412、HDドライブ413、スキ
ャナ414、プリンタ415、メモリカードドライブ4
16、ディスクメディアドライブ417、及び複数の予
備ドライブ418によって構成されており、各部はバス
419によって接続されている。
In FIG. 5, the merchandise sales information processing terminal device 4 includes a CPU 401, an input unit 402, a main display unit 403, a sub display unit 404, a voice recognition unit 405, a voice synthesis unit 406, a digital camera 407, and a communication control unit. 40
8, receipt issuing unit 409, ticket issuing unit 410, R
OM 411, RAM 412, HD drive 413, scanner 414, printer 415, memory card drive 4
16, a disk media drive 417, and a plurality of spare drives 418, and each unit is connected by a bus 419.

【0059】CPU401は、ROM411、あるいは
HDドライブ413に記録されている当該商品販売情報
処理端末装置4に対応するプログラムの中から指定され
たプログラム、入力部402から入力される各種指示あ
るいはデータをRAM412内のワークエリアに格納
し、この入力指示及び入力データに応じてRAM412
内に格納したプログラムに従って各種処理を実行し、そ
の処理結果をRAM412内のワークエリアに格納する
とともに、メイン表示部403やサブ表示部404に表
示する。そして、RAM412内のワークエリアに格納
した処理結果をHDドライブ413内の所定の保存先に
保存する。
The CPU 401 stores in the ROM 411 or the HD drive 413 a program designated from the programs corresponding to the product sales information processing terminal device 4 and various instructions or data input from the input unit 402 in the RAM 412. Of the RAM 412 according to the input instruction and the input data.
Various processes are executed in accordance with the programs stored therein, and the processing results are stored in the work area in the RAM 412 and displayed on the main display unit 403 and the sub display unit 404. Then, the processing result stored in the work area in the RAM 412 is stored in a predetermined storage destination in the HD drive 413.

【0060】また、CPU401は、後述するコンテン
ツ表示処理(図25参照)、項目処理(図26参照)、
コマンド処理(図27参照)等において、商品販売情報
処理端末装置4の各部の制御を行う。例えば、デジタル
カメラ407から入力される画像データを解析し、コン
テンツ表示処理において、デジタルカメラ407のピン
トが合焦する範囲であるか否かを判別して、利用客が商
品販売情報処理端末装置4の前に立っていることを判別
したり、項目処理やコマンド処理において、画像の2値
化処理等によって利用客の姿勢を判別する。
The CPU 401 executes a content display process (see FIG. 25), an item process (see FIG. 26) described later,
In the command processing (see FIG. 27) and the like, each part of the product sales information processing terminal device 4 is controlled. For example, by analyzing image data input from the digital camera 407 and determining whether or not the focus of the digital camera 407 is within the focus range in the content display processing, the user can use the merchandise sales information processing terminal device 4. It is determined that the user is standing in front of the user, and in the item processing and command processing, the attitude of the customer is determined by binarizing the image.

【0061】入力部402は、メイン表示部403と一
体となったタッチパネルであり、メイン表示部403に
表示される各種操作ボタンの位置を利用客に指示される
と、指示された座標を検出して座標データをCPU40
1に対して出力する。この各種操作ボタンには予め各種
商品情報に関わる商品名や分類名等が対応付けられてお
り、当該ボタンがタッチされることにより、直接当該商
品名や分類名の指定を行うことが可能である。
The input unit 402 is a touch panel integrated with the main display unit 403. When a user designates the position of various operation buttons displayed on the main display unit 403, the input unit 402 detects the designated coordinates. The coordinate data to the CPU 40
Output for 1 The various operation buttons are associated in advance with a product name and a class name related to various product information, and by touching the button, it is possible to directly specify the product name and the class name. .

【0062】メイン表示部403は、入力部402と一
体となった液晶表示パネル等の表示部であり、商品販売
情報処理端末装置4が利用客に提供する各種コンテンツ
やメニューの表示を行う。
The main display unit 403 is a display unit such as a liquid crystal display panel integrated with the input unit 402, and displays various contents and menus provided to the customer by the product sales information processing terminal device 4.

【0063】サブ表示部404は、CRT(Cathode Ra
y Tube)や液晶表示パネル等で構成されており、商品販
売情報処理端末装置4が利用客に提供する各種コンテン
ツに関する広告放送などの映像を表示する。
The sub display unit 404 is a CRT (Cathode Ra
y Tube), a liquid crystal display panel, and the like, and displays a video such as an advertisement broadcast related to various contents provided by the product sales information processing terminal device 4 to the user.

【0064】音声認識部405は、マイク405a,4
05bによって収集した利用客の音声の解析を行う。す
なわち、音声をマイク405a,405bによって電気
信号に変換し、この信号の周波数分析を行い、音声認識
処理に必要な音素データ等のパラメータを生成し、商品
販売情報処理端末装置4に対して出力する。また、後述
するようにマイク405a,405bは、脱着可能とな
っており、脱状態の時には接話マイクロホンに、着状態
の時には指向性マイクロホンに切り替えて音声を入力す
ることができるようにするなど、状況に応じた適切なマ
イクに自動的に切り替え可能な構成としてもよい。そし
て、このような構成にすることにより周囲の雑音を極力
排除することができる。また、音声認識部405によっ
て解析した音声の特徴から、利用者の性別や年齢等の声
質からある程度判断できる要素を判定し、市場調査のデ
ータとして活用することもできる。この際、デジタルカ
メラ407によって利用者を撮影した画像を解析するこ
とにより判定した結果と照らし合わせて判定を行うこと
により判定精度を向上させることができる。
The voice recognition unit 405 includes microphones 405a, 4
Analysis of the user's voice collected in step 05b is performed. That is, the voice is converted into an electric signal by the microphones 405a and 405b, a frequency analysis of the signal is performed, parameters such as phoneme data necessary for the voice recognition process are generated, and output to the product sales information processing terminal device 4. . Further, as described later, the microphones 405a and 405b are detachable, so that the microphone can be switched to the close-talking microphone when the microphone is in the detached state, and switched to the directional microphone when the microphone is in the detached state to input sound. A configuration in which the microphone can be automatically switched to an appropriate microphone according to the situation may be adopted. With such a configuration, ambient noise can be eliminated as much as possible. In addition, from the characteristics of the voice analyzed by the voice recognition unit 405, it is possible to determine an element that can be determined to some extent from the voice quality such as the gender and age of the user, and use the data as data for market research. At this time, the accuracy of the determination can be improved by performing the determination by comparing the image obtained by analyzing the image of the user captured by the digital camera 407 with the result of the analysis.

【0065】音声合成部406は、利用客に対する案内
音声を合成してスピーカ406a,406bから出力す
る。音声合成の方式には大きく分けて、音片編集方式、
規則合成方式、テキスト音声合成方式の3種類があり、
また、これらを必要に応じて適宜組み合わせて音声合成
を行うことも可能である。
The voice synthesizing unit 406 synthesizes a guide voice for the user and outputs the synthesized voice from the speakers 406a and 406b. Speech synthesis methods can be broadly divided into sound piece editing methods,
There are three types, a rule synthesis method and a text-to-speech synthesis method.
Moreover, it is also possible to perform voice synthesis by appropriately combining these as needed.

【0066】音片編集方式は、録音された文、文節、単
語単位の音声を適宜組み合わせて必要な文章を編集する
方式であるため音質が優れており、また、音声合成に要
する演算量も少なくて済むため高速な処理が期待でき
る。規則合成方式は、単語の読みとアクセント、文のイ
ントネーションに関する情報を保持する表音文字列を適
宜組み合わせて必要な文章を編集し、更に表音文字列を
音声波形に変換するため、音片編集方式と比較して予め
用意しておくデータの容量は小さくて済むが、音質は音
片編集方式より劣化する。テキスト音声合成方式は、J
ISコード等によって表現されるテキストデータを解析
して表音文字列に変換することから処理が始まるため、
合成処理は最も複雑かつ演算量が多くなる。そのため、
音声合成の誤処理の可能性が他の2方式と比較すると大
きくなってしまう。
The speech unit editing method is a method of editing a required sentence by appropriately combining recorded sentences, phrases, and voices in units of words, so that the sound quality is excellent, and the amount of calculation required for speech synthesis is small. High-speed processing can be expected. The rule synthesis method edits necessary sentences by appropriately combining phonogram strings that hold information about word reading, accent, and intonation of sentences, and further edits speech units to convert phonogram strings into speech waveforms. Compared with the method, the capacity of data prepared in advance is small, but the sound quality is lower than that of the sound piece editing method. The text-to-speech synthesis method is J
Since the process starts by analyzing text data represented by IS code etc. and converting it to phonetic character strings,
The combining process is the most complicated and requires a large amount of calculation. for that reason,
The possibility of erroneous speech synthesis processing is greater than the other two methods.

【0067】また、具体的な例としては、音片編集方式
は、駅の到着案内や、空港のフライトインフォメーショ
ンを行う電話応答、テレホンバンキングの無人応答等が
挙げられ、予め決められた文や文節等の音声を録音して
おき、条件に応じてコンピュータで組み合わせることに
よって応答文章を作成するために、定型文組み合わせ型
とも呼ばれている。また、規則合成方式やテキスト音声
合成方式の例としては、任意のテキスト文章の読み上げ
等が挙げられ、音質が機械的(ロボット的)であるため
に、ロボット合成方式とも呼ばれている。
Further, as a specific example, the sound piece editing method includes an arrival information at a station, a telephone response for flight information at an airport, an unattended response for telephone banking, and the like. This is also called a fixed phrase combination type because a response sentence is created by recording voices such as these and combining them with a computer according to conditions. Examples of the rule synthesizing method and the text-to-speech synthesizing method include reading out an arbitrary text and the like. Since the sound quality is mechanical (robot-like), it is also called a robot synthesizing method.

【0068】高速かつ高品質な音声認識・合成処理を行
うためには、音声認識部405、及び音声合成部406
としては、専用の音声認識処理回路、または音声合成処
理回路を備えることが好ましいが、コストを抑えるとい
う観点からは、音声認識部405、及び音声合成部40
6は、音声入出力のための基本的な処理回路のみを備
え、音声認識・合成処理はCPU401によって行うこ
とが好ましい。この相反する2つの条件のバランスを考
慮して、音声認識部405、及び音声合成部406の内
部構成は様々な形態が考えられるが、本実施の形態にお
いては、音声認識部405、音声合成部406はそれぞ
れ専用の音声認識処理回路、または音声合成処理回路を
備えるものとして説明する。
In order to perform high-speed and high-quality speech recognition / synthesis processing, the speech recognition unit 405 and the speech synthesis unit 406
It is preferable to provide a dedicated voice recognition processing circuit or a voice synthesis processing circuit, but from the viewpoint of cost reduction, the voice recognition unit 405 and the voice synthesis unit 40
6 includes only a basic processing circuit for voice input / output, and the voice recognition / synthesis processing is preferably performed by the CPU 401. In consideration of the balance between these two contradictory conditions, various configurations of the speech recognition unit 405 and the speech synthesis unit 406 can be considered, but in the present embodiment, the speech recognition unit 405 and the speech synthesis unit 406 is described as having a dedicated voice recognition processing circuit or voice synthesis processing circuit.

【0069】デジタルカメラ407は、CCD(Charge
Coupled Device)という光を検知する半導体素子を用
いて画像を電気信号に変換し、CPU401に対して出
力する。このデジタルカメラ407によって取り込まれ
た画像は、CPU401によって解析され、この解析結
果を監視用として利用するほか、利用客の存在を感知し
たり、利用客の姿勢を判別するために利用することがで
きる。また、利用客を撮影した画像を解析することによ
り、利用客の性別、年齢等の外見からある程度判断でき
る要素を判定し、市場調査のデータとして活用すること
もできる。この際、音声認識部405によって解析した
音声の特徴から判定した結果と照らし合わせて判定を行
うことにより判定精度を向上させることができる。
The digital camera 407 is a CCD (Charge)
An image is converted into an electric signal by using a semiconductor device that detects light, called a coupled device, and output to the CPU 401. The image captured by the digital camera 407 is analyzed by the CPU 401, and the analysis result can be used for monitoring, as well as for detecting the presence of the customer and determining the attitude of the customer. . In addition, by analyzing an image of a customer, an element that can be determined to some extent based on the appearance of the customer, such as gender and age, can be determined and used as market survey data. At this time, the determination accuracy can be improved by performing the determination in comparison with the result determined from the characteristics of the voice analyzed by the voice recognition unit 405.

【0070】通信制御部408は、モデム、ターミナル
アダプタ、またはルーター等によって構成され、電話回
線、ISDN回線、あるいは専用線等の通信回線を介し
てネットワーク2に接続される複数の商品販売情報処理
端末装置4のそれぞれとの通信を行うための制御を行
う。また、衛星アンテナ、及びデコーダを備えることに
よって衛星通信が可能である。
The communication control unit 408 is composed of a modem, a terminal adapter, a router, or the like, and is connected to the network 2 via a communication line such as a telephone line, an ISDN line, or a dedicated line. Control for performing communication with each of the devices 4 is performed. In addition, satellite communication is possible by providing a satellite antenna and a decoder.

【0071】レシート発行部409は、利用客が商品販
売情報処理端末装置4によって提供されるコンテンツを
購入した際のレシートを印字して発行する。チケット発
行部410は、利用客が商品販売情報処理端末装置4に
よって提供されるコンテンツとしてのコンサートチケッ
ト等の各種チケットを購入した際のチケットを印字して
発行する。
The receipt issuing unit 409 prints and issues a receipt when the customer purchases the content provided by the merchandise sales information processing terminal device 4. The ticket issuing unit 410 prints and issues tickets when a customer purchases various tickets such as a concert ticket as content provided by the product sales information processing terminal device 4.

【0072】ROM(Read Only Memory)411は、商
品販売情報処理端末装置4の処理を実現する機能の内、
変更の必要のない機能に関するプログラムやデータを格
納する。RAM412は、指定されたプログラム、入力
指示、入力データ及び処理結果等を格納するワークエリ
アを有する。
A ROM (Read Only Memory) 411 is a function for realizing the processing of the product sales information processing terminal device 4.
Stores programs and data related to functions that do not need to be changed. The RAM 412 has a work area for storing designated programs, input instructions, input data, processing results, and the like.

【0073】HDドライブ413は、プログラムやデー
タ等が予め記録されている磁気的記録媒体としてのHD
(Hard Disk )を有しており、このHDには当該商品販
売情報処理端末装置4に対応するプログラム、及びこの
プログラムで処理されたデータ等を記録する。
The HD drive 413 is an HD drive as a magnetic recording medium in which programs, data, etc. are recorded in advance.
The HDD stores a program corresponding to the product sales information processing terminal device 4, data processed by the program, and the like.

【0074】このHDドライブ413に装着されるHD
には、図7に示すような各種データが格納されている。
すなわち、音声認識処理に関する音声パターンテーブル
413A、コマンド音声テーブル413B、コンテンツ
音声テーブル413C、メーカー音声テーブル413
D、ジャンル音声テーブル413E、分野音声テーブル
413F、メニュー体系に関するコンテンツネームマス
ター413G、コンテンツデータマスター413H、メ
ーカーネームマスター413I、ジャンルネームマスタ
ー413J、分野ネームマスター413K、案内出力処
理に関する案内文データテーブル413L、背景画像テ
ーブル413M、文字修飾テーブル413N、コマンド
ボタンテーブル413O、音声特徴テーブル413P、
及び音声認識辞書学習処理に関する取得音声データ41
3Q等が格納されており、各データは、図8に示すよう
な処理の流れの中で参照される。以下、処理の流れを示
す図8と、各データの具体的な構成例を示す図9〜図2
4を参照して各データについて詳細に説明する。
The HD mounted on the HD drive 413
Stores various data as shown in FIG.
That is, a voice pattern table 413A, a command voice table 413B, a content voice table 413C, and a maker voice table 413 relating to voice recognition processing.
D, genre audio table 413E, field audio table 413F, content name master 413G, content data master 413H for menu system, maker name master 413I, genre name master 413J, field name master 413K, guidance text data table 413L for guidance output processing, A background image table 413M, a character decoration table 413N, a command button table 413O, a voice feature table 413P,
Voice data 41 related to voice recognition dictionary learning processing
3Q and the like are stored, and each data is referred to in a processing flow as shown in FIG. Hereinafter, FIG. 8 showing a processing flow and FIGS. 9 to 2 showing specific examples of the configuration of each data will be described.
Each data will be described in detail with reference to FIG.

【0075】図8に示すように、利用客の発話は、ま
ず、周波数解析をなされ音素データ等のパラメータに変
換されるとともに、この際の周波数解析の結果が、音声
パターンテーブル413Aに格納された各種音声パター
ンと比較されて、利用客の音声パターンが特定される。
音声パターンテーブル413Aは、図9に示すように、
例えば、成人男性パターン1,2,・・・・,成人女性パタ
ーン1,2,・・・・,子供パターン1,2,・・・・等の複数
のパターンがそれぞれ固有のパターンIDと対応づけら
れることによって構成されている。これら複数の音声パ
ターンは、不特定話者音声認識の認識率を向上させるた
めに利用されるとともに、コンテンツ毎の利用客の性別
や年齢層を判断する材料として参照される。
As shown in FIG. 8, the utterance of the user is first subjected to frequency analysis and converted into parameters such as phoneme data, and the result of the frequency analysis is stored in the voice pattern table 413A. The voice pattern of the user is specified by comparison with various voice patterns.
The voice pattern table 413A, as shown in FIG.
For example, a plurality of patterns such as adult male patterns 1, 2,..., Adult female patterns 1, 2,. It is constituted by being done. These multiple voice patterns are used to improve the recognition rate of unspecified speaker voice recognition, and are referred to as materials for determining the gender and age group of the user for each content.

【0076】次いで、図8において、音素データ等のパ
ラメータに基づいて、音素認識処理、単語認識処理、文
認識処理の順序で音声認識処理がなされる。この際の単
語認識辞書として、複数の語彙が各種商品情報に関わる
分類毎に格納されたコマンド音声テーブル413B、コ
ンテンツ音声テーブル413C、メーカー音声テーブル
413D、ジャンル音声テーブル413E、及び分野音
声テーブル413Fが参照される。これらの各音声テー
ブルの音声データ部に登録される単語は、音素の系列等
の解析パラメータによって構成される。
Next, in FIG. 8, voice recognition processing is performed in the order of phoneme recognition processing, word recognition processing, and sentence recognition processing based on parameters such as phoneme data. At this time, as the word recognition dictionary, refer to a command voice table 413B, a content voice table 413C, a maker voice table 413D, a genre voice table 413E, and a field voice table 413F in which a plurality of vocabularies are stored for each category relating to various types of product information. Is done. The words registered in the voice data section of each of these voice tables are constituted by analysis parameters such as a sequence of phonemes.

【0077】コマンド音声テーブル413Bは、図10
に示すように、例えば、「戻る」,「欲しい」,・・・・,
「の」,・・・・等の、商品販売情報処理端末装置4の処理
に対するコマンドに関する単語の音声データがそれぞれ
固有のコマンドIDと対応づけられることによって構成
されている。利用者が「戻る」と発話したと認識された
場合には1つ前の案内画面に戻る、「欲しい」と発話し
たと認識された場合には選択中のコンテンツを購入する
ことを確認する等の処理が行われる。また、「の」のよ
うな助詞に対しては、利用者が「A社 の Zファンタ
ジー」と発話したと認識された場合に、後述するコンテ
ンツネームマスター413Gにおいて、メーカーが「A
社」にリンクされた「Zファンタジー」を要求されたと
解析して処理を行うアルゴリズムが対応づけられる。
The command voice table 413B is shown in FIG.
As shown in the figure, for example, "return", "want", ...
The voice data of words related to commands for processing of the merchandise sales information processing terminal device 4, such as “no”,..., Is associated with a unique command ID. If it is recognized that the user has spoken "return", it returns to the previous guide screen, and if it is recognized that it has spoken "want", it is confirmed that the selected content is purchased. Is performed. In addition, for a particle such as “no”, when it is recognized that the user has spoken “Z Fantasy of Company A”, the maker sets “A” in the content name master 413G described later.
An algorithm that analyzes “Z fantasy” linked to “company” as requested and performs processing is associated with the requested “Z fantasy”.

【0078】コンテンツ音声テーブル413Cは、図1
1に示すように、例えば、「○○○」,「×××」,・・
・・,「Xの冒険」,「Y物語」,「Zファンタジー」,
・・・・等の、商品販売情報処理端末装置4によって提供さ
れるコンテンツに関する単語の音声データがそれぞれ固
有のコンテンツIDと対応づけられることによって構成
されている。
The content audio table 413C is shown in FIG.
As shown in FIG. 1, for example, "OO", "XXX",.
・ ・, “Adventure of X”, “Story of Y”, “Z Fantasy”,
.. Are configured by associating audio data of words related to contents provided by the product sales information processing terminal device 4 with unique content IDs.

【0079】メーカー音声テーブル413Dは、図12
に示すように、例えば、「Pレコード」,「Qレコー
ド」,・・・・,「A社」,「B社」,「C社」,・・・・等
の、商品販売情報処理端末装置4によって提供されるコ
ンテンツを扱うメーカーに関する単語の音声データがそ
れぞれ固有のメーカーIDと対応づけられることによっ
て構成されている。
The maker voice table 413D is shown in FIG.
As shown in FIG. 1, for example, a product sales information processing terminal device such as "P record", "Q record",..., "Company A", "Company B", "Company C",. 4, the audio data of words related to the maker that handles the contents provided by the respective maker IDs is associated with a unique maker ID.

【0080】ジャンル音声テーブル413Eは、図13
に示すように、例えば、「ロック」,「ジャズ」,・・・
・,「シューティング」,「RPG」,「シミュレーシ
ョン」,・・・・等の、商品販売情報処理端末装置4によっ
て提供されるコンテンツの特定分野内のジャンルに関す
る単語の音声データがそれぞれ固有のジャンルIDと対
応づけられることによって構成されている。
The genre audio table 413E is shown in FIG.
As shown in, for example, "lock", "jazz", ...
.., “Shooting”, “RPG”, “Simulation”,..., Etc., the voice data of words relating to the genre in a specific field of the content provided by the product sales information processing terminal device 4 are unique genre IDs. It is constituted by being made to correspond.

【0081】分野音声テーブル413Fは、図14に示
すように、例えば、「音楽」,「映像」,「ゲーム」,
「チケット」,「プリント」,・・・・等の、商品販売情報
処理端末装置4によって提供されるコンテンツのメニュ
ー内の分野に関する単語の音声データがそれぞれ固有の
分野IDと対応づけられることによって構成されてい
る。
As shown in FIG. 14, the field audio table 413F includes, for example, “music”, “video”, “game”,
.. Are configured by associating voice data of words such as “ticket”, “print”,... With respect to a field in a menu of contents provided by the product sales information processing terminal device 4 with a unique field ID. Have been.

【0082】図8において、上述したコマンド音声テー
ブル413B内の単語のみが認識された場合には、後述
する案内出力処理に移行する。また、案内表示の項目に
関する音声テーブルであるコンテンツ音声テーブル41
3C、メーカー音声テーブル413D、ジャンル音声テ
ーブル413E、及び分野音声テーブル413F内の単
語が認識された場合には、以下に説明するそれぞれに対
応するネームマスターに設定された項目のリンク状態に
関する情報を参照してメニュー体系を構築する。
In FIG. 8, when only the words in the command voice table 413B described above are recognized, the process proceeds to the guidance output process described later. Also, a content audio table 41 which is an audio table relating to items of the guidance display.
When words in the 3C, the maker audio table 413D, the genre audio table 413E, and the field audio table 413F are recognized, refer to the information on the link status of the item set in the name master corresponding to each of the words described below. And build a menu system.

【0083】コンテンツネームマスター413Gは、図
15に示すように、例えば、「○○○」,「×××」,
・・・・,「Xの冒険」,「Y物語」,「Zファンタジ
ー」,・・・・等の、商品販売情報処理端末装置4によって
提供されるコンテンツに関する単語のテキストデータが
それぞれ固有のコンテンツID、メーカーID、ジャン
ルID、及び分野IDと対応づけられることによって構
成されている。このコンテンツネームマスター413G
のネーム部のテキストデータと、コンテンツ音声テーブ
ル413Cの音声データ部のデータのそれぞれに対応づ
けられるコンテンツIDは共通であり、1対1に対応し
ている。
As shown in FIG. 15, the content name master 413G includes, for example, “XXX”, “XXX”,
..., “Adventure of X”, “Y story”, “Z fantasy”,. It is configured by being associated with an ID, a maker ID, a genre ID, and a field ID. This content name master 413G
And the content IDs associated with the text data of the name part and the data of the audio data part of the content audio table 413C are common and correspond one-to-one.

【0084】そして、コンテンツデータマスター413
Hには、図16に示すように、コンテンツ音声テーブル
413C、及びコンテンツネームマスター413Gのコ
ンテンツIDと1対1に対応するそれぞれのコンテンツ
データが格納されている。例えば、「Xの冒険のデー
タ」は、「Xの冒険」というゲームタイトルの紹介文、
定価、発売日等のデータである。
Then, the content data master 413
As shown in FIG. 16, the H stores the content audio table 413C and the content data corresponding to the content ID of the content name master 413G on a one-to-one basis. For example, "X Adventure Data" is an introduction to the game title "X Adventure"
It is data such as list price and release date.

【0085】メーカーネームマスター413Iは、図1
7に示すように、例えば、「Pレコード」,「Qレコー
ド」,・・・・,「A社」,「B社」,「C社」,・・・・等
の、商品販売情報処理端末装置4によって提供されるコ
ンテンツを扱うメーカーに関する単語のテキストデータ
がそれぞれ固有のメーカーIDと対応づけられることに
よって構成されている。このメーカーネームマスター4
13Iのネーム部のテキストデータと、メーカー音声テ
ーブル413Dの音声データ部のデータのそれぞれに対
応づけられるメーカーIDは共通であり、1対1に対応
している。
The maker name master 413I is shown in FIG.
As shown in FIG. 7, for example, merchandise sales information processing terminals such as “P record”, “Q record”,..., “Company A”, “Company B”, “Company C”,. The text data of words related to the maker that handles the content provided by the device 4 is associated with a unique maker ID. This Maker Name Master 4
The maker ID associated with the text data of the name section 13I and the data of the audio data section of the maker audio table 413D is common and has a one-to-one correspondence.

【0086】ジャンルネームマスター413Jは、図1
8に示すように、例えば、「ロック」,「ジャズ」,・・
・・,「シューティング」,「RPG」,「シミュレーシ
ョン」,・・・・等の、商品販売情報処理端末装置4によっ
て提供されるコンテンツの特定分野内のジャンルに関す
る単語のテキストデータがそれぞれ固有のジャンルID
と対応づけられることによって構成されている。このジ
ャンルネームマスター413Jのネーム部のテキストデ
ータと、ジャンル音声テーブル413Eの音声データ部
のデータのそれぞれに対応づけられるジャンルIDは共
通であり、1対1に対応している。
The genre name master 413J is shown in FIG.
As shown in FIG. 8, for example, "rock", "jazz",.
.., “Shooting”, “RPG”, “simulation”,. ID
It is constituted by being made to correspond. The genre IDs associated with the text data of the name portion of the genre name master 413J and the data of the audio data portion of the genre audio table 413E are common and correspond one-to-one.

【0087】分野ネームマスター413Kは、図19に
示すように、例えば、「音楽」,「映像」,「ゲー
ム」,「チケット」,「プリント」,・・・・等の、商品販
売情報処理端末装置4によって提供されるコンテンツの
メニュー内の分野に関する単語のテキストデータがそれ
ぞれ固有の分野IDと対応づけられることによって構成
されている。この分野ネームマスター413Kのネーム
部のテキストデータと、分野音声テーブル413Fの音
声データ部のデータのそれぞれに対応づけられる分野I
Dは共通であり、1対1に対応している。
As shown in FIG. 19, the field name master 413K is a merchandise sales information processing terminal such as “music”, “video”, “game”, “ticket”, “print”,. The text data of words related to a field in the menu of the content provided by the device 4 is associated with a unique field ID. The field I associated with the text data of the name section of the field name master 413K and the data of the voice data section of the field voice table 413F.
D is common and has a one-to-one correspondence.

【0088】上述のように、項目に関する各音声テーブ
ルと各ネームマスターは、固有のコンテンツIDによっ
て1対1に対応しているが、音声認識処理時には、音声
データを格納した音声テーブルのみを検索することによ
り、処理の高速化に貢献することができる。そして、コ
ンテンツネームマスター413Gに登録されたリンク情
報によって、各コンテンツとメーカー、ジャンル、及び
分野を対応づけることができる。
As described above, each voice table and each name master relating to an item have a one-to-one correspondence by a unique content ID. However, at the time of voice recognition processing, only the voice table storing voice data is searched. This can contribute to speeding up the processing. Then, according to the link information registered in the content name master 413G, each content can be associated with a maker, a genre, and a field.

【0089】例えば、図15において、ID「1234
7」の「Zファンタジー」には、メーカーIDとして
「24」、ジャンルIDとして「322」、分野IDと
して「2」がそれぞれ対応づけられているが、メーカー
ID「24」は、図17に示すメーカーネームマスター
413Iを参照すると「A社」であり、ジャンルID
「322」は、図18に示すジャンルネームマスター4
13Jを参照すると「RPG」であり、分野ID「2」
は、図19に示す分野ネームマスター413Kを参照す
ると「ゲーム」であるから、「Zファンタジー」は、A
社から発売のRPGゲームであることがリンク情報によ
り判明する。そして、これらの情報と、コンテンツデー
タマスター413Hに格納されたデータとが、後述する
案内出力処理によって利用客に提示される。
For example, in FIG. 15, the ID “1234”
The “Z fantasy” of “7” is associated with “24” as the maker ID, “322” as the genre ID, and “2” as the field ID. The maker ID “24” is shown in FIG. When referring to the maker name master 413I, it is “Company A” and the genre ID
"322" is the genre name master 4 shown in FIG.
13J is “RPG” and field ID “2”
Is "game" when referring to the field name master 413K shown in FIG.
The link information indicates that the game is an RPG game released by the company. Then, the information and the data stored in the content data master 413H are presented to the user by a guide output process described later.

【0090】また、例えば、利用客が「RPG」と発話
したと認識された場合には、図18に示すジャンルネー
ムマスター413Jを参照するとジャンルIDは「32
2」であるから、図15に示すコンテンツネームマスタ
ー413Gに登録されたジャンルIDが「322」であ
るコンテンツが抽出される。すなわち、「Xの冒険」,
「Y物語」,「Zファンタジー」,・・・・が抽出され、後
述する案内出力処理によって利用客に提示される。
For example, when it is recognized that the user has spoken “RPG”, the genre ID is “32” by referring to the genre name master 413J shown in FIG.
Since the content ID is “2”, the content whose genre ID is “322” registered in the content name master 413G shown in FIG. 15 is extracted. That is, "Adventure of X",
“Y story”, “Z fantasy”,... Are extracted and presented to the user by a guidance output process described later.

【0091】図8において、上述した音声認識処理によ
ってコマンド音声テーブル413B内の単語のみが認識
された場合、または項目に関する単語が認識された後
に、コンテンツネームマスター413Gによってメニュ
ー体系が構築された場合には、続いて、案内文データテ
ーブル413Lに基づく案内出力処理に移行する。
In FIG. 8, when only the words in the command voice table 413B are recognized by the above-described voice recognition processing, or when the menu system is constructed by the content name master 413G after the words relating to the items are recognized. Then, the process proceeds to a guidance output process based on the guidance sentence data table 413L.

【0092】案内文データテーブル413Lは、図20
に示すように、例えば、「ご希望のメニューをお選びく
ださい。」,「ご希望の商品をお選びください。」,・・
・・,「あなたが選択した商品です。」,「ご希望の商品
は見つかりませんでした。」,「この商品を購入します
か?」,・・・・等の案内文データがそれぞれ固有の案内文
ID、背景画像ID、文字修飾ID、コマンドボタンI
D、及び音声特徴IDと対応づけられることによって構
成されている。
The guidance sentence data table 413L is shown in FIG.
As shown in the table, for example, "Please select the desired menu.", "Please select the desired product."
········································································································· Guide text ID, background image ID, character modification ID, command button I
D and audio feature ID.

【0093】背景画像テーブル413Mは、図21に示
すように、例えば、「青、ベタ」,「緑、網掛け」,・・
・・等の、商品販売情報処理端末装置4のメイン表示部4
03に表示される案内表示画面の背景画像データがそれ
ぞれ固有の背景画像IDと対応づけられることによって
構成されている。この背景画像テーブル413Mに登録
される背景画像データは、図21に例示したように、色
及び塗りつぶし形態を指定することとしてもよいし、ビ
ットマップ、JPEGやその他の画像形式で保存された
データを指定することとしてもよい。
As shown in FIG. 21, the background image table 413M includes, for example, “blue, solid”, “green, shaded”,.
The main display unit 4 of the product sales information processing terminal device 4 such as.
The background image data of the guidance display screen displayed at 03 is associated with a unique background image ID. As the background image data registered in the background image table 413M, as illustrated in FIG. 21, a color and a fill mode may be designated, or data stored in a bitmap, JPEG or other image format may be used. It may be specified.

【0094】文字修飾テーブル413Nは、図22に示
すように、例えば、「ゴシック、24pt(ポイン
ト)」,「明朝、20pt」,・・・・等の、商品販売情報
処理端末装置4のメイン表示部403に表示される案内
表示画面の前記案内文データの文字修飾データがそれぞ
れ固有の文字修飾IDと対応づけられることによって構
成されている。この文字修飾テーブル413Nに登録さ
れる文字修飾データは、図22に例示したように、フォ
ント名及びポイント数を指定することとしてもよいし、
更に、太字、斜体字、下線付き、文字色等のその他の書
式や、変形の形態(影文字、グラデーション、回転、ア
ーチ状等)を指定することとしてもよい。
As shown in FIG. 22, the character modification table 413N includes, for example, “Gothic, 24 pt (points)”, “Mincho, 20 pt”,. The character modification data of the guidance sentence data on the guidance display screen displayed on the display unit 403 is associated with a unique character modification ID. The character modification data registered in the character modification table 413N may specify a font name and the number of points as illustrated in FIG.
Further, other formats such as bold, italic, underlined, and character color, and a form of deformation (shadow character, gradation, rotation, arch shape, etc.) may be specified.

【0095】コマンドボタンテーブル413Oは、図2
3に示すように、例えば、「情報ボタン」,「上位ボタ
ン」,「下位ボタン」,・・・・等の、商品販売情報処理端
末装置4のメイン表示部403に表示される案内表示画
面に配置されるコマンドボタンに関するデータがそれぞ
れ固有のコマンドボタンIDと対応づけられることによ
って構成されている。例えば、「情報ボタン」は、利用
客が更に詳しい情報が欲しいときに指示操作することに
より詳細情報を提示するためのボタンであり、「上位ボ
タン」は、階層構造のメニュー体系において上位に位置
する項目へジャンプするためのリンクボタンであり、
「下位ボタン」は、階層構造のメニュー体系において下
位に位置する項目へジャンプするためのリンクボタンで
ある。
The command button table 413O is shown in FIG.
As shown in FIG. 3, for example, a guidance display screen such as an “information button”, an “upper button”, a “lower button”,. The data relating to the command buttons to be arranged is associated with a unique command button ID. For example, the “information button” is a button for presenting detailed information by performing an instruction operation when a customer wants more detailed information, and the “upper button” is located at a higher position in a hierarchical menu system. Link button to jump to the item,
The “lower button” is a link button for jumping to an item positioned lower in the hierarchical menu system.

【0096】音声特徴テーブル413Pは、図24に示
すように、例えば、「通常音声」,「確認音声」,「警
告音声」,・・・・等の、商品販売情報処理端末装置4の音
声合成部406のスピーカ406a,406bから出力
される音声の特徴を示すデータがそれぞれ固有の音声特
徴IDと対応づけられることによって構成されている。
As shown in FIG. 24, the voice feature table 413P stores, for example, the voice synthesis of the merchandise sales information processing terminal device 4, such as "normal voice", "confirmation voice", "warning voice",. The data indicating the characteristics of the sound output from the speakers 406a and 406b of the unit 406 are associated with unique sound characteristic IDs.

【0097】取得音声データ413Qは、後述する項目
処理(図26参照)やコマンド処理(図27参照)にお
いてメニュー利用の姿勢であると判別された場合等に、
利用客の発話内容と音声認識部405による認識処理の
結果が一致したと判断されて、取得した音声サンプルと
音声認識部405から入力されたIDとが対応づけて格
納されることにより作成されるデータである。このよう
にして作成された取得音声データ413Qは、定期的に
(例えば、毎日定時に)商品販売情報管理装置3に対し
て送信される。
The acquired voice data 413Q is used, for example, when it is determined in the item processing (see FIG. 26) and the command processing (see FIG. 27) described later that the posture is for menu use.
It is determined that the speech content of the user and the result of the recognition processing by the voice recognition unit 405 match, and the acquired voice sample and the ID input from the voice recognition unit 405 are stored in association with each other. Data. The acquired voice data 413Q created in this way is transmitted to the product sales information management device 3 periodically (for example, at regular time every day).

【0098】以上が、HDドライブ413に装着される
HDに格納される各種データについての説明である。
The above is a description of various data stored in the HD mounted on the HD drive 413.

【0099】スキャナ414は、商品販売情報処理端末
装置4が提供するコピーサービスのための画像読取部で
あり、読み取った画像をCPU401に対して出力す
る。プリンタ415は、商品販売情報処理端末装置4が
提供するコピーサービス、プリントサービス等のための
印刷部であり、CPU401から入力される印刷データ
を印刷する。
The scanner 414 is an image reading unit for a copy service provided by the merchandise sales information processing terminal device 4, and outputs a read image to the CPU 401. The printer 415 is a printing unit for a copy service, a print service, and the like provided by the product sales information processing terminal device 4, and prints print data input from the CPU 401.

【0100】メモリカードドライブ416、及びディス
クメディアドライブ417は、交換及び書き換え可能な
記録媒体としてのメモリーカードまたはディスクメディ
アに対するデータの読み書きを行う。また、予備ドライ
ブ418は、その他の記録媒体として、例えば、FD
(Floppy Disk )、コンパクトフラッシュ(CompactFla
sh:商標名)、DVD等の各種記録媒体に対するデータ
の読み書きを行うドライブを適宜装着する。
The memory card drive 416 and the disk medium drive 417 read and write data from and to a memory card or a disk medium as a replaceable and rewritable recording medium. In addition, the spare drive 418 includes, for example, an FD as another recording medium.
(Floppy Disk), Compact Flash (CompactFla
A drive for reading / writing data from / to various recording media such as sh (trade name) and DVD is appropriately mounted.

【0101】以上が、図2に示す商品販売情報処理端末
装置4の概略内部構成を示す図5の各部についての説明
である。
The above is an explanation of each part in FIG. 5 showing a schematic internal configuration of the commodity sales information processing terminal device 4 shown in FIG.

【0102】次いで図6は、図5に示すような内部構成
によって実現される商品販売情報処理端末装置4の概略
外観の一例を示す図である。この図6に示すように、商
品販売情報処理端末装置4には、操作台部4aの上面
に、表示情報が切り替わるメイン表示部403兼用のタ
ッチパネル等の入力部402、左右のスピーカ406
a,406b、及び用紙挿入・排出部421が備えられ
ている。
Next, FIG. 6 is a diagram showing an example of a schematic external appearance of the product sales information processing terminal device 4 realized by the internal configuration as shown in FIG. As shown in FIG. 6, the merchandise sales information processing terminal device 4 has an input section 402 such as a touch panel also serving as a main display section 403 on which display information is switched, and left and right speakers 406 on the upper surface of the operation console section 4a.
a, 406b, and a paper insertion / ejection unit 421.

【0103】また、操作台部4aの上面の奥方に位置す
る起立部4bの前面に、左右のマイク405a,405
bとその間のサブ表示部404、及びメモリカードドラ
イブ416のメモリカード挿入口、左右のマイク405
a,405bの上方の左右の推奨表示部420とその間
のレンズ407aが備えられている。
Further, the left and right microphones 405a, 405 are provided on the front surface of the upright portion 4b located at the back of the upper surface of the operation console portion 4a.
b, the sub-display unit 404 therebetween, the memory card insertion slot of the memory card drive 416, the left and right microphones 405
a and 405b, and a recommended display section 420 on the left and right above the lens 405b and a lens 407a therebetween.

【0104】更に、操作台部4aの前面上部に、レシー
ト発行部409、チケット発行部410、及びディスク
メディアドライブ417のディスクメディア挿入口が備
えられ、その下方には、複数の予備ドライブ418が備
えられている。また、操作台部4aの側面には、その手
前側の上部に物掛け部422が備えられている。この物
掛け部422は、図示例では、買い物袋や傘等の手荷物
を掛けておけるような多目的フックであるが、他の形状
のものでも良い。
Further, a receipt issuing section 409, a ticket issuing section 410, and a disk medium insertion slot of a disk medium drive 417 are provided on the upper front surface of the operation console section 4a, and a plurality of spare drives 418 are provided below it. Have been. On the side surface of the operation console portion 4a, a hanging portion 422 is provided at an upper portion on the front side. In the illustrated example, the hanging portion 422 is a multipurpose hook that can hold baggage such as shopping bags and umbrellas, but may have another shape.

【0105】図6において、入力部402はタッチパネ
ル等によって構成され、メイン表示部403は液晶表示
パネル等によって構成されており、両者は一体となって
いる。そして、メイン表示部403に表示されるメニュ
ーのボタン表示を利用客が指で指示することが入力部4
02に対する入力操作となる。メイン表示部403の表
示内容の視野角を調整することにより、例えば、商品販
売情報処理端末装置4を利用する利用客の背後を通りか
かった他人等に案内表示内容を見られてしまうことがな
く、利用客のプライバシーを守ることが可能となる。
In FIG. 6, the input section 402 is constituted by a touch panel or the like, and the main display section 403 is constituted by a liquid crystal display panel or the like, and both are integrated. Then, the user instructs the button display of the menu displayed on the main display unit 403 with the finger with the input unit 4.
02 is an input operation. By adjusting the viewing angle of the display content of the main display unit 403, for example, the guide display content can be prevented from being viewed by others passing behind the customer who uses the product sales information processing terminal device 4, It is possible to protect the privacy of customers.

【0106】また、この入力部402とメイン表示部4
03が一体となったパネルは、図6の両矢印で示すよう
な方向に開閉可能であるように左端部をヒンジ等の回動
部材で固定されている。そして、当該パネルの下部には
スキャナ414の読取部が位置しており、当該パネル
は、利用客が商品販売情報処理端末装置4を複写機とし
て利用する際の蓋部としても機能する。商品販売情報処
理端末装置4を複写機として利用する際には、用紙挿入
・排出部421の用紙挿入口から被複写原稿を挿入する
ことも可能である。また、複写により印刷された用紙は
用紙挿入・排出部421の用紙排出口から排出される。
The input section 402 and the main display section 4
The panel in which 03 is integrated has its left end fixed by a rotating member such as a hinge so that it can be opened and closed in the direction indicated by the double arrow in FIG. The reading unit of the scanner 414 is located below the panel, and the panel also functions as a lid when the customer uses the product sales information processing terminal device 4 as a copier. When the merchandise sales information processing terminal device 4 is used as a copying machine, it is possible to insert a document to be copied from the paper insertion opening of the paper insertion / ejection unit 421. The paper printed by copying is discharged from the paper discharge port of the paper insertion / discharge unit 421.

【0107】スピーカ406a,406bは、図6に示
すように天井面に向けられているため、店内に流れる音
楽等の他の音を妨害してしまうことや、店内の他の人に
案内内容を聞かれてしまう可能性を低くすることができ
る。更に、このスピーカ406a,406bとして指向
性の高いスピーカを使用することによって、商品販売情
報処理端末装置4の利用客にのみ案内音声が聞こえるよ
うにすることが可能となる。
Since the speakers 406a and 406b are directed to the ceiling surface as shown in FIG. 6, the speakers 406a and 406b may interfere with other sounds such as music flowing in the store, and may provide guidance to other people in the store. The possibility of being heard can be reduced. Further, by using speakers having high directivity as the speakers 406a and 406b, it is possible to make only the customers of the product sales information processing terminal device 4 hear the guidance voice.

【0108】マイク405a,405bについても同様
に、指向性の高いマイクを使用することによって商品販
売情報処理端末装置4の利用客の発話内容以外の音声を
極力拾わないようにすることができる。また、このマイ
ク405a,405bは、商品販売情報処理端末装置4
の起立部4bに対して脱着可能であるため、周辺の道路
からの騒音等が大きいために音声認識の精度が低下して
しまう場合などには、脱状態にしてマイクスタンド(図
示せず)等によって利用客の口元に設置することもでき
る。そして、この場合、脱状態の時には接話マイクロホ
ンに、着状態の時には指向性マイクロホンに自動的に切
り替えて音声を入力することができる構成とすることに
よって、周囲の雑音を極力排除することができる。
Similarly, by using microphones 405a and 405b having high directivity, it is possible to minimize the pickup of voices other than the utterance contents of the customer of the product sales information processing terminal device 4. The microphones 405a and 405b are connected to the merchandise sales information processing terminal device 4.
Can be attached to and detached from the upright portion 4b, so that when the noise from the surrounding roads is large and the accuracy of voice recognition is reduced, the microphone stand (not shown) or the like can be detached. It can also be installed at the mouth of the customer. In this case, by adopting a configuration in which a voice can be inputted by automatically switching to a close-talking microphone when the mobile phone is out of the microphone and to a directional microphone when the mobile phone is wearing the mobile phone, the surrounding noise can be eliminated as much as possible. .

【0109】前述のメイン表示部403が商品販売情報
処理端末装置4の利用客のみに対する案内表示であった
のに対して、サブ表示部404は、商品販売情報処理端
末装置4が扱うコンテンツを店舗A内の客に対して広く
宣伝するための広告や、新着情報を常時表示するための
表示部であるため、表示画面が垂直になるように設置さ
れている。また、推奨表示部420は、新商品や売れ筋
商品などの推奨コンテンツの案内カードを格納するフォ
ルダである。このフォルダに格納される案内カードは、
商品引き替えカードを兼ねており利用客は案内カードを
レジに持参することによって商品を購入することもでき
る。あるいは、推奨表示部420をCRTや液晶表示パ
ネルによって構成することとしてもよい。
[0109] Whereas the main display unit 403 described above is a guide display for only the customers of the product sales information processing terminal device 4, the sub display unit 404 displays the contents handled by the product sales information processing terminal device 4 in the store. Since the display unit is for displaying an advertisement for advertising widely to the customers in A and always displaying new arrival information, it is installed so that the display screen is vertical. The recommendation display section 420 is a folder for storing guidance cards for recommended contents such as new products and top-selling products. The guidance card stored in this folder is
The product also serves as a product exchange card, and the user can purchase a product by bringing the guide card to the cash register. Alternatively, the recommended display section 420 may be configured by a CRT or a liquid crystal display panel.

【0110】レンズ407aは、デジタルカメラ407
のレンズ部分であり、監視用として利用するほか、利用
客の存在を感知することによりメイン表示部403の表
示を通常時の広告画面からメニュー表示に切り替えた
り、利用客の姿勢を判別することにより利用客の発話内
容がメニュー操作の意図で発話されたものか否かを判別
したりするために利用することができる。また、デジタ
ルカメラ407によって、商品販売情報処理端末装置4
を簡易型の写真撮影装置として利用することもできる。
この写真撮影機能により、証明写真や遊技目的の写真を
撮影し、その場で現像するサービスを利用客に対して提
供することもできる。
The lens 407a is a digital camera 407
In addition to being used for monitoring, by sensing the presence of a customer, the display of the main display unit 403 is switched from a normal advertisement screen to a menu display, or by determining the posture of the customer It can be used to determine whether or not the utterance content of the user is uttered for the purpose of menu operation. Also, the digital camera 407 allows the product sales information processing terminal device 4
Can also be used as a simple type photography device.
With this photographing function, it is also possible to provide a service for photographing an ID photograph or a photograph for a game purpose and developing the photograph on the spot.

【0111】メモリカードドライブ416に挿入するメ
モリカードの利用形態としては様々なものが考えられ
る。例えば、予め個人情報を記録したメモリカードを挿
入することにより、会員のみが受けられるサービスが存
在する場合などに個人認証を行うことができる。また、
利用客が市販のデジタルカメラで撮影した画像を記録し
たメモリカードを持参することにより、画像印刷のサー
ビスを提供することもできる。ディスクメディアドライ
ブ417に対してもメモリカードドライブ416と同様
の利用形態が考えられる。また、予備ドライブ418と
してその他の記録媒体用のドライブを設置することによ
り、FD、コンパクトフラッシュ(商標名)、DVD等
の様々な記録媒体を利用することが可能となる。
[0111] There are various ways of using the memory card inserted into the memory card drive 416. For example, by inserting a memory card in which personal information is recorded in advance, personal authentication can be performed when there is a service that only members can receive. Also,
An image printing service can also be provided by bringing a memory card in which a user records an image captured by a commercially available digital camera. The disk media drive 417 can be used in the same manner as the memory card drive 416. In addition, by installing a drive for other recording media as the spare drive 418, various recording media such as FD, CompactFlash (trade name), and DVD can be used.

【0112】レシート発行部409、チケット発行部4
10から発行されるレシート、チケット等は、専用の用
紙に印字されてそれぞれの排出口から排出される。
Receipt issuing section 409, ticket issuing section 4
Receipts, tickets, and the like issued from 10 are printed on dedicated paper and discharged from the respective discharge ports.

【0113】以上が、図5に示すような内部構成によっ
て実現される商品販売情報処理端末装置4の概略外観の
一例を示す図6の各部についての説明である。
The above is a description of each part in FIG. 6 showing an example of a schematic external appearance of the product sales information processing terminal device 4 realized by the internal configuration as shown in FIG.

【0114】次に動作を説明する。まず、図25に示す
フローチャートを参照して商品販売情報処理端末装置4
によって実行されるコンテンツ表示処理について説明す
る。
Next, the operation will be described. First, referring to the flowchart shown in FIG.
Will be described.

【0115】店舗A内に設置された商品販売情報処理端
末装置4は、通常時においては、サブ表示部404に広
告や、新着情報等を表示するとともに、メイン表示部4
03の画面にも表示画面の焼き付き防止を兼ねるために
常時変化するコンテンツ情報を表示しているとともに、
監視用を兼ねたデジタルカメラ407は、常時、レンズ
407aによって画像の取込を行っている(ステップS
1)。この状態の商品販売情報処理端末装置4の操作台
部4aの前に利用客が近づき、デジタルカメラの取込画
像がピント合焦範囲内の画像を取り込んだと判別される
と(ステップS2)、CPU401は、メイン表示部4
03に対して表示データを出力してメインメニュー画面
を表示させる(ステップS3)。
The product sales information processing terminal device 4 installed in the store A normally displays an advertisement, new arrival information, and the like on the sub display unit 404, and
The content information that constantly changes in order to prevent the burn-in of the display screen is also displayed on the screen 03,
The digital camera 407, which is also used for monitoring, constantly captures an image using the lens 407a (step S).
1). When the user approaches the operation console 4a of the commodity sales information processing terminal device 4 in this state and it is determined that the captured image of the digital camera has captured an image within the focus range (step S2). The CPU 401 is a main display unit 4
Then, display data is output to display the main menu screen (step S3).

【0116】メインメニュー画面表示後、CPU401
は、タッチパネル等の入力部402に対する指示入力、
あるいは音声認識部405のマイク405a,405b
に対する音声入力を待機する状態(ステップS4)に移
行し、タッチパネル等の入力部402に対する指示入力
があると判別された場合には、タッチパネル操作に対応
する処理を行い(ステップS5)、音声認識部405の
マイク405a,405bに対する音声入力がなされた
と判別された場合には、音声入力に対応する処理として
まず音声パターンの判別を行う(ステップS6)。
After displaying the main menu screen, the CPU 401
Is an instruction input to the input unit 402 such as a touch panel,
Alternatively, the microphones 405a and 405b of the voice recognition unit 405
Then, the process shifts to a state of waiting for a voice input (step S4), and when it is determined that there is an instruction input to the input unit 402 such as a touch panel, a process corresponding to a touch panel operation is performed (step S5), and a voice recognition unit is performed. When it is determined that a voice input has been made to the microphones 405a and 405b of the 405, a voice pattern is first determined as processing corresponding to the voice input (step S6).

【0117】このステップS6における音声パターン判
別は以下のように行われる。すなわち、入力された音声
はマイク405a,405bによって電気信号に変換さ
れ、更に音声認識部405によって周波数解析をなされ
て音素データ等のパラメータに変換される。そして、該
パラメータが音声パターンテーブル413Aに格納され
た複数の音声パターンと比較されて、最もパラメータの
パターンが近い音声パターンが選択される。この処理は
図8に示す周波数解析の処理に該当する。なお、周波数
解析をなされた結果としての音素データ等のパラメータ
は、後述する項目処理(図26参照)やコマンド処理
(図27参照)において、音声認識辞書学習用のデータ
として保存されるため、音声サンプルとしてRAM41
2に保持される。
The voice pattern discrimination in step S6 is performed as follows. That is, the input voice is converted into an electric signal by the microphones 405a and 405b, and further subjected to frequency analysis by the voice recognition unit 405 to be converted into parameters such as phoneme data. Then, the parameter is compared with a plurality of voice patterns stored in the voice pattern table 413A, and a voice pattern having the closest parameter pattern is selected. This processing corresponds to the frequency analysis processing shown in FIG. Note that parameters such as phoneme data as a result of the frequency analysis are stored as data for learning a speech recognition dictionary in item processing (see FIG. 26) and command processing (see FIG. 27) described later. RAM 41 as a sample
2 is held.

【0118】次いで、音声認識部405は、音素データ
等のパラメータに基づいて、音素認識処理、単語認識処
理、文認識処理の順序で音声認識処理を行う(ステップ
S7)。この際の単語認識辞書として、コマンド音声テ
ーブル413B、コンテンツ音声テーブル413C、メ
ーカー音声テーブル413D、ジャンル音声テーブル4
13E、及び分野音声テーブル413Fが参照される。
そして、音声認識部405は、認識した単語を確定する
と、該確定した単語が登録された音声テーブルがいずれ
の音声テーブルであるかを示す識別情報と、対応するI
DとをCPU401に対して出力する。この処理は図8
に示す音声認識の処理に該当する。
Next, the voice recognition unit 405 performs voice recognition processing in the order of phoneme recognition processing, word recognition processing, and sentence recognition processing based on parameters such as phoneme data (step S7). At this time, as a word recognition dictionary, a command voice table 413B, a content voice table 413C, a maker voice table 413D, a genre voice table 4
13E and the field audio table 413F.
When the voice recognition unit 405 determines the recognized word, the voice recognition unit 405 identifies the voice table in which the determined word is registered, and the corresponding I / O table.
And D to the CPU 401. This processing is shown in FIG.
Corresponds to the speech recognition processing shown in FIG.

【0119】そして、CPU401は、音声認識部40
5から入力された前記識別情報を参照して、それがコマ
ンド音声テーブル413Bであるか、項目に関する単語
の音声テーブル(コンテンツ音声テーブル413C、メ
ーカー音声テーブル413D、ジャンル音声テーブル4
13E、分野音声テーブル413F)であるかによって
入力音声種を判別する(ステップS8)。
[0119] Then, the CPU 401
5 is referred to as the command voice table 413B or a voice table of words relating to items (content voice table 413C, maker voice table 413D, genre voice table 4).
13E, the input voice type is determined according to the field voice table 413F) (step S8).

【0120】更に、CPU401は、ステップS8にお
いて前記識別情報が項目に関する単語の音声テーブルを
示すものであると判別された場合には、後述する項目処
理(ステップS9:図26参照)を行った後に再び入力
待機状態に移行し、コマンド音声テーブル413Bを示
すものであると判別された場合には、音声認識部405
から入力されたコマンドIDがメニュー操作を終了する
コマンドに関する単語を示すIDであるか否かを判別す
る(ステップS10)。そして、CPU401は、ステ
ップS10において、メニュー操作を終了するコマンド
に関する単語を示すコマンドIDであると判別された場
合には、一連のコンテンツ表示処理を終了し、それ以外
の単語を示すコマンドIDであると判別された場合に
は、後述するコマンド処理(ステップS11:図27参
照)を行った後に再び入力待機状態に移行する。
Further, if it is determined in step S8 that the identification information indicates a speech table of a word relating to an item, the CPU 401 performs an item process described later (step S9: see FIG. 26). The process again shifts to the input standby state, and when it is determined that the command indicates the command voice table 413B, the voice recognition unit 405 is activated.
Then, it is determined whether or not the command ID input from is a word indicating a word relating to a command for ending the menu operation (step S10). If it is determined in step S10 that the command ID is a command ID indicating a word related to a command to end the menu operation, the CPU 401 ends a series of content display processing, and the command ID indicates another word. If it is determined that the command processing is to be described later (step S11: see FIG. 27), the process returns to the input standby state.

【0121】次に、図26に示すフローチャートを参照
して、図25のステップS9において実行される項目処
理について説明する。
Next, the item processing executed in step S9 in FIG. 25 will be described with reference to the flowchart shown in FIG.

【0122】この項目処理において、まず、CPU40
1は、図25のステップS7において音声認識部405
から入力された前記識別情報を参照して、それがコンテ
ンツ音声テーブル413Cを示すものであるか否かを判
別し(ステップS20)、コンテンツ音声テーブル41
3Cを示すものである場合には、コンテンツネームマス
ター413G、及びコンテンツデータマスター413H
に登録されたデータの内、音声認識部405から入力さ
れたコンテンツIDに対応するデータを取得してRAM
412に格納する。
In this item processing, first, the CPU 40
1 corresponds to the voice recognition unit 405 in step S7 of FIG.
With reference to the identification information input from the above, it is determined whether or not the identification information indicates the content audio table 413C (step S20).
3C, the content name master 413G and the content data master 413H
The data corresponding to the content ID input from the voice recognition unit 405 among the data registered in the
412.

【0123】一方、ステップS20において、前記識別
情報がコンテンツ音声テーブル413Cを示すものでな
いと判別された場合には、当該識別情報が示す音声テー
ブルに対応するネームマスターを参照する(ステップS
22)。例えば、図25のステップS7において音声認
識されて特定された単語が「RPG」であった場合に
は、CPU401は、ジャンル音声テーブル413Eに
よってジャンルIDが「322」であると特定し、ジャ
ンル音声テーブル413Eに対応するジャンルネームマ
スター413JのジャンルID「322」のデータとし
て「RPG」のテキストデータを取得してRAM412
に格納する。
On the other hand, if it is determined in step S20 that the identification information does not indicate the content audio table 413C, the name master corresponding to the audio table indicated by the identification information is referred to (step S20).
22). For example, if the word identified by voice recognition in step S7 of FIG. 25 is “RPG”, the CPU 401 specifies that the genre ID is “322” by the genre voice table 413E, and the genre voice table The text data of “RPG” is acquired as the data of the genre ID “322” of the genre name master 413J corresponding to 413E, and the RAM 412 is acquired.
To be stored.

【0124】次いで、CPU401は、コンテンツネー
ムマスター413Gを参照して、前記識別情報が示す音
声テーブルに対応する項目のコンテンツIDが、音声認
識部405から入力されたIDと同一であるコンテンツ
のID、ネーム部のテキストデータ、及びその他の項目
IDを取得する(ステップS23)。例えば、図25の
ステップS7において音声認識されて特定された単語が
「RPG」であった場合には、CPU401は、ジャン
ル音声テーブル413EによってジャンルIDが「32
2」であると特定されているので、コンテンツネームマ
スター413Gに登録されたジャンルIDが「322」
であるコンテンツ、[「12345」(コンテンツI
D),「Xの冒険」(ネーム部),「24」(メーカー
ID),「2」(分野ID)]、[「12346」,
「Y物語」,「24」,「2」]、[「12347」,
「Zファンタジー」,「24」,「2」],・・・・を取得
してRAM412に格納する。
Next, the CPU 401 refers to the content name master 413G, and finds the ID of the content whose item ID corresponding to the voice table indicated by the identification information is the same as the ID input from the voice recognition unit 405; The text data of the name part and other item IDs are obtained (step S23). For example, if the word identified by voice recognition in step S7 of FIG. 25 is “RPG”, the CPU 401 determines that the genre ID is “32” by the genre voice table 413E.
2 ", the genre ID registered in the content name master 413G is" 322 ".
, [“12345” (content I
D), “Adventure of X” (name part), “24” (manufacturer ID), “2” (field ID)], [“12346”,
“Y story”, “24”, “2”], [“12347”,
“Z fantasy”, “24”, “2”],... Are acquired and stored in the RAM 412.

【0125】上記ステップS20〜ステップS23の処
理は、図8に示すメニュー体系処理に該当する。
The processing of steps S20 to S23 corresponds to the menu system processing shown in FIG.

【0126】ステップS21、またはステップS23の
処理によりリンク情報を取得すると、CPU401は、
デジタルカメラ407が取り込んだ画像を解析して利用
客の姿勢を判別する(ステップS24)。例えば、取り
込んだ画像に対して2値化処理を行い、黒値領域の分布
状態によって利用客の顔の向きを判別することができ
る。
When the link information is obtained by the processing in step S21 or S23, the CPU 401
The image captured by the digital camera 407 is analyzed to determine the attitude of the customer (step S24). For example, binarization processing is performed on the captured image, and the orientation of the user's face can be determined based on the distribution state of the black value areas.

【0127】そして、CPU401は、このような処理
により判別した利用客の姿勢が、商品販売情報処理端末
装置4に正対し、メニューを利用する姿勢であるか否か
を判別し(ステップS25)、メニューを利用する姿勢
であると判別された場合には、図25のステップS6に
おける音声認識処理時にRAM412に保持されていた
音声サンプルと前記音声認識部405から入力されたI
Dとを対応づけて取得音声データ413Qに格納する
(ステップS26)。
Then, the CPU 401 determines whether or not the attitude of the user determined by such a process is the attitude of using the menu while directly facing the merchandise sales information processing terminal device 4 (step S25). If it is determined that the attitude is to use the menu, the voice sample held in the RAM 412 during the voice recognition processing in step S6 of FIG.
D is associated with and stored in the acquired voice data 413Q (step S26).

【0128】一方、ステップS25において、メニュー
を利用する姿勢でないと判別された場合には、CPU4
01は、メイン表示部403に項目をジャンプすること
を確認する画面の表示データを出力して表示画面に表示
させ(ステップS28)、この確認画面に表示されたボ
タン(例えば、[はい]と[いいえ])を利用客が操作
することにより、項目をジャンプしてもよいと指示入力
されたか否かを、入力部402から入力される座標デー
タに基づいて判別する(ステップS29)。
On the other hand, if it is determined in step S25 that the posture is not the one using the menu, the CPU 4
01 outputs display data of a screen for confirming that an item is to be jumped to the main display unit 403 and causes the display screen to display the data (step S28). The buttons displayed on the confirmation screen (for example, [Yes] and [Yes] No]) is determined based on the coordinate data input from the input unit 402 as to whether or not the user has input an instruction that the item may be jumped by operating (step S29).

【0129】そして、ステップS29において、項目を
ジャンプしてもよいと指示入力されたと判別された場合
には、CPU401は、ステップS26に移行して図2
5のステップS6における音声認識処理時にRAM41
2に保持されていた音声サンプルと前記音声認識部40
5から入力されたIDとを対応づけて取得音声データ4
13Qに格納し、項目をジャンプしないと指示入力され
たと判別された場合には、一連の項目処理を終了して図
25に示すコンテンツ表示処理のステップS4における
入力待機状態に移行する。
If it is determined in step S29 that an instruction to jump an item has been input, the CPU 401 proceeds to step S26 and proceeds to step S26.
RAM 41 during the voice recognition process in step S6 of FIG.
2 and the speech recognition unit 40
Acquisition voice data 4 in association with the ID input from 5
If it is determined that the instruction is not input and the item is not jumped, a series of item processing is terminated, and the process shifts to an input standby state in step S4 of the content display processing shown in FIG.

【0130】ステップS26の処理を終えたCPU40
1は、案内文データテーブル413Lを参照し、上述の
ステップS20〜ステップS23の処理において取得し
たリンクデータに基づいて、案内表示データをメイン表
示部403に対して出力してメイン表示部403の表示
画面に表示させるとともに、案内音声データを音声合成
部406に対して出力してスピーカ406a,406b
から案内音声を出力させ(ステップS27)、一連の項
目処理を終了して図25に示すコンテンツ表示処理のス
テップS4における入力待機状態に移行する。このステ
ップS27の処理は、図8に示す案内出力処理に該当す
る。
CPU 40 that has completed the process of step S26
1 refers to the guidance sentence data table 413L, outputs guidance display data to the main display unit 403, and displays the guidance display data on the main display unit 403 based on the link data acquired in the processing of steps S20 to S23 described above. In addition to displaying the guidance voice data on the screen, the guidance voice data is output to the voice synthesis unit 406, and the speakers 406a and 406b are output.
, A guidance voice is output (step S27), a series of item processing is ended, and the process shifts to an input standby state in step S4 of the content display processing shown in FIG. The process of step S27 corresponds to the guidance output process shown in FIG.

【0131】例えば、利用客が「Zファンタジー」と発
話し、図25のステップS7において音声認識されて特
定された単語が「Zファンタジー」であった場合には、
CPU401は、項目処理プログラムに従って、案内文
データテーブル413Lの案内文ID「111」のデー
タを読み出して、案内文データ部の「あなたが選択した
商品です。」というテキストデータをメイン表示部40
3の表示画面に表示させる。このとき、背景画像IDは
「1」であるため、背景画像テーブル413Mを参照し
て、背景は「緑、網掛け」の画像となり、文字修飾ID
は「1」であるため、文字修飾テーブル413Nを参照
して、「あなたが選択した商品です。」の文字は「明
朝、20pt」で表示され、コマンドボタンIDは
「0、1」であるため、コマンドボタンテーブル413
Oを参照して、コマンドボタンとしては「情報ボタン」
と「上位ボタン」が表示されることとなる。
For example, when the customer utters “Z fantasy” and the word identified by voice recognition in step S7 of FIG. 25 is “Z fantasy”,
The CPU 401 reads out the data of the guidance message ID “111” in the guidance message data table 413L according to the item processing program, and displays the text data of “Your selected product” in the guidance message data section on the main display section 40.
3 is displayed on the display screen. At this time, since the background image ID is “1”, the background is an image of “green, shaded” with reference to the background image table 413M, and the character modification ID
Is "1", the characters "Your selected product." Are displayed as "Mincho, 20pt" with reference to the character modification table 413N, and the command button ID is "0, 1". Therefore, the command button table 413
Referring to O, the command button is "information button"
And the "upper button" are displayed.

【0132】このコマンドボタンの内、「情報ボタン」
は、利用客が更に詳しい情報が欲しいときに指示操作す
ることにより詳細情報を提示するためのボタンであり、
図33〜図36に示す表示画面の図において、右下部分
に位置するボタンである。また、「上位ボタン」は、上
位に位置する項目へジャンプするためのリンクボタンで
あり、図34〜図37に示す表示画面の図において、最
上列に位置するボタンである。この例の場合には、階層
構造を下りてきたことにより「Zファンタジー」にたど
り着いたのではなく直接ジャンプしてきたので、コンテ
ンツネームマスター413Gによってリンクされている
メーカーID「24」、ジャンルID「322」、及び
分野ID「2」の全ての上位ボタンが表示されることと
なる。例えば、メーカーID「24」に対応して、メー
カーネームマスター413IのID「24」に対応づけ
られたテキストデータとして「A社」が取得されている
ので、上位ボタンの内の一つには、「A社」の文字が表
示されることとなる。
Among these command buttons, "information button"
Is a button for presenting detailed information by performing an instruction operation when the user wants more detailed information,
These buttons are located in the lower right part of the display screens shown in FIGS. The “upper button” is a link button for jumping to an item located at a higher position, and is a button located in the uppermost row in the display screens shown in FIGS. 34 to 37. In the case of this example, since the player has jumped directly instead of arriving at “Z Fantasy” by descending the hierarchical structure, the maker ID “24” and the genre ID “322” linked by the content name master 413G are used. ”And all upper buttons of the field ID“ 2 ”are displayed. For example, since “Company A” is acquired as text data associated with the maker ID “24” of the maker name master 413I corresponding to the maker ID “24”, one of the upper buttons includes The character "Company A" will be displayed.

【0133】また、音声特徴IDは「0」であるため、
音声特徴テーブル413Pを参照して、案内文データ部
の「あなたが選択した商品です。」というテキストデー
タは、「通常音声」の音声パラメータを使用して音声合
成部406によって音声合成されてスピーカ406a,
406bから出力される。更に、「Zファンタジー」と
いうテキストデータも同様に音声として出力される。
Since the voice feature ID is “0”,
Referring to the voice feature table 413P, the text data of "the product you have selected" in the guidance sentence data section is voice-synthesized by the voice synthesis section 406 using voice parameters of "normal voice", and the speaker 406a is generated. ,
Output from 406b. Further, text data "Z fantasy" is also output as voice.

【0134】また、例えば、利用客が「RPG」と発話
し、図25のステップS7において音声認識されて特定
された単語が「RPG」であった場合には、CPU40
1は、項目処理プログラムに従って、案内文データテー
ブル413Lの案内文ID「1」のデータを読み出し
て、案内文データ部の「ご希望の商品をお選びくださ
い。」というテキストデータをメイン表示部403の表
示画面に表示させる。このとき、背景画像IDは「0」
であるため、背景画像テーブル413Mを参照して、背
景は「青、ベタ」の画像となり、文字修飾IDは「3」
であるため、文字修飾テーブル413Nを参照して、
「ご希望の商品をお選びください。」の文字は「ゴシッ
ク、24pt」で表示され、コマンドボタンIDは
「0、2」であるため、コマンドボタンテーブル413
Oを参照して、コマンドボタンとしては「情報ボタン」
と「下位ボタン」が表示されることとなる。この際の表
示画面は、図36に示す表示画面の例の内最上列に位置
するボタンを省いたものと同様の表示画面となる(細部
は異なる)。
For example, if the customer utters “RPG” and the word identified by voice recognition in step S7 of FIG. 25 is “RPG”, the CPU 40
1 reads out the data of the guidance message ID “1” of the guidance message data table 413L according to the item processing program, and displays the text data “Please select the desired product” in the guidance message data section on the main display section 403. Is displayed on the display screen. At this time, the background image ID is “0”
Therefore, referring to the background image table 413M, the background is an image of “blue and solid”, and the character modification ID is “3”.
Therefore, referring to the character modification table 413N,
Since the characters “Please select the desired product” are displayed as “Gothic, 24 pt” and the command button ID is “0, 2”, the command button table 413 is displayed.
Referring to O, the command button is "information button"
And a "lower button" are displayed. The display screen at this time is the same as the display screen shown in FIG. 36 except that the button located in the uppermost column is omitted (details are different).

【0135】コマンドボタンの内、「下位ボタン」は、
下位に位置する項目へジャンプするためのリンクボタン
である。この例においては、ステップS23において、
コンテンツネームマスター413Gに登録されたジャン
ルIDが「322」であるコンテンツ、[「1234
5」(コンテンツID),「Xの冒険」(ネーム部),
「24」(メーカーID),「2」(分野ID)]、
[「12346」,「Y物語」,「24」,「2」]、
[「12347」,「Zファンタジー」,「24」,
「2」],・・・・が取得されてRAM412に格納されて
いるので、下位ボタンとして、「Xの冒険」,「Y物
語」,「Zファンタジー」,・・・・のそれぞれのテキスト
データを表示したボタンが表示される(図36は実際の
表示と細部が異なっている)。
[0135] Of the command buttons, the "lower buttons"
A link button for jumping to a lower item. In this example, in step S23,
Content whose genre ID is “322” registered in the content name master 413G, [1234
5 "(content ID)," Adventure of X "(name part),
"24" (manufacturer ID), "2" (field ID)],
["12346", "Y story", "24", "2"],
["12347", "Z Fantasy", "24",
... Are acquired and stored in the RAM 412. As the lower buttons, text data of “X adventure”, “Y story”, “Z fantasy”,. Is displayed (FIG. 36 differs from the actual display in details).

【0136】また、音声特徴IDは「0」であるため、
音声特徴テーブル413Pを参照して、案内文データ部
の「ご希望の商品をお選びください。」というテキスト
データは、「通常音声」の音声パラメータを使用して音
声合成部406によって音声合成されてスピーカ406
a,406bから出力される。更に、「Xの冒険」,
「Y物語」,「Zファンタジー」,・・・・というテキスト
データも同様に音声として出力される。
Also, since the voice feature ID is “0”,
With reference to the voice feature table 413P, the text data “Please select the desired product” in the guidance sentence data section is voice-synthesized by the voice synthesis section 406 using the voice parameter of “normal voice”. Speaker 406
a, 406b. Furthermore, "Adventure of X",
The text data “Y story”, “Z fantasy”,... Are also output as voice.

【0137】次に、図27に示すフローチャートを参照
して、図25のステップS11において実行されるコマ
ンド処理について説明する。
Next, the command processing executed in step S11 of FIG. 25 will be described with reference to the flowchart shown in FIG.

【0138】このコマンド処理において、まず、CPU
401は、図25のステップS7において音声認識部4
05から入力されたコマンドIDを取得して(ステップ
S40)、当該IDに対応するコマンドがその時点での
表示画面において実行可能なコマンドであるか否かを判
別する(ステップS41)。そして、ステップS41に
おいて、実行可能なコマンドでないと判別された場合に
は、CPU401は、エラーメッセージを画面表示、及
び音声の両方で出力し(ステップS42)、一連のコマ
ンド処理を終了して図25に示すコンテンツ表示処理の
ステップS4における入力待機状態に移行する。例え
ば、図33に示すような最初のメニュー画面において
は、前の画面に戻ることを指示するコマンドは実行する
ことができないため、その旨を伝えるエラーメッセージ
を出力することとなる。
In this command processing, first, the CPU
Reference numeral 401 denotes the voice recognition unit 4 in step S7 of FIG.
The command ID input from step 05 is acquired (step S40), and it is determined whether or not the command corresponding to the ID is a command executable on the display screen at that time (step S41). Then, when it is determined in step S41 that the command is not an executable command, the CPU 401 outputs an error message both on the screen and by sound (step S42), and ends a series of command processing to complete the processing in FIG. The processing shifts to the input standby state in step S4 of the content display processing shown in FIG. For example, in the first menu screen as shown in FIG. 33, since a command instructing to return to the previous screen cannot be executed, an error message to that effect is output.

【0139】一方、ステップS41において、実行可能
なコマンドであると判別された場合には、CPU401
は、図26のステップS24における処理と同様に、デ
ジタルカメラ407が取り込んだ画像を解析して利用客
の姿勢を判別する(ステップS43)。そして、CPU
401は、ステップS43の処理により判別した利用客
の姿勢が、商品販売情報処理端末装置4に正対し、メニ
ューを利用する姿勢であるか否かを判別し(ステップS
44)、メニューを利用する姿勢であると判別された場
合には、図25のステップS6における音声認識処理時
にRAM412に保持されていた音声サンプルと前記音
声認識部405から入力されたIDとを対応づけて取得
音声データ413Qに格納する(ステップS45)。
On the other hand, if it is determined in step S41 that the command is executable, the CPU 401
Analyzes the image captured by the digital camera 407 to determine the attitude of the customer, similarly to the processing in step S24 of FIG. 26 (step S43). And CPU
401 determines whether or not the attitude of the customer determined by the processing of step S43 is the attitude to use the menu directly facing the product sales information processing terminal device 4 (step S43).
44) If it is determined that the attitude is to use the menu, the voice sample held in the RAM 412 at the time of the voice recognition processing in step S6 in FIG. 25 corresponds to the ID input from the voice recognition unit 405. Then, it is stored in the acquired voice data 413Q (step S45).

【0140】一方、ステップS44において、メニュー
を利用する姿勢でないと判別された場合には、CPU4
01は、メイン表示部403にコマンドを実行すること
を確認する画面の表示データを出力して表示画面に表示
させ(ステップS49)、この確認画面に表示されたボ
タン(例えば、[はい]と[いいえ])を利用客が操作
することにより、コマンドを実行してもよいと指示入力
されたか否かを、入力部402から入力される座標デー
タに基づいて判別する(ステップS50)。
On the other hand, if it is determined in step S44 that the posture is not the one using the menu, the CPU 4
01 outputs display data of a screen for confirming execution of a command to the main display unit 403 and causes the display screen to display the data (step S49), and displays the buttons (for example, [Yes] and [Yes]) displayed on the confirmation screen. No]) is determined based on the coordinate data input from the input unit 402 as to whether or not the user has input an instruction that the command may be executed by operating the command (step S50).

【0141】そして、ステップS50において、コマン
ドを実行してもよいと指示入力されたと判別された場合
には、CPU401は、ステップS45に移行して図2
5のステップS6における音声認識処理時にRAM41
2に保持されていた音声サンプルと前記音声認識部40
5から入力されたIDとを対応づけて取得音声データ4
13Qに格納し、コマンドを実行しないと指示入力され
たと判別された場合には、一連の項目処理を終了して図
25に示すコンテンツ表示処理のステップS4における
入力待機状態に移行する。
If it is determined in step S50 that an instruction to execute a command has been input, the CPU 401 proceeds to step S45 and proceeds to step S45.
RAM 41 during the voice recognition process in step S6 of FIG.
2 and the speech recognition unit 40
Acquisition voice data 4 in association with the ID input from 5
If it is determined that the instruction is not input and the command is not executed, a series of item processing is terminated, and the process shifts to an input standby state in step S4 of the content display processing shown in FIG.

【0142】ステップS45の処理を終えたCPU40
1は、前記音声認識部405から入力されたコマンドI
Dに対応するコマンドプログラムをRAM412から読
みだして(ステップS46)、実行する(ステップS4
7)。この際、案内文データテーブル413Lを参照
し、その時点での画面表示に対応するリンクデータに基
づいて、案内表示データをメイン表示部403に対して
出力してメイン表示部403の表示画面に表示させると
ともに、案内音声データを音声合成部406に対して出
力してスピーカ406a,406bから案内音声を出力
させ(ステップS48)、一連のコマンド処理を終了し
て図25に示すコンテンツ表示処理のステップS4にお
ける入力待機状態に移行する。このステップS48の処
理は、図8に示す案内出力処理に該当する。
CPU 40 that has completed the process of step S45
1 is a command I input from the voice recognition unit 405
The command program corresponding to D is read from the RAM 412 (step S46) and executed (step S4).
7). At this time, by referring to the guidance sentence data table 413L, the guidance display data is output to the main display unit 403 and displayed on the display screen of the main display unit 403 based on the link data corresponding to the screen display at that time. At the same time, guidance voice data is output to the voice synthesis unit 406, and guidance voices are output from the speakers 406a and 406b (step S48), and a series of command processing is completed to complete step S4 of the content display processing shown in FIG. To the input standby state at. The process of step S48 corresponds to the guidance output process shown in FIG.

【0143】例えば、利用客が「戻る」と発話し、図2
5のステップS7において音声認識されて特定された単
語が「戻る」であった場合には、CPU401は、コマ
ンドプログラムに従って一つ前の画面表示に戻る。
For example, when the user speaks “return”, FIG.
If the word identified by voice recognition in step S7 of No. 5 is “return”, the CPU 401 returns to the previous screen display according to the command program.

【0144】また、例えば、音声認識されて特定された
単語が「欲しい」であった場合には、CPU401は、
コマンドプログラムに従って、案内文データテーブル4
13Lの案内文ID「113」のデータを読み出して、
案内文データ部の「この商品を購入しますか?」という
テキストデータをメイン表示部403の表示画面に表示
させる。このとき、背景画像IDは「6」であるため、
背景画像テーブル413Mを参照して対応する背景画像
を表示し、文字修飾IDは「5」であるため、文字修飾
テーブル413Nを参照して対応する文字修飾を行い、
コマンドボタンIDは「0、5」であるため、コマンド
ボタンテーブル413Oを参照して対応するコマンドボ
タンを表示することとなる。
For example, when the word identified by voice recognition is “want”, the CPU 401
Guide text data table 4 according to the command program
Read the data of the guidance text ID “113” of 13L,
Text data “Do you want to purchase this product?” In the guidance text data section is displayed on the display screen of the main display section 403. At this time, since the background image ID is “6”,
The corresponding background image is displayed with reference to the background image table 413M. Since the character modification ID is “5”, the corresponding character modification is performed with reference to the character modification table 413N.
Since the command button ID is “0,5”, the corresponding command button is displayed with reference to the command button table 413O.

【0145】また、音声特徴IDは「1」であるため、
音声特徴テーブル413Pを参照して、案内文データ部
の「この商品を購入しますか?」というテキストデータ
は、「確認音声」の音声パラメータを使用して音声合成
部406によって音声合成されてスピーカ406a,4
06bから出力される。更に、選択中の商品、例えば
「Zファンタジー」というテキストデータも同様に音声
として出力される。
Since the voice feature ID is “1”,
Referring to the voice feature table 413P, the text data of "Do you want to purchase this product?" In the guidance sentence data section is voice-synthesized by the voice synthesis section 406 using the voice parameter of "confirmation voice", and the speaker is output. 406a, 4
06b. Further, the selected product, for example, text data of "Z fantasy" is also output as voice.

【0146】以上が、商品販売情報処理端末装置4によ
って実行されるコンテンツ表示処理についての説明であ
る。このコンテンツ表示処理によれば、利用客の音声を
音声認識した後、認識結果として特定された単語、及び
そのリンク関係をコンテンツネームマスター413Gか
ら取得してメニュー体系を構築した後、メイン表示部4
03によって表示出力するとともに、音声合成部406
によって音声出力を行う。
The above is the description of the content display processing executed by the merchandise sales information processing terminal device 4. According to the content display processing, after the voice of the customer is recognized, the word specified as the recognition result and the link relation thereof are acquired from the content name master 413G to construct a menu system, and then the main display unit 4
03 for display output, and a voice synthesis unit 406.
To output audio.

【0147】したがって、商品販売情報処理端末装置4
の利用客は、階層構造を深く下りていくことによってコ
ンテンツにたどり着く煩雑さを感じることなく、希望す
るコンテンツの情報を直接的に容易に得ることができる
ため、商品販売情報処理端末装置4の使い勝手が向上す
る。
Therefore, the product sales information processing terminal device 4
Of the product sales information processing terminal device 4 can easily and directly obtain the information of the desired content without feeling the complexity of arriving at the content by going down the hierarchical structure deeply. Is improved.

【0148】次に、図28を参照して商品販売情報処理
システム1全体としての音声認識辞書学習処理について
説明する。本実施の形態において音声認識辞書とは、音
声パターンテーブル413A、コマンド音声テーブル4
13B、コンテンツ音声テーブル413C、メーカー音
声テーブル413D、ジャンル音声テーブル413E、
及び分野音声テーブル413Fを指す。
Next, the speech recognition dictionary learning process as the whole product sales information processing system 1 will be described with reference to FIG. In this embodiment, the voice recognition dictionary is a voice pattern table 413A, a command voice table 4
13B, a content audio table 413C, a maker audio table 413D, a genre audio table 413E,
And the field audio table 413F.

【0149】各地に点在する店舗Aに設置された商品販
売情報処理端末装置4には、コンテンツ表示処理を示す
図25のステップS6における音声パターン判別時に、
周波数解析処理の結果としての音素データ等のパラメー
タが音声サンプルとしてRAM412に保持されてい
る。そして、項目処理を示す図26のステップS25に
おいてメニュー利用の姿勢であると判別されるか、ある
いは、ステップS29において項目ジャンプをする指示
入力であると判別されるかのいずれかの状態になると、
CPU401は、利用客の発話内容と音声認識部405
による認識処理の結果が一致したと判断して、RAM4
12に保持されていた音声サンプルと音声認識部405
から入力されたIDとを対応づけて取得音声データ41
3Qに格納する。また、CPU401は、コマンド処理
においても同様の処理により音声サンプルとIDとを対
応づけて取得音声データ413Qに格納する。
The commodity sales information processing terminal devices 4 installed in the stores A scattered around the country are provided with the sound pattern discrimination process in step S6 in FIG.
Parameters such as phoneme data as a result of the frequency analysis processing are stored in the RAM 412 as voice samples. When it is determined in step S25 of FIG. 26 indicating the item processing that the posture is the menu use posture or in step S29 that the input is an instruction input for performing an item jump,
The CPU 401 determines the utterance content of the customer and the voice recognition unit 405.
It is determined that the result of the recognition processing by
12 and the voice recognition unit 405
Acquisition audio data 41 in association with the ID input from
Store in 3Q. The CPU 401 stores the acquired audio data 413Q in association with the audio sample and the ID by the same processing in the command processing.

【0150】このようにして生成された取得音声データ
413Qは、定期的に(例えば、毎日定時に)商品販売
情報管理装置3に対して送信される。商品販売情報管理
装置3は、図28に示すように、各地に点在する店舗A
に設置された商品販売情報処理端末装置4から送信され
た取得音声データ413Qを受信して、取得音声データ
37AとしてHDドライブ36内に格納する。そして、
商品販売情報管理装置3のCPU31は、音声認識辞書
学習プログラムに従って取得音声データ37Aを解析し
て音声認識辞書の学習や容量の最適化を行い、学習済の
データを学習音声データ37DとしてHDドライブ36
内に格納する。
[0150] The acquired voice data 413Q generated in this manner is transmitted to the merchandise sales information management device 3 periodically (for example, at regular time every day). As shown in FIG. 28, the merchandise sales information management device 3 stores stores A
And receives the acquired audio data 413Q transmitted from the product sales information processing terminal device 4 installed in the HD drive 36 as the acquired audio data 37A. And
The CPU 31 of the merchandise sales information management device 3 analyzes the acquired voice data 37A according to the voice recognition dictionary learning program to perform learning and capacity optimization of the voice recognition dictionary, and uses the learned data as learning voice data 37D in the HD drive 36.
Store in.

【0151】更に、図28に示すように、CPU31
は、通信装置34の送信処理を制御して学習音声データ
37Dを各地に点在する店舗Aに設置された商品販売情
報処理端末装置4に対して配信する。そして、商品販売
情報処理端末装置4は、商品販売情報管理装置3から受
信した学習音声データ37Dに基づいて、音声パターン
テーブル413A、コマンド音声テーブル413B、コ
ンテンツ音声テーブル413C、メーカー音声テーブル
413D、ジャンル音声テーブル413E、及び分野音
声テーブル413Fをそれぞれ更新する、あるいは差分
データの追加を行う。
Further, as shown in FIG.
Controls the transmission process of the communication device 34 and distributes the learning voice data 37D to the merchandise sales information processing terminal device 4 installed in the stores A scattered around. Then, based on the learning voice data 37D received from the merchandise sales information management device 3, the product sales information processing terminal device 4 generates a voice pattern table 413A, a command voice table 413B, a content voice table 413C, a maker voice table 413D, and a genre voice. The table 413E and the field voice table 413F are updated, or difference data is added.

【0152】このような音声認識辞書学習処理によっ
て、従来の音声認識装置においては困難であった不特定
話者の多数の音声サンプル収集を、各地に点在する店舗
Aに設置された商品販売情報処理端末装置4からの取得
音声データ413Qを受信する商品販売情報管理装置3
によって容易に実現して、多数の音声サンプルを用いた
ことによって音声認識精度向上に有効な音声認識辞書学
習結果を、商品販売情報処理端末装置4にフィードバッ
クすることができるため、商品販売情報処理端末装置4
における音声認識処理の精度を向上させることができ、
利用客に対するサービスの質を向上させることができ
る。
By such a speech recognition dictionary learning process, collection of a large number of speech samples of unspecified speakers, which was difficult in the conventional speech recognition apparatus, can be performed by merchandise sales information installed in stores A scattered in various places. Merchandise sales information management device 3 that receives acquired voice data 413Q from processing terminal device 4
Since the speech recognition dictionary learning result effective for improving speech recognition accuracy by using a large number of speech samples can be fed back to the product sales information processing terminal device 4 easily, the product sales information processing terminal Device 4
Can improve the accuracy of voice recognition processing in
The quality of service for customers can be improved.

【0153】また、商品販売情報処理端末装置4が設置
される店舗A毎に周囲環境による定常雑音(近隣の道路
の騒音等)が異なることや、各店舗Aに設置された商品
販売情報処理端末装置4を頻繁に利用する利用客の音声
に対する認識精度の向上を考慮すれば、各地に点在する
店舗Aに設置された商品販売情報処理端末装置4毎に音
声認識辞書学習処理を行うことが有効である。この際、
商品販売情報処理端末装置4は、HDドライブ413内
に音声認識辞書学習処理プログラムを格納しており、こ
のプログラムに従い、HDドライブ413に格納された
取得音声データ413Qに基づいて、音声パターンテー
ブル413A、コマンド音声テーブル413B、コンテ
ンツ音声テーブル413C、メーカー音声テーブル41
3D、ジャンル音声テーブル413E、及び分野音声テ
ーブル413Fをそれぞれ更新する、あるいは差分デー
タの追加を行う。
Further, the fact that the stationary noise (such as the noise of nearby roads) due to the surrounding environment differs for each store A in which the product sales information processing terminal device 4 is installed, and that the product sales information processing terminal installed in each store A Considering the improvement of the recognition accuracy for the voices of the users who frequently use the apparatus 4, it is possible to perform the voice recognition dictionary learning process for each of the merchandise sales information processing terminal apparatuses 4 installed in stores A scattered around the country. It is valid. On this occasion,
The merchandise sales information processing terminal device 4 stores a voice recognition dictionary learning processing program in the HD drive 413. According to this program, based on the obtained voice data 413Q stored in the HD drive 413, the voice pattern table 413A, Command voice table 413B, content voice table 413C, maker voice table 41
The 3D, genre audio table 413E, and field audio table 413F are each updated, or difference data is added.

【0154】更に、以上説明した2種類の音声認識辞書
学習処理を併用することも可能である。そして、このよ
うな各店舗A毎の環境の差異を考慮した音声認識辞書学
習処理によって、更に、商品販売情報処理端末装置4に
おける音声認識処理の精度を向上させることができ、利
用客に対するサービスの質を向上させることができる。
Further, the two types of speech recognition dictionary learning processes described above can be used together. The accuracy of the voice recognition process in the product sales information processing terminal device 4 can be further improved by such a voice recognition dictionary learning process in consideration of the difference in the environment of each store A, and the service to the customer can be improved. Quality can be improved.

【0155】また、商品販売情報管理装置3から商品販
売情報処理端末装置4に対して新規コンテンツのデータ
としての追加データ37Cを配信する際には、図29に
示すように、例えば、関東圏、関西圏などの地域別の情
報を配信することが有効である。図29においては、商
品販売情報管理装置3は、関東圏用、及び関西圏用の追
加データ37Cをそれぞれ個別に有しており、関東圏に
属する商品販売情報処理端末装置4に対しては関東圏用
の追加データ37Cを配信し、関西圏に属する商品販売
情報処理端末装置4に対しては関西圏用の追加データ3
7Cを配信する。このように、追加データ37Cとして
複数種類のデータを用意して地域ごとに配信内容を変更
することにより、地域限定の商品等にも対応することが
可能となる。
When the additional data 37C as new content data is distributed from the merchandise sales information management device 3 to the merchandise sales information processing terminal device 4, as shown in FIG. It is effective to distribute regional information such as the Kansai area. In FIG. 29, the merchandise sales information management apparatus 3 has additional data 37C for the Kanto area and the additional data 37C for the Kansai area, respectively. The additional data 37C for the area is distributed, and the additional data 3 for the Kansai area is transmitted to the merchandise sales information processing terminal device 4 belonging to the Kansai area.
Deliver 7C. In this way, by preparing a plurality of types of data as the additional data 37C and changing the distribution content for each region, it is possible to deal with products limited to the region.

【0156】この際、商品販売情報処理端末装置4がい
ずれの地域に属するかを判別するためには、例えば、商
品販売情報処理端末装置4から商品販売情報管理装置3
への送信処理時の認証処理において、認証情報(ログイ
ン名、パスワード等)によって判別する。
At this time, in order to determine which region the merchandise sales information processing terminal device 4 belongs to, for example, the merchandise sales information processing device 3
In the authentication processing at the time of transmission processing to the server, it is determined based on authentication information (login name, password, etc.).

【0157】なお、本実施の形態においては、本発明の
情報提供システムを適用した一例として商品販売情報処
理システム1について詳細に説明したが、本発明を商品
以外の他の情報を提供するシステムに適用することも可
能である。
In this embodiment, the product sales information processing system 1 has been described in detail as an example to which the information providing system of the present invention is applied. However, the present invention is applied to a system for providing information other than products. It is also possible to apply.

【0158】また、上記実施の形態において説明した商
品情報処理端末装置4は、マイク(音声入力部)とスピ
ーカ(音声応答部)を別個に設けたが、有線電話機のハ
ンドセットや無線電話機を備えるように構成しても良
い。すなわち、図6の商品販売情報処理端末装置4に対
して、操作台部4aの右側面にハンドセット490を備
えた商品販売情報処理端末装置100の変形例を示した
図30のように、商品販売情報処理端末装置100は、
上記図6に示した商品販売情報処理端末装置4の操作台
部4aの右側面に、新たにハンドセット490と、フッ
ク490aとを備えた構成としても良い。また、この場
合の商品販売情報処理端末装置100の概略内部構成を
図31に示す。この図31において、ハンドセット49
0は、音声認識部405と、音声合成部406とに接続
されており、音声認識部405は、ハンドセット490
と、マイク405a、405bとを、音声合成部406
は、ハンドセット490と、スピーカ406a、406
bとを、ハンドセット490の状態に応じて切り換えて
接続する。
Although the product information processing terminal device 4 described in the above embodiment is provided with a microphone (voice input unit) and a speaker (voice response unit) separately, it may be provided with a handset of a wired telephone or a wireless telephone. May be configured. That is, as shown in FIG. 30, which shows a modification of the product sales information processing terminal device 100 provided with the handset 490 on the right side of the operation console 4a, as shown in FIG. The information processing terminal device 100
The handset 490 and the hook 490a may be newly provided on the right side surface of the operation console 4a of the commodity sales information processing terminal device 4 shown in FIG. FIG. 31 shows a schematic internal configuration of the product sales information processing terminal device 100 in this case. In FIG. 31, the handset 49
0 is connected to the voice recognition unit 405 and the voice synthesis unit 406, and the voice recognition unit 405
And the microphones 405a and 405b,
Is a handset 490 and speakers 406a, 406
b is switched and connected according to the state of the handset 490.

【0159】このため、ハンドセット490が利用客に
より取り上げられると、ハンドセット490により垂下
されていたフック490aによりハンドセット490が
利用状態となったことが検知され、マイク405a、4
05bと、スピーカ406a、406bによる音声入力
と応答音声の出力が、音声認識部405及び音声合成部
406により、ハンドセット490に切り替わる。この
ため、利用客は、ハンドセット490のみによる音声入
力や応答音声の聴聞ができるため、利用客のプライバシ
ーを保護することができる。また、周囲に音声が漏れる
ことがないため、商品販売情報処理端末装置100が設
置されるコンビニエンスストア等の他の利用客に迷惑と
ならずに、商品販売情報処理端末装置100を利用する
ことができる。なお、このハンドセット490は、操作
台部4aの右側面に備えることとして説明したが、左側
面や操作台部4aの台上、起立部4bの前面等に備える
こととしても良い。
For this reason, when the handset 490 is picked up by the user, the hook 490a suspended by the handset 490 detects that the handset 490 has been used, and the microphones 405a,
The voice recognition unit 405 and the voice synthesis unit 406 switch the voice input 05b and the voice input and the response voice output from the speakers 406a and 406b to the handset 490. For this reason, the customer can listen to the voice input and the response voice only by using the handset 490, so that the privacy of the user can be protected. In addition, since no sound is leaked to the surroundings, the product sales information processing terminal device 100 can be used without disturbing other customers such as a convenience store where the product sales information processing terminal device 100 is installed. it can. Although the handset 490 has been described as being provided on the right side of the operation console 4a, it may be provided on the left side, on the platform of the operation console 4a, or on the front of the upright portion 4b.

【0160】[0160]

【発明の効果】本発明によれば、情報提供装置の情報格
納手段に格納する各種情報、識別項目、及び分類項目
が、情報管理装置から送信されるため、容易に追加する
ことができ、これによって、たとえば、多数の情報提供
装置を設置した場合にも、各種情報等の追加を容易に行
うことができ、人件費や労力負担の増加を防ぐことがで
きる。また、発売直後の情報など、利用者が希望する情
報を速やかに販売することができ、利用者の利便性を高
めることができる。
According to the present invention, the information format of the information providing device is
Various information, identification items, and classification items stored in the delivery means
Is easily transmitted because it is sent from the information management device.
This allows, for example, a large number of information provisions
Even when equipment is installed, it is easy to add various information, etc.
Can prevent labor and labor costs from increasing.
Wear. Information desired by the user, such as information immediately after release
Information can be sold promptly, enhancing user convenience.
Can be

【0161】また、従来の音声認識装置においては困難
であった不特定話者の多数の音声サンプルの収集とその
認識結果を、音声認識辞書の更新情報として、情報管理
装置が複数の情報提供装置から受信することによって容
易に実現し、多数の音声サンプルを用いたことによっ
て、情報管理装置内で管理された音声認識辞書の音声認
識精度を向上させることができる。また、この情報管理
装置内で管理された音声認識辞書が情報提供装置にフィ
ードバックされることにより、情報提供装置における音
声認識処理の精度を向上させることができ、利用客に対
するサービスの質を向上させることができる。
In addition, it is difficult with a conventional speech recognition device.
Of a large number of speech samples from unspecified speakers
Information management using recognition results as update information of the speech recognition dictionary
The device receives the information from multiple information
Easy to implement and use a large number of audio samples.
The voice recognition dictionary managed by the information management device.
The recognition accuracy can be improved. Also, this information management
The speech recognition dictionary managed in the device is
The sound in the information providing device
The accuracy of voice recognition processing can be improved,
The quality of the service provided can be improved.

【0162】[0162]

【0163】[0163]

【0164】[0164]

【0165】[0165]

【0166】[0166]

【0167】[0167]

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の一実施の形態の商品販売情報処理シス
テム1における情報のやりとりを概念的に示した全体構
成図である。
FIG. 1 is an overall configuration diagram conceptually showing exchange of information in a product sales information processing system 1 according to an embodiment of the present invention.

【図2】商品販売情報処理システム1を構成する販売管
理センターB、及び店舗Aに設置される各装置の接続関
係を示すブロック図である。
FIG. 2 is a block diagram showing a connection relationship between devices installed in a sales management center B and a store A which constitute the product sales information processing system 1;

【図3】図2に示す商品販売情報管理装置3の概略内部
構成を示すブロック図である。
FIG. 3 is a block diagram showing a schematic internal configuration of a merchandise sales information management device 3 shown in FIG. 2;

【図4】図3に示すHDドライブ36内に格納される送
受信データの構成を示す図である。
FIG. 4 is a diagram showing a configuration of transmission / reception data stored in an HD drive 36 shown in FIG.

【図5】図2に示す商品販売情報処理端末装置4の概略
内部構成を示す図である。
FIG. 5 is a diagram showing a schematic internal configuration of a product sales information processing terminal device 4 shown in FIG. 2;

【図6】図5に示すような内部構成によって実現される
商品販売情報処理端末装置4の概略外観の一例を示す図
である。
6 is a diagram showing an example of a schematic external appearance of a product sales information processing terminal device 4 realized by the internal configuration as shown in FIG.

【図7】HDドライブ413に装着されるHDに格納さ
れる各種データの構成を示す図である。
FIG. 7 is a diagram illustrating a configuration of various data stored in an HD mounted on an HD drive 413.

【図8】商品販売情報処理端末装置4の処理の流れと図
7に示す各種データの関係を示す図である。
8 is a diagram showing the relationship between the processing flow of the product sales information processing terminal device 4 and the various data shown in FIG. 7;

【図9】図7に示す音声パターンテーブル413Aの具
体的な構成例を示す図である。
FIG. 9 is a diagram showing a specific configuration example of a voice pattern table 413A shown in FIG.

【図10】図7に示すコマンド音声テーブル413Bの
具体的な構成例を示す図である。
10 is a diagram showing a specific configuration example of a command voice table 413B shown in FIG.

【図11】図7に示すコンテンツ音声テーブル413C
の具体的な構成例を示す図である。
FIG. 11 is a content audio table 413C shown in FIG.
FIG. 3 is a diagram showing a specific configuration example of FIG.

【図12】図7に示すメーカー音声テーブル413Dの
具体的な構成例を示す図である。
12 is a diagram illustrating a specific configuration example of a maker voice table 413D illustrated in FIG. 7;

【図13】図7に示すジャンル音声テーブル413Eの
具体的な構成例を示す図である。
13 is a diagram showing a specific configuration example of a genre audio table 413E shown in FIG.

【図14】図7に示す分野音声テーブル413Fの具体
的な構成例を示す図である。
14 is a diagram showing a specific configuration example of a field audio table 413F shown in FIG.

【図15】図7に示すコンテンツネームマスター413
Gの具体的な構成例を示す図である。
15 is a content name master 413 shown in FIG.
FIG. 9 is a diagram illustrating a specific configuration example of G.

【図16】図7に示すコンテンツデータマスター413
Hの具体的な構成例を示す図である。
16 is a content data master 413 shown in FIG.
FIG. 3 is a diagram illustrating a specific configuration example of H.

【図17】図7に示すメーカーネームマスター413I
の具体的な構成例を示す図である。
17 is a maker name master 413I shown in FIG.
FIG. 3 is a diagram showing a specific configuration example of FIG.

【図18】図7に示すジャンルネームマスター413J
の具体的な構成例を示す図である。
18 is a genre name master 413J shown in FIG.
FIG. 3 is a diagram showing a specific configuration example of FIG.

【図19】図7に示す分野ネームマスター413Kの具
体的な構成例を示す図である。
FIG. 19 is a diagram showing a specific configuration example of a field name master 413K shown in FIG.

【図20】図7に示す案内文データテーブル413Lの
具体的な構成例を示す図である。
20 is a diagram illustrating a specific configuration example of a guidance sentence data table 413L illustrated in FIG. 7;

【図21】図7に示す背景画像テーブル413Mの具体
的な構成例を示す図である。
21 is a diagram illustrating a specific configuration example of a background image table 413M illustrated in FIG. 7;

【図22】図7に示す文字修飾テーブル413Nの具体
的な構成例を示す図である。
FIG. 22 is a diagram illustrating a specific configuration example of a character modification table 413N illustrated in FIG. 7;

【図23】図7に示すコマンドボタンテーブル413O
の具体的な構成例を示す図である。
FIG. 23 is a command button table 413O shown in FIG. 7;
FIG. 3 is a diagram showing a specific configuration example of FIG.

【図24】図7に示す音声特徴テーブル413Pの具体
的な構成例を示す図である。
24 is a diagram showing a specific configuration example of a voice feature table 413P shown in FIG.

【図25】商品販売情報処理端末装置4によって実行さ
れるコンテンツ表示処理について説明するフローチャー
トである。
FIG. 25 is a flowchart illustrating a content display process performed by the product sales information processing terminal device 4.

【図26】図25のステップS9において実行される項
目処理について説明するフローチャートである。
FIG. 26 is a flowchart illustrating an item process performed in step S9 of FIG. 25;

【図27】図25のステップS11において実行される
コマンド処理について説明するフローチャートである。
FIG. 27 is a flowchart illustrating command processing executed in step S11 of FIG. 25;

【図28】商品販売情報処理システム1全体としての音
声認識辞書学習処理について説明する図である。
FIG. 28 is a diagram illustrating a speech recognition dictionary learning process as the whole product sales information processing system 1.

【図29】地方語等の影響を考慮して、所定範囲(地
方、県等)毎に個別の音声認識辞書を学習する場合を示
す図である。
FIG. 29 is a diagram showing a case in which an individual speech recognition dictionary is learned for each predetermined range (region, prefecture, etc.) in consideration of the influence of local languages and the like.

【図30】図6の商品販売情報処理端末装置4に対し
て、操作台部4aの右側面にハンドセット490を備え
た変形例である商品販売情報処理端末装置100を示し
た概観斜視図である。
30 is a schematic perspective view showing a product sales information processing terminal device 100 which is a modification of the product sales information processing terminal device 4 shown in FIG. 6 and having a handset 490 on the right side surface of the operation console 4a. .

【図31】図30に示す商品販売情報処理端末装置10
0の概略内部構成を示すブロック図である。
FIG. 31 is a merchandise sales information processing terminal device 10 shown in FIG.
FIG. 2 is a block diagram showing a schematic internal configuration of a block 0.

【図32】階層構造となっているメニューの構成の例を
示す図である。
FIG. 32 is a diagram showing an example of the configuration of a menu having a hierarchical structure.

【図33】初期メニュー画面の例を示す図である。FIG. 33 is a diagram showing an example of an initial menu screen.

【図34】図33に示す画面において「ゲーム」を選択
した場合に表示されるジャンル選択画面の例を示す図で
ある。
FIG. 34 is a diagram showing an example of a genre selection screen displayed when “game” is selected on the screen shown in FIG. 33.

【図35】図34に示す画面において「RPG」を選択
した場合に表示されるメーカー選択画面の例を示す図で
ある。
FIG. 35 is a diagram showing an example of a manufacturer selection screen displayed when “RPG” is selected on the screen shown in FIG. 34;

【図36】図35に示す画面において「A社」を選択し
た場合に表示される商品選択画面の例を示す図である。
36 is a diagram illustrating an example of a product selection screen displayed when “Company A” is selected on the screen illustrated in FIG. 35;

【図37】図36に示す画面において「Zファンタジ
ー」を選択した場合に表示される商品案内画面の例を示
す図である。
FIG. 37 is a diagram showing an example of a product guidance screen displayed when “Z Fantasy” is selected on the screen shown in FIG. 36;

【符号の説明】 1 商品販売情報処理システム 2 ネットワーク 3 商品販売情報管理装置 31 CPU 32 入力装置 33 表示装置 34 通信装置 35 RAM 36 HDドライブ 38 バス 4、100 商品販売情報処理端末装置 4a 操作台部 4b 起立部 401 CPU 402 入力部 403 メイン表示部 404 サブ表示部 405 音声認識部 405a マイク 405b マイク 406 音声合成部 406a スピーカ 406b スピーカ 407 デジタルカメラ 407a レンズ 408 通信制御部 409 レシート発行部 410 チケット発行部 411 ROM 412 RAM 413 HDドライブ 414 スキャナ 415 プリンタ 416 メモリカードドライブ 417 ディスクメディアドライブ 418 予備ドライブ 419 バス 420 推奨表示部 421 用紙挿入・排出部 422 物掛け部 490 ハンドセット 490a フック[Description of Signs] 1 Commodity sales information processing system 2 Network 3 Commodity sales information management device 31 CPU 32 Input device 33 Display device 34 Communication device 35 RAM 36 HD drive 38 Bus 4, 100 Commodity sales information processing terminal device 4a Operation console section 4b Standing unit 401 CPU 402 Input unit 403 Main display unit 404 Sub display unit 405 Voice recognition unit 405a Microphone 405b Microphone 406 Voice synthesis unit 406a Speaker 406b Speaker 407 Digital camera 407a Lens 408 Communication control unit 409 Receipt issuing unit 410 Ticket issuing unit 411 ROM 412 RAM 413 HD drive 414 Scanner 415 Printer 416 Memory card drive 417 Disk media drive 418 Spare drive 419 Bus 420 Recommended Display section 421 Paper insertion / ejection section 422 Hanging section 490 Handset 490a Hook

フロントページの続き (51)Int.Cl.7 識別記号 FI G10L 15/28 G06F 3/16 340A (56)参考文献 特開 平2−247885(JP,A) 特開 平2−151900(JP,A) 特開 平2−204797(JP,A) 特開 平9−212644(JP,A) 特開 平10−188103(JP,A) 特開 平2−42493(JP,A) 特開 平10−188128(JP,A) 特開 平10−177381(JP,A) 特開 平9−265731(JP,A) (58)調査した分野(Int.Cl.7,DB名) G07F 17/00 - 17/42 G07F 1/00 - 3/04 G07F 5/00 - 9/10 102 G07F 11/00 - 11/72 G07F 13/00 - 15/12 G07B 1/00 - 9/02 G07B 11/00 - 17/04 G06F 15/20 - 15/20 102 G06F 15/21 - 15/21 360 G06F 15/24 - 15/28 G07C 1/00 - 15/00 G06F 3/16 - 3/16 340 G06F 15/40 - 15/419 G11B 27/00 - 27/08 G11B 27/10 - 27/34 G10L 3/00 301 G01L 3/02 301 G01L 5/06 G01L 7/08 G01L 9/00 - 9/20 301 G10L 3/00 - 9/20 G07D 1/00 - 1/08 G07D 3/00 - 3/16 G07D 9/00 - 9/06 G09G 1/00 301 - 321 G09G 5/00 - 5/40 A61B 5/06 - 5/22 G10K 15/00 - 15/06 H04H 1/00 - 1/14 H04N 7/10 H04N 7/14 - 7/173 H04N 7/20 - 7/22 H04B 1/06 H04B 1/16 G11B 31/00 G10H 1/00 101 - 102 G11B 31/02 Continuation of the front page (51) Int.Cl. 7 identification code FI G10L 15/28 G06F 3/16 340A (56) References JP-A-2-247885 (JP, A) JP-A-2-151900 (JP, A JP-A-2-204797 (JP, A) JP-A-9-212644 (JP, A) JP-A-10-188103 (JP, A) JP-A-2-42493 (JP, A) JP-A-10-208 188128 (JP, A) JP-A-10-177381 (JP, A) JP-A-9-265731 (JP, A) (58) Fields investigated (Int. Cl. 7 , DB name) G07F 17/00-17 / 42 G07F 1/00-3/04 G07F 5/00-9/10 102 G07F 11/00-11/72 G07F 13/00-15/12 G07B 1/00-9/02 G07B 11/00-17 / 04 G06F 15/20-15/20 102 G06F 15/21-15/21 360 G06F 15/24-15/28 G07C 1/00-15/00 G06F 3/16-3/16 340 G06F 15/40-15 / 419 G11B 27/00-27/08 G11B 27/10-27/34 G10L 3/00 301 G01L 3/02 301 G01L 5/06 G01L 7/08 G01L 9/00-9/20 301 G10L 3/00- 9/20 G07D 1/00-1/08 G07D 3/00-3/16 G07D 9/00-9/06 G09G 1/00 301-321 G09G 5/00-5/40 A61B 5/0 6-5/22 G10K 15/00-15/06 H04H 1/00-1/14 H04N 7/10 H04N 7/14-7/173 H04N 7/20-7/22 H04B 1/06 H04B 1/16 G11B 31/00 G10H 1/00 101-102 G11B 31/02

Claims (3)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】ネットワークサーバとしての情報管理装置
と、ネットワーククライアントとしての複数の情報提供
装置とが、ネットワークを介して接続されることによっ
て構成される情報提供システムであって、 前記情報管理装置は、 各種情報と、当該各種情報を識別する各種識別項目と、
当該各種情報の情報内容を複数の観点から分類するため
に該各種識別項目と関連付けられた各種分類項目とを随
時更新管理して格納する管理側情報格納手段と、 この管理側情報格納手段に格納された各種情報、各種識
別項目、及び各種分類項目を前記ネットワークを介して
前記複数の情報提供装置に配信する配信手段と、を備
え、 前記情報提供装置は、 前記情報管理装置から配信された各種情報、各種識別項
目、及び各種分類項目を前記ネットワークを介して受信
する受信手段と、 この受信手段により受信された各種情報、各種識別項
目、及び各種分類項目を対応付けて格納する情報格納手
段と、 音声を入力する音声入力手段と、 この音声入力手段から入力された音声を認識して文字情
報を得る音声認識手段と、 この音声認識手段により得られた文字情報から前記識別
項目あるいは前記分類項目に対応する語彙を抽出し、該
抽出語彙に対応する識別項目及び該識別項目に対応付け
られた情報、あるいは該抽出語彙に対応する分類項目及
び該分類項目に関連付けられた識別項目を前記情報格納
手段から検索する情報検索手段と、 この情報検索手段により検索された識別項目及び情報
を、その情報内容に応じた各種情報形態で出力し、ある
いは検索された分類項目及び識別項目を出力する情報出
力手段と、 前記音声認識手段が入力音声を認識するための音声認識
辞書を格納する認識辞書格納手段と、 前記音声認識手段による入力音声の認識結果に基づいて
前記認識辞書格納手段に格納された音声認識辞書を更新
する辞書更新手段と、 この辞書更新手段により更新された音声認識辞書の更新
情報を前記ネットワークを介して前記情報管理装置に送
信する送信手段と、を備え、 さらに、前記情報管理装置は、 前記情報提供装置から送信された音声認識辞書の更新情
報を受信する受信手段と、 この受信手段により受信された音声認識辞書の更新情報
に基づいて前記複数の情報提供装置において利用される
音声認識辞書を随時更新管理して格納する管理側辞書格
納手段と、を備え、 前記配信手段は、該管理側辞書格納手段により更新され
た音声認識辞書の更新情報を前記ネットワークを介して
前記複数の情報提供装置に配信し、前記情報提供装置
は、前記受信手段が前記情報管理装置から配信された音
声認識辞書の更新情報を前記ネットワークを介して受信
すると、前記辞書更新手段は、該受信された音声認識辞
書の更新情報と自己の音声認識辞書の内容とを比較し、
この比較結果に基づいて自己の音声認識辞書の内容を更
新することを特徴とする情報提供システム。
An information providing system comprising an information management device as a network server and a plurality of information providing devices as network clients connected via a network, wherein the information management device is , Various information, various identification items for identifying the various information,
A management-side information storage unit that updates and stores the various identification items and various classification items associated with the various identification items at any time in order to classify the information content of the various types of information from a plurality of viewpoints; Distribution means for distributing the obtained various information, various identification items, and various classification items to the plurality of information providing devices via the network, wherein the information providing device is configured to receive various types of information distributed from the information management device. A receiving unit that receives information, various identification items, and various classification items via the network; and an information storage unit that stores the various information, various identification items, and various classification items received by the receiving unit in association with each other. Voice input means for inputting voice; voice recognition means for recognizing voice input from the voice input means to obtain character information; A vocabulary corresponding to the identification item or the classification item is extracted from the obtained character information, and an identification item corresponding to the extracted vocabulary and information associated with the identification item, or a classification item corresponding to the extracted vocabulary, An information retrieval means for retrieving an identification item associated with the classification item from the information storage means, and outputting the identification item and the information retrieved by the information retrieval means in various information forms according to the information content; or Information output means for outputting the searched classification item and identification item; recognition dictionary storage means for storing a speech recognition dictionary for the speech recognition means to recognize input speech; and recognition results of the input speech by the speech recognition means Dictionary updating means for updating the speech recognition dictionary stored in the recognition dictionary storage means based on the speech recognition dictionary; and a speech recognition dictionary updated by the dictionary updating means. Transmission means for transmitting the update information of the document to the information management device via the network, further comprising: receiving the update information of the speech recognition dictionary transmitted from the information providing device. Means, and a management-side dictionary storage means for updating and storing the speech recognition dictionaries used in the plurality of information providing apparatuses at any time based on the update information of the speech recognition dictionary received by the receiving means, The delivery means delivers update information of the speech recognition dictionary updated by the management dictionary storage means to the plurality of information providing apparatuses via the network, and the information providing apparatus further comprises: Receiving the update information of the speech recognition dictionary distributed from the device via the network, the dictionary updating means updates the received speech recognition dictionary update information. And the contents of your own voice recognition dictionary,
An information providing system for updating the contents of its own voice recognition dictionary based on the comparison result.
【請求項2】ネットワークサーバとしての情報管理装置
と、ネットワーククライアントとしての複数の情報提供
装置とが、ネットワークを介して接続されることによっ
て構成される情報提供システムにおける情報の提供処理
手順を設定する情報提供処理方法であって、 前記情報管理装置において、各種情報と、当該各種情報
を識別する各種識別項目と、当該各種情報の情報内容を
複数の観点から分類するために該各種識別項目と関連付
けられた各種分類項目とを随時更新管理して管理側情報
格納手段に格納する工程と、 前記情報管理装置において、この管理側情報格納手段に
格納された各種情報、各種識別項目、及び各種分類項目
を前記ネットワークを介して前記複数の情報提供装置に
配信する工程と、 前記情報提供装置において、前記情報管理装置から配信
された各種情報、各種識別項目、及び各種分類項目を前
記ネットワークを介して受信する工程と、 前記情報提供装置において、この受信された各種情報、
各種識別項目、及び各種分類項目を対応付けて情報格納
手段に格納する工程と、 前記情報提供装置において、音声を入力させる工程と、 前記情報提供装置において、この入力された音声を認識
して文字情報を得る工程と、 前記情報提供装置において、この音声認識により得られ
た文字情報から前記識別項目あるいは前記分類項目に対
応する語彙を抽出し、該抽出語彙に対応する識別項目及
び該識別項目に対応付けられた情報、あるいは該抽出語
彙に対応する分類項目及び該分類項目に関連付けられた
識別項目を前記情報格納手段から検索する工程と、 前記情報提供装置において、この検索された識別項目及
び情報を、その情報内容に応じた各種情報形態で出力
し、あるいは検索された分類項目及び識別項目を出力す
る工程と、 前記情報提供装置において、前記入力音声を認識するた
めの音声認識辞書を認識辞書格納手段に格納する工程
と、 前記情報提供装置において、前記入力音声の認識結果に
基づいて前記認識辞書格納手段に格納された音声認識辞
書を更新する工程と、 前記情報提供装置において、この更新された音声認識辞
書の更新情報を前記ネットワークを介して前記情報管理
装置に送信する工程と、を含み、 さらに、 前記情報管理装置において、前記情報提供装置から送信
された音声認識辞書の更新情報を受信する工程と、 前記情報管理装置において、この受信された音声認識辞
書の更新情報に基づいて前記複数の情報提供装置におい
て利用される音声認識辞書を随時更新管理して管理側辞
書格納手段に格納する工程と、 前記情報管理装置において、該管理側辞書格納手段にお
いて更新された音声認識辞書の更新情報を前記ネットワ
ークを介して前記複数の情報提供装置に配信する工程
と、 前記情報提供装置において、前記情報管理装置から配信
された音声認識辞書の更新情報を前記ネットワークを介
して受信する工程と、 前記情報提供装置において、この受信された音声認識辞
書の更新情報と自己の音声認識辞書の内容とを比較し、
この比較結果に基づいて自己の音声認識辞書の内容を更
新する工程と、 を含むことを特徴とする情報提供処理方法。
2. An information providing system in which an information management apparatus as a network server and a plurality of information providing apparatuses as network clients are connected via a network sets an information providing processing procedure. An information providing processing method, wherein the information management device associates various information, various identification items for identifying the various information, and the various identification items to classify the information content of the various information from a plurality of viewpoints. Updating and managing the various classification items obtained as needed and storing them in the management-side information storage means; and in the information management apparatus, various information, various identification items, and various classification items stored in the management-side information storage means Delivering to the plurality of information providing devices via the network; and Various information distributed from the management apparatus, various identification items, and a step of receiving via the network the various categories, the the information providing apparatus, the received various information,
Storing the various identification items and the various classification items in the information storage unit in association with each other; inputting a voice in the information providing device; and recognizing the input voice in the information providing device to generate a character. Obtaining information; and in the information providing device, extracting a vocabulary corresponding to the identification item or the classification item from the character information obtained by the voice recognition, and extracting the vocabulary corresponding to the extracted vocabulary into the identification item and the identification item. Searching the associated information or the classification item corresponding to the extracted vocabulary and the identification item associated with the classification item from the information storage means; Outputting the retrieved classification items and identification items in various information formats according to the information content, A step of storing a voice recognition dictionary for recognizing the input voice in a recognition dictionary storage unit; and a step of storing the voice stored in the recognition dictionary storage unit based on a recognition result of the input voice in the information providing apparatus. Updating the recognition dictionary; and, in the information providing device, transmitting the updated information of the updated voice recognition dictionary to the information management device via the network. Receiving the update information of the voice recognition dictionary transmitted from the information providing apparatus; and the information management apparatus is used in the plurality of information providing apparatuses based on the received update information of the voice recognition dictionary. Updating and managing the voice recognition dictionary at any time and storing it in the management-side dictionary storage means; Distributing the updated information of the speech recognition dictionary updated by the delivery unit to the plurality of information providing apparatuses via the network; and updating the information of the speech recognition dictionary distributed from the information management apparatus in the information providing apparatus. Receiving through the network, in the information providing device, comparing the received update information of the voice recognition dictionary and the content of its own voice recognition dictionary,
Updating the content of its own voice recognition dictionary based on the comparison result.
【請求項3】ネットワークサーバとしての情報管理装置
と、ネットワーククライアントとしての複数の情報提供
装置とが、ネットワークを介して接続されることによっ
て構成される情報提供システムにおいて情報を提供処理
するための処理プログラムを記録した記録媒体であっ
て、 前記情報管理装置において、各種情報と、当該各種情報
を識別する各種識別項目と、当該各種情報の情報内容を
複数の観点から分類するために該各種識別項目と関連付
けられた各種分類項目とを随時更新管理して管理側情報
格納手段に格納するプログラムコードと、 前記情報管理装置において、この管理側情報格納手段に
格納された各種情報、各種識別項目、及び各種分類項目
を前記ネットワークを介して前記複数の情報提供装置に
配信するプログラムコードと、 前記情報提供装置において、前記情報管理装置から配信
された各種情報、各種識別項目、及び各種分類項目を前
記ネットワークを介して受信するプログラムコードと、 前記情報提供装置において、この受信された各種情報、
各種識別項目、及び各種分類項目を対応付けて情報格納
手段に格納するプログラムコードと、 前記情報提供装置において、音声を入力させるプログラ
ムコードと、 前記情報提供装置において、この入力された音声を認識
して文字情報を得るプログラムコードと、 前記情報提供装置において、この音声認識により得られ
た文字情報から前記識別項目あるいは前記分類項目に対
応する語彙を抽出し、該抽出語彙に対応する識別項目及
び該識別項目に対応付けられた情報、あるいは該抽出語
彙に対応する分類項目及び該分類項目に関連付けられた
識別項目を前記情報格納手段から検索するプログラムコ
ードと、 前記情報提供装置において、この検索された識別項目及
び情報を、その情報内容に応じた各種情報形態で出力
し、あるいは検索された分類項目及び識別項目を出力す
るプログラムコードと、 前記情報提供装置において、前記入力音声を認識するた
めの音声認識辞書を認識辞書格納手段に格納するプログ
ラムコードと、 前記情報提供装置において、前記入力音声の認識結果に
基づいて前記認識辞書格納手段に格納された音声認識辞
書を更新するプログラムコードと、 前記情報提供装置において、この更新された音声認識辞
書の更新情報を前記ネットワークを介して前記情報管理
装置に送信するプログラムコードと、を含み、 さらに、 前記情報管理装置において、前記情報提供装置から送信
された音声認識辞書の更新情報を受信するプログラムコ
ードと、 前記情報管理装置において、この受信された音声認識辞
書の更新情報に基づいて前記複数の情報提供装置におい
て利用される音声認識辞書を随時更新管理して管理側辞
書格納手段に格納するプログラムコードと、 前記情報管理装置において、該管理側辞書格納手段にお
いて更新された音声認識辞書の更新情報を前記ネットワ
ークを介して前記複数の情報提供装置に配信するプログ
ラムコードと、 前記情報提供装置において、前記情報管理装置から配信
された音声認識辞書の更新情報を前記ネットワークを介
して受信するプログラムコードと、 前記情報提供装置において、この受信された音声認識辞
書の更新情報と自己の音声認識辞書の内容とを比較し、
この比較結果に基づいて自己の音声認識辞書の内容を更
新するプログラムコードと、を含む処理プログラムを記
録したことを特徴とする記録媒体。
3. A process for providing information in an information providing system configured by connecting an information management device as a network server and a plurality of information providing devices as network clients via a network. A recording medium on which a program is recorded, wherein in the information management device, various information, various identification items for identifying the various information, and the various identification items for classifying information contents of the various information from a plurality of viewpoints. And a program code for updating and managing the various classification items associated with the information at any time and storing the updated information in the management-side information storage means. In the information management apparatus, various information stored in the management-side information storage means, various identification items, and Program code for delivering various classification items to the plurality of information providing devices via the network A program code for receiving, via the network, various information, various identification items, and various classification items distributed from the information management device in the information providing device; and the received various information in the information providing device. ,
A program code for associating various identification items and various classification items in an information storage unit, a program code for inputting a voice in the information providing device, and a program code for recognizing the input voice in the information providing device. A program code for obtaining character information by extracting the vocabulary corresponding to the identification item or the classification item from the character information obtained by the voice recognition, and identifying the identification item corresponding to the extracted vocabulary; A program code for searching the information storage means for information associated with the identification item, or a classification item corresponding to the extracted vocabulary, and an identification item associated with the classification item; The identification items and information are output in various information formats according to the information contents, or the A program code for outputting a class item and an identification item; a program code for storing, in the information providing device, a speech recognition dictionary for recognizing the input speech in a recognition dictionary storage unit; And a program code for updating the speech recognition dictionary stored in the recognition dictionary storage unit based on the recognition result of the information management device. A program code to be transmitted to the device, further comprising: a program code for receiving, in the information management device, update information of a voice recognition dictionary transmitted from the information providing device; Used in the plurality of information providing devices based on the updated information of the voice recognition dictionary A program code for updating and managing the voice recognition dictionary as needed and storing it in the management-side dictionary storage means; A program code for delivering to a plurality of information providing apparatuses, a program code for receiving, via the network, update information of a speech recognition dictionary delivered from the information management apparatus in the information providing apparatus; and Compare the received update information of the voice recognition dictionary with the content of the own voice recognition dictionary,
And a program code for updating the content of its own voice recognition dictionary based on the comparison result.
JP11055537A 1998-06-09 1999-03-03 Information providing system, information providing processing method, and recording medium Expired - Fee Related JP3060379B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11055537A JP3060379B2 (en) 1998-06-09 1999-03-03 Information providing system, information providing processing method, and recording medium

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP16062398 1998-06-09
JP10-160623 1998-06-09
JP11055537A JP3060379B2 (en) 1998-06-09 1999-03-03 Information providing system, information providing processing method, and recording medium

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2000009325A Division JP2000187776A (en) 1998-06-09 2000-01-18 Device, system and method for information supply and recording medium

Publications (2)

Publication Number Publication Date
JP2000067319A JP2000067319A (en) 2000-03-03
JP3060379B2 true JP3060379B2 (en) 2000-07-10

Family

ID=26396427

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11055537A Expired - Fee Related JP3060379B2 (en) 1998-06-09 1999-03-03 Information providing system, information providing processing method, and recording medium

Country Status (1)

Country Link
JP (1) JP3060379B2 (en)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3569452B2 (en) * 1998-09-10 2004-09-22 株式会社Snkプレイモア Information transmission system and information transmission method
JP2001273215A (en) * 2000-03-24 2001-10-05 Dream Technologies Kk System and method for designating network place and telephone number, and recording medium
JP4540185B2 (en) * 2000-05-29 2010-09-08 オリンパス株式会社 Voice processing apparatus and voice processing program
KR20000072128A (en) * 2000-08-02 2000-12-05 엄주천 Voice advertising system using character and advertising method thereof
US6658386B2 (en) * 2000-12-12 2003-12-02 International Business Machines Corporation Dynamically adjusting speech menu presentation style
JP4000828B2 (en) * 2001-11-06 2007-10-31 株式会社デンソー Information system, electronic equipment, program
JP7195545B2 (en) * 2019-08-08 2022-12-26 株式会社ティファナ ドットコム Equipment for providing products and services with interactive functions

Also Published As

Publication number Publication date
JP2000067319A (en) 2000-03-03

Similar Documents

Publication Publication Date Title
US5781191A (en) Method and apparatus for reproducing operation guidance information, and method and apparatus for reproducing multi-media information
US6285468B1 (en) Method of combining two digital images
CN101998107B (en) Information processing apparatus, conference system and information processing method
JP2005115665A (en) Automatic transaction device information providing system
JP5592919B2 (en) Signage terminal and signage system
JP3060379B2 (en) Information providing system, information providing processing method, and recording medium
KR101000810B1 (en) Voice recognition system
JP3422688B2 (en) Communication karaoke performance terminal that displays song selection history
KR102082146B1 (en) Method and apparatus for providing lotto recommendation numbers
JP2000076542A (en) Music information sales processor, music information sales processing system, music information sales processing method and machine readable recording medium
JPH07230494A (en) Commodity transaction system
JP2000187776A (en) Device, system and method for information supply and recording medium
JP2003504670A (en) Automatic devices for providing various types of visual information
JP2000090351A (en) Game sales processor, game sales processing system, game sales processing method and machine readable recording medium
KR101914661B1 (en) Additional information display system for real-time broadcasting service through automatic recognition of object of video object
JP2003323659A (en) Campaign picture display system and program therefor
CN115858850A (en) Content recommendation method, device, vehicle and computer-readable storage medium
JP2000190575A (en) Printing system and printing method, and memory medium with printing control program stored
US20050086600A1 (en) Self-service terminal and network of such terminals
JP2002091473A (en) Information processor
JP2003046914A (en) Image printing system with voice code image, server of voice code image distribution, and synthesizing server of image with voice code image
JP2000152209A (en) Image information processing system, image information communication method, and recoding medium readable by machine
JP2001093044A (en) Merchandise information sales processing system, merchandise information sales processing method, and machine-readable recording medium
US20230297307A1 (en) Digital signage device
JP2005316157A (en) Karaoke system with mail-order item purchasing function

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees