JP3550863B2 - Map recognition processing system and map recognition processing method - Google Patents

Map recognition processing system and map recognition processing method Download PDF

Info

Publication number
JP3550863B2
JP3550863B2 JP06453096A JP6453096A JP3550863B2 JP 3550863 B2 JP3550863 B2 JP 3550863B2 JP 06453096 A JP06453096 A JP 06453096A JP 6453096 A JP6453096 A JP 6453096A JP 3550863 B2 JP3550863 B2 JP 3550863B2
Authority
JP
Japan
Prior art keywords
facility
recognition
information
map
processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP06453096A
Other languages
Japanese (ja)
Other versions
JPH09258653A (en
Inventor
秀光 熊谷
功 吉村
俊介 三村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Mitsubishi Electric Corp
Original Assignee
Mitsubishi Electric Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Mitsubishi Electric Corp filed Critical Mitsubishi Electric Corp
Priority to JP06453096A priority Critical patent/JP3550863B2/en
Publication of JPH09258653A publication Critical patent/JPH09258653A/en
Application granted granted Critical
Publication of JP3550863B2 publication Critical patent/JP3550863B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • Instructional Devices (AREA)
  • Processing Or Creating Images (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は、地図認識処理システムおよび地図認識処理方法に係り、詳しくは、館内案内、観光ガイドなどの情報提供を行う音声認識応答装置を活用した検索システムに適用することでき、また、各種施設や任意地点に情報を入力することができる情報入力システムにも適用することができ、特に、音声認識対象となる地図の施設数が多くなっても、システム構築時の設定作業を容易に行うことができる地図認識処理システムおよび地図認識処理方法に関するものである。
【0002】
【従来の技術】
図16は従来の地図認識処理システムの処理フローを示すフローチャートであり、図17は従来の地図認識処理システムに使用される認識辞書テーブルを示す図である。図17に示す認識辞書テーブルには、地図(マップ)上に書いてある地名の読みとこれに対応する認識IDを示している。地図上の地名の読みが“しんじゅく”の時は、認識IDが“1”であり、地図上の地名の読みが“しぶや”の時は、認識IDが“2”であり、地図上の地名の読みが“しながわ”の時は、認識IDが“3”である。
【0003】
次に、従来の地図認識処理システムの動作について説明する。
まず、図17に示す認識辞書テーブルを認識辞書として使用するように、認識辞書テーブルの設定を予め行っておく(ステップS1001)。次に、認識処理待ちの音声入力待ち(ステップS1002)の状態で音声“しぶや”が入力されると、認識辞書テーブルをサーチし、該当の認識単語を調べ、“しぶや”という読みが合致する“2”という認識IDをRID(リターンID)の変数に返す(ステップS1003)。ここで、正しく認識されると、音声“しぶや”の認識IDである“2”が認識結果として得られる(ステップS1004)。最後に、認識ID“2”の対応処理である渋谷の街頭紹介映像が再生される(ステップS1005)。
【0004】
同様に、認識辞書テーブルの設定後、認識処理待ちの音声入力待ち(ステップS1002)の状態で音声“しんじゅく”が入力されると、認識辞書テーブルをサーチし、該当の認識単語を調べる(ステップS1003)。次いで、“しんじゅく”の認識IDである“1”が認識結果として得られると(ステップS1004)、認識ID“1”の対応処理である新宿の街頭紹介映像が再生される(ステップS1006)。
【0005】
また、同様に、認識辞書テーブルの設定後、認識処理待ちの音声入力待ち(ステップS1002)の状態で音声“しながわ”が入力されると、認識辞書テーブルをサーチし、該当の認識単語を調べる(ステップS1003)。次いで、“しながわ”の認識IDである“3”が認識結果として得られ(ステップS1004)、認識ID“3”の対応処理である品川の街頭紹介映像が再生される(ステップS1007)。
【0006】
なお、認識処理待ちの音声入力待ち(ステップS1002)の状態で“しんじゅく”、“しぶや”、“しながわ”以外の音声が入力されると、認識辞書テーブルをサーチし、該当の認識単語を調べる(ステップS1003)。そして、該当の認識IDが認識結果として得られない場合(ステップS1004)、音声入力待ちに戻る(ステップS1002)。
【0007】
この従来の地図認識処理システムでは、音声で“しんじゅく”、“しぶや”、“しながわ”の何れかが入力されると、それぞれの音声を認識してそれぞれの音声に対応した街頭紹介映像を自動的に再生することができるという利点を有する。
【0008】
【発明が解決しようとする課題】
しかしながら、上記した従来の地図認識処理システムでは、音声認識対象となる地図の施設名が主要なファンクションとなっており、その地図の施設名を認識させる設定処理を一々Cプログラムでシステムに作り込んでシステム構築しなければならず、音声認識対象となる施設数が多くなると、その設定作業が膨大なものとなってしまうため、システム構築時の設定作業が困難になってしまううえ、システム構築時に設定ミスが生じ易くなってしまうという問題があった。
【0009】
また、上記した従来の地図認識処理システムでは、地図の施設名を認識させる設定処理をシステム構築しているため、地図の施設名を認識させる設定処理を変更したい場合、設定処理の変更を容易に行い難いという問題があった。
【0010】
そこで、本発明は、音声認識対象となる地図の施設数が多くなっても、システム構築時の設定作業を容易に行うことができるとともに、システム構築時に設定ミスを生じ難くすることができ、しかも、システム構築時の設定処理を変更したい場合、設定処理の変更を容易に行うことができる地図認識処理システムを提供することを目的とする。
【0011】
【課題を解決するための手段】
第1の発明は、地図背景情報、地図上に表示される各種施設を表示するための施設情報を設定する施設情報テーブルと、施設情報テーブルに対応して施設を音声認識処理手段に認識させるための施設読みを設定する認識処理テーブルと、音声認識処理手段に認識させるための認識単語および認識された時に返す認識IDを設定する認識辞書テーブルと、音声認識時に実行する対応処理を設定する処理プログラム対応テーブルとを備え、地図背景情報、施設情報テーブル、認識処理テーブル、認識辞書テーブルおよび処理プログラム対応テーブルの各種情報を設定する情報設定手段と、地図背景情報および施設情報を表示する地図背景情報/施設情報表示手段と、入力された音声を認識し、その音声認識結果に基づいて認識IDを抽出する音声認識処理手段と、認識IDに対応した施設番号を認識処理テーブルより抽出する施設抽出手段と、処理プログラム対応テーブルに基づいて抽出された施設番号の施設に対する対応処理を実行する対応処理実行手段とを有することを特徴とするものである。
【0012】
第2の発明は、既存の地図情報に基づいて地図背景情報、施設情報テーブルおよび施設データベースを生成する地図変換処理手段と、施設情報テーブルに基づいて認識処理テーブルを生成する認識辞書変換処理手段とを有することを特徴とするものである。
【0013】
第3の発明は、施設情報テーブルの施設名に基づいて認識処理テーブルの施設読みを生成する読み変換処理手段を有することを特徴とするものである。
【0014】
第4の発明は、地図上の任意地点を指定する任意地点データ指定処理手段と、情報を入力する情報入力処理手段と、施設情報テーブルより空きの施設番号を抽出する空施設抽出処理手段と、抽出施設番号を指定の任意地点に割り当て、施設情報テーブル、施設データベース、認識処理テーブルに指定任意地点情報を登録する任意データ登録処理手段とを有することを特徴とするものである。
【0015】
第5の発明は、認識処理テーブルから認識辞書テーブルを生成する認識処理編集処理を行う際、施設番号の読みを自動的に付加する施設番号読み自動付加処理手段を有することを特徴とするものである。
【0016】
第6の発明は、地図背景情報、地図上に表示される各種施設を表示するための施設情報を設定する施設情報テーブルと、施設情報テーブルに対応して施設を音声認識処理手段に認識させるための施設読みを設定する認識処理テーブルと、音声認識処理手段に認識させるための認識単語および認識された時に返す認識IDを設定する認識辞書テーブルと、音声認識時に実行する対応処理を設定する処理プログラム対応テーブルとを備え、地図背景情報、施設情報テーブル、認識処理テーブル、認識辞書テーブルおよび処理プログラム対応テーブルの各種情報を設定する工程と、次いで、地図背景情報および施設情報を表示する工程と、次いで、入力された音声を認識する工程と、次いで、その音声認識結果に基づいて施設番号を抽出する工程と、次いで、認識IDに対応した施設番号を認識処理テーブルより抽出する工程と、処理プログラム対応テーブルに基づいて抽出された施設番号の施設に対する対応処理を実行する工程とを含むことを特徴とするものである。
【0017】
第7の発明は、既存の地図情報に基づいて地図背景情報、施設情報テーブルおよび施設データベースを生成した後、施設情報テーブルに基づいて認識処理テーブルを生成することを特徴とするものである。
【0018】
第8の発明は、施設情報テーブルの施設名に基づいて認識処理テーブルの施設読みを生成することを特徴とするものである。
【0019】
第9の発明は、地図上の任意地点を指定する工程と、情報を入力する工程と、施設情報テーブルより空きの施設番号を抽出する工程と、抽出施設番号を指定の任意地点に割り当て、施設情報テーバル、施設データベース、認識処理テーブルに指定任意地点情報を登録する工程とを含むことを特徴とするものである。
【0020】
第10の発明は、認識処理テーブルから認識辞書テーブルを生成する際、施設番号の読みを自動的に付加する工程を有することを特徴とするものである。
【0021】
【発明の実施の形態】
以下、本発明の実施の形態を図面を参照して説明する。
実施の形態1.
図1は本発明に係る実施の形態の地図認識処理システムの構成を示すブロック図、図2は図1に示す地図編集処理部によって生成された地図背景情報例を示す図、図3は図1に示す施設情報編集処理部によって設定された施設情報テーブル例を示す図、図4は図1に示す施設データベース編集処理部によって設定された施設データベース例を示す図、図5は図1に示す認識処理編集処理部によって設定された認識処理テーブル例を示す図、図6は図1に示す認識処理テーブルを基に認識処理編集処理部によって作成された認識辞書テーブル例を示す図、図7は図1に示す処理プログラム対応テーブル編集処理部によって設定された処理プログラム対応テーブル例を示す図である。
【0022】
図1において、1は地図背景情報2を生成する地図編集処理部であり、3は施設情報テーブル4を設定する施設情報編集処理部である。施設情報テーブル4は、地図上に表示される各種施設を表示するための施設情報を設定する。5は施設データベース6を設定する施設データベース編集処理部であり、7は認識処理テーブル8を設定するとともに、認識処理テーブル8を基に認識辞書テーブル9を作成する認識処理編集処理部である。16は処理プログラム対応テーブル17を設定する処理プログラム対応テーブル編集部である。
【0023】
認識処理テーブル8は、施設情報テーブル4に対応して、施設を施設抽出処理部19に抽出させるための施設読みを設定し、認識辞書テーブル9は、音声認識処理部10に認識させるための認識単語および認識された時に返す認識IDを設定する。音声認識処理部10は、マイク、ハンドセットなどの音声入力部11で入力された音声を認識し、その音声認識結果を基に認識IDを抽出する。施設抽出処理部19は、認識処理テーブル8より認識IDに対応した施設番号を抽出する。
【0024】
12は地図背景情報2、施設情報を表示ディスプレイ13で表示する地図表示処理部であり、14は図7に示す処理プログラム対応テーブルを基に音声認識処理部10により抽出された施設番号の施設に対応する対応処理を実行する対応処理部であり、15は音声認識処理部10、地図表示処理部12、対応処理部14などを管理するシステム統括処理部である。
【0025】
次に、本実施の形態の地図認識処理システムの動作について説明する。本実施の形態では、地図認識処理システムをシステム構築する場合を説明する。
まず、地図編集処理部1は、図2に示す地図背景情報2をラスタ情報で生成する。本実施の形態では、地図背景情報2をビットマップに代表されるラスタ情報で地図編集処理部1により作成したが、ベクタ情報で作成しても構わない。
【0026】
施設情報編集処理部3は、図3に示すように、地図上に表示される各種施設を表示するための施設情報を設定する施設情報テーブル4を生成する。図3に示す施設情報テーブル4は、施設番号と、各施設番号に対応したA図書館、B図書館などの情報を含む施設名と、各施設を表示するための施設位置と、各施設に対応した表示パターンとから構成される。施設位置は、ラスタ情報のビットで示しており、ビット情報のx,y軸の表示位置を示している。
【0027】
施設データベース編集処理部5は、図4に示すように、施設データベース6を設定する。図4に示す施設データベース6は、施設番号と、各施設番号に対応した施設名と、各施設に対応した属性情報の図書館、美術館などの情報を含む施設種類と、各施設に対応した紹介映像ファイル名とから構成される。施設情報テーブル4の施設番号及び施設名と、施設データベース6の施設番号及び施設名は、それぞれ対応している。
【0028】
本実施の形態では、属性情報の施設種類と、施設の情報案内ということで紹介映像ファイルとを設定することができる。紹介映像ファイルは、その名前が一覧で表示することができ、施設との間に関連を設定することができる。また、地図画面上で施設を選択することにより、上記にて関連付けられた紹介映像ファイルを再生することができる。
【0029】
認識処理編集処理部7は、図5に示すように、施設を音声認識処理部10に認識させるための施設読みを設定する。従来のシステムでは、表示処理と認識処理を別々に行っていたため、別々に作り込まなければならなかった。また、その対応もIDで識別して関連付けることも作り込まなければならなかった。これに対し、本実施の形態では、表示処理、認識処理およびその対応付けを本システムのツールで行ってくれるため、設定画面での読みを間違えることなく入力することができる。
【0030】
認識処理編集処理部7は、認識処理テーブル8を基に図6に示すように、音声認識処理部10に認識させるための認識単語および認識された時に返す認識IDを設定する認識辞書テーブル9を設定する。処理プログラム対応テーブル編集処理部16は、処理プログラムテーブル17を基に図7に示すように、指定された施設に対する実行プログラムを対応処理番号毎に設定する。プログラム実行前に対応処理番号の設定を切り替えることにより、複数の処理を切り替えて実行することができる。
【0031】
次に、図8は以上の各種設定で構築された地図認識処理システムが実行された場合の処理フローを示す図である。
システム統轄処理部15は、初期設定として指定時に実行される処理プログラムを決める対応処理番号を設定する(ステップS1)。ここでは、1が設定されたこととする。地図表示処理部12は、図2に示す地図編集処理部1で設定した地図背景情報2を読み込み、地図背景を表示ディスプレイ13に表示する(ステップS2)。次に、施設情報テーブル4を読み込み、図3の施設位置情報及び表示情報を基に、地図背景上に施設情報を表示する。音声認識処理部10は、表示した地図に関する図6に示す認識辞書テーブル9を認識処理対象として設定する(ステップS4)。ここまでで音声認識の前処理が完了し、音声入力を待つ(ステップS5)。
【0032】
音声認識処理部10は、“でーうんどうじょう”という音声が音声入力部11より入力されると、入力された音声情報を文字情報に変換し、図6に示す認識辞書テーブルと照合し、合致した認識ID“4”をRIDに返す(ステップS6)。施設抽出処理部19は、図5に示す認識処理テーブル8よりRIDと認識IDが同じレコードの施設番号4を取得する(ステップS7)。対応処理部14は、処理プログラム対応テーブル17よりステップS1で設定された対応処理番号1に対応した処理プログラムとして、映像再生プログラムを得る(ステップS9)。映像再生プログラムは、図4の施設データベース6より、施設番号4の紹介映像ファイル「紹介0004.mpg」の再生を実行する(ステップS10)。同様に、A図書館、B図書館、C図書館についてもD運動場と同様に対応するよみを発話することにより紹介映像情報を再生することができる。また、対応処理を変更することにより、施設への意見、連絡事項の入力など情報BOX的システムを構築することもできる。
【0033】
従来は、地図の説明、その対応処理などをプログラムで記述する必要があったが、本実施の形態では、地図をベースとしたシステムを構築するための枠組みとして各種の地図背景情報、施設情報、これらに対応して関連付けられた認識処理テーブル8を備えることにより、システム構築する際、手間がかからないようにすることができ、作業時間を短縮させて作業の効率化を図ることができる。また、人手による作業を軽減することができるため、ヒューマンエラーの作り込を減らすことができる。また、システム変更を、プログラムレベルでの変更ではなく、地図の入れ換えや認識辞書の入れ換えなどで行うことにより、柔軟に対応することができる。更に、地図背景情報2、施設情報テーブル4、施設データベース6、認識処理テーブル8、認識辞書テーブル9、処理プログラム対応テーブル17の設定を変更するだけで様々な地図認識処理システムを構築することができる。
【0034】
実施の形態2.
次に、地図に関する認識処理システムを構築する場合において、地図背景情報、施設情報テーブル、認識処理テーブルを自動生成する場合の実施の形態を、以下、図面を用いて説明する。
図9は本発明に係る実施の形態2の地図背景情報、施設情報テーブルおよび認識処理テーブルを自動生成処理する自動生成処理構成を示す図である。
図9において、図1と同一符号は同一または相当部分を示し、21は既存の地図情報22を基に地図背景情報2、施設情報テーブル4、施設データベース6を生成する地図変換処理部であり、23は施設情報テーブル4を基に認識処理テーブル8を生成する認識辞書変換処理部であり、24は施設情報テーブル4の施設名を基に認識処理テーブル8の施設読みを生成する読み変換処理部である。
【0035】
本実施の形態では、国土地理院の地図情報など現在各種のデジタル地図フォーマットが存在するので、その既存の地図情報22を活用する。これにより、地図背景情報2、施設情報テーブル4、施設データベース6を自動生成することができるので、実施の形態1の手入力の場合よりも更にミスを低減することができる。
【0036】
地図変換処理部21は、既存の地図情報22を使用して、その既存の地図情報22をラスタ情報にコンバージョンする。ここでは、範囲を指定し、解像度、倍率などを指定することにより、地図背景情報2を自動的に設定する。地図変換処理部21は、属性情報を有する既存の地図情報22を使用し、その属性情報の例えば図書館などを選択して抽出することにより、施設情報テーブル4を自動的に設定する。地図変換処理部21は、既存の地図情報21を使用して、同様に施設データベース6を設定する。
本実施の形態では、地図背景情報2をビットマップに代表されるラスタ情報で地図変換処理部21により生成したが、ベクタ情報で作成しても構わない。
【0037】
読み変換処理部24は、施設情報テーブル4の施設名を基に認識処理テーブル8の施設読みを自動的に設定する。既存の地図フォーマットに読みの項目がない場合は、読み変換処理部24を使用して自動変換された読みの情報を設定することができる。また、図1の施設情報編集処理部3にて設定された施設情報テーブル4が存在する場合、認識辞書変換処理部23は、施設情報テーブル4の内容を認識処理テーブル8に自動変換することができる。この時は、読み情報が存在しないが、読み変換処理部24により、読み項目を自動設定することができる。
【0038】
本実施の形態は、既に存在する地図の電子化されたデータを用いて範囲などを指定したり、施設の種類を指定したりすることにより、地図の背景情報や施設情報をより簡単に自動生成することができる。また、このようなシステムの実地に関するデータの生成のところを効率よく自動化することができる。
【0039】
本実施の形態は、読みの漢字を含めた表示情報からひらがなだけの読みの情報に変換する処理を付け加えることにより、地図に関する情報だけでなく、認識処理に関する読みの情報も自動生成することができるため、システム構築をより簡便に行うことができる。
【0040】
実施の形態3.
図10は本発明に係る実施の形態3の地図認識処理システムの構成を示すブロック図である。図10において、図1と同一符号は同一または相当部分を示し、30は任意位置に情報入力する任意地点データ情報入力部である。
【0041】
施設情報テーブル4、施設データベース6、認識処理テーブル8、認識辞書テーブル9は、事前に設定するので、登録処理を行う場合、その登録位置は、上記設定施設に限定されてしまう。これに対し、本実施の形態では、任意地点に入力したい場合、例えば歩道橋のこの辺が壊れているので速く修理したい等の情報を入力する場合に有効である。
【0042】
次に、本実施の形態の任意地点データ入力処理例について図11を基に説明する。
まず、地図表示処理部12にて表示されている地図上の入力位置を指定する(ステップS101)。ここでは、(200,120)の位置が指定されたものとする。次に、指定位置に登録したい情報を入力する(ステップS102)。入力する情報は、文字/図形/静止画/動画のどれでも構わないが、ここでは、動画データが入力され、tmp005.aviというファイルが生成されたものとする。上記で入力された任意地点を他の施設情報と同様に扱うことができるように、施設情報テーブルをサーチし、空き施設番号を入力し(ステップS103)、その施設番号を指定任意地点に割り当てる。
【0043】
ここでは、施設情報テーブルが図3の状態であったとすると、指定任意地点の施設番号として5が割り当てられる。後は、施設情報テーブル(ステップS104)、施設データベース(ステップS105)、認識辞書テーブル(ステップS106)に入力情報を登録して行く。図3〜5の各テーブルが処理前に登録されていた場合、と、図12〜14のように、各テーブルがアップデートされる。最後に、認識辞書テーブルの内容を基に、認識辞書テーブルを再生成し、認識を再開する(ステップS107)。
【0044】
本実施の形態では、施設情報テーブルより空いている施設番号を取得し、取得した施設番号の施設に対して情報を入力する任意地点データ入力処理ステップを加えることにより、システム構築時に設定した固定的な施設情報だけでなく、任意の地点の情報としてデータを登録してその表示を行うことができるため、実際のシステムの利用者側から見て、きめの細かいデータ入力を行うことができる。このため、システムとしての柔軟性を増すことができ、使い勝手を良好にすることができる。
【0045】
また、認識処理編集処理部7で、認識処理テーブル8から認識辞書テーブル9を生成する時に、施設番号読み自動付加処理部7aを実行し、固定的に施設番号の読みを認識辞書に加えておくことにより、認識辞書テーブル9を変更せずにプログラムを継続的に実行することができる。
図15の認識辞書テーブル9に示すように、例えば100施設まで読めるように情報を追加して固定にして認識辞書テーブル9を作成する。そして、表示処理の時に、施設番号を表示させておき、例えば“ごばん”と発音されると、それに対応した映像が再生される。また、例えば“いちばん”と発音されると、“えーとしょかん”が選択されてそれに対応した映像が再生される。
【0046】
本実施の形態では、任意地点データ入力時に認識辞書テーブル9を変更する必要がないため、音声認識処理を中断させることなく処理を継続的に実行することができ、連続して音声を認識する時に、レスポンス悪化を最小限に抑えることができる。
【図面の簡単な説明】
【図1】本発明に係る実施の形態1の地図認識処理システムの構成を示すブロック図である。
【図2】図1に示す地図編集処理部によって生成された地図背景情報例を示す図である。
【図3】図1に示す施設情報編集処理部によって設定された施設情報テーブル例を示す図である。
【図4】図1に示す施設データベース編集処理処理部によって設定された施設データベース例を示す図である。
【図5】図1に示す認識処理編集処理部によって設定された認識処理テーブル例を示す図である。
【図6】図1に示す認識処理テーブルを基に認識処理編集処理部によって作成された認識辞書テーブル例を示す図である。
【図7】抽出された施設番号の施設に対する対応処理を実行する際の対応処理プログラムテーブル例を示す図である。
【図8】図1に示す地図認識処理システムが実行された場合の処理フローを示すフローチャートである。
【図9】本発明に係る実施の形態2の地図背景情報、施設情報テーブルおよび施設データベースを自動生成処理する自動生成処理構成を示す図である。
【図10】本発明に係る実施の形態3の地図認識処理システムの構成を示すブロック図である。
【図11】図10における任意データ入力処理部の処理フローを示すフローチャートである。
【図12】図10に示す任意データ入力処理部によって図3に追加された施設情報テーブル例を示す図である。
【図13】図10に示す任意データ入力処理部によって図4に追加された施設データベース例を示す図である。
【図14】図10に示す任意データ入力処理部によって図5に追加された認識辞書テーブル例を示す図である。
【図15】図10に示す施設番号読み自動付加処理部によって生成される認識辞書テーブル例を示す図である。
【図16】従来の地図認識処理システムの処理フローを示すフローチャートである。
【図17】従来の地図認識処理システムに使用される認識辞書テーブルを示す図である。
【符号の説明】
1 地図編集処理部、2 地図背景情報、3 施設情報編集処理部、4 施設情報テーブル、5 施設データベース編集処理部、6 施設データベース、7 認識処理編集処理部、7a 施設番号読み自動付加処理部、8 認識処理テーブル、9 認識辞書テーブル、10 音声認識処理部、11 音声入力部、12 地図表示処理部、13 表示ディスプレイ、14 対応処理部、14a 任意地点データ入力処理部、15 システム統轄処理部、16 処理プログラム対応テーブル編集処理部、17 処理プログラム対応テーブル、18 処理プログラム部、19 施設抽出処理部、21 地図変換処理部、22 既存の地図情報、23 認識辞書変換処理部、24 読み変換処理部、30 任意地点データ入力処理部。
[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a map recognition processing system and a map recognition processing method. More specifically, the present invention can be applied to a search system utilizing a voice recognition response device that provides information such as guides in a building and sightseeing guides. The present invention can also be applied to an information input system that can input information at an arbitrary point.Especially, even when the number of facilities of a map to be subjected to voice recognition increases, setting work at the time of system construction can be easily performed. The present invention relates to a map recognition processing system and a map recognition processing method that can be performed.
[0002]
[Prior art]
FIG. 16 is a flowchart showing a processing flow of the conventional map recognition processing system, and FIG. 17 is a diagram showing a recognition dictionary table used in the conventional map recognition processing system. The recognition dictionary table shown in FIG. 17 shows reading of place names written on a map (map) and corresponding recognition IDs. When the reading of the place name on the map is “Shinjuku”, the recognition ID is “1”, and when the reading of the place name on the map is “Shibuya”, the recognition ID is “2”. When the reading of the place name is "Shinagawa", the recognition ID is "3".
[0003]
Next, the operation of the conventional map recognition processing system will be described.
First, the recognition dictionary table is set in advance so that the recognition dictionary table shown in FIG. 17 is used as a recognition dictionary (step S1001). Next, when the voice "Shibaya" is input in the state of waiting for a voice input (step S1002) waiting for the recognition process, the recognition dictionary table is searched, the corresponding recognition word is checked, and the reading of "Shibaya" matches. The recognition ID "2" is returned to the variable of RID (return ID) (step S1003). Here, if the recognition is correct, “2”, which is the recognition ID of the voice “buddy”, is obtained as a recognition result (step S1004). Finally, the street introduction video of Shibuya, which is the processing corresponding to the recognition ID “2”, is reproduced (step S1005).
[0004]
Similarly, after the recognition dictionary table is set, if a voice "Shinjuku" is input in a state of waiting for a voice input (step S1002) waiting for a recognition process, the recognition dictionary table is searched for a corresponding recognition word ( Step S1003). Next, when the recognition ID “1” of “Shinjuku” is obtained as the recognition result (step S1004), the street introduction video of Shinjuku, which is the processing corresponding to the recognition ID “1”, is reproduced (step S1006). .
[0005]
Similarly, when the voice "Shinagawa" is input in the state of waiting for voice input for recognition processing after setting the recognition dictionary table (step S1002), the recognition dictionary table is searched for the corresponding recognized word ( Step S1003). Next, "3" which is the recognition ID of "Shinagawa" is obtained as a recognition result (step S1004), and the street introduction video of Shinagawa which is the processing corresponding to the recognition ID "3" is reproduced (step S1007).
[0006]
When a voice other than “Shinjiku”, “Shibaya”, and “Shinagawa” is input in a state of waiting for a voice input waiting for recognition processing (step S1002), the recognition dictionary table is searched and the corresponding recognized word is searched. Check (step S1003). If the corresponding recognition ID is not obtained as a recognition result (step S1004), the process returns to the voice input waiting (step S1002).
[0007]
In this conventional map recognition processing system, when any one of “Shinjuku”, “Shibuya”, and “Shinagawa” is input by voice, the respective voices are recognized and a street introduction video corresponding to each voice is generated. It has the advantage that it can be played back automatically.
[0008]
[Problems to be solved by the invention]
However, in the above-described conventional map recognition processing system, a facility name of a map to be subjected to voice recognition is a main function, and a setting process for recognizing the facility name of the map is built into the system one by one using a C program. If a system must be constructed, and the number of facilities to be voice-recognized increases, the setting work becomes enormous, making the setting work at the time of system construction difficult, and the setting at the time of system construction. There is a problem that mistakes are likely to occur.
[0009]
Further, in the above-described conventional map recognition processing system, since a setting process for recognizing the facility name of the map is constructed, if the setting process for recognizing the facility name of the map is to be changed, it is easy to change the setting process. There was a problem that it was difficult to do.
[0010]
Therefore, the present invention can easily perform a setting operation at the time of system construction even when the number of facilities of a map to be subjected to voice recognition increases, and can reduce a setting error at the time of system construction, and It is another object of the present invention to provide a map recognition processing system capable of easily changing the setting process when the setting process at the time of system construction is desired.
[0011]
[Means for Solving the Problems]
According to a first aspect of the present invention, there is provided a facility information table for setting map background information, facility information for displaying various facilities displayed on a map, and causing the voice recognition processing means to recognize the facility corresponding to the facility information table. , A recognition dictionary table for setting a recognition word to be recognized by the voice recognition processing means and a recognition ID to be returned when recognized, and a processing program for setting a corresponding process to be executed during voice recognition Information setting means for setting various information of a map background information, a facility information table, a recognition processing table, a recognition dictionary table and a processing program correspondence table, and a map background information / map information for displaying the map background information and the facility information. Facility information display means, and voice for recognizing the input voice and extracting a recognition ID based on the voice recognition result Recognition processing means, facility extraction means for extracting a facility number corresponding to the recognition ID from the recognition processing table, and correspondence processing execution means for executing a processing corresponding to the facility with the facility number extracted based on the processing program correspondence table. It is characterized by having.
[0012]
A second invention is a map conversion processing means for generating map background information, a facility information table and a facility database based on existing map information, and a recognition dictionary conversion processing means for generating a recognition processing table based on the facility information table. Which is characterized by having
[0013]
The third invention is characterized in that it has a reading conversion processing means for generating a reading of the facility in the recognition processing table based on the facility name in the facility information table.
[0014]
A fourth invention is an arbitrary point data designation processing means for designating an arbitrary point on a map, an information input processing means for inputting information, an empty facility extraction processing means for extracting an empty facility number from a facility information table, There is provided an optional data registration processing means for allocating an extracted facility number to a designated arbitrary point and registering the designated arbitrary point information in a facility information table, a facility database, and a recognition processing table.
[0015]
A fifth invention is characterized in that it has a facility number reading automatic addition processing means for automatically adding the reading of the facility number when performing the recognition processing editing processing for generating the recognition dictionary table from the recognition processing table. is there.
[0016]
According to a sixth aspect of the present invention, there is provided a facility information table for setting map background information, facility information for displaying various facilities displayed on the map, and causing the voice recognition processing means to recognize the facility corresponding to the facility information table. , A recognition dictionary table for setting a recognition word to be recognized by the voice recognition processing means and a recognition ID to be returned when recognized, and a processing program for setting a corresponding process to be executed during voice recognition A correspondence table, a step of setting various information of a map background information, a facility information table, a recognition processing table, a recognition dictionary table, and a processing program correspondence table; and a step of displaying map background information and facility information; Recognizing the input voice, and then extracting a facility number based on the voice recognition result. Next, the method includes a step of extracting a facility number corresponding to the recognition ID from the recognition processing table, and a step of executing a processing corresponding to the facility of the facility number extracted based on the processing program correspondence table. is there.
[0017]
The seventh invention is characterized in that after generating map background information, a facility information table, and a facility database based on existing map information, a recognition processing table is generated based on the facility information table.
[0018]
The eighth invention is characterized in that the facility reading of the recognition processing table is generated based on the facility name of the facility information table.
[0019]
According to a ninth invention, a step of designating an arbitrary point on a map, a step of inputting information, a step of extracting a vacant facility number from a facility information table, and assigning the extracted facility number to the designated arbitrary point Registering the designated arbitrary point information in the information table, the facility database, and the recognition processing table.
[0020]
A tenth invention is characterized in that a step of automatically adding a reading of a facility number when generating a recognition dictionary table from a recognition processing table is provided.
[0021]
BEST MODE FOR CARRYING OUT THE INVENTION
Hereinafter, embodiments of the present invention will be described with reference to the drawings.
Embodiment 1 FIG.
FIG. 1 is a block diagram showing a configuration of a map recognition processing system according to an embodiment of the present invention, FIG. 2 is a diagram showing an example of map background information generated by a map editing processing unit shown in FIG. 1, and FIG. FIG. 4 is a diagram showing an example of a facility information table set by the facility information editing unit shown in FIG. 4, FIG. 4 is a diagram showing an example of a facility database set by the facility database editing unit shown in FIG. 1, and FIG. 5 is a recognition table shown in FIG. FIG. 6 is a diagram illustrating an example of a recognition processing table set by the processing editing processing unit. FIG. 6 is a diagram illustrating an example of a recognition dictionary table created by the recognition processing editing processing unit based on the recognition processing table illustrated in FIG. 1. FIG. 3 is a diagram showing an example of a processing program correspondence table set by a processing program correspondence table editing processing unit shown in FIG.
[0022]
In FIG. 1, reference numeral 1 denotes a map editing processing unit that generates map background information 2, and reference numeral 3 denotes a facility information editing processing unit that sets a facility information table 4. The facility information table 4 sets facility information for displaying various facilities displayed on the map. Reference numeral 5 denotes a facility database editing processing unit for setting a facility database 6, and reference numeral 7 denotes a recognition processing editing processing unit for setting a recognition processing table 8 and creating a recognition dictionary table 9 based on the recognition processing table 8. Reference numeral 16 denotes a processing program correspondence table editing unit for setting the processing program correspondence table 17.
[0023]
The recognition processing table 8 sets facility reading for causing the facility extraction processing unit 19 to extract facilities corresponding to the facility information table 4, and the recognition dictionary table 9 performs recognition for causing the speech recognition processing unit 10 to recognize the facilities. A word and a recognition ID to be returned when recognized are set. The voice recognition processing unit 10 recognizes voice input by a voice input unit 11 such as a microphone or a handset, and extracts a recognition ID based on the voice recognition result. The facility extraction processing unit 19 extracts a facility number corresponding to the recognition ID from the recognition processing table 8.
[0024]
Reference numeral 12 denotes a map display processing unit for displaying the map background information 2 and facility information on the display 13. The reference numeral 14 denotes a facility corresponding to the facility number extracted by the voice recognition processing unit 10 based on the processing program correspondence table shown in FIG. Reference numeral 15 denotes a corresponding processing unit that executes corresponding processing, and reference numeral 15 denotes a system general processing unit that manages the voice recognition processing unit 10, the map display processing unit 12, the corresponding processing unit 14, and the like.
[0025]
Next, the operation of the map recognition processing system according to the present embodiment will be described. In the present embodiment, a case where a map recognition processing system is constructed will be described.
First, the map editing processing unit 1 generates map background information 2 shown in FIG. 2 using raster information. In the present embodiment, the map background information 2 is created by the map editing processing unit 1 using raster information represented by a bitmap, but may be created using vector information.
[0026]
As shown in FIG. 3, the facility information editing processing unit 3 generates a facility information table 4 for setting facility information for displaying various facilities displayed on a map. The facility information table 4 shown in FIG. 3 includes a facility number, a facility name including information such as the A library and the B library corresponding to each facility number, a facility position for displaying each facility, and each facility. And display patterns. The facility position is indicated by a bit of raster information, and indicates a display position on the x and y axes of the bit information.
[0027]
The facility database editing unit 5 sets the facility database 6 as shown in FIG. The facility database 6 shown in FIG. 4 includes a facility number, a facility name corresponding to each facility number, a facility type including attribute information corresponding to each facility such as a library and an art museum, and an introduction video corresponding to each facility. It consists of a file name. The facility number and facility name in the facility information table 4 correspond to the facility number and facility name in the facility database 6, respectively.
[0028]
In the present embodiment, an introduction video file can be set by referring to the facility type of the attribute information and the facility information guide. The name of the introduction video file can be displayed in a list, and the association with the facility can be set. By selecting a facility on the map screen, the introductory video file associated with the above can be reproduced.
[0029]
As shown in FIG. 5, the recognition processing editing processing unit 7 sets facility reading for causing the voice recognition processing unit 10 to recognize the facility. In the conventional system, the display processing and the recognition processing were performed separately, so that they had to be made separately. In addition, the correspondence must be identified and associated with the ID. On the other hand, in the present embodiment, the display processing, the recognition processing, and the association are performed by the tool of the present system, so that the reading on the setting screen can be input without mistake.
[0030]
As shown in FIG. 6, the recognition processing / editing processing unit 7 stores a recognition dictionary table 9 for setting a recognition word for causing the speech recognition processing unit 10 to recognize and a recognition ID to be returned when recognized, as shown in FIG. Set. The processing program correspondence table editing processing unit 16 sets an execution program for a designated facility for each corresponding processing number, as shown in FIG. By switching the setting of the corresponding process number before executing the program, a plurality of processes can be switched and executed.
[0031]
Next, FIG. 8 is a diagram showing a processing flow when the map recognition processing system constructed with the above various settings is executed.
The system control processing unit 15 sets a corresponding processing number that determines a processing program to be executed at the time of designation as an initial setting (step S1). Here, it is assumed that 1 is set. The map display processing unit 12 reads the map background information 2 set by the map editing processing unit 1 shown in FIG. 2, and displays the map background on the display 13 (step S2). Next, the facility information table 4 is read, and the facility information is displayed on the map background based on the facility position information and the display information of FIG. The voice recognition processing unit 10 sets the recognition dictionary table 9 shown in FIG. 6 relating to the displayed map as a recognition processing target (step S4). At this point, the pre-processing of the voice recognition is completed, and the apparatus waits for a voice input (step S5).
[0032]
When the voice “de-undoujo” is input from the voice input unit 11, the voice recognition processing unit 10 converts the input voice information into character information, and compares it with the recognition dictionary table shown in FIG. The matching recognition ID "4" is returned to the RID (step S6). The facility extraction processing unit 19 acquires the facility number 4 of the record having the same RID and recognition ID from the recognition processing table 8 shown in FIG. 5 (Step S7). The correspondence processing unit 14 obtains a video reproduction program from the processing program correspondence table 17 as a processing program corresponding to the correspondence processing number 1 set in step S1 (step S9). The video reproduction program executes reproduction of the introduction video file “introduction 0004.mpg” of the facility number 4 from the facility database 6 of FIG. 4 (step S10). Similarly, for the A library, the B library, and the C library, the introduction video information can be reproduced by speaking the corresponding reading in the same manner as the D playing field. Further, by changing the corresponding process, it is possible to construct an information BOX-like system such as inputting opinions to facilities and input of communication items.
[0033]
In the past, it was necessary to describe the map description, its corresponding processing, and the like with a program. However, in this embodiment, various map background information, facility information, and the like are used as a framework for building a map-based system. By providing the recognition processing tables 8 associated with these, it is possible to save time and effort when constructing the system, and to shorten work time and improve work efficiency. In addition, since manual work can be reduced, the generation of human error can be reduced. Further, the system can be flexibly responded by changing the system not by changing the program level but by replacing the map or the recognition dictionary. Furthermore, various map recognition processing systems can be constructed only by changing the settings of the map background information 2, the facility information table 4, the facility database 6, the recognition processing table 8, the recognition dictionary table 9, and the processing program correspondence table 17. .
[0034]
Embodiment 2 FIG.
Next, an embodiment for automatically generating a map background information, a facility information table, and a recognition processing table when constructing a recognition processing system for a map will be described below with reference to the drawings.
FIG. 9 is a diagram showing an automatic generation processing configuration for automatically generating map background information, a facility information table, and a recognition processing table according to the second embodiment of the present invention.
9, the same reference numerals as those in FIG. 1 denote the same or corresponding parts, and reference numeral 21 denotes a map conversion processing unit that generates the map background information 2, the facility information table 4, and the facility database 6 based on the existing map information 22, Reference numeral 23 denotes a recognition dictionary conversion processing unit that generates the recognition processing table 8 based on the facility information table 4, and reference numeral 24 denotes a reading conversion processing unit that generates the facility reading of the recognition processing table 8 based on the facility name of the facility information table 4. It is.
[0035]
In the present embodiment, since various digital map formats currently exist, such as the geographical information of the Geographical Survey Institute, the existing map information 22 is utilized. Thereby, the map background information 2, the facility information table 4, and the facility database 6 can be automatically generated, so that errors can be further reduced as compared with the case of the manual input in the first embodiment.
[0036]
The map conversion processing unit 21 uses the existing map information 22 and converts the existing map information 22 into raster information. Here, the map background information 2 is automatically set by specifying the range, the resolution, the magnification, and the like. The map conversion processing unit 21 automatically sets the facility information table 4 by using existing map information 22 having attribute information and selecting and extracting, for example, a library or the like of the attribute information. The map conversion processing unit 21 similarly sets the facility database 6 using the existing map information 21.
In the present embodiment, the map background information 2 is generated by the map conversion processing unit 21 using raster information represented by a bitmap, but may be generated using vector information.
[0037]
The reading conversion processing unit 24 automatically sets the facility reading in the recognition processing table 8 based on the facility name in the facility information table 4. If there is no reading item in the existing map format, the reading conversion processing unit 24 can be used to set the automatically converted reading information. When the facility information table 4 set by the facility information editing processing unit 3 in FIG. 1 exists, the recognition dictionary conversion processing unit 23 can automatically convert the contents of the facility information table 4 into the recognition processing table 8. it can. At this time, although there is no reading information, the reading conversion processing unit 24 can automatically set the reading items.
[0038]
In the present embodiment, the background information and the facility information of the map are more easily and automatically generated by specifying the range and the like using the digitized data of the existing map and the type of the facility. can do. Further, the generation of data relating to the actual situation of such a system can be efficiently automated.
[0039]
The present embodiment can automatically generate not only information related to the map but also reading information related to the recognition process by adding a process of converting display information including the kanji of the reading into reading information of only Hiragana. Therefore, system construction can be performed more easily.
[0040]
Embodiment 3 FIG.
FIG. 10 is a block diagram showing the configuration of the map recognition processing system according to the third embodiment of the present invention. 10, the same reference numerals as those in FIG. 1 denote the same or corresponding parts, and reference numeral 30 denotes an arbitrary point data information input unit for inputting information at an arbitrary position.
[0041]
Since the facility information table 4, the facility database 6, the recognition processing table 8, and the recognition dictionary table 9 are set in advance, when performing the registration processing, the registration positions are limited to the set facilities. On the other hand, the present embodiment is effective when inputting information at an arbitrary point, for example, when inputting information such as that this side of the pedestrian bridge is broken and the user wants to repair it quickly.
[0042]
Next, an example of an arbitrary point data input process according to the present embodiment will be described with reference to FIG.
First, an input position on the map displayed by the map display processing unit 12 is specified (step S101). Here, it is assumed that the position of (200, 120) has been designated. Next, information to be registered at the designated position is input (step S102). The information to be input may be any of characters / graphics / still images / moving images. Here, moving image data is input, and tmp005. It is assumed that a file called “avi” has been generated. The facility information table is searched, an empty facility number is input (step S103), and the facility number is assigned to the designated arbitrary point so that the arbitrary point input as described above can be handled in the same manner as other facility information.
[0043]
Here, assuming that the facility information table is in the state of FIG. 3, 5 is assigned as the facility number of the designated arbitrary point. Thereafter, the input information is registered in the facility information table (step S104), the facility database (step S105), and the recognition dictionary table (step S106). Each table shown in FIGS. 3 to 5 is updated before the processing, and each table is updated as shown in FIGS. 12 to 14. Finally, the recognition dictionary table is regenerated based on the contents of the recognition dictionary table, and the recognition is restarted (step S107).
[0044]
In the present embodiment, a vacant facility number is acquired from the facility information table, and an arbitrary point data input processing step of inputting information for the facility of the acquired facility number is added, so that the fixed Since data can be registered and displayed as information of an arbitrary point as well as information of an arbitrary point, detailed data input can be performed from the user of the actual system. For this reason, flexibility as a system can be increased, and usability can be improved.
[0045]
When generating the recognition dictionary table 9 from the recognition processing table 8 in the recognition processing editing processing unit 7, the facility number reading automatic addition processing unit 7a is executed, and the facility number reading is fixedly added to the recognition dictionary. Thus, the program can be continuously executed without changing the recognition dictionary table 9.
As shown in the recognition dictionary table 9 of FIG. 15, information is added and fixed so that, for example, up to 100 facilities can be read, and the recognition dictionary table 9 is created. Then, at the time of the display processing, the facility number is displayed, and when, for example, "gamba" is pronounced, a video corresponding thereto is reproduced. Further, for example, when "1st" is pronounced, "Esshokan" is selected and a video corresponding to it is reproduced.
[0046]
In the present embodiment, since it is not necessary to change the recognition dictionary table 9 when inputting arbitrary point data, the processing can be continuously executed without interrupting the voice recognition processing. In addition, the deterioration of the response can be minimized.
[Brief description of the drawings]
FIG. 1 is a block diagram showing a configuration of a map recognition processing system according to a first embodiment of the present invention.
FIG. 2 is a diagram illustrating an example of map background information generated by a map editing processing unit illustrated in FIG. 1;
FIG. 3 is a diagram illustrating an example of a facility information table set by a facility information editing processing unit illustrated in FIG. 1;
4 is a diagram showing an example of a facility database set by a facility database editing processing unit shown in FIG. 1;
FIG. 5 is a diagram illustrating an example of a recognition processing table set by a recognition processing editing processing unit illustrated in FIG. 1;
FIG. 6 is a diagram showing an example of a recognition dictionary table created by a recognition processing editing unit based on the recognition processing table shown in FIG. 1;
FIG. 7 is a diagram illustrating an example of a correspondence processing program table when executing a correspondence processing for a facility with an extracted facility number.
FIG. 8 is a flowchart showing a processing flow when the map recognition processing system shown in FIG. 1 is executed.
FIG. 9 is a diagram showing an automatic generation processing configuration for automatically generating map background information, a facility information table, and a facility database according to the second embodiment of the present invention.
FIG. 10 is a block diagram showing a configuration of a map recognition processing system according to a third embodiment of the present invention.
FIG. 11 is a flowchart showing a processing flow of an arbitrary data input processing unit in FIG. 10;
12 is a diagram showing an example of a facility information table added to FIG. 3 by the arbitrary data input processing unit shown in FIG. 10;
13 is a diagram illustrating an example of a facility database added to FIG. 4 by the arbitrary data input processing unit illustrated in FIG. 10;
14 is a diagram illustrating an example of a recognition dictionary table added to FIG. 5 by the arbitrary data input processing unit illustrated in FIG. 10;
FIG. 15 is a diagram showing an example of a recognition dictionary table generated by the facility number reading automatic addition processing section shown in FIG. 10;
FIG. 16 is a flowchart showing a processing flow of a conventional map recognition processing system.
FIG. 17 is a diagram showing a recognition dictionary table used in a conventional map recognition processing system.
[Explanation of symbols]
1 map editing processing section, 2 map background information, 3 facility information editing processing section, 4 facility information table, 5 facility database editing processing section, 6 facility database, 7 recognition processing editing processing section, 7a facility number reading automatic addition processing section, 8 recognition processing table, 9 recognition dictionary table, 10 voice recognition processing section, 11 voice input section, 12 map display processing section, 13 display display, 14 corresponding processing section, 14a arbitrary point data input processing section, 15 system control processing section, 16 processing program correspondence table editing processing section, 17 processing program correspondence table, 18 processing program section, 19 facility extraction processing section, 21 map conversion processing section, 22 existing map information, 23 recognition dictionary conversion processing section, 24 reading conversion processing section , 30 Arbitrary point data input processing unit.

Claims (10)

地図背景情報、地図上に表示される各種施設を表示するための施設情報を設定する施設情報テーブルと、施設情報テーブルに対応して施設を音声認識処理手段に認識させるための施設読みを設定する認識処理テーブルと、音声認識処理手段に認識させるための認識単語および認識された時に返す認識IDを設定する認識辞書テーブルと、音声認識時に実行する対応処理を設定する処理プログラム対応テーブルとを備え、地図背景情報、施設情報テーブル、認識処理テーブル、認識辞書テーブルおよび処理プログラム対応テーブルの各種情報を設定する情報設定手段と、地図背景情報および施設情報を表示する地図背景情報/施設情報表示手段と、入力された音声を認識し、その音声認識結果に基づいて認識IDを抽出する音声認識処理手段と、認識IDに対応した施設番号を認識処理テーブルより抽出する施設抽出手段と、処理プログラム対応テーブルに基づいて抽出された施設番号の施設に対する対応処理を実行する対応処理実行手段とを有することを特徴とする地図認識処理システム。A facility information table for setting map background information, facility information for displaying various facilities displayed on the map, and a facility reading for causing the speech recognition processing means to recognize the facility corresponding to the facility information table are set. A recognition processing table, a recognition dictionary table for setting a recognition word to be recognized by the voice recognition processing means and a recognition ID to be returned when recognized, and a processing program correspondence table for setting a corresponding process to be executed at the time of voice recognition. Information setting means for setting various information of a map background information, a facility information table, a recognition processing table, a recognition dictionary table, and a processing program correspondence table; a map background information / facility information display means for displaying map background information and facility information; Voice recognition processing means for recognizing the input voice and extracting a recognition ID based on the voice recognition result; A facility extraction unit for extracting a facility number corresponding to the recognition ID from the recognition processing table; and a correspondence processing execution unit for executing a correspondence process for the facility with the facility number extracted based on the processing program correspondence table. Map recognition processing system. 既存の地図情報に基づいて地図背景情報、施設情報テーブルおよび施設データベースを生成する地図変換処理手段と、施設情報テーブルに基づいて認識処理テーブルを生成する認識辞書変換処理手段とを有することを特徴とする請求項1に記載の地図認識処理システム。Map conversion processing means for generating map background information, a facility information table and a facility database based on existing map information; and recognition dictionary conversion processing means for generating a recognition processing table based on the facility information table. The map recognition processing system according to claim 1. 施設情報テーブルの施設名に基づいて認識処理テーブルの施設読みを生成する読み変換処理手段を有することを特徴とする請求項2に記載の地図認識処理システム。3. The map recognition processing system according to claim 2, further comprising a reading conversion processing unit that generates a reading of the facility in the recognition processing table based on the facility name in the facility information table. 地図上の任意地点を指定する任意地点データ指定処理手段と、情報を入力する情報入力処理手段と、施設情報テーブルより空きの施設番号を抽出する空施設抽出処理手段と、抽出施設番号を指定の任意地点に割り当て、施設情報テーブル、施設データベース、認識処理テーブルに指定任意地点情報を登録する任意データ登録処理手段とを有することを特徴とする請求項1に記載の地図認識処理システム。Arbitrary point data designation processing means for designating an arbitrary point on a map, information input processing means for inputting information, empty facility extraction processing means for extracting a vacant facility number from a facility information table, and designation of an extracted facility number 2. The map recognition processing system according to claim 1, further comprising optional data registration processing means for allocating to the arbitrary point and registering the specified arbitrary point information in a facility information table, a facility database, and a recognition processing table. 認識処理テーブルから認識辞書テーブルを生成する認識処理編集処理を行う際、施設番号の読みを自動的に付加する施設番号読み自動付加処理手段を有することを特徴とする請求項4に記載の地図認識処理システム。5. The map recognition according to claim 4, further comprising a facility number reading automatic addition processing means for automatically adding a facility number reading when performing a recognition processing editing process of generating a recognition dictionary table from the recognition processing table. Processing system. 地図背景情報、地図上に表示される各種施設を表示するための施設情報を設定する施設情報テーブルと、施設情報テーブルに対応して施設を音声認識処理手段に認識させるための施設読みを設定する認識処理テーブルと、音声認識処理手段に認識させるための認識単語および認識された時に返す認識IDを設定する認識辞書テーブルと、音声認識時に実行する対応処理を設定する処理プログラム対応テーブルとを備え、地図背景情報、施設情報テーブル、認識処理テーブル、認識辞書テーブルおよび処理プログラム対応テーブルの各種情報を設定する工程と、次いで、地図背景情報および施設情報を表示する工程と、次いで、入力された音声を認識する工程と、次いで、その音声認識結果に基づいて施設番号を抽出する工程と、次いで、認識IDに対応した施設番号を認識処理テーブルより抽出する工程と、処理プログラム対応テーブルに基づいて抽出された施設番号の施設に対する対応処理を実行する工程とを含むことを特徴とする地図認識処理方法。A facility information table for setting map background information, facility information for displaying various facilities displayed on the map, and a facility reading for causing the speech recognition processing means to recognize the facility corresponding to the facility information table are set. A recognition processing table, a recognition dictionary table for setting a recognition word to be recognized by the voice recognition processing means and a recognition ID to be returned when recognized, and a processing program correspondence table for setting a corresponding process to be executed at the time of voice recognition. A step of setting various information such as a map background information, a facility information table, a recognition processing table, a recognition dictionary table, and a processing program correspondence table; a step of displaying map background information and facility information; Recognizing, then extracting the facility number based on the speech recognition result, and then recognizing A step of extracting from the recognition processing table facility number corresponding to the D, map recognition processing method characterized by comprising the step of executing the corresponding processing for the facilities of the extracted facility number based on the processing program correspondence table. 既存の地図情報に基づいて地図背景情報、施設情報テーブルおよび施設データベースを生成した後、施設情報テーブルに基づいて認識処理テーブルを生成することを特徴とする請求項6に記載の地図認識処理方法。7. The map recognition processing method according to claim 6, wherein after generating map background information, a facility information table, and a facility database based on existing map information, a recognition processing table is generated based on the facility information table. 施設情報テーブルの施設名に基づいて認識処理テーブルの施設読みを生成することを特徴とする請求項7に記載の地図認識処理方法。The map recognition processing method according to claim 7, wherein the facility reading of the recognition processing table is generated based on the facility name of the facility information table. 地図上の任意地点を指定する工程と、情報を入力する工程と、施設情報テーブルより空きの施設番号を抽出する工程と、抽出施設番号を指定の任意地点に割り当て、施設情報テーバル、施設データベース、認識処理テーブルに指定任意地点情報を登録する工程とを含むことを特徴とする請求項6に記載の地図認識処理方法。A step of specifying an arbitrary point on the map, a step of inputting information, a step of extracting a vacant facility number from the facility information table, and assigning the extracted facility number to the specified arbitrary point, a facility information table, a facility database, Registering the designated arbitrary point information in the recognition processing table. 認識処理テーブルから認識辞書テーブルを生成する際、施設番号の読みを自動的に付加する工程を有することを特徴とする請求項9に記載の地図認識処理方法。The map recognition processing method according to claim 9, further comprising a step of automatically adding a reading of a facility number when generating a recognition dictionary table from the recognition processing table.
JP06453096A 1996-03-21 1996-03-21 Map recognition processing system and map recognition processing method Expired - Fee Related JP3550863B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP06453096A JP3550863B2 (en) 1996-03-21 1996-03-21 Map recognition processing system and map recognition processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP06453096A JP3550863B2 (en) 1996-03-21 1996-03-21 Map recognition processing system and map recognition processing method

Publications (2)

Publication Number Publication Date
JPH09258653A JPH09258653A (en) 1997-10-03
JP3550863B2 true JP3550863B2 (en) 2004-08-04

Family

ID=13260877

Family Applications (1)

Application Number Title Priority Date Filing Date
JP06453096A Expired - Fee Related JP3550863B2 (en) 1996-03-21 1996-03-21 Map recognition processing system and map recognition processing method

Country Status (1)

Country Link
JP (1) JP3550863B2 (en)

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06149152A (en) * 1992-11-12 1994-05-27 Hitachi Ltd Map information system
JP3447323B2 (en) * 1993-06-10 2003-09-16 株式会社ザナヴィ・インフォマティクス In-vehicle map display device
JP3514264B2 (en) * 1993-08-17 2004-03-31 松下電器産業株式会社 Electronic map display
JP3606912B2 (en) * 1994-07-22 2005-01-05 本田技研工業株式会社 Vehicle guidance device

Also Published As

Publication number Publication date
JPH09258653A (en) 1997-10-03

Similar Documents

Publication Publication Date Title
JP3425408B2 (en) Document reading device
JP4356745B2 (en) Machine translation system, machine translation method and program
WO2008105611A1 (en) Database auto-building method for link of search data in gis system using cad drawings
WO2020136959A1 (en) Cartoon generation system and cartoon generation method
JP2017004483A (en) System for manufacturing multilingual webtoon (web comics) and its method
JPH07219754A (en) Request definition support device using screen transition diagram
JP3288460B2 (en) Display data generation apparatus and method
JP3550863B2 (en) Map recognition processing system and map recognition processing method
JP3423894B2 (en) Road shape figure deformation method, apparatus, and storage medium recording the method
JPH1097546A (en) Reduced picture read system and its method
JPH0749888A (en) Composite cad system
JPS61221968A (en) Drawing reader
JP2010157165A (en) Information processor, information processing method, and program
JP2006185342A (en) Information processor, method and program for classifying character string, and recording medium
JP2001117488A (en) Method and device for map display
JP2009146196A (en) Translation support system, translation support method and translation support program
JPH08202859A (en) Electronic filing device and its method
JP2005301138A (en) Device and program for interaction processing
JPH10269227A (en) Generating method for classification data
JPH05120399A (en) Image editing device
JPH09293068A (en) Method and device for information processing
JPH05298368A (en) Method for inputting retrieving word in electronic filing system
JP2005209111A (en) Retrieval result processing device, retrieval result processing program, retrieval result processing program recording medium and retrieval result processing system
JP3154790B2 (en) Optical character reader
JPH11167607A (en) Device and method for recognizing address and program storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040301

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20040330

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20040412

LAPS Cancellation because of no payment of annual fees