JP4483454B2 - Car navigation system - Google Patents

Car navigation system Download PDF

Info

Publication number
JP4483454B2
JP4483454B2 JP2004217145A JP2004217145A JP4483454B2 JP 4483454 B2 JP4483454 B2 JP 4483454B2 JP 2004217145 A JP2004217145 A JP 2004217145A JP 2004217145 A JP2004217145 A JP 2004217145A JP 4483454 B2 JP4483454 B2 JP 4483454B2
Authority
JP
Japan
Prior art keywords
range
user
image
input
car navigation
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2004217145A
Other languages
Japanese (ja)
Other versions
JP2006038556A (en
Inventor
昭仁 石川
正敏 安保
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2004217145A priority Critical patent/JP4483454B2/en
Publication of JP2006038556A publication Critical patent/JP2006038556A/en
Application granted granted Critical
Publication of JP4483454B2 publication Critical patent/JP4483454B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Traffic Control Systems (AREA)
  • Instructional Devices (AREA)
  • Navigation (AREA)

Description

本発明は、目的地の指定やメモリ地点の登録のための地点情報をユーザにより入力可能なカーナビゲーション装置に関する。   The present invention relates to a car navigation apparatus that allows a user to input point information for specifying a destination and registering a memory point.

自動車に搭載されるカーナビゲーション装置は、マイコンを備える本体、表示装置、GPS受信機、地図データベース(道路地図データ等を記憶したDVD等のメディア及びそのドライブ装置)等から構成されている。そして、自己の現在位置を検出し表示装置に道路地図と重ね合わせて表示するロケーション機能や、ユーザが指定した目的地までの推奨する経路を計算により探索し、案内するルートガイダンス機能などを備えている。   A car navigation device mounted on an automobile includes a main body including a microcomputer, a display device, a GPS receiver, a map database (a medium such as a DVD storing road map data and its drive device), and the like. It also has a location function that detects its current position and displays it on the display device in a superimposed manner on a road map, and a route guidance function that searches and guides a recommended route to the destination specified by the user. Yes.

このとき、上記地図データベースには、道路地図データに付随して各種の施設,店舗等の目的地データ(名称、住所、電話番号等からなる索引データ)が記憶されている。また、ユーザが、目的地として良く使用する地点(例えば自宅や知人の家等)をメモリ地点として登録しておくこともできるようになっている。そして、ルートガイダンスの機能を実行させるべく、ユーザが目的地を指定するにあたっては、ユーザのタッチパネル等の操作により、施設の名称や住所などを入力することにより、前記目的地データから該当する施設を検索させ、場所を特定することができるようになっている。   At this time, the map database stores destination data (index data consisting of name, address, telephone number, etc.) of various facilities and stores in association with road map data. In addition, the user can register a frequently used point as a destination (for example, a home or an acquaintance's house) as a memory point. In order to execute the route guidance function, when the user designates the destination, by inputting the name and address of the facility by the operation of the user's touch panel or the like, the corresponding facility is determined from the destination data. You can search and identify the location.

ところで、ユーザが、例えば雑誌などで紹介されている施設や店舗に行きたいと思う場合があり、この場合、車内にその雑誌を持込んでそれを見ながら名称や住所を入力することにより、目的地として指定することができる。ところが、特に名称を直接的に指定する場合、ユーザはひらがなを一文字ずつ入力する必要があり、ユーザの操作にかなり手間がかかる不具合がある。   By the way, a user may want to go to a facility or store introduced in a magazine, for example. In this case, the user can bring the magazine into the car and enter the name and address while looking at it. Can be designated as the ground. However, in particular, when the name is directly specified, the user needs to input hiragana character by character, and there is a problem that the user's operation takes much time.

この場合、スキャナなどを用いて書面から画像データを取込み、その画像データから文字認識を行う技術(OCR)は従来から知られている(例えば特許文献1参照)。しかし、自動車の車内に、スキャナを持込んで書面から画像データを取込むといったことは簡易に行えるものではない。
特開2001−157876号公報
In this case, a technique (OCR) for capturing image data from a document using a scanner or the like and performing character recognition from the image data has been conventionally known (see, for example, Patent Document 1). However, it is not easy to bring image data from a document by bringing a scanner into the car.
JP 2001-157876 A

上述のように、雑誌などに掲載された施設や店舗などの名称や住所といった情報を、簡易に文字情報(地点情報)としてカーナビゲーション装置に入力することができれば、ユーザの手間を軽減してより使いやすいものとすることができる。そこで、持運び可能な簡易な画像入力装置として、例えば近年普及が著しいカメラ付き携帯電話を用い、そのカメラによって雑誌の掲載情報を撮影し、その画像データをカーナビゲーション装置に転送し、そこで文字認識を行わせるといったことも考えられる。   As described above, if information such as names and addresses of facilities and shops published in magazines can be easily input to the car navigation device as character information (point information), it is possible to reduce the labor of the user. It can be easy to use. Therefore, as a portable portable image input device, for example, a camera-equipped mobile phone, which has recently become widespread, is used to photograph magazine publication information, and the image data is transferred to a car navigation device where character recognition is performed. It is also possible to make it happen.

但し、この場合、雑誌等には1ページに多量の文字情報が記載されていることが一般的であり、また、ユーザが必要とする施設や店舗の情報が、複数行にまたがって掲載されていたり、リスト状に掲載されていたりする等その掲載形態は様々であるため、取込んだ画像データを単純に文字情報化するだけでは、無駄に認識処理を行なってしまったり、必要な情報(例えば住所の情報等)が一連の文字情報として認識できなかったりすることが予測され、文字認識の効率面あるいは精度面での工夫が必要となる。   However, in this case, it is common that a large amount of text information is written on one page in a magazine, etc., and information on facilities and stores required by the user is spread across multiple lines. There are various forms of posting, such as being posted in a list form, so simply converting the captured image data into text information can cause unnecessary recognition processing or necessary information (for example, It is predicted that the address information or the like) cannot be recognized as a series of character information, and it is necessary to devise in terms of efficiency or accuracy of character recognition.

本発明は上記事情に鑑みてなされたもので、その目的は、対象物に記載された文字情報を、目的地の指定やメモリ地点の登録のための地点情報として簡易に入力することが可能なカーナビゲーション装置を提供するにある。   The present invention has been made in view of the above circumstances, and the purpose of the present invention is to be able to easily input character information described in an object as point information for specifying a destination or registering a memory point. To provide a car navigation device.

上記目的を達成するために、本発明のカーナビゲーション装置は、目的地の指定やメモリ地点の登録のための地点情報をユーザにより入力可能なものであって、前記地点情報が記載された対象物の画像を入力するための画像データ入力手段と、この画像データ入力手段により入力された画像を表示する入力画像表示手段と、この入力画像表示手段に表示された画像中の範囲を指定するための範囲指定手段と、前記画像中の前記範囲指定手段により指定された範囲内に含まれる文字情報を地点情報として認識する認識手段とを具備し、前記画像中の必要とする文字情報が複数行にまたがる場合、或いは複数の範囲に渡る場合に、前記範囲指定手段により複数の範囲を連続して指定することが可能に構成されていると共に、前記認識手段は、前記範囲指定手段により複数の範囲が連続して指定された場合には、それら複数の範囲の文字情報を一連の文字列として認識するところに特徴を有する(請求項1の発明)。 In order to achieve the above object, the car navigation device of the present invention can input point information for specifying a destination or registering a memory point by a user, and the object in which the point information is described Image data input means for inputting the image, input image display means for displaying the image input by the image data input means, and a range in the image displayed on the input image display means a range specifying means, the range specifying means text information contained in the specified range comprises a recognition means for recognizing a spot information, the character information multiline require in the image in the image In the case of spanning or over a plurality of ranges, the range designating unit is capable of designating a plurality of ranges continuously, and the recognition unit When a plurality of ranges are specified successively by enclosed specifying means it is characterized in place to recognize those character information of a plurality of ranges as a series of strings (invention of claim 1).

これによれば、ユーザは、地点情報が記載された対象物(例えば雑誌等の書面)の画像を画像データ入力手段により入力することができ、その入力画像が入力画像表示手段に表示されるようになる。そして、ユーザが、範囲指定手段により、表示画像中の範囲を指定すると、認識手段により、画像中の指定された範囲内に含まれる文字情報が地点情報として認識されるようになる。従って、雑誌等の対象物に掲載された施設や店舗などの名称や住所といった情報を、簡易に文字情報(地点情報)として入力することができ、ユーザの手間を軽減してより使いやすいものとすることができる。しかも、文字認識の処理は、ユーザが範囲指定手段により指定した範囲内について行われるので、必要な文字情報部分のみを効率良く確実に認識することができるようになる。   According to this, the user can input an image of an object (for example, a document such as a magazine) in which the point information is described by the image data input means, and the input image is displayed on the input image display means. become. When the user designates a range in the display image by the range designation means, the character information included in the designated range in the image is recognized as point information by the recognition means. Therefore, it is possible to easily input information such as names and addresses of facilities and stores published in objects such as magazines as character information (point information), making it easier to use by reducing the user's trouble. can do. In addition, since the character recognition process is performed within the range designated by the user using the range designating means, only the necessary character information portion can be recognized efficiently and reliably.

ところで、近年、自動車などの車両においては、車両の前方や周囲を撮影するための車載カメラを設けることが考えられている。そこで、上記構成において、車内に設けられる車載カメラを、画像データ入力手段として使用することができ(請求項2の発明)、これにより、画像データ入力手段を別途設ける必要がなくなり、構成を簡単に済ませることができる。   By the way, in recent years, in vehicles such as automobiles, it is considered to provide an in-vehicle camera for photographing the front and surroundings of the vehicle. Therefore, in the above configuration, the in-vehicle camera provided in the vehicle can be used as the image data input means (the invention of claim 2), thereby eliminating the need to separately provide the image data input means and simplifying the configuration. I can finish it.

また、上記範囲指定手段を、入力画像表示手段の表面に設けられたタッチパネルを含んで構成することができる(請求項3の発明)。これによれば、ユーザは、入力画像表示手段の画面を直接的に触れるようにしながら、文字認識の範囲の指定を行うことが可能となり、範囲指定の操作を、判り易く簡単に行うことができる。   In addition, the range specifying means can be configured to include a touch panel provided on the surface of the input image display means (invention of claim 3). According to this, the user can designate the range of character recognition while directly touching the screen of the input image display means, and the range designation operation can be easily and easily understood. .

そして、前記範囲指定手段による範囲の指定の手法としては、次のような形態が考えられる。即ち、まず、ユーザが範囲の始端部及び終端部を指示操作することによって行うように構成することができる(請求項4の発明)。あるいは、ユーザが必要な文字情報部分をドラッグ操作することによって行うように構成することができる(請求項5の発明)。次に、ユーザが該範囲を示す枠を設定操作することによって行うように構成することができる(請求項6の発明)。さらには、ユーザが範囲の中心を指示すると共にその広がりを指定することによって行うように構成することができる(請求項7の発明)。いずれの手法によっても、ユーザは範囲の指定を容易且つ確実に行うことができる。   Then, as a method for designating a range by the range designating means, the following forms can be considered. That is, it can be configured such that the user first performs an instruction operation on the start and end portions of the range (invention of claim 4). Or it can comprise so that it may carry out by dragging a required character information part by a user (invention of Claim 5). Next, it can be configured such that the user performs a setting operation of a frame indicating the range (invention of claim 6). Furthermore, it can be configured such that the user designates the center of the range and designates the spread (invention of claim 7). With either method, the user can specify the range easily and reliably.

基本構成
以下、カーナビゲーション装置の基本構成について、図1ないし図3を参照しながら説明する。まず、図1は、車両(自動車)に組込まれたカーナビゲーション装置1の全体構成を概略的に示しており、また、ここでは、画像データ入力手段として車両に搭載された車載カメラ2を利用できるように構成されている。ここで、前記カーナビゲーション装置1は、自車位置検出器3、画像入力部4、これらに接続された制御回路5、この制御回路5に接続された地図データベース6、表示部7、入力装置部8、音声出力装置9、画像認識部10等を備えて構成されている。
< Basic configuration >
Hereinafter, a basic configuration of the car navigation apparatus will be described with reference to FIGS. 1 to 3. First, FIG. 1, the overall configuration of the mosquito over the navigation device 1 incorporated in a vehicle (automobile) schematically shows, also here, utilizes the vehicle-mounted camera 2 mounted as an image data input unit to the vehicle It is configured to be able to. Here, the car navigation device 1 includes an own vehicle position detector 3, an image input unit 4, a control circuit 5 connected thereto, a map database 6 connected to the control circuit 5, a display unit 7, an input device unit. 8, an audio output device 9, an image recognition unit 10 and the like.

そのうち自車位置検出器3は、GPS用の人工衛星からの送信電波に基づいて自車両の位置を検出(測位)するGPS(Global Positioning System )のためのGPS受信機11、自車両の回転角速度を検出するジャイロスコープ12、自車両の走行速度を検出する車速センサ13、周知構成の地磁気センサ14を有している。前記制御回路5は、位置検出器3の各センサ11〜14が性質の異なる誤差を有しているため、各々補間しながら使用するように構成されており、それらからの入力に基づいて、自車両の現在位置、進行方向、速度や走行距離、現在時刻等を高精度で検出するようになっている。尚、精度によっては、上記したセンサ11〜14のうちの一部を省略して構成しても良く、上記以外に、ステアリングの回転センサや、距離センサ等を採用することも可能である。   Among them, the own vehicle position detector 3 is a GPS receiver 11 for GPS (Global Positioning System) that detects (positions) the position of the own vehicle based on a radio wave transmitted from an artificial satellite for GPS, and the rotational angular velocity of the own vehicle. Has a gyroscope 12, a vehicle speed sensor 13 for detecting the traveling speed of the host vehicle, and a geomagnetic sensor 14 having a known configuration. Since the sensors 11 to 14 of the position detector 3 have errors having different properties, the control circuit 5 is configured to be used while being interpolated. The current position, traveling direction, speed, travel distance, current time, etc. of the vehicle are detected with high accuracy. Depending on the accuracy, a part of the above-described sensors 11 to 14 may be omitted, and in addition to the above, a steering rotation sensor, a distance sensor, or the like may be employed.

前記地図データベース6は、道路地図データやそれに付随する目的地データ(索引データ)などの各種データを記憶したメディア及びそのメディアからデータを入力するためのドライブ装置からなり、前記メディアとしては、例えばCD−ROMやDVD、ハードディスク等の大容量記憶媒体が用いられる。尚、前記道路地図データは、道路形状、道路名、建造物、各種施設、それらの電話番号、地名、地形等のデータを含むと共に、その道路地図を前記表示部7の画面上に再生するためのデータを含んで構成されている。   The map database 6 includes a medium storing various data such as road map data and destination data (index data) accompanying the road map data, and a drive device for inputting data from the medium. -A mass storage medium such as a ROM, DVD, or hard disk is used. The road map data includes data such as road shapes, road names, buildings, various facilities, their telephone numbers, place names, and terrain, and the road map is reproduced on the screen of the display unit 7. It is comprised including the data of.

また、前記目的地データは、交通機関、レジャー施設、宿泊施設、公共施設等の施設や、小売店、デパート、レストラン等の各種の店舗などに関する情報からなり、それら施設を示すランドマークを、表示部7の画面上に道路地図に重ね合せて表示するためのデータを含んで構成されている。このとき、この目的地データは、各施設、店舗等の位置データを、その種類や、名称、住所、電話番号等から検索できるように構成されている。尚、ユーザが、目的地として良く使用する地点(例えば自宅や知人の家等)をメモリ地点として登録し、メモリ(図示省略)に記憶させておくことができるようになっている。   The destination data includes information on facilities such as transportation facilities, leisure facilities, accommodation facilities, public facilities, and various stores such as retail stores, department stores, restaurants, etc., and displays landmarks indicating these facilities. It is configured to include data for displaying on the road map superimposed on the screen of the unit 7. At this time, the destination data is configured such that position data of each facility, store, and the like can be searched from the type, name, address, telephone number, and the like. The user can register a frequently used destination (for example, a home or an acquaintance's house) as a memory point and store it in a memory (not shown).

前記表示部7は、例えば液晶ディスプレイからなり、その画面には、各種縮尺の道路地図が表示されると共に、その表示に重ね合わせて、車両の現在位置及び進行方向を示すポインタが表示されるようになっている。また、ユーザが目的地などを入力するための各種の入力用画面や、各種のメッセージ等も表示されるようになっている。さらには、目的地までの案内を行なうルートガイダンス機能の実行時には、道路地図に重ね合わせて進むべき経路等が表示されるようになっている。このとき、後述するように、画像データから目的地を指定する(あるいはメモリ地点を登録する)際には、表示部7の画面に入力された画像が表示されるようになっている(図3参照)。   The display unit 7 is composed of, for example, a liquid crystal display, and a road map of various scales is displayed on the screen, and a pointer indicating the current position and traveling direction of the vehicle is displayed so as to be superimposed on the display. It has become. In addition, various input screens for the user to input a destination, various messages, and the like are also displayed. Furthermore, when a route guidance function for guiding to a destination is executed, a route to be overlapped on a road map is displayed. At this time, as will be described later, when the destination is specified from the image data (or when the memory point is registered), the input image is displayed on the screen of the display unit 7 (FIG. 3). reference).

前記入力装置部8は、詳しく図示はしないが、表示部7の画面の近傍に設けられたメカニカルスイッチや、表示部7の画面上に設けられるタッチパネルを含んでなり、ユーザ(ドライバ)は、それら入力装置部8を用いて、目的地の指定や、表示部7に表示される道路地図の縮尺の選択等の各種のコマンドを入力することができるようになっている。また、ユーザが音声によりコマンドを入力するためのマイク(音声入力装置)や、リモコンなども設けられている。前記音声出力装置9は、ルートガイダンス時等において、スピーカから合成音声による必要な各種メッセージを出力するように構成されている。   Although not illustrated in detail, the input device unit 8 includes a mechanical switch provided in the vicinity of the screen of the display unit 7 and a touch panel provided on the screen of the display unit 7. Various commands such as designation of a destination and selection of a scale of a road map displayed on the display unit 7 can be input using the input device unit 8. In addition, a microphone (voice input device) for a user to input a command by voice, a remote controller, and the like are also provided. The voice output device 9 is configured to output various necessary messages using synthesized voice from a speaker during route guidance or the like.

前記制御回路5は、CPU,ROM,RAMなどからなる周知のマイクロコンピュータを主体として構成されており、カーナビゲーション装置1の全体を制御するようになっている。このとき、この制御回路5は、そのソフトウエア的構成により、自車両の現在位置を知るロケーション機能を実現すると共に、前記地図データベース6の地図データに基づいて指定された目的地までの推奨する経路を探索し案内するルートガイダンス機能を実現するようになっている。   The control circuit 5 is composed mainly of a known microcomputer comprising a CPU, ROM, RAM, etc., and controls the entire car navigation apparatus 1. At this time, the control circuit 5 realizes a location function for knowing the current position of the host vehicle by the software configuration, and recommends a route to a destination designated based on the map data of the map database 6. A route guidance function for searching for and guiding the user is realized.

そのうちロケーション機能は、上述のように、地図データベース6からの地図データに基づいて表示部7の画面に道路地図を表示させると共に、自車位置検出器3の検出に基づいて車両の現在位置及び進行方向を示す現在地マークを表示させるものである。この場合、車両の走行に伴って現在位置の表示は地図上を移動すると共に、地図は車両の位置に応じてスクロール表示されるようになる。また、このとき、車両の現在位置を道路上にのせるマップマッチングが行なわれるようになっている。   Among them, the location function displays the road map on the screen of the display unit 7 based on the map data from the map database 6 as described above, and also determines the current position and progress of the vehicle based on the detection of the vehicle position detector 3. The current location mark indicating the direction is displayed. In this case, as the vehicle travels, the display of the current position moves on the map, and the map is scrolled according to the position of the vehicle. At this time, map matching is performed in which the current position of the vehicle is placed on the road.

また、ルートガイダンス機能は、ユーザの入力装置部8の入力操作に基づいて、車両の出発点(現在位置)から、ユーザにより指定された目的地までの推奨する走行経路を、ユーザにより指定された条件(例えば有料道優先、一般道優先、距離優先、推奨等)に従って周知のダイクストラ法を用いて自動的に計算し、これと共に、表示部7の画面にその走行経路を他の道路とは色を変えて表示して目的地まで案内し、さらに音声出力装置9から、例えば「200m先の交差点を左です」といった案内音声を所要のタイミングで出力させることにより行われるものである。   In addition, the route guidance function allows the user to specify a recommended travel route from the starting point (current position) of the vehicle to the destination specified by the user based on the input operation of the input device unit 8 by the user. It is automatically calculated using a well-known Dijkstra method according to conditions (for example, toll road priority, general road priority, distance priority, recommendation, etc.) and, along with this, the driving route is displayed on the screen of the display unit 7 as a color with other road Is displayed and guided to the destination, and further, for example, by outputting a guidance voice from the voice output device 9 such as “the intersection is 200 m ahead on the left” at a required timing.

そして、前記画像入力部4は、ユーザの所持する小型機器例えばカメラ付き携帯電話機やデジタルカメラが接続可能とされ、それらによって撮影された画像データを、カーナビゲーション装置1に取込むように構成されている。前記画像認識部10は、前記画像入力部4あるいは車載カメラ2から入力された画像データの処理を行ない、文字情報として認識するOCR機能を備えたものである。   The image input unit 4 can be connected to a small device owned by the user, such as a mobile phone with a camera or a digital camera, and is configured to capture image data captured by the device into the car navigation device 1. Yes. The image recognition unit 10 is provided with an OCR function that processes image data input from the image input unit 4 or the in-vehicle camera 2 and recognizes it as character information.

一方、前記車載カメラ2は、例えばCCDカメラからなり、例えば車内に設けられている。この場合、この車載カメラ2は、通常時においては、例えば車両の前方あるいは周辺を撮影するようになっており、その際の撮影画像データが、例えばドライバに向けての周囲情報として図示しない表示装置に表示されたり、あるいは、先行車との車間距離の自動検出等に用いられる。このとき、この車載カメラ2は、その向きを任意に変更する(あるいはユーザが取外して自在に移動させる)ことが可能に設けられており、この車載カメラ2により撮影された画像データを、前記制御回路5に入力できるように構成されている。 On the other hand, the in-vehicle camera 2 is composed of a CCD camera, for example, and is provided in the vehicle, for example. In this case, the in-vehicle camera 2 normally captures, for example, the front or the periphery of the vehicle, and the captured image data at that time is a display device (not shown) as, for example, ambient information for the driver. Or used for automatic detection of the inter-vehicle distance from the preceding vehicle. At this time, the vehicle-mounted camera 2 of this, the orientation of the optionally modified (or user moves freely removed) is provided to be capable, the image data captured by the onboard camera 2, the It is configured to be able to input to the control circuit 5.

さて、後の作用説明でも述べるように、カーナビゲーション装置1においては、ユーザによる上記目的地の指定(あるいはメモリ地点の登録)の方法の一つとして、ユーザが入力した画像からの文字認識に基づいて、指定したい施設や店舗の名称あるいは住所あるいは電話番号といった地点情報を入力する方法がある。この場合、ユーザは、地点情報が掲載された対象物(例えば雑誌等の書面)の画像を、上記した車載カメラ2により直接撮影する、あるいは、携帯電話機のカメラやデジカメで撮影して画像入力部4を介して入力することができる。 Now, as described in the action description below, the mosquitoes over the navigation device 1, as a way of specifying the destination by the user (or registered in the memory location), the character recognition from the image input by the user There is a method of inputting point information such as the name or address of a facility or store to be designated or a telephone number. In this case, the user directly captures an image of an object (for example, a document such as a magazine) on which the location information is posted, by using the above-described in-vehicle camera 2 or by using a camera or a digital camera of a mobile phone and inputs an image 4 can be entered.

この方法では、ユーザが、表示部7に目的地指定の初期画面を表示させた状態で、「画像入力」を選択することにより、制御回路5は、まず、前記車載カメラ2あるいは画像入力部4から画像データを取込んで、表示部7の画面に表示させるようになっている(図3参照)。従って、車載カメラ2及び画像入力部4が画像データ入力手段として機能し、表示部7(及び制御回路5)が入力画像表示手段として機能するようになっている。   In this method, when the user selects “image input” in a state where the initial screen for specifying the destination is displayed on the display unit 7, the control circuit 5 firstly has the on-vehicle camera 2 or the image input unit 4. Image data is taken in and displayed on the screen of the display unit 7 (see FIG. 3). Accordingly, the in-vehicle camera 2 and the image input unit 4 function as image data input means, and the display unit 7 (and the control circuit 5) functions as input image display means.

そして、制御回路5は、取込んだ画像を表示部7の画面に表示した状態で、ユーザによる範囲指定を受付け、その範囲に含まれる画像データを画像認識部10によって処理させてその範囲内に含まれる文字情報を認識させるようになっている。このとき、ユーザは、入力装置部8のうちのタッチパネルを用い、表示部7の画面を直接タッチすることにより文字情報として入力したい(読取らせたい)範囲の指定を行うことが可能とされている。従って、タッチパネル等が範囲指定手段として機能し、画像認識部10等が認識手段として機能するようになっている。   Then, the control circuit 5 accepts the range designation by the user in a state where the captured image is displayed on the screen of the display unit 7, and causes the image recognition unit 10 to process the image data included in the range and within the range. It is designed to recognize the included character information. At this time, the user can specify a range that he / she wants to input (read) as character information by directly touching the screen of the display unit 7 using the touch panel of the input device unit 8. Yes. Accordingly, the touch panel or the like functions as a range designation unit, and the image recognition unit 10 or the like functions as a recognition unit.

また、これも後の作用説明にて詳述するように、ユーザによるタッチパネルを用いた範囲の指定の手法としては、範囲の始端部及び終端部を指示操作する、必要な文字情報部分をドラッグ操作する、範囲を示す枠を設定操作する、範囲の中心を指示すると共にその広がりを指定する、といった4つの形態のいずれかを用いることができるようになっている。 Further, as also described in detail in explaining the operation of the post, as the specified method ranges using a touch panel according to Yu chromatography THE instructs manipulate beginning and end of the range, the character information portion necessary One of four modes can be used: dragging operation, setting operation of a frame indicating the range, designating the center of the range, and designating the spread.

次に、上記構成の作用について、図2及び図3も参照しながら説明する。今、ユーザが、例えば雑誌に掲載されている店舗等を、カーナビゲーション装置1のルートガイダンスの目的地として指定(あるいはメモリ地点として登録)したいと考えた場合、その雑誌を車内に持ち込む。そして、上述のように、表示部7の目的地指定の初期画面において「画像入力」を選択した上で、例えば車載カメラ2により、その雑誌における該当する店舗の住所などが記載されている部分(ページ)を撮影する。すると、撮影した画像データがカーナビゲーション装置1に取込まれて、表示部7の画面に表示されるようになる。   Next, the operation of the above configuration will be described with reference to FIGS. Now, when the user wants to designate, for example, a store or the like published in a magazine as a destination for route guidance of the car navigation device 1 (or register as a memory location), the magazine is brought into the vehicle. Then, as described above, after selecting “image input” on the destination designation initial screen of the display unit 7, for example, a part in which the address of the corresponding store in the magazine is described by the in-vehicle camera 2 ( Page). Then, the captured image data is taken into the car navigation device 1 and displayed on the screen of the display unit 7.

図2のフローチャートは、車載カメラ2から入力された画像データから、文字情報を地点情報として認識する際に、制御回路5が実行する処理手順を示している。即ち、まずステップS1では、表示部7の画面に表示されている入力画像中の認識する範囲をユーザが指定する処理が実行される。ここでは、ユーザは、タッチパネルの操作により、必要な情報(例えば目的地の住所情報の文字列)が含まれる範囲を指定するのであるが、その手法については後述する。   The flowchart of FIG. 2 shows a processing procedure executed by the control circuit 5 when character information is recognized as point information from image data input from the in-vehicle camera 2. That is, first, in step S1, a process in which the user designates a recognition range in the input image displayed on the screen of the display unit 7 is executed. Here, the user designates a range including necessary information (for example, a character string of destination address information) by operating the touch panel. The method will be described later.

このとき、ユーザの指定した範囲は、表示部7の画面上で分るように例えば白黒反転して表示されるようになり、ステップS2では、ユーザの確認を得る処理が行われる。確認が得られない場合には(ステップS2にてNo)、ステップS1に戻って再度範囲の指定が行われる。確認が得られた場合には(ステップS2にてYes)、ステップS3にて、ユーザにより指定された範囲内の画像データが画像認識部10に送られ、その範囲内における文字認識の処理が行われる。そして、次のステップS4では、その認識結果が表示部7に表示され、ステップS5では、認識結果が地点情報(例えば目的地の住所)として取込まれ、目的地の検索等の処理が行われるのである。   At this time, the range designated by the user is displayed, for example, in black and white reversed so that it can be seen on the screen of the display unit 7, and in step S2, a process for obtaining the user's confirmation is performed. If the confirmation cannot be obtained (No in step S2), the process returns to step S1 and the range is designated again. If the confirmation is obtained (Yes in step S2), in step S3, the image data within the range specified by the user is sent to the image recognition unit 10, and character recognition processing within that range is performed. Is called. Then, in the next step S4, the recognition result is displayed on the display unit 7, and in step S5, the recognition result is taken in as point information (for example, the address of the destination), and processing such as searching for the destination is performed. It is.

次に、図3を参照しながら、上記したユーザによる範囲の指定の手法(4種類の手法)について述べる。尚、ここでは、図3に示すように、「愛知県刈谷市昭和町1−1」といった住所情報を必要な情報として入力する場合を例としてあげている。また、このとき、表示部7の画面上には、画面の横方向をX方向、縦方向をY方向としたXY座標系が設定される。   Next, referring to FIG. 3, the above-described method for designating a range by the user (four types of methods) will be described. Here, as shown in FIG. 3, an example of inputting address information such as “1-1, Showacho, Kariya City, Aichi Prefecture” as necessary information is given as an example. At this time, an XY coordinate system in which the horizontal direction of the screen is the X direction and the vertical direction is the Y direction is set on the screen of the display unit 7.

図3(a)は、範囲の始端部及び終端部を指示操作する場合の例を示す。この場合、ユーザは、まず「愛」の文字の左側を指でタッチ操作し(1)、次いで「1−1」の右側をタッチ操作する(2)。それらのタッチ操作は同時あるいは逆の順序でも良い。制御回路5は、それらを、始点座標(Xs,Ys)及び終点座標(Xe,Ye)として夫々検出する。そして、YsとYeとの差が所定値以下であるときには、高さ方向(Y方向)を初期定数として範囲を設定する。図中破線で囲まれた四角形の領域が指定範囲とされる。また、YsとYeとの差が所定値を越えている場合には、点(Xs,Ys)、点(Xe,Ys)、点(Xs,Ye)、点(Xe,Ye)を頂点とした四角形の領域を範囲とする。   FIG. 3 (a) shows an example in which a start operation and an end operation of the range are instructed. In this case, the user first performs a touch operation with the finger on the left side of the word “love” (1), and then performs a touch operation with the right side of “1-1” (2). These touch operations may be performed simultaneously or in the reverse order. The control circuit 5 detects them as start point coordinates (Xs, Ys) and end point coordinates (Xe, Ye), respectively. When the difference between Ys and Ye is equal to or smaller than a predetermined value, the range is set with the height direction (Y direction) as an initial constant. A rectangular area surrounded by a broken line in the figure is a designated range. When the difference between Ys and Ye exceeds a predetermined value, the point (Xs, Ys), the point (Xe, Ys), the point (Xs, Ye), and the point (Xe, Ye) are set as vertices. The area is a rectangular area.

図3(b)は、必要な文字情報部分をドラッグ操作する場合の例を示す。この場合、ユーザは、まず「愛」の文字の左側を指でタッチ操作し(1)、引続き文字をなぞるように右方に向けてドラッグ操作し、「1−1」の右側で指を離す(2)。制御回路5は、(1)を始点座標(Xs,Ys)として検出し、更にドラッグ操作を検出すると、指が離れた点(2)を終点座標(Xe,Ye)として検出する。そして、始点(Xs,Ys)と終点(Xe,Ye)とを結ぶ直線に、高さ方向(Y方向)両側に一定値を加えた領域を指定範囲(破線で示す)とする。   FIG. 3B shows an example in which a necessary character information part is dragged. In this case, the user first touches the left side of the character “love” with a finger (1), continues to drag the character to the right so as to trace the character, and releases the finger on the right side of “1-1”. (2). When the control circuit 5 detects (1) as the start point coordinates (Xs, Ys) and further detects a drag operation, the control circuit 5 detects the point (2) where the finger is released as the end point coordinates (Xe, Ye). Then, an area obtained by adding a constant value on both sides in the height direction (Y direction) to the straight line connecting the start point (Xs, Ys) and the end point (Xe, Ye) is set as a designated range (indicated by a broken line).

図3(c)は、範囲を示す枠を設定操作する場合の例を示す。この場合、ユーザは、「愛知県刈谷市昭和町1−1」の文字が含まれる矩形の範囲(枠)を仮想し、例えば、まず「愛」の文字の下方の位置(矩形枠の左下の頂点となるべき位置)を指でタッチ操作し(1)、引続き仮想した矩形の枠に沿ってなぞるように上方、右方、下方、左方の順に一筆書きの要領でドラッグ操作を行い、元に戻ったと思われる位置で指を離す(2)。制御回路5は、(1)を始点座標(Xs,Ys)として検出し、更にドラッグ操作の軌跡となる座標を記憶しておき、指が離れた点(2)の座標を終点座標(Xe,Ye)として検出する。そして、始点座標(Xs,Ys)から終点座標(Xe,Ye)までを閉じた範囲として認識し、軌跡におけるX方向、Y方向夫々の最大座標、最小座標から矩形の領域を指定範囲(破線で示す)とする。   FIG. 3C shows an example of a setting operation for a frame indicating a range. In this case, the user virtually imagines a rectangular range (frame) that includes the characters “1-1, Showamachi, Kariya City, Aichi Prefecture”, for example, first, the position below the characters “love” (lower left corner of the rectangular frame). (1) Touch with your finger (the position that should be the apex) and continue dragging in the order of one stroke in the order of upper, right, lower, and left so that you can trace along the virtual rectangular frame. Release your finger at the position where you think you have returned to (2). The control circuit 5 detects (1) as the start point coordinates (Xs, Ys), further stores the coordinates as the locus of the drag operation, and sets the coordinates of the point (2) where the finger is released as the end point coordinates (Xe, Detect as Ye). Then, the start point coordinates (Xs, Ys) to the end point coordinates (Xe, Ye) are recognized as a closed range, and a rectangular area is specified from the maximum coordinate and the minimum coordinate in the X direction and the Y direction in the trajectory. Show).

図3(d)は、範囲の中心を指示すると共にその広がりを指定する場合の例を示す。この際には、表示部3の画面(左上部及び右上部)に、アップキー及びダウンキーが一対となった高さ調整キーH、及び、やはりアップキー及びダウンキーが一対となった幅調整キーWが表示されるようになる。この場合、ユーザは、まず「愛知県刈谷市昭和町1−1」の文字の中心部を指でタッチ操作する(1)。次いで、高さ調整キーHを操作して、指定したい範囲の中心からの上下(Y)方向の広がりを設定すると共に、幅調整キーWを操作して、指定したい範囲の中心からの左右(X)方向の広がりを設定する。制御回路5は、(1)を中心座標(Xc,Yc)として検出すると共に、設定された高さ及び幅に基づいて、矩形の領域を指定範囲(破線で示す)とする。   FIG. 3 (d) shows an example in which the center of the range is designated and the spread is designated. At this time, a height adjustment key H in which the up key and the down key are paired and a width adjustment in which the up key and the down key are also paired on the screen (upper left and upper right) of the display unit 3. The key W is displayed. In this case, the user first performs a touch operation on the center of the character “1-1, Showamachi, Kariya City, Aichi Prefecture” with a finger (1). Next, the height adjustment key H is operated to set the vertical (Y) direction spread from the center of the range to be specified, and the width adjustment key W is operated to set the left and right (X ) Set the direction spread. The control circuit 5 detects (1) as the center coordinates (Xc, Yc) and sets a rectangular area as a designated range (indicated by a broken line) based on the set height and width.

このような構成によれば、次のような効果を奏する。即ち、ユーザが車載カメラ2にて撮影した画像データからの文字認識に基づいて、指定したい施設や店舗の名称、住所、電話番号といった地点情報を入力することができるようにした。従って、名称を指定するにあたってユーザがひらがなを一文字ずつ入力する必要があった従来のものと異なり、雑誌等の対象物に掲載された施設や店舗などの名称や住所といった情報を、簡易に文字情報(地点情報)として入力することができ、ユーザの手間を軽減してより使いやすいものとすることができる。 According to such a configuration , the following effects can be obtained. That is, the user can input point information such as the name, address, and telephone number of the facility or store that the user wants to specify based on the character recognition from the image data captured by the in-vehicle camera 2. Therefore, unlike the conventional case where the user has to input hiragana character by character to specify the name, information such as names and addresses of facilities and stores that are published in objects such as magazines can be simply written as text information. It can be input as (point information), and can be made easier to use by reducing the user's trouble.

そして、ユーザがタッチパネルの操作により指定した範囲内についてのみ文字認識の処理が行われるので、必要な文字情報部分のみを効率良く確実に認識することができるようになる。この場合、ユーザは、表示部7の画面を直接的に触れるようにしながら、文字認識の範囲の指定を行うことが可能となり、範囲指定の操作を、判り易く簡単に行うことができる。更に、画像データの入力手段として、車載カメラ2を利用するようにしたので、画像データ入力手段を別途設ける必要がなくなり、構成を簡単に済ませることができるといったメリットも得ることができる。 Then, since the character recognition process is performed only within the range designated by the operation of the touch panel by the user, only the necessary character information portion can be recognized efficiently and reliably. In this case, the user can specify the range of character recognition while touching the screen of the display unit 7 directly, and the range specifying operation can be performed easily and easily. Furthermore, as the input means images data. Thus utilizing onboard camera 2, it is not necessary to separately provide an image data input unit, it can be obtained also merit can dispense the configuration simple.

第1第3の実施例、他の実施例>
図4〜図6は、夫々本発明の第1第3の実施例を示している。以下、これら各実施例について、上記した基本構成と異なる点についてのみ順に述べる。ここで、上記した基本構成では、図3に示したように、入力したい地点情報(住所情報)が1行にまとまって記載されている場合を例としたが、実際には、雑誌等には、必要とする情報が複数行にまたがって掲載、例えばある行の最後と次の行の初めの2箇所に分離した形態で掲載されているといったことも考えられる。
< First to third embodiments, other embodiments>
4 to 6 show first to third embodiments of the present invention, respectively. Hereinafter, in each of these embodiments, only the points different from the basic configuration described above will be described in order. Here, in the basic configuration described above, as shown in FIG. 3, as an example, the point information (address information) to be input is described in one line. It is also conceivable that necessary information is posted across a plurality of lines, for example, in a form separated into two places at the end of one line and at the beginning of the next line.

図4は、本発明の第1の実施例を示すもので、範囲の指定が複数回に渡って行われる場合の制御回路5が実行する処理手順を示すフローチャートである。この場合も、ユーザは表示部7の目的地指定の初期画面において「画像入力」を選択した上で、例えば車載カメラ2により、入力したい店舗の住所などが掲載されている雑誌の部分(ページ)を撮影する。すると、撮影した画像データがカーナビゲーション装置1に取込まれて、表示部7の画面に表示されるようになる。またこのときには、表示部7の画面に「次の範囲指定」や「範囲指定完了」のキーが表示(タッチパネル上に設定)されるようになっている。 FIG. 4 shows a first embodiment of the present invention, and is a flowchart showing a processing procedure executed by the control circuit 5 when a range is designated a plurality of times. In this case as well, the user selects “image input” on the destination designation initial screen of the display unit 7 and then, for example, the portion (page) of the magazine in which the address of the store to be input is posted by the in-vehicle camera 2. Shoot. Then, the captured image data is taken into the car navigation device 1 and displayed on the screen of the display unit 7. At this time, the “next range designation” and “range designation complete” keys are displayed (set on the touch panel) on the screen of the display unit 7.

まずステップS11では、表示部7の画面に表示されている入力画像中の認識する範囲をユーザが指定する処理が実行される。ここで、入力したい文字情報が複数の範囲に渡る場合には、ユーザは、まず1番目の範囲を指定する。範囲の指定は、上記した基本構成と同様にして行うことができる。そして、ユーザは、複数の範囲を指定したい場合には、「次の範囲指定」のキーを操作する(ステップS12にてYes)。すると、ステップS13にて、前回に指定した範囲が記憶された上で、ステップS11に戻り次の範囲を指定することができる。 First, in step S <b> 11, processing is performed in which the user designates a recognition range in the input image displayed on the screen of the display unit 7. Here, when the character information to be input covers a plurality of ranges, the user first designates the first range. The range can be specified in the same manner as the basic configuration described above. When the user wants to designate a plurality of ranges, the user operates the “next range designation” key (Yes in step S12). Then, in step S13, after the range designated last time is stored, the process can return to step S11 and the next range can be designated.

このようにして全ての範囲の指定が完了した場合には、ユーザが「範囲指定完了」のキーを操作すると(ステップS14にてYes)、ステップS15にて、ユーザにより指定された複数の範囲内の画像データが画像認識部10に送られ、それら各範囲内における文字認識の処理が行われる。次のステップS16では、その認識結果が表示部7に表示される。このときには、複数の範囲における認識結果が一連の文字列として表示されるようになる。図示はしないが、この後、認識結果が地点情報(例えば目的地の住所)として取込まれ、目的地の検索等の処理が行われるのである。   When the specification of all the ranges is completed in this way, when the user operates the “range specification complete” key (Yes in step S14), in step S15, a plurality of ranges are specified. The image data is sent to the image recognition unit 10 and character recognition processing is performed within each range. In the next step S16, the recognition result is displayed on the display unit 7. At this time, recognition results in a plurality of ranges are displayed as a series of character strings. Although not shown, thereafter, the recognition result is taken in as point information (for example, the address of the destination), and processing such as searching for the destination is performed.

図5のフローチャートは、本発明の第2の実施例を示すものであり、範囲の指定が複数回に渡って行われる場合における、図4とは異なる処理の例を示している。即ち、ステップS21では、表示部7の画面に表示されている入力画像中の認識する範囲をユーザが指定する処理が実行される。ここで、入力したい文字情報が複数の範囲に渡る場合には、ユーザは、まず1番目の範囲を指定する。次のステップS22では、ユーザにより指定された範囲内の画像データが画像認識部10に送られ、その範囲内における文字認識の処理が行われ、ステップS23にて、その認識結果が表示部7に表示される。 The flowchart in FIG. 5 shows a second embodiment of the present invention, and shows an example of processing different from that in FIG. 4 when the range is specified a plurality of times. That is, in step S21, a process in which the user designates a recognition range in the input image displayed on the screen of the display unit 7 is executed. Here, when the character information to be input covers a plurality of ranges, the user first designates the first range. In the next step S22, the image data within the range specified by the user is sent to the image recognition unit 10, and character recognition processing within the range is performed. In step S23, the recognition result is displayed on the display unit 7. Is displayed.

そして、ユーザは、複数の範囲を指定したい場合には、「連続認識」のキーを操作する(ステップS24にてYes)。すると、ステップS21に戻り、次の範囲を指定することができるようになる。このようにして、複数の範囲の指定及びそれら範囲内の文字情報の認識が終了すると(ステップS24にてNo)、ステップS25にて、複数の範囲における認識結果が一連の文字列として表示されるようになる。この後、認識結果が地点情報(例えば目的地の住所)として取込まれ、目的地の検索等の処理が行われる。   When the user wants to specify a plurality of ranges, the user operates the “continuous recognition” key (Yes in step S24). Then, the process returns to step S21, and the next range can be designated. In this way, when the designation of a plurality of ranges and the recognition of character information within those ranges are completed (No in step S24), the recognition results in the plurality of ranges are displayed as a series of character strings in step S25. It becomes like this. Thereafter, the recognition result is taken in as point information (for example, the address of the destination), and processing such as searching for the destination is performed.

図6は、本発明の第3の実施例を示すものである。この第3の実施例では、入力させたい地点情報が、複数行(上下2段)にわたって掲載されているような場合、ユーザによりその全体を矩形の枠で囲むように範囲(破線で示す)が設定される。この範囲の設定は上記した基本構成と同様の手法で行うことができる。そして、ユーザにより指定された範囲内の画像データが画像認識部10に送られ、その範囲内における文字認識の処理が行われる。ここでは、その範囲内の2行に渡る文字列を一連の文字列として認識するようになっている。 FIG. 6 shows a third embodiment of the present invention. In this third embodiment, when the point information to be input is posted over a plurality of lines (upper and lower two stages), a range (indicated by a broken line) is shown by the user so as to surround the whole with a rectangular frame. Is set. This range can be set by the same method as the basic configuration described above. Then, the image data within the range designated by the user is sent to the image recognition unit 10, and character recognition processing within the range is performed. Here, a character string extending over two lines within the range is recognized as a series of character strings.

尚、上記した各実施例では、画像データの入力に車載カメラ2を用いるようにしたが、デジカメやカメラ付き携帯電話機等の他の画像データ入力手段を用いて画像を入力するようにしても良い。また、上記各実施例では、ユーザの範囲指定にタッチパネルを用いるようにしたが、他のメカ的なスイッチを用いたりそれらをタッチパネルと併用したりしても良く、更にリモコンを用いるようにしても良い。   In each of the embodiments described above, the in-vehicle camera 2 is used for inputting image data. However, the image may be input using other image data input means such as a digital camera or a camera-equipped mobile phone. . In each of the above embodiments, the touch panel is used to specify the range of the user. However, other mechanical switches may be used together with the touch panel, or a remote control may be used. good.

その他、本発明は上記し且つ図面に示した実施例に限定されるものではなく、例えば、範囲指定の手法としても、上記した4種類に限らず、例えば枠の4つの頂点を指定するなどの変形が可能であり、また、画像を入力させる対象物としては、雑誌に限らず、広告のちらし、名刺、カタログ、伝票などであっても良く、更にはカーナビゲーション装置の全体構成としても様々な変形が可能である等、要旨を逸脱しない範囲内で適宜変更して実施し得るものである。   In addition, the present invention is not limited to the embodiments described above and shown in the drawings. For example, the range designation method is not limited to the above-described four types, and for example, four vertices of a frame are designated. The object to which the image can be input is not limited to a magazine, but may be a flyer of an advertisement, a business card, a catalog, a slip, etc. The present invention can be implemented with appropriate modifications within a range that does not depart from the gist, such as being capable of being modified.

基本構成を示すもので、カーナビゲーション装置の全体構成を概略的に示すブロック図Block diagram showing the basic configuration and schematically showing the overall configuration of the car navigation system 画像データから文字情報を地点情報として認識する際の処理手順を示すフローチャートThe flowchart which shows the process sequence at the time of recognizing character information as point information from image data 範囲の指定の手法を4種類について説明するための図Diagram for explaining four types of range specification methods 本発明の第1の実施例を示す図2相当図FIG. 2 equivalent view showing the first embodiment of the present invention 本発明の第2の実施例を示す図2相当図FIG. 2 equivalent view showing a second embodiment of the present invention 本発明の第3の実施例を示す図3(a)相当図FIG. 3 (a) equivalent view showing the third embodiment of the present invention.

符号の説明Explanation of symbols

図面中、1はカーナビゲーション装置、2は車載カメラ(画像データ入力手段)、4は画像入力部(画像データ入力手段)、5は制御回路、7は表示部(入力画像表示手段)、8は入力装置部、10は画像認識部(認識手段)を示す。

In the drawings, 1 is a car navigation device, 2 is an in-vehicle camera (image data input means), 4 is an image input section (image data input means), 5 is a control circuit, 7 is a display section (input image display means), and 8 is An input device unit 10 represents an image recognition unit (recognition means).

Claims (7)

目的地の指定やメモリ地点の登録のための地点情報をユーザにより入力可能なカーナビゲーション装置において、
前記地点情報が記載された対象物の画像を入力するための画像データ入力手段と、
この画像データ入力手段により入力された画像を表示する入力画像表示手段と、
この入力画像表示手段に表示された画像中の範囲を指定するための範囲指定手段と、
前記画像中の前記範囲指定手段により指定された範囲内に含まれる文字情報を地点情報として認識する認識手段とを具備し、
前記画像中の必要とする文字情報が複数行にまたがる場合、或いは複数の範囲に渡る場合に、前記範囲指定手段により複数の範囲を連続して指定することが可能に構成されていると共に、
前記認識手段は、前記範囲指定手段により複数の範囲が連続して指定された場合には、それら複数の範囲の文字情報を一連の文字列として認識することを特徴とするカーナビゲーション装置。
In a car navigation device that allows the user to input point information for destination designation and memory point registration,
Image data input means for inputting an image of the object in which the point information is described;
Input image display means for displaying an image input by the image data input means;
Range designation means for designating a range in the image displayed on the input image display means;
Recognizing means for recognizing character information included in the range specified by the range specifying means in the image as point information ,
When the required character information in the image extends over a plurality of lines or covers a plurality of ranges, a plurality of ranges can be continuously specified by the range specifying means, and
The car navigation device according to claim 1, wherein the recognizing unit recognizes the character information of the plurality of ranges as a series of character strings when a plurality of ranges are continuously specified by the range specifying unit .
前記画像データ入力手段は、車内に設けられる車載カメラからなることを特徴とする請求項1記載のカーナビゲーション装置。   2. The car navigation apparatus according to claim 1, wherein the image data input means is an in-vehicle camera provided in a vehicle. 前記範囲指定手段は、前記入力画像表示手段の表面に設けられたタッチパネルから構成されることを特徴とする請求項1または2記載のカーナビゲーション装置。   The car navigation device according to claim 1 or 2, wherein the range designating unit comprises a touch panel provided on a surface of the input image display unit. 前記範囲指定手段による範囲の指定は、ユーザが該範囲の始端部及び終端部を指示操作することによって行われるように構成されていることを特徴とする請求項1ないし3のいずれかに記載のカーナビゲーション装置。   The range designation by the range designation means is configured to be performed by a user operating a start and end portion of the range. Car navigation device. 前記範囲指定手段による範囲の指定は、ユーザが必要な文字情報部分をドラッグ操作することによって行われるように構成されていることを特徴とする請求項1ないし3のいずれかに記載のカーナビゲーション装置。   The car navigation device according to any one of claims 1 to 3, wherein the range is specified by the range specifying means by dragging a necessary character information portion by a user. . 前記範囲指定手段による範囲の指定は、ユーザが該範囲を示す枠を設定操作することによって行われるように構成されていることを特徴とする請求項1ないし3のいずれかに記載のカーナビゲーション装置。   The car navigation device according to any one of claims 1 to 3, wherein the range is specified by the range specifying means when a user performs a setting operation on a frame indicating the range. . 前記範囲指定手段による範囲の指定は、ユーザが該範囲の中心を指示すると共にその広がりを指定することによって行われることを特徴とする請求項1ないし3のいずれかに記載のカーナビゲーション装置。   The car navigation device according to any one of claims 1 to 3, wherein the range specification by the range specification means is performed by a user specifying the center of the range and specifying its extent.
JP2004217145A 2004-07-26 2004-07-26 Car navigation system Expired - Fee Related JP4483454B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004217145A JP4483454B2 (en) 2004-07-26 2004-07-26 Car navigation system

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004217145A JP4483454B2 (en) 2004-07-26 2004-07-26 Car navigation system

Publications (2)

Publication Number Publication Date
JP2006038556A JP2006038556A (en) 2006-02-09
JP4483454B2 true JP4483454B2 (en) 2010-06-16

Family

ID=35903713

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004217145A Expired - Fee Related JP4483454B2 (en) 2004-07-26 2004-07-26 Car navigation system

Country Status (1)

Country Link
JP (1) JP4483454B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5434325B2 (en) * 2009-07-16 2014-03-05 アイシン・エィ・ダブリュ株式会社 Driving support device, driving support method, and driving support program

Also Published As

Publication number Publication date
JP2006038556A (en) 2006-02-09

Similar Documents

Publication Publication Date Title
JP4994028B2 (en) Gasoline price information collection system, gasoline price information collection method, and navigation apparatus
JP3814992B2 (en) Vehicle navigation device
JP4622676B2 (en) Car navigation system
US20070115142A1 (en) Navigation system and landmark highlighting method
JP4725731B2 (en) Car navigation system
JP2003227730A (en) Navigation system and method of specifying destination
JP4400775B2 (en) Navigation device, facility search method, program, and recording medium for recording program
JP4933196B2 (en) In-vehicle information terminal
JP4619442B2 (en) Image display device, display control method, display control program, and recording medium
JP2001317950A (en) Destination identification method and navigation apparatus
JP3580458B2 (en) Vehicle navigation system
JP4248964B2 (en) Navigation device, facility list display method and program
JP2002228477A (en) Navigation apparatus and navigation system
JP4483454B2 (en) Car navigation system
JP2816104B2 (en) Navigation device
JPH09287970A (en) On-vehicle navigation apparatus
JP4274913B2 (en) Destination search device
JP2009036676A (en) Information processor, and additional information providing method and program
JP2004325322A (en) Navigation system
JP3830679B2 (en) Map display device and recording medium
JP3060811B2 (en) Navigation device
JP3393442B2 (en) Vehicle navigation system
JP4348731B2 (en) Navigation device, destination setting method thereof, and storage medium
JP3580272B2 (en) Navigation device
JP2006038557A (en) Car navigation system

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070711

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20091020

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20091027

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20091224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20100302

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20100315

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130402

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140402

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees