JP4067374B2 - Image processing device - Google Patents

Image processing device Download PDF

Info

Publication number
JP4067374B2
JP4067374B2 JP2002288253A JP2002288253A JP4067374B2 JP 4067374 B2 JP4067374 B2 JP 4067374B2 JP 2002288253 A JP2002288253 A JP 2002288253A JP 2002288253 A JP2002288253 A JP 2002288253A JP 4067374 B2 JP4067374 B2 JP 4067374B2
Authority
JP
Japan
Prior art keywords
frame
display
display screen
displayed
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002288253A
Other languages
Japanese (ja)
Other versions
JP2004126842A (en
Inventor
貴 河野
順次 橋本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2002288253A priority Critical patent/JP4067374B2/en
Publication of JP2004126842A publication Critical patent/JP2004126842A/en
Application granted granted Critical
Publication of JP4067374B2 publication Critical patent/JP4067374B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Instructional Devices (AREA)
  • Position Input By Displaying (AREA)
  • Traffic Control Systems (AREA)
  • Navigation (AREA)
  • Processing Or Creating Images (AREA)
  • Controls And Circuits For Display Device (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【0001】
【発明の属する技術分野】
本発明は画像処理装置に関し、より詳細には、ナビゲ−ションシステム等に採用可能であり、地図等の画像を拡大表示させるための操作性を向上させることのできる画像処理装置に関する。
【0002】
【従来の技術】
ナビゲ−ションシステムには、通常、表示画面上に地図を表示し、その地図上に使用者により入力された目的地、該目的地までの誘導ル−ト、自車の現在位置に対応する自車位置マ−ク、及びそれまでの自車の走行軌跡等を重ねて表示する機能が装備されており、使用者はこの表示画面を逐次参照することで進路情報を得ることができ、その進路情報に従うことで目的地に到達することができるようになっている。
【0003】
また、地図の表示については、通常、縮尺を変更する機能が装備されており、地図画面を拡大表示させたい場合、まず、リモコンやジョイスティック等のユ−ザインタ−フェ−スにより、拡大させたい地図の表示領域までカ−ソルを移動させて拡大する中心点を指定し、所望の縮尺を選択・設定することにより拡大表示させることができるようになっている。
【0004】
このような画像の拡大表示方法として、特許文献1には、画面上の所定領域を拡大表示する場合に、入力デバイスにより拡大する領域の中心にカ−ソルを移動させて拡大表示指示を行わせ、該拡大表示指示に基づいて、拡大領域を示す枠を表示し、該枠を使用者により拡大終了指示が与えられるまで徐々に拡大してゆき、使用者により拡大終了指示が入力されると、拡大表示ウインドウを作成して枠内の画像を拡大表示させる方法が開示されている。
【0005】
また、特許文献2には、縮尺の大きい道路地図を表示している画面上に、これから拡大表示する部分の領域を示すウインド枠を表示し、該ウインド枠の移動や、拡大・縮小操作をキ−ボ−ドスイッチのキ−操作により行う車両用走行誘導装置が開示されている。
【0006】
また、特許文献3には、表示中の映像内の拡大させたい部分をペンで囲むことにより上記囲みに外接する長方形領域を切り出して、該長方形領域内の映像をディスプレイの画面一杯に拡大表示することのできるペン入力映像拡大装置が開示されている。
【0007】
【特許文献1】
特開平8−147134号公報 (第3頁、図6)
【特許文献2】
特開平8−194434号公報 (第3頁、図1−3)
【特許文献3】
特開平8−137620号公報 (第2頁、図11)
【0008】
【発明が解決しようとする課題】
しかしながら、従来のナビゲ−ションシステムにおいては、拡大させたい領域までの移動操作と、所望の縮尺とするための縮尺の選択・設定操作とが必要であり、しかも縮尺の選択・設定操作は、使用者の表示させたい拡大表示にするために繰り返し操作を伴う場合が多く、設定操作が煩雑になるという課題があった。
【0009】
また、上記特許文献1記載の方法では、上記したように拡大する領域の中心まで、わざわざカ−ソルを移動させなければならず、さらに、前記枠が徐々に拡大されていくため、該枠を大きく設定しようとした場合には、所望とする大きさに枠が拡大されるまで待たなければならず、時間がかかるという課題があった。
【0010】
上記特許文献2記載の装置においても、上記したように前記ウインドウ枠の移動をカ−ソルキ−操作により行わなければならず、前記ウインドウ枠を拡大・縮小するときも拡大・縮小選択キ−を使って何度も入力操作を繰り返す必要があり、設定操作が煩わしいという課題があった。
また、上記特許文献3記載の装置では、ペンで囲んだ領域が著しく歪んだ場合には、拡大したい領域の中心点が大きくずれてしまい、正確な範囲指定が行いにくいという課題があった。
【0011】
本発明は上記課題に鑑みなされたものであって、表示画面に表示されている地図等の画像を簡単な操作により拡大表示させることのできる画像処理装置を提供することを目的としている。
【0012】
【課題を解決するための手段及びその効果】
上記目的を達成するために本発明に係る画像処理装置(1)は、画像が表示される表示画面を備えた表示手段と、前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、前記接触検出手段により前記表示画面への接触が検出されると、接触点を略中心とした所定サイズの枠を前記表示画面に表示する第1の枠表示手段と、前記接触検出手段により前記接触点からのスライド移動が検出されると、前記枠の大きさを前記接触点からのスライド移動量に応じて変化させながら表示する第2の枠表示手段と、前記接触検出手段により前記スライド移動の終点が検出されると、前記第2の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第1の画像拡大表示手段とを備えていることを特徴としている。
【0013】
上記画像処理装置(1)によれば、前記接触検出手段により前記表示画面への接触(例えば、使用者が、接触検出手段としてタッチパネルが装備された前記表示画面に指を接触させる動作)が検出されると、接触点を略中心とした所定サイズの枠が前記表示画面に表示され、前記接触検出手段により前記接触点からのスライド移動(例えば、使用者が前記接触点から指を前記表示画面に触れた状態でスライド移動させる動作)が検出されると、前記枠の大きさを前記接触点からのスライド移動量に応じて変化させながら表示される。そして、前記接触検出手段により前記スライド移動の終点(例えば、使用者が前記表示画面から指を離す動作)が検出されると、前記第2の枠表示手段により表示された枠内に表示されている画像が前記表示画面に拡大表示される。
したがって、使用者は、拡大表示させたい画像の中心部分を指等により直接的に指定することができ、カ−ソル等による位置合わせ等の面倒な操作を行う必要がなく、簡単かつ正確な拡大表示の中心点の指定を行うことができる。
【0014】
また、使用者は、接触点から指等を任意の方向にスライド移動させるだけで前記枠の大きさを任意に調整することができ、前記枠により拡大表示させる範囲を一目で把握することができる。
さらに、使用者が指等を前記表示画面から離すことによって、前記スライド移動の終点が検出され、該終点検出時の枠内に表示されている画像を拡大表示させることができ、例えば、前記画像が地図画像の場合には、前記枠内の地図画像を表示画面サイズに拡大表示可能な縮尺の地図画像に切り換えて表示することで、詳細な地図情報を表示することができる。
【0015】
このように前記接触検出手段により検出される一連の接触状態の変化に基づいて、拡大表示する中心点の指定、前記枠による拡大範囲の指定、及び前記枠内の画像の拡大表示を行うことができ、使用者は、特別なカ−ソル操作や釦操作等を行なわずに、極めて簡単な操作により所望とする範囲の画像を前記表示画面に拡大表示させることができ、使用者にとって使い勝手の良い、画像の拡大表示のための操作性を向上させた装置を実現することができる。
【0016】
また本発明に係る画像処理装置(2)は、上記画像処理装置(1)において、前記所定サイズが、最大拡大率サイズを意味し、前記第2の枠表示手段が、前記枠を拡大させながら表示するものであることを特徴としている。
上記画像処理装置(2)によれば、前記所定サイズが、最大拡大率サイズを意味しているので、拡大率を大きく設定しようとした場合は、前記スライド移動を少なくすればよく、より迅速に拡大率の大きい枠の範囲指定を行い表示させることが可能となる。
【0017】
また本発明に係る画像処理装置(3)は、上記画像処理装置(1)において、前記所定サイズが、現在表示縮尺サイズを意味し、前記第2の枠表示手段が、前記枠を縮小させながら表示するものであることを特徴としている。
【0018】
上記画像処理装置(3)によれば、前記所定サイズが、現在表示縮尺サイズを意味しているので、現在表示縮尺に近い、すなわち拡大率の小さい枠の範囲指定を行う場合には、前記スライド移動を少なくすればよく、より迅速に拡大率の小さな枠の範囲指定を行い表示させることが可能となる。
【0019】
また本発明に係る画像処理装置(4)は、画像が表示される表示画面を備えた表示手段と、前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、前記接触検出手段により前記表示画面への接触と、接触点からのスライド移動とが検出されると、前記接触点からのスライド移動量に応じて大きさの変化する枠を前記接触点を略中心にして前記表示画面に表示する第3の枠表示手段と、前記接触検出手段により前記スライド移動の終点が検出されると、前記第3の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第2の画像拡大表示手段とを備えていることを特徴としている。
【0020】
上記画像処理装置(4)によれば、前記接触検出手段により前記表示画面への接触(例えば、使用者が、接触検出手段としてタッチパネルが装備された前記表示画面に指を接触させる動作)と、前記接触点からのスライド移動(例えば、使用者が前記接触点から指を前記表示画面に触れた状態でスライド移動させる動作)とが検出されると、前記接触点からのスライド移動量に応じて大きさの変化する枠が前記接触点を略中心にして表示され、前記接触検出手段により前記スライド移動の終点(例えば、使用者が前記表示画面から指を離す動作)が検出されると、前記第3の枠表示手段により表示された枠内に表示されている画像が前記表示画面に拡大表示される。
したがって、上記画像処理装置(1)と略同様の効果を得ることができる。また、前記スライド移動を検出した場合にのみ前記枠が表示され、上記画像処理装置(1)のように前記表示画面への接触時には前記枠の表示は行われないので、使用者の意図しない接触による前記枠の表示が行われることを阻止することができる。
【0021】
また本発明に係る画像処理装置(5)は、上記画像処理装置(1)〜(4)のいずれかにおいて、前記接触検出手段により前記表示画面への接触が検出されると、前記接触点に表示されている画像を前記表示画面の略中心に移動させて表示する画像移動表示手段と、前記枠の中心を前記接触点から前記表示画面の略中心に移動させる枠中心移動手段とを備えていることを特徴としている。
【0022】
上記画像処理装置(5)によれば、前記接触検出手段により前記表示画面への接触が検出されると、前記接触点に表示されている画像が前記表示画面の略中心に移動して表示され、また、前記枠の中心も前記接触点から前記表示画面の略中心に移るので、使用者は、拡大表示させたい前記接触点周辺の画像情報を把握しやすくなり、前記枠による範囲指定も容易なものとなる。また、拡大表示前の中心点と拡大表示後の中心点が同一になるので、拡大後の画像の把握も容易になる。
【0023】
また本発明に係る画像処理装置(6)は、画像が表示される表示画面を備えた表示手段と、前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、前記接触検出手段により前記表示画面への接触が検出されると、接触点を略中心とした所定サイズの枠を前記表示画面に表示する第1の枠表示手段と、前記接触検出手段により前記接触点からのスライド移動が検出され、該スライド移動が前記表示画面に表示されている前記枠を越えると、次の拡大設定領域を示す枠を表示する第4の枠表示手段と、前記接触検出手段により前記スライド移動の終点が検出されると、前記第4の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第3の画像拡大表示手段とを備えていることを特徴としている。
【0024】
上記画像処理装置(6)によれば、前記スライド移動とともに前記枠の大きさが変化するのではなく、前記スライド移動(例えば、前記表示画面上をスライド移動させている指の接触点)が前記表示画面に表示されている前記枠を越えると、次の拡大設定領域を示す枠が表示されるので、拡大表示させる縮尺設定に対応した枠を前記表示画面に段階的に表示させることができる。また、前記枠の大きさの微調整を行う必要がなく、大まかな枠の範囲指定が容易となる。
【0030】
また本発明に係る画像処理装置()は、上記画像処理装置(1)〜()のいずれかにおいて、前記接触検出手段で検出される前記表示画面への接触を画像を拡大表示させるためのものと認識させる拡大表示モ−ドと、他のモ−ドとを区別する設定を行うモ−ド設定手段を備えていることを特徴としている。
上記画像処理装置()によれば、前記モ−ド設定手段により前記拡大表示モ−ドと、前記他のモ−ドとを区別して設定することができ、前記拡大表示モ−ドに設定された場合は、前記接触検出手段で検出される前記表示画面への接触が画像を拡大表示させるためのものと認識されることとなる。
【0031】
また本発明に係る画像処理装置()は、上記画像処理装置()において、前記モ−ド設定手段が、前記接触検出手段により所定時間以上継続しての接触が検出されると、前記拡大表示モ−ド又は前記他のモ−ドの設定を行うものであることを特徴としている。
上記画像処理装置()によれば、前記接触検出手段により所定時間以上継続しての接触(前記表示画面の1点を指で触れた状態が所定時間継続している動作)が検出されると、前記モ−ド設定手段が前記拡大表示モ−ド又は前記他のモ−ドの設定を行うものであるので、使用者は、前記表示画面を特に注視しなくても、簡単にモ−ド設定を行うことができる。
【0032】
また本発明に係る画像処理装置()は、上記画像処理装置()又は()において、前記モ−ド設定手段により前記拡大表示モ−ドに設定された場合に、該拡大表示モ−ドに設定されたことを使用者に告知する告知手段を備えていることを特徴としている。
上記画像処理装置()によれば、前記告知手段により、前記拡大表示モ−ドに設定されたことを使用者に告知するので、該告知により、使用者は、前記拡大表示モ−ドに設定されたことを即座に確認することができる。
【0033】
また本発明に係る画像処理装置(10)は、上記画像処理装置()において、前記告知手段が、音や音声により告知するもの、前記表示画面への表示により告知するもの、又は前記表示画面に表示されている画像の色を変更することにより告知するもののいずれかを含んでいることを特徴としている。
上記画像処理装置(10)によれば、前記告知手段が、音や音声により告知するもの、前記表示画面への表示により告知するもの、又は前記表示画面に表示されている画像の色を変更することにより告知するもののいずれかを含んでいるので、前記拡大表示モ−ドに設定されたことを、使用者に確実に把握させることができる。
【0039】
【発明の実施の形態】
以下、本発明に係る画像処理装置の実施の形態を図面に基づいて説明する。図1は、実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムの要部を概略的に示したブロック図である。
【0040】
車速から演算して走行距離を取得するための車速センサ11と、進行方向を取得するためのジャイロセンサ12とがマイクロコンピュ−タ(マイコン)10に接続されており、マイコン10は、演算した走行距離、及び進行方向に基づいて自車位置を割り出すようになっている(自律航法)。
GPS受信機13は、アンテナ13aを介して衛星からのGPS信号を受信するもので、マイコン10に接続されており、マイコン10はGPS信号に基づいて自車位置を割り出すようになっている(GPS航法)。
【0041】
また、道路等のデ−タ等が記憶された画像記憶手段14がマイコン10に接続されており、マイコン10は、割り出した自車位置と地図画像デ−タとを合わせるマップマッチング処理を行うことによって、自車位置が正確に示された地図を表示画面上へ表示するようになっている。画像記憶手段14には、例えば、ハ−ドディスク等を採用することができる。
【0042】
また、リモコン15に設けられたジョイスティック15aやボタンスイッチ15bから出力されたスイッチ信号や、表示装置16に設けられたボタンスイッチ16aから出力されたスイッチ信号がマイコン10に入力され、これらスイッチ信号に応じた処理がマイコン10で行われるようになっている。例えば、マイコン10は、これらスイッチから目的地の情報を取り込むと、自車位置から目的地までの最適ル−トを探索し、これを誘導ル−トとして地図と共に表示画面16b上に表示するようになっている。
【0043】
このように、ナビゲ−ションシステムでは、表示画面16bに地図が表示され、その地図上に使用者により入力された目的地、該目的地までのル−ト、自車の現在位置に対応する自車位置マ−ク、及びそれまでの走行軌跡等が重ねて表示されるようになっており、使用者は、この表示画面16bを逐次参照することで、進路情報を得ることができ、その進路情報に従うことで目的地に到達することができるようになっている。
【0044】
また、図中17は、表示画面16bへの物理的な接触を検出する接触検出手段を示しており、接触検出手段17は、使用者が表示画面16bに表示される地図等の画像の拡大操作や、地図をスクロ−ルさせる操作等を可能にするために、画像が表示された表示画面16b上に接触させた指などを検出するものであり、表示画面16b上に、透明なタッチパネル(図示せず)などが積層されて構成されている。また、接触検出手段17で検出された座標信号は、マイコン10に入力されるようになっている。
【0045】
また、実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムでは、表示画面16b上に表示された画面を通じて、使用者が各種の設定を行うことができ、図2に示した『タッチパネルの設定』画面を通じて、タッチパネル上の任意の点の長押しにより設定されるモ−ドを使用者が自由に選択・設定することができるようになっている。
【0046】
図2に示した設定画面において、「拡大表示モ−ド」が選択・設定されている場合には、画像表示中にタッチパネル上の任意の点の長押しが検出されると、拡大表示モ−ドに切り換えられ、マイコン10では、接触検出手段17で検出された座標デ−タに基づいて、画像を拡大表示するための各種の制御が行われるようになっている。また、拡大表示モ−ドに切り換える他の方法として、リモコン15のボタンスイッチ15bや、表示装置16のボタンスイッチ16aに「拡大表示モ−ド」への設定が可能なボタンを割り当てておいてもよい。
【0047】
また、図3に示した『拡大表示モ−ド設定時の告知方法の設定』画面を通じて、拡大表示モ−ドに設定されたことを使用者に告知するための方法を選択・設定することができるようになっており、図3では、音声、オンスクリ−ン表示、及び画像背景色の変更による告知をするか、しないかを使用者が自由に選択・設定することができるようになっている。
【0048】
次に、拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図4(a)〜(d)に示した表示例に基づいて説明する。
図4(a)は、表示画面16bに表示された地図画像の一例を示しており、画面中央下方位置には自車の現在位置を示す自車位置マ−ク、画面中心付近にはB銀行、B銀行の左斜め上にAビルが表示された状態を示しており、比較的広域を表示する縮尺に設定されているものとする。なお、簡略化のため道路等の他の表示をここでは省略している。
【0049】
まず、使用者がAビル周辺の詳細な地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所を指でタッチする。すると、図4(b)に示すように×印で示した接触点(×印は実際には表示されない)を略中心とした拡大設定領域を示す枠21が表示画面16bに表示される。表示される枠21のサイズは、最大拡大率サイズ、すなわち拡大率が最大の縮尺で表示画面16bに表示可能な領域を示すサイズとなっている。
【0050】
使用者による接触点(×印)からの指のスライド移動(例えば、図4(c)の実線矢印で示したような動作)が検出されると、枠21がスライド移動量に応じて拡がりながら(破線矢印)表示される。枠21は、接触点からのスライド移動量に応じて等方的に大きさが変化するので、指のスライド移動の向きはいずれの方向でもよい。
【0051】
使用者は、指をスライド移動させながら、枠21で拡大表示させる範囲を設定できるようになっており、枠21内にB銀行が含まれた時点(図4(c))において、スライド移動させていた指が表示画面16bから離れたことが検出されると、図4(d)に示すように、図4(c)に示した枠21で指定された領域を表示画面サイズに拡大して表示するのに適した縮尺の地図画像に切り換え、接触点(×印)に表示されていた画像(Aビル)を略中心にして拡大表示される。なお、表示画面一杯に表示可能な縮尺がない場合は、最も拡大率の近い縮尺の地図画像が表示される。この場合は、表示画面16bに一部地図画像が表示されない部分が形成されることとなる。
【0052】
次に実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10の行う拡大表示モ−ド設定処理動作を図5に示したフロ−チャ−トに基づいて説明する。
まず、ステップS1では、拡大表示モ−ドに設定されているか否かを判断し、拡大表示モ−ドに設定されていると判断すれば、処理を終了する。一方、ステップS1において、拡大表示モ−ドに設定されていないと判断すればステップS2に進む。ステップS2では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すればステップS1に戻る。
【0053】
一方、ステップS2において、タッチパネルへの指の接触があったと判断すればステップS3に進み、タイマtを起動させて、その後ステップS4に進む。ステップS4では、タッチパネルへの指の接触が所定時間t継続して検出された否かを判断し、タッチパネルへの指の接触が所定時間t継続して検出されたと判断すればステップS5に進む。
【0054】
ステップS5では、拡大表示モ−ドへ設定する処理を行い、その後ステップS6に進む。ステップS6では、図3に示した『拡大表示モ−ド設定時の告知方法の設定』画面を通じて設定された告知方法により拡大表示モ−ドに設定されたことを使用者に告知する処理を行い、その後処理を終了する。
一方、ステップS4において、タッチパネルへの指の接触が検出された状態でタイマtが所定時間t経過していないと判断すればステップS1に戻る。
【0055】
次に実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10の行う拡大表示処理動作を図6に示したフロ−チャ−トに基づいて説明する。なお、本処理動作は、拡大表示モ−ド設定時に実行される。
【0056】
まず、ステップS11では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すれば、処理を終了する。一方、ステップS11において、タッチパネルへの指の接触があったと判断すればステップS12に進み、ステップS12では、接触点を略中心として最大拡大率サイズの枠21を表示する処理を行い、その後ステップS13に進む。
【0057】
ステップS13では、接触点からのスライド移動が検出されたか否か、すなわち、タッチパネルに接触させた指を接触点からスライド移動させる動作が検出されたか否かを判断し、接触点からのスライド移動が検出されなかったと判断すれば、ステップS15に進む。一方、ステップS13において、接触点からのスライド移動が検出されたと判断すれば、ステップS14に進む。
【0058】
ステップS14では、枠21を接触点からのスライド移動量に応じて拡大させながら表示する処理を行い、その後ステップS15に進む。ステップS15では、スライド移動の終点が検出されたか否か、すなわち、タッチパネルから指が離されたか否かを判断し、タッチパネルから指が離されていないと判断すればステップS13に戻り、一方、タッチパネルから指が離されたと判断すればステップS16に進む。
ステップS16では、ステップS14において表示された枠21で指定された領域を表示画面サイズに拡大して表示するのに適した縮尺の地図画像に切り換え、接触点を略中心にして拡大表示する処理を行い、その後処理を終了する。
【0059】
上記実施の形態(1)に係る画像処理装置によれば、使用者は、拡大表示させたい地図画像の中心部分を指等により直接的に指定することができ、カ−ソル等による位置合わせ等の面倒な操作を行う必要がなく、簡単かつ正確な拡大表示の中心点の指定を行うことができる。
また、使用者は、接触点から指等を任意の方向にスライド移動させるだけで枠21の大きさを任意に調整することができ、枠21により拡大表示させる範囲を一目で把握することができる。
さらに、使用者が指等を表示画面16bから離すことによって、スライド移動の終点が検出され、該終点検出時の枠21内に表示されている地図画像を表示画面全体に表示可能な縮尺の地図画像に拡大表示させることができ、使用者は詳細な地図情報を得ることができる。
【0060】
このように接触検出手段17により検出される一連の接触状態の変化に基づいて、拡大表示させる中心点の指定、枠21による拡大範囲の指定、及び枠21内の地図画像の拡大表示を行わせることができ、使用者は、特別なカ−ソル操作や釦操作等を行なわずに、極めて簡単な操作により所望とする範囲の地図画像を表示画面16bに拡大表示させることができ、使用者にとって使い勝手の良い、地図画像の拡大表示のための操作性を向上させた装置を実現することができる。
【0061】
なお、上記実施の形態(1)では、拡大表示モ−ド設定時において、タッチパネルへの指の接触が検出されると、枠21が表示されるようになっているが、別の実施の形態では、タッチパネルへの指の接触が検出された後、さらに指のスライド移動が検出された場合にのみ、枠21を表示させるようにしても良い。
また、図7に示したような設定画面を通じて、これらの処理を使用者が自由に選択できるようにし、マイコン10が、設定画面を通じて選択・設定された表示タイミングにより、枠21を表示させる処理を行うようにしてもよい。
【0062】
次に実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Aを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Aには異なる符号を付し、その他の説明をここでは省略する。
【0063】
拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図8(a)〜(d)に示した表示例に基づいて説明する。
図8(a)は、表示画面16bに表示される地図画像の一例を示しており、図4(a)に示した地図画像と同様の構成となっている。
【0064】
まず、使用者がAビル周辺の詳細な拡大地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所を指でタッチする(図8(a)に×印で示した接触点(×印は実際には表示されない))。
すると、図8(a)において接触点に表示されていたAビルを表示画面16bの略中心に移動させた地図画像が表示され、中心を接触点から表示画面16bの略中心に移動させた枠21aが地図上に表示される(図8(b))。なお、枠21aのサイズは、最大拡大率サイズとなっている。
【0065】
使用者による接触点(×印)からの指のスライド移動(例えば、図8(c)の実線矢印で示したような動作)が検出されると、枠21aがスライド移動量に応じて拡がりながら(破線矢印)表示される。枠21aは、接触点からのスライド移動量に応じて等方的に大きさが変化するので、指のスライド移動の向きはいずれの方向でもよい。
【0066】
使用者は、指をスライド移動させながら、枠21aで拡大表示させる範囲を設定できるようになっており、枠21a内にB銀行が含まれた時点(図8(c))において、スライド移動させていた指が表示画面16bから離れたことが検出されると、図8(d)に示すように、図8(c)に示した枠21aで指定された領域を表示画面サイズに拡大して表示するのに適した縮尺の地図画像に切り換え、表示画面の中心を固定して拡大表示され、使用者は、B銀行を含むAビル周辺の詳細な地図情報を参照することができるようになっている。
【0067】
次に実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Aの行う拡大表示処理動作を図9に示したフロ−チャ−トに基づいて説明する。なお、本拡大表示処理動作は、図6におけるステップS12の代わりにステップS21、S22を挿入した構成となっており、以下ここでは相違点のみ説明することとする。
【0068】
まず、ステップS11では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すれば、処理を終了し、一方、タッチパネルへの指の接触があったと判断すればステップS21に進む。
【0069】
ステップS21では、接触点に表示されている地図画像を表示画面16bの略中心に移動させて表示する処理を行い、その後ステップS22に進む。ステップS22では、中心を接触点から表示画面16bの略中心に移動させた枠21aを地図上に表示する処理を行い、その後ステップS13に進み、以下図6に示した処理と同様の処理を行い、枠21a内の画像を表示画面16bに拡大表示する。
【0070】
上記実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムによれば、接触検出手段17により表示画面16bへの接触が検出されると、接触点(×印)に表示されている画像が表示画面16bの略中心に移動して表示され、また、枠21aの中心も接触点(×印)から表示画面16bの略中心に移るので、使用者は、拡大表示させたい接触点周辺の画像情報を把握しやすくなり、枠21aによる範囲指定も容易なものとなる。また、拡大表示前の中心点と拡大表示後の中心点が同一になるので、拡大後の画像の把握も容易になる。
【0071】
なお上記実施の形態(2)では、接触点に表示されている画像を表示画面16bの略中心に移動させて、中心を接触点から表示画面16bの略中心に移動させた枠21aを地図上に表示するように予め設定されていたが、別の実施の形態では、図10に示したような設定画面を通じて、接触点の画像を表示画面16bの略中心に移動させるとともに、中心を接触点から表示画面の略中心に移動させた枠21aを表示させるか否かを使用者が自由に選択できるようにし、すなわち、実施の形態(1)又は(2)の処理を使用者が自由に選択できるようにして、マイコン10Aが、設定画面を通じて選択・設定された拡大表示方法により、地図画像と枠とを表示する処理を行うようにしてもよい。
【0072】
次に実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Bを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Bには異なる符号を付し、その他の説明をここでは省略する。
【0073】
拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図11(a)〜(d)に示した表示例に基づいて説明する。
図11(a)は、表示画面16bに表示された地図画像の一例を示しており、図4(a)に示した地図画像と同様の構成となっている。
【0074】
まず、使用者がAビル周辺の詳細な拡大地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所を指でタッチする。すると、図11(b)に示すように×印で示した接触点(×印は実際には表示されない)を略中心とした枠21bが表示される。枠21bのサイズは、現在表示縮尺サイズ、すなわち、拡大率が現在表示している画像の縮尺で表示画面16bに表示可能な領域を示すサイズとなっている。
【0075】
使用者による接触点(×印)からの指のスライド移動(例えば、図11(c)に実線矢印で示したような動作)が検出させると、枠21bがスライド移動量に応じて縮小しながら(破線矢印)表示される。枠21bは、接触点からのスライド移動量に応じて等方的に大きさが縮小されていくので、指のスライド移動の向きはいずれの方向でもよい。
【0076】
使用者は、指をスライド移動させながら、縮小されていく枠21bで拡大表示させる範囲を設定できるようになっており、枠21b内の端にB銀行が含まれた時点(図11(c))において、スライド移動させていた指が表示画面16bから離れたことが検出されると、図11(d)に示すように、図11(c)に示した枠21bで指定された領域を表示画面サイズに拡大して表示するのに適した縮尺の地図画像に切り換え、接触点を略中心にして拡大表示され、使用者は、B銀行を含むAビル周辺の詳細な拡大地図情報を参照することができるようになっている。
【0077】
次に実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Bの行う拡大表示処理動作を図12に示したフロ−チャ−トに基づいて説明する。なお、本拡大表示処理動作は、図6におけるステップS12の代わりにステップS31を、ステップS14の代わりにステップS32を挿入した構成となっており、以下ここでは相違点のみ説明することとする。
【0078】
まず、ステップS11では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すれば、処理を終了し、一方、タッチパネルへの指の接触があったと判断すればステップS31に進む。
【0079】
ステップS31では、接触点を略中心として現在表示縮尺サイズの枠21bを表示する処理を行い、その後ステップS13に進む。ステップS13では、接触点からのスライド移動が検出されたか否かを判断し、接触点からのスライド移動が検出されなかったと判断すればステップS15に進む。一方、ステップS13において、接触点からのスライド移動が検出されたと判断すればステップS32に進む。
【0080】
ステップS32では、枠21bを接触点からのスライド移動量に応じて縮小させながら表示する処理を行い、その後ステップS15に進む。以下、図6に示した処理と同様の処理を行い、枠21b内の画像を表示画面16bに拡大表示する。
【0081】
上記実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムによれば、タッチパネルへの接触時に、接触点を中心として現在表示縮尺サイズの枠21bが表示されるので、現在表示縮尺に近い、すなわち拡大率の小さい枠の範囲指定を行う場合には、スライド移動を少なくすればよく、より迅速に拡大率の小さな枠の範囲指定を行い表示させることができるようになる。
【0082】
なお上記実施の形態(3)では、タッチパネルへの指の接触が検出されると、接触点を略中心として、現在表示縮尺サイズの枠21bを表示するように予め設定されていたが、別の実施の形態では、図13に示したような設定画面を通じて、タッチパネルへの指の接触が検出された時に、接触点を略中心として表示する枠のサイズを使用者が自由に選択できるようにし、すなわち実施の形態(1)又は(3)の処理を使用者が自由に選択できるようにして、マイコン10Bが設定画面を通じて選択・設定されたサイズの枠を表示する処理を行うようにしてもよい。
【0083】
次に実施の形態(4)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(4)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Cを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Cには異なる符号を付し、その他の説明をここでは省略する。
【0084】
拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図14(a)〜(d)に示した表示例に基づいて説明する。
図14(a)は、表示画面16bに表示された地図画像の一例を示しており、図4(a)に示した地図画像と同様の構成となっている。
【0085】
まず、使用者がAビル周辺の詳細な拡大地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所を指でタッチする。すると、図14(a)に示すように×印で示した接触点(×印は実際には表示されない)を略中心とした枠21cが表示される。枠21cのサイズは、所定の縮尺で表示画面16bに表示可能な領域を示すサイズであればよいが、最大拡大率サイズが好ましい。
【0086】
使用者による接触点からの指のスライド移動が検出され、スライド移動(図14(a)に示した実線矢印)が現在表示している枠21cを越える、すなわちスライド移動させている指の接触点が図14(a)に示した枠21cを越えると、次の拡大率(枠21cよりも小さい拡大率)に設定された枠21cが表示される(図14(b))。
【0087】
さらに使用者による指のスライド移動が検出され、スライド移動が枠21cを越えると(図14(c)に示した実線矢印の動作)、さらに次の拡大率(枠21cよりも小さい拡大率)に設定された枠21cが表示され、B銀行が含まれた枠21cが表示されたこの時点(図14(c))で、スライド移動させていた指が表示画面16bから離れたことが検出されると、図14(d)に示すように、図14(c)に示した枠21cで指定された領域を表示画面サイズに拡大して表示するのに適した縮尺の地図画像に切り換え、接触点を略中心にして拡大表示され、使用者は、B銀行を含むAビル周辺の詳細な拡大地図情報を参照することができるようになっている。
【0088】
次に実施の形態(4)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Cの行う拡大表示処理動作を図15に示したフロ−チャ−トに基づいて説明する。なお、本拡大表示処理動作は、図6におけるステップS14の代わりにステップS41〜S43を挿入した構成となっており、以下ここでは相違点のみ説明することとする。
【0089】
ステップS13において、接触点からのスライド移動が検出されたと判断すれば、ステップS41に進む。ステップS41では、スライド移動の座標デ−タの取り込みを行い、ステップS42に進む。
ステップS42では、取り込んだ座標デ−タに基づいて、スライド移動が表示画面16bに表示している枠を越えたか否かを判断し、スライド移動が表示画面16bに表示している枠を越えたと判断すればステップS43に進む。
【0090】
ステップS43では、次の拡大設定領域を示す枠を表示する処理を行い、その後ステップS15に進む。
一方、ステップS42において、スライド移動が表示画面16bに表示している枠を越えていないと判断すればステップS15に進む。
【0091】
上記実施の形態(4)に係る画像処理装置に採用したナビゲ−ションシステムによれば、スライド移動とともに枠の大きさが変化するのではなく、スライド移動(例えば、表示画面16b上をスライド移動させている指の接触点)が表示画面16bに表示されている枠21cを越えると、次の拡大設定領域を示す枠21cが表示されるので、拡大表示させる縮尺設定に対応した枠12c〜12cを表示画面16bに段階的に表示させることができる。また、枠の大きさの微調整を行う必要がなく、大まかな枠の範囲指定が容易となる。
【0092】
なお、上記実施の形態(4)では、スライド移動が、表示画面16bに表示している枠を越える毎に段階的に拡大率の異なるサイズの枠を表示させるように予め設定されていたが、別の実施の形態によれば、図16に示したような設定画面を通じて、スライド移動量に応じて拡大させながら枠を表示させることのできる「スライド拡大表示」と、予め設定された拡大率の枠を段階的に表示させることのできる「段階拡大表示」とを使用者が自由に選択できるようにして、マイコン10Cが、図16の設定画面を通じて選択・設定された枠の拡大表示方法により、枠を表示する処理を行うようにしてもよい。
【0093】
次に実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Dを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Dには異なる符号を付し、その他の説明をここでは省略する。
【0094】
実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムでは、拡大表示モ−ド設定時において、使用者が拡大表示したい部分をタッチパネルを介して指で接触すると、接触点における画像が表示画面16bの略中心に移動して、予め設定された縮尺で拡大された画像が表示画面16bに表示されるようになっているため、より簡単な操作により見たい部分の周辺の画像を拡大表示させることができるようになっている。
【0095】
拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図17(a)〜(c)に示した表示例に基づいて説明する。
図17(a)は、表示画面16bに表示された地図画像の一例を示しており、図4(a)に示した地図画像と同様の構成となっている。
【0096】
まず、使用者がAビル周辺の詳細な地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所を指でタッチする(図17(a)に×印で示した接触点(×印は実際には表示されない))。すると、図17(a)において接触点に表示されていたAビルを表示画面16bの略中心に移動した地図画像が表示され(図17(b))、その後、Aビルを表示画面16bの略中心として、予め設定された拡大表示可能な縮尺の地図画像が表示され(図17(c))、使用者は、Aビル周辺の詳細な拡大地図情報を参照することができるようになっている。
【0097】
次に実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Dの行う拡大表示処理動作を図18に示したフロ−チャ−トに基づいて説明する。なお本処理動作は拡大表示モ−ド設定時に実行される。
【0098】
まず、ステップS51では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すれば、処理を終了する。
【0099】
一方、ステップS51において、タッチパネルへの指の接触があったと判断すれば、ステップS52に進み、ステップS52では、接触点に表示されていた画像を表示画面16bの略中心に移動して表示する処理を行い、その後ステップS53に進む。ステップS53では、表示画面16bに表示されている画像の中心位置を固定して、予め設定された拡大表示可能な縮尺で拡大表示する処理を行い、その後処理を終了する。
【0100】
上記実施の形態(5)に係る画像処理装置が採用されたナビゲ−ションシステムによれば、表示画面16bに表示されている画像のうち拡大表示させたい部分を指等で触れるだけで、その部分が表示画面16bの略中心に移動するとともに所定の縮尺で拡大された画像が表示されるので、より簡単な操作で画像を拡大表示させることができる。
【0101】
なお、上記実施の形態(5)では、接触が検出された部分を表示画面16bの略中心に移動して、所定の縮尺で拡大された地図画像を表示するようになっているが、別の実施の形態では、接触が検出された部分を含むように予め設定された拡大表示させる縮尺の地図画像を表示した後、接触が検出された部分を表示画面16bの略中心に移動して表示させるようにしてもよい。
また、上記実施の形態(5)では、拡大表示可能な縮尺が予め設定されているようになっているが、別の実施の形態では、使用者が、所望とする縮尺を選択・設定することのできる設定画面を設けておき、該設定画面を通じて、拡大表示する縮尺を設定できるようにしてもよい。
【0102】
次に実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Eを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Eには異なる符号を付し、その他の説明をここでは省略する。
【0103】
実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムでは、拡大表示モ−ド設定時において、表示画面上の2点の接触が検出されると、該2点における画像を同時に表示可能な縮尺で、しかも2点間の中心が表示画面16bの略中心に位置するように拡大表示されるようになっており、直接的に拡大表示させたい部分が指定し易くなっている。
【0104】
拡大表示モ−ド設定時における表示画面16bに表示される地図画像の拡大表示方法を図19(a)、(b)に示した表示例に基づいて説明する。
図19(a)は、表示画面16bに表示された地図画像の一例を示しており、図4(a)に示した地図画像と同様の構成となっている。
【0105】
まず、使用者がAビルとB銀行と間の詳細な地図情報を得ようとした場合、タッチパネルが設けられた表示画面16bのAビルの表示箇所と、B銀行の表示箇所とを指でタッチする(図19(a)に×印で示した接触点(×印は実際には表示されない))。
【0106】
すると、図19(b)に示すように、AビルとB銀行とを1画面に含むように拡大表示可能な縮尺で、しかもAビルとB銀行との中点が、表示画面16bの略中心に位置するように表示され、使用者は、AビルとB銀行との間の詳細な拡大地図情報を参照することができるようになっている。
【0107】
次に実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Eの行う拡大表示処理動作を図20に示したフロ−チャ−トに基づいて説明する。なお、本拡大表示処理動作は、拡大表示モ−ドの設定時に実行される。
【0108】
まず、ステップS61では、タッチパネルへの物理的な接触が検出されたか否か、すなわちタッチパネルへの指の接触があったか否かを判断し、タッチパネルへの指の接触がないと判断すれば、処理を終了する。一方、ステップS61において、タッチパネルへの指の接触があったと判断すればステップS62に進み、タイマtを起動して、その後ステップS63に進む。
【0109】
ステップS63では、所定時間t内にタッチパネルへの再接触が検出されたか否か、すなわち所定時間t内にタッチパネルへの指の再接触があったか否かを判断し、タッチパネルへの指の再接触がなかったと判断すれば、処理を終了しする。一方、ステップS63においてタッチパネルへの指の再接触があったと判断すればステップS64に進む。
【0110】
ステップS64では、接触の検出された2点の座標デ−タから2点間の距離を算出する処理を行い、その後ステップS65に進む。ステップS65では、算出された2点間の距離から2点間を表示画面16bに拡大表示するための縮尺を決定する処理を行い、その後ステップS66に進む。ステップS66では、決定された拡大表示可能な縮尺で2点間の中点が表示画面の略中心に位置するように、2点間を拡大表示する処理を行い、その後処理を終了する。
【0111】
上記実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムによれば、接触検出手段17により、2点の接触(例えば、使用者が指等で前記表示画面上の2点を指定する動作)が検出されると、これら2点間を含む所定範囲の地図画像が表示画面16bに表示可能な縮尺で拡大表示されるので、表示画面16b上の2点を指等で指定するというごく簡単な操作で、2点間の地図画像を簡単に拡大表示させることができる。
【0112】
次に実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムについて説明する。但し実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムの構成については、マイコン10Fを除いて図1に示したナビゲ−ションシステムの構成と同様であるため、マイコン10Fには異なる符号を付し、その他の説明をここでは省略する。
【0113】
実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムでは、目的地まで経路誘導している時に、自車位置と目的地との間の直線距離が所定値以下になった場合に、該所定値以下で自車位置と目的地とを含む所定範囲を拡大表示可能な縮尺の地図画像に自動的に切り換えて表示し、自車位置と目的地との間の直線距離が近づくにつれ、より拡大率の大きな縮尺の地図画像が自動的に切り換えて表示されるようになっており、使用者は、縮尺設定をいちいち行わなくても、目的地が近づくにつれ、自車位置と目的地との間の詳細な道路情報等を把握することができるようになっている。
【0114】
実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムでは、表示画面上に表示された画面を通じて、使用者が各種の設定を行うことができ、図21に示した『目的地拡大表示モ−ド設定』画面を通じて、目的地まで経路誘導している時に、自車位置と目的地との間の直線距離が所定値以下となった場合に、該所定値以下で自車位置と目的地とを含む範囲を拡大表示可能な縮尺に切り換えて地図画像を表示するかどうかの目的地拡大表示モ−ドの設定や、目的地拡大表示モ−ドに設定した場合に、さらに自車位置と目的地との間の直線距離が近づくにつれて、拡大率の大きな縮尺に段階的に切り換えて表示する繰り返し縮尺変更表示モ−ドの設定を行うか否かを使用者が自由に選択・設定できるようになっている。
【0115】
実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコン10Fの行う拡大表示処理動作を図22に示したフロ−チャ−トに基づいて説明する。
【0116】
まず、ステップS71では、目的地拡大表示モ−ドに設定されているか否かを判断し、目的地拡大表示モ−ドに設定されていないと判断すれば、他のモ−ドの処理に進み、一方、目的地拡大表示モ−ドに設定されていると判断すればステップS72に進む。
【0117】
ステップS72では、取り込んだ自車位置デ−タに基づいて、自車位置から目的地までの直線距離を算出する処理を行い、その後ステップS73に進む。ステップS73では、算出した自車位置から目的地までの直線距離が、縮尺変更の基準となる所定値以下になったか否かを判断し、所定値以下になっていないと判断すればステップS72に戻る。
【0118】
一方、ステップS73において、算出した自車位置から目的地までの直線距離が、縮尺変更の基準となる所定値以下になったと判断すればステップS74に進む。ステップS74では、設定された縮尺(第1の縮尺)で自車位置と目的地とを含む所定範囲を拡大表示する処理を行い、その後ステップS75に進む。
【0119】
ステップS75では、繰り返し縮尺変更表示モ−ドに設定されているか否かを判断し、繰り返し縮尺変更表示モ−ドに設定されていると判断すればステップS76に進む。ステップS76では、縮尺変更デ−タの読み出し、すなわち第1の縮尺よりも拡大率の大きな第2の縮尺で表示するためのデ−タを読み出す処理を行い、その後ステップS71に戻り、上記処理を繰り返す。
一方、ステップS75において、繰り返し縮尺変更表示モ−ドに設定されていないと判断すれば、処理を終了する。
【0120】
上記実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムによれば、自車位置と目的地との直線距離が所定値以下になると、拡大表示のための操作を使用者が特に行わなくても、自動的に自車位置と前記目的地とを含む拡大された縮尺の地図画像に切り換えて表示されるので、目的地までの拡大表示への切り換えに使用者が操作を行わなくても良く、運転時の安全性を高めることができる。また、自車位置と目的地との間のより詳細な道路や建物等の地図情報を取得することができ、使用者にとって便利で、使い勝手の良い装置を実現することができる。
【0121】
また、繰り返し縮尺変更表示モ−ドの設定により、自車位置と目的地との間の直線距離が近づくにつれ、使用者が特に操作をしなくても、その距離に応じて段階的に拡大率の大きな縮尺に変更された地図画像が表示されていくので、自車位置と目的地との間の距離に応じた適切な縮尺率で拡大された地図画像が表示され、使用者は、目的地に近づくにつれて、目的地周辺のより詳細な情報を把握することが可能となる。
また、目的地拡大表示モ−ド設定画面を備えているので、使用者は、好みに応じて目的地拡大表示モ−ドの設定を行うことができる。
【図面の簡単な説明】
【図1】本発明の実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムの要部を概略的に示したブロック図である。
【図2】実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図3】実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図4】(a)〜(d)は、実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図5】実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示モ−ド設定処理動作を示したフロ−チャ−トである。
【図6】実施の形態(1)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図7】別の実施の形態に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図8】(a)〜(d)は、実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図9】実施の形態(2)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図10】別の実施の形態に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図11】(a)〜(d)は、実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図12】実施の形態(3)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図13】別の実施の形態に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図14】(a)〜(d)は、実施の形態(4)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図15】実施の形態(4)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図16】別の実施の形態に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図17】(a)〜(c)は、実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図18】実施の形態(5)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図19】(a)、(b)は、実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムにおける拡大表示処理を説明するための表示例を示した図である。
【図20】実施の形態(6)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【図21】実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムの表示画面に表示される操作画面を示した図である。
【図22】実施の形態(7)に係る画像処理装置を採用したナビゲ−ションシステムにおけるマイコンの行う拡大表示処理動作を示したフロ−チャ−トである。
【符号の説明】
10、10A〜10F マイコン
16 表示装置
16b 表示画面
17 接触検出手段
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing apparatus, and more particularly to an image processing apparatus that can be employed in a navigation system or the like and can improve the operability for displaying an image such as a map in an enlarged manner.
[0002]
[Prior art]
A navigation system usually displays a map on a display screen, and displays the destination input by the user on the map, the guidance route to the destination, and the vehicle corresponding to the current position of the vehicle. It is equipped with a function to display the vehicle position mark and the traveling locus of the host vehicle up to that point, and the user can obtain the route information by sequentially referring to this display screen. By following the information, you can reach your destination.
[0003]
In addition, the map display is usually equipped with a function to change the scale. When the map screen is to be enlarged, the map to be enlarged is first displayed by a user interface such as a remote control or a joystick. By moving the cursor to the display area, a center point to be enlarged is designated, and a desired scale is selected and set, so that the enlarged display can be performed.
[0004]
As a method for enlarging and displaying such an image, in Patent Document 1, when a predetermined area on the screen is enlarged and displayed, the cursor is moved to the center of the area to be enlarged by the input device and an enlargement display instruction is issued. Based on the enlargement display instruction, a frame indicating an enlargement area is displayed, the frame is gradually enlarged until an enlargement end instruction is given by the user, and when the enlargement end instruction is input by the user, A method for creating an enlarged display window and displaying an enlarged image of a frame is disclosed.
[0005]
Further, in Patent Document 2, a window frame indicating a region of a portion to be enlarged is displayed on a screen displaying a road map with a large scale, and movement of the window frame and enlargement / reduction operations are keyed. A vehicular travel guidance device that is operated by a key operation of a board switch is disclosed.
[0006]
Further, in Patent Document 3, a rectangular area circumscribing the enclosure is cut out by enclosing a portion to be enlarged in the displayed image with a pen, and the image in the rectangular area is enlarged and displayed on the full screen of the display. A pen input video enlarging device that can be used is disclosed.
[0007]
[Patent Document 1]
JP-A-8-147134 (page 3, FIG. 6)
[Patent Document 2]
JP-A-8-194434 (Page 3, Fig. 1-3)
[Patent Document 3]
JP-A-8-137620 (2nd page, FIG. 11)
[0008]
[Problems to be solved by the invention]
However, in the conventional navigation system, it is necessary to perform a movement operation to an area to be enlarged and a selection / setting operation of a scale for obtaining a desired scale, and the selection / setting operation of the scale is used. In many cases, a repeated operation is required to display an enlarged display that the user wants to display, and there is a problem that the setting operation becomes complicated.
[0009]
In the method described in Patent Document 1, the cursor must be moved to the center of the area to be enlarged as described above, and the frame is gradually enlarged. When trying to set a large size, it is necessary to wait until the frame is enlarged to a desired size, and there is a problem that it takes time.
[0010]
Also in the apparatus described in Patent Document 2, the window frame must be moved by a cursor key operation as described above, and the enlargement / reduction selection key is used when the window frame is enlarged / reduced. Therefore, there is a problem that the input operation needs to be repeated many times and the setting operation is troublesome.
Further, the apparatus described in Patent Document 3 has a problem that when the area surrounded by the pen is significantly distorted, the center point of the area to be enlarged is greatly shifted, and it is difficult to specify an accurate range.
[0011]
The present invention has been made in view of the above problems, and an object of the present invention is to provide an image processing apparatus capable of enlarging and displaying an image such as a map displayed on a display screen by a simple operation.
[0012]
[Means for solving the problems and effects thereof]
In order to achieve the above object, an image processing apparatus (1) according to the present invention comprises a display means having a display screen on which an image is displayed, and a contact detection means for detecting physical contact with the display screen. In the image processing apparatus provided, when the contact detection unit detects contact with the display screen, a first frame display unit that displays a frame of a predetermined size about the contact point on the display screen; A second frame display unit configured to display the frame while changing the size of the frame according to the amount of slide movement from the contact point when the contact detection unit detects a slide movement from the contact point; A first image enlargement display means for enlarging and displaying an image displayed in the frame displayed by the second frame display means on the display screen when the end point of the slide movement is detected by the detection means; Have It is characterized by a door.
[0013]
According to the image processing apparatus (1), the contact detection unit detects contact with the display screen (for example, an operation in which a user touches the display screen equipped with a touch panel as the contact detection unit). Then, a frame of a predetermined size with the contact point as a substantially center is displayed on the display screen, and the contact detection means slides from the contact point (for example, the user moves a finger from the contact point to the display screen). Is detected while changing the size of the frame according to the amount of slide movement from the contact point. When the end point of the slide movement is detected by the contact detection means (for example, an operation in which the user lifts his / her finger from the display screen), it is displayed in the frame displayed by the second frame display means. The enlarged image is displayed on the display screen.
Therefore, the user can directly specify the center portion of the image to be enlarged and displayed with a finger or the like, and it is not necessary to perform a troublesome operation such as alignment with a cursor or the like. The center point of the display can be specified.
[0014]
Further, the user can arbitrarily adjust the size of the frame simply by sliding a finger or the like from the contact point in an arbitrary direction, and can grasp at a glance the range to be enlarged and displayed by the frame. .
Furthermore, when the user removes a finger or the like from the display screen, the end point of the slide movement is detected, and the image displayed in the frame at the time of detecting the end point can be enlarged and displayed. When is a map image, detailed map information can be displayed by switching the map image in the frame to a map image of a scale that can be enlarged and displayed on the display screen size.
[0015]
In this way, based on a series of changes in the contact state detected by the contact detection means, designation of the center point for enlargement display, designation of the enlargement range by the frame, and enlargement display of the image in the frame can be performed. The user can enlarge and display an image in a desired range on the display screen by a very simple operation without performing a special cursor operation or a button operation, which is convenient for the user. Thus, an apparatus with improved operability for displaying an enlarged image can be realized.
[0016]
In the image processing apparatus (2) according to the present invention, in the image processing apparatus (1), the predetermined size means a maximum enlargement ratio size, and the second frame display means enlarges the frame. It is characterized by being displayed.
According to the image processing apparatus (2), since the predetermined size means the maximum enlargement ratio size, when the enlargement ratio is to be set large, it is sufficient to reduce the slide movement and more quickly. It is possible to designate and display a frame range with a large enlargement ratio.
[0017]
In the image processing apparatus (3) according to the present invention, in the image processing apparatus (1), the predetermined size means a current display scale size, and the second frame display means reduces the frame. It is characterized by being displayed.
[0018]
According to the image processing apparatus (3), since the predetermined size means the current display scale size, the slide is specified when specifying a range of a frame that is close to the current display scale, that is, with a small enlargement ratio. It is only necessary to reduce the movement, and it is possible to specify and display a frame range with a small enlargement rate more quickly.
[0019]
An image processing apparatus (4) according to the present invention is an image processing apparatus including a display unit including a display screen on which an image is displayed, and a contact detection unit that detects physical contact with the display screen. When the contact detection means detects a contact with the display screen and a slide movement from the contact point, a frame whose size changes according to the amount of slide movement from the contact point is defined as the contact point. When the end point of the slide movement is detected by the third frame display means centered on the display screen and the contact detection means, it is displayed in the frame displayed by the third frame display means. And a second image enlargement display means for enlarging and displaying the existing image on the display screen.
[0020]
According to the image processing device (4), the contact detection means makes contact with the display screen (for example, an operation in which a user makes a finger contact with the display screen equipped with a touch panel as the contact detection means); When a slide movement from the contact point (for example, an operation in which a user slides a finger from the contact point while touching the display screen) is detected, the slide movement amount from the contact point is determined. A frame whose size is changed is displayed with the contact point being substantially at the center, and when the end point of the slide movement (for example, an operation of releasing a finger from the display screen) is detected by the contact detection unit, The image displayed in the frame displayed by the third frame display means is enlarged and displayed on the display screen.
Accordingly, substantially the same effect as that of the image processing apparatus (1) can be obtained. In addition, the frame is displayed only when the slide movement is detected, and the frame is not displayed when the display screen is touched as in the image processing apparatus (1). It is possible to prevent the frame from being displayed.
[0021]
Moreover, the image processing apparatus (5) according to the present invention is configured such that, in any one of the image processing apparatuses (1) to (4), when contact with the display screen is detected by the contact detection unit, the contact point is detected. Image movement display means for moving and displaying the displayed image to the approximate center of the display screen; and frame center moving means for moving the center of the frame from the contact point to the approximate center of the display screen. It is characterized by being.
[0022]
According to the image processing device (5), when contact with the display screen is detected by the contact detection means, the image displayed at the contact point is moved to the approximate center of the display screen and displayed. In addition, since the center of the frame moves from the contact point to the approximate center of the display screen, the user can easily grasp the image information around the contact point to be enlarged and can easily specify the range by the frame. It will be something. In addition, since the center point before enlarged display is the same as the center point after enlarged display, it is easy to grasp the image after enlargement.
[0023]
An image processing apparatus (6) according to the present invention is an image processing apparatus including a display unit including a display screen on which an image is displayed, and a contact detection unit that detects physical contact with the display screen. When a contact to the display screen is detected by the contact detection means, a first frame display means for displaying a frame of a predetermined size about the contact point on the display screen, and the contact detection means When a slide movement from the contact point is detected and the slide movement exceeds the frame displayed on the display screen, a fourth frame display means for displaying a frame indicating a next enlargement setting area; and the contact detection And a third image enlargement display means for enlarging and displaying the image displayed in the frame displayed by the fourth frame display means on the display screen when the end point of the slide movement is detected by the means. What It is characterized.
[0024]
According to the image processing device (6), the size of the frame does not change with the slide movement, but the slide movement (for example, a contact point of a finger sliding on the display screen) When the frame displayed on the display screen is exceeded, a frame indicating the next enlargement setting area is displayed, so that a frame corresponding to the scale setting to be enlarged can be displayed stepwise on the display screen. Further, it is not necessary to finely adjust the size of the frame, and it is easy to specify a rough frame range.
[0030]
The image processing apparatus according to the present invention ( 7 ) Are the image processing apparatuses (1) to ( 6 ), A setting for distinguishing the enlarged display mode for recognizing the contact on the display screen detected by the contact detecting means as the one for enlarging the image and the other mode. It is characterized by comprising mode setting means for performing.
The image processing device ( 7 ), The mode setting means can distinguish between the enlarged display mode and the other mode, and when the mode is set to the enlarged display mode, The contact on the display screen detected by the contact detection means is recognized as an enlargement display of the image.
[0031]
The image processing apparatus according to the present invention ( 8 ) Is the above image processing device ( 7 ), The mode setting means sets the enlarged display mode or the other mode when the contact detection means detects a contact for a predetermined time or longer. It is characterized by that.
The image processing device ( 8 ), When the contact detection means detects a contact that continues for a predetermined time or longer (an operation in which a point on the display screen is touched with a finger for a predetermined time), the mode is detected. Since the setting means sets the enlarged display mode or the other mode, the user can easily set the mode without paying particular attention to the display screen. it can.
[0032]
The image processing apparatus according to the present invention ( 9 ) Is the above image processing device ( 7 Or 8 ), When the mode setting means is set to the enlarged display mode, it is provided with notification means for notifying the user that the enlarged display mode has been set. Yes.
The image processing device ( 9 ), The notification means notifies the user that the enlarged display mode has been set, so that the user immediately notices that the enlarged display mode has been set. Can be confirmed.
[0033]
The image processing apparatus according to the present invention ( 10 ) Is the above image processing device ( 9 ) In which the notification means notifies by sound or voice, notification by display on the display screen, or notification by changing the color of the image displayed on the display screen. It is characterized by including.
The image processing device ( 10 ) According to any one of the notification means by sound or voice, the notification by display on the display screen, or the notification by changing the color of the image displayed on the display screen. Therefore, the user can be surely grasped that the enlarged display mode has been set.
[0039]
DETAILED DESCRIPTION OF THE INVENTION
Embodiments of an image processing apparatus according to the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram schematically showing a main part of a navigation system employing an image processing apparatus according to the embodiment (1).
[0040]
A vehicle speed sensor 11 for calculating the travel distance by calculating from the vehicle speed and a gyro sensor 12 for acquiring the traveling direction are connected to a microcomputer (microcomputer) 10. The vehicle position is determined based on the distance and the traveling direction (autonomous navigation).
The GPS receiver 13 receives a GPS signal from a satellite via an antenna 13a, and is connected to the microcomputer 10. The microcomputer 10 determines the position of the vehicle based on the GPS signal (GPS navigation).
[0041]
Further, an image storage means 14 in which data such as roads are stored is connected to the microcomputer 10, and the microcomputer 10 performs a map matching process for matching the determined vehicle position with the map image data. Thus, a map showing the vehicle position accurately is displayed on the display screen. For example, a hard disk or the like can be employed as the image storage means 14.
[0042]
In addition, a switch signal output from the joystick 15a or the button switch 15b provided on the remote controller 15 or a switch signal output from the button switch 16a provided on the display device 16 is input to the microcomputer 10 in accordance with these switch signals. The processing is performed by the microcomputer 10. For example, when the microcomputer 10 takes in the information of the destination from these switches, the microcomputer 10 searches for the optimum route from the vehicle position to the destination, and displays this as a guidance route on the display screen 16b together with the map. It has become.
[0043]
In this way, in the navigation system, a map is displayed on the display screen 16b, and the destination inputted by the user on the map, the route to the destination, and the vehicle corresponding to the current position of the host vehicle. The vehicle position mark and the traveling locus up to that point are displayed in a superimposed manner, and the user can obtain the route information by sequentially referring to the display screen 16b. By following the information, you can reach your destination.
[0044]
In the figure, reference numeral 17 denotes contact detection means for detecting physical contact with the display screen 16b. The contact detection means 17 is an operation for enlarging an image such as a map displayed on the display screen 16b by the user. In addition, in order to enable an operation for scrolling the map, a finger touched on the display screen 16b on which an image is displayed is detected, and a transparent touch panel (see FIG. Etc.) and the like are laminated. In addition, the coordinate signal detected by the contact detection means 17 is input to the microcomputer 10.
[0045]
In the navigation system employing the image processing apparatus according to the embodiment (1), the user can make various settings through the screen displayed on the display screen 16b, as shown in FIG. Through the “touch panel setting” screen, the user can freely select and set a mode set by long-pressing an arbitrary point on the touch panel.
[0046]
In the setting screen shown in FIG. 2, when “enlarged display mode” is selected and set, if a long press of an arbitrary point on the touch panel is detected during image display, the enlarged display mode is set. In the microcomputer 10, various controls for enlarging and displaying an image are performed based on the coordinate data detected by the contact detection means 17. As another method of switching to the enlarged display mode, a button that can be set to “enlarged display mode” is assigned to the button switch 15b of the remote controller 15 or the button switch 16a of the display device 16. Good.
[0047]
In addition, a method for notifying the user that the enlarged display mode has been set can be selected and set through the “setting of notification method when setting the enlarged display mode” screen shown in FIG. In FIG. 3, the user can freely select and set whether or not to make a notification by changing the voice, on-screen display, and image background color. .
[0048]
Next, an enlarged display method of the map image displayed on the display screen 16b when the enlarged display mode is set will be described based on the display examples shown in FIGS.
FIG. 4A shows an example of a map image displayed on the display screen 16b. The vehicle position mark indicating the current position of the vehicle is located at the lower center of the screen, and the bank B is located near the center of the screen. It is assumed that the building A is displayed on the upper left of Bank B and is set to a scale that displays a relatively wide area. For simplification, other displays such as roads are omitted here.
[0049]
First, when the user tries to obtain detailed map information around the A building, the user touches the display location of the A building on the display screen 16b provided with the touch panel with a finger. Then, as shown in FIG. 4B, a frame 21 indicating an enlarged setting area with the contact point indicated by the x mark (the x mark is not actually displayed) is displayed on the display screen 16b. The size of the frame 21 to be displayed is the maximum enlargement ratio size, that is, the size indicating the area that can be displayed on the display screen 16b at the scale with the maximum enlargement ratio.
[0050]
When a slide movement of a finger from the contact point (x mark) by the user (for example, an operation as indicated by a solid arrow in FIG. 4C) is detected, the frame 21 expands according to the slide movement amount. (Dashed arrow) is displayed. Since the size of the frame 21 isotropically changes in accordance with the amount of slide movement from the contact point, the direction of the finger slide movement may be any direction.
[0051]
The user can set a range to be enlarged and displayed in the frame 21 while sliding the finger, and when the bank B is included in the frame 21 (FIG. 4C), the user can slide the finger. When it is detected that the finger that has been separated from the display screen 16b is detected, the area designated by the frame 21 shown in FIG. 4C is enlarged to the display screen size as shown in FIG. The map image is switched to a scale image suitable for display, and is enlarged and displayed with the image (A building) displayed at the contact point (× mark) as a substantial center. When there is no scale that can be displayed on the full display screen, a map image with a scale closest to the enlargement ratio is displayed. In this case, a part where a part of the map image is not displayed is formed on the display screen 16b.
[0052]
Next, an enlarged display mode setting processing operation performed by the microcomputer 10 in the navigation system employing the image processing apparatus according to the embodiment (1) will be described based on the flowchart shown in FIG.
First, in step S1, it is determined whether or not the enlarged display mode is set. If it is determined that the enlarged display mode is set, the process ends. On the other hand, if it is determined in step S1 that the enlarged display mode is not set, the process proceeds to step S2. In step S2, it is determined whether physical contact with the touch panel has been detected, that is, whether there has been finger contact with the touch panel. If it is determined that there is no finger contact with the touch panel, the process returns to step S1.
[0053]
On the other hand, if it is determined in step S2 that a finger touches the touch panel, the process proceeds to step S3, the timer t is started, and then the process proceeds to step S4. In step S4, the touch of the finger on the touch panel is a predetermined time t. 1 It is determined whether or not it is continuously detected, and the touch of the finger on the touch panel is determined for a predetermined time t. 1 If it is determined that the detection has been continued, the process proceeds to step S5.
[0054]
In step S5, a process for setting to the enlarged display mode is performed, and then the process proceeds to step S6. In step S6, a process of notifying the user that the display mode has been set to the enlarged display mode by the notification method set through the “setting of the notification method when setting the enlarged display mode” screen shown in FIG. 3 is performed. Then, the process ends.
On the other hand, in step S4, the timer t is set to the predetermined time t while the touch of the finger on the touch panel is detected. 1 If it is determined that the time has not elapsed, the process returns to step S1.
[0055]
Next, an enlarged display processing operation performed by the microcomputer 10 in the navigation system employing the image processing apparatus according to the embodiment (1) will be described based on the flowchart shown in FIG. This processing operation is executed when the enlarged display mode is set.
[0056]
First, in step S11, it is determined whether or not physical contact with the touch panel has been detected, that is, whether or not there has been finger contact with the touch panel. finish. On the other hand, if it is determined in step S11 that the finger touches the touch panel, the process proceeds to step S12. In step S12, a process of displaying the frame 21 having the maximum enlargement ratio size with the contact point as a substantial center is performed, and then step S13 is performed. Proceed to
[0057]
In step S13, it is determined whether or not a slide movement from the contact point is detected, that is, whether or not an operation of sliding the finger touching the touch panel from the contact point is detected, and the slide movement from the contact point is detected. If it is determined that it has not been detected, the process proceeds to step S15. On the other hand, if it is determined in step S13 that a slide movement from the contact point has been detected, the process proceeds to step S14.
[0058]
In step S14, the frame 21 is displayed while being enlarged according to the amount of slide movement from the contact point, and then the process proceeds to step S15. In step S15, it is determined whether or not the end point of the slide movement has been detected, that is, whether or not the finger has been released from the touch panel. If it is determined that the finger has not been released from the touch panel, the process returns to step S13. If it is determined that the finger has been released, the process proceeds to step S16.
In step S16, a process is performed in which the area specified by the frame 21 displayed in step S14 is switched to a map image having a scale suitable for display by enlarging it to the display screen size, and the display is enlarged with the contact point as a substantial center. After that, the process ends.
[0059]
According to the image processing apparatus according to the above embodiment (1), the user can directly specify the center portion of the map image to be enlarged and displayed with a finger or the like. Therefore, the center point of the enlarged display can be designated easily and accurately.
Further, the user can arbitrarily adjust the size of the frame 21 simply by sliding the finger or the like from the contact point in any direction, and can grasp the range to be enlarged and displayed by the frame 21 at a glance. .
Further, when the user removes his / her finger or the like from the display screen 16b, the end point of the slide movement is detected, and the map on a scale that can display the map image displayed in the frame 21 when the end point is detected on the entire display screen. The image can be enlarged and displayed, and the user can obtain detailed map information.
[0060]
As described above, based on a series of changes in the contact state detected by the contact detection means 17, the center point to be magnified is designated, the magnification range is designated by the frame 21, and the map image in the frame 21 is magnified and displayed. The user can enlarge and display a map image in a desired range on the display screen 16b by a very simple operation without performing a special cursor operation or a button operation. A user-friendly device with improved operability for enlarged display of a map image can be realized.
[0061]
In the above embodiment (1), the frame 21 is displayed when the touch of the finger on the touch panel is detected when the enlarged display mode is set. Then, the frame 21 may be displayed only when the finger movement on the touch panel is detected and then the finger slide movement is further detected.
In addition, the user can freely select these processes through the setting screen as shown in FIG. 7, and the microcomputer 10 performs a process of displaying the frame 21 at the display timing selected and set through the setting screen. You may make it perform.
[0062]
Next, a navigation system that employs the image processing apparatus according to the embodiment (2) will be described. However, the configuration of the navigation system employing the image processing apparatus according to the embodiment (2) is the same as the configuration of the navigation system shown in FIG. 1 except for the microcomputer 10A. A different code | symbol is attached | subjected and other description is abbreviate | omitted here.
[0063]
An enlarged display method of the map image displayed on the display screen 16b when the enlarged display mode is set will be described based on display examples shown in FIGS.
FIG. 8A shows an example of a map image displayed on the display screen 16b, and has the same configuration as the map image shown in FIG.
[0064]
First, when the user tries to obtain detailed enlarged map information around the A building, the user touches the display location of the A building on the display screen 16b provided with the touch panel with a finger (a cross mark in FIG. 8A). The indicated contact point (the x mark is not actually displayed)).
Then, a map image in which the building A displayed at the contact point in FIG. 8A is moved to the approximate center of the display screen 16b is displayed, and a frame in which the center is moved from the contact point to the approximate center of the display screen 16b. 21a is displayed on the map (FIG. 8B). The size of the frame 21a is the maximum enlargement ratio size.
[0065]
When a slide movement of a finger from the contact point (x mark) by the user (for example, an action as indicated by a solid arrow in FIG. 8C) is detected, the frame 21a expands according to the slide movement amount. (Dashed arrow) is displayed. Since the size of the frame 21a isotropically changes in accordance with the amount of slide movement from the contact point, the direction of the finger slide movement may be any direction.
[0066]
The user can set the range to be enlarged and displayed in the frame 21a while sliding the finger, and when the bank B is included in the frame 21a (FIG. 8 (c)), the user can move the slide. When it is detected that the finger that has been separated from the display screen 16b is detected, the area designated by the frame 21a shown in FIG. 8C is enlarged to the display screen size as shown in FIG. 8D. The map image is switched to a scale image suitable for display, and the center of the display screen is fixed and enlarged so that the user can refer to detailed map information around the building A including the bank B. ing.
[0067]
Next, an enlarged display processing operation performed by the microcomputer 10A in the navigation system employing the image processing apparatus according to the embodiment (2) will be described based on the flowchart shown in FIG. The enlarged display processing operation has a configuration in which steps S21 and S22 are inserted instead of step S12 in FIG. 6, and only the differences will be described below.
[0068]
First, in step S11, it is determined whether or not physical contact with the touch panel has been detected, that is, whether or not there has been finger contact with the touch panel. On the other hand, if it is determined that a finger touches the touch panel, the process proceeds to step S21.
[0069]
In step S21, the map image displayed at the contact point is displayed by moving to the approximate center of the display screen 16b, and then the process proceeds to step S22. In step S22, a process of displaying on the map the frame 21a whose center has been moved from the contact point to the approximate center of the display screen 16b is performed. Thereafter, the process proceeds to step S13, and the process similar to the process shown in FIG. The image in the frame 21a is enlarged and displayed on the display screen 16b.
[0070]
According to the navigation system employing the image processing apparatus according to the above embodiment (2), when contact with the display screen 16b is detected by the contact detection means 17, it is displayed at the contact point (x mark). The displayed image is moved to the approximate center of the display screen 16b, and the center of the frame 21a is also moved from the contact point (x mark) to the approximate center of the display screen 16b. It becomes easy to grasp the peripheral image information, and the range designation by the frame 21a is also easy. In addition, since the center point before enlarged display is the same as the center point after enlarged display, it is easy to grasp the image after enlargement.
[0071]
In the above embodiment (2), the frame 21a in which the image displayed at the contact point is moved to the approximate center of the display screen 16b and the center is moved from the contact point to the approximate center of the display screen 16b is displayed on the map. However, in another embodiment, the contact point image is moved to the approximate center of the display screen 16b through the setting screen as shown in FIG. The user can freely select whether or not to display the frame 21a moved to the approximate center of the display screen, that is, the user can freely select the processing of the embodiment (1) or (2). As described above, the microcomputer 10A may perform a process of displaying the map image and the frame by the enlarged display method selected and set through the setting screen.
[0072]
Next, a navigation system that employs the image processing apparatus according to the embodiment (3) will be described. However, the configuration of the navigation system adopting the image processing apparatus according to the embodiment (3) is the same as the configuration of the navigation system shown in FIG. 1 except for the microcomputer 10B. A different code | symbol is attached | subjected and other description is abbreviate | omitted here.
[0073]
An enlarged display method of the map image displayed on the display screen 16b when the enlarged display mode is set will be described based on display examples shown in FIGS.
Fig.11 (a) has shown an example of the map image displayed on the display screen 16b, and has the structure similar to the map image shown to Fig.4 (a).
[0074]
First, when the user tries to obtain detailed enlarged map information around the A building, the user touches the display location of the A building on the display screen 16b provided with the touch panel with a finger. Then, as shown in FIG. 11 (b), a frame 21b is displayed with the contact point indicated by the x mark (the x mark is not actually displayed) substantially at the center. The size of the frame 21b is the current display scale size, that is, the size indicating the area that can be displayed on the display screen 16b at the scale of the image currently displayed.
[0075]
When the slide movement of the finger from the contact point (x mark) by the user (for example, the movement shown by the solid arrow in FIG. 11C) is detected, the frame 21b is reduced according to the slide movement amount. (Dashed arrow) is displayed. Since the size of the frame 21b isotropically reduced according to the amount of slide movement from the contact point, the direction of the finger slide movement may be any direction.
[0076]
The user can set the range to be enlarged and displayed in the reduced frame 21b while sliding the finger, and when the bank B is included at the end in the frame 21b (FIG. 11 (c)). ), When it is detected that the finger that has been slid away from the display screen 16b, as shown in FIG. 11D, the area designated by the frame 21b shown in FIG. 11C is displayed. The map image is switched to a scale image suitable for being enlarged and displayed on the screen size, and is enlarged and displayed with the contact point substantially at the center. The user refers to detailed enlarged map information around the building A including the bank B. Be able to.
[0077]
Next, an enlarged display processing operation performed by the microcomputer 10B in the navigation system employing the image processing apparatus according to the embodiment (3) will be described based on the flowchart shown in FIG. Note that this enlarged display processing operation has a configuration in which step S31 is inserted instead of step S12 in FIG. 6 and step S32 is inserted instead of step S14, and only the differences will be described below.
[0078]
First, in step S11, it is determined whether or not physical contact with the touch panel has been detected, that is, whether or not there has been finger contact with the touch panel. On the other hand, if it is determined that a finger touches the touch panel, the process proceeds to step S31.
[0079]
In step S31, a process of displaying the frame 21b of the current display scale size with the contact point as the approximate center is performed, and then the process proceeds to step S13. In step S13, it is determined whether or not a slide movement from the contact point is detected. If it is determined that a slide movement from the contact point is not detected, the process proceeds to step S15. On the other hand, if it is determined in step S13 that a slide movement from the contact point has been detected, the process proceeds to step S32.
[0080]
In step S32, the frame 21b is displayed while being reduced according to the slide movement amount from the contact point, and then the process proceeds to step S15. Thereafter, processing similar to that shown in FIG. 6 is performed, and the image in the frame 21b is enlarged and displayed on the display screen 16b.
[0081]
According to the navigation system employing the image processing apparatus according to the above embodiment (3), when the touch panel is touched, the current display scale size frame 21b is displayed around the contact point. When specifying a range of a frame close to, that is, a small enlargement rate, it is sufficient to reduce the slide movement, and it is possible to specify and display a range of a frame with a small enlargement rate more quickly.
[0082]
In the above-described embodiment (3), when the touch of the finger on the touch panel is detected, it is set in advance to display the frame 21b of the current display scale size with the contact point as the approximate center. In the embodiment, when the contact of the finger to the touch panel is detected through the setting screen as shown in FIG. 13, the user can freely select the size of the frame to be displayed with the contact point as the approximate center, That is, the process of the embodiment (1) or (3) may be freely selected by the user, and the microcomputer 10B may perform a process of displaying a frame of the size selected and set through the setting screen. .
[0083]
Next, a navigation system employing the image processing apparatus according to the embodiment (4) will be described. However, the configuration of the navigation system employing the image processing apparatus according to the embodiment (4) is the same as the configuration of the navigation system shown in FIG. 1 except for the microcomputer 10C. A different code | symbol is attached | subjected and other description is abbreviate | omitted here.
[0084]
An enlarged display method of the map image displayed on the display screen 16b when the enlarged display mode is set will be described based on display examples shown in FIGS.
FIG. 14A shows an example of a map image displayed on the display screen 16b, and the configuration is the same as that of the map image shown in FIG.
[0085]
First, when the user tries to obtain detailed enlarged map information around the A building, the user touches the display location of the A building on the display screen 16b provided with the touch panel with a finger. Then, as shown in FIG. 14 (a), the frame 21c having the contact point indicated by the x mark (the x mark is not actually displayed) substantially at the center. 1 Is displayed. Frame 21c 1 The size may be a size indicating a region that can be displayed on the display screen 16b at a predetermined scale, but the maximum enlargement ratio size is preferable.
[0086]
A frame 21c in which the slide movement of the finger from the contact point by the user is detected and the slide movement (solid arrow shown in FIG. 14A) is currently displayed. 1 The frame 21c shown in FIG. 1 Exceeds the next enlargement ratio (frame 21c 1 Frame 21c set to a smaller magnification) 2 Is displayed (FIG. 14B).
[0087]
Further, the finger slide movement by the user is detected, and the slide movement is detected by the frame 21c. 2 (The operation of the solid arrow shown in FIG. 14C), the next enlargement ratio (frame 21c) is exceeded. 2 Frame 21c set to a smaller magnification) 3 Is displayed, and the frame 21c including Bank B 3 When it is detected that the finger that has been slid away from the display screen 16b is detected at this time point (FIG. 14C), as shown in FIG. 14D, FIG. Frame 21c shown in 3 The area specified by is switched to a map image with a scale suitable for displaying the enlarged display screen size, and the display is enlarged with the contact point approximately at the center. It is possible to refer to various enlarged map information.
[0088]
Next, an enlarged display processing operation performed by the microcomputer 10C in the navigation system employing the image processing apparatus according to the embodiment (4) will be described based on the flowchart shown in FIG. The enlarged display processing operation has a configuration in which steps S41 to S43 are inserted instead of step S14 in FIG. 6, and only differences will be described below.
[0089]
If it is determined in step S13 that a slide movement from the contact point has been detected, the process proceeds to step S41. In step S41, coordinate data for slide movement is taken in, and the process proceeds to step S42.
In step S42, based on the acquired coordinate data, it is determined whether or not the slide movement exceeds the frame displayed on the display screen 16b, and the slide movement exceeds the frame displayed on the display screen 16b. If it judges, it will progress to step S43.
[0090]
In step S43, a process of displaying a frame indicating the next enlargement setting area is performed, and then the process proceeds to step S15.
On the other hand, if it is determined in step S42 that the slide movement does not exceed the frame displayed on the display screen 16b, the process proceeds to step S15.
[0091]
According to the navigation system employed in the image processing apparatus according to the above embodiment (4), the size of the frame does not change with the slide movement, but the slide movement (for example, the slide movement on the display screen 16b is performed). The contact point of the finger) is displayed on the display screen 16b. 1 Is exceeded, a frame 21c indicating the next enlargement setting area 2 Is displayed, so the frame 12c corresponding to the scale setting to be enlarged is displayed. 1 ~ 12c n Can be displayed step by step on the display screen 16b. In addition, it is not necessary to finely adjust the size of the frame, and it is easy to specify a rough frame range.
[0092]
In the above embodiment (4), the slide movement is set in advance so as to display a frame having a size with a different enlargement ratio step by step every time it exceeds the frame displayed on the display screen 16b. According to another embodiment, through the setting screen as shown in FIG. 16, “slide enlargement display” that allows a frame to be displayed while being enlarged according to the amount of slide movement, and a preset enlargement ratio The microcomputer 10C allows the user to freely select “stage enlarged display” that can display the frame step by step, and the microcomputer 10C uses the frame enlarged display method selected and set through the setting screen of FIG. You may make it perform the process which displays a frame.
[0093]
Next, a navigation system employing the image processing apparatus according to the embodiment (5) will be described. However, the configuration of the navigation system employing the image processing apparatus according to the embodiment (5) is the same as the configuration of the navigation system shown in FIG. 1 except for the microcomputer 10D. A different code | symbol is attached | subjected and other description is abbreviate | omitted here.
[0094]
In the navigation system employing the image processing apparatus according to the embodiment (5), when the user touches the part to be enlarged and displayed with the finger through the touch panel when setting the enlarged display mode, the image at the contact point is displayed. Is moved to approximately the center of the display screen 16b, and an image enlarged at a preset scale is displayed on the display screen 16b. Therefore, an image around a portion to be viewed can be obtained by a simpler operation. The display can be enlarged.
[0095]
An enlarged display method of the map image displayed on the display screen 16b when the enlarged display mode is set will be described based on display examples shown in FIGS.
FIG. 17A shows an example of the map image displayed on the display screen 16b, and has the same configuration as the map image shown in FIG.
[0096]
First, when the user tries to obtain detailed map information around the A building, the display location of the A building on the display screen 16b provided with the touch panel is touched with a finger (indicated by a cross in FIG. 17A). Contact point (x mark is not actually displayed)). Then, a map image in which the building A displayed at the contact point in FIG. 17A is moved to the approximate center of the display screen 16b is displayed (FIG. 17B), and then the building A is displayed in the display screen 16b. A map image of a scale that can be enlarged and set in advance is displayed as the center (FIG. 17C), and the user can refer to detailed enlarged map information around the A building. .
[0097]
Next, an enlarged display processing operation performed by the microcomputer 10D in the navigation system employing the image processing apparatus according to the embodiment (5) will be described based on the flowchart shown in FIG. This processing operation is executed when the enlarged display mode is set.
[0098]
First, in step S51, it is determined whether or not a physical contact with the touch panel has been detected, that is, whether or not there has been a finger contact with the touch panel. finish.
[0099]
On the other hand, if it is determined in step S51 that the finger touches the touch panel, the process proceeds to step S52, and in step S52, the image displayed at the contact point is moved to the approximate center of the display screen 16b and displayed. Then, the process proceeds to step S53. In step S53, the center position of the image displayed on the display screen 16b is fixed and enlarged display is performed at a preset scale capable of enlargement display, and then the process ends.
[0100]
According to the navigation system in which the image processing apparatus according to the above embodiment (5) is adopted, just touching with a finger or the like the part of the image displayed on the display screen 16b that is desired to be enlarged and displayed. Moves to approximately the center of the display screen 16b and an image enlarged at a predetermined scale is displayed, so that the image can be enlarged and displayed by a simpler operation.
[0101]
In the above embodiment (5), the portion where contact is detected is moved to the approximate center of the display screen 16b to display a map image enlarged at a predetermined scale. In the embodiment, after displaying a map image of a scale that is set in advance so as to include a portion where contact is detected, the portion where contact is detected is moved to the approximate center of the display screen 16b and displayed. You may do it.
In the above embodiment (5), a scale capable of enlarging display is set in advance, but in another embodiment, the user selects and sets a desired scale. A setting screen that can be displayed is provided, and the scale for enlarged display may be set through the setting screen.
[0102]
Next, a navigation system employing the image processing apparatus according to embodiment (6) will be described. However, the configuration of the navigation system adopting the image processing apparatus according to the embodiment (6) is the same as the configuration of the navigation system shown in FIG. 1 except for the microcomputer 10E. A different code | symbol is attached | subjected and other description is abbreviate | omitted here.
[0103]
In the navigation system that employs the image processing apparatus according to the embodiment (6), when contact between two points on the display screen is detected in the enlarged display mode setting, the images at the two points are simultaneously displayed. The display is scaled and displayed in an enlarged manner so that the center between the two points is positioned at the approximate center of the display screen 16b, so that it is easy to specify a portion to be directly enlarged and displayed.
[0104]
An enlarged display method of the map image displayed on the display screen 16b when the enlarged display mode is set will be described based on the display examples shown in FIGS.
FIG. 19A shows an example of the map image displayed on the display screen 16b, and has the same configuration as the map image shown in FIG.
[0105]
First, when the user wants to obtain detailed map information between A building and B bank, touch the display location of A building and the display location of B bank with a finger on the display screen 16b provided with the touch panel. (Contact points indicated by x marks in FIG. 19A (the x marks are not actually displayed)).
[0106]
Then, as shown in FIG. 19B, the scale is such that A building and B bank can be enlarged and displayed so as to include one screen, and the midpoint between A building and B bank is approximately the center of the display screen 16b. The user is able to refer to detailed enlarged map information between the A building and the B bank.
[0107]
Next, an enlarged display processing operation performed by the microcomputer 10E in the navigation system employing the image processing apparatus according to the embodiment (6) will be described based on the flowchart shown in FIG. This enlarged display processing operation is executed when the enlarged display mode is set.
[0108]
First, in step S61, it is determined whether or not physical contact with the touch panel has been detected, that is, whether or not there has been finger contact with the touch panel. finish. On the other hand, if it is determined in step S61 that a finger touches the touch panel, the process proceeds to step S62, the timer t is started, and then the process proceeds to step S63.
[0109]
In step S63, a predetermined time t 2 Whether or not re-contact with the touch panel is detected, that is, a predetermined time t 2 It is determined whether or not the finger touches the touch panel again, and if it is determined that the finger does not touch the touch panel again, the process ends. On the other hand, if it is determined in step S63 that the finger touches the touch panel again, the process proceeds to step S64.
[0110]
In step S64, a process of calculating the distance between the two points from the coordinate data of the two points where contact is detected is performed, and then the process proceeds to step S65. In step S65, a process for determining a scale for enlarging and displaying the two points on the display screen 16b from the calculated distance between the two points is performed, and then the process proceeds to step S66. In step S66, a process of enlarging and displaying between the two points is performed so that the midpoint between the two points is positioned at the approximate center of the display screen at the determined scale capable of enlarging display, and then the process ends.
[0111]
According to the navigation system employing the image processing apparatus according to the above embodiment (6), the contact detection means 17 causes the two points of contact (for example, the user to select two points on the display screen with a finger or the like). When a designated operation) is detected, a predetermined range of map images including these two points is enlarged and displayed at a scale that can be displayed on the display screen 16b, so two points on the display screen 16b are designated with a finger or the like. With such a simple operation, a map image between two points can be easily enlarged and displayed.
[0112]
Next, a navigation system employing the image processing apparatus according to the embodiment (7) will be described. However, since the configuration of the navigation system employing the image processing apparatus according to the embodiment (7) is the same as the configuration of the navigation system shown in FIG. 1 except for the microcomputer 10F, the microcomputer 10F includes A different code | symbol is attached | subjected and other description is abbreviate | omitted here.
[0113]
In the navigation system employing the image processing apparatus according to the embodiment (7), when the route distance to the destination is routed, the linear distance between the vehicle position and the destination is less than a predetermined value. In addition, a predetermined range including the own vehicle position and the destination within the predetermined value is automatically switched to a scaled map image that can be enlarged and displayed, and the linear distance between the own vehicle position and the destination approaches. As a result, a map image with a larger scale is automatically switched and displayed, and the user can move his / her vehicle position and destination as the destination approaches without setting the scale one by one. Detailed road information etc. with the ground can be grasped.
[0114]
In the navigation system employing the image processing apparatus according to the embodiment (7), the user can make various settings through the screen displayed on the display screen, and the “Destination” shown in FIG. When the route to the destination is being guided through the “Enlarged display mode setting” screen, if the straight line distance between the vehicle position and the destination is less than or equal to the predetermined value, the vehicle position is below the predetermined value. If you set the destination enlargement display mode to whether or not to display the map image by switching to a scale that can display the enlarged range including the destination and destination, or if you set the destination enlargement display mode, As the straight line distance between the vehicle position and the destination approaches, the user can freely select whether or not to set the repeated scale change display mode to switch to a scale with a large enlargement step by step. It can be set.
[0115]
An enlarged display processing operation performed by the microcomputer 10F in the navigation system employing the image processing apparatus according to the embodiment (7) will be described based on the flowchart shown in FIG.
[0116]
First, in step S71, it is determined whether or not the destination enlargement display mode is set. If it is determined that the destination enlargement display mode is not set, the process proceeds to another mode. On the other hand, if it is determined that the destination enlargement display mode is set, the process proceeds to step S72.
[0117]
In step S72, a process of calculating a linear distance from the vehicle position to the destination is performed based on the captured vehicle position data, and then the process proceeds to step S73. In step S73, it is determined whether or not the calculated linear distance from the vehicle position to the destination is equal to or smaller than a predetermined value that is a reference for scale change. If it is determined that the linear distance is not equal to or smaller than the predetermined value, the process proceeds to step S72. Return.
[0118]
On the other hand, if it is determined in step S73 that the calculated linear distance from the vehicle position to the destination is equal to or smaller than a predetermined value that is a reference for scale change, the process proceeds to step S74. In step S74, a process of enlarging and displaying a predetermined range including the vehicle position and the destination at the set scale (first scale) is performed, and then the process proceeds to step S75.
[0119]
In step S75, it is determined whether or not the repeated scale change display mode is set. If it is determined that the repeated scale change display mode is set, the process proceeds to step S76. In step S76, the scale change data is read out, that is, data for displaying at a second scale having a larger enlargement ratio than the first scale is read, and then the process returns to step S71 to perform the above process. repeat.
On the other hand, if it is determined in step S75 that the repeated scale change display mode has not been set, the process ends.
[0120]
According to the navigation system employing the image processing apparatus according to the above embodiment (7), when the linear distance between the vehicle position and the destination is equal to or less than a predetermined value, the user performs an operation for enlarged display. Even if nothing is done, the map image is automatically switched to an enlarged map image that includes the vehicle position and the destination, so that the user performs an operation to switch to the enlarged display up to the destination. There is no need, and safety during driving can be improved. Further, more detailed map information such as roads and buildings between the vehicle position and the destination can be acquired, and a user-friendly device that is convenient for the user can be realized.
[0121]
In addition, as the scale change display mode is set repeatedly, as the linear distance between the vehicle position and the destination approaches, even if the user does not perform any particular operation, the enlargement factor is gradually increased according to the distance. Since the map image changed to a larger scale is displayed, the map image enlarged at an appropriate scale ratio according to the distance between the vehicle position and the destination is displayed. As it approaches, it becomes possible to grasp more detailed information around the destination.
Further, since the destination enlargement display mode setting screen is provided, the user can set the destination enlargement display mode according to his / her preference.
[Brief description of the drawings]
FIG. 1 is a block diagram schematically showing a main part of a navigation system employing an image processing apparatus according to an embodiment (1) of the present invention.
FIG. 2 is a diagram showing an operation screen displayed on the display screen of the navigation system employing the image processing apparatus according to the embodiment (1).
FIG. 3 is a diagram showing an operation screen displayed on a display screen of a navigation system employing the image processing apparatus according to the embodiment (1).
FIGS. 4A to 4D are diagrams illustrating display examples for explaining an enlarged display process in a navigation system employing the image processing apparatus according to the embodiment (1). FIGS.
FIG. 5 is a flowchart showing an enlarged display mode setting processing operation performed by a microcomputer in the navigation system employing the image processing apparatus according to the embodiment (1).
FIG. 6 is a flowchart showing an enlarged display processing operation performed by a microcomputer in the navigation system employing the image processing apparatus according to the embodiment (1).
FIG. 7 is a diagram showing an operation screen displayed on a display screen of a navigation system employing an image processing apparatus according to another embodiment.
FIGS. 8A to 8D are diagrams showing display examples for explaining an enlarged display process in a navigation system employing the image processing apparatus according to the embodiment (2). FIGS.
FIG. 9 is a flowchart showing an enlarged display processing operation performed by the microcomputer in the navigation system employing the image processing apparatus according to the embodiment (2).
FIG. 10 is a diagram showing an operation screen displayed on a display screen of a navigation system employing an image processing apparatus according to another embodiment.
FIGS. 11A to 11D are diagrams showing display examples for explaining an enlarged display process in a navigation system employing the image processing apparatus according to the embodiment (3). FIGS.
FIG. 12 is a flowchart showing an enlarged display processing operation performed by the microcomputer in the navigation system employing the image processing apparatus according to the embodiment (3).
FIG. 13 is a diagram showing an operation screen displayed on a display screen of a navigation system employing an image processing apparatus according to another embodiment.
FIGS. 14A to 14D are diagrams showing display examples for explaining an enlarged display process in a navigation system employing the image processing apparatus according to the embodiment (4). FIGS.
FIG. 15 is a flowchart showing an enlarged display processing operation performed by the microcomputer in the navigation system employing the image processing apparatus according to the embodiment (4).
FIG. 16 is a diagram showing an operation screen displayed on a display screen of a navigation system employing an image processing apparatus according to another embodiment.
FIGS. 17A to 17C are diagrams showing display examples for explaining an enlarged display process in the navigation system employing the image processing apparatus according to the embodiment (5). FIGS.
FIG. 18 is a flowchart showing an enlarged display processing operation performed by the microcomputer in the navigation system employing the image processing apparatus according to the embodiment (5).
FIGS. 19A and 19B are views showing display examples for explaining an enlarged display process in a navigation system employing the image processing apparatus according to the embodiment (6). FIGS.
FIG. 20 is a flowchart showing an enlarged display processing operation performed by the microcomputer in the navigation system employing the image processing apparatus according to the embodiment (6).
FIG. 21 is a diagram showing an operation screen displayed on the display screen of the navigation system employing the image processing apparatus according to the embodiment (7).
FIG. 22 is a flowchart showing an enlarged display processing operation performed by the microcomputer in the navigation system employing the image processing apparatus according to the embodiment (7).
[Explanation of symbols]
10, 10A-10F Microcomputer
16 Display device
16b display screen
17 Contact detection means

Claims (10)

画像が表示される表示画面を備えた表示手段と、
前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、
前記接触検出手段により前記表示画面への接触が検出されると、接触点を略中心とした所定サイズの枠を前記表示画面に表示する第1の枠表示手段と、
前記接触検出手段により前記接触点からのスライド移動が検出されると、前記枠の大きさを前記接触点からのスライド移動量に応じて変化させながら表示する第2の枠表示手段と、
前記接触検出手段により前記スライド移動の終点が検出されると、前記第2の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第1の画像拡大表示手段とを備えていることを特徴とする画像処理装置。
A display means having a display screen on which an image is displayed;
In an image processing apparatus comprising contact detection means for detecting physical contact with the display screen,
A first frame display unit that displays a frame of a predetermined size about the contact point on the display screen when contact with the display screen is detected by the contact detection unit;
And second frame display means for displaying the frame while changing the size of the frame according to the amount of slide movement from the contact point when the contact detection means detects a slide movement from the contact point;
When the end point of the slide movement is detected by the contact detection means, a first image enlargement display means that enlarges and displays an image displayed in the frame displayed by the second frame display means on the display screen. An image processing apparatus comprising:
前記所定サイズが、最大拡大率サイズを意味し、
前記第2の枠表示手段が、前記枠を拡大させながら表示するものであることを特徴とする請求項1記載の画像処理装置。
The predetermined size means a maximum magnification rate size,
The image processing apparatus according to claim 1, wherein the second frame display unit displays the frame while enlarging the frame.
前記所定サイズが、現在表示縮尺サイズを意味し、
前記第2の枠表示手段が、前記枠を縮小させながら表示するものであることを特徴とする請求項1記載の画像処理装置。
The predetermined size means a current display scale size,
The image processing apparatus according to claim 1, wherein the second frame display means displays the frame while reducing the frame.
画像が表示される表示画面を備えた表示手段と、
前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、
前記接触検出手段により前記表示画面への接触と、接触点からのスライド移動とが検出されると、前記接触点からのスライド移動量に応じて大きさの変化する枠を前記接触点を略中心にして前記表示画面に表示する第3の枠表示手段と、
前記接触検出手段により前記スライド移動の終点が検出されると、前記第3の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第2の画像拡大表示手段とを備えていることを特徴とする画像処理装置。
A display means having a display screen on which an image is displayed;
In an image processing apparatus comprising contact detection means for detecting physical contact with the display screen,
When contact with the display screen and slide movement from the contact point are detected by the contact detection means, a frame whose size changes according to the amount of slide movement from the contact point is approximately centered on the contact point. A third frame display means for displaying on the display screen,
When the end point of the slide movement is detected by the contact detection means, second image enlargement display means for enlarging and displaying an image displayed in the frame displayed by the third frame display means on the display screen An image processing apparatus comprising:
前記接触検出手段により前記表示画面への接触が検出されると、前記接触点に表示されている画像を前記表示画面の略中心に移動させて表示する画像移動表示手段と、
前記枠の中心を前記接触点から前記表示画面の略中心に移動させる枠中心移動手段とを備えていることを特徴とする請求項1〜4のいずれかの項に記載の画像処理装置。
When the contact on the display screen is detected by the contact detection means, an image moving display means for moving and displaying the image displayed at the contact point to the approximate center of the display screen;
The image processing apparatus according to claim 1, further comprising a frame center moving unit that moves the center of the frame from the contact point to a substantially center of the display screen.
画像が表示される表示画面を備えた表示手段と、
前記表示画面への物理的な接触を検出する接触検出手段とを備えた画像処理装置において、
前記接触検出手段により前記表示画面への接触が検出されると、接触点を略中心とした所定サイズの枠を前記表示画面に表示する第1の枠表示手段と、
前記接触検出手段により前記接触点からのスライド移動が検出され、該スライド移動が前記表示画面に表示されている前記枠を越えると、次の拡大設定領域を示す枠を表示する第4の枠表示手段と、
前記接触検出手段により前記スライド移動の終点が検出されると、前記第4の枠表示手段により表示された枠内に表示されている画像を前記表示画面に拡大表示する第3の画像拡大表示手段とを備えていることを特徴とする画像処理装置。
A display means having a display screen on which an image is displayed;
In an image processing apparatus comprising contact detection means for detecting physical contact with the display screen,
A first frame display unit that displays a frame of a predetermined size about the contact point on the display screen when contact with the display screen is detected by the contact detection unit;
A fourth frame display that displays a frame indicating the next enlargement setting area when the contact detection means detects a slide movement from the contact point and the slide movement exceeds the frame displayed on the display screen. Means,
When the end point of the slide movement is detected by the contact detection means, third image enlargement display means for enlarging and displaying the image displayed in the frame displayed by the fourth frame display means on the display screen An image processing apparatus comprising:
前記接触検出手段で検出される前記表示画面への接触を画像を拡大表示させるためのものと認識させる拡大表示モ−ドと、他のモ−ドとを区別する設定を行うモ−ド設定手段を備えていることを特徴とする請求項1〜のいずれかの項に記載の画像処理装置。Mode setting means for making a setting for distinguishing between an enlarged display mode for recognizing a contact on the display screen detected by the contact detection means as an object for enlarging an image, and another mode The image processing apparatus according to any one of claims 1 to 6 , further comprising: 前記モ−ド設定手段が、
前記接触検出手段により所定時間以上継続しての接触が検出されると、前記拡大表示モ−ド又は前記他のモ−ドの設定を行うものであることを特徴とする請求項記載の画像処理装置。
The mode setting means is
8. The image according to claim 7 , wherein the enlarged display mode or the other mode is set when the contact is detected by the contact detection means for a predetermined time or longer. Processing equipment.
前記モ−ド設定手段により前記拡大表示モ−ドに設定された場合に、該拡大表示モ−ドに設定されたことを使用者に告知する告知手段を備えていることを特徴とする請求項又は請求項記載の画像処理装置。5. A notification means for notifying a user that the enlarged display mode is set when the enlarged display mode is set by the mode setting means. The image processing apparatus according to claim 7 or 8 . 前記告知手段が、音や音声により告知するもの、前記表示画面への表示により告知するもの、又は前記表示画面に表示されている画像の色を変更することにより告知するもののいずれかを含んでいることを特徴とする請求項記載の画像処理装置。The notification means includes either a notification by sound or sound, a notification by display on the display screen, or a notification by changing the color of the image displayed on the display screen. The image processing apparatus according to claim 9 .
JP2002288253A 2002-10-01 2002-10-01 Image processing device Expired - Fee Related JP4067374B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002288253A JP4067374B2 (en) 2002-10-01 2002-10-01 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002288253A JP4067374B2 (en) 2002-10-01 2002-10-01 Image processing device

Publications (2)

Publication Number Publication Date
JP2004126842A JP2004126842A (en) 2004-04-22
JP4067374B2 true JP4067374B2 (en) 2008-03-26

Family

ID=32280802

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002288253A Expired - Fee Related JP4067374B2 (en) 2002-10-01 2002-10-01 Image processing device

Country Status (1)

Country Link
JP (1) JP4067374B2 (en)

Families Citing this family (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4959967B2 (en) * 2005-09-30 2012-06-27 株式会社日立ハイテクインスツルメンツ Electronic component mounting device
JP5007782B2 (en) * 2005-11-17 2012-08-22 株式会社デンソー Navigation device and map display scale setting method
JP2007241410A (en) * 2006-03-06 2007-09-20 Pioneer Electronic Corp Display device and display control method
WO2007105542A1 (en) * 2006-03-10 2007-09-20 Pioneer Corporation Map display device and map display method
JP2008051644A (en) * 2006-08-24 2008-03-06 Mazda Motor Corp Navigation system for vehicle
US8127046B2 (en) 2006-12-04 2012-02-28 Deka Products Limited Partnership Medical device including a capacitive slider assembly that provides output signals wirelessly to one or more remote medical systems components
JP4050777B1 (en) * 2007-04-06 2008-02-20 株式会社デジタルマックス Image display system
JP4695154B2 (en) * 2008-03-03 2011-06-08 株式会社エヌ・ティ・ティ・ドコモ Touch panel display control system, touch panel display control method, touch panel display control program
JP2009282939A (en) * 2008-05-26 2009-12-03 Wacom Co Ltd Device and method for mapping graphic tablet on related display, and computer-readable medium
JP4878608B2 (en) * 2008-06-20 2012-02-15 株式会社ユピテル Target notification device and program
JP2010102662A (en) * 2008-10-27 2010-05-06 Sharp Corp Display apparatus and mobile terminal
JP2011050038A (en) * 2009-07-27 2011-03-10 Sanyo Electric Co Ltd Image reproducing apparatus and image sensing apparatus
JP5577698B2 (en) * 2009-12-28 2014-08-27 カシオ計算機株式会社 Map display device, map display method and program
US9143588B2 (en) 2010-01-19 2015-09-22 Nec Corporation Portable terminal device having an enlarged-display function, method for controlling enlarged display, and computer-read-enabled recording medium
KR101103161B1 (en) * 2010-02-03 2012-01-04 주식회사 팬택 Method and apparatus for screen controlling using touch-screen
JPWO2014112029A1 (en) * 2013-01-15 2017-01-19 日立マクセル株式会社 Information processing apparatus, information processing method, and program
JP6158690B2 (en) * 2013-11-15 2017-07-05 株式会社 日立産業制御ソリューションズ Image display device
JP2015194997A (en) * 2014-03-27 2015-11-05 キヤノンマーケティングジャパン株式会社 User interface device, user interface method, program and recording medium
JP7028958B2 (en) * 2018-03-16 2022-03-02 富士フイルム株式会社 Image processing device, image pickup device, and image processing method
JP6682067B2 (en) * 2019-02-26 2020-04-15 株式会社ユピテル Electronics

Also Published As

Publication number Publication date
JP2004126842A (en) 2004-04-22

Similar Documents

Publication Publication Date Title
JP4067374B2 (en) Image processing device
JP5129478B2 (en) Screen display device
JP3773716B2 (en) Graphical user interface display device and recording medium storing program for causing computer to execute processing in the device
JP5379259B2 (en) Screen display device
JP4111885B2 (en) Map search and display method and apparatus
JP4943543B2 (en) MAP DISPLAY DEVICE, MAP DISPLAY METHOD, MAP DISPLAY PROGRAM, AND RECORDING MEDIUM
US20180150214A1 (en) Display control apparatus, display control method and display control program
JP4642497B2 (en) Navigation device
JP4645299B2 (en) In-vehicle display device
JP4809979B2 (en) Navigation device and route search program
EP2360557B1 (en) Input device, apparatus for monitoring area around vehicle, method for selecting icon switch, and program
JP2009129443A (en) Input receiving method of touch screen, electronic device with touch screen for implementing the method, and input system of touch screen for implementing the method
JP5754410B2 (en) Display device
JP2002328040A (en) Navigation system, information displaying device, method for changing scale of image, recording medium and program
JP4548325B2 (en) In-vehicle display device
JP4783075B2 (en) Navigation device
JP3967218B2 (en) Navigation device
JP2019133395A (en) Input device
JP2006171469A (en) Map display device
JP3455122B2 (en) Navigation system
JP2009163435A (en) Information terminal, computer program, and display method
WO2007123000A1 (en) Navigation apparatus and its handwritten information management method
JP2008145170A (en) On-vehicle display apparatus
JP2007147723A (en) Map display device
JP2022170505A (en) Information processing apparatus and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050916

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070925

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20071126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080108

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080108

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110118

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4067374

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120118

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130118

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140118

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150118

Year of fee payment: 7

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees