JP6820561B2 - 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム - Google Patents

画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム Download PDF

Info

Publication number
JP6820561B2
JP6820561B2 JP2017254585A JP2017254585A JP6820561B2 JP 6820561 B2 JP6820561 B2 JP 6820561B2 JP 2017254585 A JP2017254585 A JP 2017254585A JP 2017254585 A JP2017254585 A JP 2017254585A JP 6820561 B2 JP6820561 B2 JP 6820561B2
Authority
JP
Japan
Prior art keywords
image processing
image
intensity
unit
distance
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017254585A
Other languages
English (en)
Other versions
JP2019121876A (ja
Inventor
孝好 古山
孝好 古山
船引 誠
誠 船引
知里 山下
知里 山下
大林 敬一郎
敬一郎 大林
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to JP2017254585A priority Critical patent/JP6820561B2/ja
Priority to US16/230,720 priority patent/US10796415B2/en
Publication of JP2019121876A publication Critical patent/JP2019121876A/ja
Application granted granted Critical
Publication of JP6820561B2 publication Critical patent/JP6820561B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3602Input other than that of destination using image analysis, e.g. detection of road signs, lanes, buildings, real preceding vehicles using a camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3647Guidance involving output of stored or live camera images or video streams
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3626Details of the output of route guidance instructions
    • G01C21/3655Timing of guidance instructions
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • G01C21/3667Display of a road map
    • G01C21/3676Overview of the route on the road map
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • G06T11/60Editing figures and text; Combining figures or text
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/73Deblurring; Sharpening
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/536Depth or shape recovery from perspective effects, e.g. by using vanishing points
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/20Scenes; Scene-specific elements in augmented reality scenes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20172Image enhancement details
    • G06T2207/20192Edge enhancement; Edge preservation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30256Lane; Road marking

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Navigation (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Description

本開示は、画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラムに関する。
車両のナビゲーションシステムにおいて、車両に搭載されるカメラの撮像画像に車両の誘導情報を表示する技術が検討されている。例えば、特許文献1に開示される技術は、移動体の現在位置及び進行方向における案内情報の画像を、移動体上で撮影した画像に重畳させた画像を表示する。
特開平10−132598号公報
案内情報等によって誘導される誘導地点を、撮像画像上で視認することを容易にする画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラムを提供する。
本開示の一態様に係る画像処理装置は、車両前方の光景を撮像する撮像装置の撮像画像を取得する第一取得部と、次の誘導地点までの残距離を取得する第二取得部と、前記残距離の位置に対応する前記撮像画像の特定領域に対して画像処理をする画像処理部と、前記画像処理部によって処理された前記撮像画像を出力する出力部とを備え、前記画像処理部は、前記残距離に応じて、前記特定領域の被写体のエッジの強度を制御する。
本開示の一態様に係る表示装置は、本開示の一態様に係る画像処理装置を備え、前記撮像装置を搭載する車両のナビゲーションシステムが出力する情報と、前記画像処理部によって処理された前記撮像画像とを表示する。
本開示の一態様に係るナビゲーションシステムは、本開示の一態様に係る画像処理装置を備え、前記撮像装置を搭載する車両を案内する情報と、前記画像処理部によって処理された前記撮像画像とを表示装置に出力し表示させる。
本開示の一態様に係る画像処理方法は、車両前方の光景を撮像する撮像装置から撮像画像を取得し、次の誘導地点までの残距離を取得し、前記残距離の位置に対応する前記撮像画像の特定領域に対して画像処理をし、画像処理された前記撮像画像を出力し、前記画像処理では、前記残距離に応じて、前記特定領域の被写体のエッジの強度を制御し、上記処理の少なくとも1つは、制御回路によって実行される。
本開示の一態様に係るプログラムは、車両前方の光景の撮像画像を取得し、次の誘導地点までの残距離を取得し、前記残距離の位置に対応する前記撮像画像の特定領域に対して画像処理をし、画像処理された前記撮像画像を出力し、前記画像処理では、前記残距離に応じて、前記特定領域の被写体のエッジの強度を制御することをコンピュータに実行させる。
なお、上記の包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読取可能な記録ディスク等の記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。コンピュータ読み取り可能な記録媒体は、例えばCD−ROM(Compact Disc-Read Only Memory)等の不揮発性の記録媒体を含む。
本開示の画像処理装置等によれば、誘導地点を撮像画像上で視認することが容易になる。
図1は、実施の形態1に係る画像処理装置を備えるナビゲーションシステムの機能的な構成の一例を示すブロック図である。 図2は、車両から次の誘導地点である交差点までの残距離が80mである時点で撮像された画像の一例を示す模式的な図である。 図3は、図2の撮像画像に対するエッジ強調の画像処理後の画像の例を示す模式的な図である。 図4は、図2の撮像画像に対する明度変更の画像処理後の画像の例を示す模式的な図である。 図5は、図2の撮像画像に対するぼかしの画像処理後の画像の例を示す模式的な図である。 図6は、車両から次の誘導地点である交差点までの残距離が40mである時点で撮像された画像の一例を示す模式的な図である。 図7Aは、車両位置の信頼度に応じた、画像処理の強度と被写体の距離との関係の一例を示す図である。 図7Bは、車両位置の信頼度に応じた、画像処理の強度と被写体の距離との関係の別の一例を示す図である。 図8は、実施の形態1に係る画像処理装置の動作の一例を示すフローチャートである。 図9は、実施の形態1に係る画像処理装置の動作の変形例を示すフローチャートである。 図10は、実施の形態2に係る画像処理装置を備えるナビゲーションシステムの機能的な構成の一例を示すブロック図である。 図11は、実施の形態2に係る画像処理装置の動作の一例を示すフローチャートである。 図12は、実施の形態3に係る画像処理装置を備えるナビゲーションシステムの機能的な構成の一例を示すブロック図である。 図13は、実施の形態4に係る画像処理装置を備えるナビゲーションシステムの機能的な構成の一例を示すブロック図である。
本発明者らは、車両のナビゲーションシステムの表示画像のような運転者に車両の周囲の状態を提供する画像に、車両に搭載されたカメラの撮像画像を用いる技術を検討した。このような技術の1つに、例えば、特許文献1に記載されるように、撮像画像上に、進行方向、左右折の方向等の車両を誘導するための指標が重畳表示される拡張現実(AR:Augmented Reality)の技術がある。しかしながら、例えば、撮像画像に複数の交差点が含まれている場合、運転者は、指標がいずれの交差点を指すのかを認識するのに、時間を要する。さらに、指標が指す交差点からカメラまでの距離が大きくなる程、運転者は、当該交差点を認識するのに時間を要する。一方、運転者は画像を凝視することができないため、指標が指す対象は、運転者によって容易に且つ確実に視認されることが要求される。そこで、本発明者らは、画像における対象の視認を容易に且つ確実にするために、以下に示すような技術を創案した。
例えば、本開示の一態様に係る画像処理装置は、車両前方の光景を撮像する撮像装置の撮像画像を取得する第一取得部と、次の誘導地点までの残距離を取得する第二取得部と、前記残距離の位置に対応する前記撮像画像の特定領域に対して画像処理をする画像処理部と、前記画像処理部によって処理された前記撮像画像を出力する出力部とを備え、前記画像処理部は、前記残距離に応じて、前記特定領域の被写体のエッジの強度を制御する。
上記態様によると、画像処理部は、次の誘導地点までの残距離に応じて、残距離の位置に対応する撮像画像の特定領域の被写体のエッジの強度を制御する。撮像画像上において、例えば、次の誘導地点が遠い、又は当該誘導地点までの経路に障害物が存在する等の理由で、当該誘導地点の位置の視認が容易でない場合でも、画像処理部は、特定領域の被写体のエッジの強度を制御することによって、ユーザによる当該誘導地点の位置の視認を容易にすることができる。よって、画像処理装置は、撮像画像上での誘導地点の視認を容易にする。
本開示の一態様に係る画像処理装置は、前記撮像画像内の各位置までの距離情報を取得する第三取得部をさらに備え、前記画像処理部は、前記撮像画像内の各位置までの距離情報に基づき、前記残距離に応じて前記特定領域を決定してもよい。
上記態様によると、特定領域は、撮像画像内の各位置までの距離情報に基づき決定されるため、残距離に応じて決定される特定領域の位置の精度が向上する。よって、残距離に応じた特定領域の被写体のエッジの強度の制御の精度が向上する。
本開示の一態様に係る画像処理装置は、前記撮像画像から前記撮像画像内の各位置までの距離情報を推定する推定部をさらに備え、前記画像処理部は、前記撮像画像内の各位置までの距離情報に基づき、前記残距離に応じて前記特定領域を決定してもよい。
上記態様によると、画像処理装置が、撮像画像から撮像画像内の各位置までの距離情報を推定する推定部を備えるため、撮像装置は、当該推定部を備える必要がない。よって、画像処理装置は、様々な撮像装置に適用可能であり、汎用性を向上することができる。
本開示の一態様に係る画像処理装置は、前記撮像画像から前記撮像画像内の消失点を推定する推定部をさらに備え、前記画像処理部は、前記撮像画像内の各位置と前記消失点との関係に基づき、前記残距離に応じて前記特定領域を決定してもよい。
上記態様によると、画像処理装置は、撮像画像から推定される消失点を用いて、特定領域を決定する。消失点と撮像画像内の各位置との関係から、各位置までの距離の算出が可能である。また、消失点は、1つの撮像画像から推定可能である。よって、画像処理装置は、単眼カメラに適用可能であり、汎用性を向上することができる。
本開示の一態様に係る画像処理装置において、前記画像処理部は、前記残距離と処理対象の画素の被写体までの距離との差異が小さい程、強度を大きくするように、前記特定領域の被写体のエッジの強度を制御してもよい。
上記態様によると、画像処理装置は、撮像画像の特定領域に対して、残距離の位置に近い領域ほど、大きい強度でエッジの強度を制御する。よって、ユーザは、残距離の位置に近い領域を視認することが容易になる。
本開示の一態様に係る画像処理装置において、前記画像処理部は、前記残距離と処理対象の画素の被写体までの距離との差異が大きい程、強度を大きくするように、前記特定領域の被写体のエッジの強度を制御してもよい。
上記態様によると、画像処理装置は、撮像画像の特定領域に対して、残距離の位置に近い領域ほど、小さい強度でエッジの強度を制御する。よって、ユーザは、残距離の位置の周辺の画像処理によって、残距離の位置に近い領域を特定することができ、且つ、残距離の位置の画像を、実像に近い状態で視認することができる。
本開示の一態様に係る画像処理装置において、前記画像処理部は、前記残距離と処理対象の画素の被写体までの距離との差異が第一閾値よりも小さい場合、強度を0にし、前記差異が前記第一閾値以上の場合、強度を0超にするように、前記特定領域の被写体のエッジの強度を制御してもよい。
上記態様によると、画像処理装置は、撮像画像の特定領域に対して、残距離の位置に近い領域を画像処理しない。よって、ユーザは、残距離の位置の周辺の画像処理によって、残距離の位置に近い領域を特定することができ、且つ、残距離の位置の画像を、ほぼ実像に近い状態で視認することができる。
本開示の一態様に係る画像処理装置において、前記画像処理部は、前記残距離と処理対象の画素の被写体までの距離との差異が第二閾値よりも小さい場合、強度を0にし、前記差異が第三閾値よりも大きい場合、強度を0にし、前記差異が前記第二閾値以上前記第三閾値以下の場合、強度を0超にするように、前記特定領域の被写体のエッジの強度を制御してもよい。
上記態様によると、画像処理装置は、撮像画像の特定領域に対して、残距離の位置に近い領域及び遠い領域を画像処理しない。よって、ユーザは、残距離の位置の周辺の限定された領域への画像処理によって、残距離の位置に近い領域を特定することができ、且つ、残距離の位置の画像を、実像に近い状態で視認することができる。
本開示の一態様に係る画像処理装置において、前記画像処理部は、明度変更、彩度変更、エッジ強調、ぼかし、点滅、明滅の少なくとも1つの処理の組み合わせた画像処理を行うことによって、前記特定領域の被写体のエッジの強度を制御してもよい。
上記態様によると、撮像画像における特定領域のユーザによる視認が容易である。
本開示の一態様に係る画像処理装置において、前記第二取得部は、前記誘導地点での誘導方向を取得し、前記画像処理部は、前記誘導方向に応じて強度を変えるように、前記特定領域の被写体のエッジの強度を制御してもよい。
上記態様によると、ユーザは、撮像画像において、画像処理された領域を視認することによって、誘導地点での誘導方向を認識することができる。
本開示の一態様に係る画像処理装置は、前記撮像画像において、道路の領域を推定する道路推定部をさらに備え、前記画像処理部は、前記道路推定部によって推定された道路の領域での左右方向の位置に応じて、前記特定領域の被写体のエッジの強度を制御してもよい。
上記態様によると、ユーザは、撮像画像において、画像処理された領域を視認することによって、道路における走行位置を認識しやすくなる。
本開示の一態様に係る画像処理装置は、前記撮像装置を搭載する車両のナビゲーションシステムが検出する前記車両の位置の信頼度の情報を取得する第四取得部をさらに備え、前記画像処理部は、前記第四取得部が取得する情報に応じて前記閾値を変化させてもよい。
上記態様によると、ナビゲーションシステムが検出する車両の位置の誤差が、撮像画像における画像処理の領域の位置に与える影響を抑えることが可能になる。よって、適切な位置への画像処理が可能になる。
本開示の一態様に係る画像処理装置は、前記誘導地点の地図情報を取得する第五取得部をさらに備え、前記画像処理部は、前記第五取得部が取得する地図情報に応じて前記閾値を変化させてもよい。
上記態様によると、画像処理装置は、誘導地点の地図上の状態に応じた画像処理を行うことができる。例えば、画像処理装置は、誘導地点における道路又は交差点などの大きさ、道路の車線数、道路規格等の道路の情報に応じた画像処理の領域及び強度の制御が可能である。よって、画像処理装置は、誘導地点の地図上の状態に応じて、ユーザによって視認されやすい画像処理を行うことができる。
本開示の一態様に係る画像処理装置は、前記誘導地点での案内情報を取得し、前記案内情報を示す画像である拡張現実指標を生成する指標生成部と、前記拡張現実指標を重畳表示するように、前記画像処理部によって処理された前記撮像画像に前記拡張現実指標を合成する画像合成部とをさらに備えてもよい。
上記態様によると、画像処理装置は、撮像画像に対する特定領域の被写体のエッジの強度の制御だけでなく、撮像画像への拡張現実指標の重畳表示によっても、ユーザによる誘導地点の視認を容易にする。
また、本開示の一態様に係る表示装置は、本開示の一態様に係る画像処理装置を備え、前記撮像装置を搭載する車両のナビゲーションシステムが出力する情報と、前記画像処理部によって処理された前記撮像画像とを表示する。上記態様によると、本開示の一態様に係る画像処理装置と同様の効果が得られる。
また、本開示の一態様に係るナビゲーションシステムは、本開示の一態様に係る画像処理装置を備え、前記撮像装置を搭載する車両を案内する情報と、前記画像処理部によって処理された前記撮像画像とを表示装置に出力し表示させる。上記態様によると、本開示の一態様に係る画像処理装置と同様の効果が得られる。
また、本開示の一態様に係る画像処理方法は、車両前方の光景を撮像する撮像装置から撮像画像を取得し、次の誘導地点までの残距離を取得し、前記残距離の位置に対応する前記撮像画像の特定領域に対して画像処理をし、画像処理された前記撮像画像を出力し、前記画像処理では、前記残距離に応じて、前記特定領域の被写体のエッジの強度を制御し、上記処理の少なくとも1つは、制御回路によって実行される。上記態様によると、本開示の一態様に係る画像処理装置と同様の効果が得られる。
また、本開示の一態様に係るプログラムは、車両前方の光景の撮像画像を取得し、次の誘導地点までの残距離を取得し、前記残距離の位置に対応する前記撮像画像の特定領域に対して画像処理をし、画像処理された前記撮像画像を出力し、前記画像処理では、前記残距離に応じて、前記特定領域の被写体のエッジの強度を制御することをコンピュータに実行させる。上記態様によると、本開示の一態様に係る画像処理装置と同様の効果が得られる。
なお、上記の包括的又は具体的な態様は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読取可能な記録ディスク等の記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム又は記録媒体の任意な組み合わせで実現されてもよい。コンピュータ読み取り可能な記録媒体は、例えばCD−ROM等の不揮発性の記録媒体を含む。また、装置は、1つ以上の装置で構成されてもよい。装置が2つ以上の装置で構成される場合、当該2つ以上の装置は、1つの機器内に配置されもよく、分離した2つ以上の機器内に分かれて配置されてもよい。本明細書及び特許請求の範囲では、「装置」とは、1つの装置を意味し得るだけでなく、複数の装置からなるシステムも意味し得る。
以下、本開示に係る画像処理装置について、図面を参照しながら具体的に説明する。なお、以下で説明する実施の形態は、いずれも包括的又は具体的な例を示すものである。以下の実施の形態で示される数値、形状、構成要素、構成要素の配置位置及び接続形態、ステップ(工程)、ステップの順序等は、一例であり、本開示を限定する主旨ではない。また、以下の実施の形態における構成要素のうち、最上位概念を示す独立請求項に記載されていない構成要素については、任意の構成要素として説明される。また、各図は模式図であり、必ずしも厳密に図示されたものではない。さらに、各図において、実質的に同一の構成要素に対しては同一の符号を付しており、重複する説明は省略又は簡略化される場合がある。
[実施の形態1]
実施の形態1に係る画像処理装置100を説明する。本実施の形態では、画像処理装置100は、車両に搭載されたカメラで取得された撮像画像に対して、当該車両のナビゲーション装置から取得する情報を重畳した画像を生成するとして、説明する。本実施の形態では、画像処理装置100は、カメラ及びナビゲーション装置と同じ車両に搭載され、これらと共にナビゲーションシステムを構成する。なお、画像処理装置100が処理する対象は、車両のカメラの撮像画像及びナビゲーション装置の情報に限定されず、カメラの撮像画像、及び当該画像に重畳表示される情報であれば、いかなる対象でもよい。
実施の形態1に係る画像処理装置100及びその周辺の構成を説明する。図1は、実施の形態1に係る画像処理装置100を備えるナビゲーションシステム1の機能的な構成の一例のブロック図を示す。ナビゲーションシステム1は、撮像装置10と、ナビゲーション装置20と、第一記憶部30と、第二記憶部40と、画像処理装置100とを備える。画像処理装置100は、撮像画像処理部101と、ARマーカ生成部102と、画像合成部103と、出力部104とを備える。
ナビゲーションシステム1は、ナビゲーションシステム1が搭載される車両の進行を誘導する情報等を含む画像及び音声を、表示装置50に表示させる。表示装置50は、ディスプレイ及びスピーカのうちの少なくともディスプレイを備える。ディスプレイの例は、液晶ディスプレイ(LCD;Liquid Crystal Display)、及び、有機又は無機EL(Electroluminescence)ディスプレイである。
撮像装置10は、ナビゲーション装置20と同じ車両に搭載される。撮像装置10は、カメラ11及び距離算出部12を備える。カメラ11は、上記車両の前方の光景の画像を撮像し、第一記憶部30に出力する。カメラ11は、静止画及び動画の一方又は両方を撮像する。カメラ11は、デジタル画像を撮像画像として生成する。カメラ11の例は、1つのレンズを有する単眼カメラ、及び、2つ以上のレンズを有する複眼カメラである。複眼カメラは、ステレオ画像を生成する。
距離算出部12は、カメラ11の撮像画像上における各位置とカメラ11との距離を算出し、第一記憶部30に出力する。距離算出部12は、例えば、撮像画像の各画素の被写体とカメラ11との距離を算出し、各画素の画素値として上記距離を含む距離画像を生成してもよい。距離画像における画素の配列は、撮像画像を同じである。カメラ11が単眼カメラである場合、距離算出部12は、例えば、撮像画像内の無限遠点である消失点の位置を推定し、消失点と各画素との間の距離と、カメラの画角とに基づき、各画素の被写体とカメラ11との距離を算出する。カメラ11が複眼カメラである場合、距離算出部12は、例えば、ステレオ画像である2つの撮像画像に対して、三角測量の技術を利用するステレオ法を用いることによって、各画素の被写体とカメラ11との距離を算出する。
ナビゲーション装置20は、画像処理装置100と同じ車両に搭載される。ナビゲーション装置20は、入力される目的地に基づき、目的地までの経路を案内する案内情報を出力する。ナビゲーション装置20は、GPS(Global Positioning System)受信機21と、地図格納部22と、慣性計測装置23と、位置算出部24と、信頼度生成部25と、案内情報生成部26とを備える。
GPS受信機21は、人工衛星から取得する信号に基づき、上記車両の位置を検出し、信頼度生成部25及び案内情報生成部26に出力する。GPS受信機21は、例えば、通信回路で構成され得る。地図格納部22は、地図情報を格納する。慣性計測装置23は、加速度センサ及び角速度センサ(「ジャイロセンサ」とも呼ばれる)を備え、車両の加速度及び角速度を検出し、位置算出部24に出力する。位置算出部24は、慣性計測装置23から取得する加速度及び角速度に基づき、車両の移動方向及び移動速度を算出し、車両の移動方向及び移動速度に基づき、車両の位置を算出する。位置算出部24は、算出した車両の位置を、信頼度生成部25及び案内情報生成部26に出力する。
信頼度生成部25は、GPS受信機21から取得する車両の位置と、位置算出部24から取得する車両の位置とを比較し、本実施の形態では、GPS受信機21による車両の位置の検出精度を、車両位置の信頼度として決定する。検出精度が高い場合、車両位置の信頼度が高く、検出精度が低い場合、車両位置の信頼度が低い。なお、信頼度生成部25は、GPS受信機21及び位置算出部24のいずれによる車両の位置の検出精度を決定してもよい。信頼度生成部25は、当該検出精度を、車両の位置と対応付けて、案内情報生成部26に出力する。
案内情報生成部26は、図示しないインターフェースを介してユーザによって入力される目的地と、GPS受信機21及び/又は位置算出部24から取得する車両の位置と、地図格納部22の地図情報とに基づき、目的地までの経路を決定する。さらに、案内情報生成部26は、決定した経路に基づき、車両の進行に合わせて、進行経路に関する案内情報を生成し、第二記憶部40に出力する。案内情報は、直進方向及び左右折の方向などを含む進行方向、次の左右折の位置などの次の誘導地点の位置、車両の現在地から次の誘導地点までの距離等を含む。次の誘導地点は、画像処理装置100を搭載する車両に対して、3次元的な距離を有する地点である。
案内情報生成部26は、GPS受信機21及び/又は位置算出部24から取得する車両の位置を任意に選択して用いてもよく、信頼度生成部25から取得する車両位置の信頼度に基づき、GPS受信機21又は位置算出部24から取得する車両の位置を選択して用いてもよい。例えば、案内情報生成部26は、信頼度が高い場合、GPS受信機21から取得する車両の位置を用い、信頼度が低い場合、位置算出部24から取得する車両の位置を用いて案内情報を生成してもよい。案内情報生成部26は、案内情報の生成に使用した車両の位置の信頼度と、案内情報とを対応付けて、第二記憶部40に出力してもよい。また、案内情報生成部26は、決定した経路の周辺の地図情報を第二記憶部40に出力する。
第一記憶部30及び第二記憶部40は、種々の情報の格納及び取り出しを可能にする。第一記憶部30、第二記憶部40及びナビゲーション装置20の地図格納部22は、例えば、ROM(Read-Only Memory)、RAM(Random Access Memory)、フラッシュメモリなどの半導体メモリ、ハードディスクドライブ、又はSSD(Solid State Drive)等の記憶装置によって実現される。図1の例では、第一記憶部30及び第二記憶部40は、撮像装置10、ナビゲーション装置20及び画像処理装置100と別個に配置されているが、いずれかに含まれてもよい。例えば、第一記憶部30は、撮像装置10又は画像処理装置100に含まれてもよく、第二記憶部40は、ナビゲーション装置20又は画像処理装置100に含まれてもよい。このような第一記憶部30及び第二記憶部40は、撮像装置10、ナビゲーション装置20及び画像処理装置100の構成要素を動作させるためのプログラムを格納してもよい。これらのプログラムは、撮像装置10、ナビゲーション装置20及び画像処理装置100が有する図示しないメモリに格納されてもよい。また、第一記憶部30及び第二記憶部40は、一体化されてもよい。
画像処理装置100は、撮像画像上に案内情報が重畳表示される合成画像を生成し、表示装置50に出力する。画像処理装置100は、1つの装置又は機器に搭載されてもよく、複数の装置又は機器に分割して搭載されてもよい。例えば、画像処理装置100の一部又は全部が、撮像装置10及び/又はナビゲーション装置20に組み込まれてもよい。
撮像画像処理部101は、案内情報に基づき、撮像画像の特定領域及び/又はその周辺領域に対して、特定領域の被写体のエッジの強度を制御するように、画像処理する、つまり、特定領域を直接的又は間接的に画像処理する。ARマーカ生成部102は、案内情報に対応し且つ撮像画像に重畳表示される画像を生成する。画像合成部103は、撮像画像処理部101によって処理された撮像画像上に、ARマーカ生成部102によって生成された画像を重畳表示するように、当該撮像画像及び当該画像を合成する。出力部104は、画像合成部103によって合成された画像を、表示装置50に出力し表示させる。ここで、ARマーカ生成部102は、指標生成部の一例である。
撮像画像処理部101は、第一情報取得部111と、第二情報取得部112と、画像処理部113とを備える。第一情報取得部111は、第一記憶部30から、撮像画像に関連する情報を取得し、画像処理部113に出力する。具体的には、第一情報取得部111は、第一記憶部30から、撮像画像を取得する。さらに、第一情報取得部111は、第一記憶部30から、距離画像等の撮像画像内の各位置までの距離情報を、撮像画像と対応付けて取得する。第二情報取得部112は、第二記憶部40から、ナビゲーション装置20に関する情報を取得し、画像処理部113に出力する。具体的には、第二情報取得部112は、第二記憶部40から、案内情報を取得する。さらに、第二情報取得部112は、車両位置の信頼度を取得する。さらにまた、第二情報取得部112は、経路周辺の地図を取得する。ここで、第一情報取得部111は、第一取得部及び第三取得部の一例であり、第二情報取得部112は、第二取得部、第四取得部及び第五取得部の一例である。
画像処理部113は、案内情報中から、経路上における車両から次の誘導地点までの残距離を抽出し、残距離の位置に対応する特定領域を距離画像中で特定する。このとき、画像処理部113は、特定領域として、残距離と同じ距離の画素を距離画像から特定してもよく、残距離の近傍の距離の画素を距離画像から特定してもよい。又は、画像処理部113は、特定領域として、残距離以遠の距離の画素を距離画像から特定してもよい。例えば、誘導地点が交差点である場合、上記近傍の距離の一例は、車両の進行方向に対して横断する道路の幅を残距離に付加した距離である。
さらに、画像処理部113は、撮像画像に対して、残距離に応じて、特定領域の被写体のエッジの強度を制御するように、画像処理をし、画像合成部103に出力する。画像処理部113は、特定領域の少なくとも一部及び/又はその周辺領域に対して画像処理をする。例えば、画像処理部113は、特定領域における被写体のエッジを抽出し、エッジに対して画像処理を行ってもよく、特定領域の全体に対して画像処理を行ってもよく、特定領域の周辺領域に対して画像処理を行ってもよい。特定領域の被写体のエッジの強度を制御する画像処理の例は、明度変更、彩度変更、エッジ強調、ぼかし、点滅、明滅の少なくとも1つの処理の組み合わせである。特定領域の被写体のエッジの強度を制御することによって、ユーザによる特定領域の視認のしやすさが制御される。
例えば、図3、図4及び図5は、図2の撮像画像に対する画像処理部113による画像処理後の画像の例を示す。図2は、車両から次の誘導地点である交差点までの残距離が80mである時点で撮像された画像の一例を示す。図2の撮像画像には、進行方向を示す指標である矢印の画像が重畳表示されている。図2〜図5はいずれも、道路に対して車両が右側通行である環境で撮像された画像の例である。
図3は、図2の撮像画像に対するエッジ強調の画像処理後の画像の例を示す。この画像処理では、車両から、つまりカメラ11から75m〜80mの距離範囲に位置する像を写し出す画素の領域が特定領域に決定され、この特定領域内の被写体のエッジが、太くされることによって強調される。これにより、特定領域内の被写体のエッジが強調される。被写体のエッジは、図3の例では黒色であるが、エッジの各画素の画素値である輝度値を変更することによって、赤色等の目立つ色に彩度変更されてもよい。被写体のエッジは、明度変更、点滅及び明滅の少なくとも1つの処理が加えられてもよい。なお、被写体のエッジには、太くされずに、明度変更、彩度変更、点滅及び明滅の少なくとも1つの処理がされてもよい。
図4は、図2の撮像画像に対する明度変更の画像処理後の画像の例を示す。この画像処理では、車両から75m〜85mの距離範囲に位置する像を写し出す画素の領域が特定領域に決定され、特定領域以遠、つまり85m以遠に位置する像を写し出す画素の領域全体が、各画素の輝度値を低くすることによって、暗い単調な色に変更される。これにより、特定領域の被写体のエッジ、具体的には、特定領域の周囲のエッジが強調される。画像処理される画素の領域は、図4の例では黒色であるが、白っぽくなるくらいに明るくされてもよく、赤色等の目立つ色に彩度変更されてもよい。画像処理される画素の領域は、点滅又は明滅等の処理が加えられてもよい。
図5は、図2の撮像画像に対するぼかしの画像処理後の画像の例を示す。この画像処理では、図4と同じように特定領域が決定され、特定領域以遠、つまり85m以遠に位置する像を写し出す画素の領域全体が、ぼかし処理される。これにより、特定領域の被写体のエッジ、具体的には、特定領域の周囲のエッジが強調される。画像処理される画素の領域は、ぼかし処理に加えて、明度変更、彩度変更、点滅及び明滅の少なくとも1つの処理が加えられてもよい。
例えば、図6は、次の誘導地点である交差点までの残距離が40mである時点で撮像された画像の一例を示す。図2及び図6に示されるように、単なる撮像画像について、残距離が40mの撮像画像では、次の誘導地点の位置及びその走行経路は、ユーザによって容易に視認され得るが、残距離が80mの撮像画像では、次の誘導地点の位置及びその走行経路の視認は、困難である。一方、図3、図4及び図5のいずれの画像においても、次の誘導地点の位置の視認は、容易であり、短時間で可能である。
なお、画像処理部113は、残距離に応じて、画像処理の強度、つまり画像処理の程度を変更してもよい。例えば、画像処理部113は、特定領域及び/又はその周辺領域の各画素について、車両から、すなわちカメラ11から当該画素の被写体までの距離と残距離との差異が小さい、つまり、当該画素の被写体の位置が残距離の位置に近い程、画像処理の強度を大きくしてもよい。画像処理部113は、当該画素の被写体までの距離と残距離との差異が大きい、つまり、当該画素の被写体の位置が残距離の位置から遠い程、画像処理の強度を大きくしてもよい。例えば、画像処理の強度を大きくする場合、図3の例では、エッジの太さがより大きくされ、図4の例では、特定領域の周辺領域がより黒くされ、図5の例では、ぼかしの程度が大きくされる。これにより、ユーザは、処理後の画像において、次の誘導地点の位置を認識しやすくなる。なお、画素の被写体までの距離と残距離との差異は、画素の被写体までの距離と残距離との差の絶対値である。
また、画像処理部113は、特定領域及び/又はその周辺領域の各画素について、当該画素の被写体までの距離と残距離との差異に関する閾値に基づき、画像処理の強度を変更してもよい。例えば、画像処理部113は、特定領域及び/又はその周辺領域の各画素について、当該画素の被写体までの距離と残距離との差異が第一閾値よりも小さい場合、画像処理の強度を0、つまり、画像処理をせず、上記差異が第一閾値以上の場合、画像処理の強度を0超、つまり、画像処理を行ってもよい。この場合、ユーザは、処理後の画像において、次の誘導地点の位置の被写体を視認することができ、且つ、当該誘導地点周辺の画像処理により当該誘導地点の位置を容易に認識できる。
上記差異が第一閾値以上の場合、画像処理部113は、下記の式1に示すような自然対数を用いた強度関数に従って、画像処理の強度を制御してもよい。なお、式1において、Fは、画像処理の強度であり、D1は、車両から特定領域及び/又はその周辺領域の画素の被写体までの距離であり、D2は、残距離であり、T1は、第一閾値であり、aは、係数である。式1は、差(D1−D2)が、第一閾値以上である場合に、用いられる。式1は、差(D1−D2)が大きくなる程、つまり、被写体の位置が残距離の位置から遠くなる程、画像処理の強度を大きくする制御に該当し得る。式1に基づく画像処理は、図4及び図5の例に適用してもよい。なお、差(D1−D2)が第一閾値T1以上の場合、画像処理部113は、後述する式2に示すような強度関数に従って、画像処理の強度を制御してもよい。
F=a×log(D1−D2−T1) (式1)
又は、画像処理部113は、特定領域及び/又はその周辺領域の各画素について、当該画素の被写体までの距離と残距離との差異が第二閾値よりも小さい場合、画像処理の強度を0にし、上記差異が第三閾値よりも大きい場合、画像処理の強度を0にし、上記差異が第二閾値以上第三閾値以下の場合、画像処理の強度を0超にしてもよい。なお、第二閾値は、第三閾値よりも小さい。この場合、次の誘導地点の周辺の限定された領域の被写体を写し出す画素が、画像処理される。ユーザは、処理後の画像において、次の誘導地点の位置の被写体を視認することができ、且つ、当該誘導地点の位置を容易に認識できる。第二閾値は、第一閾値と異なっていてもよく、同じであってもよい。
上記差異が第二閾値以上第三閾値以下の場合、画像処理部113は、下記の式2に示すような強度関数に従って、画像処理の強度を制御してもよい。なお、式2において、Fは、画像処理の強度であり、D1は、車両から特定領域及び/又はその周辺領域の画素の被写体までの距離であり、D2は、残距離であり、T2は、第二閾値であり、bは、係数である。式2は、差異|D2−D1|が大きくなる程、つまり、被写体の位置が残距離の位置から遠近方向に離れる程、画像処理の強度を小さくする制御に該当し得る。式2に基づく画像処理は、図3の例に適用してもよい。差異|D2−D1|が第二閾値以上第三閾値以下の場合、画像処理部113は、上記の式1に示すような強度関数に従って、画像処理の強度を制御してもよい。
F=b×(T2−|D1−D2|) (式2)
また、画像処理部113は、車両位置の信頼度に応じて、画像処理の強度を変更してもよい。例えば、画像処理部113は、車両位置の信頼度が低くなる程、画像処理の強度を大きくしてもよく、特定領域の大きさを大きくしてもよい。例えば、図7A及び図7Bに示すように、画像処理部113は、車両位置の信頼度が低くなる程、画像処理の強度が大きい領域を広くしてもよい。なお、図7A及び図7Bは、車両位置の信頼度に応じた、画像処理の強度と被写体の距離との関係の一例を示す。また、画像処理部113は、車両位置の信頼度に応じて、第一閾値、第二閾値及び第三閾値を変更してもよい。例えば、画像処理部113は、車両位置の信頼度が低くなる程、第一閾値を小さくしてもよく、第二閾値以上第三閾値以下の範囲を大きくしてもよい。後者の場合、画像処理部113は、第二閾値を小さくし且つ第三閾値を大きくしてもよく、第二閾値及び第三閾値の一方のみを変更してもよい。
また、画像処理部113は、次の誘導地点において経路の方向が右又は左に変わる場合、特定領域及び/又はその周辺領域において、変更後の経路の方向に位置する領域と変更後の経路の反対方向に位置する領域との間で、画像処理の強度に差異をつけてもよい。つまり、画像処理部113は、特定領域及び/又はその周辺領域の各画素について、次の誘導地点での誘導方向に位置するか否かに応じて、画像処理の強度に差異をつけてもよい。例えば、誘導方向が右方向である場合、画像処理部113は、撮像画像又は特定領域の中央よりも右側に位置する特定領域及び/又はその周辺領域の画素への画像処理の強度を、撮像画像又は特定領域の中央よりも左側に位置する特定領域及び/又はその周辺領域の画素への画像処理の強度よりも、大きくしてもよい。この場合、ユーザは、処理後の画像において、次の誘導地点での誘導方向を容易に認識できる。又は、画像処理部113は、地図情報及び画像のテクスチャ等から、撮像画像内の道路を検出し、道路の中央の右側と左側との間で、特定領域及び/又はその周辺領域の画素への画像処理の強度を差異つけてもよい。
ARマーカ生成部102は、第二記憶部40から、画像処理部113が処理する撮像画像に対応する案内情報を取得し、案内情報に対応する指標である拡張現実指標(「ARマーカ」とも呼ぶ)の画像を生成し、画像合成部103に出力する。撮像画像の撮像時刻及び案内情報の生成時刻が撮像画像及び案内情報に付されており、ARマーカ生成部102は、時刻に基づき、撮像画像及び案内情報を対応付けることができる。ARマーカ生成部102は、それぞれに付されたID情報に基づき、撮像画像及び案内情報を対応付けてもよい。ARマーカ生成部102は、案内情報に含まれる次の誘導地点までの残距離、誘導地点の位置、及び誘導地点での誘導方向等の情報に基づき、図2に示す2つの矢印及び残距離「80m」のような、車両を案内するための画像を、ARマーカの画像として生成する。
画像合成部103は、撮像画像処理部101から取得する画像処理後の撮像画像と、ARマーカ生成部102から取得するARマーカの画像とを合成する。このとき、画像合成部103は、画像処理後の撮像画像上にARマーカの画像を重畳するように、画像合成する。画像合成部103は、画像処理後の撮像画像における次の誘導地点の位置に対応付けるように、ARマーカを位置決めしてもよい。画像合成部103は、図3〜図5のような合成後の画像を出力部104に出力する。出力部104は、合成後の画像を表示装置50に対応する画像形式に変換して表示装置50に出力し表示させる。
上述の撮像装置10の距離算出部12、ナビゲーション装置20の位置算出部24、信頼度生成部25及び案内情報生成部26、並びに、画像処理装置100の撮像画像処理部101、ARマーカ生成部102、画像合成部103、出力部104等の各構成要素は、CPU(Central Processing Unit)又はDSP(Digital Signal Processor)等のプロセッサ、並びに、RAM及びROM等のメモリなどからなるコンピュータシステム(図示せず)により構成されてもよい。各構成要素の一部又は全部の機能は、CPU又はDSPがRAMを作業用のメモリとして用いてROMに記録されたプログラムを実行することによって達成されてもよい。また、各構成要素の一部又は全部の機能は、電子回路又は集積回路等の専用のハードウェア回路によって達成されてもよい。各構成要素の一部又は全部の機能は、上記のソフトウェア機能とハードウェア回路との組み合わせによって構成されてもよい。プログラムは、アプリケーションとして、インターネット等の通信網を介した通信、モバイル通信規格による通信、その他の無線ネットワーク、有線ネットワーク、又は放送等で提供されるものであってもよい。
実施の形態1に係る画像処理装置100の動作を説明する。図8は、実施の形態1に係る画像処理装置100の動作の一例のフローチャートを示す。図8に示すように、ステップS101において、画像処理装置100の撮像画像処理部101は、第二記憶部40を介して、ナビゲーション装置20によって生成された案内情報を取得する。
次いで、ステップS102において、撮像画像処理部101は、案内情報に含まれる車両から次の誘導地点までの残距離が第四閾値以上であるか否かを判定する。残距離が第四閾値以上である場合(ステップS102でYes)、撮像画像処理部101は、ステップS103に進み、第一記憶部30を介して撮像装置10の撮像画像を取得し、撮像画像そのまま、出力部104に出力して表示装置50に表示させる。残距離が第四閾値未満である場合(ステップS102でNo)、撮像画像処理部101はステップS104に進む。
次いで、ステップS104において、撮像画像処理部101は、第一記憶部30を介して、撮像装置10によって生成され且つ案内情報に対応する撮像画像及びその距離画像を取得する。
次いで、ステップS105において、撮像画像処理部101は、距離画像において、残距離に対して所定の範囲内の距離に位置する被写体を写し出す画素からなる特定領域を抽出する。所定の範囲の例は、残距離から±Dm以内の範囲、残距離から+Dm以内の範囲、及び、残距離から−Dm以内の範囲である。Dの大きさは、予め定められてもよく、撮像画像処理部101によって、地図情報に基づく誘導地点での道路の幅等から算出されてもよい。このようなDの大きさの例は、5〜10mの大きさである。さらに、撮像画像処理部101は、撮像画像において、特定領域及び/又はその周辺領域の画素に対して、特定領域の被写体のエッジの強度を制御する画像処理を行う。つまり、撮像画像処理部101は、撮像画像の特定領域を、ユーザである運転者に視認しやすい表示状態にするように画像処理する。撮像画像処理部101は、処理後の撮像画像を画像合成部103に出力する。
次いで、ステップS106において、画像処理装置100のARマーカ生成部102は、第二記憶部40から、撮像画像処理部101と同じ案内情報を取得し、案内情報に基づき、ARマーカの画像を生成し、画像合成部103に出力する。
次いで、ステップS107において、画像合成部103は、処理後の撮像画像上にARマーカの画像を重畳するように、処理後の撮像画像及びARマーカの画像を合成した画像を生成する。画像合成部103は、合成後の画像を出力部104に出力し、表示装置50に表示させる。
上述したように、実施の形態1に係る画像処理装置100は、次の誘導地点までの残距離に応じて、残距離の位置に対応する撮像画像の特定領域の被写体のエッジの強度を制御する。撮像画像上において、例えば、次の誘導地点が遠い、又は当該誘導地点までの経路に障害物が存在する等の理由で、当該誘導地点の位置の視認が容易でない場合、画像処理装置100は、特定領域の被写体のエッジの強度を制御することによって、ユーザによる当該誘導地点の位置の視認を容易にすることができる。よって、画像処理装置100は、撮像画像上での誘導地点の視認を容易にする。
[実施の形態1に係る画像処理装置100の動作の変形例]
本変形例では、画像処理装置100は、車両位置の信頼度等に応じた画像処理を行う。図9は、実施の形態1に係る画像処理装置100の動作の変形例のフローチャートを示す。図9に示すように、画像処理装置100は、ステップS104とステップS105との間において、ステップS111〜S113の処理を行う。ステップS101〜S104の処理は、上述した実施の形態1での処理と同様である。
ステップS104の次のステップS111において、撮像画像処理部101は、ナビゲーション装置20から第二記憶部40に出力された経路周辺の地図情報を取得する。撮像画像処理部101は、経路周辺の地図情報と、案内情報に含まれる次の誘導地点の位置とに基づき、当該誘導地点の地図上の状態、つまり誘導地点の大きさを取得する。誘導地点の大きさの例は、誘導地点での道路の幅、車線数、車線幅、及び、交差点の広さ等である。
次いで、ステップS112において、撮像画像処理部101は、ナビゲーション装置20から第二記憶部40に出力された車両位置の信頼度を取得する。
次いで、ステップS113において、撮像画像処理部101は、誘導地点の大きさと、車両位置の信頼度とに基づき、撮像画像に行う画像処理の強度を決定する。具体的には、撮像画像処理部101は、予め保持している処理強度関数等の規則に従って、画像処理の強度を決定する。下記の式3は、処理強度関数の一例である。なお、式3において、F(d)は、画像処理の強度である。dは、車両から特定領域及び/又はその周辺領域の画素の被写体までの距離と残距離との差異であり、上記2つの距離の差の絶対値である。Tは、距離閾値であり、Xは、誘導地点の大きさであり、Yは、車両位置の信頼度である。aは、誘導地点の大きさの反映係数であり、bは、車両位置の信頼度の反映係数である。式3は、差異dが大きくなる程、画像処理の強度を小さくし且つ誘導地点の大きさが大きくなる程、画像処理の強度を大きくし且つ車両位置の信頼度が高くなる程、画像処理の強度を大きくする制御に該当し得る。
F(d)=(aX+bY)×(T−d) (式3)
次いで、ステップS105において、撮像画像処理部101は、撮像画像の特定領域及び/又はその周辺領域に対して、ステップS113で決定された画像処理の強度に従って、画像処理し、処理後の撮像画像を画像合成部103に出力する。ステップS106及びS107の処理は、実施の形態1と同様である。
上述したように、本変形例では、画像処理装置100は、誘導地点の地図上の状態及びナビゲーション装置20の車両位置の信頼度に応じて、画像処理の強度を制御することができる。よって、画像処理装置100は、撮像画像上での誘導地点の視認の容易さを向上する。
[実施の形態2]
実施の形態2に係る画像処理装置200を説明する。実施の形態2に係る画像処理装置200は、ARマーカ生成部102及び画像合成部103を備えない点で、実施の形態1と異なる。実施の形態2において、実施の形態1と同様の構成要素については、実施の形態1と同一の参照符号を付し、その説明を省略する。以下において、実施の形態1と異なる点を中心に説明し、実施の形態1と同様の点の説明を省略する。
図10は、実施の形態2に係る画像処理装置200を備えるナビゲーションシステム1の機能的な構成の一例のブロック図を示す。画像処理装置200は、撮像画像処理部101と、出力部104とを備える。撮像画像処理部101は、撮像装置10の撮像画像を、実施の形態1と同様に画像処理し、出力部104に出力する。よって、画像処理装置200は、撮像画像処理部101によって画像処理された撮像画像を、ARマーカを付することなく、表示装置50に出力し表示させる。
実施の形態2に係る画像処理装置200の動作を説明する。図11は、実施の形態2に係る画像処理装置200の動作の一例のフローチャートを示す。図11に示すように、画像処理装置200は、実施の形態1と同じステップS101〜S104の処理を行う。さらに、ステップS105において、撮像画像処理部101は、実施の形態1と同様に、撮像画像の特定領域及び/又はその周辺領域に対して画像処理をし、さらに、処理後の撮像画像を出力部104に出力して表示装置50に表示させる。そして、上述のような実施の形態2に係る画像処理装置200によれば、実施の形態1と同様の効果が得られる。
[実施の形態3]
実施の形態3に係る画像処理装置300を説明する。実施の形態3に係る画像処理装置300は、撮像画像の被写体の距離を算出する距離算出部を備える点で、実施の形態1と異なる。実施の形態3において、実施の形態1又は2と同様の構成要素については、実施の形態1及び2と同一の参照符号を付し、その説明を省略する。以下において、実施の形態1及び2と異なる点を中心に説明し、実施の形態1又は2と同様の点の説明を省略する。
図12は、実施の形態3に係る画像処理装置300を備えるナビゲーションシステム1の機能的な構成の一例のブロック図を示す。ナビゲーションシステム1は、撮像装置10Aと、ナビゲーション装置20と、第一記憶部30と、第二記憶部40と、画像処理装置300とを備える。撮像装置10Aは、カメラ11を備え、距離算出部を備えない。画像処理装置300は、撮像画像処理部301と、ARマーカ生成部102と、画像合成部103と、出力部104とを備える。撮像画像処理部301は、第一情報取得部111と、第二情報取得部112と、画像処理部113と、距離算出部312とを含む。距離算出部312は、実施の形態1における撮像装置10の距離算出部12と同様に動作する。距離算出部312は、撮像画像の各画素が写し出す被写体とカメラ11との距離、つまり、上記被写体と車両との距離を算出する。距離算出部312は、消失点の位置を推定することによって上記距離を算出する、又は、ステレオ法により上記距離を算出する。距離算出部312は、算出した距離を画像処理部113に出力する。なお、距離算出部312は、撮像画像内の消失点の位置のみを推定し、画像処理部113は、撮像画像内における消失点の位置に基づき、特定領域を抽出してもよい。ここで、距離算出部312は、推定部の一例である。
上述のような実施の形態3に係る画像処理装置300によれば、実施の形態1と同様の効果が得られる。さらに、画像処理装置300は、撮像画像内の被写体と車両との距離を算出するため、撮像装置10Aに汎用的な撮像装置を適用することを可能にする。これにより、画像処理装置300は、様々なナビゲーションシステムへの適用が可能であり、汎用性を向上することができる。
[実施の形態4]
実施の形態4に係る画像処理装置400を説明する。実施の形態4に係る画像処理装置400は、道路推定部414を備える点で、実施の形態1と異なる。実施の形態4において、実施の形態1〜3と同様の構成要素については、実施の形態1〜3と同一の参照符号を付し、その説明を省略する。以下において、実施の形態1〜3と異なる点を中心に説明し、実施の形態1〜3と同様の点の説明を省略する。
図13は、実施の形態4に係る画像処理装置400を備えるナビゲーションシステム1の機能的な構成の一例のブロック図を示す。画像処理装置400の撮像画像処理部401は、実施の形態1の撮像画像処理部101に対して、道路推定部414をさらに備える。道路推定部414は、第二記憶部40を介して、ナビゲーション装置20から出力された経路の地図情報を取得する。道路推定部414は、誘導地点の位置及び地図情報に基づき、撮像画像において、誘導地点の周辺の道路の領域を推定する。さらに、道路推定部414は、道路の領域の中で道路及び交差点等の大きさを推定してもよい。道路推定部414は、道路の領域の中で車線を推定してもよい。また、道路推定部414は、誘導地点が交差点である場合、交差点で交差する道路に対して、地図情報に含まれる道路規格等に基づき、ランク付けしてもよい。画像処理部113は、道路推定部414によって推定された道路の領域内における撮像画像の左右方向の位置に応じて、特定領域の被写体のエッジの強度を制御する、つまり、特定領域及び/又はその周辺領域への画像処理の強度を変える。画像処理部113は、道路又は交差点の大きさ、道路の領域における車線、道路のランクつまり順位に応じて、これらの位置に対応する領域での画像処理の強度を変えてもよい。このとき、画像処理部113は、上記の式1〜式3に示す閾値を変えることによって、画像処理の強度を変えてもよい。
上述のような実施の形態4に係る画像処理装置400によれば、実施の形態1と同様の効果が得られる。さらに、画像処理装置400は、誘導地点の地図上の状態に応じた画像処理を行うことができる。例えば、画像処理装置400は、誘導地点における道路又は交差点などの大きさ、道路の車線数、道路規格等の道路の情報に応じた画像処理の領域及び強度の制御が可能である。よって、画像処理装置400は、誘導地点の地図上の状態に応じて、ユーザによって視認されやすい画像処理を行うことができる。
[その他]
以上、1つ又は複数の態様に係る画像処理装置等について、実施の形態及び変形例に基づいて説明したが、本開示は、これらの実施の形態及び変形例に限定されるものではない。本開示の趣旨を逸脱しない限り、当業者が思いつく各種変形を実施の形態及び変形例に施したものや、異なる実施の形態及び変形例における構成要素を組み合わせて構築される形態も、1つ又は複数の態様の範囲内に含まれてもよい。
また、上述したように、本開示の技術は、システム、装置、方法、集積回路、コンピュータプログラム又はコンピュータ読取可能な記録ディスク等の記録媒体で実現されてもよく、システム、装置、方法、集積回路、コンピュータプログラム及び記録媒体の任意な組み合わせで実現されてもよい。コンピュータ読み取り可能な記録媒体は、例えばCD−ROM等の不揮発性の記録媒体を含む。
例えば、上記実施の形態及び変形例に含まれる各処理部は典型的には集積回路であるLSI(Large Scale Integration:大規模集積回路)として実現される。これらは個別に1チップ化されてもよいし、一部又は全てを含むように1チップ化されてもよい。
また、集積回路化はLSIに限るものではなく、専用回路又は汎用プロセッサで実現してもよい。LSI製造後にプログラムすることが可能なFPGA(Field Programmable Gate Array)、又はLSI内部の回路セルの接続や設定を再構成可能なリコンフィギュラブル・プロセッサを利用してもよい。
なお、上記実施の形態において、各構成要素は、専用のハードウェアで構成されるか、各構成要素に適したソフトウェアプログラムを実行することによって実現されてもよい。各構成要素は、CPUなどのプロセッサ等のプログラム実行部が、ハードディスク又は半導体メモリ等の記録媒体に記録されたソフトウェアプログラムを読み出して実行することによって実現されてもよい。
また、上記構成要素の一部又は全部は、脱着可能なIC(Integrated Circuit)カード又は単体のモジュールから構成されてもよい。ICカード又はモジュールは、マイクロプロセッサ、ROM、RAM等から構成されるコンピュータシステムである。ICカード又はモジュールは、上記のLSI又はシステムLSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、ICカード又はモジュールは、その機能を達成する。これらICカード及びモジュールは、耐タンパ性を有するとしてもよい。
本開示の画像処理方法は、MPU(Micro Processing Unit)及びCPUなどのプロセッサ、LSIなどの回路、ICカード又は単体のモジュール等によって、実現されてもよい。
さらに、本開示の技術は、ソフトウェアプログラム又はソフトウェアプログラムからなるデジタル信号によって実現されてもよく、プログラムが記録された非一時的なコンピュータ読み取り可能な記録媒体であってもよい。また、上記プログラムは、インターネット等の伝送媒体を介して流通させることができるのは言うまでもない。
また、上記で用いた序数、数量等の数字は、全て本開示の技術を具体的に説明するために例示するものであり、本開示は例示された数字に制限されない。また、構成要素間の接続関係は、本開示の技術を具体的に説明するために例示するものであり、本開示の機能を実現する接続関係はこれに限定されない。
また、ブロック図における機能ブロックの分割は一例であり、複数の機能ブロックを1つの機能ブロックとして実現したり、1つの機能ブロックを複数に分割したり、一部の機能を他の機能ブロックに移してもよい。また、類似する機能を有する複数の機能ブロックの機能を単一のハードウェア又はソフトウェアが並列又は時分割に処理してもよい。
本開示の技術は、撮像画像内の対象点を、容易に視認可能であるように明示する技術に有用である。
1 ナビゲーションシステム、10,10A 撮像装置、11 カメラ、12 距離算出部、20 ナビゲーション装置、22 地図格納部、25 信頼度生成部、26 案内情報生成部、100,200,300,400 画像処理装置、101,301,401 撮像画像処理部、102 ARマーカ生成部(指標生成部)、103 画像合成部、111 第一情報取得部(第一取得部、第三取得部)、112 第二情報取得部(第二取得部、第四取得部、第五取得部)、113 画像処理部、312 距離算出部(推定部)、414 道路推定部

Claims (20)

  1. 車両前方の光景を撮像する撮像装置の撮像画像を取得する第一取得部と、
    次の誘導地点までの残距離を取得する第二取得部と、
    前記撮像画像に含まれる複数の画素のうち、前記残距離と同じ距離における位置を少なくとも含む所定の距離範囲に対応する複数の特定画素を特定領域として決定し、決定した前記特定領域に対して画像処理をする画像処理部と、
    前記画像処理部によって処理された前記撮像画像を出力する出力部と
    を備え、
    前記画像処理部は、前記残距離に応じて、前記特定領域全体の被写体のエッジの強度を制御する
    画像処理装置。
  2. 前記撮像画像内の各位置までの距離情報を取得する第三取得部をさらに備え、
    前記画像処理部は、前記撮像画像内の各位置までの距離情報に基づき、前記残距離に応じて前記特定領域を決定する
    請求項1に記載の画像処理装置。
  3. 前記撮像画像から前記撮像画像内の各位置までの距離情報を推定する推定部をさらに備え、
    前記画像処理部は、前記撮像画像内の各位置までの距離情報に基づき、前記残距離に応じて前記特定領域を決定する
    請求項1に記載の画像処理装置。
  4. 前記撮像画像から前記撮像画像内の消失点を推定する推定部をさらに備え、
    前記画像処理部は、前記撮像画像内の各位置と前記消失点との関係に基づき、前記残距離に応じて前記特定領域を決定する
    請求項1に記載の画像処理装置。
  5. 前記画像処理部は、前記残距離と処理対象の画素の被写体までの距離との差異が小さい程、強度を大きくするように、前記特定領域の被写体のエッジの強度を制御する
    請求項2〜4のいずれか一項に記載の画像処理装置。
  6. 前記画像処理部は、前記残距離と処理対象の画素の被写体までの距離との差異が大きい程、強度を大きくするように、前記特定領域の被写体のエッジの強度を制御する
    請求項2〜4のいずれか一項に記載の画像処理装置。
  7. 前記画像処理部は、前記残距離と処理対象の画素の被写体までの距離との差異が第一閾値よりも小さい場合、強度を0にし、前記差異が前記第一閾値以上の場合、強度を0超にするように、前記特定領域の被写体のエッジの強度を制御する
    請求項2〜6のいずれか一項に記載の画像処理装置。
  8. 前記画像処理部は、前記残距離と処理対象の画素の被写体までの距離との差異が第二閾値よりも小さい場合、強度を0にし、前記差異が第三閾値よりも大きい場合、強度を0にし、前記差異が前記第二閾値以上前記第三閾値以下の場合、強度を0超にするように、前記特定領域の被写体のエッジの強度を制御する
    請求項2〜6のいずれか一項に記載の画像処理装置。
  9. 前記画像処理部は、明度変更、彩度変更、エッジ強調、ぼかし、点滅、明滅の少なくとも1つの処理の組み合わせた画像処理を行うことによって、前記特定領域の被写体のエッジの強度を制御する
    請求項1〜8のいずれか一項に記載の画像処理装置。
  10. 前記第二取得部は、前記誘導地点での誘導方向を取得し、
    前記画像処理部は、前記誘導方向に応じて強度を変えるように、前記特定領域の被写体のエッジの強度を制御する
    請求項1〜9のいずれか一項に記載の画像処理装置。
  11. 前記撮像画像において、道路の領域を推定する道路推定部をさらに備え、
    前記画像処理部は、前記道路推定部によって推定された道路の領域での左右方向の位置に応じて、前記特定領域の被写体のエッジの強度を制御する
    請求項1〜10のいずれか一項に記載の画像処理装置。
  12. 前記撮像装置を搭載する車両のナビゲーションシステムが検出する前記車両の位置の信頼度の情報を取得する第四取得部をさらに備え、
    前記画像処理部は、前記第四取得部が取得する情報に応じて前記第一閾値を変化させる
    請求項に記載の画像処理装置。
  13. 前記誘導地点の地図情報を取得する第五取得部をさらに備え、
    前記画像処理部は、前記第五取得部が取得する地図情報に応じて前記第一閾値を変化させる
    請求項7又は12に記載の画像処理装置。
  14. 前記撮像装置を搭載する車両のナビゲーションシステムが検出する前記車両の位置の信頼度の情報を取得する第四取得部をさらに備え、
    前記画像処理部は、前記第四取得部が取得する情報に応じて前記第二閾値又は前記第三閾値を変化させる
    請求項8に記載の画像処理装置。
  15. 前記誘導地点の地図情報を取得する第五取得部をさらに備え、
    前記画像処理部は、前記第五取得部が取得する地図情報に応じて前記第二閾値又は前記第三閾値を変化させる
    請求項8又は14に記載の画像処理装置。
  16. 前記誘導地点での案内情報を取得し、前記案内情報を示す画像である拡張現実指標を生成する指標生成部と、
    前記拡張現実指標を重畳表示するように、前記画像処理部によって処理された前記撮像画像に前記拡張現実指標を合成する画像合成部とをさらに備える
    請求項1〜15のいずれか一項に記載の画像処理装置。
  17. 請求項1〜16のいずれか一項に記載の画像処理装置を備え、
    前記撮像装置を搭載する車両のナビゲーションシステムが出力する情報と、
    前記画像処理部によって処理された前記撮像画像とを表示する
    表示装置。
  18. 請求項1〜16のいずれか一項に記載の画像処理装置を備え、
    前記撮像装置を搭載する車両を案内する情報と、前記画像処理部によって処理された前記撮像画像とを表示装置に出力し表示させる
    ナビゲーションシステム。
  19. 車両前方の光景を撮像する撮像装置から撮像画像を取得し、
    次の誘導地点までの残距離を取得し、
    前記撮像画像に含まれる複数の画素のうち、前記残距離と同じ距離における位置を少なくとも含む所定の距離範囲に対応する複数の特定画素を特定領域として決定し、決定した前記特定領域に対して画像処理をし、
    画像処理された前記撮像画像を出力し、
    前記画像処理では、前記残距離に応じて、前記特定領域全体の被写体のエッジの強度を制御し、
    上記処理の少なくとも1つは、制御回路によって実行される
    画像処理方法。
  20. 車両前方の光景の撮像画像を取得し、
    次の誘導地点までの残距離を取得し、
    前記撮像画像に含まれる複数の画素のうち、前記残距離と同じ距離における位置を少なくとも含む所定の距離範囲に対応する複数の特定画素を特定領域として決定し、決定した前記特定領域に対して画像処理をし、
    画像処理された前記撮像画像を出力し、
    前記画像処理では、前記残距離に応じて、前記特定領域全体の被写体のエッジの強度を制御する
    ことをコンピュータに実行させるプログラム。
JP2017254585A 2017-12-28 2017-12-28 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム Active JP6820561B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2017254585A JP6820561B2 (ja) 2017-12-28 2017-12-28 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム
US16/230,720 US10796415B2 (en) 2017-12-28 2018-12-21 Image processing device, display device, navigation system, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017254585A JP6820561B2 (ja) 2017-12-28 2017-12-28 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2019121876A JP2019121876A (ja) 2019-07-22
JP6820561B2 true JP6820561B2 (ja) 2021-01-27

Family

ID=67057722

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017254585A Active JP6820561B2 (ja) 2017-12-28 2017-12-28 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム

Country Status (2)

Country Link
US (1) US10796415B2 (ja)
JP (1) JP6820561B2 (ja)

Families Citing this family (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11080677B2 (en) * 2017-10-12 2021-08-03 Visa International Service Association Computer-implemented system, method, and computer program product for automatically linking accounts in an electronic wallet
US20230048235A1 (en) * 2019-01-23 2023-02-16 Uber Technologies, Inc. Generating augmented reality images for display on a mobile device based on ground truth image rendering
US11308322B2 (en) * 2019-01-23 2022-04-19 Uber Technologies, Inc. Locating a client device using ground truth image rendering
WO2021132553A1 (ja) * 2019-12-27 2021-07-01 日本精機株式会社 ナビゲーション装置、ナビゲーション装置の制御方法、ナビゲーション装置の制御プログラム
US11852476B2 (en) 2021-02-19 2023-12-26 Furuno Electric Co., Ltd. Tidal current information display apparatus and method
US11808579B2 (en) 2021-02-19 2023-11-07 Furuno Electric Co., Ltd. Augmented reality based tidal current display apparatus and method

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3965730A (en) 1975-04-28 1976-06-29 Ford Motor Company Vortex shedding device for use in measuring air flow rate into an internal combustion engine
JPH10132598A (ja) 1996-10-31 1998-05-22 Sony Corp ナビゲート方法、ナビゲーション装置及び自動車
JPH10339646A (ja) * 1997-06-10 1998-12-22 Toyota Motor Corp 車両用案内表示装置
JP2005189983A (ja) * 2003-12-24 2005-07-14 Denso Corp 車両運転支援装置
JP2007121001A (ja) * 2005-10-26 2007-05-17 Matsushita Electric Ind Co Ltd ナビゲーション装置
JP2007193652A (ja) 2006-01-20 2007-08-02 Hitachi Ltd ナビゲーション装置
JP2007292713A (ja) 2006-03-30 2007-11-08 Denso Corp ナビゲーション装置
JP2009163504A (ja) * 2008-01-07 2009-07-23 Panasonic Corp 画像変形方法等
JP2009186372A (ja) 2008-02-07 2009-08-20 Nissan Motor Co Ltd ナビゲーション装置およびナビゲーション方法
JP5299026B2 (ja) * 2009-03-30 2013-09-25 マツダ株式会社 車両用表示装置
JP5634046B2 (ja) 2009-09-25 2014-12-03 クラリオン株式会社 センサコントローラ、ナビゲーション装置、センサ制御方法
US8553942B2 (en) * 2011-10-21 2013-10-08 Navteq B.V. Reimaging based on depthmap information
US8930141B2 (en) * 2011-12-30 2015-01-06 Nokia Corporation Apparatus, method and computer program for displaying points of interest
US9139133B2 (en) * 2012-05-31 2015-09-22 GM Global Technology Operations LLC Vehicle collision warning system and method
JP5926645B2 (ja) * 2012-08-03 2016-05-25 クラリオン株式会社 カメラパラメータ演算装置、ナビゲーションシステムおよびカメラパラメータ演算方法
US10130513B2 (en) * 2014-03-19 2018-11-20 Schepens Eye Research Institute Active confocal imaging systems and methods for visual prostheses
KR101960644B1 (ko) * 2015-09-18 2019-03-20 닛산 지도우샤 가부시키가이샤 차량용 표시 장치 및 차량용 표시 방법
JP6558282B2 (ja) * 2016-03-09 2019-08-14 トヨタ自動車株式会社 自動運転システム
JP6623887B2 (ja) * 2016-03-29 2019-12-25 アイシン・エィ・ダブリュ株式会社 経路表示システムおよび経路表示プログラム
US20170285916A1 (en) * 2016-03-30 2017-10-05 Yan Xu Camera effects for photo story generation
US20190161010A1 (en) * 2017-11-30 2019-05-30 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America High visibility head up display (hud)

Also Published As

Publication number Publication date
US10796415B2 (en) 2020-10-06
JP2019121876A (ja) 2019-07-22
US20190206029A1 (en) 2019-07-04

Similar Documents

Publication Publication Date Title
JP6820561B2 (ja) 画像処理装置、表示装置、ナビゲーションシステム、画像処理方法及びプログラム
US20210058608A1 (en) Method and apparatus for generating three-dimensional (3d) road model
US9928653B2 (en) Head mounted display presentation adjustment
JP7052174B2 (ja) 将来経路を推定するシステム及び方法
US8571354B2 (en) Method of and arrangement for blurring an image
JP6484228B2 (ja) 視覚強化ナビゲーション
EP2261604B1 (en) Computer arrangement for and method of calculating motion vectors using range sensor data
KR101188105B1 (ko) 영상 정보를 이용한 증강 현실 제공 장치 및 방법
US20140285523A1 (en) Method for Integrating Virtual Object into Vehicle Displays
KR102490272B1 (ko) 차량의 주변 영역을 표시하기 위한 방법
JP2005268847A (ja) 画像生成装置、画像生成方法、および画像生成プログラム
WO2015146068A1 (ja) 情報表示装置、情報表示方法及びプログラム
KR101285075B1 (ko) 자이로스코프의 센서 정보와 차선 정보를 이용한 증강현실 뷰 모드 표현 방법 및 그 장치
CN110378836B (zh) 获取对象的3d信息的方法、***和设备
CN110998409A (zh) 增强现实眼镜、确定增强现实眼镜的姿态的方法、适于使用该增强现实眼镜或方法的机动车
JP6494764B2 (ja) 表示制御装置、表示装置及び表示制御方法
US9846819B2 (en) Map image display device, navigation device, and map image display method
JP6448806B2 (ja) 表示制御装置、表示装置及び表示制御方法
JP2006157728A (ja) 画像情報処理システム、画像情報処理方法、画像情報処理プログラム、及び自動車
JP6824439B2 (ja) 表示制御装置及び表示制御方法
JPWO2017199347A1 (ja) 画像表示装置、画像表示方法及び画像表示プログラム
JP6444514B2 (ja) 表示制御装置、表示装置および経路案内方法
JP2024022212A (ja) 画像処理装置、画像処理方法およびプログラム
JP2024040034A (ja) プロセッサ、画像処理装置、眼鏡型情報表示装置、画像処理方法、及び画像処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20191218

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200904

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201130

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201215

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201222

R151 Written notification of patent or utility model registration

Ref document number: 6820561

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

SZ03 Written request for cancellation of trust registration

Free format text: JAPANESE INTERMEDIATE CODE: R313Z03