JP2013541915A - 死角地帯の表示装置および方法 - Google Patents

死角地帯の表示装置および方法 Download PDF

Info

Publication number
JP2013541915A
JP2013541915A JP2013534836A JP2013534836A JP2013541915A JP 2013541915 A JP2013541915 A JP 2013541915A JP 2013534836 A JP2013534836 A JP 2013534836A JP 2013534836 A JP2013534836 A JP 2013534836A JP 2013541915 A JP2013541915 A JP 2013541915A
Authority
JP
Japan
Prior art keywords
image
vehicle
display
blind spot
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013534836A
Other languages
English (en)
Inventor
ジェホン パク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Wise Automotive Corp
Original Assignee
Wise Automotive Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from KR1020100138493A external-priority patent/KR101097063B1/ko
Priority claimed from KR1020110132051A external-priority patent/KR101295618B1/ko
Application filed by Wise Automotive Corp filed Critical Wise Automotive Corp
Publication of JP2013541915A publication Critical patent/JP2013541915A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Mechanical Engineering (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Position Fixing By Use Of Radio Waves (AREA)
  • Fittings On The Vehicle Exterior For Carrying Loads, And Devices For Holding Or Mounting Articles (AREA)

Abstract

【課題】
【解決手段】
カメラ、ナビゲーションおよびストリートビュー受信機のうちの少なくとも一種を備えるイメージ検出部が提供する少なくとも1枚の車両の周辺イメージを表示して、車両が走行する間に車体に遮られて運転者の視野が確保し難い車両の前方、後方および側面の死角地帯情報を運転者に提供する死角地帯の表示装置および方法を提供することを目的とする。
【選択図】なし

Description

本発明は、車両の周辺の死角地帯を表示する装置および方法に係り、さらに詳しくは、カメラ、ナビゲーションおよびストリートビュー受信機のうちの少なくとも一種を備えるイメージ検出部が提供する少なくとも1枚の車両の周辺イメージを表示して、車両が走行する間に車体に遮られて運転者の視野が確保し難い車両の前方、後方および側面の死角地帯情報を運転者に提供する死角地帯の表示装置および方法に関する。
一般に、車両は、車体に装備したエンジンなどの原動機を動力源として道路などを走行し、人間や荷物を運搬したり各種の作業を行ったりする装置であり、車両の運転者は走行方向を注視しながら車両を安全に運転する。
しかしながら、通常の車両は、図1に示すように、車両10の駆動に必要なエンジンなどが設けられたフロント部によって車両10と隣り合う前方部が運転者の視野に入らずに死角地帯20が形成され、車両10の後尾部に形成されたトランクによって後方視野を部分的に制限する死角地帯30が形成され、且つ、車両の扉などによって側面視野を部分的に制限する死角地帯40が形成される。
これらの死角地帯20、30、40とは、物体が視認されない角度に位置している領域のことをいい、運転者の前方および後方の視野が車体の一部によって制限されると、走行時には前方が開けている道路を走行するため運転に障害を引き起こすという問題は発生しないものの、車両の駐車時には車両10の周りに種々の障害物が存在するため、死角地帯に障害物が位置している場合に運転者の視野が確保し難くて駐車しにくくなるという問題点が生じる。
また、車両の駐車に際して、運転に慣れていない運転者は前方または後方の障害物を見つけられずに障害物と衝突する場合が発生し、運転に慣れている運転者であっても運転者が頭をもたげて前方および後方を自ら見回しながら障害物を避けなければ駐車をすることができないが、部分的な視野しか確保できないため非常に駐車し難くなるという問題点がある。
さらに、運転者が車両の前方または後方に障害物が存在するということを認識しても、運転または駐車に集中する場合に認識された障害物の存在を一時的に記憶からなくなり、障害物との衝突が発生するという問題点がある。
本発明は、カメラ、ナビゲーションおよびストリートビュー受信機のうちの少なくとも一種を備えるイメージ検出部が提供する少なくとも1枚の車両の周辺イメージを表示して、車両が走行する間に車体に遮られて運転者の視野が確保し難い車両の前方、後方および側面の死角地帯情報を運転者に提供する死角地帯の表示装置および方法を提供することを目的とする。
上記の目的を達成するための本発明に係る死角地帯の表示装置は、車両周辺のイメージを検出するイメージ検出部と、前記イメージ検出部が任意の時点でまたは前記任意の時点前に撮影した少なくとも一枚のイメージをディスプレイ用イメージとして出力し、前記出力されるディスプレイ用イメージに車両の現在位置を示す車両アイコンを車両の形状に倣った輪郭線状または半透明状に表示して車体に遮られた死角地帯が表示されるように前記ディスプレイ用イメージおよび車両アイコンを出力する制御部と、前記制御部から出力されるディスプレイ用イメージおよび車両アイコンを表示する画面表示部と、を備える。
好ましくは、前記出力されるディスプレイ用イメージは、前記撮影されたイメージの原イメージであるか、あるいは、前記原イメージの時点を変えたイメージである。
また、好ましくは、前記出力されるディスプレイ用イメージは、前記撮影されたイメージの原イメージまたは時点を変えたイメージの多数枚を合成したものであるか、あるいは、多数枚のイメージの一部を組み合わせたものである。
さらに、好ましくは、前記車体に遮られた死角地帯は、車両の下部を含む。
さらに、好ましくは、前記イメージ検出部は、車両に設けられて車両の周辺イメージを撮影して提供するカメラであるか、前記車両の位置情報を検出して対応する位置の周辺イメージを提供するナビゲーションであるか、あるいは、前記車両の周辺道路または建物に設けられたカメラから車両周辺のイメージを受信して提供する外部情報受信部である。
さらに、好ましくは、前記制御部は、車両の外部から提供される車両の位置移動情報または車両から検出した運転制御情報を用いて、前記車両が任意の位置から移動した変位情報を演算して車両の現在の位置情報を検出する。
さらに、好ましくは、前記制御部は、前記車両の移動に伴うリアルタイム位置情報を反映して、ディスプレイ用イメージの上に表示された車両アイコンの位置が変更されるように表示する。
さらに、好ましくは、前記ディスプレイ用イメージの上に表示された車両アイコンの位置変更の表示は、ディスプレイ用イメージを固定し、且つ車両アイコンの位置のみを変更するか、車両アイコンの位置を固定し、且つディスプレイ用イメージのみを移動させるか、あるいは、ディスプレイ用イメージおよび車両アイコンの位置を両方とも変更することにより行われる。
さらに、好ましくは、前記生成されたディスプレイ用イメージは、車両から提供される車両の位置移動情報または車両から検出した運転制御情報を用いて予め設定された単位ピクセル数だけ移動させたイメージ領域を合成する。
さらに、好ましくは、前記生成されたディスプレイ用イメージは、イメージのみを比較して、類似度のあるピクセルのイメージ領域と、その周辺の類似度の低い領域とを合成する。
さらに、好ましくは、前記生成されたイメージ情報は、車両から提供される車両の速度および移動方向をはじめとする車両の運行情報に基づいて、速度情報および操向角情報による絞り込まれたイメージ検索領域を抽出して、類似度のあるピクセルのイメージ領域とその周辺の類似度の低い領域とを合成する。
上記の目的を達成するための本発明に係る死角地帯の表示方法は、a)制御部が、任意の時点でまたは前記任意の時点前にイメージ検出部が撮影した少なくとも1枚のイメージをディスプレイ用イメージとして出力するステップと、b)前記制御部が、車両の外部から提供される車両の位置移動情報または車両から提供される運転制御情報に基づいて、前記車両が任意の位置から移動した変位情報を演算して車両の現在位置を検出するステップと、c)前記制御部が、前記ステップb)において検出された現在位置および変位情報に基づいて、車両の現在位置を示す車両アイコンを前記ステップa)において出力されるディスプレイ用イメージの上に輪郭線状または半透明状に表示して車両周辺の死角地帯および車体に遮られた死角地帯が表示されるように前記ディスプレイ用イメージおよび車両アイコンを出力するステップと、を含むことを特徴とする。
好ましくは、前記ステップa)におけるディスプレイ用イメージは、前記撮影されたイメージの原イメージであるか、あるいは、前記原イメージの時点を変えたイメージである。
また、好ましくは、前記ステップa)におけるディスプレイ用イメージは、前記撮影されたイメージの原イメージまたは時点を変えたイメージの多数枚を合成したものであるか、あるいは、多数枚のイメージの一部を組み合わせたものである。
さらに、好ましくは、前記ステップa)におけるディスプレイ用イメージは、車両に設けられて車両の周辺イメージを撮影して提供するカメラ、前記車両の位置情報を検出して対応する位置の周辺イメージを提供するナビゲーション、または、前記車両の周辺道路または建物に設けられたカメラから車両周辺のイメージを受信して提供する外部情報受信部によって提供されたイメージである。
さらに、好ましくは、本発明に係る死角地帯の表示方法においては、前記車両の移動に伴うリアルタイム位置情報を反映して、ディスプレイ用イメージの上に表示された車両アイコンの位置が変更されるように表示する。
さらに、好ましくは、前記ディスプレイ用イメージの上に表示された車両アイコンの位置変更の表示は、ディスプレイ用イメージを固定し、且つ車両アイコンの位置のみを変更するか、車両アイコンの位置を固定し、且つディスプレイ用イメージのみ移動させるか、あるいは、ディスプレイ用イメージおよび車両アイコンの位置を両方とも変更することにより行われる。
本発明は、イメージ検出部が提供する少なくとも1枚の車両の周辺イメージを表示して、車両が走行する間に車体に遮られて運転者の視野が確保し難い車両の前方、後方および側面の死角地帯情報を運転者に提供することができるというメリットがある。
また、本発明によれば、運転者は、運転者の視野が確保し難い死角地帯を確認しやすいことから、運転者に安全な走行環境および安全な駐車環境を提供することができるというメリットがある。
通常の車両の前方および後方の死角地帯を示す例示図である。 本発明に係る死角地帯の表示装置の一実施形態を示すブロック図である。 本発明に係る死角地帯の表示装置の動作過程を示す例示図である。 本発明に係る死角地帯の表示装置の他の動作過程を示す例示図である。 本発明に係る死角地帯の表示装置により検出される後方の過去イメージと現在イメージとを合成して示す例示図である。 本発明に係る死角地帯の表示装置により検出されるイメージの上に車両アイコンの一実施形態を表示して示す例示図である。 本発明に係る死角地帯の表示装置により検出されるイメージの上に車両アイコンの他の実施形態を表示して示す例示図である。 本発明に係る死角地帯の表示装置により検出される道路イメージの上に車両アイコンを表示して示す例示図である。 本発明に係る死角地帯の表示過程を示すフローチャートである。 本発明に係る死角地帯の表示装置の他の実施形態を示すブロック図である。
以下、添付図面に基づき、本発明に係る死角地帯の表示装置および方法の好適な実施形態について詳述する。
<第1の実施形態>
図2は、本発明に係る死角地帯の表示装置の一実施形態を示すブロック図であり、図3は、本発明に係る死角地帯の表示装置の動作過程を示す例示図であり、図4は、本発明に係る死角地帯の表示装置の他の動作過程を示す例示図であり、そして図5は、本発明に係る死角地帯の表示装置により検出される後方の過去イメージと現在イメージとを合成して示す例示図である。
図2から図5に示すように、本発明に係る死角地帯の表示装置100は、車両の周辺イメージを提供するイメージ検出手段としての第1のカメラ110と、第2のカメラ120および第nのカメラ150と、制御部130および画面表示部140を備える。
前記第1のカメラ110は、車両200に設けられて走行中の車両の後方を撮影したイメージを出力するものであり、車両の室内に設けられたテールランプ、後尾灯またはトランクドアなどに設けられる。
前記第2のカメラ120は、車両200に設けられて走行中の車両の前方を撮影したイメージを出力するものであり、車両の室内に設けられたルームミラー、ヘッドランプまたはラジエータグリルなどに設けられる。
前記第nのカメラ150は、車両200に設けられて走行中の車両の側面を撮影したイメージを出力するものであり、車両のサイドミラーなどに設けられる。
前記第1、第2および第nのカメラ110、120および150としては、CMOS(相補性金属酸化膜半導体)を用いたイメージセンサー、CCD(電荷結合素子)を用いたイメージセンサーまたは第3のタイプのイメージセンサーのいずれを用いても構わない。
また、本実施形態においては、車両の前方または後方の走行方向イメージを撮影するためにそれぞれ1台のカメラが設けられて動作する構成を例にとって説明しているが、同じ走行方向を撮影する複数のカメラを設ける構成をとってもよい。
前記制御部130は、第1のカメラ110と、第2のカメラ120または第nのカメラ150が任意の時点(以下、現在時点と称する。)で撮影した少なくとも1枚のイメージをそのまま表示するか、あるいは、予めインストールされたイメージ処理プログラムを用いて合成/変換/組合せのいずれかを行って生成されたイメージを画面表示部140に表示する。
図3に示すように、前記制御部130は、任意の出発位置から車両200が後進する場合に、車両後方の所定の領域を撮影する第1のカメラ110が任意の時点で撮影した少なくとも1枚の後方イメージA+Bを検出してメモリ(図示せず)などの記憶手段に保存する。
ここで、任意の時点は、現在時点であってもよく、過去時点と現在時点との間の任意の時間区間のいずれかの時点であってもよい。
また、前記任意の時点で撮影した少なくとも1枚の後方イメージA+Bは、1枚の長いイメージであってもよく、第1のイメージAを任意の過去時点で検出し、所定の速度で所定の時間(t秒)だけ移動した車両200’の第1のカメラ110’が撮影した現在時点の第2のイメージBを検出して両イメージA、Bを1枚のイメージA+Bに合成したイメージであってもよい。
さらに、前記制御部130は、車両のECU(電子制御ユニット)、TCU(変速制御装置)、速度センサー、操向角センサー、ホイールセンサー、カメラが現在撮影したイメージと直前に撮影したイメージとを比較して算出した移動距離情報などから車両の移動距離、速度、走行方向および操向角情報を検出し、前記検出された移動距離、速度、走行方向および操向角情報をはじめとする運転制御情報から車両の移動変位情報を検出する。
さらにまた、前記検出された車両の移動変位情報に基づいて、任意の位置から移動した単位時間当たりの車両の移動位置を算出して車両の現在の位置情報を検出し、前記検出された車両の現在の位置情報に対応する前記後方イメージA+Bの任意の位置に車両200’の現在位置を示すために輪郭線状または半透明状に車両アイコン400を表示する。
すなわち、前記制御部130は、後方イメージA+Bを検出した後、前記検出された後方イメージA+Bの上に実際の車両200’の代わりに輪郭線状または半透明状に車両アイコン400を表示し、車両の速度センサーまたはTCU(変速制御装置)などにより検出された速度情報に基づいて、任意の位置から所定の時間(例えば、0.5秒)が経過する間に車両200’が移動した距離を算出し、前記算出された車両の移動距離に応じて、前記輪郭線状または半透明状の車両アイコンを、前記後方イメージA+B上において予め設定された単位ピクセル数または所定の距離だけ移動した位置、例えば、A領域に表示する。前記所定の時間としての0.5秒は、説明の便宜のための単なる例示に過ぎず、本発明はこれに限定されるものではない。
また、車両が前進する場合に、前記制御部130は、図4に示すように、任意の時点で第2のカメラ120が撮影した1枚の前方イメージC+Dを検出してメモリ(図示せず)などの記憶手段に保存する。
前記任意の時点で撮影した少なくとも1枚の前方イメージC+Dは、1枚の長いイメージであってもよく、前方を撮影した第1のイメージCを任意の過去時点で検出し、所定の速度で所定の時間(t秒)だけ移動した車両200’の第2のカメラ120’が撮影した現在時点の前方第2のイメージDを検出して両イメージC、Dを1枚のイメージC+Dに合成したイメージであってもよい。
さらに、前記制御部130は、車両から車両の速度、走行方向および操向角情報をはじめとする車両の移動変位情報を検出し、前記検出された車両の移動変位情報に基づいて任意の位置から単位時間当たりに車両が移動した位置を算出して車両の現在位置を検出し、前記前方イメージC+Dの任意の位置に車両200’の現在位置を示すために輪郭線状または半透明状に車両アイコン400を表示する。
すなわち、前記制御部130は、前方イメージC+Dを検出した後に、前記検出された前方イメージC+Dの上に実際の車両200’の代わりに輪郭線状または半透明状に車両アイコン400を表示し、車両の速度情報に基づいて所定の時間が経過する間に車両200’が移動した距離を算出して車両の移動距離に応じて前記輪郭線状または半透明状の車両アイコンを、前記前方イメージC+D上において予め設定された単位ピクセル数だけ移動された位置、例えば、C領域に表示する。
一方、過去イメージと現在イメージとを合成する過程は、図5(a)および図5(b)に示すように、例えば、後方第1のイメージAと後方第2のイメージ情報Bとが検出されると、現在のイメージ情報である後方第2のイメージ情報Bと過去のイメージ情報である後方第1のイメージ情報Aとを合成して、図5(c)に示すディスプレイ用イメージA+Bを生成する。
このとき、過去に車両が通過した場所のイメージである後方第1のイメージ情報Aから表示線lを中心として任意の合成領域A−1、A−2およびA−3に画成し、前記画成された任意の合成領域A−1、A−2およびA−3と現在表示されるイメージである後方第2のイメージ情報Bに対して物体認識による特徴点抽出を行って合成に必要な後方第1のイメージ情報の合成領域A−1、A−2およびA−3を検出し、それぞれの合成領域のイメージをマージプログラムまたはスティッチングプログラムを用いてサイズなどを調節することで合成したディスプレイ用イメージA+Bを生成する。
すなわち、前記ディスプレイ用イメージは、任意の時点t+1で撮影した1枚のイメージであるか、前記任意の時点t+1で撮影したイメージと以前の時点tで撮影したイメージとを合成したイメージであるか、あるいは、前記任意の時点t+1で撮影したイメージと以前の時点tで撮影したイメージとそれ以前の時点t−1で撮影したイメージとを合成したイメージであり、カメラに撮られない死角地帯を過去イメージを用いて表示する。
本実施形態においては、2枚のイメージを比較して類似度のあるピクセルのイメージ領域を合成するが、本発明はこれに限定されるものではなく、車両から提供される車両の速度および移動方向をはじめとする車両の運行情報に基づいて、速度情報および操向角情報に基づいて予め設定された単位ピクセル数だけ移動させたイメージ領域を合成してもよい。
すなわち、車両の速度が10Kmであり、且つ、操向角が10°である場合に、ピクセルを走行方向に沿って上下方向のうちのいずれかの方向に予め設定された単位ピクセル(例えば、20ピクセル)数だけ移動させ、操向方向に沿って左方または右方に予め設定された単位ピクセル(例えば、10ピクセル)数だけ移動させたイメージ領域を合成してもよい。
また、一層精度よいイメージ合成のために、車両から提供される車両の速度および移動方向をはじめとする車両の運行情報に基づいて、速度情報および操向角情報によるイメージの検索領域を絞り込み、検索領域の絞り込まれた前記イメージから類似度のあるピクセルのイメージ領域を抽出して合成してもよい。
一方、過去イメージから類似度のある領域のピクセルを抽出すると、前記過去イメージ上において類似度のあるピクセル領域の周りに位置している残りのピクセル領域、すなわち、類似度の低いピクセル領域を抽出して合成し、過去イメージを用いて現在イメージには視認されない死角地帯が含まれているディスプレイ用イメージを生成することになる。
図6は、車体に遮られた死角地帯を死角地帯の表示装置により検出されるイメージの上に車両アイコンとともに表示するものであり、図6(a)は、車両が後進する場合にカメラを用いて任意の時点前(過去)に撮影した後方第1のイメージAであり、図6(b)は、前記カメラを用いて任意の時点(現在)で撮影した後方第2のイメージBであり、図6(c)は、前記後方第1および第2のイメージを合成したディスプレイ用イメージA+Bである。
図6(c)に示すように、任意の時点(現在)で撮影した後方第2のイメージBと前記任意の時点前(過去)に撮影した後方第1のイメージAとを合成すると、1枚の長いディスプレイ用イメージA+Bが生成されて後方第2のイメージBには視認されない死角地帯(車体に遮られた部分)を確認することが可能になる。
前記ディスプレイ用イメージA+Bは、現在イメージと過去イメージとを合成して生成してもよいが、1枚の長いイメージを用いて表示してもよい。
一方、制御部130は、生成されたディスプレイ用イメージA+B上において運転者が車両の現在位置を確認可能なように後方第2のイメージAに輪郭線状に車両アイコン400を重ねて表示することにより、後進している車両の正確な位置を確認することができる。
また、車両アイコン400とともに車輪410の位置も表示して、例えば、車輪410が駐車案内線から外れるか否か、あるいは、正確な方向に後進しているか否かを運転者に確認せしめる。
さらに、図7は、車体に遮られた死角地帯を死角地帯の表示装置により検出されるイメージの上に車両アイコンとともに表示するものであり、車両が前進する場合に、図7(a)は、前進中の車両の現在の周辺イメージを第2のカメラ120が撮影した前方第2のイメージDであり、図7(b)は、所定の時間前の過去に撮影した前方第1のイメージCと前記前方第2のイメージDとを合成したディスプレイ用イメージC+Dまたは第2のカメラ120が任意の時点で過速防止段差300が入った1枚の前方イメージC+Dを撮影して生成したディスプレイ用イメージである。
車両が走行し続けてt秒後に車両の現在位置がディスプレイ用に合成された前方イメージC+D上のC領域にあると、運転者はt秒前に見た過速防止段差300を車両が通過していることが分かるが、実際に過速防止段差300が車体に遮られて運転者の視野が確保し難い死角地帯に位置することになる。
前記制御部130は、運転者が死角地帯に位置している過速防止段差300に関する情報を認識可能なように前方イメージC+D上のC領域に車両の現在位置を示す仮想の車両アイコン400を車両の移動距離情報、速度情報、操向角情報などに基づく車両の移動変位情報を既知の距離および位置演算プログラムを用いて演算して車両が任意の時点から移動した距離および位置情報を検出し、前記検出された距離および位置情報に基づいて前記前方イメージC+D上の対応領域(例えば、C領域)に車両の現在位置を示す車両アイコン400の位置を輪郭線状または半透明状に表示することにより、運転者に車体に遮られた車両下部の死角地帯を認識せしめる。
さらに、前記制御部130が、車両が現在位置している場所に仮想の車両アイコン400を輪郭線状または半透明状に表示することにより、運転者は、現在過速防止段差300付き区間を通過していることを認識することが可能になり、車両アイコン400を中心として右側の死角地帯領域C−1と左側の死角地帯領域C−2を確認することが可能になる。
加えて、前記制御部130は、仮想の車両アイコン400を前方イメージC+Dの上に輪郭線状または半透明状に表示して車両の周辺道路の上に位置している障害物および方向案内情報が運転者に認識されるように表示する。
さらに、図8に基づいて、車体に遮られて車両の下部と周辺道路の上に位置している障害物および方向案内情報が運転者に認識されることについて詳述する。
図8(a)は、現在イメージである前方第2のイメージ情報Dであり、図8(b)は、所定の時間(例えば、0.5秒)前の過去イメージである前方第1のイメージ情報Cであり、図8(c)は、前記図8(a)および図8(b)を整合した前方整合イメージ情報C+Dである。
運転者が走行中に道路上に標示された方向案内情報500を認識できなかった場合に、前記方向案内情報500が運転者に認識可能なように、制御部130は、前方イメージC+Dの上に仮想の車両アイコン400を半透明状にまたは輪郭線状に表示する。
また、前記制御部130は、現在イメージと任意の時点前の過去イメージに含まれている固定物体または移動中の物体の有無を確認して物体までの距離情報をも表示してもよい。
すなわち、前記制御部130は、1台のカメラを用いてイメージを撮影した場合に、撮影した現在時点のイメージと所定の時間前の過去時点で撮影したイメージとをイメージプロセッシングして、現在イメージ及び過去イメージから類似する特性(例えば、ピクセルの明るさ、エッジの有無など)を有する物体(ピクセル)情報を見出して変位が生じた任意の物体情報(ピクセル情報)をそれぞれ検出する。
前記制御部130は、イメージプロセッシングにより関心のある2枚のイメージを比較してベクトルで定義された画素の移動変位と角度変位などを用いて類似度を検出して物体を認識したり、物体の境界線または輪郭線などのエッジや物体の輪郭に近づく線分、曲線などを求めて認識したり、イメージ内に存在する角点、不変点、または回転変換や大きさ変化などに対して不変な特徴点を用いて認識したり、イメージに含まれている物体の特徴点を抽出して認識したりする。
さらに、前記制御部130は、前記現在イメージから検出された現在の物***置と過去のイメージから検出された過去の物***置との間の移動変位(ベクトル)を検出し、車両のECU(電子制御ユニット)、TCU(変速制御装置)、ホイールセンサーまたは操向角センサーなどから提供される車両の操向角情報、距離情報および速度情報をはじめとする運行情報を検出して前記両物体の移動変位に対応する移動距離を算出する。
すなわち、前記制御部130は、現在のイメージの上に現在の物***置及び過去の物***置を表示し、両物体間の差分値は、車両が移動した距離を用いて、両物体間の移動距離として設定する。
また、前記制御部130は、現在イメージの上に予め設定された基準点と現在の物体及び過去の物体に至るまでの変位を検出し、前記基準点と現在の物体および過去の物体がなす三角形情報、すなわち、前記現在物体と過去物体との間の移動変位を基準辺とし、前記基準点が現在の物体および過去の物体とそれぞれなす変位を他の二辺とし、これらがなす角度をそれぞれ算出して基準点から現在物体までの距離を算出する。
さらに、前記制御部130は、算出される現在物体の位置がイメージ領域における過去イメージの領域上にあれば、物体の移動変位を推定し、推定された予想移動変位と、車両の速度および前記移動変位から検出された現在物体の相対速度などに基づいて所定時間の経過後に任意のイメージ領域の上に位置している物体までの予想位置および距離を算出して提供する。
加えて、前記制御部130は、少なくとも2台以上のステレオカメラを用いる場合にステレオビジョンを用いて物体までの距離抽出を行ってもよく、このとき、前記物体の移動変位を推定し、推定された予想移動変位と、車両の速度および前記移動変位から検出された現在物体の相対速度などに基づいて所定時間の経過後にイメージの任意の領域上に位置している物体までの予想位置および距離を算出して提供してもよい。
また、前記制御部130は、前記算出された距離と予め設定された衝突判断用の基準距離情報とを比較し、その結果、衝突が予想されると、警告音または警告画面が表示されるように警告信号を出力する。
前記ステレオビジョンプログラムは、車両の前照灯、後尾灯またはサイドミラーの左側および右側にそれぞれ設けられたステレオカメラを介して左側および右側のイメージが入力されると、左側および右側のイメージに対する明るさおよびエピポーララインを一致させるステレオ入力イメージに対する前処理過程を行い、同じ物体であると判断される左側および右側のイメージから重なり合う領域のピクセル間の両眼差を生成するステレオマッチングを行い、このような両眼差の結果からノイズ成分を除去した後にそのステレオ入力イメージの距離情報に対するプロジェクション、セグメンテーション、フィルタリングなどの後処理過程を行ってステレオイメージを取得し、このようなステレオイメージを用いて物体の距離、形状、方向などの情報を検出することになる。
前記ステレオビジョンプログラムは、一実施の形態に過ぎず、公知の種々のステレオビジョンプログラムが使用可能である。
また、前記制御部130は、カメラが撮影した原イメージをそのままディスプレイ用イメージとして出力してもよいが、前記撮影された原イメージを時点変換プログラムを用いてバーズアイビュー時点に変えたイメージをディスプレイ用イメージとして出力してもよい。
さらに、前記制御部130は、前記カメラが撮影した原イメージまたは時点の変わったイメージの多数枚をイメージプロセッシングプログラムを用いて合成もしくはスティッチングしてディスプレイ用イメージとして出力してもよい。
加えて、前記制御部130は、前記カメラが撮影した原イメージ、時点の変わったイメージまたは合成された多数枚のイメージの一部をイメージプロセッシングプログラムを用いて組み合わせてディスプレイ用イメージとして出力してもよい。
前記画面表示部140は、制御部130から出力されるイメージと仮想の輪郭線状または半透明状の車両アイコン400とを同時に出力し、前記画面表示部140としては、液晶ディスプレイ(LCD)などの出力手段が採用される。
前記車両アイコン400は、半透明状または輪郭線状の車両形状を呈し、現在位置の車両をディスプレイ用イメージに仮想で表示する。
また、前記車両アイコン400は、車両の車輪(図示せず)の位置を半透明状または輪郭線状の車両の形状と一緒に表示してもよく、車両の走行時に車体に遮られた車両の下部と、道路に表示された走行方向および道路案内用文字を運転者に正確に伝えることができる。
さらに、ディスプレイ用イメージの上に表示された車両アイコン400の位置変更の表示は、ディスプレイ用イメージを固定し、且つ車両アイコン400の位置のみを変更するか、車両アイコン400の位置を固定し、且つ、ディスプレイ用イメージのみを移動させるか、あるいは、ディスプレイ用イメージおよび車両アイコンの位置を両方とも変更することにより行われる。
図9は、本発明に係る死角地帯を表示する過程を示すフローチャートであり、図2と、図4から図9に基づいて、本発明に係る死角地帯の表示方法について説明する。
車両200が、例えば、前進すると、車両に設けられた第2のカメラ120は、車両200の走行に伴い撮影を始め、制御部130は、任意の時点で第2のカメラ120が撮影したディスプレイ用イメージCまたはC+Dを検出(S100)して一時的に保存する。
また、前記ステップS100において撮影されたディスプレイ用イメージは、カメラが撮影した原イメージをそのままディスプレイ用イメージとして保存して出力してもよいが、前記撮影された原イメージを、制御部130が、時点変換プログラムを用いてバーズアイビュー時点に変えてディスプレイ用イメージとして出力してもよい。
さらに、前記ステップS100において撮影されたディスプレイ用イメージは、前記カメラが撮影した原イメージまたは前記時点の変わったイメージの多数枚を制御部130がイメージプロセッシングプログラムを用いて合成もしくはスティッチングしたり、前記撮影した原イメージ、時点の変わったイメージまたは合成された多数枚のイメージの一部を制御部130がイメージプロセッシングプログラムを用いて組み合わせたりしてディスプレイ用イメージとして出力してもよい。
前記ステップS100後に、制御部130は、車両から提供される車両のECU(電子制御ユニット)、TCU(変速制御装置)、速度センサー、操向角センサー、ホイールセンサー、カメラが現在撮影したイメージと直前に撮影したイメージとを比較して算出した運転制御情報から車両の移動距離、速度、走行方向および操向角情報をはじめとする車両の移動変位情報を検出し、前記検出された移動変位情報に基づいて単位時間当たりの車両の移動距離及び操向方向による位置を算出(S110)する。
前記制御部130は、前記算出された移動距離及び位置を、予め設定された単位ピクセル数に応じて、前記ステップS100において検出されたディスプレイ用イメージC+Dの上に対応付けて、車両の現在位置を示す仮想の車両アイコン400を輪郭線状または半透明状に表示(S120)して、画面表示部140に出力する。
前記ステップS120において、画面表示部140に出力される前記仮想の車両アイコン400は、前方イメージC+Dの上に半透明状または輪郭線状に表示されることにより、死角地帯にある障害物(例えば、過速防止段差、境界石、分離帯など)や方向案内情報500が車両の現在の位置情報とともに運転者に認識されやすくなる。
このため、車体に遮られて運転者の視野が確保し難い死角地帯と、カメラが撮影する現在のイメージには視認されない車両周辺の死角地帯を確認することができて、運転者に安全な走行環境および安全な駐車環境を提供することが可能になる。
一方、本実施形態においては、ディスプレイ用イメージ上において車両の現在位置を示す仮想の車両アイコンが、車両の移動に伴い、前記ディスプレイ用イメージの上に位置が変更されながら表示されることを例にとって説明したが、複数枚のイメージが連続して配置されたディスプレイ用イメージ上において前記車両アイコンが、車両の移動に伴い、前記連続して配置されたイメージ上において位置が変更されながら表示されてもよいということはいうまでもない。
<第2の実施形態>
図10は、本発明に係る死角地帯の表示装置の他の実施形態を示すブロック図であり、第2の実施形態は、車両に設けられたカメラ以外の装置から車両の周辺イメージを検出して死角地帯を表示するようになっている。
図10に示すように、第2の実施形態に係る死角地帯の表示装置600は、車両の周辺イメージを提供するイメージ検出手段としてのナビゲーション610および外部情報受信部620と、制御部630と、画面表示部640と、を備える。
前記ナビゲーション610は、車両に設けられてGPS(全地球測位システム)受信機から位置情報を受信して車両の現在の位置情報を検出し、前記検出された車両の位置情報に基づいてメモリ(図示せず)などに予め保存された当該位置のマップイメージ(または、実写イメージ)を読み出して提供する。
前記外部情報受信部620は、無線ネットワークを介して車両周辺の道路および建物などに設けられたカメラ(図示せず)と接続され、前記カメラが撮影するイメージを受信して制御部630に提供する。
現在の知能型道路網システムは、一部の道路区間や建物の一部の領域を固定的に撮影するカメラを備えており、前記カメラには固有のIPアドレスが割り当てられて、無線通信を用いて前記カメラに接続することによりカメラが撮影したイメージをユーザが手軽に受信して確認することができる。
すなわち、前記外部情報受信部620は、道路または道路周辺の建物などに設けられた、例えば、IPカメラと無線通信により接続し、前記IPカメラが提供するイメージと前記IPカメラが設けられた場所の位置情報を受信してメモリ(図示せず)に保存し、前記IPカメラから受信されたイメージを制御部630に提供する。
なお、前記外部情報受信部620は、前記IPカメラから提供されるカメラの設置位置情報と、前記ナビゲーション610やGPS(全地球測位システム)受信機(図示せず)などから提供される車両の現在位置情報とを検出して制御部630に送信する。
前記制御部630は、ナビゲーション610または外部情報受信部620が任意の時点で提供する当該位置のマップイメージまたは車両が位置している場所のイメージを検出し、前記検出された少なくとも1枚のイメージをそのまま用いてディスプレイ用イメージを生成するか、イメージプロセッシングプログラムを用いて任意の時点でまたは前記任意の時点およびその直前に検出したイメージを合成するか、時点変換プログラムを用いて検出したイメージの時点を変えて再構成するか、あるいは、イメージの一部を組み合わせて再構成したディスプレイ用イメージが表示されるように出力する。
すなわち、前記制御部630は、例えば、IPカメラが撮影した原イメージをそのままディスプレイ用イメージとして出力してもよいが、前記撮影された原イメージの時点を時点変換プログラムを用いてバーズアイビュー時点に変え、当該イメージをディスプレイ用イメージとして出力してもよい。
また、前記制御部630は、前記IPカメラが撮影した原イメージまたは時点の変わった過去イメージの多数枚をイメージプロセッシングプログラムを用いて合成もしくはスティッチングしてディスプレイ用イメージとして出力してもよく、前記IPカメラが撮影した原イメージ、時点の変わったイメージまたは合成されたイメージの一部をイメージプロセッシングプログラムを用いて組み合わせてディスプレイ用イメージとして出力してもよい。
さらに、前記制御部630は、車両のECU(電子制御ユニット)、TCU(変速制御装置)、速度センサー、操向角センサー、ホイールセンサーなどから検出した運転制御情報と、任意の時点前に受信した運転制御情報とを比較・演算して車両が移動した距離、速度、走行方向および操向角など車両の移動変位情報を検出する。
加えて、前記制御部630は、ナビゲーション610がGPS(全地球測位システム)などを用いて車両の外部から提供される位置情報を検出して出力すると、前記位置情報に対応するマップイメージと、任意の時点前に受信した位置情報およびイメージとを比較・演算して車両の移動変位情報を検出することができる。
また、前記制御部630は、ストリートビュー受信機620が検出したカメラの設置位置情報および周辺イメージと、ナビゲーション610を用いて検出した位置移動情報とを比較・演算して車両の移動変位情報を検出することができる。
さらに、前記制御部630は、前記検出された車両の移動変位情報に基づいて任意の位置から移動した車両の現在の位置情報を検出し、生成されたディスプレイ用イメージの上に前記検出された車両の現在位置を示す輪郭線状または半透明状の車両アイコンを表示する。
前記画面表示部640は、制御部630から出力されるディスプレイ用イメージと、仮想の輪郭線状または半透明状の車両アイコンとを同時に出力し、前記画面表示部140としては、液晶ディスプレイ(LCD)などの出力手段が採用される。
以上、本発明の好適な実施形態を例示して説明したが、当該技術分野における当業者であれば、特許請求の範囲に記載の本発明の思想および領域から逸脱しない範囲内において本発明を種々に修正および変更することができるということが理解できるであろう。
したがって、本発明によれば、運転者は、車両の周辺イメージを用いて、車体に遮られて運転者の視野が確保し難い現在位置における死角地帯の障害物の配置を確認しやすいことから、運転者に安全な走行環境および安全な駐車環境を提供することが可能になる。
100:死角地帯の表示装置
110:第1のカメラ
110’:t秒経過後の第1のカメラ
120:第2のカメラ
120’:t秒経過後の第2のカメラ
130:制御部
140:画面表示部
150:第nのカメラ
200:車両
200’:t秒経過後の車両
300:過速防止段差
400:車両アイコン
410:車輪
500:方向案内情報
600:死角地帯の表示装置
610:ナビゲーション
620:外部情報受信部
630:制御部
640:画面表示部

Claims (17)

  1. 車両周辺のイメージを検出するイメージ検出部と、
    前記イメージ検出部が任意の時点でまたは前記任意の時点前に撮影した少なくとも一枚のイメージをディスプレイ用イメージとして出力し、前記出力されるディスプレイ用イメージに車両の現在位置を示す車両アイコンを輪郭線状または半透明状に表示して車体に遮られた死角地帯が表示されるように前記ディスプレイ用イメージおよび車両アイコンを出力する制御部と、
    前記制御部から出力されるディスプレイ用イメージおよび車両アイコンを表示する画面表示部と、
    を備える死角地帯の表示装置。
  2. 前記出力されるディスプレイ用イメージは、前記撮影されたイメージの原イメージであるか、あるいは、前記原イメージの時点を変えたイメージであることを特徴とする請求項1に記載の死角地帯の表示装置。
  3. 前記出力されるディスプレイ用イメージは、前記撮影されたイメージの原イメージまたは時点を変えたイメージの多数枚を合成したものであるか、あるいは、多数枚のイメージの一部を組み合わせたものであることを特徴とする請求項2に記載の死角地帯の表示装置。
  4. 前記車体に遮られた死角地帯は、車両の下部を含むことを特徴とする請求項1から3のいずれか1項に記載の死角地帯の表示装置。
  5. 前記イメージ検出部は、車両に設けられて車両の周辺イメージを撮影して提供するカメラであるか、前記車両の位置情報を検出して対応する位置の周辺イメージを提供するナビゲーションであるか、あるいは、前記車両の周辺道路または建物に設けられたカメラから車両周辺のイメージを受信して提供する外部情報受信部であることを特徴とする請求項4に記載の死角地帯の表示装置。
  6. 前記制御部は、車両の外部から提供される車両の位置移動情報または車両から検出した運転制御情報を用いて、前記車両が任意の位置から移動した変位情報を演算して車両の現在の位置情報を検出することを特徴とする請求項5に記載の死角地帯の表示装置。
  7. 前記制御部は、前記車両の移動に伴うリアルタイム位置情報を反映して、ディスプレイ用イメージの上に表示された車両アイコンの位置が変更されるように表示することを特徴とする請求項5に記載の死角地帯の表示装置。
  8. 前記ディスプレイ用イメージの上に表示された車両アイコンの位置変更の表示は、ディスプレイ用イメージを固定し、且つ車両アイコンの位置のみを変更するか、車両アイコンの位置を固定し、且つディスプレイ用イメージのみを移動させるか、あるいは、ディスプレイ用イメージおよび車両アイコンの位置を両方とも変更することにより行われることを特徴とする請求項7に記載の死角地帯の表示装置。
  9. 前記生成されたディスプレイ用イメージは、車両から提供される車両の位置移動情報または車両から検出した運転制御情報を用いて、予め設定された単位ピクセル数だけ移動させたイメージ領域を合成することを特徴とする請求項4に記載の死角地帯の表示装置。
  10. 前記生成されたディスプレイ用イメージは、イメージのみを比較して、類似度のあるピクセルのイメージ領域と、その周辺の類似度の低い領域とを合成することを特徴とする請求項4に記載の死角地帯の表示装置。
  11. 前記生成されたイメージ情報は、車両から提供される車両の速度および移動方向をはじめとする車両の運行情報に基づいて、速度情報および操向角情報による絞り込まれたイメージ検索領域を抽出して、類似度のあるピクセルのイメージ領域とその周辺の類似度の低い領域とを合成することを特徴とする請求項4に記載の死角地帯の表示装置。
  12. a)制御部が、任意の時点でまたは前記任意の時点前にイメージ検出部が撮影した少なくとも1枚のイメージをディスプレイ用イメージとして出力するステップと、
    b)前記制御部が、車両の外部から提供される車両の位置移動情報または車両から提供される運転制御情報に基づいて、前記車両が任意の位置から移動した変位情報を演算して車両の現在位置を検出するステップと、
    c)前記制御部が、前記ステップb)において検出された現在位置および変位情報に基づいて、車両の現在位置を示す車両アイコンを前記ステップa)において出力されるディスプレイ用イメージの上に輪郭線状または半透明状に表示して車両周辺の死角地帯および車体に遮られた死角地帯が表示されるように前記ディスプレイ用イメージおよび車両アイコンを出力するステップと、
    を含む死角地帯の表示方法。
  13. 前記ステップa)におけるディスプレイ用イメージは、前記撮影されたイメージの原イメージであるか、あるいは、前記原イメージの時点を変えたイメージであることを特徴とする請求項12に記載の死角地帯の表示方法。
  14. 前記ステップa)におけるディスプレイ用イメージは、前記撮影されたイメージの原イメージまたは時点を変えたイメージの多数枚を合成したものであるか、あるいは、多数枚のイメージの一部を組み合わせたものであることを特徴とする請求項13に記載の死角地帯の表示方法。
  15. 前記ステップa)におけるディスプレイ用イメージは、車両に設けられて車両の周辺イメージを撮影して提供するカメラ、前記車両の位置情報を検出して対応する位置の周辺イメージを提供するナビゲーション、または、前記車両の周辺道路または建物に設けられたカメラから車両周辺のイメージを受信して提供する外部情報受信部によって撮影されたイメージであることを特徴とする請求項12から14のいずれか1項に記載の死角地帯の表示方法。
  16. 前記車両の移動に伴うリアルタイム位置情報を反映して、ディスプレイ用イメージの上に表示された車両アイコンの位置が変更されるように表示することを特徴とする請求項15に記載の死角地帯の表示方法。
  17. 前記ディスプレイ用イメージの上に表示された車両アイコンの位置変更の表示は、ディスプレイ用イメージを固定し、且つ車両アイコンの位置のみを変更するか、車両アイコンの位置を固定し、且つディスプレイ用イメージのみ移動させるか、あるいは、ディスプレイ用イメージおよび車両アイコンの位置を両方とも変更することにより行われることを特徴とする請求項16に記載の死角地帯の表示方法。
JP2013534836A 2010-12-30 2011-12-29 死角地帯の表示装置および方法 Pending JP2013541915A (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
KR10-2010-0138493 2010-12-30
KR1020100138493A KR101097063B1 (ko) 2010-12-30 2010-12-30 사각 지대 표시 장치 및 방법
KR10-2011-0132051 2011-12-09
KR1020110132051A KR101295618B1 (ko) 2011-12-09 2011-12-09 사각 지대 표시 장치 및 방법
PCT/KR2011/010280 WO2012091476A2 (ko) 2010-12-30 2011-12-29 사각 지대 표시 장치 및 방법

Publications (1)

Publication Number Publication Date
JP2013541915A true JP2013541915A (ja) 2013-11-14

Family

ID=46383739

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013534836A Pending JP2013541915A (ja) 2010-12-30 2011-12-29 死角地帯の表示装置および方法

Country Status (5)

Country Link
US (1) US9418556B2 (ja)
EP (1) EP2660104B1 (ja)
JP (1) JP2013541915A (ja)
CN (1) CN103237685B (ja)
WO (1) WO2012091476A2 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016085198A1 (ko) * 2014-11-26 2016-06-02 엘지전자 주식회사 전자기기 및 그것의 제어방법
WO2018061294A1 (ja) * 2016-09-30 2018-04-05 アイシン精機株式会社 周辺監視装置
US10099616B2 (en) 2015-03-19 2018-10-16 Hyundai Motor Company Vehicle and method for controlling the vehicle

Families Citing this family (48)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102012005277B3 (de) * 2012-03-15 2013-07-18 Mekra Lang Gmbh & Co. Kg Heckbereichssichtsystem
US9221396B1 (en) 2012-09-27 2015-12-29 Google Inc. Cross-validating sensors of an autonomous vehicle
KR101449160B1 (ko) * 2012-12-12 2014-10-08 현대자동차주식회사 차량의 사각지대 정보 제공 장치 및 방법
JP6060910B2 (ja) * 2013-03-28 2017-01-18 アイシン精機株式会社 周辺監視装置、及びプログラム
JP6148887B2 (ja) * 2013-03-29 2017-06-14 富士通テン株式会社 画像処理装置、画像処理方法、及び、画像処理システム
KR101698783B1 (ko) * 2013-12-16 2017-01-23 엘지전자 주식회사 스테레오 카메라 및 이를 구비한 차량
JP6375633B2 (ja) * 2014-02-12 2018-08-22 株式会社デンソー 車両周辺画像表示装置、車両周辺画像表示方法
JP6313063B2 (ja) * 2014-02-17 2018-04-18 日立オートモティブシステムズ株式会社 車載用認識装置
JP6326869B2 (ja) * 2014-03-05 2018-05-23 株式会社デンソー 車両周辺画像表示装置、車両周辺画像表示方法
GB201406405D0 (en) * 2014-04-09 2014-05-21 Jaguar Land Rover Ltd Apparatus and method for displaying information
US9211889B1 (en) * 2014-07-29 2015-12-15 Robert Bosch Gmbh Enhanced blind spot detection for vehicle with trailer
US10471848B2 (en) * 2014-09-15 2019-11-12 Dti Group Limited Arcing filtering using multiple image capture devices
DE102014225673B4 (de) * 2014-12-12 2020-07-09 Volkswagen Aktiengesellschaft Verfahren und System zur Darstellung einer Positionierungshilfe für ein Fahrzeug
CN106797452A (zh) * 2015-03-03 2017-05-31 日立建机株式会社 车辆的周围监视装置
EP3136291A1 (de) * 2015-08-31 2017-03-01 Continental Automotive GmbH Verfahren und vorrichtung zur erkennung von objekten bei dunkelheit mittels einer fahrzeugkamera und einer fahrzeugbeleuchtung
US9902322B2 (en) 2015-10-30 2018-02-27 Bendix Commercial Vehicle Systems Llc Filling in surround view areas blocked by mirrors or other vehicle parts
US20190266416A1 (en) * 2015-11-08 2019-08-29 Otobrite Electronics Inc. Vehicle image system and method for positioning vehicle using vehicle image
US20170132476A1 (en) * 2015-11-08 2017-05-11 Otobrite Electronics Inc. Vehicle Imaging System
US10185319B2 (en) * 2015-11-16 2019-01-22 Ford Global Technologies, Llc Method and device for assisting a parking maneuver
DE102016208369A1 (de) * 2016-05-17 2017-12-07 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Ermittlung von Daten, die einen Teil der Umgebung unterhalb des Fahrzeugs repräsentieren
CN106004661B (zh) * 2016-05-31 2018-12-07 百度在线网络技术(北京)有限公司 外后视镜***和应用于外后视镜***的方法
EP3263405B1 (en) * 2016-06-27 2019-08-07 Volvo Car Corporation Around view monitoring system and method for vehicles
JP6642306B2 (ja) * 2016-06-29 2020-02-05 アイシン精機株式会社 周辺監視装置
JP2018063294A (ja) * 2016-10-11 2018-04-19 アイシン精機株式会社 表示制御装置
TWI599989B (zh) * 2016-11-29 2017-09-21 財團法人工業技術研究院 用於交通工具之影像處理方法及影像系統
CN106828319A (zh) * 2017-01-16 2017-06-13 惠州市德赛西威汽车电子股份有限公司 一种显示车身底部图像的全景环视显示方法
CN108422932B (zh) * 2017-02-15 2021-06-01 奥迪股份公司 驾驶辅助***、方法和车辆
US20180236939A1 (en) * 2017-02-22 2018-08-23 Kevin Anthony Smith Method, System, and Device for a Forward Vehicular Vision System
CN106985751A (zh) * 2017-04-07 2017-07-28 深圳市歌美迪电子技术发展有限公司 后视显示方法、装置及设备
US10497265B2 (en) * 2017-05-18 2019-12-03 Panasonic Intellectual Property Corporation Of America Vehicle system, method of processing vehicle information, recording medium storing a program, traffic system, infrastructure system, and method of processing infrastructure information
CN107274342A (zh) * 2017-05-22 2017-10-20 纵目科技(上海)股份有限公司 一种车底盲区填充方法及***、存储介质、终端设备
US9934440B1 (en) * 2017-10-04 2018-04-03 StradVision, Inc. Method for monitoring blind spot of monitoring vehicle and blind spot monitor using the same
CN109717842A (zh) * 2017-10-31 2019-05-07 北京帕斯泰克科技有限公司 一种用于脉诊仪设备的视频辅助传感器定位设备及方法
KR102051324B1 (ko) * 2017-10-31 2019-12-03 주식회사 켐트로닉스 서라운드 뷰 모니터링 시스템
CN108016354A (zh) * 2017-12-04 2018-05-11 惠州市德赛西威汽车电子股份有限公司 一种画面盲区可见的全景泊车***及其方法
CN107878330B (zh) * 2017-12-06 2020-05-05 湖北航天技术研究院特种车辆技术中心 一种车辆底盘透视方法以及车辆底盘透视装置
CN112020661A (zh) * 2018-04-25 2020-12-01 伟摩有限责任公司 车底雷达单元
DE102018207976A1 (de) * 2018-05-22 2019-11-28 Continental Automotive Gmbh Verfahren und Vorrichtung zum Anzeigen einer Fahrzeugumgebung
US11699207B2 (en) 2018-08-20 2023-07-11 Waymo Llc Camera assessment techniques for autonomous vehicles
US11227409B1 (en) 2018-08-20 2022-01-18 Waymo Llc Camera assessment techniques for autonomous vehicles
JP7172309B2 (ja) * 2018-09-06 2022-11-16 株式会社アイシン 周辺監視装置
KR102671221B1 (ko) * 2018-11-22 2024-06-03 소니 세미컨덕터 솔루션즈 가부시키가이샤 화상 처리 장치, 카메라 시스템 및 화상 처리 방법
CN111942288B (zh) * 2019-05-14 2022-01-28 欧特明电子股份有限公司 车辆影像***及使用车辆影像的车辆定位方法
CN111998780B (zh) * 2019-05-27 2022-07-01 杭州海康威视数字技术股份有限公司 目标测距方法、装置及***
US10897600B1 (en) 2019-09-09 2021-01-19 Texas Instruments Incorporated Sensor fusion based perceptually enhanced surround view
JP2022161066A (ja) * 2021-04-08 2022-10-21 トヨタ自動車株式会社 表示制御システム、表示制御方法及びプログラム
US11597383B1 (en) * 2021-11-04 2023-03-07 STEER-Tech, LLC Methods and systems for parking a vehicle
DE102022209182A1 (de) 2022-09-05 2024-03-07 Robert Bosch Gesellschaft mit beschränkter Haftung Anzeigeverfahren zur Darstellung eines virtuellen Umgebungsmodells, Computerprogramm, Rechenvorrichtung und Fahrzeug

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244688A (ja) * 2001-12-12 2003-08-29 Equos Research Co Ltd 車両の画像処理装置
JP2005001570A (ja) * 2003-06-12 2005-01-06 Equos Research Co Ltd 駐車支援装置
JP2006238131A (ja) * 2005-02-25 2006-09-07 Aisin Seiki Co Ltd 車両周辺監視装置
JP2006306241A (ja) * 2005-04-27 2006-11-09 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2008042235A (ja) * 2006-08-01 2008-02-21 Honda Motor Co Ltd 車両用表示装置
JP2008114628A (ja) * 2006-11-01 2008-05-22 Suzuki Motor Corp 駐車支援システム

Family Cites Families (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1094337B1 (en) * 1999-10-21 2004-03-17 Matsushita Electric Industrial Co., Ltd. Parking assistance system
JP2002337605A (ja) * 2001-05-18 2002-11-27 Auto Network Gijutsu Kenkyusho:Kk 車両用周辺視認装置
JP4323377B2 (ja) * 2004-05-24 2009-09-02 オリンパス株式会社 画像表示装置
JP4470041B2 (ja) * 2004-06-22 2010-06-02 株式会社エクォス・リサーチ 障害物検知支援装置
JP4877447B2 (ja) * 2004-08-31 2012-02-15 株式会社エクォス・リサーチ 車両周辺画像表示装置
DE102005008131A1 (de) * 2005-01-31 2006-08-03 Daimlerchrysler Ag Objektdetektion auf Bildpunktebene in digitalen Bildsequenzen
EP1696669B1 (en) * 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
JP2007114020A (ja) * 2005-10-19 2007-05-10 Aisin Aw Co Ltd 車両の移動距離検出方法、車両の移動距離検出装置、車両の現在位置検出方法及び車両の現在位置検出装置
JP4622806B2 (ja) * 2005-10-27 2011-02-02 アイシン・エィ・ダブリュ株式会社 駐車支援方法及び駐車支援装置
KR100833603B1 (ko) * 2006-12-29 2008-05-30 주식회사 엠티오메가 버드 뷰를 제공하는 차량용 네비게이션 장치 및 그 방법
JP2007302238A (ja) * 2007-05-29 2007-11-22 Equos Research Co Ltd 車両の画像処理装置
JP5057936B2 (ja) * 2007-11-09 2012-10-24 アルパイン株式会社 鳥瞰画像生成装置および方法
EP2257065B1 (en) * 2008-02-20 2019-04-10 Clarion Co., Ltd. Vehicle peripheral image display system
JP2009225322A (ja) * 2008-03-18 2009-10-01 Hyundai Motor Co Ltd 車両用情報表示システム
KR101093316B1 (ko) * 2008-04-15 2011-12-14 주식회사 만도 차량주행중 영상정합 방법 및 그 시스템
US8890951B2 (en) * 2008-04-24 2014-11-18 GM Global Technology Operations LLC Clear path detection with patch smoothing approach
JP5118605B2 (ja) * 2008-10-30 2013-01-16 クラリオン株式会社 車両周辺画像表示システム
JP5300443B2 (ja) * 2008-12-01 2013-09-25 富士通テン株式会社 画像処理装置

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003244688A (ja) * 2001-12-12 2003-08-29 Equos Research Co Ltd 車両の画像処理装置
JP2005001570A (ja) * 2003-06-12 2005-01-06 Equos Research Co Ltd 駐車支援装置
JP2006238131A (ja) * 2005-02-25 2006-09-07 Aisin Seiki Co Ltd 車両周辺監視装置
JP2006306241A (ja) * 2005-04-27 2006-11-09 Aisin Aw Co Ltd 駐車支援方法及び駐車支援装置
JP2008042235A (ja) * 2006-08-01 2008-02-21 Honda Motor Co Ltd 車両用表示装置
JP2008114628A (ja) * 2006-11-01 2008-05-22 Suzuki Motor Corp 駐車支援システム

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2016085198A1 (ko) * 2014-11-26 2016-06-02 엘지전자 주식회사 전자기기 및 그것의 제어방법
US10168824B2 (en) 2014-11-26 2019-01-01 Lg Electronics Inc. Electronic device and control method for the electronic device
US10099616B2 (en) 2015-03-19 2018-10-16 Hyundai Motor Company Vehicle and method for controlling the vehicle
WO2018061294A1 (ja) * 2016-09-30 2018-04-05 アイシン精機株式会社 周辺監視装置
JPWO2018061294A1 (ja) * 2016-09-30 2019-07-11 アイシン精機株式会社 周辺監視装置

Also Published As

Publication number Publication date
EP2660104A2 (en) 2013-11-06
WO2012091476A2 (ko) 2012-07-05
WO2012091476A3 (ko) 2012-08-23
US20130300872A1 (en) 2013-11-14
EP2660104A4 (en) 2014-06-11
US9418556B2 (en) 2016-08-16
EP2660104B1 (en) 2015-09-23
CN103237685B (zh) 2017-06-13
CN103237685A (zh) 2013-08-07

Similar Documents

Publication Publication Date Title
JP2013541915A (ja) 死角地帯の表示装置および方法
JP4883977B2 (ja) 車両用画像表示装置
US8717196B2 (en) Display apparatus for vehicle
JP4907883B2 (ja) 車両周辺画像表示装置および車両周辺画像表示方法
JP6801787B2 (ja) 駐車支援方法及び駐車支援装置
US8330816B2 (en) Image processing device
JP4412380B2 (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
JP4497133B2 (ja) 運転支援方法及び運転支援装置
US8044781B2 (en) System and method for displaying a 3D vehicle surrounding with adjustable point of view including a distance sensor
US8035575B2 (en) Driving support method and driving support apparatus
JP5347257B2 (ja) 車両用周辺監視装置および映像表示方法
JP5177217B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム及び車載端末
US20110228980A1 (en) Control apparatus and vehicle surrounding monitoring apparatus
KR101097063B1 (ko) 사각 지대 표시 장치 및 방법
JP6014433B2 (ja) 画像処理装置、画像処理方法、及び、画像処理システム
JP2009105656A (ja) 車載用撮像装置
JP2003063340A (ja) 運転補助装置
JP2004240480A (ja) 運転支援装置
JP2009211624A (ja) 運転支援装置、運転支援方法及びコンピュータプログラム
JP2020147059A (ja) 駐車支援装置及び駐車支援方法
JP2010028803A (ja) 駐車補助のための画像表示方法
WO2015122124A1 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2011155651A (ja) 車両周辺画像表示装置および車両周辺画像表示方法
KR101295618B1 (ko) 사각 지대 표시 장치 및 방법
JP6148848B2 (ja) 車載画像処理装置

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131224

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140324

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140331

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140424

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140502

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20140526

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20140530

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20140602

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20141021