JP2016013793A - 画像表示装置、画像表示方法 - Google Patents

画像表示装置、画像表示方法 Download PDF

Info

Publication number
JP2016013793A
JP2016013793A JP2014137561A JP2014137561A JP2016013793A JP 2016013793 A JP2016013793 A JP 2016013793A JP 2014137561 A JP2014137561 A JP 2014137561A JP 2014137561 A JP2014137561 A JP 2014137561A JP 2016013793 A JP2016013793 A JP 2016013793A
Authority
JP
Japan
Prior art keywords
image
vehicle
bird
eye
eye view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2014137561A
Other languages
English (en)
Other versions
JP2016013793A5 (ja
Inventor
宗作 重村
Sosaku Shigemura
宗作 重村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2014137561A priority Critical patent/JP2016013793A/ja
Priority to US15/320,498 priority patent/US20170158134A1/en
Priority to PCT/JP2015/003132 priority patent/WO2016002163A1/ja
Publication of JP2016013793A publication Critical patent/JP2016013793A/ja
Publication of JP2016013793A5 publication Critical patent/JP2016013793A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/44Receiver circuitry for the reception of television signals according to analogue transmission standards
    • H04N5/445Receiver circuitry for the reception of television signals according to analogue transmission standards for displaying additional information
    • H04N5/44504Circuit details of the additional information generator, e.g. details of the character or graphics signal generator, overlay mixing circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/70Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by an event-triggered choice to display a specific image among a selection of captured images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8066Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring rearward traffic
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Computer Graphics (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Image Analysis (AREA)

Abstract

【課題】自車両を上方から見下ろした鳥瞰画像を表示することにより、運転者が自車両の周囲の状況を容易に把握可能とする。【解決手段】車載カメラによる撮影画像に基づいて、車両の周囲の状況を鳥瞰態様で表す鳥瞰画像を生成した後、車両の位置に車両画像を合成する。そして、車両のシフトポジションに応じて、鳥瞰画像の中から所定範囲の画像を切り出して表示画面に出力する。運転者が車両の周囲の状況を知りたい範囲はシフトポジションによって変わるから、こうすれば、小さい表示画面でも、運転者は周囲の状況を容易に把握できる。更に、撮影画像中で対象物が写った位置から、車両に対する対象物の位置を検出して、自車両の周辺に対象物が存在する画像を合成し、鳥瞰画像として用いても良い。こうすれば、歪みのない鳥瞰画像を表示することができるので、周囲の状況をより容易に把握可能となる。【選択図】図2

Description

本発明は、車両の周囲の状況を表す画像を、車両の上方から見下ろした態様で表示画面上に表示する技術に関する。
車両の前後(および左右)の搭載した車載カメラを用いて車両の周囲の画像を撮影し、得られた画像を車室内に設けた表示画面に表示することで、運転者が自車両の周囲の状況を確認できるようにした技術が知られている。
また、車載カメラで撮影した画像を、車両の上方から撮影したような画像に変換して表示画面上に表示することで、あたかも自車両を上方から見下ろしたような態様(鳥瞰態様)で表示する技術も開発されている(特許文献1)。車載カメラで撮影した画像を単に表示するのではなく、上方から見下ろした鳥瞰態様で表示してやれば、自車両の周囲に存在する障害物等までの距離や、自車両との位置関係を容易に把握できるようになると考えられてきた。
特開2012−066724号公報
しかし、実際には、車載カメラで撮影した画像を単に鳥瞰態様で表示しただけでは、運転者が自車両の周囲の状況を容易に把握することは、必ずしも容易ではないという問題があった。
これは、車室内に搭載可能な表示画面は小さいので、運転者が容易に認識できる大きさで障害物などを表示しようとすると、自車両の近くの領域しか表示することができず、表示画面だけでは自車両の周囲の状況を把握できるとは言い難いためである。かといって、自車両から離れた遠方の領域も表示しようとすると、障害物などが小さく表示されてしまうため、表示画面を見ても運転者が障害物などの存在に気付き難くなってしまう。
この発明は、従来技術が有する上述した課題に鑑みてなされたものであり、自車両を上方から見下ろした鳥瞰態様の画像を表示することにより、運転者が自車両の周囲の状況を容易に把握することが可能な技術の提供を目的とする。
上述した課題を解決するために、本発明の画像表示装置および画像表示方法は、車載カメラで撮影した撮影画像に基づいて、車両の周囲の状況を鳥瞰態様で表す鳥瞰画像を生成する。更に、鳥瞰画像中の車両の位置には車両画像を合成する。そして、車両のシフトポジションに応じて、鳥瞰画像の中から所定範囲の画像を切り出して表示画面に出力する。
運転者が車両の周囲の状況を知りたいと思う範囲はシフトポジションによって変化する。従って、シフトポジションに応じて鳥瞰画像の中から所定範囲の画像を切り出してやれば、表示画面が小さい場合でも、運転者は自車両の周囲の状況を容易に把握することが可能となる。
本実施例の画像表示装置100を搭載した車両1についての説明図である。 画像表示装置100の大まかな内部構成を示した説明図である。 本実施例の画像表示装置100が実行する鳥瞰画像表示処理のフローチャートである。 車載カメラ10F,10R,11L,11Rから得られた撮影画像を例示した説明図である。 対象物検出処理のフローチャートである。 撮影画像の収差を補正して得られた補正画像についての説明図である。 対象物検出処理で白線の座標値を記憶する様子を例示した説明図である。 対象物検出処理で歩行者の座標値を記憶する様子を例示した説明図である。 対象物検出処理で障害物の座標値を記憶する様子を例示した説明図である。 補正画像上での座標値を車両1を原点とした座標値に変換する方法についての説明図である。 本実施例の鳥瞰画像表示処理で生成された鳥瞰画像27を例示した説明図である。 撮影画像を視点変換して生成した鳥瞰画像では歩行者や障害物が大きく歪む様子を例示した説明図である。 鳥瞰画像27の中からシフトポジションに応じて所定範囲の画像を切り出す様子を示す説明図である。 シフトポジションをN(中立位置)からR(後退位置)に切り換えたことに伴って、表示画面12に表示される鳥瞰画像27の範囲が切り換わる様子を例示した説明図である。 シフトポジションをN(中立位置)からD(前進位置)に切り換えたことに伴って、表示画面12に表示される鳥瞰画像27範囲が切り換わる様子を例示した説明図である。
以下では、上述した本願発明の内容を明確にするために実施例について説明する。
A.装置構成 :
図1には、画像表示装置100を搭載した車両1が示されている。図示されるように車両1は、車両1の前方に搭載されて前方の状況を撮影する車載カメラ10Fと、車両1の後方に搭載されて後方の状況を撮影する車載カメラ10Rと、車両1の左側面に搭載されて左側方の状況を撮影する車載カメラ11Lと、車両1の右側面に搭載されて右側方の状況を撮影する車載カメラ11Rとを備えている。これら車載カメラ10F,10R,11L,11Rで得られた撮影画像の画像データは、画像表示装置100に入力されて、後述する所定の処理が施されることによって、表示画面12に画像が表示される。尚、本実施例では、CPUやROM、RAMなどがバスを介してデータをやり取り可能に接続されたいわゆるマイクロコンピューターが、画像表示装置100として用いられている。
また、車両1には、図示しない変速機のシフトポジションを検出するシフトポジションセンサー14が設けられており、シフトポジションセンサー14は画像表示装置100に接続されている。従って、画像表示装置100は、シフトポジションセンサー14の出力に基づいて、変速機のシフトポジション(前進位置、中立位置、後退位置、駐車位置)を検出することができる。
図2には、本実施例の画像表示装置100の大まかな内部構成が示されている。図示されるように本実施例の画像表示装置100は、撮影画像取得部101と、鳥瞰画像生成部102と、車両画像合成部103と、シフトポジション検出部104と、画像出力部105とを備えている。
尚、これら5つの「部」は、画像表示装置100が車両1の周囲の画像を表示画面12に表示する機能に着目して、画像表示装置100の内部を便宜的に分類した抽象的な概念であり、画像表示装置100が物理的に5つの部分に区分されることを表すものではない。従って、これらの「部」は、CPUで実行されるコンピュータープログラムとして実現することもできるし、LSIやメモリーを含む電子回路として実現することもできるし、更にはこれらを組合せることによって実現することもできる。
撮影画像取得部101は、車載カメラ10F,10R,11L,11Rに接続されており、これら車載カメラ10F,10R,11L,11Rが車両1の周囲を撮影した撮影画像を一定周期(約30Hz)で取得する。そして、取得した撮影画像を、鳥瞰画像生成部102に出力する。
鳥瞰画像生成部102は、撮影画像取得部101から受け取った撮影画像に基づいて、車両1を上方から見下ろした態様(鳥瞰態様)で車両1の周囲の状況を表示した鳥瞰画像を生成する。撮影画像から鳥瞰画像を生成する方法について後ほど詳しく説明するが、鳥瞰画像を生成する際には、画像中に写った歩行者や障害物などの対象物を抽出したり、検出した対象物の車両1に対する相対位置を検出したりする処理が行われる。従って、本実施例では、鳥瞰画像生成部102が本発明の「対象物抽出部」および「相対位置検出部」にも対応する。
車両画像合成部103は、鳥瞰画像生成部102によって生成された鳥瞰画像中で車両1が存在する位置に、車両1を表す画像(車両画像24)を上書きすることによって、鳥瞰画像に車両画像24を合成する。車両画像24としては、車両1を上方から撮影した画像を用いても良いし、車両1を上方から見たアニメーション画像を用いても良く、更には、車両1を上方から見ていることが認識可能なシンボル図形の画像などを用いることができる。車両画像24は、画像表示装置100の図示しないメモリーに予め記憶されている。
こうして得られた鳥瞰画像は、そのまま表示画面12に表示するには面積が大き過ぎるので、鳥瞰画像全体が表示画面12に表示できる大きさまで縮小すると、表示が小さくなり過ぎてしまう。
そこで、シフトポジション検出部104は、シフトポジションセンサー14からの信号に基づいて変速機のシフトポジション(前進位置、後退位置、中立あるいは駐車位置)を検出し、その結果を、画像出力部105に出力する。
すると、画像出力部105は、車両画像合成部103で車両画像が合成された鳥瞰画像の中から、シフトポジションに応じて定まる所定範囲の画像を切り出して、表示画面12に出力する。
こうすれば、表示画面12には十分な大きさで鳥瞰画像を表示することができるので、車両1の運転者は、車両1の周囲に存在する障害物や歩行者などの存在を容易に認識することが可能となる。
B.鳥瞰画像表示処理 :
図3には、上述した画像表示装置100が実行する鳥瞰画像表示処理のフローチャートが示されている。
鳥瞰画像表示処理では、先ず始めに、車載カメラ10F,10R,11L,11Rから撮影画像を取得する(S100)。すなわち、車両1の前方に搭載された車載カメラ10Fからは、車両1から前方を撮影した画像(前方画像20)を取得し、車両1の後方に搭載された車載カメラ10Rからは、車両1から後方を撮影した画像(後方画像23)を取得する。同様に、車両1の左側方に搭載された車載カメラ11Lからは、車両1から左側方を撮影した画像(左側方画像21)を取得し、車両1の右側方に搭載された車載カメラ11Rからは、車両1から右側方を撮影した画像(右側方画像22)を取得する。
図4には、4つの車載カメラ10F,10R,11L,11Rから、前方画像20、左側方画像21、右側方画像22、後方画像23が得られた様子が例示されている。
続いて、これらの撮影画像に基づいて、車両1の周囲に存在する対象物を検出する処理(対象物検出処理)を開始する(S200)。ここで対象物とは、歩行者や、自動車、二輪車などの移動体、あるいは、電信柱などのように車両1の走行の妨げとなる障害物など、検出する対象として予め定められた物体である。
図5には、対象物検出処理のフローチャートが示されている。図示されるように、対象物検出処理を開始すると、先ず始めに、車載カメラ10F,10R,11L,11Rから得られた撮影画像に含まれる光学系の収差を補正することによって、補正画像を生成する(S201)。光学系の収差は、それぞれの車載カメラ10F,10R,11L,11Rについて、計算あるいは実験的な方法によって予め求めておくことができる。画像表示装置100の図示しないメモリーには、車載カメラ10F,10R,11L,11Rのそれぞれについて収差のデータが予め記憶されており、この収差のデータに基づいて撮影画像を補正することにより、収差を含まない補正画像を得ることができる。
図6には、こうして収差を含まない前方補正画像20m、左側方補正画像21m、右側方補正画像22m、後方補正画像23mが得られた様子が例示されている。
こうして補正画像が得られたら、それぞれの補正画像の中から白線および黄線を検出する(S202)。白線あるいは黄線は、画像中で輝度が急激に変化している部分(いわゆるエッジ)を検出し、エッジで囲まれている領域の中で白い部分、あるいは黄色の部分を抽出することによって検出することができる。
また、白線あるいは黄線が検出された場合には、前方補正画像20m、左側方補正画像21m、右側方補正画像22m、後方補正画像23mの何れの補正画像から検出されたか、および補正画像上での座標値を、画像表示装置100のメモリーに記憶しておく。
図7には、検出された白線の座標値が記憶されている様子が例示されている。図示した例では、白線を構成する輪郭を直線に分割し、直線の交点の座標値を記憶する。例えば、一番手前に写っている白線については、4本の直線が検出されているので、それら直線の4つの交点の座標値を記憶する。尚、図7では、図示が煩雑となることを避けるために、4つの交点の中の2つの交点a,bについて表示している。例えば、交点aについては、座標値(Wa,Da)を記憶し、交点bについては、座標値(Wb,Db)を記憶する。
尚、図示した例での座標値の取り方は、左右方向の座標値は画像の中央位置を原点として、左方向に行くほど負の値が大きくなるように、右方向に行くほど正の値が大きくなるように取っている。更に、上下方向の座標値は、画像の上辺を原点として、下方向に行くほど正の値が大きくなるように取っている。
続いて、それぞれの補正画像の中から歩行者を検出する(S203)。画像中の歩行者は、歩行者の画像が備える特徴を記述したテンプレートを用いて、画像を探索することによって検出する。そして、画像中でテンプレートに合致する箇所が見つかったら、その箇所には歩行者が写っているものと判断する。画像中の歩行者は様々な大きさで写り得るから、それぞれの大きさに応じて様々な大きさのテンプレートを記憶しておき、それらのテンプレートを用いて画像を探索すれば、様々な大きさの歩行者を検出することができる。また、いずれのテンプレートで検出されたかによって、歩行者が写っている大きさに関する情報も得ることができる。
また、歩行者が検出された場合には、前方補正画像20m、左側方補正画像21m、右側方補正画像22m、後方補正画像23mの何れの補正画像から検出されたか、補正画像上での座標値、および歩行者の大きさを画像表示装置100のメモリーに記憶しておく。
図8には、検出された歩行者の座標値が記憶されている様子が例示されている。図示されているように、歩行者の座標値は、検出された歩行者の足元の座標値を記憶する。こうすると、歩行者の上下方向の座標値は、歩行者までの距離に対応する。そして、歩行者の身長は、1〜2メートルの範囲に収まると考えて良いから、画像中で歩行者が写る大きさも、歩行者までの距離に応じて定まる所定範囲の大きさに収まるはずである。このことから、検出した歩行者の大きさが、この所定範囲内になかった場合は、誤検出しているものと考えて良い。
例えば、図8(a)に示した例では、歩行者の足元を示す点cの上下方向についての座標値がDcであり、この位置に写る歩行者の大きさは、ある大きさの範囲に限られる。そこで、検出した歩行者の大きさHcがこの範囲内にあるか否かを判断し、この範囲内にあれば、歩行者を正しく認識したものと判断して、検出結果をメモリーに記憶する。逆に、範囲内に無ければ、誤検出したものと判断して、検出結果は記憶することなく破棄する。図8(b)に示した例でも同様である。すなわち、検出した歩行者の大きさHdが、歩行者の足元の点dの座標値Ddに対応した範囲内にあるか否かを判断する。その結果、範囲内にあった場合は、歩行者を正しく認識したものと判断して、検出結果をメモリーに記憶する。逆に、範囲内に無ければ、誤検出したものと判断して、検出結果は記憶することなく破棄する。
以上のようにして、補正画像中の歩行者を検出したら(S203)、次は、補正画像中に写った車両を検出する(S203)。画像中の車両も、車両の画像が備える特徴を記述したテンプレートを用いて、画像を探索することによって検出する。たとえば、自動車を検出するのであれば、自動車用のテンプレートを記憶しておき、自転車を検出するのであれば自転車用のテンプレートを、自動二輪を検出するのであれば自動二輪用のテンプレートを記憶しておく。また、これらのテンプレートについても、様々な大きさについて記憶しておく。そして、これらのテンプレートを用いて画像を探索することによって、画像中に写った自動車や、自転車、自動二輪などの車両を検出することができる。
また、車両が検出された場合も、前方補正画像20m、左側方補正画像21m、右側方補正画像22m、後方補正画像23mの何れの補正画像から検出されたか、補正画像上での座標値、車両の種類(自動車、自転車、自動二輪など)および大きさを画像表示装置100のメモリーに記憶しておく。
尚、車両についても、車両が地面に接している部分の座標値を記憶する。また、この時、車両の上下方向の座標値と、車両の大きさとが整合するか否かを確認して、整合していない場合は誤検出したものと判断して検出結果を破棄するようにしても良い。
続いて、補正画像中に写った障害物を検出する(S205)。障害物も、上述した歩行者や車両と同様に、障害物用のテンプレートを用いて検出する。但し、障害物には様々な形状を有するものがあり、それら全てを1種類のテンプレートで検出することはできない。そこで、例えば、電信柱や、三角コーン、ガードレールなど、幾つかの種類の障害物(所定の障害物)を想定しておき、それら障害物の種類毎にテンプレートを記憶しておく。そして、それらテンプレートを用いて画像を探索することにより、障害物を検出する。
その結果、障害物が検出された場合も、前方補正画像20m、左側方補正画像21m、右側方補正画像22m、後方補正画像23mの何れの補正画像から検出されたか、補正画像上での座標値、障害物の種類および大きさを画像表示装置100のメモリーに記憶しておく。
図9には、検出した障害物(三角コーン)の座標値を記憶する様子が例示されている。図示されているように、障害物の座標値も、障害物が地面に接している位置を示す点eの座標値(We,De)を記憶する。また、障害物についても、上下方向の座標値Deと、障害物の大きさとが整合するか否かを確認して、整合していない場合は誤検出したものと判断して検出結果を破棄するようにしても良い。
以上のようにして、白線などや、歩行者、車両、障害物を検出したら(S201〜S205)、今度は、これらに該当しない移動体(例えば、転がるボールや、動物などのように動く物体)を検出する(S206)。すなわち、ボールが転がってきた場合や、動物が飛び出してきた場合など、移動体が存在していると不測の事態が生じ易いので、車両1の周囲に移動体が存在する場合には、その存在を運転者が認識しておくことが望ましい。そこで、移動体については、歩行者や車両などに該当しない場合でも検出する。
移動体の検出には、前回に得られた画像と今回の画像とを比較して、画像中で移動している物体を検出する。また、このとき、車両1の移動情報(車速や、ハンドルの操舵角、前進中か後退中かを示す情報)を図示しない車両制御装置から取得して、撮影範囲が変化したことによる画像全体の移動を除去するようにしても良い。
こうして、検出した各種の対象物の座標値を、車両1を原点とする座標値(すなわち、車両1に対する相対位置)に変換して、メモリーに記憶されている座標値を、得られた座標値で更新する(S207)。
これは次のような処理である。例えば、前方補正画像20mは車両1の前方の状況が写っているから、前方補正画像20m上の全ての座標値は、車両1の前方の何れかの位置に対応付けることができる。従って、このような対応関係を予め求めておけば、図10(a)に示すように、前方補正画像20mから検出された対象物の座標値を、図10(b)に示すように、車両1を原点とする座標値に変換することができる。
左側方補正画像21mや、右側方補正画像22m、後方補正画像23mについても同様に、それぞれの補正画像上の座標値は、車両1の左側方、右側方、後方の座標値に対応付けることができる。そこで、これらの対応関係を予め求めておくことによって、それぞれの補正画像から検出された対象物の座標値を、車両1を原点とする座標値に変換する。
こうして、全ての対象物の座標値を、車両1を原点とする座標値に変換してメモリーに記憶したら、図5に示した対象物検出処理を終了して、図3の鳥瞰画像表示処理に復帰する。
対象物検出処理から復帰すると、今度は、鳥瞰画像を生成する(S101)。ここで鳥瞰画像とは、車両1を上方から見下ろす態様(鳥瞰態様)で車両1の周囲を表示した画像である。上述した対象物検出処理では、車両1の周囲に存在する対象物と、その対象物の存在位置が、車両1を原点とする座標値によって求められている。このため、対象物が存在する位置に、対象物を表す図形の画像(対象物画像)を表示することで、容易に鳥瞰画像を生成することができる。尚、対象物画像の具体例については、後述する。
続いて、鳥瞰画像中の対象物のうち、特に、歩行者や、障害物、移動体についてはマーカー画像を重ねて表示する(S102)。マーカー画像とは、対象物を目立ち易くするために表示される画像であり、対象物を囲って表示される円形あるいは矩形の図形などとすることができる。
更に、鳥瞰画像中で自車両が存在する位置には、車両1を表す画像(車両画像)を上書きする形態で合成する(S103)
図11には、このようにして生成された鳥瞰画像27が例示されている。図4を用いて前述したように、車両1の前方画像20および左側方画像21に歩行者が写っており、後方画像23に障害物が写っていることに対応して、図11の鳥瞰画像27では、車両1の前方および左側方に歩行者を表す対象物画像25aが表示されている。同様に車両1の後方には、障害物を表す対象物画像25bが表示されている。
また、歩行者用の対象物画像25a、および障害物用の対象物画像25bのそれぞれには、歩行者用のマーカー画像26a、および障害物用のマーカー画像26bが重ねて表示されている。更に、鳥瞰画像27中で自車両が存在する位置には、車両1を表す車両画像24が上書きされて合成されている。加えて、車両画像24の周囲には、白線の画像も表示されている。
このように、車両1に搭載された車載カメラ10F,10R,11L,11Rで撮影した撮影画像から各種の対象物を検出して、その結果に基づいて鳥瞰画像を生成してやれば、運転者に提示する必要性の低い情報を表示しないようにすることができる。このため、図11に例示したように、たいへんに分かり易い態様で、車両1の周囲の状況を運転者に提示することができる。また、歩行者や障害物など、特に運転者が注意を払うべき対象物にはマーカー画像を重ねて表示することで、運転者の注意を喚起することができる。加えて、車両1が存在する位置に車両画像24を表示しておくことで、歩行者や障害物などの対象物と、車両1との位置関係を容易に把握することが可能となる。
また、撮影画像を視点変換することによって鳥瞰画像を生成する場合、対象物の画像が大きく歪んでしまうことがある。例えば、図4に例示したような前方画像20、左側方画像21、右側方画像22、後方画像23を視線変換して鳥瞰画像28を生成すると、図12に例示したように、歩行者や障害物が大きく歪んでしまい、運転者が直ちに認識できない場合がある。
これに対して、上述した本実施例のように、撮影画像に写った対象物の有無および対象物の位置についての情報を抽出して、その情報に基づいて鳥瞰画像を生成してやれば、図11のように、たいへん分かり易い鳥瞰画像27を生成することができる。
もっとも、こうして得られた鳥瞰画像27は、車両1の周囲の広い範囲を表している。このことは、撮影画像に写った対象物の位置の情報に基づいて鳥瞰画像を生成することで、画像中の対象物が歪むことが無くなり、その結果、広い範囲を表示する鳥瞰画像27が生成可能になったと言うことでもある。そして、このように広い範囲を表示する鳥瞰画像27を、表示画面12に表示しようとすると、鳥瞰画像27を小さく縮小して表示しなければならなくなって、車両1の周囲の状況を運転者が確認しづらくなる。
そこで、本実施例の鳥瞰画像表示処理では、車両1のシフトポジションを取得する(図3のS104)。図2を用いて前述したようにシフトポジションは、車両1に搭載された図示しない変速機が、前進位置(D)、後退位置(R)、中立位置(N)、駐車位置(P)の何れに設定されているかを示している。そして、シフトポジションがこれらの何れであるかは、シフトポジションセンサー14の出力から検出することができる。
シフトポジションを取得したら、今度は、鳥瞰画像27の中からシフトポジションに応じた所定範囲の画像を切り出して、切り出した画像の画像データを表示画面12に向かって出力する(S105)。
図13には、シフトポジションに応じて、鳥瞰画像27の中から所定範囲の画像を切り出す様子が例示されている。例えば、シフトポジションが前進位置(D)にある場合は、図13(a)に示すように、車両1の後方よりも前方の方が広くなるように設定された所定領域の画像を切り出してやる。図13では、鳥瞰画像27中で斜線を付さずに表示された部分が、切り出される画像を表している。また、シフトポジションが後退位置(R)にある場合は、図13(b)に示すように、車両1の前方よりも後方の方が広くなるように設定された所定領域の画像を切り出してやる。更に、シフトポジションが中立位置(N)あるいは駐車位置(P)にある場合は、図13(c)に示すように、車両1の前方と後方とが同じ広さとなるように設定された所定領域の画像を切り出してやる。
そして、このようにして鳥瞰画像27から切り出した画像の画像データを出力する(S105)。その結果、表示画面12には、シフトポジションに応じて切り出された画像が表示される。
続いて、鳥瞰画像の表示を終了するか否かを判断する(図3のS106)。その結果、鳥瞰画像の表示を終了しないと判断した場合は(S106:no)、鳥瞰画像表示処理の先頭に戻って、再び、車載カメラ10F,10R,11L,11Rから撮影画像を取得した後(S100)、続く上述した一連の処理を繰り返す。
これに対して、鳥瞰画像の表示を終了すると判断した場合は(S106:yes)、図3に示した本実施例の鳥瞰画像表示処理を終了する。
図14および図15には、上述した鳥瞰画像表示処理によって表示画面12に表示される画像が例示されている。例えば、図14(a)に示されるように、シフトポジションが中立位置(N)にある場合は、表示画面12の中央付近に車両画像24が表示されているので、運転者は前方および後方の状況を万遍なく把握することができる。
もちろん、表示画面12はそれほど広い範囲は表示することができないが、シフトポジションが中立位置(N)にある場合は車両1が止まっているので、運転者は遠くの状況を知りたいと思う可能性は低く、車両1の近くの状況が把握できれば十分である。
その後、車両1を後退させようとしてシフトポジションを後退位置(R)に変更すると、図14(b)に示したように、車両1の前方よりも後方の方が、広い範囲が表示されるようになる。車両1の後退時には、運転者は後方については遠くの状況も知りたいと思う傾向が強いので、こうすることで、運転者にとって必要な情報を提示することが可能となる。図14に示した例では、シフトポジションが中立位置(N)にあるときは表示されていなかった後方の障害物25bが、シフトポジションを後退位置(R)に変更すると、表示画面12上で確認可能となっている。
また、前述したように本実施例では、遠くの位置まで歪みのない鳥瞰画像27を表示することができるので、車両1から遠くの状況を表示する場合でも、運転者が容易に認識可能な態様で鳥瞰画像27を表示することが可能となる。
加えて、表示画面12では、対象物が対象物画像25a,25bによって表示されるだけでなく、特に注意すべき対象物についてはマーカー画像が重ねて表示されるので、運転者が対象物を容易に認識することが可能となる。
また、シフトポジションが中立位置(N)から前進位置(D)に変更された場合は、表示画面12の表示は、図15(a)に示した状態から、図15(b)に示した状態に変更される。車両1の前進時には、運転者は前方については遠くの状況も知りたいと思う傾向が強いので、こうすることで、運転者にとって必要な情報を提示することが可能となる。
図15に示した例では、シフトポジションが中立位置(N)にあるときは表示されていなかった前方の歩行者25aが、シフトポジションを前進位置(D)に変更すると、表示画面12上で確認可能となっている。
以上、本実施例について説明したが、本発明は上記の実施例に限られるものではなく、その要旨を逸脱しない範囲において種々の態様で実施することができる。
1…車両、 10F,R…車載カメラ、 11L,R…車載カメラ、
12…表示画面、 14…シフトポジションセンサー、 20…前方画像、
21…左側方画像、 22…右側方画像、 23…後方画像、
24…車両画像、 25a,b…対象物画像、 26a,b…マーカー画像、
27…鳥瞰画像、 100…画像表示装置、 101…撮影画像取得部、
102…鳥瞰画像生成部、 103…車両画像合成部、
104…シフトポジション検出部、 105…画像出力部。

Claims (6)

  1. 車載カメラ(10F,10R,11L,11R)と、該車載カメラによる撮影画像を表示する表示画面(12)とを搭載した車両(1)に適用されて、該車両を上方から見下ろす鳥瞰態様で、該車両の周囲の状況を表す画像を前記表示画面に表示する画像表示装置(100)であって、
    前記車載カメラから前記撮影画像を取得する撮影画像取得部(101)と、
    前記車両の周囲の状況を前記鳥瞰態様で表示する鳥瞰画像(27)を、前記撮影画像に基づいて生成する鳥瞰画像生成部(102)と、
    前記鳥瞰画像中での前記車両の位置に、該車両を表す車両画像(24)を合成する車両画像合成部(103)と、
    前記車両のシフトポジションを検出するシフトポジション検出部(104)と、
    前記車両画像が合成された前記鳥瞰画像の中から前記車両のシフトポジションに応じた所定範囲の画像を切り出して、前記表示画面に出力する画像出力部(105)と
    を備える画像表示装置。
  2. 請求項1に記載の画像表示装置であって、
    前記画像出力部は、前記車両のシフトポジションが前進位置にある場合には、該車両の後方よりも該車両の前方の方が広くなるように設定された前記所定範囲の画像を切り出して、前記表示画面に出力する出力部である
    画像表示装置。
  3. 請求項1または請求項2に記載の画像表示装置であって、
    前記画像出力部は、前記車両のシフトポジションが後退位置にある場合には、該車両の前方よりも該車両の後方の方が広くなるように設定された前記所定範囲の画像を切り出して、前記表示画面に出力する出力部である
    画像表示装置。
  4. 請求項1ないし請求項3の何れか一項に記載の画像表示装置であって、
    前記鳥瞰画像生成部は、
    前記撮影画像に写った障害物または移動体を対象物として抽出する対象物抽出部(102、S202〜S205)と、
    前記撮影画像中で前記対象物が抽出された位置に基づいて、該対象物の前記車両に対する相対位置を検出する相対位置検出部(102、S207)と
    を備え、
    前記対象物を表す対象物画像(25a,25b)を、前記鳥瞰画像中で該対象物の前記相対位置が示す位置に合成することによって、該対象物を含む該鳥瞰画像を生成する生成部である
    画像表示装置。
  5. 請求項4に記載の画像表示装置であって、
    前記鳥瞰画像生成部は、前記対象物抽出部によって抽出された前記対象物が障害物または移動体であった場合には、前記鳥瞰画像中で該対象物が表示されている位置に所定のマーカー画像(26a,26b)を合成することによって、該マーカー画像を含む該鳥瞰画像を生成する生成部である
    画像表示装置。
  6. 車載カメラと、該車載カメラによる撮影画像を表示する表示画面とを搭載した車両に適用されて、該車両を上方から見下ろす鳥瞰態様で、該車両の周囲の状況を表す画像を前記表示画面に表示する画像表示方法であって、
    前記車載カメラから前記撮影画像を取得する工程(S100)と、
    前記車両の周囲の状況を前記鳥瞰態様で表示する鳥瞰画像を、前記撮影画像に基づいて生成する工程(S101)と、
    前記鳥瞰画像中での前記車両の位置に、該車両を表す車両画像を合成する工程(S103)と、
    前記車両のシフトポジションを検出する工程(S104)と、
    前記車両画像が合成された前記鳥瞰画像の中から前記車両のシフトポジションに応じた所定範囲の画像を切り出して、前記表示画面に出力する工程(S105)と
    を備える画像表示方法。
JP2014137561A 2014-07-03 2014-07-03 画像表示装置、画像表示方法 Pending JP2016013793A (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2014137561A JP2016013793A (ja) 2014-07-03 2014-07-03 画像表示装置、画像表示方法
US15/320,498 US20170158134A1 (en) 2014-07-03 2015-06-23 Image display device and image display method
PCT/JP2015/003132 WO2016002163A1 (ja) 2014-07-03 2015-06-23 画像表示装置、画像表示方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2014137561A JP2016013793A (ja) 2014-07-03 2014-07-03 画像表示装置、画像表示方法

Publications (2)

Publication Number Publication Date
JP2016013793A true JP2016013793A (ja) 2016-01-28
JP2016013793A5 JP2016013793A5 (ja) 2016-06-09

Family

ID=55018744

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2014137561A Pending JP2016013793A (ja) 2014-07-03 2014-07-03 画像表示装置、画像表示方法

Country Status (3)

Country Link
US (1) US20170158134A1 (ja)
JP (1) JP2016013793A (ja)
WO (1) WO2016002163A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159863A1 (ja) * 2016-03-18 2017-09-21 株式会社デンソー 情報処理装置
WO2019073938A1 (ja) * 2017-10-10 2019-04-18 アイシン精機株式会社 駐車支援装置
JP2019069719A (ja) * 2017-10-10 2019-05-09 アイシン精機株式会社 駐車支援装置
WO2019176200A1 (ja) * 2018-03-12 2019-09-19 日立オートモティブシステムズ株式会社 車両制御装置
JP2021097283A (ja) * 2019-12-13 2021-06-24 本田技研工業株式会社 車両周囲監視装置、車両、車両周囲監視方法およびプログラム
JP7174389B1 (ja) 2022-02-18 2022-11-17 株式会社ヒューマンサポートテクノロジー 物***置推定表示装置、方法及びプログラム

Families Citing this family (26)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP2926317B1 (en) * 2012-12-03 2020-02-12 Harman International Industries, Incorporated System and method for detecting pedestrians using a single normal camera
CN105644442B (zh) * 2016-02-19 2018-11-23 深圳市歌美迪电子技术发展有限公司 一种扩展显示视野的方法、***及汽车
JP6917167B2 (ja) * 2017-03-21 2021-08-11 株式会社フジタ 建設機械用俯瞰画像表示装置
US10678244B2 (en) 2017-03-23 2020-06-09 Tesla, Inc. Data synthesis for autonomous control systems
US11893393B2 (en) 2017-07-24 2024-02-06 Tesla, Inc. Computational array microprocessor system with hardware arbiter managing memory requests
US10671349B2 (en) 2017-07-24 2020-06-02 Tesla, Inc. Accelerated mathematical engine
US11157441B2 (en) 2017-07-24 2021-10-26 Tesla, Inc. Computational array microprocessor system using non-consecutive data formatting
US11409692B2 (en) 2017-07-24 2022-08-09 Tesla, Inc. Vector computational unit
JP6972938B2 (ja) * 2017-11-07 2021-11-24 株式会社アイシン 周辺監視装置
US11561791B2 (en) 2018-02-01 2023-01-24 Tesla, Inc. Vector computational unit receiving data elements in parallel from a last row of a computational array
US11215999B2 (en) 2018-06-20 2022-01-04 Tesla, Inc. Data pipeline and deep learning system for autonomous driving
US11361457B2 (en) 2018-07-20 2022-06-14 Tesla, Inc. Annotation cross-labeling for autonomous control systems
US11636333B2 (en) 2018-07-26 2023-04-25 Tesla, Inc. Optimizing neural network structures for embedded systems
US11562231B2 (en) 2018-09-03 2023-01-24 Tesla, Inc. Neural networks for embedded devices
SG11202103493QA (en) 2018-10-11 2021-05-28 Tesla Inc Systems and methods for training machine models with augmented data
US11196678B2 (en) 2018-10-25 2021-12-07 Tesla, Inc. QOS manager for system on a chip communications
US11816585B2 (en) 2018-12-03 2023-11-14 Tesla, Inc. Machine learning models operating at different frequencies for autonomous vehicles
US11537811B2 (en) 2018-12-04 2022-12-27 Tesla, Inc. Enhanced object detection for autonomous vehicles based on field view
US11610117B2 (en) 2018-12-27 2023-03-21 Tesla, Inc. System and method for adapting a neural network model on a hardware platform
US10997461B2 (en) 2019-02-01 2021-05-04 Tesla, Inc. Generating ground truth for machine learning from time series elements
US11150664B2 (en) 2019-02-01 2021-10-19 Tesla, Inc. Predicting three-dimensional features for autonomous driving
US11567514B2 (en) 2019-02-11 2023-01-31 Tesla, Inc. Autonomous and user controlled vehicle summon to a target
US10956755B2 (en) 2019-02-19 2021-03-23 Tesla, Inc. Estimating object properties using visual image data
JPWO2021186853A1 (ja) * 2020-03-19 2021-09-23
CN111741258B (zh) * 2020-05-29 2022-03-11 惠州华阳通用电子有限公司 一种驾驶辅助装置实现方法
US12008681B2 (en) * 2022-04-07 2024-06-11 Gm Technology Operations Llc Systems and methods for testing vehicle systems

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012465A (ja) * 2003-06-18 2005-01-13 Denso Corp 車両用周辺表示装置
JP2008230476A (ja) * 2007-03-22 2008-10-02 Denso Corp 車両外部撮影表示システムおよび画像表示制御装置
JP2009111946A (ja) * 2007-11-01 2009-05-21 Alpine Electronics Inc 車両周囲画像提供装置
JP2009143410A (ja) * 2007-12-14 2009-07-02 Nissan Motor Co Ltd 駐車支援装置及び方法
WO2009119337A1 (ja) * 2008-03-27 2009-10-01 三洋電機株式会社 画像処理装置、画像処理プログラム、画像処理システム及び画像処理方法
JP2010251939A (ja) * 2009-04-14 2010-11-04 Hyundai Motor Co Ltd 車両周囲画像表示システム
JP2011114536A (ja) * 2009-11-26 2011-06-09 Alpine Electronics Inc 車両周辺画像提供装置
WO2011145141A1 (ja) * 2010-05-19 2011-11-24 三菱電機株式会社 車両後方監視装置
JP2012096770A (ja) * 2010-11-05 2012-05-24 Denso Corp 車両用コーナー部周辺表示装置
JP2013001366A (ja) * 2011-06-22 2013-01-07 Nissan Motor Co Ltd 駐車支援装置および駐車支援方法
JP2013115739A (ja) * 2011-11-30 2013-06-10 Aisin Seiki Co Ltd 画像間差分装置および画像間差分方法
JP2014025272A (ja) * 2012-07-27 2014-02-06 Hitachi Constr Mach Co Ltd 作業機械の周囲監視装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005012465A (ja) * 2003-06-18 2005-01-13 Denso Corp 車両用周辺表示装置
JP2008230476A (ja) * 2007-03-22 2008-10-02 Denso Corp 車両外部撮影表示システムおよび画像表示制御装置
JP2009111946A (ja) * 2007-11-01 2009-05-21 Alpine Electronics Inc 車両周囲画像提供装置
JP2009143410A (ja) * 2007-12-14 2009-07-02 Nissan Motor Co Ltd 駐車支援装置及び方法
WO2009119337A1 (ja) * 2008-03-27 2009-10-01 三洋電機株式会社 画像処理装置、画像処理プログラム、画像処理システム及び画像処理方法
JP2010251939A (ja) * 2009-04-14 2010-11-04 Hyundai Motor Co Ltd 車両周囲画像表示システム
JP2011114536A (ja) * 2009-11-26 2011-06-09 Alpine Electronics Inc 車両周辺画像提供装置
WO2011145141A1 (ja) * 2010-05-19 2011-11-24 三菱電機株式会社 車両後方監視装置
JP2012096770A (ja) * 2010-11-05 2012-05-24 Denso Corp 車両用コーナー部周辺表示装置
JP2013001366A (ja) * 2011-06-22 2013-01-07 Nissan Motor Co Ltd 駐車支援装置および駐車支援方法
JP2013115739A (ja) * 2011-11-30 2013-06-10 Aisin Seiki Co Ltd 画像間差分装置および画像間差分方法
JP2014025272A (ja) * 2012-07-27 2014-02-06 Hitachi Constr Mach Co Ltd 作業機械の周囲監視装置

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2017159863A1 (ja) * 2016-03-18 2017-09-21 株式会社デンソー 情報処理装置
JP2017175182A (ja) * 2016-03-18 2017-09-28 株式会社デンソー 情報処理装置
JP7087333B2 (ja) 2017-10-10 2022-06-21 株式会社アイシン 駐車支援装置
JP2019069719A (ja) * 2017-10-10 2019-05-09 アイシン精機株式会社 駐車支援装置
CN111108023A (zh) * 2017-10-10 2020-05-05 爱信精机株式会社 停车辅助装置
WO2019073938A1 (ja) * 2017-10-10 2019-04-18 アイシン精機株式会社 駐車支援装置
US11591018B2 (en) 2017-10-10 2023-02-28 Aisin Corporation Parking assistance device
WO2019176200A1 (ja) * 2018-03-12 2019-09-19 日立オートモティブシステムズ株式会社 車両制御装置
JPWO2019176200A1 (ja) * 2018-03-12 2021-02-04 日立オートモティブシステムズ株式会社 車両制御装置
US11935307B2 (en) 2018-03-12 2024-03-19 Hitachi Automotive Systems, Ltd. Vehicle control apparatus
JP2021097283A (ja) * 2019-12-13 2021-06-24 本田技研工業株式会社 車両周囲監視装置、車両、車両周囲監視方法およびプログラム
JP7065068B2 (ja) 2019-12-13 2022-05-11 本田技研工業株式会社 車両周囲監視装置、車両、車両周囲監視方法およびプログラム
JP7174389B1 (ja) 2022-02-18 2022-11-17 株式会社ヒューマンサポートテクノロジー 物***置推定表示装置、方法及びプログラム
JP2023120758A (ja) * 2022-02-18 2023-08-30 株式会社ヒューマンサポートテクノロジー 物***置推定表示装置、方法及びプログラム

Also Published As

Publication number Publication date
WO2016002163A1 (ja) 2016-01-07
US20170158134A1 (en) 2017-06-08

Similar Documents

Publication Publication Date Title
WO2016002163A1 (ja) 画像表示装置、画像表示方法
JP5143235B2 (ja) 制御装置および車両周囲監視装置
JP6028848B2 (ja) 車両の制御装置、及びプログラム
JP4687411B2 (ja) 車両周辺画像処理装置及びプログラム
JP5503728B2 (ja) 車両の周辺監視装置
JP5706874B2 (ja) 車両の周辺監視装置
JP6586849B2 (ja) 情報表示装置及び情報表示方法
JP2020043400A (ja) 周辺監視装置
US10099617B2 (en) Driving assistance device and driving assistance method
JP2006252389A (ja) 周辺監視装置
JP2018144526A (ja) 周辺監視装置
JP2017034543A (ja) 車載表示制御装置、車載表示制御方法
JP6375633B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2013168063A (ja) 画像処理装置、画像表示システム及び画像処理方法
JP6778620B2 (ja) 区画線検出装置、区画線検出システム、及び区画線検出方法
JP6554866B2 (ja) 画像表示制御装置
JP6326869B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2008048094A (ja) 車両用映像表示装置及び車両周囲映像の表示方法
JP2020068515A (ja) 画像処理装置
JP2015184907A (ja) 画像処理装置および画像処理プログラム
JP2015171106A (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP6327115B2 (ja) 車両周辺画像表示装置、車両周辺画像表示方法
JP2008213647A (ja) 駐車支援方法及び駐車支援装置
JP2013211035A (ja) 車両周辺表示装置
JP2008236507A (ja) 車両運転支援装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20160414

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180116

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20180710