JP6686988B2 - 映像出力装置及び映像生成プログラム - Google Patents

映像出力装置及び映像生成プログラム Download PDF

Info

Publication number
JP6686988B2
JP6686988B2 JP2017163622A JP2017163622A JP6686988B2 JP 6686988 B2 JP6686988 B2 JP 6686988B2 JP 2017163622 A JP2017163622 A JP 2017163622A JP 2017163622 A JP2017163622 A JP 2017163622A JP 6686988 B2 JP6686988 B2 JP 6686988B2
Authority
JP
Japan
Prior art keywords
image
unit
detection
vehicle
tracking
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017163622A
Other languages
English (en)
Other versions
JP2019041334A (ja
Inventor
近藤 勝彦
勝彦 近藤
悠介 赤峰
悠介 赤峰
康之 三宅
康之 三宅
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Corp
Original Assignee
Denso Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Corp filed Critical Denso Corp
Priority to JP2017163622A priority Critical patent/JP6686988B2/ja
Priority to PCT/JP2018/026042 priority patent/WO2019044185A1/ja
Publication of JP2019041334A publication Critical patent/JP2019041334A/ja
Priority to US16/801,535 priority patent/US11148595B2/en
Application granted granted Critical
Publication of JP6686988B2 publication Critical patent/JP6686988B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/002Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles specially adapted for covering the peripheral part of the vehicle, e.g. for viewing tyres, bumpers or the like
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/02Systems using reflection of radio waves, e.g. primary radar systems; Analogous systems
    • G01S13/50Systems of measurement based on relative movement of target
    • G01S13/58Velocity or trajectory determination systems; Sense-of-movement determination systems
    • G01S13/62Sense-of-movement determination
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/66Radar-tracking systems; Analogous systems
    • G01S13/72Radar-tracking systems; Analogous systems for two-dimensional tracking, e.g. combination of angle and range tracking, track-while-scan radar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/862Combination of radar systems with sonar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/865Combination of radar systems with lidar systems
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/86Combinations of radar systems with non-radar systems, e.g. sonar, direction finder
    • G01S13/867Combination of radar systems with cameras
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S13/00Systems using the reflection or reradiation of radio waves, e.g. radar systems; Analogous systems using reflection or reradiation of waves whose nature or wavelength is irrelevant or unspecified
    • G01S13/88Radar or analogous systems specially adapted for specific applications
    • G01S13/93Radar or analogous systems specially adapted for specific applications for anti-collision purposes
    • G01S13/931Radar or analogous systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S7/00Details of systems according to groups G01S13/00, G01S15/00, G01S17/00
    • G01S7/02Details of systems according to groups G01S13/00, G01S15/00, G01S17/00 of systems according to group G01S13/00
    • G01S7/04Display arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T11/002D [Two Dimensional] image generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/20Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used
    • B60R2300/205Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of display used using a head-up display
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/304Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using merged images, e.g. merging camera image with stored images

Landscapes

  • Engineering & Computer Science (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Electromagnetism (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本開示は、車両の周辺の映像を表示装置に出力する映像出力装置等に関する。
従来、例えば特許文献1には、車両の前方を撮影する監視カメラの映像を画像表示モニタに表示する車両用周辺監視装置が開示されている。この周辺監視装置は、例えば遮蔽物の奥側に他車両が存在する場合、遮蔽物の一部分を半透明にした仮想画像を生成する。手前側の遮蔽物が半透明とされることで、仮想画像では、奥側の他車両が確認可能となる。
特開2009−231937号公報
さて、一般的に、他車両等の物体の検出は、その確信度が所定の閾値を超えた段階で確定される。故に、特許文献1のような周辺監視装置では、他車両の検出確定を待ったうえで、遮蔽物を半透明化した仮想画像が表示される。そのため、他車両の報知を早期に開始することが難しかった。もし仮に、他車両の検出確定前のタイミングで報知を開始してしまうと、検出情報が誤りであった場合に、他車両を誤報知する仮想画像は、視認者にとって煩わしい提示となり得た。
本開示は、映像の煩わしさを抑えつつ、奥側に位置する物体を早期に報知可能な映像出力装置等の提供を目的とする。
上記目的を達成するため、開示された一つの態様は、車両(A)の周辺を撮影する撮像部(21)及び撮像部よりも車両の進行方向に設置され周辺の物体を検出する検出部(22)を搭載した車両にて、周辺の映像(70)を表示装置(30)に出力する映像出力装置であって、撮像部にて撮影された周辺の撮像画像(71)を取得する画像取得部(51)と、検出部にて検出された物体の検出情報を取得する検出情報取得部(53)と、検出情報に基づき、物体の検出の確信度を判定する確信度判定部(61)と、検出情報に基づき撮像画像での物体の位置を算出する位置算出部(62)と、位置算出部の算出結果に基づき、撮像画像における物体同士の重なりの有無を判定する重なり判定部(63)と、撮像画像にて重なっていると判定された複数の物体のうちで、手前側に存在する第一物体(S1)を写す領域の少なくとも一部に画像透過領域(73)を設定し、第一物体の奥側に存在する第二物体(V1)を確認可能な映像を生成し、第二物体の検出の確信度が高くなるに従って画像透過領域に規定する透過率を高く変化させる画像処理部(40)と、を備える映像出力装置とされる。
また開示された一つの態様は、車両(A)の周辺を撮影する撮像部(21)及び撮像部よりも車両の進行方向に設置され周辺の物体を検出する検出部(22)を搭載した車両にて、表示装置(30)に出力される周辺の映像(70)を生成する映像生成プログラムであって、少なくとも一つの演算部(41)を、撮像部にて撮影された周辺の撮像画像(71)を取得する画像取得部(51)と、検出部にて検出された物体の検出情報を取得する検出情報取得部(53)と、検出情報に基づき、物体の検出の確信度を判定する確信度判定部(61)と、検出情報に基づき撮像画像での物体の位置を算出する位置算出部(62)と、位置算出部の算出結果に基づき、撮像画像における物体同士の重なりの有無を判定する重なり判定部(63)と、撮像画像にて重なっていると判定された複数の物体のうちで、手前側に存在する第一物体(S1)を写す領域の少なくとも一部に画像透過領域(73)を設定し、第一物体の奥側に存在する第二物体(V1)を確認可能な映像を生成し、第二物体の検出の確信度が高くなるに従って画像透過領域に規定する透過率を高く変化させる画像処理部(40)として機能させる映像生成プログラムとされる。
これらの態様によれば、第二物体の検出の確信度が低い場合でも、表示装置の映像では、手前側に存在する第一物体を写す領域の少なくとも一部に、透過率を規定される画像透過領域が設定され得る。故に、表示装置の映像は、第一物体の奥側に存在する第二物体を確認可能な状態となる。このように確信度の低い段階にて、画像透過領域に規定される透過率が低く規定されれば、第二物体を示す画像部分は、目立ち難い態様で表示される。加えて、第二物体の検出の確信度は、画像透過領域に規定された透過率で視認者に直感的に示される。以上によれば、確信度の低い早期の段階にて第二物体が誤表示されても、視認者は、この誤表示に煩わしさを感じ難くなる。したがって、映像の煩わしさを抑えつつ、奥側に存在する第二物体の早期の報知が可能となる。
尚、上記括弧内の参照番号は、後述する実施形態における具体的な構成との対応関係の一例を示すものにすぎず、技術的範囲を何ら制限するものではない。
車両に搭載された電気的な構成の全体像を示すブロック図である。 車両に搭載された外界センサ等の配置を示す自車両の平面図である。 画像透過領域が周辺確認映像に設定されるシーンの一例を示す図である。 図3に示すシーンでの撮像画像を示す図である。 図3に示すシーンにて表示画面に表示される周辺確認映像を示す図である。 死角物体の種類が判別困難な段階での周辺確認映像を示す図である。 映像生成処理の詳細を示すフローチャートである。 透過率制御処理の詳細を示すフローチャートである。 追跡物体が遮蔽物の死角に入るシーンの一例を示す図である。 図9に示すシーンにて実施される追跡表示処理の詳細を示すフローチャートである。 第二実施形態による映像生成処理の詳細を示すフローチャートである。
以下、本開示の複数の実施形態を図面に基づいて説明する。尚、各実施形態において対応する構成要素には同一の符号を付すことにより、重複する説明を省略する場合がある。各実施形態において構成の一部分のみを説明している場合、当該構成の他の部分については、先行して説明した他の実施形態の構成を適用することができる。また、各実施形態の説明において明示している構成の組み合わせばかりではなく、特に組み合わせに支障が生じなければ、明示していなくても複数の実施形態の構成同士を部分的に組み合わせることができる。そして、複数の実施形態及び変形例に記述された構成同士の明示されていない組み合わせも、以下の説明によって開示されているものとする。
(第一実施形態)
図1に示す本開示の第一実施形態による映像出力装置100は、ディスプレイ30と共に車両Aに搭載された電子制御ユニットである。映像出力装置100は、車両Aの周辺の映像をディスプレイ30に表示させる。車両Aの運転者等の乗員(以下「視認者」)は、ディスプレイ30の映像の視認により、車両Aの周辺の状態を確認可能である。映像出力装置100は、ディスプレイ30に加えて、図1及び図2に示す前方カメラ21及び検出部22等の外界センサ、車速センサ26及び加速度センサ27、並びにGNSS受信器28及び地図データベース29等と直接的又は間接的に電気接続されている。
ディスプレイ30は、例えば液晶ディスプレイ、有機ELディスプレイ及びプラズマディスプレイ等である。ディスプレイ30は、表示画面31を有している。ディスプレイ30は、運転席に着座した視認者から表示画面31が視認可能となるよう、表示画面31を運転席に向けた姿勢でインスツルメントパネル等に収容されている。ディスプレイ30は、映像出力装置100から入力される映像信号に基づいて、種々の画像を表示画面31にフルカラー表示可能である。尚、表示画面31を有するディスプレイ30に替えて、ウインドシールドへの光の投影によって虚像を表示するヘッドアップディスプレイが設けられていてもよい。
前方カメラ21は、例えば車両Aの室内にて、バックミラー近傍に設置されている。前方カメラ21は、単眼式又は複眼式の撮像装置であって、車両の進行方向(前方)に向けられている。前方カメラ21の映像取得領域IAは、車両Aの周辺のうちで特に前方領域に設定されている。前方カメラ21は、映像取得領域IAを連続的に撮影し、映像取得領域IAに存在する移動物体及び静止物体を写した一連の撮像画像71(図4参照)を生成する。前方カメラ21は、映像データである一連の撮像画像71を、映像出力装置100に逐次出力する。
検出部22は、車両Aの周辺に存在する移動物体及び静止物体を検出し、これら検出物体の相対位置を計測する。検出部22は、各物体検知領域SAf,SAr,SAsの探索を所定の周期で繰り返し、検出物体の位置及び方向を示す検出情報を、映像出力装置100へ向けて逐次出力する。各物体検知領域SAf,SAr,SALは、車両Aの全周を概ね包含している。検出部22には、例えばレーダ23、ライダ24及びソナー25等が含まれている。
レーダ23は、車両Aに複数搭載されている。レーダ23は、一例として、車両Aの前後縁の各中央部及び各左右の端部にそれぞれ一つずつ設置されている。車両Aの前縁に設置された三つのレーダ23は、前方カメラ21よりも車両Aの進行方向に位置している。前縁の中央部に位置するレーダ23は、車両Aの進行方向に規定された物体検知領域SAfへ向けて、ミリ波を送信アンテナから放出する。レーダ23は、物体検知領域SAfに存在する移動物体及び静止物体等で反射されたミリ波を受信アンテナによって受信する。同様に、前縁の左右端に位置する各レーダ23は、右前方及び左前方に規定された各物体検知領域SAsへ向けてミリ波を放出し、各物体検知領域SAsの物体にて反射されたミリ波を受信する。各レーダ23は、各物体検知領域SAf,SAr,SALの探索を例えば50〜100ミリ秒の周期で繰り返し、受信信号に基づく走査結果を検出情報として映像出力装置100に逐次出力する。
ライダ24は、例えば車両Aの四隅のレーダ23に替えて、車両Aの前後縁の各左右の端部にそれぞれ一つずつ設置可能である。ライダ24は、車両Aの周辺へ向けてレーザ光を照射し、照射方向に存在する移動物体及び静止物体等で反射されたレーザ光を受光する。ライダ24は、受光したレーザ光に基づく走査結果を検出情報として映像出力装置100に逐次出力する。
ソナー25は、例えば車両Aの前後のバンパーにおいて、各中央部及び各左右端にそれぞれ一つずつ設けられている。ソナー25は、車両Aの周辺へ向けて超音波を射出し、射出方向に存在する移動物体及び静止物体等で反射された反射波を受信する。ソナー25は、受信した反射波に基づく計測結果を検出情報として映像出力装置100に逐次出力する。
ここで、検出部22の構成は、適宜変更可能である。例えば、ソナー25は、省略されてもよい。さらに、レーダ23等のセンサの搭載位置及び合計数は、適宜変更されてよい。レーダ23のミリ波変調方式には、FCM(Fast Chirp Modulation),2F(2 Freq.)CW,FMCW(Frequency Modulated Continuous Wave)及びこれらの組み合わせ等が採用可能である。ミリ波の方位を展開するアルゴリズムには、DBF(Digital Beam Forming)法,Capon法及びMUSIC(Multiple Signal Classification)法等が採用可能である。
車速センサ26は、車両Aの現在の走行速度を計測する。加速度センサ27は、車両Aの前後方向及び左右方向について、現在の加速度を計測する。車速センサ26及び加速度センサ27による計測結果は、車両Aの移動状態を示す状態情報として、映像出力装置100等に逐次出力される。
GNSS(Global Navigation Satellite System)受信器28は、複数の測位衛星からの測位信号を受信する。GNSS受信器28は、受信した測位信号に基づいて車両Aの現在位置を測位し、車両Aの位置情報を取得する。GNSS受信器28は、取得した位置情報を映像出力装置100へ向けて逐次出力する。尚、GNSS受信器28は、GPS、GLONASS、Galileo、IRNSS、QZSS、Beidou等の衛星測位システムのうちで、少なくとも一つの衛星測位システムの各測位衛星から、測位信号を受信可能である。
地図データベース(以下、「地図DB」)29は、多数の地図データを格納した大容量の記憶媒体を主体とした構成である。地図データには、道路及び構造物についての形状情報等が含まれている。地図データベース29は、映像出力装置100からの要求に応じて、車両Aの周辺及び進行方向の地図データを映像出力装置100に提供する。
映像出力装置100は、車両Aの前方領域の映像(以下、「周辺確認映像」)70を生成し、ディスプレイ30に出力する。映像出力装置100は、前方カメラ21にて撮影された撮像画像71(図4参照)を加工し、周辺確認映像70(図5参照)を生成する。例えば図3に示すシーンでは、車両Aと他車両との間には、遮蔽物S1が存在している。そのため、車両Aから見て遮蔽物S1の奥側に位置する他車両は、手前側に位置する遮蔽物S1の死角となる範囲(図3のドット範囲)に存在する死角物体V1となる。こうした死角物体V1が存在している場合、物体画像74、ベクトル画像75及び背景画像76を撮像画像71に重畳させる画像処理により、周辺確認映像70が生成される。
詳記すると、図5に示すように、撮像画像71に写る遮蔽物S1の画像(以下、「遮蔽物画像」)72の一部には、半透明とされる画像透過領域73が設定される。一方、物体画像74は、死角物体V1(図3参照)である他車両を示す画像である。ベクトル画像75は、移動する検出物体の移動方向等を示す矢印状の画像である。背景画像76は、死角物体V1の背景を再現した画像である。これらの各画像74〜76を撮像画像71に合成してなる周辺確認映像70は、遮蔽物S1によって遮蔽され、車両Aの運転者からは見えないはずの死角物体V1を、遮蔽物S1の奥側に確認可能な映像となる。尚、以下の説明では、図1に示す映像出力装置100を搭載した車両Aを、死角物体V1である他車両との区別のために、「自車両A」と記載する。
図1に示す映像出力装置100の制御回路は、演算部41、記憶部42及びRAM43等を有するコンピュータを主体に構成されている。演算部41は、CPU(Central Processing Unit)、GPU(Graphics Processing Unit)及びFPGA(Field-Programmable Gate Array)等の少なくとも一つを含む構成である。演算部41は、種々の演算処理を実行する。記憶部42は、不揮発性の記憶媒体を含む構成である。記憶部42には、映像生成プログラムを含む種々のプログラムが演算部41によって読み取り可能に格納されている。RAM(Random Access Memory)43は、揮発性の半導体メモリである。RAM43は、演算部41による演算処理の作業領域として機能する。
映像出力装置100は、記憶部42に格納された映像生成プログラムを演算部41によって実行することで、複数の機能ブロックを構築する。具体的に、映像出力装置100には、周辺確認映像70(図5参照)の生成に必要な情報を取得する機能ブロックとして、画像取得部51、検出情報取得部53、自車情報取得部55及び地図情報取得部57等が構築される。加えて映像出力装置100には、取得した情報を処理する機能ブロックとして、確信度判定部61、位置算出部62、重なり判定部63、物体追跡部64、物体判別部65、接近判定部66及び移動推定部68等が構築される。さらに、映像出力装置100には、周辺確認映像70を生成する機能ブロックとして画像処理部40等が構築される。
画像取得部51は、前方カメラ21にて撮影された映像取得領域IA(図2参照)の撮像画像71を取得する。検出情報取得部53は、レーダ23等の検出部22にて検出された各物体検知領域SAf,SAr,SALに存在する物体の検出情報を取得する。尚、検出部22にて検出される検出物体のうちで、遮蔽物S1(図3参照)の死角に存在して撮像画像71に写らない物体が死角物体V1(図3参照)である。
自車情報取得部55は、自車両Aの移動状態を示す状態情報として、速度及び加速度等の情報を、車速センサ26及び加速度センサ27から取得する。地図情報取得部57は、GNSS受信器28から自車両Aの現在の位置情報を取得する。加えて地図情報取得部57は、位置情報の推移から、自車両Aの移動方向を推定する。地図情報取得部57は、位置情報等に基づき、映像取得領域IA及び物体検知領域SAf,SAs(図2参照)等を含む自車両Aの前方領域の地図データを取得する。
確信度判定部61は、検出情報取得部53にて取得される検出情報に基づき、検出物体の検出の確信度を判定する。確信度判定部61は、物体検知領域SAf,SAs等に存在する物体について、レーダ23の探索による所定時間での検出回数nが所定の閾値を超えた場合に、当該物体が存在しているという存在確定判定を行う。確信度判定部61は、こうした存在確定判定の場合と同様に、所定時間における物体の検出回数nに基づき、レーダ23から提供される検出情報の確信度を判定する。確信度判定部61は、同一物体についての所定時間での検出回数nが増えるに従って、この物体の検出の確信度を高く判定する(図8 S122参照)。
位置算出部62は、検出情報取得部53にて取得される検出情報、特に検出物体についての位置情報に基づき、撮像画像71(図4参照)での個々の検出物体の位置を算出する。例えば、検出部22にて死角物体V1(図3参照)が検出されている場合、位置算出部62は、死角物体V1の位置情報に基づき、撮像画像71には撮影されていない死角物体V1の画像中での仮想位置及び仮想画像サイズを算出する。
詳記すると、前方カメラ21及び各レーダ23は、設計時に規定された自車両Aの所定位置に搭載されている。故に、検出物体の位置情報とその位置情報を検出したレーダ23を示す情報に基づき、検出物体が撮像画像71に写り込む位置は、一義的に決定される。さらに、検出物体の大きさを示す情報と位置情報とに基づき、検出物体が撮像画像71に写り込んだ場合の画像サイズも、一義的に決定される。故に、位置算出部62は、検出物体の検出情報を用いて、画像中にて検出物体の写る位置及び大きさを、幾何演算によって算出できる。
重なり判定部63は、位置算出部62の算出結果に基づき、撮像画像71における物体同士の重なりの有無を判定する。図3に示すシーンにて、自車両Aの前縁且つ右端部のレーダ23は、遮蔽物S1の検出情報だけでなく、他車両(死角物体V1)の検出情報も取得可能である。一方で、このシーンでの撮像画像71(図4参照)には、遮蔽物S1が撮影されるのみで、他車両は、撮影されない。以上のシーンにおける遮蔽物S1及び他車両のように、図1に示す重なり判定部63は、位置算出部62の算出結果を用いて、撮像画像71において検出物体同士の重なりが生じているか否かを判定する。
物体追跡部64は、検出情報取得部53にて逐次取得される検出情報に基づき、移動する検出物体を追跡する。物体追跡部64は、追跡している検出物体(以下、「追跡物体V2」,図9参照)について、移動方向及び移動速度を算出する。物体追跡部64は、追跡物体の追跡結果に基づき、追跡物体の将来の移動経路を推定する。一例として、現在の移動方向及び移動速度が維持されたと仮定した場合に追跡物体V2が辿る軌跡を、物体追跡部64は、追跡物体V2の将来の移動経路とする。
物体判別部65は、検出情報取得部53にて取得される検出情報に基づき、検出物体の種類を判別する。物体判別部65は、検出情報から推定される検出物体の大まかな形状、移動速度及びミリ波の反射強度等報の計測結果に基づき、予め設定された複数種類の中から、妥当性の高い一つを検出物体の種類として推定する。物体判別部65には、検出物体の種類として、例えば大型車、乗用車、二輪車、サイクリスト及び歩行者等が予め設定されている。尚、検出の確定度が低い場合等では、検出情報から検出物体の種類を推定することが困難となる。この場合、物体判別部65は、検出物体の種類を「不明」と判別する。
接近判定部66は、物体追跡部64の追跡結果に基づき、追跡物体V2(図9参照)が自車両Aに接近しているか否かを判定する。さらに接近判定部66は、物体追跡部64にて推定された追跡物体V2の移動経路、及び移動推定部68にて推定された自車両Aの移動経路を取得する。接近判定部66は、追跡物体V2と自車両Aの各移動経路を比較し、これら移動経路が交差するか否かの判定に基づき、追跡物体V2のリスクレベルを設定する。自車両Aに過度に接近する可能性が高いほど、接近判定部66は、追跡物体V2に対して高いリスクレベルを設定する。
移動推定部68は、自車情報取得部55にて取得された自車両Aの移動状態を示す状態情報に基づき、自車両Aの将来の移動経路を推定する。接近判定部66にて推定された移動経路は、上述したように接近判定部66に提供される。移動推定部68は、現在の移動方向及び移動速度が維持されたと仮定した場合に自車両Aが辿る軌跡を、移動推定部68は、自車両Aの将来の移動経路とする。
画像処理部40は、周辺確認映像70を構成する各フレームの画像を生成し、周辺確認映像70の映像信号をディスプレイ30へ向けてリアルタイムに出力する。画像処理部40は、重なり判定部63にて検出物体同士が撮像画像71内で重なっていると判定された場合(図3参照)に、死角物体V1の仮想位置及び仮想画像サイズを位置算出部62から取得する。画像処理部40は、死角物体V1の仮想画像サイズよりも一回り程度大きくなるよう、画像透過領域73の大きさを設定する。そして画像処理部40は、死角物体V1の仮想位置を基準として、遮蔽物画像72(図4参照)の少なくとも一部の範囲に画像透過領域73を設定する。さらに画像処理部40は、確信度判定部61にて判定された確信度に基づき、画像透過領域73の透過率を規定する。
画像処理部40は、検出物体同士が重なっている場合、上述した物体画像74、ベクトル画像75及び背景画像76等を描画する。これらの画像74〜76の基となる画像データは、画像データベース(以下「画像DB」)69に予め格納されている。画像処理部40は、死角物体V1に関連した上記の情報に基づき、必要な画像データを画像DB69から読み出し、変形及び着色等の処理を行うことで各画像74〜76を描画する。
具体的に、画像処理部40は、物体判別部65の判別結果に対応した物体画像74を生成する。例えば、判別結果が乗用車を示す場合、画像処理部40は、乗用車の画像データを画像DB69から読み出す。同様に、判定結果が歩行者を示す場合、画像処理部40は、歩行者の画像データを画像DB69から読み出す。画像処理部40は、読み出した画像データを仮想画像サイズまで拡大又は縮小し、仮想位置を基準として、画像透過領域73に重畳する。尚、物体判別部65にて検出物体の種類が「不明」と判別されている場合、画像処理部40は、検出物体の外観形状を示す物体画像74に替えて、抽象化された形状の物体画像74(図6参照)を画像透過領域73に重畳する。
画像処理部40は、物体追跡部64にて算出される追跡物体V2(図9参照)の移動状態に応じて、ベクトル画像75の態様を変化させる。ベクトル画像75の向きは、追跡物体V2の移動方向に基づき設定され、追跡物体V2が撮像画像71に写った場合の撮像画像71内での移動方向を示すように設定される。ベクトル画像75の長さは、追跡物体V2の移動速度に基づき設定され、移動速度が速くなるに従って長くされる。一例として、ベクトル画像75の長さは、移動速度に比例した長さで表示される。ベクトル画像75の太さ及び表示色は、接近判定部66にて判定されるリスクレベルに応じて変更される。リスクレベルが高い検出物体ほど、ベクトル画像75は太くされる。リスクレベルが高い検出物体ほど、ベクトル画像75の表示色は、例えば黄色等の報知色から赤色等の誘目性の高い警告色に変更される。尚、ベクトル画像75は、物体画像74の近傍だけでなく、撮像画像71に写る他車両の画像78(図5参照)等の近傍にも重畳表示されてよい。
画像処理部40は、撮像画像71、検出情報、及び地図データ等を用いて、遮蔽物S1に遮蔽された領域であって、死角物体V1の背景となる領域の様子を推定する。例えば画像処理部40は、撮像画像71に写る車道の境界線を画像透過領域73内まで延長し、背景画像76としての道路の境界線を描画する。さらに、検出部22によって死角範囲にガードレールが検出されている場合、画像処理部40は、撮像画像71に写るガードレールの画像パターンを画像透過領域73内まで延長する画像処理により、ガードレールを含む背景画像76を生成する。また、検出部22によって死角範囲に駐車車両が検出されている場合、画像処理部40は、画像DB69から読み出した車両の画像データを加工して、駐車車両を含む背景画像76を生成する。さらに画像処理部40は、死角範囲の道路形状や構造物の形状が地図データから取得される場合、これらの情報を用いて、正しい道路及び構造物を含む背景画像76を生成できる。以上のように生成した背景画像76を、画像処理部40は、画像透過領域73及び物体画像74の奥側に重畳する。
以上の画像処理部40は、接近判定部66の接近判定又は交差判定に基づき、報知する検出物体を選別可能である。一例として、画像処理部40は、死角物体V1が自車両Aに接近している場合に限り、遮蔽物画像72に画像透過領域73を設定し、物体画像74による死角物体V1の注意喚起を実施する。或いは画像処理部40は、死角物体V1の移動経路が自車両Aの移動経路と交差している場合に限り、遮蔽物画像72に画像透過領域73を設定し、物体画像74による死角物体V1の注意喚起を実施する。
ここまで説明した画像処理部40は、死角物体V1の検出の確信度が高くなるに従って、画像透過領域73に規定する透過率を高く変化させる。以下、画像透過領域73を含んだ周辺確認映像70を生成する映像生成処理と、画像透過領域73の透過率を制御する透過率制御処理とを、図7及び図8に基づき、図1及び図5を参照しつつ説明する。映像生成処理及び透過率制御処理は、周辺確認映像70の表示機能が自動的に又は視認者によってオン状態とされたことに基づき、周辺確認映像70によって繰り返し実施される。
図7に示す映像生成処理のS101では、前方カメラ21にて撮影された撮像画像71を取得し、S102に進む。S102では、検出部22にて検出された検出物体の検出情報を取得し、S103に進む。S103では、車速センサ26及びGNSS受信器28から、自車両Aの移動状態を示す移動情報を取得する。加えてS103では、自車両Aの位置情報等に基づき、移動情報を参照しつつ、撮像画像71に写る映像取得領域IAを少なくとも含む範囲の地図データを地図DB29から取得し、S104に進む。S104では、S102にて取得した検出情報の信号処理とS101にて習得した撮像画像71の認識処理とを実施し、S105に進む。
S105では、S102にて取得した検出情報に基づいて、検出物体(例えば、他車両等)の種類を判別する。加えてS105では、継続的に取得される検出情報に基づき、個々の検出物体の追跡処理を行う。そして、検出物体の追跡結果に基づき、各検出物体の移動方向及び移動速度等の移動状態を算出し、これら検出物体の将来の移動経路をさらに推定して、S106に進む。
S106では、S103にて取得した自車両Aの状態情報に基づき、自車両Aの将来の移動経路を推定し、S107に進む。S107では、S105にて推定した追跡結果に基づく各検出物体の移動経路と、S106にて推定した自車両Aの移動経路との比較に基づき、各検出物体が自車両Aに接近しているか否かを判定する。S106にて、全ての検出物体が自車両Aに接近していないと判定した場合、映像生成処理を一旦終了する。一方で、S107にて、自車両Aに接近している検出物体があると判定した場合、S108に進む。この場合、撮像画像71がそのまま周辺確認映像70として、表示画面31に表示される。
ここで、S107では、自車両Aの将来の移動経路と検出物体の将来の移動経路とが交差しているか否かを判定する処理が、上記の接近判定に替えて実施可能である。こうした交差判定では、全ての検出物体の移動経路と自車両Aの移動経路とが交差していないと判定した場合に、映像生成処理を一旦終了する。一方で、自車両Aの将来の移動経路と交差する検出物体があると判定した場合、S108に進む。
S108では、S102にて取得した検出情報に基づき、自車両Aに接近する検出物体又は自車両Aと移動経路の交差可能性がある検出物体について、撮像画像71での仮想画像サイズ及び仮想位置を算出し、S109に進む。S109では、S108の算出結果に基づき、撮像画像71における検出物体同士の重なりの有無を判定する。S109にて、検出物体同士が重なっていないと判定した場合、映像生成処理を一旦終了する。この場合も、撮像画像71がそのまま周辺確認映像70として、表示画面31に表示される。一方、S109にて、検出物体同士が重なっていると判定した場合、S110に進む。
S110では、手前側に存在する検出物体(例えば遮蔽物S1)を写す遮蔽物画像72の少なくとも一部に画像透過領域73を設定する。さらに、後述する透過率制御処理にて規定された透過率で画像透過領域73を透過させ、S111に進む。S111では、S105での種類の判別結果等に基づいて物体画像74を生成し、撮像画像71に重畳してS112に進む。
S112では、S105にて算出した検出物体の移動状態に基づいてベクトル画像75を生成し、撮像画像71に重畳してS113に進む。S113では、S103にて取得した地図データ、S114での信号処理及び認識処理の結果等に基づいて背景画像76を生成し、撮像画像71に重畳して映像生成処理を一旦終了する。以上のS110〜S113の処理により、撮像画像71を加工した周辺確認映像70が生成され、表示画面31に表示される。
図8に示す透過率制御処理では、検出物体の検出回数nに基づく確信度を用いて、画像透過領域73の透過率を設定する。透過率制御処理のS121では、映像生成処理のS102(図7参照)にて取得する検出情報に基づく物体検出処理を実施し、S122に進む。S121では、映像生成処理のS104(図7参照)の信号処理の結果をそのまま引用する処理を実施してもよい。
S122では、S121での検出処理にて個々の検出物体が検出された検出回数nを算出し、さらに確信度を判定して、S123に進む。S123では、S122にて算出した検出回数nが、所定の回数閾値Nを超えているか否かを判定する。S123にて、検出回数nが回数閾値Nを超えていると判定した場合、S124に進む。
S124では、映像生成処理のS110(図8参照)にて規定される画像透過領域73の透過率を、所定の最大値p(例えば90%程度)に設定し、透過率制御処理を一旦終了する。一方、S123にて、検出回数nが回数閾値N以下であると判定した場合、S125に進む。
S125では、画像透過領域73の透過率を所定の算出式{n/(N+1)}×pに基づき設定し、透過率制御処理を一旦終了する。S125による設定によれば、透過率は、検出回数nの増加、即ち確信度の上昇に伴って最大値pとなるまで漸増する。
以上の説明では、前方カメラ21及び検出部22のうちで検出部22のみが検出物体を検出していた場合に、周辺確認映像70に画像透過領域73を設定するシーンを説明した。こうしたシーンだけでなく、画像処理部40は、前方カメラ21及び検出部22の両方が検出物体を検出できていないシーンでも、検出部22の過去の検出履歴を利用して、画像透過領域73を含む周辺確認映像70を生成する。以下、このようなシーンの詳細を、図9及び図10に基づき説明する。
図9に示す交差点のシーンでは、時刻t1(破線参照)にて、自車両Aの検出部22は、他車両(以下、「追跡物体V2」)を検出可能である。故に、自車両Aの物体追跡部64(図1参照)は、追跡物体V2を追跡した状態となる。しかし、自車両Aが交差点に接近する時刻t1から時刻t2の期間にて、自車両Aと追跡物体V2である他車両との間の遮蔽物S2により遮られて、自車両Aの検出部22は、追跡物体V2の検出を継続できなくなる。その結果、追跡物体V2を示す検出情報が消失する。
こうしたシーンでは、物体追跡部64により、追跡の履歴から推定される追跡物体V2の現在位置が推定される。そして、推定された追跡物体V2の現在位置に、透過率を規定する画像透過領域73が設けられ、遮蔽物S2の奥側に存在する追跡物体V2を確認可能な周辺確認映像70が生成される。
以下、追跡物体V2の検出情報が消失した場合にて、画像透過領域73を含む周辺確認映像70を生成する追跡表示処理の詳細を、図10に基づき、図1,図5及び図9を参照しつつ説明する。図10に示す追跡表示処理は、映像生成処理(図8参照)と同様に、周辺確認映像70の表示機能がオン状態とされたことに基づき、映像出力装置100によって繰り返し実施される。
S141では、映像生成処理のS102(図7参照)にて取得する検出情報に基づく物体検出処理を実施し、S142に進む。S141では、映像生成処理のS104(図7参照)の信号処理の結果をそのまま引用する処理を実施してもよい。
S142では、S141にて繰り返す検出処理にて、過去のN周期のうちに追跡物体V2が存在したか否かを判定する。S142にて、過去のN周期に追跡物体V2が存在していないと判定した場合、追跡表示処理を一旦終了する。この場合、撮像画像71がそのまま周辺確認映像70として表示画面31に表示される。
一方、S142にて、過去のN周期に追跡物体V2が存在していたと判定した場合、S143に進む。S143では、過去のS141にて検出した物***置の過去情報に基づき、現在の物***置を推定する。そして、追跡物体V2の撮像画像71での仮想位置及び仮想画像サイズを算出し、S144に進む。
S144では、画像透過領域73の透過率を規定し、物体画像74及び背景画像76を画像透過領域73に重畳表示する。透過率は、所定の算出式(1−k/(N+1))×pによって算出される。この算出式におけるkは、一回の追跡表示処理毎に一つずつ増加するカウンタの値である。またこの数式におけるNは、S142の判定に用いられる周期の閾値であって、予め設定された数値である。以上により、画像透過領域73の透過率は、追跡物体V2の検出情報の消失後における経過時間が長くなるに従って徐々に低下する。その結果、追跡物体V2を報知する物体画像74は、追跡物体V2が遮蔽物S2の死角に入った後、周辺確認映像70から徐々に消えていく。
ここまで説明した第一実施形態では、死角物体V1の検出の確信度が低い場合でも、周辺確認映像70では、手前側に存在する遮蔽物S1を写した遮蔽物画像72に、透過率を規定される画像透過領域73が設定される。故に、周辺確認映像70は、遮蔽物S1よりも奥側に存在する死角物体V1を確認可能な状態となる。このように確信度の低い段階では、画像透過領域73の透過率が低く規定され、死角物体V1を示す物体画像74は、目立ち難い態様で表示される。加えて、死角物体V1の検出の確信度は、画像透過領域73に規定された透過率で視認者に直感的に示される。以上によれば、確信度の低い早期の段階にて死角物体V1を示す物体画像74が誤表示されても、視認者は、この誤表示に煩わしさを感じ難くなる。したがって、周辺確認映像70の煩わしさを抑えつつ、遮蔽物S1の奥側に存在する死角物体V1の早期の報知が可能となる。
加えて第一実施形態のように、レーダ23等を検出部22として用いれば、遮蔽物S1の死角範囲に存在する死角物体V1についても、正確性の高い位置情報が取得可能となる。その結果、撮像画像71にて死角物体V1を示す物体画像74の重畳位置が正確に算出され得る。以上によれば、映像出力装置100は、撮像画像71の適切な範囲に画像透過領域73及び物体画像74を配置して、死角物体V1の位置を正確に視認者に提示できる。
また第一実施形態における確信度は、検出物体の検出回数nが増えるに従って高く判定される。こうした確信度の判定手法によれば、金属製の看板やガードレール等の物体(以下、「ノイズ源」)が死角物体V1の近傍に存在していても、ノイズ源による確信度への影響が低く抑制され得る。以上によれば、死角物体V1である他車両の自車両Aへの接近に伴い、周辺確認映像70は、画像透過領域73の透過率を円滑に漸増させ、他車両の接近を視認者に分かり易く報知できる。
さらに第一実施形態では、検出物体(追跡物体V2)の移動方向を示すベクトル画像75が周辺確認映像70に表示される。このように個々の検出物体の移動方向がベクトル画像75によって提示されれば、視認者は、周辺確認映像70を視認してすぐに、これらの動きを把握し得る。その結果、視認者は、自車両Aの周辺の物体を避けるための運転行動を早急に選択し易くなる。
また第一実施形態では、各検出物体の移動状態に応じてベクトル画像75の態様が変更される。こうして各検出物体の移動状態が視認者に明示されれば、視認者は、周辺確認映像70から他車両等の動きを素早く把握でき、他車両を回避する行動を予め想定できるようになる。
さらに第一実施形態では、追跡物体V2の追跡が遮蔽物S2によって継続困難になった場合でも、遮蔽物S2の遮蔽物画像72に画像透過領域73を設定し、遮蔽物S2の奥側に存在する追跡物体V2を確認可能な周辺確認映像70が表示される。以上によれば、周辺確認映像70によって遮蔽物S2に隠れたリスク対象を報知可能なシーンをさらに増やすことができる。
加えて第一実施形態では、追跡物体V2の検出情報が消失した後、周辺確認映像70における画像透過領域73の透過率は、漸減していく。このように、追跡物体V2を報知する物体画像74を徐々に消失させる映像表示によれば、遮蔽物S2の死角範囲にて、追跡物体V2が居なくなった場合にも、視認者の違和感を低減させることができる。
また第一実施形態では、接近判定の実施により、死角物体V1が自車両Aに接近している場合に限り、周辺確認映像70による死角物体V1の注意喚起が実施され得る。故に、遮蔽物S1に遮られて直接的に視認できないものの、自車両Aに対しリスクとはなり難い死角物体V1は、視認者への注意喚起の対象から除外され得る。以上のように、報知対象とする死角物体V1が選別される処理によれば、周辺確認映像70の煩わしさは、いっそう低減可能となる。
さらに第一実施形態では、交差判定の実施により、自車両Aの将来の移動経路と死角物体V1の将来の移動経路とが交差する場合に限り、周辺確認映像70による死角物体V1の注意喚起が実施され得る。こうした死角物体V1の選別処理によっても、自車両Aに対しリスクとはなり難い死角物体V1が、注意喚起の対象から除外され得る。その結果、周辺確認映像70の煩わしさは、いっそう低減可能となる。
加えて第一実施形態では、死角物体V1の種類を判別した判別結果に基づき、死角物体V1を示す物体画像74が選択される。こうした描画処理によれば、死角物体が前方カメラ21によって捕えられていなくても、周辺確認映像70は、リアリティを確保された擬似的な透過映像により、死角物体V1の存在を視認者に提示できる。
また第一実施形態では、死角物体V1の検出の確信度が低く、死角物体V1の種類が判別できない状態では、映像出力装置100は、形状を抽象化した物体画像74(図6参照)を表示させる。こうした描画処理によれば、死角物体V1を示す物体画像74は、低く維持された透過率と相俟って、誘目性の低い曖昧な状態で表示される。そのため、確信度の低い段階で死角物体V1の種類が誤って判別され、周辺確認映像70を見た視認者が違和感を覚える事態は、防止され得る。
さらに第一実施形態では、前方カメラ21及び検出部22によってリアルタイムに取得される情報を用いて、画像透過領域73に嵌め込まれる背景画像76が生成される。このように、随時取得される現在の情報から背景画像76を生成すれば、死角物体V1と同様にその背景が前方カメラ21によって撮影できなくても、画像透過領域73に映し出される擬似的な透過映像のリアリティは、高く維持される。
また第一実施形態の画像処理部40は、背景画像76の生成に地図データを用いることが可能である。故に、画像処理部40は、遮蔽物S1の死角となっている範囲について、正確性の確保された道路形状や構造物等の情報を盛り込み、背景画像76を生成し得る。以上によれば、画像透過領域73に映し出される擬似的な透過映像のリアリティは、さらに高く維持される。
尚、第一実施形態では、前方カメラ21が「撮像部」に相当し、ディスプレイ30が「表示装置」に相当し、周辺確認映像70が「映像」に相当する。また、遮蔽物S1,S2が「第一物体」及び「遮蔽物体」に相当し、死角物体V1が「第二物体」に相当する。
(第二実施形態)
図11に示す第二実施形態では、第一実施形態の変形例である。図11に示す映像生成処理では、地図情報及び自車両Aの状態情報を取得する処理(図7 S104参照)と、検出物体を選別する処理(図7 S106,S107参照)とが、省略されている。即ち、第二実施形態にてS201及びS202とS203及びS204は、それぞれ第一実施形態のS101及びS102とS104及びS105に相当し、S205〜S211は、S108〜S113に相当する。加えて、S211では、地図データを用いずに、背景画像76が生成される。以上のような第二実施形態でも、図5に示すような周辺確認映像70が表示可能であり、周辺確認映像70の煩わしさを抑えつつ、遮蔽物S1の奥側に存在する死角物体V1の早期の報知が可能となる。
(他の実施形態)
以上、本開示の複数の実施形態について説明したが、本開示は、上記実施形態に限定して解釈されるものではなく、本開示の要旨を逸脱しない範囲内において種々の実施形態及び組み合わせに適用することができる。
上記実施形態の変形例1の確信度判定部61は、検出部22にて検出される検出物体の検出回数nに替えて、検出部22にて検出される検出物体(死角物体V1)までの距離に基づき、確信度を判定する。具体的に、確信度判定部61は、自車両Aから死角物体V1までの距離が近いほど、確信度を高く判定する。こうした判定手法によれば、遮蔽物S1の死角範囲に存在する死角物体V1が自車両Aに接近するに従って、周辺確認映像70における画像透過領域73の透過率が次第に高くなる。こうした周辺確認映像70によれば、死角物体V1の報知の確実性を高めることが可能になる。
上記実施形態の変形例2の確信度判定部61は、第一実施形態と同様に、検出物体の検出回数nの増加に対して、確信度(透過率)を上昇させる。加えて変形例2では、検出回数nの増加に対する確信度(透過率)の上昇割合が、死角物体V1までの距離に応じて変更され、具体的には、検出部22にて検出される死角物体V1までの距離の減少に伴って、大きな値に変更される。詳記すると、確信度判定部61は、自車両Aから死角物体V1までの物体間距離が接近閾値未満となった状態で、検出回数nの増加に対する確信度(透過率)の上昇割合を、物体間距離が接近閾値以上である場合と比較して、大きな値に切り替える。
以上によれば、死角物体V1が遠方にあって検出の確実性を担保できない段階では、画像透過領域73の透過率は、透過映像が視認者に煩わしく感じられ難いように徐々に高められる。一方で、死角物体V1の接近によって検出の確実性が確保された段階では、画像透過領域73の透過率は、急速に上昇する。以上によれば、周辺確認映像70による死角物体V1の報知の確実性が、高く確保され得る。
上記実施形態では、検出部として、レーダ、ライダ及びソナー等を例示した。しかし、検出部は、例えば前方カメラ以外の車載カメラであってもよい。さらに、検出部は、自車両の外部で検出された情報を、無線通信等によって取得する通信部等であってもよい。
上記実施形態では、前進中の車両にて前方領域の周辺確認映像70を表示する例が示されていた。しかし、周辺確認映像は、後退中の車両にて、バックモニタの映像中の遮蔽物画像に画像透過領域を設定した周辺確認映像を、ディスプレイに表示させてもよい。
上記実施形態の周辺確認映像では、画像透過領域に背景画像がさらに重畳されていた。加えて、画像透過領域の近傍には、ベクトル画像が重畳されていた。こうした背景画像及びベクトル画像は、省略されていてもよい。又は、背景画像及びベクトル画像の表示及び非表示は、視認者によって切り替え可能であってもよい。
上記実施形態において、映像出力装置によって提供されていた機能は、上述のものとは異なるハードウェア及びソフトウェア、或いはこれらの組み合わせによっても提供可能である。さらに、映像生成プログラムを格納する記憶部には、種々の非遷移的実体的記憶媒体(non-transitory tangible storage medium)が採用可能である。こうした非遷移的実体的記憶媒体は、フラッシュメモリ、ハードディスク及び光学ディスク等の種々の不揮発性の記憶媒体であってもよく、又はRAM等の揮発性の記憶媒体であってもよい。また上記の記憶媒体は、HCU等の制御装置に設けられた記憶部に限定されず、当該記憶部へのコピー元となる光学ディスク及び汎用コンピュータのハードディスクドライブ等であってもよい。
A 自車両(車両)、21 前方カメラ(撮像部)、22 検出部、23 レーダ、24 ライダ、25 ソナー、30 ディスプレイ(表示装置)、40 画像処理部、41 演算部、51 画像取得部、53 検出情報取得部、57 地図情報取得部、61 確信度判定部、62 位置算出部、63 重なり判定部、64 物体追跡部、65 物体判別部、66 接近判定部、68 移動推定部、70 周辺確認映像(映像)、71 撮像画像、73 画像透過領域、74 物体画像、75 ベクトル画像、76 背景画像、100 映像出力装置、S1,S2 遮蔽物(第一物体,遮蔽物体)、V1 死角物体(第二物体)、V2 追跡物体

Claims (16)

  1. 車両(A)の周辺を撮影する撮像部(21)及び前記撮像部よりも前記車両の進行方向に設置され前記周辺の物体を検出する検出部(22)を搭載した前記車両にて、前記周辺の映像(70)を表示装置(30)に出力する映像出力装置であって、
    前記撮像部にて撮影された前記周辺の撮像画像(71)を取得する画像取得部(51)と、
    前記検出部にて検出された物体の検出情報を取得する検出情報取得部(53)と、
    前記検出情報に基づき、物体の検出の確信度を判定する確信度判定部(61)と、
    前記検出情報に基づき前記撮像画像での物体の位置を算出する位置算出部(62)と、
    前記位置算出部の算出結果に基づき、前記撮像画像における物体同士の重なりの有無を判定する重なり判定部(63)と、
    前記撮像画像にて重なっていると判定された複数の物体のうちで、手前側に存在する第一物体(S1)を写す領域の少なくとも一部に画像透過領域(73)を設定し、前記第一物体の奥側に存在する第二物体(V1)を確認可能な前記映像を生成し、前記第二物体の検出の前記確信度が高くなるに従って前記画像透過領域に規定する透過率を高く変化させる画像処理部(40)と、を備える映像出力装置。
  2. 前記検出情報取得部は、レーダ(23)、ライダ(24)及びソナー(25)の少なくとも一つを含む前記検出部にて計測された前記第二物体の位置情報を、前記検出情報として取得し、
    前記位置算出部は、前記位置情報に基づき、前記撮像画像での前記物体の位置を算出する請求項1に記載の映像出力装置。
  3. 前記確信度判定部は、前記検出部にて検出される前記第二物体の検出回数が増えるに従って、前記確信度を高く判定する請求項2に記載の映像出力装置。
  4. 前記画像処理部は、前記検出回数の増加に対する透過率の上昇割合を、前記検出部にて検出される前記第二物体までの距離の減少に伴って、大きな値に変更する請求項3に記載の映像出力装置。
  5. 前記確信度判定部は、前記検出部にて検出される前記第二物体までの距離が近いほど、前記確信度を高く判定する請求項2に記載の映像出力装置。
  6. 前記検出情報に基づいて前記第二物体を追跡し、前記第二物体の移動方向を算出する物体追跡部(64)、をさらに備え、
    前記画像処理部は、前記第二物体の移動方向を示すベクトル画像(75)を前記映像に表示させる請求項1〜5のいずれか一項に記載の映像出力装置。
  7. 前記物体追跡部の追跡結果に基づき、前記第二物体が前記車両に接近しているか否かを判定する接近判定部(66)、をさらに備え、
    前記画像処理部は、前記第二物体が前記車両に接近している場合に限り、前記第二物体と重なる前記第一物体の前記画像透過領域を透過させる請求項6に記載の映像出力装置。
  8. 前記車両の移動状態を示す状態情報に基づき、前記車両の将来の移動経路を推定する移動推定部(68)、をさらに備え、
    前記物体追跡部は、前記第二物体の追跡結果に基づき、前記第二物体の将来の移動経路を推定し、
    前記画像処理部は、前記車両の移動経路と前記第二物体の移動経路とが交差する場合に限り、前記第二物体と重なる前記第一物体の前記画像透過領域を透過させる請求項7に記載の映像出力装置。
  9. 前記画像処理部は、前記物体追跡部にて算出される前記第二物体の移動状態に応じて、前記ベクトル画像の態様を変化させる請求項6〜8のいずれか一項に記載の映像出力装置。
  10. 前記物体追跡部は、前記車両と追跡物体(V2)との間の遮蔽物体(S2)により、追跡していた前記追跡物体を示す前記検出情報が消失した場合に、追跡の履歴から推定される前記追跡物体の現在位置を推定し、
    前記画像処理部は、前記物体追跡部にて推定された前記追跡物体の前記現在位置に、透過率を規定する前記画像透過領域を設け、前記遮蔽物体の奥側に存在する前記追跡物体を確認可能な前記映像を生成する請求項6〜9のいずれか一項に記載の映像出力装置。
  11. 前記画像処理部は、前記追跡物体を示す前記検出情報が消失した後の経過時間が長くなるに従って前記画像透過領域の透過率を下げる請求項10に記載の映像出力装置。
  12. 前記検出情報に基づき、前記第二物体の種類を判別する物体判別部(65)、をさらに備え、
    前記画像処理部は、前記物体判別部の判別結果に対応した物体画像(74)を前記画像透過領域に重畳する請求項1〜11のいずれか一項に記載の映像出力装置。
  13. 前記画像処理部は、前記物体判別部にて前記第二物体の種類が判別できない場合に、抽象化された前記物体画像を前記画像透過領域に重畳する請求項12に記載の映像出力装置。
  14. 前記画像処理部は、前記撮像画像及び前記検出情報の少なくとも一方から、前記第二物体の背景となる背景画像(76)を生成し、当該背景画像を前記画像透過領域に重畳する請求項1〜13のいずれか一項に記載の映像出力装置。
  15. 前記撮像画像に写る領域の地図データを取得する地図情報取得部(57)、をさらに備え、
    前記画像処理部は、前記第二物体の背景となる背景画像(76)を、前記地図データを用いて生成し、当該背景画像を前記画像透過領域に重畳する請求項1〜14のいずれか一項に記載の映像出力装置。
  16. 車両(A)の周辺を撮影する撮像部(21)及び前記撮像部よりも前記車両の進行方向に設置され前記周辺の物体を検出する検出部(22)を搭載した前記車両にて、表示装置(30)に出力される前記周辺の映像(70)を生成する映像生成プログラムであって、
    少なくとも一つの演算部(41)を、
    前記撮像部にて撮影された前記周辺の撮像画像(71)を取得する画像取得部(51)と、
    前記検出部にて検出された物体の検出情報を取得する検出情報取得部(53)と、
    前記検出情報に基づき、物体の検出の確信度を判定する確信度判定部(61)と、
    前記検出情報に基づき前記撮像画像での物体の位置を算出する位置算出部(62)と、
    前記位置算出部の算出結果に基づき、前記撮像画像における物体同士の重なりの有無を判定する重なり判定部(63)と、
    前記撮像画像にて重なっていると判定された複数の物体のうちで、手前側に存在する第一物体(S1)を写す領域の少なくとも一部に画像透過領域(73)を設定し、前記第一物体の奥側に存在する第二物体(V1)を確認可能な前記映像を生成し、前記第二物体の検出の前記確信度が高くなるに従って前記画像透過領域に規定する透過率を高く変化させる画像処理部(40)、として機能させる映像生成プログラム。
JP2017163622A 2017-08-28 2017-08-28 映像出力装置及び映像生成プログラム Active JP6686988B2 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
JP2017163622A JP6686988B2 (ja) 2017-08-28 2017-08-28 映像出力装置及び映像生成プログラム
PCT/JP2018/026042 WO2019044185A1 (ja) 2017-08-28 2018-07-10 映像出力装置、映像生成プログラム、およびコンピュータ読み出し可能持続的有形記録媒体
US16/801,535 US11148595B2 (en) 2017-08-28 2020-02-26 Image output device, and non-transitory tangible computer-readable medium for outputting image around vehicle to display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017163622A JP6686988B2 (ja) 2017-08-28 2017-08-28 映像出力装置及び映像生成プログラム

Publications (2)

Publication Number Publication Date
JP2019041334A JP2019041334A (ja) 2019-03-14
JP6686988B2 true JP6686988B2 (ja) 2020-04-22

Family

ID=65526267

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017163622A Active JP6686988B2 (ja) 2017-08-28 2017-08-28 映像出力装置及び映像生成プログラム

Country Status (3)

Country Link
US (1) US11148595B2 (ja)
JP (1) JP6686988B2 (ja)
WO (1) WO2019044185A1 (ja)

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10733456B2 (en) * 2015-12-21 2020-08-04 A9.Com, Inc. Sharing video footage from audio/video recording and communication devices
CN111937002A (zh) * 2018-04-16 2020-11-13 三菱电机株式会社 障碍物检测装置、利用了障碍物检测装置的自动制动装置、障碍物检测方法以及利用了障碍物检测方法的自动制动方法
JP7063208B2 (ja) * 2018-09-14 2022-05-09 オムロン株式会社 検知装置、移動体システム、及び検知方法
JP7070307B2 (ja) * 2018-10-05 2022-05-18 オムロン株式会社 検知装置、移動体システム、及び検知方法
JP7067400B2 (ja) * 2018-10-05 2022-05-16 オムロン株式会社 検知装置、移動体システム、及び検知方法
JP7204421B2 (ja) * 2018-10-25 2023-01-16 キヤノン株式会社 検知装置およびその制御方法
US11630202B2 (en) * 2018-12-20 2023-04-18 Omron Corporation Sensing device, moving body system, and sensing method
US10997424B2 (en) 2019-01-25 2021-05-04 Gracenote, Inc. Methods and systems for sport data extraction
US11010627B2 (en) 2019-01-25 2021-05-18 Gracenote, Inc. Methods and systems for scoreboard text region detection
US11036995B2 (en) * 2019-01-25 2021-06-15 Gracenote, Inc. Methods and systems for scoreboard region detection
US11087161B2 (en) 2019-01-25 2021-08-10 Gracenote, Inc. Methods and systems for determining accuracy of sport-related information extracted from digital video frames
US11805283B2 (en) 2019-01-25 2023-10-31 Gracenote, Inc. Methods and systems for extracting sport-related information from digital video frames
JP7345128B2 (ja) * 2019-05-20 2023-09-15 パナソニックIpマネジメント株式会社 歩行者装置および交通安全支援方法
JP7334632B2 (ja) * 2020-01-27 2023-08-29 いすゞ自動車株式会社 物体追跡装置及び物体追跡方法
JP7287355B2 (ja) * 2020-06-26 2023-06-06 トヨタ自動車株式会社 車両周辺監視装置
KR20220083002A (ko) * 2020-12-10 2022-06-20 현대자동차주식회사 차량
US20220185182A1 (en) * 2020-12-15 2022-06-16 Panasonic Automotive Systems Company Of America, Division Of Panasonic Corporation Of North America Target identification for vehicle see-through applications
JP2022142614A (ja) * 2021-03-16 2022-09-30 パナソニックIpマネジメント株式会社 安全確認支援装置、安全確認支援方法及び安全確認支援プログラム
JP2022182335A (ja) * 2021-05-28 2022-12-08 株式会社Subaru 車両の車外撮像装置
EP4099298B1 (de) * 2021-05-31 2024-05-15 Deutsche Telekom AG Verfahren zur gefahrendetektion und/oder kollisionsvermeidung eines sich bewegenden fahrzeugs, system, computerprogramm und computerlesbares medium
EP4099297B1 (de) * 2021-05-31 2024-02-21 Deutsche Telekom AG Verfahren zur gefahrendetektion und/oder kollisionsvermeidung eines sich bewegenden fahrzeugs, system, computerprogramm und computerlesbares medium
US20230196584A1 (en) * 2021-12-20 2023-06-22 Industrial Technology Research Institute Object detection method and object detection system for video
EP4382952A1 (en) * 2022-12-08 2024-06-12 Aptiv Technologies AG Methods and systems for displaying information to an occupant of a vehicle

Family Cites Families (46)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS5624370B2 (ja) 1973-06-04 1981-06-05
JP2001101566A (ja) 1999-09-30 2001-04-13 Toshiba Corp 交通安全確認システム
WO2004015987A1 (ja) * 2002-08-09 2004-02-19 Sharp Kabushiki Kaisha 画像合成装置、画像合成方法、画像合成プログラム、および画像合成プログラムを記録した記録媒体
JP4103518B2 (ja) 2002-09-20 2008-06-18 株式会社エクォス・リサーチ 車載画像表示装置
US7190282B2 (en) * 2004-03-26 2007-03-13 Mitsubishi Jidosha Kogyo Kabushiki Kaisha Nose-view monitoring apparatus
ATE552478T1 (de) * 2004-06-03 2012-04-15 Making Virtual Solid L L C Navigationsanzeigeverfahren und vorrichtung für unterwegs unter verwendung eines head-up-displays
EP1696669B1 (en) * 2005-02-24 2013-07-03 Aisin Seiki Kabushiki Kaisha Vehicle surrounding monitoring device
JP4720386B2 (ja) * 2005-09-07 2011-07-13 株式会社日立製作所 運転支援装置
JP2007178183A (ja) * 2005-12-27 2007-07-12 Mazda Motor Corp 車両の障害物検知装置
DE102006047777A1 (de) * 2006-03-17 2007-09-20 Daimlerchrysler Ag Virtuelles Spotlight zur Kennzeichnung von interessierenden Objekten in Bilddaten
JP2009193135A (ja) * 2008-02-12 2009-08-27 Xanavi Informatics Corp 車載モニタ装置
JP2009214831A (ja) 2008-03-12 2009-09-24 Toyota Motor Corp 車両用表示装置
US8054201B2 (en) 2008-03-19 2011-11-08 Mazda Motor Corporation Surroundings monitoring device for vehicle
JP2009231937A (ja) * 2008-03-19 2009-10-08 Mazda Motor Corp 車両用周囲監視装置
JP2009226978A (ja) * 2008-03-19 2009-10-08 Mazda Motor Corp 車両用周囲監視装置
JP2009231938A (ja) * 2008-03-19 2009-10-08 Mazda Motor Corp 車両用周囲監視装置
JP5108837B2 (ja) * 2009-07-13 2012-12-26 クラリオン株式会社 車両用死角映像表示システムと車両用死角映像表示方法
CN102577372B (zh) * 2009-09-24 2015-06-10 松下电器产业株式会社 驾驶辅助显示装置
JP5505702B2 (ja) * 2010-02-24 2014-05-28 アイシン精機株式会社 車両周辺監視装置
JP5479956B2 (ja) * 2010-03-10 2014-04-23 クラリオン株式会社 車両用周囲監視装置
JP5035643B2 (ja) * 2010-03-18 2012-09-26 アイシン精機株式会社 画像表示装置
US20110298988A1 (en) 2010-06-04 2011-12-08 Toshiba Alpine Automotive Technology Corporation Moving object detection apparatus and moving object detection method
WO2011158609A1 (ja) * 2010-06-15 2011-12-22 アイシン精機株式会社 運転支援装置
US8947219B2 (en) * 2011-04-22 2015-02-03 Honda Motors Co., Ltd. Warning system with heads up display
WO2012169355A1 (ja) * 2011-06-09 2012-12-13 アイシン精機株式会社 画像生成装置
JP5605764B2 (ja) 2011-09-02 2014-10-15 株式会社デンソー 車両用表示装置
WO2013086249A2 (en) * 2011-12-09 2013-06-13 Magna Electronics, Inc. Vehicle vision system with customized display
US9760092B2 (en) * 2012-03-16 2017-09-12 Waymo Llc Actively modifying a field of view of an autonomous vehicle in view of constraints
CN104508723B (zh) * 2012-07-27 2016-10-12 歌乐株式会社 图像处理装置
US9097800B1 (en) * 2012-10-11 2015-08-04 Google Inc. Solid object detection system using laser and radar sensor fusion
JP6100635B2 (ja) * 2012-12-13 2017-03-22 株式会社デンソー 移動体検出装置
US9242647B2 (en) * 2013-02-06 2016-01-26 GM Global Technology Operations LLC Display systems and methods for autonomous vehicles
JP6136564B2 (ja) 2013-05-23 2017-05-31 日産自動車株式会社 車両用表示装置
JP6136565B2 (ja) 2013-05-23 2017-05-31 日産自動車株式会社 車両用表示装置
JP6102509B2 (ja) * 2013-05-23 2017-03-29 日産自動車株式会社 車両用表示装置
JP6287237B2 (ja) * 2014-01-17 2018-03-07 株式会社リコー 情報処理装置、情報処理方法及びプログラム
JP6330160B2 (ja) * 2014-05-09 2018-05-30 本田技研工業株式会社 物体認識装置
KR101610038B1 (ko) * 2014-06-13 2016-04-07 현대모비스 주식회사 Avm 장치 및 동작 방법
KR101601527B1 (ko) * 2014-11-04 2016-03-08 현대자동차주식회사 헤드업 디스플레이 장치 및 그의 제어방법
JP6828266B2 (ja) * 2016-04-18 2021-02-10 ソニー株式会社 画像表示装置及び画像表示装置、並びに移動体
CN107404628B (zh) * 2016-05-18 2020-09-01 佳能株式会社 图像处理装置及方法以及监视***
JP6788390B2 (ja) * 2016-06-21 2020-11-25 株式会社デンソーテン レーダ装置及び信号処理方法
JP7010221B2 (ja) * 2016-07-13 2022-01-26 ソニーグループ株式会社 画像生成装置、画像生成方法、及び、プログラム
JP6876236B2 (ja) * 2016-09-30 2021-05-26 株式会社アイシン 表示制御装置
EP3554062B1 (en) * 2016-12-09 2022-12-14 Kyocera Corporation Imaging apparatus
JP2019213164A (ja) * 2018-06-08 2019-12-12 キヤノン株式会社 画像処理装置、画像処理方法

Also Published As

Publication number Publication date
US20200189467A1 (en) 2020-06-18
JP2019041334A (ja) 2019-03-14
WO2019044185A1 (ja) 2019-03-07
US11148595B2 (en) 2021-10-19

Similar Documents

Publication Publication Date Title
JP6686988B2 (ja) 映像出力装置及び映像生成プログラム
CN109017570B (zh) 车辆周围场景呈现方法和装置、车辆
US11132611B2 (en) Information processing apparatus and information processing method for determining presence probability of object
JP5379543B2 (ja) 自動車の外界認識装置
JP6474766B2 (ja) 構造光を運用し障害を感知するバック警告方法
JP4981566B2 (ja) 運転支援装置および運転支援方法
US11034294B2 (en) Driving notification method and driving notification system
EP2910971A1 (en) Object recognition apparatus and object recognition method
US9251709B2 (en) Lateral vehicle contact warning system
KR20150051735A (ko) 주차 보조 시스템 및 그 방법
JP2010173530A (ja) 走行支援装置
JP2013117475A (ja) 障害物検出装置
JP2006279752A (ja) 車両直下画像表示制御装置および車両直下画像表示制御プログラム
US11961306B2 (en) Object detection device
CN109747639B (zh) 车辆及其控制方法
US20230128234A1 (en) Vehicle control device, vehicle, vehicle control method, and non-transitory computer-readable medium
TW201315968A (zh) 障礙物偵測系統及其障礙物偵測方法
JP5374549B2 (ja) 車両周辺監視装置
JP5223563B2 (ja) 警告装置及び警告方法
JP2010070117A (ja) 画像照射システムおよび画像照射方法
JP2008275380A (ja) 車両周辺監視装置
RU2706757C1 (ru) Способ и блок управления для заднего обзора
US20230127044A1 (en) Vehicle control device, vehicle, vehicle control method, and non-transitory computer-readable medium
JP2001215274A (ja) 車両周辺監視装置
JP7276255B2 (ja) 画像処理装置、プログラム、及び画像処理システム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190621

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200316

R150 Certificate of patent or registration of utility model

Ref document number: 6686988

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250