JP2016134764A - 車両用外界認識装置およびそれを用いた車両挙動制御装置 - Google Patents

車両用外界認識装置およびそれを用いた車両挙動制御装置 Download PDF

Info

Publication number
JP2016134764A
JP2016134764A JP2015008258A JP2015008258A JP2016134764A JP 2016134764 A JP2016134764 A JP 2016134764A JP 2015008258 A JP2015008258 A JP 2015008258A JP 2015008258 A JP2015008258 A JP 2015008258A JP 2016134764 A JP2016134764 A JP 2016134764A
Authority
JP
Japan
Prior art keywords
vehicle
moving object
image
detected
detection unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2015008258A
Other languages
English (en)
Other versions
JP6454554B2 (ja
Inventor
健人 緒方
Taketo Ogata
健人 緒方
加藤 賢治
Kenji Kato
賢治 加藤
清水 直樹
Naoki Shimizu
直樹 清水
尊史 萩
Takashi Hagi
尊史 萩
吉孝 内田
Yoshitaka Uchida
吉孝 内田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2015008258A priority Critical patent/JP6454554B2/ja
Priority to US15/315,998 priority patent/US10169667B2/en
Priority to PCT/JP2015/080407 priority patent/WO2016117200A1/ja
Priority to EP15878889.3A priority patent/EP3179445B1/en
Publication of JP2016134764A publication Critical patent/JP2016134764A/ja
Application granted granted Critical
Publication of JP6454554B2 publication Critical patent/JP6454554B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/095Predicting travel path or likelihood of collision
    • B60W30/0956Predicting travel path or likelihood of collision the prediction being responsive to traffic or environmental parameters
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • G06T7/248Analysis of motion using feature-based methods, e.g. the tracking of corners or segments involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/183Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a single remote source
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/402Type
    • B60W2554/4029Pedestrians
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects
    • B60W2554/404Characteristics
    • B60W2554/4041Position
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/80Spatial relation or speed relative to objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/18Braking system
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2710/00Output or target parameters relating to a particular sub-units
    • B60W2710/20Steering systems
    • B60W2710/207Steering angle of wheels
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2720/00Output or target parameters relating to overall vehicle dynamics
    • B60W2720/28Wheel speed

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Transportation (AREA)
  • Automation & Control Theory (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】車両周囲の画像のみを用いて、高い精度で移動物体の位置を確実に検出する。
【解決手段】車両10に搭載された後方カメラ12(画像取得部)が車両10の周囲の原画像I(x,y,t)を取得して、動き領域検出部54(第1物体検出部)が原画像I(x,y,t)の中から物体を検出するとともに、差分演算部58(第2物体検出部)が俯瞰画像生成部56で生成された、車両10を俯瞰した俯瞰画像J(x,y,t)の中から物体を検出し、検出物体判定部60が動き領域検出部54と差分演算部58で検出された物体が同一移動物体であると判定したときに、移動物***置特定部62が車両10から、動き領域検出部54または差分演算部58によって検出された物体までの距離Dkと、物体の横方向位置FXkと、動き領域検出部54によって検出された物体の実際の幅Wkから移動物体の位置を特定する。
【選択図】図2

Description

本発明は、車両に設置されて、車両周囲の移動物体の位置を検出する車両用外界認識装置およびそれを用いた車両挙動制御装置に関するものである。
近年、車両に設置されたカメラで車両の周囲に存在する移動物体(障害物)を検出して、検出された移動物体の位置に基づいて、車両と移動物体との接触の危険を報知したり、車両と移動物体との接触を回避するように車両を自動停止させることが可能な車両用外界認識装置に関する技術が提案されている。
例えば、特許文献1に記載された物体検知装置にあっては、魚眼レンズを装着したカメラで撮像された画像を処理して、車両の周囲に存在する移動物体の検出を行っている。
また、特許文献2に記載された車両周辺監視装置にあっては、異なる時刻に撮像された2枚の原画像から検出されたオプティカルフローと、2枚の原画像をそれぞれ座標変換して得た俯瞰画像同士の差分演算の結果を用いて移動物体と静止物体の検出を行っている。
特開2014−154898号公報 特開2011−48520号公報
しかしながら、特許文献1に記載された物体検知装置にあっては、魚眼レンズを装着したカメラで撮像された画像を処理しているため、画像の、特に辺縁部において大きな歪曲が発生して被写体が傾いて画像化されていた。したがって、検出された物体(例えば歩行者の足元)の位置を正確に特定するのが困難であった。さらに、物体の位置(例えば歩行者の足元の位置)を確実に特定することができなければ、車両と物体の位置関係を正確に把握できない虞があった。そして、特許文献1では、検出された物体の位置を正確に特定して検出精度を向上させる方策に関して、具体的な言及はなされていなかった。
また、特許文献2に記載された車両周辺監視装置にあっては、検出された物体までの距離を計測する手段を備えていないため、単に物体の有無を検出して警報の用途に適用することはできるが、その位置を正確に把握して車両を制御する用途にまで適用することは困難であった。一方、特許文献2に記載された構成に、公知のレーダ等の測距センサを付加して、検出された物体までの距離を測定することは容易に想到できる。しかしながら、車両に搭載すべきセンサの種類が増えるため、システム構成が複雑になるとともにコストの上昇を招くという問題があった。
本発明は、上記課題に鑑みてなされたもので、測距センサ等を追加することなく、撮像部で撮像された画像のみを用いて、より高い精度で移動物体の位置を確実に検出することが可能な車両用外界認識装置およびそれを用いた車両挙動制御装置を提供することを目的とするものである。
前記課題を解決するために、本発明に係る車両用外界認識装置は、車両に搭載されて、前記車両の周囲の画像を取得する画像取得部と、前記画像の中から物体を検出する第1物体検出部と、前記画像から、前記車両を俯瞰した俯瞰画像を生成する俯瞰画像生成部と、前記俯瞰画像の中から物体を検出する第2物体検出部と、前記第1物体検出部で検出された物体と前記第2物体検出部で検出された物体とが所定距離以内に近接しているときに、同一移動物体であると判定する検出物体判定部と、前記検出物体判定部によって同一移動物体であると判定されたときに、前記車両から前記第1物体検出部または前記第2物体検出部によって検出された物体までの距離と前記物体の横方向位置と、前記第1物体検出部によって検出された物体の幅と、によって前記移動物体の位置を特定する移動物***置特定部と、を有することを特徴とする。
このように構成された本発明に係る車両用外界認識装置によれば、前記構成としたことによって、検出物体判定部が、第1物体検出部および第2物体検出部の検出結果に基づいて、所定距離以内に近接した物体を同一移動物体であると判定した後、移動物***置特定部が、第1物体検出部または第2物体検出部の検出結果に基づいて、検出された移動物体までの距離と横方向位置を算出して、さらに第1物体検出部の検出結果に基づいて、検出された移動物体の幅を算出するため、移動物体の位置と車両から移動物体までの距離をより高い精度で確実に検出することができる。
本発明の1実施形態である実施例1の車両用外界認識装置を用いた車両挙動制御装置のハードウェア構成を示すブロック図である。 本発明の1実施形態である実施例1の車両用外界認識装置を用いた車両挙動制御装置の機能構成を示す機能ブロック図である。 実施例1における後方カメラの車載状態を説明する図である。 実施例1における動き領域検出部(第1物体検出部)の詳細構成を示す機能ブロック図である。 後方カメラで撮像された原画像の一例を示す図である。 図5Aに示す原画像を平面投影画像に変換した例を示す図である。 図5Aに示す原画像を円筒面投影画像に変換した例を示す図である。 動き領域検出部にて、オプティカルフローに基づいて物体を検出する方法について説明する第1の図であり、時刻t−Δtに撮像された原画像の例を示す図である。 動き領域検出部にて、オプティカルフローに基づいて物体を検出する方法について説明する第2の図であり、時刻tに撮像された原画像の例を示す図である。 動き領域検出部にて、オプティカルフローに基づいて物体を検出する方法について説明する第3の図であり、検出されたオプティカルフローの例を示す図である。 オプティカルフローに基づいて検出された物体の検出結果について説明する図である。 オプティカルフローによって検出された物体の位置と大きさを表す情報の記憶形式について説明する図である。 実施例1における差分演算部(第2物体検出部)の詳細構成を示す機能ブロック図である。 差分演算部にて、俯瞰画像の差分演算によって物体を検出する方法について説明する第1の図であり、図6Aの画像を変換した俯瞰画像の例を示す図である。 差分演算部にて、俯瞰画像の差分演算によって物体を検出する方法について説明する第2の図であり、図6Bの画像を変換した俯瞰画像の例を示す図である。 差分演算部にて、俯瞰画像の差分演算によって物体を検出する方法について説明する第3の図であり、図10Aの画像と図10Bの画像の位置合わせを行った後で、図10Bの俯瞰画像から図10Aの俯瞰画像を差し引いた結果を示す図である。 俯瞰画像の差分によって検出された物体の位置を表す情報の記憶形式について説明する図である。 俯瞰画像から検出された物体について説明する第1の図である。 俯瞰画像から検出された物体について説明する第2の図である。 俯瞰画像から検出された物体について説明する第3の図である。 実施例1において移動物体の位置を特定する方法について説明する図である。 実施例1に示した車両挙動制御装置で行われる処理全体の流れを示すフローチャートである。 図14のフローチャートにおける、オプティカルフローに基づく物体検出処理の流れを示すフローチャートである。 図14のフローチャートにおける俯瞰画像の差分に基づく物体検出処理の流れを示すフローチャートである。 図14のフローチャートにおける検出物体判定処理の流れを示すフローチャートである。 図14のフローチャートにおける移動物***置特定処理の流れを示すフローチャートである。 本発明の1実施形態である実施例2の車両用外界認識装置を用いた車両挙動制御装置の機能構成を示す機能ブロック図である。 実施例2における動き領域検出部(第1物体検出部)の詳細構成を示す機能ブロック図である。 実施例2で行われる移動物***置特定処理の流れを示すフローチャートである。 本発明の1実施形態である実施例3の車両用外界認識装置を用いた車両挙動制御装置の機能構成を示す機能ブロック図である。 実施例3における動き領域検出部(第1物体検出部)の詳細構成を示す機能ブロック図である。 実施例3において取得された原画像の一例を示す図である。 図24Aの原画像から生成された俯瞰画像を示す図である。 図24Aに示す車両と後方カメラの位置関係を示す図である。 実施例3に示した車両挙動制御装置で行われる処理全体の流れを示すフローチャートである。 図25のフローチャートにおける歩行者パターン検出処理,車両パターン検出処理の流れを示すフローチャートである。 図25のフローチャートにおける検出物体判定処理の流れを示す第1のフローチャートである。 図25のフローチャートにおける検出物体判定処理の流れを示す第2のフローチャートである。 図25のフローチャートにおける検出物体判定処理の流れを示す第3のフローチャートである。 図25のフローチャートにおける移動物***置特定処理の流れを示すフローチャートである。 実施例3において、移動物体として歩行者が検出されたときに、その存在位置を特定する方法を示す図である。 実施例3において、移動物体として車両が検出されたときに、その存在位置を特定する方法を示す図である。
本発明に係る車両用外界認識装置を用いた車両挙動制御装置の具体的な実施形態について、図面を参照して説明する。
本実施例1は、本発明を、車両後方の移動物体を検出して、後退駐車時に移動物体と接触する可能性があるときには、車両に制動をかけて停止させる車両挙動制御装置に適用したものである。(車両挙動制御装置のハードウェア構成の説明)
図1を用いて本実施例の車両挙動制御装置のハードウェア構成について説明する。本実施例に係る車両挙動制御装置100aは、車両10に搭載されて、車両10の後方に存在する歩行者や他車両等の移動物体を認識する車両用外界認識装置50aと、認識された移動物体の位置に基づいて車両10の制動制御を行う車両挙動制御部80からなる。
車両用外界認識装置50aは、後方カメラ12と、カメラインタフェース14と、車輪速センサ20と、操舵角センサ22と、センサインタフェース24と、画像処理ECU18と、メモリ26からなる。
車両挙動制御部80は、車両挙動制御ECU30と、ブレーキアクチェータ36と、表示制御部32と、モニタ34からなる。
また、車両挙動制御装置100aは、必要な情報の受け渡しを行うための、CANバス等からなるシステムバス16を備えている。
後方カメラ12は、車両10の後方の路面を含む画像を撮像する。後方カメラ12で撮像された画像は、カメラインタフェース14とCANバス等で構成されたシステムバス16を経て、画像の認識処理を実行する画像処理ECU18に送られる。また、車両10には、車輪速を検出する車輪速センサ20と操舵角を検出する操舵角センサ22が設けられて、それらのセンサの出力は、センサインタフェース24とシステムバス16を介して画像処理ECU18に送られる。
画像処理ECU18では、後述する画像処理を実行して歩行者や他車両等の移動物体を検出する。その際、画像処理の途中経過や結果はメモリ26に一時記憶される。
画像処理で検出された移動物体の位置情報は、車両挙動制御部80に送られる。そして、車両10の挙動を制御する車両挙動制御ECU30において、車両10と移動物体が接触する可能性が判定される。接触の可能性があるときには、車両挙動制御ECU30は、表示制御部32を介して車両10に設置されたモニタ34に必要な警報や警告を出力し、車両10の運転者に注意喚起を行う。また、車両挙動制御ECU30において、接触が避けられないと判定されたときには、車両10の制動力を発生させるブレーキアクチェータ36を駆動して車両10の制動を行う。
(車両挙動制御装置の機能構成の説明)
図2,図3を用いて本実施例の車両挙動制御装置100aの機能構成について説明する。図2は車両挙動制御装置100aの機能構成を示す機能ブロック図である。図3は、車両挙動制御装置100aの車載状態を示す図である。
車両用外界認識装置50aは、図2に示すように、後方カメラ12と、後方カメラ12で撮像した画像をデジタル情報に変換して原画像I(x,y,t)として取得する画像取得部52と、異なる時刻に取得された2枚の原画像の中から移動物体を検出する動き領域検出部54(第1物体検出部)と、原画像I(x,y,t)を真上から見下ろした俯瞰画像J(x,y,t)に変換する俯瞰画像生成部56と、異なる時刻に取得された2枚の原画像からそれぞれ生成された2枚の俯瞰画像同士の差分演算を行って移動物体を検出する差分演算部58(第2物体検出部)と、動き領域検出部54で検出された物体と差分演算部58で検出された物体とが同一の移動物体であるか否かを判定する検出物体判定部60と、検出物体判定部60において同一の移動物体であると判定されたときに、その移動物体の存在位置を特定する移動物***置特定部62と、車輪速センサ20が検出した車両10の車輪速と操舵角センサ22が検出した車両10の操舵角を取得する車両情報取得部64からなる。
車両挙動制御部80は、図2に示すように、車両10と移動物体との接触可能性を判定する接触判定部82と、車両10と移動物体との接触可能性があるときにこれを警報する警報出力部84と、車両10と移動物体との接触が避けられないときに車両10に制動をかけて停止させる制動制御部86からなる。
なお、後方カメラ12は、図3に示すように、車両10の後部ライセンスプレート付近に、後方に向けて略水平に設置されており、路面を含む後方観測範囲12aの画像を観測している。このとき、車両10の直近から遠方までの範囲を、左右の広範囲に亘って観測するために、後方カメラ12には魚眼レンズに代表される画角の広いレンズが装着されている。
(原画像からの物体検出方法の説明)
図4,図5Aから図5Cを用いて、動き領域検出部54(第1物体検出部)において行われる、原画像から物体を検出する方法について説明する。
図4は、動き領域検出部54の詳細な内部構成を示す機能ブロック図である。動き領域検出部54は、原画像I(x,y,t)を、路面から垂直に起立した、車両10の左右方向と平行な方向(後方カメラ12の受光面と平行な方向)に延びる仮想的な平面に投影した平面投影画像Ip(x,y,t)に変換する平面歪み補正部54aを有する。また動き領域検出部54は、時刻tに撮像された原画像I(x,y,t)から生成された平面投影画像Ip(x,y,t)と、時刻t-Δtに撮像された原画像I(x,y,t-Δt)から生成された平面投影画像Ip(x,y,t-Δt)とからオプティカルフローを検出するオプティカルフロー検出部54bを有する。さらに動き領域検出部54は、時刻t-Δtから時刻tまでの間の車両10の車輪速と操舵角の変化に基づいて、時間Δtの間の車両10の移動に伴って発生すると予想されるオプティカルフローを算出する車両挙動フロー検出部54cを有する。そして動き領域検出部54は、オプティカルフロー検出部54bで検出されたオプティカルフローと、車両挙動フロー検出部54cで算出されたオプティカルフローに基づいて物体を検出する物体検出部54dを有する。なお、ここで、時間Δtは使用するハードウェアの性能に応じた値、例えば数十msecの値に設定される。
ここで、後方カメラ12には画角の広いレンズが装着されているため、図5Aに示すように、観測された原画像I(x,y,t)は、特に画像の縁部において大きな歪曲を有している。ここで、原画像I(x,y,t)の中に歩行者X1と歩行者X2が写っていたとすると、図5Aに示すように、辺縁部で観測される歩行者X2は、斜めに傾いて写る。後述するように、歩行者は矩形領域として検出されるため、原画像I(x,y,t)をそのまま処理すると、検出される歩行者X2の位置と幅にずれが生じてしまう。そこで、平面歪み補正部54aにおいて、この歪曲を取り除く処理を行う。
具体的には、原画像I(x,y,t)を、路面から垂直に起立した、車両10の左右方向と平行な方向に延びる仮想的な平面に投影して、図5Bに示す平面投影画像Ip(x,y,t)(投影画像)を生成する。この仮想的な平面への投影処理によって、原画像I(x,y,t)の中に生じていた歪曲を取り除くことができ、歩行者X2は図5Bに示すように直立した状態に変換される。そして、この平面投影画像Ip(x,y,t)の中から歩行者X1,X2を検出することによって、歩行者の位置と幅を正確に特定することができる。
平面投影画像Ip(x,y,t)の生成は、予め用意された歪み補正テーブルを用いて行う。この歪み補正テーブルは、歪み補正前の画像の座標と歪み補正後の画像の座標の対応関係をテーブル化したものである。なお、歪み補正テーブルは、いわゆるキャリブレーションを行うことによって、予め生成して平面歪み補正部54aに記憶しておく。
図6Aから図6Cは、動き領域検出部54の作用を説明する図である。図6Aは時刻t-Δtにおいて後方カメラ12(図2)が撮像した原画像I(x,y,t-Δt)から得た平面投影画像Ip(x,y,t-Δt)の一例である。図6Aに示すように、平面投影画像Ip(x,y,t-Δt)の中には歩行者X1と駐車枠線Yが写っているものとする。
図6Bは、時刻tにおいて後方カメラ12(図2)が撮像した原画像I(x,y,t)から得た平面投影画像Ip(x,y,t)の一例である。図6Bと図6Aを比較すると、歩行者X1は時間Δtの間に前方(画像上では右方)に移動していることがわかる。また、駐車枠線Yの位置が移動していることから、車両10が時間Δtの間に後方に移動していることがわかる。
図6Cは、平面投影画像Ip(x,y,t-Δt)と平面投影画像Ip(x,y,t)を比較することによって、歩行者の移動に伴って発生したオプティカルフローのみを検出した結果を示す図である。
平面投影画像Ip(x,y,t-Δt)と平面投影画像Ip(x,y,t)を比較すると、車両10の移動に伴って発生するオプティカルフローも検出される。車両10の移動に伴って発生するオプティカルフローは、時間Δtの間の車両の挙動(車輪速と操舵角)を積分することによって予測することができる。図6Cに示すオプティカルフローOpは、このようにして予測した車両10の動きに伴って発生するオプティカルフローとは異なる方向を有するオプティカルフローのみを検出した結果を示している。すなわち、図6Cの画像は、車両10の移動に伴うオプティカルフロー(駐車枠線Yの移動を示すオプティカルフロー)が抑制されて、歩行者の移動を表したオプティカルフローOpのみが検出されたものである。
このようにして検出されたオプティカルフローOpを分析して、同一方向に同一量だけ移動している領域を統合して、ひとつの物体であると認識することができる。なお、異なる時刻に撮像された2枚の画像の中からオプティカルフローOpを検出する方法は、広く一般に用いられているため、詳細な処理内容の説明は省略する。ごく簡単に説明すると、一方の画像を複数の小領域(一方の小領域)に分割して、各小領域と濃淡値の分布がよく似ている小領域(他方の小領域)を、他方の画像の中から探索する処理を行って、対応付けられた一方の小領域がオプティカルフローの始点とされて、他方の小領域がオプティカルフローの終点とされる。
このようにして検出されたオプティカルフローの終点を構成する小領域のうち、オプティカルフロー同士が近接して、同じ方向を向いて同じ長さを有しているときに、これら複数のオプティカルフローの終点となる小領域を併合して、ひとつの物体を表す領域として検出する。
図7は、このようにして検出された物体を表す領域の一例である。図7に示すように、歩行者X1の領域が物体として検出されて、歩行者X1に外接する矩形領域R1の位置が動き領域検出部54に記憶される。なお、複数の物体が検出されたときには、各物体に外接する複数の矩形領域Ri(i=1,2,…)が検出されて、それぞれの矩形領域Riの位置が動き領域検出部54に記憶される。
図8は、動き領域検出部54(物体検出部54d(図4))に記憶される物体の位置と大きさの記憶形式について説明する図である。図8に示すように、矩形領域Ri(i=1,2,…)の番号とともに、各矩形領域の左上の頂点座標(sxi,syi)と右下の頂点座標(exi,eyi)が、それぞれ記憶される。
(俯瞰画像からの物体検出方法の説明)
図9と図10Aから図10Cを用いて、差分演算部58(第2物体検出部)において行われる、俯瞰画像から物体を検出する方法について説明する。
図9は差分演算部58の詳細構成を示す機能ブロック図である。図9に示すように、差分演算部58は、俯瞰画像位置合わせ部58aと、差分演算実行部58bと、物体検出部58cからなる。
図10Aから図10Cは、差分演算部58の作用を説明する図である。図10Aは時刻t-Δtにおいて後方カメラ12(図2)が撮像した原画像I(x,y,t-Δt)(図6A)を、俯瞰画像生成部56(図2)において俯瞰画像J(x,y,t-Δt)に変換した結果の一例である。図10Aに示すように、歩行者X1(図6A)は、俯瞰画像J(x,y,t-Δt)上で領域X1’に変換される。また、駐車枠線Y(図6A)は、俯瞰画像J(x,y,t-Δt)上で領域Y’に変換される。なお、俯瞰画像J(x,y,t-Δt)への変換は、予め俯瞰画像生成部56に記憶された座標変換テーブル(非図示)を用いて行う。この座標変換テーブルには、原画像の座標と俯瞰画像の座標の対応関係が記憶されている。なお、この座標変換テーブルに、前述した歪曲を補正する歪み補正テーブルの機能も盛り込んで、原画像を俯瞰画像に変換する際に、歪曲を合わせて補正してもよい。
図10Bは、時刻tにおいて後方カメラ12(図2)が撮像した原画像I(x,y,t)(図6B)を俯瞰画像J(x,y,t)に変換した結果の一例である。図10Bに示すように、歩行者X1(図6B)の移動に伴って領域X1’の位置が移動する。また、図10Bと図10Aを比較すると、車両10の移動に伴って駐車枠線Y(図6B)に対応する領域Y’の位置も移動する。
図10Cは、差分演算実行部58bにおいて、俯瞰画像J(x,y,t)から俯瞰画像J(x,y,t-Δt)を差し引く差分演算(フレーム差分)を行った結果を示す画像である。差分演算を行う際には、時間Δtの間の車両の挙動に伴って発生する路面の移動を抑制するため、俯瞰画像位置合わせ部58aにおいて、車両の挙動(車輪速と操舵角の変化)から予測される俯瞰画像の路面領域の移動量と移動方向に基づいて、俯瞰画像J(x,y,t-Δt)を予め座標変換して、俯瞰画像J(x,y,t)と位置合わせをしておく。
すなわち、差分演算の結果を示す図10Cの画像においては、俯瞰画像J(x,y,t)と俯瞰画像J(x,y,t-Δt)の間で駐車枠線Yに対応する領域Y’の位置が一致するため、領域Y’の情報は抑制されて、歩行者に対応する領域X1’の移動に対応する領域のみが検出される。
次に、物体検出部58cにおいて、差分演算の結果得られた画像(図10C)の中から物体の検出を行う。
具体的には、俯瞰画像同士の差分演算によって得られた結果を所定のしきい値で2値化して、抽出された領域を物体を表す領域とする。なお、検出された領域にはラベル付けを行い、さらに各領域Xj’(j=1,2,…)の重心位置を計算して、個々の領域を識別できるようにしておく。
図11は、物体検出部58cに記憶される物体の位置の記憶形式について説明する図である。図11に示すように、検出された領域の番号とともに、物体として検出された各領域Xj’(j=1,2,…)の重心位置の水平座標gxj(j=1,2,…)と垂直座標gyj(j=1,2,…)がそれぞれ記憶される。
(移動物体判定方法の説明)
図7と図12Aから図12Cを用いて、検出物体判定部60(図2)において行われる、動き領域検出部54(第1物体検出部)で検出された物体と差分演算部58(第2物体検出部)で検出された物体が同一の移動物体であるか否かを判定する処理について説明する。
動き領域検出部54(第1物体検出部)で検出された物体と差分演算部58(第2物体検出部)で検出された物体が同一の移動物体であるか否かを判定するために、まず、検出された各移動物体を代表する座標値を算出する。
すなわち、動き領域検出部54(第1物体検出部)で検出された物体から、物***置座標として、図7に示す点F1(fx1,fy1)の座標値を算出する。点F1は、物体に外接する矩形領域R1の下辺の中点に対応する点である。したがって、その水平座標はfx1=(sx1+ex1)/2で算出される。また垂直座標はfy1=ey1で算出される。なお、複数の物体が検出されたときには、図8に示した記憶情報を参照して、複数の点Fi(fxi,fyi)(i=1,2,…)の座標値をそれぞれ算出する。ここで、点Fi(fxi,fyi)(i=1,2,…)の座標値は、動き領域検出部54で物体検出処理を行った際に併せて算出して、図8の情報と併せて記憶しておいてもよい。
次に、差分演算部58(第2物体検出部)で検出された物体から、検出された領域の重心座標(図11)を用いて、図12Aから図12Cで説明する手順によって、物体を代表する座標値を算出する。
まず、図12Aに示すように、俯瞰画像同士の差分結果を示す画像の中に、後方カメラ12(図2)の位置を表す後方カメラ位置C(cx,cy)を設定する。この後方カメラ位置Cは、俯瞰画像の表示範囲に応じて一意に決定される。図12Aの例では、俯瞰画像の下辺上に設置されているものとする。なお、移動物体を表す領域X1’の重心点G1の座標はG1(gx1,gy1)であるとする。
次に、図12Bに示すように、重心点G1(gx1,gy1)と後方カメラ位置C(cx,cy)を結ぶ線分L1を設定する。
さらに、図12Cに示すように、領域X1’に属する点のうち、後方カメラ位置C(cx,cy)に最も接近した接地点H1(hx1,hy1)を求める。具体的には、線分L1上を重心点G1(gx1,gy1)から後方カメラ位置C(cx,cy)に向かって探索して、領域X1’と同じラベル値を有する、重心点G1から最も離れた点の位置を見つければよい。このようにして探索された接地点H1(hx1,hy1)は、領域X1’が路面と接地する接地点の位置を表している。なお、俯瞰画像の差分を行って複数の物体が検出されたときには、図11に示した物体の位置情報を参照して、複数の接地点Hjの画像上の座標値(hxj,hyj)(j=1,2,…)をそれぞれ算出する。ここで、接地点Hjの画像上の座標値(hxj,hyj)(j=1,2,…)は、俯瞰画像から物体を検出する際に同時に算出して、図11の情報と併せて記憶しておいてもよい。
次に、各領域の物***置座標を示す、画像上の点Fi(i=1,2,…)(図7)の座標と、各領域の接地点を示す、画像上の接地点Hj(j=1,2,…)の座標の位置関係を比較する。すなわち、後方カメラ12(図2)の設置位置から見た点Fiの相対位置と、後方カメラ12(図2)の設置位置から見た接地点Hjの相対位置の距離を判定する。
そのため、点Fiと接地点Hjを、それぞれ、図13に示すように、後方カメラ位置C(cx,cy)から見た相対座標に変換する。すなわち、点Fiの相対位置は、後方カメラ12(図2)の設置位置を原点として、車両10の幅方向をX軸、車両10の前後方向をY軸としたXY座標系における座標値(FXi,FYi)(i=1,2,…)として算出することができる。また、後方カメラ位置C(cx,cy)から見た接地点Hjの相対位置も、同様にして、XY座標系における座標値(HXj,HYj)(j=1,2,…)として算出することができる。
なお、点Fi(fxi,fyi)の座標値(FXi,FYi)への換算と、接地点Hj(hxj,hyj)の座標値(HXj,HYj)への換算は、後方カメラ12の光学パラメータである焦点距離fや後方カメラ12の設置位置(高さや俯角等)を用いて行うことができる。
このとき、図13に示すように、点Fi(fxi,fyi)のXY座標系における座標値(FXi,FYi)と接地点Hj(hxj,hyj)のXY座標系における座標値(HXj,HYj)は必ずしも一致しない。これは、点Fi(fxi,fyi)は物体の幅や横方向位置の情報を含む矩形領域Riの位置に基づいて算出された点であり、接地点Hj(hxj,hyj)は物体の接地点の位置に基づいて算出された点であるため、計測方法の違いに伴う誤差が生じるためである。
したがって、検出物体判定部60(図2)は、XY座標系における座標値に換算された、点Fiと接地点Hjの距離を求めて、その距離の大きさを判定した結果、点Fiと接地点Hjが所定距離以内に近接しているときに、動き領域検出部54(第1物体検出部)で検出された物体(矩形領域Ri)と、差分演算部58(第2物体検出部)で検出された物体(領域Xj’)が同一移動物体であると判定する。
矩形領域Riと領域Xj’が同一移動物体であると判定されたとき、図8と図11に示す検出結果が統合されて、新たに統合物体情報として検出物体判定部60に記憶される。このとき、統合結果は添字kを用いて、点Fk(Fi)のXY座標系における座標値(FXk,FYk)(k=1,2,…)と接地点Hk(Hj)のXY座標系における座標値(HXk,HYk)(k=1,2,…)は同じ移動物体を示す情報であるとして記憶される。
(移動物***置の特定方法の説明)
移動物体の位置の特定は、移動物***置特定部62(図2)で行われる。以下、その方法について図13を用いて説明する。なお、図13は、点Fiと接地点Hjが近接していると判定されて、それらが同一移動物体を示すものと判定されて統合された状態を示す。すなわち、統合前には添字i,jで管理していた情報を、新たに添字kを付与して管理する。
まず、先述した移動物体判定の結果、同一移動物体と判定されて検出物体判定部60に記憶された統合物体情報である、各移動物体を示す矩形領域Rk(Ri)の左右端の画像上の座標値sxk,exk(k=1,2,…)と、接地点Hk(Hj)のXY座標系(図13)における座標値(HXk(HXj),HYk(HYj))(k=1,2,…)がそれぞれ読み出される。
次に、矩形領域Rkの左右端の画像上の座標値sxk,exk(k=1,2,…)の差分値を算出することによって、移動物体の画像上の幅wkを算出する。すなわち、移動物体の画像上の幅wkは、wk=exk‐sxk(k=1,2,…)によって算出される。
さらに、座標値(HXk,HYk)(k=1,2,…)と、移動物体の画像上の幅wkと、後方カメラ12の光学パラメータである焦点距離fを用いて移動物体の実際の幅Wk(k=1,2,…)を算出する。
具体的には、Wk=wk×(後方カメラ位置Cと接地点Hkの距離Dk)/fによって算出することができる。なお、距離Dkは、図13に示すように、接地点Hk(Hj)のXY座標系における座標値(HXk,HYk)を用いて、Dk=(HXk+HYk1/2によって算出することができる。
ここで算出された、移動物体までの距離Dkと、移動物体の実際の幅Wkは、移動物***置特定部62に記憶される。
(車両挙動制御の作用の説明)
車両挙動制御部80の作用について、図2を用いて説明する。先述した移動物体検出処理によって検出された移動物体の位置情報は、図2に示す接触判定部82に送られる。
接触判定部82は、移動物体の位置情報と車両10の挙動情報(車輪速と操舵角)から、車両10が移動物体に接触する可能性を算出する。具体的には、前述した移動物***置特定処理によって算出された、車両10(後方カメラ12)と各移動物体との実際の距離Dk(k=1,2,…)と移動物体の実際の幅Wk(k=1,2,…)から、車両10が現在の車速と現在の操舵角のまま移動したと仮定したときに、移動物体と接触する可能性を算出する。
その結果、車両10が移動物体と接触する可能性があるときには、警報出力部84から警報を出力して注意喚起を行う。
また、移動物体と接触する可能性が非常に高いときには、制動制御部86を作動させて車両10に制動力を発生させ、強制的に車両を停止させ、移動物体との接触を回避する。
(車両挙動制御装置で行われる処理の流れの説明)
車両挙動制御装置100aで行われる一連の処理の流れについて、図14のフローチャートと図2の機能ブロック図を用いて説明する。なお、ここでは各処理の概要を説明するに留め、各処理の詳細な流れの説明は後述する。
(ステップS10)後方カメラ12で車両10の後方の画像を取得する。
(ステップS12)動き領域検出部54(第1物体検出部)において、オプティカルフローに基づく移動物体検出処理を行う。
(ステップS14)俯瞰画像生成部56において俯瞰画像生成処理を行う。
(ステップS16)差分演算部58(第2物体検出部)において、俯瞰画像の差分に基づく移動物体検出処理を行う。
(ステップS18)検出物体判定部60において検出物体判定処理を行う。
(ステップS20)移動物***置特定部62において移動物***置特定処理を行う。
(ステップS22)車両挙動制御部80において、車両10の挙動制御を行う。
なお、各ステップで行われる処理の詳細な流れについては後述する。
(オプティカルフローに基づく物体検出処理の流れの説明)
図14のステップS12で行われるオプティカルフローに基づく物体検出処理の流れについて、図15のフローチャートと図4の機能ブロック図を用いて説明する。
(ステップS30)平面歪み補正部54aにおいて歪曲補正処理を行う。
(ステップS32)オプティカルフロー検出部54bにおいてオプティカルフロー検出処理を行う。
(ステップS34)車両挙動フロー検出部54cにおいて車両挙動算出処理を行う。
(ステップS36)物体検出部54dにおいて、車両挙動フローと方向が異なるオプティカルフローの抽出処理を行う。
(ステップS38)物体検出部54dにおいて、抽出されたオプティカルフローの終点に対応する領域のラベル付け処理を行う。
(ステップS40)物体検出部54dにおいて、ラベル付けされた各領域に外接する矩形領域の登録処理を行い、その後メインルーチン(図14)に戻る。
(俯瞰画像の差分に基づく物体検出処理の流れの説明)
図14のステップS16で行われる俯瞰画像の差分に基づく物体検出処理の流れについて、図16のフローチャートと図2,図9の機能ブロック図を用いて説明する。
(ステップS50)俯瞰画像生成部56(図2)において俯瞰画像J(x,y,t‐Δt)を生成する。
(ステップS52)俯瞰画像生成部56(図2)において俯瞰画像J(x,y,t)を生成する。
(ステップS54)俯瞰画像位置合わせ部58a(図9)において、車両情報に基づいて俯瞰画像J(x,y,t‐Δt)を変形処理し、俯瞰画像J(x,y,t)と位置合わせを行う。
(ステップS56)差分演算実行部58b(図9)においてフレーム差分を実行する。
(ステップS58)物体検出部58c(図9)において、フレーム差分の結果に対して、2値化処理とラベリング処理を行う。
(ステップS60)物体検出部58c(図9)において、ラベル付けされた各領域の重心位置の登録処理を行い、その後メインルーチン(図14)に戻る。
(検出物体判定処理の流れの説明)
図14のステップS18で行われる検出物体判定処理の流れについて、図17のフローチャートを用いて説明する。なお、検出物体判定処理は、図2に示した検出物体判定部60において行われる。
(ステップS70)各矩形領域Ri(i=1,2,…)の位置から、物体の位置座標として点Fi(fxi,fyi)(i=1,2,…)を算出する。
(ステップS72)点Fi(fxi,fyi)(i=1,2,…)のXY座標系における座標値(FXi,FYi)(i=1,2,…)を算出する。なお、ステップS70とステップS72は、全ての矩形領域Riに対して繰り返して実行する。
(ステップS74)各領域Xj’(j=1,2,…)の重心位置から物体の接地点Hjの画像上の座標値(hxj,hyj)(j=1,2,…)を算出する。
(ステップS76)物体の接地点である接地点Hjの画像上の座標値(hxj,hyj)(j=1,2,…)のXY座標系における座標値(HXj,HYj)(j=1,2,…)を算出する。なお、ステップS74とステップS76は、全ての領域Xj’に対して繰り返して実行する。
(ステップS78)座標値(FXi,FYi)(i=1,2,…)と座標値(HXj,HYj)(j=1,2,…)が所定距離以内に近接しているか否かを、全ての添字i,添字jの組み合わせについて判定する。所定距離以内であるときはステップS80に進み、それ以外のときは、判定する領域を変更してステップS78を繰り返す。
(ステップS80)座標値(FXi,FYi)に対応する矩形領域Riと座標値(HXj,HYj)に対応する領域Xj’は同一移動物体であると判定されて、2つの検出結果を紐付ける。また、XY座標系における座標値(FXi,FYi)(j=1,2,…)と座標値(HXj,HYj)(j=1,2,…)を記憶する。なお、ステップS78とステップS80は、検出された全ての物体に対して繰り返して実行する。ここで、同一移動物体であると判定された矩形領域Riと領域Xj’は、添字k(k=1,2,…)を用いて、矩形領域Rk(Ri)と領域Xk’(Xj’)は同じ移動物体を表す領域であるとして紐付けられて記憶される。すなわち、矩形領域Riを代表する座標値(FXi,FYi)は座標値(FXk,FYk)として記憶され、領域Xj’ を代表する座標値(HXj,HYj)は座標値(HXk,HYk)として記憶される。その後、メインルーチン(図14)に戻る。
(移動物***置特定処理の流れの説明)
図14のステップS20で行われる移動物***置特定処理の流れについて、図18のフローチャートを用いて説明する。なお、移動物***置特定処理は、図2に示した移動物***置特定部62において行われる。
(ステップS90)検出物体判定処理によって同一移動物体と判定された移動物体の情報を読み出す。
(ステップS92)同一移動物体を示している動き領域検出部54(第1物体検出部)の検出結果と差分演算部58(第2物体検出部)の検出結果を取得する。
(ステップS94)矩形領域Rkの左右端の座標値sxk,exkと、接地点HkのXY座標系における座標値(HXk,HYk)を読み出す。
(ステップS96)座標値sxk,exkから、移動物体の画像上の幅wkを算出する。
(ステップS98)座標値(HXk,HYk)と移動物体の画像上の幅wkから、移動物体の実際の幅Wkを算出する。なお、このとき、移動物体までの距離Dkも算出しておく。
(ステップS100)移動物体の実際の幅Wkと、移動物体までの距離Dkと、XY座標系における座標値(HXk,HYk)を、検出された移動物体の位置情報として登録する。なお、ステップS90からステップS100の処理は、全ての添字k(k=1,2,…)について行う。その後、メインルーチン(図14)に戻る。
本発明に係る車両用外界認識装置を用いた車両挙動制御装置の別の具体的な実施形態について、図面を参照して説明する。
(実施例2の機能構成の説明)
本実施例2は、本発明を、車両後方の移動物体を検出して、後退駐車時に移動物体と接触する可能性があるときには、車両に制動をかけて停止させる車両挙動制御装置に適用したものである。
図19は、実施例2に係る車両挙動制御装置100bの機能構成を示す機能ブロック図である。車両挙動制御装置100bは、前述した車両挙動制御装置100aが有する車両用外界認識装置50a(図2)の代わりに車両用外界認識装置50bを有している。
車両用外界認識装置50bの内部構成は、車両用外界認識装置50aの内部構成とほぼ同様であるが、動き領域検出部55(第1物体検出部)の内部構成と移動物***置特定部63の内部構成のみが異なっている。以下、動き領域検出部55の内部構成と移動物***置特定部63の内部構成についてのみ説明する。なお、それ以外の構成要素の機能は実施例1で説明した通りであるため、説明は省略する。
(歪曲補正方法の説明)
図20は、車両挙動制御装置100bに実装された動き領域検出部55(第1物体検出部)の詳細な内部構成を示す機能ブロック図である。動き領域検出部55は、原画像I(x,y,t)を、路面に垂直に立てた仮想的な円筒面に投影した円筒面投影画像Ic(x,y,t)(投影画像)に変換する円筒面歪み補正部54eと、時刻tに撮像された原画像から生成された円筒面投影画像Ic(x,y,t)と時刻t-Δtに撮像された原画像から生成された円筒面投影画像Ic(x,y,t-Δt)からオプティカルフローを検出するオプティカルフロー検出部54bと、時刻t-Δtから時刻tまでの間の車両10の車輪速と操舵角の変化に基づいて、時間Δtの間の車両10の移動に伴って発生すると予想されるオプティカルフローを算出する車両挙動フロー検出部54cと、オプティカルフロー検出部54bで検出されたオプティカルフローと車両挙動フロー検出部54cで算出されたオプティカルフローに基づいて物体を検出する物体検出部54dとからなる。
円筒面歪み補正部54eは、観測された原画像I(x,y,t)に生じる歪曲を取り除いて補正する機能を有する。具体的には、原画像I(x,y,t)を、路面から垂直に起立して、後方カメラ12の焦点位置を中心とする円弧上に形成された仮想的な円筒面に投影して、図5Cに示す円筒面投影画像Ic(x,y,t)を生成する。この仮想的な円筒面への投影処理によって、原画像I(x,y,t)の中に生じていた歪曲を取り除くことができ、図5Cに示すように、歩行者X2は直立した状態に変換される。そして、この円筒面投影画像Ic(x,y,t)から歩行者を検出することによって、歩行者の位置と幅を正確に特定することができる。
なお、実施例1で説明した車両挙動制御装置100aでは、同様の投影処理を行って平面投影画像Ip(x,y,t)を生成したが、図5Bと図5Cを比較するとわかるように、いずれの投影処理を行っても歪曲が取り除かれて、歩行者が直立した画像が得られる。なお、図5Cに示す円筒面投影画像Ic(x,y,t)と、図5Bに示す平面投影画像Ip(x,y,t)を比較すると、仮想面に投影される際の倍率が異なるため、円筒面投影画像Ic(x,y,t)にあっては、画像の辺縁部において歩行者がより小さく投影される。しかし、円筒面に投影しているため、物体の上下方向の形状は保持されて、歩行者は歩行者の形状を保って補正される。すなわち、歩行者の検出性能が悪化することはない。また、図5Bと図5Cを比較すると、歩行者の足元位置が異なっているが、これは投影方法の違いによって発生する現象であって、車両と物体の距離は、原画像から生成した俯瞰画像に基づいて算出されるため、物体の検出性能への影響はない。
すなわち、実施例1で説明した平面投影と本実施例2で説明する円筒面投影のいずれを用いても、原画像の歪曲を補正することができる。また、実際の投影処理は、予め生成された歪み補正テーブルを用いて行うことができるため、いずれの投影方法を用いても処理に要する時間は変わらない。なお、円筒面投影を用いると、平面投影に比べて広い視野の情報を画像化することができるため、広視野の情報が必要なアプリケーションに対しては、円筒面投影がより望ましい歪曲補正方法である。
(移動物***置の特定方法の説明)
移動物***置特定部63で行われる物***置特定方法について、実施例1との違いに着目して説明する。まず、先述した移動物体判定の結果、同一移動物体と判定されて検出物体判定部60に記憶された、各移動物体を示す矩形領域Rkの左右端の座標値sxk,exk(k=1,2,…)と、接地点HkのXY座標系における座標値(HXk,HYk)(k=1,2,…)がそれぞれ読み出される。
次に、接地点HkのY方向の座標値HYk(k=1,2,…)と、矩形領域Rkの左右端の座標値sxk,exk(k=1,2,…)から移動物体の実際の左右端の位置SXk,EXk(k=1,2,…)を算出する(図13)。
移動物体の実際の左右端の位置SXk,EXk(k=1,2,…)は、移動物体の接地点HkのY方向の座標値HYk(k=1,2,…)と、後方カメラ12の光学パラメータである焦点距離fを用いて算出することができる。具体的には、例えば、SXk=sxk*HYk/f,EXk=exk*HYk/fによって算出することができる。
このようにして算出された移動物体の実際の左右端の位置SXk,EXk(k=1,2,…)から、左右端の位置SXk,EXkの中点として移動物体の実際の横方向位置FXk(k=1,2,…)を算出することができる。さらに、移動物体の実際の幅Wkを算出することができる。なお、このとき、移動物体までの距離Dkも算出しておく。
具体的には、FXk=(SXk+EXk)/2,Wk=EXk−SXkによって、それぞれ算出することができる。また、距離Dkは実施例1で説明した通り、座標値(HXk,HYk)を用いて算出する。
このようにして算出された移動物体の実際の幅Wkと移動物体までの距離Dkと移動物体の位置を示す座標値(FXk,FYk)(k=1,2,…)は、移動物***置特定部63に記憶される。
すなわち、実施例1では、画像上の移動物体の幅と移動物体の接地点の位置座標から移動物体の実際の幅を算出したが、本実施例2では、画像上の移動物体の左右端の位置と移動物体の接地点の位置座標から移動物体の実際の幅を算出する点が異なっている。いずれの方法を用いても移動物体の位置を確実に特定することができるが、移動物体の左右端の位置を用いる実施例2の方法によると、移動物体の横方向の位置精度をより向上させることができる。
(車両挙動制御装置で行われる処理の流れの説明)
車両挙動制御装置100bで行われる一連の処理は、図14のフローチャートとほぼ同じ流れで行われる。すなわち、図14は車両挙動制御装置100aで行われる処理の流れを示すフローチャートであるが、実施例2に示した車両挙動制御装置100bの処理の大まかな流れを示すためにも流用できるため、実施例2のメインルーチンは図14で表されるものとして以後の説明を行う。
なお、図14に示した各処理の概要は実施例1で説明した通りであるため、再度の説明は省略し、実施例1と異なる部分についてのみ説明する。
(オプティカルフローに基づく移動物体検出処理の流れの説明)
本実施例2において、図14のステップS12で行うオプティカルフローに基づく移動物体検出処理の流れは実施例1と同じであるが、歪曲補正処理(図15のステップS30)の内容のみが異なる。
すなわち、実施例2では、図20に示す円筒歪み補正部54eにおいて、円筒面投影による原画像I(x,y,t)の歪曲補正を行う。
(移動物***置特定処理の流れの説明)
図14のステップS20で行われる移動物***置特定処理の流れは、実施例1(図18)と異なるため、図21のフローチャートを用いて説明する。なお、移動物***置特定処理は、図19に示した移動物***置特定部63において行われる。
(ステップS110)検出物体判定処理によって同一移動物体と判定された移動物体の情報を読み出す。
(ステップS112)同一移動物体を示している動き領域検出部54(第1物体検出部)の検出結果と差分演算部58(第2物体検出部)の検出結果を取得する。
(ステップS114)矩形領域Riの左右端の座標値sxk,exkと、接地点HkのXY座標系における座標値(HXk,HYk)(k=1,2,…)を読み出す。
(ステップS116)座標値(HXk,HYk)と座標値sxk,exkから、移動物体の実際の左右端の位置SXk,EXk(k=1,2,…)を算出する。
(ステップS118)移動物体の横方向位置FXk(k=1,2,…)と、移動物体の実際の幅Wkを算出する。なお、このとき、移動物体までの距離Dkも算出しておく。
(ステップS120)移動物体の実際の幅Wkと移動物体までの距離Dkと移動物体の位置を示す座標値(FXk,FYk)(k=1,2,…)を、検出された移動物体の位置情報として登録する。なお、ステップS110からステップS120の処理は、全ての添字k(k=1,2,…)について行う。その後、メインルーチン(図14)に戻る。
本発明に係る車両用外界認識装置を用いた車両挙動制御装置の別の具体的な実施形態について、図面を参照して説明する。
(実施例3の機能構成の説明)
本実施例3は、本発明を、車両後方の移動物体を検出して、後退駐車時に移動物体と接触する可能性があるときには、車両に制動をかけて停止させる車両挙動制御装置に適用したものである。
図22は、実施例3に係る車両挙動制御装置100cの機能構成を示す機能ブロック図である。車両挙動制御装置100cは、車両用外界認識装置50cと車両挙動制御部80からなり、前述した車両挙動制御装置100a,100bとは、動き領域検出部57(第1物体検出部)の内部構成と検出物体判定部61の内部構成と移動物***置特定部65の内部構成が異なっている。以下、動き領域検出部57と検出物体判定部61と移動物***置特定部65の内部構成についてのみ説明する。なお、それ以外の構成要素の機能は実施例1で説明した通りであるため、説明は省略する。
動き領域検出部57(第1物体検出部)は、原画像I(x,y,t‐Δt),I(x,y,t)の中から物体の検出を行う。
図23は、動き領域検出部57(第1物体検出部)の詳細な内部構成を示す機能ブロック図である。動き領域検出部57は、図4に示した実施例1の動き領域検出部54の構成に加えて、原画像I(x,y,t)の中からパターンマッチングによって歩行者を検出する歩行者パターン検出部57aと、原画像I(x,y,t)の中からパターンマッチングによって車両を検出する車両パターン検出部57bを有する。このような構成にすることによって、原画像I(x,y,t)の中から検出された物体の種別を特定して、物体までの距離の検出精度を向上させることができる。詳しくは後述する。
検出物体判定部61は、動き領域検出部57(第1物体検出部)で検出された物体と差分演算部58(第2物体検出部)で検出された物体が同一の物体であるか否かを判定する。なお、動き領域検出部57(第1物体検出部)で検出された物体として、歩行者パターン検出部57aの検出結果と車両パターン検出部57bの検出結果が併せて参照される点が、実施例1,実施例2とは異なる。
移動物***置特定部65は、検出された移動物体の存在位置を特定する。その際、検出された移動物体の種別に応じて、移動物体までの距離の算出方法を変更する点が、実施例1,実施例2とは異なる。詳細は後述する。
(歩行者パターン,車両パターン検出方法の説明)
動き領域検出部57(第1物体検出部)において行われる、原画像I(x,y,t)から歩行者パターンと車両パターンを検出する方法について説明する。
歩行者パターンと車両パターンの識別は、一般的に行われているパターンマッチングによって行う。より具体的には、テンプレートマッチング,輝度勾配の分布ヒストグラムを用いたパターン識別法(HOG),ニューラルネットワークを用いたパターン識別等のいずれの方法を用いて行っても構わない。
なお、パターンマッチングを効率的に行うために、原画像I(x,y,t)から生成した解像度の低いピラミッド画像を用いるのが望ましい。
検出された歩行者パターンおよび車両パターンは、オプティカルフローに基づいて検出された物体と同様の形式で動き領域検出部57に記憶される。すなわち、検出された歩行者パターンまたは車両パターンに外接する矩形領域Ri(i=1,2,…)の番号とともに、各矩形領域の左上の頂点座標(sxi,syi)と右下の頂点座標(exi,eyi)が、それぞれ記憶される。また、このとき、物体の位置を代表する点Fi(図7)の座標を算出して同時に記憶しておいてもよい。
(移動物体判定方法の説明)
検出物体判定部61は、オプティカルフローに基づく物体の検出結果と、俯瞰画像の差分による物体の検出結果に加えて、歩行者パターンの検出結果と車両パターンの検出結果を用いて、検出された物体が同一移動物体であるか否かを特定する。詳細な処理の流れは後述する。
(移動物***置の特定方法の説明)
移動物***置特定部65は、検出物体判定部61で同一移動物体であると判定された移動物体の存在位置を特定する。その際、検出された移動物体が歩行者であるか車両であるかによって、移動物体までの距離の計測方法を変更する。
具体的には、検出された移動物体が車両であるときは、オプティカルフロー検出部54b(図23)の検出結果に基づいて移動物体までの距離を算出する。そして、検出された移動物体が歩行者であるときは、差分演算部58(図22)の検出結果に基づいて移動物体までの距離を算出する。
車両のように、路面に接する接地点(タイヤ)と後方カメラ12に最も接近した近接点(バンパー)が異なる物体(オーバーハングがある物体)にあっては、俯瞰画像の差分結果から算出された接地点(例えば、図12CのH1(hx1,hy1))は、必ずしも移動物体までの距離を表していない。
接地点と近接点が異なる例を、図24Aから図24Cを用いて説明する。図24Aは、後方カメラ12で取得された原画像I(x,y,t)の一例である。原画像I(x,y,t)の中には、歩行者X1と他車両Y1が写っている。歩行者X1には、オプティカルフローに基づいて検出された移動物体として矩形領域R1と移動物体の位置を表す点F1が重畳されている。また、他車両Y1には、オプティカルフローに基づいて検出された移動物体として矩形領域R2と移動物体の位置を表す点F2が重畳されている。
図24Bは、原画像I(x,y,t)を俯瞰画像J(x,y,t)に変換した例である。歩行者X1は領域X1’に変換されて、他車両Y1は領域Y1’に変換される。そして、歩行者X1が変換された領域X1’からは接地点H1が検出されて、他車両Y1が変換された領域Y1’からは接地点H2が検出される。
そして、後方カメラ位置Cと領域X1’の接地点H1の距離が、車両10から歩行者X1までの距離として算出される。また、後方カメラ位置Cと領域Y1’の接地点H2の距離が、車両10から他車両Y1までの距離として算出される。
このとき、歩行者X1から検出された点F1と接地点H1は同一点を表している。一方、他車両Y1から検出された点F2と接地点H2は同一点を表していない。したがって、図24Cに示すように、点F2は他車両Y1のバンパー前端の位置を表しているのに対し、接地点H2は他車両Y1のタイヤ接地点の位置を表している。
本実施例3は、このようにして発生する可能性がある移動物体の位置の算出誤差を低減するために、原画像から車両が検出されたときには、原画像からオプティカルフローに基づいて検出された移動物体の位置を表す点F2に基づいて移動物体までの距離を算出する。一方、原画像から歩行者が検出されたときには、俯瞰画像からフレーム差分によって検出された移動物体の接地点H1に基づいて移動物体までの距離を算出する。
以下、図29Aと図29Bを用いて、移動物体の存在位置と移動物体の幅を特定する方法について具体的に説明する。
図29Aは、移動物体として歩行者が検出されたときに、その存在位置と幅を特定する方法を示す図である。
すなわち、俯瞰画像の差分に基づいて物体(領域Xi’)が検出されて、オプティカルフローに基づいて物体(矩形領域Ri)が検出されないときは、俯瞰画像の差分に基づいて得た領域Xi’の接地点のXY座標系における座標値(HXi,HYi)から物体までの距離Diを算出する。そして、距離Diと歩行者パターンを代表する点Fp(FXp,FYp)の位置から移動物体の横方向位置FXpを算出する。さらに、距離Diと歩行者パターンの幅wpから移動物体の幅Wiを算出する。
また、俯瞰画像の差分に基づいて物体(領域Xi’)が検出されて、なおかつ、オプティカルフローに基づいて物体(矩形領域Ri)が検出されたときは、俯瞰画像の差分に基づいて得た領域Xi’の接地点のXY座標系における座標値(HXi,HYi)から距離Diを算出する。そして、距離Diと歩行者パターンを代表する点Fp(FXp,FYp)の位置とオプティカルフローから得た点Fiの座標値(FXi,FYi)から移動物体の横方向位置FXiを算出する。さらに、距離Diと歩行者パターンの幅wiから移動物体の幅Wiを算出する。
図29Bは、物体として車両が検出されたときに、その存在位置と幅を特定する方法を示す図である。
すなわち、俯瞰画像の差分に基づいて物体(領域Xi’)が検出されて、オプティカルフローに基づいて物体(矩形領域Ri)が検出されないときは、俯瞰画像の差分に基づいて得た領域Xi’の接地点のXY座標系における座標値(HXi,HYi)から距離Diを算出する。そして、距離Diと車両パターンを代表する点Fv(FXv,FYv)の位置から移動物体の横方向位置FXiを算出する。さらに、距離Diと車両パターンの幅wiから移動物体の幅Wiを算出する。
また、俯瞰画像の差分に基づいて物体(領域Xi’)が検出されて、なおかつ、オプティカルフローに基づいて物体(矩形領域Ri)が検出されたときは、俯瞰画像の差分に基づいて得た領域Xi’の接地点のXY座標系における座標値(HXi,HYi)から距離Diを算出する。そして、距離Diと車両パターンを代表する点Fv(FXv,FYv)の位置とオプティカルフローから得た点Fiの座標値(FXi,FYi)から移動物体の横方向位置FXiを算出する。さらに、距離Diと車両パターンの幅wiから移動物体の幅Wiを算出する。
このように、実施例3にあっては、移動物体として歩行者が検出されたときと、車両が検出されたときとで、移動物体までの距離,移動物体の横方向位置,移動物体の幅の算出方法を変更している。
(車両挙動制御装置で行われる処理の流れの説明)
車両挙動制御装置100cで行われる一連の処理の流れについて、図25のフローチャートと図22,図23の機能ブロック図を用いて説明する。なお、ここでは各処理の概要を説明するに留め、各処理の詳細な流れの説明は後述する。
(ステップS130)後方カメラ12で車両10の後方の画像を取得する。
(ステップS132)動き領域検出部57(第1物体検出部)において、オプティカルフローに基づく物体検出処理を行う。
(ステップS134)動き領域検出部57(第1物体検出部)において、歩行者パターン検出処理を行う。
(ステップS136)動き領域検出部57(第1物体検出部)において、車両パターン検出処理を行う。
(ステップS138)俯瞰画像生成部56において俯瞰画像生成処理を行う。
(ステップS140)差分演算部58(第2物体検出部)において、俯瞰画像の差分に基づく物体検出処理を行う。
(ステップS142)検出物体判定部61において検出物体判定処理を行う。
(ステップS144)移動物***置特定部65において移動物***置特定処理を行う。
(ステップS146)車両挙動制御部80において、車両10の挙動制御を行う。
(歩行者パターン,車両パターン検出処理の流れの説明)
図25のステップS134で行われる歩行者パターン検出処理、およびステップS136で行われる車両パターン検出処理の流れについて、図26のフローチャートを用いて説明する。なお、図25のフローチャートでは、歩行者パターン検出処理(ステップS134)と車両パターン検出処理(ステップS136)を分けて記載したが、実際は同じ原画像I(x,y,t)を対象にした処理であるため、図26に示すように一連の処理として実行する。
(ステップS150)原画像I(x,y,t)からピラミッド画像を生成する。
(ステップS152)生成したピラミッド画像に対して歩行者パターンを検出する歩行者パターン検出処理を実行する。
(ステップS154)生成したピラミッド画像に対して車両パターンを検出する車両パターン検出処理を実行する。
(ステップS156)検出された歩行者パターンについて、同じ歩行者を示している複数の検出パターンを統合する。同様に、検出された車両パターンについて、同じ車両を示している複数の検出パターンを統合する。
(ステップS158)検出された歩行者パターン,車両パターンの登録処理を行う。具体的には、検出されたパターンに外接する矩形領域Riの頂点座標と、矩形領域Riの下辺の中点である点Fi(図7の点F1に対応する点)の座標が算出されて記憶される。その後メインルーチン(図25)に戻る。
(検出物体判定処理の流れの説明)
図25のステップS142で行われる検出物体判定処理の流れについて、図27Aから図27Cのフローチャートを用いて説明する。
(ステップS160)ステップS140の処理によって記憶された接地点Hj(hxj,hyj)の情報を読み出す。
(ステップS162)接地点Hj(hxj,hyj)の実空間座標(HXj,HYj)を算出する。なお、実空間座標(HXj,HYj)が予め記憶されているときは、記憶された情報を読み出す。
(ステップS164)ステップS132の処理によって記憶された点Fi(fxi,fyi)の情報を読み出す。
(ステップS166)点Fi(fxi,fyi)の実空間座標(FXi,FYi)を算出する。
(ステップS168)図27Bに示すフローチャートを実行する。
(ステップS170)図27Cに示すフローチャートを実行する。なお、ステップS164からステップS170は、全ての矩形領域Riに対して繰り返して実行する。また、ステップS160からステップS170は、全ての領域Xj’に対して繰り返して実行する。その後、メインルーチン(図25)に戻る。
以下、図27AのステップS168で行う処理の流れを図27Bを用いて説明する。
(ステップS180)歩行者検出結果を読み出す。
(ステップS182)歩行者の位置を表す点Fp(fxp,fyp)を読み出す。
(ステップS184)点Fp(fxp,fyp)の実空間座標(Fxp,Fyp)を算出する。
(ステップS186)接地点Hjの実空間座標(HXj,HYj)と点Fpの実空間座標(Fxp,Fyp)が所定距離以内にあるか否かを判定する。所定距離以内にあるときはステップS188に進み、それ以外のときはステップS182に戻り、異なる歩行者検出結果に対する処理を行う。
(ステップS188)接地点Hjの実空間座標(HXj,HYj)と点Fiの実空間座標(FXi,FYi)が所定距離以内にあるか否かを判定する。所定距離以内にあるときはステップS190に進み、それ以外のときはステップS192に進む。
(ステップS190)オプティカルフローに基づく物体の検出結果と、俯瞰画像の差分に基づく物体の検出結果と、歩行者検出結果は同じ移動物体を示していると判断して、これらを統合する。統合された情報は、実施例1,実施例2と同様に添字kで管理されて、検出物体判定部61に記憶される。なお、ステップS182からステップS190は、全ての歩行者検出結果に対して繰り返して実行する。その後、メインルーチン(図25)に戻る。
(ステップS192)俯瞰画像の差分に基づく物体の検出結果と、歩行者検出結果は同じ移動物体を示していると判断して、これらを統合する。統合された情報は、実施例1,実施例2と同様に添字kで管理されて、検出物体判定部61に記憶される。なお、ステップS182からステップS192は、全ての歩行者検出結果に対して繰り返して実行する。その後、メインルーチン(図25)に戻る。
以下、図27AのステップS170で行う処理の流れを図27Cを用いて説明する。
(ステップS200)車両検出結果を読み出す。
(ステップS202)歩行者の位置を表す点Fv(fxv,fyv)を読み出す。
(ステップS204)点Fv(fxv,fyv)の実空間座標(FXv,FYv)を算出する。
(ステップS206)接地点Hjの実空間座標(HXj,HYj)と点Fvの実空間座標(FXv,FYv)が所定距離以内にあるか否かを判定する。所定距離以内にあるときはステップS208に進み、それ以外のときはステップS202に戻り、異なる車両検出結果に対する処理を行う。
(ステップS208)接地点Hjの実空間座標(HXj,HYj)と点Fiの実空間座標(FXi,FYi)が所定距離以内にあるか否かを判定する。所定距離以内にあるときはステップS210に進み、それ以外のときはステップS212に進む。
(ステップS210)オプティカルフローに基づく物体の検出結果と、俯瞰画像の差分に基づく物体の検出結果と、車両検出結果は同じ移動物体を示していると判断して、これらを統合する。統合された情報は、実施例1,実施例2と同様に添字kで管理されて、検出物体判定部61に記憶される。なお、ステップS202からステップS210は、全ての車両検出結果に対して繰り返して実行する。その後、メインルーチン(図25)に戻る。
(ステップS212)俯瞰画像の差分に基づく物体の検出結果と、車両検出結果は同じ移動物体を示していると判断して、これらを統合する。統合された情報は、実施例1,実施例2と同様に添字kで管理されて、検出物体判定部61に記憶される。なお、ステップS202からステップS212は、全ての車両検出結果に対して繰り返して実行する。その後、メインルーチン(図25)に戻る。
(移動物***置特定処理の流れの説明)
図25のステップS144で行われる移動物***置特定処理の流れについて、図28のフローチャートを用いて説明する。
(ステップS220)前述した検出物体判定処理によって統合した移動物体統合結果を検出物体判定部61から読み出す。
(ステップS222)統合した移動物体が歩行者であるか否かを判定する。歩行者であるときはステップS224に進み、それ以外のときはステップS226に進む。
(ステップS224)着目している移動物体統合結果に対応する検出結果のうち、オプティカルフローに基づく検出結果,俯瞰画像の差分に基づく検出結果,歩行者検出結果をそれぞれ読み出す。
(ステップS226)着目している移動物体統合結果に対応する検出結果のうち、オプティカルフローに基づく検出結果,俯瞰画像の差分に基づく検出結果,車両検出結果をそれぞれ読み出す。
(ステップS228)前述した図29A,図29Bのテーブルに基づいて、移動物体までの距離,横方向位置,幅を算出して登録する。なお、ステップS222からステップS228は、全ての移動物体統合結果に対して繰り返して実行する。その後、メインルーチン(図25)に戻る。
以上説明したように、このように構成された本発明の実施例1に係る車両挙動制御装置100aによれば、車両10に搭載された後方カメラ12(画像取得部)が、車両10の周囲を撮像した原画像I(x,y,t)を取得して、動き領域検出部54(第1物体検出部)が、原画像I(x,y,t)の中から物体を検出するとともに、差分演算部58(第2物体検出部)が、俯瞰画像生成部56で生成された、車両10を俯瞰した俯瞰画像J(x,y,t)の中から物体を検出し、検出物体判定部60が、動き領域検出部54で検出された物体と差分演算部58で検出された物体が所定距離以内に近接しているときに、同一移動物体であると判定して、移動物***置特定部62が、車両10から動き領域検出部54または差分演算部58によって検出された物体までの距離Dkと物体の横方向位置FXkと、動き領域検出部54によって検出された物体の実際の幅Wkによって移動物体の位置を特定するため、測距センサ等を追加することなく、後方カメラ12で撮像された画像のみを用いて、移動物体の横方向位置FXkと幅Wkと車両10から移動物体までの距離Dkをより高い精度で確実に検出することができる。
また、このように構成された本発明の実施例1に係る車両挙動制御装置100aによれば、動き領域検出部54(第1物体検出部)は、原画像I(x,y,t)を路面から垂直に起立した平面に投影した平面投影画像Ip(x,y,t)(投影画像)の中から物体を検出するため、予め用意された歪み補正テーブルを用いた簡便な処理によって原画像I(x,y,t)に生じる歪曲を確実に補正して物体を検出することができる。
そして、このように構成された本発明の実施例1に係る車両挙動制御装置100aによれば、動き領域検出部54(第1物体検出部)は、異なる時刻t‐Δt,tに取得された複数の原画像I(x,y,t‐Δt),I(x,y,t)の中から算出されたオプティカルフローに基づいて物体を検出するため、物体の移動に伴って発生した移動領域を確実に検出することができる。
さらに、このように構成された本発明の実施例1に係る車両挙動制御装置100aによれば、動き領域検出部54(第1物体検出部)は、物体として歩行者および車両を検出するため、車両10の移動の際に障害となる可能性が高い物標を確実に検出することができる。
また、このように構成された本発明の実施例1に係る車両挙動制御装置100aによれば、差分演算部58(第2物体検出部)は、異なる時刻t‐Δt,tに取得された複数の原画像I(x,y,t‐Δt),I(x,y,t)からそれぞれ生成された複数の俯瞰画像J(x,y,t‐Δt),J(x,y,t)間のフレーム差分の結果に基づいて物体を検出するため、物体の接地点の位置を簡便かつ確実に検出することができる。
そして、このように構成された本発明の実施例1に係る車両挙動制御装置100aによれば、車両用外界認識装置50aの認識結果に基づいて車両10の制駆動力制御を行うため、例えば、駐車時に車両10の挙動を確実に制御して、移動物体に接触させることなく駐車動作を行わせることができる。
さらに、このように構成された本発明の実施例2に係る車両挙動制御装置100bによれば、動き領域検出部55(第1物体検出部)は、原画像I(x,y,t)を路面と直交する円筒面に投影した円筒面投影画像Ic(x,y,t)(投影画像)の中から移動物体を検出するため、予め用意された歪み補正テーブルを用いた簡便な処理によって原画像I(x,y,t)に生じる歪曲を確実に補正することができるとともに、より広視野の画像情報を得ることができる。すなわち魚眼レンズのように画角の広いレンズが装着された後方カメラ12を用いたときに、歪曲補正を行った後でもより広範囲の画像を得ることができる。
また、このように構成された本発明の実施例3に係る車両挙動制御装置100cによれば、動き領域検出部57(第1物体検出部)は、さらに原画像I(x,y,t)に対してパターンマッチングを行うことによって物体を検出するため、原画像が有している物体の形状特徴や濃淡特徴を利用することができ、これによって歩行者や車両をより一層確実に検出することができる。
そして、このように構成された本発明の実施例3に係る車両挙動制御装置100cによれば、検出物体判定部61は、さらに、移動物体が歩行者であるか車両であるかを判別して、移動物***置特定部65は、移動物体が歩行者であるときには、差分演算部58(第2物体検出部)の検出結果に基づいて移動物体までの距離Dkを算出し、移動物体が車両であるときには、動き領域検出部57(第1物体検出部)の検出結果に基づいて移動物体までの距離Dkを算出するため、移動物体の種類に応じて、より精度の高い検出方法によって検出された結果を利用することができるため、移動物体の検出を高精度で行うことができる。
なお、実施例1から実施例3では、物体として歩行者と車両を検出する例を示したが、物体の種類は歩行者と車両に限定されるものではない。すなわち、路面から高さを有して、車両10と接触する可能性がある物体であれば、本願発明を用いて検出することができる。
また、実施例1から実施例3では、車両10の後端に装着した後方カメラ12を用いた例を説明したが、カメラの設置位置は車両10の後端に限定されるものではない。また、使用するカメラも1台に限定されるものではない。すなわち、車両の前端,左右端,後端にそれぞれカメラを設置しても、実施例1から実施例3と同様の装置構成を実現することができる。
以上、本発明の実施例を図面により詳述したが、実施例は本発明の例示にしか過ぎないものであるため、本発明は実施例の構成にのみ限定されるものではなく、本発明の要旨を逸脱しない範囲の設計の変更等があっても、本発明に含まれることは勿論である。
10・・・・車両
12・・・・後方カメラ
20・・・・車輪速センサ
22・・・・操舵角センサ
52・・・・画像取得部
54・・・・動き領域検出部(第1物体検出部)
56・・・・俯瞰画像生成部
58・・・・差分演算部(第2物体検出部)
60・・・・検出物体判定部
62・・・・移動物***置特定部
64・・・・車両情報取得部
80・・・・車両挙動制御部
82・・・・接触判定部
84・・・・警報出力部
86・・・・制動制御部
100a・・車両挙動制御装置

Claims (9)

  1. 車両に搭載されて、前記車両の周囲の画像を取得する画像取得部と、
    前記画像の中から物体を検出する第1物体検出部と、
    前記画像から、前記車両を俯瞰した俯瞰画像を生成する俯瞰画像生成部と、
    前記俯瞰画像の中から物体を検出する第2物体検出部と、
    前記第1物体検出部で検出された物体と前記第2物体検出部で検出された物体とが所定距離以内に近接しているときに、同一移動物体であると判定する検出物体判定部と、
    前記検出物体判定部によって同一移動物体であると判定されたときに、前記車両から前記第1物体検出部または前記第2物体検出部によって検出された物体までの距離と前記物体の横方向位置と、前記第1物体検出部によって検出された物体の幅と、によって前記移動物体の位置を特定する移動物***置特定部と、を有することを特徴とする車両用外界認識装置。
  2. 前記第1物体検出部は、前記画像を路面から垂直に起立した面に投影した投影画像の中から物体を検出することを特徴とする請求項1に記載の車両用外界認識装置。
  3. 前記面は円筒面であることを特徴とする請求項2に記載の車両用外界認識装置。
  4. 前記第1物体検出部は、異なる時刻に取得された複数の前記画像の中から算出されたオプティカルフローに基づいて物体を検出することを特徴とする請求項1から請求項3のいずれか1項に記載の車両用外界認識装置。
  5. 前記第1物体検出部は、さらに前記画像に対してパターンマッチングを行うことによって物体を検出することを特徴とする請求項1から請求項4のいずれか1項に記載の車両用外界認識装置。
  6. 前記第1物体検出部は、物体として歩行者および車両を検出することを特徴とする請求項1から請求項5のいずれか1項に記載の車両用外界認識装置。
  7. 前記第2物体検出部は、異なる時刻に取得された複数の画像からそれぞれ生成された複数の俯瞰画像間の差分結果に基づいて物体を検出することを特徴とする請求項1から請求項6のいずれか1項に記載の車両用外界認識装置。
  8. 前記検出物体判定部は、さらに、移動物体が歩行者であるか車両であるかを判別して、前記移動物***置特定部は、前記移動物体が歩行者であるときには、前記第2物体検出部の検出結果に基づいて前記移動物体までの距離を算出し、前記移動物体が車両であるときには、前記第1物体検出部の検出結果に基づいて前記移動物体までの距離を算出することを特徴とする請求項1から請求項7のいずれか1項に記載の車両用外界認識装置。
  9. 請求項1から請求項8のいずれか1項に記載の車両用外界認識装置の認識結果に基づいて、前記車両の制駆動力制御を行うことを特徴とする車両用外界認識装置を用いた車両挙動制御装置。
JP2015008258A 2015-01-20 2015-01-20 車両用外界認識装置およびそれを用いた車両挙動制御装置 Active JP6454554B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2015008258A JP6454554B2 (ja) 2015-01-20 2015-01-20 車両用外界認識装置およびそれを用いた車両挙動制御装置
US15/315,998 US10169667B2 (en) 2015-01-20 2015-10-28 External environment recognizing device for vehicle and vehicle behavior control device
PCT/JP2015/080407 WO2016117200A1 (ja) 2015-01-20 2015-10-28 車両用外界認識装置およびそれを用いた車両挙動制御装置
EP15878889.3A EP3179445B1 (en) 2015-01-20 2015-10-28 Outside environment recognition device for vehicles and vehicle behavior control device using same

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015008258A JP6454554B2 (ja) 2015-01-20 2015-01-20 車両用外界認識装置およびそれを用いた車両挙動制御装置

Publications (2)

Publication Number Publication Date
JP2016134764A true JP2016134764A (ja) 2016-07-25
JP6454554B2 JP6454554B2 (ja) 2019-01-16

Family

ID=56416762

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015008258A Active JP6454554B2 (ja) 2015-01-20 2015-01-20 車両用外界認識装置およびそれを用いた車両挙動制御装置

Country Status (4)

Country Link
US (1) US10169667B2 (ja)
EP (1) EP3179445B1 (ja)
JP (1) JP6454554B2 (ja)
WO (1) WO2016117200A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102824A (ja) * 2015-12-04 2017-06-08 クラリオン株式会社 追跡装置
JP2018097777A (ja) * 2016-12-16 2018-06-21 株式会社デンソーテン 障害物検出装置および障害物検出方法
WO2018235300A1 (ja) * 2017-06-23 2018-12-27 日本電気株式会社 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体
JP2019149099A (ja) * 2018-02-28 2019-09-05 株式会社デンソー 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法
WO2020110435A1 (ja) 2018-11-29 2020-06-04 日立オートモティブシステムズ株式会社 外界認識装置
WO2021149288A1 (ja) * 2020-01-20 2021-07-29 クラリオン株式会社 障害物検出装置
JP2021136597A (ja) * 2020-02-27 2021-09-13 フォルシアクラリオン・エレクトロニクス株式会社 車両用外界認識装置
DE112021001483T5 (de) 2020-05-14 2023-01-12 Hitachi Astemo, Ltd. Bildverarbeitungsvorrichtung

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI585723B (zh) * 2015-12-31 2017-06-01 合盈光電科技股份有限公司 車輛監控系統及其方法
TWI607911B (zh) * 2016-04-28 2017-12-11 H P B Optoelectronic Co Ltd Vehicle safety protection system and method
JP6418407B2 (ja) * 2016-05-06 2018-11-07 トヨタ自動車株式会社 車両のブレーキ制御装置
CN106504266B (zh) * 2016-09-29 2019-06-14 北京市商汤科技开发有限公司 行走行为的预测方法和装置、数据处理装置和电子设备
JP6620715B2 (ja) * 2016-10-20 2019-12-18 株式会社デンソー 画像認識装置
JP7092688B2 (ja) * 2017-02-17 2022-06-28 住友重機械工業株式会社 作業機械用周辺監視システム
US10579067B2 (en) * 2017-07-20 2020-03-03 Huawei Technologies Co., Ltd. Method and system for vehicle localization
JP6847885B2 (ja) * 2018-03-20 2021-03-24 株式会社東芝 情報処理装置、情報処理方法及びプログラム
US11565698B2 (en) * 2018-04-16 2023-01-31 Mitsubishi Electric Cornoration Obstacle detection apparatus, automatic braking apparatus using obstacle detection apparatus, obstacle detection method, and automatic braking method using obstacle detection method
US11263780B2 (en) * 2019-01-14 2022-03-01 Sony Group Corporation Apparatus, method, and program with verification of detected position information using additional physical characteristic points
CN111612812B (zh) * 2019-02-22 2023-11-03 富士通株式会社 目标物检测方法、检测装置和电子设备
CN111597959B (zh) * 2020-05-12 2023-09-26 盛景智能科技(嘉兴)有限公司 行为检测方法、装置及电子设备
US11501452B2 (en) * 2020-08-10 2022-11-15 Honeywell International Inc. Machine learning and vision-based approach to zero velocity update object detection
US11910092B2 (en) * 2020-10-01 2024-02-20 Black Sesame Technologies Inc. Panoramic look-around view generation method, in-vehicle device and in-vehicle system

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008227646A (ja) * 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
JP2011048520A (ja) * 2009-08-26 2011-03-10 Alpine Electronics Inc 車両周辺監視装置および車両周辺監視方法
JP2011048420A (ja) * 2009-08-25 2011-03-10 Fujitsu Ltd 車両検出装置、車両検出プログラム、および車両検出方法
JP2011087319A (ja) * 2010-12-06 2011-04-28 Sanyo Electric Co Ltd 車載パノラマカメラシステム
JP2012198857A (ja) * 2011-03-23 2012-10-18 Denso It Laboratory Inc 接近物体検知装置及び接近物体検知方法
JP2014197817A (ja) * 2013-03-29 2014-10-16 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009129001A (ja) * 2007-11-20 2009-06-11 Sanyo Electric Co Ltd 運転支援システム、車両、立体物領域推定方法
JP6032034B2 (ja) 2013-02-05 2016-11-24 日産自動車株式会社 物体検知装置
US20140272811A1 (en) * 2013-03-13 2014-09-18 Mighty Carma, Inc. System and method for providing driving and vehicle related assistance to a driver
US10093247B2 (en) * 2013-05-23 2018-10-09 GM Global Technology Operations LLC Enhanced front curb viewing system
EP3002708A1 (en) 2014-10-03 2016-04-06 Autoliv Development AB Perspective transform of mono-vision image

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008227646A (ja) * 2007-03-09 2008-09-25 Clarion Co Ltd 障害物検知装置
JP2011048420A (ja) * 2009-08-25 2011-03-10 Fujitsu Ltd 車両検出装置、車両検出プログラム、および車両検出方法
JP2011048520A (ja) * 2009-08-26 2011-03-10 Alpine Electronics Inc 車両周辺監視装置および車両周辺監視方法
JP2011087319A (ja) * 2010-12-06 2011-04-28 Sanyo Electric Co Ltd 車載パノラマカメラシステム
JP2012198857A (ja) * 2011-03-23 2012-10-18 Denso It Laboratory Inc 接近物体検知装置及び接近物体検知方法
JP2014197817A (ja) * 2013-03-29 2014-10-16 富士通テン株式会社 画像生成装置、画像表示システム及び画像生成方法

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2017102824A (ja) * 2015-12-04 2017-06-08 クラリオン株式会社 追跡装置
JP2018097777A (ja) * 2016-12-16 2018-06-21 株式会社デンソーテン 障害物検出装置および障害物検出方法
US11188768B2 (en) 2017-06-23 2021-11-30 Nec Corporation Object detection apparatus, object detection method, and computer readable recording medium
WO2018235300A1 (ja) * 2017-06-23 2018-12-27 日本電気株式会社 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体
JPWO2018235300A1 (ja) * 2017-06-23 2020-04-09 日本電気株式会社 物体検知装置、物体検知方法、及びコンピュータ読み取り可能な記録媒体
JP2019149099A (ja) * 2018-02-28 2019-09-05 株式会社デンソー 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法
JP7135339B2 (ja) 2018-02-28 2022-09-13 株式会社デンソー 車両に搭載される撮像システム、対象物識別装置、および対象物識別方法
WO2020110435A1 (ja) 2018-11-29 2020-06-04 日立オートモティブシステムズ株式会社 外界認識装置
WO2021149288A1 (ja) * 2020-01-20 2021-07-29 クラリオン株式会社 障害物検出装置
JP2021114195A (ja) * 2020-01-20 2021-08-05 フォルシアクラリオン・エレクトロニクス株式会社 障害物検出装置
JP7404081B2 (ja) 2020-01-20 2023-12-25 フォルシアクラリオン・エレクトロニクス株式会社 障害物検出装置
JP2021136597A (ja) * 2020-02-27 2021-09-13 フォルシアクラリオン・エレクトロニクス株式会社 車両用外界認識装置
JP7460393B2 (ja) 2020-02-27 2024-04-02 フォルシアクラリオン・エレクトロニクス株式会社 車両用外界認識装置
DE112021001483T5 (de) 2020-05-14 2023-01-12 Hitachi Astemo, Ltd. Bildverarbeitungsvorrichtung

Also Published As

Publication number Publication date
EP3179445B1 (en) 2023-06-21
WO2016117200A1 (ja) 2016-07-28
US20170140229A1 (en) 2017-05-18
US10169667B2 (en) 2019-01-01
JP6454554B2 (ja) 2019-01-16
EP3179445A1 (en) 2017-06-14
EP3179445A4 (en) 2018-03-28

Similar Documents

Publication Publication Date Title
JP6454554B2 (ja) 車両用外界認識装置およびそれを用いた車両挙動制御装置
US20210264176A1 (en) Hazard detection from a camera in a scene with moving shadows
JP6795027B2 (ja) 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
US10776946B2 (en) Image processing device, object recognizing device, device control system, moving object, image processing method, and computer-readable medium
EP2650639B1 (en) Disparity calculation apparatus
JP4553072B1 (ja) 画像統合装置および画像統合方法
JP2016081525A (ja) 車両用画像認識システム、及び対応法
WO2017130640A1 (ja) 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP6687039B2 (ja) 物体検出装置、機器制御システム、撮像装置、物体検出方法、及びプログラム
US11514683B2 (en) Outside recognition apparatus for vehicle
JP5098563B2 (ja) 物体検出装置
JP6515704B2 (ja) 車線検出装置及び車線検出方法
US20190297314A1 (en) Method and Apparatus for the Autocalibration of a Vehicle Camera System
JP5516561B2 (ja) 車両用運転支援装置
WO2014083910A1 (ja) 対象物追跡システム、対象物追跡方法、画像処理装置およびその制御方法と制御プログラム
JP2010020476A (ja) 物体検出装置及び物体検出方法
JP6431299B2 (ja) 車両周辺監視装置
JP3988758B2 (ja) 移動体検出装置
JP2005170290A (ja) 障害物検出装置
JP7460393B2 (ja) 車両用外界認識装置
JP2017211765A (ja) 物体認識装置
JP5798078B2 (ja) 車両用外界認識装置とそれを用いた車両システム
JP5141275B2 (ja) 車両用画像処理装置及び車両用画像処理方法
JP4040657B2 (ja) 移動対象物検出装置
JP7493433B2 (ja) 移動量算出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171031

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20171031

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181211

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181217

R150 Certificate of patent or registration of utility model

Ref document number: 6454554

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150