JP6677474B2 - 周辺認識装置 - Google Patents

周辺認識装置 Download PDF

Info

Publication number
JP6677474B2
JP6677474B2 JP2015191331A JP2015191331A JP6677474B2 JP 6677474 B2 JP6677474 B2 JP 6677474B2 JP 2015191331 A JP2015191331 A JP 2015191331A JP 2015191331 A JP2015191331 A JP 2015191331A JP 6677474 B2 JP6677474 B2 JP 6677474B2
Authority
JP
Japan
Prior art keywords
unit
distance
short
long
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015191331A
Other languages
English (en)
Other versions
JP2017067535A (ja
Inventor
フェリペ ゴメズカバレロ
フェリペ ゴメズカバレロ
雅幸 竹村
雅幸 竹村
永崎 健
健 永崎
彰二 村松
彰二 村松
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Astemo Ltd
Original Assignee
Hitachi Automotive Systems Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Automotive Systems Ltd filed Critical Hitachi Automotive Systems Ltd
Priority to JP2015191331A priority Critical patent/JP6677474B2/ja
Priority to US15/741,807 priority patent/US10796167B2/en
Priority to PCT/JP2016/073029 priority patent/WO2017056724A1/ja
Priority to EP16850901.6A priority patent/EP3358296B1/en
Priority to CN201680033003.2A priority patent/CN108027237B/zh
Publication of JP2017067535A publication Critical patent/JP2017067535A/ja
Application granted granted Critical
Publication of JP6677474B2 publication Critical patent/JP6677474B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/02Picture taking arrangements specially adapted for photogrammetry or photographic surveying, e.g. controlling overlapping of pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/265Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network constructional aspects of navigation devices, e.g. housings, mountings, displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/60Type of objects
    • G06V20/64Three-dimensional objects
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Electromagnetism (AREA)
  • Automation & Control Theory (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Measurement Of Optical Distance (AREA)
  • Image Processing (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Description

本発明は、周辺認識装置に係り、特に遠距離検出用のセンサ部と広角かつ近距離検出用のセンサ部とに取り付けるのに適した周辺認識装置に関する。
近年、ステレオカメラを利用して立体物(三次元物体)を検出する画像処理装置が使用されている。
前記画像処理装置は、不審者の侵入やその他の異常を検出する監視システム、車の安全運転をサポートする車載システムのためのアプリケーションで使用される。
車載環境においては、例えば前方に位置する車両や歩行者、物体を検出するためのアプリケーションの要件を満たすために、物体の検出と距離計測を実現して、安全に操縦する方法を前もって見出す必要がある。
特許文献1に開示されている画像処理装置では、複数のカメラを使用し、遠距離と近距離に対する距離画像を組み合わせることでカメラから遠距離領域と近距離領域に存在する対象物までの距離を検出しており、その組み合わされた距離画像を使用する立体物検出機能によって、ハードウェアあるいはソフトウェアの規模を削減している。
特開2012−103109号公報
しかしながら、検出した物体のタイプ(種類)を認識する上記従来技術では、遠距離領域カメラによってカバーされる領域から近距離領域カメラによってカバーされる領域、又はその逆に対象物が移動する場合、その領域に入る候補物体に対して完全な物体認識を行う必要があり、物体認識処理の負荷が増大する。また、一般に、その境界領域では計測精度が低下するため、遠距離カメラや近距離カメラによってカバーされる領域から境界領域に移動してきた物体の非認識や誤認識の割合が増加するといった問題があった。
本発明は、前記問題に鑑みてなされたものであって、その目的とするところは、遠距離センサや広角近距離センサによってカバーされる領域の一方から他方に移動する物体を認識する物体認識処理の負荷を抑制する共に、遠距離センサや広角近距離センサによってカバーされる領域から境界領域に移動してきた物体の非認識や誤認識の割合を低減することのできる周辺認識装置を提供することにある。
上記する課題を解決するために、本発明に係る周辺認識装置は、遠距離領域の状況データを取得するための第1センサ部と、前記第1センサ部より広角の検出領域を有すると共に、該検出領域における近距離領域の状況データを取得するための第2センサ部と、前記第1センサ部によって取得された状況データに基づき算出される3次元遠距離データに基づいて、遠距離領域に存在する物体の認識を行う遠距離物体認識部と、前記第2センサ部によって取得された状況データに基づき算出される3次元広角近距離データに基づいて、広角かつ近距離領域に存在する物体の認識を行う近距離物体認識部と、前記遠距離物体認識部と前記近距離物体認識部との間で物体に関する情報の伝達を行う情報連携部と、を備えることを特徴としている。
本発明の周辺認識装置によれば、遠距離用の第1センサ部と広角かつ近距離用の第2センサ部によってカバーされる領域の一方から他方に移動する物体を認識する物体認識処理の負荷を抑制できる共に、遠距離用の第1センサ部と広角かつ近距離用の第2センサ部によってカバーされる領域の一方(認識可能領域)から境界領域(検知可能領域)に移動してきた物体の非認識や誤認識の割合を低減することができる。
上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明に係る周辺認識装置の第1実施形態の内部構成を示すブロック図。 図1に示す各カメラによってカバーされる検出領域を示す平面図。 立体物マップの概要を示す図。 図1に示す周辺認識装置が装備された車両が交差点にいる状況を示す図であり、(A)は、その俯瞰図、(B)は、車両前方の情景を示す図。 図1に示す周辺認識装置が装備された車両が交差点に進入する状況を順次示す俯瞰図であり、(A)は、歩行者が遠距離認識可能領域に含まれる状況を示す図、(B)は、歩行者が検知可能領域に含まれる状況を示す図、(C)は、歩行者が近距離認識可能領域に含まれる状況を示す図。 図1に示す周辺認識装置による物体認識処理を説明したフローチャート。 本発明に係る周辺認識装置の第2実施形態の内部構成を示すブロック図。 図7に示す周辺認識装置が装備された車両が交差点にいる状況を示す俯瞰図であり、(A)は、二輪車が遠距離認識可能領域に含まれる状況を示す図、(B)は、二輪車が検知可能領域に含まれる状況を示す図。 本発明に係る周辺認識装置の第3実施形態の内部構成を示すブロック図。 図9に示す周辺認識装置が装備された車両が幹線道路を走行する状況を順次示す俯瞰図であり、(A)は、追い越し車線を走行する車両が近距離認識可能領域に含まれる状況を示す図、(B)は、追い越し車線を走行する車両が検知可能領域に含まれる状況を示す図、(C)は、追い越し車線を走行する車両が遠距離認識可能領域に含まれる状況を示す図。
以下、本発明に係る周辺認識装置の実施形態を図面を参照して説明する。なお、以下では、遠距離検出に適したカメラと広角かつ近距離検出に適したカメラとからなる一対の車載カメラを備えたステレオカメラ装置によって、遠距離検出用の第1センサ部と広角かつ近距離検出用の第2センサ部とが構成される場合について説明するが、前記第1センサ部や前記第2センサ部は、例えばレーダや超音波センサ等からなる検出装置によって構成してもよいことは勿論である。
<第1実施形態>
図1は、本発明に係る周辺認識装置の第1実施形態の内部構成を示すブロック図である。
図示するように、本実施形態の周辺認識装置1は、基本的に、同じ高さに設置された2台のカメラ(センサ部)11a、11bと、3次元距離画像生成部12と遠距離物体認識部13と近距離物体認識部14とフィードバック部(情報連携部)15とを有する物体認識部18と、コントロールアプリケーション処理部16とを備えている。
2台のカメラ11a、11bは、車両外部の状況データを取得すべく、例えば車両の前方へ向けて当該車両の略同じ位置に配置されており、カメラ11aは、遠距離検出に適したもの(すなわち、遠距離領域に存在する物体等の状況データを高精度で取得し得るもの)であり、カメラ11bは、広角かつ近距離検出に適したもの(すなわち、カメラ11aと比較して広角の視野(検出領域)を有し、広角かつ近距離領域に存在する物体等の状況データを高精度で取得し得るもの)である(図2参照)。
3次元距離画像生成部12は、カメラ(第1センサ部)11aによって得られた状況データに基づいて3次元遠距離データの算出を行うと共に、カメラ(第2センサ部)11bによって得られた状況データに基づいて3次元広角近距離データの算出を行う3次元データ生成部として機能するものである。
具体的には、3次元距離画像生成部12は、各カメラ11a、11bから受信した画像信号を使用してステレオマッチングを行い、図4(B)に示す領域100dに係る遠距離に対する3次元距離画像と図4(B)に示す領域100eに係る広角かつ近距離に対する3次元距離画像とを作成する。このステレオマッチングでは、相互に比較される2つの画像におけるそれぞれの予め決められた単位画像に対して、画像信号間の差が最小となる単位画像を決定する。すなわち、同じ対象物が映し出された領域を検出する。これにより、遠距離に対する3次元距離画像と広角かつ近距離に対する3次元距離画像とが構成される。なお、3次元距離画像は、実環境におけるカメラから対象物までの距離の値を持つ画像である。また、3次元距離画像生成部12は、図4(B)に示す領域100dに係る遠距離に対する画像(遠距離画像)と図4(B)に示す領域100eに係る広角かつ近距離に対する画像(近距離画像)も作成する。
遠距離物体認識部13は、第1領域としての遠距離領域に存在する物体の認識を行う第1物体認識部として機能するものであり、3次元距離画像生成部12によって作成された遠距離に対する3次元距離画像と遠距離画像と(3次元遠距離データ)に基づいて画像中の立体物を認識する。次いで、遠距離物体認識部13は、認識された立体物の情報をフィードバック部15に送信する。
フィードバック部15は、遠距離物体認識部13と近距離物体認識部14との間で物体に関する情報の伝達を行う情報連携部として機能するものであり、ここでは、遠距離物体認識部13によって認識された立体物の情報を記録すると共に、格納された立体物の情報を近距離物体認識部14に送信する。
ここで、フィードバック部15は、遠距離物体認識部13と近距離物体認識部14とによって作成された物体認識情報を記録するために、図3に示すような、少なくとも立体物の種類と三次元物体の実環境における現在の位置と速度とを示す立体物マップ15aを備えることができる。
近距離物体認識部14は、前記第1領域とは異なる第2領域としての広角かつ近距離領域に存在する物体の認識を行うと共に前記第1領域及び前記第2領域とは異なる第3領域としての検知可能領域(後述)に存在する物体の検知を行う第2物体認識部として機能するものであり、3次元距離画像生成部12によって作成された近距離に対する3次元距離画像と近距離画像と(3次元広角近距離データ)に基づいて画像中の立体物を認識する。次いで、近距離物体認識部14は、フィードバック部15によって送信される認識済みの立体物の情報を読み出す。
コントロールアプリケーション処理部16は、遠距離物体認識部13と近距離物体認識部14とによって認識された立体物に応じて、当該周辺認識装置1が搭載された車両によって実行されるコントロールアプリケーション(制御動作)を決定する。
次に、前記周辺認識装置1が車両の周囲を監視するためのシステムとして適用された場合について、図2、図4〜図6を参照してより具体的に説明する。
図2は、車両Vに搭載された各カメラ11a、11bの視野(検出領域100a、100b)を示している。カメラ11aは、視野角度θaの検出領域100aを有しており、その検出領域100aの外側の領域(車両Vから所定距離だけ離れた領域)101aが遠距離「認識可能領域」(第1領域)に設定されている。また、カメラ11bは、視野角度θb(>θa)の検出領域100bを有しており、その検出領域100bの内側の領域(車両Vから所定距離までの領域)101bが広角かつ近距離「認識可能領域」(第2領域)に設定されており、その検出領域100bの外側の領域(車両Vから所定距離だけ離れた領域)、特に、そのうちの前記した遠距離「認識可能領域」101aの側方の領域101cが「検知可能領域(境界領域ともいう)」(第3領域)に設定されている。
なお、本明細書において、「認識可能」とは、物体(立体物)の種類(車両や二輪車、自転車、歩行者、ガードレール、信号、電柱など)、その物体の位置、その物体の速度などといった、物体に関する各種の情報を取得し得ることを意味しており、「検知可能」とは、例えば、物体(立体物)の種類に関する情報までは取得できないものの、その物体の位置、その物体の速度などの情報は取得し得ることを意味している。すなわち、前述の「検知可能領域」101cでは、広角かつ近距離「認識可能領域」101bより計測精度が低く、それゆえ、「検知可能領域」101cでは、物体認識が不可能となる可能性がある。
図4は、図1に示す周辺認識装置1が装備された車両Vが交差点にいる状況を示している。
図4(A)は、歩行者PAと歩行者PBと車両VAとが周辺認識装置1(の各カメラ11a、11b)の視野にいる場合の俯瞰図であり、ここでは、車両VAが遠距離「認識可能領域」101a、歩行者PAが広角かつ近距離「認識可能領域」101b、歩行者PBが遠距離「認識可能領域」101aから移動してきて「検知可能領域」101cにいる状況を示している。
また、図4(B)は、前述の状況を、各カメラ11a、11bによって取得された画像によって表示するように示しており、領域100dは、遠距離「認識可能領域」101aによってカバーされる領域、領域100eは、広角かつ近距離「認識可能領域」101bと「検知可能領域」101cとによってカバーされる領域に対応している。なお、上記したように、領域100eの歩行者PAは広角かつ近距離「認識可能領域」にいるので、歩行者であると認識できるが、領域100eの歩行者PBは「検知可能領域」にいるので、カメラ11bから得られる情報のみでは歩行者であるか否かを認識できない可能性がある。
図5は、図1に示す周辺認識装置1が装備された車両Vが交差点に進入する状況を順次示している。
図5(A)に示すように、車両Vが交差点に近づくに従って歩行者P1、P2(車両Vに対して相対的に移動する物体である相対移動体)は遠距離「認識可能領域」101aに入るので、その歩行者P1、P2は遠距離物体認識部13によって(後述する図6に示すフローに従って)認識され、認識結果としての立体物情報(その立体物に関する情報)がフィードバック部15に記録される。
次いで、図5(B)に示すように、車両Vが交差点に向かって移動し続けると、歩行者P1、P2は遠距離「認識可能領域」101aから移動して「検知可能領域」101cに到達する。ここで、近距離物体認識部14は、フィードバック部15から送信される立体物情報を使用して遠距離物体認識部13により記録された立体物の現在の位置を推定し、その推定結果と後述する図6に示す物体検出処理ステップS3の結果とを照合して、歩行者P1、P2の立体物情報を算出する。
次に、図5(C)に示すように、歩行者P1、P2が遠距離「認識可能領域」101aから移動して広角かつ近距離「認識可能領域」101bに到達すると、近距離物体認識部14は、フィードバック部15から送信される立体物情報と後述する図6に示す物体検出処理ステップS3の結果を使用して、歩行者P1、P2の立体物情報を算出する。
図6は、図1に示す周辺認識装置1による物体認識処理、特に遠距離物体認識部13及び近距離物体認識部14のそれぞれによって実行される処理を説明したフローチャートである。
まず、物体認識前処理ステップS1では、3次元距離画像生成部12によって生成された対応する3次元距離画像と領域画像とを処理する。なお、この処理方法は、従来知られた方法を適用し得るので、ここではその詳細な説明は割愛する。
次いで、フィードバックデータ受信ステップS2では、読み込み可能であればフィードバック部15によって送信される立体物情報を読み出すと共に、物体検出処理ステップS3では、候補となる立体物の実環境における位置を算出する。
次に、物体データ存在確認ステップS4では、フィードバック部15によって送信される立体物情報に、候補となる立体物に関する立体物情報が有るか否かを判断し、無いと判断した場合には、処理タイプ決定ステップS5で、候補となる立体物の特性に基づいて実行されるべき物体認識処理のタイプ(種類)を決定し、物体認識処理ステップS6で、処理タイプ決定ステップS5で決定された認識処理を実行して、少なくとも立体物の種類と現在の位置と速度とを含む立体物情報を生成する。
一方で、物体データ存在確認ステップS4で、フィードバック部15によって送信される立体物情報に、候補となる立体物に関する立体物情報が有ると判断した場合には、認識可能テストステップS7で、候補となる立体物が「認識可能領域」にいるか否かを判断し、「認識可能領域」にいると判断した場合には、物体情報更新ステップS9で、フィードバック部15から送信される立体物情報と物体検出処理ステップS3の結果(立体物の実環境における位置)を使用して、立体物情報を生成する。
一方、認識可能テストステップS7で、候補となる立体物が「認識可能領域」にいないと判断した場合には、現在位置推定ステップS8で、フィードバック部15から送信される情報に情報がある立体物の現在の位置を算出し、その算出結果と物体検出処理ステップS3の結果(立体物の実環境における位置)とを照合し、物体情報更新ステップS9で、フィードバック部15から送信される立体物情報と物体検出処理ステップS3の結果を使用して、立体物情報を生成する。
そして、物体情報記録ステップS10では、物体認識処理ステップS6又は物体情報更新ステップS9で生成された立体物情報をフィードバック部15に記録する。
このように、本実施形態の周辺認識装置1によれば、第1領域に存在する物体の認識を行う第1物体認識部と、第1領域とは異なる第2領域に存在する物体の認識を行うと共に第1領域及び第2領域とは異なる第3領域に存在する物体の検知を行う第2物体認識部と、を備え、情報連携部(フィードバック部)が、第1物体認識部と第2物体認識部との間で物体に関する情報の伝達を行う。具体的には、フィードバック部15が遠距離物体認識部13と近距離物体認識部14との間で物体に関する情報の伝達を行うようになっており、伝達される情報には、遠距離物体認識部13と近距離物体認識部14とによって作成された物体認識情報が含まれ、その伝達される物体認識情報は、各カメラ(第1センサ部と第2センサ部)11a、11bによってカバーされる領域101a、101b(図2参照)の一方から他方に物体が移動したか否かを決定するために使用される。そのため、伝達される物体認識情報に基づいて物体が認識されるので、遠距離物体認識部13及び近距離物体認識部14の一方もしくは双方(第1実施形態では、近距離物体認識部14)の処理負荷を抑制することができる。
また、遠距離物体認識部13と近距離物体認識部14とによって作成された物体認識情報がフィードバック部15に記録されるので、その物体認識情報は、各カメラ(第1センサ部と第2センサ部)11a、11bによってカバーされる領域101a、101b(図2参照、「認識可能領域」)の一方から移動してきてその間の領域101c(図2参照、「検知可能領域」)に存在する物体を認識するために使用される。そのため、「認識可能領域」から移動してきて「検知可能領域」に到達した物体の非認識や誤認識の割合を低減することができる。
すなわち、このような本第1実施形態の周辺認識装置1の構成及び動作により、対象物(相対移動体)が遠距離「認識可能領域」から移動してきて近距離「認識可能領域」に到達したときに、近距離物体認識部14の負荷を抑制できると共に、遠距離「認識可能領域」から移動してきて「検知可能領域」に到達した対象物(相対移動体)の非認識や誤認識の割合を低減することができる。
<第2実施形態>
図7は、本発明に係る周辺認識装置の第2実施形態の内部構成を示すブロック図である。
図7に示す本第2実施形態の周辺認識装置1Aは、図1に示す第1実施形態の周辺認識装置1に対し、物体行動予測部17Aを備えている点のみが相違しており、その他の構成はほぼ同じである。したがって、第1実施形態の周辺認識装置1と同じ構成には同様の符号を付してその詳細な説明を省略し、以下では、主に、相違点である物体行動予測部17Aについて説明する。
物体行動予測部17Aは、遠距離物体認識部13A及び近距離物体認識部14Aの一方もしくは双方によって生成された立体物情報(少なくとも立体物の種類と現在の位置と速度とを含む)から得られる対象物の特徴に応じて、その対象物が将来辿る実環境における経路の予測値を算出する。
コントロールアプリケーション処理部16Aは、遠距離物体認識部13Aと近距離物体認識部14Aとによって認識された立体物と共に物体行動予測部17Aによって予測された物体の行動に応じて、当該周辺認識装置1Aが搭載された車両によって実行されるコントロールアプリケーション(制御動作)を決定する。
次に、前記周辺認識装置1Aが車両の周囲を監視するためのシステムとして適用された場合について、図8を参照してより具体的に説明する。
図8は、図7に示す周辺認識装置1Aが装備された車両Vが交差点に居て、車両Vのドライバが経路PT1を辿って右折しようとする状況を示している。
図8(A)に示すように、この状況では、二輪車TV1(相対移動体)が遠距離物体認識部13Aによって認識され、それにより生成された立体物情報は、当該車両Vによって実行されるコントロールアプリケーションを決定するためにコントロールアプリケーション処理部16Aにより使用される立体物の経路PT2(図示例では、二輪車TV1が対向車線を直進する経路)を算出するために、物体行動予測部17Aにより用いられる。
また、図8(B)に示すように、二輪車TV1が遠距離「認識可能領域」101aから移動してきて「検知可能領域」101cに到達したとすると、近距離物体認識部14Aは、フィードバック部15Aから送信される立体物情報を使用して、二輪車TV1の立体物情報を算出する。そして、それにより生成された立体物情報は、当該車両Vによって実行されるコントロールアプリケーションを決定するためにコントロールアプリケーション処理部16Aにより使用される立体物の経路PT3(図示例では、二輪車TV1が更に直進する経路)を算出するために、物体行動予測部17Aにより用いられる。
本第2実施形態の周辺認識装置1Aにおいても、上述した第1実施形態の周辺認識装置1と同様、遠距離「認識可能領域」から移動してきて「検知可能領域」に到達した対象物(相対移動体)の非認識や誤認識の割合を低減することができる。
<第3実施形態>
図9は、本発明に係る周辺認識装置の第3実施形態の内部構成を示すブロック図である。
図9に示す本第3実施形態の周辺認識装置1Bは、図1に示す第1実施形態の周辺認識装置1に対し、遠距離物体認識部13Bとフィードバック部15B及び近距離物体認識部14Bとフィードバック部15Bが双方向で情報の授受を行う点が相違しており、その他の構成はほぼ同じである。したがって、第1実施形態の周辺認識装置1と同じ構成には同様の符号を付してその詳細な説明を省略し、以下では、主に、その相違点について説明する。
具体的には、本第3実施形態の周辺認識装置1Bでは、近距離物体認識部14Bが、認識された立体物の情報をフィードバック部15Bから読み出したり、フィードバック部15Bに記録したりし、3次元距離画像生成部12Bによって作成された近距離に対する3次元距離画像と近距離画像とに基づいて立体物を認識する処理にその情報を使用すると共に、遠距離物体認識部13Bも、認識された立体物の情報をフィードバック部15Bから読み出したり、フィードバック部15Bに記録したりし、3次元距離画像生成部12Bによって作成された遠距離に対する3次元距離画像と遠距離画像とに基づいて立体物を認識する処理にその情報を使用する。また、フィードバック部15Bは、近距離物体認識部14Bと遠距離物体認識部13Bとによって認識された立体物の情報を記録すると共に、格納された立体物情報を近距離物体認識部14Bと遠距離物体認識部13Bとに送信する。
次に、前記周辺認識装置1Bが車両の周囲を監視するためのシステムとして適用された場合について、図10を参照してより具体的に説明する。
図10は、図9に示す周辺認識装置1Bが装備された車両Vが幹線道路を走行する状況を順次示している。
図10(A)に示すように、車両Vが走行する車線の隣りの追い越し車線を車両V1(相対移動体)が走行する場合(車両V1の速度は車両Vの速度より速い)、車両V1はまず近距離「認識可能領域」101bに入るので、その車両V1は近距離物体認識部14Bによって(図6に示すフローに従って)認識され、認識結果としての立体物情報がフィードバック部15Bに記録される。
次いで、図10(B)に示すように、車両1が前方に移動し続けて、近距離「認識可能領域」101bから移動して「検知可能領域」101cに到達すると、近距離物体認識部14Bは、フィードバック部15Bから送信される立体物情報を使用して、近距離物体認識部14Bにより記録された立体物の現在の位置を推定し、その推定結果と図6に示す物体検出処理ステップS3の結果とを照合して、車両V1の立体物情報を算出する。
次に、図10(C)に示すように、車両V1が近距離「認識可能領域」101bから移動して遠距離「認識可能領域」101aに到達すると、遠距離物体認識部13Bは、フィードバック部15Bから送信される立体物情報と図6に示す物体検出処理ステップS3の結果を使用して、車両V1の立体物情報を算出する。
なお、例えば、車両V1の速度が車両Vの速度より遅く、車両V1が遠距離「認識可能領域」101aから移動して「検知可能領域」101cを通って近距離「認識可能領域」101bに到達する場合には、上記した第1実施形態と同様にして車両V1の立体物情報が算出されることになる(すなわち、遠距離物体認識部13Bで生成された立体物情報を近距離物体認識部14Bに引き継ぐ)。
本第3実施形態の周辺認識装置1Bにおいても、上述した第1実施形態の周辺認識装置1と同様、対象物(相対移動体)が近距離「認識可能領域」から移動してきて遠距離「認識可能領域」に到達したときに、遠距離物体認識部13Bの負荷を抑制できると共に、近距離「認識可能領域」から移動してきて「検知可能領域」に到達した対象物(相対移動体)の非認識や誤認識の割合を低減することができる。
なお、上記した第1〜第3実施形態では、基本的に、対象物が遠距離「認識可能領域」から移動して「検知可能領域」を通って近距離「認識可能領域」に到達し、遠距離物体認識部で生成された立体物情報がフィードバック部を介して近距離物体認識部に伝達される場合と、対象物が近距離「認識可能領域」から移動して「検知可能領域」を通って遠距離「認識可能領域」に到達し、近距離物体認識部で生成された立体物情報がフィードバック部を介して遠距離物体認識部に伝達される場合について説明した。ただし、対象物が遠距離「認識可能領域」から移動して「検知可能領域」を通って再び遠距離「認識可能領域」に入る場合には、遠距離物体認識部で生成された立体物情報がフィードバック部から再び遠距離物体認識部に入力されて利用されてもよいし、対象物が近距離「認識可能領域」から移動して「検知可能領域」を通って再び近距離「認識可能領域」に入る場合には、近距離物体認識部で生成された立体物情報がフィードバック部から再び近距離物体認識部に入力されて利用されてもよい。また、対象物が遠距離「認識可能領域」から移動して「検知可能領域」に到達する段階においても、遠距離物体認識部で生成された立体物情報がフィードバック部を介して近距離物体認識部に伝達されることで、上記した本発明の効果を奏し得ることは当然である。
なお、本発明は上記した第1〜第3実施形態に限定されるものではなく、様々な変形形態が含まれる。例えば、上記した第1〜第3実施形態は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施形態の構成の一部を他の実施形態の構成に置き換えることが可能であり、また、ある実施形態の構成に他の実施形態の構成を加えることも可能である。また、各実施形態の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
なお、上記した実施形態では、周辺認識装置1、1A、1Bには、物体の検知及び認識が可能な認識可能領域と、物体を検知可能であるが認識不能な検知可能領域とがあることを説明した。一般的な周辺認識装置では、物体が認識可能領域に存在するときには認識(若しくは識別)を行うが、その物体が検知可能領域に移動してしまうと、もはや認識を行うことができない。ここで、物体の移動には、車両の移動によるものと、物体の移動によるものと、車両及び物体の双方の移動によるものとがあり得る。
このような相対移動体は、認識可能領域から検知可能領域に一旦移動しても認識可能領域に再度移動する場合があり、相対移動体が認識可能領域に再度移動した際に改めて認識処理を行うのでは、認識処理の負荷が大きくなるおそれや認識精度が低下するおそれがある。そこで、物体が認識可能領域から検知可能領域に相対移動した場合に、認識可能領域における過去の認識結果を利用することができれば、認識処理の負荷低減や認識精度向上を図ることができる。
また、上記の各構成、機能、処理部、処理手段等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記の各構成、機能等は、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現してもよい。各機能を実現するプログラム、テーブル、ファイル等の情報は、メモリや、ハードディスク、SSD(Solid State Drive)等の記憶装置、または、ICカード、SDカード、DVD等の記録媒体に置くことができる。
また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際には殆ど全ての構成が相互に接続されていると考えてもよい。
1 周辺認識装置
11a カメラ(第1センサ部)
11b カメラ(第2センサ部)
12 3次元距離画像生成部
13 遠距離物体認識部
14 近距離物体認識部
15 フィードバック部(情報連携部)
15a 立体物マップ
16 コントロールアプリケーション処理部
100a カメラ11aの検出領域
100b カメラ11bの検出領域
101a 遠距離認識可能領域(第1領域)
101b 広角かつ近距離認識可能領域(第2領域)
101c 検知可能領域(第3領域)

Claims (6)

  1. 遠距離領域の状況データを取得するための第1センサ部と、
    前記第1センサ部より広角の検出領域を有すると共に、該検出領域における近距離領域の状況データを取得するための第2センサ部と、
    前記第1センサ部によって取得された状況データに基づき算出される3次元遠距離データに基づいて、遠距離領域に存在する物体の認識を行う遠距離物体認識部と、
    前記第2センサ部によって取得された状況データに基づき算出される3次元広角近距離データに基づいて、広角かつ近距離領域に存在する物体の認識を行う近距離物体認識部と、
    前記遠距離物体認識部と前記近距離物体認識部との間で物体に関する情報の伝達を行う情報連携部と、を備え、
    前記遠距離物体認識部及び前記近距離物体認識部は、所定時間における認識結果としての前記物体に関する情報を前記情報連携部に記録し、
    前記遠距離物体認識部又は前記近距離物体認識部は、前記情報連携部から伝達された前記所定時間における前記物体に関する情報を使用して前記所定時間より後の現在の前記物体の位置を推定し、その推定結果と前記遠距離物体認識部又は前記近距離物体認識部の現在の認識結果とを照合し、前記情報連携部から伝達された前記所定時間における前記物体に関する情報と前記遠距離物体認識部又は前記近距離物体認識部の現在の認識結果としての前記物体に関する情報の両方を使用して、前記物体に関する情報を算出することを特徴とする周辺認識装置。
  2. 前記情報連携部は、前記遠距離物体認識部と前記近距離物体認識部とによって作成された物体認識情報を記録するための、少なくとも立体物の種類と三次元物体の実環境における現在の位置と速度とを示す立体物マップを備えることを特徴とする請求項1に記載の周辺認識装置。
  3. 前記情報連携部は、前記遠距離物体認識部から前記近距離物体認識部に、又は、前記近距離物体認識部から前記遠距離物体認識部に、物体に関する情報の伝達を行うことを特徴とする請求項1に記載の周辺認識装置。
  4. 前記周辺認識装置における前記第1センサ部と前記第2センサ部とは、遠距離における検出と広角かつ近距離における検出とに適した一対のカメラからなるステレオカメラ装置で構成されており、
    前記ステレオカメラ装置から受信した画像信号を使用してステレオマッチングを行い、遠距離に対する3次元距離画像と広角かつ近距離に対する3次元距離画像とを作成する3次元距離画像生成部を備えることを特徴とする請求項1に記載の周辺認識装置。
  5. 前記第1センサ部と前記第2センサ部とが車両に搭載されていることを特徴とする請求項1に記載の周辺認識装置。
  6. 前記第1センサ部と前記第2センサ部とが搭載された前記車両によって実行される制御動作を決定するコントロールアプリケーション処理部を更に備えることを特徴とする請求項5に記載の周辺認識装置。
JP2015191331A 2015-09-29 2015-09-29 周辺認識装置 Active JP6677474B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2015191331A JP6677474B2 (ja) 2015-09-29 2015-09-29 周辺認識装置
US15/741,807 US10796167B2 (en) 2015-09-29 2016-08-05 Periphery recognition device
PCT/JP2016/073029 WO2017056724A1 (ja) 2015-09-29 2016-08-05 周辺認識装置
EP16850901.6A EP3358296B1 (en) 2015-09-29 2016-08-05 Periphery recognition device
CN201680033003.2A CN108027237B (zh) 2015-09-29 2016-08-05 周边识别装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2015191331A JP6677474B2 (ja) 2015-09-29 2015-09-29 周辺認識装置

Publications (2)

Publication Number Publication Date
JP2017067535A JP2017067535A (ja) 2017-04-06
JP6677474B2 true JP6677474B2 (ja) 2020-04-08

Family

ID=58427429

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015191331A Active JP6677474B2 (ja) 2015-09-29 2015-09-29 周辺認識装置

Country Status (5)

Country Link
US (1) US10796167B2 (ja)
EP (1) EP3358296B1 (ja)
JP (1) JP6677474B2 (ja)
CN (1) CN108027237B (ja)
WO (1) WO2017056724A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6583527B2 (ja) * 2016-02-22 2019-10-02 株式会社リコー 画像処理装置、撮像装置、移動体機器制御システム、画像処理方法、及びプログラム
JP2020013332A (ja) * 2018-07-18 2020-01-23 トヨタ自動車株式会社 画像認識装置
JP7120835B2 (ja) * 2018-07-18 2022-08-17 トヨタ自動車株式会社 画像処理装置
JP7253693B2 (ja) * 2018-10-18 2023-04-07 学校法人 芝浦工業大学 画像処理装置
JP7472816B2 (ja) * 2021-02-12 2024-04-23 トヨタ自動車株式会社 注意喚起装置

Family Cites Families (22)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3468428B2 (ja) 1993-03-24 2003-11-17 富士重工業株式会社 車輌用距離検出装置
JPH1139596A (ja) * 1997-07-17 1999-02-12 Fuji Heavy Ind Ltd 車外監視装置
JPH11183172A (ja) * 1997-12-25 1999-07-09 Mitsubishi Heavy Ind Ltd 写真測量支援システム
JP2001033236A (ja) * 1999-07-23 2001-02-09 Mitsubishi Heavy Ind Ltd ステレオ画像計測装置およびステレオ画像計測方法
JP4593736B2 (ja) * 2000-07-14 2010-12-08 オリンパス株式会社 測距装置
US20050278088A1 (en) * 2004-05-29 2005-12-15 Craig Thorner Method and apparatus for collision avoidance and enhanced visibility in vehicles
CN1937766A (zh) * 2005-09-20 2007-03-28 富士能株式会社 监视摄像机装置及监视摄像机***
US7576639B2 (en) * 2006-03-14 2009-08-18 Mobileye Technologies, Ltd. Systems and methods for detecting pedestrians in the vicinity of a powered industrial vehicle
CN101656840B (zh) * 2008-08-22 2011-09-28 原相科技股份有限公司 广角传感器阵列模块及其图像校正方法、操作方法与应用
JP5278819B2 (ja) * 2009-05-11 2013-09-04 株式会社リコー ステレオカメラ装置及びそれを用いた車外監視装置
JP5476960B2 (ja) * 2009-12-08 2014-04-23 トヨタ自動車株式会社 車両前方監視装置
JP5776173B2 (ja) * 2010-03-01 2015-09-09 株式会社リコー 撮像装置及び距離測定装置
CN102893126B (zh) * 2010-05-12 2016-01-20 莱卡地球***公开股份有限公司 测量仪器
JP2012103109A (ja) 2010-11-10 2012-05-31 Panasonic Corp ステレオ画像処理装置、ステレオ画像処理方法及びプログラム
JP5617100B2 (ja) * 2011-02-08 2014-11-05 株式会社日立製作所 センサ統合システム及びセンサ統合方法
KR101824439B1 (ko) * 2011-02-16 2018-02-02 주식회사 스테레오피아 모바일 스테레오 카메라 장치 및 그 촬영방법
JP5951785B2 (ja) * 2012-10-04 2016-07-13 アルプス電気株式会社 画像処理装置及び車両前方監視装置
JP6180968B2 (ja) * 2014-03-10 2017-08-16 日立オートモティブシステムズ株式会社 車両制御装置
EP2918972B1 (de) * 2014-03-14 2019-10-09 Leica Geosystems AG Verfahren und handhaltbares Entfernungsmessgerät zum Erzeugen eines Raummodells
JP6545997B2 (ja) * 2015-04-24 2019-07-17 日立オートモティブシステムズ株式会社 画像処理装置
MX2018007134A (es) * 2015-12-17 2018-08-15 Nissan Motor Metodo y dispositivo de ayuda al estacionamiento.
EP3223034B1 (en) * 2016-03-16 2022-07-20 Ricoh Company, Ltd. Object detection apparatus and moveable apparatus

Also Published As

Publication number Publication date
US20180197020A1 (en) 2018-07-12
EP3358296B1 (en) 2024-04-03
JP2017067535A (ja) 2017-04-06
EP3358296A1 (en) 2018-08-08
WO2017056724A1 (ja) 2017-04-06
CN108027237B (zh) 2020-11-03
EP3358296A4 (en) 2019-08-14
CN108027237A (zh) 2018-05-11
US10796167B2 (en) 2020-10-06

Similar Documents

Publication Publication Date Title
JP6838248B2 (ja) 情報処理装置
JP6677474B2 (ja) 周辺認識装置
JP6747269B2 (ja) 物体認識装置
JP6795027B2 (ja) 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム
JP6450294B2 (ja) 物体検出装置、物体検出方法、及びプログラム
US10242272B2 (en) Method for advanced and low cost cross traffic alert, related processing system, cross traffic alert system and vehicle
JP2010198552A (ja) 運転状況監視装置
JP2008219063A (ja) 車両周辺監視装置及び方法
JP2013225295A5 (ja)
JP2009040108A (ja) 画像表示制御装置及び画像表示制御システム
US20230296395A1 (en) Vehicle display device
JP2007280132A (ja) 走行誘導障害物検出装置および車両用制御装置
WO2019193928A1 (ja) 車両システム、空間領域推測方法及び空間領域推測装置
CN112639811A (zh) 用于分析处理具有扩展对象识别的传感器数据的方法
KR20180047149A (ko) 충돌 위험 경고 장치 및 방법
JP2018074286A (ja) 運転支援装置
JP6663622B2 (ja) 撮像装置
JP4762830B2 (ja) 周辺監視システム
JP2013069045A (ja) 画像認識装置、画像認識方法および画像認識プログラム
JP6699728B2 (ja) 車間距離推定方法及び車間距離推定装置
JP2006004188A (ja) 障害物認識方法及び障害物認識装置
JP6660367B2 (ja) 車外環境認識装置
KR101340014B1 (ko) 위치 정보 제공 장치 및 방법
JP7236556B2 (ja) 物体検知装置および物体検知プログラム
JP7379268B2 (ja) 画像処理装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190115

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190301

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190813

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190912

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200303

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200313

R150 Certificate of patent or registration of utility model

Ref document number: 6677474

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250