JP2018022234A - 画像処理装置、外界認識装置 - Google Patents

画像処理装置、外界認識装置 Download PDF

Info

Publication number
JP2018022234A
JP2018022234A JP2016151351A JP2016151351A JP2018022234A JP 2018022234 A JP2018022234 A JP 2018022234A JP 2016151351 A JP2016151351 A JP 2016151351A JP 2016151351 A JP2016151351 A JP 2016151351A JP 2018022234 A JP2018022234 A JP 2018022234A
Authority
JP
Japan
Prior art keywords
road surface
detection
vehicle
image
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016151351A
Other languages
English (en)
Other versions
JP6611353B2 (ja
Inventor
秋山 靖浩
Yasuhiro Akiyama
靖浩 秋山
泰 金田
Yasushi Kaneda
泰 金田
浜田 宏一
Koichi Hamada
宏一 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2016151351A priority Critical patent/JP6611353B2/ja
Priority to EP17836916.1A priority patent/EP3493152A4/en
Priority to US16/322,149 priority patent/US10956757B2/en
Priority to CN201780044270.4A priority patent/CN109478324B/zh
Priority to PCT/JP2017/027726 priority patent/WO2018025811A1/ja
Publication of JP2018022234A publication Critical patent/JP2018022234A/ja
Application granted granted Critical
Publication of JP6611353B2 publication Critical patent/JP6611353B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/25Determination of region of interest [ROI] or a volume of interest [VOI]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Signal Processing (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】自車両の周辺に存在する他車両等の対象物を撮影画像から正確に検知する。【解決手段】画像処理装置10は、路面検出部102と、時系列検証部105と、検知領域選択部103と、検知部104とを備える。路面検出部102は、カメラ20で撮影して得られた撮影画像に基づく入力画像から路面領域を検出する。時系列検証部105は、入力画像における路面領域の検出結果を時系列で検証する時系列検証を行う。検知領域選択部103は、路面検出部102による路面領域の検出結果と、時系列検証部105による時系列検証の結果とに基づいて、対象物を検知するための検知領域、すなわち他車両を検知するための車両検知領域を入力画像内に設定する。検知部104は、設定された車両検知領域において対象物である他車両を検知する。【選択図】図1

Description

本発明は、画像処理装置および外界認識装置に関する。
近年、車両同士の衝突や人と車両の衝突などの事故を未然に避けるため、自車両周辺の状況を車載カメラでモニタし、危険を感知した際はドライバーに警報を出力すると共に、自車両の挙動を自動で制御する技術が進展している。こうした自車両の予防安全や自動運転制御のためには、自車両の周辺に存在する車両を観測対象として、その接近を常に監視し続ける必要がある。このような技術において、車載カメラで撮影された画像には、観測対象とする車両以外にも、背景に周辺構造物などの様々なものが映り込んでいる。そのため、観測対象を正確に特定して検知するのは困難であり、誤検知が発生する要因となっていた。
上記のような画像中の背景に起因する誤検知を解決する手法として、画像において車両が走行可能な路面領域を認識し、その路面領域に対して車両検知を実行することが提案されている。これに関して、たとえば特許文献1には、ステレオカメラで撮影した視差画像から階調図を作成し、この階調図を用いて画像中の道路面を特定することで、車両が走行可能な領域か否かを判断する方法が開示されている。
特開2014−67407号公報
特許文献1に記載された技術において、階調図は一般的に表現可能な情報のダイナミックレンジが狭く、また周囲の明るさの影響を受けやすい。したがって、特許文献1の手法では、画像中の道路面を正確に特定することが難しい場合があり、このような場合は、自車両の周辺に存在する他車両等の対象物を撮影画像から正確に検知するのは困難である。
本発明による画像処理装置は、カメラで撮影して得られた撮影画像に基づく入力画像から路面領域を検出する路面検出部と、前記入力画像における前記路面領域の検出結果を時系列で検証する時系列検証を行う時系列検証部と、前記路面検出部による前記路面領域の検出結果と、前記時系列検証部による前記時系列検証の結果とに基づいて、対象物を検知するための検知領域を前記入力画像内に設定する検知領域選択部と、前記検知領域において前記対象物を検知する検知部と、を備える。
本発明による外界認識装置は、画像処理装置を備え、前記検知部による前記他車両の検知結果に基づいて、前記自車両の運転者に対する警告を行うための警報信号および前記自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する。
本発明によれば、自車両の周辺に存在する他車両等の対象物を撮影画像から正確に検知できる。
本発明の第1の実施形態に係る画像処理装置の機能構成を示すブロック図である。 撮影画像の歪み補正処理を示す図である。 検出器を生成する際に用いられる学習用画像の例を示す図である。 路面検知結果の一例を示す図である。 優先方向を設定する際に用いる設定テーブルの一例を示す図である。 車両検知領域の一例を示す図である。 路面領域の一部が他車両で隠れている場合の時系列検証の手順の一例を説明する図である。 自車両が直線道路、カーブ道路、交差点をそれぞれ走行しているときの撮影画像の例を示す図である。 道路形状が直線からカーブに変化したときの観測ブロックに対する認識結果の変化の一例を示したチャート図である。 道路形状が直線から交差点に変化したときの観測ブロックに対する認識結果の変化の一例を示したチャート図である。 本発明の第2の実施形態に係る外界認識装置の一例を示す図である。
−第1の実施形態−
以下、本発明の第1の実施形態に係る画像処理装置について、図面を参照して説明する。図1は、本発明の第1の実施形態に係る画像処理装置10の機能構成を示すブロック図である。図1に示す画像処理装置10は、車両に搭載されて用いられる。なお、以下の説明では、画像処理装置10が搭載されている車両を「自車両」と称し、自車両の周囲に存在する他の車両を「他車両」と称する。
画像処理装置10は、撮影領域に対応する自車両の所定の位置、たとえば自車両のボディに取り付けられたカメラ20と接続されている。画像処理装置10は、画像補正部101、路面検出部102、検知領域選択部103、検知部104、時系列検証部105、路面領域補間部106および優先方向選択部107を備える。なお、図1に示す画像処理装置10の各機能は、マイクロコンピュータ、メモリ等のハードウェアや、マイクロコンピュータ上で実行される各種プログラムなどを適宜組み合わせることにより、実現可能である。
カメラ20は、自車両周辺に存在する他車両を動画で、または所定時間ごとに静止画で撮影し、取得した動画の各コマまたは各静止画を、所定時間ごとの撮影画像として画像補正部101へ出力する。なお、画像処理装置10において他車両の認識を行いやすくするために、自車両の任意の箇所にカメラ20を設置することができる。たとえば、自車両のフロントバンパー、リアバンパー、左右のサイドミラー等の部分に、カメラ20が設置される。または、自車両の車内にカメラ20を設置してもよい。さらに、自車両の周囲で特定の領域のみに存在する他車両の認識を目的として、カメラ20を単独で設置してもよいし、あるいは、自車両の周囲の全ての領域について他車両を認識できるように、カメラ20を複数設置してもよい。
本実施形態において、カメラ20には魚眼カメラが用いられる。魚眼カメラとは、レンズ集光特性を通常のカメラで用いられるレンズよりも広角側に大きくずらした魚眼レンズを用いたカメラであり、撮影範囲が広いという利点がある。このように1個のカメラで広範囲を一度に撮影できることは、車両検知において画像処理の面で好ましい。一方、カメラ20で得られる撮影画像はいわゆる魚眼画像となるため、自車両から遠方の位置に対応する撮影画像の上下左右端に近い領域になるほど歪みが大きく、解像度が低下する傾向がある。そのため、カメラ20から入力される歪んだ撮影画像のままでは、車両検知に適さないという問題がある。
そこで、上記の問題点を解消するために、カメラ20で得られた撮影画像は、画像処理装置10において画像補正部101に入力される。画像補正部101は、カメラ20から入力された撮影画像(魚眼画像)に対して歪み補正処理を行うことで、撮影画像を車両検知に適した歪みのない画像へと変換する。画像補正部101による歪み補正処理では、たとえば、既知の魚眼レンズの歪特性を用いて撮影画像を実際の空間写像に変換する非線形局部幾何補正法や、魚眼レンズの歪特性を簡易的に表現した歪係数を用いて撮影画像を補正する線形局部幾何補正法などを用いることができる。なお、歪み補正処理ではこれ以外のアルゴリズムを選択しても問題ない。
図2は、画像補正部101による撮影画像の歪み補正処理を示す図である。図2(a)は、自車両の右サイドミラーに設置したカメラ20で撮影して得られた魚眼画像の一例である。この魚眼画像では、左側部分が前方すなわち自車両のフロント方向に相当し、右側部分が後方すなわち自車両のリア方向に相当する。図2(a)において、画像中央部には路面204が、画像上部には空などの背景205が、画像下部には自車両のボディ203がそれぞれ映り込んでおり、さらに、自車両後方から接近している他車両202が映り込んでいる。
画像補正部101は、図2(a)のような魚眼画像に対して、たとえば他車両202を含む領域を補正対象領域201として設定し、この補正対象領域201内の画像部分に対して歪み補正処理を行う。図2(b)は、図2(a)の補正対象領域201に対して歪み補正処理を行って得られた補正画像の一例である。この補正画像では、他車両202、路面204、背景205がそれぞれ実際の空間写像と同等に見えるように補正されている。
なお、図2の例では、他車両202の周囲に補正対象領域201を設定して歪み補正処理を行う場合を説明したが、画像補正部101は、撮影画像内の任意の領域を補正対象領域として歪み補正処理を行うことができる。また、撮影画像内に複数の補正対象領域を設定し、それぞれに対して歪み補正処理を行うようにしてもよい。さらに、撮影画像内で歪みの小さな部分を用いて車両検知を行う場合や、カメラ20を魚眼カメラではない通常のカメラとした場合などは、画像補正部101において歪み補正処理を行わないようにしてもよい。
路面検出部102は、カメラ20で撮影されて画像補正部101により歪み補正処理が行われた画像が入力されると、この入力画像から路面に相当する路面領域を検出する。路面検出部102は、たとえば入力画像を複数の観測ブロックに分割し、機械学習の手法を適用した検出器を利用して、各観測ブロックが路面領域または路面領域以外の非路面領域のどちらに対応するかを識別する2クラス検出を実施する。なお、以下では、路面領域に対応する観測ブロックを路面ブロック、非路面領域に対応する観測ブロックを非路面ブロックとそれぞれ称する。
図3は、路面検出部102の検出器を生成する際に用いられる学習用画像の例を示す図である。図3(a)は、路面領域の学習用画像の例であり、図3(b)〜図3(e)は、非路面領域の学習用画像の例である。図3(a)の学習用画像では、路面300が映り込んでいるのに対して、図3(b)〜図3(e)の学習用画像では、路面以外の被写体が映り込んでいる。具体的には、図3(b)の学習用画像には車両301が、図3(c)の学習用画像には樹木302が、図3(d)の学習用画像には建物303が、図3(e)の学習用画像には人物304がそれぞれ映り込んでいる。非路面領域の学習用画像では、上記の例に限らず、路面以外であればどのような被写体が映り込んでいてもよい。
なお、非路面領域の学習用画像では、実際の車両走行シーンで出現頻度の高い被写体が映り込んでいる画像を用いることが好ましい。また、路面領域の学習用画像も同様に、出現頻度の高い路面が映り込んでいる画像を用いることが好ましい。ただし、こうした学習用画像の収集が困難な場合は、出現頻度の低い被写体が映り込んでいる画像を混在させても構わない。
ところで、路面検出部102において利用される機械学習とは、一般に、検知対象とする対象物の画像を複数枚入力して、そこから対象物を表現する画像特徴を抽出すると共に、未知の入力画像に対しては、学習した画像特徴を検出して識別できるように識別器のパラメータを自動設定する処理手法のことである。このような処理手法の具体例としては、たとえばDeep Learning(深層学習)が知られている。Deep learningでは、入力された複数画像が共通して持つ画像の特徴パラメータを細分して自動的に抽出することができる。また、特徴パラメータの抽出方法の一例としては、ニューラルネットワーク構造を用いた特徴抽出方法が知られている。ニューラルネットワーク構造では、入力画像群に共通な画像特徴に一致したときにのみ反応する、ニューロン・ユニットと呼ばれる入出力関数(活性化関数)が、小画像領域毎に多数組み合わされており、さらにこれが複数の層状に積み重ねられてピラミッド構造になっている。この方法によれば、検知対象とする対象物の位置や画像サイズを変えながら、段階的に対象物を識別できるようにニューロン・ユニットの各層毎に識別器パラメータを抽出して、最終的には、対象物全体を識別可能な識別器パラメータを得ることができる。
図4は、路面検出部102による路面検知結果の一例を示す図である。図4(a)は、カメラ20で撮影して得られた魚眼画像の例を示している。この魚眼画像には図2(a)と同様に、画像中央部には路面401が、画像上部には空などの背景403が、画像下部には自車両のボディ402がそれぞれ映り込んでいる。図4(b)は、図4(a)の画像に対して得られた路面検知結果の一例を示している。図4(b)では、図4(a)の画像が複数の観測ブロックに分割され、そのうち図4(a)の路面401に対応した観測ブロックがそれぞれ路面ブロック405と認識されている一方で、図4(a)のボディ402や背景403に対応した観測ブロックがそれぞれ非路面ブロック406と認識されている様子を示している。なお、ここでは理解を容易にするため、歪み補正処理を行う前の撮影画像を用いて路面検出部102による路面検知結果を説明したが、実際には、画像補正部101により歪み補正処理が行われた入力画像に対して、路面検出部102による路面検知が行われる。
時系列検証部105は、入力画像における前述の路面ブロックおよび非路面ブロックの時系列での配置の変化に基づいて、路面検出部102による路面領域の検出結果を時系列で検証する時系列検証を行う。この時系列検証では、カメラ20で所定時間ごとに撮影された複数枚の撮影画像からそれぞれ生成された、時間的に連続する複数の入力画像を用いて、路面領域の一部が検知対象物である他車両によって隠れている状態や、路面領域に対応する道路形状が変化している状態であるかを検証する。なお、時系列検証部105が行う時系列検証の具体例については後述する。
路面領域補間部106は、時系列検証部105による時系列検証の結果に基づいて、路面検出部102により入力画像から検出された路面領域を必要に応じて補間する。たとえば、路面領域の一部が検知対象物である他車両によって隠れている状態であると時系列検証部105が判断した場合に、路面領域補間部106は、その部分を非路面領域から路面領域に置き換えることで、当該部分を路面領域として補間する。これにより、本来は路面領域である部分が他車両の陰に隠れることで誤って非路面領域と判断された場合に、当該部分を本来の路面領域とすることができる。
優先方向選択部107は、自車両の走行状態に基づいて、検知対象物である他車両を優先的に検知すべき方向である優先方向を設定する。自車両の走行状態を判断するために、優先方向選択部107には、自車両の走行モードを示す信号が入力されている。
図5は、優先方向選択部107が優先方向を設定する際に用いる設定テーブルの一例を示す図である。図5の設定テーブルにおいて、自車両の走行モードには、前進、後退、駐車支援が含まれる。また、図5の設定テーブルでは、一般道路と高速道路とでそれぞれ異なる優先方向が示されている。優先方向選択部107は、たとえば自車両に搭載されている車両制御用のCPUから自車両の走行モードを示す信号を取得することで、自車両の走行モードがいずれであるかを判断すると共に、自車両が一般道路と高速道路のどちらの道路を走行しているかを判断することができる。
優先方向選択部107は、図5の設定テーブルに基づいて、自車両の走行モードおよび走行道路に応じた優先方向を設定する。たとえば自車両の走行モードが前進の場合、優先方向選択部107は、走行道路が一般道路と高速道路のどちらであっても、自車両の後方を優先方向に設定する。すなわち、自車両が前進しているときには、走行道路の種類に関わらず、自車両の後方から接近してくる他車両を優先的に検知できるように、自車両の後方を優先方向として設定する。
一方、自車両の走行モードが後退の場合、優先方向選択部107は、走行道路が一般道路であれば自車両の後方を優先方向に設定し、走行道路が高速道路であれば自車両周囲の全方向を優先方向に設定する。すなわち、自車両が一般道路上で後退しているときには、前進時と同様に、自車両の後方から接近してくる他車両を優先的に検知できるように、自車両の後方を優先方向として設定する。また、通常は自車両が高速道路上(パーキングエリアを除く)で後退することは想定されないが、万が一そのような事態が生じたときには危険度が十分高いため、自車両周囲の全方向を優先方向として設定することで、撮影画像全体を用いて他車両を検知できるようにする。
さらに、自車両の走行モードが駐車支援の場合、優先方向選択部107は、走行道路が一般道路であれば自車両の前方および後方を優先方向に設定し、走行道路が高速道路であれば自車両周囲の全方向を優先方向に設定する。すなわち、自車両が一般道路上で駐車支援を利用した縦列駐車発進を行うときには、自車両の前方や後方から接近してくる他車両を優先的に検知できるように、自車両の前方および後方を優先方向として設定する。また、通常は自車両が高速道路上(パーキングエリアを除く)で駐車することは想定されないが、万が一そのような事態が生じたときには危険度が十分高いため、後退時と同様に、自車両周囲の全方向を優先方向として設定することで、撮影画像全体を用いて他車両を検知できるようにする。
検知領域選択部103は、路面検出部102による路面領域の検出結果と、時系列検証部105による時系列検証の結果とに基づいて、検知対象物である他車両を検知するための車両検知領域を入力画像内に設定する。このとき検知領域選択部103は、時系列検証部105による時系列検証の結果に基づいて路面領域補間部106が路面領域の補間を行った場合には、その補間結果を基に、補間された路面領域を含めて車両検知領域を設定する。また、時系列検証部105による時系列検証の結果、道路形状が変化していると判断された場合には、その道路形状の変化を考慮して車両検知領域を設定する。さらに、優先方向選択部107により自車両に対していずれかの方向が優先方向に設定されている場合には、その優先方向を考慮して車両検知領域を設定する。すなわち、検知領域選択部103は、路面検出部102の出力と路面領域補間部106の出力を統合して入力画像中の路面領域を決定し、さらに、時系列検証部105の出力や優先方向選択部107の指定に基づいて、決定した路面領域上に車両検知領域を設定する。
図6は、検知領域選択部103が設定した車両検知領域の一例を示す図である。図6(a)は、自車両の前方および後方が優先方向に設定されている場合の車両検知領域の例である。図6(a)において、カメラ20で撮影して得られた魚眼画像内の路面領域601上にそれぞれ設定された車両検知領域602、603は、自車両の前方および後方にそれぞれ対応する。図6(b)は、自車両の後方が優先方向に設定されている場合の車両検知領域の例である。図6(b)において、魚眼画像内の路面領域601上に設定された車両検知領域604は、自車両の後方に対応する。図6(c)は、自車両周囲の全方向を優先方向に設定した場合の車両検知領域の例である。図6(c)において、魚眼画像内の路面領域601全体に設定された車両検知領域605は、自車両周囲の全方向に対応する。この他にも、たとえば自車両の前方を優先方向に設定した場合は、図6(b)の例とは逆に、図6(a)の車両検知領域602と同様の車両検知領域を路面領域上に設定するようにしてもよい。なお、ここでは理解を容易にするため、歪み補正処理を行う前の撮影画像を用いて優先方向ごとに設定される車両検知領域を説明したが、実際には、画像補正部101により歪み補正処理が行われた入力画像に対して、その路面領域上に車両検知領域が設定される。
検知部104は、検知領域選択部103により設定された車両検知領域に基づいて、入力画像から自車両の周囲に存在する他車両を検知する。検知部104は、入力画像内で車両検知領域に設定された部分に対して所定の車両検知処理を実行することにより、車両検知領域内に映り込んでいる他車両を検知する。具体的には、検知部104は、たとえば路面検出部102で説明したのと同様の機械学習型検出器を用いて、車両検知領域内に車両としての特徴を有する部分が存在するか否かを判断することにより、他車両を検知することができる。車両検知領域内に他車両を検知したら、検知部104は、他車両が接近していることを表す車両接近信号を出力する。また、たとえば路面検出部102において路面領域が検知されなかった場合など、入力画像内に有効な車両検知領域を設定できなかったときには、検知FAIL信号を出力する。
次に、時系列検証部105が行う時系列検証の具体例について、図7〜図10を参照して説明する。
図7は、路面領域の一部が他車両で隠れている場合の時系列検証の手順の一例を説明する図である。入力画像内に他車両が映り込むことで路面の一部が隠れると、その部分は路面検知において非路面領域であると誤認識されるため、車両検知領域を設定する上で不都合が生じる。時系列検証部105では、この問題を解決するために、以下のような時系列検証により路面領域が他車両で隠れているか否かを判断する。
図7(a)、図7(b)、図7(c)は、カメラ20で時系列的に撮影された撮影画像の例をそれぞれ示しており、この順で各撮影画像が取得されたものとする。なお、これらの図では、説明の都合上、魚眼画像である各撮影画像の右半分のみを図示している。また、ここでは理解を容易にするため、歪み補正処理を行う前の撮影画像に対する路面検知結果を用いて説明するが、実際には、画像補正部101により歪み補正処理が行われた入力画像に対する路面検知結果に対して、時系列検証部105による時系列検証が行われる。
前述のように、路面検出部102は、入力画像を分割することで入力画像上に複数の観測ブロックを設定し、各観測ブロックを路面ブロックまたは非路面ブロックのいずれかと識別する。時系列検証部105が行う時系列検証処理では、入力画像における路面ブロックおよび非路面ブロックの時系列での配置の変化に基づいて、路面領域が他車両で隠れているか否かを判断する。なお、図7(a)〜(c)に示すように、路面検出部102は、自車両におけるカメラ20の設置位置、設置角度やカメラ20の画角等を表す既知のカメラ設置幾何情報に基づいて、入力画像内で路面領域の出現頻度が高い部分、すなわち地平線と自車両ボディとの境界線に挟まれた部分を特定し、その部分に観察ブロックを設けることが好ましい。
図7(a)の画像では、路面上に何も映り込んでいないため、画像内の路面部分に対応する全ての観測ブロックが正しく路面ブロックと認識される。その後、図7(b)の画像のように、自車両の後方から接近してきた他車両700が路面上に映り込むと、他車両700が映り込んだ部分は路面が隠れてしまうため、この部分に対応する観測ブロックは非路面ブロックと誤認識される。続いて図7(c)の画像のように他車両700が通り過ぎると、再び全ての観測ブロックが路面ブロックと認識されるようになる。
図7(d)は、入力画像が図7(a)から図7(b)を経由して図7(c)のように遷移したときの観測ブロックに対する認識結果の変化の一例を示したチャート図である。ここでは、入力画像に設定された複数の観測ブロックのうち、図7(a)〜(c)に示した4個の観測ブロックA、B、C、Dに注目している。図7(d)に示すチャート図は、上から順に時刻t1〜t9の間の観測ブロックA、B、C、Dに対する認識結果をそれぞれ示しており、「H」が路面ブロック、「L」が非路面ブロックを表している。
観測ブロックA、B、C、Dはいずれも入力画像の路面部分に対応して設定されているため、本来は全ての時刻において路面ブロックと認識されなければならない。しかし、図7(b)に示すように、自車両に接近してきた他車両700が入力画像内に映り込むと、路面部分の一部が隠れてしまう。その結果、図7(d)に示すように、時刻t2〜t7にかけて、互いに隣接する観測ブロックA、B、C、Dのいずれか少なくとも一つが非路面ブロックと認識され、この非路面ブロックの位置が時間の経過と共に移動する。このように、入力画像内で互いに隣接する複数の非路面ブロックの位置が時系列で移動している場合には、入力画像内に何らかの移動物体が映り込んでおり、その移動物体の影響で路面が隠れていると考えることができる。
さらに、入力画像における背景の移動速度をS1とし、複数の非路面ブロックの移動速度、すなわち他車両700の移動速度をS2として、これらの移動速度S1、S2を比較することで、上記の移動物体の判断をより確実に行うことができる。すなわち、非路面ブロックの移動速度S2と背景の移動速度S1との差分が所定値以上であれば、入力画像内で路面上に映り込んでいるのは移動物体であり、たとえば建物の影などの静止物体ではないと、確証を持って判断することができる。なお、背景の移動速度S1は、たとえば、入力画像内で地平線より上部に映り込んでいる被写体をトラッキング処理などで追跡することにより求めることができる。また、前述のカメラ設置幾何情報から観測ブロック1個あたりの写像上の実距離を求めることで、背景の移動速度S1や非路面ブロックの移動速度S2を画像上の速度ではなく、実空間上の速度として求めてもよい。
時系列検証部105は、以上説明した手順に従って、路面領域の一部が他車両で隠れているかどうかの時系列検証を行う。これにより、入力画像内で互いに隣接する複数の非路面ブロックの位置が時系列で移動しており、かつ、該複数の非路面ブロックの移動速度と背景の移動速度との差分が所定値以上である場合に、路面領域が対象物である他車両によって隠れていると判断することができる。
図8〜図10は、道路形状が直線からカーブや交差点に変化した場合の時系列検証の手順の一例を説明する図である。前述のようにカメラ20は魚眼カメラであり、撮影画像の上下左右端に近い領域では解像度が低いという特性を有する。したがって、道路の延長線上にカーブが存在すると、その路面は撮影画像において解像度が低い左右端の領域に映り込むため、路面領域の検出において誤りが生じやすい。また、自車両が交差点を通過する際に自車両の走行道路と直交する道路の路面は、撮影画像に映り込む期間が短く、かつ撮影画像において解像度が低い上下端の領域に映り込むため、路面領域の検出において誤りが生じやすい。時系列検証部105では、これらの問題を解決するために、以下のような時系列検証により道路形状が直線からカーブや交差点に変化したか否かを判断する。
図8(a)、図8(b)、図8(c)は、カメラ20で撮影された撮影画像の例をそれぞれ示している。図8(a)は、自車両が直線道路を走行しているときの撮影画像の例であり、図8(b)は、自車両がカーブ道路を走行しているときの撮影画像の例であり、図8(c)は、自車両が交差点を走行しているときの撮影画像の例である。なお、これらの図でも図7(a)〜(c)と同様に、説明の都合上、魚眼画像である各撮影画像の右半分のみを図示している。また、ここでは理解を容易にするため、歪み補正処理を行う前の撮影画像に対する路面検知結果を用いて説明するが、実際には、画像補正部101により歪み補正処理が行われた入力画像に対する路面検知結果に対して、時系列検証部105による時系列検証が行われる。
図9は、道路形状が直線からカーブに変化し、それに応じて撮影画像が図8(a)から図8(b)に遷移したときの観測ブロックに対する認識結果の変化の一例を示したチャート図である。ここでは、入力画像に設定された複数の観測ブロックのうち、図8(a)、(b)に示した6個の観測ブロックA、B、C、D、E、Fに注目している。図9に示すチャート図は、上から順に時刻t1〜t9の間の観測ブロックA、B、C、D、E、Fに対する認識結果をそれぞれ示しており、「H」が路面ブロック、「L」が非路面ブロックを表している。
入力画像が図8(a)から図8(b)に遷移すると、図9のチャート図において、まず符号901の部分に示すように、時刻t2〜t4にかけて、入力画像内で互いに隣接する観測ブロックB、Cに対する認識結果が、路面ブロックから非路面ブロックに順次変化する。続いて符号902の部分に示すように、時刻t5〜t7にかけて、入力画像内で上記観測ブロックB、Cよりも下側の位置で互いに隣接する観測ブロックE、Fに対する認識結果が、観測ブロックB、Cとは反対に、非路面ブロックから路面ブロックに順次変化する。このように、入力画像内の上側の位置で互いに隣接する複数の観測ブロックに対する路面検出結果が路面ブロックから非路面ブロックに順次変化し、かつ、それとほぼ同じタイミングで、入力画像内の下側の位置で互いに隣接する複数の観測ブロックに対する路面検出結果が非路面ブロックから路面ブロックに順次変化した場合には、自車両の走行道路が直線道路からカーブ路面に遷移していると判断することができる。
なお、道路のカーブしている方向によっては、各観測ブロックに対する認識結果の変化が上記とは反対になる場合もある。すなわち、入力画像内の上側の位置で互いに隣接する複数の観測ブロックに対する路面検出結果が非路面ブロックから路面ブロックに順次変化し、かつ、それとほぼ同じタイミングで、入力画像内の下側の位置で互いに隣接する複数の観測ブロックに対する路面検出結果が路面ブロックから非路面ブロックに順次変化した場合にも、上記と同様に、自車両の走行道路が直線道路からカーブ路面に遷移していると判断することができる。
時系列検証部105は、以上説明した手順に従って、道路形状が直線からカーブに変化したかどうかの時系列検証を行う。これにより、所定の期間内に、入力画像内の第1の位置で互いに隣接する複数の観測ブロックに対する路面検出結果が路面ブロックから非路面ブロックに、または非路面ブロックから路面ブロックに順次変化し、かつ、第1の位置よりも下側の第2の位置で互いに隣接する複数の観測ブロックに対する路面検出結果が、第1の位置での観測ブロックに対する路面検出結果とは反対に順次変化した場合には、道路形状が直線からカーブに変化したと判断することができる。そのため、通常であれば入力画像内で解像度の低い部分に映り込みやすいカーブ道路の路面を、適切に路面領域として検出することが可能になる。
図10は、道路形状が直線から交差点に変化し、それに応じて撮影画像が図8(a)から図8(c)に遷移したときの観測ブロックに対する認識結果の変化の一例を示したチャート図である。ここでは、入力画像に設定された複数の観測ブロックのうち、図8(a)、(c)に示した6個の観測ブロックA、B、C、D、E、Fに注目している。図10に示すチャート図は、上から順に時刻t1〜t9の間の観測ブロックA、B、C、D、E、Fに対する認識結果をそれぞれ示しており、「H」が路面ブロック、「L」が非路面ブロックを表している。
入力画像が図8(a)から図8(c)に遷移すると、図10のチャート図において、まず符号1001の部分に示すように、時刻t2〜t4にかけて、入力画像内で互いに隣接する観測ブロックA、Bに対する認識結果が、同時に路面ブロックから非路面ブロックに変化し、その後は再び路面ブロックに戻る。また、符号1002の部分に示すように、時刻t5〜t8にかけて、入力画像内で上記観測ブロックA、Bよりも下側の位置で互いに隣接する観測ブロックE、Fに対する認識結果が、観測ブロックA、Bと同様に、同時に路面ブロックから非路面ブロックに変化し、その後は再び路面ブロックに戻る。なお、入力画像内で上部に位置する観測ブロックA、Bは、交差点奥方向に伸びる道路部分に該当し、入力画像内で下部に位置する観測ブロックE、Fは、交差点手前方向に伸びる道路部分に該当する。このように、入力画像内の上側の位置と下側の位置のそれぞれにおいて、互いに隣接する複数の観測ブロックに対する路面検出結果が路面ブロックから非路面ブロックを経て路面ブロックに順次変化した場合には、自車両の走行道路が直線道路から交差点に遷移していると判断することができる。
時系列検証部105は、以上説明した手順に従って、道路形状が直線から交差点に変化したかどうかの時系列検証を行う。これにより、所定の期間内に、入力画像内の第1の位置で互いに隣接する複数の観測ブロックに対する路面検出結果と、第1の位置よりも下側の第2の位置で互いに隣接する複数の観測ブロックに対する路面検出結果とが、路面ブロックから非路面ブロックを経て路面ブロックに順次変化した場合には、道路形状が直線から交差点に変化したと判断することができる。そのため、通常であれば入力画像内で解像度の低い部分に映り込みやすい交差道路の路面を、適切に路面領域として検出することが可能になる。
以上説明した本発明の第1の実施形態によれば、以下の作用効果を奏する。
(1)画像処理装置10は、路面検出部102と、時系列検証部105と、検知領域選択部103と、検知部104とを備える。路面検出部102は、カメラ20で撮影して得られた撮影画像に基づく入力画像から路面領域を検出する。時系列検証部105は、入力画像における路面領域の検出結果を時系列で検証する時系列検証を行う。検知領域選択部103は、路面検出部102による路面領域の検出結果と、時系列検証部105による時系列検証の結果とに基づいて、対象物を検知するための検知領域、すなわち他車両を検知するための車両検知領域を入力画像内に設定する。検知部104は、設定された車両検知領域において対象物である他車両を検知する。このようにしたので、自車両の周辺に存在する他車両を撮影画像から正確に検知できる。
(2)路面検出部102は、入力画像を複数の観測ブロックに分割して、複数の観測ブロックの各々が、路面領域に対応する路面ブロックまたは路面領域に対応しない非路面ブロックのいずれであるかを判定する。時系列検証部105は、入力画像における路面ブロックおよび非路面ブロックの時系列での配置の変化に基づいて、時系列検証を行う。具体的には、時系列検証部105は、時系列検証において、図7に示したように、入力画像内で互いに隣接する複数の非路面ブロックの位置が時系列で移動しており、かつ、該複数の非路面ブロックの移動速度と背景の移動速度との差分が所定値以上である場合に、路面領域が対象物で隠れていると判断する。このようにしたので、路面領域が対象物で隠れている場合に、これを確実に判断することができる。
(3)また、時系列検証部105は、時系列検証において、図8、9に示したように、所定の期間内に、入力画像内の第1の位置で互いに隣接する複数の観測ブロックに対する路面検出部102の判定結果が、路面ブロックから非路面ブロックに、または非路面ブロックから路面ブロックに順次変化し、かつ、入力画像内で第1の位置よりも下側の第2の位置で互いに隣接する複数の観測ブロックに対する路面検出部102の判定結果が、第1の位置での観測ブロックに対する判定結果とは反対に順次変化した場合に、路面領域に対応する道路形状が直線からカーブに変化したと判断する。このようにしたので、道路形状が直線からカーブに変化した場合に、これを確実に判断することができる。
(4)さらに、時系列検証部105は、時系列検証において、図8、10に示したように、所定の期間内に、入力画像内の第1の位置で互いに隣接する複数の観測ブロックに対する路面検出部102の判定結果と、入力画像内で第1の位置よりも下側の第2の位置で互いに隣接する複数の観測ブロックに対する路面検出部102の判定結果とが、路面ブロックから非路面ブロックを経て路面ブロックに順次変化した場合に、路面領域に対応する道路形状が直線から交差点に変化したと判断する。このようにしたので、道路形状が直線から交差点に変化した場合に、これを確実に判断することができる。
(5)画像処理装置10は、時系列検証部105による時系列検証の結果に基づいて路面領域を補間する路面領域補間部106をさらに備える。検知領域選択部103は、路面検出部102による路面領域の検出結果と、路面領域補間部106による路面領域の補間結果とに基づいて、車両検知領域を設定する。このようにしたので、路面領域が非路面領域と誤って判断された場合でも、本来の路面領域に合わせて車両検知領域を正しく設定することができる。
(6)画像処理装置10は、自車両に搭載されており、自車両の走行状態に基づいて対象物を優先的に検知すべき方向を設定する優先方向選択部107をさらに備える。検知領域選択部103は、優先方向選択部107により設定された方向に基づいて車両検知領域を設定する。このようにしたので、自車両の走行状態に応じて車両検知領域を適切に設定することができる。
−第2の実施形態−
図11は、本発明の第2の実施形態に係る外界認識装置の一例を示す図である。図11に示すように、本実施形態の外界認識装置1100は、第1の実施形態で説明した画像処理装置10と、周辺認識部1101、信号処理部1102およびドライバー通知部1103とを備える。外界認識装置1100は、画像処理装置10と同様に自車両に搭載されたカメラ20に接続されると共に、自車両に搭載された制御部1111、メモリ1112、自車両制御部1113、LED1114、スピーカ1115、ディスプレイ1116およびカーナビゲーション装置1117にも接続されている。なお、画像処理装置10と他の各機器とは、自車両内の信号バスを介して互いに接続されている。
カメラ20は、自車両周辺の撮影画像を取得し、外界認識装置1100内の画像処理装置10に出力する。メモリ1112は、カメラ20が取得した撮像画像を一時的に保持する。制御部1111は、カメラ20と外界認識装置1100の間における撮影画像の入出力や、外界認識装置1100と自車両制御部1113の間における車両制御信号の入出力を制御する。
画像処理装置10は、第1の実施形態で説明したように、自車両の周囲に存在する他車両を検知し、その検知結果に基づく車両接近信号を周辺認識部1101に出力する。また、他車両を検知するのが困難な状況のときには、検知FAIL信号を周辺認識部1101に出力する。
周辺認識部1101は、画像処理装置10から車両接近信号が出力されると、これに基づいて、自車両の周囲環境を認識するための周辺認識処理を実行する。たとえば、カメラ20の撮影画像を用いて自車両の近傍および遠方の周辺空間を解析し、バイクや自転車を含む他車両および歩行者の有無を認識したり、自車両の走行や駐車の妨げになる障害物体の有無を認識したりする。また、他車両や歩行者が自車両に急接近している場合にはこれを検知して自車両との衝突を予測したり、自車両と障害物との衝突を予測したりする。さらに、自車両が走行中に車線逸脱した場合に警報を出す車線逸脱警報処理や、自車両のドライバーの死角に人や他車両が入り込んでいた場合に警報を出す死角警報処理などを、周辺認識処理に含めてもよい。周辺認識部1101は、周辺認識処理の実行結果に基づく検知結果や警報情報を信号処理部1102に出力すると共に、自車両のドライバーに対する通知情報を必要に応じてドライバー通知部1103に出力する。
信号処理部1102は、周辺認識部1101から出力された検知結果および警報情報に基づいて、自車両の動作を制御するための車両制御信号を生成し、自車両制御部1113に送信する。自車両制御部1113は、信号処理部1102から受信した車両制御信号に基づいて自車両の動作を制御することで、他車両や歩行者との衝突を回避するために自車両を停止させたり、障害物との衝突を回避するために自車両の進行方向を変化させたりする。
ドライバー通知部1103は、周辺認識部1101から出力された通知情報に基づいて、自車両のドライバーに対する警告を行うための警報信号を生成し、LED1114、スピーカ1115、ディスプレイ1116、カーナビゲーション装置1117のいずれかに送信する。LED1114、スピーカ1115、ディスプレイ1116、カーナビゲーション装置1117の各機器は、ドライバー通知部1103から受信した警報信号を受信すると、これに基づいて所定の表示や音声出力を行うことで、自車両のドライバーに対して、自車両に接近している他車両や歩行者、障害物等の存在を警告する。
なお、画像処理装置10から検知FAIL信号が出力されているときには、画像処理装置10において他車両を検知するのが困難であると判断されるため、周辺認識部1101は画像処理装置10の動作を一時的または連続して停止させることが好ましい。周辺認識部1101は、画像処理装置10に対してON/OFF制御信号を出力することで、画像処理装置10の動作を開始または停止させることができる。さらにこのとき、周辺認識部1101からドライバー通知部1103へ通知情報を出力し、これに基づいてドライバー通知部1103が警報信号を生成してLED1114、スピーカ1115、ディスプレイ1116、カーナビゲーション装置1117のいずれかに送信することで、画像処理装置10の動作が停止していることを自車両のドライバーに通知してもよい。
以上説明した本発明の第2の実施形態によれば、外界認識装置1100は、画像処理装置10を備える。また、周辺認識部1101、信号処理部1102およびドライバー通知部1103により、画像処理装置10内の検知部104による他車両の検知結果に基づいて、自車両の運転者に対する警告を行うための警報信号および自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する。このようにしたので、自車両の周囲環境を正確に認識することができる。
なお、以上説明した各実施の形態では、撮影画像から検知する対象物を自車両周囲に存在する他車両としたが、対象物はこれに限定されず、他の物体を対象物としてもよい。また、車両に搭載されたカメラ20で取得した撮影画像を用いて対象物を検知する例を説明したが、撮影画像を取得するカメラは車両に搭載されたものに限らない。たとえば、街頭監視等に用いられるカメラなど、車載以外の様々な用途のカメラで取得された撮影画像を用いて、対象物を検知することができる。
以上説明した実施形態や各種の変化例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。本発明は、上述した実施形態や変形例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
10 画像処理装置
20 カメラ
101 画像補正部
102 路面検出部
103 検知領域選択部
104 検知部
105 時系列検証部
106 路面領域補間部
107 優先方向選択部
1100 外界認識装置
1101 周辺認識部
1102 信号処理部
1103 ドライバー通知部

Claims (9)

  1. カメラで撮影して得られた撮影画像に基づく入力画像から路面領域を検出する路面検出部と、
    前記入力画像における前記路面領域の検出結果を時系列で検証する時系列検証を行う時系列検証部と、
    前記路面検出部による前記路面領域の検出結果と、前記時系列検証部による前記時系列検証の結果とに基づいて、対象物を検知するための検知領域を前記入力画像内に設定する検知領域選択部と、
    前記検知領域において前記対象物を検知する検知部と、を備える画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記路面検出部は、前記入力画像を複数の観測ブロックに分割して、前記複数の観測ブロックの各々が、前記路面領域に対応する路面ブロックまたは前記路面領域に対応しない非路面ブロックのいずれであるかを判定し、
    前記時系列検証部は、前記入力画像における前記路面ブロックおよび前記非路面ブロックの時系列での配置の変化に基づいて、前記時系列検証を行う画像処理装置。
  3. 請求項2に記載の画像処理装置において、
    前記時系列検証部は、前記時系列検証において、前記入力画像内で互いに隣接する複数の前記非路面ブロックの位置が時系列で移動しており、かつ、該複数の非路面ブロックの移動速度と背景の移動速度との差分が所定値以上である場合に、前記路面領域が前記対象物で隠れていると判断する画像処理装置。
  4. 請求項2に記載の画像処理装置において、
    前記時系列検証部は、前記時系列検証において、所定の期間内に、前記入力画像内の第1の位置で互いに隣接する複数の前記観測ブロックに対する前記路面検出部の判定結果が、前記路面ブロックから前記非路面ブロックに、または前記非路面ブロックから前記路面ブロックに順次変化し、かつ、前記入力画像内で前記第1の位置よりも下側の第2の位置で互いに隣接する複数の前記観測ブロックに対する前記路面検出部の判定結果が、前記第1の位置での前記観測ブロックに対する判定結果とは反対に順次変化した場合に、前記路面領域に対応する道路形状が直線からカーブに変化したと判断する画像処理装置。
  5. 請求項2に記載の画像処理装置において、
    前記時系列検証部は、前記時系列検証において、所定の期間内に、前記入力画像内の第1の位置で互いに隣接する複数の前記観測ブロックに対する前記路面検出部の判定結果と、前記入力画像内で前記第1の位置よりも下側の第2の位置で互いに隣接する複数の前記観測ブロックに対する前記路面検出部の判定結果とが、前記路面ブロックから前記非路面ブロックを経て前記路面ブロックに順次変化した場合に、前記路面領域に対応する道路形状が直線から交差点に変化したと判断する画像処理装置。
  6. 請求項1から請求項5までのいずれか一項に記載の画像処理装置において、
    前記時系列検証部による前記時系列検証の結果に基づいて前記路面領域を補間する路面領域補間部をさらに備え、
    前記検知領域選択部は、前記路面検出部による前記路面領域の検出結果と、前記路面領域補間部による前記路面領域の補間結果とに基づいて、前記検知領域を設定する画像処理装置。
  7. 請求項1から請求項6までのいずれか一項に記載の画像処理装置において、
    前記画像処理装置は自車両に搭載されており、
    前記対象物は前記自車両の周囲に存在する他車両である画像処理装置。
  8. 請求項7に記載の画像処理装置において、
    前記自車両の走行状態に基づいて前記対象物を優先的に検知すべき方向を設定する優先方向選択部をさらに備え、
    前記検知領域選択部は、前記優先方向選択部により設定された方向に基づいて前記検知領域を設定する画像処理装置。
  9. 請求項7または8に記載の画像処理装置を備え、
    前記検知部による前記他車両の検知結果に基づいて、前記自車両の運転者に対する警告を行うための警報信号および前記自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する外界認識装置。
JP2016151351A 2016-08-01 2016-08-01 画像処理装置、外界認識装置 Active JP6611353B2 (ja)

Priority Applications (5)

Application Number Priority Date Filing Date Title
JP2016151351A JP6611353B2 (ja) 2016-08-01 2016-08-01 画像処理装置、外界認識装置
EP17836916.1A EP3493152A4 (en) 2016-08-01 2017-07-31 IMAGE PROCESSING DEVICE AND ENVIRONMENTAL DETECTION DEVICE
US16/322,149 US10956757B2 (en) 2016-08-01 2017-07-31 Image processing device, outside recognition device
CN201780044270.4A CN109478324B (zh) 2016-08-01 2017-07-31 图像处理装置、外界识别装置
PCT/JP2017/027726 WO2018025811A1 (ja) 2016-08-01 2017-07-31 画像処理装置、外界認識装置

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016151351A JP6611353B2 (ja) 2016-08-01 2016-08-01 画像処理装置、外界認識装置

Publications (2)

Publication Number Publication Date
JP2018022234A true JP2018022234A (ja) 2018-02-08
JP6611353B2 JP6611353B2 (ja) 2019-11-27

Family

ID=61073580

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016151351A Active JP6611353B2 (ja) 2016-08-01 2016-08-01 画像処理装置、外界認識装置

Country Status (5)

Country Link
US (1) US10956757B2 (ja)
EP (1) EP3493152A4 (ja)
JP (1) JP6611353B2 (ja)
CN (1) CN109478324B (ja)
WO (1) WO2018025811A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211822A (ja) * 2018-05-31 2019-12-12 株式会社デンソーテン 走行領域判定装置、走行領域判定方法、および路面画像機械学習モデルの生成方法
JP2020047267A (ja) * 2018-09-14 2020-03-26 本田技研工業株式会社 シーン分類
KR20200040150A (ko) * 2018-10-08 2020-04-17 주식회사 만도 차량 제어 장치, 차량 제어 방법 및 차량 제어 시스템
JP2020101935A (ja) * 2018-12-20 2020-07-02 株式会社デンソー 画像認識装置
WO2020250527A1 (ja) 2019-06-14 2020-12-17 マツダ株式会社 外部環境認識装置
WO2020250528A1 (ja) 2019-06-14 2020-12-17 マツダ株式会社 外部環境認識装置
WO2020250526A1 (ja) 2019-06-14 2020-12-17 マツダ株式会社 外部環境認識装置
US11034357B2 (en) 2018-09-14 2021-06-15 Honda Motor Co., Ltd. Scene classification prediction

Families Citing this family (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6874850B2 (ja) * 2017-10-06 2021-05-19 日本電気株式会社 物体検知装置、物体検知方法、及びプログラム
DE102018203590A1 (de) * 2018-03-09 2019-09-12 Conti Temic Microelectronic Gmbh Surroundview-System mit angepasster Projektionsfläche
US11427211B2 (en) * 2018-06-18 2022-08-30 Baidu Usa Llc Methods for handling sensor failures in autonomous driving vehicles
JP6671603B1 (ja) * 2019-03-01 2020-03-25 KB−eye株式会社 管理サーバ、交通制御システム、交通制御方法および交通制御プログラム
JP7361482B2 (ja) * 2019-03-27 2023-10-16 京セラ株式会社 画像処理装置、撮像装置、移動体及び画像処理方法
JP7115502B2 (ja) * 2020-03-23 2022-08-09 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7359735B2 (ja) * 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
US11922703B1 (en) * 2023-04-06 2024-03-05 Plusai, Inc. Generic obstacle detection in drivable area

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01265400A (ja) * 1988-04-18 1989-10-23 Nippon Denso Co Ltd 車両用標識認識装置
JP2003317106A (ja) * 2002-04-26 2003-11-07 Nissan Motor Co Ltd 走行路認識装置
JP2014146135A (ja) * 2013-01-28 2014-08-14 Mazda Motor Corp 車両用撮像装置

Family Cites Families (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1383100A3 (en) * 1996-08-28 2005-02-02 Matsushita Electric Industrial Co., Ltd. Local positioning apparatus and method therefor
JP3580475B2 (ja) * 1998-09-14 2004-10-20 矢崎総業株式会社 周辺監視装置
WO2009057410A1 (ja) * 2007-10-30 2009-05-07 Nec Corporation 路面標示画像処理装置,路面標示画像処理方法及びプログラム
US8422736B2 (en) * 2007-11-16 2013-04-16 Tomtom Global Content B.V. Method of and apparatus for producing lane information
US8054201B2 (en) * 2008-03-19 2011-11-08 Mazda Motor Corporation Surroundings monitoring device for vehicle
CN101483547B (zh) * 2009-02-12 2011-05-11 中国人民解放军信息工程大学 一种网络突发事件度量评估方法及***
CN102044151B (zh) * 2010-10-14 2012-10-17 吉林大学 基于光照可见度辨识的夜间车辆视频检测方法
JP2013097675A (ja) * 2011-11-02 2013-05-20 Honda Elesys Co Ltd 勾配推定装置、勾配推定方法、及び勾配推定プログラム
JP6133861B2 (ja) * 2012-07-03 2017-05-31 クラリオン株式会社 状態認識システム及び状態認識方法
CN103679127B (zh) 2012-09-24 2017-08-04 株式会社理光 检测道路路面的可行驶区域的方法和装置
DE112013004876T5 (de) * 2012-10-03 2015-06-18 Denso Corporation Fahrzeugnavigationssystem und Bildaufnahmeeinrichtung für ein Fahrzeug
JP5874756B2 (ja) * 2014-02-07 2016-03-02 トヨタ自動車株式会社 区画線検出システム及び区画線検出方法
CN105934774A (zh) * 2014-03-24 2016-09-07 株式会社日立制作所 物体检测装置、物体检测方法以及移动机器人
JP6380002B2 (ja) * 2014-10-28 2018-08-29 アイシン精機株式会社 周辺監視装置
JP6156400B2 (ja) 2015-02-09 2017-07-05 トヨタ自動車株式会社 走行路面検出装置及び走行路面検出方法
JP6838340B2 (ja) * 2016-09-30 2021-03-03 アイシン精機株式会社 周辺監視装置
JP6783949B2 (ja) * 2016-12-16 2020-11-11 日立オートモティブシステムズ株式会社 交通標識情報を用いた道路検出

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01265400A (ja) * 1988-04-18 1989-10-23 Nippon Denso Co Ltd 車両用標識認識装置
JP2003317106A (ja) * 2002-04-26 2003-11-07 Nissan Motor Co Ltd 走行路認識装置
JP2014146135A (ja) * 2013-01-28 2014-08-14 Mazda Motor Corp 車両用撮像装置

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019211822A (ja) * 2018-05-31 2019-12-12 株式会社デンソーテン 走行領域判定装置、走行領域判定方法、および路面画像機械学習モデルの生成方法
JP7203514B2 (ja) 2018-05-31 2023-01-13 株式会社デンソーテン 走行領域判定装置、走行領域判定方法、および路面画像機械学習モデルの生成方法
US11034357B2 (en) 2018-09-14 2021-06-15 Honda Motor Co., Ltd. Scene classification prediction
JP2020047267A (ja) * 2018-09-14 2020-03-26 本田技研工業株式会社 シーン分類
US11195030B2 (en) 2018-09-14 2021-12-07 Honda Motor Co., Ltd. Scene classification
KR20200040150A (ko) * 2018-10-08 2020-04-17 주식회사 만도 차량 제어 장치, 차량 제어 방법 및 차량 제어 시스템
KR102581766B1 (ko) * 2018-10-08 2023-09-22 주식회사 에이치엘클레무브 차량 제어 장치, 차량 제어 방법 및 차량 제어 시스템
JP7103202B2 (ja) 2018-12-20 2022-07-20 株式会社デンソー 画像認識装置
JP2020101935A (ja) * 2018-12-20 2020-07-02 株式会社デンソー 画像認識装置
WO2020250528A1 (ja) 2019-06-14 2020-12-17 マツダ株式会社 外部環境認識装置
WO2020250526A1 (ja) 2019-06-14 2020-12-17 マツダ株式会社 外部環境認識装置
JP2020204821A (ja) * 2019-06-14 2020-12-24 マツダ株式会社 外部環境認識装置
WO2020250527A1 (ja) 2019-06-14 2020-12-17 マツダ株式会社 外部環境認識装置
CN114008698A (zh) * 2019-06-14 2022-02-01 马自达汽车株式会社 外部环境识别装置
US11830254B2 (en) 2019-06-14 2023-11-28 Mazda Motor Corporation Outside environment recognition device
JP7400222B2 (ja) 2019-06-14 2023-12-19 マツダ株式会社 外部環境認識装置

Also Published As

Publication number Publication date
JP6611353B2 (ja) 2019-11-27
EP3493152A4 (en) 2020-04-22
US20190156131A1 (en) 2019-05-23
US10956757B2 (en) 2021-03-23
CN109478324A (zh) 2019-03-15
CN109478324B (zh) 2021-10-08
WO2018025811A1 (ja) 2018-02-08
EP3493152A1 (en) 2019-06-05

Similar Documents

Publication Publication Date Title
JP6611353B2 (ja) 画像処理装置、外界認識装置
JP6888950B2 (ja) 画像処理装置、外界認識装置
US20170297488A1 (en) Surround view camera system for object detection and tracking
JP6307895B2 (ja) 車両用周辺監視装置
US10618467B2 (en) Stereo image generating method using mono cameras in vehicle and providing method for omnidirectional image including distance information in vehicle
JP6512164B2 (ja) 物体検出装置、物体検出方法
US9592764B2 (en) Redundant object detection for driver assistance systems
WO2018079252A1 (ja) 物体検知装置
JP2013093013A (ja) 画像処理装置、車両
KR102581766B1 (ko) 차량 제어 장치, 차량 제어 방법 및 차량 제어 시스템
CN111937002A (zh) 障碍物检测装置、利用了障碍物检测装置的自动制动装置、障碍物检测方法以及利用了障碍物检测方法的自动制动方法
JP2005309797A (ja) 歩行者警報装置
CN117994763A (zh) 用于机动车辆的视觉***和方法
US20180204462A1 (en) Device and method for start assistance for a motor vehicle
JP4848644B2 (ja) 障害物認識システム
WO2017208601A1 (ja) 画像処理装置、外界認識装置
JP2020166409A (ja) 車載装置、車載システムおよび周辺監視方法
JP6174884B2 (ja) 車外環境認識装置および車外環境認識方法
KR102616203B1 (ko) 차량 후측방 경보 제어장치 및 방법
JP2005309660A (ja) 車両用右左折支援装置
KR102485318B1 (ko) 단안 영상 기반 추월 및 합류 차량 인식 시스템 및 방법
JP2018163530A (ja) 対象物検知装置、対象物検知方法、及び対象物検知プログラム
JP2018136713A (ja) ドライバの視界推定装置及び車両用制御装置
JP2018097792A (ja) 移動体検出装置及び移動体検出システム
JP2011090490A (ja) 障害物認識装置

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190827

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20191004

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20191023

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20191028

R150 Certificate of patent or registration of utility model

Ref document number: 6611353

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150