JP2018097766A - 画像処理装置、外界認識装置 - Google Patents

画像処理装置、外界認識装置 Download PDF

Info

Publication number
JP2018097766A
JP2018097766A JP2016244043A JP2016244043A JP2018097766A JP 2018097766 A JP2018097766 A JP 2018097766A JP 2016244043 A JP2016244043 A JP 2016244043A JP 2016244043 A JP2016244043 A JP 2016244043A JP 2018097766 A JP2018097766 A JP 2018097766A
Authority
JP
Japan
Prior art keywords
feature map
vehicle
verification
unit
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2016244043A
Other languages
English (en)
Other versions
JP6888950B2 (ja
JP2018097766A5 (ja
Inventor
秋山 靖浩
Yasuhiro Akiyama
靖浩 秋山
浜田 宏一
Koichi Hamada
宏一 浜田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Faurecia Clarion Electronics Co Ltd
Original Assignee
Clarion Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Clarion Co Ltd filed Critical Clarion Co Ltd
Priority to JP2016244043A priority Critical patent/JP6888950B2/ja
Priority to PCT/JP2017/044759 priority patent/WO2018110605A1/ja
Priority to US16/469,770 priority patent/US11461595B2/en
Priority to EP17879882.3A priority patent/EP3557524A4/en
Publication of JP2018097766A publication Critical patent/JP2018097766A/ja
Publication of JP2018097766A5 publication Critical patent/JP2018097766A5/ja
Application granted granted Critical
Publication of JP6888950B2 publication Critical patent/JP6888950B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q9/00Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling
    • B60Q9/008Arrangement or adaptation of signal devices not provided for in one of main groups B60Q1/00 - B60Q7/00, e.g. haptic signalling for anti-collision purposes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • B60W30/09Taking automatic action to avoid collision, e.g. braking and steering

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Artificial Intelligence (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Computing Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Data Mining & Analysis (AREA)
  • Human Computer Interaction (AREA)
  • Mechanical Engineering (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • General Engineering & Computer Science (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Abstract

【課題】自車両の周辺に存在する他車両等の対象物を撮影画像から正確に検知する。
【解決手段】画像処理装置10は、車両検出部103と、特徴マップ検証部104と、時系列検証部105と、検出結果修正部106とを備える。車両検出部103は、カメラ20で撮影して得られた撮影画像に基づく入力画像に対して畳み込み演算を行い、対象物すなわち他車両を検出する。特徴マップ検証部104は、車両検出部103の畳み込み演算によって得られる特徴マップに基づいて、入力画像に他車両が含まれる確からしさを検証する特徴マップ検証を行う。時系列検証部105は、特徴マップ検証部104による特徴マップ検証の結果を時系列で検証する時系列検証を行う。検出結果修正部106は、時系列検証部105による時系列検証の結果に基づいて、車両検出部103による他車両の検出結果を修正する。
【選択図】図1

Description

本発明は、画像処理装置および外界認識装置に関する。
近年、車両同士の衝突や人と車両の衝突などの事故を未然に避けるため、自車両周辺の状況を車載カメラでモニタし、危険を感知した際はドライバーに警報を出力すると共に、自車両の挙動を自動で制御する技術が進展している。こうした自車両の予防安全や自動運転制御のためには、自車両の周辺に存在する車両を観測対象として、その接近を常に監視し続ける必要がある。このような技術において、車載カメラで撮影された画像には、観測対象とする車両以外にも、背景に周辺構造物などの様々なものが映り込んでいる。そのため、観測対象を正確に特定して検知するのは困難であり、誤検知が発生する要因となっていた。
上記のような画像中の背景に起因する誤検知を解決する手法として、画像において車両が走行可能な路面領域を認識し、その路面領域に対して車両検知を実行することが提案されている。これに関して、たとえば特許文献1には、ステレオカメラで撮影した視差画像から階調図を作成し、この階調図を用いて画像中の道路面を特定することで、車両が走行可能な領域か否かを判断する方法が開示されている。
特開2014−67407号公報
特許文献1に記載されているような階調図は一般的に表現可能な情報のダイナミックレンジが狭く、また周囲の明るさの影響を受けやすい。したがって、特許文献1の手法では、画像中の道路面を正確に特定することが難しい場合があり、このような場合は、自車両の周辺に存在する他車両等の対象物を撮影画像から正確に検知するのは困難である。
本発明による画像処理装置は、カメラで撮影して得られた撮影画像に基づく入力画像に対して畳み込み演算を行い、対象物を検出する対象物検出部と、前記畳み込み演算によって得られる特徴マップに基づいて、前記入力画像に前記対象物が含まれる確からしさを検証する特徴マップ検証を行う特徴マップ検証部と、前記特徴マップ検証部による前記特徴マップ検証の結果を時系列で検証する時系列検証を行う時系列検証部と、前記時系列検証部による前記時系列検証の結果に基づいて、前記対象物検出部による前記対象物の検出結果を修正する検出結果修正部と、を備える。
本発明による外界認識装置は、画像処理装置を備え、前記検出結果修正部により修正された前記他車両の検知結果に基づいて、前記自車両の運転者に対する警告を行うための警報信号および前記自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する。
本発明によれば、自車両の周辺に存在する他車両等の対象物を撮影画像から正確に検知できる。
本発明の第1の実施形態に係る画像処理装置の機能構成を示すブロック図である。 撮影画像の歪み補正処理を示す図である。 優先方向を設定する際に用いる設定テーブルの一例を示す図である。 検出器を生成する際に用いられる学習用画像の例を示す図である。 深層学習型の車両検知器の構成の一例を示す図である。 深層学習型の車両検知器において畳み込み層ごとに抽出される特徴マップの例を示す図である。 特徴マップ検証の一例を示す図である。 時系列検証の一例を示す図である。 本発明の第2の実施形態に係る外界認識装置の一例を示す図である。
−第1の実施形態−
以下、本発明の第1の実施形態に係る画像処理装置について、図面を参照して説明する。図1は、本発明の第1の実施形態に係る画像処理装置10の機能構成を示すブロック図である。図1に示す画像処理装置10は、車両に搭載されて用いられる。なお、以下の説明では、画像処理装置10が搭載されている車両を「自車両」と称し、自車両の周囲に存在する他の車両を「他車両」と称する。
画像処理装置10は、撮影領域に対応する自車両の所定の位置、たとえば自車両のボディに取り付けられたカメラ20と接続されている。画像処理装置10は、画像補正部101、優先方向選択部102、車両検出部103、特徴マップ検証部104、時系列検証部105および検出結果修正部106を備える。なお、図1に示す画像処理装置10の各機能は、マイクロコンピュータ、メモリ等のハードウェアや、マイクロコンピュータ上で実行される各種プログラムなどを適宜組み合わせることにより、実現可能である。
カメラ20は、自車両周辺に存在する他車両を動画で、または所定時間ごとに静止画で撮影し、取得した動画の各コマまたは各静止画を、所定時間ごとの撮影画像として画像補正部101へ出力する。なお、画像処理装置10において他車両の認識を行いやすくするために、自車両の任意の箇所にカメラ20を設置することができる。たとえば、自車両のフロントバンパー、リアバンパー、左右のサイドミラー等の部分に、カメラ20が設置される。または、自車両の車内にカメラ20を設置してもよい。さらに、自車両の周囲で特定の領域のみに存在する他車両の認識を目的として、カメラ20を単独で設置してもよいし、あるいは、自車両の周囲の全ての領域について他車両を認識できるように、カメラ20を複数設置してもよい。
本実施形態において、カメラ20には魚眼カメラが用いられる。魚眼カメラとは、レンズ集光特性を通常のカメラで用いられるレンズよりも広角側に大きくずらした魚眼レンズを用いたカメラであり、撮影範囲が広いという利点がある。このように1個のカメラで広範囲を一度に撮影できることは、車両検知において画像処理の面で好ましい。一方、カメラ20で得られる撮影画像はいわゆる魚眼画像となるため、自車両から遠方の位置に対応する撮影画像の上下左右端に近い領域になるほど歪みが大きく、解像度が低下する傾向がある。そのため、カメラ20から入力される歪んだ撮影画像のままでは、車両検知に適さないという問題がある。
そこで、上記の問題点を解消するために、カメラ20で得られた撮影画像は、画像処理装置10において画像補正部101に入力される。画像補正部101は、カメラ20から入力された撮影画像(魚眼画像)に対して歪み補正処理を行うことで、撮影画像を車両検知に適した歪みのない画像へと変換する。画像補正部101による歪み補正処理では、たとえば、既知の魚眼レンズの歪特性を用いて撮影画像を実際の空間写像に変換する非線形局部幾何補正法や、魚眼レンズの歪特性を簡易的に表現した歪係数を用いて撮影画像を補正する線形局部幾何補正法などを用いることができる。なお、歪み補正処理ではこれ以外のアルゴリズムを選択しても問題ない。
図2は、画像補正部101による撮影画像の歪み補正処理を示す図である。図2(a)は、自車両の右サイドミラーに設置したカメラ20で撮影して得られた魚眼画像の一例である。この魚眼画像では、左側部分が前方すなわち自車両のフロント方向に相当し、右側部分が後方すなわち自車両のリア方向に相当する。図2(a)において、画像中央部には路面204が、画像上部には空などの背景205が、画像下部には自車両のボディ203がそれぞれ映り込んでおり、さらに、自車両後方から接近している他車両202が映り込んでいる。
画像補正部101は、図2(a)のような魚眼画像に対して、たとえば他車両202を含む領域を補正対象領域201として設定し、この補正対象領域201内の画像部分に対して歪み補正処理を行う。図2(b)は、図2(a)の補正対象領域201に対して歪み補正処理を行って得られた補正画像の一例である。この補正画像では、他車両202、路面204、背景205がそれぞれ実際の空間写像と同等に見えるように補正されている。
なお、図2の例では、他車両202の周囲に補正対象領域201を設定して歪み補正処理を行う場合を説明したが、画像補正部101は、撮影画像内の任意の領域を補正対象領域として歪み補正処理を行うことができる。また、撮影画像内に複数の補正対象領域を設定し、それぞれに対して歪み補正処理を行うようにしてもよい。さらに、撮影画像内で歪みの小さな部分を用いて車両検知を行う場合や、カメラ20を魚眼カメラではない通常のカメラとした場合などは、画像補正部101において歪み補正処理を行わないようにしてもよい。この場合、画像処理装置10は画像補正部101を備えなくてもよい。
優先方向選択部102は、自車両の走行状態に基づいて、検知対象物である他車両を優先的に検知すべき方向である優先方向を設定する。自車両の走行状態を判断するために、優先方向選択部102には、自車両の走行モードを示す信号が入力されている。
図3は、優先方向選択部102が優先方向を設定する際に用いる設定テーブルの一例を示す図である。図3の設定テーブルにおいて、自車両の走行モードには、前進、後退、駐車支援が含まれる。また、図3の設定テーブルでは、一般道路と高速道路とでそれぞれ異なる優先方向が示されている。優先方向選択部102は、たとえば自車両に搭載されている車両制御用のCPUから自車両の走行モードを示す信号を取得することで、自車両の走行モードがいずれであるかを判断すると共に、自車両が一般道路と高速道路のどちらの道路を走行しているかを判断することができる。
優先方向選択部102は、図3の設定テーブルに基づいて、自車両の走行モードおよび走行道路に応じた優先方向を設定する。たとえば自車両の走行モードが前進の場合、優先方向選択部102は、走行道路が一般道路と高速道路のどちらであっても、自車両の後方を優先方向に設定する。すなわち、自車両が前進しているときには、走行道路の種類に関わらず、自車両の後方から接近してくる他車両を優先的に検知できるように、自車両の後方を優先方向として設定する。
一方、自車両の走行モードが後退の場合、優先方向選択部102は、走行道路が一般道路であれば自車両の後方を優先方向に設定し、走行道路が高速道路であれば自車両周囲の全方向を優先方向に設定する。すなわち、自車両が一般道路上で後退しているときには、前進時と同様に、自車両の後方から接近してくる他車両を優先的に検知できるように、自車両の後方を優先方向として設定する。また、通常は自車両が高速道路上(パーキングエリアを除く)で後退することは想定されないが、万が一そのような事態が生じたときには危険度が十分高いため、自車両周囲の全方向を優先方向として設定することで、撮影画像全体を用いて他車両を検知できるようにする。
さらに、自車両の走行モードが駐車支援の場合、優先方向選択部102は、走行道路が一般道路であれば自車両の前方および後方を優先方向に設定し、走行道路が高速道路であれば自車両周囲の全方向を優先方向に設定する。すなわち、自車両が一般道路上で駐車支援を利用した縦列駐車発進を行うときには、自車両の前方や後方から接近してくる他車両を優先的に検知できるように、自車両の前方および後方を優先方向として設定する。また、通常は自車両が高速道路上(パーキングエリアを除く)で駐車することは想定されないが、万が一そのような事態が生じたときには危険度が十分高いため、後退時と同様に、自車両周囲の全方向を優先方向として設定することで、撮影画像全体を用いて他車両を検知できるようにする。
上記のように優先方向を設定したら、優先方向選択部102は、その設定結果に基づいて、検知対象物である他車両を検知するための車両検知領域を入力画像内に設定する。このとき優先方向選択部102は、自車両に対して設定された優先方向を考慮して車両検知領域を設定する。なお、優先方向が設定されていない場合は、入力画像内で予め定められた領域を車両検知領域に設定してもよいし、入力画像の全体を車両検知領域に設定してもよい。
車両検出部103は、カメラ20で撮影されて画像補正部101により歪み補正処理が行われた画像が入力されると、この入力画像から自車両の周囲に存在する検出対象物である他車両を検知する。車両検出部103は、優先方向選択部102が入力画像内で車両検知領域に設定した部分に対して所定の車両検知処理を実行することにより、車両検知領域内に映り込んでいる他車両を検知する。具体的には、車両検出部103は、機械学習の一手法である深層学習(Deep Learning)の手法を適用した検出器を利用して、車両検知領域内の画像が車両としての特徴を有するか否かを判断する2クラス検出を実施することにより、他車両を検知することができる。
図4は、車両検出部103の検出器を生成する際に用いられる学習用画像の例を示す図である。図4(a)は、車両の学習用画像の例であり、図4(b)〜図4(e)は、非車両の学習用画像の例である。図4(a)の学習用画像では、車両300が映り込んでいるのに対して、図4(b)〜図4(e)の学習用画像では、車両以外の被写体が映り込んでいる。具体的には、図4(b)の学習用画像には路面301が、図4(c)の学習用画像には樹木302が、図4(d)の学習用画像には建物303が、図4(e)の学習用画像には人物304がそれぞれ映り込んでいる。非車両の学習用画像では、上記の例に限らず、車両以外であればどのような被写体が映り込んでいてもよい。
なお、非車両の学習用画像では、実際の車両走行シーンで出現頻度の高い被写体が映り込んでいる画像を用いることが好ましい。また、車両の学習用画像も同様に、出現頻度の高い車両が映り込んでいる画像を用いることが好ましい。ただし、こうした学習用画像の収集が困難な場合は、出現頻度が低くても外観が似ている被写体が映り込んでいる画像を混在させても構わない。
ところで、車両検出部103において利用される深層学習とは、一般に、検知対象とする対象物の画像を複数枚入力して、そこから対象物を表現する画像特徴を抽出すると共に、未知の入力画像に対しては、学習した画像特徴を検出して識別できるように識別器のパラメータを自動設定する処理手法のことである。深層学習では、入力された複数画像が共通して持つ画像の特徴パラメータを細分して自動的に抽出することができる。また、特徴パラメータの抽出方法の一例としては、ニューラルネットワーク構造を用いた特徴抽出方法が知られている。ニューラルネットワーク構造では、入力画像群に共通な画像特徴に一致したときにのみ反応する、ニューロン・ユニットと呼ばれる入出力関数(活性化関数)が、小画像領域毎に多数組み合わされており、さらにこれが複数の層状に積み重ねられてピラミッド構造になっている。この方法によれば、検知対象とする対象物の位置や画像サイズを変えながら、段階的に対象物を識別できるようにニューロン・ユニットの各層毎に識別器パラメータを抽出して、最終的には、対象物全体を識別可能な識別器パラメータを得ることができる。
図5は、車両検出部103における深層学習型の車両検知器の構成の一例を示す図である。車両検出部103において他車両を検知するのに用いられる深層学習型の車両検知器は、畳み込み層とプーリング層の組み合わせを複数段、たとえば図5に示すように3段接続して構成される。図5において、1段目の畳み込み層501は、車両検出部103に入力された画像のうち優先方向選択部102により設定された車両検知領域内の部分に対応する画像データに対して畳み込み演算を実行し、1段目の特徴マップ509を抽出する。1段目のプーリング層502は、畳み込み層501が抽出した特徴マップ509を集約してデータサイズを縮小する。2段目の畳み込み層503は、プーリング層502が集約した特徴マップ509のデータに対して畳み込み演算を実行し、2段目の特徴マップ510を抽出する。2段目のプーリング層504は、畳み込み層503が抽出した特徴マップ510を集約してデータサイズを縮小する。3段目の畳み込み層505は、プーリング層504が集約した特徴マップ510のデータに対して畳み込み演算を実行し、3段目の特徴マップ511を抽出する。3段目のプーリング層506は、畳み込み層505が抽出した特徴マップ511を集約してデータサイズを縮小する。全体結合層507は、プーリング層506が集約した特徴マップ511のデータと、予め深層学習によって取得した識別器パラメータとを照合することで、入力画像が他車両であるか否かを識別し、その識別結果を出力する。これにより、車両検出部103において入力画像から検出対象物の他車両が検出される。
なお、図5では畳み込み層とプーリング層を3段接続した車両検知器の例を示したが、車両検出部103において車両検知器を構成する畳み込み層とプーリング層の段数はこれに限定されない。
図6は、図5に例示した深層学習型の車両検知器において畳み込み層ごとに抽出される特徴マップの例を示す図である。なお、深層学習型の車両検知器を構成する畳み込み層のフィルタサイズおよびフィルタ係数とプーリング層の集約係数とは、それぞれ任意に設計できるが、ここでは説明のために一例として、それぞれ以下のように設定する。
以下に説明する例では、車両検知器への入力画像600のサイズが32×32画素であり、図5に示した1段目の畳み込み層501のフィルタ係数が、図6の符号601に示すように、K1〜K16の16個のフィルタ係数によって構成されているとする。また、2段目の畳み込み層503のフィルタ係数が、図6の符号602に示すように、K17〜K24の8個のフィルタ係数によって構成されているとする。さらに、3段目の畳み込み層505のフィルタ係数が、図6の符号603に示すように、K25〜K28の4個のフィルタ係数によって構成されているとする。そして、図5に示した1〜3段目のプーリング層502、504、506の集約係数が、それぞれ1/2に設定されているとする。
上記のパラメータ条件の場合、1段目の畳み込み層501において、入力画像600に対して16個のフィルタ係数K1〜K16を用いた畳み込み演算が行われる。その結果、1段目の特徴マップ509として、32×32個の特徴データの集合ブロックを16種類組み合わせたデータが得られる。次に、1段目のプーリング層502において、特徴マップ509について集約係数=1/2のプーリングが行われると、データサイズが半分になり、16×16個の特徴データの集合ブロックを16種類組み合わせたデータが得られる。これにより、特徴マップ509が、データサイズが半分の特徴マップ604に変換される。
続いて、2段目の畳み込み層503において、特徴マップ604に対して8個のフィルタ係数K17〜K24を用いた畳み込み演算が行われる。その結果、2段目の特徴マップ510として、16×16個の特徴データの集合ブロックを8種類組み合わせたデータが得られる。次に、2段目のプーリング層504において、特徴マップ510について集約係数=1/2のプーリングが行われると、データサイズが半分になり、8×8個の特徴データの集合ブロックを8種類組み合わせたデータが得られる。これにより、特徴マップ510が、データサイズが半分の特徴マップ605に変換される。
さらに、3段目の畳み込み層505において、特徴マップ605に対して4個のフィルタ係数K25〜K28を用いた畳み込み演算が行われる。その結果、3段目の特徴マップ511として、8×8個の特徴データの集合ブロックを4種類組み合わせたデータが得られる。次に、3段目のプーリング層506において、特徴マップ511について集約係数=1/2のプーリングが行われると、データサイズが半分になり、4×4個の特徴データの集合ブロックを4種類組み合わせたデータが得られる。これにより、特徴マップ511が、データサイズが半分の特徴マップ606に変換される。
車両検出部103では、以上説明したように、入力画像に対して複数回の畳み込み演算を行い、検知対象物である他車両を検出する。車両検出部103は、他車両の検出結果として、たとえば入力画像内に設定された車両検知領域において他車両の画像の有無を示す情報を、特徴マップ検証部104および検出結果修正部106に出力する。
ところで、各畳み込み層の畳み込み演算で使用するフィルタ係数とは、画像認識に重要な縦線、横線、斜め線または曲線などの画像特徴に強く反応して、その反応した画像特徴成分のみを抽出するように設定された画像特徴抽出のフィルタ数値群のことである。例えば、車両検知の例では入力画像に映る車両を構成する画像特徴成分(車両全体のアウトライン、ボンネット部分のライン、フロントウインドウ部分のライン、車両ボディーの濃淡状態など)を抽出できるようにフィルタ係数を設計する。機械学習を用いたフィルタ設計においては、入力した画像の大多数に含まれる共通な画像成分を獲得することができる。このため、準備段階である画像学習時に車両が映る複数の入力画像を学習させることで、車両を構成する代表的な画像特徴成分を自動的に抽出可能であり、これを畳み込み演算のフィルタ係数として用いる。
特徴マップ検証部104は、車両検出部103の畳み込み演算によってそれぞれ得られた特徴マップに基づいて、入力画像に他車両が含まれる確からしさを検証する特徴マップ検証を行う。特徴マップ検証部104は、特徴マップを構成する複数のブロックの各々について、検知対象物である他車両の特徴を示すか否かを判定し、その判定結果を予め記憶された配置パターンと比較することで、特徴マップ検証を行う。
車両検出部103において用いられる前述のような深層学習型の車両検知器によって得られる特徴マップでは、全てのブロックに検知対象物である他車両の特徴を示すデータが存在することが望ましい。しかし、入力画像によっては、他車両が検出された場合であっても、他車両の特徴を示すデータが存在しないか、または他車両の特徴を示す度合い(特徴レベル)の値が低いブロックが特徴マップ内に含まれる場合がある。また、このような場合には、他車両の特徴が出現しないブロックの特徴マップ内の配置が他車両の種類ごとに類似する傾向がある。そこで本発明では、特徴マップ検証部104において、こうした他車両の特徴が出現しないブロックの特徴マップ内の配置に基づき、入力画像に他車両が含まれる確からしさを検証する特徴マップ検証を行う。
図7は、特徴マップ検証部104による特徴マップ検証の一例を示す図である。以下では、図5および6で説明した深層学習型の車両検知器によって得られる特徴マップ509〜511が、それぞれ図7(a)、図7(b)、図7(c)に示すような状態であった場合を例として、特徴マップ検証の動作を説明する。
図7(a)の特徴マップ509において、斜線で示したブロック601に代表される各ブロックは、検知対象物である他車両の特徴を示す有効な特徴レベルが得られたブロック(有効ブロック)である。一方、それ以外のブロック602に代表される各ブロックは、他車両の特徴を示す有効な特徴レベルが得られなかったブロック(無効ブロック)である。図7(a)では、有効な特徴レベルが出現しなかった無効ブロックは、A〜Hで示した8個のブロックである。
図7(b)の特徴マップ510および図7(c)の特徴マップ511についても同様に、斜線で示した各ブロックは有効ブロックを表し、それ以外の各ブロックは無効ブロックを表している。図7(b)では、有効な特徴レベルが出現しなかった無効ブロックは、I、J、Kで示した3個のブロックである。図7(c)では、有効な特徴レベルが出現しなかった無効ブロックは、Lで示した1個のブロックである。
特徴マップ検証部104は、車両検出部103における深層学習型の車両検知器を構成する図5の畳み込み層501、503、505のそれぞれに対応する特徴マップの配置パターンを予め記憶している。この特徴マップの配置パターンは、当該特徴マップにおいて他車両の特徴を示す有効ブロックとそうでない無効ブロックとがそれぞれ出現する位置のパターンを表している。特徴マップ検証部104は、車両検出部103によって上記の特徴マップ509〜511が抽出されたら、各特徴マップを予め記憶した配置パターンと比較し、その比較結果に基づいて、入力画像に他車両が含まれる確からしさを検証する。具体的には、特徴マップ509〜511における有効ブロックと無効ブロックの配置がそれぞれに対応する配置パターンと一致していれば、車両検出部103の畳み込み演算によって得られた特徴マップが他車両の存在を示す確率が高いと判断する。この場合、特徴マップ検証部104は信号値を「TRUE」とした特徴マップ検証信号を出力する。反対に、特徴マップ509〜511における有効ブロックと無効ブロックの配置がそれぞれに対応する配置パターンと一致しなければ、車両検出部103の畳み込み演算によって得られた特徴マップが他車両の存在を示す確率が低いと判断する。この場合、特徴マップ検証部104は信号値を「FALSE」とした特徴マップ検証信号を出力する。
なお、特徴マップ検証部104は、優先方向選択部102により設定された優先方向に基づいて、上記の特徴マップの比較に用いる配置パターンを決定することが好ましい。これは、優先方向に応じて車両検知領域が設定されるため、優先方向が異なると車両検知領域内に映り込む他車両の画像が変化し、それによって得られる特徴マップも変化する可能性があるからである。たとえば、特徴マップ検証部104は、優先方向ごとに配置パターンを予め記憶しており、設定された優先方向に対応する配置パターンを選択して特徴マップと比較する。これにより、優先方向に応じて車両検知領域が変化しても、特徴マップ検証を正確に行うことができる。
時系列検証部105は、特徴マップ検証部104による特徴マップ検証の結果を時系列で検証する時系列検証を行う。この時系列検証では、特徴マップ検証部104から出力される特徴マップ検証信号の値の履歴に基づき、特徴マップ検証部104が行った特徴マップ検証の結果を必要に応じて以下のように一次修正する。
図8は、時系列検証部105による時系列検証の一例を示す図である。図8(a)は、特徴マップ検証部104から出力された特徴マップ検証信号がN回以上連続して「TRUE」であることを条件として、特徴マップが他車両の存在を示す確率が高いという特徴マップ検証の結果を時系列検証部105が確定する例を示したタイムチャートである。この条件では、特徴マップ検証信号の値が「FALSE」である場合が重視されるため、他車両の誤検出を抑制する傾向を強めることができる。なお、図8(a)の例ではN=3としているが、Nの値は任意に設定可能である。
図8(a)の例において、特徴マップ検証部104は、時刻t1〜t3のタイムスロットで連続して「TRUE」の特徴マップ検証信号を出力する。その結果、時系列検証部105は、上記の条件を満たした時刻t3のタイムスロットにおいて、特徴マップが他車両である確率が高いと判断し、信号値を「TRUE」とした時系列検証信号を出力する。一方、条件を満たさない他のタイムスロットでは、特徴マップが他車両である確率が低いと判断し、信号値を「FALSE」とした時系列検証信号を出力する。なお、t5、t7、t8の各タイムスロットでは、特徴マップ検証部104から出力される特徴マップ検証信号の値は「TRUE」であるが、上記の条件を満たしていない。そのため、時系列検証部105は、特徴マップ検証部104による特徴マップ検証の結果を修正して、信号値を「FALSE」とした時系列検証信号を出力する。
図8(b)は、特徴マップ検証部104から出力された特徴マップ検証信号において、直近の連続するN回のうちM回以上が「TRUE」であることを条件として、特徴マップが他車両の存在を示す確率が高いという特徴マップ検証の結果を時系列検証部105が確定する例を示したタイムチャートである。この条件では、特徴マップ検証信号の値が「TRUE」である場合が重視されるため、他車両の不検出を抑制する傾向を強めることができる。なお、図8(b)の例ではN=3、M=2としているが、N、Mの値はそれぞれ任意に設定可能である。
図8(b)の例において、特徴マップ検証部104は、時刻t1〜t3、t5、t7〜t8の各タイムスロットで「TRUE」の特徴マップ検証信号を出力する。その結果、時系列検証部105は、上記の条件を満たした時刻t3〜t5、t7〜t9の各タイムスロットにおいて、特徴マップが他車両である確率が高いと判断し、信号値を「TRUE」とした時系列検証信号を出力する。なお、t4、t9の各タイムスロットでは、特徴マップ検証部104から出力される特徴マップ検証信号は「FALSE」であるが、上記の条件を満たしている。そのため、時系列検証部105は、特徴マップ検証部104による特徴マップ検証の結果を修正して、信号値を「TRUE」とした時系列検証信号を出力する。一方、条件を満たさない時刻t6のタイムスロットでは、特徴マップが他車両である確率が低いと判断して、信号値を「FALSE」とした時系列検証信号を出力する。
なお、時系列検証部105における時系列検証の条件は、上記の例に限定されない。特徴マップ検証部104による特徴マップ検証の結果を時系列で検証することができるものであれば、任意の条件を設定可能である。
検出結果修正部106は、時系列検証部105による時系列検証の結果に基づいて、車両検出部103による他車両の検出結果を修正する。具体的には、たとえば検出結果修正部106は、車両検出部103から出力される他車両の検出結果の確からしさを示す検出スコアと、時系列検証部105から出力される時系列検証結果の確からしさを示す検証スコアとを加算することで、他車両の検出結果に対する総合スコアを算出する。そして、算出した総合スコアを所定の閾値と比較することで、他車両の検出結果を修正する。なお、これ以外の方法で他車両の検出結果の修正を行ってもよい。このようにして他車両の検出結果の修正を行った後、車両検知領域内に他車両を検知したという検出結果が得られたら、検出結果修正部106は、他車両が接近していることを表す車両接近信号を出力する。また、たとえば車両検出部103による他車両の検出結果と時系列検証部105による時系列検証の結果とが矛盾する状況が一定期間連続した場合など、正常な処理結果が得られない場合には、画像処理装置10の処理に対する信頼性が低下している状況と判断し、検知FAIL信号を出力する。
以上説明した本発明の第1の実施形態によれば、以下の作用効果を奏する。
(1)画像処理装置10は、車両検出部103と、特徴マップ検証部104と、時系列検証部105と、検出結果修正部106とを備える。車両検出部103は、カメラ20で撮影して得られた撮影画像に基づく入力画像に対して畳み込み演算を行い、対象物すなわち他車両を検出する。特徴マップ検証部104は、車両検出部103の畳み込み演算によって得られる特徴マップに基づいて、入力画像に他車両が含まれる確からしさを検証する特徴マップ検証を行う。時系列検証部105は、特徴マップ検証部104による特徴マップ検証の結果を時系列で検証する時系列検証を行う。検出結果修正部106は、時系列検証部105による時系列検証の結果に基づいて、車両検出部103による他車両の検出結果を修正する。このようにしたので、自車両の周辺に存在する他車両を撮影画像から正確に検知できる。
(2)車両検出部103は、図5および図6に示したように、入力画像に対して畳み込み演算を複数回行う。特徴マップ検証部104は、この複数回の畳み込み演算によって得られる複数の特徴マップ、たとえば図5および図6の特徴マップ509、510、511の各々について特徴マップ検証を行う。このようにしたので、車両検出部103が行う畳み込み演算の回数に応じて、入力画像に他車両が含まれる確からしさを正確に検証することができる。
(3)特徴マップ検証部104は、特徴マップを構成する複数のブロックの各々について対象物である他車両の特徴を示すか否かを判定することで、特徴マップ検証を行う。具体的には、特徴マップ検証部104は、図7で説明したように、特徴マップにおいて対象物である他車両の特徴を示すと判定されたブロックと、特徴マップにおいて対象物である他車両の特徴を示さないと判定されたブロックとの配置に基づいて、特徴マップ検証を行う。このようにしたので、特徴マップ検証を正確かつ容易に行うことができる。
(4)画像処理装置10は、自車両に搭載されており、自車両の走行状態に基づいて対象物である他車両を優先的に検知すべき方向を設定する優先方向選択部102をさらに備える。特徴マップ検証部104は、上記のブロックの配置と予め記憶された配置パターンとの比較による比較結果に基づいて、特徴マップ検証を行う。このとき特徴マップ検証部104は、優先方向選択部102により設定された方向に基づいて、比較に用いる配置パターンを決定することができる。このようにすれば、設定された方向に応じて車両検知領域が変化しても、特徴マップ検証を正確に行うことができる。
−第2の実施形態−
図9は、本発明の第2の実施形態に係る外界認識装置の一例を示す図である。図9に示すように、本実施形態の外界認識装置900は、第1の実施形態で説明した画像処理装置10と、周辺認識部901、信号処理部902およびドライバー通知部903とを備える。外界認識装置900は、画像処理装置10と同様に自車両に搭載されたカメラ20に接続されると共に、自車両に搭載された制御部911、メモリ912、自車両制御部913、LED914、スピーカ915、ディスプレイ916およびカーナビゲーション装置917にも接続されている。なお、画像処理装置10と他の各機器とは、自車両内の信号バスを介して互いに接続されている。
カメラ20は、自車両周辺の撮影画像を取得し、外界認識装置900内の画像処理装置10に出力する。メモリ912は、カメラ20が取得した撮像画像を一時的に保持する。制御部911は、カメラ20と外界認識装置900の間における撮影画像の入出力や、外界認識装置900と自車両制御部913の間における車両制御信号の入出力を制御する。
画像処理装置10は、第1の実施形態で説明したように、自車両の周囲に存在する他車両を検知し、その検知結果に基づく車両接近信号を周辺認識部901に出力する。また、他車両を検知するのが困難な状況のときには、検知FAIL信号を周辺認識部901に出力する。
周辺認識部901は、画像処理装置10から車両接近信号が出力されると、これに基づいて、自車両の周囲環境を認識するための周辺認識処理を実行する。たとえば、カメラ20の撮影画像を用いて自車両の近傍および遠方の周辺空間を解析し、バイクや自転車を含む他車両および歩行者の有無を認識したり、自車両の走行や駐車の妨げになる障害物体の有無を認識したりする。また、他車両や歩行者が自車両に急接近している場合にはこれを検知して自車両との衝突を予測したり、自車両と障害物との衝突を予測したりする。さらに、自車両が走行中に車線逸脱した場合に警報を出す車線逸脱警報処理や、自車両のドライバーの死角に人や他車両が入り込んでいた場合に警報を出す死角警報処理などを、周辺認識処理に含めてもよい。周辺認識部901は、周辺認識処理の実行結果に基づく検知結果や警報情報を信号処理部902に出力すると共に、自車両のドライバーに対する通知情報を必要に応じてドライバー通知部903に出力する。
信号処理部902は、周辺認識部901から出力された検知結果および警報情報に基づいて、自車両の動作を制御するための車両制御信号を生成し、自車両制御部913に送信する。自車両制御部913は、信号処理部902から受信した車両制御信号に基づいて自車両の動作を制御することで、他車両や歩行者との衝突を回避するために自車両を停止させたり、障害物との衝突を回避するために自車両の進行方向を変化させたりする。
ドライバー通知部903は、周辺認識部901から出力された通知情報に基づいて、自車両のドライバーに対する警告を行うための警報信号を生成し、LED914、スピーカ915、ディスプレイ916、カーナビゲーション装置917のいずれかに送信する。LED914、スピーカ915、ディスプレイ916、カーナビゲーション装置917の各機器は、ドライバー通知部903から受信した警報信号を受信すると、これに基づいて所定の表示や音声出力を行うことで、自車両のドライバーに対して、自車両に接近している他車両や歩行者、障害物等の存在を警告する。
なお、画像処理装置10から検知FAIL信号が出力されているときには、画像処理装置10において他車両を検知するのが困難であると判断されるため、周辺認識部901は画像処理装置10の動作を一時的または連続して停止させることが好ましい。周辺認識部901は、画像処理装置10に対してON/OFF制御信号を出力することで、画像処理装置10の動作を開始または停止させることができる。さらにこのとき、周辺認識部901からドライバー通知部903へ通知情報を出力し、これに基づいてドライバー通知部903が警報信号を生成してLED914、スピーカ915、ディスプレイ916、カーナビゲーション装置917のいずれかに送信することで、画像処理装置10の動作が停止していることを自車両のドライバーに通知してもよい。
以上説明した本発明の第2の実施形態によれば、外界認識装置900は、画像処理装置10を備える。また、周辺認識部901、信号処理部902およびドライバー通知部903により、画像処理装置10内の検出結果修正部106により修正された他車両の検知結果に基づいて、自車両の運転者に対する警告を行うための警報信号および自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する。このようにしたので、自車両の周囲環境を正確に認識することができる。
なお、以上説明した各実施の形態では、撮影画像から検知する対象物を自車両周囲に存在する他車両としたが、対象物はこれに限定されず、他の物体を対象物としてもよい。また、車両に搭載されたカメラ20で取得した撮影画像を用いて対象物を検知する例を説明したが、撮影画像を取得するカメラは車両に搭載されたものに限らない。たとえば、街頭監視等に用いられるカメラなど、車載以外の様々な用途のカメラで取得された撮影画像を用いて、対象物を検知することができる。
以上説明した実施形態や各種の変化例はあくまで一例であり、発明の特徴が損なわれない限り、本発明はこれらの内容に限定されない。本発明は、上述した実施形態や変形例に限定されるものではなく、本発明の趣旨を逸脱しない範囲で種々の変更が可能である。
10 画像処理装置
20 カメラ
101 画像補正部
102 優先方向選択部
103 車両検出部
104 特徴マップ検証部
105 時系列検証部
106 検出結果修正部
900 外界認識装置
901 周辺認識部
902 信号処理部
903 ドライバー通知部

Claims (8)

  1. カメラで撮影して得られた撮影画像に基づく入力画像に対して畳み込み演算を行い、対象物を検出する対象物検出部と、
    前記畳み込み演算によって得られる特徴マップに基づいて、前記入力画像に前記対象物が含まれる確からしさを検証する特徴マップ検証を行う特徴マップ検証部と、
    前記特徴マップ検証部による前記特徴マップ検証の結果を時系列で検証する時系列検証を行う時系列検証部と、
    前記時系列検証部による前記時系列検証の結果に基づいて、前記対象物検出部による前記対象物の検出結果を修正する検出結果修正部と、を備える画像処理装置。
  2. 請求項1に記載の画像処理装置において、
    前記対象物検出部は、前記入力画像に対して前記畳み込み演算を複数回行い、
    前記特徴マップ検証部は、複数回の前記畳み込み演算によって得られる複数の前記特徴マップの各々について前記特徴マップ検証を行う画像処理装置。
  3. 請求項1または2に記載の画像処理装置において、
    前記特徴マップは、複数のブロックで構成され、
    前記特徴マップ検証部は、前記特徴マップを構成する前記複数のブロックの各々について前記対象物の特徴を示すか否かを判定することで、前記特徴マップ検証を行う画像処理装置。
  4. 請求項3に記載の画像処理装置において、
    前記特徴マップ検証部は、前記特徴マップにおいて前記対象物の特徴を示すと判定されたブロックと、前記特徴マップにおいて前記対象物の特徴を示さないと判定されたブロックとの配置に基づいて、前記特徴マップ検証を行う画像処理装置。
  5. 請求項4に記載の画像処理装置において、
    前記画像処理装置は自車両に搭載されており、
    前記対象物は前記自車両の周囲に存在する他車両である画像処理装置。
  6. 請求項5に記載の画像処理装置において、
    前記自車両の走行状態に基づいて前記対象物を優先的に検知すべき方向を設定する優先方向選択部をさらに備え、
    前記特徴マップ検証部は、前記配置と予め記憶された配置パターンとの比較による比較結果に基づいて前記特徴マップ検証を行い、
    前記特徴マップ検証部は、前記優先方向選択部により設定された方向に基づいて、前記比較に用いる前記配置パターンを決定する画像処理装置。
  7. 請求項1から請求項3までのいずれか一項に記載の画像処理装置において、
    前記画像処理装置は自車両に搭載されており、
    前記対象物は前記自車両の周囲に存在する他車両である画像処理装置。
  8. 請求項5から請求項7までのいずれか一項に記載の画像処理装置を備え、
    前記検出結果修正部により修正された前記他車両の検知結果に基づいて、前記自車両の運転者に対する警告を行うための警報信号および前記自車両の動作を制御するための車両制御信号のいずれか少なくとも一つを出力する外界認識装置。
JP2016244043A 2016-12-16 2016-12-16 画像処理装置、外界認識装置 Active JP6888950B2 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
JP2016244043A JP6888950B2 (ja) 2016-12-16 2016-12-16 画像処理装置、外界認識装置
PCT/JP2017/044759 WO2018110605A1 (ja) 2016-12-16 2017-12-13 画像処理装置、外界認識装置
US16/469,770 US11461595B2 (en) 2016-12-16 2017-12-13 Image processing apparatus and external environment recognition apparatus
EP17879882.3A EP3557524A4 (en) 2016-12-16 2017-12-13 IMAGE PROCESSING DEVICE AND ENVIRONMENTAL DETECTION DEVICE

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016244043A JP6888950B2 (ja) 2016-12-16 2016-12-16 画像処理装置、外界認識装置

Publications (3)

Publication Number Publication Date
JP2018097766A true JP2018097766A (ja) 2018-06-21
JP2018097766A5 JP2018097766A5 (ja) 2019-08-22
JP6888950B2 JP6888950B2 (ja) 2021-06-18

Family

ID=62559529

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016244043A Active JP6888950B2 (ja) 2016-12-16 2016-12-16 画像処理装置、外界認識装置

Country Status (4)

Country Link
US (1) US11461595B2 (ja)
EP (1) EP3557524A4 (ja)
JP (1) JP6888950B2 (ja)
WO (1) WO2018110605A1 (ja)

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019244536A1 (ja) * 2018-06-22 2019-12-26 株式会社日立産業制御ソリューションズ 物体追跡装置、物体追跡システム、および物体追跡方法
JP2020009227A (ja) * 2018-07-10 2020-01-16 Kddi株式会社 物体領域抽出装置及び物体領域抽出方法
CN111507172A (zh) * 2019-01-31 2020-08-07 斯特拉德视觉公司 通过预测周围物体移动支持安全的自动驾驶的方法和装置
JP2020140446A (ja) * 2019-02-28 2020-09-03 株式会社豊田中央研究所 制御装置、移動体、および学習方法
JP2020201879A (ja) * 2019-06-13 2020-12-17 富士通クライアントコンピューティング株式会社 画像処理装置、および、画像処理プログラム
JP2021043773A (ja) * 2019-09-12 2021-03-18 Kddi株式会社 符号化パラメータ特徴量を利用した対象識別方法、装置及びプログラム
JP2023046953A (ja) * 2021-09-24 2023-04-05 キヤノン株式会社 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム
JP7396115B2 (ja) 2020-02-26 2023-12-12 富士通株式会社 テンプレート画像更新プログラム、テンプレート画像更新方法、及びテンプレート画像更新装置

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6688277B2 (ja) * 2017-12-27 2020-04-28 本田技研工業株式会社 プログラム、学習処理方法、学習モデル、データ構造、学習装置、および物体認識装置
US10969237B1 (en) * 2018-03-23 2021-04-06 Apple Inc. Distributed collection and verification of map information
JP7203563B2 (ja) * 2018-10-29 2023-01-13 日立Astemo株式会社 移動体挙動予測装置
JP6671603B1 (ja) * 2019-03-01 2020-03-25 KB−eye株式会社 管理サーバ、交通制御システム、交通制御方法および交通制御プログラム
CN111186379B (zh) * 2020-01-21 2021-12-03 武汉大学 一种基于深度学习的汽车盲区危险物报警方法
US20210356953A1 (en) * 2020-05-18 2021-11-18 At&T Intellectual Property I, L.P. Deviation detection for uncrewed vehicle navigation paths
JP7244562B2 (ja) * 2021-03-23 2023-03-22 本田技研工業株式会社 移動体の制御装置及び制御方法並びに車両
CN115512306B (zh) * 2022-11-15 2023-04-25 成都睿瞳科技有限责任公司 基于图像处理来预警电梯内暴力事件的方法
CN116311361B (zh) * 2023-03-02 2023-09-15 北京化工大学 一种基于像素级标注的危险源室内工作人员定位方法

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357396A (ja) * 2000-06-16 2001-12-26 Matsushita Electric Ind Co Ltd 画像処理装置および画像認識装置
US20150265251A1 (en) * 2014-03-18 2015-09-24 Samsung Electronics Co., Ltd. Apparatus and method for visualizing anatomical elements in a medical image
JP2016153775A (ja) * 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 物体検出装置および物体検出方法

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1056064B1 (en) * 1999-05-28 2007-12-12 Nippon Telegraph and Telephone Corporation Apparatus and method for speed measurement of vehicles with an image processing system
WO2002047031A2 (en) * 2000-12-05 2002-06-13 Yeda Research And Development Co. Ltd. Apparatus and method for alignment of spatial or temporal non-overlapping image sequences
JP4357935B2 (ja) * 2003-11-14 2009-11-04 株式会社東芝 情報処理装置およびサインデータ入力プログラム
CN100474339C (zh) * 2004-08-03 2009-04-01 松下电器产业株式会社 人物判定装置
US8001062B1 (en) * 2007-12-07 2011-08-16 Google Inc. Supervised learning using multi-scale features from time series events and scale space decompositions
CN103679127B (zh) * 2012-09-24 2017-08-04 株式会社理光 检测道路路面的可行驶区域的方法和装置
KR101716646B1 (ko) * 2013-01-10 2017-03-15 한국전자통신연구원 국부이진패턴을 이용한 객체 검출 인식 방법 및 장치
US10061023B2 (en) 2015-02-16 2018-08-28 Panasonic Intellectual Property Management Co., Ltd. Object detection apparatus and method
US20170124409A1 (en) * 2015-11-04 2017-05-04 Nec Laboratories America, Inc. Cascaded neural network with scale dependent pooling for object detection

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001357396A (ja) * 2000-06-16 2001-12-26 Matsushita Electric Ind Co Ltd 画像処理装置および画像認識装置
US20150265251A1 (en) * 2014-03-18 2015-09-24 Samsung Electronics Co., Ltd. Apparatus and method for visualizing anatomical elements in a medical image
JP2016153775A (ja) * 2015-02-16 2016-08-25 パナソニックIpマネジメント株式会社 物体検出装置および物体検出方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
二宮 芳樹: "車の知能化のための画像認識技術の現状と今後", 情報処理, vol. 第51巻 第12号, JPN6020035391, 15 December 2010 (2010-12-15), JP, pages 1569 - 1574, ISSN: 0004348281 *
福井 宏 他: "Deep Learningを用いた歩行者検出の研究動向", 電子情報通信学会技術研究報告, vol. 第116巻 第366号, JPN6020035388, 8 December 2016 (2016-12-08), JP, pages 37 - 46, ISSN: 0004348280 *

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2019244536A1 (ja) * 2018-06-22 2019-12-26 株式会社日立産業制御ソリューションズ 物体追跡装置、物体追跡システム、および物体追跡方法
JP2020009227A (ja) * 2018-07-10 2020-01-16 Kddi株式会社 物体領域抽出装置及び物体領域抽出方法
JP7010780B2 (ja) 2018-07-10 2022-01-26 Kddi株式会社 物体領域抽出装置及び物体領域抽出方法
CN111507172B (zh) * 2019-01-31 2023-08-18 斯特拉德视觉公司 通过预测周围物体移动支持安全的自动驾驶的方法和装置
CN111507172A (zh) * 2019-01-31 2020-08-07 斯特拉德视觉公司 通过预测周围物体移动支持安全的自动驾驶的方法和装置
JP2020126639A (ja) * 2019-01-31 2020-08-20 株式会社ストラドビジョンStradvision,Inc. 安全な自律走行を支援する学習方法、そしてこれを利用した学習装置、テスト方法、及びテスト装置
JP2020140446A (ja) * 2019-02-28 2020-09-03 株式会社豊田中央研究所 制御装置、移動体、および学習方法
JP7006635B2 (ja) 2019-02-28 2022-01-24 株式会社豊田中央研究所 制御装置、移動体、および学習方法
JP2020201879A (ja) * 2019-06-13 2020-12-17 富士通クライアントコンピューティング株式会社 画像処理装置、および、画像処理プログラム
JP2021043773A (ja) * 2019-09-12 2021-03-18 Kddi株式会社 符号化パラメータ特徴量を利用した対象識別方法、装置及びプログラム
JP7396115B2 (ja) 2020-02-26 2023-12-12 富士通株式会社 テンプレート画像更新プログラム、テンプレート画像更新方法、及びテンプレート画像更新装置
JP2023046953A (ja) * 2021-09-24 2023-04-05 キヤノン株式会社 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム
JP7467402B2 (ja) 2021-09-24 2024-04-15 キヤノン株式会社 画像処理システム、移動装置、画像処理方法、およびコンピュータプログラム

Also Published As

Publication number Publication date
JP6888950B2 (ja) 2021-06-18
WO2018110605A1 (ja) 2018-06-21
US11461595B2 (en) 2022-10-04
US20190370609A1 (en) 2019-12-05
EP3557524A1 (en) 2019-10-23
EP3557524A4 (en) 2020-08-12

Similar Documents

Publication Publication Date Title
WO2018110605A1 (ja) 画像処理装置、外界認識装置
CN109478324B (zh) 图像处理装置、外界识别装置
KR101865766B1 (ko) 대형 차량의 이동 객체 충돌 경고 장치 및 방법
JP5690688B2 (ja) 外界認識方法,装置,および車両システム
WO2018092265A1 (ja) 運転支援装置および運転支援方法
CN108162858B (zh) 车载监控装置及其方法
JP2005309797A (ja) 歩行者警報装置
CN117994763A (zh) 用于机动车辆的视觉***和方法
JP2016530639A (ja) 奥行分解された画像データからのオブジェクトを認識するための方法ならびに装置
JP2008189148A (ja) 走行状態検知装置
WO2017208601A1 (ja) 画像処理装置、外界認識装置
JP2014146267A (ja) 歩行者検出装置、運転支援装置
KR20140104516A (ko) 차선 인식 방법 및 장치
JP2017167608A (ja) 物体認識装置、物体認識方法及び物体認識プログラム
JP2005309660A (ja) 車両用右左折支援装置
US9881233B2 (en) Image recognition apparatus
JP2018163530A (ja) 対象物検知装置、対象物検知方法、及び対象物検知プログラム
JP6891082B2 (ja) 物体距離検出装置
US20190188500A1 (en) Apparatus for monitoring object in low light environment and monitoring method thereof
JPWO2020129517A1 (ja) 画像処理装置
WO2023095397A1 (ja) 運転支援装置、運転支援方法
JP7005762B2 (ja) カメラ装置の標識認識方法及び標識認識装置
KR101982091B1 (ko) 서라운드 뷰 모니터링 시스템
KR102322815B1 (ko) 카메라 기반의 도로이벤트 점유차로 검출 장치 및 그 방법
US20170015245A1 (en) Vehicle warning system and method of same

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20170315

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20170921

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190710

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190710

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200923

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210427

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210520

R150 Certificate of patent or registration of utility model

Ref document number: 6888950

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150