JPWO2017158958A1 - 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム - Google Patents
画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム Download PDFInfo
- Publication number
- JPWO2017158958A1 JPWO2017158958A1 JP2018505252A JP2018505252A JPWO2017158958A1 JP WO2017158958 A1 JPWO2017158958 A1 JP WO2017158958A1 JP 2018505252 A JP2018505252 A JP 2018505252A JP 2018505252 A JP2018505252 A JP 2018505252A JP WO2017158958 A1 JPWO2017158958 A1 JP WO2017158958A1
- Authority
- JP
- Japan
- Prior art keywords
- area
- detection
- distance
- unit
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000012545 processing Methods 0.000 title claims abstract description 158
- 238000003672 processing method Methods 0.000 title claims abstract description 6
- 238000001514 detection method Methods 0.000 claims abstract description 203
- 238000000034 method Methods 0.000 claims abstract description 76
- 238000003384 imaging method Methods 0.000 claims description 74
- 238000004364 calculation method Methods 0.000 claims description 69
- 238000000605 extraction Methods 0.000 claims description 21
- 238000010586 diagram Methods 0.000 description 44
- 230000000875 corresponding effect Effects 0.000 description 31
- 238000006243 chemical reaction Methods 0.000 description 18
- 230000006870 function Effects 0.000 description 16
- 230000000052 comparative effect Effects 0.000 description 7
- 238000004891 communication Methods 0.000 description 5
- 238000005516 engineering process Methods 0.000 description 5
- 238000011156 evaluation Methods 0.000 description 5
- 238000002372 labelling Methods 0.000 description 4
- 238000009795 derivation Methods 0.000 description 3
- 239000000284 extract Substances 0.000 description 3
- 239000000470 constituent Substances 0.000 description 2
- 230000002596 correlated effect Effects 0.000 description 2
- 238000009499 grossing Methods 0.000 description 2
- 238000005259 measurement Methods 0.000 description 2
- 238000005070 sampling Methods 0.000 description 2
- 239000004065 semiconductor Substances 0.000 description 2
- 230000000903 blocking effect Effects 0.000 description 1
- 230000000295 complement effect Effects 0.000 description 1
- 230000001276 controlling effect Effects 0.000 description 1
- 238000012217 deletion Methods 0.000 description 1
- 230000037430 deletion Effects 0.000 description 1
- 238000011161 development Methods 0.000 description 1
- 239000006185 dispersion Substances 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 230000009191 jumping Effects 0.000 description 1
- 238000000691 measurement method Methods 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000003287 optical effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- B—PERFORMING OPERATIONS; TRANSPORTING
- B60—VEHICLES IN GENERAL
- B60W—CONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
- B60W30/00—Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
- B60W30/08—Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
-
- G—PHYSICS
- G01—MEASURING; TESTING
- G01C—MEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
- G01C3/00—Measuring distances in line of sight; Optical rangefinders
- G01C3/02—Details
- G01C3/06—Use of electric means to obtain final indication
- G01C3/08—Use of electric radiation detectors
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/56—Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
- G06V20/58—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
- G06V20/584—Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/165—Anti-collision systems for passive traffic, e.g. including static obstacles, trees
-
- G—PHYSICS
- G08—SIGNALLING
- G08G—TRAFFIC CONTROL SYSTEMS
- G08G1/00—Traffic control systems for road vehicles
- G08G1/16—Anti-collision systems
- G08G1/166—Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Radar, Positioning & Navigation (AREA)
- Electromagnetism (AREA)
- Remote Sensing (AREA)
- Signal Processing (AREA)
- Automation & Control Theory (AREA)
- Transportation (AREA)
- Mechanical Engineering (AREA)
- Image Analysis (AREA)
- Traffic Control Systems (AREA)
- Measurement Of Optical Distance (AREA)
Abstract
Description
図1は、実施の形態に係る機器制御システムを車両に搭載した例を示す図である。図1を参照しながら、本実施の形態の機器制御システム60が車両70に搭載される場合を例に説明する。
図2は、実施の形態に係る物体認識装置の外観の一例を示す図である。図2に示すように、物体認識装置1は、上述のように、本体部2と、本体部2に固定された撮像部10aと、撮像部10bとを備えている。撮像部10a、10bは、本体部2に対して平行等位に配置された一対の円筒形状のカメラで構成されている。また、説明の便宜上、図2に示す撮像部10aを右のカメラと称し、撮像部10bを左のカメラと称する場合がある。
図3は、実施の形態に係る物体認識装置にハードウェア構成の一例を示す図である。図3を参照しながら、物体認識装置1のハードウェア構成について説明する。
図4は、実施の形態に係る物体認識装置の機能ブロック構成の一例を示す図である。まず、図4を参照しながら、物体認識装置1の要部の機能ブロックの構成および動作について説明する。
図5は、実施の形態に係る物体認識装置の視差値演算処理部の機能ブロック構成の一例を示す図である。図6は、撮像部から物体までの距離を導き出す原理を説明する図である。図7は、基準画像における基準画素に対応する比較画像における対応画素を求める場合の説明図である。図8は、ブロックマッチング処理の結果のグラフの一例を示す図である。
図6を参照しながら、ステレオマッチング処理により、ステレオカメラから物体に対する視差を導出し、この視差を示す視差値によって、ステレオカメラから物体までの距離を測定する原理について説明する。
次に、図7および8を用いて、ブロックマッチング処理による測距方法について説明する。
図5を参照しながら、視差値演算処理部300の機能ブロックの具体的な構成および動作について説明する。
図9は、実施の形態に係る物体認識装置の認識処理部の機能ブロック構成の一例を示す図である。図10は、視差画像から生成されるVマップの例を示す図である。図11は、視差画像から生成されるUマップの例を示す図である。図12は、Uマップから生成されるリアルUマップの例を示す図である。図13は、リアルUマップから孤立領域を抽出する処理を説明する図である。図14は、検出枠を作成する処理を説明する図である。図15は、枠間距離が近距離である場合を説明する図である。図16は、枠間距離が遠距離である場合を説明する図である。図9〜16を参照しながら、認識処理部5の機能ブロックの構成および動作について説明する。
次に、図17〜24を参照しながら、物体認識装置1の具体的な動作について説明する。
図17は、実施の形態に係る視差値導出部のブロックマッチング処理の動作の一例を示すフローチャートである。図17を参照しながら、物体認識装置1の視差値導出部3のブロックマッチング処理の動作の流れについて説明する。
視差値導出部3の画像取得部100bは、左のカメラ(撮像部10b)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。これによって、後段の画像処理の対象となる画像信号が得られることになる。そして、ステップS2−1へ移行する。
視差値導出部3の画像取得部100aは、右のカメラ(撮像部10a)により前方の被写体を撮像して、それぞれアナログの画像信号を生成し、その画像信号に基づく画像である輝度画像を得る。これによって、後段の画像処理の対象となる画像信号が得られることになる。そして、ステップS2−2へ移行する。
視差値導出部3の変換部200bは、撮像部10bにより撮像されて得られたアナログの画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換する。このように、デジタル形式の画像データに変換することによって、その画像データに基づく画像に対して画素ごとの画像処理が可能となる。そして、ステップS3−1へ移行する。
視差値導出部3の変換部200aは、撮像部10aにより撮像されて得られたアナログの画像信号に対して、ノイズを除去し、デジタル形式の画像データに変換する。このように、デジタル形式の画像データに変換することによって、その画像データに基づく画像に対して画素ごとの画像処理が可能となる。そして、ステップS3−2へ移行する。
変換部200bは、ステップS2−1において変換したデジタル形式の画像データに基づく画像をブロックマッチング処理における比較画像Ibとして出力する。これによって、ブロックマッチング処理において視差値を求めるための比較対象となる画像を得る。そして、ステップS4へ移行する。
変換部200aは、ステップS2−2において変換したデジタル形式の画像データに基づく画像をブロックマッチング処理における基準画像Iaとして出力する。これによって、ブロックマッチング処理において視差値を求めるための基準となる画像を得る。そして、ステップS4へ移行する。
視差値導出部3の視差値演算処理部300のコスト算出部301は、基準画像Iaにおける基準画素p(x,y)の輝度値、および、基準画素p(x,y)に基づく比較画像Ibにおけるエピポーラ線EL上で、基準画素p(x,y)の位置に相当する画素からシフト量dでシフトすることにより特定される、対応画素の候補画素q(x+d,y)の各輝度値に基づいて、各候補画素q(x+d,y)のコスト値C(p,d)を算出することにより取得する。具体的には、コスト算出部301は、ブロックマッチング処理により、基準画像Iaの基準画素pを中心とする所定領域である基準領域pbと、比較画像Ibの候補画素qを中心とする候補領域qb(大きさは基準領域pbと同一)との非類似度をコスト値Cとして算出する。そして、ステップS5へ進む。
視差値導出部3の視差値演算処理部300の決定部302は、コスト算出部301により算出されたコスト値Cの最小値に対応するシフト量dを、コスト値Cの算出の対象となった基準画像Iaの画素についての視差値dpとして決定する。そして、視差値導出部3の視差値演算処理部300の第1生成部303は、決定部302により決定された視差値dpに基づいて、基準画像Iaの各画素の輝度値を、その画素に対応する視差値dpで表した画像である視差画像を生成する。第1生成部303は、生成した視差画像を、認識処理部5に出力する。
図18は、実施の形態に係る認識処理部の物体認識処理の動作の一例を示すフローチャートである。図19は、実施の形態に係る認識処理部のオーバーラップ処理の動作の一例を示すフローチャートである。図20は、枠間距離が近距離である場合の重なり面積を説明する図である。図21は、枠間距離が近距離である場合に検出物体を棄却する動作を説明する図である。図22は、枠間距離が遠距離である場合の重なり面積を説明する図である。図23は、枠間距離が遠距離である場合に重なり面積が生じない場合を説明する図である。図24は、枠間距離が遠距離である場合に検出物体を棄却しない場合を説明する図である。図18〜24を参照しながら、物体認識装置1の認識処理部5の物体認識処理の動作の流れについて説明する。
第2生成部501は、視差値演算処理部300から視差画像Ipを入力し、かつ、視差値導出部3から基準画像Iaを入力し、VマップVM、UマップUM、UマップUM_H、およびリアルUマップRMの各種画像を生成する。そして、ステップS12へ移行する。
クラスタリング処理部502の領域抽出部511は、第2生成部501から出力された各マップ(画像)のうちリアルUマップRMから、画素値の塊である孤立領域を抽出する。また、領域抽出部511は、VマップVM、UマップUMおよびリアルUマップRMを利用して、基準画像Iaまたは視差画像Ipにおいて、孤立領域の物体の位置、ならびに実際の幅、高さおよび奥行きの特定する。そして、領域抽出部511は、抽出した孤立領域ごとに、その孤立領域に関する情報である認識領域情報を生成し、ここでは、例えば、ラベリング処理の識別情報、ならびに、基準画像Ia、VマップVM、UマップUMおよびリアルUマップRM上における孤立領域の位置および大きさの情報を認識領域情報に含める。領域抽出部511は、生成した認識領域情報を、枠作成部512に送る。そして、ステップS13へ移行する。
クラスタリング処理部502の枠作成部512は、領域抽出部511により抽出されたリアルUマップRM上の物体の孤立領域について、視差画像Ip(または基準画像Ia)における孤立領域に対応する物体の検出領域に枠を作成する機能部である。枠作成部512は、視差画像Ipまたは基準画像Iaで作成した枠の情報を認識領域情報に含めて、第1棄却部513に送る。そして、ステップS14へ移行する。
クラスタリング処理部502の第1棄却部513は、枠作成部512により枠で示される検出領域の大きさから、検出領域の検出物体についての実際のサイズ(幅、高さ、奥行き)から物体が何であるかを特定し、物体の種類に応じて棄却する。第1棄却部513は、検出物体を棄却する場合は、例えば、その検出物体の認識領域情報に棄却する旨のフラグ(棄却フラグ)を含める。第1棄却部513は、検出物体を棄却するか否かを示す棄却フラグを認識領域情報に含めて、オーバーラップ処理部514に送る。そして、ステップS15へ移行する。
オーバーラップ処理部514は、検出領域が重なっている場合に、これらの検出領域が重なっている面積に基づいて、これらの検出領域の物体を棄却するか否かを決定するオーバーラップ処理を行う。オーバーラップ処理部514によるオーバーラップ処理について、図19を参照しながら説明する。
オーバーラップ処理部514の第1判定部521は、第1棄却部513から受け取った認識領域情報に対応する検出物体のうち、任意の2つの検出物体を特定する。そして、ステップS152へ移行する。
第1判定部521は、特定した2つの検出物体の検出領域が重なっているか否かを判定する。2つの検出領域が重なっている場合(ステップS152:Yes)、ステップS153へ移行し、重なっていない場合(ステップS152:No)、ステップS151へ戻り、第1判定部521は、異なる2つの検出物体を特定する。
オーバーラップ処理部514の距離算出部522は、第1判定部521により検出領域が重なっていると判定された場合、重なっている検出領域の物体間の奥行き方向の枠間距離を算出する。そして、ステップS154へ移行する。
オーバーラップ処理部514の第2判定部523は、距離算出部522により算出された枠間距離が所定の閾値未満か否かを判定する。枠間距離が所定の閾値未満である場合、すなわち枠間距離が近距離である場合(ステップS154:Yes)、ステップS155へ移行し、所定の閾値よりも大きい場合、すなわち枠間距離が遠距離である場合(ステップS154:No)、ステップS159へ移行する。
オーバーラップ処理部514の重なり面積算出部524は、第2判定部523により枠間距離が近距離であると判定された場合、2つの検出領域が重なっている部分の重なり面積を算出する。例えば、図20に示すように、検出領域661および検出領域662が重なり合っている場合、重なり面積算出部524は、重なり合っている領域である重なり領域663の面積を、(高さOL_H)×(幅OL_W)により算出する。そして、ステップS156へ移行する。
オーバーラップ処理部514の第3判定部525は、重なり面積算出部524により算出された重なり面積が、2つの検出領域のうちいずれか一方の面積の所定の割合(検出領域の重なり率についての閾値)よりも大きいか否かを判定する。重なり面積が2つの検出領域のうちいずれか一方の面積の所定の割合よりも大きい場合(ステップS156:Yes)、ステップS157へ移行し、所定の割合もよりも小さい場合(ステップS156:No)、ステップS158へ移行する。
オーバーラップ処理部514の第2棄却部526は、2つの検出物体が共に車両である場合、トラッキング処理の対象として重要度の高い距離が近い方の検出物体を棄却せず、距離が遠い方の検出物体を棄却する。第2棄却部526は、距離が近い方の検出物体の認識領域情報に、棄却しない旨を示す棄却フラグを含め、距離が遠い方の検出物体の認識領域情報に、棄却する旨を示す棄却フラグを含めて、トラッキング部503に送る。
第2棄却部526は、第3判定部525により重なり面積が、2つの検出領域のうちいずれか一方の面積の所定の割合よりも小さいと判定された場合、いずれの検出領域の物体もトラッキング処理の対象として重要度が高いと判断し、いずれの検出物体も棄却しない。第2棄却部526は、2つの検出物体のそれぞれの認識領域情報に、棄却しない旨を示す棄却フラグを含め、トラッキング部503に送る。
重なり面積算出部524は、第2判定部523により枠間距離が遠距離であると判定された場合、2つの検出領域のうち、検出物体が近い方の検出領域の中央領域(部分領域の一例)を算出する。具体的には、図22に示すように、重なり面積算出部524は、2つの検出領域681、682のうち検出物体が近い検出領域681について、例えば、左右方向における中央の領域(例えば、左右方向の幅の80[%]の領域)の面積である中央領域681aを算出する。なお、重なり面積算出部524は、検出物体が近い方の検出領域の中央領域を算出するものとしたが、これに限定されるものではなく、例えば、検出領域の右端から所定割合(例えば、85[%])の領域を算出するものとしてもよい。そして、ステップS160へ移行する。
重なり面積算出部524は、2つの検出領域のうち、検出物体が近い方の検出領域の中央領域と、検出物体が遠い方の検出領域とが重なっている部分の重なり面積を算出する。例えば、図22に示すように、検出領域681の中央領域681aと、検出領域682とが重なり合っている場合、重なり面積算出部524は、重なり合っている領域である重なり領域683の面積を、(高さOL_H1)×(幅OL_W1)により算出する。そして、ステップS161へ移行する。
第3判定部525は、重なり面積算出部524により算出された重なり面積が、検出物体が近い方の検出領域の中央領域、および検出物体が遠い方の検出領域のうちいずれか一方の面積の所定の割合(重なり率についての閾値)よりも大きいか否かを判定する。重なり面積がいずれか一方の面積の所定の割合よりも大きい場合(ステップS161:Yes)、ステップS162へ移行し、所定の割合もよりも小さい場合(ステップS161:No)、ステップS163へ移行する。
第2棄却部526は、2つの検出物体のうち、トラッキング処理の対象として重要度の高い距離が近い方の検出物体を棄却せず、距離が遠い方の検出物体を棄却する。図22に示す例で、第2棄却部526は、重なり領域683の面積(重なり面積)が、中央領域681aまたは検出領域682の面積の所定の割合よりも大きい場合、距離が近い方の検出領域681の検出物体を棄却せず、距離が遠い方の検出領域682の検出物体を棄却する。第2棄却部526は、距離が近い方の検出物体の認識領域情報に、棄却しない旨を示す棄却フラグを含め、距離が遠い方の検出物体の認識領域情報に、棄却する旨を示す棄却フラグを含めて、トラッキング部503に送る。
第2棄却部526は、第3判定部525により重なり面積が、検出物体が近い方の検出領域の中央領域、および検出物体が遠い方の検出領域のうちいずれか一方の面積の所定の割合よりも小さいと判定された場合、いずれの検出領域の物体もトラッキング処理の対象として重要度が高いと判断し、いずれの検出物体も棄却しない。すなわち、単純に、2つの検出領域の重なり面積が、2つの検出領域の面積のうちいずれか一方の面積の所定の割合よりも大きいと判定された場合、距離が遠い方の検出物体は棄却される可能性があるが、距離が近い方の検出領域の中央領域についての重なり面積を求めているので、検出領域同士としては端の方で重なっている距離が遠い方の棄却すべきではない検出物体(例えば、歩行者)が棄却されることを抑制することができる。第2棄却部526は、2つの検出物体のそれぞれの認識領域情報に、棄却しない旨を示す棄却フラグを含め、トラッキング部503に送る。
トラッキング部503は、クラスタリング処理部502により検出された物体に関する情報である認識領域情報に基づいて、棄却フラグがOFFとなっている検出物体に対する追跡処理をするトラッキング処理を実行する。トラッキング部503は、トラッキング処理の結果を含む認識領域情報を、認識情報として車両制御装置6(図3参照)に出力する。
2 本体部
3 視差値導出部
4 通信線
5 認識処理部
6 車両制御装置
7 ステアリングホイール
8 ブレーキペダル
10a、10b 撮像部
11a、11b 撮像レンズ
12a、12b 絞り
13a、13b 画像センサ
20a、20b 信号変換部
21a、21b CDS
22a、22b AGC
23a、23b ADC
24a、24b フレームメモリ
30 画像処理部
31 FPGA
32 CPU
33 ROM
34 RAM
35 I/F
39 バスライン
51 FPGA
52 CPU
53 ROM
54 RAM
55 I/F
58 CANI/F
59 バスライン
60 機器制御システム
70 車両
100a、100b 画像取得部
200a、200b 変換部
300 視差値演算処理部
301 コスト算出部
302 決定部
303 第1生成部
501 第2生成部
502 クラスタリング処理部
503 トラッキング部
511 領域抽出部
512 枠作成部
513 第1棄却部
514 オーバーラップ処理部
521 第1判定部
522 距離算出部
523 第2判定部
524 重なり面積算出部
525 第3判定部
526 第2棄却部
600 路面
600a 路面部
601 電柱
601a 電柱部
602 車
602a 車部
611 左ガードレール
611a〜611c 左ガードレール部
612 右ガードレール
612a〜612c 右ガードレール部
613 車
613a〜613c 車部
614 車
614a〜614c 車部
621〜624 孤立領域
631〜634 検出領域
631a〜634a 検出枠
641、642、651、652 検出領域
661、662 検出領域
663 重なり領域
671、672 検出枠
681 検出領域
681a 中央領域
682、682a 検出領域
683 重なり領域
691、692 検出枠
B 基線長
C コスト値
d シフト量
dp 視差値
E 物体
EL エピポーラ線
f 焦点距離
Ia 基準画像
Ib 比較画像
Ip、Ip1、Ip2 視差画像
OL_H、OL_H1 高さ
OL_W、OL_W1 幅
p 基準画素
pb 基準領域
q 候補画素
qb 候補領域
RM リアルUマップ
S、Sa、Sb 点
UM Uマップ
UM_H Uマップ
VM Vマップ
Z 距離
Claims (12)
- 物体の距離情報に基づいて検出された2つの物体の検出領域における該物体間の奥行き方向の距離を算出する第1算出手段と、
前記第1算出手段により算出された前記距離に応じた方法により、2つの前記検出領域に関する重なりの部分の面積である重なり面積を算出する第2算出手段と、
前記重なり面積の大きさに基づいて、2つの前記検出領域の物体それぞれについて棄却の要否を決定する棄却手段と、
を備えた画像処理装置。 - 前記第1算出手段により算出された前記距離が、第1距離域に含まれるか、前記第1距離域よりも遠い第2距離域に含まれるかを判定する判定手段を、さらに備え、
前記第2算出手段は、前記判定手段により前記距離が前記第2距離域に含まれる場合、2つの前記検出領域のうち、近い物体の前記検出領域の部分領域と、遠い物体の前記検出領域とが重なった部分の面積を前記重なり面積として算出し、
前記棄却手段は、前記重なり面積が、前記部分領域、および前記遠い物体の前記検出領域のうちいずれか一方の面積の所定の割合よりも小さい場合、前記近い物体および前記遠い物体のいずれも棄却をしない請求項1に記載の画像処理装置。 - 前記第2算出手段は、前記判定手段により前記距離が前記第2距離域に含まれる場合、前記部分領域として、前記近い物体の前記検出領域の左右方向における所定の中央領域を求め、前記中央領域と、前記遠い物体の前記検出領域とが重なった部分の面積を前記重なり面積として算出する請求項2に記載の画像処理装置。
- 前記棄却手段は、前記重なり面積が、前記部分領域、および前記遠い物体の前記検出領域のうちいずれか一方の面積の前記所定の割合よりも大きい場合、前記近い物体を棄却せず、かつ、前記遠い物体を棄却する請求項2または3に記載の画像処理装置。
- 前記第2算出手段は、前記判定手段により前記距離が前記第1距離域に含まれる場合、2つの前記検出領域が重なった部分の面積を前記重なり面積として算出し、
前記棄却手段は、前記重なり面積が2つの前記検出領域のうちいずれか一方の面積の所定の割合よりも大きい場合、かつ、2つの前記検出領域のうち一方が車両を示し、他方が車両以外の物体を示す場合、車両である物体を棄却せず、かつ、車両以外の物体を棄却する請求項2〜4のいずれか一項に記載の画像処理装置。 - 前記棄却手段は、前記重なり面積が2つの前記検出領域のうちいずれか一方の面積の所定の割合よりも大きい場合、かつ、2つの前記検出領域の双方が車両を示す場合、2つの前記検出領域が示す物体のうち、近い物体を棄却せず、かつ、遠い物体を棄却する請求項5に記載の画像処理装置。
- 前記棄却手段は、前記重なり面積が2つの前記検出領域のうちいずれか一方の面積の所定の割合よりも小さい場合、2つの前記検出領域が示す物体のうち、近い物体および遠い物体のいずれも棄却をしない請求項5または6に記載の画像処理装置。
- 前記距離情報に基づいて、物体を示す孤立領域を抽出する抽出手段と、
前記孤立領域に対して枠を作成することにより前記検出領域を決定する決定手段と、
をさらに備えた請求項1〜7のいずれか一項に記載の画像処理装置。 - 被写体を撮像することにより第1撮像画像を得る第1撮像手段と、
前記第1撮像手段の位置とは異なる位置に配置され、前記被写体を撮像することにより第2撮像画像を得る第2撮像手段と、
前記第1撮像画像および前記第2撮像画像から前記被写体に対して求めた視差値に基づいて、前記距離情報を生成する生成手段と、
請求項1〜8のいずれか一項に記載の画像処理装置と、
を備えた物体認識装置。 - 請求項9に記載の物体認識装置と、
前記物体認識装置により検出された物体の情報に基づいて、制御対象を制御する制御装置と、
を備えた機器制御システム。 - 物体の距離情報に基づいて検出された2つの物体の検出領域における該物体間の奥行き方向の距離を算出する第1算出ステップと、
算出した前記距離に応じた方法により、2つの前記検出領域に関する重なりの部分の面積である重なり面積を算出する第2算出ステップと、
前記重なり面積の大きさに基づいて、2つの前記検出領域の物体それぞれについて棄却の要否を決定する棄却ステップと、
を有する画像処理方法。 - コンピュータを、
物体の距離情報に基づいて検出された2つの物体の検出領域における該物体間の奥行き方向の距離を算出する第1算出手段と、
前記第1算出手段により算出された前記距離に応じた方法により、2つの前記検出領域に関する重なりの部分の面積である重なり面積を算出する第2算出手段と、
前記重なり面積の大きさに基づいて、2つの前記検出領域の物体それぞれについて棄却の要否を決定する棄却手段と、
して機能させるためのプログラム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2016051447 | 2016-03-15 | ||
JP2016051447 | 2016-03-15 | ||
PCT/JP2016/086640 WO2017158958A1 (ja) | 2016-03-15 | 2016-12-08 | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
Publications (2)
Publication Number | Publication Date |
---|---|
JPWO2017158958A1 true JPWO2017158958A1 (ja) | 2018-10-04 |
JP6795027B2 JP6795027B2 (ja) | 2020-12-02 |
Family
ID=59852209
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018505252A Active JP6795027B2 (ja) | 2016-03-15 | 2016-12-08 | 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム |
Country Status (4)
Country | Link |
---|---|
US (1) | US10937181B2 (ja) |
EP (1) | EP3432291A4 (ja) |
JP (1) | JP6795027B2 (ja) |
WO (1) | WO2017158958A1 (ja) |
Families Citing this family (16)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6516012B2 (ja) * | 2015-09-15 | 2019-05-22 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
JP6601506B2 (ja) * | 2015-12-28 | 2019-11-06 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両 |
US10789650B1 (en) | 2016-04-27 | 2020-09-29 | State Farm Mutual Automobile Insurance Company | Systems and methods for reconstruction of a vehicular crash |
JP6950170B2 (ja) * | 2016-11-30 | 2021-10-13 | 株式会社リコー | 情報処理装置、撮像装置、機器制御システム、情報処理方法、及びプログラム |
CN107980138B (zh) * | 2016-12-28 | 2021-08-17 | 达闼机器人有限公司 | 一种虚警障碍物检测方法及装置 |
CN110728710B (zh) * | 2018-07-16 | 2023-10-27 | 株式会社理光 | 视觉里程计算方法、装置和计算机可读存储介质 |
US11568554B2 (en) * | 2019-10-25 | 2023-01-31 | 7-Eleven, Inc. | Contour-based detection of closely spaced objects |
CN109740518B (zh) * | 2018-12-29 | 2022-09-27 | 上海依图网络科技有限公司 | 一种视频中对象的确定方法及装置 |
CN109800684B (zh) * | 2018-12-29 | 2022-06-21 | 上海依图网络科技有限公司 | 一种视频中对象的确定方法及装置 |
CN113631944A (zh) * | 2019-03-27 | 2021-11-09 | 松下知识产权经营株式会社 | 距离测量装置以及图像生成方法 |
JP2020190438A (ja) | 2019-05-20 | 2020-11-26 | 株式会社リコー | 計測装置および計測システム |
US11430134B2 (en) * | 2019-09-03 | 2022-08-30 | Nvidia Corporation | Hardware-based optical flow acceleration |
JP7408337B2 (ja) * | 2019-10-10 | 2024-01-05 | キヤノン株式会社 | 画像処理方法、および画像処理装置 |
JP7298708B2 (ja) * | 2019-11-19 | 2023-06-27 | 日本電気株式会社 | 対象物検出装置、対象物検出方法、及びプログラム |
CN111857501A (zh) * | 2020-07-03 | 2020-10-30 | Oppo广东移动通信有限公司 | 一种信息显示方法、装置及存储介质 |
US11343485B1 (en) * | 2020-08-24 | 2022-05-24 | Ambarella International Lp | Virtual horizontal stereo camera |
Family Cites Families (35)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3367170B2 (ja) * | 1993-11-05 | 2003-01-14 | 株式会社豊田中央研究所 | 障害物検出装置 |
US7227526B2 (en) * | 2000-07-24 | 2007-06-05 | Gesturetek, Inc. | Video-based image control system |
JP3739693B2 (ja) * | 2001-11-09 | 2006-01-25 | 本田技研工業株式会社 | 画像認識装置 |
US8744122B2 (en) * | 2008-10-22 | 2014-06-03 | Sri International | System and method for object detection from a moving platform |
JP5316805B2 (ja) | 2009-03-16 | 2013-10-16 | 株式会社リコー | 車載カメラ装置の画像調整装置及び車載カメラ装置 |
JP5376313B2 (ja) | 2009-09-03 | 2013-12-25 | 株式会社リコー | 画像処理装置及び画像撮像装置 |
JP5664152B2 (ja) | 2009-12-25 | 2015-02-04 | 株式会社リコー | 撮像装置、車載用撮像システム及び物体識別装置 |
US8861842B2 (en) * | 2010-02-05 | 2014-10-14 | Sri International | Method and apparatus for real-time pedestrian detection for urban driving |
JP5371845B2 (ja) * | 2010-03-18 | 2013-12-18 | 富士フイルム株式会社 | 撮影装置及びその表示制御方法並びに3次元情報取得装置 |
US8824779B1 (en) * | 2011-12-20 | 2014-09-02 | Christopher Charles Smyth | Apparatus and method for determining eye gaze from stereo-optic views |
RU2582853C2 (ru) * | 2012-06-29 | 2016-04-27 | Общество с ограниченной ответственностью "Системы Компьютерного зрения" | Устройство для определения расстояния и скоростей объектов на основе стереоподхода |
JP5870871B2 (ja) * | 2012-08-03 | 2016-03-01 | 株式会社デンソー | 画像処理装置及び、当該画像処理装置を用いた車両制御システム |
US20140139635A1 (en) * | 2012-09-17 | 2014-05-22 | Nec Laboratories America, Inc. | Real-time monocular structure from motion |
JP2014115978A (ja) | 2012-11-19 | 2014-06-26 | Ricoh Co Ltd | 移動物体認識装置及びこれを用いた報知装置及びその移動物体認識装置に用いる移動物体認識用プログラム及び移動物体認識装置を備えた移動体 |
JP2014146267A (ja) | 2013-01-30 | 2014-08-14 | Toyota Motor Corp | 歩行者検出装置、運転支援装置 |
JP6467798B2 (ja) | 2013-07-25 | 2019-02-13 | 株式会社リコー | 画像処理装置、立体物検出方法、立体物検出プログラム、および、移動体制御システム |
JP6398347B2 (ja) | 2013-08-15 | 2018-10-03 | 株式会社リコー | 画像処理装置、認識対象物検出方法、認識対象物検出プログラム、および、移動体制御システム |
JP6174975B2 (ja) * | 2013-11-14 | 2017-08-02 | クラリオン株式会社 | 周囲環境認識装置 |
JP6417886B2 (ja) | 2013-12-12 | 2018-11-07 | 株式会社リコー | 視差値導出装置、移動体、ロボット、視差値生産方法、及びプログラム |
JP6340850B2 (ja) | 2014-03-18 | 2018-06-13 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
JP6519262B2 (ja) * | 2014-04-10 | 2019-05-29 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
JP2016001170A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理プログラム、及び、処理方法 |
JP2016001464A (ja) | 2014-05-19 | 2016-01-07 | 株式会社リコー | 処理装置、処理システム、処理プログラム、及び、処理方法 |
JP6190758B2 (ja) * | 2014-05-21 | 2017-08-30 | 本田技研工業株式会社 | 物体認識装置及び車両 |
JP6417729B2 (ja) * | 2014-06-09 | 2018-11-07 | 株式会社リコー | 画像処理装置、画像処理方法、プログラム、視差データの生産方法、機器制御システム |
JP6550881B2 (ja) * | 2014-07-14 | 2019-07-31 | 株式会社リコー | 立体物検出装置、立体物検出方法、立体物検出プログラム、及び移動体機器制御システム |
US20160019429A1 (en) | 2014-07-17 | 2016-01-21 | Tomoko Ishigaki | Image processing apparatus, solid object detection method, solid object detection program, and moving object control system |
US9726604B2 (en) * | 2014-11-12 | 2017-08-08 | Ricoh Company, Ltd. | Adhering detection apparatus, adhering substance detection method, storage medium, and device control system for controlling vehicle-mounted devices |
US9794543B2 (en) * | 2015-03-02 | 2017-10-17 | Ricoh Company, Ltd. | Information processing apparatus, image capturing apparatus, control system applicable to moveable apparatus, information processing method, and storage medium of program of method |
US10043282B2 (en) * | 2015-04-13 | 2018-08-07 | Gerard Dirk Smits | Machine vision for ego-motion, segmenting, and classifying objects |
JP2016206774A (ja) * | 2015-04-17 | 2016-12-08 | トヨタ自動車株式会社 | 立体物検出装置及び立体物検出方法 |
JP6516012B2 (ja) * | 2015-09-15 | 2019-05-22 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム |
JP6601506B2 (ja) | 2015-12-28 | 2019-11-06 | 株式会社リコー | 画像処理装置、物体認識装置、機器制御システム、画像処理方法、画像処理プログラム及び車両 |
EP3422289A4 (en) * | 2016-02-23 | 2019-02-27 | Ricoh Company, Ltd. | IMAGE PROCESSING DEVICE, IMAGING DEVICE, MOBILE ENTITY DEVICE CONTROL SYSTEM, IMAGE PROCESSING METHOD, AND PROGRAM |
US11087553B2 (en) * | 2019-01-04 | 2021-08-10 | University Of Maryland, College Park | Interactive mixed reality platform utilizing geotagged social media |
-
2016
- 2016-12-08 EP EP16894575.6A patent/EP3432291A4/en active Pending
- 2016-12-08 WO PCT/JP2016/086640 patent/WO2017158958A1/ja active Application Filing
- 2016-12-08 JP JP2018505252A patent/JP6795027B2/ja active Active
-
2018
- 2018-09-13 US US16/130,062 patent/US10937181B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
US10937181B2 (en) | 2021-03-02 |
EP3432291A4 (en) | 2019-03-27 |
WO2017158958A1 (ja) | 2017-09-21 |
US20190012798A1 (en) | 2019-01-10 |
JP6795027B2 (ja) | 2020-12-02 |
EP3432291A1 (en) | 2019-01-23 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6795027B2 (ja) | 情報処理装置、物体認識装置、機器制御システム、移動体、画像処理方法およびプログラム | |
JP6614247B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6597795B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6597792B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
CN109997148B (zh) | 信息处理装置、成像装置、设备控制***、移动对象、信息处理方法和计算机可读记录介质 | |
US11691585B2 (en) | Image processing apparatus, imaging device, moving body device control system, image processing method, and program product | |
US10672141B2 (en) | Device, method, system and computer-readable medium for determining collision target object rejection | |
JP6547841B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP2017151535A (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6572696B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP6992356B2 (ja) | 情報処理装置、撮像装置、機器制御システム、移動体、情報処理方法およびプログラム | |
JP6701905B2 (ja) | 検出装置、視差値導出装置、物体認識装置、機器制御システム、およびプログラム | |
JP2017167970A (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
EP3540643A1 (en) | Image processing apparatus and image processing method | |
WO2018097269A1 (en) | Information processing device, imaging device, equipment control system, mobile object, information processing method, and computer-readable recording medium | |
JP6828332B2 (ja) | 画像処理装置、物体認識装置、機器制御システム、画像処理方法およびプログラム | |
JP2015179337A (ja) | 画像判定装置、画像処理装置、画像判定プログラム、画像判定方法、移動体 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A524 | Written submission of copy of amendment under article 19 pct |
Free format text: JAPANESE INTERMEDIATE CODE: A527 Effective date: 20180605 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180605 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190813 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20191015 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20200310 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200511 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20201013 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20201026 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6795027 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |