JP2004108980A - 画像処理方法 - Google Patents

画像処理方法 Download PDF

Info

Publication number
JP2004108980A
JP2004108980A JP2002273062A JP2002273062A JP2004108980A JP 2004108980 A JP2004108980 A JP 2004108980A JP 2002273062 A JP2002273062 A JP 2002273062A JP 2002273062 A JP2002273062 A JP 2002273062A JP 2004108980 A JP2004108980 A JP 2004108980A
Authority
JP
Japan
Prior art keywords
section
matrix data
edge
matrix
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002273062A
Other languages
English (en)
Other versions
JP4155780B2 (ja
Inventor
Kanako Honda
本田 加奈子
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Denso Ten Ltd
Original Assignee
Denso Ten Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Denso Ten Ltd filed Critical Denso Ten Ltd
Priority to JP2002273062A priority Critical patent/JP4155780B2/ja
Priority to US10/643,794 priority patent/US7221789B2/en
Publication of JP2004108980A publication Critical patent/JP2004108980A/ja
Application granted granted Critical
Publication of JP4155780B2 publication Critical patent/JP4155780B2/ja
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/10Segmentation; Edge detection
    • G06T7/12Edge-based segmentation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • G06T7/593Depth or shape recovery from multiple images from stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • G06T2207/30261Obstacle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Measurement Of Optical Distance (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

【課題】不安定なエッジの検出を補うことができる画像処理方法を提供する。
【解決手段】ステレオカメラの視野を視差に基づく測距値と角度によってマトリクス状に区画し、検出されたエッジが存在する区画及び該区画の周囲の区画のマトリクスデータを演算して各区画にそれぞれ付与し、該付与されたマトリクスデータのうち所定の閾値を超えるマトリクスデータを有する区画をサーチし、該サーチされた区画に前記検出されたエッジが存在する場合、該エッジのエッジデータを物体の位置として採用する。
【選択図】   図10

Description

【0001】
【発明の属する技術分野】
本発明は、車両に取り付けたカメラにより撮像した前方の道路状況、特に前方車両等の認識を適正に行うことのできる画像処理方法に関する。
【0002】
【従来の技術】
従来、カメラで捉えた画像から、前方車両等の認識、あるいは距離の測定等が行われている。その際、前方車両等の認識をするためエッジ抽出を行い、エッジ画像を得て、前方車両等の物体の距離測定と角度測定を行っている(例えば、特許文献1参照)。
【0003】
【特許文献1】
特開2001−101428号公報
エッジとは画像中の濃淡部分が大きい部分、いわゆる輪郭線のことで、影や汚れによって濃淡が変化しても影響が少ないという利点がある。また、エッジを抽出するとき、縦エッジ又は横エッジ、あるいは両方のエッジを抽出することができる。
【0004】
【発明が解決しようとする課題】
画像処理においてエッジ検出を行うには、例えば、左右にカメラを配置して縦エッジ又は横エッジ、あるいは両方のエッジを検出し、物体の距離測定と角度測定を行うが、カメラのノイズや周囲の状況によって一定の位置にエッジが現れないため所定の時間間隔でエッジを検出する場合、安定した検出ができないことが多い。例えば、前方車両の特定の部分のエッジがある時点で現れなかったり、一定の位置に現れないため、この部分のエッジが安定して検出できないことがある。
【0005】
そこで、本発明は、このような不安定なエッジの検出を補うことができる画像処理方法を提供するものである。
【0006】
【課題を解決するための手段】
本発明によれば、ステレオカメラの視野を視差に基づく測距値と角度によってマトリクス状に区画し、検出されたエッジが存在する区画及び該区画の周囲の区画のマトリクスデータを演算して各区画にそれぞれ付与し、該付与されたマトリクスデータのうち所定の閾値を超えるマトリクスデータを有する区画をサーチし、該サーチされた区画に前記検出されたエッジが存在する場合、該エッジのエッジデータを物体の位置として採用する。
【0007】
また、サーチされた区画にエッジが存在しない場合、順次閾値を高め、該高められた閾値を超えるマトリクスデータを有する区画を順次サーチし、該サーチされた区画に、前記順次高められた閾値に対応する過去の時点に検出されたエッジが存在する場合、該エッジのエッジデータを物体の位置として採用する。
【0008】
【発明の実施の形態】
図1は、本発明の画像処理方法に用いる画像処理装置の構成のブロック図である。画像処理装置1は、前方の画像を撮影する左右一対のカメラL及びRを備えており、このカメラLとRから得られる画像によりステレオ距離測定する。即ち、2台のカメラにより前方の対象物、例えば先行車両までの距離を測定し、該車両との距離を一定に保つ車間距離制御等を行う。
【0009】
カメラLとRから得られた画像データは増幅器11、12、でそれぞれ増幅され、かつフィルタにより帯域制限され、A/D変換器13、14にそれぞれ入力し、メモリ15に格納される。格納された各画像データはCPU16において処理され、車間距離制御(ECU)2によって先行車両との車間距離制御等に用いられる。CPU16では、カメラL、Rから得られた画像データが処理され、先行車両等の前方に位置する物体との距離、検出角度、高さ、幅等の情報が得られる。
【0010】
図2はカメラで捕らえた画像を示した図である。図3は、図2に示すカメラで捉えた画像から縦エッジを抽出した図である。図3には、前方車両の縦エッジしか描いていないが、レーンの縦エッジも抽出することができる。
【0011】
エッジ情報は画像の明暗の変化点を抽出した情報であり、距離情報は複眼カメラで得た画像を比較し、視差を求めて距離情報を得るものである。単眼カメラで捕らえた場合も、エッジ情報を得ることができ、パターン認識ができ、さらにはおよその距離とその物体の位置する角度およびその高さがわかる。
【0012】
図4は道路標識4が取り付けられた橋3が前方にある場合にカメラで捕らえた画像を示した図である。図5は図4に示された画像の縦エッジを抽出した場合のエッジ画像を示した図である。この図に示されているように、縦エッジを抽出した場合、橋3の橋脚部分と標識4の縦の線のみが現れる。同様に、画像の横エッジを抽出することもできる。図6は図4に示された画像の横エッジを抽出した場合のエッジ画像を示した図である。
【0013】
図7は、図1に示した画像処理装置において、ステレオ画像を用いてカメラから検出対象までの距離を求める原理を示す図である。左右のカメラLとRは、カメラ基板32Lと32R上に形成されたセンサチップよりなる撮像素子33Lと33R、これに前方の車両Vの像を結像するレンズ31Lと31Rを有する。34Lと34Rは互いに平行なカメラLとRの光軸であり、Dは両カメラ間の距離である。
【0014】
撮像素子33Lと33Rの面に平行で水平方向をX軸、撮像素子33Lと33Rの面に平行で垂直方向をY軸、そして光軸と同じ方向をZ軸とし、検出対象Vの位置をp(x,y,z)で表すと、カメラから検出対象Vまでの距離zは以下の式により表すことができる。
【0015】
z=f・D/(xL−xR)=f・D/S
上記式で、fは焦点距離、Dは両カメラ間の距離である。xL−xR=Sは視差であり、(xL,yL)はカメラLで撮像した画像MLにおいて位置pが撮像されている点の位置であり、(xR,yR)はカメラRで撮像した画像MRにおいて位置pが撮像されている点の位置である。視差Sは、図7に示されているように、撮像面の水平軸が同じライン上に揃っている場合は、S=xL−xRとなる。焦点距離f、視差S、及びxL、xRの単位は画素であり、両カメラ間の距離Dと距離zの単位はmである。
【0016】
図8は、本発明に用いるマトリクスを作成するための、視差と測距値の関係を示した図である。測距値Rは、R=K/nによって求められる。ここで、Kはステレオカメラのパラメータで決まる定数であり、nは視差である。図8ではK=140の場合を示している。視差nは物体との距離が近づけば大きくなる。従って、視差が小さくなるに従って測距値は大きくなる。
【0017】
測距値は視差の値によって変化するが、本発明では視差nが整数の場合の測距値を、その前後を含めた所定の範囲の視差の値における測距値とし、測距値が階段状に変化するようにしている。例えば、視差nが、2.5>n≧1.5の測距値を、視差n=2の測距値70としている。
【0018】
図9は本発明で用いるマトリクスを描いた図である。図に示すようにカメラCMの視野が放射状に広がっている。この視野の距離方向を、図8に示したように視差nが整数である場合の測距値で区切る。例えば、図9において最も遠い区画がn=1の区画であり、その手前の区画がn=2の場合の区画である。
【0019】
一方、カメラCMの視野の角度は所定の角度(例えば、5°)で区切られており、区切られた距離及び角度に基づいてカメラの視野の範囲がマトリクス状に区画され、各区画に座標が与えられている。図9は区画に付与された座標の例を示している。各区画には区切られた角度に基づく番号m(図に示す例では「1−9」)と視差に基づく距離の番号n(図に示す例では「1−6」)によって座標M(m,n)が与えられている。例えば、角度の番号が「5」で視差に基づく距離の番号が「1」の区画の座標として、M(5,1)が付与される。
【0020】
本発明ではこのように座標を付与されたマトリクス区画毎にマトリクスデータを演算して付与し、物体が存在する指標とするものである。
【0021】
図10は、カメラの視野の範囲を区切って作成したマトリクス区画毎に、実際にマトリクスデータを付与した例を示した図である。マトリクスデータとは、マトリクス区画毎に物体のエッジが現れる頻度を数値で表したものである。ある時点で物体のエッジがAの位置に検出された場合、その位置のマトリクス区画にマトリクスデータとして100を付与し、その上下左右のマトリクス区画にマトリクスデータとしてそれぞれ50を付与する。また、物体Aが位置するマトリクス区画の斜め上下のマトリクス区画にマトリクスデータとして30を付与する。このように、所定の時間間隔で各マトリクス区画にマトリクスデータを付与し、マトリクスデータを積み上げて行く。また、ある時点で物体が検出されなかった場合には、前回までに積み上げたマトリクスデータの合計値から、例えば50を減ずる。ただし、マトリクスの合計値は最低が0とし、マイナスにならないようにする。そして、マトリクスデータの合計値が一定の値を超えたとき、そのマトリクス区画の位置に物体が存在するものと判断する。
【0022】
一方、エッジを検出し検出されたエッジの距離と角度(エッジデータ)を算出し、現在及び過去のエッジデータを保存しておき、マトリクスデータの合計値が一定の値を超えたマトリクス区画に存在する、現在又は過去のエッジデータを採用して物体の存在を安定して検出できるようにする。
【0023】
図11は、本発明の画像処理方法の実施例の動作を示すフローチャートである。これらの動作は、図1の画像処理装置1のCPU16によって制御される。まず、時間tにおいて前方を走行する車両のエッジをカメラで検出し、該検出されたエッジの距離R(t)、及び検出角度θ(t)(エッジデータ)を算出し記憶装置に記憶する(S1)。検出されるエッジの数は1つとは限らないので、時間tにおいて検出された各エッジの距離Rx(t)、及び検出角度θx(t)をそれぞれ算出し記憶装置に記憶する。xは検出された各エッジを表す。次に、時間tにおいて検出された各エッジの距離Rx(t)と角度θx(t)から、その距離及び角度に位置する各マトリクス区画の座標Mx(m,n)を求める(S2)。次に、座標がMx(m,n)の区画の時間tにおけるマトリクスデータMxd(t)(m,n)を、式
Mxd(t)(m,n)=Mxd(t−1)(m,n)+P
により演算する(S3)。上記式で、Mxd(t−1)は検出されたエッジが存在するマトリクス区画の前回までの検出で積み上げたマトリクスデータの合計値であり、Pは検出されたエッジが存在するマトリクス区画に新たに加算されるマトリクスデータである。Pの値として、図10に示す例に従えば「100」が加算される。そして、演算の結果得られたマトリクスデータをマトリクス区画にそれぞれ付与する。
【0024】
次に、上記マトリクス区画の上下左右に位置する区画のマトリクスデータをそれぞれ演算し、演算の結果得られたマトリクスデータを該上下左右に位置するマトリクス区画に付与する(S4)。
【0025】
例えば、左側のマトリクス区画のマトリクスデータは以下のように演算する。
【0026】
(左側)Mxd(t)(m−1,n)=Mxd(t−1)(m−1,n)+(P/2)
上記式で、Mxd(t)(m−1,n)は求めるマトリクスデータであり、Mxd(t−1)(m−1,n)は前回までの検出でその区画に付与されたマトリクスデータの値であり、P/2は新たに加算されるマトリクスデータである。図10に示す例に従えば、P/2=50となる。
【0027】
同様に、右側、上側、下側のマトリクス区画のマトリクスデータを、以下のように演算する。
【0028】
(右側)Mxd(t)(m+1,n)=Mxd(t−1)(m+1,n)+(P/2)
(上側)Mxd(t)(m,n−1)=Mxd(t−1)(m,n−1)+(P/2)
(下側)Mxd(t)(m,n+1)=Mxd(t−1)(m,n+1)+(P/2)
同時に、上記マトリクスの斜め上下に位置するマトリクス区画のマトリクスデータを演算し、演算の結果得られたマトリクスデータを該斜め上下に位置するマトリクス区画にそれぞれ付与する(S4)。
【0029】
例えば、斜め左上のマトリクス区画のマトリクスデータは以下のように演算する。
【0030】
(斜め左上)Mxd(t)(m−1,n−1)=Mxd(t−1)(m−1,n−1)+(P/3)
図10に示す例に従えば、P/3=30となる。
【0031】
同様に、斜め右上、斜め左下、斜め右下のマトリクス区画のマトリクスデータは以下のように演算する。
【0032】
(斜め右上)Mxd(t)(m+1,n−1)=Mxd(t−1)(m+1,n−1)+(P/3)
(斜め左下)Mxd(t)(m−1,n+1)=Mxd(t−1)(m−1,n+1)+(P/3)
(斜め右下)Mxd(t)(m+1,n+1)=Mxd(t−1)(m+1,n+1)+(P/3)
なお、上記例ではP、P/2、P/3を加算したが、所定のマトリクスデータP1、P2、P3(ただし、P1>P2>P3)を加算してもよい。また、ある時点で物体が検出されなかった場合には、所定のマトリクスデータを減算する。
【0033】
次に、各マトリクス区画のマトリクスデータをチェックし、所定の閾値Pth0を超えるマトリクスデータを有するマトリクス区画Mp0(m,n)をサーチし(S5)、該区画Mp0(m,n)にt時点で検出されたエッジが存在するかどうか判断する(S6)。存在する場合にはそのエッジのエッジデータを物体の位置とする。ここでいうエッジデータとは、S1で時間tにおいて検出され記憶されたエッジの距離Rx(t)、及び角度θx(t)のうち、マトリクス区画Mp0(m,n)に存在するエッジのエッジデータRp(t)、θp(t)を意味する。このエッジデータRp(t)、θp(t)は、S1において検出されたデータのうち、マトリクスデータが所定の閾値を超える区画にあるエッジのエッジデータであり、従ってその存在が安定して検出されるエッジのデータである。なお、時間tで検出されたエッジのエッジデータ以外にも、時間t−1、t−2、−−− t−nで検出されたエッジのデータも記憶される。
【0034】
S6で区画Mp0(m,n)にエッジが存在すると判断されれば(Yes)、そのエッジデータRp(t)、θp(t)を物体の距離、及び角度として採用する。S6でNoであればそのまま終了し、同じフローが繰り返される。
【0035】
図12は、本発明の画像処理方法の別の実施例の動作を示すフローチャートである。図11のS6までは同じフローである。S6でYesであれば、図11と同様にS7に進む。
【0036】
図12の実施例では、所定の閾値Pth0を超えるマトリクスデータを有するマトリクス区画Mp0(m,n)にt時点のエッジデータが存在しない場合(No)、マトリクスデータの閾値を高くし、該高くした閾値を超える区画をサーチし、サーチの結果得た高くした閾値を超える区画に前回検出時(t−1時点)のエッジが存在するかどうかを判断する。存在する場合にはそのエッジのエッジデータを物体の位置、即ち、距離及び角度とする。高くした閾値を超える区画に前回検出時(t−1時点)のエッジが存在しない場合、さらに閾値を高めて前々回検出時(t−2時点)のエッジが存在するかどうか判断する。以下、同様な動作を繰り返す。
【0037】
以下に、図12のフローチャートを参照して別の実施例の動作を説明する。S6でNoの場合、図12に示された実施例では、各マトリクス区画のマトリクスデータをチェックし、所定の閾値Pth1(Pth1>Pth0)を超えるマトリクスデータを有するマトリクス区画Mp1(m,n)をサーチし(S8)、該区画Mp1(m,n)に時間t−1時点のエッジが存在するかどうか判断する(S9)。時間t−1時点のエッジが存在すると判断されれば(Yes)、そのエッジのエッジデータRp(t−1)、θp(t−1)を物体の距離、及び角度として採用する(S10)。S9でエッジが存在しない場合(No)、閾値をPth2(Pth2>Pth1)にして同様の動作を行う。そしてエッジが存在しない場合、順次閾値を高めてゆく。Snでは閾値をPthn(Pthn>−−−>Pth1>Pth0)にし、閾値Pthnを超えるマトリクスデータを有するマトリクス区画Mpn(m,n)をサーチし(Sn)、該区画Mpn(m,n)に時間t−n時点のエッジが存在するかどうか判断する(Sn+1)。時間t−n時点のエッジが存在すると判断されれば(Yes)、そのエッジのエッジデータRp(t−n)、θp(t−n)を物体の距離、及び角度として採用する(Sn+2)。Sn+1でNoであれば、そのまま終了する。
【0038】
上記実施例では、閾値PthをPth0からPthnまで設定して繰り返したが、繰り返す回数は適宜設定することができる。
【0039】
上記説明では一対のカメラを用いて物体の距離と角度を検出しているが、単眼のカメラを用い、画面の上下位置から求められるる物体の距離と、カメラの視野を区切った所定の角度に基づいてマトリクスを作成し、エッジデータに加えてマトリクスデータを用いて、物体の位置(距離、角度)を検出することができる。
【0040】
上記実施例では、エッジが検出されるとその距離及び角度に位置する各マトリクス区画の座標を求め、演算においてマトリクスデータを加算したが、例えば、
Mxd(t)(m,n)=Mxd(t−1)(m,n)×Q
のように、係数Qを乗算しマトリクスデータを求めることもできる。
【0041】
図13は乗算によってマトリクスデータを用いる場合の、マトリクス区画毎に実際に係数を付与した例を示した図である。ある時点で物体のエッジがAの位置に検出された場合、その位置のマトリクス区画のマトリクスデータに係数1.5を乗算する。同様に上下左右のマトリクス区画のマトリクスデータにそれぞれ係数1.3を乗算し、斜め上下のマトリクス区画のマトリクスデータにそれぞれ係数1.1を乗算する。なお、この場合は加算ではないので、各マトリクス区画にマトリクスデータの初期値として、例えば「1」を与えておく。そしてエッジが検出された場合には各マトリクス区画のマトリクスデータに、それぞれ図13に示された係数を乗算する。また、物体が検出されなかった場合には各マトリクスデータに例えば係数0.5を乗算する。しかし、0.5の乗算を繰り返すとマトリクスデータの値が小さくなりすぎてしまい、物体が検出されて1.5を乗算してもマトリクスデータはほとんど増えないので、マトリクスデータが1より小さくなった時には「1」とする。上記のようにマトリクスデータを乗算で求める場合、図11に示す「所定閾値」を例えば「5」とする。
【0042】
【発明の効果】
本発明では上記のように、検出されたエッジデータに加えてマトリクスデータを用いたので、確実に物体の位置(距離、角度)を検出することができる。また、一定の位置で検出されていたエッジがある時点で検出できなかった場合でも、マトリクスデータを用いることによって物体の位置(距離、角度)を安定して検出することができる。
【図面の簡単な説明】
【図1】本発明の画像処理装置の構成のブロック図である。
【図2】カメラで捕らえた画像を示した図である。
【図3】カメラで捕らえた画像から縦エッジを抽出した図である。
【図4】カメラで捕らえた画像を示した図である。
【図5】カメラで捕らえた画像から縦エッジを抽出した図である。
【図6】カメラで捕らえた画像から横エッジを抽出した図である
【図7】図1に示した画像処理装置において、ステレオ画像を用いてカメラから検出対象までの距離を求める原理を示した図である。
【図8】本発明で用いるマトリクスを作成する場合の視差と測距値の関係を示した図である。
【図9】本発明で用いるマトリクスを描いた図である。
【図10】マトリクス区画毎にマトリクスデータを付与した図である。
【図11】本発明の実施例を示すフローチャートである。
【図12】本発明の別の実施例を示すフローチャートである。
【図13】マトリクス区画毎に係数を付与した図である。
【符号の説明】
1…画像処理装置
11、12…増幅器
13、14…AD変換器
15…メモリ
16…CPU
17…ECU
L、R…カメラ
31L、31R…レンズ
32L、32R…カメラ基板
33L、33R…撮像素子
34L、34R…光軸
V…検出対象

Claims (11)

  1. ステレオカメラの視野を視差に基づく測距値と角度によってマトリクス状に区画し、
    検出されたエッジが存在する区画及び該区画の周囲の区画のマトリクスデータを演算して各区画にそれぞれ付与し、
    該付与されたマトリクスデータのうち所定の閾値を超えるマトリクスデータを有する区画をサーチし、
    該サーチされた区画に前記検出されたエッジが存在する場合、該エッジのエッジデータを物体の位置として採用する、
    画像処理方法。
  2. ステレオカメラの視野を視差に基づく測距値と角度によってマトリクス状に区画し、
    検出されたエッジが存在する区画及び該区画の周囲の区画のマトリクスデータを演算して各区画にそれぞれ付与し、
    該付与されたマトリクスデータのうち所定の閾値を超えるマトリクスデータを有する区画をサーチし、
    該サーチされた区画にエッジが存在しない場合、順次閾値を高め、
    該高められた閾値を超えるマトリクスデータを有する区画を順次サーチし、
    該サーチされた区画に、前記順次高められた閾値に対応する過去の時点に検出されたエッジが存在する場合、該エッジのエッジデータを物体の位置として採用する、
    画像処理方法。
  3. 前記マトリクス状の区画は、視差が整数の場合の測距値と所定の角度によって区画されている、請求項1又は2に記載の画像処理方法。
  4. 前記演算されたマトリクスデータは、前回までの検出で積み上げたマトリクスデータの合計値に今回の検出によるマトリクスデータを加算した値である、請求項1又は2に記載の画像処理方法。
  5. 前記エッジが検出されなかった場合、前記演算されたマトリクスデータは、前回までの検出で積み上げたマトリクスデータの合計値から所定のマトリクスデータを減算した値である、請求項4に記載の画像処理方法。
  6. 前記エッジが存在する区画に加算されるマトリクスデータの値をP1とすると、該区画の上下左右に位置する区画に加算されるマトリクスデータの値をP2とし、該区画の斜め上下に位置する区画に加算されるマトリクスデータの値をP3とする(ただし、P1>P2>P3)、請求項4に記載の画像処理方法。
  7. 前記演算されたマトリクスデータは、前回までの検出で積み上げたマトリクスデータの合計値に今回の検出によるマトリクス係数(>1)を乗算した値である、請求項1又は2に記載の画像処理方法。
  8. 前記エッジが検出されなかった場合、前記演算されたマトリクスデータは、前回までの検出で積み上げたマトリクスデータの合計値に1より小さい係数を乗算した値である、請求項7に記載の画像処理方法。
  9. 前記エッジが存在する区画のマトリクスデータに乗算される係数をQ1とすると、該区画の上下左右に位置する区画のマトリクスデータに乗算される係数をQ2とし、該区画の斜め上下に位置する区画のマトリクスデータに乗算される係数をQ3とする(ただし、Q1>Q2>Q3)、請求項7に記載の画像処理方法。
  10. 前記エッジデータは距離と角度の情報を含む、請求項1又は2に記載の画像処理方法。
  11. 前記カメラが単眼カメラであり、マトリクス状の区画は該単眼カメラの視野を画面の上下位置から求めた距離と角度によって区画されている、請求項1又は2に記載の画像処理方法。
JP2002273062A 2002-09-19 2002-09-19 画像処理方法 Expired - Fee Related JP4155780B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2002273062A JP4155780B2 (ja) 2002-09-19 2002-09-19 画像処理方法
US10/643,794 US7221789B2 (en) 2002-09-19 2003-08-19 Method for processing an image captured by a camera

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002273062A JP4155780B2 (ja) 2002-09-19 2002-09-19 画像処理方法

Publications (2)

Publication Number Publication Date
JP2004108980A true JP2004108980A (ja) 2004-04-08
JP4155780B2 JP4155780B2 (ja) 2008-09-24

Family

ID=31986907

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002273062A Expired - Fee Related JP4155780B2 (ja) 2002-09-19 2002-09-19 画像処理方法

Country Status (2)

Country Link
US (1) US7221789B2 (ja)
JP (1) JP4155780B2 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006234682A (ja) * 2005-02-25 2006-09-07 Toyota Central Res & Dev Lab Inc 対象物判定装置
JP2008225785A (ja) * 2007-03-12 2008-09-25 Toyota Motor Corp 画像認識装置
WO2011078264A1 (ja) * 2009-12-25 2011-06-30 本田技研工業株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び移動体
CN101633356B (zh) * 2008-07-25 2013-02-27 通用汽车环球科技运作公司 检测行人的***及方法
US9373151B2 (en) 2013-06-19 2016-06-21 Fujitsu Limited Image processing device and image processing method

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7561720B2 (en) * 2004-04-30 2009-07-14 Visteon Global Technologies, Inc. Single camera system and method for range and lateral position measurement of a preceding vehicle
US7561721B2 (en) * 2005-02-02 2009-07-14 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7231288B2 (en) * 2005-03-15 2007-06-12 Visteon Global Technologies, Inc. System to determine distance to a lead vehicle
US20070031008A1 (en) * 2005-08-02 2007-02-08 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US7623681B2 (en) * 2005-12-07 2009-11-24 Visteon Global Technologies, Inc. System and method for range measurement of a preceding vehicle
US8164628B2 (en) 2006-01-04 2012-04-24 Mobileye Technologies Ltd. Estimating distance to an object using a sequence of images recorded by a monocular camera
KR20120053713A (ko) * 2010-11-18 2012-05-29 에스엘 주식회사 차량용 카메라의 제어 장치 및 방법
DE112012002885B4 (de) * 2011-07-08 2022-01-27 Bendix Commercial Vehicle Systems Llc Verfahren und Vorrichtung zur bildbasierten Fahrzeugerfassung und Entfernungsmessung
EP2760209B1 (en) * 2011-09-21 2017-07-12 FUJIFILM Corporation Image processing device, method, program and recording medium, stereoscopic image capture device, portable electronic apparatus, printer, and stereoscopic image player device
ITVI20120303A1 (it) * 2012-11-09 2014-05-10 St Microelectronics Srl Metodo per rilevare una linea retta in un'immagine digitale
CN103327294A (zh) * 2013-03-22 2013-09-25 张会朋 无线网络录像仪
CN106326810B (zh) * 2015-06-25 2019-12-24 株式会社理光 道路场景识别方法及设备
CN109194920B (zh) * 2018-09-21 2020-06-12 深圳市九洲电器有限公司 一种基于高清摄像机的智能寻物方法
CN112712011B (zh) * 2020-12-28 2022-05-06 华中科技大学 基于边界细节补偿和相似特征强化的实时道路检测方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH08138053A (ja) * 1994-11-08 1996-05-31 Canon Inc 被写体情報処理装置及び遠隔装置
JP3669205B2 (ja) 1999-05-17 2005-07-06 日産自動車株式会社 障害物認識装置
JP4028135B2 (ja) * 1999-05-27 2007-12-26 本田技研工業株式会社 物体検出装置
JP2001101428A (ja) 1999-10-01 2001-04-13 Fujitsu Ten Ltd 画像処理装置
JP4523095B2 (ja) 1999-10-21 2010-08-11 富士通テン株式会社 情報処理装置、情報統合装置および情報処理方法

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006234682A (ja) * 2005-02-25 2006-09-07 Toyota Central Res & Dev Lab Inc 対象物判定装置
JP4586571B2 (ja) * 2005-02-25 2010-11-24 株式会社豊田中央研究所 対象物判定装置
JP2008225785A (ja) * 2007-03-12 2008-09-25 Toyota Motor Corp 画像認識装置
CN101633356B (zh) * 2008-07-25 2013-02-27 通用汽车环球科技运作公司 检测行人的***及方法
WO2011078264A1 (ja) * 2009-12-25 2011-06-30 本田技研工業株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び移動体
JPWO2011078264A1 (ja) * 2009-12-25 2013-05-09 本田技研工業株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び移動体
JP5624998B2 (ja) * 2009-12-25 2014-11-12 本田技研工業株式会社 画像処理装置、画像処理方法、コンピュータプログラム及び移動体
US9488721B2 (en) 2009-12-25 2016-11-08 Honda Motor Co., Ltd. Image processing apparatus, image processing method, computer program, and movable body
US9373151B2 (en) 2013-06-19 2016-06-21 Fujitsu Limited Image processing device and image processing method

Also Published As

Publication number Publication date
US7221789B2 (en) 2007-05-22
JP4155780B2 (ja) 2008-09-24
US20040057601A1 (en) 2004-03-25

Similar Documents

Publication Publication Date Title
JP2004108980A (ja) 画像処理方法
JP6785620B2 (ja) ステレオカメラセンサを用いた車両用の予測的サスペンション制御
JPH10285582A (ja) 車外監視装置
US10187630B2 (en) Egomotion estimation system and method
JP2009176087A (ja) 車両用環境認識装置
JP2014138420A (ja) 自律車両用の奥行き検知方法及びシステム
JP6837262B2 (ja) 走行可能領域検出装置及び走行支援システム
JP2019066302A (ja) 対象物推定装置
JP3961584B2 (ja) 区画線検出装置
JP2008310440A (ja) 歩行者検出装置
US20200193184A1 (en) Image processing device and image processing method
JP2005214914A (ja) 移動速度検出装置および移動速度検出方法
CN111989541B (zh) 立体摄像机装置
JP2013161190A (ja) 物体認識装置
JP2008059323A (ja) 壁検出装置
JP2009129318A (ja) 画像処理装置
CN110728710B (zh) 视觉里程计算方法、装置和计算机可读存储介质
JP4788399B2 (ja) 歩行者検出方法、装置、およびプログラム
JP2007310591A (ja) 画像処理装置及び駐車場判定方法
JP6014867B2 (ja) 画像処理装置
US11551457B2 (en) Vehicle external environment recognition apparatus
JP2015121954A (ja) 輝度値算出装置及び車線検出システム
JP7134780B2 (ja) ステレオカメラ装置
JP2004038760A (ja) 車両用走行路認識装置
JP2010018223A (ja) 車両用走行路面検出装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050920

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20070719

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20070731

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20070911

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080610

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080708

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110718

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120718

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130718

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140718

Year of fee payment: 6

LAPS Cancellation because of no payment of annual fees