JP4743277B2 - Image data recognition method, image processing apparatus, and image data recognition program - Google Patents

Image data recognition method, image processing apparatus, and image data recognition program Download PDF

Info

Publication number
JP4743277B2
JP4743277B2 JP2008529068A JP2008529068A JP4743277B2 JP 4743277 B2 JP4743277 B2 JP 4743277B2 JP 2008529068 A JP2008529068 A JP 2008529068A JP 2008529068 A JP2008529068 A JP 2008529068A JP 4743277 B2 JP4743277 B2 JP 4743277B2
Authority
JP
Japan
Prior art keywords
image data
vehicle
pixel
pixels
region
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2008529068A
Other languages
Japanese (ja)
Other versions
JPWO2008065707A1 (en
Inventor
隆文 枝並
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Publication of JPWO2008065707A1 publication Critical patent/JPWO2008065707A1/en
Application granted granted Critical
Publication of JP4743277B2 publication Critical patent/JP4743277B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/01Detecting movement of traffic to be counted or controlled
    • G08G1/04Detecting movement of traffic to be counted or controlled using optical or ultrasonic detectors
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/255Detecting or recognising potential candidate objects based on visual cues, e.g. shapes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/54Surveillance or monitoring of activities, e.g. for recognising suspicious objects of traffic, e.g. cars on the road, trains or boats
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V2201/00Indexing scheme relating to image or video recognition or understanding
    • G06V2201/08Detecting or categorising vehicles

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)
  • Image Processing (AREA)

Description

本発明は、画像データ認識に関する。特に、画像データ内の被写体を検出する画像データ認識方法に関する。   The present invention relates to image data recognition. In particular, the present invention relates to an image data recognition method for detecting a subject in image data.

交通に関するシステムにおいて、固定されたカメラにより取得した画像データおよび移動体に搭載したカメラにより取得した画像データから車両や歩行者を検出する技術がある。車両や歩行者を検出する技術は、例えば、交差点の画像データを取得し、交差点内の車両を検出し、検出された車両や歩行者の存在を走行中の車両に提示することに利用される。車両や歩行者の存在を走行中の車両に提示することにより、車両の運転者は交差点内の状況を未然に知ることができる。   In a system related to traffic, there is a technique for detecting a vehicle or a pedestrian from image data acquired by a fixed camera and image data acquired by a camera mounted on a moving body. A technique for detecting a vehicle or a pedestrian is used, for example, to acquire image data of an intersection, detect a vehicle in the intersection, and present the detected vehicle or pedestrian to a traveling vehicle. . By presenting the presence of the vehicle or the pedestrian to the traveling vehicle, the driver of the vehicle can know the situation in the intersection in advance.

画像データ内の検出の対象となる車両を抽出する方式は、背景差分方式、エッジ検出方式等がある。背景差分方式は、対象物が無い背景の画像データを予め取得しておき、抽出の対象となる画像データと比較することにより、画像データ内の対象物を抽出する方式である。エッジ検出方式は、画像データ内のエッジを検出し、予め格納されたエッジデータによる雛型データと検出したエッジデータとを比較し、対象の車両を特定する方式である。   As a method for extracting a vehicle to be detected in image data, there are a background difference method, an edge detection method, and the like. The background difference method is a method of extracting a target object in image data by acquiring in advance background image data without the target object and comparing it with image data to be extracted. The edge detection method is a method of detecting an edge in image data, comparing template data based on edge data stored in advance with detected edge data, and specifying a target vehicle.

背景差分方式は、車両の影等を含む領域を検出することとなるため、画像データ内の車両のみの位置を正確に検出することができない問題があった(特許文献1)。また、エッジ検出方式も影を検出する。また、エッジ検出された部分の形状データと予め所持する物体の形状のデータベースに格納された形状データとの比較を行って物体を特定するため、検出処理に時間を要する問題があった(特許文献2)。
特開2005−190142号公報 特開2000−148977号公報
Since the background difference method detects an area including a shadow of a vehicle and the like, there is a problem that the position of only the vehicle in the image data cannot be accurately detected (Patent Document 1). The edge detection method also detects shadows. In addition, since the object is identified by comparing the shape data of the edge-detected portion and the shape data stored in the object shape database in advance, there is a problem that the detection process takes time (Patent Document) 2).
JP 2005-190142 A JP 2000-148777 A

(発明が解決しようとする課題)
本発明は、輝度の影響を受けずにかつ計算量が少なく画像データ内の被写体を検出する画像データ認識方法を提供することを課題とする。
(課題を解決するための手段)
本発明は、上記の問題を解決する画像データ内の被写体を検出する方法を提供するために以下の構成を有する。まず、第一の画素と該第一の画素を中心とする第一の領域と前記第一の画素と比較の対象とする複数の第二の画素と該複数の第二の画素をそれぞれ中心とする複数の第二の領域とを定める。次に第一の領域とそれぞれの第二の領域とから算出した類似値をそれぞれの第二の画素に対応付ける。次に複数の第二の画素に対応付けられた類似値の内の第一の領域の特徴を示す類似値を第一の画素に対応付ける。次に第一の領域の特徴を示す類似値の分布の状態に応じて定まる形状が予め被写体の特徴として定めた形状に合致する領域を画像データ内の被写体の部分として検出する。
(Problems to be solved by the invention)
It is an object of the present invention to provide an image data recognition method that detects a subject in image data without being affected by luminance and having a small amount of calculation.
(Means for solving the problem)
The present invention has the following configuration in order to provide a method for detecting a subject in image data that solves the above problems. First, the first pixel, the first region centered on the first pixel, the plurality of second pixels to be compared with the first pixel, and the plurality of second pixels, respectively. A plurality of second regions to be defined. Next, the similarity value calculated from the first region and each second region is associated with each second pixel. Next, a similarity value indicating a feature of the first region among the similarity values associated with the plurality of second pixels is associated with the first pixel. Next, an area where the shape determined according to the distribution state of the similarity value indicating the characteristics of the first area matches the shape previously determined as the characteristics of the object is detected as a portion of the object in the image data.

また、画像データの撮影対象領域である三次元空間での手前となる領域は大きく、三次元空間での奥となる領域を小さくする。この構成により演算量を減少させることが可能となる。   In addition, a region in front of the three-dimensional space, which is the imaging target region of the image data, is large, and a region behind the three-dimensional space is reduced. With this configuration, it is possible to reduce the amount of calculation.

また、被写体の特徴として定めた形状は、車両の形状を定める条件であることを特長とする。   Further, the shape defined as the feature of the subject is a condition that determines the shape of the vehicle.

また、検出範囲の両側に大きい類似値が分布し、かつ、両側の類似値に対象性があり、かつ、検出範囲の下には小さい類似値が分布する座標を前記車両のフロントの最下部の座標とすることを特長とする。   In addition, the coordinates at which the large similarity values are distributed on both sides of the detection range, the similarity values on both sides are symmetric, and the small similarity values are distributed below the detection range are displayed at the bottom of the front of the vehicle. It is characterized by the coordinates.

また、車両は、車両の類似値の分布の対象性から画像データ内の横方向の車両の中心位置を求め、車両の分布の形状と車両の形状を定める条件から縦軸方向の位置を特定することを特長とする。
(発明の効果)
本発明によれば、画像データ内の画素毎に画素を中心とする領域毎の類似値を検出し、類似値の分布形状が予め定める条件に合致する画像データ内の領域を検出の対象とする。したがって、輝度の影響を受けずにかつ計算量が少なく画像データ内の被写体を検出する事が可能となる。
Further, the vehicle obtains the center position of the vehicle in the horizontal direction in the image data from the objectivity of the distribution of similar values of the vehicle, and specifies the position in the vertical axis direction from the conditions for determining the shape of the vehicle distribution and the shape of the vehicle. It is characterized by that.
(The invention's effect)
According to the present invention, for each pixel in the image data, a similarity value for each region centered on the pixel is detected, and a region in the image data whose similarity value distribution shape matches a predetermined condition is detected. . Therefore, it is possible to detect a subject in the image data without being influenced by luminance and with a small amount of calculation.

図1は本実施例の画像処理装置1の構成図である。FIG. 1 is a configuration diagram of an image processing apparatus 1 according to the present embodiment. 図2は本実施例のカメラ2が撮影する画像データである。FIG. 2 shows image data taken by the camera 2 of the present embodiment. 図3は画像データ10内に存在する車両16の縦方向13の座標と車両16の幅とを車両16の種類毎に関連付けたデータベース20の構成例である。FIG. 3 is a configuration example of the database 20 in which the vertical coordinate 13 of the vehicle 16 existing in the image data 10 and the width of the vehicle 16 are associated with each type of the vehicle 16. 図4は取得した画像データ10から類似値38を検出する概念図である。FIG. 4 is a conceptual diagram for detecting the similarity value 38 from the acquired image data 10. 図5は類似値38の算出方法のフローチャートである。FIG. 5 is a flowchart of a method for calculating the similarity value 38. 図6は横断歩道41の例である。FIG. 6 is an example of a pedestrian crossing 41. 図7は路上マーク削除部5が実行する画像データ10から横断歩道41領域を除外する処理のフローチャートである。FIG. 7 is a flowchart of processing for excluding the pedestrian crossing 41 area from the image data 10 executed by the road mark deleting unit 5. 図8は元の画像データ10の車両16部分の画像(A)と分布図50の車両16部分の画像(B)とを示す図である。FIG. 8 is a diagram showing an image (A) of the vehicle 16 portion of the original image data 10 and an image (B) of the vehicle 16 portion of the distribution map 50. 図9はパターン特徴量計算部6が実行する分布図10から車両16が存在する領域を検出する処理のフローチャートである。FIG. 9 is a flowchart of processing for detecting an area where the vehicle 16 exists from the distribution chart 10 executed by the pattern feature quantity calculation unit 6. 図10は分布図50と車両16の対象性との関係を示す図である。FIG. 10 is a diagram showing the relationship between the distribution map 50 and the object of the vehicle 16. 図11は、対象性特徴量計算部7が実行する分布図10から車両16が存在する領域を検出する処理のフローチャートである。FIG. 11 is a flowchart of a process for detecting a region where the vehicle 16 exists from the distribution chart 10 executed by the symmetric feature quantity calculation unit 7. 図12は、本実施例による車両の検出例である。FIG. 12 is an example of vehicle detection according to this embodiment. 図13は、本実施例の画像処理装置1のハードウェア構成例である。FIG. 13 is a hardware configuration example of the image processing apparatus 1 of the present embodiment.

符号の説明Explanation of symbols

1 画像処理装置
2 カメラ
3 画像メモリ
4 自己相関差計算部
5 路上マーク削除部
6 パターン特徴量計算部
7 対象性特徴量計算部
8 車両位置判定部
10 画像データ
11 画素
12 消失点
13 縦方向
14 横方向
15 車道
16 車両
17 最も手前における車道と路側帯との境界を示す点
20 データベース
22 軽自動車
23 普通車
24 大型車
31 探索範囲
32 演算領域
33 演算対象画素
35 比較対象画素
34 比較領域
38 類似値
39 差分
41 横断歩道
42 縞模様
43 演算の対象とする座標点
44 所定量Lだけ横方向14に移動した座標
45 所定量(−L/2)だけ横方向14に移動した座標
46 所定量(L/2)だけ横方向14に移動した座標
47 消失点12を向く線分に沿うエッジ
48 水平方向のエッジ
50 分布図
51 車両16の左右に位置する画素群
52 車両16の左右の側面の外側に位置する画素群
53 車両16の前方に位置する画素群
54 画素
55 検出対象画素
56 Eleft
57 Eright
58 Eside
59 Ebottom
60 車両の特徴の大きさを示す値
61 演算中央座標
101 CPU
103 メモリ
104 出力部
105 バス
DESCRIPTION OF SYMBOLS 1 Image processing apparatus 2 Camera 3 Image memory 4 Auto correlation difference calculation part 5 Road mark deletion part 6 Pattern feature-value calculation part 7 Objectivity feature-value calculation part 8 Vehicle position determination part 10 Image data 11 Pixel 12 Vanishing point 13 Vertical direction 14 Lateral direction 15 Roadway 16 Vehicle 17 Point 20 indicating the boundary between the roadway and the roadside belt in the foreground Database 22 Light vehicle 23 Normal vehicle 24 Large vehicle 31 Search range 32 Calculation area 33 Calculation target pixel 35 Comparison target pixel 34 Comparison area 38 Similar Value 39 Difference 41 Crosswalk 42 Striped pattern 43 Coordinate points 44 subject to calculation Coordinate 45 moved in the horizontal direction 14 by a predetermined amount L Coordinate 46 moved in the horizontal direction 14 by a predetermined amount (-L / 2) Predetermined amount ( The coordinate 47 moved in the lateral direction 14 by L / 2) Edge 48 along the line segment facing the vanishing point 12 Horizontal edge 50 Distribution map 51 Vehicle 16 The pixel group 52 located on the left and right sides of the vehicle group The pixel group 53 located on the outside of the left and right side surfaces of the vehicle 16 The pixel group 54 located on the front side of the vehicle 16 Pixel 55 The detection target pixel 56 Eleft
57 Eight
58 Eside
59 Ebottom
60 Value indicating size of vehicle feature 61 Calculation central coordinate 101 CPU
103 Memory 104 Output unit 105 Bus

本実施例は、交差点の固定カメラの画像データから車両を取得する動作について説明する。   In this embodiment, an operation for acquiring a vehicle from image data of a fixed camera at an intersection will be described.

図1は本実施例の画像処理装置1の構成図である。本発明の画像処理装置1は、カメラ2、画像メモリ3、自己相関差計算部4、路上マーク削除部5、パターン特徴量計算部6、対象性特徴量計算部7、車両位置判定部8から構成される。   FIG. 1 is a configuration diagram of an image processing apparatus 1 according to the present embodiment. The image processing apparatus 1 according to the present invention includes a camera 2, an image memory 3, an autocorrelation difference calculation unit 4, a road mark deletion unit 5, a pattern feature value calculation unit 6, an object feature value calculation unit 7, and a vehicle position determination unit 8. Composed.

カメラ2で撮像した交差点の画像データは画像メモリ3に格納される。自己相関差計算部4は、画像メモリ3に格納された画像データから類似値の差分の分布図を作成する。自己相関差計算部4は、画素毎に類似値の差分を求め、類似値の差分による分布図を作成する。路上マーク削除部5は、画像メモリ3に格納された画像データに写る路上マークの領域を削除する。以上から画像処理装置1は、元の画像データから類似値の差分を算出し、路上マークを除去した分布図を得る。次にパターン特徴量計算部6は、自己相関差計算部4で作成した類似値の差分の分布図から車両のパターンを検出する。パターン特徴量計算部6は車両のパターンから車両の最前部あるいは最後部を示す画像データ内の縦方向の座標を取得する。パターン特徴量計算部6は車両パターンを検出する際、路上マーク削除部5で削除した領域情報も加味する。対象性特徴量計算部7は、自己相関差計算部4で作成した類似値の差分の分布図から車両の対象性を演算する。対象性特徴量計算部7は対象性から画像データ内の車両が存在する中心線を取得する。車両位置判定部8は、パターン特徴量計算部6と対象性特徴量計算部7とから特定される画像内の車両の横方向の位置を特定する。また、車両位置判定部8は、車両の位置から定まる車幅を取得し、取得した車幅と画像データ内の縦方向の位置からデータベースを検索して車種を特定する。   The image data of the intersection imaged by the camera 2 is stored in the image memory 3. The autocorrelation difference calculation unit 4 creates a distribution map of similar value differences from the image data stored in the image memory 3. The autocorrelation difference calculation unit 4 obtains a difference between similar values for each pixel and creates a distribution map based on the difference between similar values. The road mark deletion unit 5 deletes a road mark area that appears in the image data stored in the image memory 3. As described above, the image processing apparatus 1 calculates a difference between similar values from the original image data, and obtains a distribution map from which road marks are removed. Next, the pattern feature quantity calculation unit 6 detects the vehicle pattern from the difference value distribution map created by the autocorrelation difference calculation unit 4. The pattern feature quantity calculation unit 6 obtains vertical coordinates in the image data indicating the front or rear part of the vehicle from the vehicle pattern. When the pattern feature quantity calculation unit 6 detects the vehicle pattern, the pattern feature amount calculation unit 6 also takes into account the area information deleted by the road mark deletion unit 5. The target characteristic quantity calculation unit 7 calculates the target characteristic of the vehicle from the distribution map of the difference between the similar values created by the autocorrelation difference calculation unit 4. The target characteristic amount calculation unit 7 acquires the center line where the vehicle in the image data exists from the target. The vehicle position determination unit 8 specifies the position of the vehicle in the horizontal direction in the image specified by the pattern feature quantity calculation unit 6 and the target feature quantity calculation unit 7. Further, the vehicle position determination unit 8 acquires a vehicle width determined from the position of the vehicle, and specifies a vehicle type by searching a database from the acquired vehicle width and a vertical position in the image data.

次に画像処理装置1がカメラ2で取得する画像データについて説明する。図2は本実施例のカメラ2が撮影する画像データ10である。画像データ10は画像メモリ3にディジタル形式で格納される。画像データ10は画素11の集合によって構成される。画素11とは画像データ10を構成する最小単位である。以降の説明において画像データ10の縦方向とは縦方向13の方向を示し、横方向とは横方向14の方向を示す。また、縦座標とは画像データ10内の縦方向13の位置を特定する座標を示し、横座標とは画像データ10内の横方向14の位置を特定する座標を示す。消失点12は、二次元に投影された画像データ10を元の三次元空間で見た場合に最も奥にある座標である。   Next, image data acquired by the image processing apparatus 1 with the camera 2 will be described. FIG. 2 shows image data 10 taken by the camera 2 of this embodiment. The image data 10 is stored in the image memory 3 in a digital format. The image data 10 is composed of a set of pixels 11. The pixel 11 is a minimum unit constituting the image data 10. In the following description, the vertical direction of the image data 10 indicates the direction of the vertical direction 13, and the horizontal direction indicates the direction of the horizontal direction 14. Further, the ordinate indicates coordinates that specify the position in the vertical direction 13 in the image data 10, and the abscissa indicates coordinates that specify the position in the horizontal direction 14 in the image data 10. The vanishing point 12 is a coordinate at the back when the image data 10 projected in two dimensions is viewed in the original three-dimensional space.

上方から見下ろす場所にカメラ2を設置する場合の画像データ10の消失点12は、一般的に、画像データ10内の縦方向13の上方の位置に配置する。画像データ10内の上方の位置に消失点12を配置することは、画像データ10内の車道15が写る領域を多くすることを可能とする。したがって画像処理装置1は車道15の縦方向13を消失点12が画像データ10内で下方の位置にある場合と比較して多くの縦座標によって分解することが可能となる。縦方向13をより多く分解することが可能となると、画像処理装置1は車道15上の車両16の位置を正確に取得することができる。一方、車両16にカメラ2を搭載する場合は、一般的に、カメラ2は地面に対して水平方向を撮影するように配置される。カメラ2が車両16に取付けられる場合は、カメラ2は車両16のフロント部分等の低い位置に取付けられる。したがって、カメラ2が下方に向けられたアングルの場合、カメラ2は前方を走行する車両16の最高部を撮影することができなくなる。 The vanishing point 12 of the image data 10 in the case where the camera 2 is installed at a place looking down from above is generally arranged at a position above the vertical direction 13 in the image data 10. Arranging the vanishing point 12 at an upper position in the image data 10 makes it possible to increase the area of the roadway 15 in the image data 10. Therefore, the image processing apparatus 1 can decompose the longitudinal direction 13 of the roadway 15 with a larger number of ordinates than when the vanishing point 12 is located at a lower position in the image data 10. If it becomes possible to disassemble more in the vertical direction 13, the image processing apparatus 1 can accurately acquire the position of the vehicle 16 on the roadway 15. On the other hand, when the camera 2 is mounted on the vehicle 16, the camera 2 is generally arranged so as to capture a horizontal direction with respect to the ground. When the camera 2 is attached to the vehicle 16 , the camera 2 is attached to a low position such as a front portion of the vehicle 16 . Therefore, when the camera 2 is at an angle directed downward, the camera 2 cannot capture the highest part of the vehicle 16 traveling forward.

車道15の幅は画像データ10内の縦方向13の下方の位置で取得すべき車道15の幅となるようにする。このとき、最も手前における車道15と路側帯との境界を示す点17が画像データ10の最下部となる。画像データ10内の下方の位置で車道15の幅が最大となるように配置することによりカメラ2は画像データ10内の手前において車両16の幅を大きく写すことが可能となる。車両16の幅を大きく写すことにより画像処理装置1は車両16の幅より多くの画素で分解することができ、画像処理装置1は車両16の幅の情報を正確に取得することができる。なお、消失点12、車道15の幅についてのカメラ2のアングルは、道路条件、取得すべき対象に応じて変更することが可能である。 The width of the roadway 15 is set to be the width of the roadway 15 to be acquired at a position below the vertical direction 13 in the image data 10. At this time, the point 17 indicating the boundary between the roadway 15 and the roadside belt in the foreground is the lowermost part of the image data 10. By disposing the roadway 15 so that the width of the roadway 15 is maximized at a lower position in the image data 10, the camera 2 can capture a large width of the vehicle 16 in front of the image data 10. By enlarging the width of the vehicle 16, the image processing apparatus 1 can be decomposed with more pixels than the width of the vehicle 16, and the image processing apparatus 1 can accurately acquire the width information of the vehicle 16. In addition, the angle of the camera 2 about the vanishing point 12 and the width of the roadway 15 can be changed according to road conditions and an object to be acquired.

次に画像処理装置1が有する車両16を検出するためのデータについて説明する。画像処理装置1は画像データ10内の消失点12の座標情報を有する。また、画像処理装置1は最も手前における車道15と路側帯との境界を示す点17の座標を有する。車道15と路側帯との境界を示す点17の座標は道路の両側の2点となる。また、画像処理装置1は消失点12の座標と車道15と路側帯との境界を示す点17の座標とを結ぶ直線から車道15と路側帯との境界の直線を得る。また、画像処理装置1は画像データ10内に存在する車両16の縦方向13の座標と車両16の幅とを車両16の種類毎に関連付けたデータベース20を有する。   Next, data for detecting the vehicle 16 included in the image processing apparatus 1 will be described. The image processing apparatus 1 has coordinate information of the vanishing point 12 in the image data 10. Further, the image processing apparatus 1 has the coordinates of a point 17 indicating the boundary between the roadway 15 and the roadside belt in the foreground. The coordinates of the point 17 indicating the boundary between the roadway 15 and the roadside belt are two points on both sides of the road. Further, the image processing apparatus 1 obtains a straight line at the boundary between the roadway 15 and the roadside band from a straight line connecting the coordinates of the vanishing point 12 and the coordinates of the point 17 indicating the boundary between the roadway 15 and the roadside band. The image processing apparatus 1 also includes a database 20 that associates the coordinates of the vehicle 16 in the vertical direction 13 and the width of the vehicle 16 existing in the image data 10 for each type of the vehicle 16.

図3は、画像データ10内に存在する車両16の縦方向13の座標値21と車両16の幅とを車両16の種類毎に関連付けたデータベース20の構成例である。例えば、縦方向13の座標値21が480個の画素11で構成される画像データ10は、縦方向13の480個の座標値21に応じた車両16の幅情報を有する。車両16の横幅は軽自動車22、普通車23、大型車24に応じてほぼ決まる。例えば普通車23の一般的な車両の幅は1700mmである。画像処理装置1は画像データ10内の車両16の縦方向13の座標値21の位置に対応する横方向14の車両16の幅の画素数を予め求めることができる。本実施例のデータベース20は、車両16の幅の情報として縦方向13の座標値21の位置に応じた軽自動車22、普通車23、大型車24等の横方向14の車両16の幅となる画素数とを関係づけて記憶する。   FIG. 3 is a configuration example of the database 20 in which the coordinate value 21 in the vertical direction 13 of the vehicle 16 existing in the image data 10 and the width of the vehicle 16 are associated with each type of the vehicle 16. For example, the image data 10 in which the coordinate value 21 in the vertical direction 13 is composed of 480 pixels 11 has the width information of the vehicle 16 corresponding to the 480 coordinate values 21 in the vertical direction 13. The width of the vehicle 16 is substantially determined according to the light vehicle 22, the ordinary vehicle 23, and the large vehicle 24. For example, a typical vehicle width of the ordinary vehicle 23 is 1700 mm. The image processing apparatus 1 can obtain in advance the number of pixels in the width of the vehicle 16 in the horizontal direction 14 corresponding to the position of the coordinate value 21 in the vertical direction 13 of the vehicle 16 in the image data 10. The database 20 of the present embodiment has the width of the vehicle 16 in the lateral direction 14 such as the light vehicle 22, the ordinary vehicle 23, and the large vehicle 24 according to the position of the coordinate value 21 in the longitudinal direction 13 as the width information of the vehicle 16. The number of pixels is related and stored.

図2で説明すると、画像データ10内の車道15内の車両16を示す四角形の底辺の長さが車両16の幅となる画素数である。車両16の幅の画素数は四角形が検出される縦方向13の座標に応じて変化する。   Referring to FIG. 2, the length of the base of the quadrilateral indicating the vehicle 16 in the roadway 15 in the image data 10 is the number of pixels that is the width of the vehicle 16. The number of pixels of the width of the vehicle 16 changes in accordance with the coordinates in the vertical direction 13 where the quadrangle is detected.

次に画像処理装置1の自己相関差計算部4が行う類似値の差分の分布図の作成処理について説明する。自己相関差計算部4は、画像メモリ3に格納された画像データ10の各画素11に対応付けられる類似値38の差分39を算出する。類似値38は、画像データ10内に設定した第一の領域と第二の領域とを比較した時の領域全体として近似する程度を数値化したものである。   Next, a process of creating a difference map of similar values performed by the autocorrelation difference calculation unit 4 of the image processing apparatus 1 will be described. The autocorrelation difference calculation unit 4 calculates a difference 39 of similarity values 38 associated with each pixel 11 of the image data 10 stored in the image memory 3. The similarity value 38 is obtained by quantifying the degree of approximation of the entire area when the first area and the second area set in the image data 10 are compared.

図4は、取得した画像データ10から自己相関差計算部4が類似値38を検出する概念図である。   FIG. 4 is a conceptual diagram in which the autocorrelation calculation unit 4 detects the similarity value 38 from the acquired image data 10.

演算対象画素33(第一の画素)は、演算の現在の対象となる画像データ10内の類似値38を求める画素11である。演算対象画素33は画像データ10内の全ての画素11が対象となる。なお、画像データ10内において車両16が存在し得ない領域に位置する画素11は、類似値38の演算を省略することも可能である。例えば、自己相関差計算部4は路側帯を超え、車両16が明らかに存在しないと想定される範囲にある画素11については演算を省略することが可能である。自己相関差計算部4が演算を省略することが可能な領域は予め設定される。自己相関差計算部4は演算を省略することが可能な領域以外の画素11の全てについて類似値38を算出する。車両16が明らかに存在しないと想定される範囲にある画素について自己相関差計算部4が演算を省略する構成により、画像処理装置1が行う演算量が減少するため、画像処理装置1は演算結果を得るまでの時間を短縮することが可能となる。   The calculation target pixel 33 (first pixel) is a pixel 11 for obtaining the similarity value 38 in the image data 10 that is the current target of the calculation. The calculation target pixel 33 is for all the pixels 11 in the image data 10. It should be noted that the calculation of the similarity value 38 can be omitted for the pixels 11 located in the region where the vehicle 16 cannot exist in the image data 10. For example, the autocorrelation difference calculation unit 4 can omit the calculation for the pixel 11 that exceeds the roadside band and is in a range in which the vehicle 16 is clearly not present. An area in which the autocorrelation difference calculation unit 4 can omit the calculation is set in advance. The autocorrelation difference calculation unit 4 calculates the similarity value 38 for all the pixels 11 other than the region where the calculation can be omitted. Since the autocorrelation difference calculation unit 4 omits the calculation for the pixels in the range where the vehicle 16 is obviously not present, the amount of calculation performed by the image processing apparatus 1 is reduced. It is possible to shorten the time until obtaining.

比較対象画素35(第二の画素)は、演算対象画素33に対する画像データ10内の類似値38を求める演算の現在の対象となる画素11である。   The comparison target pixel 35 (second pixel) is the pixel 11 that is the current target of the calculation for obtaining the similarity value 38 in the image data 10 for the calculation target pixel 33.

演算領域32(第一の領域)は、演算対象画素33を中心とした類似値38を求める演算の現在の比較の対象となる領域である。比較領域34(第二の領域)は、比較対象画素35を中心とした演算領域32との比較の対象となる領域である。   The calculation area 32 (first area) is an area that is the current comparison target of the calculation for obtaining the similarity value 38 with the calculation target pixel 33 as the center. The comparison area 34 (second area) is an area to be compared with the calculation area 32 around the comparison target pixel 35.

探索範囲31は、演算対象画素33に対して比較対象画素35を設定する範囲である。探索範囲31は演算対象画素33と比較対象画素35との間で画像データ10内の座標間の距離が大きい場合、類似値38を算出する必要がないため設定される。座標間の距離が大きく離れている場合、演算領域32と比較領域34とは一台の車両16を対象としていないと考えられるためである。一方、全く異なる対象物との間で類似値38を算出することは画像データ10内の車両16の誤検出の原因となるためである。例えば、探索範囲31は演算対象画素33を中心として車両16が存在し得る範囲とする。   The search range 31 is a range in which the comparison target pixel 35 is set for the calculation target pixel 33. The search range 31 is set because it is not necessary to calculate the similarity value 38 when the distance between the coordinates in the image data 10 is large between the calculation target pixel 33 and the comparison target pixel 35. This is because the calculation area 32 and the comparison area 34 are considered not to target one vehicle 16 when the distance between the coordinates is greatly separated. On the other hand, the calculation of the similarity value 38 between completely different objects is a cause of erroneous detection of the vehicle 16 in the image data 10. For example, the search range 31 is a range in which the vehicle 16 can exist around the calculation target pixel 33.

比較対象画素35は探索範囲内31の全ての画素11を対象となる。なお、探索範囲31と画像データ10上において車両16が存在し得ない領域とが重複する場合は、自己相関差計算部4は重複する範囲にある比較対象画素35の類似値38を算出する演算を省略することも可能である。重複する範囲にある比較対象画素35との類似値38を算出する演算を省略する構成にすると画像処理装置1が行う演算量が減少するため、画像処理装置1は演算結果を得るまでの時間が短縮することが可能となる。   The comparison target pixels 35 are all the pixels 11 within the search range 31. When the search range 31 and the region where the vehicle 16 cannot exist on the image data 10 overlap, the autocorrelation difference calculation unit 4 calculates the similarity value 38 of the comparison target pixel 35 in the overlapping range. Can be omitted. If the calculation for calculating the similarity value 38 with the comparison target pixel 35 in the overlapping range is omitted, the amount of calculation performed by the image processing apparatus 1 is reduced, so that the image processing apparatus 1 has time to obtain the calculation result. It can be shortened.

次に、自己相関差計算部4が行う類似値38の算出方法について説明する。図5は類似値38の算出方法のフローチャートである。自己相関差計算部4は画像データ10内の演算対象画素33毎に以下の手順で類似値38を算出するための演算を行う。自己相関差計算部4は演算対象画素33の座標(x,y)を特定する(S01)。図4の演算対象画素33の座標を(x,y)とする。”x”は画像データ10内の演算対象画素33の横方向14の座標の値である。”y”は画像データ10内の演算対象画素33の縦方向13の座標の値である。演算対象画素33の座標(x,y)の周囲の領域が演算領域32となる。また、演算領域32内の各画素11を(x+i,y+j)とする。”i”は演算対象画素33の座標(x,y)の周囲の領域内の画素11の横方向14の座標を特定する変数である。”j”は演算対象画素33の座標(x,y)の周囲の領域内の画素11の縦方向13の座標を特定する変数である。   Next, a method of calculating the similarity value 38 performed by the autocorrelation difference calculation unit 4 will be described. FIG. 5 is a flowchart of a method for calculating the similarity value 38. The autocorrelation difference calculation unit 4 performs a calculation for calculating the similarity value 38 for each calculation target pixel 33 in the image data 10 according to the following procedure. The autocorrelation difference calculation unit 4 specifies the coordinates (x, y) of the calculation target pixel 33 (S01). The coordinates of the calculation target pixel 33 in FIG. 4 are (x, y). “X” is a coordinate value in the horizontal direction 14 of the calculation target pixel 33 in the image data 10. “Y” is the value of the coordinate in the vertical direction 13 of the calculation target pixel 33 in the image data 10. The area around the coordinates (x, y) of the calculation target pixel 33 is the calculation area 32. Further, each pixel 11 in the calculation area 32 is assumed to be (x + i, y + j). “I” is a variable that specifies the coordinate in the horizontal direction 14 of the pixel 11 in the area around the coordinate (x, y) of the calculation target pixel 33. “J” is a variable that specifies the coordinate in the vertical direction 13 of the pixel 11 in the region around the coordinate (x, y) of the calculation target pixel 33.

自己相関差計算部4は探索範囲31を特定する(S02)。探索範囲31は予め設定された大きさの値であり、演算対象画素33の座標(x,y)を中心に設定される。   The autocorrelation difference calculation unit 4 specifies the search range 31 (S02). The search range 31 is a value having a preset size, and is set around the coordinates (x, y) of the calculation target pixel 33.

自己相関差計算部4は探索範囲31の中の比較対象画素35の座標(x+u,y+v)を特定する(S03)。”u”は探索範囲31内の横方向14の座標を特定するための変数である。”v”は探索範囲31内の縦方向13の座標を特定するための変数である。比較対象画素35の周囲の領域が比較領域34となる。また比較領域34内の各画素を(x+u+i,y+v+j)とする。”i”は比較対象画素(x+u,y+v)の周囲の領域内の画素11の横方向14の座標を特定するための変数である。”j”は比較対象画素(x+u,y+v)の周囲の領域内の画素11の縦方向13の座標を特定するための変数である。   The autocorrelation difference calculation unit 4 specifies the coordinates (x + u, y + v) of the comparison target pixel 35 in the search range 31 (S03). “U” is a variable for specifying the coordinate in the horizontal direction 14 within the search range 31. “V” is a variable for specifying the coordinate in the vertical direction 13 within the search range 31. A region around the comparison target pixel 35 is a comparison region 34. Further, each pixel in the comparison area 34 is assumed to be (x + u + i, y + v + j). “I” is a variable for specifying the coordinate in the horizontal direction 14 of the pixel 11 in the region around the comparison target pixel (x + u, y + v). “J” is a variable for specifying the coordinate in the vertical direction 13 of the pixel 11 in the area around the comparison target pixel (x + u, y + v).

次に自己相関差計算部4は演算領域32と比較領域34との間で類似値38を算出する。類似値38を算出する演算は、演算対象画素33の周囲の領域内の各画素11の座標を示す(x+i,y+j)の”i”、”j”と比較対象画素35の周囲の領域内の各画素11の座標を示す(x+u+i,y+v+j)の”i”、”j”の値を変化させてそれぞれの座標に対応する画素毎に比較することにより行う(S04)。   Next, the autocorrelation difference calculation unit 4 calculates a similarity value 38 between the calculation area 32 and the comparison area 34. The calculation for calculating the similarity value 38 is performed by “i” and “j” of (x + i, y + j) indicating the coordinates of each pixel 11 in the area around the calculation target pixel 33 and in the area around the comparison target pixel 35. This is done by changing the values of “i” and “j” of (x + u + i, y + v + j) indicating the coordinates of each pixel 11 and comparing each pixel corresponding to each coordinate (S04).

例えば、自己相関差計算部4は以下の方法により演算領域32と比較領域34との間の類似値38を算出する。1.演算領域32の画素の輝度と比較領域34の画素の輝度との差分の絶対値の総和から算出する方法SAD(Sum Of Absolute Difference)、2.演算領域32の画素の輝度と比較領域34の画素の輝度と差分の二乗の総和から算出する方法SSD(Sum Of Square Difference)、および3.正規化により算出する方法NCOR(Normalized Correlation)によって算出する。以上の方法によって自己相関差計算部4は演算領域32と比較領域34との間の各画素間の輝度の差分を求め、輝度の差分の総和から比較領域34全体としての類似度38を算出する。   For example, the autocorrelation difference calculation unit 4 calculates the similarity value 38 between the calculation area 32 and the comparison area 34 by the following method. 1. 1. Method SAD (Sum Of Absolute Difference) for calculating from the sum of absolute values of differences between the luminance of the pixels in the calculation area 32 and the luminance of the pixels in the comparison area 34; 2. a method SSD (Sum Of Square Difference) for calculating from the sum of the square of the luminance of the pixel in the calculation area 32 and the luminance of the pixel in the comparison area 34, and 3. The calculation is performed by normalizing correlation (NCOR). By the above method, the autocorrelation difference calculation unit 4 calculates the luminance difference between the pixels between the calculation region 32 and the comparison region 34, and calculates the similarity 38 as the entire comparison region 34 from the sum of the luminance differences. .

自己相関差計算部4は、SADにより類似値38を算出する場合は以下の演算を行う。演算領域32内の各座標(x+i,y+j)の画素11の輝度P1(x+i,y+j)を取得する。次に、比較領域34内の座標(x+u+i,y+v+j)の画素11の輝度P2(x+u+i,y+v+j)を取得する。次に、輝度P1(x+i,y+j)と輝度P2(x+u+i,y+v+j)とで輝度の差の絶対値を演算する。演算領域32内の全ての画素11と比較領域34の全ての画素11との間でそれぞれ演算した輝度の差の絶対値の総和を算出する。自己相関差計算部4は算出した値を比較対象画素35に対応する類似値38とする。輝度の差分の絶対値の総和を算出する演算式は式(1)となる。なお、”t”は現在取得した画像データ10が対象であることを示す。   The autocorrelation difference calculation unit 4 performs the following calculation when calculating the similarity value 38 by SAD. The brightness P1 (x + i, y + j) of the pixel 11 at each coordinate (x + i, y + j) in the calculation area 32 is acquired. Next, the brightness P2 (x + u + i, y + v + j) of the pixel 11 at the coordinates (x + u + i, y + v + j) in the comparison area 34 is acquired. Next, the absolute value of the difference in luminance is calculated between the luminance P1 (x + i, y + j) and the luminance P2 (x + u + i, y + v + j). The sum of absolute values of the differences in luminance calculated between all the pixels 11 in the calculation area 32 and all the pixels 11 in the comparison area 34 is calculated. The autocorrelation difference calculation unit 4 sets the calculated value as a similarity value 38 corresponding to the comparison target pixel 35. An arithmetic expression for calculating the sum of absolute values of luminance differences is Expression (1). Note that “t” indicates that the currently acquired image data 10 is a target.

Figure 0004743277
Figure 0004743277

自己相関差計算部4は、SSDにより類似値38を算出する場合は以下の演算を行う。   The autocorrelation difference calculation unit 4 performs the following calculation when calculating the similarity value 38 by SSD.

自己相関差計算部4は輝度P1(x+i,y+j)と輝度P2(x+u+i,y+v+j)との間においての輝度の差分の2乗を演算する。自己相関差計算部4は演算領域32の全ての画素と比較領域34の全ての画素との間でそれぞれ演算した輝度の差分の2乗の総和を算出する。自己相関差計算部4は算出した値を比較対象画素35に対応する類似値38とする。輝度の差の2乗の総和を算出する演算式は式(2)となる。なお、”t”は現在取得した画像データ10が対象であることを示す。   The autocorrelation difference calculation unit 4 calculates the square of the luminance difference between the luminance P1 (x + i, y + j) and the luminance P2 (x + u + i, y + v + j). The autocorrelation difference calculation unit 4 calculates the sum of squares of the differences in luminance calculated between all the pixels in the calculation region 32 and all the pixels in the comparison region 34. The autocorrelation difference calculation unit 4 sets the calculated value as a similarity value 38 corresponding to the comparison target pixel 35. An arithmetic expression for calculating the sum of the squares of the luminance differences is Expression (2). Note that “t” indicates that the currently acquired image data 10 is a target.

Figure 0004743277
Figure 0004743277

自己相関差計算部4は、NCORにより類似値38を算出する場合は式(3)の演算を行う。”t”は現在取得した画像であることを示す。なお、”t”は現在取得した画像データ10が対象であることを示す。   The autocorrelation difference calculation unit 4 performs the calculation of Expression (3) when calculating the similarity value 38 by NCOR. “T” indicates that the image is currently acquired. Note that “t” indicates that the currently acquired image data 10 is a target.

Figure 0004743277
Figure 0004743277

自己相関差計算部4は、比較領域34と演算領域32との間の全ての画素について輝度の差分を算出するまで処理を繰り返す(S05:no)。自己相関差計算部4は輝度の差分の総和を算出すると(S05:yes)、類似値38(第一の領域と第二の領域とから算出した類似値)として比較対象画素35に対応づけて格納する(S06)。   The autocorrelation difference calculation unit 4 repeats the process until the luminance difference is calculated for all the pixels between the comparison area 34 and the calculation area 32 (S05: no). When the autocorrelation difference calculation unit 4 calculates the sum of the luminance differences (S05: yes), it is associated with the comparison target pixel 35 as a similarity value 38 (similar value calculated from the first region and the second region). Store (S06).

自己相関差計算部4は、探索範囲31内の全ての比較対象画素35と演算対象画素33との間の類似値38を算出するまで処理を繰り返す(S07:no)。自己相関差計算部4は探索範囲31内の全ての比較対象画素35について類似値38の算出をした場合は(S07:yes)、演算対象画素33に探索範囲31内の各比較対象画素35が有する類似値38の差分39中で特徴を示す類似値38の差分39(第一の領域の特徴を示す類似値)を対応付ける(S08)。特徴を示す類似値38の差分39とは、演算領域32の画像が角を含む場合に大きな値となり、演算領域32の画像が直線、及び、アスファルト面のような変化が少ない場合に少ない値となる。S08で対応付けられた類似値38の差分39は後述する車両検出処理に使用される。   The autocorrelation difference calculation unit 4 repeats the process until the similarity value 38 between all the comparison target pixels 35 and the calculation target pixel 33 in the search range 31 is calculated (S07: no). When the autocorrelation difference calculation unit 4 calculates the similarity value 38 for all the comparison target pixels 35 in the search range 31 (S07: yes), each comparison target pixel 35 in the search range 31 is included in the calculation target pixel 33. The difference 39 of the similarity value 38 indicating the feature (the similarity value indicating the feature of the first area) is associated with the difference 39 of the similarity value 38 that is included (S08). The difference 39 of the similarity value 38 indicating the feature is a large value when the image of the calculation area 32 includes a corner, and is a small value when the image of the calculation area 32 has little change such as a straight line or an asphalt surface. Become. The difference 39 of the similarity values 38 associated in S08 is used for a vehicle detection process described later.

ここで、S08において自己相関差計算部4が演算対象画素33に対応付ける類似値38の差分39の検出方法について説明する。自己相関差計算部4は演算対象画素33に対応付ける類似値38の差分39を以下の手順で演算する。   Here, a method of detecting the difference 39 of the similarity values 38 that the autocorrelation difference calculation unit 4 associates with the calculation target pixel 33 in S08 will be described. The autocorrelation difference calculation unit 4 calculates the difference 39 of the similarity values 38 associated with the calculation target pixel 33 in the following procedure.

自己相関差計算部4が探索範囲31内で演算する比較対象画素35には演算対象画素33自身も含まれる。演算対象画素33自身の間で算出された類似値38は探索範囲31内の比較対象画素35に対応する類似値38の中で最も類似することを示す値となる。したがって、演算対象画素33自身との間で算出した類似値38は除く必要がある。   The comparison target pixel 35 calculated by the autocorrelation difference calculation unit 4 within the search range 31 includes the calculation target pixel 33 itself. The similarity value 38 calculated between the calculation target pixels 33 itself is a value indicating the most similarity among the similar values 38 corresponding to the comparison target pixels 35 in the search range 31. Therefore, it is necessary to exclude the similarity value 38 calculated between the calculation target pixel 33 itself.

SADおよびSSDによって算出した場合は、演算対象画素33自身との間は同一であり、最も類似することを示す類似値38は”0”となる。SAD、SSDによって算出した場合でかつ演算対象画素33自身が比較対象画素35に含まれる場合は、自己相関差計算部4は探索範囲31中の第二位の類似値38を有する比較対象画素35を検出する。例えば、自己相関差計算部4は演算対象画素33自身との間の類似値38を除く処理をし、探索範囲31内の各比較対象画素35に対応して格納された類似値38の中で最小値となる類似値38を取得する。自己相関差計算部4は取得した値を演算対象画素33に対応付ける類似値38の差分39とする。SADから求める演算を式(4)に示す。SSDから求める演算を式(5)に示す。なお、”t”は現在取得した画像データ10が対象であることを示す。   When calculated by SAD and SSD, the calculation target pixel 33 itself is the same, and the similarity value 38 indicating the most similarity is “0”. When the calculation target pixel 33 itself is included in the comparison target pixel 35 when calculated by SAD or SSD, the autocorrelation difference calculation unit 4 has the second highest similarity value 38 in the search range 31. Is detected. For example, the autocorrelation difference calculation unit 4 performs a process of removing the similarity value 38 between the calculation target pixel 33 itself, and among the similar values 38 stored corresponding to each comparison target pixel 35 in the search range 31. The similarity value 38 that is the minimum value is acquired. The autocorrelation difference calculation unit 4 sets the acquired value as the difference 39 of the similarity value 38 that is associated with the calculation target pixel 33. The calculation obtained from SAD is shown in Equation (4). The calculation obtained from the SSD is shown in Expression (5). Note that “t” indicates that the currently acquired image data 10 is a target.

Figure 0004743277
Figure 0004743277

Figure 0004743277
Figure 0004743277

NCORの場合は、演算対象画素33自身との間は同一であり、類似値38は”1”となる。NCORの場合でかつ演算対象画素33自身が比較対象画素35に含まれる場合は、自己相関差計算部4は探索範囲31中の第二位の類似値38を有する比較対象画素35を検出する。例えば、演算対象画素33自身との間の類似値38を除く処理をし、探索範囲31内の各比較対象画素35に対応して格納された類似値38の中で最大値となる類似値38を取得する。その後、自己相関差計算部4は”1”から第二位の類似値38を引いた値を演算対象画素33に対応付ける類似値38の差分39とする。NCORから求める演算を式(6)に示す。なお、”t”は現在取得した画像データ10が対象であることを示す。   In the case of NCOR, the calculation target pixel 33 itself is the same, and the similarity value 38 is “1”. In the case of NCOR and when the calculation target pixel 33 itself is included in the comparison target pixel 35, the autocorrelation difference calculation unit 4 detects the comparison target pixel 35 having the second-like similarity value 38 in the search range 31. For example, the similar value 38 that is the maximum value among the similar values 38 stored corresponding to each comparison target pixel 35 in the search range 31 is obtained by performing the process of removing the similar value 38 between the calculation target pixel 33 itself. To get. Thereafter, the autocorrelation difference calculation unit 4 sets a value 39 obtained by subtracting the second-like similarity value 38 from “1” as the difference 39 of the similarity value 38 that is associated with the calculation target pixel 33. The calculation obtained from NCOR is shown in Equation (6). Note that “t” indicates that the currently acquired image data 10 is a target.

Figure 0004743277
Figure 0004743277

次に第二位の類似値38の差分39の特徴を説明する。自己相関差計算部4が算出した類似値38の差分39は演算領域32に角がある場合に大きくなる特徴がある。車両16は正面から見ると多くの角を有する。例えば、車両16に取付けられたフロントガラスの両側の枠部分、車両16のフェンダーミラー部分、車両16の正面のフロントグリル部分、車両16の正面のナンバープレート部分等である。これらの車両16の部分は角として画像データ10に写っており、算出される類似値38は他の角以外が写る領域の類似値38と比較して大きい値となる。類似値38が大きくなるのは、演算領域32と比較領域34とが同一形状の角を有する場合が少ないこと、演算領域32と比較領域34との間で輝度が異なる画素数が多いためである。   Next, the feature of the difference 39 of the second-like similarity value 38 will be described. The difference 39 of the similarity values 38 calculated by the autocorrelation difference calculation unit 4 has a feature that increases when the calculation area 32 has a corner. The vehicle 16 has many corners when viewed from the front. For example, a frame portion on both sides of a windshield attached to the vehicle 16, a fender mirror portion of the vehicle 16, a front grill portion on the front of the vehicle 16, a license plate portion on the front of the vehicle 16, and the like. These parts of the vehicle 16 are shown as corners in the image data 10, and the calculated similarity value 38 is a larger value than the similarity value 38 of a region where other corners are shown. The reason why the similarity value 38 is large is that the calculation area 32 and the comparison area 34 have few corners having the same shape, and that the number of pixels having different luminance between the calculation area 32 and the comparison area 34 is large. .

一方、演算領域32に角がない場合、自己相関差計算部4が算出した類似値38の差分39は小さくなる特徴がある。角がない場合とは、例えば、車両16の屋根部分のような直線のエッジ部分を領域とする場合や、アスファルトのような領域内が同系色で構成される場合である。   On the other hand, when the calculation area 32 has no corner, there is a feature that the difference 39 of the similarity value 38 calculated by the autocorrelation difference calculation unit 4 becomes small. The case where there is no corner is, for example, a case where a straight edge portion such as a roof portion of the vehicle 16 is used as a region, or a case where the inside of a region such as asphalt is configured with similar colors.

自己相関差計算部4は、以上の手順による演算対象画素33に対する類似値38の差分39を取得する演算処理を画像データ10内の全ての画素11を演算対象画素33として行う(S09)。自己相関差計算部4は、画像データ10内の全ての演算対象画素33に類似値38の差分39が対応付けられていない場合(S09:no)、演算対象画素33を画像データ10内の次の画素11に移動して同様に類似値38の差分39を算出する。一方、自己相関差計算部4は、画像データ10内の全ての演算対象画素33に類似値38の差分39が対応付けられた場合(S09:yes)、画像データ10内の各演算対象画素33に対応付けられた類似値38の差分39による分布図50を作成する(S10)。   The autocorrelation difference calculation unit 4 performs a calculation process of acquiring the difference 39 of the similarity value 38 with respect to the calculation target pixel 33 according to the above procedure as the calculation target pixel 33 for all the pixels 11 in the image data 10 (S09). When the difference 39 of the similarity value 38 is not associated with all the calculation target pixels 33 in the image data 10 (S09: no), the autocorrelation difference calculation unit 4 sets the calculation target pixel 33 to the next in the image data 10. Similarly, the difference 39 between the similar values 38 is calculated. On the other hand, when the difference 39 of the similarity value 38 is associated with all the calculation target pixels 33 in the image data 10 (S09: yes), the autocorrelation difference calculation unit 4 sets each calculation target pixel 33 in the image data 10. A distribution map 50 based on the difference 39 of the similarity value 38 associated with is created (S10).

ここで画像データ10内の路上マークについて説明する。分布図50は類似値38の差分39によって構成される。分布図50の類似値38の差分39の値が大きい画素11は、画像データ10内の角が写る領域に多く分布する。しかし、類似値38の差分39は路上マークの角が写る領域でも値が大きくなる。したがって、このような路上マークは誤検出の原因となる。そこで画像メモリ3に格納された画像データ10から背景の余分な部分の削除を行う。背景の余分な部分とは例えば路上マークである。路上マークとは、横断歩道、道路の中央線、歩道との境界を示す線である。本実施例では、画像データ10内の横断歩道に関する情報を削除する処理を行う。また、本実施例では横断歩道が画像データ10内において横方向14と平行に描かれているものとする。また、路上マークの削除の処理は画像データ10を取得する度に行う。事前に路上マークの領域を削除する処理の場合、路上マーク上に車両16がある場合も路上マークの領域を削除することとなり、路上マーク上の車両16を検出できない場合があるためである。   Here, the road mark in the image data 10 will be described. The distribution map 50 is constituted by the difference 39 of the similarity value 38. The pixels 11 having a large difference 39 of the similarity values 38 in the distribution map 50 are distributed in a large area in the image data 10 where the corner is reflected. However, the difference 39 of the similarity value 38 has a large value even in an area where the corner of the road mark is shown. Therefore, such a road mark causes erroneous detection. Therefore, the excess portion of the background is deleted from the image data 10 stored in the image memory 3. The extra portion of the background is, for example, a road mark. A road mark is a line indicating a boundary between a pedestrian crossing, a center line of a road, and a sidewalk. In this embodiment, processing for deleting information related to a pedestrian crossing in the image data 10 is performed. In this embodiment, it is assumed that a pedestrian crossing is drawn in parallel with the horizontal direction 14 in the image data 10. The road mark deletion process is performed every time the image data 10 is acquired. This is because in the process of deleting the road mark area in advance, the road mark area is deleted even when the vehicle 16 is on the road mark, and the vehicle 16 on the road mark may not be detected.

図6は横断歩道41の例である。図6(A)、(B)および(C)の横断歩道41は車道15上に白色で縞模様42が描かれた領域である。路上マーク削除部5は画像データ10から横断歩道41の領域を以下の手順によって検出する。路上マーク削除部5が検出した横断歩道41の領域は車両16の検出の処理時に演算から除外する。図7は路上マーク削除部5が実行する画像データ10から横断歩道41領域を除外する処理のフローチャートである。   FIG. 6 is an example of a pedestrian crossing 41. 6A, 6B, and 6C is an area in which a striped pattern 42 is drawn in white on the roadway 15. The road mark deletion unit 5 detects the area of the pedestrian crossing 41 from the image data 10 according to the following procedure. The area of the pedestrian crossing 41 detected by the road mark deletion unit 5 is excluded from the calculation when the vehicle 16 is detected. FIG. 7 is a flowchart of processing for excluding the pedestrian crossing 41 area from the image data 10 executed by the road mark deleting unit 5.

まず、路上マーク削除部5は画像データ10内で消失点12を向く線分に沿うエッジ47を消去する(S21)。次に、路上マーク削除部5は画像データ10内に周期的に存在する横方向14のエッジ48を消去する(S22)。横断歩道41の縞模様42は画像データ10内の横方向14に存在するためである。次に、路上マーク削除部5は横断歩道41に合致する横方向14の周期長の繰り返しパターンを検出する(S23)。横断歩道41の縞模様42の幅49は規定されている。したがって、路上マーク削除部5は画像データ10内の縦方向13の座標に応じた横方向14の縞模様42の幅49を事前に記憶しておくことができる。   First, the road mark deleting unit 5 deletes the edge 47 along the line segment facing the vanishing point 12 in the image data 10 (S21). Next, the road mark deleting unit 5 deletes the edge 48 in the horizontal direction 14 periodically present in the image data 10 (S22). This is because the stripe pattern 42 of the pedestrian crossing 41 exists in the horizontal direction 14 in the image data 10. Next, the road mark deletion unit 5 detects a repeating pattern having a period length in the horizontal direction 14 that matches the pedestrian crossing 41 (S23). The width 49 of the stripe pattern 42 of the pedestrian crossing 41 is defined. Therefore, the road mark deleting unit 5 can store in advance the width 49 of the striped pattern 42 in the horizontal direction 14 according to the coordinates in the vertical direction 13 in the image data 10.

Ap(x,y)は、現在の演算の対象とする座標43(x,y)の輝度P3(x、y)と現在の演算の対象とする座標43(x,y)から所定量Lだけ横方向14に移動した座標44(x+L,y)の輝度P4(x+L、y)との間の輝度の平均値である。所定量Lは、画像データ10内の縦方向13の座標”y”に応じた横断歩道41の縞模様42の横方向14の幅である。Ap(x,y)はP3とP4の輝度の平均値であるため横断歩道の白色部分の時に大きくなる。路上マーク削除部5はApを式(7)から求める。   Ap (x, y) is a predetermined amount L from the luminance P3 (x, y) of the coordinate 43 (x, y) that is the target of the current calculation and the coordinate 43 (x, y) that is the target of the current calculation. It is an average value of luminance between the coordinates 44 (x + L, y) moved in the horizontal direction 14 and the luminance P4 (x + L, y). The predetermined amount L is the width in the horizontal direction 14 of the striped pattern 42 of the pedestrian crossing 41 according to the coordinate “y” in the vertical direction 13 in the image data 10. Ap (x, y) is an average value of the luminances of P3 and P4, and thus increases when the white portion of the pedestrian crossing. The road mark deletion unit 5 calculates Ap from the equation (7).

Figure 0004743277
Figure 0004743277

Am(x,y)は、現在の演算の対象とする座標43(x,y)に対して所定量(−L/2)だけ横方向14に移動した座標45(x−L/2,y)の輝度P5(x−L/2、y)と現在の演算の対象とする座標43(x,y)に対して所定量(L/2)だけ横方向14に移動した座標46(x+L/2,y)の輝度P6(x+L/2、y)との間の輝度の平均値である。輝度の平均値は横断歩道の白色部分の時に大きくなる。路上マーク削除部5はAmを式(8)から求める。   Am (x, y) is a coordinate 45 (x−L / 2, y) moved in the lateral direction 14 by a predetermined amount (−L / 2) with respect to the coordinate 43 (x, y) that is the object of the current calculation. ) With a luminance P5 (x−L / 2, y) and a coordinate 46 (x + L /) that is moved in the lateral direction 14 by a predetermined amount (L / 2) with respect to the coordinate 43 (x, y) that is the object of the current calculation. 2, y) is the average value of the luminance between the luminance P6 (x + L / 2, y). The average value of luminance increases when the white part of the pedestrian crossing. The road mark deletion unit 5 calculates Am from the equation (8).

Figure 0004743277
Figure 0004743277

ApとAmとの関係は、P5およびP6がP3およびP4に対して”L/2”だけ横方向14ずらした座標のため輝度が反転する関係となる。輝度が反転する関係とは、P3,P4が横断歩道41の縞模様42の白く塗られた部分に位置する場合、P5,P6は横断歩道41の縞模様42のアスファルト部分に位置する関係である。すなわち、Ap(x、y)が極大値の時にAm(x、y)は極小値となり、Ap(x、y)が極小値の時にAm(x、y)は極大値となる関係である。   The relationship between Ap and Am is a relationship in which the luminance is inverted because P5 and P6 are coordinates shifted by “L / 2” by 14 in the horizontal direction with respect to P3 and P4. The relationship in which the luminance is inverted is a relationship in which P5 and P6 are located in the asphalt portion of the striped pattern 42 of the pedestrian crossing 41 when P3 and P4 are positioned in the white painted portion of the striped pattern 42 of the pedestrian crossing 41. . That is, Am (x, y) has a minimum value when Ap (x, y) has a maximum value, and Am (x, y) has a maximum value when Ap (x, y) has a minimum value.

Cp(x、y)は、輝度P3(x、y)と輝度P4(x+L、y)との差分絶対値である。したがって、P3とP4とが同じ状態の時に小さい値となる。例えば、横断歩道41の縞模様42の白く塗られた部分にP3,P4がそれぞれ位置する場合、あるいは横断歩道41の縞模様42のアスファルト部分にP3,P4がそれぞれ位置する場合である。路上マーク削除部5はCpを式(9)から求める。   Cp (x, y) is a difference absolute value between the luminance P3 (x, y) and the luminance P4 (x + L, y). Therefore, it becomes a small value when P3 and P4 are in the same state. For example, this is the case where P3 and P4 are located in white portions of the stripe pattern 42 of the pedestrian crossing 41, or P3 and P4 are located in the asphalt portion of the stripe pattern 42 of the pedestrian crossing 41, respectively. The road mark deletion unit 5 calculates Cp from the equation (9).

Figure 0004743277
Figure 0004743277

Cm(x、y)は、輝度P5(x−L/2,y)と輝度P6(x+L/2,y)との差分絶対値である。したがって、P5とP6とが同じ状態の時に小さい値となる。例えば、横断歩道41の縞模様42の白く塗られた部分にP5,P6がそれぞれ位置する場合である、あるいは横断歩道の縞模様42のアスファルト部分にP5,P6がそれぞれ位置する場合である。路上マーク削除部5はCmを式(10)から求める。   Cm (x, y) is an absolute difference between the luminance P5 (x−L / 2, y) and the luminance P6 (x + L / 2, y). Therefore, the value is small when P5 and P6 are in the same state. For example, this is the case where P5 and P6 are located in white portions of the stripe pattern 42 of the pedestrian crossing 41, or where P5 and P6 are located in the asphalt portion of the stripe pattern 42 of the pedestrian crossing 41, respectively. The road mark deletion unit 5 calculates Cm from the equation (10).

Figure 0004743277
Figure 0004743277

以上の算出したAp、Am、Cp、Cmに基づき、路上マーク削除部5は横断歩道41の特徴点Ecwを式(11)から算出する。   Based on the calculated Ap, Am, Cp, and Cm, the road mark deletion unit 5 calculates the feature point Ecw of the pedestrian crossing 41 from the equation (11).

Figure 0004743277
Figure 0004743277

EcwはApとAmが反転する関係にあるときに大きい値となる。また、Ecwは差分絶対値CpおよびCmが小さい場合に大きい値となる。したがって、横断歩道41の領域では高い特徴点を示すこととなる。   Ecw takes a large value when Ap and Am are in a reversed relationship. Further, Ecw becomes a large value when the absolute difference values Cp and Cm are small. Therefore, a high feature point is shown in the area of the pedestrian crossing 41.

路上マーク削除部5は算出したEcwの値を対応する画素11に対応付ける(S24)。路上マーク削除部5は以上の演算を画像データ10内の画素11毎に行う(S25)。路上マーク削除部5は横断歩道41であると判断した領域について車両16を特定する処理から除外する(S26)。具体的には、路上マーク削除部5が横断歩道41として検出した画素を自己相関差計算部4が作成した分布図50内の画素とを対応付けて、以降の車両16検出処理の対象外とする。なお、自己相関差計算部4は路上マーク削除部5によって横断歩道41が除去された後の画像データ10によって分布図50を作成することも可能である。横断歩道41の領域を除外することにより、画像処理装置1は車両16を特定する処理において車両16の誤検出を低減することができる。路上マーク削除部5は図6(B)の元の画像データ10に対して、図6(C)の削除すべき横断歩道41の領域を取得する。   The road mark deletion unit 5 associates the calculated Ecw value with the corresponding pixel 11 (S24). The road mark deletion unit 5 performs the above calculation for each pixel 11 in the image data 10 (S25). The road mark deletion unit 5 excludes the area determined to be the pedestrian crossing 41 from the process of specifying the vehicle 16 (S26). Specifically, the pixel detected by the road mark deletion unit 5 as the pedestrian crossing 41 is associated with the pixel in the distribution map 50 created by the autocorrelation difference calculation unit 4, and is excluded from the target of subsequent vehicle 16 detection processing. To do. The autocorrelation difference calculation unit 4 can also create the distribution map 50 from the image data 10 after the crosswalk 41 is removed by the road mark deletion unit 5. By excluding the area of the pedestrian crossing 41, the image processing apparatus 1 can reduce erroneous detection of the vehicle 16 in the process of specifying the vehicle 16. The road mark deletion unit 5 acquires the area of the pedestrian crossing 41 to be deleted in FIG. 6C with respect to the original image data 10 in FIG.

次に、画像処理装置1は演算領域32の特徴を示す類似値の分布の状態に応じて定まる形状が予め車両(被写体)の特徴として定めた形状に合致する領域を画像データ内の車両の部分として検出する。画像処理装置1は自己相関差計算部4及び路上マーク削除部5によって作成された分布図50から車両16を検出する。   Next, the image processing apparatus 1 sets a region in which the shape determined according to the distribution state of the similarity value indicating the feature of the calculation region 32 matches the shape previously determined as the feature of the vehicle (subject) as the vehicle portion in the image data. Detect as. The image processing apparatus 1 detects the vehicle 16 from the distribution map 50 created by the autocorrelation difference calculation unit 4 and the road mark deletion unit 5.

まず、車両16と類似値38の差分39(特徴を示す類似値)との関係について説明する。画像処理装置1は、車両16の左右対象の形状を利用して分布図50内の車両を検出する。図8は、元の画像データ10の車両16部分の画像(A)と分布図50の車両16部分の画像(B)とを示す。本実施例で設置されたカメラ2は車両16を正面あるいは背面から撮影することとなる。車両16の正面または背面は左右対象の形状である。   First, the relationship between the vehicle 16 and the difference 39 (similar value indicating characteristics) between the similar values 38 will be described. The image processing apparatus 1 detects the vehicle in the distribution map 50 using the shape of the left and right objects of the vehicle 16. FIG. 8 shows an image (A) of the vehicle 16 portion of the original image data 10 and an image (B) of the vehicle 16 portion of the distribution map 50. The camera 2 installed in the present embodiment photographs the vehicle 16 from the front or the back. The front or back of the vehicle 16 has a right / left target shape.

車両16の左右に位置する画素群51の類似値38の差分39は大きくなる。車両16の左右の側面には角となる部分が多いためである。車両16のフロント部分に位置する画素群の類似値38の差分39は大きくなる。車両16のフロント部分も角となる部分が多いためである。なお、フロント部分も車両16の中心から左右対称となる。車両16の左右の側面の外側に位置する画素群52の類似値38の差分39は小さくなる。車両16の外側はアスファルトであるため類似値38の差分39は小さくなるためである。車両16のフロント部分の更に手前、すなわち車両16の前方に位置する画素群53に対応する類似値38の差分39は小さくなる。車両16の外側はアスファルトであるため類似値38は小さくなるためである。車両16のフロント部分に位置する画素群の類似値は小さい値が分布する。なお、手前方向に向く車両16のフロント部分の前方は、二次元の画像データ10では車両16よりも下の縦方向13の座標となる。   The difference 39 between the similarity values 38 of the pixel groups 51 located on the left and right of the vehicle 16 is increased. This is because there are many corners on the left and right side surfaces of the vehicle 16. The difference 39 between the similarity values 38 of the pixel groups located in the front portion of the vehicle 16 becomes large. This is because the front portion of the vehicle 16 has many corner portions. The front part is also symmetrical from the center of the vehicle 16. The difference 39 between the similarity values 38 of the pixel group 52 located outside the left and right side surfaces of the vehicle 16 is reduced. This is because the difference 39 of the similarity value 38 is small because the outside of the vehicle 16 is asphalt. The difference 39 of the similarity value 38 corresponding to the pixel group 53 located in front of the front portion of the vehicle 16, that is, in front of the vehicle 16 becomes small. This is because the similarity value 38 is small because the outside of the vehicle 16 is asphalt. Small values are distributed among the similar values of the pixel group located in the front portion of the vehicle 16. It should be noted that the front of the front portion of the vehicle 16 facing forward is the coordinate in the vertical direction 13 below the vehicle 16 in the two-dimensional image data 10.

以上の車両16の左右に位置する画素群51、車両16の左右の側面の外側に位置する画素群52および車両16の前方に位置する画素群53の分布図50内の状態に基づき、予め車両の特徴となるパターンを定義する。本実施例での車両16の特徴となるパターンは以下の条件によって定義する。
・条件1.車両16の左右に類似値38の差分39が大きい画素群51が分布する。
・条件2.車両16の両側面の更に外側となる領域に類似値38の差分39が小さい画素群52が分布する。
・条件3.車両16の下側には類似値38の差分39が小さい画素群53が分布する。
Based on the state in the distribution map 50 of the pixel group 51 located on the left and right of the vehicle 16, the pixel group 52 located outside the left and right side surfaces of the vehicle 16, and the pixel group 53 located in front of the vehicle 16, the vehicle Define the pattern that is characteristic of. The pattern that is a feature of the vehicle 16 in this embodiment is defined by the following conditions.
・ Condition 1 A pixel group 51 having a large difference 39 of the similarity values 38 is distributed on the left and right of the vehicle 16.
・ Condition 2 A pixel group 52 having a small difference 39 of the similarity values 38 is distributed in a region further outside both sides of the vehicle 16.
-Condition 3. A pixel group 53 having a small difference 39 of the similarity values 38 is distributed below the vehicle 16.

画像処理装置1のパターン特徴量計算部6は以上の条件を満たす領域を分布図50から検出する。   The pattern feature quantity calculation unit 6 of the image processing apparatus 1 detects a region satisfying the above conditions from the distribution map 50.

図9はパターン特徴量計算部6が実行する分布図10から車両16が存在する領域を検出する処理のフローチャートである。パターン特徴量計算部6は図8の分布図50の各画素54について以下の計算を行う。まず、パターン特徴量計算部6は分布図50の中の現在の演算の対象となる画素54を検出対象画素55として設定する(S31)。パターン特徴量計算部6は検出対象画素55を基準位置として特徴量を算出する(S32)。具体的には、パターン特徴量計算部6は類似値38の差分39の分布の状態を下記の式(12)乃至式(16)の結果から取得する。なお、”t”は現在取得した画像データ10が対象であることを示す。   FIG. 9 is a flowchart of processing for detecting an area where the vehicle 16 exists from the distribution chart 10 executed by the pattern feature quantity calculation unit 6. The pattern feature quantity calculation unit 6 performs the following calculation for each pixel 54 in the distribution diagram 50 of FIG. First, the pattern feature quantity calculation unit 6 sets a pixel 54 as a current calculation target in the distribution map 50 as a detection target pixel 55 (S31). The pattern feature quantity calculator 6 calculates the feature quantity using the detection target pixel 55 as the reference position (S32). Specifically, the pattern feature quantity calculation unit 6 acquires the distribution state of the difference 39 of the similarity value 38 from the results of the following formulas (12) to (16). Note that “t” indicates that the currently acquired image data 10 is a target.

Figure 0004743277
Figure 0004743277

Figure 0004743277
Figure 0004743277

式(12)によって求められるEleft56は検出対象画素55を基準の座標として”k1”,”l1”で定められる領域内の画素54の類似値38の差分39の総和である。式(13)によって求められるEright57は検出対象画素55を基準位置として”k2”,”l2”で定められる領域内の画素54の類似値38の差分39の総和である。Eleft56、Eright57は車両16の中央から左右の側面部分までの範囲に対応する。車両16の側面部分およびフロント部分は角部分が多く類似値38の差分39が大きい値が多く分布する。なお、”t”は現在取得した画像データ10が対象であることを示す。   The Elft 56 obtained by the equation (12) is the sum of the differences 39 of the similarity values 38 of the pixels 54 in the region defined by “k1” and “l1” with the detection target pixel 55 as a reference coordinate. Eight 57 obtained by the equation (13) is the sum of the differences 39 of the similarity values 38 of the pixels 54 in the region defined by “k2” and “l2” with the detection target pixel 55 as a reference position. Eleft 56 and Eight 57 correspond to the range from the center of the vehicle 16 to the left and right side portions. The side portion and the front portion of the vehicle 16 have many corner portions and many values having a large difference 39 between the similar values 38 are distributed. Note that “t” indicates that the currently acquired image data 10 is a target.

Figure 0004743277
Figure 0004743277

Figure 0004743277
Figure 0004743277

式(14)によって求められるEside58は検出対象画素55を基準位置として分布図50の左側の”k3”,”l3”で定められる領域内の画素54の類似値38の差分39の総和である。Eside58は車両16の側面よりも更に外側に対応する。車両16の側面よりも更に外側となる領域はアスファルトであり類似値38の差分39が小さい値が多く分布する。   Eside 58 obtained by Expression (14) is the sum of the differences 39 of the similar values 38 of the pixels 54 in the region defined by “k3” and “l3” on the left side of the distribution map 50 with the detection target pixel 55 as a reference position. Eside 58 corresponds to the outside of the side surface of the vehicle 16. A region further outside the side surface of the vehicle 16 is asphalt, and many values having a small difference 39 of the similarity values 38 are distributed.

式(15)によって求められるEbottom59は検出対象画素55を基準位置として分布図50の下側の”k4”,”l4”で定められる領域内の画素54の類似値38の差分39の総和である。Ebottom59は車両16の下側となる。検出対象画素55の基準位置が車両16のフロント部分の下端である場合、Ebottom59の領域は道路となる。したがって、Ebottom59の値は小さくなる。   Ebottom 59 obtained by equation (15) is the sum of the differences 39 of the similarity values 38 of the pixels 54 in the region defined by “k4” and “l4” on the lower side of the distribution map 50 with the detection target pixel 55 as a reference position. . Ebottom 59 is on the lower side of the vehicle 16. When the reference position of the detection target pixel 55 is the lower end of the front portion of the vehicle 16, the area of the Ebottom 59 is a road. Therefore, the value of Ebottom 59 becomes small.

パターン特徴量計算部6は以上の各式(12)乃至式(15)により算出した値を下記の式(16)に代入して、検出対象画素55に対応する車両16の特徴の大きさを示す値60E(x,y)を得る。なお、”t”は現在取得した画像データ10が対象であることを示す。   The pattern feature quantity calculation unit 6 substitutes the values calculated by the above equations (12) to (15) into the following equation (16), and determines the feature size of the vehicle 16 corresponding to the detection target pixel 55. The indicated value 60E (x, y) is obtained. Note that “t” indicates that the currently acquired image data 10 is a target.

Figure 0004743277
Figure 0004743277

E(x、y)は、Eleft56、Eright57の値が大きい場合に大きくなる。
また、検出対象画素55が車両16の中央であった場合、Eleft56とEright57とは左右対称に位置することとなる。したがって、Eleft56の値とEright57の値は近い値となる。E(x、y)はEleft56、Eright57の左右のバランスがある場合に小さくなる。E(x、y)はEside58の値が小さい場合に小さくなる。E(x、y)はEbottom59の値が小さい場合に小さくなる。なお、Cside、Cbottomの値は、カメラ2が撮影する道路の状態等に応じて設計者が設定する値である。パターン特徴量計算部6は算出したE(x、y)を検出対象画素55に対応付ける(S33)。
E (x, y) increases when the values of Eleft 56 and Eight 57 are large.
In addition, when the detection target pixel 55 is in the center of the vehicle 16, the Elft 56 and the Eight 57 are positioned symmetrically. Therefore, the value of Eleft 56 and the value of Eight 57 are close to each other. E (x, y) becomes small when there is a balance between the left and right of Eleft 56 and Eight 57. E (x, y) becomes smaller when the value of Eside 58 is small. E (x, y) decreases when the value of Ebottom 59 is small. Note that the values of Cside and Cbottom are values set by the designer according to the state of the road taken by the camera 2 and the like. The pattern feature quantity calculation unit 6 associates the calculated E (x, y) with the detection target pixel 55 (S33).

パターン特徴量計算部6は以上の処理を分布図50内の全画素54について演算する(S34)。パターン特徴量計算部6は、演算結果によって、分布図50内で車両16が存在すると考えられる領域の縦方向13の座標、および横方向14の座標を取得することができる。   The pattern feature quantity calculation unit 6 calculates the above processing for all the pixels 54 in the distribution map 50 (S34). The pattern feature quantity calculation unit 6 can acquire the coordinate in the vertical direction 13 and the coordinate in the horizontal direction 14 of an area where the vehicle 16 is considered to exist in the distribution map 50 based on the calculation result.

パターン特徴量計算部6による車両16の検出の演算は自己相関差計算部4が元の画像データ10について演算対象画素33を基準とした類似値38の差分39を取得し、類似値38の差分39によって分布図50を作成するため、画像データ10に写る影等の影響は低減している。   In the calculation of the detection of the vehicle 16 by the pattern feature quantity calculation unit 6, the autocorrelation difference calculation unit 4 obtains the difference 39 of the similarity value 38 based on the calculation target pixel 33 for the original image data 10, and the difference of the similarity value 38. Since the distribution map 50 is created by 39, the influence of shadows and the like in the image data 10 is reduced.

一方、画像処理装置1の対象性特徴量計算部7は分布図50から車両16の左右の中心座標を求める演算を行う。図10は分布図50と車両16の対象性との関係を示す図である。車両16の形状は左右対象である。したがって、類似値38の差分39は車両16の中心から左右に対象に分布する。そこで、対象性特徴量計算部7は車両16の左右対称性を利用した車両16の位置の特定を行う。対象性の評価は以下の手順により行う。   On the other hand, the target characteristic amount calculation unit 7 of the image processing apparatus 1 performs a calculation for obtaining the left and right center coordinates of the vehicle 16 from the distribution map 50. FIG. 10 is a diagram showing the relationship between the distribution map 50 and the object of the vehicle 16. The shape of the vehicle 16 is a right and left object. Therefore, the difference 39 of the similarity value 38 is distributed to the target from the center of the vehicle 16 to the left and right. Therefore, the objectivity feature quantity calculation unit 7 specifies the position of the vehicle 16 using the left-right symmetry of the vehicle 16. Evaluation of objectivity is performed according to the following procedure.

図11は、対象性特徴量計算部7が実行する分布図10から車両16が存在する領域を検出する処理のフローチャートである。   FIG. 11 is a flowchart of a process for detecting a region where the vehicle 16 exists from the distribution chart 10 executed by the symmetric feature quantity calculation unit 7.

対象性特徴量計算部7は現在の演算の対象となる座標として図10の演算中央座標61(x,y)を設定する(S41)。次に対象性特徴量計算部7は演算中央座標61(x,y)の特徴量を算出する(S42)。具体的には、対象性特徴量計算部7は演算中央座標61(x,y)の横方向14の座標”x”を中心として正の横方向14に離れた座標63”+i”および負の横方向14に離れた座標62”−i”だけ離れた座標のそれぞれの輝度を取得する。”i”は対象性を算出すべき範囲で適宜定められる。例えば、”i”の範囲は画像データ10内の縦方向13の座標に対応する車両16の幅の半分の大きさに設定される。対象性特徴量計算部7は演算中央座標61(x,y)から正の横方向14に離れた座標63を”x+i,y”とし、座標63”x+i,y”の輝度をP7(x+i,y)とする。対象性特徴量計算部7は演算中央座標61(x,y)から負の横方向14に離れた座標62を”x−i,y”とし、座標62”x−i,y”の輝度をP8(x−i,y)とする。   The target characteristic amount calculation unit 7 sets the calculation central coordinates 61 (x, y) in FIG. 10 as the coordinates to be the target of the current calculation (S41). Next, the target characteristic amount calculation unit 7 calculates the characteristic amount of the calculation central coordinate 61 (x, y) (S42). More specifically, the symmetric feature quantity calculation unit 7 has coordinates 63 ”+ i” and a negative coordinate that are separated in the positive horizontal direction 14 around the coordinate “x” in the horizontal direction 14 of the calculation central coordinates 61 (x, y). The luminances of the coordinates separated by the coordinates 62 ″ -i ″ separated in the horizontal direction 14 are acquired. “I” is appropriately determined within a range in which the target property is to be calculated. For example, the range of “i” is set to half the width of the vehicle 16 corresponding to the coordinate in the vertical direction 13 in the image data 10. The characteristic feature amount calculation unit 7 sets the coordinate 63 away from the calculation central coordinate 61 (x, y) in the positive lateral direction 14 to “x + i, y”, and sets the luminance of the coordinate 63 “x + i, y” to P7 (x + i, y). y). The characteristic feature amount calculation unit 7 sets the coordinates 62 away from the calculation center coordinates 61 (x, y) in the negative lateral direction 14 as “xi, y”, and sets the luminance of the coordinates 62 “xi, y”. Let P8 (xi, y).

対象性特徴量計算部7は現在の輝度P7と輝度P8との合計値を式(17)のS(i)によって算出する。   The target characteristic feature amount calculation unit 7 calculates the total value of the current luminance P7 and luminance P8 by S (i) in Expression (17).

Figure 0004743277
Figure 0004743277

S(i)は輝度P7および輝度P8のそれぞれの輝度が大きい場合に大きな値となる。なお、”t”は現在取得した画像データ10が対象であることを示す。対象性特徴量計算部7は現在の輝度P7と輝度P8との差分値を式(18)のD(i)によって算出する。   S (i) takes a large value when the luminances P7 and P8 are large. Note that “t” indicates that the currently acquired image data 10 is a target. The target characteristic amount calculation unit 7 calculates a difference value between the current luminance P7 and the luminance P8 by D (i) in Expression (18).

Figure 0004743277
Figure 0004743277

D(i)は輝度P7および輝度P8が近い値の場合に小さい値となる。したがって、D(i)は輝度P7および輝度P8のバランスを示す。なお、”t”は現在取得した画像データ10が対象であることを示す。   D (i) is a small value when the luminance P7 and the luminance P8 are close to each other. Therefore, D (i) indicates the balance between the luminance P7 and the luminance P8. Note that “t” indicates that the currently acquired image data 10 is a target.

対象性特徴量計算部7は車両の中央を通る線を式(19)のEsym(x,y)によって算出する。   The objectivity feature amount calculation unit 7 calculates a line passing through the center of the vehicle by Esym (x, y) in Expression (19).

Figure 0004743277
Figure 0004743277

Esym(x,y)は演算中央座標61(x,y)から”i”を所定の範囲で変化させた時のS(i)の絶対値の総和からD(i)の絶対値の総和を引いた値である。したがって、Esym(x,y)は演算の対象となる領域内の左右の輝度が等しくかつ左右の輝度が大きい場合に大きな値となる。対象性特徴量計算部7はS32で算出したEsym(x,y)を演算中央座標61に対応付ける(S43)。 Esym (x, y) is the sum of absolute values of D (i) from the sum of absolute values of S (i) when “i” is changed within a predetermined range from the calculation central coordinates 61 (x, y). Subtracted value. Therefore, Esym (x, y) takes a large value when the left and right luminances in the region to be calculated are equal and the left and right luminances are large. The target characteristic amount calculation unit 7 associates Esym (x, y) calculated in S32 with the calculation central coordinate 61 (S43).

以上の演算を対象性特徴量計算部7が分布図50内の全ての画素54について行う(S44)ことにより、分布図50内の車両16の中央を通る線を検出することが可能となる。   By performing the above calculation for all the pixels 54 in the distribution map 50 by the symmetric feature value calculation unit 7 (S44), it is possible to detect a line passing through the center of the vehicle 16 in the distribution map 50.

また、対象性特徴量計算部7は以下の式により車両16の重心Rsym(x、y)を求める式(20)により車両16の中央を通る線を検出することも可能である。なお、”t”は現在取得した画像データ10が対象であることを示す。   Further, the target characteristic amount calculation unit 7 can also detect a line passing through the center of the vehicle 16 by the equation (20) for obtaining the center of gravity Rsym (x, y) of the vehicle 16 by the following equation. Note that “t” indicates that the currently acquired image data 10 is a target.

Figure 0004743277
Figure 0004743277

次に、車両位置判定部8が行う処理について説明する。   Next, processing performed by the vehicle position determination unit 8 will be described.

車両位置判定部8は、パターン特徴量計算部6による車両16のパターンの認識処理から分布図50内の車両16が存在する縦方向13の座標および横方向14の座標を得る。縦方向13の座標は、画像データ10内で車両16が手前方向に向いている場合、車両16のフロントの下端となる。また、車両位置判定部8は、対象性特徴量計算部7による車両16の左右の中心を通る線を求める処理から分布図50内の車両16の中央となる横方向14の座標を得る。車両位置判定部8はパターン特徴量計算部6による演算結果と対象性特徴量計算部7による演算結果を重ねあわせ、画像データ10内において車両16が存在する基準となる座標を取得する。車両位置判定部8は取得した基準となる座標から画像データ10あるいは分布図50の輝度のピークを検出して車両16のフロント部分の幅を示す画素数を取得する。   The vehicle position determination unit 8 obtains the coordinate in the vertical direction 13 and the coordinate in the horizontal direction 14 where the vehicle 16 exists in the distribution map 50 from the pattern recognition processing of the vehicle 16 by the pattern feature value calculation unit 6. The coordinates in the vertical direction 13 are the lower end of the front of the vehicle 16 when the vehicle 16 is facing forward in the image data 10. Further, the vehicle position determination unit 8 obtains the coordinate in the horizontal direction 14 that is the center of the vehicle 16 in the distribution map 50 from the process of obtaining the line passing through the left and right centers of the vehicle 16 by the target characteristic amount calculation unit 7. The vehicle position determination unit 8 superimposes the calculation result obtained by the pattern feature quantity calculation unit 6 and the calculation result obtained by the target characteristic quantity calculation unit 7 to obtain a reference coordinate in which the vehicle 16 exists in the image data 10. The vehicle position determination unit 8 detects the luminance peak of the image data 10 or the distribution map 50 from the acquired reference coordinates, and acquires the number of pixels indicating the width of the front portion of the vehicle 16.

車両16の基準となる縦方向13の座標およびピーク検出によって取得した車両16のフロント部分の幅の画素数からデータベース20の合致する車種を検出する。以上により、画像処理装置1は画像データ10内の車両16の位置を検出し、及び、車両16の車種を特定することが可能となる。   A matching vehicle type in the database 20 is detected from the coordinates of the vertical direction 13 as a reference of the vehicle 16 and the number of pixels of the width of the front portion of the vehicle 16 obtained by peak detection. As described above, the image processing apparatus 1 can detect the position of the vehicle 16 in the image data 10 and specify the vehicle type of the vehicle 16.

図12は、本実施例による車両の検出例である。   FIG. 12 is an example of vehicle detection according to this embodiment.

元の画像データ(A)はカメラ2が撮影した画像である。
車両部分(B)は、元の画像データ(A)の車両部分を抜き出した領域である。
本実施例による検出(C)は、本実施例の処理によって検出した場合の検出範囲である。
背景差分による検出(D)は、従来技術である背景差分方式によって検出した場合の検出範囲である。エッジ検出(E)は、従来技術であるエッジ検出方式によって検出した場合の検出範囲である。背景差分方式およびエッジ検出方式、では影部分の影響を受けるため車両のみの範囲を検出することができない。
The original image data (A) is an image taken by the camera 2.
The vehicle portion (B) is an area where the vehicle portion of the original image data (A) is extracted.
Detection (C) according to the present embodiment is a detection range when detection is performed by the processing of the present embodiment.
Detection by background difference (D) is a detection range in the case of detection by the background difference method which is a conventional technique. Edge detection (E) is a detection range in the case of detection by an edge detection method that is a conventional technique. In the background difference method and the edge detection method, the range of only the vehicle cannot be detected because it is affected by the shadow portion.

図13は、本実施例の画像処理装置1のハードウェア構成例である。画像処理装置1は、CPU101、カメラ2、メモリ103、出力部104および、バス105からなる。CPU101、カメラ2、メモリ103、および、出力部104はバス105により接続され各部間でデータの授受を行う。CPU101は、メモリ103に格納されている画像処理プログラム100をワークエリアに読出して実行する中央処理装置である。画像処理プログラム100は、画像処理装置1のCPU101を自己相関差計算部4、路上マーク削除部5、パターン特徴量計算部6、対象性特徴量計算部7及び車両位置判定部8として機能させる。   FIG. 13 is a hardware configuration example of the image processing apparatus 1 of the present embodiment. The image processing apparatus 1 includes a CPU 101, a camera 2, a memory 103, an output unit 104, and a bus 105. The CPU 101, the camera 2, the memory 103, and the output unit 104 are connected by a bus 105 and exchange data between the units. The CPU 101 is a central processing unit that reads and executes the image processing program 100 stored in the memory 103 in the work area. The image processing program 100 causes the CPU 101 of the image processing apparatus 1 to function as the autocorrelation difference calculation unit 4, the road mark deletion unit 5, the pattern feature amount calculation unit 6, the target feature amount calculation unit 7, and the vehicle position determination unit 8.

メモリ103は、画像処理装置1の種々の情報を記憶する。例えば、RAM、ハードディスク装置等である。メモリ103は、CPU101が演算を行う際のワークエリアともなる。また、データベース20に格納された情報も記憶する。   The memory 103 stores various information of the image processing apparatus 1. For example, a RAM, a hard disk device, or the like. The memory 103 also serves as a work area when the CPU 101 performs calculations. In addition, information stored in the database 20 is also stored.

出力部104は、画像データ10内で検出した車両16の位置及び特定した車種の情報を出力するためのインターフェースである。例えば、出力先は他の車両が有する無線端末である。他の車両は、画像データ10内に車両16が存在する旨の情報を受信する。無線通信の場合のインターフェースは無線端末との間の無線プロトコル(例えばIEEE802.11に定められた手続き)で通信を行う。   The output unit 104 is an interface for outputting information of the position of the vehicle 16 detected in the image data 10 and the specified vehicle type. For example, the output destination is a wireless terminal possessed by another vehicle. Other vehicles receive information indicating that the vehicle 16 is present in the image data 10. In the case of wireless communication, an interface communicates with a wireless terminal using a wireless protocol (for example, a procedure defined in IEEE 802.11).

本実施例は車両16の検出のための基本的な特徴量として画素11間の類似値38の差分39を使用する。類似値38の差分39による特徴量は曲線および角部分の値が大きくなる。また、車両の正面あるいは背面が左右対称であることを利用する。したがって、類似値38の差分39による特徴量は車両16の正面あるいは背面を検出する場合に有効である。一方、類似値38の差分39による特徴量は直線的な部分や曲率の少ない部分での反応は小さくなる。したがって、類似値38の差分39による特徴量は影などの直線の部分や単純な形状になりやすい部分に対しては反応が小さくなる。その結果、類似値38の差分39による特徴量は影による誤検出や路面反射による誤検出を減少させることができる。   In this embodiment, the difference 39 of the similarity values 38 between the pixels 11 is used as a basic feature amount for detecting the vehicle 16. In the feature amount due to the difference 39 of the similarity value 38, the values of the curve and the corner portion are large. Further, the fact that the front or back of the vehicle is symmetrical is utilized. Therefore, the feature amount based on the difference 39 of the similarity value 38 is effective when detecting the front or back of the vehicle 16. On the other hand, the feature amount due to the difference 39 of the similarity value 38 has a small response in a linear portion or a portion with a small curvature. Therefore, the feature amount based on the difference 39 of the similarity value 38 is less responsive to a straight portion such as a shadow or a portion that tends to be a simple shape. As a result, the feature amount based on the difference 39 of the similarity value 38 can reduce erroneous detection due to shadows and erroneous detection due to road surface reflection.

また、画像データ10を一定時間の間隔で取得するシステムに本実施例を応用する場合、複数の画像データ10間において車両16が存在する位置の差分を取得することにより車両16の移動速度を計算することも可能である。   Further, when the present embodiment is applied to a system that acquires the image data 10 at regular time intervals, the moving speed of the vehicle 16 is calculated by acquiring the difference in the position where the vehicle 16 exists among the plurality of image data 10. It is also possible to do.

なお、本実施例は、画素11を基準として演算の処理を行ったが、画像データ10内の複数の画素11を一つのまとまりをした領域を演算の単位とすることも可能である。すなわち、ディジタル画像データ10の画素数を減少させるようなサイズの変更をした場合、複数の画素11が寄せ集められ一つの画素となるサイズの縮小がなされる。一方、ディジタル画像データ10の画素数を増加させるようなサイズの変更をした場合、周囲の画素11との関係から補間した画素11を新たな画素11とするサイズの拡大がなされる。したがって、複数の画素11を一つのまとまりとした領域とみなした検出を行うことは画像データ10のサイズ変更をした後、画素11毎に検出処理を行うことと実質同一である。   In the present embodiment, calculation processing is performed using the pixel 11 as a reference. However, a region in which a plurality of pixels 11 in the image data 10 are grouped can be used as a unit of calculation. That is, when the size is changed so as to reduce the number of pixels of the digital image data 10, the size is reduced so that a plurality of pixels 11 are gathered to form one pixel. On the other hand, when the size is changed so as to increase the number of pixels of the digital image data 10, the size of the pixel 11 interpolated from the relationship with the surrounding pixels 11 is increased to a new pixel 11. Therefore, performing detection in which a plurality of pixels 11 are regarded as a single region is substantially the same as performing detection processing for each pixel 11 after changing the size of the image data 10.

更に、本実施例では、自己相関差計算部4が設定する演算領域32、比較領域34、及び探索範囲31はいずれも画像データ10内で均一として説明した。しかし、画像データ10内で三次元空間として見た場合に手前となる領域あるいは奥となる領域に応じて探索範囲31、演算領域32、および、比較領域34の範囲を変更することも可能である。例えば、三次元空間として見た場合に奥となる領域については、探索範囲31、演算領域32、および、比較領域34の範囲を小さくする。一方、三次元空間として見た場合に手前となる領域については、探索範囲31、演算領域32、および、比較領域34の範囲を大きくする。範囲を変更することにより、自己相関差計算部4が実行する演算量を削減することができる。また範囲を変更することにより、各座標位置に応じた精度の検出を行うことができる。具体的には、演算対象画素33の画像データ10内の縦方向13の座標値に応じて探索範囲31、演算領域32、および、比較領域34の範囲を変化させるためのデータを予め設けておくことにより可能である。   Furthermore, in the present embodiment, the calculation area 32, the comparison area 34, and the search range 31 set by the autocorrelation difference calculation unit 4 are all assumed to be uniform in the image data 10. However, it is also possible to change the range of the search range 31, the calculation region 32, and the comparison region 34 in accordance with the region that is in front or the region that is behind when viewed as a three-dimensional space in the image data 10. . For example, for the region that is the back when viewed as a three-dimensional space, the ranges of the search range 31, the calculation region 32, and the comparison region 34 are reduced. On the other hand, the range of the search area 31, the calculation area 32, and the comparison area 34 is enlarged for the area that comes to the front when viewed as a three-dimensional space. By changing the range, the amount of calculation executed by the autocorrelation difference calculation unit 4 can be reduced. Further, by changing the range, it is possible to detect the accuracy according to each coordinate position. Specifically, data for changing the search range 31, the calculation region 32, and the comparison region 34 according to the coordinate value in the vertical direction 13 in the image data 10 of the calculation target pixel 33 is provided in advance. Is possible.

また、本実施例は画像データ10の輝度によって類似値を算出する方法について説明した。本実施例は輝度だけでなく、明度、色相、彩度の組合せによって類似値を算出することができる。   In the present embodiment, the method of calculating the similarity value based on the luminance of the image data 10 has been described. In this embodiment, not only the luminance but also the similarity value can be calculated by a combination of brightness, hue, and saturation.

本発明は、画像データ内の車両の位置の検出を少ない演算で可能とすることにより、画像データ内の車両の状態を通知するシステムに利用することができる。   INDUSTRIAL APPLICABILITY The present invention can be used in a system that notifies the state of a vehicle in image data by enabling detection of the position of the vehicle in image data with a small amount of computation.

Claims (9)

画像データ内の被写体を検出する画像データ認識方法であって、
前記画像データ内の被写体を検出する検出対象領域を決定し、
決定した該検出対象領域に含まれる複数の第一の画素のそれぞれを中心としかつ第一の所定数の画素を含む複数の第一の領域をそれぞれの該複数の第一の画素毎に決定し
複数の第一の画素のそれぞれを中心としかつ第二の所定数の画素を含む探索範囲をそれぞれの該複数の第一の画素毎に決定し
決定した該それぞれの探索範囲に含まれる複数の第二の画素のそれぞれを中心としかつ該第一の所定数に対応する数の画素を含む複数の第二の領域をそれぞれの該複数の第二の画素毎に決定し、
決定した該複数の第二の領域のそれぞれの画像と該第一の領域の画像との特徴を比較することにより該第一の領域とそれぞれの該複数の第二の領域間の類似値をそれぞれの該複数の第二の領域毎に算出し、
算出した該複数の第二の領域毎の該類似値をそれぞれの該複数の第二の画素に対応付け、
該それぞれの探索範囲に含まれる該第一の画素以外の該複数の第二の画素に対応付けられたそれぞれの類似値の中で該第一の領域に最も類似することを示す第二の類似値を選択し、
選択した該第二の類似値を該それぞれの探索範囲に対応する該第一の画素に対応付け、
前記検出対象領域内の複数の第一の画素のそれぞれに対応付けた第二の類似値を前記第一の画素の位置にマッピングすることで分布を求め、
前記分布の状態に応じて定まる形状が予め被写体の特徴として定めた形状に合致する領域を画像データ内の被写体の部分として検出することを特徴とする画像データ認識方法。
An image data recognition method for detecting a subject in image data,
Determining a detection target area for detecting a subject in the image data ;
Determining a plurality of first regions each first pixel of each of the plurality including a respective center and a vital first predetermined number of pixels of the plurality of first pixels included in the determined detection target area And
Determining a search range to a respective one pixel of each of the plurality including respective center Toshikatsu second predetermined number of pixels of the plurality of first pixels,
It determined the respective search ranges INCLUDED multiple second plurality including the number of pixels corresponding to a predetermined number each of centered and vital said first pixel and the second region each plurality of Determined for each second pixel,
By comparing the characteristics of the determined images of the plurality of second regions and the images of the first region, the similarity values between the first region and the plurality of second regions are respectively determined. For each of the plurality of second regions of
Associating the calculated similarity values for the plurality of second regions with the plurality of second pixels,
Second similar indicating that most similar to said first region within each similarity value associated with the second pixel of the plurality other than the first pixels included in each search range the Select a value
Associating the selected second similarity value with the first pixel corresponding to the respective search range;
The distribution is obtained by mapping the second similarity value associated with each of the plurality of first pixels in the detection target region to the position of the first pixel,
A method of recognizing an image data, wherein an area where a shape determined according to the distribution state matches a shape previously determined as a feature of the subject is detected as a portion of the subject in the image data.
該画像データは、車道、該車道上の該被写体となる車両、および該車道の消失点が写るように該車道の斜め上方から撮像されており、
該画像データで該車道の手前側に相当する領域の検出に使用する該第一の領域、該第二の領域および該探索範囲が含むべき画素数を、該画像データで該車道の奥側に相当する領域の検出に使用する該第一の領域、該第二の領域および該探索範囲が含むべき画素数よりも多くする
ことを特徴とする請求項1記載の画像データ認識方法。
The image data is imaged from obliquely above the road so that the road, the subject vehicle on the road, and the vanishing point of the road are shown.
The number of pixels that should be included in the first area, the second area, and the search range used to detect an area corresponding to the front side of the roadway in the image data is displayed on the back side of the roadway in the image data. The image data recognition method according to claim 1 , wherein the number of pixels to be included in the first region, the second region, and the search range used for detection of the corresponding region is larger. .
該被写体の特徴として定めた形状は、車両の形状を定める条件であることを特徴とする請求項1記載の画像データ認識方法。  2. The image data recognition method according to claim 1, wherein the shape defined as the feature of the subject is a condition for determining the shape of the vehicle. 求めた該第二の類似値の分布において、周囲に分布する類似値よりも類似していないことを示す類似値が分布する矩形状の第三の領域を検出し、
検出した該第三の領域内の左右側に類似していないことを示す類似値が分布し、かつ、該第三の領域内の左右側の類似していないことを示す類似値に左右方向の中央を挟み対象性があり、かつ、該第三の領域の下側に周囲と類似していることを示す類似値が分布する場合に、該第三の領域の下側に相当する座標を前記車両のフロントの座標とすることを特徴とする請求項3記載の画像データ認識方法。
In the obtained distribution of the second similarity values, a rectangular third region is detected in which similarity values indicating that the similarity values are less similar than the similarity values distributed in the surroundings are detected,
Similar values indicating dissimilarity on the left and right sides in the detected third region are distributed, and the similar values indicating dissimilarity on the left and right sides in the third region are There is symmetry sandwich the center, and, if the similarity value indicating that similar to the ambient on the lower side of said third region is distributed, the coordinates corresponding to the lower side of said third region and the 4. The image data recognition method according to claim 3, wherein the coordinates are front coordinates of the vehicle.
該車両は、該車両の前記第二の類似値の分布の対象性から前記画像データ内の横方向の該車両の中心位置を求め、前記車両の分布の形状と前記車両の形状を定める条件から縦軸方向の位置を特定することを特徴とする請求項3記載の画像データ認識方法。The vehicle obtains the center position of the vehicle in the lateral direction in the image data from the target of the distribution of the second similarity value of the vehicle, and from the conditions for determining the shape of the vehicle distribution and the shape of the vehicle 4. The image data recognition method according to claim 3, wherein a position in the vertical axis direction is specified. 第一の画素を中心に該車両が存在し得る範囲になるように該探索範囲の画素数を決定することを特徴とする請求項2記載の画像データ認識方法。Image data recognizing method according to claim 2, wherein the determining the number of pixels the search range to be in the range of the vehicle may be present around the first pixel. 該画像データの端から該消失点の方向に沿う線分のエッジおよび該画像データの車道を交差する方向に周期的に存在する線分のエッジを消去した後で、類似値の分布を計算することを特徴とする請求項2記載の画像データ認識方法。After erasing the edge of the line segment along the vanishing point direction from the edge of the image data and the edge of the line segment periodically present in the direction intersecting the roadway of the image data, the distribution of similarity values is calculated The image data recognizing method according to claim 2 . 画像データ内の被写体を検出する画像データ認識装置であって、
前記画像データ内の被写体を検出する検出対象領域を決定する手段と、
決定した該検出対象領域に含まれる複数の第一の画素のそれぞれを中心としかつ第一の所定数の画素を含む複数の第一の領域をそれぞれの該複数の第一の画素毎に決定する手段と
複数の第一の画素のそれぞれを中心としかつ第二の所定数の画素を含む探索範囲をそれぞれの該複数の第一の画素毎に決定する手段と
決定した該それぞれの探索範囲に含まれる複数の第二の画素のそれぞれを中心としかつ該第一の所定数に対応する数の画素を含む複数の第二の領域をそれぞれの該複数の第二の画素毎に決定する手段と
決定した該複数の第二の領域のそれぞれの画像と該第一の領域の画像との特徴を比較すことにより該第一の領域とそれぞれの該複数の第二の領域間の類似値をそれぞれの該複数の第二の領域毎に算出する手段と
算出した該複数の第二の領域毎の該類似値をそれぞれの該複数の第二の画素に対応付ける手段と
該それぞれの探索範囲に含まれる該第一の画素以外の該複数の第二の画素に対応付けられたそれぞれの類似値の中で該第一の領域に最も類似することを示す類似値を選択する手段と
選択した該類似値を該それぞれの探索範囲に対応する該第一の画素に対応付ける手段と
前記検出対象領域内の複数の第一の画素のそれぞれに対応付けた類似値を前記第一の画素の位置にマッピングすることで分布を求める手段と
前記分布の状態に応じて定まる形状が予め被写体の特徴として定めた形状に合致する領域を画像データ内の被写体の部分として検出する手段とを有することを特徴とする画像データ認識装置。
An image data recognition device for detecting a subject in image data,
Means for determining a detection target region for detecting a subject in the image data ;
Determining a plurality of first regions each first pixel of each of the plurality including a respective center and a vital first predetermined number of pixels of the plurality of first pixels included in the determined detection target area Means to
It means for determining a search range for each first pixel of each of the plurality including respective center Toshikatsu second predetermined number of pixels of the plurality of first pixels,
It determined the respective search ranges INCLUDED multiple second plurality including the number of pixels corresponding to a predetermined number each of centered and vital said first pixel and the second region each plurality of Means for determining each second pixel ;
The similarity values between each and said first region the plurality of second regions by you compare the characteristics of the respective image and the image of the first region of the determined plurality of second regions Means for calculating each of the plurality of second regions ;
Means the calculated plurality of second the similarity value for each area that associates to a second pixel of each of the plurality,
Select a similarity value indicating that the most similar to said first region within each similarity value associated with the second pixel of the plurality other than the first pixels included in each search range the Means to
Means that the selected said similarity value to correspond to the first pixels corresponding to the search range of each said,
Means asking you to distribution by mapping the similar values associated with each of the plurality of first pixel within the detection target region to a position of the first pixel,
An image data recognition apparatus comprising: means for detecting, as a portion of a subject in image data, a region in which a shape determined according to the distribution state matches a shape previously determined as a feature of the subject.
画像データ内の被写体を検出する画像データ認識プログラムであって、コンピュータ
前記画像データ内の被写体を検出する検出対象領域を決定し、
決定した該検出対象領域に含まれる複数の第一の画素のそれぞれを中心としかつ第一の所定数の画素を含む複数の第一の領域をそれぞれの該複数の第一の画素毎に決定する手段と
複数の第一の画素のそれぞれを中心としかつ第二の所定数の画素を含む探索範囲をそれぞれの該複数の第一の画素毎に決定し
決定した該それぞれの探索範囲に含まれる複数の第二の画素のそれぞれを中心としかつ該第一の所定数に対応する数の画素を含む複数の第二の領域をそれぞれの該複数の第二の画素毎に決定し
決定した該複数の第二の領域のそれぞれの画像と該第一の領域の画像との特徴を比較することにより該第一の領域とそれぞれの該複数の第二の領域間の類似値をそれぞれの該複数の第二の領域毎に算出
算出した該複数の第二の領域毎の該類似値をそれぞれの該複数の第二の画素に対応付け、
該それぞれの探索範囲に含まれる該第一の画素以外の該複数の第二の画素に対応付けられたそれぞれの類似値の中で該第一の領域に最も類似することを示す類似値を選択する手段
選択した該類似値を該それぞれの探索範囲に対応する該第一の画素に対応付け、
前記検出対象領域内の複数の第一の画素のそれぞれに対応付けた類似値を前記第一の画素の位置にマッピングすることで分布を求め、
前記分布の状態に応じて定まる形状が予め被写体の特徴として定めた形状に合致する領域を画像データ内の被写体の部分として検出する
、処理を実行するように機能させることを特徴とする画像データ認識プログラム。
An image data recognition program for detecting an object in the image data, the computer,
Determining a detection target area for detecting a subject in the image data ;
Determining a plurality of first regions each first pixel of each of the plurality including a respective center and a vital first predetermined number of pixels of the plurality of first pixels included in the determined detection target area Means to
Determining a search range to a respective one pixel of each of the plurality including respective center Toshikatsu second predetermined number of pixels of the plurality of first pixels,
It determined the respective search ranges INCLUDED multiple second plurality including the number of pixels corresponding to a predetermined number each of centered and vital said first pixel and the second region each plurality of Determined for each second pixel ,
By comparing the characteristics of the determined images of the plurality of second regions and the images of the first region, the similarity values between the first region and the plurality of second regions are respectively determined. second was calculated for each region of the plurality of,
Associating the calculated similarity values for the plurality of second regions with the plurality of second pixels,
Select a similarity value indicating that the most similar to said first region within each similarity value associated with the second pixel of the plurality other than the first pixels included in each search range the Means to
Associating the selected similarity value with the first pixel corresponding to the respective search range;
The distribution is obtained by mapping the similarity value associated with each of the plurality of first pixels in the detection target region to the position of the first pixel,
Image data recognition characterized by functioning to execute a process of detecting, as a portion of the subject in the image data, an area in which the shape determined according to the distribution state matches the shape previously determined as the feature of the subject program.
JP2008529068A 2006-11-28 2006-11-28 Image data recognition method, image processing apparatus, and image data recognition program Expired - Fee Related JP4743277B2 (en)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/323685 WO2008065707A1 (en) 2006-11-28 2006-11-28 Image data recognizing method, image processing device, and image data recognizing program

Publications (2)

Publication Number Publication Date
JPWO2008065707A1 JPWO2008065707A1 (en) 2010-03-04
JP4743277B2 true JP4743277B2 (en) 2011-08-10

Family

ID=39467511

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008529068A Expired - Fee Related JP4743277B2 (en) 2006-11-28 2006-11-28 Image data recognition method, image processing apparatus, and image data recognition program

Country Status (2)

Country Link
JP (1) JP4743277B2 (en)
WO (1) WO2008065707A1 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US9239380B2 (en) * 2008-05-21 2016-01-19 Adc Automotive Distance Control Systems Gmbh Driver assistance system for avoiding collisions of a vehicle with pedestrians
US8744131B2 (en) 2009-09-29 2014-06-03 Panasonic Corporation Pedestrian-crossing marking detecting method and pedestrian-crossing marking detecting device

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06201379A (en) * 1992-12-28 1994-07-19 Mitsubishi Electric Corp Range finder
JPH09330404A (en) * 1996-06-10 1997-12-22 Nippon Telegr & Teleph Corp <Ntt> Object detector
JPH11345336A (en) * 1998-06-03 1999-12-14 Nissan Motor Co Ltd Obstacle detecting device
JP2000039306A (en) * 1998-07-22 2000-02-08 Nec Corp Device and method for vehicle system area detection
JP2001351200A (en) * 2000-06-09 2001-12-21 Nissan Motor Co Ltd Onboard object detecting device
JP2005149250A (en) * 2003-11-18 2005-06-09 Daihatsu Motor Co Ltd Vehicle detection method and vehicle detection system

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06201379A (en) * 1992-12-28 1994-07-19 Mitsubishi Electric Corp Range finder
JPH09330404A (en) * 1996-06-10 1997-12-22 Nippon Telegr & Teleph Corp <Ntt> Object detector
JPH11345336A (en) * 1998-06-03 1999-12-14 Nissan Motor Co Ltd Obstacle detecting device
JP2000039306A (en) * 1998-07-22 2000-02-08 Nec Corp Device and method for vehicle system area detection
JP2001351200A (en) * 2000-06-09 2001-12-21 Nissan Motor Co Ltd Onboard object detecting device
JP2005149250A (en) * 2003-11-18 2005-06-09 Daihatsu Motor Co Ltd Vehicle detection method and vehicle detection system

Also Published As

Publication number Publication date
JPWO2008065707A1 (en) 2010-03-04
WO2008065707A1 (en) 2008-06-05

Similar Documents

Publication Publication Date Title
US8204278B2 (en) Image recognition method
US10970566B2 (en) Lane line detection method and apparatus
JP6259928B2 (en) Lane data processing method, apparatus, storage medium and equipment
JP4380838B2 (en) Video image automatic road sign recognition method, road sign automatic recognition device, and road sign automatic recognition program
US9123242B2 (en) Pavement marker recognition device, pavement marker recognition method and pavement marker recognition program
JP4363295B2 (en) Plane estimation method using stereo images
CN108197523B (en) Night vehicle detection method and system based on image conversion and contour neighborhood difference
JP4416039B2 (en) Striped pattern detection system, striped pattern detection method, and striped pattern detection program
US20150367781A1 (en) Lane boundary estimation device and lane boundary estimation method
US10339396B2 (en) Vehicle accessibility determination device
JP2008082870A (en) Image processing program, and road surface state measuring system using this
JP6239186B2 (en) Display control apparatus, display control method, and display control program
JP7050763B2 (en) Detection of objects from camera images
JPWO2013129361A1 (en) Three-dimensional object detection device
JP2013140515A (en) Solid object detection device and program
JP3729025B2 (en) Pedestrian detection device
WO2018150921A1 (en) Vehicle-mounted environment recognition device
JP4674179B2 (en) Shadow recognition method and shadow boundary extraction method
CN111243003A (en) Vehicle-mounted binocular camera and method and device for detecting road height limiting rod
JP4517003B2 (en) Automatic road sign recognition system
JP4743277B2 (en) Image data recognition method, image processing apparatus, and image data recognition program
JP5189556B2 (en) Lane detection device
CN104252707A (en) Object detecting method and device
JP2020126304A (en) Out-of-vehicle object detection apparatus
JP2020095631A (en) Image processing device and image processing method

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20101005

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101203

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20110412

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20110425

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140520

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees