JP2009042909A - Feature point detection device and moving image processor mounted therewith - Google Patents
Feature point detection device and moving image processor mounted therewith Download PDFInfo
- Publication number
- JP2009042909A JP2009042909A JP2007205642A JP2007205642A JP2009042909A JP 2009042909 A JP2009042909 A JP 2009042909A JP 2007205642 A JP2007205642 A JP 2007205642A JP 2007205642 A JP2007205642 A JP 2007205642A JP 2009042909 A JP2009042909 A JP 2009042909A
- Authority
- JP
- Japan
- Prior art keywords
- pixel
- feature point
- unit
- point detection
- interest
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Withdrawn
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮像された画像内から特徴点を検出する特徴点検出装置、およびそれを搭載した動画像処理装置に関する。 The present invention relates to a feature point detection device that detects a feature point from a captured image, and a moving image processing device equipped with the feature point detection device.
撮像された動画像内から動体を自動的に検知する車載カメラや監視カメラが普及してきている。動画像内から動体を検知する手法の一つに、オプティカルフローを算出して、動体を検知する手法がある。オプティカルフローとは、画像内のある点や図形がつぎの瞬間にどのような方向へ、どの程度の距離、移動するかを示すベクトルである。画像内のすべての画素についてオプティカルフローを算出すると、演算量が非常に多くなってしまうため、画像内の特徴点についてのみ算出するのが一般的である。 Car-mounted cameras and surveillance cameras that automatically detect moving objects from captured moving images have become widespread. One technique for detecting a moving object from within a moving image is a technique for detecting a moving object by calculating an optical flow. The optical flow is a vector indicating in what direction and how far a certain point or figure in the image moves at the next moment. If the optical flow is calculated for all the pixels in the image, the calculation amount becomes very large. Therefore, it is general to calculate only the feature points in the image.
画像内から特徴点を抽出するための手法には、MoravecオペレータやSUSANオペレータなどを用いる手法がある。Moravecオペレータは、注目画素の画素値と、その周辺8画素の画素値との分散を求めるものである。SUSANオペレータは、画像内に設定された円形状のマスク領域内で、注目画素の画素値と、その周辺画素の画素値との絶対値差が所定のしきい値を超えている画素を計数するものである。 As a method for extracting feature points from an image, there is a method using a Moravec operator, a SUSAN operator, or the like. The Moravec operator obtains the variance between the pixel value of the target pixel and the pixel values of the surrounding eight pixels. The SUSAN operator counts pixels in which the absolute value difference between the pixel value of the pixel of interest and the pixel values of the surrounding pixels exceeds a predetermined threshold within a circular mask area set in the image Is.
特許文献1は、画像において、局所的な特徴が変化する特徴点を検出する特徴点検出装置を開示する。その特徴点検出装置は、ハイパスフィルタおよび検出手段を備え、ハイパスフィルタは、注目画素を含む所定の領域を構成する画素の画素値の統計をとり、その統計結果に対応する値を、注目画素の新たな画素値として出力する。検出手段は、ハイパスフィルタより出力される当該画素値で構成される新たな画像の特徴点を検出する。
上述した特徴点抽出手法は、いずれも統計的手法を利用しており多くの演算量を必要とする。とくに、ハイパスフィルタを使用する手法は、微分演算を必要とする。したがって、それらの手法は、回路規模や演算時間の増大を招く。上述したような車載カメラの用途では、演算時間の短縮が強く求められる。 All the feature point extraction methods described above use statistical methods and require a large amount of computation. In particular, a technique using a high-pass filter requires a differential operation. Therefore, these methods cause an increase in circuit scale and calculation time. In the use of the on-vehicle camera as described above, it is strongly required to shorten the calculation time.
本発明はこうした状況に鑑みなされたものであり、その目的は、簡素な構成で高速に特徴点を検出することができる特徴点検出装置、およびそれを搭載した動画像処理装置を提供することにある。 The present invention has been made in view of such circumstances, and an object of the present invention is to provide a feature point detection device capable of detecting feature points at high speed with a simple configuration, and a moving image processing device equipped with the feature point detection device. is there.
本発明のある態様の特徴点検出装置は、画像内に設定された部分領域から、注目画素の画素値およびその周辺画素の画素値を複数の方向にそれぞれ一列に読み出す読出部と、読出部によりそれぞれ一列に読み出された複数の画素値列に対して、それぞれ所定の変換を施すフィルタと、フィルタによるそれぞれの出力結果のすべてが、所定の条件を満たしたとき、前記注目画素を特徴点候補と判定する判定部と、を備える。 A feature point detection apparatus according to an aspect of the present invention includes a readout unit that reads out pixel values of a pixel of interest and pixel values of surrounding pixels from a partial region set in an image in a plurality of directions, respectively, and a readout unit. A filter that performs a predetermined conversion on each of a plurality of pixel value sequences read out in a single column, and when all of the output results of the filters satisfy a predetermined condition, the pixel of interest is selected as a feature point candidate And a determination unit that determines that.
なお、以上の構成要素の任意の組み合わせ、本発明の表現を方法、装置、システム、記録媒体、コンピュータプログラムなどの間で変換したものもまた、本発明の態様として有効である。 It should be noted that any combination of the above-described constituent elements and a conversion of the expression of the present invention between a method, an apparatus, a system, a recording medium, a computer program, and the like are also effective as an aspect of the present invention.
本発明によれば、簡素な構成で高速に特徴点を検出することができる。 According to the present invention, feature points can be detected at high speed with a simple configuration.
図1は、本発明の実施の形態1に係る特徴点検出装置100の構成を示すブロック図である。特徴点検出装置100は、フレームバッファ10、読出部20、フィルタ部30、および判定部40を備える。これらの構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
FIG. 1 is a block diagram showing a configuration of a feature
フレームバッファ10は、入力される画像をフレーム単位で保持する。
読出部20は、フレームバッファ10に保持されたフレーム画像内に部分領域を設定し、その部分領域内の画素を読出対象とする。以下、縦n画素×横m画素(n,mは3以上の整数)の矩形の窓領域を設定する例を説明する。なお、必ずしも矩形に設定する必要はなく、SUSANオペレータで設定されるような円形状の領域であってもよい。
The
The
読出部20は、当該部分領域から、注目画素の画素値およびその周辺画素の画素値を複数の方向にそれぞれ一列に読み出す。注目画素は、上記部分領域の中心画素に設定されてもよい。周辺画素は、当該注目画素に接している画素でもよいし、当該注目画素との間にp画素(pは自然数)挟んだ位置に存在する画素でもよい。以下、注目画素は、上記部分領域の中心画素とし、周辺画素は、その中心画素の両側に等間隔に位置する二つの画素とする例を説明する。
The
読出部20は、注目画素を中心に、水平方向、垂直方向、右上から左下への第1斜め方向、および左上から右下への第2斜め方向のうち、少なくとも三つの方向に、それぞれ一列に読み出す。以下、四つの方向に読み出す例を説明する。読出部20は、複数の方向にそれぞれ一列に読み出した複数の画素値列をフィルタ部30に出力する。
The
フィルタ部30は、複数の一次元フィルタ30a〜30dを備える。一次元フィルタ30a〜30dの数は、読出部20で読み出される方向の数に対応する。図1の例では、四つである。一次元フィルタ30a〜30dは、読出部20によりそれぞれ一列に読み出された複数の画素値列に対して、それぞれ所定の変換を施す。
The
具体的には、一次元フィルタ30a〜30dは、それぞれの画素値列に対して、注目画素の画素値を2α(αは自然数)倍し、その二つの周辺画素の画素値をそれぞれα倍する。一次元フィルタ30a〜30dは、α倍された二つの周辺画素の画素値を加算し、その値と、2α倍された注目画素の画素値との差を求める。その差を出力結果として判定部40に出力する。
Specifically, the one-
判定部40は、一次元フィルタ30a〜30dによるそれぞれの出力結果のすべてが、所定の条件を満たしたとき、注目画素を特徴点候補と判定する。具体的には、一次元フィルタ30a〜30dの出力結果のすべての正負符号が等しく、かつすべての絶対値が所定のしきい値を超えたとき、対象とされた注目画素を特徴点候補と判定する。ここで、所定のしきい値は、設計者が実験やシミュレーションにより求めた値に設定されることができる。
The
以上の処理がフレーム内のすべての画素または一部の画素について実行され、各フレームの特徴点候補が抽出される。 The above processing is executed for all or some of the pixels in the frame, and feature point candidates for each frame are extracted.
図2は、窓領域の各画素値に掛けられる係数の一例を示す。この例の上述したパラメータは、n=5、m=5、p=1、α=1である。読出部20は、5×5の窓領域において、水平方向a、垂直方向b、第1斜め方向c、および第2斜め方向dに画素値を読み出す。係数が零の画素値は読み出さない。
FIG. 2 shows an example of a coefficient to be multiplied to each pixel value in the window area. The parameters described above in this example are n = 5, m = 5, p = 1, and α = 1. The
具体的には、水平方向aに、周辺画素の画素値C(i-2,j)、注目画素の画素値C(i,j)、および周辺画素の画素値C(i+2,j)を読み出す。垂直方向bに、周辺画素の画素値C(i,j-2)、注目画素の画素値C(i,j)、および周辺画素の画素値C(i,j+2)を読み出す。第1斜め方向cに、周辺画素の画素値C(i-2,j+2)、注目画素の画素値C(i,j)、および周辺画素の画素値C(i+2,j-2)を読み出す。第2斜め方向dに、周辺画素の画素値C(i-2,j-2)、注目画素の画素値C(i,j)、および周辺画素の画素値C(i+2,j+2)を読み出す。 Specifically, in the horizontal direction a, the pixel value C (i−2, j) of the peripheral pixel, the pixel value C (i, j) of the target pixel, and the pixel value C (i + 2, j) of the peripheral pixel Is read. In the vertical direction b, the pixel value C (i, j-2) of the peripheral pixel, the pixel value C (i, j) of the target pixel, and the pixel value C (i, j + 2) of the peripheral pixel are read out. In the first diagonal direction c, the pixel value C (i-2, j + 2) of the peripheral pixel, the pixel value C (i, j) of the target pixel, and the pixel value C (i + 2, j-2) of the peripheral pixel ). In the second diagonal direction d, the pixel value C (i−2, j−2) of the peripheral pixel, the pixel value C (i, j) of the target pixel, and the pixel value C (i + 2, j + 2) of the peripheral pixel ).
一次元フィルタ30a〜30dは、それぞれ注目画素の画素値C(i,j)を2倍にする。図2の例では、α=1であるため、周辺画素の画素値には係数を掛ける必要はない。
The one-
図3は、フィルタ部30の構成例を示す。一次元フィルタ30aは、水平方向aに読み出された画素値列を処理する。一次元フィルタ30bは、垂直方向bに読み出された画素値列を処理する。一次元フィルタ30cは、第1斜め方向cに読み出された画素値列を処理する。一次元フィルタ30dは、第2斜め方向dに読み出された画素値列を処理する。
FIG. 3 shows a configuration example of the
一次元フィルタ30aは、第1乗算部32a、第2乗算部34a、第3乗算部36a、加算部38a、および減算部39aを備える。第1乗算部32aは、注目画素の画素値C(i,j)を2α倍する。第2乗算部34aは、周辺画素の画素値C(i-2,j)をα倍する。第3乗算部36aは、周辺画素の画素値C(i+2,j)をα倍する。加算部38aは、第2乗算部34aの出力値と、第3乗算部36aの出力値を加算する。減算部39aは、第1乗算部32aの出力値と、加算部38aの出力値との差を算出する。減算部39aは、その差を出力値Yaとして判定部40に出力する。
The one-
一次元フィルタ30b〜dの構成は、一次元フィルタ30aの構成と同様のため説明を省略する。フィルタ部30は、読み出された方向数に対応した四つの出力値Ya〜Ydを判定部40に出力する。
Since the configurations of the one-
図4は、判定部40の構成例を示す。判定部40は、複数の絶対値変換部42a〜d、複数の比較部44a〜d、正負符号比較部45、AND回路46、スイッチSW1、および特徴点格納部48を備える。図4では、図3に示したフィルタ部30の四つの出力値Ya〜Ydを受けるため、絶対値変換部42a〜dおよび比較部44a〜dは、四つずつ設けられる。
FIG. 4 shows a configuration example of the
絶対値変換部42a〜dは、フィルタ部30の四つの出力値Ya〜Ydの符号をとり、その出力値Ya〜Ydの絶対値を出力する。比較部44a〜dは、絶対値変換部42a〜dの出力値と、所定のしきい値とをそれぞれ比較する。たとえば、前者が後者を超えたとき、有意な信号を出力し、超えないとき、非有意な信号を出力する。正負符号比較部45は、出力値Ya〜Ydの正負符号がすべて一致した場合、有意な信号を出力し、どれかひとつでも異なる符号の場合、非有意な信号を出力する。AND回路46は、複数の比較部44a〜dの出力信号および正負符号比較部45の出力信号がすべて有意な信号である場合、有意な信号を出力する。ひとつでも非有意な信号が含まれる場合、非有意な信号を出力する。ここで、有意な信号はハイレベル信号、非有意な信号はローレベル信号であってもよい。
The absolute
特徴点格納部48は、AND回路46の出力信号が有意なときの注目画素の位置情報(i,j)を特徴点候補として格納する。図4では、AND回路46の出力信号でスイッチSW1のオンオフを制御する例であり、AND回路46の出力信号が有意なとき、スイッチSW1がオンし、注目画素の位置情報(i,j)が特徴点格納部48に格納される。特徴点格納部48に格納された位置情報(i,j)で特定される画素は、そのまま特徴点に設定されてもよいし、別のフィルタでさらに絞り込まれてもよい。たとえば、複数の特徴点候補が近傍に位置する場合、出力値Ya〜Ydの合計が一番大きい画素を特徴点に採用してもよい。
The feature
以上説明したように本実施の形態によれば、統計的演算や微分演算、および平均化などの前処理が必要なく、簡単な演算処理および判定処理で特徴点または特徴点候補を検出することができる。簡単な演算処理および判定処理であるため、処理を高速化することができる。また、フィルタ部30および判定部40をハードウェアで構成した場合、回路規模を抑えつつ、ソフトウェア処理する場合より高速化することができる。とくに、α=1に設定した場合、乗算器の数を少なくすることができ、回路規模をより小さくすることができる。
As described above, according to the present embodiment, it is possible to detect feature points or feature point candidates by simple calculation processing and determination processing without the need for preprocessing such as statistical calculation, differentiation calculation, and averaging. it can. Since it is simple calculation processing and determination processing, the processing can be speeded up. Further, when the
また、水平方向および垂直方向だけでなく、斜め方向にも一次元フィルタをかけるため、高精細な検出が可能である。また、複数の方向において画素値の変化割合が大きい画素、すなわち孤立度合いが高い画素を検出するため、孤立点やコーナーを効果的に検出することができる。この点、Moravecオペレータは、エッジを有効に検出することができるが、注目画素の画素値とその周辺8画素の画素値との偏差が平均化されるため、コーナーを効果的に検出することは難しい。 Further, since the one-dimensional filter is applied not only in the horizontal direction and the vertical direction but also in the oblique direction, high-definition detection is possible. In addition, since pixels with a large change rate of pixel values in a plurality of directions, that is, pixels with a high degree of isolation, are detected, isolated points and corners can be detected effectively. In this respect, the Moravec operator can effectively detect the edge, but since the deviation between the pixel value of the target pixel and the pixel values of the surrounding eight pixels is averaged, the corner cannot be detected effectively. difficult.
SUSANオペレータは、画素値が不連続に変化する凸領域の曲率の頂点を探索するアルゴリズムであり、コーナーの検出に有効であるが、参照画素が多く、演算量および回路規模が大きくなってしまう。この点、本実施の形態に係るアルゴリズムは、SUSANオペレータと比較し、演算量および回路規模を大幅に低減しつつ、SUSANオペレータと同等のコーナー検出精度を得ることができる。 The SUSAN operator is an algorithm for searching for the vertex of curvature of a convex region in which pixel values change discontinuously, and is effective for corner detection. However, there are a large number of reference pixels, which increases the amount of calculation and the circuit scale. In this regard, the algorithm according to the present embodiment can obtain the same corner detection accuracy as the SUSAN operator while significantly reducing the amount of calculation and the circuit scale as compared with the SUSAN operator.
つぎに、実施の形態1に係る特徴点検出装置100を適用した動画像処理システムについて説明する。
図5は、実施の形態2に係る動画像処理システム200の構成を示す。動画像処理システム200は、撮像部210および動画像処理装置220を備える。撮像部210は、撮像素子60および信号処理部62を有する。動画像処理装置220は、フレームバッファ70、対象フレーム選択部72、参照フレーム選択部74、オプティカルフロー検出部76および後処理部80を有する。オプティカルフロー検出部76は、特徴点検出装置100およびオプティカルフロー演算部78を含む。
Next, a moving image processing system to which the feature
FIG. 5 shows a configuration of a moving
動画像処理装置220の構成は、ハードウェア的には、任意のプロセッサ、メモリ、その他のLSIで実現でき、ソフトウェア的にはメモリにロードされたプログラムなどによって実現されるが、ここではそれらの連携によって実現される機能ブロックを描いている。したがって、これらの機能ブロックがハードウェアのみ、ソフトウェアのみ、またはそれらの組み合わせによっていろいろな形で実現できることは、当業者には理解されるところである。
The configuration of the moving
撮像部210は、車両などの移動体や、壁や柱などの建造物に搭載され、動画像を撮像して動画像処理装置220に出力する。以下、車両に搭載される例で説明する。撮像素子60は、CCD(Charge Coupled Devices)センサやCMOS(Complementary Metal-Oxide Semiconductor)イメージセンサなどが用いられ、入射光を電気信号に変換し、信号処理部62に出力する。
The
信号処理部62は、撮像素子60から入力されるアナログ信号をデジタル信号に変換する。また、平滑化フィルタを備え、動画像処理装置220に対して出力する画像データに対して平滑化処理を施してもよい。また、その他のノイズ除去処理を施してもよい。
The
動画像処理装置220は、撮像部210から入力される画像データからオプティカルフローを検出する。フレームバッファ70は、q(qは自然数)フレーム分、格納する領域を持ち、撮像部210から入力される画像データを一時格納する。領域が溢れた場合、先に入力された画像フレームから順番に破棄する。フレームバッファ70に格納された画像フレームは、対象フレーム選択部72および参照フレーム選択部74に出力される。
The moving
対象フレーム選択部72は、フレームバッファ70内のフレームを順番にオプティカルフロー検出部76に出力する。また、フレームバッファ70内のフレームを適宜、間引いて、出力してもよい。参照フレーム選択部74は、対象フレーム選択部72で選択されたフレームの参照すべき参照フレームを選択し、フレームバッファ70内から取得する。
The target
参照フレーム選択部74は、車両内の速度センサから速度情報を取得し、図示しないルックアップテーブルを参照して、取得した速度情報に関連付けられたフレーム間隔を特定してもよい。このルックアップテーブルは、速度情報とフレーム間隔を関連付けて管理する。速度情報とフレーム間隔との関係は、設計者による実験やシミュレーションにより決定された関係に設定される。
The reference
オプティカルフロー検出部76は、対象フレームと参照フレームとを用いて、オプティカルフローを検出する。特徴点検出装置100は、実施の形態1で説明した装置であり、対象フレーム選択部72により選択された対象フレーム内から特徴点を抽出する。なお、解像度の異なる複数の階層で実行してもよい。
The optical
上述したn×mの部分領域の位置は、速度情報および操舵角情報の少なくとも一方に基づき、決定されてもよい。速度情報および操舵角情報の少なくとも一方から、部分領域の位置を決定する処理は、図示しないルックアップテーブルを参照して、実行されてもよい。 The position of the n × m partial region described above may be determined based on at least one of speed information and steering angle information. The process of determining the position of the partial region from at least one of the speed information and the steering angle information may be executed with reference to a lookup table (not shown).
特徴点検出装置100は、抽出した特徴点の座標と画素値をオプティカルフロー演算部78に出力する。オプティカルフロー演算部78は、対象フレーム選択部72により選択された対象フレーム、特徴点検出装置100から入力された特徴点の座標と画素値、および参照フレーム選択部74により選択された参照フレームに基づき、オプティカルフローを算出する。より具体的には、対象フレームの特徴点に対応する点を、参照フレーム内で探索する。
The feature
後処理部80は、オプティカルフロー検出部76から出力されたオプティカルフローに対して所定の後処理を施す。たとえば、入力されるオプティカルフローから、撮像部210自体の移動による成分を差し引く処理を行ってもよい。また、ノイズを除去するため、入力されるオプティカルフローの長さを所定のしきい値と比較して、有効とすべきオプティカルフローの長さを制限する処理を行ってもよい。また、オプティカルフロー検出部76から出力されたオプティカルフローの長さの平均値を算出してもよい。ノイズ除去用のしきい値は、あらかじめ設定された値でもよいし、当該平均値またはその平均値を調整した値であってもよい。
The
図示しない任意のユーザインタフェースは、後処理部80から出力されたオプティカルフローをもとに危険な対象の出現をユーザに認識させる。たとえば、表示部にオプティカルフローを単純に表示してもよいし、車両との距離に応じて定められる、危険とされる長さのオプティカルフローのみを表示してもよい。また、その危険とされる長さのオプティカルフローが発生した場合、スピーカから警告音を発してもよい。さらに、車両の制動系に制御信号を出力してもよい。
An arbitrary user interface (not shown) causes the user to recognize the appearance of a dangerous target based on the optical flow output from the
以上説明したように実施の形態2によれば、オプティカルフロー算出の前処理として、実施の形態1に係る特徴点検出装置100を利用して、算出対象とすべき特徴点を検出することにより、オプティカルフロー算出処理を高速化することが可能である。車載カメラなどの用途では、緊急性が高いため高速化の要請が強く、実施の形態1に係る特徴点検出装置100を利用する効果が大きい。
As described above, according to the second embodiment, as a pre-process for optical flow calculation, by using the feature
つぎに、実施の形態3について説明する。実施の形態3は、オプティカルフローを検出する際、フレーム内の複数の領域ごとにそれぞれ設定された条件でオプティカルフローを算出する。たとえば、その条件は、車両の速度や操舵角を参照して決定される。 Next, a third embodiment will be described. In the third embodiment, when an optical flow is detected, the optical flow is calculated under conditions set for each of a plurality of regions in the frame. For example, the condition is determined with reference to the speed and steering angle of the vehicle.
図6は、実施の形態3に係る動画像処理システム300の構成を示す。実施の形態3に係る動画像処理システム300の構成は、実施の形態2に係る動画像処理システム200の構成を拡張したものである。以下、追加された構成を中心に説明する。
FIG. 6 shows a configuration of a moving
まず、撮像部210、フレームバッファ70、および対象フレーム選択部72の構成は、実施の形態2に係る動画像処理システム200の構成と同様である。参照フレーム選択部74は、車両内の車速センサから速度情報を取得し、ルックアップテーブル75を参照して、取得した速度情報に関連付けられたフレーム間隔を特定する。その際、複数の領域ごとに異なるフレーム間隔を特定してもよい。なお、フレーム間隔は、固定でも、適応的に制御されてもよい。
First, the configuration of the
ルックアップテーブル75は、速度情報および操舵角情報の少なくとも一方の車両状態と、以下のパラメータを関連付けて管理する。当該パラメータには、少なくとも注目領域の位置が含まれる。たとえば、速度が速い場合、フレーム領域の上方に注目領域が設定され、遅い場合、下方に設定される。また、操舵角情報により車両が右に曲がっている場合、フレーム領域の右方に設定され、左に曲がっている場合、左方に設定される。 The look-up table 75 manages at least one vehicle state of speed information and steering angle information in association with the following parameters. The parameter includes at least the position of the attention area. For example, when the speed is high, the attention area is set above the frame area, and when the speed is low, the attention area is set below. Further, when the vehicle is turned to the right according to the steering angle information, it is set to the right of the frame area, and when it is turned to the left, it is set to the left.
その他、当該パラメータには、対象フレームと参照フレームとのフレーム間隔、オプティカルフローを算出する際の画像の解像度、および無効にすべきオプティカルフローを判定するためのしきい値のうち、少なくとも一つが含まれてもよい。これらの関連付けは、設計者による実験やシミュレーションにより決定された関係に設定される。 In addition, the parameter includes at least one of a frame interval between the target frame and the reference frame, an image resolution when calculating the optical flow, and a threshold value for determining the optical flow to be invalidated. May be. These associations are set to a relationship determined by an experiment or simulation by the designer.
オプティカルフロー検出部76は、第1特徴点検出装置100a、第2特徴点検出装置100b、パラメータ決定部77、第1オプティカルフロー演算部78aおよび第2オプティカルフロー演算部78bを備える。特徴点検出装置100およびオプティカルフロー演算部78はそれぞれ二つ設けられているが、これは、フレーム領域に二つの注目領域が設定されることに対応する。三つ以上設定される場合、三つ以上の特徴点検出装置100およびオプティカルフロー演算部78がそれぞれ設けられる。
The optical
第1特徴点検出装置100aおよび第2特徴点検出装置100bは、実施の形態1に係る特徴点検出装置100を利用することができる。上述したn×mの部分領域は、パラメータ決定部77から指定される注目領域の位置に基づき、設定される。なお、実施の形態1で説明したα、pの値は、それぞれ要求される仕様に応じて、異なってもよい。
The first feature
パラメータ決定部77は、車両内の速度センサおよび操舵角センサの少なくとも一方から、速度情報および操舵角情報の少なくとも一方を取得し、ルックアップテーブル75を参照して、取得した情報に関連付けられた各種パラメータを取得する。 The parameter determination unit 77 acquires at least one of speed information and steering angle information from at least one of the speed sensor and the steering angle sensor in the vehicle, refers to the lookup table 75, and performs various types associated with the acquired information. Get parameters.
パラメータ決定部77は、注目領域の位置をルックアップテーブル75から取得し、第1特徴点検出装置100a、第2特徴点検出装置100b、第1オプティカルフロー演算部78a、および第2オプティカルフロー演算部78bに設定する。なお、ノイズ除去用のしきい値を取得した場合、第1閾値判定部82aおよび第2閾値判定部82bに設定する。
The parameter determination unit 77 acquires the position of the region of interest from the lookup table 75, and the first feature
第1オプティカルフロー演算部78aは、対象フレーム選択部72により選択された対象フレーム、第1特徴点検出装置100aから入力された特徴点の座標と画素値、および参照フレーム選択部74により選択された参照フレームに基づき、注目領域のオプティカルフローを算出する。第2オプティカルフロー演算部78bも、別の注目領域について同様に処理する。
The first optical
後処理部80は、第1閾値判定部82aおよび第2閾値判定部82bを含む。第1閾値判定部82aは、パラメータ決定部77から設定されたしきい値と、第1オプティカルフロー演算部78aから入力されたオプティカルフローの大きさを比較し、当該しきい値を超えるオプティカルフローを無効にする。第2閾値判定部82bは、パラメータ決定部77から設定された閾値と、第2オプティカルフロー演算部78bから入力されたオプティカルフローの大きさを比較し、当該しきい値を超えるオプティカルフローを無効にする。
The
以上説明したように実施の形態3によれば、実施の形態2と同様の効果を奏する。さらに、注目領域ごとに最適なパラメータを設定することにより、トレードオフ関係にある精度と速度をきめ細かく調整することができる。 As described above, according to the third embodiment, the same effects as those of the second embodiment can be obtained. Furthermore, by setting optimal parameters for each region of interest, it is possible to finely adjust the accuracy and speed that are in a trade-off relationship.
以上、本発明をいくつかの実施形態をもとに説明した。これらの実施の形態は例示であり、それらの各構成要素や各処理プロセスの組合せにいろいろな変形例が可能なこと、またそうした変形例も本発明の範囲にあることは当業者に理解されるところである。 The present invention has been described based on some embodiments. It is understood by those skilled in the art that these embodiments are exemplifications, and that various modifications can be made to combinations of the respective constituent elements and processing processes, and such modifications are also within the scope of the present invention. By the way.
たとえば、上述した一次元フィルタ30a〜30dのそれぞれが、暗い特徴点を検出するフィルタ、および明るい特徴点を検出するフィルタの二つのフィルタを備えてもよい。
図7(a)は、注目画素が暗い場合において、窓領域の各画素値に掛けられる係数の一例を示す。図7(b)は、注目画素が明るい場合において、窓領域の各画素値に掛けられる係数の一例を示す。図7(a)、(b)は、図2の変形例である。
For example, each of the above-described one-
FIG. 7A shows an example of a coefficient to be multiplied to each pixel value in the window area when the target pixel is dark. FIG. 7B shows an example of a coefficient to be multiplied to each pixel value in the window area when the target pixel is bright. FIGS. 7A and 7B are modifications of FIG.
図7(a)では、一次元フィルタ30a〜30dは、それぞれの画素値列に対して、注目画素の画素値を−2α倍し、その二つの周辺画素の画素値をそれぞれα倍する。一次元フィルタ30a〜30dは、α倍された二つの周辺画素の画素値を加算し、その値と、−2α倍された注目画素の画素値との和を求める。その和を出力結果として判定部40に出力する。図7(a)に示す係数は、注目画素の画素値が低い場合に有効である。フィルタ部30の出力結果が正になる確率が高いためである。
In FIG. 7A, the one-
一方、図7(b)では、一次元フィルタ30a〜30dは、それぞれの画素値列に対して、注目画素の画素値を2α倍し、その二つの周辺画素の画素値をそれぞれ−α倍する。一次元フィルタ30a〜30dは、−α倍された二つの周辺画素の画素値を加算し、その値と、2α倍された注目画素の画素値との和を求める。その和を出力結果として判定部40に出力する。図7(b)に示す係数は、注目画素の画素値が高い場合に有効である。フィルタ部30の出力結果が正になる確率が高いためである。
On the other hand, in FIG. 7B, the one-
図7(a)と図7(b)を両方実装し、判定部40が正の出力結果を採用することにより、判定部40に絶対値変換部42a〜dを設ける必要がなくなり、判定部40の構成を簡素化することができる。また、図7(a)と図7(b)を順番にソフトウェア処理で実現してもよい。この場合、実施の形態1と比較し、回路全体の構成を簡素化することができる。
When both FIG. 7A and FIG. 7B are implemented and the
実施の形態2では、パラメータ決定部77から指定される注目領域の位置に基づき、上記部分領域の位置が設定される例を説明した。この点、特徴点検出装置100が監視カメラなどの定点カメラに搭載される場合、あらかじめ上記部分領域の位置を設定してもよい。これよれば、すべての画素を特徴点の検出対象とする必要がなくなり、演算量を大幅に低減することができる。
In the second embodiment, the example in which the position of the partial area is set based on the position of the attention area specified by the parameter determination unit 77 has been described. In this regard, when the feature
10 フレームバッファ、 20 読出部、 30 フィルタ部、 30a フィルタa、 30b フィルタb、 30c フィルタc、 30d フィルタd、 32a 第1乗算部、 34a 第2乗算部、 36a 第3乗算部、 38 加算部、 39 減算部、 40 判定部、 42a 絶対値変換部a、 42b 絶対値変換部b、 42c 絶対値変換部c、 42d 絶対値変換部d、 44a 比較部a、 44b 比較部b、 44c 比較部c、 44d 比較部d、 45 正負符号比較部、 46 AND回路、 SW1 スイッチ、 48 特徴点格納部、 60 撮像素子、 62 信号処理部、 70 フレームバッファ、 72 対象フレーム選択部、 74 参照フレーム選択部、 75 ルックアップテーブル、 76 オプティカルフロー検出部、 77 パラメータ決定部、 78 オプティカルフロー演算部、 78a 第1オプティカルフロー演算部、 78b 第2オプティカルフロー演算部、 80 後処理部、 82a 第1閾値判定部、 82b 第2閾値判定部、 100 特徴点検出装置、 200 動画像処理システム、 210 撮像部、 220 動画像処理装置。 10 frame buffer, 20 reading unit, 30 filter unit, 30a filter a, 30b filter b, 30c filter c, 30d filter d, 32a first multiplication unit, 34a second multiplication unit, 36a third multiplication unit, 38 addition unit, 39 subtraction unit, 40 determination unit, 42a absolute value conversion unit a, 42b absolute value conversion unit b, 42c absolute value conversion unit c, 42d absolute value conversion unit d, 44a comparison unit a, 44b comparison unit b, 44c comparison unit c 44d comparison unit d, 45 positive / negative sign comparison unit, 46 AND circuit, SW1 switch, 48 feature point storage unit, 60 image sensor, 62 signal processing unit, 70 frame buffer, 72 target frame selection unit, 74 reference frame selection unit, 75 lookup table, 76 optical flow Output unit, 77 parameter determination unit, 78 optical flow calculation unit, 78a first optical flow calculation unit, 78b second optical flow calculation unit, 80 post-processing unit, 82a first threshold value determination unit, 82b second threshold value determination unit, 100 Feature point detection device, 200 moving image processing system, 210 imaging unit, 220 moving image processing device.
Claims (6)
前記読出部によりそれぞれ一列に読み出された複数の画素値列に対して、それぞれ所定の変換を施すフィルタと、
前記フィルタによるそれぞれの出力結果のすべてが、所定の条件を満たしたとき、前記注目画素を特徴点候補と判定する判定部と、
を備えることを特徴とする特徴点検出装置。 A readout unit that reads out the pixel value of the pixel of interest and the pixel values of the surrounding pixels from a partial region set in the image in a plurality of directions in a row,
A filter that performs a predetermined conversion on each of a plurality of pixel value sequences read in a row by the reading unit;
A determination unit that determines the pixel of interest as a feature point candidate when all of the respective output results by the filter satisfy a predetermined condition;
A feature point detection apparatus comprising:
前記判定部は、前記出力結果の絶対値のすべてが所定のしきい値を超えたとき、前記注目画素を前記特徴点候補と判定することを特徴とする請求項1または2に記載の特徴点検出装置。 The filter multiplies the pixel value of the pixel of interest by 2α (α is a natural number) for each pixel value column, and sets the pixel values of two peripheral pixels positioned at equal intervals on both sides of the pixel of interest. The difference between the pixel value of the pixel of interest multiplied by 2α and the value obtained by adding the pixel values of the two neighboring pixels multiplied by α is the output result,
3. The feature inspection according to claim 1, wherein the determination unit determines that the target pixel is the feature point candidate when all of the absolute values of the output result exceed a predetermined threshold value. Out device.
前記特徴点検出装置により検出された特徴点についてオプティカルフローを算出するオプティカルフロー演算部と、
を備えることを特徴とする動画像処理装置。 The feature point detection device according to any one of claims 1 to 4, wherein a feature point is obtained from a frame included in a moving image.
An optical flow calculation unit that calculates an optical flow for the feature points detected by the feature point detection device;
A moving image processing apparatus comprising:
をさらに備えることを特徴とする請求項5に記載の動画像処理装置。 A setting unit that sets a position of the partial region with reference to at least one of a speed and a steering angle of a vehicle on which an imaging element that captures the moving image is mounted;
The moving image processing apparatus according to claim 5, further comprising:
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007205642A JP2009042909A (en) | 2007-08-07 | 2007-08-07 | Feature point detection device and moving image processor mounted therewith |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2007205642A JP2009042909A (en) | 2007-08-07 | 2007-08-07 | Feature point detection device and moving image processor mounted therewith |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2009042909A true JP2009042909A (en) | 2009-02-26 |
Family
ID=40443612
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2007205642A Withdrawn JP2009042909A (en) | 2007-08-07 | 2007-08-07 | Feature point detection device and moving image processor mounted therewith |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2009042909A (en) |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011043969A (en) * | 2009-08-20 | 2011-03-03 | Juki Corp | Method for extracting image feature point |
JP2017509073A (en) * | 2014-03-27 | 2017-03-30 | 株式会社日立製作所 | Image filtering method and CT system |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06189179A (en) * | 1992-12-17 | 1994-07-08 | Canon Inc | Motion vector detector |
JP2006099155A (en) * | 2004-09-28 | 2006-04-13 | Nissan Motor Co Ltd | Collision deciding device and method |
JP2007048006A (en) * | 2005-08-09 | 2007-02-22 | Olympus Corp | Image processor and image processing program |
-
2007
- 2007-08-07 JP JP2007205642A patent/JP2009042909A/en not_active Withdrawn
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH06189179A (en) * | 1992-12-17 | 1994-07-08 | Canon Inc | Motion vector detector |
JP2006099155A (en) * | 2004-09-28 | 2006-04-13 | Nissan Motor Co Ltd | Collision deciding device and method |
JP2007048006A (en) * | 2005-08-09 | 2007-02-22 | Olympus Corp | Image processor and image processing program |
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2011043969A (en) * | 2009-08-20 | 2011-03-03 | Juki Corp | Method for extracting image feature point |
JP2017509073A (en) * | 2014-03-27 | 2017-03-30 | 株式会社日立製作所 | Image filtering method and CT system |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
US10887519B2 (en) | Method, system and apparatus for stabilising frames of a captured video sequence | |
US9615039B2 (en) | Systems and methods for reducing noise in video streams | |
US9025885B2 (en) | Method of detecting global motion and global motion detector, and digital image stabilization (DIS) method and circuit including the same | |
JP6230751B1 (en) | Object detection apparatus and object detection method | |
JP5284048B2 (en) | Image processing apparatus, imaging apparatus, and image processing method | |
US10121262B2 (en) | Method, system and apparatus for determining alignment data | |
JP5975598B2 (en) | Image processing apparatus, image processing method, and program | |
KR20180054808A (en) | Motion detection within images | |
US20100271485A1 (en) | Image photographing apparatus and method of controlling the same | |
CN109325909B (en) | Image amplification method and image amplification device | |
JP2009260671A (en) | Image processing apparatus and imaging device | |
KR20150146424A (en) | Method for determining estimated depth in an image and system thereof | |
JP2017098843A (en) | Imaging device, object tracking method and program | |
JP6576179B2 (en) | Image processing apparatus, image processing method, and program | |
JP2009042909A (en) | Feature point detection device and moving image processor mounted therewith | |
KR102369802B1 (en) | Image processing apparatus and image processing method | |
JP5446641B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP5891751B2 (en) | Inter-image difference device and inter-image difference method | |
JP2019192048A (en) | Imaging apparatus | |
JP5953142B2 (en) | Image processing apparatus, imaging apparatus including the same, image processing method, and image processing program | |
US20220329739A1 (en) | Image capturing control apparatus, image capturing control method, and storage medium | |
JP2008293400A (en) | Video monitoring system and method for setting monitoring area | |
JP5605492B2 (en) | Image processing apparatus, image processing method, and image processing program | |
JP4674549B2 (en) | Motion vector detection device | |
JP6525693B2 (en) | Image processing apparatus and image processing method |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20100728 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20110705 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20110712 |
|
A761 | Written withdrawal of application |
Free format text: JAPANESE INTERMEDIATE CODE: A761 Effective date: 20110713 |