JP2018067058A - Image processing device, image processing method, program, and recording medium - Google Patents

Image processing device, image processing method, program, and recording medium Download PDF

Info

Publication number
JP2018067058A
JP2018067058A JP2016203815A JP2016203815A JP2018067058A JP 2018067058 A JP2018067058 A JP 2018067058A JP 2016203815 A JP2016203815 A JP 2016203815A JP 2016203815 A JP2016203815 A JP 2016203815A JP 2018067058 A JP2018067058 A JP 2018067058A
Authority
JP
Japan
Prior art keywords
feature point
image
pixel
feature
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016203815A
Other languages
Japanese (ja)
Inventor
稔 坂井田
Minoru Sakaida
稔 坂井田
友貴 植草
Tomotaka Uekusa
友貴 植草
谷口 浩之
Hiroyuki Taniguchi
浩之 谷口
総一郎 鈴木
Soichiro Suzuki
総一郎 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2016203815A priority Critical patent/JP2018067058A/en
Publication of JP2018067058A publication Critical patent/JP2018067058A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To accurately detect a motion vector further quickly while detecting a motion vector using grid-division.SOLUTION: An image processing device includes a region dividing unit for dividing an image into a plurality of regions, a feature point selecting unit for calculating a feature value and selecting a feature point for each divided region, and a motion vector calculation unit for determining an image region to be used for matching operation on the basis of the feature point of each divided region, and calculating a motion vector. The feature point selecting unit selects a feature point on the basis of a feature value of a pixel and a coordinate of the pixel.SELECTED DRAWING: Figure 2

Description

本発明は、動きベクトルを検出する画像処理装置に関するものである。   The present invention relates to an image processing apparatus that detects a motion vector.

デジタルスチルカメラやデジタルビデオカメラ等の撮像装置を用いて撮影された映像に対して像ブレ補正を施すためには、フレーム画像間の動き量を検出して複数枚の画像の位置合わせを行う必要がある。フレーム画像間の動き量を検出する方法としては、ジャイロセンサのような外部機器の情報を用いたり、撮影されたフレーム画像から動き量を推定したりする方法等がある。   In order to perform image blur correction on video shot using an imaging device such as a digital still camera or digital video camera, it is necessary to detect the amount of motion between frame images and align multiple images. There is. As a method for detecting the amount of motion between frame images, there are a method of using information of an external device such as a gyro sensor, a method of estimating the amount of motion from a captured frame image, and the like.

フレーム画像を用いて動き量を推定する方法は従来から種々提案されているが、その代表的なものとしてテンプレートマッチングによる動きベクトル検出がある。テンプレートマッチングでは、まず映像中のある2枚のフレーム画像の一方を原画像、もう一方を参照画像とする。そして、原画像上に配置した所定の大きさの矩形領域をテンプレートブロックとし、参照画像の各位置においてテンプレートブロック内の画素値の分布との相関を求める。このとき、参照画像中で最も相関が高くなる位置がテンプレートブロックの移動先であり、原画像上でのテンプレートブロックの位置を基準とした時の移動先への向きと移動量が動きベクトルとなる。   Various methods for estimating the amount of motion using a frame image have been proposed in the past. A typical example is motion vector detection by template matching. In template matching, first, one of two frame images in a video is used as an original image and the other is used as a reference image. Then, a rectangular area having a predetermined size arranged on the original image is used as a template block, and a correlation with a distribution of pixel values in the template block is obtained at each position of the reference image. At this time, the position where the correlation is highest in the reference image is the destination of the template block, and the direction and amount of movement to the destination when the position of the template block on the original image is used as a reference is the motion vector. .

動きベクトルの検出率を向上させるため、特徴点を抽出し、抽出した特徴点にテンプレートブロックを配置し、フレーム画像間でテンプレートマッチングを行う技術がある。ここで、画像全体に対して特徴点抽出を行うと、特徴点の分布は不均一になることが多い。不均一な特徴点に対して得られた動きベクトルを像ブレ補正の用途で使用する場合、特徴点の集中した領域が主となる像ブレ補正となってしまう。   In order to improve the detection rate of motion vectors, there is a technique for extracting feature points, placing template blocks at the extracted feature points, and performing template matching between frame images. Here, when feature points are extracted from the entire image, the distribution of feature points is often non-uniform. When motion vectors obtained for non-uniform feature points are used for image blur correction, an area where the feature points are concentrated is the main image blur correction.

この問題を解決するため、特許文献1では、特徴点を均一に分布させるために、画像をグリッド状に分割して、特徴の大きさを表す特徴値を画素ごとに計算し、各グリッド内で特徴値が最も大きい画素を特徴点として抽出している。   In order to solve this problem, in Patent Document 1, in order to uniformly distribute feature points, an image is divided into grids, and feature values representing the size of the features are calculated for each pixel. A pixel having the largest feature value is extracted as a feature point.

図13は、特許文献1に記載されている技術に基づいて、各グリッド内で特徴点を求めて、その特徴点にテンプレートブロックを配置し、テンプレートマッチングを行う例を示した図である。図13において、1501は画像、1502−1,1502−2はグリッド、1503−1,1503−2はグリッド内の特徴点、1504−1,1504−2はテンプレート、1505−1,1505−2はテンプレートに対するサーチ範囲を示す。例えば、グリッド1502−1においては、特徴点1503−1を重心としたテンプレート1504−1に基づいて、テンプレートマッチングが行われる。   FIG. 13 is a diagram showing an example in which feature points are obtained in each grid based on the technique described in Patent Document 1, template blocks are arranged at the feature points, and template matching is performed. In FIG. 13, 1501 is an image, 1502-1 and 1502-2 are grids, 1503-1 and 1503-2 are feature points in the grid, 1504-1 and 1504-2 are templates, and 1505-1 and 1505-2 are Indicates the search range for the template. For example, in the grid 1502-1, template matching is performed based on the template 1504-1 having the feature point 1503-1 as the center of gravity.

特開2008−192060号公報JP 2008-192060 A

例えば、ビデオカメラなどの動画の像ブレ補正処理で使用される動きベクトル検出回路においては、リアルタイム性が要求される。そのため、例えば、グリッド1502−1における、テンプレートマッチング用画像生成、ならびに特徴点の算出処理が完了した直後に、グリッド1502−1のテンプレートマッチング処理を開始出来るように回路を制御する。しかし、グリッド1502−2で示すように、特徴点1503−2が、グリッドの下端に近い場合、テンプレート1504−2と、サーチ範囲1505−2が、グリッド1502−2の下にはみ出す場合がある。   For example, a motion vector detection circuit used in image blur correction processing of a moving image such as a video camera is required to have real-time characteristics. Therefore, for example, the circuit is controlled so that the template matching process of the grid 1502-1 can be started immediately after the template matching image generation and the feature point calculation process in the grid 1502-1 are completed. However, as indicated by the grid 1502-2, when the feature point 1503-2 is close to the lower end of the grid, the template 1504-2 and the search range 1505-2 may protrude below the grid 1502-2.

その場合、テンプレートマッチングを行うには、グリッド1502−2の外側の領域1506が必要となるため、下端グリッドより下の画像ラインが余分に必要となる。従って、グリッド1502−2のテンプレートマッチング用画像生成、ならびに特徴点の算出処理が完了した直後に、テンプレートマッチング処理を開始することが出来ない。少なくとも、グリッド1502−2の外側の領域1506に対するテンプレートマッチング用画像の生成が完了するまで、マッチング処理の開始が遅れてしまうという問題がある。   In this case, in order to perform template matching, an area 1506 outside the grid 1502-2 is required, so an extra image line below the lower end grid is required. Therefore, the template matching process cannot be started immediately after the template matching image generation of the grid 1502-2 and the feature point calculation process are completed. There is a problem that at least the start of the matching process is delayed until the generation of the template matching image for the region 1506 outside the grid 1502-2 is completed.

また、グリッド分割によるテンプレートマッチング処理においては、このようにテンプレート画像やサーチ範囲がグリッド外にはみ出る場合に余分画素が必要になるため、メモリにアクセスするデータ量が増えてしまうという問題もある。   Further, in template matching processing by grid division, extra pixels are required when the template image or the search range protrudes outside the grid as described above, and there is a problem that the amount of data accessing the memory increases.

本発明は上述した課題に鑑みてなされたものであり、その目的は、グリッド分割を用いた動きベクトルの検出において、より高速かつ正確に動きベクトルを検出できるようにすることである。   The present invention has been made in view of the above-described problems, and an object thereof is to make it possible to detect a motion vector more quickly and accurately in detecting a motion vector using grid division.

本発明に係る画像処理装置は、1つの画像を複数の領域に分割する領域分割手段と、分割された領域ごとに画素の特徴値を算出して、特徴点を選択する特徴点選択手段と、前記分割された領域ごとの特徴点に基づいてマッチング処理に使用する画像領域を決定し、動きベクトルを算出する動きベクトル算出手段と、を備え、前記特徴点選択手段は、前記画素の特徴値と、前記画素の座標とに基づいて特徴点を選択することを特徴とする。   An image processing apparatus according to the present invention includes a region dividing unit that divides one image into a plurality of regions, a feature point selecting unit that calculates feature values of pixels for each divided region, and selects feature points; Motion vector calculating means for determining an image area to be used for matching processing based on the feature points for each of the divided areas and calculating a motion vector, wherein the feature point selecting means includes the feature value of the pixel and The feature point is selected based on the coordinates of the pixel.

本発明によれば、グリッド分割を用いた動きベクトルの検出において、より高速かつ正確に動きベクトルを検出することが可能となる。   According to the present invention, it is possible to detect a motion vector more quickly and accurately in detecting a motion vector using grid division.

本発明の第1の実施形態に係わる画像処理装置の構成を示す図。1 is a diagram showing a configuration of an image processing apparatus according to a first embodiment of the present invention. 第1の実施形態における動きベクトル検出部の構成を示す図。The figure which shows the structure of the motion vector detection part in 1st Embodiment. 画像信号のグリッド分割を示す図。The figure which shows the grid division | segmentation of an image signal. 分割された画像信号の処理順序を示す図。The figure which shows the processing order of the divided image signal. 第1の実施形態における特徴点算出部の構成を示す図。The figure which shows the structure of the feature point calculation part in 1st Embodiment. テンプレート画像とサーチ画像の読み出し位置を説明する図。The figure explaining the read-out position of a template image and a search image. ベクトル検出画像生成処理、特徴点算出処理、テンプレートマッチング処理の処理タイミングを示す図。The figure which shows the process timing of a vector detection image generation process, a feature point calculation process, and a template matching process. 第1の実施形態における動きベクトル検出シーケンスを示すフローチャート。The flowchart which shows the motion vector detection sequence in 1st Embodiment. 第2の実施形態における特徴点算出部の構成を示す図。The figure which shows the structure of the feature point calculation part in 2nd Embodiment. 第2の実施形態における動きベクトル検出シーケンスを示すフローチャート。10 is a flowchart showing a motion vector detection sequence according to the second embodiment. 第3の実施形態における特徴点算出部の構成を示す図。The figure which shows the structure of the feature point calculation part in 3rd Embodiment. 第3の実施形態における動きベクトル検出シーケンスを示すフローチャート。The flowchart which shows the motion vector detection sequence in 3rd Embodiment. グリッド分割処理に基づく、特徴点テンプレートマッチングを示す図。The figure which shows the feature point template matching based on a grid division process.

以下、本発明の実施形態について、添付図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the accompanying drawings.

<第1の実施形態>
図1は、本発明の第1の実施形態に係わる画像処理装置の構成を示す図である。図1において、結像光学系701は、レンズや絞り等からなり、フォーカス調節や露出調節を行う。撮像素子702は、CCD、CMOSセンサ等からなり、光学像を電気信号に変換する。A/D変換回路703は、撮像素子702から出力されるアナログ画像信号をデジタル画像データに変換する。CPU704は、バスを介して画像処理装置全体の各種制御を司る。メモリ104は、データを格納する。動きベクトル検出部710は、画像信号から動きベクトルを検出し、検出結果をCPU704に通知する。画像処理部711は、画像信号に対して、レンズ歪の補正処理、動きベクトル検出部710が検出した動きベクトルに基づく像ブレ補正処理、等の各種画像処理を施す。表示部705は、画像処理部711で生成された画像データを液晶ディスプレイ等に表示する。記録部706は、画像処理部711で生成された画像データをメディア等に記録する。
<First Embodiment>
FIG. 1 is a diagram showing a configuration of an image processing apparatus according to the first embodiment of the present invention. In FIG. 1, an imaging optical system 701 includes a lens, a diaphragm, and the like, and performs focus adjustment and exposure adjustment. The image sensor 702 is composed of a CCD, a CMOS sensor, or the like, and converts an optical image into an electrical signal. The A / D conversion circuit 703 converts an analog image signal output from the image sensor 702 into digital image data. A CPU 704 manages various controls of the entire image processing apparatus via a bus. The memory 104 stores data. The motion vector detection unit 710 detects a motion vector from the image signal and notifies the CPU 704 of the detection result. The image processing unit 711 performs various types of image processing such as lens distortion correction processing and image blur correction processing based on the motion vector detected by the motion vector detection unit 710 on the image signal. The display unit 705 displays the image data generated by the image processing unit 711 on a liquid crystal display or the like. The recording unit 706 records the image data generated by the image processing unit 711 on a medium or the like.

次に、図2は、動きベクトル検出部710の構成を示す図である。図2において、グリッド分割部101は、画像を複数の領域(本実施形態では、グリッドと呼ぶ)に分割する。ベクトル検出画像生成部102は、ベクトル検出用の画像を生成する。特徴点算出部(特徴点選択部)103は、画像信号の特徴点を算出する。メモリ104は、ベクトル検出画像を格納する。マッチング処理部105は、メモリ104から読み出されたテンプレート画像とサーチ画像をテンプレートマッチングさせる。メモリアドレス生成部106は、特徴点の算出結果に応じて、メモリ104からのテンプレート画像とサーチ画像の読み出し位置を変更する。   Next, FIG. 2 is a diagram illustrating a configuration of the motion vector detection unit 710. In FIG. 2, the grid dividing unit 101 divides an image into a plurality of regions (referred to as grids in the present embodiment). The vector detection image generation unit 102 generates an image for vector detection. A feature point calculation unit (feature point selection unit) 103 calculates a feature point of the image signal. The memory 104 stores a vector detection image. The matching processing unit 105 performs template matching between the template image read from the memory 104 and the search image. The memory address generation unit 106 changes the reading position of the template image and the search image from the memory 104 according to the calculation result of the feature points.

次に、第1の実施形態における、動きベクトル検出処理の流れについて説明する。まず、ベクトル検出の対象となる画像信号が、グリッド分割部101に入力される。本実施形態におけるベクトル検出処理では、画像信号を複数の領域(グリッド)に分割し、各々の領域でベクトル値を算出する。   Next, the flow of motion vector detection processing in the first embodiment will be described. First, an image signal to be subjected to vector detection is input to the grid dividing unit 101. In the vector detection process in this embodiment, an image signal is divided into a plurality of regions (grids), and a vector value is calculated in each region.

図3は、本実施形態における画像信号のグリッド分割(領域分割)を示す図である。図3では、画像信号201を、水平方向に6個、垂直方向に4個の領域(グリッド)に分割している。グリッド分割数、グリッド画像サイズは、CPU704によってグリッド分割部101に対して設定される。以降の処理では、グリッド501について特徴点503を求め、求めた特徴点に応じて、テンプレート画像504の位置(画像領域)とサーチ画像505の位置(画像領域)を決定して、テンプレートマッチングを行う。特徴点503の座標は、グリッド501内の座標となる。グリッド508−5の特徴点513の場合、テンプレート画像514とサーチ画像515は、グリッド508−5からはみ出す。そのため、上端に余分領域516が必要になる。また、グリッド508−9の特徴点523の場合、テンプレート画像524とサーチ画像525は、グリッド508−9からはみ出す。そのため、下端に余分領域526が必要になる。このように端のグリッドに対しては、余分領域を準備する必要がある。余分領域のサイズは、CPU704によってグリッド分割部101に対して設定される。   FIG. 3 is a diagram showing grid division (region division) of an image signal in the present embodiment. In FIG. 3, the image signal 201 is divided into six regions (grids) in the horizontal direction and four in the vertical direction. The number of grid divisions and the grid image size are set for the grid division unit 101 by the CPU 704. In subsequent processing, a feature point 503 is obtained for the grid 501, and the position (image region) of the template image 504 and the position (image region) of the search image 505 are determined according to the obtained feature point, and template matching is performed. . The coordinates of the feature point 503 are the coordinates in the grid 501. In the case of the feature point 513 of the grid 508-5, the template image 514 and the search image 515 protrude from the grid 508-5. Therefore, an extra area 516 is required at the upper end. In the case of the feature point 523 of the grid 508-9, the template image 524 and the search image 525 protrude from the grid 508-9. Therefore, an extra area 526 is required at the lower end. Thus, it is necessary to prepare an extra area for the edge grid. The size of the extra area is set for the grid division unit 101 by the CPU 704.

図4は、分割された画像信号の処理順序を示す図である。グリッド分割部101は、後段のベクトル検出画像生成部102と、特徴点算出部103に対し、画像信号201を、前述した余分領域を含めた分割領域単位で出力する。まず、左上端の余分領域508−1の画像信号を読み出したら、次に、その右隣の余分領域508−2を読み出し、そのまま水平方向の余分領域を読み出す。上端の余分領域の画像信号を全て読み出し終えたら、グリッド501に対する左端の余分領域508−4を読み出し、その後に、グリッド501を読み出す。グリッド501を読み出し終えたら、グリッド508−5、グリッド508−10という順で、水平方向のグリッドを読み出していく。   FIG. 4 is a diagram illustrating the processing order of the divided image signals. The grid division unit 101 outputs the image signal 201 to the subsequent vector detection image generation unit 102 and the feature point calculation unit 103 in units of divided regions including the extra regions described above. First, after reading the image signal of the extra area 508-1 at the upper left end, the extra area 508-2 on the right is read out, and the extra area in the horizontal direction is read out as it is. When all of the image signals in the extra area at the upper end have been read out, the extra area 508-4 at the left end with respect to the grid 501 is read out, and then the grid 501 is read out. When the grid 501 has been read, the horizontal grids are read in the order of the grid 508-5 and the grid 508-10.

なお、後段のベクトル検出画像生成部102は、余分領域を入力する必要があるが、特徴点算出部103は、グリッドのみが処理対象となるため、余分領域の入力は不要である。例えば、余分領域がベクトル検出画像生成部102に入力されている間は、特徴点算出部103は、供給するクロックを停止するなどして、消費電力を抑える構成としてもよい。また、画像信号201がラスタスキャンでグリッド分割部101に入力される場合は、グリッド分割部101において、既知の手法によるラスタブロック変換処理を行う必要がある。   The vector detection image generation unit 102 in the subsequent stage needs to input an extra region, but the feature point calculation unit 103 does not need to input an extra region because only the grid is processed. For example, while the extra area is input to the vector detection image generation unit 102, the feature point calculation unit 103 may be configured to suppress power consumption by stopping the supplied clock. When the image signal 201 is input to the grid division unit 101 by raster scanning, the grid division unit 101 needs to perform raster block conversion processing by a known method.

次に、分割された画像信号は、ベクトル検出画像生成部102において、ベクトル検出画像に変換されて、メモリ104に書き込まれる。ベクトル検出画像生成部102は、例えば、バンドパスフィルタ回路であり、テンプレートマッチング処理に不要な、画像信号の高周波成分と低周波成分をカットすることを目的とする。   Next, the divided image signal is converted into a vector detection image by the vector detection image generation unit 102 and written into the memory 104. The vector detection image generation unit 102 is, for example, a band-pass filter circuit, and aims to cut high-frequency components and low-frequency components of image signals that are unnecessary for template matching processing.

また、ベクトル検出画像が生成されるのと並行して、特徴点算出部103において、各グリッドの特徴点が算出される。図5は、特徴点算出部103の構成を示した図である。特徴点算出部103は、特徴フィルタ部401、特徴評価部402、特徴点決定部403、座標算出部404を有する。特徴フィルタ部401は、例えば、バンドパスフィルタ、水平微分フィルタ、垂直微分フィルタ、平滑化フィルタなど、複数のフィルタから構成される。例えば、本実施形においては、バンドパスフィルタで不要な画像信号の高周波成分と低周波成分をカットし、水平方向の微分フィルタ処理を施した信号と、垂直方向の微分フィルタ処理を施した信号、それぞれに対して平滑化フィルタ処理を施した信号を出力する。   In parallel with the generation of the vector detection image, the feature point calculation unit 103 calculates the feature points of each grid. FIG. 5 is a diagram illustrating a configuration of the feature point calculation unit 103. The feature point calculation unit 103 includes a feature filter unit 401, a feature evaluation unit 402, a feature point determination unit 403, and a coordinate calculation unit 404. The feature filter unit 401 includes a plurality of filters such as a band pass filter, a horizontal differential filter, a vertical differential filter, and a smoothing filter, for example. For example, in the present embodiment, a high-frequency component and a low-frequency component of an unnecessary image signal are cut by a bandpass filter, a signal subjected to horizontal differential filter processing, and a signal subjected to vertical differential filter processing, A signal obtained by performing smoothing filter processing on each of them is output.

特徴評価部402は、特徴フィルタ部401によりフィルタ処理されたグリッドに対し、画素ごとに2つのエッジの交点や曲率が極大である曲線状の点など画素の周辺の微分値が多方向に大きい点を特徴評価式により特徴値として算出する。本実施形態では、例えば、Shi and Tomasiの手法を用いる場合について説明する。水平微分フィルタと垂直微分フィルタを施した結果から、自己相関行列Hを作成する。自己相関行列Hの式を(式1)に示す。   The feature evaluation unit 402 has a large differential value around the pixel in many directions, such as an intersection of two edges or a curved point having a maximum curvature for each pixel with respect to the grid filtered by the feature filter unit 401. Is calculated as a feature value by a feature evaluation formula. In the present embodiment, for example, a case where the Shi and Tomasi method is used will be described. An autocorrelation matrix H is created from the result of applying the horizontal differential filter and the vertical differential filter. An expression of the autocorrelation matrix H is shown in (Expression 1).

Figure 2018067058
Figure 2018067058

(式1)において、Ixは水平微分フィルタを施した結果、Iyは垂直微分フィルタを施した結果を表しており、ガウシアンフィルタGを畳み込む。Shi and Tomasiの特徴評価式を(式2)に示す。 In (Equation 1), Ix represents the result of applying the horizontal differential filter, Iy represents the result of applying the vertical differential filter, and convolves the Gaussian filter G. Shi and Tomasi's characteristic evaluation formula is shown in (Formula 2).

Shi and Tomashi = min(λ1,λ2) (式2)
(式2)は、(式1)の自己相関行列Hの固有値λ1,λ2のうち小さい方の固有値を特徴値とすることを示す。
Shi and Tomashi = min (λ1, λ2) (Formula 2)
(Expression 2) indicates that the smaller eigenvalue of the eigenvalues λ1 and λ2 of the autocorrelation matrix H of (Expression 1) is used as the feature value.

座標算出部404は、グリッド内における画素の座標を算出する。本実施形態において画素の座標は、グリッドの左上端を(0,0)とした相対座標(PX,PY)で表現するが、画像信号における絶対座標で表現してもよい。特徴点決定部403は、グリッド毎に、特徴評価部402によって算出された特徴値の最も大きい値を持つ画素を特徴点と決定する。グリッド内に同一の特徴値を持つ画素が複数存在した場合は、座標算出部404が算出した座標情報から、グリッド内で読み出す順番の一番早い画素を特徴点と決定する。   The coordinate calculation unit 404 calculates the coordinates of the pixels in the grid. In this embodiment, the coordinates of the pixel are expressed by relative coordinates (PX, PY) with (0, 0) being the upper left corner of the grid, but may be expressed by absolute coordinates in the image signal. The feature point determination unit 403 determines a pixel having the largest feature value calculated by the feature evaluation unit 402 as a feature point for each grid. When there are a plurality of pixels having the same feature value in the grid, the pixel with the earliest order of reading in the grid is determined as the feature point from the coordinate information calculated by the coordinate calculation unit 404.

なお、算出された特徴点は、特徴点決定部403内で、グリッド毎にメモリやレジスタに記憶される。そして、マッチング処理部105において、対応するグリッドのテンプレートマッチング処理が開始されるときに、メモリアドレス生成部106に特徴点情報がセットされる。   The calculated feature points are stored in a memory or a register for each grid in the feature point determination unit 403. When the matching processing unit 105 starts the template matching process for the corresponding grid, the feature point information is set in the memory address generation unit 106.

メモリ104には、現時点のベクトル検出画像(ベクトル算出画像)と、1フレーム前のベクトル検出画像の、2フレーム分のベクトル検出画像が記憶されている。本実施形においては、現時点のベクトル検出画像をテンプレート画像とし、1フレーム前のベクトル検出画像をサーチ画像として、テンプレートマッチングを行う。メモリアドレス生成部106は、メモリ104に配置された2枚のベクトル検出画像の所定のグリッドに対して、テンプレートマッチングに必要となるテンプレート画像とサーチ画像の読み出し位置を決定し、メモリアクセスを実施する。   The memory 104 stores a vector detection image for two frames of a current vector detection image (vector calculation image) and a vector detection image one frame before. In this embodiment, template matching is performed using the current vector detection image as a template image and the vector detection image one frame before as a search image. The memory address generation unit 106 determines a reading position of a template image and a search image necessary for template matching for a predetermined grid of two vector detection images arranged in the memory 104, and performs memory access. .

図6は、テンプレート画像とサーチ画像の読み出し位置を示す図である。図6において、502はグリッド501のグリッド開始座標である。そして、本実施形態では座標が(PX1,PY1)である画素503と座標が(PX2,PY2)である画素513の2つの画素がグリッド501内において特徴値の最も大きい画素であるとする。特徴点として画素503(PX1,PY1)を選択した場合、503は特徴点座標、504はテンプレート画像、505はサーチ画像、506はテンプレート画像読み出し開始座標、507はサーチ画像読み出し開始座標となる。508はテンプレートマッチング処理に必要となる、余分画素領域である。特徴点503(PX1,PY1)は、グリッド開始位置を(GSX,GSY)とした場合に、画像信号内の絶対座標としては以下の式で表現される。   FIG. 6 is a diagram illustrating the reading positions of the template image and the search image. In FIG. 6, reference numeral 502 denotes a grid start coordinate of the grid 501. In the present embodiment, it is assumed that the two pixels of the pixel 503 whose coordinates are (PX1, PY1) and the pixel 513 whose coordinates are (PX2, PY2) are the pixels having the largest feature value in the grid 501. When a pixel 503 (PX1, PY1) is selected as a feature point, 503 is a feature point coordinate, 504 is a template image, 505 is a search image, 506 is a template image read start coordinate, and 507 is a search image read start coordinate. Reference numeral 508 denotes an extra pixel area necessary for the template matching process. The feature point 503 (PX1, PY1) is expressed by the following formula as absolute coordinates in the image signal when the grid start position is (GSX, GSY).

(GPX,GPY)=(GSX+PX,GSY+PY) (式3)
テンプレート画像は、特徴点が中心となるように配置される。従って、読み出し開始位置(GTX,GTY)は、テンプレート画像の水平サイズをTX、垂直サイズをTYとした場合、以下の式で表現される。
(GPX, GPY) = (GSX + PX, GSY + PY) (Formula 3)
The template image is arranged so that the feature point is at the center. Accordingly, the read start position (GTX, GTY) is expressed by the following expression when the horizontal size of the template image is TX and the vertical size is TY.

(GTX,GTY)=(GPX−TX/2,GPY−TY/2) (式4)
サーチ画像は、画像の中心をテンプレート画像の中心に揃えて配置する。従って、読み出し開始位置(GMX,GMY)は、水平サイズをSX、垂直サイズをSYとした場合、以下の式で表現される。
(GTX, GTY) = (GPX−TX / 2, GPY−TY / 2) (Formula 4)
The search image is arranged with the center of the image aligned with the center of the template image. Accordingly, the read start position (GMX, GMY) is expressed by the following equation when the horizontal size is SX and the vertical size is SY.

(GMX,GMY)=(GPX−SX/2,GPY−SY/2) (式5)
メモリアドレス生成部106は、メモリ104に配置された現フレームのベクトル検出画像に対して、座標(GTX,GTY)から、水平サイズTX、垂直サイズTYの矩形領域を読み出すよう、メモリアドレスを発行する。また、同様に、メモリ104に配置された1フレーム前のベクトル検出画像に対して、座標(GMX,GMY)から水平サイズSX、垂直サイズSYの矩形領域を読み出すよう、メモリアドレスを発行する。テンプレート画像の水平、垂直サイズ、サーチ画像の水平、垂直サイズは、CPU704によってメモリアドレス生成部106、マッチング処理部105に対して設定されている。
(GMX, GMY) = (GPX-SX / 2, GPY-SY / 2) (Formula 5)
The memory address generation unit 106 issues a memory address so as to read out a rectangular area having a horizontal size TX and a vertical size TY from coordinates (GTX, GTY) with respect to the vector detection image of the current frame arranged in the memory 104. . Similarly, a memory address is issued so that a rectangular area having a horizontal size SX and a vertical size SY is read from coordinates (GMX, GMY) with respect to the vector detection image one frame before arranged in the memory 104. The horizontal and vertical sizes of the template image and the horizontal and vertical sizes of the search image are set for the memory address generation unit 106 and the matching processing unit 105 by the CPU 704.

特徴点として画素513(PX2,PY2)を選択した場合、513は特徴点座標、514はテンプレート画像、515はサーチ画像、516はテンプレート画像読み出し開始座標、517はサーチ画像読み出し開始座標となる。テンプレート画像514、サーチ画像515は、4つのグリッド501,508−5,508−7,508−8にまたがっている。   When a pixel 513 (PX2, PY2) is selected as a feature point, 513 is a feature point coordinate, 514 is a template image, 515 is a search image, 516 is a template image readout start coordinate, and 517 is a search image readout start coordinate. The template image 514 and the search image 515 span four grids 501, 508-5, 508-7, and 508-8.

図7は、ベクトル検出画像生成処理、特徴点算出処理、画素503(PX1,PY1)、画素513(PX2,PY2)のテンプレートマッチング処理の処理タイミングを示す図である。特徴点として画素503(PX1,PY1)を選択した場合、画素503(PX1,PY1)のテンプレート画像504、サーチ画像505はグリッド501内に収まっている。よって、画素503(PX1,PY1)のテンプレートマッチング処理は、グリッド501のベクトル検出画像生成処理が完了したタイミングで開始することが出来る。一方、特徴点として画素513(PX2,PY2)を選択した場合、画素513(PX2,PY2)のテンプレート画像514、サーチ画像515は、4つのグリッド501,508−5,508−7,508−8にまたがっている。よって、特徴点513(PX2,PY2)のテンプレートマッチング処理を開始するためには、4つのグリッド501,508−5,508−7,0508−8のベクトル検出画像生成処理が完了している必要がある。   FIG. 7 is a diagram illustrating processing timings of vector detection image generation processing, feature point calculation processing, and template matching processing of pixels 503 (PX1, PY1) and pixels 513 (PX2, PY2). When the pixel 503 (PX1, PY1) is selected as the feature point, the template image 504 and the search image 505 of the pixel 503 (PX1, PY1) are within the grid 501. Therefore, the template matching process of the pixel 503 (PX1, PY1) can be started at the timing when the vector detection image generation process of the grid 501 is completed. On the other hand, when the pixel 513 (PX2, PY2) is selected as the feature point, the template image 514 and the search image 515 of the pixel 513 (PX2, PY2) have four grids 501, 508-5, 508-7, and 508-8. It straddles. Therefore, in order to start the template matching process for the feature point 513 (PX2, PY2), the vector detection image generation process for the four grids 501, 508-5, 508-7, and 0508-8 needs to be completed. is there.

このように、グリッド内で下端に近い特徴点を選択し、テンプレート画像、サーチ画像が複数のグリッドにまたがると、テンプレートマッチング処理の開始が遅れてしまう。そのため、本実施形態では、グリッド内に同一の特徴値の画素が複数存在した場合は、グリッド内で読み出す順番の一番早い画素(グリッドの左上に近い画素)を特徴点と決定している。これにより、テンプレートマッチング処理開始の遅延を防いでいる。   As described above, when a feature point close to the lower end is selected in the grid and the template image and the search image extend over a plurality of grids, the start of the template matching process is delayed. For this reason, in the present embodiment, when there are a plurality of pixels having the same feature value in the grid, the pixel with the earliest order of reading in the grid (the pixel closest to the upper left of the grid) is determined as the feature point. This prevents a delay in starting the template matching process.

また、図3に示すように画像信号の下端グリッド508−9において、下端に近い特徴点523を選択してテンプレート画像524、サーチ画像525がグリッドをはみ出すと下端余分画素526のベクトル検出画像をメモリ104に書き出す必要がある。一方、下端グリッド508−19では、グリッド内読み出し順が一番早い画素533を特徴点として選択することで、テンプレート画像534、サーチ画像535がグリッドからはみ出さない。この場合、下端余分画素536のベクトル検出画像をメモリ104に書き出す必要はない。本実施形態において、特徴点算出部103が算出した特徴点情報は、ベクトル検出画像生成部102にも入力されている。ベクトル検出画像生成部102は、入力された特徴点情報から、画像信号の下端グリッドの特徴点のテンプレート画像、サーチ画像がグリッドをはみ出さない場合は下端の余分画素のベクトル検出画像をメモリ104に書き出さない。これにより、メモリ104に書き込むデータ量の増加を防いでいる。   As shown in FIG. 3, when a feature point 523 close to the lower end is selected in the lower end grid 508-9 of the image signal and the template image 524 and the search image 525 protrude from the grid, the vector detection image of the lower end extra pixel 526 is stored in the memory. 104 needs to be written out. On the other hand, in the lower end grid 508-19, the template image 534 and the search image 535 do not protrude from the grid by selecting the pixel 533 having the earliest readout order in the grid as a feature point. In this case, it is not necessary to write the vector detection image of the extra bottom pixel 536 to the memory 104. In the present embodiment, the feature point information calculated by the feature point calculation unit 103 is also input to the vector detection image generation unit 102. The vector detection image generation unit 102 stores, in the memory 104, the template image of the feature point of the lower end grid of the image signal from the input feature point information, or the vector detection image of the extra pixel at the lower end when the search image does not protrude from the grid. Do not export. This prevents an increase in the amount of data written to the memory 104.

マッチング処理部105は、メモリ104から読み出されたテンプレート画像とサーチ画像を用いて、相関値を算出し、その相関値からベクトル値を算出する。   The matching processing unit 105 calculates a correlation value using the template image and the search image read from the memory 104, and calculates a vector value from the correlation value.

例えば、相関値の算出方法の一例として差分絶対値和(Sum of Absolute Difference、以下SADと略す)を使用する。   For example, a sum of absolute difference (hereinafter abbreviated as SAD) is used as an example of a correlation value calculation method.

Figure 2018067058
Figure 2018067058

(式6)において、f(i,j)はテンプレート画像504内の座標(i,j)における画素値を表しており、g(i,j)はサーチ画像505において相関値算出の対象となる領域内の各画素値を表す。相関値算出対象領域は、テンプレート画像504と同じ大きさである。そしてSADでは、両ブロック内の各画素値f(i,j)及びg(i,j)について差の絶対値を計算し、その総和を求めることで相関値S_SADを得ることが出来る。従って、相関値S_SADの値が小さいほど両ブロック間の輝度値の差分が小さい、つまりテンプレート画像504と相関値算出領域内のテクスチャが類似していることを表している。なお、本実施形態では、相関値の一例としてSADを使用しているが、これに限るものではなく、差分二乗和(SSD)や正規化相互相関(NCC)等の他の相関値を用いてもよい。そして、相関値の最小値の位置(MVX,MVY)を、グリッドの動きベクトル値として出力する。 In (Expression 6), f (i, j) represents the pixel value at the coordinates (i, j) in the template image 504, and g (i, j) is the target of correlation value calculation in the search image 505. Represents each pixel value in the region. The correlation value calculation target area is the same size as the template image 504. In SAD, the absolute value of the difference is calculated for each pixel value f (i, j) and g (i, j) in both blocks, and the correlation value S_SAD can be obtained by obtaining the sum. Therefore, the smaller the correlation value S_SAD, the smaller the difference in luminance value between the two blocks, that is, the template image 504 and the texture in the correlation value calculation region are similar. In this embodiment, SAD is used as an example of a correlation value, but the present invention is not limited to this, and other correlation values such as a sum of squared differences (SSD) and a normalized cross correlation (NCC) are used. Also good. Then, the position (MVX, MVY) of the minimum value of the correlation value is output as a grid motion vector value.

図8は、本実施形態における動きベクトルの検出シーケンスを示すフローチャートである。まず、CPU704は、グリッド分割部101にグリッド分割数、グリッド画像サイズ、余分領域サイズを設定する(S801)。CPU704は、メモリアドレス生成部106、マッチング処理部105にテンプレート画像の水平・垂直サイズ、サーチ画像の水平・垂直サイズを設定する(S802)。CPU704は、結像光学系701、撮像素子702に画像信号の取得を指示する(S803)。CPU704は、動きベクトル検出部710から検出完了の通知を受けたら(S804)、検出された動きベクトルデータを取得する(S805)。   FIG. 8 is a flowchart showing a motion vector detection sequence in the present embodiment. First, the CPU 704 sets the number of grid divisions, the grid image size, and the extra area size in the grid division unit 101 (S801). The CPU 704 sets the horizontal / vertical size of the template image and the horizontal / vertical size of the search image in the memory address generation unit 106 and the matching processing unit 105 (S802). The CPU 704 instructs the imaging optical system 701 and the image sensor 702 to acquire an image signal (S803). Upon receiving notification of detection completion from the motion vector detection unit 710 (S804), the CPU 704 acquires detected motion vector data (S805).

以上説明したように、第1の実施形態におけるベクトル検出処理を用いることにより、従来よりもベクトル検出処理の遅延、及びメモリ104に書き込むベクトル検出画像のデータ量の増加を防ぐことが出来る。   As described above, by using the vector detection process in the first embodiment, it is possible to prevent the delay of the vector detection process and the increase in the data amount of the vector detection image to be written in the memory 104 as compared with the prior art.

なお、本実施形態では水平方向6個、垂直方向4個にグリッド分割したが、水平方向6個、垂直方向4個のグリッド分割数でなくてもよい。また、画像信号の読み出し順は必ずしも本実施形態と同じでなくてもよく、読み出す順番の一番早い画素を特徴点として選択出来ればよい。   In this embodiment, the grid is divided into six in the horizontal direction and four in the vertical direction, but the number of grid divisions may not be six in the horizontal direction and four in the vertical direction. In addition, the readout order of the image signals is not necessarily the same as that in the present embodiment, and it is sufficient that the pixel with the earliest readout order can be selected as the feature point.

<第2の実施形態>
以下、本発明の第2の実施形態について説明する。第2の実施形態の画像処理装置の構成、動きベクトル検出部の構成、画像信号のグリッド分割、分割された画像信号の処理順序は第1の実施形態と同様であるため、説明を省略する。第2の実施形態では、特徴点算出部の構成、動きベクトル検出シーケンスが第1の実施形態と異なる。
<Second Embodiment>
Hereinafter, a second embodiment of the present invention will be described. Since the configuration of the image processing apparatus, the configuration of the motion vector detection unit, the grid division of the image signal, and the processing order of the divided image signals in the second embodiment are the same as those in the first embodiment, the description thereof is omitted. In the second embodiment, the configuration of the feature point calculation unit and the motion vector detection sequence are different from those in the first embodiment.

図9は、第2の実施形態における特徴点算出部の構成を示す図である。特徴フィルタ部401、特徴評価部402、特徴点決定部403、座標算出部404は第1の実施形態と同じである。ゲイン算出部901は、特徴評価部402が算出した座標情報とCPU704に設定されたゲイン算出係数から、特徴画像評価結果に重み付けするゲインを算出する。特徴点決定部403は、ゲインで重み付けされた特徴画像評価結果から特徴点を決定する。本実施形態では、グリッド内の読み出す順番の早い座標のゲインが大きくなるようにしている。これにより、特徴画像評価結果が一番大きくなくとも、グリッド内の読み出す順番の早い座標が特徴点として選択される点が第1の実施形態と異なる。本制御によって、より読み出し順が早い座標を特徴点として選択することが出来る。   FIG. 9 is a diagram illustrating a configuration of a feature point calculation unit according to the second embodiment. The feature filter unit 401, the feature evaluation unit 402, the feature point determination unit 403, and the coordinate calculation unit 404 are the same as those in the first embodiment. The gain calculation unit 901 calculates a gain for weighting the feature image evaluation result from the coordinate information calculated by the feature evaluation unit 402 and the gain calculation coefficient set in the CPU 704. The feature point determination unit 403 determines a feature point from the feature image evaluation result weighted by the gain. In the present embodiment, the gain of the coordinates in the early order of reading in the grid is increased. This is different from the first embodiment in that even if the feature image evaluation result is not the largest, the coordinates that are read in the grid in the early order of selection are selected as the feature points. With this control, it is possible to select, as a feature point, coordinates that are earlier in reading order.

図10は、本実施形態における動きベクトル検出シーケンスを示すフローチャートである。まず、CPU704は、グリッド分割部101にグリッド分割数、グリッド画像サイズ、余分領域サイズを設定する(S1001)。CPU704は、メモリアドレス生成部106、マッチング処理部105にテンプレート画像の水平・垂直サイズ、サーチ画像の水平・垂直サイズを設定する(S1002)。CPU704は、ゲイン算出部901にゲイン算出係数を設定する(S1003)。CPU704は、結像光学系701、撮像素子702に画像信号の取得を指示する(S1004)。CPU704は、動きベクトル検出部710から検出完了の通知を受けたら(S1005)、検出された動きベクトルデータを取得する(S1006)。   FIG. 10 is a flowchart showing a motion vector detection sequence in the present embodiment. First, the CPU 704 sets the number of grid divisions, the grid image size, and the extra area size in the grid division unit 101 (S1001). The CPU 704 sets the horizontal / vertical size of the template image and the horizontal / vertical size of the search image in the memory address generation unit 106 and the matching processing unit 105 (S1002). The CPU 704 sets a gain calculation coefficient in the gain calculation unit 901 (S1003). The CPU 704 instructs the imaging optical system 701 and the image sensor 702 to acquire an image signal (S1004). Upon receiving notification of detection completion from the motion vector detection unit 710 (S1005), the CPU 704 obtains detected motion vector data (S1006).

以上、第2の実施形態におけるベクトル検出処理によって、より読み出し順が早い座標を特徴点として選択出来るため、ベクトル検出処理の遅延、及びメモリ104に書き込むベクトル検出画像のデータ量の増加を防ぐことが出来る。   As described above, the vector detection process according to the second embodiment can select coordinates with earlier reading order as feature points, thereby preventing a delay in the vector detection process and an increase in the data amount of the vector detection image written in the memory 104. I can do it.

なお、本実施形態ではグリッド内の読み出し順のみに基づいてゲインを算出したが、読み出し順だけでなく、他の画像信号処理結果も考慮してゲインを算出してもよい。例えば撮像されたシーンを解析するシーン解析手段を持ち、シーン解析結果、及びグリッド内読み出し順の両方を考慮してゲインを算出してもよい。
<第3の実施形態>
以下、本発明の第3の実施形態について説明する。第3の実施形態の画像処理装置の構成、動きベクトル検出部の構成、画像信号のグリッド分割、分割された画像信号の処理順序は第1、第2の実施形態と同様であるため、説明を省略する。第3の実施形態では、特徴点算出部の構成、動きベクトル検出シーケンスが第1、第2の実施形態と異なる。
In the present embodiment, the gain is calculated based only on the readout order in the grid. However, the gain may be calculated in consideration of not only the readout order but also other image signal processing results. For example, a scene analysis unit that analyzes a captured scene may be provided, and the gain may be calculated in consideration of both the scene analysis result and the readout order in the grid.
<Third Embodiment>
Hereinafter, a third embodiment of the present invention will be described. The configuration of the image processing apparatus of the third embodiment, the configuration of the motion vector detection unit, the grid division of the image signal, and the processing order of the divided image signals are the same as those in the first and second embodiments. Omitted. In the third embodiment, the configuration of the feature point calculation unit and the motion vector detection sequence are different from those in the first and second embodiments.

図11は、第3の実施形態における特徴点算出部の構成を示す図である。特徴フィルタ部401、特徴評価部402、座標算出部404は第1、第2の実施形態と同じである。閾値判定部1101は、特徴評価部402が算出した特徴画像評価結果とCPU704に設定された閾値との比較結果を出力する。特徴決定部1103は、閾値との比較結果から特徴点を決定する。本実施形態では、閾値を超えた特徴画像評価結果が複数あり、閾値判定部1101の判定結果が同一の画素が複数ある場合にグリッド内の読み出し順が一番早い座標を特徴点として選択する。これにより、特徴画像評価結果が一番大きくなくとも、評価結果が十分大きく、かつグリッド内の読み出し順が早い座標を特徴点として選択出来る点が第1の実施形態と異なる。この制御により、特徴画像評価結果が高く、かつ読み出し順が早い座標を特徴点として選択することが出来る。   FIG. 11 is a diagram illustrating a configuration of a feature point calculation unit according to the third embodiment. The feature filter unit 401, the feature evaluation unit 402, and the coordinate calculation unit 404 are the same as those in the first and second embodiments. The threshold determination unit 1101 outputs a comparison result between the feature image evaluation result calculated by the feature evaluation unit 402 and the threshold set in the CPU 704. The feature determination unit 1103 determines a feature point from the comparison result with the threshold value. In the present embodiment, when there are a plurality of feature image evaluation results exceeding the threshold value and there are a plurality of pixels with the same determination result of the threshold determination unit 1101, the coordinate with the earliest readout order in the grid is selected as the feature point. This is different from the first embodiment in that even if the feature image evaluation result is not the largest, the evaluation result is sufficiently large and the coordinates in the grid that are read out earlier can be selected as the feature point. With this control, coordinates with high feature image evaluation results and quick reading order can be selected as feature points.

図12は、本実施形態における、動きベクトル検出シーケンスを示すフローチャートである。まず、CPU704は、グリッド分割部101にグリッド分割数、グリッド画像サイズ、余分領域サイズを設定する(S1201)。CPU704は、メモリアドレス生成部106、マッチング処理部105にテンプレート画像の水平・垂直サイズ、サーチ画像の水平・垂直サイズを設定する(S1202)。CPU704は、閾値判定部1101に閾値を設定する(S1203)。CPU704は、結像光学系701、撮像素子702に画像信号の取得を指示する(S1204)。CPU704は、動きベクトル検出部710から検出完了の通知を受けたら(S1205)、検出された動きベクトルデータを取得する(S1206)。   FIG. 12 is a flowchart showing a motion vector detection sequence in the present embodiment. First, the CPU 704 sets the number of grid divisions, the grid image size, and the extra area size in the grid division unit 101 (S1201). The CPU 704 sets the horizontal / vertical size of the template image and the horizontal / vertical size of the search image in the memory address generation unit 106 and the matching processing unit 105 (S1202). The CPU 704 sets a threshold in the threshold determination unit 1101 (S1203). The CPU 704 instructs the imaging optical system 701 and the image sensor 702 to acquire an image signal (S1204). Upon receiving notification of detection completion from the motion vector detection unit 710 (S1205), the CPU 704 acquires detected motion vector data (S1206).

以上、第3の実施形態におけるベクトル検出処理により、特徴画像評価結果が高く、かつ読み出し順が早い座標を特徴点として選択することが出来る。これより、ベクトル検出精度を落とすことなく、ベクトル検出処理の遅延、及びメモリ104に書き込むベクトル検出画像のデータ量の増加を防ぐことが出来る。   As described above, by the vector detection process in the third embodiment, it is possible to select coordinates having a high feature image evaluation result and a fast reading order as feature points. As a result, it is possible to prevent delay in vector detection processing and increase in the amount of vector detection image data to be written in the memory 104 without reducing the vector detection accuracy.

(その他の実施形態)
本発明は、上述の実施形態の1以上の機能を実現するプログラムを、ネットワーク又は記憶媒体を介してシステム又は装置に供給し、そのシステム又は装置のコンピュータにおける1つ以上のプロセッサーがプログラムを読出し実行する処理でも実現可能である。また、1以上の機能を実現する回路(例えば、ASIC)によっても実現可能である。
(Other embodiments)
The present invention supplies a program that realizes one or more functions of the above-described embodiments to a system or apparatus via a network or a storage medium, and one or more processors in a computer of the system or apparatus read and execute the program This process can be realized. It can also be realized by a circuit (for example, ASIC) that realizes one or more functions.

101:グリッド分割部、102:ベクトル検出画像生成部、103:特徴点算出部、104:メモリ、105:マッチング処理部、106:メモリアドレス生成部、710:動きベクトル検出部 101: Grid division unit, 102: Vector detection image generation unit, 103: Feature point calculation unit, 104: Memory, 105: Matching processing unit, 106: Memory address generation unit, 710: Motion vector detection unit

Claims (12)

1つの画像を複数の領域に分割する領域分割手段と、
分割された領域ごとに画素の特徴値を算出して、特徴点を選択する特徴点選択手段と、
前記分割された領域ごとの特徴点に基づいてマッチング処理に使用する画像領域を決定し、動きベクトルを算出する動きベクトル算出手段と、を備え、
前記特徴点選択手段は、前記画素の特徴値と、前記画素の座標とに基づいて特徴点を選択することを特徴とする画像処理装置。
Area dividing means for dividing one image into a plurality of areas;
A feature point selection means for calculating a feature value of a pixel for each divided region and selecting a feature point;
A motion vector calculating means for determining an image region to be used for matching processing based on a feature point for each of the divided regions, and calculating a motion vector;
The image processing apparatus, wherein the feature point selection unit selects a feature point based on a feature value of the pixel and a coordinate of the pixel.
前記特徴点選択手段は、前記画素の特徴値と、前記分割された領域における前記画素の座標とに基づいて特徴点を選択することを特徴とする請求項1に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the feature point selection unit selects a feature point based on a feature value of the pixel and a coordinate of the pixel in the divided area. 前記特徴点選択手段は、前記分割された領域において同一の特徴値を有する画素が複数存在した場合に、前記分割された領域で前記特徴点選択手段が読み出す順番の早い画素を特徴点として選択することを特徴とする請求項1又は2に記載の画像処理装置。   The feature point selection unit selects, as a feature point, a pixel that is earlier in the order of reading by the feature point selection unit in the divided area when there are a plurality of pixels having the same feature value in the divided area. The image processing apparatus according to claim 1, wherein the image processing apparatus is an image processing apparatus. 前記特徴点選択手段は、前記分割された領域において同一の特徴値を有する画素が複数存在した場合に、前記分割された領域で前記特徴点選択手段が読み出す順番の一番早い画素を特徴点として選択することを特徴とする請求項3に記載の画像処理装置。   The feature point selection means, when there are a plurality of pixels having the same feature value in the divided area, the feature point selecting means uses the earliest pixel read by the feature point selection means as the feature point in the divided area. The image processing apparatus according to claim 3, wherein the image processing apparatus is selected. 前記特徴点選択手段が読み出す順番の一番早い画素とは、前記分割された領域において左上の位置の座標の画素であることを特徴とする請求項4に記載の画像処理装置。   The image processing apparatus according to claim 4, wherein the pixel with the earliest order of reading by the feature point selection unit is a pixel at a coordinate at an upper left position in the divided area. 前記特徴点選択手段は、前記分割された領域における画素の座標に基づいてゲインを算出するゲイン算出手段をさらに有し、前記ゲイン算出手段が算出したゲインによって重み付けされた特徴値に基づいて特徴点を選択することを特徴とする請求項1又は2に記載の画像処理装置。   The feature point selection unit further includes a gain calculation unit that calculates a gain based on the coordinates of a pixel in the divided region, and the feature point is based on a feature value weighted by the gain calculated by the gain calculation unit. The image processing apparatus according to claim 1, wherein the image processing apparatus is selected. 前記ゲイン算出手段は、前記分割された領域において、前記特徴点選択手段が読み出す順番の早い座標の画素ほどゲインが大きくなるようにゲインを算出することを特徴とする請求項6に記載の画像処理装置。   7. The image processing according to claim 6, wherein the gain calculation unit calculates the gain so that the gain of a pixel at an earlier coordinate in the order of reading by the feature point selection unit is larger in the divided area. 8. apparatus. 前記特徴点選択手段は、前記画素の特徴値と所定の閾値とを比較することにより、前記特徴点を選択することを特徴とする請求項1又は2に記載の画像処理装置。   The image processing apparatus according to claim 1, wherein the feature point selection unit selects the feature point by comparing a feature value of the pixel with a predetermined threshold value. 前記特徴点選択手段は、前記画素の特徴値と所定の閾値とを比較した結果、同一の判定結果の画素が複数存在した場合に、前記分割された領域において前記特徴点選択手段が読み出す順番の一番早い画素を特徴点として選択することを特徴とする請求項8に記載の画像処理装置。   The feature point selection unit compares the feature value of the pixel with a predetermined threshold, and when there are a plurality of pixels having the same determination result, the feature point selection unit reads the order of the feature point selection unit in the divided area. The image processing apparatus according to claim 8, wherein the earliest pixel is selected as a feature point. 1つの画像を複数の領域に分割する領域分割工程と、
分割された領域ごとに画素の特徴値を算出して、特徴点を選択する特徴点選択工程と、
前記分割された領域ごとの特徴点に基づいてマッチング処理に使用する画像領域を決定し、動きベクトルを算出する動きベクトル算出工程と、を有し、
前記特徴点選択工程では、前記画素の特徴値と、前記画素の座標とに基づいて特徴点を選択することを特徴とする画像処理方法。
A region dividing step of dividing one image into a plurality of regions;
Calculating a feature value of a pixel for each divided region and selecting a feature point; and
A motion vector calculating step of determining an image region to be used for the matching process based on the feature points for each of the divided regions and calculating a motion vector;
In the feature point selection step, a feature point is selected based on a feature value of the pixel and a coordinate of the pixel.
請求項10に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラム。   The program for making a computer perform each process of the image processing method of Claim 10. 請求項10に記載の画像処理方法の各工程をコンピュータに実行させるためのプログラムを記憶したコンピュータが読み取り可能な記憶媒体。   A computer-readable storage medium storing a program for causing a computer to execute each step of the image processing method according to claim 10.
JP2016203815A 2016-10-17 2016-10-17 Image processing device, image processing method, program, and recording medium Pending JP2018067058A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016203815A JP2018067058A (en) 2016-10-17 2016-10-17 Image processing device, image processing method, program, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016203815A JP2018067058A (en) 2016-10-17 2016-10-17 Image processing device, image processing method, program, and recording medium

Publications (1)

Publication Number Publication Date
JP2018067058A true JP2018067058A (en) 2018-04-26

Family

ID=62087137

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016203815A Pending JP2018067058A (en) 2016-10-17 2016-10-17 Image processing device, image processing method, program, and recording medium

Country Status (1)

Country Link
JP (1) JP2018067058A (en)

Similar Documents

Publication Publication Date Title
JP4539729B2 (en) Image processing apparatus, camera apparatus, image processing method, and program
US10839529B2 (en) Image processing apparatus and image processing method, and storage medium
US11836903B2 (en) Subject recognition method, electronic device, and computer readable storage medium
JP2018041380A (en) Image processing apparatus, image processing method, and program
US9942477B2 (en) Image processing apparatus and method
US9536169B2 (en) Detection apparatus, detection method, and storage medium
US11153479B2 (en) Image processing apparatus, capable of detecting an amount of motion between images by tracking a point across one or more images, image capturing apparatus, image processing method, and storage medium
JP6576179B2 (en) Image processing apparatus, image processing method, and program
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP6579816B2 (en) Image processing apparatus, image processing method, and program
JP2019020839A (en) Image processing apparatus, image processing method and program
JP2020136774A (en) Image processing apparatus for detecting motion vector, control method of the same, and program
JP2012169701A (en) Image processing device, image processing method, and program
JP7077115B2 (en) Image processing equipment, image processing methods, and programs
JP2018067058A (en) Image processing device, image processing method, program, and recording medium
CN112752086B (en) Image signal processor, method and system for environment mapping
JP2018072941A (en) Image processing device, image processing method, program, and storage medium
JP2019192048A (en) Imaging apparatus
JP6556033B2 (en) Image processing apparatus, image processing method, and program
JP2019176261A (en) Image processor
JP2018081641A (en) Image processing device and control method thereof, program, and storage medium
JP2018081640A (en) Image processing device, image processing method, program and storage medium
JP2018072895A (en) Image processing device, image processing method and program
JP2017173920A (en) Image processor, image processing method, image processing program, and record medium
JP2017050700A (en) Image processor, imaging apparatus and image processing program