JP2013190938A - Stereo image processing device - Google Patents

Stereo image processing device Download PDF

Info

Publication number
JP2013190938A
JP2013190938A JP2012055960A JP2012055960A JP2013190938A JP 2013190938 A JP2013190938 A JP 2013190938A JP 2012055960 A JP2012055960 A JP 2012055960A JP 2012055960 A JP2012055960 A JP 2012055960A JP 2013190938 A JP2013190938 A JP 2013190938A
Authority
JP
Japan
Prior art keywords
template matching
size
area
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012055960A
Other languages
Japanese (ja)
Inventor
Yosuke Fukunaga
洋介 福永
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2012055960A priority Critical patent/JP2013190938A/en
Publication of JP2013190938A publication Critical patent/JP2013190938A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To suppress occurence of a mismatching when performing template matching of a standard image and a reference image.SOLUTION: The stereo image processing device comprises: an area setter 107 that determines a size and a position of a template matching area; an edge detector 105 that performs edge detection to each pixel included in the template matching area having the size and the position determined by the area setter 107 in a standard image; and an edge counter 106 that counts the number of pixels including an edge. The area setter 107 reduces the size of a template matching area when the number of pixels including the edge is larger than a first threshold value associated with a size of a current template matching area, and enlarges the size of the template matching area when the number of pixels including the edge is smaller than a second threshold value equal to or less than the first threshold value associated with the size of the current template matching area.

Description

本発明は、ステレオ画像処理装置に関し、特に、基準画像と参照画像とのテンプレートマッチングを行うステレオ画像処理装置に関する。   The present invention relates to a stereo image processing apparatus, and more particularly to a stereo image processing apparatus that performs template matching between a standard image and a reference image.

計測対象物体の三次元形状を求める従来手法として、大きく分けて能動的手法(アクティブ手法)と受動的手法(パッシブ手法)がある。能動的手法としては、計測対象物体に光を投射して、その光が反射して帰ってくるまでの時間を測定することで物体までの距離を求める方法や、計測対象物体にスリット状のパターン光をあてて物体に投影されたパターン光の形状を調べることによって物体の三次元形状を計測する光切断法といった方法がある。また、受動的手法として代表的なものは、三角測量の原理を利用したステレオ画像法であり、これは、2台以上のカメラを使って、その画像間の対応点を見つけることで視差を求め、距離を計測する方法である。   The conventional methods for obtaining the three-dimensional shape of the measurement target object are roughly classified into an active method (active method) and a passive method (passive method). As an active method, light is projected onto the measurement target object, and the time until the light is reflected and returned is obtained to obtain the distance to the object. There is a method such as a light cutting method in which a three-dimensional shape of an object is measured by applying light and examining the shape of the pattern light projected onto the object. A typical passive method is a stereo image method using the principle of triangulation, which uses two or more cameras to find the corresponding points between the images and finds the parallax. This is a method for measuring distance.

ステレオ画像法について、その原理を簡単に説明する。ステレオ画像法は、複数のカメラを用いて2つ以上の視点(異なる視線方向)から同一対象物体を撮影して得られる複数の画像における画素同士を対応づけること、すなわち「マッチング(対応点の決定)」を行うことで、三次元空間における計測対象物体の位置を求めようとするものである。例えば基準カメラと参照カメラにより異なる視点から同一対象物体を撮影して、それぞれの画像内の計測対象物体の距離を三角測量の原理により測定する。   The principle of the stereo imaging method will be briefly described. In the stereo image method, pixels in a plurality of images obtained by photographing the same target object from two or more viewpoints (different gaze directions) using a plurality of cameras are associated with each other, that is, “matching (determination of corresponding points). ) ”Is to obtain the position of the measurement target object in the three-dimensional space. For example, the same target object is photographed from different viewpoints by the reference camera and the reference camera, and the distance of the measurement target object in each image is measured by the principle of triangulation.

周知のように、マッチング処理は、互いに関連性を有する複数のデータに対して広く行われている。一対の画像データに対して行われるマッチングは、一方の画像データによって規定される領域の所定部分に対して高い相関を有する領域を、他方の画像データによって規定される領域内において特定する処理として知られている。例えば、ステレオカメラから得られる一対の画像データは、同一の瞬間にほぼ同様の景色を撮像して取得されているという点で互いに関連性を有する。このようなステレオ画像データに対してマッチング処理を行うことで、撮像された対象物体の三次元的な位置を検出することができる。また、単眼カメラで異なる複数の瞬間に撮像することによって得られる複数フレームの画像データは、時間軸上において互いに関連性を有する。このような画像データに対してマッチング処理を行うことで、オプティカルフローを検出することができる。さらに、マッチング処理は、一般的な画像データ(例えば輝度情報に基づく画像データ)に限定されるものではなく、距離情報に基づく距離画像やレーダ画像、或いは、温度情報に基づく温度分布画像等であっても、同様に行われ得る。   As is well known, the matching process is widely performed on a plurality of pieces of data that are related to each other. Matching performed on a pair of image data is known as a process of specifying an area having a high correlation with a predetermined portion of an area defined by one image data within the area defined by the other image data. It has been. For example, a pair of image data obtained from a stereo camera are related to each other in that they are acquired by capturing a substantially similar scene at the same moment. By performing matching processing on such stereo image data, the three-dimensional position of the captured target object can be detected. In addition, image data of a plurality of frames obtained by capturing images at a plurality of different moments with a monocular camera are related to each other on the time axis. An optical flow can be detected by performing matching processing on such image data. Furthermore, the matching processing is not limited to general image data (for example, image data based on luminance information), but is a distance image based on distance information, a radar image, a temperature distribution image based on temperature information, or the like. However, the same can be done.

ステレオ画像法に係る従来技術として、例えば特許文献1〜5の発明がある。   As conventional techniques related to the stereo imaging method, for example, there are inventions of Patent Documents 1 to 5.

例えば特許文献1には、マッチング処理に用いられるテンプレート画像のサイズを変え、マッチング画像を探索する画像処理装置が開示されている。特許文献1の画像処理装置では、異なる視点から計測対象画像を撮り込んで画像間のマッチング処理を行なう距離画像生成において、基準画像に設定したテンプレート画像を評価してマッチング処理用のテンプレートの大きさを変更する。評価は、変化率、行列固有値、分散値等の特徴量をテンプレート画像から算出し、しきい値と比較する。特徴量がしきい値より大となるまでテンプレートの拡大を行ない、十分なしきい値を有するテンプレートを用いてマッチング処理を実行する。特許文献1の画像処理装置では、テンプレート画像のランダム性(模様の複雑さ、輝度変化の激しさ等と同義)を指標値化した特徴量、具体的にはテンプレート画像に含まれる画素の縦横方向への平均輝度変化率が算出され、この特徴量が小さい場合にテンプレート画像が拡大される。テンプレート画像の拡大により、処理の対象とされる画素の数が増加されてマッチング処理が行われるため、特徴の少ない被写部分につきミスマッチングの発生が抑制される。   For example, Patent Document 1 discloses an image processing apparatus that searches for a matching image by changing the size of a template image used for matching processing. In the image processing apparatus of Patent Literature 1, in the distance image generation in which the measurement target images are captured from different viewpoints and matching processing between the images is performed, the template image set as the reference image is evaluated and the size of the template for matching processing is determined. To change. In the evaluation, feature quantities such as a change rate, a matrix eigenvalue, and a variance value are calculated from the template image and compared with a threshold value. The template is enlarged until the feature amount exceeds the threshold value, and matching processing is executed using a template having a sufficient threshold value. In the image processing apparatus disclosed in Patent Document 1, the feature amount obtained by converting the randomness of the template image (synonymous with the complexity of the pattern, the intensity of brightness change, etc.) into an index value, specifically, the vertical and horizontal directions of the pixels included in the template image An average luminance change rate is calculated, and the template image is enlarged when the feature amount is small. Due to the enlargement of the template image, the number of pixels to be processed is increased and matching processing is performed, so that occurrence of mismatching is suppressed for a portion to be imaged with few features.

本発明の目的は、基準画像と参照画像とのテンプレートマッチングを行う際のミスマッチングの発生を抑制するために、テンプレート画像の拡大及び縮小を行う新規な方法を用いたステレオ画像処理装置を提供することにある。   An object of the present invention is to provide a stereo image processing apparatus using a novel method for enlarging and reducing a template image in order to suppress the occurrence of mismatching when performing template matching between a standard image and a reference image. There is.

本発明の第1の態様に係るステレオ画像処理装置によれば、
第1の画像センサから第1の画像データを取得し、第2の画像センサから第2の画像データを取得し、上記第1の画像データ内の点と上記第2の画像データ内の点との対応関係をテンプレートマッチングで算出するステレオ画像処理装置において、上記ステレオ画像処理装置は、
上記テンプレートマッチングを行うテンプレートマッチング領域のサイズ及び位置を決定する領域設定手段と、
上記第1の画像データにおいて、上記領域設定手段によって決定されたサイズ及び位置を有するテンプレートマッチング領域に含まれる各画素に対してエッジ検出を行い、エッジを含む画素の個数をカウントするエッジ検出手段とを備え、
上記領域設定手段は、
上記エッジを含む画素の個数が、現在のテンプレートマッチング領域のサイズに関連付けられた第1のしきい値より多いときは、上記テンプレートマッチング領域のサイズを縮小し、
上記エッジを含む画素の個数が、現在のテンプレートマッチング領域のサイズに関連付けられた、上記第1のしきい値以下の第2のしきい値より小さいときは、上記テンプレートマッチング領域のサイズを拡大することを特徴とする。
According to the stereo image processing apparatus according to the first aspect of the present invention,
First image data is acquired from the first image sensor, second image data is acquired from the second image sensor, a point in the first image data, a point in the second image data, and In the stereo image processing apparatus that calculates the correspondence relationship of the above by template matching, the stereo image processing apparatus includes:
Region setting means for determining the size and position of the template matching region for performing the template matching;
Edge detection means for performing edge detection on each pixel included in the template matching area having the size and position determined by the area setting means in the first image data, and counting the number of pixels including edges; With
The area setting means includes
When the number of pixels including the edge is greater than a first threshold value associated with the current template matching area size, the size of the template matching area is reduced,
When the number of pixels including the edge is smaller than the second threshold value that is related to the size of the current template matching area and is less than or equal to the first threshold value, the size of the template matching area is increased. It is characterized by that.

本発明の第2の態様に係るステレオ画像処理装置によれば、
第1の画像センサから第1の画像データを取得し、第2の画像センサから第2の画像データを取得し、上記第1の画像データ内の点と上記第2の画像データ内の点との対応関係をテンプレートマッチングで算出するステレオ画像処理装置において、上記ステレオ画像処理装置は、
上記テンプレートマッチングを行うテンプレートマッチング領域のサイズ及び位置を決定する領域設定手段と、
上記第1の画像データにおいて、上記領域設定手段によって決定されたサイズ及び位置を有するテンプレートマッチング領域に含まれる各画素に対してラベルを付与するラベリング手段とを備え、
上記領域設定手段は、
上記ラベリング手段により付与された異なるラベルの個数が、現在のテンプレートマッチング領域のサイズに関連付けられた第1のしきい値より多いときは、上記テンプレートマッチング領域のサイズを縮小し、
上記ラベリング手段により付与された異なるラベルの個数が、現在のテンプレートマッチング領域のサイズに関連付けられた、上記第1のしきい値以下の第2のしきい値より小さいときは、上記テンプレートマッチング領域のサイズを拡大することを特徴とする。
According to the stereo image processing apparatus according to the second aspect of the present invention,
First image data is acquired from the first image sensor, second image data is acquired from the second image sensor, a point in the first image data, a point in the second image data, and In the stereo image processing apparatus that calculates the correspondence relationship of the above by template matching, the stereo image processing apparatus includes:
Region setting means for determining the size and position of the template matching region for performing the template matching;
Labeling means for applying a label to each pixel included in the template matching area having the size and position determined by the area setting means in the first image data,
The area setting means includes
When the number of different labels applied by the labeling means is greater than a first threshold associated with the size of the current template matching area, reduce the size of the template matching area;
When the number of different labels given by the labeling means is smaller than a second threshold value less than or equal to the first threshold value associated with the size of the current template matching area, It is characterized by enlarging the size.

本発明によれば、新規な基準に従ってテンプレート画像の拡大及び縮小を行うことで、基準画像と参照画像とのテンプレートマッチングを行う際のミスマッチングの発生を抑制するステレオ画像処理装置を提供することができる。   According to the present invention, it is possible to provide a stereo image processing apparatus that suppresses occurrence of mismatching when performing template matching between a standard image and a reference image by enlarging and reducing the template image according to a new standard. it can.

本発明の実施形態に係るステレオ画像処理装置100の構成を示すブロック図である。1 is a block diagram illustrating a configuration of a stereo image processing apparatus 100 according to an embodiment of the present invention. 図1のエッジ検出器105及びエッジカウンタ106の動作を説明するための図である。It is a figure for demonstrating operation | movement of the edge detector 105 and the edge counter 106 of FIG. 本発明の実施形態の第1の変形例に係るステレオ画像処理装置110の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image processing apparatus 110 which concerns on the 1st modification of embodiment of this invention. 本発明の実施形態の第2の変形例に係るステレオ画像処理装置120の構成を示すブロック図である。It is a block diagram which shows the structure of the stereo image processing apparatus 120 which concerns on the 2nd modification of embodiment of this invention. 図1のステレオ画像処理装置100により近くの被写体を撮影したときの例であって、(a)は画像センサ101により取得された基準画像を示し、(b)は画像センサ102により取得された参照画像を示す図である。FIGS. 1A and 1B are examples when a nearby subject is photographed by the stereo image processing apparatus 100 of FIG. 1, where FIG. 1A shows a reference image acquired by the image sensor 101, and FIG. 1B is a reference acquired by the image sensor 102. It is a figure which shows an image. 図1のステレオ画像処理装置100により遠くの被写体を撮影したときの第1の例であって、(a)は画像センサ101により取得された基準画像を示し、(b)は画像センサ102により取得された参照画像を示す図である。FIGS. 1A and 1B are first examples when a distant subject is photographed by the stereo image processing apparatus 100 of FIG. 1, in which FIG. 1A shows a reference image acquired by the image sensor 101, and FIG. It is a figure which shows the made reference image. 図1のステレオ画像処理装置100により遠くの被写体を撮影したときの第2の例であって、(a)は画像センサ101により取得された基準画像を示し、(b)は画像センサ102により取得された参照画像を示す図である。2 is a second example when a far object is photographed by the stereo image processing apparatus 100 of FIG. 1, where (a) shows a reference image acquired by the image sensor 101, and (b) is acquired by the image sensor 102. It is a figure which shows the made reference image.

図1は、本発明の実施形態に係るステレオ画像処理装置100の構成を示すブロック図である。ステレオ画像処理装置100は、一対の画像センサ101,102、ラインバッファメモリ103,104、エッジ検出器105、エッジカウンタ106、領域設定器107、及びテンプレートマッチング回路108を備える。   FIG. 1 is a block diagram showing a configuration of a stereo image processing apparatus 100 according to an embodiment of the present invention. The stereo image processing apparatus 100 includes a pair of image sensors 101 and 102, line buffer memories 103 and 104, an edge detector 105, an edge counter 106, an area setting unit 107, and a template matching circuit 108.

画像センサ101,102は、例えば水平方向に所定距離を有して設けられ、これによりステレオ画像を得ることができる。画像センサ101は、ステレオ画像の基準画像となる画像データを取得してラインバッファメモリ103に送り、画像センサ102は、ステレオ画像の参照画像となる画像データを取得してラインバッファメモリ104に送る。   The image sensors 101 and 102 are provided with a predetermined distance in the horizontal direction, for example, so that a stereo image can be obtained. The image sensor 101 acquires image data that is a standard image of a stereo image and sends it to the line buffer memory 103, and the image sensor 102 acquires image data that becomes a reference image of the stereo image and sends it to the line buffer memory 104.

ラインバッファメモリ103,104は、画像センサ101,102からそれぞれ送られた画像データをライン毎に蓄積し、次いで、蓄積された複数の所定ライン数の画像データをテンプレートマッチング回路108に送る。テンプレートマッチング回路108は、後述するように、基準画像及び参照画像のテンプレートマッチングを行う。基準画像のラインバッファメモリ103が蓄積するライン数は、テンプレートマッチングを行う際のテンプレートマッチング領域のサイズ及び位置に応じて決定される。テンプレートマッチング領域のサイズ及び位置は、領域設定器107によって決定される(後述)。   The line buffer memories 103 and 104 accumulate the image data sent from the image sensors 101 and 102 for each line, and then send the accumulated image data of a predetermined number of lines to the template matching circuit 108. The template matching circuit 108 performs template matching of the standard image and the reference image as will be described later. The number of lines stored in the line buffer memory 103 for the reference image is determined according to the size and position of the template matching area when performing template matching. The size and position of the template matching area are determined by the area setting unit 107 (described later).

エッジ検出器105は、ラインバッファメモリ103からテンプレートマッチング回路108に送られる所定ライン数の画像データを取得し、この画像データにおいて、領域設定器107によって決定されたサイズ及び位置を有するテンプレートマッチング領域に含まれる各画素に対してエッジ検出を行う。次いで、エッジカウンタ106は、エッジ検出器105で検出されたエッジを含む画素の個数をカウントする。エッジ検出を行うために、例えば、隣接する画素間で画素値の差分を計算したり、直交エッジ強度符号相関を使用したりすることができる。   The edge detector 105 acquires a predetermined number of lines of image data sent from the line buffer memory 103 to the template matching circuit 108, and in this image data, a template matching region having the size and position determined by the region setting unit 107 is obtained. Edge detection is performed on each included pixel. Next, the edge counter 106 counts the number of pixels including the edge detected by the edge detector 105. In order to perform edge detection, for example, a difference in pixel values between adjacent pixels can be calculated, or orthogonal edge strength code correlation can be used.

隣接する画素間で画素値の差分を計算してエッジ検出を行う場合、エッジ検出器105は、例えば、入力された前画素と現在の画素との画素値(輝度など)の差分を、予め設定されたしきい値と比較する。エッジ検出器105は、画素値の差分がしきい値より大きい場合は、エッジが存在すると判断して“1”を出力し、画素値の差分がしきい値より小さい場合は、エッジが存在しないと判断して“0”を出力する。   When edge detection is performed by calculating a difference in pixel value between adjacent pixels, the edge detector 105, for example, presets a difference in pixel value (such as luminance) between the input previous pixel and the current pixel. Compare to the threshold value. The edge detector 105 determines that an edge exists when the pixel value difference is larger than the threshold value, and outputs “1”. If the pixel value difference is smaller than the threshold value, the edge does not exist. And “0” is output.

直交エッジ強度符号相関を使用してエッジ検出を行う場合、エッジ検出器105は、例えば、以下のプリウィット(Prewitt)フィルタを使用する。   When performing edge detection using orthogonal edge strength code correlation, the edge detector 105 uses, for example, the following Prewitt filter.

Figure 2013190938
Figure 2013190938
Figure 2013190938
Figure 2013190938

エッジ検出器105は、各画素に数1のオペレータを適用して横方向の濃度差dxを計算し、各画素に数2のオペレータを適用して縦方向の濃度差dyを計算する。そして、各画素のエッジ強度rを次式で計算する。   The edge detector 105 calculates the horizontal density difference dx by applying the equation 1 to each pixel, and calculates the vertical density difference dy by applying the equation 2 to each pixel. Then, the edge strength r of each pixel is calculated by the following equation.

Figure 2013190938
Figure 2013190938

エッジ検出器105は、各画素のエッジ強度rを、予め設定されたしきい値と比較し、しきい値より大きい場合はエッジが存在すると判断して“1”を出力し、しきい値より小さい場合はエッジが存在しないと判断して“0”を出力する。   The edge detector 105 compares the edge strength r of each pixel with a preset threshold value, and when it is larger than the threshold value, determines that an edge exists and outputs “1”. If it is smaller, it is determined that no edge exists and “0” is output.

エッジカウンタ106は、エッジ検出器105からエッジ検出結果として入力される値“1”の個数をカウントし、そのカウント値を領域設定器107に送る。   The edge counter 106 counts the number of values “1” input as the edge detection result from the edge detector 105, and sends the count value to the region setting unit 107.

図2は、図1のエッジ検出器105及びエッジカウンタ106の動作を説明するための図である。ラインバッファメモリ103は、例えばn個のラインの画像データを蓄積するとき、すでに蓄積されたライン1〜ライン(n−1)の画像データと、新たに入力されたラインnの画像データとを同時に出力する。ラインバッファメモリ103から出力された画像データは、テンプレートマッチング回路108及びエッジ検出器105に送られる。エッジ検出器105は、n個のラインの画像データにおいて、テンプレートマッチング領域に含まれる各画素に対してエッジ検出を行い、各画素のエッジ検出結果をエッジカウンタ106に送る。各画素のエッジ検出結果は、テンプレートマッチング領域に含まれる画素数に等しいバス幅を有するデータバスを介してエッジ検出器105からエッジカウンタ106に送られてもよい。   FIG. 2 is a diagram for explaining the operation of the edge detector 105 and the edge counter 106 of FIG. For example, when storing the image data of n lines, the line buffer memory 103 simultaneously stores the already stored image data of line 1 to line (n−1) and the newly input image data of line n. Output. The image data output from the line buffer memory 103 is sent to the template matching circuit 108 and the edge detector 105. The edge detector 105 performs edge detection on each pixel included in the template matching area in the image data of n lines, and sends an edge detection result of each pixel to the edge counter 106. The edge detection result of each pixel may be sent from the edge detector 105 to the edge counter 106 via a data bus having a bus width equal to the number of pixels included in the template matching area.

領域設定器107は、テンプレートマッチング回路108により基準画像及び参照画像のテンプレートマッチングを行う際のテンプレートマッチング領域のサイズ及び位置を決定する。特に、領域設定器107は、エッジカウンタ106から入力されたエッジ検出結果のカウント値を現在のテンプレートマッチング領域の特徴量として用いて、テンプレートマッチング領域のサイズを決定する。領域設定器107は、現在のテンプレートマッチング領域のサイズに関連付けられた第1のしきい値Th1と、第1のしきい値Th1以下の第2のしきい値Th2とを有する。領域設定器107は、エッジ検出結果のカウント値が第1のしきい値Th1よりも大きな場合は、サイズ設定値を“2”に決定し、エッジ検出結果のカウント値が第2のしきい値Th2よりも小さい場合は、サイズ設定値を“1”に決定し、エッジ検出結果のカウント値が第1のしきい値Th1以下かつ第2のしきい値Th2以上である場合は、サイズ設定値を“0”に決定する。第1のしきい値Th1及び第2のしきい値Th2は同じ値であってもよい。領域設定器107は、従来技術の方法を用いて、テンプレートマッチング領域の位置も決定する。領域設定器107によって決定されたテンプレートマッチング領域のサイズ及び位置は、ラインバッファメモリ103、エッジ検出器105、及びテンプレートマッチング回路108に通知される。   The area setting unit 107 determines the size and position of the template matching area when the template matching circuit 108 performs template matching of the standard image and the reference image. In particular, the region setting unit 107 determines the size of the template matching region using the count value of the edge detection result input from the edge counter 106 as the feature amount of the current template matching region. The region setting unit 107 has a first threshold value Th1 associated with the size of the current template matching region, and a second threshold value Th2 that is equal to or less than the first threshold value Th1. If the count value of the edge detection result is larger than the first threshold value Th1, the region setting unit 107 determines the size setting value to be “2”, and the count value of the edge detection result is the second threshold value. When smaller than Th2, the size setting value is determined to be “1”, and when the count value of the edge detection result is equal to or smaller than the first threshold value Th1 and equal to or larger than the second threshold value Th2, the size setting value is determined. Is determined to be “0”. The first threshold value Th1 and the second threshold value Th2 may be the same value. The region setting unit 107 also determines the position of the template matching region using a conventional method. The size and position of the template matching area determined by the area setting unit 107 are notified to the line buffer memory 103, the edge detector 105, and the template matching circuit 108.

ラインバッファメモリ103、エッジ検出器105、及びテンプレートマッチング回路108は、サイズ設定値が“2”の場合はテンプレートマッチング領域のサイズを縮小し、“1”の場合はテンプレートマッチング領域のサイズを拡大し、“0”の場合はテンプレートマッチング領域のサイズを変更しない。例えば、テンプレートマッチング領域が「7画素×7画素」の領域であるとき、サイズ設定値が“2”の場合は「4画素×4画素」に縮小し、サイズ設定値が“1”の場合は「9画素×9画素」に拡大し、サイズ設定値が“0”の場合は「7画素×7画素」のままにする。以上のサイズは単なる例示であり、他のサイズでも同様である。   The line buffer memory 103, the edge detector 105, and the template matching circuit 108 reduce the size of the template matching area when the size setting value is “2”, and increase the size of the template matching area when the size setting value is “1”. In the case of “0”, the size of the template matching area is not changed. For example, when the template matching area is an area of “7 pixels × 7 pixels”, when the size setting value is “2”, the size is reduced to “4 pixels × 4 pixels”, and when the size setting value is “1” It is enlarged to “9 pixels × 9 pixels”, and when the size setting value is “0”, it remains “7 pixels × 7 pixels”. The above sizes are merely examples, and the same applies to other sizes.

テンプレートマッチング回路108は、基準画像の画像データ内の点と参照画像の画像データ内の点との対応関係をテンプレートマッチングで算出する。テンプレートマッチング回路108は、まず、領域設定器107によって決定されたテンプレートマッチング領域のサイズ及び位置に従って、テンプレートマッチング領域を設定する。テンプレートマッチング回路108は、このテンプレートマッチング領域を用いてテンプレートマッチングを行い、ラインバッファメモリ103から入力される複数ラインの基準画像の画像データと、ラインバッファメモリ104から入力される複数ラインの参照画像の画像データとの対応点を探す。基準画像及び参照画像の画像データ(輝度など)をそれぞれI及びIにより表し、テンプレートマッチング領域をWにより表し、基準画像及び参照画像の間の変位をdにより表すとき、次式のいずれかの目標関数を最小化する変位dを求める。 The template matching circuit 108 calculates the correspondence between the points in the image data of the standard image and the points in the image data of the reference image by template matching. The template matching circuit 108 first sets a template matching area according to the size and position of the template matching area determined by the area setting unit 107. The template matching circuit 108 performs template matching using the template matching region, and performs image data of a plurality of lines of standard images input from the line buffer memory 103 and a plurality of reference images input from the line buffer memory 104. Search for corresponding points with image data. When the image data (luminance, etc.) of the standard image and the reference image are represented by I 1 and I 2 respectively, the template matching area is represented by W, and the displacement between the standard image and the reference image is represented by d, either Displacement d that minimizes the target function is obtained.

Figure 2013190938
Figure 2013190938
Figure 2013190938
Figure 2013190938
Figure 2013190938
Figure 2013190938

数4の目標関数D(d)は相関値を示し、数5の目標関数D(d)はSAD(Sum of Absolute Distance)値を示し、数6の目標関数D(d)はSSD(Sum of Squared Distance)値を示す。 The target function D 1 (d) in Expression 4 indicates the correlation value, the target function D 2 (d) in Expression 5 indicates the SAD (Sum of Absolute Distance) value, and the target function D 3 (d) in Expression 6 indicates the SSD. Indicates the (Sum of Squared Distance) value.

テンプレートマッチング回路108は、いずれかの目標関数を最小化する変位dと、そのときの目標関数の値とをマッチング結果として出力する。   The template matching circuit 108 outputs the displacement d that minimizes one of the target functions and the value of the target function at that time as a matching result.

図5は、図1のステレオ画像処理装置100により近くの被写体を撮影したときの例であって、(a)は画像センサ101により取得された基準画像を示し、(b)は画像センサ102により取得された参照画像を示す図である。点線で囲まれた領域200a,200bはそれぞれ、テンプレートマッチング領域を示す。図5では被写体が1人の人物のみであり、基準画像のテンプレートマッチング領域200a内の画像データと、参照画像のテンプレートマッチング領域200b内の画像データとに実質的に違いがない。従って、図5の例では、テンプレートマッチング領域200a,200bの特徴量(すなわち、エッジ検出を行ったときのエッジ検出結果のカウント値)は小さい。テンプレートマッチング領域の特徴量が小さいときには、高精度のテンプレートマッチングが可能となる。   FIG. 5 is an example when a nearby subject is photographed by the stereo image processing apparatus 100 of FIG. 1, (a) shows a reference image acquired by the image sensor 101, and (b) is taken by the image sensor 102. It is a figure which shows the acquired reference image. Regions 200a and 200b surrounded by dotted lines indicate template matching regions, respectively. In FIG. 5, the subject is only one person, and there is substantially no difference between the image data in the template matching area 200a of the standard image and the image data in the template matching area 200b of the reference image. Therefore, in the example of FIG. 5, the feature amount of the template matching regions 200a and 200b (that is, the count value of the edge detection result when edge detection is performed) is small. When the feature amount of the template matching area is small, high-precision template matching is possible.

図6は、図1のステレオ画像処理装置100により遠くの被写体を撮影したときの第1の例であって、(a)は画像センサ101により取得された基準画像を示し、(b)は画像センサ102により取得された参照画像を示す図である。図6の例では、基準画像のテンプレートマッチング領域210aに含まれる被写体(2人の人物)と、参照画像のテンプレートマッチング領域210bに含まれる被写体(3人の人物)とは相違する。このとき、テンプレートマッチング領域210a,210bの特徴量は大きく、さらに互いに相違する。概して、テンプレートマッチング領域の特徴量が大きいときには、テンプレートマッチングの精度は低下する。   FIG. 6 is a first example when a far object is photographed by the stereo image processing apparatus 100 of FIG. 1, where (a) shows a reference image acquired by the image sensor 101, and (b) is an image. It is a figure which shows the reference image acquired by the sensor. In the example of FIG. 6, the subject (two people) included in the template matching region 210a of the reference image is different from the subject (three people) included in the template matching region 210b of the reference image. At this time, the feature amounts of the template matching areas 210a and 210b are large and further different from each other. In general, when the feature amount of the template matching area is large, the accuracy of template matching decreases.

図7は、図1のステレオ画像処理装置100により遠くの被写体を撮影したときの第2の例であって、(a)は画像センサ101により取得された基準画像を示し、(b)は画像センサ102により取得された参照画像を示す図である。領域設定器107は、図6のテンプレートマッチング領域210aに係るエッジ検出結果のカウント値(第1のしきい値Th1よりも大きなエッジ検出結果のカウント値)が入力されたとき、テンプレートマッチング領域のサイズを縮小する。テンプレートマッチング回路108は、図6のテンプレートマッチング領域210a,210bから縮小して、図7のテンプレートマッチング領域220a,220bを設定する。図7では被写体が1人の人物のみになり、基準画像のテンプレートマッチング領域220a内の画像データと、参照画像のテンプレートマッチング領域220b内の画像データとは実質的に同じになる。従って、図7の例では、テンプレートマッチング領域220a,220bの特徴量は図6の場合よりも小さくなり、テンプレートマッチングの精度も向上する。   FIG. 7 is a second example when a distant subject is photographed by the stereo image processing apparatus 100 of FIG. 1, (a) shows a reference image acquired by the image sensor 101, and (b) is an image. It is a figure which shows the reference image acquired by the sensor. When the count value of the edge detection result related to the template matching area 210a in FIG. 6 (the count value of the edge detection result larger than the first threshold value Th1) is input, the area setting unit 107 receives the size of the template matching area. Reduce. The template matching circuit 108 reduces the template matching areas 210a and 210b in FIG. 6 and sets the template matching areas 220a and 220b in FIG. In FIG. 7, the subject is only one person, and the image data in the template matching area 220a of the standard image is substantially the same as the image data in the template matching area 220b of the reference image. Therefore, in the example of FIG. 7, the feature amounts of the template matching regions 220a and 220b are smaller than those in the case of FIG. 6, and the template matching accuracy is improved.

以上説明したように、図1のステレオ画像処理装置100によれば、新規な基準に従ってテンプレート画像の拡大及び縮小を行うことで、基準画像と参照画像とのテンプレートマッチングを行う際のミスマッチングの発生を抑制することができる。   As described above, according to the stereo image processing apparatus 100 of FIG. 1, the occurrence of mismatching when performing template matching between the standard image and the reference image by enlarging and reducing the template image according to the new standard. Can be suppressed.

図3は、本発明の実施形態の第1の変形例に係るステレオ画像処理装置110の構成を示すブロック図である。図3のステレオ画像処理装置110は、図1のステレオ画像処理装置100のエッジ検出器105、エッジカウンタ106、及び領域設定器107に代えて、2値化回路111、ラベリング回路112、及び領域設定器113を備え、他の構成要素は、図1のステレオ画像処理装置100と同様である。   FIG. 3 is a block diagram showing a configuration of the stereo image processing apparatus 110 according to the first modification of the embodiment of the present invention. The stereo image processing apparatus 110 in FIG. 3 replaces the edge detector 105, the edge counter 106, and the area setting unit 107 of the stereo image processing apparatus 100 in FIG. 1 with a binarization circuit 111, a labeling circuit 112, and an area setting. The other components are the same as those of the stereo image processing apparatus 100 of FIG.

2値化回路111は、ラインバッファメモリ103からテンプレートマッチング回路108に送られる所定ライン数の画像データを取得し、この画像データにおいて、領域設定器113によって決定されたサイズ及び位置を有するテンプレートマッチング領域に含まれる各画素に対して2値化処理を行う。2値化処理では、テンプレートマッチング領域に含まれる画像に対して、例えば、「p−タイル法」、「モード法」、及び「判別分析法」のいずれかを用いてしきい値を決定し、このしきい値に基づいて画像データを2値化する。   The binarization circuit 111 acquires a predetermined number of lines of image data sent from the line buffer memory 103 to the template matching circuit 108, and in this image data, a template matching area having the size and position determined by the area setting unit 113 A binarization process is performed on each pixel included in. In the binarization process, for example, a threshold value is determined using any one of “p-tile method”, “mode method”, and “discriminant analysis method” for an image included in the template matching region, Based on this threshold value, the image data is binarized.

ラベリング回路112は、2値化回路111から入力された2値画像データに含まれる各画素に対してラベルを付与する。ラベリング回路112は、テンプレートマッチング領域において4近傍もしくは8近傍のラスタスキャンを行って、各画素に付与された異なるラベル(ラベルの種類)の個数を領域設定器107に出力する。   The labeling circuit 112 gives a label to each pixel included in the binary image data input from the binarization circuit 111. The labeling circuit 112 performs raster scanning in the vicinity of 4 or 8 in the template matching region, and outputs the number of different labels (label types) assigned to each pixel to the region setting unit 107.

領域設定器113は、テンプレートマッチング回路108により基準画像及び参照画像のテンプレートマッチングを行う際のテンプレートマッチング領域のサイズ及び位置を決定する。特に、領域設定器113は、ラベリング回路112によって付与された異なるラベルの個数を現在のテンプレートマッチング領域の特徴量として用いて、テンプレートマッチング領域のサイズを決定する。領域設定器113は、現在のテンプレートマッチング領域のサイズに関連付けられた第1のしきい値Th1と、第1のしきい値Th1以下の第2のしきい値Th2とを有する。領域設定器113は、異なるラベルの個数が第1のしきい値Th1よりも大きな場合は、サイズ設定値を“2”に決定し、異なるラベルの個数が第2のしきい値Th2よりも小さい場合は、サイズ設定値を“1”に決定し、異なるラベルの個数が第1のしきい値Th1以下かつ第2のしきい値Th2以上である場合は、サイズ設定値を“0”に決定する。第1のしきい値Th1及び第2のしきい値Th2は同じ値であってもよい。領域設定器113は、従来技術の方法を用いて、テンプレートマッチング領域の位置も決定する。領域設定器113によって決定されたテンプレートマッチング領域のサイズ及び位置は、ラインバッファメモリ103、2値化回路111、及びテンプレートマッチング回路108に通知される。   The region setting unit 113 determines the size and position of the template matching region when the template matching circuit 108 performs template matching of the standard image and the reference image. In particular, the region setting unit 113 determines the size of the template matching region by using the number of different labels provided by the labeling circuit 112 as the feature amount of the current template matching region. The region setter 113 has a first threshold value Th1 associated with the size of the current template matching region and a second threshold value Th2 that is equal to or smaller than the first threshold value Th1. When the number of different labels is larger than the first threshold value Th1, the region setting unit 113 determines the size setting value as “2”, and the number of different labels is smaller than the second threshold value Th2. In this case, the size setting value is determined to be “1”, and the size setting value is determined to be “0” when the number of different labels is equal to or smaller than the first threshold value Th1 and the second threshold value Th2. To do. The first threshold value Th1 and the second threshold value Th2 may be the same value. The region setting unit 113 also determines the position of the template matching region using a conventional method. The size and position of the template matching area determined by the area setting unit 113 are notified to the line buffer memory 103, the binarization circuit 111, and the template matching circuit 108.

テンプレートマッチング回路108は、図1のステレオ画像処理装置100と同様に、基準画像の画像データ内の点と参照画像の画像データ内の点との対応関係をテンプレートマッチングで算出する。   Similar to the stereo image processing apparatus 100 of FIG. 1, the template matching circuit 108 calculates the correspondence between the points in the image data of the standard image and the points in the image data of the reference image by template matching.

図3のステレオ画像処理装置110によれば、図5〜図7を参照して説明した図1のステレオ画像処理装置100と同様に、新規な基準に従ってテンプレート画像の拡大及び縮小を行うことで、基準画像と参照画像とのテンプレートマッチングを行う際のミスマッチングの発生を抑制することができる。   According to the stereo image processing apparatus 110 of FIG. 3, similarly to the stereo image processing apparatus 100 of FIG. 1 described with reference to FIGS. It is possible to suppress the occurrence of mismatching when performing template matching between the reference image and the reference image.

図4は、本発明の実施形態の第2の変形例に係るステレオ画像処理装置120の構成を示すブロック図である。図1のステレオ画像処理装置100及び図2のステレオ画像処理装置110は、ハードウェアとして実装されても、ソフトウェアとして実装されてもよい。ステレオ画像処理装置120は、画像センサ101,102、プロセッサ121、及びメモリ122を備え、これらの構成要素はバス123を介して互いに接続されている。プロセッサ121は、メモリ122をラインバッファメモリ103,104として用いて、図1のエッジ検出器105、エッジカウンタ106、及び領域設定器107の動作、又は、図3の2値化回路111、ラベリング回路112、及び領域設定器113の動作を実行する。図4のステレオ画像処理装置120によれば、図5〜図7を参照して説明した図1のステレオ画像処理装置100と同様に、新規な基準に従ってテンプレート画像の拡大及び縮小を行うことで、基準画像と参照画像とのテンプレートマッチングを行う際のミスマッチングの発生を抑制することができる。   FIG. 4 is a block diagram showing a configuration of a stereo image processing apparatus 120 according to the second modification of the embodiment of the present invention. The stereo image processing apparatus 100 in FIG. 1 and the stereo image processing apparatus 110 in FIG. 2 may be implemented as hardware or software. The stereo image processing apparatus 120 includes image sensors 101 and 102, a processor 121, and a memory 122, and these components are connected to each other via a bus 123. The processor 121 uses the memory 122 as the line buffer memories 103 and 104 to operate the edge detector 105, the edge counter 106, and the region setting unit 107 in FIG. 1, or the binarization circuit 111 and the labeling circuit in FIG. 112 and the operation of the area setting unit 113 are executed. According to the stereo image processing apparatus 120 of FIG. 4, similarly to the stereo image processing apparatus 100 of FIG. 1 described with reference to FIGS. It is possible to suppress the occurrence of mismatching when performing template matching between the reference image and the reference image.

本発明の実施形態に係るステレオ画像処理装置によれば、特徴量が大きい場合は、テンプレートマッチング領域のサイズを縮小し、特徴量が小さい場合は、テンプレートマッチング領域のサイズを拡大することで、特徴量をある一定範囲に抑えることができるので、基準画像と参照画素との対応関係の演算を良好に行うことができる。   According to the stereo image processing apparatus according to the embodiment of the present invention, when the feature amount is large, the size of the template matching region is reduced, and when the feature amount is small, the size of the template matching region is increased. Since the amount can be suppressed within a certain range, the calculation of the correspondence between the standard image and the reference pixel can be performed satisfactorily.

本発明に係るステレオ画像処理装置は、三次元映像の記録及び表示を行うための映像機器や、画像センサから被写体までの距離を測定する測定装置に使用される。本発明はまた、人検知を行うための監視カメラ及び監視装置などに利用される。本発明によれば、さらに、そのようなステレオ画像処理装置の制御方法、及びステレオ画像処理装置の制御プログラムを提供することができる。   The stereo image processing apparatus according to the present invention is used in video equipment for recording and displaying 3D video and a measuring apparatus for measuring a distance from an image sensor to a subject. The present invention is also used in a monitoring camera and a monitoring device for performing human detection. According to the present invention, it is possible to further provide a control method for such a stereo image processing apparatus and a control program for the stereo image processing apparatus.

100,110,120…ステレオ画像処理装置、
101,102…画像センサ、
103,104…ラインバッファメモリ、
105…エッジ検出器、
106…エッジカウンタ、
107…領域設定器、
108…テンプレートマッチング回路、
111…2値化回路、
112…ラベリング回路、
113…領域設定器、
121…プロセッサ、
122…メモリ、
123…バス。
100, 110, 120 ... Stereo image processing device,
101, 102 ... Image sensor,
103, 104 ... line buffer memory,
105 ... an edge detector,
106 ... an edge counter,
107 ... area setting device,
108: Template matching circuit,
111... Binarization circuit,
112 ... Labeling circuit,
113 ... Area setting device,
121 ... Processor,
122 ... Memory,
123 ... Bus.

特開2001−194126号公報JP 2001-194126 A 特開2010−276507号公報JP 2010-276507 A 特許3475026号公報Japanese Patent No. 3475026 特許4631973号公報Japanese Patent No. 4631973 特許4772494号公報Japanese Patent No. 4772494

Claims (2)

第1の画像センサから第1の画像データを取得し、第2の画像センサから第2の画像データを取得し、上記第1の画像データ内の点と上記第2の画像データ内の点との対応関係をテンプレートマッチングで算出するステレオ画像処理装置において、上記ステレオ画像処理装置は、
上記テンプレートマッチングを行うテンプレートマッチング領域のサイズ及び位置を決定する領域設定手段と、
上記第1の画像データにおいて、上記領域設定手段によって決定されたサイズ及び位置を有するテンプレートマッチング領域に含まれる各画素に対してエッジ検出を行い、エッジを含む画素の個数をカウントするエッジ検出手段とを備え、
上記領域設定手段は、
上記エッジを含む画素の個数が、現在のテンプレートマッチング領域のサイズに関連付けられた第1のしきい値より多いときは、上記テンプレートマッチング領域のサイズを縮小し、
上記エッジを含む画素の個数が、現在のテンプレートマッチング領域のサイズに関連付けられた、上記第1のしきい値以下の第2のしきい値より小さいときは、上記テンプレートマッチング領域のサイズを拡大することを特徴とするステレオ画像処理装置。
First image data is acquired from the first image sensor, second image data is acquired from the second image sensor, a point in the first image data, a point in the second image data, and In the stereo image processing apparatus that calculates the correspondence relationship of the above by template matching, the stereo image processing apparatus includes:
Region setting means for determining the size and position of the template matching region for performing the template matching;
Edge detection means for performing edge detection on each pixel included in the template matching area having the size and position determined by the area setting means in the first image data, and counting the number of pixels including edges; With
The area setting means includes
When the number of pixels including the edge is greater than a first threshold value associated with the current template matching area size, the size of the template matching area is reduced,
When the number of pixels including the edge is smaller than the second threshold value that is related to the size of the current template matching area and is less than or equal to the first threshold value, the size of the template matching area is increased. A stereo image processing apparatus.
第1の画像センサから第1の画像データを取得し、第2の画像センサから第2の画像データを取得し、上記第1の画像データ内の点と上記第2の画像データ内の点との対応関係をテンプレートマッチングで算出するステレオ画像処理装置において、上記ステレオ画像処理装置は、
上記テンプレートマッチングを行うテンプレートマッチング領域のサイズ及び位置を決定する領域設定手段と、
上記第1の画像データにおいて、上記領域設定手段によって決定されたサイズ及び位置を有するテンプレートマッチング領域に含まれる各画素に対してラベルを付与するラベリング手段とを備え、
上記領域設定手段は、
上記ラベリング手段により付与された異なるラベルの個数が、現在のテンプレートマッチング領域のサイズに関連付けられた第1のしきい値より多いときは、上記テンプレートマッチング領域のサイズを縮小し、
上記ラベリング手段により付与された異なるラベルの個数が、現在のテンプレートマッチング領域のサイズに関連付けられた、上記第1のしきい値以下の第2のしきい値より小さいときは、上記テンプレートマッチング領域のサイズを拡大することを特徴とするステレオ画像処理装置。
First image data is acquired from the first image sensor, second image data is acquired from the second image sensor, a point in the first image data, a point in the second image data, and In the stereo image processing apparatus that calculates the correspondence relationship of the above by template matching, the stereo image processing apparatus includes:
Region setting means for determining the size and position of the template matching region for performing the template matching;
Labeling means for applying a label to each pixel included in the template matching area having the size and position determined by the area setting means in the first image data,
The area setting means includes
When the number of different labels applied by the labeling means is greater than a first threshold associated with the size of the current template matching area, reduce the size of the template matching area;
When the number of different labels given by the labeling means is smaller than a second threshold value less than or equal to the first threshold value associated with the size of the current template matching area, A stereo image processing apparatus characterized by enlarging the size.
JP2012055960A 2012-03-13 2012-03-13 Stereo image processing device Pending JP2013190938A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012055960A JP2013190938A (en) 2012-03-13 2012-03-13 Stereo image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012055960A JP2013190938A (en) 2012-03-13 2012-03-13 Stereo image processing device

Publications (1)

Publication Number Publication Date
JP2013190938A true JP2013190938A (en) 2013-09-26

Family

ID=49391126

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012055960A Pending JP2013190938A (en) 2012-03-13 2012-03-13 Stereo image processing device

Country Status (1)

Country Link
JP (1) JP2013190938A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190135176A (en) * 2018-05-28 2019-12-06 삼성에스디에스 주식회사 Method for matching template and apparatus thereof
CN111640154A (en) * 2020-05-24 2020-09-08 西安交通大学 Vertical needle micro-plane sub-pixel level positioning method based on micro-vision

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194126A (en) * 2000-01-14 2001-07-19 Sony Corp Apparatus and method for measuring three-dimensional shape and program providing medium
WO2008041518A1 (en) * 2006-10-02 2008-04-10 Konica Minolta Holdings, Inc. Image processing device, control method for image processing device and control program for image processing device
JP2011095975A (en) * 2009-10-29 2011-05-12 Konica Minolta Holdings Inc Corresponding point search device, corresponding point search method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001194126A (en) * 2000-01-14 2001-07-19 Sony Corp Apparatus and method for measuring three-dimensional shape and program providing medium
WO2008041518A1 (en) * 2006-10-02 2008-04-10 Konica Minolta Holdings, Inc. Image processing device, control method for image processing device and control program for image processing device
JP2011095975A (en) * 2009-10-29 2011-05-12 Konica Minolta Holdings Inc Corresponding point search device, corresponding point search method, and program

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190135176A (en) * 2018-05-28 2019-12-06 삼성에스디에스 주식회사 Method for matching template and apparatus thereof
KR102548722B1 (en) 2018-05-28 2023-06-27 삼성에스디에스 주식회사 Method for matching template and apparatus thereof
CN111640154A (en) * 2020-05-24 2020-09-08 西安交通大学 Vertical needle micro-plane sub-pixel level positioning method based on micro-vision
CN111640154B (en) * 2020-05-24 2022-04-05 西安交通大学 Vertical needle micro-plane sub-pixel level positioning method based on micro-vision

Similar Documents

Publication Publication Date Title
US10455141B2 (en) Auto-focus method and apparatus and electronic device
JP6554169B2 (en) Object recognition device and object recognition system
JP5954668B2 (en) Image processing apparatus, imaging apparatus, and image processing method
KR101687530B1 (en) Control method in image capture system, control apparatus and a computer-readable storage medium
JP2015035658A (en) Image processing apparatus, image processing method, and imaging apparatus
JP6566768B2 (en) Information processing apparatus, information processing method, and program
CN112927280A (en) Method and device for acquiring depth image and monocular speckle structured light system
US10205928B2 (en) Image processing apparatus that estimates distance information, method of controlling the same, and storage medium
EP3199914B1 (en) Imaging device
JP2017142613A (en) Information processing device, information processing system, information processing method and information processing program
JP6617150B2 (en) Object detection method and object detection apparatus
JP2013257244A (en) Distance measurement device, distance measurement method, and distance measurement program
JP2008275366A (en) Stereoscopic 3-d measurement system
JP5336325B2 (en) Image processing method
JP4198536B2 (en) Object photographing apparatus, object photographing method and object photographing program
CN110800020B (en) Image information acquisition method, image processing equipment and computer storage medium
JP5727969B2 (en) Position estimation apparatus, method, and program
JP6602286B2 (en) Image processing apparatus, image processing method, and program
JP2019021189A (en) Object detection device
JPWO2018012524A1 (en) Projection apparatus, projection method and projection control program
JP2013190938A (en) Stereo image processing device
WO2015159791A1 (en) Distance measuring device and distance measuring method
Karbasi et al. Analysis and enhancement of the denoising depth data using Kinect through iterative technique
JP6655869B2 (en) Image processing apparatus, image processing method, and program
KR101300166B1 (en) Apparatus and method for detecting iris

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20150217

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20151015

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20151027

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20160212

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20160329