JP7200983B2 - HARDWARE ACCELERATOR, IMAGE PROCESSING DEVICE, AND FEATURE POINT DETECTION METHOD - Google Patents

HARDWARE ACCELERATOR, IMAGE PROCESSING DEVICE, AND FEATURE POINT DETECTION METHOD Download PDF

Info

Publication number
JP7200983B2
JP7200983B2 JP2020158335A JP2020158335A JP7200983B2 JP 7200983 B2 JP7200983 B2 JP 7200983B2 JP 2020158335 A JP2020158335 A JP 2020158335A JP 2020158335 A JP2020158335 A JP 2020158335A JP 7200983 B2 JP7200983 B2 JP 7200983B2
Authority
JP
Japan
Prior art keywords
feature
unit
feature point
image processing
hardware accelerator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020158335A
Other languages
Japanese (ja)
Other versions
JP2022052139A (en
Inventor
康佑 松本
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2020158335A priority Critical patent/JP7200983B2/en
Priority to PCT/JP2021/028661 priority patent/WO2022064854A1/en
Publication of JP2022052139A publication Critical patent/JP2022052139A/en
Application granted granted Critical
Publication of JP7200983B2 publication Critical patent/JP7200983B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)

Description

本発明は、ハードウェアアクセラレータ、画像処理装置及び特徴点検出方法に関する。 The present invention relates to a hardware accelerator, an image processing device, and a feature point detection method.

物体検出や位置合わせ等のアプリケーションにおいて、特徴点検出が利用されている。特徴点検出では、いずれかの工程でソート処理を行うことが多い。 Feature point detection is used in applications such as object detection and alignment. In feature point detection, sorting is often performed in one of the steps.

例えば、特許文献1に記載された特徴点検出では、ソート処理を行って各特徴点のレスポンス値を特定の順番(昇順や降順等)に並び替えた後、レスポンス値上位の任意の個数を選択し、選択された特徴点について特徴量の生成が行われる。このような特徴点検出は、現在、通常のフレームレート(30fps(frames per second)等)で撮像される場合に利用されている。 For example, in the feature point detection described in Patent Document 1, sorting is performed to rearrange the response values of each feature point in a specific order (ascending order, descending order, etc.), and then an arbitrary number of top response values is selected. Then, feature quantities are generated for the selected feature points. Such feature point detection is currently used when imaging at a normal frame rate (30 fps (frames per second), etc.).

特開2014-120056号公報JP 2014-120056 A

ここで、高フレームレートでの物体検出等を行う場合において、ソート処理を伴った特徴点検出を行うためには、CPU(Central Processing Unit)によるソート処理では限界があるので、処理の一部を専用のハードウェア(以下、専用のハードウェアを「ハードウェアアクセラレータ」と記載する)に行わせてCPUの処理負担を低減させる。しかしながら、CPUでのソート処理をハードウェアアクセラレータでの処理に置き換えただけでは、回路コストが大きく、ハードウェアアクセラレータの回路規模が増大してしまう。 Here, when performing object detection at a high frame rate, etc., in order to perform feature point detection accompanied by sorting processing, there is a limit to sorting processing by a CPU (Central Processing Unit). Dedicated hardware (hereinafter, dedicate hardware will be referred to as a "hardware accelerator") is used to reduce the processing load on the CPU. However, simply replacing the sorting process by the CPU with the process by the hardware accelerator increases the circuit cost and the circuit scale of the hardware accelerator.

そこで、本発明は、上記問題を解決するためになされたものであり、物体検出に好適なハードウェアアクセラレータ、画像処理装置及び特徴点検出方法を提供することを目的とする。 SUMMARY OF THE INVENTION Accordingly, the present invention has been made to solve the above problems, and an object of the present invention is to provide a hardware accelerator, an image processing apparatus, and a feature point detection method suitable for object detection.

上記目的を達成するため、本発明のハードウェアアクセラレータは、
撮像された画像から検出された特徴点の特徴量を生成する画像処理装置が備えるハードウェアアクセラレータであって、
前記撮像された画像の画素ごとに所定のコーナー検出法を利用して、前記画素の少なくともコーナーらしさを示すレスポンス値を取得する取得部と、
前記取得部によって取得された複数のレスポンス値のヒストグラムを生成する生成部と、
前記生成部によって生成されたヒストグラムより前記レスポンス値の閾値を算定する算定部と、
前記算定部によって算定された閾値以上のレスポンス値を有する画素を、特徴量を生成すべき特徴点として検出する検出部と、
を備える。
In order to achieve the above object, the hardware accelerator of the present invention is
A hardware accelerator included in an image processing device that generates feature amounts of feature points detected from a captured image,
an acquisition unit that acquires, for each pixel of the captured image, a response value that indicates at least the likelihood of a corner of the pixel using a predetermined corner detection method ;
a generation unit that generates a histogram of a plurality of response values acquired by the acquisition unit;
a calculation unit that calculates a threshold value of the response value from the histogram generated by the generation unit;
a detection unit that detects a pixel having a response value equal to or greater than the threshold value calculated by the calculation unit as a feature point for which a feature amount should be generated;
Prepare.

本発明によれば、物体検出に好適なハードウェアアクセラレータ、画像処理装置及び特徴点検出方法を提供することができる。 According to the present invention, it is possible to provide a hardware accelerator, an image processing device, and a feature point detection method suitable for object detection.

本発明の実施形態に係る警備システムを示す図である。It is a figure which shows the security system which concerns on embodiment of this invention. 本発明の実施形態に係る画像処理装置のブロック図である。1 is a block diagram of an image processing device according to an embodiment of the present invention; FIG. 本発明の実施形態に係る画像処理装置の特徴量生成処理のフローチャートである。4 is a flowchart of feature amount generation processing of the image processing apparatus according to the embodiment of the present invention; 本発明の実施形態に係る画像処理装置のレスポンス値カウントアップ処理のフローチャートである。7 is a flowchart of response value count-up processing of the image processing apparatus according to the embodiment of the present invention; (a)、(b)は、図4のレスポンス値カウントアップ処理の説明図である。5A and 5B are explanatory diagrams of the response value count-up process in FIG. 4; FIG. 本発明の実施形態に係る画像処理装置の閾値算定処理のフローチャートである。4 is a flowchart of threshold calculation processing of the image processing apparatus according to the embodiment of the present invention; 図6の閾値算定処理の説明図である。FIG. 7 is an explanatory diagram of threshold calculation processing in FIG. 6 ; 本発明の変形例に係る画像処理装置のブロック図である。FIG. 10 is a block diagram of an image processing device according to a modification of the present invention;

本発明の実施形態に係るアクセラレータを備えた画像処理装置について、以下、図面を参照して詳細に説明する。 An image processing apparatus having an accelerator according to embodiments of the present invention will be described in detail below with reference to the drawings.

本発明の実施形態に係るアクセラレータを備えた画像処理装置は、監視カメラの画像から高速移動物体等を検知し、警備会社等に通報する警備システムの構成要素である。 An image processing apparatus equipped with an accelerator according to an embodiment of the present invention is a component of a security system that detects a high-speed moving object or the like from an image captured by a surveillance camera and notifies a security company or the like.

[警備システムの構成]
図1に示すように、例えば、銀行に設置された警備システム1は、高速移動物体等を検知する画像処理装置10と、画像処理装置10が検知した物体等を判別し、ユーザである警備員に報知する警備装置90と、を備える。画像処理装置10は、警備システムの警備範囲内である撮像範囲Pを移動する、車両101、人物102や物品103等の物体100が映った画像を撮像して、撮像した画像から車両101、人物102や物品103等を検知する。このうち、車両101は、場合によってはかなり速い速度で移動することもあるので、通常のフレームレートで撮像した画像から検知することが困難な場合がある。
[Security system configuration]
As shown in FIG. 1, for example, a security system 1 installed in a bank discriminates an image processing device 10 for detecting a high-speed moving object or the like, and an object or the like detected by the image processing device 10. and a security device 90 that notifies to. The image processing apparatus 10 captures an image of an object 100 such as a vehicle 101, a person 102, and an article 103 moving within an imaging range P within the security range of the security system. 102, articles 103, and the like are detected. Of these, the vehicle 101 may move at a fairly high speed in some cases, so it may be difficult to detect it from an image captured at a normal frame rate.

そこで、画像処理装置10は、高フレームレート、本実施形態では240fps(frames per second)で撮像を行い、撮像された画像から車両101を検出できるようにしている。このとき、通常のフレームレートで撮像した画像を処理する場合と同様にソート処理を伴った特徴点検出を利用した処理を行うと、CPUだけでの処理は困難である。そこで、画像処理装置10では、特徴点検出器30をハードウェアアクセラレータの対象とした。しかし、特徴点検出器30をハードウェアアクセラレータの対象としても、ソート処理に対応させると、回路コストが大きくなり、回路規模が増大してしまう。このため、画像処理装置10では、ソート処理を行わずに有用な特徴点を検出することにより、ハードウェアアクセラレータAである特徴点検出器30を小規模で低レイテンシーなものにしている。 Therefore, the image processing apparatus 10 performs imaging at a high frame rate, 240 fps (frames per second) in the present embodiment, so that the vehicle 101 can be detected from the captured image. At this time, if processing using feature point detection accompanied by sorting processing is performed in the same manner as when processing an image captured at a normal frame rate, processing by the CPU alone is difficult. Therefore, in the image processing apparatus 10, the feature point detector 30 is targeted for the hardware accelerator. However, even if the feature point detector 30 is the target of the hardware accelerator, the circuit cost and the circuit scale will increase if it is made compatible with the sorting process. For this reason, in the image processing apparatus 10, the feature point detector 30, which is the hardware accelerator A, is small-sized and has low latency by detecting useful feature points without performing sorting.

(画像処理装置の構成)
図2に示すように、画像処理装置10は、制御部20、特徴点検出器30、記憶部40、撮像部50、通信部60、表示部70、入力部80、を備える。
(Configuration of image processing device)
As shown in FIG. 2, the image processing apparatus 10 includes a control section 20, a feature point detector 30, a storage section 40, an imaging section 50, a communication section 60, a display section 70, and an input section 80.

制御部20は、CPU(Central Processing Unit)等で構成され、記憶部40に記憶されたプログラム等を実行することにより、後述する各部(特徴点取得部21、特徴量生成部22、特徴量送信部23)の機能を実現する。また、制御部20は、時計(図示せず)を有し、現在日時の取得や経過時間のカウント等をすることができる。 The control unit 20 is composed of a CPU (Central Processing Unit) or the like, and by executing a program or the like stored in the storage unit 40, each unit (feature point acquisition unit 21, feature amount generation unit 22, feature amount transmission unit 21) described later. It realizes the function of the part 23). The control unit 20 also has a clock (not shown), and can acquire the current date and time, count the elapsed time, and the like.

ハードウェアアクセラレータAである特徴点検出器30は、制御部20に代わって、画像Vから特徴点を抽出するための各種処理を実行するためのものである。特徴点検出器30は、CPU等を含んでおり、半導体等の電子部品を集積した集積回路(IC:Integrated Circuit)で構成され、記憶部40に記憶されたプログラム等を実行することにより、後述する各部(画像取得部31、コーナー検出部32、ヒストグラム生成部33、閾値算定部34)の機能を実現する。 The feature point detector 30 , which is the hardware accelerator A, is for executing various processes for extracting feature points from the image V instead of the control unit 20 . The feature point detector 30 includes a CPU and the like, and is configured by an integrated circuit (IC: Integrated Circuit) in which electronic components such as semiconductors are integrated. function of each unit (image acquisition unit 31, corner detection unit 32, histogram generation unit 33, threshold value calculation unit 34).

記憶部40は、ROM(Read Only Memory)、RAM(Random Access Memory)等で構成され、ROMの一部又は全部は電気的に書き換え可能なメモリ(フラッシュメモリ等)で構成されている。記憶部40は、機能的に、撮像画像記憶部41と、特徴点リスト記憶部42と、特徴量記憶部43と、各種設定記憶部44と、を有する。ROMには制御部20およびハードウェアアクセラレータAである特徴点検出器30が実行するプログラム及びプログラムを実行する上で予め必要なデータが記憶されている。RAMには、プログラム実行中に作成されたり変更されたりするデータが記憶される。 The storage unit 40 is composed of a ROM (Read Only Memory), a RAM (Random Access Memory), etc., and part or all of the ROM is composed of an electrically rewritable memory (flash memory, etc.). The storage unit 40 functionally includes a captured image storage unit 41 , a feature point list storage unit 42 , a feature amount storage unit 43 , and various setting storage unit 44 . Programs executed by the control unit 20 and the feature point detector 30, which is the hardware accelerator A, and data necessary for executing the programs are stored in the ROM in advance. RAM stores data that is created or changed during program execution.

撮像画像記憶部41には、本実施形態では、撮像部50に撮像された画像Vが記憶される。本実施形態では、説明の簡略化のため後述する撮像装置51は1台とするが、撮像画像記憶部41は、撮像装置51が複数台稼働している場合には、撮像装置51毎に撮像された画像を記憶することができる。 In this embodiment, the captured image storage unit 41 stores an image V captured by the imaging unit 50 . In the present embodiment, the number of imaging devices 51, which will be described later, is one for the sake of simplification of explanation. The captured image can be stored.

特徴点リスト記憶部42には、後述する特徴量生成処理で生成される特徴点リストを記憶する。特徴点リストには、特徴点の座標とレスポンス値が関連づけて記憶される。 The feature point list storage unit 42 stores a feature point list generated by feature amount generation processing, which will be described later. Coordinates of feature points and response values are associated with each other and stored in the feature point list.

特徴量記憶部43には、特徴点リスト記憶部42に記憶された特徴点リストのうち、後述する閾値以上のレスポンス値を有する特徴点から生成された特徴量が記憶される。この特徴量が警備装置90に送信される。 The feature amount storage unit 43 stores feature amounts generated from feature points having a response value equal to or greater than a threshold, which will be described later, in the feature point list stored in the feature point list storage unit 42 . This feature quantity is transmitted to the security device 90 .

各種設定記憶部44には、画像Vを撮像するフレームレート、画像Vが撮像される撮像範囲P、レスポンス値範囲等の各種設定が、予め、またはユーザが入力部80を介して入力すること等により記憶されている。 In the various setting storage unit 44, various settings such as the frame rate for capturing the image V, the image capturing range P in which the image V is captured, and the response value range are input in advance or by the user via the input unit 80. stored by

撮像部50は、画像Vを撮像する撮像装置51、撮像装置51の姿勢を制御するための駆動装置52を有する。 The imaging unit 50 has an imaging device 51 that captures an image V and a driving device 52 that controls the attitude of the imaging device 51 .

撮像装置51は、本実施形態では、CMOS(Complementary Metal Oxide Semiconductor)カメラを備える。撮像装置51は、撮像範囲Pを240fps(frames per second)の高フレームレートで撮像し画像Vを生成する。なお、フレームレートは240fpsに初期設定されているが、撮像対象物の想定移動速度等に応じて、ユーザにより手動で、または自動的に変更可能である。 The imaging device 51 includes a CMOS (Complementary Metal Oxide Semiconductor) camera in this embodiment. The imaging device 51 captures an imaging range P at a high frame rate of 240 fps (frames per second) to generate an image V. FIG. Note that the frame rate is initially set to 240 fps, but can be changed manually or automatically by the user according to the assumed moving speed of the object to be imaged.

駆動装置52は、後述する入力装置81等の指示に従って、撮像装置51の位置や方向を移動させて撮像範囲Pを調整する。 The driving device 52 adjusts the imaging range P by moving the position and direction of the imaging device 51 according to instructions from the input device 81 or the like, which will be described later.

通信部60は、警備装置90や外部機器等と通信するためのモジュールである通信装置61を有する。通信装置61は、外部機器と通信する場合にはアンテナを含む無線モジュールである。例えば、通信装置61は、Bluetooth(登録商標)に基づく近距離無線通信を行うための無線モジュールである。通信部60を用いることにより、画像処理装置10は、警備装置90や外部機器と画像Vや特徴量等のデータ等の受け渡しを行うことができる。 The communication unit 60 has a communication device 61 which is a module for communicating with the security device 90 and external devices. The communication device 61 is a wireless module including an antenna when communicating with an external device. For example, the communication device 61 is a wireless module for short-range wireless communication based on Bluetooth (registered trademark). By using the communication unit 60, the image processing apparatus 10 can exchange data such as the image V and the feature amount with the security apparatus 90 and external devices.

表示部70は、液晶表示パネル(LCD:Liquid Crystal Display)から構成された表示装置71を備える。 The display unit 70 includes a display device 71 configured by a liquid crystal display panel (LCD: Liquid Crystal Display).

表示装置71としては、薄膜トランジスタ(TFT:Thin Film Transistor)、液晶、有機ELなどを採用できる。表示装置71には、画像Vや特徴量リスト等が表示される。 As the display device 71, a thin film transistor (TFT), a liquid crystal, an organic EL, or the like can be used. The display device 71 displays an image V, a feature amount list, and the like.

入力部80は、表示部70と近接して、または表示部70と一体に設けられた抵抗膜方式のタッチパネル(入力装置81)である。タッチパネルは、赤外線操作方式や投影型静電容量方式等であってもよいし、入力部はタッチパネルで無くキーボードおよびマウス等であってもよい。ユーザは、入力部80を介したマニュアル操作にて、フレームレートを変更する、或いは、表示部70を使用して撮像範囲P等を設定することができる。 The input unit 80 is a resistive touch panel (input device 81 ) provided close to the display unit 70 or integrated with the display unit 70 . The touch panel may be of an infrared operation system, a projective capacitive system, or the like, and the input unit may be a keyboard, a mouse, or the like instead of the touch panel. The user can change the frame rate by manual operation via the input unit 80 or set the imaging range P and the like using the display unit 70 .

次に、画像処理装置10の制御部20および特徴点検出器30の機能的構成について説明する。 Next, functional configurations of the control unit 20 and the feature point detector 30 of the image processing apparatus 10 will be described.

制御部20は、特徴点取得部21、特徴量生成部22、特徴量送信部23の機能を実現し、ハードウェアアクセラレータAである特徴点検出器30とともに後述する特徴量生成処理等を行う。 The control unit 20 realizes the functions of the feature point acquisition unit 21, the feature amount generation unit 22, and the feature amount transmission unit 23, and performs feature amount generation processing and the like described later together with the feature point detector 30, which is the hardware accelerator A.

特徴点取得部21は、特徴点のレスポンス値Rが後述する閾値Th以上である場合に、特徴点リストから当該特徴点の座標を読み込み、特徴点生成部22に送信する。 When the response value R of the feature point is equal to or greater than a threshold value Th, which will be described later, the feature point acquisition unit 21 reads the coordinates of the feature point from the feature point list and transmits the coordinates to the feature point generation unit 22 .

特徴量生成部22は、特徴点のレスポンス値Rが閾値Th以上である場合に、当該特徴点の特徴量を生成して、特徴量記憶部43に記憶する。特徴量生成部22は、本実施形態では、SIFT(Scale-Invariant Feature Transform)によって特徴量を生成する。具体的には、まず、下式(1)、(2)に示すスケールの異なるガウス関数Gと入力画像Iを畳み込んだ平滑画像Lとの差分であるDoG(Difference of Gaussian)画像により、キーポイント候補を算出する。
L(u,v,σ)=G(x,y,σ)×I(u,v)…(1)
When the response value R of the feature point is equal to or greater than the threshold value Th, the feature amount generation unit 22 generates the feature amount of the feature point and stores it in the feature amount storage unit 43 . In the present embodiment, the feature amount generation unit 22 generates feature amounts by SIFT (Scale-Invariant Feature Transform). Specifically, the key Calculate point candidates.
L(u, v, σ)=G(x, y, σ)×I(u, v) (1)

Figure 0007200983000001
Figure 0007200983000001

DoG画像の結果Dは、下式(3)から算出する。 The DoG image result D is calculated from the following equation (3).

Figure 0007200983000002
Figure 0007200983000002

ここで、キーポイント候補に対して下式(4)に示す2次元ヘッセ行列Hを算出する。 Here, the two-dimensional Hessian matrix H shown in the following equation (4) is calculated for the keypoint candidates.

Figure 0007200983000003
Figure 0007200983000003

Hから算出される固有値をそれぞれα,βとして、γをα=γβとする場合に、Hの対角成分の和と行列式との関係は、下式(5)に示される。 When the eigenvalues calculated from H are α and β, respectively, and α=γβ for γ, the relationship between the sum of the diagonal components of H and the determinant is shown in the following equation (5).

Figure 0007200983000004
Figure 0007200983000004

SIFTでは、下式(6)に示すγthによって閾値処理を実行することにより、エッジ上の不要なキーポイント候補を除外する。 SIFT eliminates unnecessary keypoint candidates on edges by performing thresholding with γ th shown in the following equation (6).

Figure 0007200983000005
Figure 0007200983000005

スケール空間内のキーポイントの位置は、サブピクセル推定を利用する。サブピクセル位置でのDoG出力を算出し、DoG出力の絶対値が閾値より小さいものを、キーポイント候補から除外する。これにより、特徴量記述部は、検出されたキーポイントに対して、オリエンテーションの算出をするため、キーポイントが検出された平滑化画像Lの勾配強度mと勾配方向θを下式(7)、(8)、(9)より算出する。 The location of keypoints in scale space utilizes sub-pixel estimation. The DoG output at the sub-pixel position is calculated, and the DoG output whose absolute value is smaller than the threshold is excluded from the keypoint candidates. As a result, in order to calculate the orientation of the detected keypoints, the feature quantity description unit calculates the gradient strength m and gradient direction .theta. Calculated from (8) and (9).

Figure 0007200983000006
Figure 0007200983000006

Figure 0007200983000007
Figure 0007200983000007

Figure 0007200983000008
Figure 0007200983000008

算出されたmとθを使用して、重み付きの方向ヒストグラムhを式(10)、(11)から算出する。 Using the calculated m and θ, a weighted orientation histogram h is calculated from equations (10) and (11).

Figure 0007200983000009

w(x,y)=G(x,y,σ)・m(x,y)…(11)
Figure 0007200983000009

w(x, y)=G(x, y, σ)·m(x, y) (11)

hは勾配方向を36方向に量子化したヒストグラムであり、wは参照ピクセルに対する重みであり、キーポイントに近いほど重くなるガウスカーネルを使用する。また、δはデルタ関数であり、θが量子化勾配方向θ’である場合に1を返す。36方向のヒストグラムの最大値から80パーセント以上となるピークをキーポイントのオリエンテーションとする。 h is a histogram obtained by quantizing the gradient directions in 36 directions, and w is the weight for the reference pixel, using a Gaussian kernel that becomes heavier closer to the keypoint. Also, .delta. is a delta function that returns 1 if .theta. is the quantized gradient direction .theta.'. A peak that is 80% or more from the maximum value of the histogram in 36 directions is taken as the orientation of the key point.

最後に、キーポイントのオリエンテーションを利用して、特徴量を記述する領域を回転させ、キーポイントの周辺領域が持つ勾配情報に基づいてキーポイントの特徴量を記述する。キーポイント記述子は、キーポイント周囲を、例えば、4×4=16ブロックに分割して、各ブロックを45°ずつ8方向のヒストグラムを作成することにより、128次元の特徴ベクトルのキーポイントの特徴量を記述する。 Finally, the orientation of the keypoint is used to rotate the region describing the feature quantity, and the feature quantity of the keypoint is described based on the gradient information of the region surrounding the keypoint. The keypoint descriptor is a 128-dimensional feature vector by dividing the keypoint circumference into, for example, 4×4=16 blocks and creating an 8-direction histogram for each block by 45°. Describe quantity.

特徴量送信部23は、特徴量記憶部43に記憶された特徴量と、特徴点リスト記憶部42に記憶された特徴点リストとを警備装置90に送信する。 The feature amount transmission unit 23 transmits the feature amount stored in the feature amount storage unit 43 and the feature point list stored in the feature point list storage unit 42 to the security device 90 .

特徴点検出器30は、画像取得部31、コーナー検出部32、ヒストグラム生成部33、閾値算定部34、の機能を実現し、制御部20とともに特徴量生成処理等を行う。 The feature point detector 30 realizes the functions of the image acquisition section 31, the corner detection section 32, the histogram generation section 33, and the threshold calculation section 34, and performs feature amount generation processing and the like together with the control section 20. FIG.

画像取得部31は、予め画像処理装置10に設定された、またはユーザが設定した露出条件で撮像範囲Pを撮像部50に撮像された画像Vを撮像画像記憶部41から取得する。画像取得部31は、取得した画像Vをコーナー検出部32に送信する。 The image acquisition unit 31 acquires from the captured image storage unit 41 the image V captured by the imaging unit 50 in the imaging range P under the exposure conditions set in the image processing apparatus 10 in advance or set by the user. The image acquisition section 31 transmits the acquired image V to the corner detection section 32 .

コーナー検出部32は、画像取得部31から送信された画像Vの中から、本実施形態では、Harrisのコーナー検出法によって特徴点を検出する。検出方法の詳細は、後述の特徴量生成処理にて説明する。コーナー検出部32は、検出した特徴点の座標とレスポンス値Rとを特徴点リスト記憶部42に記憶させる。 The corner detection unit 32 detects feature points from the image V transmitted from the image acquisition unit 31 by the Harris corner detection method in this embodiment. Details of the detection method will be described later in the feature amount generation process. The corner detection unit 32 stores the coordinates of the detected feature points and the response value R in the feature point list storage unit 42 .

ヒストグラム生成部(度数(頻度)分布算定部)33は、特徴点リスト記憶部42に記憶された特徴点のレスポンス値Rを用いて、図5(a)、(b)に示すようなヒストグラムを生成する。ヒストグラムの生成方法については、後述するレスポンス値カウントアップ処理にて説明する。ヒストグラム生成部33は、得られたヒストグラムの結果に応じて、或いはユーザによって任意に、後述するレスポンス値範囲を変更することができる。 The histogram generation unit (frequency distribution calculation unit) 33 uses the response values R of the feature points stored in the feature point list storage unit 42 to create histograms as shown in FIGS. Generate. A method of generating the histogram will be described later in response value count-up processing. The histogram generation unit 33 can change the response value range, which will be described later, according to the result of the obtained histogram or arbitrarily by the user.

閾値算定部34は、後述する閾値算定処理において、レスポンス値Rに基づいて閾値Thを算出する。閾値Thの算出方法の詳細は、後述する。 The threshold calculation unit 34 calculates the threshold Th based on the response value R in the threshold calculation process described later. The details of the calculation method of the threshold Th will be described later.

以上、制御部20および特徴点検出器30の機能的構成について説明した。以下、図3等を用いて、撮像された画像Vから特徴点を抽出し、抽出された特徴点のうち、所定の閾値以上のレスポンス値を有するものの特徴量を生成する特徴量生成処理について具体的に説明する。この特徴量生成処理では、ソート処理を行わずに、度数分布処理を行うので、特徴点検出器30を小規模回路なアクセラレータAで構成することができる。 The functional configurations of the control unit 20 and the feature point detector 30 have been described above. Hereinafter, with reference to FIG. 3 and the like, feature amount generation processing for extracting feature points from a captured image V and generating feature amounts for those extracted feature points having a response value equal to or greater than a predetermined threshold will be described in detail. explained in detail. In this feature amount generation processing, frequency distribution processing is performed without performing sorting processing, so the feature point detector 30 can be configured with the accelerator A, which is a small-scale circuit.

(特徴量生成処理)
はじめに、撮像部50は、フレームレート240fpsで所定の撮像範囲Pを撮像し、撮像された画像Vを撮像画像記憶部41に記憶させる(ステップS1)。
(Feature amount generation processing)
First, the imaging unit 50 images a predetermined imaging range P at a frame rate of 240 fps, and stores the captured image V in the captured image storage unit 41 (step S1).

次に、n(1≦n≦k)回目の画素取り込みを始める(ステップS2)。特徴点取得部21は、撮像画像記憶部41に記憶された画像Vからn番目の画素を1画素読み込み、取得した画素をコーナー検出部32に送信する(ステップS3)。なお、画像Vの画素数は、k個(1≦n≦k)とし、n=1,2,3,…,kの順に画素を取得する。 Next, the n (1≤n≤k)-th pixel acquisition is started (step S2). The feature point acquisition unit 21 reads one n-th pixel from the image V stored in the captured image storage unit 41, and transmits the acquired pixel to the corner detection unit 32 (step S3). The number of pixels of the image V is set to k (1≤n≤k), and pixels are acquired in order of n=1, 2, 3, . . . , k.

コーナー検出部32は、受信した画素について、以下の式(12)から(15)を用いてレスポンス値Rを算出する(ステップS4)。(12)式の窓関数w(x,y)には、矩形窓又はガウシアン窓を使用する。E(uv)を最大化するために(12)式にTaylor展開等を行い、(13)式を得る。なお、(13)式のMは、(14)式のように定義される。IとIとは、それぞれ画像Vのx方向とy方向の勾配を表す。 The corner detection unit 32 calculates a response value R for the received pixel using the following formulas (12) to (15) (step S4). A rectangular window or a Gaussian window is used for the window function w(x, y) in equation (12). In order to maximize E(u , v), formula (12) is subjected to Taylor expansion or the like to obtain formula (13). Note that M in the formula (13) is defined as in the formula (14). Ix and Iy represent the gradients of the image V in the x and y directions, respectively.

Figure 0007200983000010
Figure 0007200983000010

Figure 0007200983000011
Figure 0007200983000011

Figure 0007200983000012
Figure 0007200983000012

R=det(M)-k(trace(M))2
det(M)=λ1λ2 …(15)
trace(M)=λ12
λ12:Mの固有値
R = det(M) - k(trace(M)) 2
det(M)=λ 1 λ 2 (15)
trace(M)= λ1 + λ2
λ 1 , λ 2 : Eigenvalue of M

コーナー検出部32は、算出したレスポンス値Rが閾値Fを超える場合(ステップS5:Yes)、ステップS6へ進む。レスポンス値Rが閾値F以下の場合(ステップS5:No)、0クリップし(ステップS7)、nに1を加えてステップS3へ戻る。なお、閾値Fは、事前に対象となる画像Vを用いて、統計的に解析して、値を決定する。 When the calculated response value R exceeds the threshold value F (step S5: Yes), the corner detection unit 32 proceeds to step S6. If the response value R is less than or equal to the threshold value F (step S5: No), 0 clip is performed (step S7), 1 is added to n, and the process returns to step S3. Note that the threshold value F is determined in advance by statistically analyzing the target image V. FIG.

ステップS6では、コーナー検出部32は、レスポンス値Rを非極大値抑制(Non Maximum Suppression)することにより、エッジの強さが極大となる部分以外を除外する。極大点(特徴点)である場合(ステップS6:Yes)、ステップS8へ進み、極大点で無く、除外された場合、nに1を加えて(ステップS9)、ステップS3に戻る。 In step S<b>6 , the corner detection unit 32 excludes portions other than the portion where the strength of the edge is maximum by performing non-maximum suppression on the response value R. FIG. If it is a maximum point (feature point) (step S6: Yes), go to step S8. If it is not a maximum point and is excluded, add 1 to n (step S9) and return to step S3.

ステップS8では、コーナー検出部32は、特徴点の座標とレスポンス値Rとを特徴点リストとして特徴点リスト記憶部42に記憶させる。 In step S8, the corner detection unit 32 stores the coordinates of the feature points and the response value R in the feature point list storage unit 42 as a feature point list.

ステップS10に進み、ヒストグラム生成部33は、後述するレスポンス値カウントアップ処理を実行する。 Proceeding to step S10, the histogram generator 33 executes response value count-up processing, which will be described later.

ステップS11に進み、n=kの場合(ステップS11:Yes)、ステップS12に進み、n<kの場合(ステップS11:No)、nに1を加えて(ステップS13)、ステップS3に戻る。 Proceeding to step S11, if n=k (step S11: Yes), proceed to step S12, if n<k (step S11: No), add 1 to n (step S13), and return to step S3.

ステップS12では、閾値算定部34は、ヒストグラムから上位M個になるレスポンス値Rの閾値Thを算定するための、後述する閾値算定処理を実行する。Mは、本実施形態では、ステップS8の特徴点リストの特徴点の数の10パーセントとしている。 In step S12, the threshold calculation unit 34 executes a threshold calculation process, which will be described later, for calculating the threshold Th of the response values R that are the top M from the histogram. In this embodiment, M is 10% of the number of feature points in the feature point list in step S8.

ステップS14に進み、特徴点取得部21は、検出された特徴点Z個(1≦m≦Z)について、レスポンス値Rがそれぞれ閾値算定処理で算定した閾値Th以上か否かを判別する。当該特徴点のレスポンス値Rが閾値Th以上である場合(ステップS14:Yes)、特徴点取得部21は、特徴点リストから当該特徴点の座標を読み込み、特徴生成部22に送信する。特徴生成部22は、SIFTによって当該特徴点の特徴量を生成して(ステップS15)、特徴量記憶部43に記憶してステップS16へ進む。当該特徴点のレスポンス値Rが閾値Th未満である場合(ステップS14:No)、ステップS16へ進む。 Proceeding to step S14, the feature point acquiring unit 21 determines whether or not the response value R of each of Z detected feature points (1≦m≦Z) is equal to or greater than the threshold Th calculated in the threshold calculation process. If the response value R of the feature point is equal to or greater than the threshold Th (step S14: Yes), the feature point acquisition unit 21 reads the coordinates of the feature point from the feature point list and transmits the coordinates to the feature amount generation unit 22. The feature amount generation unit 22 generates the feature amount of the feature point by SIFT (step S15), stores it in the feature amount storage unit 43, and proceeds to step S16. If the response value R of the feature point is less than the threshold Th (step S14: No), the process proceeds to step S16.

ステップS16では、m=Zである場合(ステップS16:Yes)、特徴量生成処理を終了し、m<Zである場合(ステップS16:No)、mに1を加えて(ステップS17)、ステップS14に戻る。 In step S16, if m=Z (step S16: Yes), the feature amount generation process is terminated, and if m<Z (step S16: No), 1 is added to m (step S17), and step Return to S14.

続いて、図4、図5(a)、(b)を用いて、特徴量生成処理のステップS10で実行されるレスポンス値カウントアップ処理について、説明を行う。 Subsequently, the response value count-up process executed in step S10 of the feature amount generation process will be described with reference to FIGS. 4, 5(a) and 5(b).

はじめに、当該特徴点のレスポンス値Rが該当する、レスポンス値範囲(図5(a)参照)を決定する(ステップS21)。なお、レスポンス値範囲は、各種設定記憶部44に予め記憶されているものを使用してもよいし、ユーザが任意に設定してもよい。或いは、例えば、レスポンス値Rが1つ(或いは2つ、3つ等)のBINの範囲に集中する場合には、レスポンス値範囲を変更して、レスポンス値Rが特定の範囲に集中しないように修正することもできる。また、レスポンス値範囲は、レスポンス値Rの頻度分布等に応じて、例えば、図5(b)に示すように、階級の幅を指数(或いは対数)等を用いたものとして、適切な度数分布が得られるようにしてもよい。 First, a response value range (see FIG. 5A) to which the response value R of the feature point corresponds is determined (step S21). Note that the range of response values stored in advance in the various setting storage unit 44 may be used, or may be arbitrarily set by the user. Alternatively, for example, when the response values R are concentrated in one (or two, three, etc.) BIN range, the response value range is changed so that the response values R are not concentrated in a specific range. It can also be modified. Further, the response value range is determined according to the frequency distribution of the response value R, for example, as shown in FIG. may be obtained.

次に、ステップS22に進み、該当するレスポンス値範囲のビンに対してカウントアップを行い(ステップS22)、終了する。 Next, the process proceeds to step S22, counts up the bins in the corresponding response value range (step S22), and ends.

続いて、図6、図7を用いて、特徴量生成処理のステップS12で実行される閾値算定処理について、説明を行う。図7に示すように、本実施形態では、ビン(BIN)は、0から4の5つに分かれているものとし、ビン4がレスポンス値Rの最も大きい範囲であり、ビン0がレスポンス値Rの最も小さい範囲であるものとする。また、M=6であるとする。 Next, the threshold value calculation process executed in step S12 of the feature amount generation process will be described with reference to FIGS. 6 and 7. FIG. As shown in FIG. 7, in this embodiment, bins (BIN) are divided into five from 0 to 4, bin 4 is the largest range of response values R, and bin 0 is the response value R shall be the smallest range of Also assume that M=6.

まず、1巡目では(t=1)、閾値算定部34は、レスポンス値Rの最も大きい範囲であるビンに属するレスポンス値の数F1(=Q1)を算定する(ステップS32)。2巡目には、閾値算定部34は、1巡目のビンに属するレスポンス値の数F1に、1巡目のビンの次にレスポンス値Rの大きい範囲であるビンに属するレスポンス値の数F2を加算し、Q2を得る。3巡目には、閾値算定部34は、1巡目および2巡目のビンに属するレスポンス値の数F1+F2に、2巡目のビンの次にレスポンス値Rの大きい範囲であるビンに属するレスポンス値の数F3を加算しQ3を得る。以後、1巡ごとに、閾値算定部34は、次にレスポンス値Rの大きい範囲であるビンに属するレスポンス値Rを順に加算し、Qtを得る。本実施形態では、1巡目、2巡目は1(T1=T2=1)で、3巡目は5(T3=5)、4巡目は7(T4=7)、5巡目は8(T5=8)となる。 First, in the first round (t=1), the threshold calculator 34 calculates the number F1 (=Q1) of response values belonging to the bin that is the largest range of response values R (step S32). In the second round, the threshold calculation unit 34 adds the number F1 of response values belonging to the first round bin to the number F2 of response values belonging to the next largest range of response values R after the first round bin. to get Q2. In the third round, the threshold calculation unit 34 adds the number F1+F2 of response values belonging to the first and second round bins to the response belonging to the bin having the next largest response value R after the second round bin. Add the number of values F3 to get Q3. After that, the threshold calculation unit 34 sequentially adds the response values R belonging to the next largest range of response values R for each cycle to obtain Qt. In this embodiment, the first and second rounds are 1 (T1=T2=1), the third round is 5 (T3=5), the fourth round is 7 (T4=7), and the fifth round is 8. (T5=8).

ステップS33に進み、閾値算定部34は、ステップS32で得たレスポンス値の数QtとMとを比較する。ステップS32で得たレスポンス値の数QtがM以下である場合(ステップS33:No)、tに1を加え(ステップS34)、ステップS32に戻る。ステップS32で得たレスポンス値の数QtがMを超える場合(ステップS33:Yes)、閾値算定部34は、1巡前のビンを閾値Thとし(ステップS35)、閾値算定処理を終了する。 Proceeding to step S33, the threshold calculator 34 compares the number Qt of response values obtained in step S32 with M. FIG. If the number Qt of response values obtained in step S32 is M or less (step S33: No), 1 is added to t (step S34), and the process returns to step S32. When the number Qt of response values obtained in step S32 exceeds M (step S33: Yes), the threshold calculator 34 sets the previous bin as the threshold Th (step S35), and terminates the threshold calculation process.

以上、特徴量生成処理によって、画像処理装置10は、撮像された画像から特徴点を検出し、特徴点のレスポンス値のヒストグラムを生成し、ヒストグラムによりレスポンス値Rの閾値Thを設定し、閾値Th以上のレスポンス値Rを有する特徴点の特徴量を生成する。従って、ソート処理を行わずに特徴量生成をすることができる。ソート処理を行わないので、画像処理装置10のハードウェアアクセラレータAを小規模回路で低レイテンシーに構成することができる。また、データ格納内部メモリを小さくすることができる。 As described above, through the feature amount generation process, the image processing apparatus 10 detects feature points from a captured image, generates a histogram of response values of the feature points, sets a threshold value Th of the response value R based on the histogram, and sets the threshold value Th A feature quantity of a feature point having the above response value R is generated. Therefore, it is possible to generate the feature quantity without performing the sorting process. Since the sorting process is not performed, the hardware accelerator A of the image processing apparatus 10 can be configured with a small-scale circuit with low latency. Also, the internal memory for data storage can be made smaller.

画像処理装置10の特徴量送信部23は、生成した特徴量を警備装置90に送信し、警備装置90は、受信した特徴量を元に画像Vに写った物体100が何であるかを判別し、ユーザである警備員に報知する。 The feature quantity transmission unit 23 of the image processing device 10 transmits the generated feature quantity to the security device 90, and the security device 90 determines what the object 100 shown in the image V is based on the received feature quantity. , to notify the security guard who is the user.

[変形例]
上記実施形態では、画像処理装置10の特徴点検出器30をハードウェアアクセラレータAとしたが、ハードウェアアクセラレータとする対象は、例えば、ヒストグラムを生成する部分だけであったり、ヒストグラム生成および閾値の算定であってもよいし、他の範囲であってもよい。必要に応じて、ハードウェアアクセラレータとする範囲を決定し、ハードウェアアクセラレータの対象外とする範囲を制御部や記憶部の範囲としてもよい。例えば、図8に示すように、アクセラレータ記憶部40Bを有するハードウェアアクセラレータBを設けた画像処理装置10Aとしてもよい。或いは、ハードウェアアクセラレータAを2つ実装した構成の画像処理装置として、より高速に閾値算定できるようにしてもよい。
[Modification]
In the above embodiment, the hardware accelerator A is used as the feature point detector 30 of the image processing apparatus 10. However, the hardware accelerator can be used only for the part that generates the histogram, or for the histogram generation and threshold calculation. or other ranges. If necessary, the range to be hardware-accelerated may be determined, and the range not to be hardware-accelerated may be the range of the control unit or storage unit. For example, as shown in FIG. 8, the image processing apparatus 10A may be provided with a hardware accelerator B having an accelerator storage unit 40B. Alternatively, an image processing apparatus having a configuration in which two hardware accelerators A are mounted may be used so that the threshold value can be calculated at a higher speed.

上記実施形態では、Harrisによるコーナー検出を行ったが、他のコーナー検出、例えば、Plesseyのコーナー検出やMoravecのコーナー検出等によってもよい。 In the above embodiment, Harris' corner detection is performed, but other corner detection, such as Plessey's corner detection or Moravec's corner detection, may be used.

また、上記実施形態では、SIFTによる特徴量生成を行ったが、ORB(Oriented FAST and Roatated BRIEF)やSURF(Speeded-Up Robust Features)等による特徴量生成を行ってもよい。 Further, in the above embodiment, the feature amount is generated by SIFT, but the feature amount may be generated by ORB (Oriented FAST and Roated Brief), SURF (Speeded-Up Robust Features), or the like.

上記実施形態では、画像処理装置10は、警備装置に使用されたが、例えば、工場ラインセンサや車載カメラと連携させてもよい。 In the above embodiment, the image processing device 10 is used as a security device, but it may be linked with a factory line sensor or an in-vehicle camera, for example.

また、上記実施形態では、画像処理装置10は、レスポンス値Rのヒストグラムを生成したが、他の度数分布、例えば、度数分布表を用いてもよい。 Also, in the above embodiment, the image processing apparatus 10 generates a histogram of the response values R, but other frequency distributions such as a frequency distribution table may be used.

上記実施形態では、Mは、特徴点リストの特徴点の数の10パーセントとしていたが、10パーセント以外の任意の数値であってもよいし、或いは、Mは、画像のサイズによって決定してもよい。 In the above embodiment, M is 10% of the number of feature points in the feature point list, but may be any numerical value other than 10%, or M may be determined by the size of the image. good.

上記実施形態において、検出された特徴点の数が不足してMが決定できずに閾値Thが決定できない場合、例えば、ステップS5において閾値Fを設定し直してさらに特徴点を検出することにより閾値Thを決定するとよい。 In the above embodiment, if the number of detected feature points is insufficient and M cannot be determined and the threshold value Th cannot be determined, for example, in step S5, the threshold value F is set again and further feature points are detected. Th should be determined.

この発明の画像処理装置10の各機能は、通常のPC(Personal Computer)等のコンピュータによっても実施することができる。具体的には、上記実施形態では、画像処理装置10が行う露出補正処理および画像処理のプログラムが、記憶部40のROMに予め記憶されているものとして説明した。しかし、プログラムを、フレキシブルディスク、CD-ROM(Compact Disc Read Only Memory)、DVD(Digital Versatile Disc)及びMO(Magneto-Optical Disc)等のコンピュータ読み取り可能な記録媒体に格納して配布し、そのプログラムをコンピュータに読み込んでインストールすることにより、上述の各機能を実現することができるコンピュータを構成してもよい。 Each function of the image processing apparatus 10 of the present invention can be implemented by a computer such as a normal PC (Personal Computer). Specifically, in the above embodiment, the exposure correction processing and image processing programs performed by the image processing apparatus 10 are pre-stored in the ROM of the storage unit 40 . However, the program may be stored and distributed on computer-readable recording media such as flexible discs, CD-ROMs (Compact Disc Read Only Memory), DVDs (Digital Versatile Discs) and MOs (Magneto-Optical Discs), etc. can be read into the computer and installed to configure a computer capable of realizing each of the functions described above.

以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲が含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。 Although the preferred embodiments of the present invention have been described above, the present invention is not limited to such specific embodiments, and the present invention includes the invention described in the claims and their equivalents. be The invention described in the original claims of the present application is appended below.

(付記)
(付記1)
撮像された画像から特徴点のレスポンス値の度数分布を算定する度数分布算定部と、
前記度数分布に基づいて閾値を算出する閾値算定部と、を備え、
前記閾値以上であるレスポンス値を有する特徴点の特徴量を画像処理装置に生成させる、
ハードウェアアクセラレータ。
(Appendix)
(Appendix 1)
a frequency distribution calculation unit that calculates the frequency distribution of the response values of the feature points from the captured image;
A threshold calculation unit that calculates a threshold based on the frequency distribution,
causing an image processing device to generate a feature amount of a feature point having a response value equal to or greater than the threshold;
hardware accelerator.

(付記2)
前記閾値は、検出された前記特徴点の数により決定される、
付記1に記載のハードウェアアクセラレータ。
(Appendix 2)
wherein the threshold is determined by the number of detected feature points;
A hardware accelerator as described in Appendix 1.

(付記3)
前記閾値は、前記画像のサイズによって決定される、
付記1に記載のハードウェアアクセラレータ。
(Appendix 3)
the threshold is determined by the size of the image;
A hardware accelerator as described in Appendix 1.

(付記4)
前記度数分布は、ヒストグラムによって表現される、
付記1から3のいずれか1つに記載のハードウェアアクセラレータ。
(Appendix 4)
The frequency distribution is represented by a histogram,
4. The hardware accelerator according to any one of appendices 1-3.

(付記5)
前記検出された特徴点の数が不足して前記閾値が決定できない場合、さらに特徴点を検出することにより前記閾値を決定する、
付記1から4のいずれか1つに記載のハードウェアアクセラレータ。
(Appendix 5)
If the threshold cannot be determined due to an insufficient number of detected feature points, determining the threshold by further detecting feature points;
5. The hardware accelerator according to any one of appendices 1 to 4.

(付記6)
前記ヒストグラムの階級の幅は、指数的に大きくなる、または小さくなる、
付記4に記載のハードウェアアクセラレータ。
(Appendix 6)
The width of the histogram class increases or decreases exponentially,
A hardware accelerator according to appendix 4.

(付記7)
付記1から6のいずれか1つに記載のハードウェアアクセラレータと、
前記閾値以上の特徴点について特徴量を生成する制御部と、
前記画像と前記レスポンス値と前記特徴量とを記憶する記憶部と、
を備える、
画像処理装置。
(Appendix 7)
a hardware accelerator according to any one of Appendices 1 to 6;
a control unit that generates feature amounts for feature points equal to or greater than the threshold;
a storage unit that stores the image, the response value, and the feature quantity;
comprising
Image processing device.

(付記8)
ハードウェアアクセラレータに、
撮像された画像から特徴点のレスポンス値の度数分布を算定させ、
前記度数分布に基づいて閾値を算出させ、
画像処理装置に、
前記閾値以上であるレスポンス値を有する特徴点の特徴量を生成させる、
画像処理方法。
(Appendix 8)
hardware accelerator,
Calculating the frequency distribution of the response values of the feature points from the captured image,
Calculate a threshold value based on the frequency distribution,
image processing equipment,
generating a feature quantity of a feature point having a response value equal to or greater than the threshold;
Image processing method.

1…警備システム、10,10A…画像処理装置、20…制御部、21…特徴点取得部、22…特徴量生成部、23…特徴量送信部、30…特徴点検出器、31…画像取得部、32…コーナー検出部、33…ヒストグラム生成部、34…閾値算定部、40…記憶部、40B…アクセラレータ記憶部、41,41A…撮像画像記憶部、42,42A…特徴点リスト記憶部、43,43A…特徴量記憶部、44…各種設定記憶部、50…撮像部、51…撮像装置、52…駆動装置、60…通信部、61…通信装置、70…表示部、71…表示装置、80…入力部、81…入力装置、90…警備装置、100…物体、101…車両、102…人物、103…物品、A,B…ハードウェアアクセラレータ、P…撮像範囲、V…画像 Reference Signs List 1 security system 10, 10A image processing device 20 control unit 21 feature point acquisition unit 22 feature amount generation unit 23 feature amount transmission unit 30 feature point detector 31 image acquisition Section 32 Corner detection section 33 Histogram generation section 34 Threshold calculation section 40 Storage section 40B Accelerator storage section 41 and 41A Captured image storage section 42 and 42A Feature point list storage section DESCRIPTION OF SYMBOLS 43, 43A... Feature-value memory|storage part 44... Various setting memory|storage parts 50... Imaging part 51... Imaging apparatus 52... Driving apparatus 60... Communication part 61... Communication apparatus 70... Display part 71... Display apparatus , 80... Input unit, 81... Input device, 90... Security device, 100... Object, 101... Vehicle, 102... Person, 103... Article, A, B... Hardware accelerator, P... Imaging range, V... Image

Claims (4)

撮像された画像から検出された特徴点の特徴量を生成する画像処理装置が備えるハードウェアアクセラレータであって、
前記撮像された画像の画素ごとに所定のコーナー検出法を利用して、前記画素の少なくともコーナーらしさを示すレスポンス値を取得する取得部と、
前記取得部によって取得された複数のレスポンス値のヒストグラムを生成する生成部と、
前記生成部によって生成されたヒストグラムより前記レスポンス値の閾値を算定する算定部と、
前記算定部によって算定された閾値以上のレスポンス値を有する画素を、特徴量を生成すべき特徴点として検出する検出部と、
を備えることを特徴とするハードウェアアクセラレータ。
A hardware accelerator included in an image processing device that generates feature amounts of feature points detected from a captured image,
an acquisition unit that acquires, for each pixel of the captured image, a response value that indicates at least the likelihood of a corner of the pixel using a predetermined corner detection method ;
a generation unit that generates a histogram of a plurality of response values acquired by the acquisition unit;
a calculation unit that calculates a threshold value of the response value from the histogram generated by the generation unit;
a detection unit that detects a pixel having a response value equal to or greater than the threshold value calculated by the calculation unit as a feature point for which a feature amount should be generated;
A hardware accelerator comprising:
請求項1に記載のハードウェアアクセラレータと、
前記特徴量を生成すべき特徴点について、特徴量を生成する特徴量生成部と、
前記撮像された画像と前記取得部によって取得されたレスポンス値と前記特徴量生成部によって生成された特徴量とを記憶する記憶部と、
を更に備えることを特徴とする画像処理装置。
a hardware accelerator according to claim 1;
a feature quantity generation unit that generates a feature quantity for a feature point for which the feature quantity should be generated;
a storage unit that stores the captured image, the response value acquired by the acquisition unit, and the feature amount generated by the feature amount generation unit;
An image processing device, further comprising:
請求項1に記載のハードウェアアクセラレータと、
前記特徴量を生成すべき特徴点について、特徴量を生成する特徴量生成部と、
記検出された特徴点の座標リストと前記生成された特徴量とを前記画像から物体を検知する外部装置に送信する送信部と、
を更に備えることを特徴とする画像処理装置。
a hardware accelerator according to claim 1;
a feature quantity generation unit that generates a feature quantity for a feature point for which the feature quantity should be generated;
a transmission unit that transmits the coordinate list of the detected feature points and the generated feature amount to an external device that detects an object from the image;
An image processing device, further comprising:
撮像された画像から検出された特徴点の特徴量を生成する画像処理装置が備えるハードウェアアクセラレータが実行する特徴点検出方法であって、
前記撮像された画像の画素ごとに所定のコーナー検出法を利用して、前記画素の少なくともコーナーらしさを示すレスポンス値を取得する取得ステップと、
前記取得ステップにて取得された複数のレスポンス値のヒストグラムを生成する生成ステップと、
前記生成ステップにて生成されたヒストグラムより前記レスポンス値の閾値を算定する算定ステップと、
前記算定ステップにて算定された閾値以上のレスポンス値を有する画素を、特徴量を生成すべき特徴点として検出する検出ステップと、
を含むことを特徴とする特徴点検出方法。
A feature point detection method executed by a hardware accelerator included in an image processing device that generates feature amounts of feature points detected from a captured image,
obtaining , for each pixel of the captured image, utilizing a predetermined corner detection method to obtain a response value indicative of at least the likelihood of a corner of the pixel;
a generating step of generating a histogram of the plurality of response values obtained in the obtaining step;
a calculating step of calculating a threshold value of the response value from the histogram generated in the generating step;
a detection step of detecting a pixel having a response value equal to or greater than the threshold value calculated in the calculation step as a feature point for which a feature amount should be generated;
A feature point detection method comprising:
JP2020158335A 2020-09-23 2020-09-23 HARDWARE ACCELERATOR, IMAGE PROCESSING DEVICE, AND FEATURE POINT DETECTION METHOD Active JP7200983B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020158335A JP7200983B2 (en) 2020-09-23 2020-09-23 HARDWARE ACCELERATOR, IMAGE PROCESSING DEVICE, AND FEATURE POINT DETECTION METHOD
PCT/JP2021/028661 WO2022064854A1 (en) 2020-09-23 2021-08-02 Hardware accelerator, image processing device, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020158335A JP7200983B2 (en) 2020-09-23 2020-09-23 HARDWARE ACCELERATOR, IMAGE PROCESSING DEVICE, AND FEATURE POINT DETECTION METHOD

Publications (2)

Publication Number Publication Date
JP2022052139A JP2022052139A (en) 2022-04-04
JP7200983B2 true JP7200983B2 (en) 2023-01-10

Family

ID=80845051

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020158335A Active JP7200983B2 (en) 2020-09-23 2020-09-23 HARDWARE ACCELERATOR, IMAGE PROCESSING DEVICE, AND FEATURE POINT DETECTION METHOD

Country Status (2)

Country Link
JP (1) JP7200983B2 (en)
WO (1) WO2022064854A1 (en)

Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014120056A (en) 2012-12-18 2014-06-30 Olympus Corp Image processing apparatus and image processing method

Patent Citations (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014120056A (en) 2012-12-18 2014-06-30 Olympus Corp Image processing apparatus and image processing method

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
藤吉 弘亘 Hironobu Fujiyoshi,大規模画像データ処理 画像局所特徴量SIFTと最近のアプローチ,人工知能学会誌 Journal of the Japanese Society for Artificial Intelligence,日本,(社)人工知能学会 The Japanese Society for Artificial Intelligence,2010年11月01日,第25巻,p.753-p.760

Also Published As

Publication number Publication date
WO2022064854A1 (en) 2022-03-31
JP2022052139A (en) 2022-04-04

Similar Documents

Publication Publication Date Title
CN109961009B (en) Pedestrian detection method, system, device and storage medium based on deep learning
US10635946B2 (en) Eyeglass positioning method, apparatus and storage medium
Pang et al. Distributed object detection with linear SVMs
US8792722B2 (en) Hand gesture detection
US9928439B2 (en) Facilitating text identification and editing in images
US11699283B2 (en) System and method for finding and classifying lines in an image with a vision system
US20140324888A1 (en) Method and Apparatus for Identifying a Gesture Based Upon Fusion of Multiple Sensor Signals
KR20120044484A (en) Apparatus and method for tracking object in image processing system
US10891740B2 (en) Moving object tracking apparatus, moving object tracking method, and computer program product
CN111241961B (en) Face detection method and device and electronic equipment
JP2024016287A (en) System and method for detecting line by vision system
Rajeshwari et al. Adaboost modular tensor locality preservative projection: face detection in video using Adaboost modular‐based tensor locality preservative projections
Kuang et al. MutualCascade method for pedestrian detection
JP7200983B2 (en) HARDWARE ACCELERATOR, IMAGE PROCESSING DEVICE, AND FEATURE POINT DETECTION METHOD
US20240078801A1 (en) System and method for finding and classifying lines in an image with a vision system
US11238309B2 (en) Selecting keypoints in images using descriptor scores
Zhou et al. Crowd modeling framework using fast head detection and shape-aware matching
JP2013097583A (en) Feature amount generation device, method, and program
CN115424267A (en) Rotating target detection method and device based on Gaussian distribution
Piao et al. Improving performance on object recognition for real-time on mobile devices
Ashiba Dark infrared night vision imaging proposed work for pedestrian detection and tracking
Robert et al. Literature survey: application of machine learning techniques on static sign language recognition
JP6668775B2 (en) Local feature extraction device
Singh et al. Development of accurate face recognition process flow for authentication
Kang et al. A quantitative attribute-based benchmark methodology for single-target visual tracking

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210908

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210908

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211019

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220517

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220715

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221122

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221205

R150 Certificate of patent or registration of utility model

Ref document number: 7200983

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150