JP2020201841A - Image processing program, image processing apparatus, and image processing method - Google Patents

Image processing program, image processing apparatus, and image processing method Download PDF

Info

Publication number
JP2020201841A
JP2020201841A JP2019109839A JP2019109839A JP2020201841A JP 2020201841 A JP2020201841 A JP 2020201841A JP 2019109839 A JP2019109839 A JP 2019109839A JP 2019109839 A JP2019109839 A JP 2019109839A JP 2020201841 A JP2020201841 A JP 2020201841A
Authority
JP
Japan
Prior art keywords
image
image data
area
image frame
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019109839A
Other languages
Japanese (ja)
Inventor
稜 大岡
Ryo Ooka
稜 大岡
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2019109839A priority Critical patent/JP2020201841A/en
Publication of JP2020201841A publication Critical patent/JP2020201841A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

To provide an image processing program which determines an area to be analyzed in an image captured by an imaging apparatus, in accordance with a shooting direction.SOLUTION: An image processing program includes: a step 201 of extracting an image frame captured in a specific shooting direction state from among video image data captured by an imaging apparatus in different directions; a step 202 of specifying image data out of multiple image data, on the basis of the image data stored in a storage unit and the image frame; a step 203 of determining an area to be analyzed in the image frame on the basis of information on the area to be analyzed stored in association with the specified image data; and a step 204 of outputting a result determined.SELECTED DRAWING: Figure 2

Description

本発明は、画像処理プログラム、画像処理装置、及び画像処理方法に関する。 The present invention relates to an image processing program, an image processing apparatus, and an image processing method.

PTZ(Pan-Tilt-Zoom)カメラは、撮影方向を3次元空間における水平方向及び垂直方向に回転させる制御と、映像をズームイン及びズームアウトする制御とを組み合わせて、遠隔で操作することが可能なカメラである。PTZカメラは、高速道路、工場、大型店舗、商業施設、駅、空港等のように、多数の車両又は人が混在する様々な場所において、監視カメラとして設置されることがある。 The PTZ (Pan-Tilt-Zoom) camera can be operated remotely by combining the control of rotating the shooting direction in the horizontal and vertical directions in the three-dimensional space and the control of zooming in and out of the image. It's a camera. The PTZ camera may be installed as a surveillance camera in various places where a large number of vehicles or people coexist, such as highways, factories, large stores, commercial facilities, stations, airports, and the like.

視野移動可能なカメラを用いた高速道路等の監視に関連して、カメラ旋回中の画像の乱れを防止する静止画像伝送方式が知られている(例えば、特許文献1を参照)。車に搭載して前を走行する車両までの距離を認識する距離認識装置、及び車両の進行方向前方に存在する道路の道路形状を認識する道路形状認識装置も知られている(例えば、特許文献2及び特許文献3を参照)。 A still image transmission method for preventing image distortion while the camera is turning is known in connection with monitoring of a highway or the like using a camera having a movable field of view (see, for example, Patent Document 1). A distance recognition device that recognizes the distance to a vehicle that is mounted on a vehicle and travels in front of the vehicle, and a road shape recognition device that recognizes the road shape of a road existing in front of the vehicle in the traveling direction are also known (for example, patent documents). 2 and Patent Document 3).

特開昭60−102076号公報Japanese Unexamined Patent Publication No. 60-102076 特開2001−272210号公報Japanese Unexamined Patent Publication No. 2001-272210 特開2011−28659号公報Japanese Unexamined Patent Publication No. 2011-28659

PTZカメラの撮影方向又はズーム倍率が変化すると撮影範囲も変化するため、PTZカメラの映像を画像解析により解析する場合、解析対象の領域を決定することが困難である。 Since the shooting range changes when the shooting direction or zoom magnification of the PTZ camera changes, it is difficult to determine the area to be analyzed when analyzing the image of the PTZ camera by image analysis.

なお、かかる問題は、PTZカメラの映像を解析する場合に限らず、様々な撮像装置により撮影された画像を解析する場合において生ずるものである。 It should be noted that such a problem occurs not only in the case of analyzing the image of the PTZ camera but also in the case of analyzing the image taken by various imaging devices.

1つの側面において、本発明は、撮像装置により撮影された画像内における解析対象の領域を、撮影方向に応じて決定することを目的とする。 In one aspect, it is an object of the present invention to determine a region to be analyzed in an image captured by an imaging device according to an imaging direction.

1つの案では、画像処理プログラムは、以下の処理をコンピュータに実行させる。
(1)コンピュータは、撮像装置により撮影方向を変えながら撮影された動画像データの中から、撮影方向が特定の状態のときに撮影された画像フレームを抽出する。
(2)コンピュータは、記憶部に記憶されている複数の画像データと、画像フレームとに基づき、複数の画像データの中から画像データを特定する。
(3)コンピュータは、特定された画像データに対応付けて記憶された解析対象の領域に関する情報に基づいて、画像フレームにおける解析対象の領域を決定する。
(4)コンピュータは、決定した結果を出力する。
In one proposal, the image processing program causes the computer to perform the following processing.
(1) The computer extracts an image frame taken when the shooting direction is in a specific state from the moving image data taken while changing the shooting direction by the imaging device.
(2) The computer identifies the image data from the plurality of image data based on the plurality of image data stored in the storage unit and the image frame.
(3) The computer determines the area to be analyzed in the image frame based on the information about the area to be analyzed stored in association with the specified image data.
(4) The computer outputs the determined result.

1つの側面によれば、撮像装置により撮影された画像内における解析対象の領域を、撮影方向に応じて決定することができる。 According to one aspect, the area to be analyzed in the image captured by the imaging device can be determined according to the imaging direction.

画像処理装置の機能的構成図である。It is a functional block diagram of an image processing apparatus. 画像処理のフローチャートである。It is a flowchart of image processing. 画像処理装置の具体例を示す機能的構成図である。It is a functional block diagram which shows the specific example of an image processing apparatus. 検知領域の誤差を示す図である。It is a figure which shows the error of the detection area. 検知領域決定処理を示す図である。It is a figure which shows the detection area determination process. 検知領域変更処理を示す図である。It is a figure which shows the detection area change processing. プリセット画像上に配置された特徴点を示す図である。It is a figure which shows the feature point arranged on the preset image. 画像フレーム上で追跡された特徴点を示す図である。It is a figure which shows the feature point tracked on the image frame. 画像フレームに対する補正処理を示す図である。It is a figure which shows the correction process for an image frame. 状態判定処理を示す図である。It is a figure which shows the state determination process. 画像処理の第1の具体例を示すフローチャートである。It is a flowchart which shows the 1st specific example of image processing. 画像解析処理のフローチャートである。It is a flowchart of image analysis processing. 画像処理の第2の具体例を示すフローチャートである。It is a flowchart which shows the 2nd specific example of image processing. 情報処理装置のハードウェア構成図である。It is a hardware block diagram of an information processing apparatus.

以下、図面を参照しながら、実施形態を詳細に説明する。
PTZカメラは、設置時に所定の撮影条件を示す情報を記憶している。所定の撮影条件には、水平方向の回転角度、垂直方向の回転角度、及びズーム倍率が含まれる。そして、撮影条件を指定する操作入力を受け付けると、PTZカメラは、プリセット機能により、記憶している情報に基づいて、水平方向及び垂直方向に撮影方向を回転させ、ズームイン又はズームアウトの動作を行う。
Hereinafter, embodiments will be described in detail with reference to the drawings.
The PTZ camera stores information indicating predetermined shooting conditions at the time of installation. Predetermined imaging conditions include a horizontal rotation angle, a vertical rotation angle, and a zoom magnification. Then, when the operation input for specifying the shooting conditions is received, the PTZ camera rotates the shooting direction in the horizontal and vertical directions based on the stored information by the preset function, and performs a zoom-in or zoom-out operation. ..

PTZカメラは、複数の撮影条件を示す情報を記憶することができるため、オペレータは、いずれかの撮影条件を指定する操作を行うだけでよく、撮影対象に応じて撮影方向及びズーム倍率の調整を行う必要がない。 Since the PTZ camera can store information indicating a plurality of shooting conditions, the operator only has to perform an operation of specifying one of the shooting conditions, and adjusts the shooting direction and zoom magnification according to the shooting target. No need to do.

しかしながら、高速道路等にPTZカメラを設置して道路状況を監視する場合、広範囲に渡って多数のPTZカメラが設置されるため、撮影されたすべての映像をオペレータが目視でチェックすることは困難である。そこで、道路を撮影した映像に対する画像解析を行って、車両等を自動的に検知し、検知された結果に基づいて道路状況を監視することが望ましい。 However, when a PTZ camera is installed on a highway or the like to monitor road conditions, it is difficult for the operator to visually check all the captured images because a large number of PTZ cameras are installed over a wide area. is there. Therefore, it is desirable to perform image analysis on the image of the road, automatically detect the vehicle, etc., and monitor the road condition based on the detected result.

しかし、PTZカメラの撮影方向又はズーム倍率が変化すると、撮影された映像の画像フレームに写っている道路の位置及び形状も変化する。このため、道路を解析対象とする画像解析を行う場合、解析対象の領域を決定することが困難である。 However, when the shooting direction or zoom magnification of the PTZ camera changes, the position and shape of the road in the image frame of the shot image also changes. Therefore, when performing image analysis on a road as an analysis target, it is difficult to determine an analysis target area.

なお、かかる問題は、道路上に設置されたPTZカメラの映像を解析する場合に限らず、様々な場所に設置された撮像装置により撮影された画像を解析する場合において生ずるものである。 It should be noted that such a problem occurs not only when analyzing the image of the PTZ camera installed on the road but also when analyzing the image taken by the image pickup apparatus installed at various places.

図1は、実施形態の画像処理装置の機能的構成例を示している。図1の画像処理装置101は、記憶部111及び領域決定部112を含む。記憶部111は、複数の画像データを記憶し、領域決定部112は、記憶部111が記憶する画像データを用いて画像処理を行う。 FIG. 1 shows an example of a functional configuration of the image processing apparatus of the embodiment. The image processing device 101 of FIG. 1 includes a storage unit 111 and an area determination unit 112. The storage unit 111 stores a plurality of image data, and the area determination unit 112 performs image processing using the image data stored in the storage unit 111.

図2は、図1の画像処理装置101が行う画像処理の例を示すフローチャートである。まず、領域決定部112は、撮像装置により撮影方向を変えながら撮影された動画像データの中から、撮影方向が特定の状態のときに撮影された画像フレームを抽出する(ステップ201)。 FIG. 2 is a flowchart showing an example of image processing performed by the image processing apparatus 101 of FIG. First, the area determination unit 112 extracts an image frame shot when the shooting direction is in a specific state from the moving image data shot while changing the shooting direction by the imaging device (step 201).

次に、領域決定部112は、記憶部111が記憶する複数の画像データと、画像フレームとに基づき、複数の画像データの中から画像データを特定する(ステップ202)。そして、領域決定部112は、特定された画像データに対応付けて記憶された解析対象の領域に関する情報に基づいて、画像フレームにおける解析対象の領域を決定し(ステップ203)、決定した結果を出力する(ステップ204)。 Next, the area determination unit 112 identifies the image data from the plurality of image data based on the plurality of image data stored by the storage unit 111 and the image frame (step 202). Then, the area determination unit 112 determines the area to be analyzed in the image frame based on the information about the area to be analyzed stored in association with the specified image data (step 203), and outputs the determined result. (Step 204).

図1の画像処理装置101によれば、撮像装置により撮影された画像内における解析対象の領域を、撮影方向に応じて決定することができる。 According to the image processing device 101 of FIG. 1, the area to be analyzed in the image taken by the image pickup device can be determined according to the shooting direction.

図3は、図1の画像処理装置101の具体例を示している。図3の画像処理装置301は、記憶部311、画像取得部312、状態判定部313、領域決定部314、領域変更部315、画像解析部316、及び出力部317を含む。記憶部311及び領域決定部314は、図1の記憶部111及び領域決定部112にそれぞれ対応する。 FIG. 3 shows a specific example of the image processing device 101 of FIG. The image processing device 301 of FIG. 3 includes a storage unit 311, an image acquisition unit 312, a state determination unit 313, an area determination unit 314, an area change unit 315, an image analysis unit 316, and an output unit 317. The storage unit 311 and the area determination unit 314 correspond to the storage unit 111 and the area determination unit 112 of FIG. 1, respectively.

撮像装置302は、例えば、様々な場所に設置されたPTZカメラ等の可動式カメラであり、撮影範囲の映像を撮影する。撮像装置302は、高速道路等の道路上に設置されていてもよく、工場、大型店舗、商業施設、駅、空港等に設置されていてもよい。 The image pickup device 302 is, for example, a movable camera such as a PTZ camera installed in various places, and captures an image in a shooting range. The image pickup device 302 may be installed on a road such as a highway, or may be installed in a factory, a large store, a commercial facility, a station, an airport, or the like.

画像処理装置301は、監視センター、データセンター等に設置されたサーバ等の情報処理装置(コンピュータ)であり、通信ネットワークを介して撮像装置302と通信することができる。 The image processing device 301 is an information processing device (computer) such as a server installed in a monitoring center, a data center, or the like, and can communicate with the image pickup device 302 via a communication network.

撮像装置302は、画像処理装置301又は別の装置から、撮影条件を指定する制御情報を受信し、受信した制御情報に基づいて、撮影方向及びズーム倍率を変更する動作を行う。例えば、撮像装置302は、プリセット機能により、複数の撮影条件それぞれを示す識別情報(ID)を事前に記憶しており、受信した制御情報に含まれるIDに従って、撮影方向及びズーム倍率を変更する。 The image pickup device 302 receives control information for designating shooting conditions from the image processing device 301 or another device, and performs an operation of changing the shooting direction and the zoom magnification based on the received control information. For example, the image pickup apparatus 302 stores the identification information (ID) indicating each of the plurality of shooting conditions in advance by the preset function, and changes the shooting direction and the zoom magnification according to the ID included in the received control information.

記憶部111は、複数のプリセット画像321と、複数のプリセット画像321それぞれに対応付けられた領域情報322と、設定ファイル324とを記憶している。各プリセット画像321は、プリセット機能により設定された所定の撮影条件で撮影された画像データであり、各領域情報322は、対応するプリセット画像321内に設定された検知領域の座標情報である。 The storage unit 111 stores a plurality of preset images 321 and area information 322 associated with each of the plurality of preset images 321 and a setting file 324. Each preset image 321 is image data taken under predetermined shooting conditions set by the preset function, and each area information 322 is coordinate information of a detection area set in the corresponding preset image 321.

検知領域は、画像解析における解析対象の領域の一例であり、領域情報322は、解析対象の領域に関する情報の一例である。設定ファイル324には、検知領域の座標情報を含む、画像解析の設定条件が記録されている。 The detection area is an example of an area to be analyzed in image analysis, and the area information 322 is an example of information about the area to be analyzed. The setting file 324 records the setting conditions for image analysis, including the coordinate information of the detection area.

撮像装置302により撮影方向を変えながら撮影される映像は、時系列の画像フレームを含む動画像データであり、通信ネットワークを介して画像処理装置301へ送信される。画像取得部312は、通信ネットワークを介して、撮像装置302が出力する映像から画像フレーム323を取得し、記憶部311に格納する。 The image captured by the image pickup apparatus 302 while changing the imaging direction is moving image data including time-series image frames, and is transmitted to the image processing apparatus 301 via the communication network. The image acquisition unit 312 acquires the image frame 323 from the video output by the image pickup apparatus 302 via the communication network and stores it in the storage unit 311.

状態判定部313は、時系列の画像フレーム323に含まれる特徴点の移動量に基づいて、撮像装置302の状態を判定する。撮像装置302の状態としては、撮像装置302が旋回中であり撮影方向が変化している状態、風又は振動により撮像装置302が揺れることで撮影方向が変化している状態、撮影方向が所定時間長以上変化していない状態等が挙げられる。 The state determination unit 313 determines the state of the image pickup apparatus 302 based on the amount of movement of the feature points included in the time-series image frame 323. The state of the image pickup device 302 includes a state in which the image pickup device 302 is turning and the shooting direction is changing, a state in which the image pickup device 302 is shaken by wind or vibration, and the shooting direction is changed, and the shooting direction is a predetermined time. The state where it has not changed for more than a long time can be mentioned.

撮像装置302の撮影方向が変化すると、画像フレーム323に含まれる静止物体の特徴点が移動するため、特徴点の移動量を用いて状態を判定することで、撮影方向が変化したか否かを検知することができる。 When the shooting direction of the image pickup apparatus 302 changes, the feature points of the stationary object included in the image frame 323 move. Therefore, by determining the state using the movement amount of the feature points, it can be determined whether or not the shooting direction has changed. It can be detected.

領域決定部314は、特定の状態のときに撮影された画像フレーム323を抽出し、複数のプリセット画像321の中から、その画像フレーム323に対応するプリセット画像321を特定する。例えば、領域決定部314は、画像フレーム323と各プリセット画像321とをテンプレートマッチングにより比較し、最大のマッチングスコアを有するプリセット画像321を、画像フレーム323に対応するプリセット画像321として特定する。 The area determination unit 314 extracts the image frame 323 taken in a specific state, and identifies the preset image 321 corresponding to the image frame 323 from the plurality of preset images 321. For example, the area determination unit 314 compares the image frame 323 and each preset image 321 by template matching, and specifies the preset image 321 having the maximum matching score as the preset image 321 corresponding to the image frame 323.

そして、領域決定部314は、特定されたプリセット画像321に対応付けて記憶されている領域情報322を用いて、画像フレーム323内における検知領域を決定し、設定ファイル324に記録されている検知領域を、決定された検知領域に更新する。 Then, the area determination unit 314 determines the detection area in the image frame 323 by using the area information 322 stored in association with the specified preset image 321, and the detection area recorded in the setting file 324. Is updated to the determined detection area.

これにより、プリセット機能により設定された撮影条件で撮影された画像フレーム323内において、その撮影条件に応じた検知領域が決定され、設定ファイル324に記録される。したがって、撮影条件に応じた適切な画像領域を解析対象として、画像解析を行うことが可能になる。 As a result, in the image frame 323 shot under the shooting conditions set by the preset function, the detection area corresponding to the shooting conditions is determined and recorded in the setting file 324. Therefore, it is possible to perform image analysis by targeting an appropriate image area according to the shooting conditions as an analysis target.

例えば、状態判定部313は、画像フレーム間における特徴点の移動量に基づいて、撮影方向が所定時間長以上変化していない状態を特定の状態として検出する。そして、領域決定部314は、その状態のときに撮影された画像フレーム323内における検知領域を決定する。これにより、撮像装置302の撮影方向が固定された状態の安定した画像フレーム323を用いて、画像解析を行うことが可能になる。 For example, the state determination unit 313 detects a state in which the shooting direction has not changed for a predetermined time length or more as a specific state based on the amount of movement of the feature points between the image frames. Then, the area determination unit 314 determines the detection area in the image frame 323 taken in that state. This makes it possible to perform image analysis using a stable image frame 323 in a state where the imaging direction of the image pickup apparatus 302 is fixed.

ところで、撮像装置302が回転することで、撮影方向が水平方向又は垂直方向に変化すると、撮像装置302の機械的な回転誤差(プリセット誤差)によって、画像フレーム323とプリセット画像321との間に誤差が発生する。このため、プリセット画像321に対応付けられている領域情報322は、画像フレーム323内の正しい検知領域を示しているとは限らない。 By the way, when the imaging device 302 rotates and the shooting direction changes in the horizontal direction or the vertical direction, an error occurs between the image frame 323 and the preset image 321 due to a mechanical rotation error (preset error) of the image pickup device 302. Occurs. Therefore, the area information 322 associated with the preset image 321 does not always indicate the correct detection area in the image frame 323.

図4は、道路上に設置された撮像装置302のプリセット誤差に起因する検知領域の誤差の例を示している。図4(a)は、画像フレーム323が水平方向(x方向)の誤差を含む場合の検知領域の例を示している。領域401は、左へ40画素だけずれている画像フレーム323内で決定された検知領域を表し、領域402は、画像フレーム323がずれていない場合に決定される本来の検知領域を表す。 FIG. 4 shows an example of an error in the detection region due to a preset error of the image pickup apparatus 302 installed on the road. FIG. 4A shows an example of a detection region when the image frame 323 includes an error in the horizontal direction (x direction). The area 401 represents the detection area determined in the image frame 323 shifted to the left by 40 pixels, and the area 402 represents the original detection area determined when the image frame 323 is not shifted.

この場合、矢印411が示すように、領域401は、領域402よりも右へ40画素だけずれている。このため、領域412内に写っている車両の一部が領域401から外れてしまい、領域401の画像から正しい車両検知を行うことが難しくなる。 In this case, as indicated by arrow 411, the area 401 is displaced to the right by 40 pixels from the area 402. Therefore, a part of the vehicle shown in the area 412 deviates from the area 401, and it becomes difficult to correctly detect the vehicle from the image of the area 401.

図4(b)は、画像フレーム323が垂直方向(y方向)の誤差を含む場合の検知領域の例を示している。領域403は、下へ35画素だけずれている画像フレーム323内で決定された検知領域を表す。 FIG. 4B shows an example of a detection region when the image frame 323 includes an error in the vertical direction (y direction). The area 403 represents a detection area determined in the image frame 323 which is shifted downward by 35 pixels.

この場合、矢印413が示すように、領域403は、領域402よりも上へ35画素だけずれている。このため、領域414内に写っている車両の一部が領域402から外れているにもかかわらず、その車両の全体が領域403内に収まっており、領域403の画像から正しい車速を求めることが難しくなる。 In this case, as indicated by arrow 413, the area 403 is displaced above the area 402 by 35 pixels. Therefore, even though a part of the vehicle shown in the area 414 is out of the area 402, the whole vehicle is contained in the area 403, and the correct vehicle speed can be obtained from the image of the area 403. It gets harder.

そこで、領域変更部315は、画像フレーム323の誤差を補正して、決定された検知領域を変更し、変更後の検知領域を設定ファイル324に記録する。例えば、領域変更部315は、画像フレーム323に含まれる特徴点P1と、特定されたプリセット画像321に含まれ、特徴点P1と対応する特徴点P2とのずれに応じて、画像フレーム323における検知領域を変更する。 Therefore, the area changing unit 315 corrects the error of the image frame 323, changes the determined detection area, and records the changed detection area in the setting file 324. For example, the area changing unit 315 detects in the image frame 323 according to the deviation between the feature point P1 included in the image frame 323 and the feature point P2 included in the specified preset image 321 and corresponding to the feature point P1. Change the area.

画像解析部316は、設定ファイル324に記録された検知領域の画像を用いて画像解析を行い、解析結果325を生成して記憶部311に格納する。出力部317は、解析結果325を出力する。 The image analysis unit 316 performs image analysis using the image of the detection area recorded in the setting file 324, generates an analysis result 325, and stores it in the storage unit 311. The output unit 317 outputs the analysis result 325.

画像フレーム323に含まれる特徴点とプリセット画像321に含まれる特徴点とのずれに応じて、画像フレーム323における検知領域を変更することで、画像フレーム323内の正しい検知領域を求めることができる。したがって、変更後の検知領域を用いて画像解析を行うことで、解析結果325の精度が向上する。 The correct detection area in the image frame 323 can be obtained by changing the detection area in the image frame 323 according to the deviation between the feature points included in the image frame 323 and the feature points included in the preset image 321. Therefore, the accuracy of the analysis result 325 is improved by performing the image analysis using the changed detection area.

図5は、領域決定部314が行う検知領域決定処理の例を示している。図5(a)は、道路が写っている画像フレーム323に対する検知領域決定処理の例を示している。この場合、領域決定部314は、画像フレーム323と、プリセット画像501及びプリセット画像502の各々とを、テンプレートマッチングにより比較し、マッチングスコアを求める。 FIG. 5 shows an example of the detection area determination process performed by the area determination unit 314. FIG. 5A shows an example of the detection area determination process for the image frame 323 in which the road is captured. In this case, the area determination unit 314 compares the image frame 323 with each of the preset image 501 and the preset image 502 by template matching, and obtains a matching score.

プリセット画像501に対するマッチングスコアが“0.98”であり、プリセット画像502に対するマッチングスコアが“0.12”である場合、領域決定部314は、プリセット画像501が画像フレーム323に対応していると判定する。そして、領域決定部314は、プリセット画像501の領域情報322を用いて、画像フレーム323内における検知領域511を決定する。 When the matching score for the preset image 501 is "0.98" and the matching score for the preset image 502 is "0.12", the region determination unit 314 indicates that the preset image 501 corresponds to the image frame 323. judge. Then, the area determination unit 314 determines the detection area 511 in the image frame 323 by using the area information 322 of the preset image 501.

図5(b)は、別の画像フレーム323に対する検知領域決定処理の例を示している。この場合、領域決定部314は、画像フレーム323と、プリセット画像501及びプリセット画像502の各々とを、テンプレートマッチングにより比較し、マッチングスコアを求める。 FIG. 5B shows an example of the detection area determination process for another image frame 323. In this case, the area determination unit 314 compares the image frame 323 with each of the preset image 501 and the preset image 502 by template matching, and obtains a matching score.

プリセット画像501に対するマッチングスコアが“0.12”であり、プリセット画像502に対するマッチングスコアが“0.98”である場合、領域決定部314は、プリセット画像502が画像フレーム323に対応していると判定する。そして、領域決定部314は、プリセット画像502の領域情報322を用いて、画像フレーム323内における検知領域512を決定する。 When the matching score for the preset image 501 is "0.12" and the matching score for the preset image 502 is "0.98", the region determination unit 314 determines that the preset image 502 corresponds to the image frame 323. judge. Then, the area determination unit 314 determines the detection area 512 in the image frame 323 by using the area information 322 of the preset image 502.

図6は、領域変更部315が行う検知領域変更処理の例を示している。図6(a)は、道路が写っている画像フレーム323における変更前の検知領域の例を示している。この例では、プリセット画像601に対するマッチングスコアの方が、プリセット画像602に対するマッチングスコアよりも大きいため、プリセット画像601の領域情報322を用いて、画像フレーム323内における検知領域611が決定される。 FIG. 6 shows an example of the detection area change process performed by the area change unit 315. FIG. 6A shows an example of the detection area before the change in the image frame 323 in which the road is shown. In this example, since the matching score for the preset image 601 is higher than the matching score for the preset image 602, the detection area 611 in the image frame 323 is determined using the area information 322 of the preset image 601.

しかしながら、撮像装置302のプリセット誤差により、画像フレーム323は、プリセット画像601に対して左へ16画素だけずれており、上へ24画素だけずれている。このため、検知領域611は、画像フレーム323に写っている道路上の本来の検知領域よりも右へ16画素だけずれており、下へ24画素だけずれている。 However, due to the preset error of the image pickup apparatus 302, the image frame 323 is deviated by 16 pixels to the left and 24 pixels upward from the preset image 601. Therefore, the detection area 611 is deviated by 16 pixels to the right and 24 pixels downward from the original detection area on the road shown in the image frame 323.

そこで、領域変更部315は、画像フレーム323を右へ16画素だけずらし、下へ24画素だけずらすことで、画像フレーム323の位置を補正し、プリセット画像601の領域情報322を用いて、補正後の画像フレーム323内における検知領域を決定する。 Therefore, the area changing unit 315 corrects the position of the image frame 323 by shifting the image frame 323 to the right by 16 pixels and downward by 24 pixels, and after the correction, using the area information 322 of the preset image 601. The detection area in the image frame 323 of the above is determined.

図6(b)は、補正後の画像フレーム323における変更後の検知領域の例を示している。変更後の検知領域612は、道路上の本来の検知領域と一致している。 FIG. 6B shows an example of the changed detection area in the corrected image frame 323. The changed detection area 612 coincides with the original detection area on the road.

次に、図7から図9までを参照しながら、特徴点に基づく検知領域変更方法について説明する。 Next, a method of changing the detection area based on the feature points will be described with reference to FIGS. 7 to 9.

図7は、道路が写っているプリセット画像321上に配置された特徴点の例を示している。領域変更部315は、プリセット画像321上に複数の特徴点を配置する。この例では、複数の特徴点が均一間隔で一様に配置されている。 FIG. 7 shows an example of feature points arranged on the preset image 321 showing the road. The area changing unit 315 arranges a plurality of feature points on the preset image 321. In this example, a plurality of feature points are uniformly arranged at uniform intervals.

図8は、図7のプリセット画像321に対応する画像フレーム323上で追跡された特徴点の例を示している。領域変更部315は、プリセット画像321上に配置された特徴点の位置から、オプティカルフローを用いて、画像フレーム323上で特徴点を追跡する。そして、領域変更部315は、プリセット画像321と画像フレーム323との間における各特徴点の移動量を計算する。各特徴点の移動量は、画像フレーム323に含まれる特徴点P1と、プリセット画像321に含まれ、特徴点P1と対応する特徴点P2とのずれの一例である。 FIG. 8 shows an example of feature points tracked on the image frame 323 corresponding to the preset image 321 of FIG. The area changing unit 315 tracks the feature points on the image frame 323 from the positions of the feature points arranged on the preset image 321 by using an optical flow. Then, the area changing unit 315 calculates the amount of movement of each feature point between the preset image 321 and the image frame 323. The movement amount of each feature point is an example of the deviation between the feature point P1 included in the image frame 323 and the feature point P2 included in the preset image 321 and corresponding to the feature point P1.

ただし、プリセット画像321上の特徴点のうち追跡が失敗した特徴点は、移動量の計算から除外される。また、追跡が成功した特徴点のうち、移動量が所定値よりも大きい特徴点は、車両等の特徴点である可能性が高いため、画像フレーム323のずれ量の計算から除外される。 However, among the feature points on the preset image 321 the feature points whose tracking has failed are excluded from the calculation of the movement amount. Further, among the feature points whose tracking is successful, the feature points whose movement amount is larger than the predetermined value are likely to be feature points of a vehicle or the like, and are therefore excluded from the calculation of the deviation amount of the image frame 323.

次に、領域変更部315は、除外されなかった複数の特徴点の移動量を用いて、プリセット画像321と画像フレーム323との間におけるアフィン変換を求め、画像フレーム323の水平方向(x方向)及び垂直方向(y方向)のずれ量を計算する。そして、領域変更部315は、計算されたずれ量を用いて、画像フレーム323を逆方向へずらすことで、画像フレーム323の誤差を補正する。 Next, the area changing unit 315 obtains an affine transformation between the preset image 321 and the image frame 323 using the movement amounts of the plurality of feature points that are not excluded, and determines the affine transformation between the preset image 321 and the image frame 323 in the horizontal direction (x direction) of the image frame 323. And the amount of deviation in the vertical direction (y direction) is calculated. Then, the area changing unit 315 corrects the error of the image frame 323 by shifting the image frame 323 in the opposite direction by using the calculated deviation amount.

図9は、道路が写っている画像フレーム323に対する補正処理の例を示している。図9(a)は、補正前の画像フレーム323の例を示している。補正前の画像フレーム323は、プリセット画像321に対して左へ6画素だけずれており、上へ9画素だけずれている。このため、検知領域901及び検知領域902は、道路上の本来の検知領域よりも右へ6画素だけずれており、下へ9画素だけずれている。 FIG. 9 shows an example of correction processing for the image frame 323 in which the road is shown. FIG. 9A shows an example of the image frame 323 before correction. The image frame 323 before correction is deviated by 6 pixels to the left and 9 pixels upward from the preset image 321. Therefore, the detection area 901 and the detection area 902 are deviated by 6 pixels to the right and 9 pixels downward from the original detection area on the road.

そこで、領域変更部315は、画像フレーム323を右へ6画素だけずらし、下へ9画素だけずらすことで、画像フレーム323の位置を補正する。 Therefore, the area changing unit 315 corrects the position of the image frame 323 by shifting the image frame 323 to the right by 6 pixels and shifting it downward by 9 pixels.

図9(b)は、補正後の画像フレーム323の例を示している。補正後の画像フレーム323における検知領域911及び検知領域912は、道路上の本来の検知領域と一致している。 FIG. 9B shows an example of the corrected image frame 323. The detection area 911 and the detection area 912 in the corrected image frame 323 coincide with the original detection area on the road.

図10は、状態判定部313が行う状態判定処理の例を示している。状態判定部313は、時系列の各画像フレーム323から特徴点を検出し、オプティカルフローを用いて、画像フレーム間における各特徴点の移動量を計算する。例えば、状態判定部313は、コーナー検出法を用いて、コーナー部分の特徴点を検出する。 FIG. 10 shows an example of the state determination process performed by the state determination unit 313. The state determination unit 313 detects feature points from each image frame 323 in the time series, and calculates the amount of movement of each feature point between the image frames using the optical flow. For example, the state determination unit 313 detects the feature points of the corner portion by using the corner detection method.

図10(a)は、道路が写っている画像フレーム323から検出された特徴点の例を示しており、図10(b)は、画像フレーム間における特徴点の移動量の例を示している。 FIG. 10 (a) shows an example of the feature points detected from the image frame 323 showing the road, and FIG. 10 (b) shows an example of the amount of movement of the feature points between the image frames. ..

例えば、状態判定部313は、現在の画像フレーム323から検出された各特徴点と、直前の画像フレーム323から検出された各特徴点との間の移動量の統計値を計算し、その統計値を閾値と比較することで、撮像装置302の状態を判定する。移動量の統計値としては、平均値、中央値、最頻値等が用いられる。 For example, the state determination unit 313 calculates a statistical value of the amount of movement between each feature point detected from the current image frame 323 and each feature point detected from the immediately preceding image frame 323, and the statistical value thereof. Is compared with the threshold value to determine the state of the image pickup apparatus 302. As the statistical value of the amount of movement, the average value, the median value, the mode value and the like are used.

図10(b)の例では、移動量の統計値が所定の閾値よりも大きいため、撮像装置302が旋回中であると判定される。状態判定部313は、移動量の統計値を用いて、風又は振動により撮像装置302が揺れている状態、撮像装置302が旋回した後に停止した状態等を検出することもできる。撮像装置302が旋回した後に停止した状態は、撮影方向が所定時間長以上変化していない状態の一例である。 In the example of FIG. 10B, since the statistical value of the movement amount is larger than the predetermined threshold value, it is determined that the imaging device 302 is turning. The state determination unit 313 can also detect a state in which the image pickup device 302 is shaking due to wind or vibration, a state in which the image pickup device 302 is stopped after turning, and the like by using the statistical value of the movement amount. The state in which the image pickup device 302 is turned and then stopped is an example of a state in which the shooting direction has not changed for a predetermined time or longer.

撮像装置302が揺れている状態が検出された場合、領域変更部315は、揺れによる画像フレーム323のずれを補正して、検知領域を変更する。一方、撮像装置302が旋回した後に停止した状態が検出された場合、領域決定部314は、その画像フレーム323に対応するプリセット画像321を特定し、特定されたプリセット画像321の領域情報322を用いて、新たな検知領域を決定する。そして、領域変更部315は、画像フレーム323の誤差を補正して、検知領域を変更する。 When the shaking state of the image pickup apparatus 302 is detected, the area changing unit 315 corrects the deviation of the image frame 323 due to the shaking and changes the detection area. On the other hand, when the state in which the image pickup device 302 is turned and then stopped is detected, the area determination unit 314 identifies the preset image 321 corresponding to the image frame 323, and uses the area information 322 of the specified preset image 321. To determine a new detection area. Then, the area changing unit 315 corrects the error of the image frame 323 and changes the detection area.

図11は、図3の画像処理装置301が行う画像処理の第1の具体例を示すフローチャートである。図11の画像処理は、N枚(Nは1以上の整数)の画像フレーム323の間隔で、各画像フレーム323に対して行われる。 FIG. 11 is a flowchart showing a first specific example of image processing performed by the image processing apparatus 301 of FIG. The image processing of FIG. 11 is performed for each image frame 323 at intervals of N image frames (N is an integer of 1 or more).

まず、状態判定部313は、処理対象の画像フレーム323から特徴点を検出する(ステップ1101)。次に、状態判定部313は、N枚前に画像処理が行われた画像フレーム323と、処理対象の画像フレーム323との間における各特徴点の移動量を計算し、移動量の統計値を求める(ステップ1102)。 First, the state determination unit 313 detects a feature point from the image frame 323 to be processed (step 1101). Next, the state determination unit 313 calculates the movement amount of each feature point between the image frame 323 in which the image processing is performed N sheets before and the image frame 323 to be processed, and obtains the statistical value of the movement amount. Find (step 1102).

そして、状態判定部313は、統計値と閾値Tとを比較する(ステップ1103)。統計値が閾値T以上である場合(ステップ1103,YES)、状態判定部313は、シーンチェンジが検出されたと判定して、不図示の時間計測処理を行う。 Then, the state determination unit 313 compares the statistical value with the threshold value T (step 1103). When the statistical value is equal to or higher than the threshold value T (step 1103, YES), the state determination unit 313 determines that a scene change has been detected, and performs a time measurement process (not shown).

時間計測処理において、状態判定部313は、所定時間長の計測を開始し、N枚後の画像フレーム323を処理対象として、ステップ1101以降の処理を繰り返す。したがって、撮像装置302が旋回中であり、シーンチェンジが連続して検出されている間は、所定時間長の計測のリセット及び再開が繰り返される。そして、所定時間長の計測が開始された後、シーンチェンジが検出されないまま所定時間長が経過した場合、状態判定部313は、撮像装置302が旋回した後に停止した状態が検出されたと判定し、時間計測処理を終了する。 In the time measurement process, the state determination unit 313 starts the measurement of the predetermined time length, and repeats the processes after step 1101 with the image frame 323 after N images as the processing target. Therefore, while the image pickup apparatus 302 is turning and scene changes are continuously detected, the reset and restart of the measurement for a predetermined time length are repeated. Then, when the predetermined time length elapses without detecting the scene change after the measurement of the predetermined time length is started, the state determination unit 313 determines that the stopped state is detected after the image pickup device 302 turns. End the time measurement process.

撮像装置302が旋回した後に停止した状態が検出された場合、領域決定部314は、その時点の処理対象の画像フレーム323に対応するプリセット画像321を特定する(ステップ1105)。そして、領域決定部314は、特定されたプリセット画像321の領域情報322を用いて、画像フレーム323内における検知領域を決定し、決定された検知領域を設定ファイル324に記録する。 When the stopped state is detected after the image pickup apparatus 302 turns, the region determination unit 314 identifies the preset image 321 corresponding to the image frame 323 to be processed at that time (step 1105). Then, the area determination unit 314 determines the detection area in the image frame 323 using the area information 322 of the specified preset image 321 and records the determined detection area in the setting file 324.

次に、領域変更部315は、プリセット画像321上に複数の特徴点を配置する(ステップ1106)。そして、領域変更部315は、画像フレーム323上で特徴点を追跡して各特徴点の移動量を計算し、プリセット画像321と画像フレーム323との間におけるアフィン変換を求めることで、画像フレーム323のずれ量を計算する(ステップ1107)。 Next, the area changing unit 315 arranges a plurality of feature points on the preset image 321 (step 1106). Then, the area changing unit 315 tracks the feature points on the image frame 323, calculates the movement amount of each feature point, and obtains the affine transformation between the preset image 321 and the image frame 323 to obtain the image frame 323. The amount of deviation is calculated (step 1107).

次に、領域変更部315は、ずれ量を用いて画像フレーム323の誤差を補正することで、設定ファイル324の検知領域を変更する(ステップ1108)。そして、画像処理装置301は、設定ファイル324に従って画像解析処理を行う(ステップ1104)。 Next, the area changing unit 315 changes the detection area of the setting file 324 by correcting the error of the image frame 323 using the deviation amount (step 1108). Then, the image processing device 301 performs image analysis processing according to the setting file 324 (step 1104).

一方、統計値が閾値Tよりも小さい場合(ステップ1103,NO)、画像処理装置301は、設定ファイル324に従って画像解析処理を行う(ステップ1104)。 On the other hand, when the statistical value is smaller than the threshold value T (step 1103, NO), the image processing apparatus 301 performs the image analysis process according to the setting file 324 (step 1104).

図12は、図11のステップ1104における画像解析処理の例を示すフローチャートである。この例では、道路が写っている画像フレーム323を処理対象として、画像解析処理が行われる。 FIG. 12 is a flowchart showing an example of the image analysis process in step 1104 of FIG. In this example, the image analysis process is performed on the image frame 323 in which the road is shown as a processing target.

まず、画像解析部316は、処理対象の画像フレーム323が、映像に含まれる最初の画像フレーム323であるか否かをチェックする(ステップ1201)。処理対象の画像フレーム323が最初の画像フレーム323である場合(ステップ1201,YES)、画像解析部316は、初期化処理を行う(ステップ1208)。 First, the image analysis unit 316 checks whether or not the image frame 323 to be processed is the first image frame 323 included in the video (step 1201). When the image frame 323 to be processed is the first image frame 323 (steps 1201, YES), the image analysis unit 316 performs the initialization process (step 1208).

一方、処理対象の画像フレーム323が最初の画像フレーム323ではない場合(ステップ1201,NO)、画像解析部316は、処理対象の画像フレーム323においてシーンチェンジが検出されたか否かをチェックする(ステップ1202)。シーンチェンジが検出された場合(ステップ1202,YES)、画像解析部316は、初期化処理を行う(ステップ1208)。 On the other hand, when the image frame 323 to be processed is not the first image frame 323 (steps 1201 and NO), the image analysis unit 316 checks whether or not a scene change is detected in the image frame 323 to be processed (step 1201). 1202). When a scene change is detected (step 1202, YES), the image analysis unit 316 performs an initialization process (step 1208).

一方、シーンチェンジが検出されていない場合(ステップ1202,NO)、画像解析部316は、処理対象の画像フレーム323から、設定ファイル324に記録された検知領域に対応する画像を抽出する。そして、画像解析部316は、抽出された画像を用いて、検知領域の背景差分を計算する(ステップ1203)。 On the other hand, when the scene change is not detected (steps 1202, NO), the image analysis unit 316 extracts an image corresponding to the detection area recorded in the setting file 324 from the image frame 323 to be processed. Then, the image analysis unit 316 calculates the background subtraction of the detection region using the extracted image (step 1203).

次に、画像解析部316は、背景差分を用いて車両検知処理を行い(ステップ1204)、車両追跡処理を行い(ステップ1205)、事象検知処理を行う(ステップ1206)。これにより、車両の通過、渋滞、事故、逆走等の事象が検知される。そして、画像解析部316は、検知された事象を示す解析結果325を生成し、出力部317は、解析結果325を出力する(ステップ1207)。 Next, the image analysis unit 316 performs vehicle detection processing using background subtraction (step 1204), vehicle tracking processing (step 1205), and event detection processing (step 1206). As a result, events such as vehicle passage, traffic jams, accidents, and reverse driving are detected. Then, the image analysis unit 316 generates an analysis result 325 indicating the detected event, and the output unit 317 outputs the analysis result 325 (step 1207).

図13は、図3の画像処理装置301が行う画像処理の第2の具体例を示すフローチャートである。図13のステップ1301、ステップ1302、ステップ1304、ステップ1305、及びステップ1307〜ステップ1310の処理は、図11のステップ1101〜ステップ1108の処理と同様である。ステップ1303及びステップ1304の閾値T2は、ステップ1103の閾値Tと等しく、ステップ1303の閾値T1は、閾値T2よりも小さい。 FIG. 13 is a flowchart showing a second specific example of image processing performed by the image processing apparatus 301 of FIG. The processes of step 1301, step 1302, step 1304, step 1305, and steps 1307 to 1310 of FIG. 13 are the same as the processes of steps 1101 to 1108 of FIG. The threshold T2 in steps 1303 and 1304 is equal to the threshold T in step 1103, and the threshold T1 in step 1303 is smaller than the threshold T2.

状態判定部313は、移動量の統計値を求めた後、統計値と閾値T1とを比較し、統計値と閾値T2とを比較する(ステップ1303)。統計値が閾値T1以上かつ閾値T2未満である場合(ステップ1303,YES)、状態判定部313は、撮像装置302が揺れている状態が検出されたと判定する。 After obtaining the statistical value of the movement amount, the state determination unit 313 compares the statistical value with the threshold value T1 and compares the statistical value with the threshold value T2 (step 1303). When the statistical value is equal to or more than the threshold value T1 and less than the threshold value T2 (step 1303, YES), the state determination unit 313 determines that the shaking state of the image pickup apparatus 302 has been detected.

そこで、領域変更部315は、統計値を用いて画像フレーム323を逆方向へずらすことで、画像フレーム323のずれを補正し、設定ファイル324の検知領域を変更する(ステップ1306)。そして、画像処理装置301は、ステップ1304以降の処理を行う。 Therefore, the area changing unit 315 corrects the deviation of the image frame 323 by shifting the image frame 323 in the opposite direction using the statistical value, and changes the detection area of the setting file 324 (step 1306). Then, the image processing device 301 performs the processing after step 1304.

ステップ1306において、領域変更部315は、ステップ1107と同様にして画像フレーム323のずれ量を計算し、計算されたずれ量を用いて画像フレーム323を補正してもよい。 In step 1306, the area changing unit 315 may calculate the deviation amount of the image frame 323 in the same manner as in step 1107, and correct the image frame 323 using the calculated deviation amount.

図1の画像処理装置101及び図3の画像処理装置301の構成は一例に過ぎず、画像処理装置の用途又は条件に応じて一部の構成要素を省略又は変更してもよい。例えば、図3の画像処理装置301において、画像フレーム323が事前に記憶部311に格納されている場合は、画像取得部312を省略することができる。 The configurations of the image processing device 101 of FIG. 1 and the image processing device 301 of FIG. 3 are merely examples, and some components may be omitted or changed depending on the use or conditions of the image processing device. For example, in the image processing device 301 of FIG. 3, when the image frame 323 is stored in the storage unit 311 in advance, the image acquisition unit 312 can be omitted.

撮像装置302の状態を判定する必要がない場合は、状態判定部313を省略することができる。撮像装置302のプリセット誤差が小さく、決定された検知領域を変更する必要がない場合は、領域変更部315を省略することができる。画像解析が外部の装置で行われる場合は、画像解析部316及び出力部317を省略することができる。 When it is not necessary to determine the state of the image pickup apparatus 302, the state determination unit 313 can be omitted. When the preset error of the image pickup apparatus 302 is small and it is not necessary to change the determined detection area, the area change unit 315 can be omitted. When the image analysis is performed by an external device, the image analysis unit 316 and the output unit 317 can be omitted.

画像処理装置301は、2台以上の撮像装置302それぞれから出力される映像に対して、画像処理を行うこともできる。 The image processing device 301 can also perform image processing on the images output from each of the two or more image pickup devices 302.

図2及び図11〜図13のフローチャートは一例に過ぎず、画像処理装置の構成又は条件に応じて一部の処理を省略又は変更してもよい。例えば、図11及び図13の画像処理において、撮像装置302の状態を判定する必要がない場合は、ステップ1101〜ステップ1103及びステップ1301〜ステップ1304の処理を省略することができる。 The flowcharts of FIGS. 2 and 11 to 13 are merely examples, and some processes may be omitted or changed depending on the configuration or conditions of the image processing apparatus. For example, in the image processing of FIGS. 11 and 13, when it is not necessary to determine the state of the image pickup apparatus 302, the processes of steps 1101 to 1103 and steps 1301 to 1304 can be omitted.

撮像装置302のプリセット誤差が小さく、決定された検知領域を変更する必要がない場合は、ステップ1106〜ステップ1108及びステップ1308〜ステップ1310の処理を省略することができる。画像解析が外部の装置で行われる場合は、ステップ1104及びステップ1305の処理を省略することができる。 When the preset error of the image pickup apparatus 302 is small and it is not necessary to change the determined detection area, the processes of steps 1106 to 1108 and steps 1308 to 1310 can be omitted. When the image analysis is performed by an external device, the processes of steps 1104 and 1305 can be omitted.

図11及び図13の画像処理において、状態判定部313は、特徴点の移動量の統計値を閾値と比較する代わりに、カルマンフィルタ等のフィルタ処理を用いて、撮像装置302の状態を判定してもよい。 In the image processing of FIGS. 11 and 13, the state determination unit 313 determines the state of the image pickup apparatus 302 by using a filter process such as a Kalman filter instead of comparing the statistical value of the movement amount of the feature points with the threshold value. May be good.

撮像装置302が道路以外の場所に設置されている場合は、図12の画像解析処理とは異なる画像解析処理が行われる。 When the image pickup device 302 is installed at a place other than the road, an image analysis process different from the image analysis process of FIG. 12 is performed.

図4〜図10に示した画像フレーム及びプリセット画像は一例に過ぎず、画像フレーム及びプリセット画像は、撮影対象に応じて変化する。検知領域及び特徴点は、画像フレーム及びプリセット画像に応じて変化する。 The image frames and preset images shown in FIGS. 4 to 10 are merely examples, and the image frames and preset images change depending on the shooting target. The detection area and the feature point change according to the image frame and the preset image.

図14は、図1の画像処理装置101及び図3の画像処理装置301として用いられる情報処理装置(コンピュータ)のハードウェア構成例を示している。図14の情報処理装置は、CPU(Central Processing Unit)1401、メモリ1402、入力装置1403、出力装置1404、補助記憶装置1405、媒体駆動装置1406、及びネットワーク接続装置1407を含む。これらの構成要素はハードウェアであり、バス1408により互いに接続されている。 FIG. 14 shows a hardware configuration example of an information processing device (computer) used as the image processing device 101 of FIG. 1 and the image processing device 301 of FIG. The information processing device of FIG. 14 includes a CPU (Central Processing Unit) 1401, a memory 1402, an input device 1403, an output device 1404, an auxiliary storage device 1405, a medium drive device 1406, and a network connection device 1407. These components are hardware and are connected to each other by bus 1408.

メモリ1402は、例えば、ROM(Read Only Memory)、RAM(Random Access Memory)、フラッシュメモリ等の半導体メモリであり、処理に用いられるプログラム及びデータを記憶する。メモリ1402は、図1の記憶部111又は図3の記憶部311として用いることができる。 The memory 1402 is, for example, a semiconductor memory such as a ROM (Read Only Memory), a RAM (Random Access Memory), or a flash memory, and stores a program and data used for processing. The memory 1402 can be used as the storage unit 111 of FIG. 1 or the storage unit 311 of FIG.

CPU1401(プロセッサ)は、例えば、メモリ1402を利用してプログラムを実行することにより、図1の領域決定部112として動作する。CPU1401は、メモリ1402を利用してプログラムを実行することにより、図3の状態判定部313、領域決定部314、領域変更部315、及び画像解析部316としても動作する。 The CPU 1401 (processor) operates as the area determination unit 112 of FIG. 1 by executing a program using, for example, the memory 1402. The CPU 1401 also operates as the state determination unit 313, the area determination unit 314, the area change unit 315, and the image analysis unit 316 in FIG. 3 by executing the program using the memory 1402.

入力装置1403は、例えば、キーボード、ポインティングデバイス等であり、オペレータ又はユーザからの指示又は情報の入力に用いられる。出力装置1404は、例えば、表示装置、プリンタ、スピーカ等であり、オペレータ又はユーザへの問い合わせ又は指示、及び処理結果の出力に用いられる。処理結果は、解析結果325であってもよい。出力部1404は、図3の出力部317として用いることができる。 The input device 1403 is, for example, a keyboard, a pointing device, or the like, and is used for inputting an instruction or information from an operator or a user. The output device 1404 is, for example, a display device, a printer, a speaker, or the like, and is used for inquiring or instructing an operator or a user and outputting a processing result. The processing result may be the analysis result 325. The output unit 1404 can be used as the output unit 317 of FIG.

補助記憶装置1405は、例えば、磁気ディスク装置、光ディスク装置、光磁気ディスク装置、テープ装置等である。補助記憶装置1405は、ハードディスクドライブ又はフラッシュメモリであってもよい。情報処理装置は、補助記憶装置1405にプログラム及びデータを格納しておき、それらをメモリ1402にロードして使用することができる。補助記憶装置1405は、図1の記憶部111又は図3の記憶部311として用いることができる。 The auxiliary storage device 1405 is, for example, a magnetic disk device, an optical disk device, a magneto-optical disk device, a tape device, or the like. The auxiliary storage device 1405 may be a hard disk drive or a flash memory. The information processing device can store programs and data in the auxiliary storage device 1405 and load them into the memory 1402 for use. The auxiliary storage device 1405 can be used as the storage unit 111 of FIG. 1 or the storage unit 311 of FIG.

媒体駆動装置1406は、可搬型記録媒体1409を駆動し、その記録内容にアクセスする。可搬型記録媒体1409は、メモリデバイス、フレキシブルディスク、光ディスク、光磁気ディスク等である。可搬型記録媒体1409は、CD−ROM(Compact Disk Read Only Memory)、DVD(Digital Versatile Disk)、USB(Universal Serial Bus)メモリ等であってもよい。オペレータ又はユーザは、この可搬型記録媒体1409にプログラム及びデータを格納しておき、それらをメモリ1402にロードして使用することができる。 The medium drive device 1406 drives the portable recording medium 1409 and accesses the recorded contents. The portable recording medium 1409 is a memory device, a flexible disk, an optical disk, a magneto-optical disk, or the like. The portable recording medium 1409 may be a CD-ROM (Compact Disk Read Only Memory), a DVD (Digital Versatile Disk), a USB (Universal Serial Bus) memory, or the like. The operator or the user can store programs and data in the portable recording medium 1409 and load them into the memory 1402 for use.

このように、処理に用いられるプログラム及びデータを格納するコンピュータ読み取り可能な記録媒体は、メモリ1402、補助記憶装置1405、又は可搬型記録媒体1409のような、物理的な(非一時的な)記録媒体である。 In this way, the computer-readable recording medium that stores the programs and data used for processing is physical (non-temporary) recording such as memory 1402, auxiliary storage device 1405, or portable recording medium 1409. It is a medium.

ネットワーク接続装置1407は、LAN(Local Area Network)、WAN(Wide Area Network)等の通信ネットワークに接続され、通信に伴うデータ変換を行う通信インタフェース回路である。情報処理装置は、プログラム及びデータを外部の装置からネットワーク接続装置1407を介して受信し、それらをメモリ1402にロードして使用することができる。ネットワーク接続装置1407は、図3の画像取得部312として用いることができる。ネットワーク接続装置1407は、出力部317としても用いることができる。 The network connection device 1407 is a communication interface circuit that is connected to a communication network such as a LAN (Local Area Network) or WAN (Wide Area Network) and performs data conversion associated with communication. The information processing device can receive programs and data from an external device via the network connection device 1407, load them into the memory 1402, and use them. The network connection device 1407 can be used as the image acquisition unit 312 of FIG. The network connection device 1407 can also be used as an output unit 317.

なお、情報処理装置が図14のすべての構成要素を含む必要はなく、用途又は条件に応じて一部の構成要素を省略することも可能である。例えば、オペレータ又はユーザとのインタフェースが不要な場合は、入力装置1403及び出力装置1404を省略してもよい。可搬型記録媒体1409又は通信ネットワークを使用しない場合は、媒体駆動装置1406又はネットワーク接続装置1407を省略してもよい。 The information processing device does not have to include all the components of FIG. 14, and some components may be omitted depending on the application or conditions. For example, the input device 1403 and the output device 1404 may be omitted when an interface with an operator or a user is not required. When the portable recording medium 1409 or the communication network is not used, the medium driving device 1406 or the network connecting device 1407 may be omitted.

開示の実施形態とその利点について詳しく説明したが、当業者は、特許請求の範囲に明確に記載した本発明の範囲から逸脱することなく、様々な変更、追加、省略をすることができるであろう。 Having described in detail the embodiments of the disclosure and its advantages, those skilled in the art will be able to make various changes, additions and omissions without departing from the scope of the invention as expressly stated in the claims. Let's do it.

図1乃至図14を参照しながら説明した実施形態に関し、さらに以下の付記を開示する。
(付記1)
撮像装置により撮影方向を変えながら撮影された動画像データの中から、前記撮影方向が特定の状態のときに撮影された画像フレームを抽出し、
記憶部に記憶されている複数の画像データと、前記画像フレームとに基づき、前記複数の画像データの中から画像データを特定し、
特定された画像データに対応付けて記憶された解析対象の領域に関する情報に基づいて、前記画像フレームにおける解析対象の領域を決定し、
前記決定した結果を出力する
処理をコンピュータに実行させるための画像処理プログラム。
(付記2)
さらに、前記動画像データに含まれる特徴点の移動量に基づいて、前記特定の状態であることを判定する処理をコンピュータに実行させることを特徴とする付記1に記載の画像処理プログラム。
(付記3)
前記特定の状態は、前記撮影方向が所定時間長以上変化していない状態であり、前記判定する処理は、前記動画像データに含まれる特徴点の画像フレーム間の移動量に基づいて、前記撮影方向が所定時間長以上変化していない状態を判定することを特徴とする付記2に記載の画像処理プログラム。
(付記4)
さらに、前記画像フレームに含まれる第1の特徴点と前記特定された画像データに含まれ前記第1の特徴点と対応する第2の特徴点とのずれに応じて、前記画像フレームにおける解析対象の領域を変更する処理をコンピュータに実行させることを特徴とする付記1〜3のいずれか1項に記載の画像処理プログラム。
(付記5)
さらに、前記画像フレームにおける解析対象の領域を用いて画像解析を行う処理をコンピュータに実行させることを特徴とする付記1〜4のいずれか1項に記載の画像処理プログラム。
(付記6)
複数の画像データを記憶する記憶部と、
撮像装置により撮影方向を変えながら撮影された動画像データの中から、前記撮影方向が特定の状態のときに撮影された画像フレームを抽出し、前記複数の画像データと、前記画像フレームとに基づき、前記複数の画像データの中から画像データを特定し、特定された画像データに対応付けて記憶された解析対象の領域に関する情報に基づいて、前記画像フレームにおける解析対象の領域を決定し、前記決定した結果を出力する領域決定部と、
を備えることを特徴とする画像処理装置。
(付記7)
前記動画像データに含まれる特徴点の移動量に基づいて、前記特定の状態であることを判定する状態判定部をさらに備えることを特徴とする付記6に記載の画像処理装置。
(付記8)
前記特定の状態は、前記撮影方向が所定時間長以上変化していない状態であり、前記状態判定部は、前記動画像データに含まれる特徴点の画像フレーム間の移動量に基づいて、前記撮影方向が所定時間長以上変化していない状態を判定することを特徴とする付記7に記載の画像処理装置。
(付記9)
前記画像フレームに含まれる第1の特徴点と前記特定された画像データに含まれ前記第1の特徴点と対応する第2の特徴点とのずれに応じて、前記画像フレームにおける解析対象の領域を変更する領域変更部をさらに備えることを特徴とする付記6〜8のいずれか1項に記載の画像処理装置。
(付記10)
前記画像フレームにおける解析対象の領域を用いて画像解析を行う画像解析部をさらに備えることを特徴とする付記6〜9のいずれか1項に記載の画像処理装置。
(付記11)
コンピュータによって実行される画像処理方法であって、
前記コンピュータが、
撮像装置により撮影方向を変えながら撮影された動画像データの中から、前記撮影方向が特定の状態のときに撮影された画像フレームを抽出し、
記憶部に記憶されている複数の画像データと、前記画像フレームとに基づき、前記複数の画像データの中から画像データを特定し、
特定された画像データに対応付けて記憶された解析対象の領域に関する情報に基づいて、前記画像フレームにおける解析対象の領域を決定し、
前記決定した結果を出力する
ことを特徴とする画像処理方法。
(付記12)
さらに、前記コンピュータは、前記動画像データに含まれる特徴点の移動量に基づいて、前記特定の状態であることを判定することを特徴とする付記11に記載の画像処理方法。
(付記13)
前記特定の状態は、前記撮影方向が所定時間長以上変化していない状態であり、前記判定する処理は、前記動画像データに含まれる特徴点の画像フレーム間の移動量に基づいて、前記撮影方向が所定時間長以上変化していない状態を判定することを特徴とする付記12に記載の画像処理方法。
(付記14)
さらに、前記コンピュータは、前記画像フレームに含まれる第1の特徴点と前記特定された画像データに含まれ前記第1の特徴点と対応する第2の特徴点とのずれに応じて、前記画像フレームにおける解析対象の領域ことを特徴とする付記11〜13のいずれか1項に記載の画像処理方法。
(付記15)
さらに、前記コンピュータは、前記画像フレームにおける解析対象の領域を用いて画像解析を行うことを特徴とする付記11〜14のいずれか1項に記載の画像処理方法。
The following additional notes will be further disclosed with respect to the embodiments described with reference to FIGS. 1 to 14.
(Appendix 1)
From the moving image data taken while changing the shooting direction by the imaging device, the image frame shot when the shooting direction is in a specific state is extracted.
Based on the plurality of image data stored in the storage unit and the image frame, the image data is specified from the plurality of image data, and the image data is specified.
The area to be analyzed in the image frame is determined based on the information about the area to be analyzed stored in association with the specified image data.
An image processing program for causing a computer to execute a process of outputting the determined result.
(Appendix 2)
Further, the image processing program according to Appendix 1, wherein a computer is made to execute a process of determining the specific state based on the amount of movement of the feature points included in the moving image data.
(Appendix 3)
The specific state is a state in which the shooting direction has not changed for a predetermined time length or more, and the determination process is based on the amount of movement of the feature points included in the moving image data between image frames. The image processing program according to Appendix 2, wherein it determines a state in which the direction has not changed for a predetermined time length or more.
(Appendix 4)
Further, according to the deviation between the first feature point included in the image frame and the second feature point included in the specified image data and corresponding to the first feature point, the analysis target in the image frame The image processing program according to any one of Items 1 to 3, wherein a computer executes a process of changing the area of the above.
(Appendix 5)
The image processing program according to any one of Supplementary note 1 to 4, further comprising causing a computer to execute a process of performing image analysis using an area to be analyzed in the image frame.
(Appendix 6)
A storage unit that stores multiple image data and
From the moving image data shot while changing the shooting direction by the imaging device, an image frame shot when the shooting direction is in a specific state is extracted, and based on the plurality of image data and the image frame. , The image data is specified from the plurality of image data, and the area to be analyzed in the image frame is determined based on the information about the area to be analyzed stored in association with the specified image data. The area determination unit that outputs the determined result and
An image processing device characterized by comprising.
(Appendix 7)
The image processing apparatus according to Appendix 6, further comprising a state determination unit for determining that a specific state is obtained based on the amount of movement of feature points included in the moving image data.
(Appendix 8)
The specific state is a state in which the shooting direction has not changed for a predetermined time length or more, and the state determination unit takes the picture based on the amount of movement of the feature points included in the moving image data between image frames. The image processing apparatus according to Appendix 7, wherein it determines a state in which the direction has not changed for a predetermined time length or more.
(Appendix 9)
A region to be analyzed in the image frame according to the deviation between the first feature point included in the image frame and the second feature point included in the specified image data and corresponding to the first feature point. The image processing apparatus according to any one of Appendix 6 to 8, further comprising an area changing unit for changing the above.
(Appendix 10)
The image processing apparatus according to any one of Supplementary note 6 to 9, further comprising an image analysis unit that performs image analysis using a region to be analyzed in the image frame.
(Appendix 11)
An image processing method performed by a computer
The computer
From the moving image data taken while changing the shooting direction by the imaging device, the image frame shot when the shooting direction is in a specific state is extracted.
Based on the plurality of image data stored in the storage unit and the image frame, the image data is specified from the plurality of image data, and the image data is specified.
The area to be analyzed in the image frame is determined based on the information about the area to be analyzed stored in association with the specified image data.
An image processing method characterized by outputting the determined result.
(Appendix 12)
Further, the image processing method according to Appendix 11, wherein the computer determines that the specific state is obtained based on the amount of movement of feature points included in the moving image data.
(Appendix 13)
The specific state is a state in which the shooting direction has not changed for a predetermined time length or more, and the determination process is based on the amount of movement of the feature points included in the moving image data between image frames. The image processing method according to Appendix 12, wherein it is determined that the direction has not changed for a predetermined time length or more.
(Appendix 14)
Further, the computer uses the image according to the deviation between the first feature point included in the image frame and the second feature point included in the specified image data and corresponding to the first feature point. The image processing method according to any one of Supplementary note 11 to 13, wherein the area to be analyzed in the frame.
(Appendix 15)
The image processing method according to any one of Supplementary note 11 to 14, wherein the computer performs image analysis using a region to be analyzed in the image frame.

101、301 画像処理装置
111、311 記憶部
112、314 領域決定部
302 撮像装置
312 画像取得部
313 状態判定部
315 領域変更部
316 画像解析部
317 出力部
321 プリセット画像
322 領域情報
323 画像フレーム
324 設定ファイル
325 解析結果
401〜403、412、414 領域
411、413 矢印
501、502、601、602 プリセット画像
511、512、611、612、901、902、911、912 検知領域
1401 CPU
1402 メモリ
1403 入力装置
1404 出力装置
1405 補助記憶装置
1406 媒体駆動装置
1407 ネットワーク接続装置
1408 バス
1409 可搬型記録媒体
101, 301 Image processing unit 111, 311 Storage unit 112, 314 Area determination unit 302 Imaging device 312 Image acquisition unit 313 Status determination unit 315 Area change unit 316 Image analysis unit 317 Output unit 321 Preset image 322 Area information 323 Image frame 324 setting File 325 Analysis result 401-403, 412, 414 Area 411, 413 Arrow 501, 502, 601, 602 Preset image 511, 512, 611, 612, 901, 902, 911, 912 Detection area 1401 CPU
1402 Memory 1403 Input device 1404 Output device 1405 Auxiliary storage device 1406 Media drive device 1407 Network connection device 1408 Bus 1409 Portable recording medium

Claims (7)

撮像装置により撮影方向を変えながら撮影された動画像データの中から、前記撮影方向が特定の状態のときに撮影された画像フレームを抽出し、
記憶部に記憶されている複数の画像データと、前記画像フレームとに基づき、前記複数の画像データの中から画像データを特定し、
特定された画像データに対応付けて記憶された解析対象の領域に関する情報に基づいて、前記画像フレームにおける解析対象の領域を決定し、
前記決定した結果を出力する
処理をコンピュータに実行させるための画像処理プログラム。
From the moving image data taken while changing the shooting direction by the imaging device, the image frame shot when the shooting direction is in a specific state is extracted.
Based on the plurality of image data stored in the storage unit and the image frame, the image data is specified from the plurality of image data, and the image data is specified.
The area to be analyzed in the image frame is determined based on the information about the area to be analyzed stored in association with the specified image data.
An image processing program for causing a computer to execute a process of outputting the determined result.
さらに、前記動画像データに含まれる特徴点の移動量に基づいて、前記特定の状態であることを判定する処理をコンピュータに実行させることを特徴とする請求項1に記載の画像処理プログラム。 The image processing program according to claim 1, further comprising causing a computer to execute a process of determining the specific state based on the amount of movement of feature points included in the moving image data. 前記特定の状態は、前記撮影方向が所定時間長以上変化していない状態であり、前記判定する処理は、前記動画像データに含まれる特徴点の画像フレーム間の移動量に基づいて、前記撮影方向が所定時間長以上変化していない状態を判定することを特徴とする請求項2に記載の画像処理プログラム。 The specific state is a state in which the shooting direction has not changed for a predetermined time length or more, and the determination process is based on the amount of movement of the feature points included in the moving image data between image frames. The image processing program according to claim 2, wherein it is determined that the direction has not changed for a predetermined time length or more. さらに、前記画像フレームに含まれる第1の特徴点と前記特定された画像データに含まれ前記第1の特徴点と対応する第2の特徴点とのずれに応じて、前記画像フレームにおける解析対象の領域を変更する処理をコンピュータに実行させることを特徴とする請求項1〜3のいずれか1項に記載の画像処理プログラム。 Further, according to the deviation between the first feature point included in the image frame and the second feature point included in the specified image data and corresponding to the first feature point, the analysis target in the image frame The image processing program according to any one of claims 1 to 3, wherein a computer executes a process of changing the area of the above. さらに、前記画像フレームにおける解析対象の領域を用いて画像解析を行う処理をコンピュータに実行させることを特徴とする請求項1〜4のいずれか1項に記載の画像処理プログラム。 The image processing program according to any one of claims 1 to 4, further comprising causing a computer to execute a process of performing image analysis using an area to be analyzed in the image frame. 複数の画像データを記憶する記憶部と、
撮像装置により撮影方向を変えながら撮影された動画像データの中から、前記撮影方向が特定の状態のときに撮影された画像フレームを抽出し、前記複数の画像データと、前記画像フレームとに基づき、前記複数の画像データの中から画像データを特定し、特定された画像データに対応付けて記憶された解析対象の領域に関する情報に基づいて、前記画像フレームにおける解析対象の領域を決定し、前記決定した結果を出力する領域決定部と、
を備えることを特徴とする画像処理装置。
A storage unit that stores multiple image data and
From the moving image data shot while changing the shooting direction by the imaging device, an image frame shot when the shooting direction is in a specific state is extracted, and based on the plurality of image data and the image frame. , The image data is specified from the plurality of image data, and the area to be analyzed in the image frame is determined based on the information about the area to be analyzed stored in association with the specified image data. The area determination unit that outputs the determined result and
An image processing device characterized by comprising.
コンピュータによって実行される画像処理方法であって、
前記コンピュータが、
撮像装置により撮影方向を変えながら撮影された動画像データの中から、前記撮影方向が特定の状態のときに撮影された画像フレームを抽出し、
記憶部に記憶されている複数の画像データと、前記画像フレームとに基づき、前記複数の画像データの中から画像データを特定し、
特定された画像データに対応付けて記憶された解析対象の領域に関する情報に基づいて、前記画像フレームにおける解析対象の領域を決定し、
前記決定した結果を出力する
ことを特徴とする画像処理方法。
An image processing method performed by a computer
The computer
From the moving image data taken while changing the shooting direction by the imaging device, the image frame shot when the shooting direction is in a specific state is extracted.
Based on the plurality of image data stored in the storage unit and the image frame, the image data is specified from the plurality of image data, and the image data is specified.
The area to be analyzed in the image frame is determined based on the information about the area to be analyzed stored in association with the specified image data.
An image processing method characterized by outputting the determined result.
JP2019109839A 2019-06-12 2019-06-12 Image processing program, image processing apparatus, and image processing method Pending JP2020201841A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019109839A JP2020201841A (en) 2019-06-12 2019-06-12 Image processing program, image processing apparatus, and image processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019109839A JP2020201841A (en) 2019-06-12 2019-06-12 Image processing program, image processing apparatus, and image processing method

Publications (1)

Publication Number Publication Date
JP2020201841A true JP2020201841A (en) 2020-12-17

Family

ID=73742226

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019109839A Pending JP2020201841A (en) 2019-06-12 2019-06-12 Image processing program, image processing apparatus, and image processing method

Country Status (1)

Country Link
JP (1) JP2020201841A (en)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011192069A (en) * 2010-03-15 2011-09-29 Kddi R & D Laboratories Inc Vehicle traffic monitoring apparatus and program
JP2016018411A (en) * 2014-07-09 2016-02-01 沖電気工業株式会社 Information processing device, information processing method, and program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011192069A (en) * 2010-03-15 2011-09-29 Kddi R & D Laboratories Inc Vehicle traffic monitoring apparatus and program
JP2016018411A (en) * 2014-07-09 2016-02-01 沖電気工業株式会社 Information processing device, information processing method, and program

Similar Documents

Publication Publication Date Title
US11887318B2 (en) Object tracking
JP5663352B2 (en) Image processing apparatus, image processing method, and image processing program
KR102132248B1 (en) Control apparatus, method of controlling image sensing device, and computer-readable storage medium
JP6184271B2 (en) Imaging management apparatus, imaging management system control method, and program
JP3801137B2 (en) Intruder detection device
US11070729B2 (en) Image processing apparatus capable of detecting moving objects, control method thereof, and image capture apparatus
KR101530255B1 (en) Cctv system having auto tracking function of moving target
KR100879623B1 (en) Automated wide area surveillance system using ptz camera and method therefor
JP2015104016A (en) Subject detection apparatus, imaging apparatus, subject detection apparatus control method, subject detection apparatus control program, and storage medium
JP6551226B2 (en) INFORMATION PROCESSING SYSTEM, INFORMATION PROCESSING METHOD, AND PROGRAM
KR102282470B1 (en) Camera apparatus and method of object tracking using the same
JP4987513B2 (en) TRACKING DEVICE, TRACKING METHOD, AND TRACKING PROGRAM
KR102128319B1 (en) Method and Apparatus for Playing Video by Using Pan-Tilt-Zoom Camera
JP2002374521A (en) Method and device for monitoring mobile object
JP2005346425A (en) Automatic tracking system and automatic tracking method
CN113033353A (en) Pedestrian trajectory generation method based on overlook image, storage medium and electronic device
KR102107137B1 (en) Method and Apparatus for Detecting Event by Using Pan-Tilt-Zoom Camera
JP2020201841A (en) Image processing program, image processing apparatus, and image processing method
JP2006173872A (en) Camera controller
JP2013179614A (en) Imaging apparatus
KR101272631B1 (en) Apparatus for detecting a moving object and detecting method thereof
JP2006012013A (en) Mobile object tracking device
JP2021022783A (en) Control device, tracking system, control method, and program
JP5230404B2 (en) Imaging device, control method thereof, and program
KR102430033B1 (en) Method for detecting object and apparatus thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220308

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230220

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230307

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230426

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20230711