WO2015063986A1 - 移動体検出システム - Google Patents

移動体検出システム Download PDF

Info

Publication number
WO2015063986A1
WO2015063986A1 PCT/JP2014/004246 JP2014004246W WO2015063986A1 WO 2015063986 A1 WO2015063986 A1 WO 2015063986A1 JP 2014004246 W JP2014004246 W JP 2014004246W WO 2015063986 A1 WO2015063986 A1 WO 2015063986A1
Authority
WO
WIPO (PCT)
Prior art keywords
monitoring camera
view
image
monitoring
imaging field
Prior art date
Application number
PCT/JP2014/004246
Other languages
English (en)
French (fr)
Inventor
敬一 浦下
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Publication of WO2015063986A1 publication Critical patent/WO2015063986A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/254Analysis of motion involving subtraction of images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/24Aligning, centring, orientation detection or correction of the image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/66Remote control of cameras or camera parts, e.g. by remote control devices
    • H04N23/661Transmitting camera control signals through networks, e.g. control via the Internet
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30232Surveillance

Definitions

  • the present invention relates to a moving body detection system that detects a moving body in a monitoring area, a moving body detection method thereof, an image analysis device, a moving body detection method thereof, and a program.
  • a system has been proposed that uses surveillance cameras to monitor the intrusion of mobile objects such as suspicious individuals. For example, an operation to connect a surveillance camera to a monitor device via a network, display an image captured by the surveillance camera to an operator through a display unit on the monitor device side, and change an imaging field of view of the surveillance camera in a horizontal direction or a vertical direction.
  • Manual implementation by an operator has been proposed as a first related technique related to the present invention (see, for example, Patent Document 1).
  • a system that uses a PTZ (Pan: horizontal rotation, Tilt: vertical rotation, Zoom: continuous magnification) camera as a monitoring camera, and automatically detects a moving body by analyzing an image captured by the monitoring camera. Proposed. For example, it is determined that the imaging field of view of the surveillance camera is in a stationary state, a frame image of a video captured in a stationary state is compared with the immediately preceding frame image, and the difference is extracted, and an intruder is based on the extracted difference It has been proposed as a second related technique related to the present invention to detect a moving body such as (see, for example, Patent Document 2).
  • PTZ Pan: horizontal rotation, Tilt: vertical rotation, Zoom: continuous magnification
  • the moving body since the moving body is automatically detected from the image captured by the monitoring camera, the operator must check the image and find the moving body. Compared with related technologies, the burden on the operator can be reduced. Further, in the second related technique, since the moving body is detected based on the frame image captured in the stationary state, it is possible to prevent malfunction due to the difference image generated with the movement of the imaging field of view.
  • the imaging field of view can be freely changed by an operator's manual operation. Therefore, when performing automatic detection of a moving body while enabling visual field control by an operator's manual operation, if the operator changes the imaging visual field of the monitoring camera by manual operation and stops in an area other than the monitoring area, In the related technique 2, when a moving body appears on the imaging screen of the stationary imaging field of view, it is detected. That is, a moving body existing in an area other than the monitoring area is erroneously detected.
  • the object of the present invention is that the above-described problem, that is, a moving body detection system using a monitoring camera that can control an imaging field of view by an external signal, may erroneously detect a moving body that exists in an area other than the monitoring area.
  • An object of the present invention is to provide a moving body detection system that solves the problem.
  • a mobile object detection system is: A moving body detection system for detecting a moving body in a monitoring area, A surveillance camera that can control the imaging field of view with an external signal; When the imaging field of view of the monitoring camera is a predetermined imaging field including the monitoring area, an image analyzing unit that analyzes an image captured by the monitoring camera and detects a moving body appearing on the image.
  • the video analysis apparatus is: A video analysis device that is connected to a monitoring camera that can control an imaging field of view by an external signal via a network and detects a moving object in the monitoring area, An image analysis unit that analyzes an image captured by the monitoring camera and detects a moving body appearing on the image when the imaging field of view of the monitoring camera is a predetermined imaging field of view including the monitoring region.
  • the moving object detection method is: A moving body detection method executed by a moving body detection system having a monitoring camera capable of controlling an imaging field of view by an external signal and an image analysis unit, and detecting a moving body in a monitoring area,
  • the imaging field of view of the monitoring camera is a predetermined imaging field including the monitoring area
  • the image analysis unit analyzes an image captured by the monitoring camera and detects a moving body appearing on the image.
  • the moving object detection method of the video analysis apparatus provides: A moving body detection method executed by a video analysis apparatus that has an image analysis unit and is connected via a network to a monitoring camera that can control an imaging field of view by an external signal, and detects a moving body in a monitoring area, When the imaging field of view of the monitoring camera is a predetermined imaging field including the monitoring area, the image analysis unit analyzes an image captured by the monitoring camera and detects a moving body appearing on the image.
  • a moving body detection system using a monitoring camera that can control an imaging field of view by an external signal it is possible to prevent erroneous detection of a moving body that exists in an area other than the monitoring area.
  • the monitoring camera 110 is a camera that can control the imaging field of view by the external signal 140.
  • the monitoring camera 110 may be a PTZ camera.
  • the monitoring camera 110 is not limited to a PTZ camera.
  • the monitoring camera 110 may be any camera that can control at least one of Pan (horizontal rotation), Tilt (vertical rotation), and Zoom (continuous zooming) by the external signal 140.
  • An image 111 obtained by being picked up by the monitoring camera 110 is sent to the image analysis unit 130 through a signal line or a network (not shown).
  • the external signal 140 is a signal for controlling the imaging field of view of the monitoring camera 110 from the outside.
  • the external signal 140 is a signal for controlling Pan (horizontal rotation), a signal for controlling Tilt (vertical rotation), and a signal for controlling Zoom (continuous scaling).
  • C P a signal for controlling Pan (horizontal rotation) of the monitoring camera 110
  • C T a signal for controlling Tilt (vertical rotation)
  • C Z a signal for controlling Zoom (continuous magnification)
  • the external signal 140 is transmitted from the operation unit 141 operated by the operator to the monitoring camera 110 through a signal line or a network (not shown).
  • the transmission source of the external signal 140 is not limited to the operation unit 141 of the operator. There may be a plurality of transmission sources of the external signal 140.
  • the difference between the horizontal rotation angle, the vertical rotation angle, and the zoom amount in the visual field control information is calculated, and if the difference values of the horizontal rotation angle, the vertical rotation angle, and the zoom amount are all equal to or less than the threshold value, the imaging field of view of the monitoring camera 110 is monitored. It may be determined that the imaging field of view includes a region, and otherwise the imaging field of view of the monitoring camera 110 may not be a predetermined imaging field of view including the monitoring region.
  • the control unit 120 sets the horizontal direction of the monitoring camera 110.
  • the initial values of the rotation angle, vertical rotation angle, and zoom amount are stored, and each time a new external signal 140 is generated, the horizontal rotation angle, vertical rotation angle, and zoom amount increment value represented by the external signal 140 are set as above. By adding to the initial value, the absolute value of the horizontal rotation angle, vertical rotation angle, and zoom amount of the monitoring camera 110 can be calculated.
  • FIG. 6B shows an imaging field in which a predetermined imaging field including a monitoring area is specified by a horizontal rotation angle of 180 °, a vertical rotation angle of 90 °, and a zoom amount of three times, a horizontal rotation angle of 100 °, and a vertical rotation. It is an example of two imaging visual fields with an imaging visual field specified by an angle of 80 ° and a zoom amount of 2 times.
  • FIG. 6C shows that a predetermined imaging field including the monitoring area is specified with a horizontal rotation angle of 178 ° to 182 °, a vertical rotation angle of 88 ° to 92 °, and a zoom amount of 2.8 to 3 times. It is an example of one imaging visual field. As shown in the example of (c), the predetermined imaging field including the monitoring area may be an imaging field having a certain margin.
  • the image analysis unit 130 has a function of analyzing the image 111 captured by the monitoring camera 110, detecting a moving body appearing on the image, and outputting the detection result 121.
  • the image 111 to be analyzed is an image during a period in which the control unit 120 determines that the imaging field of view of the monitoring camera 110 is a predetermined imaging field including the monitoring region.
  • the detection method of the moving body by image analysis is arbitrary.
  • the image analysis unit 130 may detect the temporal change of the frame image of the monitoring camera 110 and detect the presence / absence of the moving object based on whether or not the image has changed. Specifically, the difference between frames of the captured image is obtained, and the presence / absence of a moving object is determined based on the obtained difference image.
  • the control unit 120 and the image analysis unit 130 may be realized by a CPU and software executed by the CPU. Further, the control unit 120 and the image analysis unit 130 may be mounted on the same computer 150 as shown in FIG. Alternatively, the computer on which the control unit 120 is mounted and the computer on which the image analysis unit 130 is mounted may be physically different. In this case, both computers are connected by a signal line or a network.
  • FIG. 3 is a flowchart illustrating an example of the process of the control unit 120
  • FIG. 4 is a flowchart illustrating an example of the process of the image analysis unit 130.
  • the control unit 120 determines whether or not the monitoring camera 110 is in a predetermined imaging visual field (step S101). Next, if the monitoring camera 110 is in a predetermined imaging field of view (YES in step S102), the control unit 120 notifies the image analysis unit 130 of “executable” (step S103). On the other hand, if the monitoring camera 110 is not in the predetermined field of view (NO in step S102), the image analysis unit 130 is notified of “unexecutable” (step S104).
  • control unit 120 waits for a certain condition to be satisfied (step S105), whether a certain time elapses, the external signal 140 changes, or a predetermined number of images 111 are received. Then, it returns to step S101 and repeats the process similar to the process mentioned above.
  • the image analysis unit 130 receives the image 111 sent from the monitoring camera 110, for example, in units of frames (step S111). Next, the image analysis unit 130 determines whether the instruction from the control unit 120 is “executable” or “not executable” (step S112). If “executable”, the image analysis unit 130 does not perform the processing from step S113 onward, and returns to step S111 to receive the next image 111.
  • the image analysis unit 130 performs image analysis processing for detecting the moving body (step S113). Next, the image analysis unit 130 determines whether or not a moving body has been detected (step S114). If no moving body has been detected, the process returns to step S111 to receive the next image 111. If a moving object is detected, a detection result 131 indicating that fact is output (step S115). Then, the process returns to step S111 to receive the next image 111.
  • the moving body detection system 100 using the monitoring camera 110 that can control the imaging field of view by an external signal, it is possible to prevent erroneous detection of a moving body that exists in an area other than the monitoring area.
  • control unit 120 determines whether or not the imaging field of the monitoring camera 110 is a predetermined imaging field including the monitoring region, and the image analysis unit 130 determines the predetermined field including the monitoring region based on the determination result. This is because the moving object is detected by analyzing the image of the imaging field of view.
  • control unit 120 determines whether the imaging field of view of the monitoring camera 110 is a predetermined imaging field including the monitoring region and is stationary, and the image analysis unit 130 selects the monitoring region based on the determination result.
  • a moving object may be detected by analyzing an image determined to be stationary within a predetermined imaging field of view. Whether the imaging field of view of the monitoring camera 110 is stationary may be determined by analyzing the image of the monitoring camera 110 as in the second related technology related to the present invention.
  • control unit 120 periodically acquires the visual field control information 112 from the monitoring camera 110, and compares the acquired visual field control information 112 with the previously acquired visual field control information 112 so that the imaging visual field of the monitoring camera 110 is stationary. It may be determined whether or not.
  • step S112 of FIG. 4 the image analysis unit 130 determines whether or not the instruction from the control unit 120 is “executable” continuously for n ( ⁇ 2) times or more, If “executable”, the process proceeds to step S113; otherwise, the process may return to step S111.
  • the PTZ camera 210 is a network compatible camera that images the monitoring area.
  • the PTZ camera 210 captures n images per unit time.
  • the PTZ camera 210 has a function of transmitting each captured image as one frame image to the operator terminal 220 and the video analysis device 230 through the network 240 online.
  • the PTZ camera 210 has a visual field control unit 211 that controls the imaging visual field.
  • the visual field control unit 211 transmits a signal C P for controlling Pan (horizontal rotation) of the PTZ camera 210 through the network 240, a signal C T for controlling Tilt (vertical rotation), and a signal C Z for controlling Zoom (continuous scaling).
  • the horizontal rotation angle, vertical rotation angle, and camera lens magnification of the PTZ camera 210 are controlled in accordance with these signals.
  • the visual field control unit 211 stores the latest horizontal rotation angle, vertical rotation angle, and camera lens magnification of the PTZ camera 210 in the built-in memory.
  • the visual field control unit 211 receives an acquisition command of visual field control information through the network 240, the visual field control information having the latest horizontal rotation angle, vertical rotation angle, and camera lens magnification of the PTZ camera 210 is read from the built-in memory. Is returned to the command source.
  • the video analysis device 230 is a computer terminal that automatically detects a moving body in the monitoring area using the PTZ camera 210.
  • FIG. 6 is a block diagram of the video analysis device 230.
  • the video analysis device 230 includes, as main functional units, a communication interface unit (hereinafter referred to as a communication I / F unit) 231, an operation input unit 232, a screen display unit 233, a storage unit 234, and a processor. 235.
  • the communication I / F unit 231 includes a dedicated data communication circuit, and has a function of performing data communication with various devices such as the PTZ camera 210 connected via the network 240.
  • the screen display unit 233 includes a screen display device such as an LCD (Liquid Crystal Display) or a PDP (Plasma Display Panel), and has a function of displaying various information such as a moving body detection result on the screen according to an instruction from the processor 235.
  • a screen display device such as an LCD (Liquid Crystal Display) or a PDP (Plasma Display Panel)
  • LCD Liquid Crystal Display
  • PDP Pasma Display Panel
  • the control unit 235A has a function of determining whether the imaging field of view of the monitoring camera 210 is a predetermined imaging field including the monitoring region and is stationary.
  • the image analysis unit 235B analyzes an image captured by the monitoring camera 210 during a period in which the control unit 235A determines that the imaging field of the monitoring camera 210 is a predetermined imaging field including the monitoring region and is stationary. And has a function of detecting a moving object appearing on the image.
  • the control unit 235A determines that the visual field control information of the PTZ camera 210 does not match the reference visual field control information 234B (NO in step S203)
  • the imaging visual field of the PTZ camera 210 is not a predetermined imaging visual field including the monitoring region.
  • the execution enable / disable flag is set to a non-executable value
  • the execution enable / disable information with the current time added is recorded in the execution enable / disable information column 234C of the storage unit 234 (step S207), and the process proceeds to step S208.
  • the control unit 235A determines that the imaging visual field of the PTZ camera 210 is not stationary and can be executed.
  • the flag is set to a non-executable value, and the execution availability information added with the current time is recorded in the execution availability information column 234C of the storage unit 234 (step S207), and the process proceeds to step S208.
  • control unit 235A sets the executable flag to an executable value and sets the current time to The added execution availability information is recorded in the execution availability information column 234C of the storage unit 234 (step S206), and the process proceeds to step S208.
  • the image analysis unit 235B gives the reception time to the frame image received in step S211 and stores it in the image sequence 234A of the storage unit 234 (step S212).
  • the image analysis unit 235B displays the frame image received in step S211 on the screen display unit 233 (step S213).
  • FIG. 9 shows an example of an operation timing chart of the moving object detection system 200 according to the present embodiment.
  • the reference visual field control information 234B is assumed to be that shown in FIG.
  • the control unit 235A acquires the visual field control information of the PTZ camera 210 again.
  • the reason that the visual field control information of the PTZ camera 210 is adapted to the standard visual field control information 234B is that the operator of the operator terminal 220 returns the visual field of the PTZ camera 210 to the standard imaging visual field.
  • the image analysis unit 235 adds the reception time to the received frame image and stores it in the image sequence 234A, and displays the frame image on the screen display unit 233. Since the execution availability information at time t8, which is the latest execution availability information, indicates execution, the times t6 and t7 received from time t5 in the previous execution availability information to time t8 in the latest execution availability information Analyze the frame image. Next, as a result of the analysis, it is determined whether or not a moving object is detected, and a detection result corresponding to the determination result is output.
  • a network-compatible PTZ camera can set a plurality of preset positions, and can move instantaneously from one preset position to another. Therefore, the operator can instantaneously return to the automatic monitoring by the video analysis device 230 by setting the area to be automatically monitored by the video analysis device 230 at the preset position of the PTZ camera 210.
  • the control unit 235A of the video analysis device 230 determines whether or not the imaging field of view of the PTZ camera 210 is a predetermined imaging field of view including the monitoring region, and the image analysis unit 235B is based on the determination result. This is because a moving object is detected by analyzing an image of a predetermined imaging field including the monitoring region.
  • control unit 235A of the video analysis device 230 determines whether the imaging field of view of the PTZ camera 210 is stationary, and the image analysis unit 235B performs predetermined imaging including the monitoring region based on the determination result. This is because the moving object is detected by analyzing the image of the visual field.
  • the control unit 235A of the video analysis device 230 acquires the visual field control information indicating the state of the imaging visual field from the PTZ camera 210, and compares the acquired visual field control information with the reference visual field control information 234B. This is for determining whether or not the imaging field of view of the camera 210 is a predetermined imaging field including the monitoring area.
  • a moving body detection system 300 includes a PTZ camera 310, an operator terminal 320, and a video analysis device 330, which are connected via a network 340 such as the Internet. They are connected so that they can communicate with each other.
  • the PTZ camera 310, the operator terminal 320, and the network 340 are the same as the PTZ camera 210, the operator terminal 220, and the network 240 in the moving object detection system 200 according to the second embodiment of the present invention.
  • the visual field control unit 311 included in the PTZ camera 310 is the same as the visual field control unit 211 included in the PTZ camera 210.
  • the video analysis device 330 is a computer terminal that automatically detects a moving body in the monitoring area using the PTZ camera 310.
  • FIG. 11 is a block diagram of the video analysis device 330.
  • the video analysis device 330 includes a communication I / F unit 331, an operation input unit 332, a screen display unit 333, a storage unit 334, and a processor 335 as main functional units.
  • the communication I / F unit 331, the operation input unit 332, and the screen display unit 333 are the communication I / F unit 231 and the operation input unit of the video analysis apparatus 230 in the second embodiment of the present invention illustrated in FIG. 232 and the screen display unit 233.
  • the storage unit 334 includes a storage device such as a hard disk or a memory, and has a function of storing processing information and programs 334P necessary for various processes in the processor 335.
  • the program 334P is a program that implements various processing units by being read and executed by the processor 335, and is an external device (not shown) or a storage medium via a data input / output function such as the communication I / F unit 331. (Not shown) is read in advance and stored in the storage unit 334.
  • Main processing information stored in the storage unit 334 includes an image sequence 334A, reference visual field control information 334B, and execution availability information 334C.
  • the image sequence 334A, the reference visual field control information 334B, and the execution availability information 334C are the image sequence 234A, the reference visual field control information 234B, and the execution information of the video analysis apparatus 230 in the second embodiment of the present invention illustrated in FIG. This is the same as the availability information 234C.
  • the processor 335 has a microprocessor such as an MPU and its peripheral circuits, and reads and executes the program 334P from the storage unit 334, thereby causing the hardware and the program 334P to cooperate to implement various processing units. have.
  • main processing units realized by the processor 335 there are a control unit 335A, an image analysis unit 335B, and a reference visual field setting unit 335C.
  • the control unit 335A and the image analysis unit 335B are the same as the control unit 235A and the image analysis unit 235B of the video analysis device 230 in the second embodiment of the present invention illustrated in FIG.
  • the reference visual field setting unit 335C has a function of assisting the administrator of the video analysis device 330 to set the reference visual field control information 334B. Specifically, the reference visual field setting unit 335C generates an external signal in accordance with the operation of the operation input unit 332 by the administrator and transmits the external signal to the PTZ camera 310 through the communication I / F unit 331, and is captured by the PTZ camera 310.
  • Field control information representing the state of the imaging field at that time according to the function of receiving the received image through the communication I / F unit 331 and displaying it on the screen display unit 333 and the reference field setting instruction from the operation input unit 332 by the administrator Is acquired from the PTZ camera 310, and the acquired visual field control information is stored in the storage unit 334 as reference visual field control information 334B.
  • FIG. 12 is a flowchart showing a processing example of the reference visual field setting unit 335C.
  • the operation of the reference visual field setting unit 335C will be described with reference to FIG.
  • FIG. 13 shows an example of the reference visual field setting screen.
  • the reference visual field setting screen 336 of this example includes an image window 3361 that displays an image of the PTZ camera 310, a visual field operation unit 3362 for performing visual field control of the PTZ camera 310, and a confirm button 3363.
  • the visual field operation unit 3362 includes a left rotation key “key1”, a right rotation key “key2” for adjusting Pan (horizontal rotation) of the PTZ camera 310, an upper rotation key “key3”, a lower rotation key “key4” for adjusting Tilt (vertical rotation), A slide key key5 for adjusting the magnification of the camera lens is provided.
  • the visual field operation unit 3362 includes columns 3364 to 3366 for displaying the current horizontal rotation position, vertical rotation position, and camera lens magnification of the PTZ camera 310, respectively.
  • the image window 3361 of the reference visual field setting screen 336 displayed in step S302 the image of the PTZ camera 310 acquired in step S301 is displayed.
  • the horizontal rotation position, vertical rotation position, and camera lens magnification of the PTZ camera 310 acquired in step S301 are displayed.
  • the reference visual field setting unit 335C waits for visual field control input and confirmation button operation input from the visual field operation unit 3362 (steps S303 and S304).
  • the reference visual field setting unit 335C determines the PTZ according to the operation amount.
  • a signal C P for controlling Pan (horizontal rotation) of the camera 310, a signal C T for controlling Tilt (vertical rotation), and a signal C Z for controlling Zoom (continuous scaling) are generated, and are transmitted through the communication I / F unit 331. It transmits to the PTZ camera 310 (step S305).
  • the reference visual field setting unit 335C detects it (YES in step S304).
  • the reference visual field setting unit 335C stores the horizontal rotation position, vertical rotation position, and camera lens magnification of the PTZ camera 310 displayed in the display fields 3364 to 3366 of the reference visual field setting screen 336 as reference visual field control information 334B.
  • the information is stored in the unit 334 (step S307). Then, the process shown in FIG. 12 ends.
  • the administrator of the video analysis device 330 can efficiently set the reference visual field control information 334B.
  • the reason is that by using the function of the reference visual field setting unit 335C, the administrator can adjust the imaging visual field while confirming the image of the PTZ camera 310, and the PTZ camera 310 corresponding to the adjusted imaging visual field. This is because the visual field control information can be automatically acquired and set as the reference visual field control information 334B.
  • the monitoring camera 410 is a camera that can control the imaging field of view by the external signal 430.
  • the monitoring camera 410 is a camera that can control at least one of Pan (horizontal rotation), Tilt (vertical rotation), and Zoom (continuous scaling) by an external signal 430.
  • An image 411 obtained by being imaged by the monitoring camera 410 is sent to the image analysis unit 420 through a signal line (not shown) or a network.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

監視領域内の移動体を検出する移動体検出システムは、監視カメラと画像解析部とを有する。監視カメラは、外部信号によって撮像視野を制御できる。画像解析部は、監視カメラの撮像視野が監視領域を含む所定の撮像視野である場合に監視カメラで撮像された画像を解析して画像上に現れる移動体を検出する。

Description

移動体検出システム
 本発明は、監視領域内の移動体を検出する移動体検出システム、その移動体検出方法、映像解析装置、その移動体検出方法およびプログラムに関する。
 監視カメラを用いて不審者などの移動体の侵入を監視するシステムが提案されている。例えば、監視カメラをネットワーク経由でモニター装置に接続し、監視カメラで撮像した映像をモニター装置側の表示部を通じてオペレータに表示し、また監視カメラの撮像視野を水平方向あるいは垂直方向に変更する操作をオペレータによる手動で実施することが本発明に関連する第1の関連技術として提案されている(例えば特許文献1参照)。
 また、監視カメラとして、PTZ(Pan:水平回転、Tilt:垂直回転、Zoom:連続変倍)カメラを使用し、監視カメラで撮像された映像を解析して移動体を自動的に検出するシステムが提案されている。例えば、監視カメラの撮像視野が静止状態にあることを判定し、静止状態で撮像された映像のフレーム画像を直前のフレーム画像と比較してその差分を抽出し、抽出した差分に基づいて侵入者などの移動体を検出することが本発明に関連する第2の関連技術として提案されている(例えば特許文献2参照)。
特開2001-36810号公報 特開2011-77617号公報
 本発明に関連する上記第2の関連技術では、監視カメラで撮像された映像から移動体を自動的に検出するため、オペレータが映像を確認して移動体を発見しなければならない上記第1の関連技術と比較してオペレータの負担を軽減することができる。また、上記第2の関連技術では、静止状態で撮像されたフレーム画像に基づいて移動体を検出するため、撮像視野の移動に伴って発生する差分画像による誤動作を防止することができる。
 しかしながら、上記第1の関連技術に示されるように、外部信号によって撮像視野を制御できる監視カメラでは、オペレータの手動操作によって撮像視野を自由に変更することができる。従って、オペレータの手動操作による視野制御を可能としつつ移動体の自動検出を行う場合、オペレータが監視カメラの撮像視野を手動操作で変更し、監視領域以外の領域で静止させたならば、上記第2の関連技術では、静止した撮像視野の撮像画面に移動体が出現するとそれを検出することになる。即ち、監視領域以外の領域に存在する移動体を誤って検出することになる。
 本発明の目的は、上述した課題、すなわち外部信号によって撮像視野を制御できる監視カメラを使用した移動体検出システムでは、監視領域以外の領域に存在する移動体を誤って検出する恐れがある、という課題を解決する移動体検出システムを提供することにある。
 本発明の第1の観点に係る移動体検出システムは、
 監視領域内の移動体を検出する移動体検出システムであって、
 外部信号によって撮像視野を制御できる監視カメラと、
 上記監視カメラの上記撮像視野が上記監視領域を含む所定の撮像視野である場合に上記監視カメラで撮像された画像を解析して上記画像上に現れる移動体を検出する画像解析部
を有する。
 本発明の第2の観点に係る映像解析装置は、
 外部信号によって撮像視野を制御できる監視カメラにネットワークを介して接続され、監視領域内の移動体を検出する映像解析装置であって、
 上記監視カメラの上記撮像視野が上記監視領域を含む所定の撮像視野である場合に上記監視カメラで撮像された画像を解析して上記画像上に現れる移動体を検出する画像解析部と
を有する。
 本発明の第3の観点に係る移動体検出方法は、
 外部信号によって撮像視野を制御できる監視カメラと、画像解析部とを有し、監視領域内の移動体を検出する移動体検出システムが実行する移動体検出方法であって、
 上記画像解析部が、上記監視カメラの上記撮像視野が上記監視領域を含む所定の撮像視野である場合に上記監視カメラで撮像された画像を解析して上記画像上に現れる移動体を検出する。
 本発明の第4の観点に係る映像解析装置の移動体検出方法は、
 画像解析部を有し、外部信号によって撮像視野を制御できる監視カメラにネットワークを介して接続され、監視領域内の移動体を検出する映像解析装置が実行する移動体検出方法であって、
 上記画像解析部が、上記監視カメラの上記撮像視野が上記監視領域を含む所定の撮像視野である場合に上記監視カメラで撮像された画像を解析して上記画像上に現れる移動体を検出する。
 本発明の第5の観点に係るプログラムは、
 外部信号によって撮像視野を制御できる監視カメラにネットワークを介して接続され、監視領域内の移動体を検出する映像解析装置を構成するコンピュータを、
 上記監視カメラの上記撮像視野が上記監視領域を含む所定の撮像視野である場合に上記監視カメラで撮像された画像を解析して上記画像上に現れる移動体を検出する画像解析部と
して機能させる。
 本発明によれば、外部信号によって撮像視野を制御できる監視カメラを使用した移動体検出システムにおいて、監視領域以外の領域に存在する移動体を誤って検出することを防止できる。
本発明の第1の実施形態のブロック図である。 本発明の第1の実施形態における監視領域を含む所定の撮像視野を特定する例を示す図である。 本発明の第1の実施形態における制御部の処理例を示すフローチャートである。 本発明の第1の実施形態における画像解析部の処理例を示すフローチャートである。 本発明の第2の実施形態のブロック図である。 本発明の第2の実施形態における映像解析装置のブロック図である。 本発明の第2の実施形態における映像解析装置の制御部の処理例を示すフローチャートである。 本発明の第2の実施形態における映像解析装置の映像解析部の処理例を示すフローチャートである。 本発明の第2の実施形態の動作タイミングチャートの一例を示す図である。 本発明の第3の実施形態のブロック図である。 本発明の第3の実施形態における映像解析装置のブロック図である。 本発明の第3の実施形態における映像解析装置の基準視野設定部の処理例を示すフローチャートである。 本発明の第3の実施形態における映像解析装置の基準視野設定部が表示する基準視野設定画面の一例を示す図である。 本発明の第4の実施形態のブロック図である。
 次に本発明の実施の形態について図面を参照して詳細に説明する。
[第1の実施形態]
 図1を参照すると、本発明の第1の実施形態に係る移動体検出システム100は、監視カメラ110と制御部120と画像解析部130とを有する。
 監視カメラ110は、外部信号140によって撮像視野を制御することができるカメラである。例えば、監視カメラ110はPTZカメラであってよい。但し、監視カメラ110はPTZカメラに限定されない。監視カメラ110は、Pan(水平回転)、Tilt(垂直回転)、Zoom(連続変倍)のうちの少なくとも1つを外部信号140によって制御できるカメラであればよい。監視カメラ110で撮像されて得られた画像111は、図示しない信号線やネットワークを通じて画像解析部130へ送られる。
 外部信号140は、監視カメラ110の撮像視野を外部から制御するための信号である。監視カメラ110がPTZカメラの場合、外部信号140は、Pan(水平回転)を制御するための信号、Tilt(垂直回転)を制御するための信号、Zoom(連続変倍)を制御するための信号を有する。以下、監視カメラ110のPan(水平回転)を制御する信号をCP、Tilt(垂直回転)を制御する信号をC、Zoom(連続変倍)を制御する信号をCと記す。本実施形態では、外部信号140は、オペレータによって操作される操作部141から図示しない信号線やネットワークを通じて監視カメラ110へ送信される。但し、外部信号140の送信元はオペレータの操作部141に限定されない。また、外部信号140の送信元は複数存在してもよい。
 制御部120は、監視カメラ110の撮像視野が監視領域を含む所定の撮像視野であるか否かを判定する機能を有する。
 制御部120において、監視カメラ110の撮像視野が監視領域を含む所定の撮像視野であるか否かを判定する方法は幾つか考えられる。
 例えば制御部120は、監視カメラ110から撮像視野の状態を表す視野制御情報112を取得し、この取得した視野制御情報112を予め設定された基準の視野制御情報と比較することにより、監視カメラ110の撮像視野が監視領域を含む所定の撮像視野であるか否かを判定してよい。例えば、視野制御情報112が監視カメラ110の水平回転角度、垂直回転角度、ズーム量を示す場合、監視カメラ110から取得した視野制御情報112の水平回転角度、垂直回転角度、ズーム量と、基準の視野制御情報における水平回転角度、垂直回転角度、ズーム量との差分を算出し、水平回転角度、垂直回転角度、ズーム量の各差分値が全て閾値以下であれば監視カメラ110の撮像視野が監視領域を含む所定の撮像視野である判定し、それ以外は監視カメラ110の撮像視野が監視領域を含む所定の撮像視野でないと判定してよい。
 上記の例では、監視カメラ110の撮像視野の状態を表す視野制御情報112を監視カメラ110から取得したが、監視カメラ110に入力される外部信号140を制御部120に入力し、外部信号140に基づいて、監視カメラ110の撮像視野の状態を表す視野制御情報112を制御部120内部で生成してもよい。例えば、外部信号140の信号CP、信号C、信号Cが、監視カメラ110の水平回転角度、垂直回転角度、ズーム量の絶対値を示す場合、外部信号140そのものを監視カメラ110の撮像視野の状態を表す視野制御情報112として使用することができる。また、外部信号140の信号CP、信号C、信号Cが、監視カメラ110の水平回転角度、垂直回転角度、ズーム量の増分値を示す場合、制御部120は、監視カメラ110の水平回転角度、垂直回転角度、ズーム量の初期値を記憶し、新たな外部信号140が発生する毎に、その外部信号140で表される水平回転角度、垂直回転角度、ズーム量の増分値を上記初期値に加算することによって、監視カメラ110の水平回転角度、垂直回転角度、ズーム量の絶対値を算出することができる。
 また制御部120は、監視カメラ110で撮像された画像111を基準の画像と比較することにより、監視カメラ110の撮像視野が監視領域を含む所定の撮像視野であるか否かを判定してよい。例えば、監視カメラ110で撮像された画像111と基準の画像との差分を抽出し、その差分量が閾値以下であれば監視カメラ110の撮像視野が監視領域を含む所定の撮像視野である判定し、それ以外は監視カメラ110の撮像視野が監視領域を含む所定の撮像視野でないと判定してよい。基準の画像は、撮像視野が監視領域を含む所定の撮像視野になるように調整して監視カメラ110で撮像した画像を使用してよい。基準の画像には移動体は存在しないため、監視カメラ110で撮像された画像111に移動体が存在すると、移動体の有無による差分が発生する。そのため、その差分量を考慮して上記閾値を決定する。
 監視領域を含む所定の撮像視野は、特定の1つの撮像視野であってもよいし、特定の複数の撮像視野であってもよい。図2に監視領域を含む所定の撮像視野を特定する例を示す。この例は、監視カメラ110の水平回転角度、垂直回転角度、ズーム量の絶対値によって撮像視野を特定している。同図(a)は、監視領域を含む所定の撮像視野が、水平回転角度180°、垂直回転角度90°、ズーム量3倍で特定される1つの撮像視野の例である。また同図(b)は、監視領域を含む所定の撮像視野が、水平回転角度180°、垂直回転角度90°、ズーム量3倍で特定される撮像視野と、水平回転角度100°、垂直回転角度80°、ズーム量2倍で特定される撮像視野との2つの撮像視野の例である。また同図(c)は、監視領域を含む所定の撮像視野が、水平回転角度178°~182°、垂直回転角度88°~92°、ズーム量2.8倍~3倍で特定される1つの撮像視野の例である。この(c)の例に示されるように、監視領域を含む所定の撮像視野はある程度の余裕を持たせた撮像視野であってよい。
 制御部120において、監視カメラ110の撮像視野が監視領域を含む所定の撮像視野であるか否かを判定する周期は任意である。例えば制御部120は、監視カメラ110から画像解析部130に対して所定数n(nは1以上の整数)のフレーム画像が送られてくる毎に上記判定を行ってよい。或いは制御部120は、外部信号140が変化する毎に上記判定を行ってよい。或いは制御部120は、予め定められた周期で上記判定を行ってよい。
 画像解析部130は、監視カメラ110で撮像された画像111を解析して、画像上に現れる移動体を検出し、その検出結果121を出力する機能を有する。解析の対象とする画像111は、監視カメラ110の撮像視野が監視領域を含む所定の撮像視野であると制御部120によって判定されている期間中の画像である。画像解析による移動体の検出方法は任意である。例えば、画像解析部130は、監視カメラ110のフレーム画像の経時変化を検出し、画像に変化が生じたか否かにより移動体の存在の有無を検出してよい。具体的には、撮像画像のフレーム間差分を求め、得られた差分画像をもとに移動体の存在の有無を判定する。画像解析部130が出力する検出結果131は、移動体を検出したか否かを示す情報だけを有していてもよいし、それに加えて他の情報を有していてもよい。他の情報は、検出に使用した画像、検出した移動体の位置情報などであってよい。また検出結果121の出力先は任意である。例えば、図示しない表示装置に検出結果131を表示してよい。或いは図示しない他の装置に信号線やネットワークを介して検出結果131を送信するようにしてよい。
 上記制御部120と画像解析部130とは、CPUとそのCPUで実行されるソフトウェアとで実現されるものであってよい。また、制御部120と画像解析部130とは、図1に示されるように、同じコンピュータ150上に実装されていてよい。あるいは制御部120が実装されるコンピュータと画像解析部130が実装されるコンピュータとが物理的に異なるものであってもよく、その場合には信号線あるいはネットワークにより双方のコンピュータが接続される。
 次に本実施形態に係る移動体検出システムの動作を説明する。図3は制御部120の処理の一例を示すフローチャート、図4は画像解析部130の処理の一例を示すフローチャートである。
 先ず図3のフローチャートを参照して、制御部120の動作を説明する。制御部120は、視野制御情報112或いは外部信号140或いは画像111に基づいて、監視カメラ110が所定の撮像視野になっているか否かを判定する(ステップS101)。次に制御部120は、監視カメラ110が所定の撮像視野になっていれば(ステップS102でYES)、画像解析部130に対して「実行可」を通知する(ステップS103)。反対に監視カメラ110が所定の撮像視野でなければ(ステップS102でNO)、画像解析部130に対して「実行不可」を通知する(ステップS104)。
 次に制御部120は、一定時間が経過するか、或いは外部信号140が変化するか、或いは所定数の画像111が受信されるか、何れかの条件が成立するのを待ち合わせ(ステップS105)、その後、ステップS101に戻って上述した処理と同様の処理を繰り返す。
 次に図4のフローチャートを参照して、画像解析部130の動作を説明する。画像解析部130は、監視カメラ110から送られてくる画像111を例えばフレーム単位で受信する(ステップS111)。次に画像解析部130は、制御部120からの指示が「実行可」あるいは「実行不可」の何れであるかを判定する(ステップS112)。「実行不可」であれば、画像解析部130は、ステップS113以降の処理を行わず、ステップS111に戻って次の画像111を受信する。
 他方、制御部120からの指示が「実行可」であれば、画像解析部130は、移動体検出のための画像解析処理を実施する(ステップS113)。次に画像解析部130は、移動体を検出したか否かを判定し(ステップS114)、移動体を検出していなければ、ステップS111に戻って次の画像111を受信する。また移動体を検出していれば、その旨を示す検出結果131を出力する(ステップS115)。そして、ステップS111に戻って次の画像111を受信する。
 次に本実施形態の効果を説明する。
 本実施形態によれば、外部信号によって撮像視野を制御できる監視カメラ110を使用した移動体検出システム100において、監視領域以外の領域に存在する移動体を誤って検出することを防止できる。
 その理由は、制御部120が、監視カメラ110の撮像視野が監視領域を含む所定の撮像視野であるか否かを判定し、画像解析部130が、その判定結果に基づいて監視領域を含む所定の撮像視野の画像を解析して移動体を検出するためである。
 本実施形態は上述した構成を基本としつつ、各種の付加変更が可能である。例えば、制御部120は、監視カメラ110の撮像視野が監視領域を含む所定の撮像視野であって静止しているか否かを判定し、画像解析部130は、その判定結果に基づいて監視領域を含む所定の撮像視野であって静止していると判定された画像を解析して移動体を検出してよい。監視カメラ110の撮像視野が静止しているか否かの判定は、本発明に関連する第2の関連技術と同様に監視カメラ110の画像を解析して判定してよい。或いは制御部120は、監視カメラ110から視野制御情報112を定期的に取得し、この取得した視野制御情報112を前回取得した視野制御情報112と比較することにより、監視カメラ110の撮像視野が静止しているか否かを判定してよい。
 また、画像解析部130は、図4のステップS112において、制御部120からの指示がn(≧2)回以上連続して「実行可」か否かを判定し、n回以上連続して「実行可」であればステップS113の処理へ進み、そうでなければステップS111の処理に戻るようにしてよい。
[第2の実施形態]
 図5を参照すると、本発明の第2の実施形態に係る移動体検出システム200は、PTZカメラ210とオペレータ端末220と映像解析装置230とを有し、それらはインターネット等のネットワーク240を介して相互に通信可能に接続されている。
 PTZカメラ210は、監視領域を撮像するネットワーク対応カメラである。PTZカメラ210は、単位時間当たりn枚の画像を撮影する。PTZカメラ210は、撮像した個々の画像を1フレーム画像としてネットワーク240を通じてオペレータ端末220および映像解析装置230へオンラインで送信する機能を有する。またPTZカメラ210は、その撮像視野を制御する視野制御部211を有する。この視野制御部211は、ネットワーク240を通じてPTZカメラ210のPan(水平回転)を制御する信号CP、Tilt(垂直回転)を制御する信号C、Zoom(連続変倍)を制御する信号Cを受信すると、それらの信号に従ってPTZカメラ210の水平回転角度、垂直回転角度、カメラレンズの倍率を制御する。また、視野制御部211は、PTZカメラ210の最新の水平回転角度、垂直回転角度、カメラレンズの倍率を内蔵メモリに記憶する。そして視野制御部211は、ネットワーク240を通じて視野制御情報の取得命令を受信すると、内蔵メモリからPTZカメラ210の最新の水平回転角度、垂直回転角度、カメラレンズの倍率を読み出し、それらを有する視野制御情報を指令元へ返信する機能を有する。
 オペレータ端末220は、オペレータが使用するコンピュータ端末である。オペレータ端末220は、PTZカメラ210などの他装置との通信装置と、PTZカメラ210から受信した画像を表示する表示装置と、PTZカメラ210の撮像視野をオペレータが手動で変更するための信号を入力する入力装置と、それらに接続されたマイクロコンピュータ等のプロセッサとを有する。オペレータ端末220は、オペレータがPTZカメラ210を使用して監視領域を監視する専用の端末であってもよいし、他の用途にも使用する兼用の端末であってもよい。
 映像解析装置230は、PTZカメラ210を使用して監視領域内の移動体を自動検出するコンピュータ端末である。図6は映像解析装置230のブロック図である。図6を参照すると、映像解析装置230は、主な機能部として、通信インターフェイス部(以下、通信I/F部と記す)231、操作入力部232、画面表示部233、記憶部234、およびプロセッサ235を有する。
 通信I/F部231は、専用のデータ通信回路からなり、ネットワーク240を介して接続されたPTZカメラ210などの各種装置との間でデータ通信を行う機能を有している。
 操作入力部232は、キーボードやマウスなどの操作入力装置からなり、オペレータの操作を検出してプロセッサ235に出力する機能を有している。
 画面表示部233は、LCD(Liquid Crystal Display)やPDP(Plasma Display Panel)などの画面表示装置からなり、プロセッサ235からの指示に応じて、移動体検出結果などの各種情報を画面表示する機能を有している。
 記憶部234は、ハードディスクやメモリなどの記憶装置からなり、プロセッサ235での各種処理に必要な処理情報やプログラム234Pを記憶する機能を有している。プログラム234Pは、プロセッサ235に読み込まれて実行されることにより各種処理部を実現するプログラムであり、通信I/F部231などのデータ入出力機能を介して外部装置(図示せず)や記憶媒体(図示せず)から予め読み込まれて記憶部234に保存される。記憶部234で記憶される主な処理情報として、画像列234A、基準の視野制御情報234B、実行可否情報列234Cがある。
 画像列234Aは、PTZカメラ210から受信したフレーム画像の時系列である。画像列234A中の個々のフレーム画像には、それをPTZカメラ210から受信した時刻情報が付加されている。PTZカメラ210からは撮像された画像が即座にネットワーク240を通じて映像解析装置230へ送信されるため、個々のフレーム画像に付加される受信時刻は、個々のフレーム画像の撮像時刻とほぼ一致する。なお、映像解析装置230側でフレーム画像に受信時刻を付与する代わりに、PTZカメラ210側で各フレーム画像にその撮像時刻あるいは送信時刻を付与して映像解析装置230へ送信するようにしてもよい。
 基準の視野制御情報234Bは、PTZカメラ210の撮像視野が監視領域を含む所定の撮像視野であるか否かを判定する際の基準となる情報である。基準の視野制御情報234Bは、図2を参照して説明した第1の実施形態における基準の視野制御情報と同じであってよい。以下の説明では、基準の視野制御情報234Bは図2(a)に示すものと同じとする。
 実行可否情報列234Cは、PTZカメラ210の画像を解析して移動体の検出を行う処理の実行可否を表す情報の時系列である。実行可否情報列234C中の1つの実行可否情報は、実行可あるいは実行不可を表す実行可否フラグと、実行可否を判断した時点の時刻情報とを有する。
 プロセッサ235は、MPUなどのマイクロプロセッサとその周辺回路を有し、記憶部234からプログラム234Pを読み込んで実行することにより、上記ハードウェアとプログラム234Pとを協働させて各種処理部を実現する機能を有している。プロセッサ235で実現される主な処理部として、制御部235Aと画像解析部235Bとがある。
 制御部235Aは、監視カメラ210の撮像視野が監視領域を含む所定の撮像視野であって静止しているか否かを判定する機能を有する。
 画像解析部235Bは、監視カメラ210の撮像視野が監視領域を含む所定の撮像視野であって静止していると制御部235Aで判定されている期間中の監視カメラ210で撮像された画像を解析して画像上に現れる移動体を検出する機能を有する。
 次に本実施形態に係る移動体検出システム200の動作を説明する。
 本実施形態に係る移動体検出システム200では、オペレータによる手動監視と映像解析装置230による自動監視とを行うことができる。まず、映像解析部230による自動監視の動作を図7、図8を参照して説明する。図7は映像解析装置230の制御部235Aの処理例を示すフローチャート、図8は映像解析装置230の画像解析部235Bの処理例を示すフローチャートである。
 図7を参照すると、制御部235Aは、先ずネットワーク240を通じてPTZカメラ210から視野制御情報を取得する(ステップS201)。具体的には、制御部235Aは、通信I/F部231からネットワーク240経由でPTZカメラ210の視野制御部211に対して視野制御情報の取得要求を送信する。視野制御部211は、取得要求に対して現時点のPTZカメラ210の水平回転角度、垂直回転角度、カメラレンズの倍率を有する視野制御情報を返信する。制御部235Aは、上記返信される視野制御情報を通信I/F部231によって受信することで、PTZカメラ210の最新の視野制御情報を得る。
 次に制御部235Aは、記憶部234から基準の視野制御情報234Bを読み出し、ステップS201で受信したPTZカメラ210の視野制御情報と比較する(ステップS202)。そして、その比較結果に基づいて、PTZカメラ210の視野制御情報が基準の視野制御情報234Bに適合するか否かを判定する。例えば、取得した視野制御情報の水平回転角度、垂直回転角度、ズーム量と、基準の視野制御情報234Bの水平回転角度、垂直回転角度、ズーム量との各差分値が全て閾値以下であれば、PTZカメラ210の視野制御情報が基準の視野制御情報234Bに適合すると判定し、それ以外は適合しないと判定する。
 制御部235Aは、PTZカメラ210の視野制御情報が基準の視野制御情報234Bに適合しないと判定した場合(ステップS203でNO)、PTZカメラ210の撮像視野が監視領域を含む所定の撮像視野でないので、実行可否フラグを実行不可の値に設定し、現在時刻を付加した実行可否情報を記憶部234の実行可否情報列234Cに記録し(ステップS207)、ステップS208の処理へ進む。
 他方、PTZカメラ210の視野制御情報が基準の視野制御情報234Bに適合すると判定した場合(ステップS203でYES)、制御部235Aは、ステップS201で取得したPTZカメラ210の視野制御情報とステップS201で前回取得したPTZカメラ210の視野制御情報とを比較する(ステップS204)。そして、その比較結果に基づいて、双方の視野制御情報が一致するか否かを判定する。例えば、今回取得した視野制御情報の水平回転角度、垂直回転角度、ズーム量と、前回取得した水平回転角度、垂直回転角度、ズーム量との各差分値が全て0であれば、双方の視野制御情報は一致すると判定し、それ以外は一致しないと判定する。
 制御部235Aは、PTZカメラ210の今回の視野制御情報が前回の視野制御情報と一致しなかった場合(ステップS205でNO)、PTZカメラ210の撮像視野が静止していないと判断し、実行可否フラグを実行不可の値に設定し、現在時刻を付加した実行可否情報を記憶部234の実行可否情報列234Cに記録し(ステップS207)、ステップS208へ進む。他方、制御部235Aは、PTZカメラ210の今回の視野制御情報が前回の視野制御情報と一致していた場合(ステップS205でYES)、実行可否フラグを実行可の値に設定し、現在時刻を付加した実行可否情報を記憶部234の実行可否情報列234Cに記録し(ステップS206)、ステップS208の処理へ進む。
 ステップS208では、制御部235Aは、予め定められた一定時間の待ち合わせを行う。そして、その待ち合わせ後、制御部235AはステップS201の処理へ戻り、上述した処理と同様の処理を繰り返す。
 図8を参照すると、画像解析部235Bは、ネットワーク240を通じてPTZカメラ210からフレーム画像を受信する(ステップS211)。具体的には、制御部235Aは、ネットワーク240経由でPTZカメラ210から送信されてくるフレーム画像を通信I/F部231を通じて受信することで、PTZカメラ210の最新のフレーム画像を得る。
 次に画像解析部235Bは、ステップS211で受信したフレーム画像に受信時刻を付与して、記憶部234の画像列234Aに記憶する(ステップS212)。また画像解析部235Bは、ステップS211で受信したフレーム画像を画面表示部233に表示する(ステップS213)。
 次に画像解析部235Bは、実行可否情報列234Cに記憶されている最新の実行可否情報の実行可否フラグの値が実行可を示す値であるか否かを判定する(ステップS214)。画像解析部235Bは、最新の実行可否情報における実行可否フラグの値が実行不可を示す値であれば(ステップS214でNO)、ステップS211の処理へ戻り、PTZカメラ210から次のフレーム画像の受信を行う。
 画像解析部235Bは、最新の実行可否情報における実行可否フラグの値が実行可を示す値であれば(ステップS214でYES)、その1個前の実行可否情報の時刻から最新の実行可否情報の時刻までに受信したフレーム画像を記憶部234の画像列234Aから読み出して解析する(ステップS215)。すなわち、画像解析部235Bは、監視カメラ210の当該期間中のフレーム画像の経時変化を検出し、画像に変化が生じたか否かにより移動体の存在の有無を検出する。そして、画像解析部235Bは、移動体を検出したならば(ステップS216でYES)、その旨の検出結果を画面表示部233に出力し(ステップS217)、ステップS211の処理へと戻る。また、移動体を検出しなければ(ステップS216でNO)、移動体が存在しない旨の検出結果を画面表示部233に出力し(ステップS218)、ステップS211の処理へと戻る。検出結果を画面表示部233に出力する代わりに、或いはその出力に加えて、通信I/F部231を通じて外部に検出結果を送信してもよい。
 図9は、本実施形態に係る移動体検出システム200の動作タイミングチャートの一例を示す。基準の視野制御情報234Bは、図2(a)に示すものを想定している。
 映像解析装置230の動作開始後、時刻t1でPTZカメラ210の最初のフレーム画像を受信すると、画像解析部235Bは受信したフレーム画像に時刻t1を付加して記憶部234の画像列234Aに記憶し、またフレーム画像を画面表示部233に表示する。その時点では、有効な実行可否情報が存在しないため、画像解析部235Bは画像解析処理を実施することなく次のフレーム画像の受信を待つ。
 その後の時刻t2において、制御部235Aが図7に示す処理の実行を開始し、PTZカメラ210の視野制御情報を取得している。取得した視野制御情報は、水平回転角度=100°、垂直回転角度=90°、ズーム量=3倍であり、基準の視野制御情報234Bと適合しないため、実行不可を示す実行可否フラグと時刻t2とを有する実行可否情報を記憶部234の実行可否情報列234Cに記憶する。PTZカメラ210の視野制御情報が基準の視野制御情報234Bに適合しない理由は、オペレータ端末220のオペレータがPTZカメラ210の視野を手動で変更していることによる。
 次の時刻t3、t4のそれぞれにおいて画像解析部235は受信したフレーム画像に受信時刻を付加して画像列234Aに記憶し、またフレーム画像を画面表示部233に表示する。しかし、最新の実行可否情報である時刻t2の実行可否情報が実行不可を示すため、画像解析部235Bは画像解析処理を実施することなく次のフレーム画像の受信を待つ。
 その後の時刻t5において、制御部235AがPTZカメラ210の視野制御情報を再び取得している。取得した視野制御情報は、水平回転角度=180°、垂直回転角度=90°、ズーム量=3倍であり、基準の視野制御情報234Bと適合する。PTZカメラ210の視野制御情報が基準の視野制御情報234Bに適合することになった理由は、オペレータ端末220のオペレータがPTZカメラ210の視野を基準の撮像視野に戻したことによる。しかし、今回取得したPTZカメラ210の視野制御情報は、前回取得したPTZカメラ210の視野制御情報と一致しないため、制御部235Aは、実行不可を示す実行可否フラグと時刻t5とを有する実行可否情報を記憶部234の実行可否情報列234Cに記憶する。
 その後の時刻t6、t7のそれぞれにおいて画像解析部235は受信したフレーム画像に受信時刻を付加して画像列234Aに記憶し、またフレーム画像を画面表示部233に表示する。しかし、最新の実行可否情報である時刻t5の実行可否情報が実行不可を示すため、画像解析部235Bは画像解析処理を実施することなく次のフレーム画像の受信を待つ。
 その後の時刻t8において、制御部235AがPTZカメラ210の視野制御情報を再び取得している。取得した視野制御情報は、水平回転角度=180°、垂直回転角度=90°、ズーム量=3倍であり、基準の視野制御情報234Bと適合する。また前回取得したPTZカメラ210の視野制御情報とも一致している。このため、制御部235Aは、PTZカメラ210の撮像視野が監視領域を含む所定の撮像視野で静止していると判断し、実行可を示す実行可否フラグと時刻t8とを有する実行可否情報を記憶部234の実行可否情報列234Cに記憶する。
 その後の時刻t9において画像解析部235は受信したフレーム画像に受信時刻を付加して画像列234Aに記憶し、またフレーム画像を画面表示部233に表示する。そして、最新の実行可否情報である時刻t8の実行可否情報が実行可を示すため、1個前の実行可否情報の時刻t5から最新の実行可否情報の時刻t8までに受信した時刻t6、t7のフレーム画像を解析する。次に、その解析の結果、移動体を検出したか否かを判定し、その判定結果に応じた検出結果を出力する。
 次に、オペレータによる手動監視について説明する。
 オペレータ端末220の表示装置には、ネットワーク240を通じてPTZカメラ210から送信されてくるフレーム画像がリアルタイムに表示される。このため、オペレータ端末220のオペレータは、表示装置に表示される画像を確認することで侵入者の有無等を監視することが可能である。
 またオペレータは、映像解析装置230が侵入者の検出を行っている監視領域とは別の領域を監視するために、オペレータ端末220の入力装置から視野制御情報をPTZカメラ210へ送信し、PTZカメラ210の撮像視野を変更することができる。その際、オペレータは映像解析装置230の自動監視機能を停止させる必要はない。その理由は、PTZカメラ210の撮像視野を基準の撮像視野以外に変更した際には、映像解析装置230の自動監視機能が実質的に中断するためである。
 またオペレータは、別の領域の監視を終え、再び映像解析装置230による自動監視を再開させたいときは、PTZカメラ210の撮像視野を元の基準の監視領域に戻すだけでよい。その理由は、PTZカメラ210の撮像視野が基準の撮像視野に復帰すると、映像解析装置230の自動監視機能が再び有効になるためである。一般にネットワーク対応のPTZカメラは、複数のプリセットポジションを設定でき、或るプリセットポジションから別のプリセットポジションへ瞬時に移動することが可能である。従って、オペレータは、PTZカメラ210のプリセットポジションに、映像解析装置230による自動監視対象領域を設定しておくことにより、映像解析装置230による自動監視への瞬時の復帰が可能である。
 このように本実施形態によれば、外部信号によって撮像視野を制御できるPTZカメラ210を使用した移動体検出システム200において、監視領域以外の領域に存在する移動体を誤って検出することを防止できる。その理由は、映像解析装置230の制御部235Aが、PTZカメラ210の撮像視野が監視領域を含む所定の撮像視野であるか否かを判定し、画像解析部235Bが、その判定結果に基づいて監視領域を含む所定の撮像視野の画像を解析して移動体を検出するためである。
 また本実施形態によれば、撮像視野の移動に伴って発生する差分画像による誤動作を防止することができる。その理由は、映像解析装置230の制御部235Aが、PTZカメラ210の撮像視野が静止しているか否かを判定し、画像解析部235Bが、その判定結果に基づいて監視領域を含む所定の撮像視野の画像を解析して移動体を検出するためである。
 また本実施形態によれば、PTZカメラ210の撮像視野が監視領域を含む所定の撮像視野であるか否かを簡便かつ正確に判定することができる。その理由は、映像解析装置230の制御部235AがPTZカメラ210から撮像視野の状態を表す視野制御情報を取得し、この取得した視野制御情報を基準の視野制御情報234Bと比較することにより、PTZカメラ210の撮像視野が監視領域を含む所定の撮像視野であるか否かを判定するためである。換言すれば、PTZカメラ210で撮像された画像を基準の画像と比較することにより、PTZカメラ210の撮像視野が監視領域を含む所定の撮像視野であるか否かを判定する方法では、処理量の多い画像処理が必要になる上に移動体による影響によって精度が低下するが、視野制御情報による方法ではそのような問題が生じないためである。
[第3の実施形態]
 図10を参照すると、本発明の第3の実施形態に係る移動体検出システム300は、PTZカメラ310とオペレータ端末320と映像解析装置330とを有し、それらはインターネット等のネットワーク340を介して相互に通信可能に接続されている。PTZカメラ310とオペレータ端末320とネットワーク340とは、本発明の第2の実施形態に係る移動体検出システム200におけるPTZカメラ210とオペレータ端末220とネットワーク240と同じである。またPTZカメラ310が有する視野制御部311もPTZカメラ210が有する視野制御部211と同じである。
 映像解析装置330は、PTZカメラ310を使用して監視領域内の移動体を自動検出するコンピュータ端末である。図11は映像解析装置330のブロック図である。図11を参照すると、映像解析装置330は、主な機能部として、通信I/F部331、操作入力部332、画面表示部333、記憶部334、およびプロセッサ335を有する。このうち、通信I/F部331、操作入力部332、画面表示部333は、図6に示した本発明の第2の実施形態における映像解析装置230の通信I/F部231、操作入力部232、画面表示部233と同じである。
 記憶部334は、ハードディスクやメモリなどの記憶装置からなり、プロセッサ335での各種処理に必要な処理情報やプログラム334Pを記憶する機能を有している。プログラム334Pは、プロセッサ335に読み込まれて実行されることにより各種処理部を実現するプログラムであり、通信I/F部331などのデータ入出力機能を介して外部装置(図示せず)や記憶媒体(図示せず)から予め読み込まれて記憶部334に保存される。記憶部334で記憶される主な処理情報として、画像列334A、基準の視野制御情報334B、実行可否情報334Cがある。これらの画像列334A、基準の視野制御情報334B、実行可否情報334Cは、図6に示した本発明の第2の実施形態における映像解析装置230の画像列234A、基準の視野制御情報234B、実行可否情報234Cと同じである。
 プロセッサ335は、MPUなどのマイクロプロセッサとその周辺回路を有し、記憶部334からプログラム334Pを読み込んで実行することにより、上記ハードウェアとプログラム334Pとを協働させて各種処理部を実現する機能を有している。プロセッサ335で実現される主な処理部として、制御部335Aと画像解析部335Bと基準視野設定部335Cがある。このうち制御部335Aと画像解析部335Bは、図6に示した本発明の第2の実施形態における映像解析装置230の制御部235Aと画像解析部235Bと同じである。
 基準視野設定部335Cは、映像解析装置330の管理者が基準の視野制御情報334Bを設定する作業を支援する機能を有する。具体的には、基準視野設定部335Cは、管理者による操作入力部332の操作に従って外部信号を生成して通信I/F部331を通じてPTZカメラ310へ送信する機能と、PTZカメラ310で撮像された画像を通信I/F部331を通じて受信して画面表示部333に表示する機能と、管理者による操作入力部332からの基準視野設定指示に従って、その時点の撮像視野の状態を表す視野制御情報をPTZカメラ310から取得し、この取得した視野制御情報を基準の視野制御情報334Bとして記憶部334に記憶する機能とを有する。
 次に本実施形態に係る移動体検出システム300の動作を説明する。本実施形態に係る移動体検出システム300の動作のうち、映像解析装置330の基準視野設定部335Cの動作以外の動作は第2の実施形態に係る移動体検出システム200の動作と同じである。
 図12は基準視野設定部335Cの処理例を示すフローチャートである。以下、図12を参照して基準視野設定部335Cの動作を説明する。
 基準視野設定部335Cは、操作入力部332からの指示によって起動されると、図12に示す処理の実行を開始する。まず基準視野設定部335Cは、PTZカメラ310で撮像されている画像とその時点の視野制御情報とを通信I/F部331を通じて取得する(ステップS301)。次に、基準視野設定部335Cは、画面表示部333に基準視野設定画面を表示する(ステップS302)。
 図13は基準視野設定画面の一例を示す。この例の基準視野設定画面336は、PTZカメラ310の画像を表示する画像ウインドウ3361と、PTZカメラ310の視野制御を行うための視野操作部3362と、確定ボタン3363とを有する。視野操作部3362は、PTZカメラ310のPan(水平回転)を調整するための左回転キーkey1、右回転キーkey2、Tilt(垂直回転)を調整するための上回転キーkey3、下回転キーkey4、カメラレンズの倍率を調整するためのスライドキーkey5を有する。また視野操作部3362は、PTZカメラ310の現在の水平回転位置、垂直回転位置、カメラレンズの倍率をそれぞれ表示する欄3364~3366を有する。ステップS302で表示される基準視野設定画面336の画像ウインドウ3361には、ステップS301で取得されたPTZカメラ310の画像が表示されている。また、表示欄3364~3366には、ステップS301で取得されたPTZカメラ310の水平回転位置、垂直回転位置、カメラレンズの倍率が表示されている。
 次に基準視野設定部335Cは、視野操作部3362からの視野制御入力、確定ボタン操作入力を待ち合わせる(ステップS303、S304)。管理者が視野操作部3362の左回転キーkey1、右回転キーkey2、上回転キーkey3、下回転キーkey4、スライドキーkey5を操作すると、基準視野設定部335Cはそれらの操作量に応じて、PTZカメラ310のPan(水平回転)を制御する信号CP、Tilt(垂直回転)を制御する信号C、Zoom(連続変倍)を制御する信号Cを生成し、通信I/F部331を通じてPTZカメラ310へ送信する(ステップS305)。次に基準視野設定部335Cは、PTZカメラ310で撮像されている画像とその時点の視野制御情報とを通信I/F部331を通じて取得して、画面表示部333に表示されている基準視野設定画面336の画像ウインドウ3361、表示欄3364~3366を更新する(ステップS306)。そして、基準視野設定部335Cは、再び視野操作部3362からの視野制御入力、確定ボタン操作入力を待ち合わせる(ステップS303、S304)。
 他方、管理者が確定ボタン3363をオンする操作を行うと、基準視野設定部335Cはそれを検出する(ステップS304でYES)。次に基準視野設定部335Cは、基準視野設定画面336の表示欄3364~3366に表示されているPTZカメラ310の水平回転位置、垂直回転位置、カメラレンズの倍率を基準の視野制御情報334Bとして記憶部334に記憶する(ステップS307)。そして、図12に示した処理を終了する。
 このように本実施形態によれば、第2の実施形態と同様の効果が得られると共に、以下のような効果が得られる。
 本実施形態によれば、映像解析装置330の管理者は基準の視野制御情報334Bを効率よく設定することができる。その理由は、基準視野設定部335Cの機能を利用することにより、管理者はPTZカメラ310の画像を確認しながらその撮像視野を調整することができ、調整後の撮像視野に対応するPTZカメラ310の視野制御情報を自動的に取得して基準の視野制御情報334Bとして設定できるためである。
[第4の実施形態]
 図14を参照すると、本発明の第4の実施形態に係る移動体検出システム400は、監視カメラ410と画像解析部420とを有する。
 監視カメラ410は、外部信号430によって撮像視野を制御することができるカメラである。例えば、監視カメラ410は、Pan(水平回転)、Tilt(垂直回転)、Zoom(連続変倍)のうちの少なくとも1つを外部信号430によって制御できるカメラである。監視カメラ410で撮像されて得られた画像411は、図示しない信号線やネットワークを通じて画像解析部420へ送られる。
 外部信号430は、監視カメラ410の撮像視野を外部から制御するための信号である。本実施形態では、外部信号430は、オペレータによって操作される操作部431から図示しない信号線やネットワークを通じて監視カメラ410へ送信される。但し、外部信号430の送信元はオペレータの操作部431に限定されない。また、外部信号430の送信元は複数存在してもよい。
 画像解析部420は、監視カメラ410で撮像された画像411を解析して、画像上に現れる移動体を検出し、その検出結果421を出力する機能を有する。解析の対象とする画像411は、監視カメラ410の撮像視野が監視領域を含む所定の撮像視野である場合の画像である。画像解析による移動体の検出方法は任意である。例えば、画像解析部420は、監視カメラ410のフレーム画像の経時変化を検出し、画像に変化が生じたか否かにより移動体の存在の有無を検出してよい。具体的には、撮像画像のフレーム間差分を求め、得られた差分画像をもとに移動体の存在の有無を判定する。画像解析部420が出力する検出結果421は、移動体を検出したか否かを示す情報だけを有していてもよいし、それに加えて他の情報を有していてもよい。他の情報は、検出に使用した画像、検出した移動体の位置情報などであってよい。また検出結果421の出力先は任意である。例えば、図示しない表示装置に検出結果421を表示してよい。或いは図示しない他の装置に信号線やネットワークを介して検出結果421を送信するようにしてよい。
 本実施形態によれば、外部信号によって撮像視野を制御できる監視カメラ410を使用した移動体検出システム400において、監視領域以外の領域に存在する移動体を誤って検出することを防止できる。
 その理由は、画像解析部420が、監視カメラ410の撮像視野が監視領域を含む所定の撮像視野である場合に、監視カメラ410で撮像された画像を解析して画像上に現れる移動体を検出するためである。
[その他の実施形態]
 本発明は以上の実施形態に限定されず、その他各種の付加変更が可能である。例えば以下のような実施形態も本発明に含まれる。
 上記の各実施形態では、映像解析装置は監視カメラの画像を監視カメラから取得するようにしたが、何らかの装置やシステムを介して監視カメラの画像を取得するようにしてもよい。例えば、監視カメラから画像を受信して記憶するビデオ管理システムが存在する場合、映像解析装置はビデオ管理システムを通じて監視カメラの画像を取得するようにしてよい。
 また上記の各実施形態では、監視カメラは1台であったが、複数台の監視カメラを有するシステムに対して本発明は適用可能である。
 なお、本発明は、日本国にて2013年10月30日に特許出願された特願2013-225138の特許出願に基づく優先権主張の利益を享受するものであり、当該特許出願に記載された内容は、全て本明細書に含まれるものとする。
 本発明は、PTZカメラなどの視野制御可能な監視カメラを使用して侵入者などの移動体を検出するシステムに対して適用できる。
100…移動体検出システム
110…監視カメラ
111…画像
112…視野制御情報
120…制御部
130…画像解析部
131…検出結果
140…外部信号
141…操作部
150…コンピュータ

Claims (19)

  1.  監視領域内の移動体を検出する移動体検出システムであって、
     外部信号によって撮像視野を制御できる監視カメラと、
     前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野である場合に前記監視カメラで撮像された画像を解析して前記画像上に現れる移動体を検出する画像解析部と
    を有する移動体検出システム。
  2.  前記監視カメラの前記撮像視野が前記所定の撮像視野であるか否かを判定する制御部
    を有する
    請求項1に記載の移動体検出システム。
  3.  前記制御部は、前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野であって静止しているか否かを判定し、
     前記画像解析部は、前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野であって静止していると判定されている期間中の前記監視カメラで撮像された画像を解析して前記画像上に現れる移動体を検出する
    請求項2に記載の移動体検出システム。
  4.  前記制御部は、前記監視カメラから前記撮像視野の状態を表す視野制御情報を取得し、該取得した前記視野制御情報を基準の視野制御情報と比較することにより、前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野であるか否かを判定する
    請求項3に記載の移動体検出システム。
  5.  前記制御部は、前記監視カメラから前記撮像視野の状態を表す視野制御情報を定期的に取得し、該取得した前記視野制御情報を前回取得した前記視野制御情報と比較することにより、前記監視カメラの前記撮像視野が静止しているか否かを判定する
    請求項3または4に記載の移動体検出システム。
  6.  前記制御部は、前記監視カメラで撮像された画像を基準の画像と比較することにより、前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野であるか否かを判定する
    請求項3に記載の移動体検出システム。
  7.  ネットワークを通じて前記監視カメラに接続され、前記ネットワークを通じて前記監視カメラへ送信するための前記外部信号を入力する入力装置と、前記ネットワークを通じて前記監視カメラから受信した前記画像を表示する表示装置とを有するオペレータ端末を有する
    請求項1乃至6の何れかに記載の移動体検出システム。
  8.  外部信号によって撮像視野を制御できる監視カメラにネットワークを介して接続され、監視領域内の移動体を検出する映像解析装置であって、
     前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野である場合に前記監視カメラで撮像された画像を解析して前記画像上に現れる移動体を検出する画像解析部
    を有する映像解析装置。
  9.  前記監視カメラの前記撮像視野が前記所定の撮像視野であるか否かを判定する制御部
    を有する
    請求項8に記載の映像解析装置。
  10.  前記制御部は、前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野であって静止しているか否かを判定し、
     前記画像解析部は、前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野であって静止していると判定されている期間中の前記監視カメラで撮像された画像を解析して前記画像上に現れる移動体を検出する
    請求項9に記載の映像解析装置。
  11.  前記制御部は、前記監視カメラから前記撮像視野の状態を表す視野制御情報を取得し、該取得した前記視野制御情報を基準の視野制御情報と比較することにより、前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野であるか否かを判定する
    請求項10に記載の映像解析装置。
  12.  前記制御部は、前記監視カメラから前記撮像視野の状態を表す視野制御情報を定期的に取得し、該取得した前記視野制御情報を前回取得した前記視野制御情報と比較することにより、前記監視カメラの前記撮像視野が静止しているか否かを判定する
    請求項10または11に記載の映像解析装置。
  13.  前記制御部は、前記監視カメラで撮像された画像を基準の画像と比較することにより、前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野であるか否かを判定する
    請求項10に記載の映像解析装置。
  14.  通信インターフェイス部と、
     操作入力部と、
     画面表示部と、
     基準視野設定部とを有し、
     前記基準視野設定部は、前記操作入力部の操作に従って前記外部信号を生成して前記通信インターフェイス部を通じて前記監視カメラへ送信し、前記監視カメラで撮像された画像を前記通信インターフェイス部を通じて受信して前記画面表示部に表示し、前記操作入力部からの基準視野設定指示に従って前記監視カメラから前記撮像視野の状態を表す視野制御情報を取得し、該取得した前記視野制御情報を前記基準の視野制御情報として設定する
    請求項8に記載の映像解析装置。
  15.  外部信号によって撮像視野を制御できる監視カメラと、画像解析部とを有し、監視領域内の移動体を検出する移動体検出システムが実行する移動体検出方法であって、
     前記画像解析部が、前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野である場合に前記監視カメラで撮像された画像を解析して前記画像上に現れる移動体を検出する
    移動体検出方法。
  16.  前記移動体検出システムは、制御部を有し、
     前記制御部が、前記監視カメラの前記撮像視野が前記所定の撮像視野であるか否かを判定する
    請求項15に記載の移動体検出方法。
  17.  制御部と画像解析部とを有し、外部信号によって撮像視野を制御できる監視カメラにネットワークを介して接続され、監視領域内の移動体を検出する映像解析装置が実行する移動体検出方法であって、
     前記画像解析部が、前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野である場合に前記監視カメラで撮像された画像を解析して前記画像上に現れる移動体を検出する
    映像解析装置の移動体検出方法。
  18.  前記映像解析装置は、制御部を有し、
     前記制御部が、前記監視カメラの前記撮像視野が前記所定の撮像視野であるか否かを判定する
    請求項17に記載の映像解析装置の移動体検出方法。
  19.  外部信号によって撮像視野を制御できる監視カメラにネットワークを介して接続され、監視領域内の移動体を検出する映像解析装置を構成するコンピュータを、
     前記監視カメラの前記撮像視野が前記監視領域を含む所定の撮像視野である場合に前記監視カメラで撮像された画像を解析して前記画像上に現れる移動体を検出する画像解析部
    して機能させるためのプログラム。
PCT/JP2014/004246 2013-10-30 2014-08-20 移動体検出システム WO2015063986A1 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2013-225138 2013-10-30
JP2013225138 2013-10-30

Publications (1)

Publication Number Publication Date
WO2015063986A1 true WO2015063986A1 (ja) 2015-05-07

Family

ID=53003624

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/004246 WO2015063986A1 (ja) 2013-10-30 2014-08-20 移動体検出システム

Country Status (2)

Country Link
AR (1) AR097723A1 (ja)
WO (1) WO2015063986A1 (ja)

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253383A (ja) * 1999-02-26 2000-09-14 Toa Corp 監視システム
JP2004304556A (ja) * 2003-03-31 2004-10-28 Toshiba Corp 撮像装置、撮像システム及び撮像方法
JP2007149107A (ja) * 2006-12-14 2007-06-14 Hitachi Kokusai Electric Inc 物体検出装置
JP2011015244A (ja) * 2009-07-03 2011-01-20 Sanyo Electric Co Ltd ビデオカメラ

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000253383A (ja) * 1999-02-26 2000-09-14 Toa Corp 監視システム
JP2004304556A (ja) * 2003-03-31 2004-10-28 Toshiba Corp 撮像装置、撮像システム及び撮像方法
JP2007149107A (ja) * 2006-12-14 2007-06-14 Hitachi Kokusai Electric Inc 物体検出装置
JP2011015244A (ja) * 2009-07-03 2011-01-20 Sanyo Electric Co Ltd ビデオカメラ

Also Published As

Publication number Publication date
AR097723A1 (es) 2016-04-13

Similar Documents

Publication Publication Date Title
EP3293620B1 (en) Multi-screen control method and system for display screen based on eyeball tracing technology
KR102409204B1 (ko) 모듈화된 인공지능 모델 플랫폼 서비스 제공 방법, 장치 및 컴퓨터프로그램
US10157227B2 (en) Apparatus and method for generating a summary image by image processing
US10516855B2 (en) Monitoring system, monitoring method, and monitoring program
CN110007832B (zh) 信息终端装置、信息处理***以及存储有显示控制程序的计算机可读非暂时性的存储介质
US11210152B2 (en) Error solution information providing system, error solution information provider apparatus, and electronic apparatus
US20140324623A1 (en) Display apparatus for providing recommendation information and method thereof
RU2638762C2 (ru) Способ и устройство для отправки сообщения
US11172259B2 (en) Video surveillance method and system
EP3026922A1 (en) Video receiving device, appended information display method, and appended information display system
JP2015154465A (ja) 表示制御装置、表示制御方法及びプログラム
US11170520B2 (en) Image processing apparatus for analyzing an image to detect an object within the image
US20200045242A1 (en) Display control device, display control method, and program
US20190304275A1 (en) Control device and monitoring system
US11265475B2 (en) Image capturing apparatus, client apparatus, method for controlling image capturing apparatus, method for controlling client apparatus, and non-transitory computer-readable storage medium
US20120327226A1 (en) Method and systems for providing video data streams to multiple users
WO2015063986A1 (ja) 移動体検出システム
KR20220000493A (ko) 인공지능 모듈 플랫폼 서비스 제공 방법
US11341253B2 (en) Terminal apparatus and control method of terminal apparatus
US9307152B2 (en) Display control apparatus and camera system where dialogue box is displayed based on display mode
JP6241505B2 (ja) 管理サーバ、情報処理端末、制御方法、及びプログラム
KR101587877B1 (ko) 모니터링 시스템 및 방법, 이를 수행하기 위한 기록매체
CN111274590B (zh) 请求处理方法、装置、电子设备及存储介质
KR102150008B1 (ko) 이미지를 전송하기 위한 방법 및 그 전자 장치
US10708489B2 (en) Control device, monitoring system, monitoring camera control method, and storage medium

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14857887

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 14857887

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: JP