WO2020148890A1 - 情報処理装置 - Google Patents

情報処理装置 Download PDF

Info

Publication number
WO2020148890A1
WO2020148890A1 PCT/JP2019/001465 JP2019001465W WO2020148890A1 WO 2020148890 A1 WO2020148890 A1 WO 2020148890A1 JP 2019001465 W JP2019001465 W JP 2019001465W WO 2020148890 A1 WO2020148890 A1 WO 2020148890A1
Authority
WO
WIPO (PCT)
Prior art keywords
captured image
information processing
processing
processing mode
content
Prior art date
Application number
PCT/JP2019/001465
Other languages
English (en)
French (fr)
Inventor
宗明 小野里
哲 寺澤
祐司 篠崎
浩雄 池田
中川 淳子
Original Assignee
日本電気株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority to JP2020566072A priority Critical patent/JP7151790B2/ja
Priority to PCT/JP2019/001465 priority patent/WO2020148890A1/ja
Priority to US17/422,043 priority patent/US11893797B2/en
Application filed by 日本電気株式会社 filed Critical 日本電気株式会社
Priority to TW109100686A priority patent/TW202046710A/zh
Priority to ARP200100119A priority patent/AR117830A1/es
Publication of WO2020148890A1 publication Critical patent/WO2020148890A1/ja
Priority to JP2022154461A priority patent/JP2022191289A/ja
Priority to US18/225,499 priority patent/US20230401868A1/en
Priority to US18/235,758 priority patent/US20230394837A1/en
Priority to US18/235,759 priority patent/US20230394838A1/en
Priority to US18/236,005 priority patent/US20230394839A1/en
Priority to US18/236,785 priority patent/US20230394840A1/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/52Surveillance or monitoring of activities, e.g. for recognising suspicious objects
    • G06V20/53Recognition of crowd images, e.g. recognition of crowd congestion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/292Multi-camera tracking
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/172Classification, e.g. identification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30242Counting objects in image

Definitions

  • the present invention relates to an information processing device, an information processing method, and a program that control processing related to a captured image of a target location.
  • surveillance cameras are installed to detect the behavior of people and the people themselves. Then, processing such as detecting a moving state of a crowd of many persons or detecting a person registered in advance by face authentication is performed from a captured image captured by a surveillance camera.
  • Patent Document 1 describes detecting an object or extracting a feature amount from an input image captured by a camera.
  • Patent Document 1 describes that a detection method or an extraction method for an input image for each time is evaluated and selected.
  • Patent Document 1 In the technique of Patent Document 1 described above, only the process for the input image is switched every time. Therefore, the input image cannot be processed efficiently and appropriately. As a result, there arises a problem that it is not possible to efficiently use the photographing device installed for photographing the input image.
  • an object of the present invention is to solve the problem described above, that is, it is not possible to efficiently use the photographing apparatus.
  • An information processing apparatus which is one mode of the present invention, Detection means for detecting the content of the captured image, Determination means for determining the processing mode related to the captured image based on the detection result of the content of the captured image, Executing means for executing processing relating to the captured image corresponding to the processing mode; With Take the configuration.
  • Detection means for detecting the content of the captured image
  • Determination means for determining the processing mode related to the captured image based on the detection result of the content of the captured image
  • Executing means for executing processing relating to the captured image corresponding to the processing mode; To realize Take the configuration.
  • the information processing method which is an aspect of the present invention, Detect the content of the captured image, Judge the processing mode related to the captured image based on the detection result of the content of the captured image, Performing processing related to the captured image corresponding to the processing mode, Take the configuration.
  • the present invention which is configured as described above, enables efficient use of the photographing device.
  • FIG. 3A It is a figure which shows the mode of the control processing by the monitoring apparatus disclosed by FIG. It is a figure which shows the mode of the control processing by the monitoring apparatus disclosed by FIG. It is a figure which shows the mode of the control processing by the monitoring apparatus disclosed by FIG. It is a figure which shows the mode of the control processing by the monitoring apparatus disclosed by FIG. It is a figure which shows the mode of the control processing by the monitoring apparatus disclosed by FIG. It is a figure which shows the mode of the control processing by the monitoring apparatus disclosed by FIG. It is a figure which shows the mode of the control processing by the monitoring apparatus disclosed by FIG.
  • FIG. 3 is a flowchart showing a processing operation by the monitoring device disclosed in FIG. 1. It is a figure which shows the mode at the time of monitoring of the picked-up image by the monitoring apparatus disclosed by FIG. It is a figure which shows the mode at the time of monitoring of the picked-up image by the monitoring apparatus disclosed by FIG. It is a block diagram which shows the structure of the information processing apparatus in Embodiment 2 of this invention.
  • FIGS. 1 to 10 are diagrams for explaining the configuration of the information processing system
  • FIGS. 8 to 10 are diagrams for explaining the processing operation of the information processing system.
  • the information processing system according to the present invention is a system for controlling the processing of a captured image and a camera C, which is an imaging device installed in a target location such as indoors or outdoors.
  • a camera C which is an imaging device installed in a target location such as indoors or outdoors.
  • an information processing system equipped with a plurality of cameras C installed in a stadium S that is an object place such as a sport or a concert will be described as an example.
  • the information processing system according to the present invention may be used in any place.
  • the camera C that constitutes the information processing system includes an internal camera that captures an event execution place such as the ground inside the stadium S that is a target place, an audience seat, and an outside of the stadium S that is an entrance/exit gate. It is composed of an external camera that takes a picture of the vicinity and the surroundings of the stadium. Note that FIG. 2 exemplifies the camera C that photographs the vicinity of the entrance/exit gate G.
  • the installation place of the camera C is not limited to the above-mentioned place.
  • the information processing system includes a monitoring device 10 connected to the camera C, an output device 20 and an information providing device 30 connected to the monitoring device 10, Is configured.
  • the monitoring device 10 executes analysis processing for a captured image captured by the camera C and control processing for the camera C.
  • the output device 20 outputs the captured image itself and also outputs the processing result performed by the monitoring device 10.
  • the information providing device 30 provides various information such as the progress status of an event being held at the stadium S and weather information near the stadium S.
  • each configuration will be described in detail.
  • the monitoring device 10 is composed of one or a plurality of information processing devices including a computing device and a storage device. Then, as shown in FIG. 3A, the monitoring device 10 includes a video detection unit 11, an information acquisition unit 12, a processing mode determination unit 13, and a control unit 14, which are constructed by the arithmetic device executing a program. The monitoring device 10 also includes a determination reference storage unit 15 formed in the storage device.
  • the video detection unit 11 accepts captured images captured by the camera C at regular time intervals. For example, as shown in FIG. 2, a captured image captured by the camera C is received from the camera C installed near the entrance/exit gate G. Then, the video detection unit 11 detects the content in the captured image, particularly the situation of the person P in the captured image in the present embodiment, from the shape, color, movement, etc. of the object shown in the captured image (step of FIG. 8). S1). As an example, the video detection unit 11 detects the number of persons P, the density, and the moving direction of the person P detected from the captured image. Then, the video detection unit 11 notifies the processing mode determination unit 13 of the detected situation of the person P.
  • the information acquisition unit 12 receives various kinds of information such as the progress status of events (events) performed at the stadium S and the weather information near the stadium S from the information providing device 30 connected to the monitoring device 10 via the network. It is acquired (step S2 in FIG. 8). Specifically, the information acquisition unit 12 acquires information on the progress status of the game (match) being played in the stadium S, such as before the game starts, during the game, after the game ends, and at the present time near the stadium S. As weather information of, weather information such as fine weather, rain, and temperature is acquired. Then, the information acquisition unit 12 notifies the processing mode determination unit 13 of the acquired information.
  • the information acquisition unit 12 notifies the processing mode determination unit 13 of the acquired information.
  • the video detection unit 11 detects the number of persons P on the ground, the presence/absence of a referee, movement, etc. based on the captured image captured by the camera C in the stadium S, and based on the detected content, the game. It is detected whether the progress status of is before the game starts, during the game, or after the game ends.
  • the video detection unit 11 detects whether or not the person P who is a spectator in the captured image is holding an umbrella, the image is disturbed due to rain, and the like, and the weather information such as weather is obtained from the detected content. To detect.
  • the video detection unit 11 may detect various information of the stadium S such as the progress status and the weather information described above by any method from the video image.
  • the processing mode determination unit 13 (determination unit) relates to the captured image based on the detection result of the content of the captured image notified from the video detection unit 11 and the information notified from the information acquisition unit 12.
  • the processing mode to be executed is determined (step S3 in FIG. 8). It should be noted that the determination standard that defines what processing mode to determine based on the detection result of the content of the captured image and the information received from the information acquisition unit 12 is stored in the determination standard storage unit 15 of the monitoring device 10. Has been done. For this reason, the processing mode determination unit 13 determines the processing mode using the determination criteria.
  • the processing modes executed in relation to the shooting mode include analysis processing for the shot image and control processing for the camera C for shooting the shot image.
  • the analysis processing for the captured image includes crowd detection processing, action detection processing, and face authentication processing for persons in the captured image.
  • the control processing for the camera C includes control processing for operating/stopping the camera, zooming, switching the angle of view, moving, and the like.
  • the above-described determination criteria are stored in association with the processing mode, as shown in FIG. 3B, for example.
  • the determination criteria for the captured image and the acquired information, the area (camera) that is the target of the determination processing mode, and the determination processing mode (analysis processing and control processing) are associated with each other. ..
  • the processing mode determination unit 13 receives, from the camera C near the entrance/exit gate G, information representing the number and density of the persons P in the captured image as the content of the captured image, the processing mode determination unit 13 can determine the number of people and the density as a crowd. Check to see if it exceeds. Then, as shown in FIG. 4, when the number of people or the density exceeds the threshold value, the processing mode for the captured image captured by the camera C near the entrance/exit gate G is determined as the analysis processing of the “crowd detection processing”. (Yes in step S4 of FIG.
  • the crowd detection process is a process of detecting whether a crowd is generated by persons in a captured image captured by the camera C, a moving direction/moving speed of the crowd, or the like, and an analysis engine connected to the monitoring device 10. Performed by E. Further, when the number of people or the density exceeds the threshold and it is determined to be the analysis processing of the crowd detection processing, the processing mode determination unit 13 also performs the zoom control processing for the camera C near the entrance/exit gate G. The determination is made (Yes in step S6 of FIG. 8, step S7). That is, in this case, it is determined that the zoom-down control is performed so that the pull image can be captured so that the crowd detection process can be easily performed on the captured image.
  • the processing mode determination unit 13 determines, as shown in FIG. 5, when the number or density of persons P in the captured image received from the camera C near the entrance/exit gate G is equal to or less than a threshold value.
  • the processing mode for the camera C is determined to be the “face recognition processing” analysis processing.
  • the face authentication process is an authentication process for extracting a feature amount from a face image of a person in a captured image and checking whether or not it matches a face image registered in advance, and an analysis engine connected to the monitoring device 10. Performed by E.
  • the processing mode determination unit 13 determines that the zoom control processing for the camera C near the entrance/exit gate G is also performed. To do. That is, in this case, it is determined that the zoom-up control is performed so that a side-by-side image can be captured so that a face image of a person can be easily obtained from the captured image.
  • the processing mode determination unit 13 receives the information indicating the progress status of the event of the stadium S from the information acquisition unit 12, the processing mode determination unit 13 checks the content of the progress status. Then, the processing mode is determined according to the progress of the event. For example, when the progress is “before the game starts”, the processing mode for the captured image captured by the camera C near the entrance/exit gate G is determined to be “face authentication processing”, and the processing mode for the camera C is also determined. Is determined as “zoom-up control”.
  • the processing mode for the captured image captured by the camera C near the entrance/exit gate G is determined to be “action detection processing”, and the processing mode for the camera C is also determined. Determined as “zoom down control”. If the progress is “after the game”, the processing mode for the image captured by the camera C near the entrance/exit gate G is determined to be “crowd detection processing”, and the processing mode for the camera C is also determined. Is determined as "zoom down control”.
  • action detection process is an analysis process for detecting a person who is taking a specific action such as a suspicious action or a staggering action from the flow line or action of the person P in the captured image, and the monitoring device 10 Executed by the analysis engine E connected to the.
  • processing mode determination unit 13 determines the processing mode based on both the content of the captured image and the information of the target location.
  • “progress status: before game start” and “camera 1 captured image: number of people/density ⁇ threshold” are set as determination criteria, and processing modes for this are “face authentication processing” and “zoom up”. Is set. Then, when the progress is before the game starts and the number and density of the persons P in the captured image captured by the camera C near the entrance/exit gate G are equal to or less than the threshold value, the captured image captured by the camera C is compared.
  • the processing mode is determined to be the analysis processing of the “face authentication processing”, and the processing mode for the camera C is determined to be the “zoom-up control”.
  • the camera C The processing mode for the captured image captured from is determined to be the analysis processing of the “crowd detection processing”, and the processing mode for the camera C is determined to be the “zoom down control”.
  • the processing mode determination unit 13 checks from the progress status of the event at the stadium S whether or not an event is being performed at the stadium S. For example, the processing mode determination unit 13 collects information about the progress status of the event such as the time schedule, the elapsed time from the start of the event, the movement of the spectator analyzed from the captured image (leaving or sitting), and the event has not been performed. Or check the end and other progress (opening, breaks, etc.). When the processing mode determination unit 13 detects that no event has occurred, the processing mode determination unit 13 determines the processing mode for controlling the operation/stop of the camera C itself or the analysis engine.
  • the processing mode for the camera C near the entrance/exit gate G is determined to be “stop”, and the shooting itself is stopped. Further, as indicated by crosses in FIG. 6, the processing mode for some of the cameras C photographing the inside of the stadium S is determined to be “stop”, and the processing mode for the remaining cameras C is determined to be “action detection processing”. Also, the processing mode for the camera C is determined to be “zoom down control”. This makes it possible to detect an illegal intruder in the stadium S while suppressing the number of operating cameras.
  • the processing mode determination unit 13 receives the weather information near the stadium S from the information acquisition unit 12, the processing mode determination unit 13 checks the contents of the weather. Then, the processing mode determination unit 13 determines the processing mode according to the weather condition. For example, when the weather around the stadium S is “clear”, the processing mode for the image captured by the camera C in the stadium S is determined to be “action detection processing”, and the processing mode for the camera C is also determined. Determined as "zoom down control". On the other hand, as an example in which another criterion is applied, when the weather around the stadium S is “rainy”, as shown in FIG.
  • the processing mode for the captured image captured by the camera C in the stadium S is determined to be “action detection processing”.
  • the processing mode for the camera C is determined to be “zoom-up control”.
  • the processing mode determination unit 13 is notified by the video detection unit 11.
  • the processing mode may be determined based on the progress of the event or weather information.
  • the processing mode determination unit 13 determines that one analysis process is performed on a captured image in one area (camera), but the captured image in one area (camera) is determined. It may be determined to perform a plurality of analysis processes. That is, No. 1 in FIG. As shown in FIG. 8, the area 1 (camera 1) is associated with a plurality of analysis processes “face authentication process” and “crowd detection process” with respect to the determination criterion “number of people/density ⁇ threshold value 2”. Good. In this case, both the “face authentication processing” and the “crowd detection processing” analysis processing are performed on the captured image of area 1 (camera 1). It should be noted that in FIG. As shown in FIG.
  • the processing mode determination unit 13 prioritizes the “face authentication process” over the “crowd detection process”. To be executed.
  • the “face recognition process” is processed in the previous order by the analysis engine E, or a large amount of resources such as the CPU of the analysis engine E are allocated to the “face detection process” in contrast to the “crowd detection process”. If the number is small, only the “face recognition process” may be executed.
  • the “face recognition process” may be used with a large number of frames of a captured image or may be processed with high image quality as opposed to the “crowd detection process”. In this way, the processing mode determination unit 13 may determine the processing level of the processing mode.
  • the processing mode determination unit 13 determines the processing mode for each area (camera) in the above, the processing mode determination unit 13 determines the processing mode for each area, that is, for each divided area obtained by dividing the image captured by the camera C into a plurality of areas. May be. For example, since the left half area of the captured image satisfies the determination criterion “number of people/density ⁇ threshold”, the processing mode is determined to be “face authentication processing”, and the right half area of the captured image is determined by the determination criterion “ Since the number of people/density>threshold value is satisfied, the processing mode may be determined as “crowd detection processing”.
  • the left half area of the captured image is determined to have the processing mode as “face recognition processing”, and the right half area of the captured image may not be determined in any processing mode.
  • the processing mode for the camera C may be determined to be "zoom-up control" corresponding to the "face authentication processing” in the left half area. Furthermore, if a person appears in the left half area of the captured image for which the processing mode is determined to be "face authentication processing", the area for which the "face authentication processing” and processing mode is determined according to the movement of the person. You may move and set. In this way, the processing mode may be determined by checking whether or not the determination criterion is satisfied for each area of the captured image.
  • the processing mode determination unit 13 detects the “number or density” of the persons shown in the captured image as the content of the captured image and determines the processing mode.
  • the processing mode may be determined by detecting the content of such a captured image.
  • the processing mode may be determined by detecting the moving direction of the person shown in the captured image and performing face authentication processing when the person is facing the camera and full-body authentication processing when the person is moving away.
  • the whole body authentication process is, for example, a person authentication process using a whole body image including clothes, hairstyle, silhouette, personal belongings, etc. of the person.
  • the processing mode is determined to be face authentication processing if the size of the face exceeds a predetermined value and whole body authentication processing if the size of the face is less than the predetermined value.
  • the control process is to zoom up the camera.
  • the content of the captured image used when the processing mode determination unit 13 determines the processing mode is not limited to the content described above.
  • the processing mode determination unit 13 performs processing depending on whether one type of information among the content of the captured image, the event progress status, and the weather information satisfies the determination criterion.
  • the processing mode associated with the determination criterion may be determined when a plurality of types of information satisfy the determination criterion. That is, when the content of the captured image, the event progress status, and one type of information of the weather information, or two or three types of information of these, satisfy the determination criteria, they are associated with the determination criteria.
  • the determined processing mode may be determined.
  • the processing mode associated with such a criterion may be determined. Furthermore, at this time, the processing mode may be determined by whether or not a plurality of pieces of information in one type satisfy the determination criteria. For example, when the number of persons/density and the moving direction of the person satisfy the determination standard in the content of the captured image, the processing mode associated with the determination standard may be determined. In the example of FIG. 3B described above, the processing modes to be determined include only “analysis processing” and “analysis processing” and “camera control processing”, but only “camera control processing”. May be determined.
  • the control unit 14 (notifying means, executing means) first notifies the outside by outputting the processing mode determined as described above from the output device 20. Further, the control unit 14 executes a process related to the captured image corresponding to the determined processing mode (step S8 in FIG. 8). That is, according to the determined processing mode, control of operating/stopping the camera C and control of zooming are performed, and various analysis processes for a captured image are executed by each analysis engine E. Further, the control unit 14 outputs the processing result of the executed analysis processing from the output device 20. As a result, the observer of the stadium S can recognize the processing mode to be executed and also the processing result.
  • FIGS. 9 to 10 an example of when the control unit 14 described above outputs the state of the analysis process for the captured image from the output device 20 is shown in FIGS. 9 to 10.
  • FIG. 9 shows a state in which the “face authentication processing” is being performed on the captured image captured by the camera C of the “gate camera 1”.
  • the entire captured image may be output to the entire image display area 21, but in this example, the reduced captured image 21a is displayed in the upper right corner, and a part 22b of the captured image 21a is displayed.
  • the image display area 21 is enlarged and displayed.
  • the enlarged image 22b is a display showing the processing result of the face authentication processing performed on the captured image 21a, and particularly, the person registered in advance by the face authentication (for example, the person registered as a caution person). It is the image which expanded the area where the matching person exists.
  • the enlarged image 21a is displayed by emphasizing the face portion of the person who matches the registered person by the face authentication processing. For example, a person who matches the registered person is displayed in black, and the face portion of the person is surrounded by a rectangular frame and displayed. It should be noted that if face recognition processing is performed and there is no person matching the registered person, the entire captured image is displayed in the image display area 21, as shown in FIG.
  • the processing mode determination unit 13 determines a new processing mode while the face authentication processing is performed on the captured image as described above. That is, the processing mode determination unit 13 determines another processing mode associated with another determination criterion when the content of the captured image, the event progress status, and the weather information satisfy the other determination criterion. Then, the control unit 14 outputs the newly determined another processing mode to the preliminary analysis processing name display area 24, and switches to the new processing mode after a certain period of time. For example, in the example of FIG. 10, since the number of persons in the captured image has increased and the number of persons/density has exceeded the threshold value, the analysis processing of the processing modes is determined to be “crowd detection processing”, and such a display is notified beforehand. This is done in the name display area 24.
  • the control unit 14 does not switch the analysis process for the captured image to the “crowd detection process” but continuously executes the “face authentication process”. After the display of the "crowd detection process" in the notice analysis process name display area 24, if the stop button 25 is not pressed and a predetermined time elapses, the control unit 14 performs the analysis process on the captured image as the "crowd detection process”. ”.
  • the control unit 14 switches to the selected analysis process.
  • a desired processing mode analysis processing
  • the control unit 14 displays the captured image at that time. Get information on the contents, event progress, and weather conditions. Then, it learns to associate the acquired information with the analysis processing that is the processing mode before switching or the selected analysis processing. That is, the contents of the captured image, the event progress status, and the weather condition information are used as the judgment criteria, and the analysis processing before the switching and the selected analysis processing are associated with the judgment criteria to generate new judgment criterion information. May be.
  • the captured image itself captured by one camera C and the analysis processing result for the captured image are displayed large in the image display area 21, but a plurality of captured images captured by a plurality of cameras C are displayed.
  • the captured image itself and the analysis processing result may be displayed in the image display area 21.
  • the information processing system of the present invention it is possible to control the shooting situation of the camera C installed in the target location such as the stadium S and the analysis processing for the shot image according to the situation of the target location. Therefore, the observer can recognize the processing mode and the processing result to be executed according to the situation, and can take prompt action according to the processing result. As a result, it is possible to efficiently use the camera C installed at the target location.
  • the processing mode may be determined based on the result. For example, when an action of a person leaving an object in a captured image is detected or an animal is detected, a control process such as zooming up of the camera C and an analysis process such as an object detection process are performed as processing modes. You may judge. Further, in the above, the processing mode regarding the captured image is determined based on the weather information of the target location or the progress status of the event, but the processing mode may be determined based on any information of the target location. Further, in the above, as the processing mode to be determined, the content of the analysis processing for the captured image and the content of the control processing for the imaging device are determined, but other processing modes may be determined as long as they are processing related to the captured image. Good.
  • FIG. 9 is a block diagram showing the configuration of the information processing apparatus according to the second embodiment. Note that the present embodiment shows an outline of the configuration of the monitoring device described in the first embodiment.
  • the information processing apparatus 100 is A detection unit 110 for detecting the content of the captured image, A determination unit 120 that determines a processing mode related to the captured image based on the detection result of the content of the captured image; Execution means 130 for executing processing related to the captured image corresponding to the processing mode; Equipped with.
  • the detecting unit 110, the determining unit 120, and the executing unit 130 described above may be constructed by an arithmetic unit included in the information processing apparatus 100 executing a program, and are constructed by electronic circuits. It may be one.
  • the information processing apparatus 100 having the above configuration is Detect the content of the captured image, Determine the processing mode related to the captured image based on the detection result of the content of the captured image, Executes the processing related to the captured image corresponding to the processing mode, It operates so as to execute the process.
  • the processing mode related to the captured image is determined according to the content of the captured image by the imaging device installed at the target location, and the processing related to the captured image corresponding to the processing mode is executed. There is. For this reason, it is possible to execute processing related to the captured image according to the situation of the target location, and it is possible to efficiently use the image capturing apparatus installed at the target location.
  • Detection means for detecting the content of the captured image, Determination means for determining the processing mode related to the captured image based on the detection result of the content of the captured image, Executing means for executing processing relating to the captured image corresponding to the processing mode; Information processing device equipped with.
  • Appendix 2 The information processing apparatus according to appendix 1, The detection means detects a situation of a person in the captured image, The determination means determines the processing mode based on a situation of a person in the captured image, Information processing device.
  • the information processing apparatus according to appendix 1 or 2
  • the determination means determines an analysis processing mode representing the content of analysis processing for the captured image as the processing mode based on the detection result of the content of the captured image.
  • the execution means executes an analysis process corresponding to the analysis process mode on the captured image, Information processing device.
  • the information processing apparatus according to attachment 3,
  • the detection means detects the number or density of persons in the captured image,
  • the determination means determines the analysis processing mode based on a detection result of the number or density of persons in the captured image, Information processing device.
  • the information processing apparatus according to attachment 3 or 4,
  • the detection means detects the action of a person in the captured image
  • the determination means determines the analysis processing mode based on a detection result of a person's action in the captured image, Information processing device.
  • the determination means determines, as the processing mode, an analysis processing mode indicating the content of analysis processing for the captured image based on the detection result of the content of the captured image, and the captured image corresponding to the analysis processing mode. Determine the control process for the imaging device for shooting Information processing device.
  • the information processing apparatus determines, as the processing mode, any one of crowd detection processing, action detection processing, or face authentication processing for a person in the captured image, Information processing device.
  • the information processing apparatus according to any one of appendices 1 to 7, The determination means determines, as the processing mode, a control process for an image capturing apparatus for capturing the captured image, Information processing device.
  • the information processing apparatus according to any one of appendices 1 to 8, The determination unit determines the processing mode based on a detection result of the content of the captured image and information output in association with a place where the captured image is captured. Information processing device.
  • the information processing apparatus determines the processing mode based on information indicating a progress status of an event being performed at a place where the captured image is captured. Information processing device.
  • the information processing apparatus according to attachment 9 or 10, The determination means determines the processing mode based on weather information of a place where the captured image is captured, Information processing device.
  • Appendix 12 The information processing apparatus according to any one of appendices 1 to 11, A notification means for notifying the processing mode to the outside, Information processing device.
  • Detection means for detecting the content of the captured image
  • Determination means for determining the processing mode related to the captured image based on the detection result of the content of the captured image
  • Executing means for executing processing relating to the captured image corresponding to the processing mode
  • Appendix 16 The information processing method according to appendix 14 or 15, Based on the detection result of the content of the captured image, the analysis processing mode representing the content of the analysis processing for the captured image is determined as the processing mode, Performing an analysis process corresponding to the analysis process mode on the captured image, Information processing method.
  • Appendix 17 The information processing method according to any one of appendices 14 to 16, As the processing mode, a control process for a photographing device for photographing the photographed image is determined. Information processing method.
  • Appendix 18 The information processing method according to any one of appendices 14 to 17, Determining the processing mode based on a detection result of the content of the captured image and information output in association with a location where the captured image is captured. Information processing method.
  • Non-transitory computer-readable media include tangible storage media of various types. Examples of non-transitory computer-readable media are magnetic recording media (eg flexible disks, magnetic tapes, hard disk drives), magneto-optical recording media (eg magneto-optical disks), CD-ROMs (Read Only Memory), CD-Rs, It includes a CD-R/W and a semiconductor memory (for example, mask ROM, PROM (Programmable ROM), EPROM (Erasable PROM), flash ROM, RAM (Random Access Memory)).
  • the program may be supplied to the computer by various types of transitory computer readable media. Examples of transitory computer-readable media include electrical signals, optical signals, and electromagnetic waves.
  • the transitory computer-readable medium can supply the program to the computer via a wired communication path such as an electric wire and an optical fiber, or a wireless communication path.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Signal Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • User Interface Of Digital Computer (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

本発明の情報処理装置100は、撮影画像の内容を検出する検出手段110と、撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定する判定手段120と、処理モードに対応した撮影画像に関連する処理を実行する実行手段130と、を備える。

Description

情報処理装置
 本発明は、対象場所の撮影画像に関連する処理を制御する情報処理装置、情報処理方法、プログラムに関する。
 空港や駅、店舗、イベント会場など、不特定多数の人物が集まる場所には、人物の行動や人物自体を検出するための監視カメラが設置されている。そして、監視カメラにて撮影された撮影画像から、多数の人物からなる群衆の移動状況を検知したり、顔認証により予め登録された人物を検出するなどの処理を行っている。
 一例として、特許文献1には、カメラで撮影された入力画像から対象物を検出したり特徴量を抽出することが記載されている。特に、特許文献1には、時間毎の入力画像に対する検出方式や抽出方式を評価して選択する、ことが記載されている。
国際公開第2014/155639号公報
 しかしながら、上述した特許文献1の技術では、時間毎に入力画像に対する処理を切り換えることしか行っていない。このため、入力画像に対して効率よく、かつ、適切に処理を行うことができない。その結果、入力画像を撮影するために設置した撮影装置の効率的な利用を図ることができない、という問題が生じる。
 このため、本発明の目的は、上述した課題である、撮影装置の効率的な利用を図ることができない、という問題を解決することにある。
 本発明の一形態である情報処理装置は、
 撮影画像の内容を検出する検出手段と、
 前記撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定する判定手段と、
 前記処理モードに対応した前記撮影画像に関連する処理を実行する実行手段と、
を備えた、
という構成をとる。
 また、本発明の一形態であるプログラムは、
 情報処理装置に、
 撮影画像の内容を検出する検出手段と、
 前記撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定する判定手段と、
 前記処理モードに対応した前記撮影画像に関連する処理を実行する実行手段と、
を実現させる、
という構成をとる。
 また、本発明の一形態である情報処理方法は、
 撮影画像の内容を検出し、
 前記撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定し、
 前記処理モードに対応した前記撮影画像に関連する処理を実行する、
という構成をとる。
 本発明は、以上のように構成されることにより、撮影装置の効率的な利用を図ることができる。
本発明の実施形態1における情報処理システムの全体構成を示す図である。 本発明の実施形態1における情報処理システムの全体構成を示す図である。 図1に開示した監視装置の構成を示すブロック図である。 図3Aに開示した監視装置の判定基準記憶部に記憶される情報の一例を示す図である。 図1に開示した監視装置による制御処理の様子を示す図である。 図1に開示した監視装置による制御処理の様子を示す図である。 図1に開示した監視装置による制御処理の様子を示す図である。 図1に開示した監視装置による制御処理の様子を示す図である。 図1に開示した監視装置による処理動作を示すフローチャートである。 図1に開示した監視装置による撮影画像の監視時の様子を示す図である。 図1に開示した監視装置による撮影画像の監視時の様子を示す図である。 本発明の実施形態2における情報処理装置の構成を示すブロック図である。
 <実施形態1>
 本発明の第1の実施形態を、図1乃至図10を参照して説明する。図1乃至7は、情報処理システムの構成を説明するための図であり、図8乃至図10は、情報処理システムの処理動作を説明するための図である。
 [構成]
 本発明における情報処理システムは、屋内や屋外などの対象場所に設置された撮影装置であるカメラC及び撮影画像の処理を制御するためのシステムである。本実施形態では、対象場所であるスポーツやコンサートなどのイベントを行うスタジアムSに設置された複数のカメラCを備えた情報処理システムを一例に挙げて説明する。但し、本発明における情報処理システムは、いかなる場所で利用されてもよい。
 図1に示すように、情報処理システムを構成するカメラCは、対象場所となるスタジアムSの内部つまりグラウンドなどのイベント実行場所や観客席を撮影する内部カメラと、スタジアムSの外部つまり入退場ゲート付近やスタジアムの周囲を撮影する外部カメラと、により構成されている。なお、図2では、入退場ゲートG付近を撮影するカメラCを例示している。但し、カメラCの設置場所は、上述した場所であることに限定されない。
 そして、本実施形態における情報処理システムは、図1及び図2に示すように、カメラCに接続された監視装置10と、当該監視装置10に接続された出力装置20及び情報提供装置30と、を備えて構成されている。上記監視装置10は、カメラCにて撮影された撮影画像に対する解析処理や、カメラCの制御処理を実行するものである。上記出力装置20は、撮影画像自体を出力すると共に、監視装置10にて行われた処理結果を出力するものである。上記情報提供装置30は、スタジアムSで行われているイベントの進行状況やスタジアムS付近の気象情報などの各種情報を提供するものである。以下、各構成について詳述する。
 上記監視装置10は、演算装置と記憶装置とを備えた1台又は複数台の情報処理装置にて構成される。そして、監視装置10は、図3Aに示すように、演算装置がプログラムを実行することで構築された、映像検出部11、情報取得部12、処理モード判定部13、制御部14を備える。また、監視装置10は、記憶装置に形成された判定基準記憶部15を備える。
 上記映像検出部11(検出手段)は、まず、カメラCにて撮影された撮影画像を一定の時間間隔で受け付ける。例えば、図2に示すように、入退場ゲートG付近に設置されたカメラCから、当該カメラCで撮影した撮影画像を受け付ける。そして、映像検出部11は、撮影画像内に映る物体の形状や色、動きなどから、撮影画像内の内容、特に本実施形態では撮影画像内の人物Pの状況を検出する(図8のステップS1)。一例として、映像検出部11は、撮影画像から検出した人物Pの人数や密度、移動方向を検出する。そして、映像検出部11は、検出した人物Pの状況を、処理モード判定部13に通知する。
 上記情報取得部12は、監視装置10にネットワークを介して接続された情報提供装置30から、スタジアムSで行われているイベント(事象)の進行状況やスタジアムS付近の気象情報などの各種情報を取得する(図8のステップS2)。具体的に、情報取得部12は、スタジアムSで行われているゲーム(試合)の進行状況として、ゲーム開始前、ゲーム中、ゲーム終了後、などの情報を取得したり、スタジアムS付近の現在の気象情報として、晴れ、雨、気温などの気象情報を取得する。そして、情報取得部12は、取得した情報を処理モード判定部13に通知する。
 なお、上述したゲームの進行状況や気象情報などは、映像検出部11がカメラCにて撮影した撮影画像の内容に基づいて検出し、当該映像検出部11が処理モード判定部13に通知してもよい。例えば、映像検出部11は、スタジアムS内のカメラCから撮影された撮影画像に基づいて、グラウンド内の人物Pの人数や審判員の有無、動きなどを検出し、この検出した内容から、ゲームの進行状況がゲーム開始前、ゲーム中、ゲーム終了後、であるかを検出する。また、映像検出部11は、撮影画像内の観客である人物Pが傘を差しているかということや、雨による画像の乱れ、などを検出して、この検出した内容から天気などの気象情報を検出する。なお、映像検出部11は、映像画像からいかなる方法で、上述した進行状況や気象情報などのスタジアムSの各種情報を検出してもよい。
 上記処理モード判定部13(判定手段)は、映像検出部11から通知された撮影画像の内容の検出結果と、情報取得部12から通知された情報と、に基づいて、撮影画像に関連して実行する処理モードを判定する(図8のステップS3)。なお、撮影画像の内容の検出結果と情報取得部12から受け取った情報とに基づいて、どのような処理モードと判定するかを定めた判定基準が、監視装置10の判定基準記憶部15に記憶されている。このため、処理モード判定部13は、かかる判定基準を用いて処理モードを判定する。
 ここで、撮影モードに関連して実行する処理モードには、撮影画像に対する解析処理と、撮影画像を撮影するためのカメラCに対する制御処理と、がある。さらに、具体的に、撮影画像に対する解析処理には、撮影画像内の人物に対する群衆検知処理、行動検知処理、顔認証処理がある。また、カメラCに対する制御処理には、カメラの稼働/停止、ズーム、画角切換、移動、などの制御処理がある。
 なお、上述した判定基準は、例えば図3Bに示すように、処理モードと対応付けられて記憶されている。図3Bの例では、撮影画像や取得した情報に対する判定基準と、判定する処理モードの対象となるエリア(カメラ)と、判定する処理モード(解析処理及び制御処理)と、が対応付けられている。
 ここで、処理モード判定部13による判定処理の具体例を説明する。この例では、図3Bに示すNo.1の判定基準が適用される場合を説明する。処理モード判定部13は、入退場ゲートG付近のカメラCから、撮影画像の内容として撮影画像内の人物Pの人数や密度を表す情報を受け取った場合に、人数や密度が群衆と判断できる閾値を超えているか否かを調べる。そして、図4に示すように、人数や密度が閾値を超えていた場合には、入退場ゲートG付近のカメラCから撮影した撮影画像に対する処理モードを「群衆検知処理」の解析処理と判定する(図8のステップS4でYes,ステップS5)。なお、群衆検知処理は、カメラCにて撮影した撮影画像内の人物によって群衆が生じているか、群衆の移動方向・移動速度、などを検出する処理であり、監視装置10に接続された解析エンジンEによって実行される。また、処理モード判定部13は、人数や密度が閾値を超えていて群衆検知処理の解析処理と判定される場合には、併せて入退場ゲートG付近のカメラCに対するズームの制御処理を行うと判定する(図8のステップS6でYes,ステップS7)。つまり、この場合は、撮影画像に対して群衆検知処理を行いやすいように、引きの画像を撮影できるようズームダウン制御を行うと判定する。
 また、一例として、図3Bに示すNo.2の判定基準が適用される場合を説明する。処理モード判定部13は、上記とは逆に、図5に示すように、入退場ゲートG付近のカメラCから受け取った撮影画像内の人物Pの人数や密度が閾値以下である場合には、当該カメラCに対する処理モードを「顔認証処理」の解析処理と判定する。なお、顔認証処理は、撮影画像内の人物の顔画像から特徴量を抽出し、予め登録された顔画像と一致するか否かを調べる認証処理であり、監視装置10に接続された解析エンジンEによって実行される。また、処理モード判定部13は、人数や密度が閾値以下であり顔認証処理の解析処理と判定される場合には、併せて入退場ゲートG付近のカメラCに対するズームの制御処理を行うと判定する。つまり、この場合は、撮影画像に対して人物の顔画像を取得しやすいように、寄り画像を撮影できるようズームアップ制御を行うと判定する。
 また、一例として、図3Bに示すNo.3,4,5の判定基準が適用される場合を説明する。処理モード判定部13は、情報取得部12からスタジアムSのイベントの進行状況を表す情報を受け取った場合に、その進行状況の内容を調べる。そして、イベントの進行状況に応じて、処理モードを判定する。例えば、進行状況が「ゲーム開始前」である場合には、入退場ゲートG付近のカメラCから撮影した撮影画像に対する処理モードを「顔認証処理」と判定し、併せてかかるカメラCに対する処理モードを「ズームアップ制御」と判定する。また、進行状況が「ゲーム中」である場合には、入退場ゲートG付近のカメラCから撮影した撮影画像に対する処理モードを「行動検知処理」と判定し、併せてかかるカメラCに対する処理モードを「ズームダウン制御」と判定する。また、進行状況が「ゲーム終了後」である場合には、入退場ゲートG付近のカメラCから撮影した撮影画像に対する処理モードを「群衆検知処理」と判定し、併せてかかるカメラCに対する処理モードを「ズームダウン制御」と判定する。なお、上述した「行動検知処理」は、撮影画像内の人物Pの動線や動作から、不審行動やふらつき動作などの特定の行動をとっている人物を検出する解析処理であり、監視装置10に接続された解析エンジンEによって実行される。
 また、一例として、処理モード判定部13は、撮影画像の内容と対象場所の情報との両方に基づいて処理モードを判定する場合を説明する。この場合、判定基準として、「進行状況:ゲーム開始前」及び「カメラ1撮影画像:人数/密度≦閾値」が設定されており、これに対する処理モードとして、「顔認証処理」及び「ズームアップ」が設定されていることとする。すると、進行状況がゲーム開始前であり、入退場ゲートG付近のカメラCから撮影した撮影画像内の人物Pの人数や密度が閾値以下である場合には、当該カメラCから撮影した撮影画像に対する処理モードを「顔認証処理」の解析処理と判定し、カメラCに対する処理モードを「ズームアップ制御」と判定する。また、別の例として、進行状況がゲーム開始前であり、入退場ゲートG付近のカメラCから撮影した撮影画像内の人物Pの人数や密度が閾値を超えていた場合には、当該カメラCから撮影した撮影画像に対する処理モードを「群衆検知処理」の解析処理と判定し、カメラCに対する処理モードを「ズームダウン制御」と判定する。
 また、一例として、図3Bに示すNo.6の判定基準が適用される場合を説明する。処理モード判定部13は、スタジアムSのイベントの進行状況から、スタジアムSでイベントが行われているか否かを調べる。例えば、処理モード判定部13は、タイムスケジュール、イベント開始からの経過時間、撮影画像から解析した観客の動き(退席、着席)、などのイベントの進行状況に関する情報を収集して、イベントが未実施あるいは終了、その他の進行状況(開催中、休憩など)を調べる。そして、処理モード判定部13は、イベントが行われていないことを検出した場合には、カメラC自体や解析エンジンの稼働/停止を制御する処理モードを判定する。例えば、図6のバツ印で示すように、入退場ゲートG付近のカメラCに対する処理モードを「停止」と判定し、撮影自体を停止する。また、図6のバツ印で示すように、スタジアムS内を撮影する一部のカメラCに対する処理モードを「停止」と判定し、残りのカメラCに対する処理モードを「行動検知処理」と判定し、併せてかかるカメラCに対する処理モードを「ズームダウン制御」と判定する。これにより、稼働カメラの台数を抑制しつつ、スタジアムS内への不法な侵入者の検知を行うことができる。
 また、一例として、図3Bに示すNo.7の判定基準が適用される場合を説明する。処理モード判定部13は、情報取得部12からスタジアムS付近の気象情報を受け取った場合に、その気象の内容を調べる。そして、処理モード判定部13は、気象状況に応じて、処理モードを判定する。例えば、スタジアムS付近の天気が「晴れ」である場合には、スタジアムS内のカメラCから撮影した撮影画像に対する処理モードを「行動検知処理」と判定し、併せてかかるカメラCに対する処理モードを「ズームダウン制御」と判定する。一方、別の判断基準が適用される例として、スタジアムS付近の天気が「雨」である場合には、図7に示すように、スタジアムS内を撮影する一部のカメラCのみに対する処理モードを「停止」と判定し、撮影画像に対する解析処理を停止する。これは、雨により傘を差す観客が増えることが予想されるため、行動検知処理の処理精度が低くなることから、撮影や解析処理を停止する。また、別の判断基準が適用される例として、スタジアムS付近の気温が高く閾値以上である場合には、スタジアムS内のカメラCから撮影した撮影画像に対する処理モードを「行動検知処理」と判定し、併せてかかるカメラCに対する処理モードを「ズームアップ制御」と判定する。これにより、スタジアムS内の観客がふらつくなどの体調不良の検知を行うことができる。
 なお、上述したように映像検出部11が撮影画像の内容からイベントの進行状況やスタジアムS付近の気象情報などを検出した場合には、処理モード判定部13は、映像検出部11から通知されたイベントの進行状況や気象情報に基づいて、処理モードを判定してもよい。
 なお、上記では、処理モード判定部13は、1つのエリア(カメラ)の撮影画像に対して1つの解析処理を行うこととして判定しているが、1つのエリア(カメラ)の撮影画像に対して複数の解析処理を行うよう判定してもよい。つまり、図3BのNo.8に示すように、判定基準「人数/密度≦閾値2」に対して、エリア1(カメラ1)に複数の解析処理である「顔認証処理」及び「群衆検知処理」が対応付けられていてもよい。この場合、エリア1(カメラ1)の撮影画像に対して、「顔認証処理」と「群衆検知処理」の両方の解析処理が行われることとなる。なお、図3BのNo.8に示すように、一方の解析処理「顔認証処理」が「優先」と設定されている場合には、処理モード判定部13は、「顔認証処理」を「群衆検知処理」よりも優先して実行されるよう判定する。この場合、「群衆検知処理」に対して「顔認証処理」は、解析エンジンEにより先の順番で処理されたり、解析エンジンEのCPUなどのリソースが多く割り当てられて処理されたり、当該リソースが少ない場合には「顔認証処理」のみが実行されたりする。また、「群衆検知処理」に対して「顔認証処理」は、撮影画像のフレーム数が多く使用されたり、高画質で処理されるようにしてもよい。このように、処理モード判定部13は、処理モードの処理レベルを判定してもよい。
 また、上記では、処理モード判定部13は、エリア(カメラ)毎に処理モードを判定しているが、エリアつまりカメラCによる撮影画像を複数領域に分割した分割領域毎に、処理モードを判定してもよい。例えば、撮影画像の左半分の領域は、判定基準「人数/密度≦閾値」を満たしているため、処理モードを「顔認証処理」と判定し、撮影画像の右半分の領域は、判定基準「人数/密度>閾値」を満たしているため、処理モードを「群衆検知処理」と判定してもよい。また、このとき、撮影画像の左半分の領域は、処理モードを「顔認証処理」と判定し、撮影画像の右半分の領域は、いずれの処理モードも判定しなくてもよく、この場合、左半分の領域の「顔認証処理」に対応してカメラCに対する処理モードを「ズームアップ制御」と判定してもよい。さらに、処理モードを「顔認証処理」と判定した撮影画像の左半分の領域に映る人物が移動した場合には、かかる人物の移動に応じて「顔認証処理」と処理モードを判定した領域を移動させて設定してもよい。このように、撮影画像の領域毎に、判定基準を満たすか否かを調べ、処理モードを判定してもよい。
 ここで、上記では、処理モード判定部13が、撮影画像の内容として、当該撮影画像に映る人物の「人数又は密度」を検出して、処理モードを判定する場合を説明したが、以下に示すような撮影画像の内容を検出して処理モードを判定してもよい。例えば、撮影画像に映る人物の移動方向を検知し、当該人物がカメラに向かっている場合は顔認証処理、遠ざかっている場合は全身認証処理、と処理モードを判定してもよい。なお、全身認証処理とは、例えば、人物の衣服、髪型、シルエット、所持品等を含む全身画像による人物認証処理である。また、例えば、撮影画像に映る人物の顔領域を検知し、顔の大きさが所定値を超えていれば顔認証処理、所定値以下であれば全身認証処理、と処理モードを判定してもよい。また、例えば、撮影画像に映る人物の行動を検知し、特定の行動(ものを振り回す、人同士がもみ合う、転倒するなど)が検知された場合に、カメラをズームアップする制御処理と判定してもよい。但し、処理モード判定部13が処理モードを判定する際に用いる撮影画像の内容は、上述した内容であることに限定されない。
 なお、上述した図3Bの情報を用いた例では、処理モード判定部13は、撮影画像の内容、イベント進行状況、気象情報のうち、1種類の情報が判定基準を満たしているか否かによって処理モードを判定しているが、複数種類の情報が判定基準を満たしている場合に、かかる判定基準に対応付けられた処理モードを判定してもよい。つまり、撮影画像の内容、イベント進行状況、及び、気象情報のうち1種類の情報、あるいは、これらのうち2種類又は3種類の情報が判定基準を満たしている場合に、かかる判定基準に対応付けられた処理モードを判定してもよい。具体的には、撮影画像の内容とイベント進行状況、撮影画像の内容と気象情報、イベント進行状況と気象情報、撮影画像の内容とイベント進行情報と気象情報、が判定基準を満たしている場合に、かかる判定基準に対応付けられた処理モードを判定してもよい。さらに、このとき、1種類中の複数の情報が判定基準を満たすか否かによって処理モードを判定してもよい。例えば、撮影画像の内容のうち、人数/密度と、人物の移動方向と、が判定基準を満たす場合に、かかる判定基準に対応付けられた処理モードを判定してもよい。また、上述した図3Bの例では、判定する処理モードとして、「解析処理」のみの場合と、「解析処理」及び「カメラ制御処理」の場合、を挙げているが、「カメラ制御処理」のみを判定してもよい。
 上記制御部14(通知手段、実行手段)は、まず、上述したように判定した処理モードを出力装置20から出力することで、外部に通知する。また、制御部14は、判定した処理モードに対応した撮影画像に関連する処理を実行する(図8のステップS8)。つまり、判定した処理モードに従い、カメラCの稼働・停止の制御やズームの制御を行ったり、撮影画像に対する各種の解析処理を各解析エンジンEで実行するよう制御する。さらに、制御部14は、実行された解析処理の処理結果を出力装置20から出力する。これにより、スタジアムSの監視者は、実行される処理モードを認識できると共に、処理結果も認識できる。
 ここで、上述した制御部14が、出力装置20から撮影画像に対する解析処理の様子を出力したときの一例を、図9乃至図10に示す。まず、図9に示すように、出力装置20には、撮影画像を表示する画像表示領域21と、画像表示領域21に表示する撮影画像を撮影しているカメラ名を表示するカメラ名表示領域22と、撮影画像に対して行っている解析処理名を表示する解析処理名表示領域23と、切り換える予定の解析処理名を表示する予告解析処理名表示領域24と、中止ボタン25と、が表示出力される。
 そして、図9の例では、「ゲートカメラ1」のカメラCで撮影した撮影画像に対して「顔認証処理」が実行されているときの様子を示している。このとき、画像表示領域21には、領域全体に撮影画像全体を出力してもよいが、この例では、右上に縮小した撮影画像21a全体を表示し、当該撮影画像21a内の一部22bを、画像表示領域21全体に拡大して表示している。この拡大した画像22bは、撮影画像21aに対して行った顔認証処理の処理結果を示す表示であり、特に、顔認証により予め登録された人物(例えば、要注意人物として登録された人物)と一致した人物が存在している領域を拡大した画像である。このとき、拡大した画像21aには、顔認証処理により登録人物と一致した人物の顔部分を強調して表示する。例えば、登録人物と一致した人物を黒塗り表示し、かかる人物の顔部分を四角形の枠で囲って表示する。なお、顔認証処理を行い、登録人物と一致する人物が存在しない場合には、図10に示すように、撮影画像全体を画像表示領域21に表示した状態となる。
 そして、上述したように撮影画像に対して顔認証処理を行っている間には、処理モード判定部13が新たな処理モードの判定を行う。つまり、処理モード判定部13は、撮影画像の内容やイベント進行状況、気象情報が別の判定基準を満たす場合に、当該別の判定基準に対応付けられた別の処理モードを判定する。すると、制御部14は、新たに判定した別の処理モードを予告解析処理名表示領域24に表示出力し、一定時間経過後に新たな処理モードに切り換える。例えば、図10の例では、撮影画像内の人物の人数が増加し、人数/密度が閾値を超えたため、処理モードのうち解析処理を「群衆検知処理」と判定し、かかる表示を予告解析処理名表示領域24に行う。このとき、出力装置20を操作している操作者は、「群衆検知処理」に切り換えたくない場合には、中止ボタン25を押す。これにより、制御部14は、撮影画像に対する解析処理を「群衆検知処理」に切り換えず、「顔認証処理」を継続して実行する。なお、「群衆検知処理」の表示を予告解析処理名表示領域24に行った後に、中止ボタン25が押されずに一定時間が経過すると、制御部14は、撮影画像に対する解析処理を「群衆検知処理」に切り換える。
 ここで、操作者は、撮影画像に対して所望の処理モード(解析処理)を設定したい場合には、解析処理名表示領域23のプルダウンメニューから、所望の解析処理を選択することができる。すると、制御部14は、選択された解析処理に切り換える。これにより、例えば解析処理が切り替わった場合であっても、切換前の解析処理に戻して実行させるなど、所望の解析処理を実行させることができる。
 また、制御部14は、上述したように操作者によって中止ボタン25が押されたり、解析処理名表示領域23のプルダウンメニューから所望の解析処理が選択された際には、そのときの撮影画像の内容やイベント進行状況、気象状況の情報を取得する。そして、取得した情報と、切り換え前の処理モードである解析処理や選択された解析処理と、を関連付けるよう学習する。つまり、取得した撮影画像の内容やイベント進行状況、気象状況の情報を判定基準とし、かかる判定基準に切り換え前の解析処理や選択された解析処理を対応付けて、新たな判定基準情報を生成してもよい。
 なお、図9,10の例では、1つのカメラCにて撮影した撮影画像自体及び撮影画像に対する解析処理結果を画像表示領域21に大きく表示しているが、複数のカメラCにて撮影した複数の撮影画像自体及び解析処理結果を、画像表示領域21に表示してもよい。
 以上のように、本発明の情報処理システムによると、スタジアムSなどの対象場所に設置されたカメラCによる撮影状況や撮影画像に対する解析処理を、対象場所の状況に応じて制御することができる。このため、監視者は、状況に応じて実行される処理モードと処理結果を認識でき、処理結果に応じた迅速な対応を取ることができる。その結果、対象場所に設置されたカメラCの効率的な利用を図ることができる。
 なお、上記では、撮影画像の内容として、撮影画像内の人物の状況を検出して、かかる人物の状況に基づいて撮影画像に関する処理モードを判定しているが、撮影画像内のいかなる内容の検出結果に基づいて処理モードを判定してもよい。例えば、撮影画像内で人による物の置き去りといった行動を検知した場合や動物を検知した場合に、処理モードとして、カメラCのズームアップといった制御処理と、物体検知処理といった解析処理と、を行うよう判定してもよい。また、上記では、対象場所の気象情報やイベントの進行状況に基づいて撮影画像に関する処理モードを判定しているが、対象場所のいかなる情報に基づいて処理モードを判定してもよい。さらに、上記では、判定する処理モードとして、撮影画像に対する解析処理の内容や、撮影装置に対する制御処理の内容を判定しているが、撮影画像に関する処理であれば他の処理モードを判定してもよい。
 <実施形態2>
 次に、本発明の第2の実施形態を、図9を参照して説明する。図9は、実施形態2における情報処理装置の構成を示すブロック図である。なお、本実施形態では、実施形態1で説明した監視装置の構成の概略を示している。
 図9に示すように、本実施形態おける情報処理装置100は、
 撮影画像の内容を検出する検出手段110と、
 撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定する判定手段120と、
 処理モードに対応した撮影画像に関連する処理を実行する実行手段130と、
を備える。
 なお、上述した検出手段110と判定手段120と実行手段130とは、情報処理装置100が装備する演算装置がプログラムを実行することで構築されるものであってもよく、電子回路で構築されるものであってもよい。
 そして、上記構成の情報処理装置100は、
 撮影画像の内容を検出し、
 撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定し、
 処理モードに対応した撮影画像に関連する処理を実行する、
という処理を実行するよう作動する。
 上記発明によると、対象場所に設置された撮影装置による撮影画像の内容に応じて、撮影画像に関連する処理モードを判定して、かかる処理モードに対応した撮影画像に関連する処理を実行している。このため、対象場所の状況に応じて撮影画像に関連する処理を実行することができ、対象場所に設置された撮影装置の効率的な利用を図ることができる。
 <付記>
 上記実施形態の一部又は全部は、以下の付記のようにも記載されうる。以下、本発明における情報処理装置、情報処理方法、プログラムの構成の概略を説明する。但し、本発明は、以下の構成に限定されない。
(付記1)
 撮影画像の内容を検出する検出手段と、
 前記撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定する判定手段と、
 前記処理モードに対応した前記撮影画像に関連する処理を実行する実行手段と、
を備えた情報処理装置。
(付記2)
 付記1に記載の情報処理装置であって、
 前記検出手段は、前記撮影画像内の人物の状況を検出し、
 前記判定手段は、前記撮影画像内の人物の状況に基づいて前記処理モードを判定する、
情報処理装置。
(付記3)
 付記1又は2に記載の情報処理装置であって、
 前記判定手段は、前記撮影画像の内容の検出結果に基づいて、前記処理モードとして前記撮影画像に対する解析処理の内容を表す解析処理モードを判定し、
 前記実行手段は、前記撮影画像に対して前記解析処理モードに対応した解析処理を実行する、
情報処理装置。
(付記4)
 付記3に記載の情報処理装置であって、
 前記検出手段は、前記撮影画像内の人物の数又は密度を検出し、
 前記判定手段は、前記撮影画像内の人物の数又は密度の検出結果に基づいて前記解析処理モードを判定する、
情報処理装置。
(付記5)
 付記3又は4に記載の情報処理装置であって、
 前記検出手段は、前記撮影画像内の人物の行動を検出し、
 前記判定手段は、前記撮影画像内の人物の行動の検出結果に基づいて前記解析処理モードを判定する、
情報処理装置。
(付記6)
 付記1乃至5のいずれかに記載の情報処理装置であって、
 前記判定手段は、前記撮影画像の内容の検出結果に基づいて、前記処理モードとして、前記撮影画像に対する解析処理の内容を表す解析処理モードを判定すると共に、当該解析処理モードに対応する前記撮影画像を撮影するための撮影装置に対する制御処理を判定する、
情報処理装置。
(付記7)
 付記1乃至6のいずれかに記載の情報処理装置であって、
 前記判定手段は、前記処理モードとして、前記撮影画像内の人物に対する、群衆検知処理、行動検知処理、又は、顔認証処理のいずれかを判定する、
情報処理装置。
(付記8)
 付記1乃至7のいずれかに記載の情報処理装置であって、
 前記判定手段は、前記処理モードとして、前記撮影画像を撮影するための撮影装置に対する制御処理を判定する、
情報処理装置。
(付記9)
 付記1乃至8のいずれかに記載の情報処理装置であって、
 前記判定手段は、前記撮影画像の内容の検出結果と、前記撮影画像を撮影している場所に関連して出力される情報と、に基づいて、前記処理モードを判定する、
情報処理装置。
(付記10)
 付記9に記載の情報処理装置であって、
 前記判定手段は、前記撮影画像を撮影している場所で行われている事象の進行状況を表す情報に基づいて、前記処理モードを判定する、
情報処理装置。
(付記11)
 付記9又は10に記載の情報処理装置であって、
 前記判定手段は、前記撮影画像を撮影している場所の気象情報に基づいて、前記処理モードを判定する、
情報処理装置。
(付記12)
 付記1乃至11のいずれかに記載の情報処理装置であって、
 前記処理モードを外部に通知する通知手段を備えた、
情報処理装置。
(付記13)
 情報処理装置に、
 撮影画像の内容を検出する検出手段と、
 前記撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定する判定手段と、
 前記処理モードに対応した前記撮影画像に関連する処理を実行する実行手段と、
を実現させるためのプログラム。
(付記14)
 撮影画像の内容を検出し、
 前記撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定し、
 前記処理モードに対応した前記撮影画像に関連する処理を実行する、
情報処理方法。
(付記15)
 付記14に記載の情報処理方法であって、
 前記撮影画像の内容として、当該撮影画像内の人物の状況を検出し、
 前記撮影画像内の人物の状況に基づいて前記処理モードを判定する、
情報処理方法。
(付記16)
 付記14又は15に記載の情報処理方法であって、
 前記撮影画像の内容の検出結果に基づいて、前記処理モードとして前記撮影画像に対する解析処理の内容を表す解析処理モードを判定し、
 前記撮影画像に対して前記解析処理モードに対応した解析処理を実行する、
情報処理方法。
(付記17)
 付記14乃至16のいずれかに記載の情報処理方法であって、
 前記処理モードとして、前記撮影画像を撮影するための撮影装置に対する制御処理を判定する、
情報処理方法。
(付記18)
 付記14乃至17のいずれかに記載の情報処理方法であって、
 前記撮影画像の内容の検出結果と、前記撮影画像を撮影している場所に関連して出力される情報と、に基づいて、前記処理モードを判定する、
情報処理方法。
 なお、上述したプログラムは、様々なタイプの非一時的なコンピュータ可読媒体(non-transitory computer readable medium)を用いて格納され、コンピュータに供給することができる。非一時的なコンピュータ可読媒体は、様々なタイプの実体のある記録媒体(tangible storage medium)を含む。非一時的なコンピュータ可読媒体の例は、磁気記録媒体(例えばフレキシブルディスク、磁気テープ、ハードディスクドライブ)、光磁気記録媒体(例えば光磁気ディスク)、CD-ROM(Read Only Memory)、CD-R、CD-R/W、半導体メモリ(例えば、マスクROM、PROM(Programmable ROM)、EPROM(Erasable PROM)、フラッシュROM、RAM(Random Access Memory))を含む。また、プログラムは、様々なタイプの一時的なコンピュータ可読媒体(transitory computer readable medium)によってコンピュータに供給されてもよい。一時的なコンピュータ可読媒体の例は、電気信号、光信号、及び電磁波を含む。一時的なコンピュータ可読媒体は、電線及び光ファイバ等の有線通信路、又は無線通信路を介して、プログラムをコンピュータに供給できる。
 以上、上記実施形態等を参照して本願発明を説明したが、本願発明は、上述した実施形態に限定されるものではない。本願発明の構成や詳細には、本願発明の範囲内で当業者が理解しうる様々な変更をすることができる。
10 監視装置
11 映像検出部
12 情報取得部
13 処理モード判定部
14 制御部
15 判定基準記憶部
20 出力装置
30 情報提供装置
100 情報処理装置
110 検出手段
120 判定手段
130 実行手段
C カメラ
E 解析エンジン
G 入退場ゲート
P 人物
S スタジアム
 

Claims (18)

  1.  撮影画像の内容を検出する検出手段と、
     前記撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定する判定手段と、
     前記処理モードに対応した前記撮影画像に関連する処理を実行する実行手段と、
    を備えた情報処理装置。
  2.  請求項1に記載の情報処理装置であって、
     前記検出手段は、前記撮影画像内の人物の状況を検出し、
     前記判定手段は、前記撮影画像内の人物の状況に基づいて前記処理モードを判定する、
    情報処理装置。
  3.  請求項1又は2に記載の情報処理装置であって、
     前記判定手段は、前記撮影画像の内容の検出結果に基づいて、前記処理モードとして前記撮影画像に対する解析処理の内容を表す解析処理モードを判定し、
     前記実行手段は、前記撮影画像に対して前記解析処理モードに対応した解析処理を実行する、
    情報処理装置。
  4.  請求項3に記載の情報処理装置であって、
     前記検出手段は、前記撮影画像内の人物の数又は密度を検出し、
     前記判定手段は、前記撮影画像内の人物の数又は密度の検出結果に基づいて前記解析処理モードを判定する、
    情報処理装置。
  5.  請求項3又は4に記載の情報処理装置であって、
     前記検出手段は、前記撮影画像内の人物の行動を検出し、
     前記判定手段は、前記撮影画像内の人物の行動の検出結果に基づいて前記解析処理モードを判定する、
    情報処理装置。
  6.  請求項1乃至5のいずれかに記載の情報処理装置であって、
     前記判定手段は、前記撮影画像の内容の検出結果に基づいて、前記処理モードとして、前記撮影画像に対する解析処理の内容を表す解析処理モードを判定すると共に、当該解析処理モードに対応する前記撮影画像を撮影するための撮影装置に対する制御処理を判定する、
    情報処理装置。
  7.  請求項1乃至6のいずれかに記載の情報処理装置であって、
     前記判定手段は、前記処理モードとして、前記撮影画像内の人物に対する、群衆検知処理、行動検知処理、又は、顔認証処理のいずれかを判定する、
    情報処理装置。
  8.  請求項1乃至7のいずれかに記載の情報処理装置であって、
     前記判定手段は、前記処理モードとして、前記撮影画像を撮影するための撮影装置に対する制御処理を判定する、
    情報処理装置。
  9.  請求項1乃至8のいずれかに記載の情報処理装置であって、
     前記判定手段は、前記撮影画像の内容の検出結果と、前記撮影画像を撮影した場所に関連して出力される情報と、に基づいて、前記処理モードを判定する、
    情報処理装置。
  10.  請求項9に記載の情報処理装置であって、
     前記判定手段は、前記撮影画像を撮影している場所で行われている事象の進行状況を表す情報に基づいて、前記処理モードを判定する、
    情報処理装置。
  11.  請求項9又は10に記載の情報処理装置であって、
     前記判定手段は、前記撮影画像を撮影している場所の気象情報に基づいて、前記処理モードを判定する、
    情報処理装置。
  12.  請求項1乃至11のいずれかに記載の情報処理装置であって、
     前記処理モードを外部に通知する通知手段を備えた、
    情報処理装置。
  13.  情報処理装置に、
     撮影画像の内容を検出する検出手段と、
     前記撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定する判定手段と、
     前記処理モードに対応した前記撮影画像に関連する処理を実行する実行手段と、
    を実現させるためのプログラム。
  14.  撮影画像の内容を検出し、
     前記撮影画像の内容の検出結果に基づいて当該撮影画像に関連する処理モードを判定し、
     前記処理モードに対応した前記撮影画像に関連する処理を実行する、
    情報処理方法。
  15.  請求項14に記載の情報処理方法であって、
     前記撮影画像の内容として、当該撮影画像内の人物の状況を検出し、
     前記撮影画像内の人物の状況に基づいて前記処理モードを判定する、
    情報処理方法。
  16.  請求項14又は15に記載の情報処理方法であって、
     前記撮影画像の内容の検出結果に基づいて、前記処理モードとして前記撮影画像に対する解析処理の内容を表す解析処理モードを判定し、
     前記撮影画像に対して前記解析処理モードに対応した解析処理を実行する、
    情報処理方法。
  17.  請求項14乃至16のいずれかに記載の情報処理方法であって、
     前記処理モードとして、前記撮影画像を撮影するための撮影装置に対する制御処理を判定する、
    情報処理方法。
  18.  請求項14乃至17のいずれかに記載の情報処理方法であって、
     前記撮影画像の内容の検出結果と、前記撮影画像を撮影している場所に関連して出力される情報と、に基づいて、前記処理モードを判定する、
    情報処理方法。
     
PCT/JP2019/001465 2019-01-18 2019-01-18 情報処理装置 WO2020148890A1 (ja)

Priority Applications (11)

Application Number Priority Date Filing Date Title
JP2020566072A JP7151790B2 (ja) 2019-01-18 2019-01-18 情報処理装置
PCT/JP2019/001465 WO2020148890A1 (ja) 2019-01-18 2019-01-18 情報処理装置
US17/422,043 US11893797B2 (en) 2019-01-18 2019-01-18 Information processing device
TW109100686A TW202046710A (zh) 2019-01-18 2020-01-09 資訊處理裝置
ARP200100119A AR117830A1 (es) 2019-01-18 2020-01-17 Dispositivo de procesamiento de información
JP2022154461A JP2022191289A (ja) 2019-01-18 2022-09-28 情報処理装置
US18/225,499 US20230401868A1 (en) 2019-01-18 2023-07-24 Information processing device
US18/235,758 US20230394837A1 (en) 2019-01-18 2023-08-18 Information processing device
US18/235,759 US20230394838A1 (en) 2019-01-18 2023-08-18 Information processing device
US18/236,005 US20230394839A1 (en) 2019-01-18 2023-08-21 Information processing device
US18/236,785 US20230394840A1 (en) 2019-01-18 2023-08-22 Information processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2019/001465 WO2020148890A1 (ja) 2019-01-18 2019-01-18 情報処理装置

Related Child Applications (6)

Application Number Title Priority Date Filing Date
US17/422,043 A-371-Of-International US11893797B2 (en) 2019-01-18 2019-01-18 Information processing device
US18/225,499 Continuation US20230401868A1 (en) 2019-01-18 2023-07-24 Information processing device
US18/235,758 Continuation US20230394837A1 (en) 2019-01-18 2023-08-18 Information processing device
US18/235,759 Continuation US20230394838A1 (en) 2019-01-18 2023-08-18 Information processing device
US18/236,005 Continuation US20230394839A1 (en) 2019-01-18 2023-08-21 Information processing device
US18/236,785 Continuation US20230394840A1 (en) 2019-01-18 2023-08-22 Information processing device

Publications (1)

Publication Number Publication Date
WO2020148890A1 true WO2020148890A1 (ja) 2020-07-23

Family

ID=71613185

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2019/001465 WO2020148890A1 (ja) 2019-01-18 2019-01-18 情報処理装置

Country Status (5)

Country Link
US (6) US11893797B2 (ja)
JP (2) JP7151790B2 (ja)
AR (1) AR117830A1 (ja)
TW (1) TW202046710A (ja)
WO (1) WO2020148890A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037552A1 (ja) * 2021-09-13 2023-03-16 日本電気株式会社 監視支援装置、システム及び方法、並びに、コンピュータ可読媒体

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330415A (ja) * 1996-06-10 1997-12-22 Hitachi Ltd 画像監視方法および画像監視システム
JP2005012590A (ja) * 2003-06-20 2005-01-13 Sanyo Electric Co Ltd 監視カメラシステム
JP2005026980A (ja) * 2003-07-01 2005-01-27 Minolta Co Ltd 撮像システム
JP2007264706A (ja) * 2006-03-27 2007-10-11 Yokogawa Electric Corp 画像処理装置、監視カメラ及び画像監視システム
JP2012191536A (ja) * 2011-03-14 2012-10-04 Omron Corp 監視システム、監視カメラ端末、および動作モード制御プログラム

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20040004663A1 (en) * 2002-07-02 2004-01-08 Lightsurf Technologies, Inc. Imaging system providing automatic organization and processing of images based on location
US20050129324A1 (en) * 2003-12-02 2005-06-16 Lemke Alan P. Digital camera and method providing selective removal and addition of an imaged object
JP4622928B2 (ja) 2006-04-14 2011-02-02 トヨタ自動車株式会社 車載カメラ制御装置および車載カメラ制御方法。
JP5083164B2 (ja) 2008-10-09 2012-11-28 住友電気工業株式会社 画像処理装置及び画像処理方法
WO2012124230A1 (ja) 2011-03-17 2012-09-20 日本電気株式会社 撮影装置、撮影方法、及びプログラム
JP2013186872A (ja) 2012-03-12 2013-09-19 Mitsubishi Electric Corp 運転支援装置
JP5982557B2 (ja) 2013-03-29 2016-08-31 株式会社日立製作所 映像監視システムおよび画像検索システム
WO2017033619A1 (ja) 2015-08-26 2017-03-02 富士フイルム株式会社 撮像システム及び撮像制御方法

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09330415A (ja) * 1996-06-10 1997-12-22 Hitachi Ltd 画像監視方法および画像監視システム
JP2005012590A (ja) * 2003-06-20 2005-01-13 Sanyo Electric Co Ltd 監視カメラシステム
JP2005026980A (ja) * 2003-07-01 2005-01-27 Minolta Co Ltd 撮像システム
JP2007264706A (ja) * 2006-03-27 2007-10-11 Yokogawa Electric Corp 画像処理装置、監視カメラ及び画像監視システム
JP2012191536A (ja) * 2011-03-14 2012-10-04 Omron Corp 監視システム、監視カメラ端末、および動作モード制御プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023037552A1 (ja) * 2021-09-13 2023-03-16 日本電気株式会社 監視支援装置、システム及び方法、並びに、コンピュータ可読媒体

Also Published As

Publication number Publication date
JP7151790B2 (ja) 2022-10-12
US20220101632A1 (en) 2022-03-31
US20230394838A1 (en) 2023-12-07
JPWO2020148890A1 (ja) 2021-10-14
AR117830A1 (es) 2021-08-25
JP2022191289A (ja) 2022-12-27
US20230401868A1 (en) 2023-12-14
US11893797B2 (en) 2024-02-06
TW202046710A (zh) 2020-12-16
US20230394837A1 (en) 2023-12-07
US20230394840A1 (en) 2023-12-07
US20230394839A1 (en) 2023-12-07

Similar Documents

Publication Publication Date Title
JP5390322B2 (ja) 画像処理装置、及び画像処理方法
WO2018096787A1 (ja) 人物行動監視装置および人物行動監視システム
JP6555906B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US20180225852A1 (en) Apparatus and method for generating best-view image centered on object of interest in multiple camera images
TWI539823B (zh) 攝影畫面切換方法與監控系統
JP2016100696A (ja) 画像処理装置、画像処理方法、及び画像処理システム
CN109391757B (zh) 信息处理装置、信息处理方法和存储介质
US10200607B2 (en) Image capturing apparatus, method of controlling the same, monitoring camera system, and storage medium
US20170347068A1 (en) Image outputting apparatus, image outputting method and storage medium
KR20150034023A (ko) 노인 관리용 무선 카메라 장치 및 이를 통한 노인 관리 시스템
US20230394840A1 (en) Information processing device
JP5583451B2 (ja) 人数計測装置、精度評価方法
JP5088463B2 (ja) 監視システム
JP7314973B2 (ja) 映像監視装置、映像監視方法及びプログラム
US20160198130A1 (en) Surveillance method and surveillance system
JP5153669B2 (ja) 撮像制御装置、および撮像制御方法
JP6941457B2 (ja) 監視システム
US10748397B2 (en) Monitoring system
JP6941458B2 (ja) 監視システム
JP6645503B2 (ja) 画像解析装置、画像解析方法、及び、画像解析プログラム
JP6785437B2 (ja) 人物行動監視装置および人物行動監視システム
JP2004289581A (ja) 監視システム
JP2020086961A (ja) 画像解析装置、撮影装置、画像解析方法、及び、プログラム
KR101269081B1 (ko) 영상분석을 이용한 폭력방지 시스템
KR101891278B1 (ko) 다중 영상 표시 방법 및 이를 위한 다중 영상 관리 서버, 다중 영상 표시 시스템, 컴퓨터 프로그램, 그 기록매체

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 19910109

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2020566072

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 19910109

Country of ref document: EP

Kind code of ref document: A1