WO2016167016A1 - 画像処理装置、画像処理方法、および画像処理システム - Google Patents
画像処理装置、画像処理方法、および画像処理システム Download PDFInfo
- Publication number
- WO2016167016A1 WO2016167016A1 PCT/JP2016/054525 JP2016054525W WO2016167016A1 WO 2016167016 A1 WO2016167016 A1 WO 2016167016A1 JP 2016054525 W JP2016054525 W JP 2016054525W WO 2016167016 A1 WO2016167016 A1 WO 2016167016A1
- Authority
- WO
- WIPO (PCT)
- Prior art keywords
- frame image
- region
- image
- cutout
- area
- Prior art date
Links
- 238000012545 processing Methods 0.000 title claims abstract description 51
- 238000003672 processing method Methods 0.000 title claims abstract description 7
- 238000001514 detection method Methods 0.000 claims description 100
- 230000003044 adaptive effect Effects 0.000 abstract 1
- 238000004891 communication Methods 0.000 description 27
- 238000000034 method Methods 0.000 description 20
- 238000012544 monitoring process Methods 0.000 description 20
- 238000010586 diagram Methods 0.000 description 13
- 230000008859 change Effects 0.000 description 9
- 230000009467 reduction Effects 0.000 description 9
- 230000000694 effects Effects 0.000 description 7
- 230000006870 function Effects 0.000 description 6
- 238000003384 imaging method Methods 0.000 description 5
- 230000008569 process Effects 0.000 description 5
- 230000004048 modification Effects 0.000 description 4
- 238000012986 modification Methods 0.000 description 4
- 238000009499 grossing Methods 0.000 description 3
- 230000005540 biological transmission Effects 0.000 description 2
- 238000004590 computer program Methods 0.000 description 2
- 239000000470 constituent Substances 0.000 description 2
- 230000000295 complement effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 230000010365 information processing Effects 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 229910044991 metal oxide Inorganic materials 0.000 description 1
- 150000004706 metal oxides Chemical class 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
Images
Classifications
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
- H04N23/661—Transmitting camera control signals through networks, e.g. control via the Internet
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/40—Scenes; Scene-specific elements in video content
- G06V20/49—Segmenting video sequences, i.e. computational techniques such as parsing or cutting the sequence, low-level clustering or determining units such as shots or scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/50—Context or environment of the image
- G06V20/52—Surveillance or monitoring of activities, e.g. for recognising suspicious objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N7/00—Television systems
- H04N7/18—Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/07—Target detection
Definitions
- the present disclosure relates to an image processing device, an image processing method, and an image processing system.
- Patent Document 1 describes a technique in which a moving body is detected from an image photographed by a fisheye lens camera, and a circumscribed square area of each detected moving body is cut out.
- Patent Document 2 describes a technology in which detected persons whose mutual distances detected from a captured image are less than a threshold are grouped together and an image is cut out along a frame surrounding the same group. ing.
- the position of the cutout region is limited.
- the cutout region is always determined around the position of the person after movement, regardless of the magnitude of the change in the position of the person.
- a new and improved image processing apparatus, image processing method, and the like that are capable of adaptively determining a cutout region in response to a change in the detection position of the same object between frame images with different shooting times. And an image processing system is proposed.
- an image processing apparatus comprising: a cutout region determination unit that determines a cutout region of the second frame image based on a positional relationship between the detection position of the object in the image and the first region.
- An image processing method comprising: determining a cutout region of the second frame image based on a positional relationship between the detection position of the object and the first region is provided.
- the first region setting unit that sets the first region including the detection position of the object, and the second region after the first frame image.
- a cutout region determining unit that determines a cutout region of the second frame image and the cutout region determining unit determine
- An image processing system comprising: a cutout image generation unit that generates a cutout image by cutting out the cutout region of the second frame image from the second frame image; and a storage unit that stores the generated cutout image.
- FIG. 4 is an explanatory diagram showing an example of a reduced image 32 generated by the camera 10.
- FIG. 5 is an explanatory diagram showing an example of a plurality of cropping images 50 generated from a frame image 30.
- FIG. FIG. 2 is a functional block diagram showing a configuration of a camera 10 according to the same embodiment.
- 4 is an explanatory diagram showing a relationship between a frame image 30 and a cropping region 40.
- FIG. It is the functional block diagram which showed the structure of the monitoring terminal 22 by the embodiment.
- 3 is a functional block diagram showing a configuration of an area setting unit 104 according to the same embodiment.
- a plurality of constituent elements having substantially the same functional configuration may be distinguished by adding different alphabets after the same reference numeral.
- a plurality of configurations having substantially the same functional configuration are differentiated as necessary, such as a video cropping unit 106a and a video cropping unit 106b.
- only the same reference numerals are given.
- the video cropping unit 106a and the video cropping unit 106b they are simply referred to as the video cropping unit 106.
- the image processing system includes a camera 10, a storage 20, a monitoring terminal 22, and a communication network 24.
- the camera 10 is an example of an image processing device according to the present disclosure.
- the camera 10 is a device for capturing a moving image of the outside environment.
- the camera 10 can be installed in a place where there is a large amount of traffic of people or vehicles, a place to be monitored, or the like.
- the camera 10 may be installed in a road, a station, an airport, a commercial building, an amusement park, a park, a parking lot, or a restricted area.
- the camera 10 can generate another image using the captured frame image, and can transmit the generated other image to another device via the communication network 24 described later.
- the frame image is, for example, an image having an upper limit resolution that can be captured by the camera 10.
- the frame image may be a 4K image.
- the camera 10 generates another image with a small amount of data based on the frame image. This is because the frame image has a large amount of data, and therefore it is not desirable to transmit the frame image itself to another device, for example, due to the time required for transmission.
- examples of another image generated by the camera 10 include a reduced image that is an image obtained by simply reducing the resolution of a frame image, and a cropped image that is an image obtained by cropping (cutting out) a region to be watched.
- This reduced image may be, for example, a full HD image.
- FIG. 2 is an explanatory diagram showing an example of a reduced image (reduced image 32).
- the reduced image 32 includes all areas included in the frame image.
- a region to be watched such as a human face
- the area 40 shown in FIG. 2 is an area corresponding to a cropping area described later.
- the cropping area is set in the frame image, but in FIG. 2, for convenience of explanation, the area corresponding to the cropping area in the reduced image 32 is described as an area 40.
- FIG. 3 is an explanatory diagram showing an example (a set 52 of cropping images 50) of a plurality of cropping images generated from a single frame image.
- the cropped image 50 has the same resolution as the frame image, but as shown in FIG. 3, each cropped image 50 includes only a partial region of the frame image. Therefore, the camera 10 according to the present embodiment basically generates one reduced image and one or more cropped images from one frame image. According to this generation example, the user can check the entire view taken by the camera 10, and the user can check the gaze target area with high resolution. The total amount of data can be suppressed as compared with the frame image.
- the camera 10 includes a photographing unit 100, a video reduction unit 102, a region setting unit 104, a plurality of video cropping units 106, and a communication unit 108.
- FIG. 4 shows an example in which four video cropping units 106 are provided, but the present invention is not limited to this example, and an arbitrary number of one or more may be provided.
- the imaging unit 100 has a function of acquiring a frame image by forming an external image on an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) through a lens.
- an imaging element such as a CCD (Charge Coupled Device) or a CMOS (Complementary Metal Oxide Semiconductor) through a lens.
- the photographing unit 100 obtains a frame image by photographing an external video for each predetermined frame rate.
- the video reduction unit 102 generates a reduced image by reducing the frame image acquired by the photographing unit 100 to a predetermined size.
- the region setting unit 104 sets a cropping region that is a region from which a cropped image is generated in the frame image acquired by the photographing unit 100. For example, the region setting unit 104 sets cropping regions from the frame image acquired by the photographing unit 100 by the number of video cropping units 106 provided in the camera 10.
- FIG. 5 is an explanatory diagram showing an example of setting the cropping area by the area setting unit 104.
- the width of the cropping region is described as “crop_width”, and the length of the cropping region is described as “crop_height”.
- the area setting unit 104 detects an object to be detected such as a person 300 from the frame image 30, and sets the cropping area 40 based on the detection position 302 of the object.
- the video cropping unit 106 is an example of a cut-out image generation unit in the present disclosure.
- the video cropping unit 106 generates a cropped image by cutting out the cropping region set by the region setting unit 104 from the frame image acquired by the imaging unit 100.
- each of the four video cropping units 106 For example, in the example shown in FIG. 3, four cropping images 50 generated by each of the four video cropping units 106 are shown. As illustrated in FIG. 3, for example, the video cropping unit 106 a generates a cropped image 50 a from the cropping region corresponding to the region 40 a illustrated in FIG. 2 set by the region setting unit 104. In addition, the video cropping unit 106b generates a cropped image 50b from the cropping region set by the region setting unit 104 and corresponding to the region 40b shown in FIG.
- the communication unit 108 transmits and receives various types of information to and from devices connected to the communication network 24 via the communication network 24 described later. For example, the communication unit 108 transmits the reduced image acquired by the video reduction unit 102 and the plurality of cropped images generated by the plurality of video cropping units 106 to the storage 20.
- the storage 20 is a storage device for storing reduced images and cropped images received from the camera 10.
- the storage 20 stores the identification information of the camera 10, the shooting date and time, the received reduced image, and the plurality of received cropped images in association with each other.
- the storage 20 can be installed in, for example, a data center or a monitoring center where a monitoring staff works.
- the monitoring terminal 22 is an information processing terminal for displaying a reduced image and a cropped image generated by the camera 10. This monitoring terminal 22 is installed in a monitoring center, for example, and can be used by a monitoring staff.
- FIG. 6 is a functional block diagram showing the configuration of the monitoring terminal 22 according to the present embodiment.
- the monitoring terminal 22 includes a control unit 220, a communication unit 222, a display unit 224, and an input unit 226.
- the control unit 220 generally performs operations of the monitoring terminal 22 using hardware such as a CPU (Central Processing Unit), a RAM (Random Access Memory), and a ROM (Read Only Memory) built in the monitoring terminal 22. Control.
- a CPU Central Processing Unit
- RAM Random Access Memory
- ROM Read Only Memory
- the communication unit 222 transmits and receives various types of information to and from devices connected to the communication network 24 via the communication network 24 described later. For example, the communication unit 222 receives a reduced image and a cropped image stored in the storage 20 from the storage 20.
- the communication unit 222 can also directly receive the reduced image generated by the camera 10 and a plurality of cropped images from the camera 10.
- the display unit 224 includes a display such as a liquid crystal display (LCD) or an organic light emitting diode (OLED), for example.
- the display unit 224 displays a monitoring screen including a reduced image or a cropped image received from the storage 20.
- the input unit 226 includes an input device such as a mouse, a keyboard, a touch panel, or a microphone.
- the input unit 226 accepts various inputs from the user to the monitoring terminal 22.
- the communication network 24 is a wired or wireless transmission path for information transmitted from a device connected to the communication network 24.
- the communication network 24 may include a public line network such as a telephone line network, the Internet, a satellite communication network, various local area networks (LANs) including Ethernet (registered trademark), a wide area network (WAN), and the like.
- LANs local area networks
- WAN wide area network
- the communication network 24 may include a dedicated line network such as an IP-VPN (Internet Protocol-Virtual Private Network).
- the image processing system is not limited to the configuration described above.
- the storage 20 and the monitoring terminal 22 may be configured integrally.
- the image processing system may not include the storage 20 or the monitoring terminal 22.
- the region setting unit 104 sets the cropping region based on the detection position of the object detected from the frame image.
- a cropping region setting method for example, a method of setting the cropping region so that the detection position of the object to be detected is at the center of the cropping region can be considered. According to this setting method, the cropped image can be generated so that the object to be detected is easy to see for the user.
- the camera 10 according to the present embodiment has been created with the above circumstances taken into consideration.
- the camera 10 according to the present embodiment adaptively determines the position of the cropping region in the current frame image depending on whether or not the detection position of the object in the current frame image is within the dead zone set in the previous frame image. It is possible to determine.
- the region setting unit 104 includes an object detection unit 120, a dead zone setting unit 122, a cropping region determination unit 124, and a tracking target setting unit 126.
- the object detection unit 120 detects an object from the frame image acquired by the imaging unit 100. For example, the object detection unit 120 detects a preset type of object from the frame image. Further, the object detection unit 120 detects, from the frame image, the number of objects within the number of the video cropping units 106 included in the camera 10 from the acquired frame images, for example.
- the type of the object to be detected may include a person or a car. Further, the types of objects to be detected may further include a ship, an airplane, a motorcycle, a bicycle, or the like.
- the dead zone setting unit 122 is an example of a first zone setting unit in the present disclosure.
- the dead zone setting unit 122 is based on whether or not the frame image (hereinafter referred to as the current frame image) acquired by the photographing unit 100 is the frame image of the first frame (hereinafter referred to as the first frame image).
- the dead zone setting unit 122 sets the detection position of the object detected by the object detection unit 120 in the current frame image to be the center of the dead zone.
- the dead zone area in the current frame image is set.
- the first frame image may be a frame image of the first frame for starting generation of the cropping image.
- the dead zone region is an example of a first region in the present disclosure. Although the details will be described later, the dead zone area is an area used for determining the position of the cropping area in the current frame image based on the positional relationship with the detection position of the object in the current frame image. .
- FIG. 8 is an explanatory diagram showing a setting example of the dead zone region 60 and the cropping region 40 when the current frame image is the first frame image.
- the dead zone setting unit 122 is detected by the object detection unit 120.
- the dead zone area 60 is set in the current frame image 30 so that the person detection position 302 is the same as the center 600 of the dead zone area 60.
- the center of the cropped image is set not to be the object detection position 302 but to the same position as the center 600 of the dead zone region 60. That is, even if the object detection position 302 is deviated from the center 600 of the dead zone area 60 in the subsequent frames, the center of the cropping area 40 is set to the same position as the center 600 of the dead zone area 60.
- the dead zone setting unit 122 includes the object detection position in the current frame image in the dead zone in the previous frame image.
- a dead zone region is set on the basis of whether or not it is detected.
- the dead zone setting unit 122 determines the position of the dead zone in the current frame image. Set to the same position as the dead zone.
- FIG. 9 is an explanatory diagram showing a setting example of the dead zone region 60 and the cropping region 40 when the current frame image is a frame image other than the first frame image.
- the dead zone setting unit 122 sets the position of the dead zone in the current frame image to the same position as the dead zone 60 in the previous frame image.
- the dead band area setting unit 122 uses the outline of the dead band area as the detection position of the object in the current frame image.
- the dead zone region in the current frame image is set by moving the dead zone region in the previous frame image to include.
- the dead zone setting unit 122 sets the dead zone in the previous frame image by the shortest distance between the outline of the dead zone in the previous frame image and the detection position of the object in the current frame image.
- the dead zone region in the current frame image is set by moving in the direction of the object detection position in the current frame image.
- FIG. 10 is an explanatory diagram showing another setting example of the dead zone region 60 and the cropping region 40 when the current frame image is a frame image other than the first frame image.
- the dead zone setting unit 122 sets the dead zone 60 in the current frame image 30 so that the person detection position 302 is positioned on the outline of the dead zone 60.
- the dead zone when the object protrudes from the dead zone set in the previous frame image, for example, when the object moves at high speed, the dead zone is brought closer to the detection position of the object by the protruding distance. Therefore, it is possible to set the dead zone in the current frame image so that the detection position of the object does not deviate from the outline of the dead zone.
- the dead zone setting unit 122 prevents the detected position of the object from deviating from the outline of the dead zone even when the detected position of the object detected in the next frame image protrudes from the dead zone in the current frame image. In addition, it is possible to set a dead zone in the next frame image. That is, the dead zone setting unit 122 sets the dead zone in such a positional relationship that the object drags the dead zone every time the position of the object moves away from the dead zone.
- the shape of the dead zone region may be, for example, a rectangle or a circle.
- the size of the dead zone area is a predetermined size.
- the width of the dead zone may be a length in a range from several pixels to half the width of the cropping zone, or the height of the dead zone. May be a length in the range from a few pixels to half the height of the cropping region.
- the size of the dead zone is basically set in advance. However, for example, the administrator may be able to change the size of the dead zone area as appropriate.
- the dead zone setting unit 122 sets the dead zone as a reference based on the detection position of the object set as the tracking target by the tracking target setting unit 126 described later. Set.
- the dead zone setting unit 122 sets the dead zone in the current frame image. Is set at the same position as the dead zone in the previous frame image.
- the dead zone setting unit 122 is set as the tracking target.
- the dead zone region in the current frame image is set by moving the dead zone region in the previous frame image so that the outline of the dead zone region includes the detected position of the detected object (in the current frame image).
- Cropping area determination unit 124 is an example of a cutout region determination unit in the present disclosure.
- the cropping area determination unit 124 sets a cropping area in the current frame image depending on whether or not the current frame image is the first frame image. For example, when the current frame image is the first frame image, the cropping region determination unit 124 sets the detection position of the object detected by the object detection unit 120 in the current frame image to be the center of the cropping region. The cropping area in the current frame image is set.
- the cropping region determination unit 124 causes the cropping region in the current frame image 30 so that the person detection position 302 detected by the object detection unit 120 is the center of the cropping region 40. 40 is set.
- the cropping region determination unit 124 detects the detection position of the object detected by the object detection unit 120 and the dead zone region in the previous frame image.
- the cropping area in the current frame image is set on the basis of the positional relationship. For example, when the detection position of the object detected by the object detection unit 120 is included in the dead zone area in the previous frame image, the cropping area determination unit 124 sets the position of the cropping area in the current frame image to the previous frame image. It is determined to be the same position as the cropping area in the frame image.
- the shape and size of the cropping region in the current frame image are basically determined to be the same as the cropping region in the previous frame image.
- the cropping area determination unit 124 determines that the position of the cropping area 40 in the current frame image 30 is the same position as the cropping area in the previous frame image.
- the position of the cropping area does not change for a frame while the detection position of the object is included in the dead zone set in the first frame image. That is, even if the object vibrates slightly, the position of the cropping region does not change unless the object comes out of the dead zone region. For this reason, the visibility of the cropped image can be improved.
- the cropping zone determination unit 124 is set by the dead zone setting unit 122 (current The cropping region in the current frame image is determined so that the center of the dead zone region (in the frame image) is the center of the cropping region.
- the cropping region determination unit 124 sets the current zone image 60 so that the center 600 of the dead zone 60 in the current frame image 30 is set to the center of the cropping region 40.
- a cropping area 40 in the frame image 30 is determined.
- a rectangle 44 indicated by a broken line in FIG. 10 is a cropping region in the previous frame image.
- the position of the cropping area 44 in the previous frame image is different from the position of the cropping area 40 in the current frame image 30.
- the cropping region determination unit 124 relates to the detection position of the object set as the tracking target by the tracking target setting unit 126 described later and the tracking target object. It is possible to determine the position of the cropping region in the current frame image based on the positional relationship with the set dead zone region.
- the cropping region determination unit 124 selects the cropping region in the current frame image. To be the same as the cropping region in the previous frame image.
- the cropping region determination unit 124 The cropping area in the current frame image is determined so that the center of the dead zone in the current frame image set for the object becomes the center of the cropping area.
- the tracking target setting unit 126 sets a tracking target object based on the detection result of the object by the object detection unit 120. For example, the tracking target setting unit 126 determines the current frame based on the distance between a specific position such as a monitoring target position set in the imaging range and the detection position of the object detected by the object detection unit 120. Set the object to be tracked in the image.
- the tracking target setting unit 126 when the distance between the specific position set in the shooting range and the detection position of the object detected by the object detection unit 120 is within a predetermined distance, the tracking target setting unit 126 The tracking target object in the previous frame image is set as the tracking target object in the previous frame image. The tracking target setting unit 126 also displays the current position when the distance between the specific position set in the shooting range and the detection position of the object detected by the object detection unit 120 exceeds a predetermined distance. The tracking target object in the frame image is set to a different object from the tracking target object in the previous frame image, such as the object closest to the specific position.
- FIG. 11 is a flowchart showing an operation example according to this embodiment. As shown in FIG. 11, first, the photographing unit 100 of the camera 10 acquires a frame image by photographing an external video when a predetermined photographing timing arrives (S101).
- the video reduction unit 102 generates a reduced image by reducing the frame image acquired in S101 (hereinafter referred to as the current frame image) to a predetermined size (S103).
- the camera 10 repeats “cropping image generation processing” to be described later for the number of video cropping units 106, that is, four times (S105 to S111).
- the communication unit 108 transmits the reduced image generated in S103 and the four cropped images generated in S107 to the storage 20 (S113).
- the object detection unit 120 of the camera 10 detects an object to be detected from the current frame image (S151).
- the dead zone setting unit 122 sets the current zone image so that the detection position of the object detected in S151 is the center of the dead zone. A dead zone region in the frame image is set (S155).
- the cropping region determination unit 124 determines the cropping region in the current frame image so that the detection position of the object detected in S151 is the center of the cropping region (S157). Thereafter, the camera 10 performs an operation of S167 described later.
- the dead zone setting unit 122 determines whether or not the detection position of the object detected in S151 is inside the dead zone in the previous frame image (S161).
- the dead zone setting unit 122 determines the position of the dead zone in the current frame image as the dead zone in the previous frame image. Set to the same position as the area. Then, the cropping area determination unit 124 determines that the position of the cropping area in the current frame image is the same position as the cropping area in the previous frame image (S169). Thereafter, the camera 10 performs an operation of S167 described later.
- the dead band area setting unit 122 indicates that the outline of the dead band area is the detection position of the object in the current frame image.
- the dead zone region in the current frame image is set by moving the dead zone region in the previous frame image so as to include (S163).
- the cropping area determination unit 124 determines the cropping area in the current frame image so that the center of the dead zone (in the current frame image) set in S163 becomes the center of the cropping area (S165).
- the video cropping unit 106 generates a cropped image by cutting out the cropping area determined in S157, S165, or S169 from the current frame image (S167).
- the camera 10 determines the position of the cropping area in the current frame image in the previous frame image. Decide to be in the same position as the cropping area. For this reason, the position of the cropping region does not change with respect to the frame during which the detection position of the object is included in the dead zone set in the first frame image. That is, even if the object vibrates slightly, the position of the cropping region does not change unless the object comes out of the dead zone region. For this reason, the visibility of the cropped image can be improved.
- the cropping area determination method by the cropping area determination unit 124 is a simple method, the camera 10 can generate a cropped image in real time.
- a separately provided server can communicate with the camera 10 via, for example, the communication network 24, and this server replaces the camera 10 with the video reduction unit 102 and the region setting unit 104 described above.
- the image processing apparatus may be a server. Further, the server and the storage 20 may be configured integrally.
- a first region setting unit for setting a first region including the detection position of the object in the cutout region of the first frame image; Cutout region determination for determining a cutout region of the second frame image based on a positional relationship between the detection position of the object and the first region in a second frame image after the first frame image
- An image processing apparatus comprising: (2) The cutout area determination unit determines the position of the cutout area of the second frame image based on the positional relationship between the detection position of the object and the first area in the second frame image.
- the image processing apparatus according to (1), wherein the image processing apparatus determines whether or not to make the same as an image cutout region.
- the cutout area determination unit sets the position of the cutout area of the second frame image to the first frame image.
- the image processing apparatus according to (2) wherein the image processing apparatus determines to be the same as the cutout area.
- the first area setting unit determines that the detected position of the object in the second frame image is the first position. Moving the position of the first region so that it is included on the outline of the region of The cutout region determination unit determines the cutout region of the second frame image by setting the center of the first region after movement to the center of the cutout region of the second frame image.
- the image processing apparatus according to 2) or (3).
- the shape and size of the cutout area of the second frame image are the same as those of the cutout area of the first frame image.
- (6) The image processing according to (5), wherein the position of the center of the cutout region of the first frame image and the position of the center of the first region are equal to the detection position of the object in the first frame image. apparatus.
- the first region setting unit sets a first region including a detection position of the object for each of a plurality of objects in the cutout region of the first frame image
- the image processing apparatus further includes a tracking target setting unit that sets any one of the plurality of objects as a tracking target
- the cutout region determination unit is configured to perform the second determination based on the positional relationship between the detection position of the tracking target object set by the tracking target setting unit and the first region set for the tracking target object.
- the image processing apparatus further includes a cutout image generation unit that generates a cutout image by cutting out the cutout region of the second frame image determined by the cutout region determination unit from the second frame image.
- the image processing apparatus according to any one of 2) to (7).
- the image processing apparatus according to any one of (2) to (8), wherein the object is a person or a vehicle.
- An image processing method comprising: (11) A first region setting unit for setting a first region including the detection position of the object in the cutout region of the first frame image; Cutout region determination for determining a cutout region of the second frame image based on a positional relationship between the detection position of the object and the first region in a second frame image after the first frame image And A cutout image generation unit that generates a cutout image by cutting out the cutout region of the second frame image determined by the cutout region determination unit from the second frame image; A storage unit for storing the generated cutout image; An image processing system comprising:
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Image Processing (AREA)
- Image Analysis (AREA)
- Studio Devices (AREA)
- Closed-Circuit Television Systems (AREA)
Abstract
Description
1.画像処理システムの基本構成
2.実施形態の詳細な説明
3.変形例
<1-1.基本構成>
本開示は、一例として「2.実施形態の詳細な説明」において詳細に説明するように、多様な形態で実施され得る。最初に、本実施形態による画像処理システムの基本構成について、図1を参照して説明する。
カメラ10は、本開示における画像処理装置の一例である。カメラ10は、外環境の動画像を撮影するための装置である。このカメラ10は、人や車の交通量が多い場所や、監視対象の場所などに設置され得る。例えば、カメラ10は、道路、駅、空港、商業用ビルディング、アミューズメントパーク、公園、駐車場、または立ち入り禁止区域などに設置されてもよい。
撮影部100は、外部の映像を、レンズを通して例えばCCD(Charge Coupled Device)やCMOS(Complementary Metal Oxide Semiconductor)などの撮像素子に結像させることにより、フレーム画像を取得する機能を有する。例えば、撮影部100は、所定のフレームレートごとに外部の映像を撮影することにより、フレーム画像を取得する。
映像縮小部102は、撮影部100により取得されたフレーム画像を所定のサイズに縮小することにより縮小画像を生成する。
領域設定部104は、撮影部100により取得されたフレーム画像において、クロッピング画像の生成元となる領域であるクロッピング領域を設定する。例えば、領域設定部104は、撮影部100により取得されたフレーム画像から、カメラ10に設けられている映像クロッピング部106の個数だけクロッピング領域を設定する。
映像クロッピング部106は、本開示における切り出し画像生成部の一例である。映像クロッピング部106は、領域設定部104により設定されたクロッピング領域を、撮影部100により取得されたフレーム画像から切り出すことによりクロッピング画像を生成する。
通信部108は、後述する通信網24を介して、通信網24に接続された装置との間で各種の情報の送受信を行う。例えば、通信部108は、映像縮小部102により取得された縮小画像、および、複数の映像クロッピング部106により生成された複数のクロッピング画像をストレージ20へ送信する。
ストレージ20は、カメラ10から受信される縮小画像およびクロッピング画像を記憶するための記憶装置である。例えば、ストレージ20は、カメラ10の識別情報、撮影日時、受信された縮小画像、および受信された複数のクロッピング画像を対応づけて記憶する。なお、ストレージ20は、例えばデータセンタや、監視員が勤務する監視センタなどに設置され得る。
監視端末22は、カメラ10により生成された縮小画像およびクロッピング画像を表示するための情報処理端末である。この監視端末22は、例えば監視センタに設置され、そして、監視員に使用され得る。
制御部220は、監視端末22に内蔵されるCPU(Central Processing Unit)、RAM(Random Access Memory)、およびROM(Read Only Memory)などのハードウェアを用いて、監視端末22の動作を全般的に制御する。
通信部222は、後述する通信網24を介して、通信網24に接続された装置との間で各種の情報の送受信を行う。例えば、通信部222は、ストレージ20に格納されている縮小画像およびクロッピング画像をストレージ20から受信する。
表示部224は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)や、OLED(Organic Light Emitting Diode)などのディスプレイにより構成される。この表示部224は、例えば、ストレージ20から受信された縮小画像またはクロッピング画像を含む監視画面などを表示する。
入力部226は、例えばマウス、キーボード、タッチパネル、または、マイクロフォンなどの入力装置を含む。この入力部226は、監視端末22に対するユーザによる各種の入力を受け付ける。
通信網24は、通信網24に接続されている装置から送信される情報の有線、または無線の伝送路である。例えば、通信網24は、電話回線網、インターネット、衛星通信網などの公衆回線網や、Ethernet(登録商標)を含む各種のLAN(Local Area Network)、WAN(Wide Area Network)などを含んでもよい。また、通信網24は、IP-VPN(Internet Protocol-Virtual Private Network)などの専用回線網を含んでもよい。
ところで、上述したように、領域設定部104は、フレーム画像の中から検出された物体の検出位置に基づいてクロッピング領域を設定する。
<2-1.構成>
本実施形態によるカメラ10の構成の特徴は、特に領域設定部104の構成に関する。以下では、図7を参照して、本実施形態による領域設定部104の構成についてさらに詳細に説明する。
物体検出部120は、撮影部100により取得されたフレーム画像の中から物体を検出する。例えば、物体検出部120は、予め設定されている種類の物体を、フレーム画像の中から検出する。また、物体検出部120は、取得されたフレーム画像の中から例えばカメラ10に含まれる映像クロッピング部106の個数以内の数の物体をフレーム画像から検出する。ここで、検出対象の物体の種類は、人または自動車を含み得る。また、検出対象の物体の種類は、船、飛行機、バイク、または、自転車などをさらに含んでもよい。
(2-1-2-1.設定例1)
不感帯領域設定部122は、本開示における第1領域設定部の一例である。不感帯領域設定部122は、撮影部100により取得されたフレーム画像(以下、現在のフレーム画像と称する)が最初のフレームのフレーム画像(以下、最初のフレーム画像と称する)であるか否かに基づいて、不感帯領域を設定する。例えば、現在のフレーム画像が最初のフレーム画像である場合には、不感帯領域設定部122は、現在のフレーム画像において物体検出部120により検出された物体の検出位置が不感帯領域の中心となるように、現在のフレーム画像における不感帯領域を設定する。
‐ケース1
また、現在のフレーム画像が最初のフレームよりも後のフレームのフレーム画像である場合には、不感帯領域設定部122は、現在のフレーム画像における物体の検出位置が前のフレーム画像における不感帯領域に含まれるか否かに基づいて、不感帯領域を設定する。一例として、現在のフレーム画像における物体の検出位置が前のフレーム画像における不感帯領域に含まれる場合には、不感帯領域設定部122は、現在のフレーム画像における不感帯領域の位置を、前のフレーム画像における不感帯領域と同じ位置に設定する。なお、詳細については後述するが、不感帯領域の位置が同じなので、クロッピング領域の位置に関しても前のフレーム画像と同じになる。
また、現在のフレーム画像における物体の検出位置が前のフレーム画像における不感帯領域に含まれない場合には、不感帯領域設定部122は、不感帯領域の輪郭線が現在のフレーム画像における物体の検出位置を含むように、前のフレーム画像における不感帯領域を移動させることにより、現在のフレーム画像における不感帯領域を設定する。例えば、上記の場合には、不感帯領域設定部122は、前のフレーム画像における不感帯領域の輪郭線と、現在のフレーム画像における物体の検出位置との最短距離だけ、前のフレーム画像における不感帯領域を、現在のフレーム画像における物体の検出位置の方向へ移動させることにより、現在のフレーム画像における不感帯領域を設定する。
なお、現在のフレーム画像が複数の物体を含む場合には、例えば、不感帯領域設定部122は、後述する追跡対象設定部126により追跡対象に設定された物体の検出位置を基準として、不感帯領域を設定する。
(2-1-3-1.決定例1)
クロッピング領域決定部124は、本開示における切り出し領域決定部の一例である。クロッピング領域決定部124は、現在のフレーム画像が最初のフレーム画像であるか否かによって、現在のフレーム画像におけるクロッピング領域を設定する。例えば、現在のフレーム画像が最初のフレーム画像である場合には、クロッピング領域決定部124は、現在のフレーム画像において物体検出部120により検出された物体の検出位置がクロッピング領域の中心となるように、現在のフレーム画像におけるクロッピング領域を設定する。
‐ケース1
また、現在のフレーム画像が最初のフレーム画像以外のフレーム画像である場合には、クロッピング領域決定部124は、物体検出部120により検出された物体の検出位置と、前のフレーム画像における不感帯領域との位置関係に基づいて、現在のフレーム画像におけるクロッピング領域を設定する。例えば、物体検出部120により検出された物体の検出位置が、前のフレーム画像における不感帯領域に含まれる場合には、クロッピング領域決定部124は、現在のフレーム画像におけるクロッピング領域の位置を、前のフレーム画像におけるクロッピング領域と同一の位置にすることを決定する。なお、現在のフレーム画像におけるクロッピング領域の形状およびサイズは、基本的には、前のフレーム画像におけるクロッピング領域と同一に定められる。
また、物体検出部120により検出された物体の検出位置が、前のフレーム画像における不感帯領域に含まれない場合には、クロッピング領域決定部124は、不感帯領域設定部122により設定された(現在のフレーム画像における)不感帯領域の中心がクロッピング領域の中心になるように、現在のフレーム画像におけるクロッピング領域を決定する。
なお、現在のフレーム画像が複数の物体を含む場合には、例えば、クロッピング領域決定部124は、後述する追跡対象設定部126により追跡対象に設定された物体の検出位置と、追跡対象の物体に関して設定された不感帯領域との位置関係に基づいて、現在のフレーム画像におけるクロッピング領域の位置を決定することが可能である。
追跡対象設定部126は、物体検出部120による物体の検出結果に基づいて、追跡対象の物体を設定する。例えば、追跡対象設定部126は、撮影範囲において設定された例えば監視対象位置などの特定の位置と、物体検出部120により検出された物体の検出位置との間の距離に基づいて、現在のフレーム画像における追跡対象の物体を設定する。
以上、本実施形態による構成について説明した。続いて、本実施形態による動作について、図11~図13を参照して説明する。なお、ここでは、カメラ10が映像クロッピング部106を四個有しており、そして、一枚のフレーム画像から一枚の縮小画像および四枚のクロッピング画像を生成する場面における動作例について説明する。なお、この動作は、所定のフレームレートごとに繰り返し実行される。
図11は、本実施形態による動作例を示したフローチャートである。図11に示したように、まず、カメラ10の撮影部100は、所定の撮影タイミングが到来したら、外部の映像を撮影することによりフレーム画像を取得する(S101)。
ここで、図12~図13を参照して、S107における「クロッピング画像生成処理」の動作について詳細に説明する。図12に示したように、まず、カメラ10の物体検出部120は、現在のフレーム画像の中から検出対象の物体を検出する(S151)。
[2-3-1.効果1]
以上、例えば図4、図7、図11~図13などを参照して説明したように、本実施形態によるカメラ10は、現在のフレーム画像における物体の検出位置と、前のフレーム画像において設定された不感帯領域との位置関係に基づいて、現在のフレーム画像におけるクロッピング領域を決定する。このため、現在のフレーム画像と前のフレーム画像との間での物体の検出位置の変化の大きさに適応的に切り出し領域を決定することができる。
また、例えば物体が高速に移動する場合など、物体の検出位置が前のフレーム画像において設定された不感帯領域からはみ出した場合には、カメラ10は、はみ出した距離だけ不感帯領域を物体の検出位置へ近づける。そして、カメラ10は、移動後の不感帯領域の中心がクロッピング領域の中心になるように、現在のフレーム画像におけるクロッピング領域を決定する。このため、例えば物体が高速に移動している場合であっても、不感帯領域が物体に接する位置に設定されるので、連続するクロッピング画像間で物体が滑らかに移動するようにユーザに知覚され、視認性が高い。
また、クロッピング領域決定部124によるクロッピング領域の決定方法は簡易な方法であるので、カメラ10は、クロッピング画像の生成をリアルタイムに行うことができる。
また、本実施形態によれば、カメラ10単体で縮小画像およびクロッピング画像を生成することが可能である。このため、縮小画像およびクロッピング画像を生成するための例えばサーバなどの他の装置に、カメラ10はフレーム画像を送信する必要がないので、通信量を軽減することができる。
以上、添付図面を参照しながら本開示の好適な実施形態について詳細に説明したが、本開示はかかる例に限定されない。本開示の属する技術の分野における通常の知識を有する者であれば、請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本開示の技術的範囲に属するものと了解される。
上述した実施形態では、本開示による画像処理装置がカメラ10である例について説明したが、かかる例に限定されない。例えば、監視端末22(の制御部220)が、カメラ10の代わりに、上述した映像縮小部102、領域設定部104、および、複数の映像クロッピング部106の全てを有する場合には、本開示による画像処理装置は、監視端末22であってもよい。
また、上述した実施形態によれば、例えばCPU、ROM、およびRAMなどのハードウェアを、上述した映像縮小部102、領域設定部104、および、映像クロッピング部106と同等の機能を発揮させるためのコンピュータプログラムも提供可能である。また、該コンピュータプログラムが記録された記録媒体も提供される。
(1)
第1のフレーム画像の切り出し領域において、物体の検出位置を含む第1の領域を設定する第1領域設定部と、
前記第1のフレーム画像よりも後の第2のフレーム画像における前記物体の検出位置と前記第1の領域との位置関係に基づいて、前記第2のフレーム画像の切り出し領域を決定する切り出し領域決定部と、
を備える、画像処理装置。
(2)
前記切り出し領域決定部は、前記第2のフレーム画像における前記物体の検出位置と前記第1の領域との位置関係に基づいて、前記第2のフレーム画像の切り出し領域の位置を前記第1のフレーム画像の切り出し領域と同一にするか否かを決定する、前記(1)に記載の画像処理装置。
(3)
前記第2のフレーム画像における前記物体の検出位置が前記第1の領域に含まれる場合には、前記切り出し領域決定部は、前記第2のフレーム画像の切り出し領域の位置を前記第1のフレーム画像の切り出し領域と同一にすることを決定する、前記(2)に記載の画像処理装置。
(4)
前記第2のフレーム画像における前記物体の検出位置が前記第1の領域に含まれない場合には、前記第1領域設定部は、前記第2のフレーム画像における前記物体の検出位置が前記第1の領域の輪郭線上に含まれるように前記第1の領域の位置を移動させ、
前記切り出し領域決定部は、移動後の前記第1の領域の中心を前記第2のフレーム画像の切り出し領域の中心に設定することにより、前記第2のフレーム画像の切り出し領域を決定する、前記(2)または(3)に記載の画像処理装置。
(5)
前記第2のフレーム画像の切り出し領域の形状およびサイズは、前記第1のフレーム画像の切り出し領域と同一である、前記(4)に記載の画像処理装置。
(6)
前記第1のフレーム画像の切り出し領域の中心の位置、および前記第1の領域の中心の位置は、前記第1のフレーム画像における前記物体の検出位置と等しい、前記(5)に記載の画像処理装置。
(7)
前記第1領域設定部は、前記第1のフレーム画像の切り出し領域において、複数の物体の各々に関して、当該物体の検出位置を含む第1の領域をそれぞれ設定し、
前記画像処理装置は、前記複数の物体のうちいずれか一つを追跡対象に設定する追跡対象設定部をさらに備え、
前記切り出し領域決定部は、前記追跡対象設定部により設定された追跡対象の物体の検出位置と、前記追跡対象の物体に関して設定された前記第1の領域との位置関係に基づいて、前記第2のフレーム画像の切り出し領域の位置を前記第1のフレーム画像の切り出し領域と同一にするか否かを決定する、前記(2)~(6)のいずれか一項に記載の画像処理装置。
(8)
前記画像処理装置は、前記切り出し領域決定部により決定された前記第2のフレーム画像の切り出し領域を前記第2のフレーム画像から切り出すことにより切り出し画像を生成する切り出し画像生成部をさらに備える、前記(2)~(7)のいずれか一項に記載の画像処理装置。
(9)
前記物体は、人もしくは車両である、前記(2)~(8)のいずれか一項に記載の画像処理装置。
(10)
第1のフレーム画像の切り出し領域において、物体の検出位置を含む第1の領域を設定することと、
前記第1のフレーム画像よりも後の第2のフレーム画像における前記物体の検出位置と前記第1の領域との位置関係に基づいて、前記第2のフレーム画像の切り出し領域を決定することと、
を備える、画像処理方法。
(11)
第1のフレーム画像の切り出し領域において、物体の検出位置を含む第1の領域を設定する第1領域設定部と、
前記第1のフレーム画像よりも後の第2のフレーム画像における前記物体の検出位置と前記第1の領域との位置関係に基づいて、前記第2のフレーム画像の切り出し領域を決定する切り出し領域決定部と、
前記切り出し領域決定部により決定された前記第2のフレーム画像の切り出し領域を前記第2のフレーム画像から切り出すことにより切り出し画像を生成する切り出し画像生成部と、
生成された前記切り出し画像を記憶する記憶部と、
を備える、画像処理システム。
20 ストレージ
22 監視端末
24 通信網
100 撮影部
102 映像縮小部
104 領域設定部
106 映像クロッピング部
108 通信部
120 物体検出部
122 不感帯領域設定部
124 クロッピング領域決定部
126 追跡対象設定部
220 制御部
222 通信部
224 表示部
226 入力部
Claims (11)
- 第1のフレーム画像の切り出し領域において、物体の検出位置を含む第1の領域を設定する第1領域設定部と、
前記第1のフレーム画像よりも後の第2のフレーム画像における前記物体の検出位置と前記第1の領域との位置関係に基づいて、前記第2のフレーム画像の切り出し領域を決定する切り出し領域決定部と、
を備える、画像処理装置。 - 前記切り出し領域決定部は、前記第2のフレーム画像における前記物体の検出位置と前記第1の領域との位置関係に基づいて、前記第2のフレーム画像の切り出し領域の位置を前記第1のフレーム画像の切り出し領域と同一にするか否かを決定する、請求項1に記載の画像処理装置。
- 前記第2のフレーム画像における前記物体の検出位置が前記第1の領域に含まれる場合には、前記切り出し領域決定部は、前記第2のフレーム画像の切り出し領域の位置を前記第1のフレーム画像の切り出し領域と同一にすることを決定する、請求項2に記載の画像処理装置。
- 前記第2のフレーム画像における前記物体の検出位置が前記第1の領域に含まれない場合には、前記第1領域設定部は、前記第2のフレーム画像における前記物体の検出位置が前記第1の領域の輪郭線上に含まれるように前記第1の領域の位置を移動させ、
前記切り出し領域決定部は、移動後の前記第1の領域の中心を前記第2のフレーム画像の切り出し領域の中心に設定することにより、前記第2のフレーム画像の切り出し領域を決定する、請求項2に記載の画像処理装置。 - 前記第2のフレーム画像の切り出し領域の形状およびサイズは、前記第1のフレーム画像の切り出し領域と同一である、請求項4に記載の画像処理装置。
- 前記第1のフレーム画像の切り出し領域の中心の位置、および前記第1の領域の中心の位置は、前記第1のフレーム画像における前記物体の検出位置と等しい、請求項5に記載の画像処理装置。
- 前記第1領域設定部は、前記第1のフレーム画像の切り出し領域において、複数の物体の各々に関して、当該物体の検出位置を含む第1の領域をそれぞれ設定し、
前記画像処理装置は、前記複数の物体のうちいずれか一つを追跡対象に設定する追跡対象設定部をさらに備え、
前記切り出し領域決定部は、前記追跡対象設定部により設定された追跡対象の物体の検出位置と、前記追跡対象の物体に関して設定された前記第1の領域との位置関係に基づいて、前記第2のフレーム画像の切り出し領域の位置を前記第1のフレーム画像の切り出し領域と同一にするか否かを決定する、請求項2に記載の画像処理装置。 - 前記画像処理装置は、前記切り出し領域決定部により決定された前記第2のフレーム画像の切り出し領域を前記第2のフレーム画像から切り出すことにより切り出し画像を生成する切り出し画像生成部をさらに備える、請求項2に記載の画像処理装置。
- 前記物体は、人もしくは車両である、請求項2に記載の画像処理装置。
- 第1のフレーム画像の切り出し領域において、物体の検出位置を含む第1の領域を設定することと、
前記第1のフレーム画像よりも後の第2のフレーム画像における前記物体の検出位置と前記第1の領域との位置関係に基づいて、前記第2のフレーム画像の切り出し領域を決定することと、
を備える、画像処理方法。 - 第1のフレーム画像の切り出し領域において、物体の検出位置を含む第1の領域を設定する第1領域設定部と、
前記第1のフレーム画像よりも後の第2のフレーム画像における前記物体の検出位置と前記第1の領域との位置関係に基づいて、前記第2のフレーム画像の切り出し領域を決定する切り出し領域決定部と、
前記切り出し領域決定部により決定された前記第2のフレーム画像の切り出し領域を前記第2のフレーム画像から切り出すことにより切り出し画像を生成する切り出し画像生成部と、
生成された前記切り出し画像を記憶する記憶部と、
を備える、画像処理システム。
Priority Applications (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017512214A JP6693509B2 (ja) | 2015-04-14 | 2016-02-17 | 画像処理装置、画像処理方法、および画像処理システム |
CN201680019618.XA CN107431761B (zh) | 2015-04-14 | 2016-02-17 | 图像处理设备、图像处理方法以及图像处理*** |
US15/559,506 US10607088B2 (en) | 2015-04-14 | 2016-02-17 | Image processing device, image processing method, and image processing system |
EP16779808.1A EP3285476A4 (en) | 2015-04-14 | 2016-02-17 | Image processing device, image processing method, and image processing system |
US16/784,814 US20200175282A1 (en) | 2015-04-14 | 2020-02-07 | Image processing device, image processing method, and image processing system |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015082274 | 2015-04-14 | ||
JP2015-082274 | 2015-04-14 |
Related Child Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
US15/559,506 A-371-Of-International US10607088B2 (en) | 2015-04-14 | 2016-02-17 | Image processing device, image processing method, and image processing system |
US16/784,814 Continuation US20200175282A1 (en) | 2015-04-14 | 2020-02-07 | Image processing device, image processing method, and image processing system |
Publications (1)
Publication Number | Publication Date |
---|---|
WO2016167016A1 true WO2016167016A1 (ja) | 2016-10-20 |
Family
ID=57125889
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
PCT/JP2016/054525 WO2016167016A1 (ja) | 2015-04-14 | 2016-02-17 | 画像処理装置、画像処理方法、および画像処理システム |
Country Status (5)
Country | Link |
---|---|
US (2) | US10607088B2 (ja) |
EP (1) | EP3285476A4 (ja) |
JP (1) | JP6693509B2 (ja) |
CN (1) | CN107431761B (ja) |
WO (1) | WO2016167016A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020174911A1 (ja) * | 2019-02-28 | 2020-09-03 | 富士フイルム株式会社 | 画像表示装置、画像表示方法、及びプログラム |
Families Citing this family (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3285477B1 (en) * | 2015-04-14 | 2023-06-28 | Sony Group Corporation | Image processing device, image processing method, and image processing system |
JP6967603B2 (ja) * | 2017-03-17 | 2021-11-17 | ユニティ アイピーアール エイピーエスUnity Ipr Aps | 自動化されたカメラコリジョンおよび構図保存のための方法およびシステム |
CN108307113B (zh) * | 2018-01-26 | 2020-10-09 | 北京图森智途科技有限公司 | 图像采集方法、图像采集控制方法及相关装置 |
JP6572500B1 (ja) * | 2018-03-14 | 2019-09-11 | エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd | 画像処理装置、撮像装置、移動体、画像処理方法、及びプログラム |
CN111010590B (zh) * | 2018-10-08 | 2022-05-17 | 阿里巴巴(中国)有限公司 | 一种视频裁剪方法及装置 |
TWI729322B (zh) * | 2018-11-08 | 2021-06-01 | 財團法人工業技術研究院 | 資訊顯示系統及資訊顯示方法 |
TWI749365B (zh) * | 2019-09-06 | 2021-12-11 | 瑞昱半導體股份有限公司 | 移動影像整合方法及移動影像整合系統 |
KR20220102765A (ko) * | 2021-01-14 | 2022-07-21 | 현대두산인프라코어(주) | 건설기계의 제어 시스템 및 방법 |
Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007006111A (ja) * | 2005-06-23 | 2007-01-11 | Nippon Hoso Kyokai <Nhk> | トリミング制御装置及びトリミング制御プログラム |
JP2009147727A (ja) * | 2007-12-14 | 2009-07-02 | Sanyo Electric Co Ltd | 撮像装置及び画像再生装置 |
JP2015023294A (ja) * | 2013-07-16 | 2015-02-02 | オリンパスイメージング株式会社 | 動画処理装置及び動画処理方法 |
Family Cites Families (12)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4516665B2 (ja) | 2000-05-19 | 2010-08-04 | パナソニック株式会社 | 監視装置 |
JP4320657B2 (ja) * | 2005-12-26 | 2009-08-26 | ソニー株式会社 | 信号処理装置 |
JP4622883B2 (ja) * | 2006-02-22 | 2011-02-02 | 富士通株式会社 | 映像属性自動付与装置、映像属性自動付与プログラム及び映像属性自動付与方法 |
JP4464360B2 (ja) * | 2006-03-27 | 2010-05-19 | 富士フイルム株式会社 | 監視装置、監視方法、及びプログラム |
JP2008011497A (ja) * | 2006-06-01 | 2008-01-17 | Canon Inc | カメラ装置 |
JP5237055B2 (ja) * | 2008-11-07 | 2013-07-17 | キヤノン株式会社 | 映像送信装置、映像送信方法、およびコンピュータプログラム |
CN102737384A (zh) * | 2011-04-08 | 2012-10-17 | 慧友电子股份有限公司 | 球型摄影机自动追踪的方法 |
JP5810296B2 (ja) | 2011-06-07 | 2015-11-11 | パナソニックIpマネジメント株式会社 | 画像表示装置及び画像表示方法 |
JP2013165485A (ja) * | 2012-01-11 | 2013-08-22 | Panasonic Corp | 画像処理装置、撮像装置およびコンピュータブログラム |
JP2013162221A (ja) * | 2012-02-02 | 2013-08-19 | Sony Corp | 情報処理装置、情報処理方法、情報処理プログラム |
JP2013172446A (ja) * | 2012-02-23 | 2013-09-02 | Sony Corp | 情報処理装置、端末装置、撮像装置、情報処理方法、及び撮像装置における情報提供方法 |
EP3285477B1 (en) * | 2015-04-14 | 2023-06-28 | Sony Group Corporation | Image processing device, image processing method, and image processing system |
-
2016
- 2016-02-17 EP EP16779808.1A patent/EP3285476A4/en not_active Ceased
- 2016-02-17 JP JP2017512214A patent/JP6693509B2/ja active Active
- 2016-02-17 CN CN201680019618.XA patent/CN107431761B/zh active Active
- 2016-02-17 WO PCT/JP2016/054525 patent/WO2016167016A1/ja active Application Filing
- 2016-02-17 US US15/559,506 patent/US10607088B2/en active Active
-
2020
- 2020-02-07 US US16/784,814 patent/US20200175282A1/en not_active Abandoned
Patent Citations (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2007006111A (ja) * | 2005-06-23 | 2007-01-11 | Nippon Hoso Kyokai <Nhk> | トリミング制御装置及びトリミング制御プログラム |
JP2009147727A (ja) * | 2007-12-14 | 2009-07-02 | Sanyo Electric Co Ltd | 撮像装置及び画像再生装置 |
JP2015023294A (ja) * | 2013-07-16 | 2015-02-02 | オリンパスイメージング株式会社 | 動画処理装置及び動画処理方法 |
Non-Patent Citations (1)
Title |
---|
See also references of EP3285476A4 * |
Cited By (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2020174911A1 (ja) * | 2019-02-28 | 2020-09-03 | 富士フイルム株式会社 | 画像表示装置、画像表示方法、及びプログラム |
JPWO2020174911A1 (ja) * | 2019-02-28 | 2021-12-02 | 富士フイルム株式会社 | 画像表示装置、画像表示方法、及びプログラム |
JP7186854B2 (ja) | 2019-02-28 | 2022-12-09 | 富士フイルム株式会社 | 画像表示装置、画像表示方法、及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
JPWO2016167016A1 (ja) | 2018-02-08 |
US20200175282A1 (en) | 2020-06-04 |
EP3285476A1 (en) | 2018-02-21 |
CN107431761A (zh) | 2017-12-01 |
US10607088B2 (en) | 2020-03-31 |
EP3285476A4 (en) | 2018-09-19 |
US20180121736A1 (en) | 2018-05-03 |
JP6693509B2 (ja) | 2020-05-13 |
CN107431761B (zh) | 2021-02-19 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016167016A1 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
JP6604019B2 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
JP6724904B2 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
EP4407556A1 (en) | Computer-vision based security system using a depth camera | |
EP3321844A1 (en) | Action recognition in a video sequence | |
KR101458136B1 (ko) | 영상 처리 방법, 이를 실행하는 영상 처리 서버, 감시 서버, 영상 처리 시스템 및 이를 저장한 기록 매체 | |
KR101623826B1 (ko) | 히트맵 영상 기능을 가진 감시카메라 | |
JP2018513992A (ja) | 連続オートフォーカスのためのシステムおよび方法 | |
US10277888B2 (en) | Depth triggered event feature | |
US10657783B2 (en) | Video surveillance method based on object detection and system thereof | |
KR101840300B1 (ko) | Cctv 영상의 검색 장치 및 방법 | |
KR101990789B1 (ko) | 관심객체의 선택에 의한 영상 탐색장치 및 방법 | |
CN111788538A (zh) | 头戴式显示器以及减少所连接的远程显示器中视觉诱发运动疾病的方法 | |
JP6088024B2 (ja) | 不正を検出するためのビデオ監視システムおよび方法 | |
CN113361364B (zh) | 目标行为检测方法、装置、设备及存储介质 | |
JP2009187348A (ja) | 不審物自動検出装置 | |
JP2019161362A (ja) | 監視システム | |
KR20160035473A (ko) | 스테레오 카메라 및 그 작동 방법 | |
JP6996538B2 (ja) | 画像処理装置、画像処理方法、および画像処理システム | |
US10943103B2 (en) | Human body detection apparatus, human body detection method, information processing apparatus, information processing method, and storage medium | |
JP2020107218A5 (ja) | ||
CN111225178A (zh) | 基于对象检测的视频监控方法及其*** | |
KR100891793B1 (ko) | 디지털 카메라의 이미지 처리 방법 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
121 | Ep: the epo has been informed by wipo that ep was designated in this application |
Ref document number: 16779808 Country of ref document: EP Kind code of ref document: A1 |
|
REEP | Request for entry into the european phase |
Ref document number: 2016779808 Country of ref document: EP |
|
ENP | Entry into the national phase |
Ref document number: 2017512214 Country of ref document: JP Kind code of ref document: A |
|
WWE | Wipo information: entry into national phase |
Ref document number: 15559506 Country of ref document: US |
|
NENP | Non-entry into the national phase |
Ref country code: DE |