WO2015146230A1 - 映像表示装置および映像表示システム - Google Patents

映像表示装置および映像表示システム Download PDF

Info

Publication number
WO2015146230A1
WO2015146230A1 PCT/JP2015/050892 JP2015050892W WO2015146230A1 WO 2015146230 A1 WO2015146230 A1 WO 2015146230A1 JP 2015050892 W JP2015050892 W JP 2015050892W WO 2015146230 A1 WO2015146230 A1 WO 2015146230A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
feature amount
video display
display device
overhead
Prior art date
Application number
PCT/JP2015/050892
Other languages
English (en)
French (fr)
Inventor
樋口 晴彦
中嶋 満雄
吉孝 内田
中村 浩之
勝夫 小野崎
崇之 塩屋
Original Assignee
クラリオン株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by クラリオン株式会社 filed Critical クラリオン株式会社
Priority to EP15769792.1A priority Critical patent/EP3125544A4/en
Priority to US15/125,719 priority patent/US20170006234A1/en
Priority to CN201580006815.3A priority patent/CN105960800A/zh
Publication of WO2015146230A1 publication Critical patent/WO2015146230A1/ja

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/188Capturing isolated or intermittent images triggered by the occurrence of a predetermined event, e.g. an object reaching a predetermined position
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/222Studio circuitry; Studio devices; Studio equipment
    • H04N5/262Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
    • H04N5/265Mixing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/27Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view providing all-round vision, e.g. using omnidirectional cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4038Image mosaicing, e.g. composing plane images from plane sub-images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/60Rotation of whole images or parts thereof
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/105Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using multiple cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/303Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing using joined images, e.g. multiple camera images
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/60Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective
    • B60R2300/607Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by monitoring and displaying vehicle exterior scenes from a transformed perspective from a bird's eye viewpoint

Definitions

  • the present invention relates to the technology of a video display device.
  • the present invention claims the priority of Japanese Patent Application No. 2014-066268 filed on March 27, 2014, and for the designated countries where weaving by reference of documents is permitted, the contents described in the application are as follows: Is incorporated into this application by reference.
  • Patent Document 1 JP 2009-289185 (Patent Document 1) as background art in this technical field.
  • This publication states that “designating means for designating K cameras (K: an integer of 2 or more) each having a common field of view, K output from the K cameras designated by the designating means, respectively.
  • a combining means for combining the object scene images with reference to the weight assigned to each of the K cameras, and whether or not a dynamic three-dimensional object exists in the common field of view is related to the specifying process of the specifying means
  • Discriminating means for discriminating first control means for controlling the weights of the K cameras in a predetermined manner when the discrimination result of the discriminating means is negative, and when the discrimination result of the discriminating means is positive
  • Calculation means for calculating a reduction amount of the distance to the dynamic three-dimensional object for each of the K cameras, and second control for controlling the weights of the K cameras based on the reduction amounts calculated by the calculation means.
  • Image with means It has been described as the physical device ".
  • An object of the present invention is to easily and accurately detect the presence of a three-dimensional object and reflect it in an overhead image.
  • a video display device includes a feature amount detection condition specifying unit that specifies a condition for detecting a predetermined feature amount for an overhead image of an image obtained by photographing a common region from at least two different viewpoints.
  • a feature amount detection unit that detects the feature amount for each overhead image of the image obtained by photographing the common region using the specified feature amount detection condition; and a feature amount detected by the feature amount detection unit.
  • a blend rate specifying unit for specifying a blend rate when blending pixels of an overhead image of an image taken from a common area taken from different viewpoints, and the blend rate specified by the blend rate specifying unit
  • a bird's-eye view image synthesis unit that blends and outputs the pixels of the bird's-eye view image of the image taken of the common area.
  • the presence of a three-dimensional object can be detected easily and accurately and reflected in an overhead image.
  • FIG. 1 It is a figure which shows the structural example of the video display apparatus which concerns on embodiment of this invention. It is a figure which shows the hardware structural example of a video display apparatus. It is a figure which shows the example of the usage condition of a video display apparatus. It is a figure which shows the example of an output by a video display apparatus. It is a figure which shows the outline
  • FIG. 1 is a diagram showing a configuration example of a video display device 100 to which the first embodiment according to the present invention is applied.
  • the video display device 100 includes a control unit 110, a storage unit 120, and a camera control unit 130.
  • the video display apparatus 100 is a terminal that presents an overhead image to the user.
  • the video display device 100 is typically a navigation device, a vehicle control device, or the like, and is a device that presents a bird's-eye view image looking down from above using an image obtained by photographing the periphery of the vehicle.
  • the present invention is not limited thereto, and may be an electronic information terminal such as a personal computer device, a mobile phone terminal, a tablet terminal, or a PDA (Personal Digital Assistant).
  • the control unit 110 performs basic control of the video display device 100. For example, the control unit 110 performs supervisory functions such as power management of the entire video display device 100, control of various devices by an operating system, task management, and the like. Further, the control unit 110 includes a feature amount detection condition specifying unit 111, a feature amount detecting unit 112, a blend rate specifying unit 113, and an overhead image combining unit 114.
  • the feature amount detection condition specifying unit 111 specifies an appropriate condition for detecting the feature amount of the image. As will be described later, the feature amount detection condition includes, for example, information for specifying in detail the scanning direction of the image in order to detect the feature amount with higher accuracy.
  • the feature amount detection unit 112 detects a predetermined feature amount regarding the image. Specifically, the feature amount includes a ratio of an area occupied by the three-dimensional object on the screen.
  • the blend ratio specifying unit 113 specifies the weighting of data between the images used when generating a bird's-eye view image by combining a plurality of images obtained by shooting a common area from different viewpoint positions. Specifically, the blend ratio specifying unit 113 determines whether or not there is a correlation in the feature amount between the images, and whether or not the region in which the feature amount between the images is seen includes the same position in the common region. , Etc., specify the blend rate.
  • the bird's-eye view image synthesizing unit 114 synthesizes and outputs a bird's-eye view image by blending pixels of a plurality of images obtained by photographing a common area in accordance with the blend rate specified by the blend rate specifying unit 113.
  • the storage unit 120 includes a feature amount detection condition storage unit 121 and a blend information storage unit 122.
  • the feature amount detection condition storage unit 121 stores conditions to be applied when detecting feature amounts in accordance with a combination of information for specifying a region to be captured and a viewpoint position for capturing the region. .
  • the detailed description of the feature amount detection condition storage unit 121 will be given in the description of FIG.
  • the blend information storage unit 122 stores information for specifying a region to be shot and information on a blend ratio between viewpoint positions at which the region is shot.
  • the detailed description of the blend information storage unit 122 will be given in the description of FIG.
  • the camera control unit 130 instructs the camera capable of providing an image to the video display device 100 to perform various controls including the start and end of shooting, and acquires an image output from the camera.
  • the above is the outline of the configuration of the video display device 100.
  • FIG. 2 is a diagram showing a hardware configuration example of the video display device 100 to which the first embodiment according to the present invention is applied and the video display system 1 including the same.
  • the video display system 1 includes a video display device 100, a camera group 101, and a display 108.
  • the camera group 101 includes a plurality of cameras from the first camera to the n-th (n is an integer) camera.
  • the video display system 1 typically captures images around the vehicle with a plurality (n) of cameras mounted on the vehicle, combines the captured images of the cameras with the video display device 100, and displays the vehicle on the display 108.
  • the bird's-eye view image around is displayed.
  • the camera group 101 is not limited to a camera that can capture an image centered on visible light, but may include a camera such as a night vision camera that has a sensitivity region in infrared rays and outputs it as an image.
  • the video display device 100 includes a decoding unit group 102 including one or a plurality of decoding units, a CPU (Central Processing Unit) 104, a memory 105, an auxiliary storage device 106, and an encoding unit 107.
  • An image transmitted from each camera constituting the camera group 101 is decoded by a decoding unit group 102 having a corresponding decoding unit, and stored in the memory 105 via the bus 103.
  • the captured images from the cameras stored in the memory 105 are combined by the CPU 104 and used to generate a bird's-eye view around the vehicle.
  • the synthesized bird's-eye view image is encoded by the encoding unit 107 and reproduced on the display 108.
  • the above-described feature amount detection condition specifying unit 111, feature amount detecting unit 112, blend ratio specifying unit 113, overhead image combining unit 114, and camera control unit 130 are realized by the CPU 104.
  • the feature amount detection condition storage unit 121 and the blend information storage unit 122 are realized by the auxiliary storage device 106 and the memory 105.
  • the CPU 104 performs a correction process and a perspective conversion process for distortion generated by the optical system on an image obtained by a wide-angle camera having a viewing angle wider than a predetermined angle, and performs an overhead view using an image for each camera. Create an image that forms part of the image.
  • the CPU 104 performs processing such as clipping, synthesis, and alpha blending processing of these overhead images, and performs processing for generating an overhead image of the entire periphery of the vehicle.
  • the CPU 104 further performs various image processing such as edge extraction, contour extraction, Gaussian processing, noise removal processing, threshold processing, and the like on the captured image data to determine whether there are white lines, obstacles, pedestrians, etc. drawn on the road And the process of detecting the size of the area in which they appear is also performed.
  • image processing such as edge extraction, contour extraction, Gaussian processing, noise removal processing, threshold processing, and the like
  • the encoding unit 107 encodes the generated overhead image.
  • the display 108 displays the overhead view image output from the video display device 100.
  • the display 108 is, for example, an LCD (Liquid Crystal Display) or the like, but the type is not limited to this, and is not limited to this, CRT (Cathode Ray Tube), LCOS (Liquid Crystal On Silicon), OLED (Organic light-emission).
  • a holographic optical element or a projector device is arbitrary. Further, not only a flat monitor but also a HUD (Head-Up Display), an HMD (Head Mounted Display), or the like may be used.
  • FIG. 3 is a diagram showing an example of the usage status of the video display device.
  • the vehicle 200 is provided with a front camera 201, a left side camera 202, a rear camera 203, and a right side camera 204, and a pedestrian (subject 205) walks diagonally to the left of the vehicle 200. It shows the situation that came.
  • the image taken by the front camera 201 attached to the vehicle 200 forward in the traveling direction and converted into a bird's-eye view image is the front image 206, and the image taken by the left side camera 202 and converted into the bird's-eye view image. Is the left side image 207.
  • the front camera 201 and the left side camera 202 are attached so as to ensure an obliquely downward (ground direction) viewing angle by inclining by a predetermined angle in a vertically downward direction.
  • an image captured by the rear camera 203 and converted into an overhead image is generated as a rear image
  • an image captured by the right side camera 204 and converted into an overhead image is generated as a right side image. It goes without saying that it is done.
  • the foot portions of the subject (pedestrian) 205 are included as a front foot image 205a in the front image 206 and as a left foot image 205b in the left side image 207, respectively.
  • a lens distortion correction process that occurs at the edge of the image and a perspective transformation that changes the magnification according to the depth distance are performed on an image captured by a camera. For this reason, the three-dimensional object appears to be distorted in the overhead view image, and the front image 206 photographed by the front camera 201 extends in the direction of the arrow extending from the front camera 201 like the front foot image 205a. Displayed. Similarly, the left side image 207 photographed by the left side camera 202 is displayed so as to extend in the direction of the arrow coming out of the left side camera 202 like a left side foot image 205b.
  • the subject (pedestrian) 205 that is originally the same subject is displayed as a front foot image 205a and a left side foot image 205b extending in different directions due to a difference in the viewpoint position of the camera in the overhead view image.
  • the subject is not a three-dimensional object, for example, in the case of a planar pattern drawn on the road such as the white line 208, there is no difference in shape even in the overhead image such as the white line 208a and the white line 208b in the overhead image. It is possible to superimpose if it is photographed and the position is matched.
  • the same subject is photographed from different directions and converted into a bird's-eye view image
  • a feature is detected in which the two images are compared and the shape extends in different directions
  • it is considered that a three-dimensional object exists.
  • a feature having no difference in shape is detected in the image
  • it can be determined that a substantially planar object exists on the road surface.
  • the direction in which the shape of the three-dimensional object extends in the overhead view image is determined by the positional relationship between the camera and the three-dimensional object, as indicated by the directions of the arrows coming from the front camera 201 and the left side camera 202. It can be said that it can be an effective determination condition for determining the presence or absence of a three-dimensional object from the image to be displayed.
  • processing conditions for detecting features are determined according to the positional relationship between the camera, that is, the viewpoint position and the three-dimensional object.
  • FIG. 4 is a diagram illustrating an example of an overhead image output by the video display device 100.
  • the shooting area is divided into predetermined areas, and the image of the area that is superimposed and shot by another camera is displayed after some image composition.
  • the periphery of the vehicle 200 is divided into eight areas (a left front area 300, a front area 301, a right front area 302, a left area 303, a right area 304, a left rear area 305, a back area 306, and a right rear area 307). It shall be divided.
  • the areas photographed by the front camera 201 are the left front area 300, the front area 301, and the right front area 302.
  • the areas photographed by the left side camera 202 are a front left area 300, a left area 303, and a rear left area 305.
  • the viewpoint positions and orientations of the rear camera 203 and the right side camera 204, and the angle of view also in other areas. Is determined in the same manner.
  • the front left area 300 is an area where images obtained by the front camera 201 and the left side camera 202 overlap (in the following description, an area that is commonly captured by a plurality of cameras is referred to as “superimposition”. Called “Area”).
  • the right front area 302, the left rear area 305, and the right rear area 307 are also superimposed areas that are photographed in common by a plurality of cameras.
  • the right front area 302, the left rear area 305, and the right rear area 307 are displayed with diagonal lines, but actually, the captured object is displayed.
  • the three-dimensional object in consideration of the point that the three-dimensional object is expressed by extending in the direction based on the viewpoint position as described above, it is common when there is no projection (three-dimensional object) on the ground and is a plane.
  • the images in the area are basically the same and can be said to be superposed.
  • the white line 308 can be displayed in the same place in the overhead image.
  • a three-dimensional object for example, a pedestrian
  • the front foot image 205a and the left side foot image 205b of the three-dimensional object are blended at a predetermined blend ratio.
  • the presence of the three-dimensional object is prevented from being lost. Thereby, it is avoided that a part of the image of the three-dimensional object disappears.
  • FIG. 5 is a diagram showing an outline of the feature amount detection processing performed by the video display device 100.
  • the feature amount detection condition specifying unit 111 and the feature amount detection unit 112 perform a feature amount detection process.
  • the front image 400a is an image captured by the front camera 201 and converted to an overhead image
  • the left side image 400b is an image captured by the left side camera 202 and converted to an overhead image.
  • the three-dimensional object is displayed in a different direction due to the difference in the viewpoint position, and the object on the road surface is displayed in an overlapping place.
  • the overhead image synthesis unit 114 performs a process of removing the common object from each image with respect to each other image obtained by capturing the overlapping area which is a common area, the front three-dimensional object from which the common object (planar object) is removed.
  • An image 401a and a left side three-dimensional object image 401b can be obtained. This is realized by the overhead image synthesizing unit 114 removing information on a common part with respect to a corresponding range of another image from each image.
  • the three-dimensional object (front foot image 205a and left side foot image 205b) reflected in each image can be left as a difference, Those on the road surface 208a, 208b can be removed as a common part.
  • the feature amount detection condition specifying unit 111 specifies an appropriate detection condition.
  • the direction in which the contour of the three-dimensional object extends depends on the direction of the viewpoint position as viewed from the overlapping area. Therefore, the detection condition for efficiently increasing the extraction accuracy is an appropriate contour scanning direction. It can be said that it is in identifying. Therefore, the feature amount detection condition specifying unit 111 specifies the feature amount detection condition in accordance with the geometric relationship between the viewpoint position and the common area. Specifically, the feature amount detection condition specifying unit 111 specifies the direction of contour scanning used for feature amount detection according to the viewpoint position and the direction of the viewpoint position viewed from the common area.
  • the contour extraction process is performed by scanning the amount of change in the elements constituting the image, such as luminance, RGB, and CMY values, in a predetermined direction on the image (usually in the horizontal pixel direction). In many cases, a high detection accuracy can be obtained if the scanning direction and the detection target are orthogonal to each other. Based on this, the feature amount detection condition specifying unit 111 sets a detection condition in order to perform scanning so as to be orthogonal to the extending direction of the contour of the three-dimensional object.
  • the feature amount detection condition specifying unit 111 specifies the contour scanning direction 402a and the contour scanning direction 402b for each of the front three-dimensional object image 401a and the left side three-dimensional object image 401b.
  • the feature amount detection unit 112 scans the front three-dimensional object image 401a and the left-side three-dimensional object image 401b in accordance with the specified contour scanning direction 402a and contour scanning direction 402b, and detects the contours 403a and 403b.
  • the above is the outline of the feature amount detection processing.
  • FIG. 6 is a diagram illustrating a data structure stored in the feature amount detection condition storage unit 121.
  • the area specification information 121A, the representative point 121B, the viewpoint position specification information 121C, and the feature quantity detection condition 121D are stored in association with each other.
  • the area specifying information 121A is information for specifying an area to be photographed in common among a plurality of images.
  • the representative point 121B is a point that represents an area specified by the area specifying information 121A.
  • the position specified by the representative point 121B may be, for example, the center of gravity of the region, the center, or any vertex of the region. For example, not only the center of gravity of the shooting area, but also a point that is the farthest or nearest point from the camera in the shooting area, or a point on an object detected in the shooting area may be used as a representative point.
  • the viewpoint position specifying information 121C is information for specifying the viewpoint position, that is, the position of the camera.
  • the feature amount detection condition 121D is a condition to be used for detecting the feature amount.
  • the image rotation angle is ⁇ (where ⁇ is a straight line extending direction perpendicular to the line segment from the viewpoint position to the representative point of the region, and the luminance change amount in the contour extraction process.
  • the condition that it should be applied as a difference in angle with the direction in which the image is to be stored is stored in advance.
  • FIG. 7 is a diagram illustrating a data structure stored in the blend information storage unit 122.
  • the region specifying information 122A and the blend rate 122B are stored in association with each other.
  • the area specifying information 121A is information for specifying an area to be photographed in common among a plurality of images.
  • the blend rate 122B is information for specifying a weight between images when the region specified by the region specifying information 121A is synthesized and output using a plurality of images. For example, the weighting of the image captured by “Camera 001” and the image captured by “Camera 002” is a ratio of “p: (1 ⁇ p)” (p is a number from 0 to 1). It is information that specifies to be blended with weighting.
  • the direction on the image when the front image 400a is photographed as if a three-dimensional object is stretched differs depending on the position in the area, but it is regarded as the same direction, and the contour scanning direction is set to be the same. As a result, the processing load can be reduced.
  • FIG. 8 is a diagram showing the relationship between the scanning direction of the feature amount and the rotation amount of the image. That is, FIG. 8 shows an image of a specific method in the process of detecting the contour by scanning the front three-dimensional object image 401a in accordance with the contour scanning direction 501.
  • the front three-dimensional object image 401a includes a center of gravity 500 that is separated from the front camera (viewpoint position) 201 by x in the horizontal direction and y in the vertical direction. Therefore, the feature amount detection condition specifying unit 111 sets the contour scanning direction 501 in a direction orthogonal to a line segment connecting the front camera (viewpoint position) 201 and the center of gravity 500.
  • the feature quantity detection condition specifying unit 111 sets the center of gravity 500, which is a representative point of the front three-dimensional object image 401a, as the center of rotation, and the front three-dimensional object image by the image rotation angle ⁇ indicated in the feature quantity detection condition 121D. Rotate 401a.
  • the feature amount detection condition specifying unit 111 is not limited to this, and may perform common edge detection after the processed image itself is rotated at an angle determined according to the positional relationship between the camera position and the shooting area.
  • the image rotation angle ⁇ is the difference in angle between the extending direction of a straight line orthogonal to the line segment from the viewpoint position to the representative point of the region and the direction in which the luminance change amount is scanned in the contour extraction process. is there.
  • the rotation amount can be set to an optimum angle for each camera or for each photographing direction. For example, in the case of a rear camera, when vertical scanning is appropriate (for example, for positioning in a garage), the image rotation angle ⁇ is determined so that the contour scanning direction is vertical. It may be.
  • FIG. 9 is a diagram showing an example of the scanning direction of the feature amount on the concentric circles and an implementation means thereof. That is, this is an example of setting the extraction direction for enabling detection with higher accuracy in the above-described processing for detecting the contour.
  • FIG. 9 shows an example of a method of setting the scanning direction so as to be as close as possible to the tangential direction of the concentric circle centering on the front camera (viewpoint position) 201 when the contour is extracted from the front three-dimensional object image 401a.
  • FIG. 9 shows an example of a method of setting the scanning direction so as to be as close as possible to the tangential direction of the concentric circle centering on the front camera (viewpoint position) 201 when the contour is extracted from the front three-dimensional object image 401a.
  • the contour scanning direction 502 is set in the tangential direction of the concentric circle from the front camera (viewpoint position) 201 for the front three-dimensional object image 401a.
  • the feature amount detection condition specifying unit 111 determines the center of gravity for each area. It is possible to specify and set the scanning directions 503A to 503D in the direction orthogonal to the line segment connecting the camera and the front camera (viewpoint position) 201, and to detect the contour with high accuracy.
  • the direction in which the three-dimensional object extends is basically an extension direction of a line segment connecting the camera and the position where the three-dimensional object comes into contact with the ground.
  • the contour scanning direction is different, it is necessary to change the video display method such as the contour extraction filter depending on the search area in the image, and the processing load increases.
  • the contour extraction process can be performed substantially orthogonal to the direction in which the three-dimensional object extends, high extraction accuracy of the three-dimensional object can be obtained.
  • the method for setting the contour scanning direction is not limited to the examples shown in FIGS. 8 and 9.
  • the filter coefficient of an edge detection filter such as a Laplacian filter or a Sobel filter is set to the viewpoint position of the front camera 201 and the overlapping area. It may be determined according to the positional relationship. By doing in this way, more accurate contour extraction becomes possible.
  • FIG. 10 shows an example of processing for determining the blend ratio in the operation sequence of image composition in the overlapping area.
  • the front left area 300 that is a common imaged area among the areas imaged using the front camera 201 that is “camera 1” and the left side camera 202 that is “camera 2”.
  • the overhead image obtained based on “Camera 1” and the overhead image obtained based on “Camera 2” are combined.
  • the feature amount detection condition specifying unit 111 determines the processing condition C1 of the overhead image obtained based on the camera 1 from the positional relationship between the camera 1 and the overlapping area (step S001). Specifically, the feature amount detection condition specifying unit 111 refers to the feature amount detection condition storage unit 121, and includes region specifying information 121A corresponding to the overlapping area and viewpoint position specifying information 121C corresponding to the arrangement position of the camera 1. The feature amount detection condition 121D corresponding to the combination is read out.
  • the feature amount detection condition specifying unit 111 determines the processing condition C2 of the overhead image obtained based on the camera 2 from the positional relationship between the camera 2 and the overlapping area (step S002). Specifically, the feature amount detection condition specifying unit 111 refers to the feature amount detection condition storage unit 121, and includes region specifying information 121A corresponding to the overlapping area and viewpoint position specifying information 121C corresponding to the arrangement position of the camera 2. The feature amount detection condition 121D corresponding to the combination is read out.
  • the feature amount detection unit 112 detects the three-dimensional object existing in the overlapping area of the overhead image obtained based on the camera 1 using the processing condition C1 (step S003).
  • the detected three-dimensional object has an image feature amount Q1.
  • the feature amount detection unit 112 applies the processing condition C1 to the overhead image obtained based on the camera 1 and scans in the contour scanning direction in a state satisfying the processing condition C1 to specify the contour of the three-dimensional object. .
  • the feature amount detection unit 112 extracts image feature amounts by a portion having many edges or the like, contour extraction by a Laplacian filter or Sobel filter, binarization processing, color information, histogram information, and various pattern recognition processing.
  • the feature amount detection unit 112 specifies the image feature amount Q1 such as the position of the pixel from which the edge or contour can be extracted and the brightness of the edge.
  • the feature amount detection unit 112 detects the three-dimensional object existing in the overlapping area of the overhead image obtained based on the camera 2 using the processing condition C2 (step S004).
  • the detected three-dimensional object has an image feature amount Q2.
  • the feature amount detection unit 112 applies the processing condition C2 to the overhead image obtained based on the camera 2, and scans in the contour scanning direction in a state satisfying the processing condition C2, and specifies the contour of the three-dimensional object. .
  • the feature amount detection unit 112 extracts image feature amounts by a portion having many edges or the like, contour extraction by a Laplacian filter or Sobel filter, binarization processing, color information, histogram information, and various pattern recognition processing.
  • the feature amount detection unit 112 specifies the image feature amount Q2 such as the position of the pixel from which the edge or contour can be extracted and the brightness level of the edge.
  • image feature values Q1 and Q2 image feature values such as SIFT (Scale-Invariant Feature Transform) or HOG (Histograms of Oriented Gradients) may be used. Further, it may be selected whether the extracted feature information is a person such as a pedestrian or an object by combining the HOG feature amount and the feature amount in the form of a pedestrian. Thus, by switching the output contents such as the contrast enhancement process and the danger level display depending on whether the person is a pedestrian or an object, more convenient information can be provided to the driver.
  • SIFT Scale-Invariant Feature Transform
  • HOG Heistograms of Oriented Gradients
  • the blend rate specifying unit 113 determines whether or not the image feature amounts Q1 and Q2 are strongly correlated with each other by a predetermined amount (step S005). Specifically, the blend ratio specifying unit 113 determines whether the pixel positions of the detected objects are coincident or gathered within a certain range, or whether the feature amount difference is within a predetermined range. This may determine the correlation between the spatial distance relationship and the semantic distance relationship by performing a conventional statistical process or clustering process.
  • step S005 If the correlation is stronger than a predetermined value (“Yes” in step S005), the blend rate specifying unit 113 assumes that the three-dimensional object does not exist in the overlapping area, and the overhead image obtained based on the camera 1 And the bird's-eye view image obtained based on the camera 2 are determined to synthesize the bird's-eye view image of the overlapping area at a predetermined blend rate, and the overhead image synthesizer 114 performs the synthesis (step S006).
  • the blend rate specifying unit 113 assumes that the three-dimensional object does not exist in the overlapping area, and the overhead image obtained based on the camera 1 And the bird's-eye view image obtained based on the camera 2 are determined to synthesize the bird's-eye view image of the overlapping area at a predetermined blend rate, and the overhead image synthesizer 114 performs the synthesis (step S006).
  • the blend rate specifying unit 113 assumes that the three-dimensional object does not exist in the overlapping area, and
  • the overhead image synthesis unit 114 blends the pixel information (for example, luminance information or RGB information) at the corresponding position between the overhead image obtained based on the camera 1 and the overhead image obtained based on the camera 2. Is weighted according to, and is synthesized into one overhead image. When the overhead image synthesis unit 114 synthesizes the overhead image, the blend rate determination process is terminated. The synthesized overhead image is then sent to the encoding unit 107 and the display 108 and output.
  • the pixel information for example, luminance information or RGB information
  • the blend rate specifying unit 113 is included in the overhead image obtained based on the camera 1 and the overhead image obtained based on the camera 2, respectively. It is determined in which position the three-dimensional object to be placed is in the overlapping area, and it is determined whether or not the three-dimensional object is in a position that is at least a predetermined position (step S007). In other words, the blend rate specifying unit 113 determines whether or not there is an overlapping area on the common area with a predetermined degree or more with respect to the feature amount of the image obtained from each camera.
  • the blend rate specifying unit 113 determines the blend rate according to the image feature amounts Q1 and Q2 (step S008). Specifically, the blend rate specifying unit 113 first performs a predetermined calculation on the image feature amount Q1 obtained based on the camera 1, and sets the result as F (Q1). Similarly, a result obtained by performing a predetermined calculation on the image feature amount Q2 obtained based on the camera 2 is defined as F (Q2). Then, the blend rate specifying unit 113 specifies the weighting ratio of synthesis based on the image feature amount Q1 obtained based on the camera 1 by the following expression (1).
  • the weighting ratio of the composition based on the image feature amount Q2 obtained based on the camera 2 is specified by the following equation (2).
  • the predetermined calculation F may be a calculation of extracting and counting the number of pixels of an image having a feature amount equal to or greater than a predetermined threshold within the overlapping area.
  • the size occupied by the three-dimensional object image in the overlapping area of the overhead view image obtained based on the camera 1 and the overhead view image obtained based on the camera 2 can be used as an element for varying the blend rate.
  • the predetermined calculation F calculates the sum, average, weighted average, center of gravity, and center value of image feature amounts of pixels in the overlapping area of the overhead view image obtained based on the camera 1 and the overhead view image obtained based on the camera 2.
  • Various computations such as performing are also possible. In this case, not only the size occupied by the image of the three-dimensional object in the overlapping area but also the size of the feature value can be an element that varies the blend rate.
  • the blend rate can be determined for each pixel.
  • the feature amount itself in the target pixel may be used as F (Q1)
  • the feature amount itself in the target pixel may be used as F (Q2).
  • F (Q1) and F (Q2) may be compared to set a larger blend ratio for an image having a larger value.
  • the change of the blending rate is the portion where the “feature amount ratio” is closer to 0.5.
  • a large gradient may be set.
  • This blend rate calculation method emphasizes the contrast of images with more features (images that are more likely to have a three-dimensional object) while the blend rate changes gently when the “feature ratio” changes. It becomes possible to do. Accordingly, there is an effect that the user can more easily recognize an image having a relatively high possibility of a three-dimensional object.
  • the ratio of the feature quantity is greater than or equal to a predetermined size.
  • the contrast of a more characteristic image is further enhanced while the blend ratio is gently switched when the ratio of the feature amount changes. It becomes possible. There is an effect that it becomes easier for the user to recognize an image having a relatively high possibility of a three-dimensional object.
  • the blend rate may be set so as to switch stepwise.
  • the blending ratio is more gently switched as the number of switching stages is larger.
  • calculation F has been described on the assumption that the value of the calculation result is large for an image that is likely to have a three-dimensional object.
  • the calculation F may be such that the value becomes small.
  • a multi-value can be taken as a blend ratio for an image of a three-dimensional object.
  • the part of the three-dimensional object can be synthesized more naturally according to the high possibility of the three-dimensional object.
  • the blend ratio can be calculated for the entire overlapping area or in units of pixels and used for the composition processing in the entire overlapping area or in units of pixels, an unnatural image such as a boundary line is generated in the overlapping area. It is also possible to prevent the joint portion from being generated, and a more natural composite image can be generated.
  • the distances from a certain pixel position in the front left area 300 to the front camera 201 that is “camera 1” and the left side camera 202 that is “camera 2” are d1 and d2, respectively.
  • a fixed blend ratio may be set according to the ratio between the distances d1 and d2. That is, the blend ratio of the image of the front camera 201 may be set high at a pixel position (that is, d1 ⁇ d2) close to the front camera 201 that is “camera 1”.
  • the overhead image is weighted by the camera that is farther away. It is preferable to correct the blend ratio so as to increase the weight. That is, when the approach limit threshold is dth (where d1 minimum value ⁇ dth ⁇ d1 maximum value), the blending ratio P1 of the overhead image by the near front camera 201 is low at a position where d1 ⁇ d2 and d1 ⁇ dth. You may make it correct as follows.
  • the bird's-eye view image synthesis unit 114 performs a bird's-eye view image synthesis including an expression to be emphasized, such as highlighting the presence of a three-dimensional object, using the blend ratio (step S009).
  • the overhead image synthesis unit 114 performs pixel information (for example, luminance information or RGB information) at a corresponding position between the overhead image obtained based on the camera 1 and the overhead image obtained based on the camera 2. Then, weighting according to the determined blend ratio is performed to synthesize one overhead image.
  • the blend rate determination process is terminated. The synthesized bird's-eye view image is then sent to the display 108 and output.
  • FIG. 11 is a diagram showing an example of a screen for synthesizing a bird's-eye view image by blending based on feature amounts.
  • the feature amount is not correlated in step S005 of the blend rate determination process and the object is determined to be in a common position in step S007, that is, using the blend rate determined in step S008, an overview is obtained.
  • a pedestrian's foot 1104 photographed by the camera 2 is shown. Since the same overlapping area is photographed and a three-dimensional pedestrian is present in the area, the pedestrian's feet 1103 and 1104 extend in different directions.
  • the pedestrian's foot 1103 and the pedestrian's foot 1104 both have a characteristic amount at a common position 1108, and therefore, the blend ratio “p” of the overhead image 1101 by the camera 1 and the overhead image 1102 by the camera 2. : (1-p) ”is calculated, and the overhead view image synthesis unit 114 synthesizes the overhead view synthesized image 1105 according to the blend ratio.
  • the pedestrian's foot 1106 photographed by the camera 1 and the pedestrian's foot 1107 photographed by the camera 2 are synthesized according to the respective blend ratios, and are included in the overhead view composite image 1105.
  • the blend rate specifying unit 113 selects the image with the larger feature quantity of the image feature quantities Q1 and Q2 as an overhead image. It is determined to be adopted (step S010).
  • the bird's-eye view image synthesis unit 114 performs the bird's-eye view image synthesis using the adopted bird's-eye view image (step S010). Specifically, the bird's-eye view image synthesis unit 114 adopts an overhead view image by adopting an image having a larger feature amount in the superposition area among the bird's-eye view image obtained based on the camera 1 and the bird's-eye view image obtained based on the camera 2. Is synthesized. When the overhead image synthesis unit 114 synthesizes the overhead image, the blend rate determination process is terminated. The synthesized bird's-eye view image is then sent to the display 108 and output. In order to avoid the disappearance of the image in the vicinity of the joint due to erroneous detection, a blending process may be performed with priority given to the blend ratio of the camera image from which the feature has been extracted, and the overhead image may be synthesized.
  • FIG. 12 is a diagram showing an example of a screen for selecting an image and synthesizing an overhead image.
  • step S005 of the blend rate determination process when it is determined that there is no correlation in step S005 of the blend rate determination process and it is determined in step S007 that the object is not in a common position, that is, a process of selectively adopting and combining the overhead image in step S010. It is an example.
  • the bird's-eye view image obtained from the camera 1 and the bird's-eye view image obtained from the camera 2 the bird's-eye view 1203 taken by the camera 1 is shown in the bird's-eye view image 1201 obtained from the camera 1.
  • the bird's-eye view image synthesis unit 114 synthesizes the bird's-eye view synthesized image 1205 by using the bird's-eye view image 1201 photographed by the camera 1.
  • the pedestrian's foot 1203 photographed by the camera 1 is included in the overhead view composite image 1205.
  • the feature amount detection condition is applied to a plurality of pieces of image information each having a common region captured from different viewpoint positions, and the feature amount of the common region is detected.
  • the weight for blending the images including the common area can be specified, and the overhead image including the common area can be synthesized.
  • image features of camera images captured from different directions are extracted, and their correlation is determined, whereby a planar pattern and a three-dimensional object drawn on a road are determined. Can be distinguished.
  • the positional overlap of the feature amounts can be determined, and it can be determined whether the three-dimensional object exists within the overlapping area or outside the overlapping area. And according to each state, it becomes possible to change the blend rate at the time of a synthesis
  • the video display device 100 detects obstacles and pedestrians using images taken by a plurality of cameras, and the obstacles and pedestrians appearing in the images according to the detection results. Therefore, it is possible to synthesize the bird's-eye view images of the camera images so that a bird's-eye view image of the entire vehicle can be generated.
  • the video display system 1 includes a plurality of imaging devices that obtain image information that partially includes images obtained by capturing a common region from different viewpoint positions, and a video display device.
  • the video display device applies a feature amount detection condition to a plurality of pieces of image information, a feature amount detection condition specifying unit that specifies a feature amount detection condition that is a condition for detecting a predetermined feature amount related to image information, A feature amount detection unit that detects a feature amount of a common region, a blend rate specification unit that specifies a weight for blending an image including the common region, using a feature amount of the common region for each image, and a blend rate It can also be said that the apparatus includes an overhead image synthesis unit that synthesizes an overhead image including a common area using the.
  • this invention is not limited to the above-mentioned Example, Various modifications are included.
  • the above-described embodiments have been described in detail for easy understanding of the present invention, and are not necessarily limited to those having all the configurations described.
  • a part of the configuration of one embodiment can be replaced with the configuration of another embodiment, and the configuration of another embodiment can be added to the configuration of one embodiment.
  • the video display system 1 includes the video display device 100, the camera group 101, and the display 108, but either or both of the camera group 101 and the display 108 are video display systems. 1 may not be directly managed.
  • the present invention can also be applied to a case where a bird's-eye view image of a monitoring target area is created by combining images acquired and transmitted by a plurality of monitoring cameras installed in a place (for example, an exhibition in a museum) that is not limited to a vehicle.
  • the feature amounts are compared with each other to determine a blend rate, and the synthesis is not limited thereto.
  • the blend rate may be gradually changed according to time so that the blend rate at previous and subsequent times does not change significantly.
  • FIG. 13 is a diagram illustrating an example of a change in blend ratio according to a change in a three-dimensional object with time. For example, it is a figure which shows the example of a synthesized image when the pedestrian who is a solid object moves in the superimposition area.
  • the pedestrian's foot 1301 photographed by the camera 1 and the pedestrian's foot 1302 photographed by the camera 2 have their blend ratios according to the image feature amount (for example, the area in which the foot is photographed).
  • the blend rate specifying unit 113 may obtain the blend rate by applying the following expression (3).
  • Blend ratio p1 (t) p1 (t-1) + k (p1_calc (t) -p1 (t-1)) Equation (3)
  • the blend rate p1 (t) of the camera 1 at time t is k times the difference from the blend rate at time (t ⁇ 1) (k is a number from 0 to 1). It can be added to the rate.
  • the value of p1_calc (t) is the blend rate before correction at time t calculated based on the feature amount.
  • the blend weight is specified for each predetermined period, and when the blend is weighted for each predetermined period, the amount of change between the blend weight before, after, or before and after the predetermined period is less than a predetermined value. Can be weighted.
  • the blend rate may be set so as to predict the luminance at a future time and smoothly connect the predicted luminance.
  • the blend ratio of the two videos becomes equal according to the time-series change in the feature amount (P1).
  • the motion vector information of the optical flow is used for detecting the image feature amount, and the blend ratio of the overlap area is calculated from this to synthesize the image.
  • a motion vector of a plurality of frames is used as an image feature amount, and a blend rate is calculated from a ratio of the sum of motion vectors.
  • the sum ⁇ ⁇ ⁇ Cam1 of the motion vectors in the image of the camera 1 and the sum ⁇ Cam2 of the motion vectors 1404 in the image of the camera 2 are calculated.
  • the blend rate P1 of the camera 1 and the blend rate P2 of the camera 2 are calculated as the following equations (4) and (5).
  • the blend ratio of the camera image having a large motion image is set large.
  • a composite image 1405 including a moving object is generated at these blend rates. According to this method, it is possible to generate an image with sharply improved contrast as the motion is larger in the overlapping area.
  • FIG. 14 is a diagram illustrating an example of setting a region to be imaged by the video display device 100. It can be said that this is a modified example of applying a mechanism for detecting a contour of a three-dimensional object with higher accuracy for contour detection.
  • FIG. 14 shows a mechanism for improving the detection accuracy of a three-dimensional object by further subdividing the overlapping area in the area shown in FIG. 4 and reducing the deviation between the stretching direction and the scanning direction.
  • the configuration is basically the same as that of the first embodiment, but the front left area 300 is further divided into a fan shape, and the first area 300 ⁇ / b> A, the second area 300 ⁇ / b> B, and the third area.
  • region 300G are provided. Also, a fixed blend rate is set for each region.
  • the adjacent second region 300B is slightly away from the front camera 201
  • the blend rate may be adjusted according to the feature amount of each camera image.
  • each of the above-described configurations, functions, processing units, processing means, and the like may be realized by software by causing a processor to interpret and execute a program that realizes each function.
  • Information such as programs, tables, and files that realize each function can be stored in a recording device such as a memory, a hard disk, and an SSD, or a storage medium such as an IC card, an SD card, and a DVD.
  • control lines and information lines indicate what is considered necessary for the explanation, and not all the control lines and information lines on the product are necessarily shown. Actually, it may be considered that almost all the components are connected to each other.
  • each of the above-described configurations, functions, processing units, and the like may be realized by hardware by designing a part or all of them with, for example, an integrated circuit.
  • the technical elements of the above-described embodiments may be applied independently, or may be applied by being divided into a plurality of parts such as program parts and hardware parts.
  • DESCRIPTION OF SYMBOLS 1 ... Video display system, 100 ... Video display apparatus, 110 ... Control part, 111 ... Feature-value detection condition specific

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Image Processing (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Analysis (AREA)

Abstract

 立体物の存在を容易に、かつ精度よく検出し、俯瞰画像に反映させることを可能とする技術を提供する。 少なくとも2つの異なる視点から共通領域を撮影した画像の俯瞰画像について所定の特徴量を検出する条件を特定する特徴量検出条件特定部と、特定された前記特徴量検出条件を用いて、前記共通領域を撮影した画像の各俯瞰画像について前記特徴量を検出する特徴量検出部と、前記特徴量検出部により検出される特徴量に応じて、前記異なる視点から撮影した共通領域を撮影した画像の俯瞰画像の画素をブレンドする際のブレンド率を特定するブレンド率特定部と、前記ブレンド率特定部により特定されたブレンド率に応じて前記共通領域を撮影した画像の俯瞰画像の画素をブレンドして合成出力する俯瞰画像合成部と、を備えることを特徴とする。

Description

映像表示装置および映像表示システム
 本発明は、映像表示装置の技術に関する。本発明は2014年3月27日に出願された日本国特許の出願番号2014-066268の優先権を主張し、文献の参照による織り込みが認められる指定国については、その出願に記載された内容は参照により本出願に織り込まれる。
 本技術分野の背景技術として、特開2009-289185号公報(特許文献1)がある。この公報には、「共通視野を各々が部分的に有するK個(K:2以上の整数)のカメラを指定する指定手段、前記指定手段によって指定されたK個のカメラからそれぞれ出力されたK個の被写界像を前記K個のカメラの各々に割り当てられた重みを参照して合成する合成手段、動的立体物が前記共通視野に存在する否かを前記指定手段の指定処理に関連して判別する判別手段、前記判別手段の判別結果が否定的であるとき前記K個のカメラの重みを既定要領で制御する第1制御手段、前記判別手段の判別結果が肯定的であるとき前記動的立体物までの距離の縮小量を前記K個のカメラの各々について算出する算出手段、および前記算出手段によって算出された縮小量に基づいて前記K個のカメラの重みを制御する第2制御手段を備える、画像処理装置」と記載されている。
特開2009-289185号公報
 上記技術に係る重み付けの合成手法では、障害物の画像部分については、一方のカメラの画像の重み付けを0か1かの2値で選択する手法のみしか開示されていない。この手法では、障害物の画像と背景画像の分離処理を失敗すると、非常に不自然な合成画像が生成されることとなるため、障害物の画像と背景画像を非常に高い精度で分離する必要があり、処理量の要求やハードウェア能力の要求が高い。
 本発明は、立体物の存在を容易に、かつ精度よく検出し、俯瞰画像に反映させることを目的とする。
 本願は、上記課題の少なくとも一部を解決する手段を複数含んでいるが、その例を挙げるならば、以下のとおりである。上記課題を解決すべく、本発明に係る映像表示装置は、少なくとも2つの異なる視点から共通領域を撮影した画像の俯瞰画像について所定の特徴量を検出する条件を特定する特徴量検出条件特定部と、特定された上記特徴量検出条件を用いて、上記共通領域を撮影した画像の各俯瞰画像について上記特徴量を検出する特徴量検出部と、上記特徴量検出部により検出される特徴量に応じて、上記異なる視点から撮影した共通領域を撮影した画像の俯瞰画像の画素をブレンドする際のブレンド率を特定するブレンド率特定部と、上記ブレンド率特定部により特定されたブレンド率に応じて上記共通領域を撮影した画像の俯瞰画像の画素をブレンドして合成出力する俯瞰画像合成部と、を備えることを特徴とする。
 本発明によると、立体物の存在を容易に、かつ精度よく検出し、俯瞰画像に反映させることができる。上記した以外の課題、構成及び効果は、以下の実施形態の説明により明らかにされる。
本発明の実施形態に係る映像表示装置の構成例を示す図である。 映像表示装置のハードウェア構成例を示す図である。 映像表示装置の使用状況の例を示す図である。 映像表示装置による出力例を示す図である。 映像表示装置による特徴量の検出処理の概要を示す図である。 特徴量検出条件記憶部に格納されるデータ構造を示す図である。 ブレンド情報記憶部に格納されるデータ構造を示す図である。 特徴量の走査方向と画像の回転量の関係を示す図である。 同心円上の特徴量の走査方向とその実現手段の例を示す図である。 ブレンド率決定処理の処理フローを示す図である。 特徴量を基準にブレンドして俯瞰画像を合成する画面例を示す図である。 画像を選択して俯瞰画像を合成する画面例を示す図である。 経時に伴う立体物の変化に応じたブレンド率の変化の例を示す図である。 映像表示装置による撮影対象の領域の設定例を示す図である。
 以下に、本発明に係る実施形態を適用した映像表示装置100およびこれを含む映像表示システム1の例について、図面を参照して説明する。
 図1は、本発明に係る第一の実施形態を適用した映像表示装置100の構成例を示す図である。映像表示装置100は、制御部110と、記憶部120と、カメラ制御部130と、を含んで構成される。映像表示装置100は、利用者に対して、俯瞰画像を提示する端末である。例えば、映像表示装置100は、典型的にはナビゲーション装置や車両制御装置等であって、車両の周囲を撮影した画像を用いて、上空から見下ろしたような俯瞰画像を提示する装置である。しかし、これに限らず、パーソナルコンピューター装置、携帯電話端末、タブレット端末、PDA(Personal Digital Assistant)等の電子情報端末であってもよい。
 制御部110は、映像表示装置100の基本的な制御を行う。例えば、制御部110は、映像表示装置100全体の電源管理、オペレーティングシステムによる各種装置の制御やタスク管理等のスーパーバイザ機能等を担う。さらに、制御部110には、特徴量検出条件特定部111と、特徴量検出部112と、ブレンド率特定部113と、俯瞰画像合成部114と、が含まれる。特徴量検出条件特定部111は、画像の特徴量を検出するために適切な条件を特定する。なお、後述するが、特徴量検出条件には、例えば、特徴量をより精度高く検出するために画像の走査方向を詳細に特定する情報等が含まれる。
 特徴量検出部112は、画像に関して、所定の特徴量を検出する。具体的には、特徴量には、立体物が画面上に占める面積の割合等が含まれる。
 ブレンド率特定部113は、共通する領域を異なる視点位置から撮影した複数の画像を合成して俯瞰画像を生成する際に用いる各画像間のデータの重み付けを特定する。具体的には、ブレンド率特定部113は、各画像間の特徴量に相関がみられるか否か、各画像間の特徴量がみられる領域が共通する領域内の同位置を含むか否か、等に応じてブレンド率を特定する。
 俯瞰画像合成部114は、共通する領域を撮影した複数の画像を、ブレンド率特定部113が特定したブレンド率に応じて画素をブレンドすることで、俯瞰画像を合成出力する。
 記憶部120には、特徴量検出条件記憶部121と、ブレンド情報記憶部122と、が含まれる。
 特徴量検出条件記憶部121には、撮影される領域を特定する情報と、該領域を撮影する視点位置と、の組み合わせに応じて、特徴量を検出する際に適用する条件が格納されている。特徴量検出条件記憶部121の詳細な説明は、後述する図7の説明において行う。
 ブレンド情報記憶部122には、撮影される領域を特定する情報と、該領域を撮影する視点位置間のブレンド率の情報と、が格納されている。ブレンド情報記憶部122の詳細な説明は、後述する図8の説明において行う。
 カメラ制御部130は、映像表示装置100に画像を提供可能なカメラに対して、撮影の開始および終了を含む各種制御を指示し、カメラから出力される画像を取得する。以上が、映像表示装置100の構成の概要である。
 図2は、本発明に係る第一の実施形態を適用した映像表示装置100およびこれを含む映像表示システム1のハードウェア構成例を示す図である。
 映像表示システム1には、映像表示装置100と、カメラ群101と、ディスプレイ108と、が含まれる。カメラ群101には、第1カメラから第n(nは整数)カメラまで、複数のカメラが含まれる。映像表示システム1は、典型的には、車両に搭載された複数(n個)のカメラで車両周囲の画像を撮影し、映像表示装置100により各カメラの撮影画像を合成し、ディスプレイ108により車両の周囲の俯瞰画像を表示する。なお、カメラ群101には、可視光を中心に撮像可能なカメラに限らず、例えば赤外線に感度領域を有し、画像として出力する暗視カメラ等のカメラが含まれるものであってもよい。
 映像表示装置100は、一つ又は複数のデコード部を含むデコード部群102と、CPU(Central Processing Unit)104と、メモリ105と、補助記憶装置106と、エンコード部107と、を備える。カメラ群101を構成する各カメラから送信された画像は、それぞれ対応するデコード部を有するデコード部群102にてデコード処理され、バス103を介してメモリ105に蓄積される構成を備える。また、メモリ105に蓄積された各カメラからの撮影画像は、CPU104により合成処理が行われ、車両の周囲の俯瞰画像を生成するのに用いられる。そして、合成された俯瞰画像は、エンコード部107によりエンコードされてディスプレイ108にて再生処理される。
 また、上述した特徴量検出条件特定部111と、特徴量検出部112と、ブレンド率特定部113と、俯瞰画像合成部114と、カメラ制御部130とは、CPU104により実現される。また、特徴量検出条件記憶部121と、ブレンド情報記憶部122とは、補助記憶装置106およびメモリ105により実現される。
 その他にも、CPU104は、例えば、視野角が所定以上広い広角のカメラにより得た画像に対して、光学系により発生する歪の補正処理および透視変換処理を行い、カメラ毎の画像を用いて俯瞰画像の一部を構成する元となる画像を作成する。また、CPU104は、それらの俯瞰画像の切り出し、合成、アルファブレンド処理等の処理を行い、車両の周囲全体の俯瞰画像を生成する処理を担う。
 また、CPU104はさらに、撮影画像データに対し、エッジ抽出、輪郭抽出、ガウシアン処理、ノイズ除去処理、閾値処理などの各種画像処理を行い、道路に描かれた白線、障害物、歩行者等の有無と、それらの写っている面積の大きさの検出処理をも行う。
 エンコード部107は、生成された俯瞰画像のエンコード処理を行う。ディスプレイ108は、映像表示装置100から出力された俯瞰画像を表示させる。ディスプレイ108は、例えばLCD(Liquid Crystal Display)等であるが、種類をこれに限定するものではなく、CRT(Cathode Ray Tube)、LCOS(Liquid Crystal On Silicon)、OLED(Organic light-emitting diode)、ホログラフィック光学素子やプロジェクタ装置など任意である。また、平面型のモニタのみでなく、HUD(Head-Up Display)、HMD(Head Mounted Display)などであっても良い。
 図3は、映像表示装置の使用状況の例を示す図である。当該使用状況においては、車両200に設置された複数のカメラで同一の被写体205を撮影した画像の例が示されている。また、本例は、車両200には、前方カメラ201、左サイドカメラ202、後方カメラ203、右サイドカメラ204が設置されており、車両200の左斜め前方に歩行者(被写体205)が歩いて来た状況を示している。
 この状況において、車両200に進行方向前方に向けて取り付けられた前方カメラ201で撮影され俯瞰画像に変換された画像が正面画像206であり、左サイドカメラ202で撮影され俯瞰画像に変換された画像が左側面画像207である。前方カメラ201および左サイドカメラ202は、鉛直下向き方向に所定の角度だけ傾けることで、斜め下(地面方向)の視野角を確保するように取り付けられている。なお、図示していないが、後方カメラ203で撮影され俯瞰画像に変換された画像は、背面画像として、また、右サイドカメラ204で撮影され俯瞰画像に変換された画像は、右側面画像として生成されることは、言うまでもない。
 この例においては、被写体(歩行者)205の足部分が、それぞれ正面画像206においては正面足画像205aとして、左側面画像207においては左側面足画像205bとして、含まれている。
 一般に、俯瞰画像を生成する処理においては、カメラで撮影される画像に対し、画像端部に生じるレンズ歪の補正処理と、奥行きの距離に応じて拡大率を変化させる透視変換を行う。そのため、俯瞰画像において立体物は伸びたように歪んで写ってしまい、前方カメラ201で撮影された正面画像206においては、正面足画像205aのように前方カメラ201から出ている矢印の方向に伸びて表示される。同様に、左サイドカメラ202で撮影された左側面画像207においては、左側面足画像205bのように左サイドカメラ202から出ている矢印の方向に伸びて表示される。つまり、本来は同一の被写体である被写体(歩行者)205は、俯瞰画像においてはカメラの視点位置の違いにより異なる向きに伸びる正面足画像205a、左側面足画像205bとして表示されてしまう。これは、被写体である被写体(歩行者)205が立体物であるために生じる現象である。被写体が立体物でない場合、例えば白線208のように道路上に描かれた平面状の絵柄の場合には、俯瞰画像中の白線208a、白線208bのように、俯瞰画像においても形状に差がなく撮影され、位置を合わせれば重ねることも可能となる。
 すなわち、異なる方向から同一の被写体を撮影し俯瞰画像に変換すると、2つの画像を比較して異なる方向に形状が伸びるという特徴が検出される場合には、立体物が存在すると考えられ、2つの画像内において形状に差がない特徴が検出される場合には路面上に略平面の物体が存在すると判定できる。さらに、俯瞰画像において立体物の形状が伸びる方向は、前方カメラ201、左サイドカメラ202から出ている矢印の方向が示すように、カメラと立体物との位置関係により定まるものであるため、検出される画像から、立体物の有無を判定する有力な判定条件となりうるといえる。本実施形態においては、この性質に基づいて、カメラすなわち視点位置と立体物の位置関係に応じて、特徴を検出する際の処理条件を決定する。これにより、立体物の抽出精度を向上させ、複数のカメラ画像の重なる部分をより見易くなるようブレンド処理することが可能といえる。
 図4は、映像表示装置100による俯瞰画像の出力例を示す図である。俯瞰画像においては、撮影領域は所定の領域に分割されるとともに、重畳して他のカメラにより撮影される領域の画像は、何らかの画像合成がなされて表示される。図4においては、車両200の周囲は、8つのエリア(左前エリア300、正面エリア301、右前エリア302、左エリア303、右エリア304、左後エリア305、背面エリア306、右後エリア307)に分割するものとする。この場合においては、前方カメラ201で撮影されるエリアは左前エリア300、正面エリア301、右前エリア302である。(また、左サイドカメラ202で撮影されるエリアは左前エリア300、左エリア303、左後エリア305である。他のエリアについても、後方カメラ203、右サイドカメラ204の視点位置および向き、画角を基準にして同様に定められる。
 この場合、左前エリア300は、前方カメラ201と左サイドカメラ202により得られる画像が重なるエリアである(以後の記載においては、このように複数のカメラにより共通して撮影される領域を、「重畳エリア」と称呼する)。同様に、右前エリア302、左後エリア305、右後エリア307についても、複数のカメラにより共通して撮影される重畳エリアであるといえる。なお、図4においては、右前エリア302、左後エリア305、右後エリア307は斜線で表示されているが、実際には、撮影された対象が表示される。
 俯瞰画像においては、上述のように立体物が視点位置を基準とする方向に延伸して表現される点を考慮すると、地面に突起物(立体物)がなく平面である場合には、共通するエリアの画像は基本的に同一となり、重ね合わせることができるといえる。
 図3における俯瞰画像中の白線208a、208bは平面であるため、俯瞰画像においては、白線308は、同一の場所に重ねて表示されうる。他方で、重畳エリアである左前エリア300に立体物(例えば、歩行者)が存在する場合には、立体物である歩行者の正面足画像205a、左側面足画像205bを所定のブレンド率によりブレンド処理を行って表示することで、立体物の存在が欠落しないようにしている。これにより、立体物の画像の一部が消失してしまうことを回避する。
 図5は、映像表示装置100による特徴量の検出処理の概要を示す図である。重畳エリアにおいて画像から立体物を抽出する際に、特徴量検出条件特定部111および特徴量検出部112は当該特徴量の検出処理を行う。正面画像400aは、前方カメラ201にて撮影され俯瞰画像に変換された画像であり、左側面画像400bは、左サイドカメラ202で撮影され俯瞰画像に変換された画像である。俯瞰変換された正面画像400aと差側面画像400bにおいては、前述のとおり、視点位置の違いから立体物は異なる方向に伸びて表示され、路面上のものは重なる場所に表示される。したがって、俯瞰画像合成部114は、共通する領域である重畳エリアを撮影した互いの画像について、それぞれの画像から共通物を除去する処理を行うと、共通物(平面物)を除去した正面立体物画像401a、左側面立体物画像401bをそれぞれ得ることができる。これは、俯瞰画像合成部114が、各画像から他の画像の対応する範囲に関して共通部分の情報を除去することで実現される。
 具体的には、正面立体物画像401a、左側面立体物画像401bにおいては、それぞれの画像に写り込んでいる立体物(正面足画像205a、左側面足画像205b)は差分として残すことができ、路面上のもの208a、208bは共通部分として除去することができている。
 そして、立体物を精度よく抽出するために、特徴量検出条件特定部111は、適切な検出条件を特定する。補足すると、上記のような特性から、立体物の輪郭が延伸する方向は重畳エリアからみた視点位置の方向に応じるものであるため、抽出精度を効率的に高める検出条件は、適切な輪郭走査方向を特定することにあるといえる。そこで、特徴量検出条件特定部111は、視点位置と、共通する領域との幾何的関係に応じて、特徴量検出条件を特定する。具体的には、特徴量検出条件特定部111は、視点位置と、共通する領域からみた視点位置の方向と、に応じて、特徴量検出に用いる輪郭走査の方向を特定する。
 なお、一般的に、輪郭の抽出処理は、画像上の所定の方向(通常は、水平画素方向)に、輝度あるいはRGB、CMYの値等の画像を構成する要素の変化量を走査することで行われ、走査方向と検出対象が直交する状態にあれば高い検出精度を得られることが多い。これを踏まえ、特徴量検出条件特定部111は、立体物の輪郭の延伸方向に直交するよう走査するために、検出条件を設定する。
 そして、特徴量検出条件特定部111は、正面立体物画像401a、左側面立体物画像401bのそれぞれに対して、輪郭走査方向402a、輪郭走査方向402bを特定する。
 そして、特徴量検出部112は、特定された輪郭走査方向402a、輪郭走査方向402bに応じてそれぞれ正面立体物画像401a、左側面立体物画像401bを走査し、輪郭403a、403bを検出する。以上が、特徴量の検出処理の概要である。
 図6は、特徴量検出条件記憶部121に格納されるデータ構造を示す図である。特徴量検出条件記憶部121には、領域特定情報121Aと、代表点121Bと、視点位置特定情報121Cと、特徴量検出条件121Dと、が対応づけられて格納される。領域特定情報121Aは、複数の画像間で共通して撮影される領域を特定する情報である。代表点121Bは、領域特定情報121Aにより特定される領域を代表する点である。代表点121Bにより特定される位置は、例えば領域の重心であってもよいし、中心であってもよいし、領域のいずれかの頂点であってもよい。例えば、撮影エリアの重心に限らず、撮影エリア内で、カメラから最も遠い点や最も近い点、または、撮影エリア内で検出した物体上の点などを代表点とするものであってもよい。
 視点位置特定情報121Cは、視点位置すなわちカメラの位置を特定する情報である。特徴量検出条件121Dは、特徴量を検出するために用いるべき条件である。例えば、特徴量検出条件121Dには、画像回転角をθ(θは、視点位置から領域の代表点へ至る線分と直交する直線の延伸方向と、輪郭の抽出処理において輝度の変化量を走査する方向との角度の差分)として適用すべき旨の条件が予め格納される。
 図7は、ブレンド情報記憶部122に格納されるデータ構造を示す図である。ブレンド情報記憶部122には、領域特定情報122Aと、ブレンド率122Bと、が対応づけられて格納される。領域特定情報121Aは、複数の画像間で共通して撮影される領域を特定する情報である。ブレンド率122Bは、領域特定情報121Aにより特定される領域を複数の画像を用いて合成出力する際に、画像間の重みを特定する情報である。例えば、「カメラ001」により撮影された画像と、「カメラ002」により撮影された画像と、の重み付けを、「p:(1-p)」(pは、0から1までの数)の比で重みづけてブレンドするよう指定する情報である。
 正面画像400aにおいて立体物が伸びたように撮影される際の画像上の方向は、厳密にはエリア内の位置によっても異なるが、これを同一方向とみなして輪郭走査方向を同一に設定することにより演算処理の負荷を低減することができる。
 図8は、特徴量の走査方向と画像の回転量の関係を示す図である。すなわち、図8は、輪郭走査方向501に応じて正面立体物画像401aを走査して輪郭を検出する処理における、具体的な方法のイメージを示す。ここで、正面立体物画像401aは、前方カメラ(視点位置)201から水平方向にx、垂直方向にy離れた重心500を備えている。そのため、特徴量検出条件特定部111は、前方カメラ(視点位置)201と重心500とを結ぶ線分に直交する方向に輪郭走査方向501を設定する。
 当該処理においては、特徴量検出条件特定部111は、正面立体物画像401aの代表点である重心500を回転の中心として、特徴量検出条件121Dに示された画像回転角θだけ正面立体物画像401aを回転させる。これに限られず、特徴量検出条件特定部111は、処理画像自体をカメラ位置と撮影エリアの位置関係に応じて決定される角度で回転させた後、共通のエッジ検出を施すものでも良い。
 なお、画像回転角θは上述のとおり、視点位置から領域の代表点へ至る線分と直交する直線の延伸方向と、輪郭の抽出処理において輝度の変化量を走査する方向との角度の差分である。これにより、輝度の変化量を走査する方向(水平または垂直方向)と、輪郭走査方向501とを並行にすることが可能となり、輪郭抽出の高い精度を得られる。なお、この回転量は、カメラごとに、あるいは撮影方向ごとに、最適な角度とすることも可能である。例えば、後方カメラの場合には垂直方向の走査が適している場合(例えば、車庫入れの際の位置決め用等)には、画像回転角θは輪郭走査方向が垂直方向となるように定められるものであってもよい。
 図9は、同心円上の特徴量の走査方向とその実現手段の例を示す図である。すなわち、上述の輪郭を検出する処理において、さらに精度の高い検出を可能とするための抽出方向の設定例である。図9では、正面立体物画像401aから輪郭を抽出する場合に、前方カメラ(視点位置)201を中心とする同心円の接線方向になるべく近くなるよう走査方向を設定する方法の例を挙げている。このように一つの領域を細かく分割して走査することで、立体物の輪郭の延伸方向と略直交する方向に走査して輪郭を検出することが可能となる。
 具体的には、前方カメラ201が重畳エリアを撮影し俯瞰変換した正面立体物画像401aで設定する場合を想定する。図9では、正面立体物画像401aに対しては、前方カメラ(視点位置)201からの同心円の接線方向に輪郭走査方向502を設定する。その方法として、正面立体物画像401aをさらに視点位置に近い頂点を通る直線に沿って細分化した領域410~440を予め設定しておけば、特徴量検出条件特定部111は、領域ごとに重心と前方カメラ(視点位置)201との間を結ぶ線分に直交する方向の走査方向503A~503Dを特定して設定することが可能となり、精度良く輪郭を検出することが可能となる。
 立体物が伸びる方向は、基本的には、カメラと、立体物の地上と接触する位置と、を結ぶ線分の延長方向であり、図9の方法では、正面立体物画像401aの面内で輪郭走査方向が異なるため、画像内の探索領域によって輪郭抽出フィルタなどの映像表示方法を変更する必要があり演算処理の負荷が高くなる。しかし、立体物の伸びる方向と略直交して輪郭抽出処理を行うことができるため、立体物の高い抽出精度を得られる。
 なお、輪郭走査方向の設定方法は、図8、図9に示した例に限定されず、例えばラプラシアンフィルタやソーベルフィルタなどのエッジ検出フィルタのフィルタ係数を、前方カメラ201の視点位置と重畳エリアの位置関係に応じて決定するものでも良い。このようにすることで、より精度の高い輪郭抽出が可能となる。
 図10は、重畳エリアにおける画像合成の動作シーケンスのうち、ブレンド率を決定する処理の例である。本例においては、「カメラ1」である前方カメラ201と、「カメラ2」である左サイドカメラ202と、を用いて撮影される領域のうち共通して撮影される領域である左前エリア300に関し、「カメラ1」に基づき得た俯瞰画像と、「カメラ2」に基づき得た俯瞰画像と、を合成するものとする。
 まず、特徴量検出条件特定部111は、カメラ1と重畳エリアの位置関係より、カメラ1に基づき得た俯瞰画像の処理条件C1を決定する(ステップS001)。具体的には、特徴量検出条件特定部111は、特徴量検出条件記憶部121を参照して、重畳エリアに相当する領域特定情報121Aと、カメラ1の配置位置に相当する視点位置特定情報121Cと、の組み合わせに応じた特徴量検出条件121Dを読み出す。
 そして、特徴量検出条件特定部111は、カメラ2と重畳エリアの位置関係より、カメラ2に基づき得た俯瞰画像の処理条件C2を決定する(ステップS002)。具体的には、特徴量検出条件特定部111は、特徴量検出条件記憶部121を参照して、重畳エリアに相当する領域特定情報121Aと、カメラ2の配置位置に相当する視点位置特定情報121Cと、の組み合わせに応じた特徴量検出条件121Dを読み出す。
 そして、特徴量検出部112は、カメラ1に基づき得た俯瞰画像の重畳エリアに存在する立体物を、処理条件C1を用いて検出する(ステップS003)。なお、検出した立体物は、画像特徴量Q1を持つものとする。具体的には、特徴量検出部112は、カメラ1に基づき得た俯瞰画像について、処理条件C1を適用し、処理条件C1を満たす状態で輪郭走査方向に走査して立体物の輪郭を特定する。その際、特徴量検出部112は、エッジなどが多い部分やラプラシアンフィルタやソーベルフィルタによる輪郭抽出、二値化処理、色情報、ヒストグラム情報や各種パターン認識処理などにより画像特徴量を抽出する。そして、特徴量検出部112は、エッジや輪郭が抽出できた画素の位置やそのエッジの輝度の高さなどの画像特徴量Q1を特定する。
 そして、特徴量検出部112は、カメラ2に基づき得た俯瞰画像の重畳エリアに存在する立体物を、処理条件C2を用いて検出する(ステップS004)。なお、検出した立体物は、画像特徴量Q2を持つものとする。具体的には、特徴量検出部112は、カメラ2に基づき得た俯瞰画像について、処理条件C2を適用し、処理条件C2を満たす状態で輪郭走査方向に走査して立体物の輪郭を特定する。その際、特徴量検出部112は、エッジなどが多い部分やラプラシアンフィルタやソーベルフィルタによる輪郭抽出、二値化処理、色情報、ヒストグラム情報や各種パターン認識処理などにより画像特徴量を抽出する。そして、特徴量検出部112は、エッジや輪郭が抽出できた画素の位置やそのエッジの輝度の高さなどの画像特徴量Q2を特定する。
 なお、画像特徴量Q1、Q2のいずれについても、SIFT(Scale-Invariant Feature Transform)やHOG(Histograms of Oriented Gradients)などによる画像の特徴量を利用しても良い。また、HOG特徴量と歩行者の形の特徴量を組合せて、抽出できた特徴情報が歩行者等の人であるか物であるかを選別しても良い。このように、歩行者であるか物であるかに応じて、コントラスト強調処理や危険度表示などの出力内容を切り換えれば、運転者に対しより使い勝手の良い情報を提供することができる。
 そして、ブレンド率特定部113は、画像特徴量Q1とQ2は所定以上強く相関するか否かを判定する(ステップS005)。具体的には、ブレンド率特定部113は、検出した物体の画素位置が一致またはある範囲内に集まっているか、特徴量の差分が所定の範囲内であるか否かを判定する。これは、従来から存在する統計的な処理やクラスタリング処理を行うことで、空間的な距離関係や意味的な距離関係の相関を判定するものであってよい。
 そして、相関が所定以上に強い場合(ステップS005にて「Yes」の場合)には、ブレンド率特定部113は、立体物は重畳エリアには存在しないものとして、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像とを用いて所定のブレンド率で重畳エリアの俯瞰画像を合成することを決定し、俯瞰画像合成部114に合成を実施させる(ステップS006)。この場合、いずれかの俯瞰画像のブレンド率が「0」となるように合成する場合には、実質的にカメラ1またはカメラ2のいずれかにより得られた俯瞰画像を選択して利用することも可能となる。しかし、俯瞰画像同士の繋ぎ目付近に立体物があった場合には、その画像が消失してしまうおそれがある。そのため、いずれかの俯瞰画像を選択的に利用して俯瞰画像を生成するよりも、所定の「0以外の」ブレンド率によりブレンド合成するのが好ましいといえる。
 そして、俯瞰画像合成部114は、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像との対応する位置にある画素情報(例えば、輝度情報、あるいはRGB情報)に対してブレンド率に応じた重み付けを行って一つの俯瞰画像に合成する。俯瞰画像合成部114は、俯瞰画像を合成すると、ブレンド率決定処理を終了させる。なお、合成された俯瞰画像は、その後、エンコード部107、ディスプレイ108に送られ、出力される。
 相関が所定以上に強くない場合(ステップS005にて「No」の場合)には、ブレンド率特定部113は、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像とにそれぞれ含まれる立体物が重畳エリア内のどの位置にあるか特定し、所定以上共通する位置にあるか否かを判定する(ステップS007)。すなわち、ブレンド率特定部113は、共通する領域上において、各カメラから得た画像の特徴量に関し所定以上の度合いで重複する領域があるか否かを判定する。
 立体物が共通する位置にある場合(ステップS007にて「Yes」の場合)には、ブレンド率特定部113は、画像特徴量Q1とQ2とに応じてブレンド率を決定する(ステップS008)。具体的には、ブレンド率特定部113は、まず、カメラ1に基づき得た画像特徴量Q1に所定の演算を行い、結果をF(Q1)とする。同様に、カメラ2に基づき得た画像特徴量Q2に所定の演算を行なった結果をF(Q2)とする。そして、ブレンド率特定部113は、カメラ1に基づき得た画像特徴量Q1に基づく合成の重み付けの割合を、下式(1)により特定する。
 合成重み付けP1=F(Q1)/(F(Q1)+F(Q2))・・・式(1)
 同様に、カメラ2に基づき得た画像特徴量Q2に基づく合成の重み付けの割合を下式(2)により特定する。
 合成重み付けP2=F(Q2)/(F(Q1)+F(Q2))・・・式(2)
 なお、上記所定の演算Fは、重畳エリア内で、所定の閾値以上の特徴量を有する画像の画素数を抽出しカウントするという演算が考えられる。この場合は、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像のそれぞれの重畳エリア内における立体物の画像が占める大きさを、ブレンド率を可変させる要素とすることができる。
 また、上記所定の演算Fは、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像の重畳エリア内の画素の画像特徴量の総和、平均、加重平均、重心、中心値を算出するなどの各種演算も考えられる。この場合は、重畳エリア内における立体物の画像が占める大きさのみならず、特徴量の値の大きさもブレンド率を可変する要素とすることができる。
 または、ブレンド率を画素毎に決定することもできる。この場合は、F(Q1)として対象の画素における特徴量そのものを用い、F(Q2)として対象の画素における特徴量そのものを用いてもよい。画素ごとにF(Q1)とF(Q2)を比較して値の大きい方の画像のブレンド率を大きく設定するものであってもよい。
 また例えば、カメラ1に基づき得た俯瞰画像のブレンド率特徴量の割合を連続的に変化させるものであっても、「特徴量の割合」が0.5により近い部分で、ブレンド率の変化の勾配を大きく設定するものであってもよい。このようなブレンド率の算出方法により、「特徴量の割合」が変化する際にブレンド率が穏やかに切り替わりながらも、より特徴がある画像(立体物がある可能性の高い画像)のコントラストを強調することが可能となる。これにより、立体物がある可能性が比較的高い画像を、よりユーザーが認識しやすくなるという効果がある。
 また例えば、カメラ1に基づき得た俯瞰画像のブレンド率特徴量の割合を連続的に変化させるものであっても、特徴量の割合が所定の大きさ以上あるいは所定の大きさ以下になった場合は、特徴量の大きい俯瞰画像のブレンド率を1とし、他方の俯瞰画像のブレンド率を0とすることも可能である。このようなブレンド率の算出方法により、特徴量の割合が変化する際にブレンド率が穏やかに切り替わりながらも、より特徴がある画像(立体物がある可能性の高い画像)のコントラストをさらに強調することが可能となる。立体物がある可能性が比較的高い画像を、ユーザーがさらに認識しやすくなるという効果がある。
 また例えば、特徴量の割合が変化する際に、ブレンド率が段階的に切り替わるように設定してもよい。この場合、切り替え段階の数が多いほどブレンド率の切り替えがより穏やかとなる。このように、特徴量の割合の変化に応じてブレンド率を段階的に切り替えるような、特徴量の割合の変化に対するブレンド率の変化が不連続であっても、本発明の一実施の態様となりうる。
 なお、演算Fについては、立体物が存在する可能性の高い画像について、演算結果の値が大きくなる場合を想定して説明したが、逆すなわち立体物がある可能性の高い画像ほど演算結果の値が小さくなるような演算Fとしてもよい。
 このように、立体物の部分の画像についても、ブレンド率として多値の値をとることができる。これにより、立体物の部分も、立体物がある可能性の高さに応じてより自然に合成することが可能となるといえる。
 また、ブレンド率は、重畳エリア全体または画素単位で算出し、重畳エリア全体または画素単位での合成処理に用いることが可能であるため、重畳エリア内において、境界線のような不自然な画像の接合部分が生じることを防ぐことも可能となり、より自然な合成画像を生成することが可能となる。
 また、他のブレンド率の決定法として、左前エリア300内のある画素位置から、「カメラ1」である前方カメラ201と「カメラ2」である左サイドカメラ202までの距離をそれぞれd1、d2として、距離d1とd2の比に応じて固定のブレンド率を設定するものであってもよい。すなわち、「カメラ1」である前方カメラ201に近い距離にある画素位置(つまりd1<d2)では、前方カメラ201の画像のブレンド率を高く設定するものであってもよい。例えば、前方カメラ201の画像のブレンド率を式「P1=d2/(d1+d2)」で与え、左サイドカメラ202の画像のブレンド率を式「P2=d1/(d1+d2)」で与えるものとしてもよい。
 しかし、この場合においては、カメラに近すぎる画素位置ではピントずれや歪が大きくなっている可能性が高いので、所定以上に近すぎる画素位置については、距離が遠い方のカメラによる俯瞰画像の重み付けを重くするようブレンド率を修正するのが好ましい。すなわち、接近限界閾値をdth(ただし、d1最小値≦dth≦d1最大値)としたとき、d1<d2かつd1<dthとなる位置では、近い前方カメラ201による俯瞰画像のブレンド率P1が低くなるように修正するようにしてもよい。例えば、上記設定したブレンド率P1、P2を入れ替えて、前方カメラ201の画像のブレンド率を式「P1=d1/(d1+d2)」で与え、左サイドカメラ202の画像のブレンド率を式「P2=d2/(d1+d2)」で与えるようにしてもよい。これにより、カメラから近過ぎる位置で発生するピントずれや歪を軽減して表示することができる。
 そして、俯瞰画像合成部114は、ブレンド率を用いて、立体物の存在をハイライトする等、強調する表現を含む俯瞰画像合成を行う(ステップS009)。具体的には、俯瞰画像合成部114は、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像との対応する位置にある画素情報(例えば、輝度情報、あるいはRGB情報)に対して、決定されたブレンド率に応じた重み付けを行って一つの俯瞰画像に合成する。俯瞰画像合成部114は、俯瞰画像を合成すると、ブレンド率決定処理を終了させる。なお、合成された俯瞰画像は、その後、ディスプレイ108に送られ、出力される。
 図11は、特徴量を基準にブレンドして俯瞰画像を合成する画面例を示す図である。この例は、ブレンド率決定処理のステップS005において特徴量が相関しないと判定され、ステップS007において物体が共通する位置にあると判定された場合、すなわちステップS008において決定されたブレンド率を用いて俯瞰画像を合成する処理の例である。カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像の重畳エリアにおいて、カメラ1に基づき得た俯瞰画像1101には、カメラ1により撮影された歩行者の足1103が写っている。カメラ2に基づき得た俯瞰画像1102には、カメラ2により撮影された歩行者の足1104が写っている。同一の重畳エリアを撮影しており、立体物である歩行者がそのエリア内に存在するため、歩行者の足1103、1104はそれぞれ異なる方向に伸びている。
 この例においては、歩行者の足1103と歩行者の足1104とは、いずれも共通する位置1108に特徴量を有するため、カメラ1による俯瞰画像1101とカメラ2による俯瞰画像1102のブレンド率「p:(1-p)」を算出し、そのブレンド率に応じて俯瞰画像合成部114は俯瞰合成画像1105を合成する。その結果、カメラ1により撮影された歩行者の足1106と、カメラ2により撮影された歩行者の足1107と、がそれぞれのブレンド率に従って合成され、俯瞰合成画像1105に含まれる。
 フローの説明に戻る。立体物が共通する位置にない場合(ステップS007にて「No」の場合)には、ブレンド率特定部113は、画像特徴量Q1とQ2とのいずれか特徴量が大きい方の画像を俯瞰画像に採用することを決定する(ステップS010)。
 そして、俯瞰画像合成部114は、採用した俯瞰画像を用いて俯瞰画像合成を行う(ステップS010)。具体的には、俯瞰画像合成部114は、カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像とのうち、重畳エリアの特徴量が大きい方の画像を採用して、俯瞰画像を合成する。俯瞰画像合成部114は、俯瞰画像を合成すると、ブレンド率決定処理を終了させる。なお、合成された俯瞰画像は、その後、ディスプレイ108に送られ、出力される。なお、誤検出による繋ぎ目付近での画像の消失を回避するために、特徴が抽出できたカメラ画像のブレンド率を優先してブレンド処理を行い、俯瞰画像を合成するようにしても良い。
 図12は、画像を選択して俯瞰画像を合成する画面例を示す図である。この例は、ブレンド率決定処理のステップS005において相関しないと判定され、ステップS007において物体が共通する位置にないと判定された場合、すなわちステップS010において俯瞰画像を選択的に採用して合成する処理の例である。カメラ1に基づき得た俯瞰画像とカメラ2に基づき得た俯瞰画像の重畳エリアにおいて、カメラ1に基づき得た俯瞰画像1201には、カメラ1により撮影された歩行者の足1203が写っている。カメラ2に基づき得た俯瞰画像1202には、カメラ2により撮影された画像が写っているが、歩行者の足に相当するものは存在しない。これは、重畳エリア内には何も存在しないが、カメラ1の近くには歩行者(立体物)が存在して、それがカメラ1の俯瞰画像1201に物体として写り出されたものである。一方、カメラ2の俯瞰画像1202の付近には何も存在しないため、何も写っていない。
 この例においては、俯瞰画像合成部114は、カメラ1により撮影された俯瞰画像1201を採用して俯瞰合成画像1205を合成する。その結果、カメラ1により撮影された歩行者の足1203が俯瞰合成画像1205に含まれる。
 以上が、ブレンド率決定処理の処理内容である。ブレンド率決定処理によれば、共通する領域を異なる視点位置から撮影した画像を各々が部分的に有する複数の画像情報に対して特徴量検出条件を適用して共通する領域の特徴量を検出し、画像ごとの共通する領域の特徴量を用いて、共通する領域が含まれる画像をブレンドする重み付けを特定し、共通する領域を含む俯瞰画像を合成することができる。すなわち、複数のカメラで撮影された重畳エリアにおいて、異なる方向から撮影されたカメラ画像の画像特徴量を抽出しこれらの相関性を判定することで、道路に描かれた平面状の模様と立体物とを区別できる。また立体物が存在する場合は、特徴量の位置的な重なりを判定し、立体物が重畳エリア内に存在するのか、重畳エリア外に存在するのかを判別できる。そして、それぞれの状態に合わせて、俯瞰画像の合成時のブレンド率を変化させることが可能となり、良好な俯瞰画像が得られる。
 以上、第一の実施形態について、図面を用いて説明した。第一の実施形態によれば、映像表示装置100は、複数のカメラで撮影した画像を利用して、障害物や歩行者を検出し、検出結果に従って、画像に写っている障害物や歩行者が見易いように各カメラ画像の俯瞰画像を合成し、車両の全周囲の俯瞰画像を生成することができるものであるといえる。言い換えると、映像表示システム1は、共通する領域を異なる視点位置から撮影する画像を部分的に含む画像情報を得る複数の撮像装置と、映像表示装置と、を含む。
 そして、映像表示装置は、画像情報に関する所定の特徴量を検出する条件となる特徴量検出条件を特定する特徴量検出条件特定部と、複数の画像情報に対して特徴量検出条件を適用し、共通する領域の特徴量を検出する特徴量検出部と、画像ごとの共通する領域の特徴量を用いて、共通する領域が含まれる画像をブレンドする重み付けを特定するブレンド率特定部と、ブレンド率を用いて共通する領域を含む俯瞰画像を合成する俯瞰画像合成部と、を備えるものであるともいえる。
 なお、本発明は上記した実施例に限定されるものではなく、様々な変形例が含まれる。例えば、上記した実施例は本発明を分かりやすく説明するために詳細に説明したものであり、必ずしも説明した全ての構成を備えるものに限定されるものではない。また、ある実施例の構成の一部を他の実施例の構成に置き換えることが可能であり、また、ある実施例の構成に他の実施例の構成を加えることも可能である。また、各実施例の構成の一部について、他の構成の追加・削除・置換をすることが可能である。
 なお、本実施形態に係る映像表示システム1は、映像表示装置100と、カメラ群101と、ディスプレイ108と、を含む構成としているが、カメラ群101とディスプレイ108のいずれかまたは両方が映像表示システム1に直接的に管理されるものでなくともよい。例えば、車両に限らない場所(例えば、美術館の展示等)に設置された複数の監視カメラで取得され送信される画像を合成して、監視対象領域の俯瞰画像を作成する場合にも適用できる。
 上述した第一の実施形態においては、共通する領域を撮影した複数の画像について、特徴量を互いに比較してブレンド率を求めて合成するものとしたが、これに限られない。例えば、経時に伴うヒステリシスを考慮して、前後の時刻におけるブレンド率を考慮して大きく変化しないよう、経時に応じて徐々にブレンド率を変更するようにしても良い。
 図13は、経時に伴う立体物の変化に応じたブレンド率の変化の例を示す図である。例えば、重畳エリア内を立体物である歩行者が移動した場合の合成画像の例を示す図である。図13では、歩行者がカメラ1とカメラ2により両カメラが共通して撮影する領域である重畳エリア1300内を左側から右方向に歩いて行く場合の重畳エリア1300における、歩行者の合成画像を時系列に並べている。
 時刻t1時点では、カメラ1により撮影された歩行者の足1301とカメラ2により撮影された歩行者の足1302は、それらのブレンド率を画像特徴量(例えば足の写っている面積)に応じて決定し、カメラ1により撮影された歩行者の側をP1=0.9、カメラ2側をP2=0.1等として合成する。このようにブレンド率を設定することで、歩行者の足の面積が大きく写っている側、すなわちカメラ1で撮影された足1301がくっきりと表示される。
 時刻t2時点では、カメラ1により撮影された歩行者の足1303とカメラ2により撮影された歩行者の足1304の画像特徴量(面積)は同程度となり、ブレンド率は共に等しくP1=P2=0.5またはP1=0.6、P2=0.4等として合成する。
 時刻t3時点では、カメラ1により撮影された歩行者の足1305よりもカメラ2により撮影された歩行者の足1306の画像特徴量の方がやや大きくなり、ブレンド率はカメラ1側をP1=0.3、カメラ2側をP2=0.7として合成する。
 時刻t4時点では、カメラ1により撮影された歩行者の足1307よりもカメラ2で撮影された足1308の画像特徴量の方がはるかに大きくなり、ブレンド率はカメラ1側をP1=0.1、カメラ2側をP2=0.9で合成する。その結果、足の面積が大きく写っているカメラ2で撮影された足1308がくっきり表示される。
 このように、第一の実施形態に係る発明によれば、複数のカメラで同一の物体が撮影されている場合において、画像特徴量の相対的な比率に応じてブレンド率を設定することにより、面積がより大きく写っている方の画像のコントラストを大きくした画像を生成できる。これに対してさらに、ブレンド率を求める処理において、ブレンド率特定部113は、下式(3)を適用してブレンド率を求めるようにしてもよい。
 ブレンド率p1(t)=p1(t-1)+k(p1_calc(t)-p1(t-1))・・・式(3)
 すなわち、時刻tにおけるカメラ1のブレンド率p1(t)は、時刻(t-1)におけるブレンド率との差のk倍(kは0から1までの数)を時刻(t-1)におけるブレンド率に足したものとすることができる。ただし、式(3)においては、p1_calc(t)の値は、特徴量に基づき算出されたt時刻における補正前のブレンド率とする。つまり、所定の期間毎にブレンドの重み付けを特定し、当該所定の期間ごとのブレンドの重み付けに際しては、所定の期間の前または後あるいは前後の期間のブレンドの重み付けとの間の変化量が所定以下となるよう重み付けをすることができる。
 あるいは、将来の時刻における輝度の予測を行い、該予測される輝度までをスムーズにつなげるようブレンド率を設定するものであってもよい。
 なお、上述の第一の実施形態においては、時刻t2において、画像特徴量が画像間で同程度になる場合には、ブレンド率を等しくP1=P2=0.5とすべきところ、その場合には両画像を合成した画像の輝度が高くなってしまい視認しにくくなる可能性がある。そこで、ヒステリシスを考慮して、一時刻前にブレンド率が高かった画像を優先して表示する処理を行ってもよい。具体的には、図13の例では、時刻t2の一時刻前の時刻t1では、P1の方がブレンド率が高い。そこで、画像特徴量が同程度である時刻t2の処理では、P1を優先して、検出した画像特徴量に対して、所定の割合または値を加える、または乗ずる処理を行う。これにより、例えば、ブレンド率をP1=0.6、P2=0.4などとして、カメラ1の映像を見易くさせても良い。なお、このとき、前の動きから次の時刻の動きを予測して、P1=0.4、P2=0.6としても良い。この手法のように、カメラ1とカメラ2で同程度の画像特徴量が検出される場合には、時系列的な特徴量の変化に応じて、二つの映像のブレンド率が等しくなる状況(P1=P2=0.5)を避けるようにブレンドすることで、両方の画像が薄くなり視認しづらくなる現象を低減できる。
 その他、画像情報が所定の期間において撮影された動画像である場合には、動きベクトル情報を用いてブレンド率を算出する方法についても採用しうる。すなわち、画像特徴量の検出のためにオプティカルフローの動きベクトル情報を利用し、これから重畳エリアのブレンド率を算出し画像を合成する。画像特徴量として複数フレームの動きベクトルを利用し、動きベクトルの総和の比からブレンド率を算出する。具体的には、カメラ1の画像内の動きベクトルの総和 ΣCam1と、カメラ2の画像内の動きベクトル1404の総和 ΣCam2を計算する。これから、カメラ1のブレンド率P1とカメラ2のブレンド率P2を、下式(4)、(5)として算出する。
   P1= ΣCam1/( ΣCam1+ ΣCam2)・・・式(4)
   P2= ΣCam2/( ΣCam1+ ΣCam2)・・・式(5)
 つまり、動きの大きい映像を備えるカメラ画像のブレンド率を大きく設定する。これらのブレンド率で動き物体を含む合成画像1405を生成する。この手法によれば、重畳エリア内で動きが大きいものほどくっきりとコントラストを向上させた画像が生成可能となる。
 図14は、映像表示装置100による撮影対象の領域の設定例を示す図である。輪郭の検出について、さらに精度の高い立体物の輪郭検出を可能にする仕組みを適用する変形例であるといえる。図14においては、図4に示したエリアのうち、重畳エリアをさらに細分化して、延伸方向と走査方向とのずれを減らすことで立体物の検出精度を高める仕組みが示されている。
 図14においては、基本的に第一の実施形態と同様の構成を備えるものであるが、左前エリア300をさらに扇状に分割し、第1の領域300A、第2の領域300B、第3の領域300C、第4の領域300D、第5の領域300E、第6の領域300F、第7の領域300Gを設けている。また、各領域にはブレンド率を固定で設定する。
 例えば、第1の領域300Aでは、その重心位置は前方カメラ201側が近いため、前方カメラ201の画像のブレンド率をP1=0.9、左サイドカメラ202の画像のブレンド率をP2=0.1とする。これに対して、隣接する第2の領域300Bについては、前方カメラ201から少し遠ざかるため、P1=0.8、P2=0.2とする。同様に、前方カメラ201からの距離と、左サイドカメラ202からの距離と、に応じて、第3から第6までの領域についてもブレンド率を設定する。第7の領域300Gでは、左サイドカメラ202に近いので、P1=0.1、P2=0.9とする。このように、前方カメラ201に近いほど前方カメラ201の画像を優先し、左サイドカメラ202に近いほど左サイドカメラ202の画像を優先してブレンド率を設定する。これにより、それぞれの分割された領域では近い方のカメラからの画像が強調されてブレンドされるので、より見易い画像が作成できる。さらに各分割領域において、各カメラ画像の特徴量に応じて、ブレンド率を調整しても良い。
 また、上記の各構成、機能、処理部、処理手段などは、それらの一部または全部を、プロセッサがそれぞれの機能を実現するプログラムを解釈し、実行することによりソフトウェアで実現しても良い。各機能を実現するプログラム、テーブル、ファイルなどの情報は、メモリやハードディスク、SSDなどの記録装置、または、ICカード、SDカード、DVDなどの記憶媒体に置くことができる。
 また、制御線や情報線は説明上必要と考えられるものを示しており、製品上必ずしも全ての制御線や情報線を示しているとは限らない。実際にはほとんど全ての構成が相互に接続されていると考えても良い。
 また、上記の各構成、機能、処理部等は、それらの一部又は全部を、例えば集積回路で設計する等によりハードウェアで実現してもよい。また、上記した実施形態の技術的要素は、単独で適用されてもよいし、プログラム部品とハードウェア部品のような複数の部分に分けられて適用されるようにしてもよい。
 以上、本発明について、実施形態を中心に説明した。
1・・・映像表示システム、100・・・映像表示装置、110・・・制御部、111・・・特徴量検出条件特定部、112・・・特徴量検出部、113・・・ブレンド率特定部、114・・・俯瞰画像合成部、120・・・記憶部、121・・・特徴量検出条件記憶部、122・・・ブレンド情報記憶部、130・・・カメラ制御部

Claims (13)

  1.  少なくとも2つの異なる視点から共通領域を撮影した画像の俯瞰画像について所定の特徴量を検出する条件を特定する特徴量検出条件特定部と、
     特定された前記特徴量検出条件を用いて、前記共通領域を撮影した画像の各俯瞰画像について前記特徴量を検出する特徴量検出部と、
     前記特徴量検出部により検出される特徴量に応じて、前記異なる視点から撮影した共通領域を撮影した画像の俯瞰画像の画素をブレンドする際のブレンド率を特定するブレンド率特定部と、
     前記ブレンド率特定部により特定されたブレンド率に応じて前記共通領域を撮影した画像の俯瞰画像の画素をブレンドして合成出力する俯瞰画像合成部と、
     を備えることを特徴とする映像表示装置。
  2.  請求項1に記載の映像表示装置であって、
     前記特徴量検出条件特定部は、前記共通領域と、前記視点のある位置と、に応じて前記特徴量検出条件を特定する、
     ことを特徴とする映像表示装置。
  3.  請求項1に記載の映像表示装置であって、
     前記特徴量検出条件特定部は、前記共通領域の所定の代表点から前記視点のある位置へ向かう方向に直交する方向に走査して前記共通領域を撮影した画像の俯瞰画像の特徴量を抽出することを処理条件として特定する、
     ことを特徴とする映像表示装置。
  4.  請求項1に記載の映像表示装置であって、
     前記特徴量検出条件特定部は、前記視点のある位置を中心とする同心円の接線方向に走査して前記共通領域を撮影した画像の俯瞰画像の特徴量を抽出することを処理条件として特定する、
     ことを特徴とする映像表示装置。
  5.  請求項1に記載の映像表示装置であって、
     前記特徴量検出条件特定部は、前記共通領域の代表点から前記視点のある位置へ向かう方向が水平方向または垂直方向となるよう前記共通領域を撮影した画像の俯瞰画像を回転させて走査して画像の特徴量を抽出することを処理条件として特定する、
     ことを特徴とする映像表示装置。
  6.  請求項1に記載の映像表示装置であって、
     前記ブレンド率特定部は、前記共通領域を撮影した画像の各俯瞰画像の特徴量について、複数の前記俯瞰画像情報間の相関の強弱を判定し、相関が所定より弱いと判定された場合には、前記共通領域上において、前記共通する領域を撮影した画像の各俯瞰画像の特徴量に関し所定以上の度合いで重複する領域があるか否かを判定し、該領域の有無に応じてブレンドの方法を切り替える、
     ことを特徴とする映像表示装置。
  7.  請求項6に記載の映像表示装置であって、
     前記俯瞰画像合成部は、前記ブレンド率特定部により前記共通する領域を撮影した画像の各俯瞰画像の特徴量に関し所定以上の度合いで重複する領域があると判定された場合、前記共通する領域を撮影した画像の俯瞰画像の特徴量が大きい画像のブレンド率を大きく設定して前記俯瞰画像の画素をブレンドして合成出力する、
     ことを特徴とする映像表示装置。
  8.  請求項6に記載の映像表示装置であって、
     前記俯瞰画像合成部は、前記ブレンド率特定部により前記共通する領域を撮影した画像の各俯瞰画像の特徴量に関し所定以上の度合いで重複する領域がないと判定された場合、前記共通する領域を撮影した画像の俯瞰画像の特徴量が大きい画像を採用して前記俯瞰画像を合成出力する、
     ことを特徴とする映像表示装置。
  9.  請求項1に記載の映像表示装置であって、
     前記ブレンド率特定部は、前記共通領域を撮影した画像の各俯瞰画像の特徴量について、前記複数の前記俯瞰画像情報間の相関の強弱を判定し、相関が所定より強いと判定された場合には、前記共通領域上において、視点のある位置から前記共通領域までの距離が近い画像ほど前記画像に含まれる画素のブレンド率を大きく設定して前記俯瞰画像を合成出力する、
     ことを特徴とする映像表示装置。
  10.  請求項1に記載の映像表示装置であって、
     前記俯瞰画像は、所定の期間において撮影された動画像であって、
     前記特徴量検出部は、前記俯瞰画像の特徴量として各画像内の動きベクトルを検出し、
     前記俯瞰画像合成部は、前記共通領域における各画像の動きベクトル量に応じてブレンド率を設定する、
     ことを特徴とする映像表示装置。
  11.  請求項1に記載の映像表示装置であって、
     前記俯瞰画像合成部は、前記共通領域の画像について、前記共通領域と隣接する領域に向けて前記ブレンド率に傾斜を付けて変化するよう前記俯瞰画像を合成出力する、
     ことを特徴とする映像表示装置。
  12.  請求項1に記載の映像表示装置であって、
     前記俯瞰画像合成部は、所定の期間毎に前記ブレンド率を特定し、当該所定の期間ごとのブレンド率の特定に際しては、前記所定の期間の前または後あるいは前後の期間のブレンド率との間の変化量が所定以下となるよう特定する、
     ことを特徴とする映像表示装置。
  13.  共通領域を互いに異なる視点から撮影する画像の俯瞰画像を得る複数の撮像装置と、映像表示装置と、を含み、
     前記映像表示装置は、
     前記俯瞰画像について所定の特徴量を検出する条件となる特徴量検出条件を特定する特徴量検出条件特定部と、
     前記共通領域を撮影した画像の各俯瞰画像に対して、特定された前記特徴量検出条件を用いて、特徴量を検出する特徴量検出部と、
     前記特徴量検出部により検出される特徴量に応じて、前記異なる視点の位置から撮影した共通領域を撮影した画像の俯瞰画像の画素をブレンドする際のブレンド率を特定するブレンド率特定部と、
     前記ブレンド率特定部により特定されたブレンド率に応じて前記共通領域を撮影した画像の俯瞰画像の画素をブレンドして合成出力する俯瞰画像合成部と、
     を備える、
     ことを特徴とする映像表示システム。
PCT/JP2015/050892 2014-03-27 2015-01-15 映像表示装置および映像表示システム WO2015146230A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP15769792.1A EP3125544A4 (en) 2014-03-27 2015-01-15 Image display device and image display system
US15/125,719 US20170006234A1 (en) 2014-03-27 2015-01-15 Image display device and image display system
CN201580006815.3A CN105960800A (zh) 2014-03-27 2015-01-15 影像显示装置及影像显示***

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014-066268 2014-03-27
JP2014066268A JP6371553B2 (ja) 2014-03-27 2014-03-27 映像表示装置および映像表示システム

Publications (1)

Publication Number Publication Date
WO2015146230A1 true WO2015146230A1 (ja) 2015-10-01

Family

ID=54194772

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2015/050892 WO2015146230A1 (ja) 2014-03-27 2015-01-15 映像表示装置および映像表示システム

Country Status (5)

Country Link
US (1) US20170006234A1 (ja)
EP (1) EP3125544A4 (ja)
JP (1) JP6371553B2 (ja)
CN (1) CN105960800A (ja)
WO (1) WO2015146230A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018108215A1 (de) * 2016-12-15 2018-06-21 Conti Temic Microelectronic Gmbh Vorrichtung zur bereitstellung einer verbesserten hinderniserkennung

Families Citing this family (23)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20160217333A1 (en) * 2015-01-26 2016-07-28 Ricoh Company, Ltd. Information processing apparatus and information processing system
US20170270378A1 (en) * 2016-03-16 2017-09-21 Haike Guan Recognition device, recognition method of object, and computer-readable recording medium
JP6669569B2 (ja) * 2016-04-04 2020-03-18 アルパイン株式会社 車両用周辺監視装置
US10672180B2 (en) * 2016-05-02 2020-06-02 Samsung Electronics Co., Ltd. Method, apparatus, and recording medium for processing image
JP6586051B2 (ja) * 2016-06-30 2019-10-02 株式会社 日立産業制御ソリューションズ 画像処理装置および画像処理方法
CN107666590B (zh) * 2016-07-29 2020-01-17 华为终端有限公司 一种目标监控方法、摄像头、控制器和目标监控***
US11158060B2 (en) * 2017-02-01 2021-10-26 Conflu3Nce Ltd System and method for creating an image and/or automatically interpreting images
US11176675B2 (en) 2017-02-01 2021-11-16 Conflu3Nce Ltd System and method for creating an image and/or automatically interpreting images
JPWO2018146997A1 (ja) * 2017-02-07 2019-11-14 日本電気株式会社 立体物検出装置
JP6861599B2 (ja) * 2017-08-31 2021-04-21 フォルシアクラリオン・エレクトロニクス株式会社 周辺監視装置
JP2019185381A (ja) * 2018-04-10 2019-10-24 クラリオン株式会社 車両周囲画像生成装置
US10837788B1 (en) 2018-05-03 2020-11-17 Zoox, Inc. Techniques for identifying vehicles and persons
US10809081B1 (en) 2018-05-03 2020-10-20 Zoox, Inc. User interface and augmented reality for identifying vehicles and persons
US11846514B1 (en) * 2018-05-03 2023-12-19 Zoox, Inc. User interface and augmented reality for representing vehicles and persons
JP2021144257A (ja) * 2018-06-06 2021-09-24 ソニーグループ株式会社 情報処理装置、情報処理方法、プログラム、及び、移動体
GB2582262B (en) * 2019-03-02 2022-09-28 Jaguar Land Rover Ltd Imaging system and method
US11216920B2 (en) * 2019-05-31 2022-01-04 Apple Inc. Enhanced local contrast
JP7314680B2 (ja) * 2019-07-23 2023-07-26 東洋製罐株式会社 画像データ処理システム、無人航空機、画像データ処理方法、及びプログラム
KR20210030523A (ko) * 2019-09-09 2021-03-18 현대자동차주식회사 차량 및 그 제어 방법
JP7367776B2 (ja) * 2019-12-27 2023-10-24 株式会社ソシオネクスト 画像処理装置、画像処理方法、および画像処理プログラム
CN113496601B (zh) * 2020-03-20 2022-05-24 宇通客车股份有限公司 一种车辆辅助驾驶方法、装置和***
JP7038935B2 (ja) * 2020-03-25 2022-03-18 三菱電機株式会社 画像処理装置、画像処理方法、及び画像処理プログラム
DE102020109997A1 (de) 2020-04-09 2021-10-14 Connaught Electronics Ltd. System und Verfahren, um zuverlässige gestitchte Bilder zu machen

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134878A (ja) * 2008-12-08 2010-06-17 Hitachi Automotive Systems Ltd 立体物出現検知装置
JP2010228649A (ja) * 2009-03-27 2010-10-14 Denso Corp 車外撮影画像表示システム。
JP2010250640A (ja) * 2009-04-17 2010-11-04 Sanyo Electric Co Ltd 画像処理装置
JP2011205375A (ja) * 2010-03-25 2011-10-13 Fujitsu Ten Ltd 画像生成装置、画像表示システム及び画像生成方法
JP2013030833A (ja) * 2011-07-26 2013-02-07 Aisin Seiki Co Ltd 車両周辺監視システム
JP2013074423A (ja) * 2011-09-27 2013-04-22 Aisin Seiki Co Ltd 車両周辺監視装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8136354B2 (en) * 2008-03-14 2012-03-20 Energy Compression Inc. Adsorption-enhanced compressed air energy storage
EP2285109B1 (en) * 2008-05-29 2018-11-28 Fujitsu Limited Vehicle image processor, and vehicle image processing system
KR101371458B1 (ko) * 2012-07-16 2014-03-10 현대자동차주식회사 오픈카의 배플구조
JP6084434B2 (ja) * 2012-10-31 2017-02-22 クラリオン株式会社 画像処理システム及び画像処理方法
JP6224251B2 (ja) * 2013-12-19 2017-11-01 インテル コーポレイション ボウル形状イメージングシステム

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2010134878A (ja) * 2008-12-08 2010-06-17 Hitachi Automotive Systems Ltd 立体物出現検知装置
JP2010228649A (ja) * 2009-03-27 2010-10-14 Denso Corp 車外撮影画像表示システム。
JP2010250640A (ja) * 2009-04-17 2010-11-04 Sanyo Electric Co Ltd 画像処理装置
JP2011205375A (ja) * 2010-03-25 2011-10-13 Fujitsu Ten Ltd 画像生成装置、画像表示システム及び画像生成方法
JP2013030833A (ja) * 2011-07-26 2013-02-07 Aisin Seiki Co Ltd 車両周辺監視システム
JP2013074423A (ja) * 2011-09-27 2013-04-22 Aisin Seiki Co Ltd 車両周辺監視装置

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3125544A4 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018108215A1 (de) * 2016-12-15 2018-06-21 Conti Temic Microelectronic Gmbh Vorrichtung zur bereitstellung einer verbesserten hinderniserkennung
US10824884B2 (en) 2016-12-15 2020-11-03 Conti Temic Microelectronic Gmbh Device for providing improved obstacle identification

Also Published As

Publication number Publication date
JP2015192198A (ja) 2015-11-02
JP6371553B2 (ja) 2018-08-08
EP3125544A4 (en) 2017-09-20
EP3125544A1 (en) 2017-02-01
US20170006234A1 (en) 2017-01-05
CN105960800A (zh) 2016-09-21

Similar Documents

Publication Publication Date Title
JP6371553B2 (ja) 映像表示装置および映像表示システム
JP6084434B2 (ja) 画像処理システム及び画像処理方法
KR101956149B1 (ko) 이미지 사이의 광학 흐름의 효율적 결정
CN107409166B (zh) 摇摄镜头的自动生成
KR101643607B1 (ko) 영상 데이터 생성 방법 및 장치
US10304164B2 (en) Image processing apparatus, image processing method, and storage medium for performing lighting processing for image data
CN116018616A (zh) 保持帧中的目标对象的固定大小
KR101984496B1 (ko) 물체 영역에 근거하여 화상을 처리하는 장치 및 그 방법
US8896703B2 (en) Superresolution enhancment of peripheral regions in nonlinear lens geometries
JP7123736B2 (ja) 画像処理装置、画像処理方法、およびプログラム
US20100182480A1 (en) Image processing apparatus, image matching method, and computer-readable recording medium
JP6452360B2 (ja) 画像処理装置、撮像装置、画像処理方法およびプログラム
JP7159384B2 (ja) 画像処理装置、画像処理方法、及びプログラム
JP2020129276A (ja) 画像処理装置、画像処理方法、およびプログラム
KR102262671B1 (ko) 비디오 영상에 보케 효과를 적용하는 방법 및 기록매체
WO2018129692A1 (en) Image refocusing
WO2018147059A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
GB2585197A (en) Method and system for obtaining depth data
WO2016113805A1 (en) Image processing method, image processing apparatus, image pickup apparatus, program, and storage medium
CN117058183A (zh) 一种基于双摄像头的图像处理方法、装置、电子设备及存储介质
KR102587298B1 (ko) 멀티뷰 어안 렌즈들을 이용한 실시간 전방위 스테레오 매칭 방법 및 그 시스템
JP6579764B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP6351364B2 (ja) 情報処理装置、情報処理方法およびプログラム
KR101718309B1 (ko) 색상 정보를 활용한 자동 정합·파노라믹 영상 생성 장치 및 방법
JP5891751B2 (ja) 画像間差分装置および画像間差分方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 15769792

Country of ref document: EP

Kind code of ref document: A1

REEP Request for entry into the european phase

Ref document number: 2015769792

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 15125719

Country of ref document: US

Ref document number: 2015769792

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE