WO2013094496A1 - 障害物警報装置 - Google Patents

障害物警報装置 Download PDF

Info

Publication number
WO2013094496A1
WO2013094496A1 PCT/JP2012/082236 JP2012082236W WO2013094496A1 WO 2013094496 A1 WO2013094496 A1 WO 2013094496A1 JP 2012082236 W JP2012082236 W JP 2012082236W WO 2013094496 A1 WO2013094496 A1 WO 2013094496A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
captured image
explicit
vehicle
obstacle
Prior art date
Application number
PCT/JP2012/082236
Other languages
English (en)
French (fr)
Inventor
丸岡哲也
角屋明
本多浩一郎
池田圭吾
Original Assignee
アイシン精機株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2011282210A external-priority patent/JP5765576B2/ja
Priority claimed from JP2011284008A external-priority patent/JP5660395B2/ja
Priority claimed from JP2012005420A external-priority patent/JP5845909B2/ja
Priority claimed from JP2012005421A external-priority patent/JP5787168B2/ja
Application filed by アイシン精機株式会社 filed Critical アイシン精機株式会社
Publication of WO2013094496A1 publication Critical patent/WO2013094496A1/ja

Links

Images

Classifications

    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/26Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view to the rear of the vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/166Anti-collision systems for active traffic, e.g. moving vehicles, pedestrians, bikes
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/167Driving aids for lane monitoring, lane changing, e.g. blind spot detection
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems
    • G08G1/168Driving aids for parking, e.g. acoustic or visual feedback on parking space
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8033Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for pedestrian protection
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/806Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for aiding parking

Definitions

  • the present invention relates to an obstacle alarm device that clearly indicates to an occupant the presence of an obstacle approaching a vehicle.
  • Patent Documents 1 and 2 There are blind spots around the vehicle that cannot be seen from the driver's position, and the driver needs to pay close attention to the surrounding of the vehicle when driving the vehicle. In particular, when the vehicle is moved backward and parked, there are many users who are not good at parking itself, and there is not a lot of mental fatigue. Thus, conventionally, techniques for monitoring obstacles around the vehicle have been used (for example, Patent Documents 1 and 2).
  • the vehicle obstacle alarm device described in Patent Document 1 includes a lateral movement obstacle detection means, a lateral movement direction detection means, and a lateral movement information provision means.
  • the laterally moving obstacle detection means detects an obstacle that moves in the direction crossing the traveling direction in front of the vehicle.
  • the lateral movement direction detection means detects the lateral movement direction of the obstacle detected by the lateral movement obstacle detection means.
  • the lateral movement information providing means provides the driver with information regarding the lateral movement direction of the obstacle detected by the lateral movement direction detecting means. At this time, the lateral movement information providing means displays an arrow indicating the lateral movement direction detected by the lateral movement direction detecting means on the display unit.
  • the vehicle periphery monitoring device described in Patent Document 2 includes an imaging unit, an obstacle detection unit, and a display unit.
  • the imaging means images the surroundings of the vehicle including a part of the host vehicle.
  • the obstacle detection means detects an obstacle located around the vehicle and calculates a distance between the detected obstacle and the host vehicle.
  • the display unit displays the captured image captured by the imaging unit and the obstacle display image indicating the distance calculated by the obstacle detection unit on one screen.
  • Obstacles around the vehicle are detected by detecting obstacles around the vehicle as in the techniques described in Patent Literature 1 and Patent Literature 2 and displaying information (arrows, etc.) clearly indicating the obstacles on the screen. Can be notified.
  • the screen size of the display (display means) mounted on the vehicle is not large. For this reason, if an arrow or the like is displayed on the image showing the situation around the vehicle displayed on the display, the situation around the vehicle may become difficult to see or an obstacle may not be grasped.
  • an object of the present invention is to provide an obstacle alarm device that can clearly alert the driver of the presence of an obstacle approaching the vehicle without making it difficult to see the situation around the vehicle. There is to do.
  • the characteristic configuration of the obstacle alarm device is as follows.
  • a captured image acquisition unit that acquires a captured image of a scene around the vehicle;
  • An attention-captured image generation unit that generates an attention-captured image based on the captured image;
  • An object presence determination unit that determines whether or not an object exists in an outer region outside the target captured image; When the object in the outer area enters the area corresponding to the target captured image, an explicit index that clearly indicates the presence of the object is displayed at the end on the outer area side where the object exists in the target captured image.
  • An explicit image output unit for outputting an explicit image including When the object in the outer region enters the region corresponding to the target captured image, an image is output in which the explicit indicator moves following the movement of the object at a position above the object in the target captured image.
  • An action image output unit It is in the point provided with.
  • the obstacle alarm device of this configuration determines whether or not an object exists in the outer region of the target captured image, and when the object in the outer region enters the region corresponding to the target captured image, An explicit index that clearly indicates the presence of the object is displayed at the end on the side of the outer region where the object exists. For this reason, even if an object is not displayed on the screen of a display device (for example, a monitor) provided in the vehicle, when an object approaching the vehicle enters the imaging range, driving while displaying the situation around the vehicle The presence of an object approaching the vehicle and the approach direction thereof can be clearly indicated to the person. Therefore, even when the screen size of the display device is small, there is little risk of missing an object approaching the vehicle.
  • a display device for example, a monitor
  • the obstacle alarm device of this configuration can clearly alert the driver of the presence of an obstacle (object) approaching the vehicle without making it difficult to see the situation around the vehicle.
  • the operation image output unit is configured to start outputting the image when an object in the outer region enters an area corresponding to the target captured image.
  • the operation image output unit moves from the end on the outer region side where the object exists in the target captured image to the position above the object. It is preferable that an image that moves the explicit index is output.
  • the motion image output unit is configured to output an image in which the explicit indicator moves while rotating when an object in the outer region enters the region corresponding to the target captured image.
  • the explicit indicator is mixed in the image, so that the driver does not lose sight of the explicit indicator or misunderstand it with any object, move the explicit indicator prominently, The presence of an object can be clearly indicated. Therefore, it is possible to clearly alert the driver of the presence of an obstacle (object) approaching the vehicle without making it difficult to see the situation around the vehicle.
  • the motion image output unit is configured to output an image that moves while the explicit index gradually decreases when an object in the outer area enters the area corresponding to the target captured image.
  • the motion image output unit is configured to output an image so that a top portion protruding toward the center side of the explicit indicator faces the object side when the explicit indicator moves to an upper position.
  • the motion image output unit is configured to output the image in which the explicit indicator blinks when the object in the outer region moves at a speed lower than a set speed.
  • the motion image output unit is configured to output an image in which the explicit indicator moves only in the horizontal direction of the screen following the movement of the object in the horizontal direction of the screen.
  • the obstacle alarm device 100 has a function of clearly indicating that an object is approaching the driver of the vehicle when there is an object such as a pedestrian or a vehicle approaching the vehicle.
  • an object such as a pedestrian or a vehicle approaching the vehicle.
  • a function is provided that clearly indicates that the object is approaching the driver of the vehicle when there is an object behind the vehicle.
  • FIG. 1 is a block diagram schematically showing the configuration of the obstacle alarm device 100.
  • the obstacle alarm device 100 includes a captured image acquisition unit 11, a focused captured image generation unit 12, an outer region generation unit 13, an object presence determination unit 14, a movement determination unit 15, an explicit image output unit 16, Functional parts of the explicit image storage unit 17, the composite image generation unit 18, the mask area setting unit 19, the obstacle presence area generation unit 20, the obstacle presence area highlighting display unit 21, the motion image output unit 30, and the motion image storage unit 31. It is configured with.
  • Each functional unit includes the above-described functional units for performing various processes for clearly indicating the approach of the object 7 to the driver of the vehicle 1 by using a CPU as a core member.
  • the captured image acquisition unit 11 acquires a captured image G obtained by capturing a scene around the vehicle 1 with the camera 5 included in the vehicle 1.
  • the camera 5 includes a digital camera that incorporates an image sensor such as a CCD (charge coupled device) or a CIS (CMOS image sensor) and outputs captured information as moving image information.
  • an image sensor such as a CCD (charge coupled device) or a CIS (CMOS image sensor)
  • the camera 5 is slightly directed toward the rear of the vehicle 1 in the vicinity of the license plate provided in the outer rear part of the vehicle 1 or in the vicinity of the emblem provided in the outer rear part of the vehicle 1. It is disposed with a depression angle.
  • the camera 5 includes a wide-angle lens (not shown). Thereby, the scene around the vehicle 1 can be photographed over the angle range of about 180 degrees behind the vehicle 1. Such an imaging range is shown as “wide viewing angle” in FIG.
  • the camera 5 has a performance of outputting a moving image as a captured image G in real time. Such a captured image G is transmitted to the captured image acquisition unit 11.
  • FIG. 2B An example of such a photographed image G is shown in FIG.
  • the full width of the captured image G shown in FIG. 2B corresponds to the wide viewing angle shown in FIG.
  • the photographed image G is an image of an object (pedestrian in the present embodiment) 7 on the left side as viewed from behind the vehicle 1 as shown in FIG. 2A, as shown in FIG. 2B.
  • Mirror image processing is performed so as to be on the right side in G. This is because when the scene behind the vehicle 1 is displayed on the monitor 50, it is easy for the driver of the vehicle 1 to intuitively understand whether the object 7 included in the captured image G is on the left side or the right side of the vehicle 1. It is to do.
  • the noticeable photographed image generation unit 12 generates a noticeable photographed image based on the photographed image G transmitted from the photographed image acquisition unit 11.
  • the shooting range of the shot image G is a wide viewing angle.
  • the noticeable photographed image generation unit 12 generates a narrow-field region N that is a central portion of the photographed image G as the noticeable photographed image.
  • the target captured image corresponds to the central portion in the horizontal direction of the captured image G illustrated in FIG.
  • a narrow visual field region N is preferably a region having an angular range of about 120 to 130 degrees behind the vehicle 1, such as the “narrow visual field angle” in FIG.
  • the narrow-field region N is close to the advanceable range when the vehicle 1 moves backward, it is referred to as a “focused captured image” because it is a region that should be particularly noted in the captured image G.
  • a noticeable photographed image corresponds to a display image displayed on the monitor 50 described later (see FIG. 2C).
  • the “focused captured image” is described as an image of a “narrow field of view”.
  • the outer area generation unit 13 generates an outer area O outside the target photographed image. That is, an outer region O outside the narrow field region N in the captured image G is generated. As described above, the narrow-field region N is generated by the noticeable captured image generation unit 12 at the central portion in the horizontal direction of the captured image G. The outer region generation unit 13 generates an outer region O as shown in FIG. 2B outside the narrow field region N in the lateral direction. The outer region O generated by the outer region generation unit 13 is transmitted to the object presence determination unit 14.
  • the object presence determination unit 14 determines whether or not the object 7 exists in the outer region O transmitted from the outer region generation unit 13. Whether or not the object 7 exists can be determined using a known image recognition process such as pattern matching. Of course, it is possible to determine whether or not the object 7 exists in the outer region O by processing other than pattern matching. The determination result of the object presence determination unit 14 is transmitted to the movement determination unit 15.
  • the movement determining unit 15 determines the current position and moving direction of the object 7 in the outer region O when the object presence determining unit 14 determines that the object 7 exists in the outer region O. Particularly in the present embodiment, the movement determination unit 15 determines whether or not the object 7 in the outer region O moves toward the narrow field region N.
  • the movement toward the narrow visual field N indicates that the vehicle 1 moves from the outer side in the width direction of the vehicle 1 to the direction just behind the vehicle 1 behind the vehicle 1.
  • the moving direction can be determined by comparing, for example, the current position of the object 7 in the captured image G and the position of the object 7 in the captured image G a predetermined time ago, or using a known optical flow or the like. This can be done using techniques.
  • the explicit image output unit 16 When the movement determination unit 15 determines that the object 7 in the outer region O moves to the region corresponding to the target captured image, the explicit image output unit 16 performs the target captured image as illustrated in FIG. An explicit image including an explicit index S that clearly indicates the presence of the object 7 is output at the end on the outer region O side where the object 7 exists.
  • the area corresponding to the target captured image corresponds to the narrow field area N. Therefore, when the object 7 in the outer region O moves toward the narrow visual field region N, the explicit image output unit 16 displays the object displayed on the end portion on the outer region O side where the object 7 exists in the target captured image. An explicit image including an explicit index S that clearly indicates the presence of 7 is output.
  • the side of the outside field O where the object 7 exists in the narrow field area N corresponds to the left side area in the narrow field area N when the object 7 is in the left side area O.
  • the right region in the narrow field region N corresponds.
  • the explicit image output unit 16 when the object 7 in the outer region O moves to the narrow field region N side of the vehicle 1, the explicit image output unit 16 is on the side of the outer region O in which the object 7 exists in the narrow field region N.
  • An explicit index S that is turned on for a certain time and then turned off is displayed toward the center side.
  • the explicit indicator S that is turned on after turning on for a certain period of time indicates a state in which the explicit indicator S is blinking and displayed, not the state in which the explicit indicator S is continuously displayed.
  • the explicit index S will be described.
  • the explicit index S according to the present embodiment is configured in the shape of an isosceles triangle arrow having a top portion that protrudes toward the center side of the target captured image (narrow field of view N).
  • Such an explicit index S is stored in the explicit image storage unit 17 as shown in FIG.
  • FIG. 2C shows a captured image G as shown in FIG. 2B, that is, an image displayed on the monitor 50 of the vehicle 1 when the object 7 is in the right outer region O.
  • the explicit image output unit 16 synthesizes the explicit index S with the noticeable captured image that is the narrow-field region N and displays it on the monitor 50 as shown in FIG. Therefore, the composite image generation unit 18 generates a composite image in which the explicit index S is combined with the target captured image. As a result, images as shown in FIG. 2C and FIG. 4 are generated, and it is possible to visually indicate to the passenger of the vehicle 1 that the object 7 is approaching the vehicle 1.
  • the mask area setting unit 19 sets a mask area M in which at least a part of a scene around the vehicle 1 is not displayed in the target photographed image.
  • the mask area M is set at the upper part of the screen, that is, the upper part in the target photographed image.
  • This mask area M is formed in a band shape having a constant width across both lateral sides of the target photographed image.
  • the mask area M is colored, for example, in black so that the scene above the vehicle 1 cannot be seen. Of course, other colors may be used.
  • the obstacle existence area generation unit 20 covers the mask region M as shown in FIG. An object existence area B is generated.
  • the obstacle existence area B has edge existence areas B1 and B3 on both the left and right sides in the noticeable photographed image, and an intermediate existence area B2 between both edge existence areas B1 and B3.
  • the obstacle existing area highlighting display unit 21 displays, for example, the end existence area B3 on the outer area O side where the object 7 exists. It is colored in red and blinks in synchronization with the blinking operation of the explicit index S, and when the object 7 enters the narrow visual field N, the coloring and blinking operation of the edge existing area B3 is canceled.
  • the motion image output unit 30 moves the explicit index S displayed at the end on the outer region O side where the object 7 is present to a position above the object 7 in the target captured image, and then blinks the image for a predetermined number of times.
  • An image and a follow-up image in which the explicit index S moved to a position above the object 7 is moved following the movement of the object 7 at a position above the object 7 in the target captured image are output.
  • the moving image and the follow-up image are stored in the motion image storage unit 31 as motion images, as shown in FIG.
  • the target captured image A predetermined number of times after being moved so that the top is directed to the object 7 side below the lower edge of the end portion existence area B3 on the outer region O side where the object 7 exists, in the upper position of the object 7 It is an image that appears continuously so as to blink.
  • the object 7 When the object 7 enters the narrow field area N, the object 7 is displayed at the end of the noticeable captured image. For this reason, as shown in FIG. 3C, when the object 7 enters the narrow visual field region N, the explicit index S is reduced and moved to the lower side of the lower edge of the end portion existence area B3, thereby narrowing it.
  • the object 7 displayed at the end of the visual field area N can be displayed without being hidden by the explicit index S. Therefore, it is possible to appropriately indicate the presence of the object 7 to the driver of the vehicle 1.
  • the tracking image is based on the current position of the object 7 determined by the movement determination unit 15 when the explicit index S after blinking below the lower edges of the edge existence areas B1 and B3 is shown in FIGS. e)
  • the motion image output unit 30 outputs a follow-up image that appears to move while the explicit index S blinks.
  • the motion image output unit 30 outputs a moving image when the movement determining unit 15 determines that the object 7 in the outer region O has entered the region corresponding to the target captured image, that is, the narrow field region N, and the moving image is output. A follow-up image is output simultaneously with the end of. Therefore, the motion image output unit 30 starts outputting the follow-up image when the object 7 in the outer region O enters the region N corresponding to the target captured image.
  • the composite image generation unit 18 generates a composite image in which the moving image and the follow-up image output from the motion image output unit 30 are combined with the target captured image. As a result, images as shown in FIGS. 5 and 6 are displayed on the monitor 50.
  • FIG. 4 to 6 show an example of a series of images on which such an explicit index S is displayed.
  • FIG. 4 shows a state in which the explicit index S is displayed in the narrow field region N when the object 7 in the outer region O moves to the narrow field region N side.
  • FIG. 4A shows a state in which the explicit index S is not displayed because it is determined that the object 7 in the outer region O does not move toward the narrow visual field region N, and
  • FIG. c) shows that, as a result of determining that the object 7 in the outer region O moves toward the narrow field region N, the explicit index S is blinked until the object 7 enters the narrow field region N.
  • FIG. 5 shows the upper position of the object 7 in the noticeable photographed image while the explicit index S gradually decreases and rotates when the object 7 in the outer region O enters the narrow field region N.
  • the state of blinking a predetermined number of times is shown. ing.
  • FIG. 6F shows that, as a result of the object 7 entering the narrow field region N moving outside the narrow field region N, the motion image output unit 30 stops outputting the follow-up image, and the obstacle existence area generation unit 20 Shows the state where the obstacle existence area B is erased.
  • the captured image acquisition unit 11 acquires a captured image G captured by the camera 5 of the vehicle 1 (step # 1).
  • the center portion of the captured image G obtained by the attention photographed image generation unit 12 is generated as the attention photographed image, and the mask region setting unit 19 sets the mask region M (step # 2).
  • the outer area generation unit 13 generates both lateral portions of the acquired captured image G as the outer area O (step # 3). Whether or not the object 7 is present in the outer region O generated in this way is determined by the object presence determination unit 14 (step # 4).
  • the movement determination unit 15 determines the moving direction of the object 7 (step # 5). When the moving direction of the object 7 is from the outer region O toward the narrow field region N corresponding to the target photographed image, it is further determined whether or not the object 7 has entered the narrow field region N (Ste # 6). If the object 7 has not entered the narrow field area N, the explicit image output unit 16 outputs an explicit image including the explicit index S (step # 7). This explicit image is output with reference to the explicit image stored in the explicit image storage unit 17.
  • the composite image generation unit 18 generates a composite image by superimposing the explicit image output in step # 7 on the noticeable captured image generated in step # 2 (step # 8). The generated composite image is displayed on the monitor 50 (step # 9).
  • step # 10 when it is determined in step # 6 that the object 7 has entered the narrow visual field region N, the moving image and the follow-up image are sequentially output by the motion image output unit 30 (step # 10).
  • the moving image and the follow-up image are output with reference to the motion image stored in the motion image storage unit 31.
  • the composite image generation unit 18 generates a composite image in which the moving image output in step # 10 and the follow-up image are superimposed on the noticeable captured image generated in step # 2 (step # 8).
  • the generated composite image is displayed on the monitor 50 (step # 9).
  • the motion image output unit 30 When the current position of the object 7 determined by the movement determination unit 15 changes, the motion image output unit 30 outputs a follow-up image in which the explicit indicator S follows and moves in the horizontal direction of the screen according to the position of the object 7 (step # 11). This follow-up image is output with reference to the motion image stored in the motion image storage unit 31.
  • the composite image generation unit 18 generates a composite image obtained by superimposing the driven image output in step # 11 on the noticeable captured image generated in step # 2 (step # 12). A composite image on which the driven image is superimposed is displayed on the monitor 50 (step # 13).
  • the motion image output unit 30 stops outputting the follow-up image, and the obstacle existence area generation unit 20 erases the obstacle existence area B. To do.
  • the object 7 approaching the vehicle 1 has entered the imaging range even if the object 7 is not shown in the screen of the monitor 50 provided in the vehicle 1.
  • the presence and direction of the object 7 approaching the vehicle 1 can be clearly shown to the driver while displaying the situation around the vehicle 1. Therefore, even when the screen size of the monitor 50 is small, the object 7 approaching the vehicle 1 is not missed.
  • the explicit index S is rotated while the explicit index S is made smaller as the object 7 enters the narrow visual field area N and is moved to the upper part in the narrow visual field area N, the driver of the vehicle 1 makes the explicit index S. It is difficult to lose sight of the object 7 and the object 7 in the narrow visual field N can be watched. Therefore, the situation around the vehicle 1 can be grasped. Furthermore, since the explicit index S is moved following the movement of the object 7 in the narrow visual field region N, the current position of the object 7 can be clearly indicated, and the driver can be effectively alerted.
  • FIG. 8 shows a second embodiment of the present invention.
  • the explicit image output unit 16 performs FIGS.
  • An explicit image including an explicit index S that clearly indicates the presence of the object 7 is displayed at the height position of the object 7 at the end of the outer region O where the object 7 is present in the target photographed image.
  • FIG. 8A shows a state in which the explicit index S is not displayed because it is determined that the object 7 in the outer region O does not move toward the narrow field region N.
  • the height position of the object 7 displayed by the explicit index S is the height position in the captured image G of the object 7 moving in the outer region O.
  • the object 7 is a pedestrian, it is the height position of the head of the pedestrian, and when the object 7 is a vehicle, for example, it is the height position of the highest portion such as the roof of the vehicle.
  • Such information indicating the height position is obtained by determining the highest position of the object 7 in the movement determination unit 15.
  • Other configurations are the same as those of the first embodiment.
  • FIG. 9 is a block diagram schematically showing the configuration of the obstacle alarm device 100 according to the present embodiment.
  • the obstacle alarm device 100 includes a captured image acquisition unit 11, a focused captured image generation unit 12, an outer region generation unit 13, an object presence determination unit 14, a movement direction determination unit 25, and an explicit image output unit. 16, an explicit image storage unit 17, a composite image generation unit 18, a mask area setting unit 19, and an obstacle presence area generation unit 20.
  • Each functional unit includes the above-described functional units for performing various processes for clearly indicating the approach of the object 7 to the driver of the vehicle 1 by using a CPU as a core member.
  • the obstacle alarm device 100 includes a movement direction determination unit 25 instead of the movement determination unit 15 in the obstacle alarm device 100 according to the first embodiment.
  • the obstacle alarm device 100 according to the present embodiment includes the obstacle presence area highlighting unit 21, the operation image output unit 30, and the operation image storage unit 31 in the obstacle alarm device 100 according to the first embodiment.
  • the moving direction determination unit 25 determines the moving direction of the object 7 in the outer region O. Such determination of the moving direction is performed when the object presence determination unit 14 determines that the object 7 exists in the outer region O. In particular, in the present embodiment, the moving direction determination unit 25 determines whether or not the object 7 in the outer region O moves toward the narrow visual field region N. The movement toward the narrow visual field N indicates that the vehicle 1 moves from the outside in the width direction of the vehicle 1 to the direction just behind the vehicle 1 behind the vehicle 1. Such a determination can be performed by comparing the position of the object 7 in the current captured image G with the position of the object 7 in the captured image G a predetermined time ago, for example, or using an optical flow. It is possible to use this method. Such a determination result of the moving direction is transmitted to the explicit image output unit 16 described later.
  • the mask area setting unit 19 sets a mask area M to be superimposed and displayed on the scene behind the vehicle 1 in the noticeable photographed image.
  • the mask area M is colored, for example, in black so that the scene above the vehicle 1 cannot be seen as in the first embodiment. Of course, other colors may be used. Note that the mask region M may be filled and superimposed on the scene behind the vehicle 1 or may be translucent and displayed superimposed on the scene behind the vehicle 1.
  • the obstacle existence area generation unit 20 generates a plurality of obstacle existence areas B corresponding to a plurality of areas divided into predetermined areas in the mask area M.
  • the predetermined area is an area obtained by dividing the display screen of the monitor 50.
  • the area including the rear of the vehicle 1 and the areas on the left and right sides of the area correspond to each other.
  • the obstacle existence area generation unit 20 generates an obstacle existence area B composed of a plurality of obstacle existence areas b1-b3 including such areas in the mask area M.
  • the mask region M is disposed at the upper part of the screen. Therefore, the obstacle existence area B is also arranged at the upper part of the monitor 50.
  • the obstacle existence area B includes an obstacle existence area b1 on the left rear side of the vehicle 1 when the vehicle 1 is viewed from the rear, an obstacle existence area b2 corresponding to the rear of the vehicle 1, and the right side of the vehicle 1 It consists of a rear obstacle presence area b3.
  • the obstacle existence area B does not include an area corresponding to the outer area O.
  • the explicit image output unit 16 waits for the contour of the noticeable photographed image to enter the noticeable photographed image after the movement direction determination part 25 determines that the object 7 in the outer region O moves to the center of the noticeable photographed image.
  • a frame index W having a small outer shape is displayed.
  • the attention-captured image corresponds to an image in the narrow visual field N.
  • the object presence determination unit 14 and the movement direction determination unit 25 can detect until the object 7 enters the target captured image.
  • the frame index W having an outer shape smaller than the contour of the noticeable photographed image means that the frame index W is at least smaller than the noticeable photographed image. Therefore, the explicit image output unit 16 detects the movement of the object 7 in the outer region O toward the center side of the narrow field region N until it enters the narrow field region N of the vehicle 1.
  • a frame index W is displayed in the display screen.
  • the frame index W is set until the object 7 enters the narrow field region N. Display blinking. This blinking display stops when the object 7 enters the narrow field area N. As a result, the passenger of the vehicle 1 can intuitively recognize the presence of the object 7 approaching the vehicle 1.
  • Such a frame index W is stored in the explicit image storage unit 17 as an explicit image as shown in FIG.
  • FIG. 10C shows a captured image G as shown in FIG. 10B, that is, an image displayed on the monitor 50 of the vehicle 1 when the object 7 is in the right outer region O.
  • the explicit image output unit 16 performs a display in which the frame index W is absorbed in the obstacle existence area B corresponding to the region on the side on which the object 7 enters.
  • the obstacle existing area B corresponding to the area where the object 7 enters corresponds to the obstacle existing area b1 when the object 7 exists in the left outer area O, and the object 7 in the right outer area O. Is present, the obstacle existing area b3 is equivalent.
  • the frame index W is displayed blinking. At this time, whether the object 7 is in the right outer region O or the left outer region O is known by the object presence determination unit 14.
  • the explicit image output unit 16 performs display in which the frame index W is absorbed by the obstacle existing area b1, and the right outer region
  • display is performed in which the frame index W is absorbed in the obstacle existing area b3.
  • the explicit image output unit 16 performs such display.
  • the obstacle existence area B and the frame index W are combined with a noticed captured image that is a narrow visual field N and displayed on the monitor 50. Therefore, the composite image generation unit 18 generates a composite image in which the obstacle existence area B and the frame index W are combined with the target captured image. As a result, an image as shown in FIG. 10C is generated.
  • the vehicle 1 is informed to the occupant of the vehicle 1 It is possible to visually indicate that the object 7 is close to 1 and that the object 7 enters the narrow visual field N.
  • the explicit image output unit 16 colors the obstacle existing area B corresponding to the area where the object 7 exists.
  • the frame index W is absorbed in the obstacle existing area B on the side where the object 7 enters. Therefore, the explicit image output unit 16 colors the obstacle existing area B in which the frame index W is absorbed.
  • Such coloring is preferably red, for example, so as to be visually noticeable. Of course, it is possible to color with other colors.
  • the explicit image output unit 16 extends the corresponding obstacle existence area B and displays it.
  • the corresponding obstacle existence area B is the obstacle existence area B in which the frame index W is absorbed and colored.
  • To extend downward means to extend a colored region from the upper part of the screen where the obstacle existence area B is arranged toward the lower part of the screen.
  • the explicit image output unit 16 extends the colored obstacle existing area B downward to enlarge the colored region. Therefore, since the colored area becomes large, it becomes easier for the occupant to catch the eye, and it is possible to increase alerting to the entry of the object 7 into the noticeable photographed image. Note that such downward display may be extended to the lower end of the display screen, or may be stopped until the middle of the display screen.
  • the explicit image output unit 16 displays the obstacle existence area b ⁇ b> 2 corresponding to the region including the rear side of the vehicle 1. Display blinking. During lighting in the blinking display, the host vehicle image CI including a part of the rear of the vehicle 1 may be displayed in the obstacle existence area b2. On the other hand, the obstacle existence area b2 may be completely eliminated while the blinking display is extinguished so that the noticeable captured image can be visually recognized as it is. The explicit image output unit 16 repeatedly performs such blinking display until the object 7 leaves the area including the rear of the vehicle 1 corresponding to the obstacle existing area b2.
  • the explicit image output unit 16 colors the corresponding obstacle existence area b1.
  • the obstacle existence area b1 is extended downward and displayed until the object 7 leaves the noticeable photographed image. Therefore, as in the case where the object 7 enters the noticeable photographed image, the colored area becomes large, so that it becomes easier for the passenger to catch the eye and raises the alert for the entry of the object 7 into the noticeable photographed image. be able to. Note that such downward display may be extended to the lower end of the display screen, or may be stopped until the middle of the display screen.
  • the explicit image output unit 16 stops the coloring or the downward extension of the obstacle existing area b1 when the object 7 exits from the target captured image. As a result, the occupant can grasp that the object 7 has left the noticeable captured image.
  • FIGS. 11 to 13 show a series of images from the display to the absorption of the frame index W
  • FIGS. 14 to 16 show the coloring of the obstacle existing area B and the like.
  • the obstacle existing area B is synthesized and displayed in the noticeable photographed image.
  • the frame index W is synthesized and displayed (FIG. 11B).
  • the frame index W is displayed blinking by repeating FIGS. 11B and 11C a predetermined number of times.
  • the frame index W is displayed so as to be absorbed by the obstacle existing area B on the side on which the object 7 enters (FIG. 11D). -FIG. 13 (c)).
  • the frame index W is absorbed in the obstacle presence area b3.
  • the obstacle existence area b3 is colored (FIG. 14 (a)). Thereafter, until the object 7 leaves the area corresponding to the obstacle existing area b3, the obstacle existing area b3 is extended downward while being colored (FIGS. 14B to 14E).
  • the obstacle existence area b2 corresponding to the area is displayed in a blinking manner (FIGS. 15A to 15E).
  • the obstacle existence area b1 is colored and displayed extending downward. (FIG. 16 (a) -FIG. 16 (d)). After that, when the object 7 leaves the noticeable photographed image, the coloring and extension are stopped (FIG. 16 (e)).
  • the captured image acquisition unit 11 acquires a captured image G captured by the camera 5 of the vehicle 1 (step # 31).
  • the noticeable photographed image generation unit 12 generates the central part of the acquired photographed image G as the noticeable photographed image (step # 32).
  • the outer region generation unit 13 generates both lateral portions of the acquired captured image G as the outer region O (step # 33). Whether or not the object 7 exists in the outer region O generated in this way is determined by the object presence determination unit 14 (step # 34).
  • the movement direction determination unit 25 determines the movement direction of the object 7 (step # 35). If the moving direction of the object 7 is from the outer region O toward the narrow visual field N corresponding to the target captured image, the explicit image output unit 16 outputs an explicit image (step # 36). This explicit image is output with reference to the explicit image stored in the explicit image storage unit 17.
  • the composite image generation unit 18 generates a composite image by superimposing the explicit image output in step # 36 on the noticeable captured image generated in step # 32 (step # 37).
  • the generated composite image is displayed on the monitor 50 (step # 38).
  • the frame index W is displayed, so that it is possible to clearly indicate to the passenger of the vehicle 1 that the object 7 is approaching the vehicle 1.
  • the frame index W is displayed so as to be absorbed in the obstacle existing area B on the side where the object 7 enters.
  • the direction to enter can be recognized.
  • the obstacle alarm device 100 it is possible to clearly indicate that an obstacle is approaching the vehicle 1 and to clearly indicate the approach direction.
  • the presence of the object 7 approaching the vehicle 1 is indicated by the frame index W. Therefore, in the area surrounded by the frame index W, the situation around the vehicle 1 is It will not be difficult to see. Even if the object 7 is not shown on the monitor 50 provided in the vehicle 1, the frame index W is displayed when the object 7 is detected, so that the presence of the object 7 approaching the vehicle 1 is clearly indicated to the occupant. Can do. Therefore, according to the present invention, the object 7 approaching the vehicle 1 can be clearly shown without making it difficult to see the situation around the vehicle 1.
  • FIG. 18 is a block diagram schematically showing the configuration of the obstacle alarm device 100 according to this embodiment.
  • the obstacle alarm device 100 includes a captured image acquisition unit 11, a focused captured image generation unit 12, an outer region generation unit 13, an object presence determination unit 14, a movement direction determination unit 25, and an explicit image output unit.
  • the explicit image storage unit 17 and the composite image generation unit 18 are provided.
  • Each functional unit includes the above-described functional units for performing various processes for clearly indicating the approach of the object 7 to the driver of the vehicle 1 by using a CPU as a core member.
  • the obstacle alarm device 100 includes a movement direction determination unit 25 instead of the movement determination unit 15 in the obstacle alarm device 100 according to the first embodiment.
  • the obstacle alarm device 100 according to the present embodiment includes a mask area setting unit 19, an obstacle presence area generation unit 20, an obstacle presence area highlighting display unit 21 in the obstacle alarm device 100 according to the first embodiment,
  • the motion image output unit 30 and the motion image storage unit 31 are not provided.
  • the captured image acquisition unit 11, the focused captured image generation unit 12, the outer region generation unit 13, the object presence determination unit 14, the explicit image output unit 16, the explicit image storage unit 17, the composite image generation unit 18, the obstacle presence area Since the functional units of the generation unit 20 are the same as those in the first embodiment described above, description thereof will be omitted. Below, it demonstrates centering on a different point from 1st Embodiment.
  • the explicit image output unit 16 is on the side of the outer region O where the object 7 exists in the target captured image.
  • the index S is displayed so as to move toward the center side and move toward the near side from the target photographed image, and the display is repeated.
  • the attention-captured image corresponds to an image in the narrow visual field N. Therefore, when the object 7 in the outer region O moves toward the narrow field region N of the vehicle 1, the explicit image output unit 16 initially has the object 7 in the narrow field region N displayed on the monitor 50.
  • the indicator S is directed from the outer region O side toward the center side and then gradually changed to display the indicator S approaching the occupant side from the monitor 50, and the display is repeated.
  • Whether or not the object 7 in the outer region O moves toward the narrow-field region N of the vehicle 1 is determined by the moving direction determination unit 25 described above.
  • the side of the outside field O where the object 7 exists in the narrow field area N corresponds to the left side area in the narrow field area N when the object 7 is in the left side area O.
  • the right region in the narrow field region N corresponds.
  • the explicit image output unit 16 displays the indicators S that are turned on after being turned on for a certain period of time sequentially at different positions, and repeatedly performs the display.
  • the indicator S that is turned off after being turned on for a certain period of time indicates not the state in which the indicator S is continuously displayed but the state in which the indicator S is displayed while changing its position.
  • after such an index S is displayed it is turned off, and when it is displayed next, it is displayed at a different position. Accordingly, the index S is in a state of moving between two predetermined positions on the screen.
  • the explicit image output unit 16 repeatedly performs such movement of the index S.
  • Such an index S may be displayed so as to move continuously, or may be displayed so as to be turned off after being turned on for a certain period of time, that is, the index S may be blinked and moved.
  • such an index S will be described as moving continuously. Therefore, the index S is in a state of moving smoothly from appearing on the screen of the monitor 50 until disappearing.
  • the explicit image output unit 16 repeatedly performs such movement of the index S.
  • an arrow shape having a convex portion protruding toward the center of the noticeable photographed image shifts to an arrow shape having a convex portion protruding toward the near side of the noticeable photographed image.
  • Such an index S is stored in the explicit image storage unit 17 as shown in FIG. FIG. 19 (c) shows a captured image G as shown in FIG. 19 (b), that is, an image displayed on the monitor 50 of the vehicle 1 when the object 7 is in the outer region O on the right side.
  • a plurality of indices S may be displayed on the monitor 50.
  • the plurality of indices S are displayed at positions where they partially overlap.
  • “partially overlapping” means that one of the plurality of indicators S is on the side of one of the arrow-shaped convex portions and the other portion of the plurality of indicators S is not on the other arrow-shaped convex portion. Means overlapping.
  • an overlapping portion between the index S to be displayed later and the index S displayed immediately before is overwritten with the index S to be displayed later. That is, the index S displayed later is arranged in the upper layer than the index S displayed immediately before.
  • the index S displayed immediately before is displayed with higher transparency than the index S displayed later. That is, the index S displayed later is displayed with lower transparency than the index S displayed immediately before. Therefore, when a plurality of indices S are displayed, the uppermost index S has the lowest transparency, and the lowermost index S has the highest transparency.
  • the index S is configured so that the index S displayed later is larger than the index S displayed immediately before. Therefore, when a plurality of indices S are displayed, the index S in the uppermost layer has the largest size and the index S in the lowermost layer has the smallest size.
  • Each index S may have a size similar to each other and may be set in size, or may be set in size by changing either the vertical or horizontal length of the index S. .
  • the explicit image output unit 16 repeatedly performs such display.
  • the index S is combined with the target captured image that is the narrow visual field N and displayed on the monitor 50. Therefore, the composite image generation unit 18 generates a composite image in which the index S is combined with the target captured image. As a result, an image as shown in FIG. 19C is generated.
  • the index S gradually increases and can be displayed so as to approach the occupant. As a result, it is possible to visually indicate to the passenger of the vehicle 1 that the object 7 is approaching the vehicle 1.
  • the explicit image output unit 16 stops outputting the index S when the object 7 enters the area corresponding to the target captured image, that is, the narrow field area N. Whether or not the object 7 has entered the narrow field area N can be determined by the moving direction determination unit 25. That is, the movement direction determination unit 25 can determine that the object 7 has entered the narrow field region N if there is an object 7 that enters the narrow field region N from the outer region O. Such a determination result is also transmitted to the explicit image output unit 16. Thus, the explicit image output unit 16 stops outputting the index S when such a determination result is transmitted. Thereby, it is possible to visually indicate to the passenger of the vehicle 1 that the object 7 has entered the narrow field region N.
  • FIGS. 20A An example of a series of images on which such an index S is displayed is shown in FIGS.
  • FIG. 20A when it is detected that the object 7 in the outer region O moves to the center side of the narrow field region N (FIG. 20A), the object 7 has a narrow field of view.
  • the state in which the index S is displayed while moving until it enters the area N is shown (FIGS. 20B to 20F and FIGS. 21A to 21E). Actually, the process is repeated until the object 7 enters the narrow field area N.
  • the superimposition of the index S is finished (FIG. 21 (f)).
  • the captured image acquisition unit 11 acquires a captured image G captured by the camera 5 of the vehicle 1 (step # 51).
  • the noticeable photographed image generation unit 12 generates the central portion of the acquired photographed image G as the noticeable photographed image (step # 52).
  • the outer region generation unit 13 generates both lateral portions of the acquired captured image G as the outer region O (step # 53). Whether or not the object 7 exists in the outer region O generated in this way is determined by the object presence determination unit 14 (step # 54).
  • the movement direction determination unit 25 determines the movement direction of the object 7 (step # 55). If the moving direction of the object 7 is from the outer region O toward the narrow visual field N corresponding to the target captured image, the explicit image output unit 16 outputs an explicit image (step # 56). This explicit image is output with reference to the explicit image stored in the explicit image storage unit 17.
  • the composite image generation unit 18 generates a composite image by superimposing the explicit image output in step # 56 on the noticeable captured image generated in step # 52 (step # 57).
  • the generated composite image is displayed on the monitor 50 (step # 58).
  • the object 7 approaching the vehicle 1 has entered the imaging range even if the object 7 is not shown in the screen of the monitor 50 provided in the vehicle 1.
  • the presence and direction of the object 7 approaching the vehicle 1 can be clearly shown to the driver while displaying the situation around the vehicle 1. Therefore, even when the screen size of the monitor 50 is small, the object 7 approaching the vehicle 1 is not missed.
  • the index S is displayed at the side edge of the screen, it is not difficult for the driver to see the situation around the vehicle 1. Therefore, the presence of an obstacle (object 7) approaching the vehicle 1 can be clearly shown to the driver without making it difficult to see the situation around the vehicle 1.
  • the explicit index S is the height position of the object 7 in the target captured image.
  • An action image output unit 30 that outputs a follow-up image that follows and moves at an upper position corresponding to the position may be provided.
  • the object 7 in the outer region O enters the region N corresponding to the target captured image
  • the object 7 moves out of the region N from the start of entering the region N.
  • the moving image output unit 30 may be provided that outputs a follow-up image that moves following the object 7 while the explicit indicator S blinks until it moves to.
  • the obstacle alarm device displays a follow-up image in which the explicit indicator S changes the color and follows the object 7 when the object 7 in the outer region O enters the region N corresponding to the target photographed image.
  • An operation image output unit 30 for outputting may be provided.
  • the obstacle alarm device provides a tracking image when the object 7 in the outer region O enters the region N corresponding to the target captured image and then moves to a rear position or a front position within the vehicle width.
  • the operation image output unit 30 configured to start the output may be provided.
  • the obstacle alarm device may include an object presence determination unit 14 that determines whether or not the object 7 exists in the outer region O outside the target photographed image by using a sonar or the like.
  • the obstacle alarm device when the captured image G is acquired by the camera 5 having a narrow viewing angle corresponding to the narrow viewing area N, uses the captured image G as the focused captured image as it is. 12 may be provided. In this case, it is preferable to determine whether or not the object 7 exists in the outer region O by detecting it with, for example, a sonar as described above.
  • the obstacle alarm device has a function of clearly indicating that an object is approaching the driver of the vehicle when there is an object on the front side of the vehicle when the vehicle moves forward in a parking lot or the like. Also good.
  • the explicit index S rotates and flashes while the object 7 in the target captured image is blinking. You may provide the operation
  • the obstacle alarm device is configured such that when the object 7 in the outer area O enters the area N corresponding to the noticeable photographed image, the object in the noticeable photographed image changes while the explicit index S is rotated and the coloring is changed.
  • 7 may include an operation image output unit 30 that outputs an image that moves to an upper position 7.
  • the obstacle alarm device when the object 7 in the outer area O enters the area N corresponding to the noticeable photographed image, the obstacle alarm device is positioned above the object 7 in the noticeable photographed image without changing the size of the explicit index S.
  • An operation image output unit 30 that outputs an image that moves while rotating may be provided.
  • the frame index W has been described as being absorbed by the obstacle existing area B corresponding to the area on the side on which the object 7 enters when the object 7 enters the target captured image.
  • the scope of application of the present invention is not limited to this.
  • the frame index W may not be absorbed in the obstacle presence area B but may be displayed in a form where the display is stopped when the object 7 enters the target captured image.
  • the corresponding obstacle existence area B when the object 7 enters the target photographed image, the corresponding obstacle existence area B is colored, displayed downward, or displayed blinking.
  • the scope of application of the present invention is not limited to this.
  • it is possible to adopt a configuration in which only such absorption of the frame index W is performed without performing such display.
  • it may be configured to perform at least one of coloring, extension downward, and blinking display of the corresponding obstacle existence area B.
  • the obstacle existence area B has been described as being arranged at the top of the screen.
  • Obstacle presence area B can naturally be configured to be displayed when it is determined that the object 7 exists around the vehicle 1. In such a case, the obstacle presence area B can be displayed based on the determination result of the object presence determination unit 14.
  • the explicit image output unit 16 has been described as being displayed so as to gradually increase when the blinking indicator S moves.
  • the scope of application of the present invention is not limited to this. It is naturally possible to display the index S in the same size. Of course, it is naturally possible to display the index S so that it gradually decreases. Even with such a configuration, the object 7 that appropriately approaches the vehicle 1 can be clearly shown to the passenger of the vehicle 1.
  • the index S displayed immediately before is described as being higher than the transparency of the index S displayed later.
  • the scope of application of the present invention is not limited to this.
  • the index S displayed immediately before can be displayed lower than the transparency of the index S displayed later, and the index S displayed immediately before is the same as the transparency of the index S displayed later.
  • the plurality of indices S are displayed at positions where they are partially overlapped.
  • the scope of application of the present invention is not limited to this. Even when a plurality of indices S are displayed, it is possible to configure the indices S so as not to overlap each other.
  • the index S is described as being configured in the shape of an arrow having a convex portion protruding toward the center of the narrow field region N.
  • the scope of application of the present invention is not limited to this.
  • the index S can be formed in other shapes.
  • the determination as to whether or not the object 7 exists can be performed using a known image recognition process such as pattern matching.
  • the scope of application of the present invention is not limited to this. For example, it is naturally possible to detect with sonar.
  • the attention-captured image generation unit 12 has been described as generating the narrow-field region N that is the central portion of the captured image G as the attention-captured image.
  • the scope of application of the present invention is not limited to this.
  • the captured image G is acquired by the camera 5 having a narrow viewing angle corresponding to the narrow viewing area N, it is naturally possible to use the captured image G as it is as the focused captured image. In such a case, it is preferable to determine whether or not the object 7 is present in the outer region O as described above, for example, using sonar.
  • a captured image acquisition unit that acquires a captured image of a scene behind the vehicle, a focused captured image generation unit that generates a focused captured image based on the captured image, and an outer region outside the focused captured image
  • An object presence determination unit that determines whether or not an object exists in the camera, a movement direction determination unit that determines a movement direction of the object in the outer region, and an object in the outer region on the center side of the target captured image by the movement direction determination unit
  • An obstacle alarm device comprising: an explicit image output unit that displays a frame index having an outer shape smaller than the contour of the noticeable photographed image from when it is determined to move until entering the noticeable photographed image.
  • a mask area setting unit for setting a mask area to be superimposed and displayed on the scene behind the vehicle, and a plurality of areas divided into predetermined areas by looking at the rear of the vehicle from inside the vehicle
  • An obstacle existence area generation unit that generates a plurality of obstacle existence areas corresponding to the mask area, and the explicit image output unit is a region on the side where the object enters when the object enters the target captured image
  • the obstacle alarm device according to supplementary note 1, wherein display is performed such that the frame index is absorbed in the obstacle existing area corresponding to.
  • a captured image acquisition unit that acquires a captured image of a scene around the vehicle, a focused captured image generation unit that generates a focused captured image based on the captured image, and an outer region outside the focused captured image
  • An object presence determination unit that determines whether or not an object exists in the camera, a movement direction determination unit that determines a movement direction of the object in the outer region, and an object in the outer region on the center side of the target captured image by the movement direction determination unit
  • An explicit image output unit that displays an indicator that moves from the side of the outer region where the object is present to the center side and moves from the target captured image toward the near side when it is determined to move;
  • An obstacle alarm device comprising: With such a characteristic configuration, even if an object is not shown in the screen of a monitor provided in the vehicle, when an object approaching the vehicle enters the shooting range, driving while displaying the situation around the vehicle The presence and direction of an object approaching the vehicle can be clearly shown to the person.
  • the explicit image output unit repeatedly displays a plurality of indicators that are lit for a certain period of time and then turned off sequentially at different positions, and displays the plurality of indicators at positions where they are partially overlapped for later display.
  • the obstacle alarm device according to supplementary item 3, wherein an overlapping portion between an index to be displayed and an index displayed immediately before is repeatedly displayed by overwriting an index to be displayed later.
  • Additional Item 5 The obstacle alarm device according to Additional Item 4, wherein the index displayed after the index is larger than the index displayed immediately before.
  • Additional Item 6 The obstacle alarm device according to Additional Item 4 or 5, wherein an index to be displayed after the display is lower in transparency than an index displayed immediately before. With such a configuration, it is possible to more visually display a state where the index approaches the center of the screen. Therefore, it becomes easier for the driver to recognize the approach of the obstacle more effectively. In addition, since the scene displayed at the end of the screen is not hidden, it is possible to properly grasp the obstacle even when the obstacle suddenly pops out.
  • the explicit image output unit displays an arrow shape having a convex portion projecting toward the center of the noticeable photographed image so as to shift to an arrow shape having a convex portion projecting toward the near side of the noticeable photographed image.
  • the obstacle alarm device according to any one of appendices 3 to 6. With such a configuration, since the moving direction of the obstacle coincides with the direction in which the convex portion faces in the initial display, the driver can intuitively recognize the moving direction of the obstacle. Further, after that, it is displayed so that the convex portion approaches the occupant side, so that it can be clearly shown visually to focus on monitoring around the vehicle.
  • a captured image acquisition unit that acquires a captured image obtained by capturing a scene around the vehicle, a focused captured image generation unit that generates a focused captured image based on the captured image, and an outer region outside the focused captured image
  • An object presence determination unit that determines whether or not an object exists in the image, and an end on the side of the outer region where the object exists in the target captured image when an object in the outer region enters the region corresponding to the target captured image
  • An explicit image output unit that outputs an explicit image including an explicit indicator that clearly indicates the presence of the object, and an explicit indicator that rotates while the object in the outer area enters the area corresponding to the target captured image.
  • An obstacle alarm device comprising: an operation image output unit that outputs an image to be output.
  • the obstacle alarm device configured as described above determines whether or not an object exists in the outer region of the target captured image, and when the object in the outer region enters the region corresponding to the target captured image, An explicit index that clearly indicates the presence of the object is displayed at the end on the side of the outer region where the object exists. For this reason, even if an object is not displayed on the screen of a display device (for example, a monitor) provided in the vehicle, when an object approaching the vehicle enters the imaging range, driving while displaying the situation around the vehicle The presence of an object approaching the vehicle and the approach direction thereof can be clearly indicated to the person. Therefore, even when the screen size of the display device is small, there is little risk of missing an object approaching the vehicle.
  • a display device for example, a monitor
  • the obstacle alarm device of this configuration can clearly alert the driver of the presence of an obstacle (object) approaching the vehicle without making it difficult to see the situation around the vehicle.
  • Additional Item 10 The obstacle alarm device according to Additional Item 9, wherein the action image output unit is configured to output an image that moves to an upper position of the object in the target captured image while the explicit index rotates.
  • the explicit index is provided so that the driver does not easily see the object that has entered the area corresponding to the target captured image. The driver can be moved to a position above the object to effectively alert the driver.
  • Additional Item 11 The additional image 9 or 10, wherein the motion image output unit is configured to output an image that moves following the movement of an object whose explicit index has entered the region corresponding to the target captured image. Obstacle alarm device. With such a configuration, the current position of the object that has entered can be clearly indicated, so that the driver can be effectively alerted.
  • the operation image output unit is configured to output an image in which the explicit index follows only the movement of the object in the horizontal direction of the object and moves only in the horizontal direction of the screen. Obstacle alarm device. With such a configuration, it is possible to simplify the movement of the explicit indicator in the noticeable photographed image that should follow the movement of the object that has entered the region corresponding to the noticeable photographed image. It is possible to alert the driver more effectively.
  • the present invention can be used for an obstacle alarm device that clearly shows the presence of an obstacle approaching a vehicle to an occupant.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Traffic Control Systems (AREA)
  • Closed-Circuit Television Systems (AREA)

Abstract

 車両の周囲の状況を見難くすることなく、車両に接近する障害物の存在を運転者に明示して注意喚起することができる障害物警報装置を提供する。このような障害物警報装置は、車両の周囲の情景を撮影した撮影画像を取得する撮影画像取得部と、撮影画像に基づいて注目撮影画像を生成する注目撮影画像生成部と、注目撮影画像の外側の外側領域に物体が存在するか否かを判定する物体存在判定部と、外側領域の物体が注目撮影画像に対応する領域に進入する場合に、注目撮影画像における物体が存在する外側領域の側の端部に表示する、物体の存在を明示する明示指標を含む明示画像を出力する明示画像出力部と、外側領域の物体が注目撮影画像に対応する領域に進入しているときに、明示指標が注目撮影画像における物体の上方位置で当該物体の移動に追従して移動する画像を出力する動作画像出力部とを備える。

Description

障害物警報装置
 本発明は、車両に接近する障害物の存在を乗員に明示する障害物警報装置に関する。
 車両の周囲には運転者の位置から視認できない死角があり、運転者は車両の運転にあたり当該車両の周囲に細心の注意を払う必要がある。特に、車両を後退して駐車させる場合には、駐車自体に苦手意識を持っているユーザも多く、精神的疲労も少なくない。そこで、従来、車両の周囲の障害物を監視する技術が利用されてきた(例えば特許文献1及び2)。
 特許文献1に記載の車両の障害物警報装置は、横移動障害物検出手段と、横移動方向検出手段と、横移動情報提供手段とを備えて構成される。横移動障害物検出手段は車両前方において進行方向を横切る方向に移動する障害物を検出する。横移動方向検出手段は横移動障害物検出手段により検出された障害物の横移動方向を検出する。横移動情報提供手段は横移動方向検出手段により検出された障害物の横移動方向に関する情報をドライバーに提供する。この際、横移動情報提供手段は表示部に横移動方向検出手段により検出された横移動方向を表わす矢印をディスプレイに表示する。
 特許文献2に記載の車両周囲監視装置は、撮像手段と、障害物検出手段と、表示手段とを備えて構成される。撮像手段は自車両の一部を含む車両周囲を撮像する。障害物検出手段は車両周囲に位置する障害物を検出し、検出した障害物と自車両との距離を算出する。表示手段は撮像手段によって撮像された撮像画像と障害物検出手段によって算出された距離を示す障害物表示画像とを1つの画面に表示する。
特開平11-115660号公報 特開2009-217740号公報
 特許文献1や特許文献2に記載の技術のように車両の周囲の障害物を検出し、当該障害物を明示する情報(矢印等)を画面表示することで運転者に車両の周囲の障害物の存在を報知することが可能である。しかしながら、車両に搭載されるディスプレイ(表示手段)の画面サイズは大きいものではない。このため、ディスプレイに表示される車両の周囲の状況を示す画像上に矢印等を表示すると、車両の周囲の状況が見難くなったり障害物を把握できなくなったりする可能性がある。
 本発明の目的は、上記問題に鑑み、車両の周囲の状況を見難くすることなく、車両に接近する障害物の存在を運転者に明示して注意喚起することができる障害物警報装置を提供することにある。
 本発明による障害物警報装置の特徴構成は、
 車両の周囲の情景を撮影した撮影画像を取得する撮影画像取得部と、
 前記撮影画像に基づいて注目撮影画像を生成する注目撮影画像生成部と、
 前記注目撮影画像の外側の外側領域に物体が存在するか否かを判定する物体存在判定部と、
 前記外側領域の物体が前記注目撮影画像に対応する領域に進入する場合に、前記注目撮影画像における前記物体が存在する外側領域の側の端部に表示する、前記物体の存在を明示する明示指標を含む明示画像を出力する明示画像出力部と、
 前記外側領域の物体が前記注目撮影画像に対応する領域に進入しているときに、前記明示指標が前記注目撮影画像における前記物体の上方位置で当該物体の移動に追従して移動する画像を出力する動作画像出力部と、
を備える点にある。
 本構成の障害物警報装置は、注目撮影画像の外側領域に物体が存在するか否かを判定して、外側領域の物体が注目撮影画像に対応する領域に進入する場合に、注目撮影画像における物体が存在する外側領域の側の端部に、その物体の存在を明示する明示指標を表示する。
 このため、車両に備えられる表示装置(例えばモニタ)の画面に物体が映っていなくても、車両に接近する物体が撮影範囲内に入った時点で、車両の周囲の状況を表示しつつ、運転者に対して車両に接近する物体の存在及びその接近方向を予め明示することができる。
 したがって、表示装置の画面サイズが小さい場合でも、車両に接近する物体を見逃すおそれが少ない。
 また、外側領域の物体が注目撮影画像に対応する領域に進入しているときに、明示指標が注目撮影画像における物体の上方位置で当該物体の移動に追従して移動する画像を出力する。
 このため、運転者が見難くならないように物体を表示しながら、物体の現在位置を明示することができる。
 したがって、本構成の障害物警報装置であれば、車両の周囲の状況を見難くすることなく、車両に接近する障害物(物体)の存在を運転者に明示して注意喚起することができる。
 また、前記動作画像出力部は、前記外側領域の物体が前記注目撮影画像に対応する領域に進入したときに、前記画像の出力を開始するように構成すると好適である。
 本構成であれば、注目撮影画像に対応する領域に進入した物体の進入開始時からの動きを明示して、運転者に対して効果的に注意喚起することができる。
 また、前記動作画像出力部は、前記注目撮影画像に対応する領域に進入しているときに、前記注目撮影画像における前記物体が存在する外側領域の側の端部から前記物体の上方位置へ前記明示指標を移動する画像を出力する構成とすると好適である。
 本構成であれば、車両に接近する物体が撮影範囲内に入った時点で、車両の周囲の状況を表示しつつ、運転者に対して車両に接近する物体の存在及びその接近方向を予め明示することができると共に、運転者が見難くならないように物体を表示しながら、物体の現在位置を明示することができる。
 また、前記動作画像出力部は、前記外側領域の物体が前記注目撮影画像に対応する領域に進入したときに、前記明示指標が回転しながら移動する画像を出力する構成とすると好適である。
 このような構成とすれば、物体が前記注目撮影画像に対応する領域に進入したときに、前記明示指標が回転しながら移動する画像を出力するので、注目撮影画像に対応する領域に進入した物体の存在を明示指標で明示するにあたって、明示指標が画像中に紛れ込んで、運転者が明示指標を見失ったり何等かの物体と勘違いしないように、明示指標を目立つように回転させながら移動させて、物体の存在を明示することができる。したがって、車両の周囲の状況を見難くすることなく、車両に接近する障害物(物体)の存在を運転者に明示して注意喚起することができる。
 また、前記動作画像出力部は、前記外側領域の物体が前記注目撮影画像に対応する領域に進入したときに、前記明示指標が徐々に小さくなりながら移動する画像を出力する構成とすると好適である。
 このような構成とすれば、明示指標を小さくして上方位置へ移動させることにより、注目撮影画像の端部に表示される物体を明示指標により隠すことなく表示することが可能となる。
 また、前記動作画像出力部は、前記明示指標が上方位置へ移動したときに、前記明示指標の中央側に向けて突出する頂部が物体側に向くように画像を出力する構成とすると好適である。
 このような構成とすれば、明示指標の頂部が中央側から物体側へ向くようにすることで、物体が注目撮影画像に対応する領域に進入したことをより明確にすることができる。
 また、前記動作画像出力部は、前記外側領域の物体が設定速度未満の速度で移動するときに、前記明示指標が点滅する前記画像を出力するように構成すると好適である。
 本構成であれば、動きが遅くて目立たない物体の存在を目立つように明示して、運転者に対して効果的に注意喚起することができる。
 また、前記動作画像出力部は、前記明示指標が前記物体の画面横方向への移動にのみ追従して画面横方向にのみ移動する画像を出力するように構成すると好適である。
 このような構成とすれば、注目撮影画像に対応する領域に進入した物体の移動に追従させるべき、注目撮影画像における明示指標の動きを単純化することができるので、運転者が明示指標を見失い難く、運転者に対してより効果的に注意喚起することができる。
第1実施形態に係る障害物警報装置の構成を模式的に示したブロック図である。 第1実施形態に係る障害物警報装置の処理の一例を示した図である。 第1実施形態に係る障害物警報装置の処理の一例を示した図である。 第1実施形態における合成画像の一例を示した図である。 第1実施形態における合成画像の一例を示した図である。 第1実施形態における合成画像の一例を示した図である。 第1実施形態に係る障害物警報装置の処理を模式的に示した図である。 第2実施形態における合成画像の一例を示した図である。 第3実施形態に係る障害物警報装置の構成を模式的に示したブロック図である。 第3実施形態に係る障害物警報装置の処理の一例を示した図である。 第3実施形態における合成画像の一例を示した図である。 第3実施形態における合成画像の一例を示した図である。 第3実施形態における合成画像の一例を示した図である。 第3実施形態における合成画像の一例を示した図である。 第3実施形態における合成画像の一例を示した図である。 第3実施形態における合成画像の一例を示した図である。 第3実施形態に係る障害物警報装置の処理を模式的に示した図である。 第4実施形態に係る障害物警報装置の構成を模式的に示したブロック図である。 第4実施形態に係る障害物警報装置の処理の一例を示した図である。 第4実施形態における合成画像の一例を示した図である。 第4実施形態における合成画像の一例を示した図である。 第4実施形態に係る障害物警報装置の処理を模式的に示した図である。
1.第1実施形態
 以下、本発明の第1実施形態について、詳細に説明する。本発明に係る障害物警報装置100は、車両に接近する歩行者や車両などの物体がある場合に当該車両の運転者に物体が接近していることを明示する機能を備えている。
 本実施形態では、駐車場などにおける車両の後進時に、その車両の後方側に物体がある場合に当該車両の運転者に物体が接近していることを明示する機能を備えている。
 以下、図面を用いて説明する。
 図1は、障害物警報装置100の構成を模式的に示したブロック図である。図1に示すように、障害物警報装置100は、撮影画像取得部11、注目撮影画像生成部12、外側領域生成部13、物体存在判定部14、移動判定部15、明示画像出力部16、明示画像格納部17、合成画像生成部18、マスク領域設定部19、障害物存在エリア生成部20、障害物存在エリア強調表示部21、動作画像出力部30、動作画像格納部31の各機能部を備えて構成される。各機能部はCPUを中核部材として車両1の運転者に物体7の接近を明示する種々の処理を行うための上述の機能部がハードウェア又はソフトウェア或いはその両方で構築されている。
 図2に示すように、撮影画像取得部11は、車両1が備えるカメラ5で当該車両1の周囲の情景を撮影した撮影画像Gを取得する。本実施形態におけるカメラ5は、CCD(charge coupled device )やCIS(CMOS image sensor )などの撮像素子を内蔵するとともに、撮影した情報を動画情報として出力するデジタルカメラにより構成される。
 カメラ5は、図2(a)に示すように、車両1の外側後部に備えられるライセンスプレートの近傍、或いは車両1の外側後部に備えられるエンブレムの近傍等に、車両1の後方に向けてやや俯角を有して配設される。
 また、カメラ5は広角レンズ(図示せず)を備えて構成される。これにより、車両1の後方を略180度の角度範囲に亘って、車両1の周囲の情景を撮影することができる。このような撮影範囲は、図2(a)の「広視野角」として示す。このカメラ5は、リアルタイムで動画を撮影画像Gとして出力する性能を有する。このような撮影画像Gは、撮影画像取得部11に伝達される。
 このような撮影画像Gの一例を図2(b)に示す。図2(b)に示す撮影画像Gの全幅は、図2(a)の広視野角に対応する。ここで、撮影画像Gは、図2(a)に示すような車両1から後方を見て左側にいる物体(本実施形態では歩行者)7が、図2(b)に示すように撮影画像G内の右側にいるように鏡像処理が行われる。これは、モニタ50に車両1の後方の情景を表示する際、車両1の運転者が撮影画像Gに含まれる物体7が車両1の左側にいるのか右側にいるのかを感覚的に理解し易くするためである。
 図1に戻り、注目撮影画像生成部12は、撮影画像取得部11から伝達された撮影画像Gに基づいて注目撮影画像を生成する。本実施形態では、撮影画像Gの撮影範囲は広視野角である。このため、注目撮影画像生成部12は、撮影画像Gの中央部分である狭視野領域Nを注目撮影画像として生成する。
 本実施形態では、注目撮影画像は、図2(b)に示す撮影画像Gの横方向の中央部分が相当する。このような狭視野領域Nは、図2(a)の「狭視野角」のような例えば車両1の後方120~130度程度の角度範囲の領域とすると好適である。
 また、狭視野領域Nは車両1が後退する際の進行可能範囲に近いので、撮影画像Gのうち特に注目すべき領域であることから「注目撮影画像」と称される。このような注目撮影画像は、後述するモニタ50に表示す表示画像に対応する(図2(c)参照)。なお、本実施形態では、「注目撮影画像」は「狭視野領域」の画像であるとして説明する。
 外側領域生成部13は、注目撮影画像の外側の外側領域Oを生成する。すなわち、撮影画像Gのうち狭視野領域Nの外側の外側領域Oを生成する。上述のように、撮影画像Gの横方向の中央部分に注目撮影画像生成部12により狭視野領域Nが生成される。外側領域生成部13はこのような狭視野領域Nの横方向の外側に、図2(b)に示すような外側領域Oを生成する。外側領域生成部13により生成された外側領域Oは物体存在判定部14に伝達される。
 物体存在判定部14は、外側領域生成部13から伝達された外側領域Oに物体7が存在するか否かを判定する。物体7が存在するか否かの判定は、例えばパターンマッチング等の公知の画像認識処理を用いて行うことが可能である。もちろん、パターンマッチング以外の処理により、外側領域Oに物体7が存在するか否かを判定することは可能である。物体存在判定部14の判定結果は移動判定部15に伝達される。
 移動判定部15は、物体存在判定部14により外側領域Oに物体7が存在すると判定された場合に、外側領域Oの物体7の現在位置及び移動方向を判定する。特に本実施形態では、移動判定部15により、外側領域Oの物体7が狭視野領域Nの側に移動するか否かが判定される。
 狭視野領域Nの側に移動するとは、車両1の後方において、車両1の幅方向外側から、車両1の真後ろの方向に移動することを示す。移動方向の判定は、例えば撮影画像Gにおける物体7の現在位置と所定時間前の撮影画像Gにおける物体7の位置とを比較して行うことも可能であるし、オプティカルフローを用いるなどの公知の手法を用いて行うことができる。
 明示画像出力部16は、移動判定部15により外側領域Oの物体7が注目撮影画像に対応する領域の側に移動すると判定された場合に、図2(c)に示すように、注目撮影画像における物体7が存在する外側領域Oの側の端部に表示する、物体7の存在を明示する明示指標Sを含む明示画像を出力する。
 本実施形態では、注目撮影画像に対応する領域は、狭視野領域Nに相当する。したがって、明示画像出力部16は、外側領域Oの物体7が狭視野領域Nの側に移動する場合に、注目撮影画像における物体7が存在する外側領域Oの側の端部に表示する、物体7の存在を明示する明示指標Sを含む明示画像を出力する。
 狭視野領域Nのうち物体7が存在する外側領域Oの側とは、物体7が左側の外側領域Oにいる場合には狭視野領域N内の左側の領域が相当する。一方、物体7が右側の外側領域Oにいる場合には狭視野領域N内の右側の領域が相当する。
 本実施形態では、明示画像出力部16は、外側領域Oの物体7が車両1の狭視野領域Nの側に移動する場合に、狭視野領域Nのうち物体7が存在する外側領域Oの側から中央側に向けて、一定時間点灯したのち消灯する明示指標Sを表示させる。
 一定時間点灯したのち消灯する明示指標Sとは、明示指標Sが連続して表示されている状態ではなく、明示指標Sが点滅して表示されている状態を示す。
 ここで、明示指標Sについて説明する。本実施形態に係る明示指標Sは、注目撮影画像(狭視野領域N)の中央側に向けて突出する頂部を有する二等辺三角形の矢印形状に構成されている。このような明示指標Sは、図2(d)に示すように明示画像格納部17に格納されている。図2(c)は、図2(b)に示すような撮影画像G、すなわち右側の外側領域Oに物体7がいる場合に車両1のモニタ50に表示される画像を示す。
 明示画像出力部16は、本実施形態では、図2(c)に示すように、明示指標Sを狭視野領域Nである注目撮影画像に合成してモニタ50に表示する。そこで、合成画像生成部18は、注目撮影画像に明示指標Sを合成した合成画像を生成する。これにより、図2(c),図4に示すような画像が生成され、車両1の乗員に対して当該車両1に物体7が接近していることを視覚的に明示することができる。
 マスク領域設定部19は、注目撮影画像のうち、車両1の周囲の情景の少なくとも一部を非表示にするマスク領域Mを設定する。本実施形態では、マスク領域Mは図2(c)に示すように、画面上部、すなわち、注目撮影画像内の上側部分に設定される。このマスク領域Mは、注目撮影画像の横方向両側に亘って一定幅の帯状に形成される。マスク領域M内は、車両1の上方の情景が見えないように、例えば黒色で彩色される。もちろん、他の色で彩色しても良い。
 障害物存在エリア生成部20は、移動判定部15により外側領域Oの物体7が狭視野領域Nの側に移動すると判定されると、図2(c)に示すように、マスク領域Mに障害物存在エリアBを生成する。
 障害物存在エリアBは、注目撮影画像における左右両側の端部存在エリアB1,B3と、両端部存在エリアB1,B3の間の中間存在エリアB2とを有する。
 障害物存在エリア強調表示部21は、外側領域Oの物体7が車両1の狭視野領域Nの側に移動する場合に、物体7が存在する外側領域Oの側の端部存在エリアB3を例えば赤色に着色して、明示指標Sの点滅動作に同期して点滅させ、物体7が狭視野領域Nに進入したときに、端部存在エリアB3の着色及び点滅動作を解除する。
 動作画像出力部30は、物体7が存在する外側領域Oの側の端部に表示した明示指標Sを注目撮影画像における物体7の上方位置に移動させた後、所定回数に亘って点滅させる移動画像と、物体7の上方位置に移動させた明示指標Sを注目撮影画像における物体7の上方位置で当該物体7の移動に追従して移動させる追従画像とを出力する。移動画像及び追従画像は、図3(d)に示すように、動作画像として動作画像格納部31に格納されている。
 移動画像は、図5に示すような、注目撮影画像における物体7が存在する外側領域Oの側の端部に表示した明示指標Sが徐々に小さくなりながら、かつ、回転しながら、注目撮影画像内における物体7の上方位置であって、かつ、物体7が存在する外側領域Oの側の端部存在エリアB3の下縁下側に頂部が物体7の側に向くよう移動した後、所定回数に亘って点滅するように連続的に見える画像である。
 物体7が狭視野領域Nに進入した場合には、注目撮影画像の端部に物体7が表示される。このため、図3(c)に示すように、物体7が狭視野領域Nに進入した場合に、明示指標Sを小さくして端部存在エリアB3の下縁下側に移動させることにより、狭視野領域Nの端部に表示される物体7を明示指標Sにより隠すことなく表示することが可能となる。したがって、車両1の運転者に物体7の存在を適切に明示することが可能となる。
 追従画像は、端部存在エリアB1,B3の下縁下側で点滅した後の明示指標Sが、移動判定部15により判定された物体7の現在位置に基づいて、図6(a)~(e)に示すような、狭視野領域Nに進入した物体7の画面横方向への移動にのみ追従して障害物存在エリアBの下縁下側に沿って注目撮影画像内で画面横方向にのみ連続的に移動するように見える画像である。
 なお、動作画像出力部30は、外側領域Oの物体7が設定速度未満の速度で移動するときには、明示指標Sが点滅しながら移動するように見える追従画像を出力する。
 動作画像出力部30は、移動判定部15により外側領域Oの物体7が注目撮影画像に対応する領域、すなわち狭視野領域Nに進入したと判定されたときに移動画像を出力し、その移動画像の終了と同時に追従画像を出力する。
 したがって、動作画像出力部30は、外側領域Oの物体7が注目撮影画像に対応する領域Nに進入したときに、追従画像の出力を開始する。
 合成画像生成部18は、動作画像出力部30から出力された移動画像及び追従画像を注目撮影画像に合成した合成画像を生成する。これにより、図5,図6に示すような画像がモニタ50に表示される。
 図4~図6は、このような明示指標Sが表示される一連の画像の一例を示す。
 図4は、外側領域Oにいる物体7が狭視野領域Nの側に移動している場合に、狭視野領域Nに明示指標Sが表示される様子を示している。
 図4(a)は、外側領域Oの物体7が狭視野領域Nの側に移動しないと判定されているために、明示指標Sが表示されていない状態を示し、図4(b),(c)は、外側領域Oの物体7が狭視野領域Nの側に移動すると判定された結果、物体7が狭視野領域Nに進入するまで明示指標Sが点滅表示される様子を示す。
 図5は、外側領域Oにいる物体7が狭視野領域Nに進入した場合に、明示指標Sが徐々に小さくなりながら、かつ、回転しながら、注目撮影画像内における物体7の上方位置であって、かつ、物体7が存在する外側領域Oの側の端部存在エリアB3の下縁下側に頂部が物体7の側に向くように移動した後、所定回数に亘って点滅する様子を示している。
 図6(a)~(e)は、端部存在エリアB3の下縁下側に移動した明示指標Sが、物体7の画面横方向への移動にのみ追従して障害物存在エリアBの下縁下側に沿って注目撮影画像内で画面横方向にのみ移動する様子を示している。
 図6(f)は、狭視野領域Nに進入した物体7が狭視野領域Nの外側に移動した結果、動作画像出力部30が追従画像の出力を中止すると共に、障害物存在エリア生成部20が障害物存在エリアBを消去した状態を示す。
 次に、障害物警報装置100が、注目撮影画像に明示画像を重畳した合成画像をモニタ50に表示する一連の処理について、図7の模式図を用いて説明する。まず、撮影画像取得部11が、車両1のカメラ5により撮影された撮影画像Gを取得する(ステップ#1)。
 次に、注目撮影画像生成部12が取得された撮影画像Gの中央部分を注目撮影画像として生成すると共に、マスク領域設定部19がマスク領域Mを設定する(ステップ#2)。
 一方、外側領域生成部13が、取得された撮影画像Gの横方向両側部分を外側領域Oとして生成する(ステップ#3)。このように生成された外側領域Oに物体7が存在しているか否かは、物体存在判定部14により判定される(ステップ#4)。
 外側領域Oに物体7が存在していると判定されると、移動判定部15により当該物体7の移動方向が判定される(ステップ#5)。物体7の移動方向が、外側領域Oから注目撮影画像に対応する狭視野領域Nの側へのものである場合、更に物体7が狭視野領域N内に進入したか否かが判定される(ステップ#6)。
 物体7が狭視野領域N内に進入していなければ、明示画像出力部16により、明示指標Sを含む明示画像が出力される(ステップ#7)。この明示画像は、明示画像格納部17に格納されている明示画像を参照して出力される。
 合成画像生成部18は、ステップ#2において生成された注目撮影画像に、ステップ#7で出力された明示画像を重畳して合成画像を生成する(ステップ#8)。生成された合成画像は、モニタ50に表示される(ステップ#9)。
 一方、ステップ#6において、物体7の狭視野領域N内への進入が判定されると、動作画像出力部30により移動画像及び追従画像が順に出力される(ステップ#10)。移動画像及び追従画像は、動作画像格納部31に格納されている動作画像を参照して出力される。
 合成画像生成部18は、ステップ#2において生成された注目撮影画像に、ステップ#10で出力された移動画像及び追従画像を重畳した合成画像を生成する(ステップ#8)。生成された合成画像はモニタ50に表示される(ステップ#9)。
 動作画像出力部30は、移動判定部15により判定された物体7の現在位置が変化すると、明示指標Sがその物体7の位置に応じて画面横方向に追従移動する追従画像を出力する(ステップ#11)。この追従画像は、動作画像格納部31に格納されている動作画像を参照して出力される。
 合成画像生成部18は、ステップ#2において生成された注目撮影画像に、ステップ#11で出力された従動画像を重畳した合成画像を生成する(ステップ#12)。従動画像を重畳した合成画像がモニタ50に表示される(ステップ#13)。
 狭視野領域Nに進入した物体7が狭視野領域Nの外に移動すると、動作画像出力部30が追従画像の出力を中止すると共に、障害物存在エリア生成部20が障害物存在エリアBを消去する。
 このように本発明に係る障害物警報装置100によれば、車両1に備えられるモニタ50の画面内に物体7が映っていなくても、車両1に接近する物体7が撮影範囲内に入った時点で、車両1の周囲の状況を表示しつつ、運転者に車両1に接近する物体7の存在及び方向を明示することができる。したがって、モニタ50の画面サイズが小さい場合でも、車両1に接近する物体7を見逃すことがなくなる。
 また、明示指標Sは、物体7の狭視野領域Nへの進入に伴い明示指標Sを小さくしながら回転させて狭視野領域N内の上部に移動させるので、車両1の運転者が明示指標Sを見失い難いと共に狭視野領域Nの物体7を注視させることが可能である。したがって、車両1の周囲の状況を把握させることができる。
 さらに、狭視野領域Nの物体7の移動に追従して明示指標Sを移動させるので、物体7の現在位置を明示することができ、運転者に対して効果的に注意喚起することができる。
2.第2実施形態
 図8は、本発明の第2実施形態を示す。
 本実施形態では、明示画像出力部16は、移動判定部15により外側領域Oの物体7が注目撮影画像に対応する領域の側に移動すると判定された場合に、図8(b),(c)に示すように、注目撮影画像における物体7が存在する外側領域Oの側の端部に当該物体7の高さ位置で表示する、物体7の存在を明示する明示指標Sを含む明示画像を出力する。
 このように、明示指標Sを外側領域Oに存在する物体7の高さ位置で予め明示するので、物体7の進入開始位置を予め把握し易い。
 なお、図8(a)は、外側領域Oの物体7が狭視野領域Nの側に移動しないと判定されているために、明示指標Sが表示されていない状態を示している。
 明示指標Sで表示される物体7の高さ位置とは、外側領域Oにおいて移動している物体7の撮影画像G中における高さ位置である。例えば物体7が歩行者である場合はその歩行者の頭の高さ位置であり、例えば物体7が車両である場合はその車両の屋根などの最も高い箇所の高さ位置である。
 このような高さ位置を示す情報は、移動判定部15において物体7の最も高い位置を判定することにより得られる。
 その他の構成は第1実施形態と同様である。
3.第3実施形態
 次に第3実施形態について説明する。図9は、本実施形態に係る障害物警報装置100の構成を模式的に示したブロック図である。図9に示されるように、障害物警報装置100は、撮影画像取得部11、注目撮影画像生成部12、外側領域生成部13、物体存在判定部14、移動方向判定部25、明示画像出力部16、明示画像格納部17、合成画像生成部18、マスク領域設定部19、障害物存在エリア生成部20の各機能部を備えて構成される。各機能部はCPUを中核部材として車両1の運転者に物体7の接近を明示する種々の処理を行うための上述の機能部がハードウェア又はソフトウェア或いはその両方で構築されている。
 本実施形態に係る障害物警報装置100は、上記第1実施形態に係る障害物警報装置100における移動判定部15に替えて、移動方向判定部25を備えている。また、本実施形態に係る障害物警報装置100は、上記第1実施形態に係る障害物警報装置100における障害物存在エリア強調表示部21、動作画像出力部30、及び動作画像格納部31を備えていない。このため、撮影画像取得部11、注目撮影画像生成部12、外側領域生成部13、物体存在判定部14、明示画像出力部16、明示画像格納部17、合成画像生成部18、マスク領域設定部19、障害物存在エリア生成部20の各機能部については、上述の第1の実施形態と同様であるので説明は省略する。以下では、第1実施形態と異なる点を中心に説明する。
 移動方向判定部25は、外側領域Oの物体7の移動方向を判定する。このような移動方向の判定は、物体存在判定部14により、外側領域Oに物体7が存在すると判定された場合に行われる。特に本実施形態では、移動方向判定部25により、外側領域Oの物体7が狭視野領域Nの側に移動するか否かが判定される。狭視野領域Nの側に移動するとは、車両1の後方において、車両1の幅方向外側から、車両1の真後ろの方向に移動することを示す。このような判定は、例えば現在の撮影画像Gにおける物体7の位置と所定時間前の撮影画像Gにおける物体7の位置とを比較して行うことも可能であるし、オプティカルフローを用いるなどの公知の手法を用いて行うことができる。このような移動方向の判定結果は、後述する明示画像出力部16に伝達される。
 マスク領域設定部19は、注目撮影画像のうち、車両1の後方の情景に重畳表示するマスク領域Mを設定する。マスク領域M内は、上記第1実施形態と同様に車両1の上方の情景が見えないように、例えば黒色で彩色される。もちろん、他の色で彩色しても良い。なお、マスク領域Mは、塗りつぶして車両1の後方の情景に重畳表示しても良いし、半透明にして車両1の後方の情景に重畳表示しても良い。
 障害物存在エリア生成部20は、所定の領域毎に区分けした複数の領域に対応する複数の障害物存在エリアBをマスク領域Mに生成する。所定の領域とは、モニタ50の表示画面を区分けした領域である。本実施形態では、車両1の後方を含む領域、及び当該領域の左右両側の領域が相当する。障害物存在エリア生成部20は、このような領域を含む複数の障害物存在エリアb1-b3からなる障害物存在エリアBをマスク領域Mに生成する。本実施形態では、上述のようにマスク領域Mは画面上部に配設されている。したがって、障害物存在エリアBもモニタ50の上部に配置される。
 このような障害物存在エリアBは、具体的には車両1を後方から見て車両1の左側後方の障害物存在エリアb1、車両1の後方に対応する障害物存在エリアb2、車両1の右側後方の障害物存在エリアb3から構成される。なお、本実施形態では、障害物存在エリアBは外側領域Oに対応する領域は含まれない。
 明示画像出力部16は、移動方向判定部25により外側領域Oの物体7が注目撮影画像の中央側に移動すると判定されてから注目撮影画像に進入するまでの間、注目撮影画像の輪郭よりも小さい外形を有する枠指標Wを表示させる。ここで、本実施形態では、注目撮影画像は、狭視野領域Nの画像に相当する。外側領域Oの物体7の検出後、当該物体7が注目撮影画像に進入するまでの間は、物体存在判定部14及び移動方向判定部25により検出することが可能である。注目撮影画像の輪郭よりも小さい外形を有する枠指標Wとは、枠指標Wは少なくとも注目撮影画像よりも小さいことを意味する。したがって、明示画像出力部16は、外側領域Oの物体7が狭視野領域Nの中央側に移動することを検出してから、車両1の狭視野領域Nに進入するまでの間、モニタ50の表示画面内に枠指標Wを表示させる。
 具体的には、移動方向判定部25により、車両1の後方において物体7が狭視野領域Nの中央側に移動する場合には当該物体7が狭視野領域Nに進入するまで、枠指標Wを点滅表示させる。この点滅表示は、物体7が狭視野領域Nに進入すると停止する。これにより、車両1の乗員が車両1に接近する物体7の存在を直感的に認識することが可能となる。
 このような枠指標Wは、図10(d)に示されるように明示画像として明示画像格納部17に格納されている。図10(c)には、図10(b)に示されるような撮影画像G、すなわち右側の外側領域Oに物体7がいる場合に車両1のモニタ50に表示される画像が示される。
 また、明示画像出力部16は、物体7が注目撮影画像に進入する場合に、物体7が進入する側の領域に対応する障害物存在エリアBに枠指標Wが吸収される表示を行う。物体7が進入する側の領域に対応する障害物存在エリアBとは、左側の外側領域Oに物体7が存在する場合には障害物存在エリアb1が相当し、右側の外側領域Oに物体7が存在する場合には障害物存在エリアb3が相当する。一方、上述のように、外側領域Oに存在する物体7が検出されると、枠指標Wが点滅表示されている。この際、物体7が右側の外側領域Oにいるのか、或いは左側の外側領域Oにいるのかは物体存在判定部14により把握されている。したがって、明示画像出力部16は、左側の外側領域Oに存在する物体7が狭視野領域Nに進入する場合には枠指標Wが障害物存在エリアb1に吸収される表示を行い、右側の外側領域Oに存在する物体7が狭視野領域Nに進入する場合には枠指標Wが障害物存在エリアb3に吸収される表示を行う。
 明示画像出力部16は、このような表示を行う。ここで、本実施形態では、図10(c)に示されるように、障害物存在エリアB及び枠指標Wが狭視野領域Nである注目撮影画像に合成してモニタ50に表示される。そこで、合成画像生成部18は、注目撮影画像に障害物存在エリアB及び枠指標Wを合成した合成画像を生成する。これにより、図10(c)に示されるような画像が生成される。
 このように枠指標Wの点滅表示や、狭視野領域Nに進入する物体7の側の障害物存在エリアBへの枠指標Wの吸収表示を行うことにより、車両1の乗員に対して当該車両1に物体7が接近していること、及び物体7が狭視野領域N内に進入することを視覚的に明示することができる。
 その後、明示画像出力部16は、物体7が存在する領域に対応する障害物存在エリアBを彩色させる。上述のように、物体7が進入する側の障害物存在エリアBに、枠指標Wが吸収されている。したがって、明示画像出力部16は、枠指標Wが吸収された障害物存在エリアBを彩色させる。このような彩色は、視覚的に目立つように例えば赤色ですると好適である。もちろん、他の色で彩色することも可能である。
 その後、物体7が注目撮影画像内に進入する場合には、明示画像出力部16は、対応する障害物存在エリアBを下方に延ばして表示する。対応する障害物存在エリアBとは、枠指標Wが吸収され、彩色された障害物存在エリアBである。下方に延ばすとは、彩色された領域を障害物存在エリアBが配置された画面上部から画面下部の方に延ばして、領域を拡大することを意味する。このように、物体7が注目撮影画像内に進入すると、明示画像出力部16は当該彩色された障害物存在エリアBを下方に延ばして彩色した領域を拡大する。したがって、彩色された領域が大きくなるので、乗員の目に留まりやすくなり、物体7の注目撮影画像内への進入に対して注意喚起を高めることができる。なお、このような下方に延ばす表示は、表示画面の下端まで延ばしても良いし、表示画面の中程までで止めても良い。
 物体7が、注目撮影画像に進入し、車両1の真後ろ(後方)を含む領域に存在する場合には、明示画像出力部16は車両1の真後ろを含む領域に対応する障害物存在エリアb2を点滅表示させる。係る点滅表示における点灯中は障害物存在エリアb2中に、車両1の後方の一部を含む自車イメージ画像CIを表示しても良い。一方、点滅表示における消灯中は障害物存在エリアb2を完全に無くして、注目撮影画像がそのまま視認可能とするように構成しても良い。明示画像出力部16は、このような点滅表示は、物体7が障害物存在エリアb2に対応する車両1の真後ろを含む領域から退出するまで繰り返して行う。
 物体7が障害物存在エリアb2に対応する車両1の真後ろを含む領域から当該領域に隣接する領域に移動すると、明示画像出力部16は対応する障害物存在エリアb1を彩色する。その後、物体7が注目撮影画像から退出するまで、障害物存在エリアb1を下方に延ばして表示する。したがって、物体7が注目撮影画像に進入した場合と同様に、彩色された領域が大きくなるので、乗員の目に留まりやすくなり、物体7の注目撮影画像内への進入に対して注意喚起を高めることができる。なお、このような下方に延ばす表示は、表示画面の下端まで延ばしても良いし、表示画面の中程までで止めても良い。
 明示画像出力部16は、物体7が注目撮影画像から退出すると、障害物存在エリアb1の彩色や下方への延長を中止する。これにより、乗員は、物体7が注目撮影画像から退出したことを把握することができる。
 このような枠指標Wの表示や、障害物存在エリアBの彩色及び下方への延長に関する一連の画像の一例が、図11-図16に示される。特に、図11-図13には枠指標Wの表示から吸収までの一連の画像が示され、図14-図16には障害物存在エリアBの彩色等について示される。
 図11(a)に示されるように、注目撮影画像内に障害物存在エリアBが合成表示される。外側領域Oから狭視野領域Nの中央側に移動する物体7が検出されると、枠指標Wが合成表示される(図11(b))。この枠指標Wは、図11(b)及び(c)を所定の回数だけ繰り返して点滅表示される。
 外側領域Oの物体7が、狭視野領域Nの中央側に移動すると、枠指標Wは物体7が進入する側の障害物存在エリアBに吸収されるように表示される(図11(d)-図13(c))。本実施形態では、物体7が車両後方中央側に向って右側の外側領域Oから進入してくる場合の例を挙げている。したがって、枠指標Wが障害物存在エリアb3に吸収される。
 図13(c)に示されるように、枠指標Wが障害物存在エリアb3に吸収されると、当該障害物存在エリアb3が彩色される(図14(a))。その後、障害物存在エリアb3に対応する領域から物体7が退出するまで、障害物存在エリアb3が彩色されたまま下方に延長される(図14(b)-図14(e))。
 物体7が、車両1の真後ろ(後方)を含む領域に移動すると、当該領域に対応する障害物存在エリアb2が点滅表示される(図15(a)-図15(e))。物体7が、物体7が障害物存在エリアb2に対応する車両1の真後ろを含む領域から当該領域に隣接する領域に移動すると、障害物存在エリアb1が彩色され、下方に延長して表示される(図16(a)-図16(d))。その後、物体7が注目撮影画像から退出すると、彩色及び延長が中止される(図16(e))。
 次に、障害物警報装置100が、枠指標Wを注目撮影画像に合成した画像をモニタ50に表示する一連の処理について、図17の模式図を用いて説明する。まず、撮影画像取得部11が、車両1のカメラ5により撮影された撮影画像Gを取得する(ステップ#31)。
 次に、注目撮影画像生成部12が、取得された撮影画像Gの中央部分を注目撮影画像として生成する(ステップ#32)。一方、外側領域生成部13が、取得された撮影画像Gの横方向両側部分を外側領域Oとして生成する(ステップ#33)。このように生成された外側領域Oに物体7が存在しているか否か、物体存在判定部14により判定される(ステップ#34)。
 外側領域Oに物体7が存在していると判定されると、移動方向判定部25により当該物体7の移動方向が判定される(ステップ#35)。物体7の移動方向が、外側領域Oから注目撮影画像に対応する狭視野領域Nの側へのものである場合、明示画像出力部16により明示画像が出力される(ステップ#36)。この明示画像は、明示画像格納部17に格納されている明示画像を参照して出力される。
 合成画像生成部18は、ステップ#32において生成された注目撮影画像に、ステップ#36で出力された明示画像を重畳して合成画像を生成する(ステップ#37)。生成された合成画像は、モニタ50に表示される(ステップ#38)。このように物体7が狭視野領域Nの中央側に移動する場合に枠指標Wを表示することにより車両1の乗員に車両1に物体7が接近していることを明示することが可能となる。また、物体7が狭視野領域Nに進入する場合には、物体7が進入する側の障害物存在エリアBに枠指標Wが吸収されるように表示するので、乗員が直感的に物体7の進入する方向を認識することができる。このように、本障害物警報装置100によれば、車両1に障害物が接近していることを明示することが可能となると共に、進入方向を明示することが可能となる。
 このように本発明に係る障害物警報装置100によれば、車両1に接近する物体7の存在を枠指標Wで示すので、枠指標Wにより囲まれた領域においては車両1の周囲の状況が見難くなることがない。また、車両1に備えられるモニタ50に物体7が映っていなくても、当該物体7を検知した場合に枠指標Wを表示するので、乗員に車両1に接近する物体7の存在を明示することができる。したがって、本発明によれば、車両1の周囲の状況を見難くすることなく、車両1に接近する物体7を明示できる。
4.第4実施形態
 次に第4実施形態について説明する。図18は、本実施形態に係る障害物警報装置100の構成を模式的に示したブロック図である。図18に示されるように、障害物警報装置100は、撮影画像取得部11、注目撮影画像生成部12、外側領域生成部13、物体存在判定部14、移動方向判定部25、明示画像出力部16、明示画像格納部17、合成画像生成部18の各機能部を備えて構成される。各機能部はCPUを中核部材として車両1の運転者に物体7の接近を明示する種々の処理を行うための上述の機能部がハードウェア又はソフトウェア或いはその両方で構築されている。
 本実施形態に係る障害物警報装置100は、上記第1実施形態に係る障害物警報装置100における移動判定部15に替えて、移動方向判定部25を備えている。また、本実施形態に係る障害物警報装置100は、上記第1実施形態に係る障害物警報装置100におけるマスク領域設定部19、障害物存在エリア生成部20、障害物存在エリア強調表示部21、動作画像出力部30、及び動作画像格納部31を備えていない。このため、撮影画像取得部11、注目撮影画像生成部12、外側領域生成部13、物体存在判定部14、明示画像出力部16、明示画像格納部17、合成画像生成部18、障害物存在エリア生成部20の各機能部については、上述の第1の実施形態と同様であるので説明は省略する。以下では、第1実施形態と異なる点を中心に説明する。
 明示画像出力部16は、移動方向判定部25により外側領域Oの物体7が注目撮影画像の中央側に移動すると判定された場合に、注目撮影画像のうち物体7が存在する外側領域Oの側から中央側に向うと共に、注目撮影画像から手前側に向って移動するような指標Sを表示させ、当該表示を繰り返し行う。ここで、本実施形態では、注目撮影画像は、狭視野領域Nの画像に相当する。したがって、明示画像出力部16は、外側領域Oの物体7が車両1の狭視野領域Nの側に移動する場合に、モニタ50に表示された当初は狭視野領域Nのうち物体7が存在する外側領域Oの側から中央側に向い、その後、次第に向きを変えて、モニタ50から乗員の側に迫ってくるような指標Sを表示させると共に、当該表示を繰り返し行う。外側領域Oの物体7が車両1の狭視野領域Nの側に移動するか否かは、上述の移動方向判定部25により判定される。狭視野領域Nのうち物体7が存在する外側領域Oの側とは、物体7が左側の外側領域Oにいる場合には狭視野領域N内の左側の領域が相当する。一方、物体7が右側の外側領域Oにいる場合には狭視野領域N内の右側の領域が相当する。
 本実施形態では、明示画像出力部16は、一定時間点灯したのち消灯する指標Sを順次異なる位置に表示させると共に、当該表示を繰り返し行う。一定時間点灯したのち消灯する指標Sとは、指標Sが連続して表示されている状態ではなく、指標Sが位置を変えながら表示されている状態を示す。本実施形態では、このような指標Sが表示されてから消灯し、更に次に表示される場合には、異なる位置に表示される。したがって、指標Sは、画面上の所定の2つの位置の間を移動している状態になる。明示画像出力部16は、このような指標Sの移動を繰り返し行う。
 このような指標Sは、連続して移動するように表示しても良いし、一定時間点灯したのち消灯するように、すなわち、指標Sが点滅して移動するように表示しても良い。本実施形態では、このような指標Sは、連続して移動するとして説明する。したがって、指標Sは、モニタ50の画面に現われてから消えるまで滑らかに移動している状態になる。明示画像出力部16は、このような指標Sの移動を繰り返し行う。
 ここで、指標Sについて説明する。本実施形態に係る指標Sは、注目撮影画像(狭視野領域N)の中央側に突出する凸部を有する矢印形状が、注目撮影画像の手前側に突出する凸部を有する矢印形状に移行するように構成されている。このような指標Sは、図19(d)に示されるように明示画像格納部17に格納されている。図19(c)には、図19(b)に示されるような撮影画像G、すなわち右側の外側領域Oに物体7がいる場合に車両1のモニタ50に表示される画像が示される。図19(c)に示されるように、本実施形態ではモニタ50に複数の指標Sが表示されることがある。係る場合、複数の指標Sどうしが一部重畳する位置に表示される。一部重複するとは、本実施形態では、複数の指標Sのうちの一方の矢印形状の凸部の側の部分と、複数の指標Sのうちの他方の矢印形状の凸部でない側の部分とが重複することをいう。また、複数の指標Sがある場合には、後に表示する指標Sと直前に表示した指標Sとの重複部分については後に表示する指標Sを上書き表示するよう構成される。すなわち、直前に表示された指標Sよりも、後の表示される指標Sの方が上の層に配置されるように構成される。本実施形態では、このような直前に表示される指標Sは、後に表示される指標Sよりも透明度が高く表示される。すなわち、後に表示される指標Sが、直前に表示された指標Sよりも透明度が低く表示される。したがって、指標Sが複数表示されている場合には、最上層の指標Sが最も透明度が低く、最下層の指標Sが最も透明度が高くなる。
 また、指標Sは直前に表示された指標Sよりも、後に表示される指標Sの方が大きなサイズで構成される。したがって、指標Sが複数表示されている場合には、最上層の指標Sが最もサイズが大きく、最下層の指標Sが最もサイズが小さくなる。なお、夫々の指標Sは、互いに相似する形状でサイズの大小を設定しても良いし、指標Sの縦又は横の何れか一方の長さを変更してサイズの大小を設定しても良い。
 明示画像出力部16は、このような表示を繰り返し行う。ここで、本実施形態では、図19(c)に示されるように、指標Sは狭視野領域Nである注目撮影画像に合成してモニタ50に表示される。そこで、合成画像生成部18は、注目撮影画像に指標Sを合成した合成画像を生成する。これにより、図19(c)に示されるような画像が生成される。
 このように指標Sを表示することにより、指標Sが次第に大きくなると共に、乗員の方に迫ってくるように表示させることが可能となる。これにより、車両1の乗員に対して当該車両1に物体7が接近していることを視覚的に明示することができる。
 また、明示画像出力部16は、物体7が注目撮影画像に対応する領域、すなわち狭視野領域Nに進入した場合に指標Sの出力を中止する。物体7が狭視野領域Nに侵入したか否かも、移動方向判定部25により判定することが可能である。すなわち、移動方向判定部25は、外側領域Oから狭視野領域Nに進入する物体7があれば、物体7が狭視野領域Nに進入したと判定することが可能である。このような判定結果も、明示画像出力部16に伝達される。このように、明示画像出力部16は、このような判定結果が伝達されると、指標Sの出力を中止する。これにより、車両1の乗員に、狭視野領域Nに物体7が進入したことを視覚的に明示することが可能となる。
 このような指標Sが表示される一連の画像の一例が、図20及び図21に示される。図20(a)に示されるように、外側領域Oにいる物体7が狭視野領域Nの中央側に移動していることが検出されると(図20(a))、物体7が狭視野領域Nに進入するまで、指標Sが移動しながら表示されている様子が示される(図20(b)-(f)、図21(a)-(e))。実際には、物体7が狭視野領域Nに進入するまで繰り返し行われる。物体7が右側の外側領域Oから狭視野領域Nに進入すると、指標Sの重畳が終了する(図21(f))。
 次に、障害物警報装置100が、注目撮影画像に明示画像を重畳した合成画像をモニタ50に表示する一連の処理について、図22の模式図を用いて説明する。まず、撮影画像取得部11が、車両1のカメラ5により撮影された撮影画像Gを取得する(ステップ#51)。
 次に、注目撮影画像生成部12が、取得された撮影画像Gの中央部分を注目撮影画像として生成する(ステップ#52)。一方、外側領域生成部13が、取得された撮影画像Gの横方向両側部分を外側領域Oとして生成する(ステップ#53)。このように生成された外側領域Oに物体7が存在しているか否か、物体存在判定部14により判定される(ステップ#54)。
 外側領域Oに物体7が存在していると判定されると、移動方向判定部25により当該物体7の移動方向が判定される(ステップ#55)。物体7の移動方向が、外側領域Oから注目撮影画像に対応する狭視野領域Nの側へのものである場合、明示画像出力部16により明示画像が出力される(ステップ#56)。この明示画像は、明示画像格納部17に格納されている明示画像を参照して出力される。
 合成画像生成部18は、ステップ#52において生成された注目撮影画像に、ステップ#56で出力された明示画像を重畳して合成画像を生成する(ステップ#57)。生成された合成画像は、モニタ50に表示される(ステップ#58)。このように注目撮影画像をモニタ50に大きく表示することにより車両1の乗員に車両1の近傍を注視させることが可能であると共に、車両1に接近する物体7の方向を明示することが可能となる。したがって、車両1の周囲の状況を把握させることができると共に、障害物が接近していることを明示することが可能となる。
 このように本発明に係る障害物警報装置100によれば、車両1に備えられるモニタ50の画面内に物体7が映っていなくても、車両1に接近する物体7が撮影範囲内に入った時点で、車両1の周囲の状況を表示しつつ、運転者に車両1に接近する物体7の存在及び方向を明示することができる。したがって、モニタ50の画面サイズが小さい場合でも、車両1に接近する物体7を見逃すことがなくなる。また、このよう指標Sは画面の側端部に表示されるので、運転者が車両1の周囲の状況が見難くなることがない。したがって、車両1の周囲の状況を見難くすることなく、車両1に接近する障害物(物体7)の存在を運転者に明示することが可能となる。
5.その他の実施形態
 本発明による障害物警報装置は、外側領域Oの物体7が注目撮影画像に対応する領域Nに進入しているときに、明示指標Sが注目撮影画像における物体7の高さ位置に応じた上方位置で追従移動する追従画像を出力する動作画像出力部30を備えていてもよい。
 本発明による障害物警報装置は、外側領域Oの物体7が注目撮影画像に対応する領域Nに進入しているときに、物体7の領域Nへの進入開始からその物体7が領域Nから外への移動するまで、明示指標Sが点滅しながら物体7に追従移動する追従画像を出力する動作画像出力部30を備えていてもよい。
 本発明による障害物警報装置は、外側領域Oの物体7が注目撮影画像に対応する領域Nに進入しているときに、明示指標Sが彩色を変更しながら物体7に追従移動する追従画像を出力する動作画像出力部30を備えていてもよい。
 本発明による障害物警報装置は、外側領域Oの物体7が注目撮影画像に対応する領域Nに進入した後、その物体7が車両幅内の後方位置や前方位置に移動したときに、追従画像の出力を開始するように構成してある動作画像出力部30を備えていてもよい。
 本発明による障害物警報装置は、注目撮影画像の外側の外側領域Oに物体7が存在するか否かをソナー等で検出して判定する物体存在判定部14を備えていてもよい。
 本発明による障害物警報装置は、狭視野領域Nに対応した狭視野角を持つカメラ5で撮影画像Gを取得した場合には、当該撮影画像Gをそのまま注目撮影画像として用いる注目撮影画像生成部12を備えていてもよい。
 この場合、外側領域Oに物体7が存在するか否かの判定は、上記のように、例えばソナー等で検出して判定すると好適である。
 本発明による障害物警報装置は、駐車場などにおける車両の前進時に、その車両の前方側に物体がある場合に当該車両の運転者に物体が接近していることを明示する機能を備えていてもよい。
 本発明による障害物警報装置は、外側領域Oの物体7が注目撮影画像に対応する領域Nに進入したときに、明示指標Sが回転しながら、かつ、点滅しながら注目撮影画像における物体7の上方位置に移動する画像を出力する動作画像出力部30を備えていてもよい。
 本発明による障害物警報装置は、外側領域Oの物体7が注目撮影画像に対応する領域Nに進入したときに、明示指標Sが回転しながら、かつ、彩色を変更しながら注目撮影画像における物体7の上方位置に移動する画像を出力する動作画像出力部30を備えていてもよい。
 本発明による障害物警報装置は、外側領域Oの物体7が注目撮影画像に対応する領域Nに進入したときに、明示指標Sの大きさを変えずに注目撮影画像における物体7の上方位置に回転しながら移動する画像を出力する動作画像出力部30を備えていてもよい。
 上記第3実施形態では、物体7が注目撮影画像に進入する場合に、物体7が進入する側の領域に対応する障害物存在エリアBに枠指標Wが吸収されるとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。枠指標Wは、障害物存在エリアBに吸収される形態で無く、物体7が注目撮影画像に進入する場合に表示を中止する形態とすることも当然に可能である。
 上記第3実施形態では、物体7が注目撮影画像に進入した場合に、対応する障害物存在エリアBが彩色されたり、下方に延長して表示されたり、点滅表示したりされるとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。このような表示を行わず、枠指標Wの吸収のみ行うような構成とすることも当然に可能である。或いは、対応する障害物存在エリアBの彩色、下方への延長、点滅表示のうち少なくとも何れか一つを行う構成とすることも可能である。
 上記第3実施形態では、障害物存在エリアBは画面上部に配置されているとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。障害物存在エリアBは、車両1の周囲に物体7が存在すると判定された場合に表示される構成とすることも当然に可能である。係る場合には、物体存在判定部14の判定結果により、障害物存在エリアBを表示することが可能である。
 上記第4実施形態では、明示画像出力部16は、点滅表示した指標Sが移動する際、次第に大きくなるように表示するとして説明した。しかしながら、本発明に適用範囲はこれに限定されるものではない。指標Sを同じサイズで表示することも当然に可能である。もちろん、指標Sが、次第に小さくなるように表示することも当然に可能である。このような構成であっても、適切に車両1に接近する物体7を車両1の乗員に明示することが可能である。
 上記第4実施形態では、直前に表示された指標Sは、後に表示された指標Sの透明度よりも高いとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。例えば、直前に表示された指標Sは、後に表示された指標Sの透明度よりも低く表示することも可能であるし、直前に表示された指標Sは、後に表示された指標Sの透明度と同じように表示することも当然に可能である。
 上記第4実施形態では、指標Sが複数ある場合に当該複数の指標Sどうしが一部重畳する位置に表示されるとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。複数の指標Sを表示する場合であっても、指標Sどうしが重畳しないように構成することも可能である。
 上記第4実施形態では、指標Sが、狭視野領域Nの中央側に突出する凸部を有する矢印形状に構成してあるとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。指標Sを他の形状で構成することも当然に可能である。
 上記第4実施形態では、物体7が存在するか否かの判定は、例えばパターンマッチング等の公知の画像認識処理を用いて行うことが可能であるとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。例えば、ソナー等で検出することも当然に可能である。
 上記第4実施形態では、注目撮影画像生成部12は、撮影画像Gの中央部分である狭視野領域Nを注目撮影画像として生成するとして説明した。しかしながら、本発明の適用範囲はこれに限定されるものではない。例えば、狭視野領域Nに対応した狭視野角を持つカメラ5で撮影画像Gを取得した場合には、当該撮影画像Gをそのまま注目撮影画像として用いることも当然に可能である。係る場合、外側領域Oに物体7が存在するか否かの判定は、上記のように、例えばソナー等で検出すると好適である。
 (付記項1)車両の後方の情景を撮影した撮影画像を取得する撮影画像取得部と、撮影画像に基づいて注目撮影画像を生成する注目撮影画像生成部と、注目撮影画像の外側の外側領域に物体が存在するか否かを判定する物体存在判定部と、外側領域の物体の移動方向を判定する移動方向判定部と、移動方向判定部により外側領域の物体が注目撮影画像の中央側に移動すると判定されてから注目撮影画像に進入するまでの間、注目撮影画像の輪郭よりも小さい外形を有する枠指標を表示させる明示画像出力部と、を備える障害物警報装置。係る特徴構成とすれば、車両に接近する物体の存在を枠指標で示すので、枠指標により囲まれた領域においては車両の周囲の状況が見難くなることがない。また、車両に備えられる表示画面に物体が映っていなくても、当該物体を検知した場合に枠指標を表示するので、乗員に車両に接近する物体の存在を明示することができる。したがって、本発明によれば、車両の周囲の状況を見難くすることなく、車両に接近する物体を明示できる。
 (付記項2)注目撮影画像のうち、車両の後方の情景に重畳表示するマスク領域を設定するマスク領域設定部と、車内から車両の後方を見て、所定の領域毎に区分けした複数の領域に対応する複数の障害物存在エリアをマスク領域に生成する障害物存在エリア生成部と、を備え、明示画像出力部は、物体が注目撮影画像に進入する場合に、物体が進入する側の領域に対応する障害物存在エリアに枠指標が吸収される表示を行なう付記項1に記載の障害物警報装置。係る構成とすれば、物体が進入する側の障害物存在エリアに吸収されるよう枠指標を表示するので、車両の乗員は物体が接近する方向を直感的に認識することが可能となる。
 (付記項3)車両の周囲の情景を撮影した撮影画像を取得する撮影画像取得部と、撮影画像に基づいて注目撮影画像を生成する注目撮影画像生成部と、注目撮影画像の外側の外側領域に物体が存在するか否かを判定する物体存在判定部と、外側領域の物体の移動方向を判定する移動方向判定部と、移動方向判定部により外側領域の物体が注目撮影画像の中央側に移動すると判定された場合に、注目撮影画像のうち物体が存在する外側領域の側から中央側に向うと共に、注目撮影画像から手前側に向って移動するような指標を表示させる明示画像出力部と、を備える障害物警報装置。係る特徴構成とすれば、車両に備えられるモニタの画面内に物体が映っていなくても、車両に接近する物体が撮影範囲内に入った時点で、車両の周囲の状況を表示しつつ、運転者に車両に接近する物体の存在及び方向を明示することができる。したがって、モニタの画面サイズが小さい場合でも、車両に接近する物体を見逃すことがなくなる。また、このよう指標は画面の側端部に表示されるので、運転者が車両の周囲の状況が見難くなることがない。したがって、車両の周囲の状況を見難くすることなく、車両に接近する障害物の存在を運転者に明示することが可能となる。
 (付記項4)明示画像出力部は、一定時間点灯したのち消灯する複数の指標を順次異なる位置に表示させる表示を繰り返し行うと共に、複数の指標どうしを一部重畳する位置に表示させ、後に表示する指標と直前に表示した指標との重複部分については後に表示する指標を上書き表示させる表示を繰り返し行う付記項3に記載の障害物警報装置。係る構成とすれば、モニタの画面内に指標を表示しても車両の周囲の状況が指標で隠れることが無い。したがって、車両の周囲の状況の視認性を確保することができる。
 (付記項5)後に表示する指標が、直前に表示した指標よりもサイズが大きいことを特徴とする付記項4に記載の障害物警報装置。係る構成とすれば、指標が、画面の中央に迫ってくる状態をより視覚的に表示することができる。したがって、運転者が障害物の接近をより効果的に認識し易くなる。
 (付記項6)後に表示する指標が、直前に表示した指標よりも透明度が低いことを特徴とする付記項4又は5に記載の障害物警報装置。係る構成とすれば、指標が、画面の中央に迫ってくる状態をより視覚的に表示することができる。したがって、運転者が障害物の接近をより効果的に認識し易くなる。また、画面の端部に表示される情景を隠すことがないので、急に障害物が飛び出してきた場合でも、適切に障害物を把握することが可能となる。
 (付記項7)明示画像出力部は、注目撮影画像の中央側に突出する凸部を有する矢印形状が、注目撮影画像の手前側に突出する凸部を有する矢印形状に移行するように表示させる付記項3から6のいずれか一項に記載の障害物警報装置。係る構成とすれば、表示された当初は、障害物の移動方向と凸部が向く方向とが一致しているので、運転者が直感的に障害物の移動方向を認識することができる。また、その後、乗員の側に凸部が迫ってくるように表示されるので、車両の周囲の監視に対し注力させるよう視覚的に明示することができる。
 (付記項8)明示画像出力部は、物体が注目撮影画像に対応する領域に進入した場合に指標の出力を中止するよう構成してある付記項3から7のいずれか一項に記載の障害物警報装置。係る構成とすれば、物体が表示装置の画面(表示画像)内に映った時点で指標の表示を中止できるので、物体が指標に隠れることがない。したがって、車両に接近した物体を適切に視認することができる。
 (付記項9)車両の周囲の情景を撮影した撮影画像を取得する撮影画像取得部と、撮影画像に基づいて注目撮影画像を生成する注目撮影画像生成部と、注目撮影画像の外側の外側領域に物体が存在するか否かを判定する物体存在判定部と、外側領域の物体が注目撮影画像に対応する領域に進入する場合に、注目撮影画像における物体が存在する外側領域の側の端部に表示する、物体の存在を明示する明示指標を含む明示画像を出力する明示画像出力部と、外側領域の物体が注目撮影画像に対応する領域に進入したときに、明示指標が回転しながら移動する画像を出力する動作画像出力部と、を備える障害物警報装置。係る構成の障害物警報装置は、注目撮影画像の外側領域に物体が存在するか否かを判定して、外側領域の物体が注目撮影画像に対応する領域に進入する場合に、注目撮影画像における物体が存在する外側領域の側の端部に、その物体の存在を明示する明示指標を表示する。このため、車両に備えられる表示装置(例えばモニタ)の画面に物体が映っていなくても、車両に接近する物体が撮影範囲内に入った時点で、車両の周囲の状況を表示しつつ、運転者に対して車両に接近する物体の存在及びその接近方向を予め明示することができる。したがって、表示装置の画面サイズが小さい場合でも、車両に接近する物体を見逃すおそれが少ない。
 また、物体が注目撮影画像に対応する領域に進入したときに、明示指標が回転しながら移動する画像を出力する。このため、注目撮影画像に対応する領域に進入した物体の存在を明示指標で明示するにあたって、明示指標が画像中に紛れ込んで、運転者が明示指標を見失ったり何等かの物体と勘違いしないように、明示指標を目立つように回転させながら移動させて、物体の存在を明示することができる。したがって、本構成の障害物警報装置であれば、車両の周囲の状況を見難くすることなく、車両に接近する障害物(物体)の存在を運転者に明示して注意喚起することができる。
 (付記項10)動作画像出力部は、明示指標が回転しながら注目撮影画像における物体の上方位置に移動する画像を出力するように構成してある付記項9に記載の障害物警報装置。係る構成であれば、注目撮影画像に対応する領域に進入した物体の存在を明示指標で明示するにあたって、注目撮影画像に対応する領域に進入した物体を運転者が見難くならないように、明示指標を物体の上方位置に移動させて、運転者に対して効果的に注意喚起することができる。
 (付記項11)動作画像出力部は、明示指標が注目撮影画像に対応する領域に進入した物体の移動に追従して移動する画像を出力するように構成してある付記項9又は10に記載の障害物警報装置。係る構成であれば、進入した物体の現在位置を明示することができるので、運転者に対して効果的に注意喚起することができる。
 (付記項12)動作画像出力部は、明示指標が物体の画面横方向への移動にのみ追従して画面横方向にのみ移動する画像を出力するように構成してある付記項11に記載の障害物警報装置。係る構成であれば、注目撮影画像に対応する領域に進入した物体の移動に追従させるべき、注目撮影画像における明示指標の動きを単純化することができるので、運転者が明示指標を見失い難く、運転者に対してより効果的に注意喚起することができる。
 本発明は、車両に接近する障害物の存在を乗員に明示する障害物警報装置に用いることが可能である。
 1 車両
 7 物体
 11 撮影画像取得部
 12 注目撮影画像生成部
 14 物体存在判定部
 16 明示画像出力部
 30 動作画像出力部
 100 障害物警報装置
 G 撮影画像
 N 狭視野領域/注目撮影画像に対応する領域
 O 外側領域
 S 明示指標

Claims (8)

  1.  車両の周囲の情景を撮影した撮影画像を取得する撮影画像取得部と、
     前記撮影画像に基づいて注目撮影画像を生成する注目撮影画像生成部と、
     前記注目撮影画像の外側の外側領域に物体が存在するか否かを判定する物体存在判定部と、
     前記外側領域の物体が前記注目撮影画像に対応する領域に進入する場合に、前記注目撮影画像における前記物体が存在する外側領域の側の端部に表示する、前記物体の存在を明示する明示指標を含む明示画像を出力する明示画像出力部と、
     前記外側領域の物体が前記注目撮影画像に対応する領域に進入しているときに、前記明示指標が前記注目撮影画像における前記物体の上方位置で当該物体の移動に追従して移動する画像を出力する動作画像出力部と、
    を備える障害物警報装置。
  2.  前記動作画像出力部は、前記外側領域の物体が前記注目撮影画像に対応する領域に進入したときに、前記画像の出力を開始するように構成してある請求項1に記載の障害物警報装置。
  3.  前記動作画像出力部は、前記注目撮影画像に対応する領域に進入しているときに、前記注目撮影画像における前記物体が存在する外側領域の側の端部から前記物体の上方位置へ前記明示指標を移動する画像を出力する請求項1又は2に記載の障害物警報装置。
  4.  前記動作画像出力部は、前記外側領域の物体が前記注目撮影画像に対応する領域に進入したときに、前記明示指標が回転しながら移動する画像を出力する請求項1から3のいずれか一項に記載の障害物警報装置。
  5.  前記動作画像出力部は、前記外側領域の物体が前記注目撮影画像に対応する領域に進入したときに、前記明示指標が徐々に小さくなりながら移動する画像を出力する請求項1から4のいずれか一項に記載の障害物警報装置。
  6.  前記動作画像出力部は、前記明示指標が上方位置へ移動したときに、前記明示指標の中央側に向けて突出する頂部が物体側に向くように画像を出力する請求項1から5のいずれか一項に記載の障害物警報装置。
  7.  前記動作画像出力部は、前記外側領域の物体が設定速度未満の速度で移動するときに、前記明示指標が点滅する前記画像を出力するように構成してある請求項1から6のいずれか一項に記載の障害物警報装置。
  8.  前記動作画像出力部は、前記明示指標が前記物体の画面横方向への移動にのみ追従して画面横方向にのみ移動する画像を出力するように構成してある請求項1から7のいずれか一項に記載の障害物警報装置。
PCT/JP2012/082236 2011-12-22 2012-12-12 障害物警報装置 WO2013094496A1 (ja)

Applications Claiming Priority (8)

Application Number Priority Date Filing Date Title
JP2011282210A JP5765576B2 (ja) 2011-12-22 2011-12-22 障害物警報装置
JP2011-282210 2011-12-22
JP2011284008A JP5660395B2 (ja) 2011-12-26 2011-12-26 障害物警報装置
JP2011-284008 2011-12-26
JP2012005420A JP5845909B2 (ja) 2012-01-13 2012-01-13 障害物警報装置
JP2012-005421 2012-01-13
JP2012005421A JP5787168B2 (ja) 2012-01-13 2012-01-13 障害物警報装置
JP2012-005420 2012-03-09

Publications (1)

Publication Number Publication Date
WO2013094496A1 true WO2013094496A1 (ja) 2013-06-27

Family

ID=48668389

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2012/082236 WO2013094496A1 (ja) 2011-12-22 2012-12-12 障害物警報装置

Country Status (1)

Country Link
WO (1) WO2013094496A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10339809B2 (en) 2014-05-21 2019-07-02 Yazaki Corporation Safety confirmation assist device

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084500A (ja) * 1999-09-14 2001-03-30 Sumitomo Electric Ind Ltd 移動体の走行支援装置
JP2007159036A (ja) * 2005-12-08 2007-06-21 Denso Corp 車両用表示装置
JP2007221200A (ja) * 2006-02-14 2007-08-30 Auto Network Gijutsu Kenkyusho:Kk 車両周辺監視装置
JP2010130646A (ja) * 2008-12-01 2010-06-10 Aisin Seiki Co Ltd 車両周辺確認装置
JP2010198428A (ja) * 2009-02-26 2010-09-09 Alpine Electronics Inc 車載システム

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001084500A (ja) * 1999-09-14 2001-03-30 Sumitomo Electric Ind Ltd 移動体の走行支援装置
JP2007159036A (ja) * 2005-12-08 2007-06-21 Denso Corp 車両用表示装置
JP2007221200A (ja) * 2006-02-14 2007-08-30 Auto Network Gijutsu Kenkyusho:Kk 車両周辺監視装置
JP2010130646A (ja) * 2008-12-01 2010-06-10 Aisin Seiki Co Ltd 車両周辺確認装置
JP2010198428A (ja) * 2009-02-26 2010-09-09 Alpine Electronics Inc 車載システム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10339809B2 (en) 2014-05-21 2019-07-02 Yazaki Corporation Safety confirmation assist device

Similar Documents

Publication Publication Date Title
JP5692403B2 (ja) 障害物警報装置
WO2013065341A1 (ja) 障害物警報装置
US10528825B2 (en) Information processing device, approaching object notification method, and program
US9396401B2 (en) Obstacle alarm device
JP5131152B2 (ja) 視覚支援装置
JP5861449B2 (ja) 障害物警報装置
JP5845909B2 (ja) 障害物警報装置
WO2013065325A1 (ja) 障害物警報装置
JP5660395B2 (ja) 障害物警報装置
JP2011087006A (ja) 車両用表示装置
JP5974476B2 (ja) 障害物警報装置
JP5787168B2 (ja) 障害物警報装置
JP5704416B2 (ja) 障害物警報装置
WO2013094496A1 (ja) 障害物警報装置
JP5754605B2 (ja) 障害物警報装置
JP5765576B2 (ja) 障害物警報装置
JP5674071B2 (ja) 障害物警報装置
JP5704417B2 (ja) 障害物警報装置
JP2013131178A (ja) 障害物警報装置
JP5765575B2 (ja) 撮影領域明示装置
JP5825091B2 (ja) 撮影領域明示装置
WO2013094345A1 (ja) 撮影領域明示装置

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 12860630

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 12860630

Country of ref document: EP

Kind code of ref document: A1