WO2017094269A1 - 測距システム、移動体及び部品 - Google Patents

測距システム、移動体及び部品 Download PDF

Info

Publication number
WO2017094269A1
WO2017094269A1 PCT/JP2016/057357 JP2016057357W WO2017094269A1 WO 2017094269 A1 WO2017094269 A1 WO 2017094269A1 JP 2016057357 W JP2016057357 W JP 2016057357W WO 2017094269 A1 WO2017094269 A1 WO 2017094269A1
Authority
WO
WIPO (PCT)
Prior art keywords
camera
distance measuring
measuring system
roof
cameras
Prior art date
Application number
PCT/JP2016/057357
Other languages
English (en)
French (fr)
Inventor
俊作 今木
幸輝 村尾
哲郎 野口
石田 健一
鈴木 正人
和将 大橋
Original Assignee
株式会社ソシオネクスト
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ソシオネクスト filed Critical 株式会社ソシオネクスト
Publication of WO2017094269A1 publication Critical patent/WO2017094269A1/ja
Priority to US15/994,117 priority Critical patent/US10663295B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • G01C3/08Use of electric radiation detectors
    • G01C3/085Use of electric radiation detectors with electronic parallax measurement
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C3/00Measuring distances in line of sight; Optical rangefinders
    • G01C3/02Details
    • G01C3/06Use of electric means to obtain final indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/207Image signal generators using stereoscopic image cameras using a single 2D image sensor
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/54Mounting of pick-up tubes, electronic image sensors, deviation or focusing coils
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N2013/0074Stereoscopic image analysis
    • H04N2013/0081Depth or disparity estimation from stereoscopic image signals

Definitions

  • the present invention relates to a ranging system, a moving body, and parts.
  • a distance measuring technique in which a parallax image when a subject is viewed from two different viewpoint positions is photographed, and a depth value of a specific area of the subject is calculated based on the parallax image.
  • a technique is known that uses an optical lens having a wide viewing angle (view angle), for example, a camera equipped with a fisheye lens, for imaging a subject from two viewpoint positions.
  • a distance measuring system provided on a moving body, the upper surface of the roof of the moving body or the upper surface of the upper edge of the door, or the parts provided on the roof or the upper edge.
  • a first camera that is provided at a first portion of the upper surface includes a first optical axis that is positioned above the upper surface and is directed above the upper surface, and has a field of view in all directions around the first optical axis;
  • a ranging system is provided that includes a second camera having a field of view.
  • the roof, the door, and the upper surface of the roof or the first portion of the upper surface of the upper edge of the door are located above the upper surface,
  • a first camera having a first optical axis directed upward and having a field of view in all directions around the first optical axis; and a second part different from the first part on the upper surface;
  • a moving body is provided that includes a second optical axis positioned above and having a second optical axis directed above the upper surface and having a field of view in all directions around the second optical axis.
  • the component is attached to the upper edge portion of the roof or door of the moving body, and is provided on the upper surface and the first portion of the upper surface, and is positioned above the upper surface.
  • a first camera having a first optical axis directed above the upper surface, having a field of view in all directions around the first optical axis, and a second portion different from the first portion of the upper surface
  • a component is provided that includes a second camera positioned above the top surface and having a second optical axis directed above the top surface and having a field of view in all directions around the second optical axis.
  • a ranging system capable of measuring a distance from all directions of a moving object with a pair of cameras is realized.
  • a mobile object equipped with such a distance measuring system and components that can be attached to the mobile object are realized.
  • FIG. 1 is a diagram illustrating an example of a distance measuring system according to the first embodiment.
  • FIG. 1 shows a schematic perspective view of an essential part of an example of a distance measuring system according to the first embodiment.
  • the ranging system 1 shown in FIG. 1 includes a pair of cameras 10.
  • the pair of cameras 10 are provided at different portions 21 a and 21 b of the upper surface 21 of the moving body 20.
  • a pair of cameras 10 is provided on the upper surface of the roof of a vehicle or the upper surface of a component attached to the roof.
  • the upper direction V may be a direction vertically upward with respect to the upper surface 21, or may be a vertically upward direction regardless of the upper surface 21.
  • the upper surface 21 of the moving body 20 shown in FIG. 1 is the entire upper surface of the moving body 20 or a part of the upper surface of the moving body 20.
  • the same type of camera is used for the pair of cameras 10.
  • the camera 10 includes an image sensor 11 and a lens 12.
  • the image sensor 11 is housed in a case 11A made of plastic, for example, and changes light incident through the lens 12 into an electrical signal.
  • a CCD (Charge-Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like is used as the image sensor 11, a CCD (Charge-Coupled Device) image sensor, a CMOS (Complementary Metal-Oxide Semiconductor) image sensor, or the like is used.
  • the lens 12 is an optical lens having a wide viewing angle such as a fisheye lens having a viewing angle of 180 degrees (°) or more.
  • the camera 10 including such an image sensor 11 and the lens 12 is provided on the upper surface 21 of the moving body 20 such that the optical axis 13 faces upward V.
  • the camera 10 is one of so-called omnidirectional cameras having a field of view in all directions around the optical axis 13.
  • the camera 10 may further include a cover 14 that covers the image sensor 11 and the lens 12 as shown in FIG. It is desirable that the cover 14 has high transparency.
  • a material such as acrylic is used for the cover 14.
  • FIG. 1 shows a dome-shaped cover 14 as an example.
  • the pair of cameras 10 is not limited to the same type of camera, but may be a combination of different types of cameras such as an infrared camera and a visible light camera.
  • the forward direction of the moving body 20 provided with the distance measuring system 1 may be the X direction shown in FIG. 1 or the Y direction. That is, the pair of cameras 10 of the ranging system 1 may be arranged on the front side and the rear side of the moving body 20 in the forward direction (in the Y direction), or the moving direction of the moving body 20 (in the X direction). May be arranged on the right side and the left side.
  • Various processes related to ranging in the ranging system 1 such as acquisition of an image by the pair of cameras 10 in the ranging system 1, acquisition of parallax from the image, and acquisition of distance based on the parallax are, for example, 1 It is implemented using a computer controlled by one or more processors.
  • the computer that executes various processes related to ranging may be included in the ranging system 1 or may be connected to the ranging system 1 by wired or wireless communication means. Good.
  • the pair of cameras 10 having a field of view in all directions around the optical axis 13 directed upward V that is, a pair of omnidirectional cameras, are provided on the upper surface 21 of the moving body 20.
  • this pair of cameras 10 an image of the surroundings of the moving body 20 (front and rear, right and left, all directions) is acquired.
  • a distance to a specific object existing around the moving body 20 can be obtained from the images of all directions of the moving body 20 acquired by the pair of cameras 10.
  • the distance measuring system 1 described above the distance to a specific object existing around the moving body 20 with a small number of cameras (two cameras 10 in this example) and the omnidirectional area of the moving body 20 as a distance measurement target. Can be requested. It is possible to realize the distance measuring system 1 that suppresses an increase in the number of parts, reduces costs and energy required for manufacturing, installation, and operation, and targets all directions of the moving body 20 as a distance measuring object.
  • FIG. 1 illustrates the distance measuring system 1 using the camera 10 having the wide viewing angle lens 12 such as a fisheye lens
  • the distance measuring system using the camera as shown in FIG. 2 can be used. .
  • FIG. 2 is a diagram showing another example of the camera according to the first embodiment.
  • FIG. 2A is a schematic perspective view of a main part of a first example of the camera according to the first embodiment.
  • FIG. 2B is a schematic perspective view of a main part of a second example of the camera according to the first embodiment.
  • a camera 10a shown in FIG. 2A includes an image sensor 11a, a lens 12a, and a mirror 15a.
  • the imaging element 11a is accommodated in the case 11A, for example.
  • a CCD image sensor, a CMOS image sensor, or the like is used for the imaging element 11a.
  • As the lens 12a a normal lens having a wide viewing angle such as a fisheye lens is used.
  • a paraboloidal, hemispherical or conical mirror 15a is arranged at a position facing the imaging element 11a and the lens 12a, with the convex side facing the lens 12 and supported by the support bar 16a.
  • the camera 10a as shown in FIG. 2A may be adopted instead of the pair of cameras 10 in the distance measuring system 1 shown in FIG.
  • each camera 10a is provided on the upper surface 21 of the moving body 20 so that the optical axis 13a faces upward V (FIG. 1).
  • V FIG. 1
  • the camera 10a shown in FIG. 2A light that is incident on and reflected by a parabolic, hemispherical, or conical mirror 15a and is incident on the image sensor 11a through the lens 12a is converted into an electrical signal.
  • An image around the camera 10a (omnidirectional) is acquired.
  • the camera 10a is one of omnidirectional cameras having a field of view in all directions around the optical axis 13a.
  • the camera 10b shown in FIG. 2B has a structure in which the space between the imaging element 11a and the lens 12a and the mirror 15a is covered with a dome-shaped cover 14b.
  • the cover 14b desirably has high transparency.
  • the support bar 16a as provided in the camera 10a in FIG. 2A can be provided in the same manner, but can be omitted as shown in FIG. 2B.
  • the camera 10b as shown in FIG. 2B may be adopted instead of the pair of cameras 10 in the distance measuring system 1 shown in FIG.
  • each camera 10b is provided on the upper surface 21 of the moving body 20 so that the optical axis 13a faces upward V (FIG. 1).
  • the camera 10b shown in FIG. 2B is also an omnidirectional camera, and light that is incident on the mirror 15a through the cover 14b, reflected, and incident on the image sensor 11a through the lens 12a is converted into an electrical signal. The image around the camera 10b (omnidirectional) is acquired.
  • the mirror 15a is supported by at least the outer edge portion thereof by the cover 14b, so that the displacement of the mirror 15a is suppressed, and light between the imaging element 11a, the lens 12a, and the mirror 15a is suppressed.
  • the shift of the shaft 13a is suppressed.
  • FIG. 2A acquires an image from light incident on the mirror 15a through the cover 14b in order to acquire an image from the light incident directly on the mirror 15a, the camera 10b in FIG. 2B. Compared to the above, an image with good image quality can be acquired.
  • FIG. 3 is a diagram showing an example of an image acquired by the distance measuring system according to the first embodiment.
  • FIG. 3A shows an example of an image acquired using the camera 10 shown in FIG.
  • FIG. 3B illustrates an example of an image acquired using the camera 10a illustrated in FIG.
  • FIG. 1 when a camera 10 having a wide viewing angle lens 12 and an optical axis 13 facing upward V as shown in FIG. 1 is used to image the outdoors, the left and right lenses 12 cause the image to appear in FIG.
  • the sky 31L and 31R are projected in the central portion, and the ground vicinity 32L and 32R are projected in the outer peripheral portion around them.
  • the vehicles 33L and 33R, the buildings 34L and 34R, the pedestrians 37L and 37R, the trees 38L and 38R, and a part of the moving body 20 reflected in the lens 12 35L and 35R are projected.
  • the portions 35L and 35R of the moving body 20 may be a portion of a housing in which the lens 12 is installed. Further, depending on the installation position of the lens 12 and the surrounding environment, the sky 31L and 31R, the vicinity of the ground 32L and 32R, the vehicles 33L and 33R, the buildings 34L and 34R, the pedestrians 37L and 37R, the trees 38L and 38R, or the moving body 20 The portions 35L and 35R may not be projected on the first image 30L and the second image 30R. In addition, in the first image 30L and the second image 30R acquired using the camera 10, the sky 31L and 31R are projected relatively large.
  • the first image 30L and the second image 30R are cases where the camera 10 is provided on each of the left and right sides with respect to the forward direction of the moving body 20, but the installation position of the camera 10 is determined as described later. Without limitation, the first image 30L and the second image 30R corresponding to the installation position are acquired.
  • FIG. 3 (B) shows an image 30a obtained when the camera 10a shown in FIG. 2 (A) is used.
  • the sky 31 the vicinity of the ground 32, the vehicle 33, the building 34, and a part 35 of the moving body 20 are shown.
  • the vehicle 33 may be a pedestrian or a tree.
  • the part 35 of the moving body 20 may be a part of a housing in which the camera 10a is installed.
  • FIG. 3B only one image 30a is shown in FIG. 3B, for example, when two cameras 10a are used, the first image and the second image can be acquired as in FIG. 3A. .
  • FIG. 4 is a normal image of the first image 30L and the second image 30R in FIG. 3A, and is used for distance measurement.
  • the first image 36L is a normal image of the first image 30L
  • the second image 36R is a normal image of the second image 30R.
  • the image 30a as shown in FIG. 3B is acquired as the first image and the second image as described above, a plurality of normalized images as shown in FIG. 4 are obtained.
  • the ranging object 39 is all the images captured by the image sensor 11 of the camera 10, for example, the vehicles 33L and 33R, buildings 34R and 34L, pedestrians 37L and 37R, trees 38L and 38R in FIG. Near the ground 32R and 32L, and other animals and structures on the road.
  • the distance measuring object 39 in the front direction or the rear direction in FIG. 4 for example, in the horizontal direction based on the parallax (parallax 36 in FIG. 4) between the position of the imaging 39 ⁇ / b> L projected on the first image and the position of the imaging 39 ⁇ / b> R.
  • Ranging is performed using the difference in coordinates (FIG. 5A).
  • the distance is measured using the difference between them (FIG. 5B).
  • the distance between each lateral direction and the rear direction, or between each lateral direction and the front direction is measured using both the principles shown in FIGS. 5 (A) and 5 (B). Also good.
  • various information based on the distance for example, an image indicating the distance to various objects existing in the field of view, information such as an alarm that is generated when the distance to an object is below a certain value, Output may be performed.
  • the camera 10 is superior in the adjustment of the optical axis 13 as compared with the camera 10a using the mirror 15a and the like, and the optical axis 13 is difficult to shift. Therefore, the camera 10 can stably acquire the first image 30L and the second image 30R with good image quality. Thereby, the parallax can be obtained with high accuracy such as measurement error and variation, and distance measurement can be performed.
  • the vicinity 32 on the ground is displayed relatively large. Even when the camera 10b shown in FIG. 2B is used, an image similar to that shown in FIG. 3B is acquired.
  • Such a group of images 30a acquired using a pair of cameras 10a is used to perform distance measurement. For example, when an object existing near the ground outdoors is a target for distance measurement, parallax is obtained for the ground vicinity 32 in the center of the image 30a, and distance measurement is performed based on the parallax. In this way, when an object existing near the ground outdoors is a target for distance measurement, if the ground vicinity 32 is projected relatively large as in the image 30a, the number of pixels used for obtaining the parallax is determined. As a result, the image sensor 11a can be effectively used.
  • FIG. 6 is a diagram illustrating an example of a result of distance measurement performed by the distance measuring system according to the first embodiment, and the front of the mobile object 20 is expressed upward in a manner looking down from above the mobile object 20. is doing.
  • the distance from the moving body 20 of the ranging object 39 around the moving body 20 can be acquired in all directions.
  • FIG. 7 is a diagram showing a first configuration example of a vehicle equipped with a distance measuring system according to the second embodiment.
  • FIGS. 7 (A) to 7 (C) show perspective schematic views of main parts of a first configuration example of a vehicle equipped with a distance measuring system according to the second embodiment.
  • the vehicle (automobile) 40A shown in FIG. 7A is described in the camera of the distance measuring system, for example, in the first embodiment, on the edge 41a on the front side of the roof 41 (the front side of the automobile 40A).
  • a distance measuring system 1 has a configuration in which a pair of left and right cameras 10 are provided.
  • the pair of cameras 10 are provided at two locations on the front edge 41a with each optical axis 13 (FIG. 1) facing the top of the roof 41.
  • the front, rear, left and right directions of the automobile 40 ⁇ / b> A are subject to distance measurement.
  • the distance measuring system 1 in which the pair of cameras 10 are provided on the front edge 41a measures the distance of various objects existing around the automobile 40A.
  • the pair of cameras 10 may be provided at the upper edge portions of the left and right doors of the automobile 40A.
  • a vehicle (automobile) 40B shown in FIG. 7B has a camera of the distance measuring system 1 described in the first embodiment, for example, on the edge 41b on the rear side of the roof 41 (the rear side of the automobile 40B).
  • 10 has a configuration in which a pair of left and right are provided.
  • the pair of cameras 10 are provided at two locations on the rear edge 41b with the respective optical axes 13 (FIG. 1) facing the roof 41.
  • the pair of cameras 10 all the front and rear directions of the automobile 40 ⁇ / b> B are subject to distance measurement.
  • the distance measuring system 1 in which the pair of cameras 10 are provided on the rear edge 41b performs distance measurement on various objects existing around the automobile 40B.
  • the pair of cameras 10 may be provided on the upper surface of the upper edge of the hatchback door.
  • the vehicle (automobile) 40C shown in FIG. 7C has, for example, the distance measurement described in the first embodiment on the left and right edges 41c of the roof 41 on the center line 42 in the left-right direction of the automobile 40C.
  • the system 1 is provided with a pair of cameras 10.
  • the pair of cameras 10 are provided at two locations on the left and right edge portions 41 c with each optical axis 13 (FIG. 1) facing the top of the roof 41.
  • the pair of cameras 10 all the front, rear, left and right directions of the automobile 40 ⁇ / b> C are set as distance measurement targets.
  • the distance measuring system 1 in which the pair of cameras 10 are provided on the left and right edge portions 41c measures the distances of various objects existing around the automobile 40C.
  • the pair of cameras 10 may be provided on the upper edge portions of the left and right doors of the automobile 40C.
  • FIG. 8 is a diagram illustrating a second configuration example of the vehicle equipped with a distance measuring system according to the second embodiment.
  • FIGS. 8A to 8C are perspective schematic views of main parts of a second configuration example of a vehicle equipped with a distance measuring system according to the second embodiment.
  • a vehicle (automobile) 40D shown in FIG. 8A has, for example, the above-described first edge on the front edge 41a and the rear edge 41b of the roof 41 on the center line 43 in the straight direction of the automobile 40D.
  • the camera 10 of the distance measuring system 1 described in the embodiment is provided.
  • the pair of cameras 10 are provided at two locations, a front edge 41 a and a rear edge 41 b on the center line 43 with each optical axis 13 (FIG. 1) facing the roof 41.
  • the pair of cameras 10 all the front, rear, left and right directions of the automobile 40 ⁇ / b> D are subject to distance measurement.
  • the pair of cameras 10 are provided on the front edge 41a and the rear edge 41b on the central line 43, various objects existing around the automobile 40D can be measured. Is done.
  • a vehicle (automobile) 40E shown in FIG. 8B has a roof 41 with a front edge 41a and a rear edge 41b that are shifted to the left from a center line 43 in the straight direction of the automobile 40E.
  • the camera 10 of the distance measuring system 1 described in the first embodiment is provided.
  • the pair of cameras 10 has two positions of a front edge 41a and a rear edge 41b that are shifted to the left from the center line 43 with the respective optical axes 13 (FIG. 1) directed upward of the roof 41. Is provided.
  • the pair of cameras 10 all the front, rear, left and right directions of the automobile 40 ⁇ / b> E are subject to distance measurement.
  • Distance measurement is performed.
  • a vehicle (automobile) 40F shown in FIG. 8C has a roof 41 with a front side edge 41a and a rear side edge 41b that are shifted to the right from the center line 43 in the straight direction of the automobile 40F.
  • the camera 10 of the distance measuring system 1 described in the first embodiment is provided. Even in the case where the camera 10 is provided in this way, all the front, rear, left and right directions of the automobile 40F are subject to distance measurement, and distance measurement is performed on various objects existing around the object.
  • the blind spot on the side opposite to the driver's seat side tends to be large. If a pair of cameras 10 are provided on the side opposite to the driver's seat side with respect to the center line 43, a relatively large amount of information about the side (images, distances to various objects, etc.) can be acquired.
  • one of the pair of cameras 10 is an upper surface of the upper edge portion of the hatchback door. May be provided. Further, the pair of cameras 10 may be provided at the upper edge of either the left or right door of the automobile 40E or 40F.
  • FIG. 9 is a diagram illustrating a third configuration example of the vehicle equipped with the distance measuring system according to the second embodiment.
  • FIGS. 9A and 9B are perspective schematic views of main parts of a third configuration example of the vehicle with a distance measuring system according to the second embodiment, respectively.
  • a vehicle (automobile) 40G shown in FIG. 9A has a distance measuring camera, for example, a measurement as described in the first embodiment, on left and right edges 44a of a rear spoiler 44 attached to a roof 41 thereof.
  • the distance system 1 is provided with a pair of cameras 10.
  • the pair of cameras 10 are provided at two locations on the left and right edge portions 44 a with each optical axis 13 (FIG. 1) facing above the rear spoiler 44.
  • the front, rear, left and right directions of the automobile 40 ⁇ / b> G are subject to distance measurement.
  • the distance measuring system 1 in which the rear spoiler 44 is provided with the pair of cameras 10 also performs distance measurement on various objects existing around the automobile 40G.
  • a vehicle (automobile) 40H shown in FIG. 9B includes a rear spoiler 45 having a shape in which left and right end portions 45b are higher than a central portion 45a.
  • a pair of cameras 10 are provided on the left and right end portions 45b of the rear spoiler 45 which are raised. With this pair of cameras 10, the front, rear, left and right directions of the automobile 40 ⁇ / b> H are subject to distance measurement, and distance measurement is performed for various objects existing around the object.
  • the end portion 45b is positioned higher than the roof 41, and the camera 10 is provided at such an end portion 45b, so that the reflection of the automobile 40H itself is reflected. It becomes easier to acquire information around the automobile 40H.
  • the rear spoiler 44 or 45 is provided on the upper surface of the upper edge of the hatchback door. May be.
  • the pair of cameras 10 of the distance measuring system 1 may be provided on a part attached to the roof 41 of the automobile 40G or the automobile 40H such as the rear spoiler 44 or the rear wing.
  • the parts provided with the distance measuring system 1 may be attached to the automobile 40G and the automobile 40H as optional parts.
  • the attachment position is not limited to the rear of the roofs of the automobiles 40G and 40H, and may be, for example, in front of the roof or near the center.
  • FIG. 10 is an explanatory diagram of components according to the second embodiment.
  • FIG. 10 (A) shows a schematic perspective view of the main part of the component before mounting
  • FIG. 10 (B) shows a schematic perspective view of the main part of the automobile to which the component is attached or removed.
  • a rear spoiler 44 in which a pair of cameras 10 are provided on the left and right edges 44a is prepared in advance as an optional part that can be attached to the roof 41 of the automobile 40G.
  • a rear spoiler 44 is attached to a rear edge 41b of the roof 41 of the automobile 40G by a predetermined method (solid line thick arrow).
  • the rear spoiler 44 may be detached from the automobile 40G after being attached (dotted thick arrow).
  • the rear spoiler 44 (FIG. 9A) provided with the distance measuring system 1 can be an optional part that can be attached and detached. The same applies to the rear spoiler 45 (FIG. 9B).
  • FIG. 11 is a diagram illustrating a fourth configuration example of a vehicle equipped with a distance measuring system according to the second embodiment.
  • FIGS. 11A to 11C are perspective schematic views of main parts of a fourth configuration example of the vehicle equipped with a distance measuring system according to the second embodiment.
  • a vehicle (automobile) 40I shown in FIG. 11A includes a pair of left and right roof rails (roof racks) 46 provided on the roof 41 thereof.
  • the pair of cameras 10 of the distance measuring system 1 as described in the first embodiment is provided at the edge 46a on the front side (front side of the automobile 40I) of the pair of left and right roof rails 46.
  • the pair of cameras 10 are provided with their respective optical axes 13 (FIG. 1) facing the top of the roof 41, and the pair of cameras 10 make distance measurement targets in all the front, rear, left and right directions of the automobile 40I. With such a distance measuring system 1, distance measurement is performed on various objects existing around the automobile 40I.
  • a vehicle (automobile) 40J shown in FIG. 11B has a distance measurement as described in the first embodiment on the edge 46b on the rear side (the rear side of the automobile 40J) of the pair of left and right roof rails 46.
  • a pair of cameras 10 of the system 1 are provided. As described above, the distance measuring system 1 provided with the pair of cameras 10 performs distance measurement on various objects existing around the automobile 40J.
  • a vehicle (automobile) 40K shown in FIG. 11C is described in the first embodiment in an intermediate portion 46c between a front edge 46a and a rear edge 46b of a pair of left and right roof rails 46.
  • a pair of cameras 10 of the distance measuring system 1 as described above are provided. As described above, the distance measuring system 1 provided with the pair of cameras 10 measures the distance of various objects existing around the automobile 40K.
  • information about a predetermined direction in which the reflection of the roof 41 is suppressed, such as front, rear, left and right, depending on the position of the pair of cameras 10 on the roof rail 46. Relatively many can be acquired.
  • FIG. 12 is a diagram illustrating a fifth configuration example of a vehicle equipped with a distance measuring system according to the second embodiment.
  • FIG. 12 shows a perspective schematic view of the relevant part of a fifth configuration example of the vehicle equipped with a distance measuring system according to the second embodiment.
  • the 12 includes a roof carrier 47 attached to a roof rail 46.
  • the pair of cameras 10 of the distance measuring system 1 as described in the first embodiment are provided on the left and right edges 47a of the roof carrier 47.
  • the pair of cameras 10 are provided with their respective optical axes 13 (FIG. 1) facing the top of the roof 41, and the pair of cameras 10 make distance measurement targets in all the front, rear, left and right directions of the automobile 40 ⁇ / b> L. With such a distance measuring system 1, distance measurement is performed on various objects existing around the automobile 40L.
  • the pair of cameras 10 of the distance measuring system 1 can be provided on a roof carrier 47 that is attached to the roof rail 46 later and can be removed. Further, by changing the position of the roof carrier 47 on the roof rail 46 (represented by a thick arrow in FIG. 12 for the sake of convenience), the pair of cameras 10 of the distance measuring system 1 are provided closer to the front of the automobile 40L or closer to the rear. It is also possible to provide in the middle of them.
  • the ranging system 1 can be mounted while suppressing the original design of the automobile from being impaired. Furthermore, by using the camera 10 as a portion protruding from the roof 41, the rear spoilers 44 and 45, the roof rail 46, or the roof carrier 47, the air resistance during travel of the automobiles 40A to 40L due to the provision of the distance measuring system 1 can be suppressed. it can.
  • the ranging system 1 when the ranging system 1 is incorporated into optional parts such as the rear spoiler 44, for example, when the ranging system 1 is mounted as a manufacturer option, the mounting process can be separated from the assembly process of the automobile body. Therefore, complication of the manufacturing process can be suppressed.
  • the distance measuring system 1 When installing the distance measuring system 1 after a dealer option or purchase, it is sufficient to install optional parts such as the rear spoiler 44 in which the distance measuring system 1 is incorporated in the automobile.
  • the attachment of the individual cameras 10 to the rear spoiler 44 and the like, the adjustment of the optical axes 13 thereof, and the position adjustment between the pair of cameras 10 can be omitted, and the complexity of the work process can be suppressed.
  • the automobiles 40A to 40L mounted with the distance measuring system 1 using the camera 10 as shown in FIG. 1 described in the first embodiment are illustrated.
  • Various automobiles mounted according to the examples of FIG. 11 can be similarly realized.
  • vehicles that can be equipped with the ranging system 1 and the like include large vehicles such as trucks and buses, snowplows, excavators, combine vehicles such as combine vehicles, and agricultural vehicles. Also included are one- or two-seater ultra-compact mobility, various motorcycles such as motorcycles and motorbikes, tricycles, light vehicles such as bicycles, wheelchairs, trains such as trains and monorails, and the like.
  • a pair of cameras such as the camera 10 is provided on the top surface of a high place originally provided for each vehicle or a top surface provided separately at a high position, thereby realizing the ranging system 1 and the like.
  • FIG. 13 is a diagram illustrating an example of a distance measuring system according to the third embodiment.
  • FIG. 13 is a schematic perspective view of a main part of an example of a distance measuring system according to the third embodiment.
  • the pair of cameras 10 of the distance measuring system 1 are connected to each other by a common connecting body (frame) 50 as shown in FIG.
  • a frame 50 for example, a plate-shaped member as shown in FIG. 13 is used.
  • the frame 50 may be a rod-like one in addition to a plate-like one.
  • a pair of cameras 10 of the distance measuring system 1 (FIG. 1) described in the first embodiment are fixed to the opposite end portions 51 of the frame 50, respectively.
  • the pair of cameras 10 connected by the frame 50 can be accurately aligned with each other, and the displacement of the mutual positional relationship can be effectively suppressed even after the alignment.
  • stereo distance measurement is a technique for comparing the mapping of one camera with the mapping of the other camera and obtaining the distance from the shift amount (parallax value) of the coordinates of the measurement object indicated in each mapping. It is. Therefore, it is desirable that the pair of cameras be attached and maintained with high accuracy. Therefore, even when the distance measuring system 1 is first mounted on the moving body 20 such as a vehicle, even if the pair of cameras 10 are in an appropriate positional relationship, the movement or shaking of the moving body 20 after the distance measuring system 1 is mounted. When the positional relationship is deviated, it is difficult to perform distance measurement with high accuracy such as measurement error and variation and high reliability.
  • FIG. 14 is a diagram illustrating an example of a vehicle equipped with a distance measuring system according to the third embodiment.
  • FIG. 14A is a schematic perspective view of a main part of a first configuration example of a vehicle equipped with a distance measuring system according to the third embodiment.
  • FIG. 14B is a schematic perspective view of a main part of a second configuration example of the vehicle equipped with a distance measuring system according to the third embodiment.
  • the ranging system 1 (FIG. 1) described in the first embodiment is mounted is taken as an example.
  • a frame 50 that couples a pair of cameras 10 is housed and fixed inside a roof 41 of a vehicle (automobile) 40M.
  • the pair of cameras 10 connected by the frame 50 is provided outside the roof 41.
  • the distance measuring system 1 provided with the pair of cameras 10 performs distance measurement on various objects existing around the automobile 40M.
  • the pair of cameras 10 are connected by the frame 50 on the inner side of the roof 41, the positional relationship is prevented from being shifted, and distance measurement with excellent accuracy and reliability such as measurement error and variation is realized.
  • the frame 50 is housed inside the roof 41 so that the pair of cameras 10 are positioned at the left and right edge portions 41c on the center line 42.
  • the front edge portion 41a and the rear side edge portion 41c are shown.
  • the pair of cameras 10 can be accommodated in the edge portion 41b.
  • the frame 50 can be accommodated inside the roof 41 so that the pair of cameras 10 are located on the edge 41a on the front side and the edge 41b on the rear side.
  • a frame 50 that couples the pair of cameras 10 may be housed and fixed inside a rear spoiler 44 attached to the roof 41 of a vehicle (automobile) 40N. At this time, the pair of cameras 10 connected by the frame 50 is provided outside the rear spoiler 44. As described above, the distance measuring system 1 provided with the pair of cameras 10 measures the distance of various objects existing around the automobile 40N. Further, since the pair of cameras 10 are connected by the frame 50 on the inner side of the rear spoiler 44, the positional relationship is prevented from being shifted, and distance measurement with excellent accuracy and reliability such as measurement error and variation is realized.
  • the distance measuring system 1 provided with the pair of cameras 10 measures the distance of various objects existing around the automobile 40N. Further, since the pair of cameras 10 are connected by the frame 50 on the inner side of the rear spoiler 44, the positional relationship is prevented from being shifted, and distance measurement with excellent accuracy and reliability such as measurement error and variation is realized.
  • the automobiles 40M and 40N equipped with the distance measuring system 1 including the pair of cameras 10 as shown in FIG. 1 connected by the frame 50 and the pair of cameras 10 connected by the frame 50 are provided. Illustrated.
  • a pair of cameras 10a as shown in FIG. 2A connected by a frame 50 and a ranging system including the same are mounted according to the example of FIG. 14A or FIG. 14B.
  • Various automobiles can be similarly realized.
  • a pair of cameras 10b as shown in FIG. 2B connected by a frame 50, and various distance measurement systems including the same are mounted according to the example of FIG. 14A or FIG. 14B.
  • An automobile can be similarly realized.
  • FIG. 15 is a diagram illustrating an example of a distance measuring system according to the fourth embodiment.
  • FIG. 15 shows a schematic perspective view of an essential part of an example of a distance measuring system according to the fourth embodiment.
  • the distance measuring system 1A shown in FIG. 15 includes a pair of shark fin-like supports 17 protruding from the upper surface 21 of the moving body 20.
  • the distance measuring system 1A shown in FIG. For example, the cameras 10 as shown in FIG. 1 are provided at the distal end portions 17a of the pair of support bodies 17, respectively.
  • the distance measuring system 1A shown in FIG. 15 is different from the distance measuring system 1 according to the first embodiment in this respect.
  • a distance measuring system 1A is realized in which the cameras 10 are provided at the tip portions 17a of the pair of support bodies 17 and the pair of cameras 10 are provided above the different portions 21a and 21b of the upper surface 21.
  • the camera 10 is held by the support 17 with its optical axis 13 facing upward V.
  • the distance measurement system 1A holding the pair of cameras 10 performs distance measurement on various objects existing around the moving body 20.
  • the forward direction of the moving body 20 is preferably the X direction shown in FIG. 15 from the viewpoint of suppressing the air resistance received by the support body 17 during movement, but is not limited thereto.
  • the support member 17 protruding from the upper surface 21 of the moving body 20 is curved so that a space 17 b is formed between the distal end portion 17 a and the upper surface 21 of the moving body 20. It has a shark fin shape.
  • the camera 10 is provided at the distal end portion 17a of the shark fin-like support body 17 as described above.
  • the camera 10 is held at a higher position than the upper surface 21 of the moving body 20 by being provided at the distal end portion 17 a of the support body 17. Thereby, the ratio of the moving body 20 reflected in the image acquired by each camera 10 can be reduced, and information around the moving body 20 can be more easily acquired.
  • the space 17b under the camera 10 the blind spot hidden by the support 17 on the side of the other camera 10 and the support 17 in the image acquired by the one camera 10 is reduced and moved. A lot of information around the body 20 can be acquired.
  • FIG. 16 is an explanatory view of a blind spot by the support according to the fourth embodiment.
  • FIGS. 16A and 16B schematically show a state in which the camera 10 and the support 17 side are copied from one camera 10.
  • FIG. 16A shows the case where the space 17b is not provided between the distal end portion 17a of the support body 17 and the upper surface 21 of the moving body 20, and
  • FIG. 16B shows the case where the space 17b is provided. , Respectively.
  • the camera 10 and the support 17 are moved from one camera 10 to the other.
  • a blind spot is generated by the support 17. Therefore, even if one camera 10 does not show the object 60 that should exist beyond the other camera 10 and the support body 17 and the object 60 appears in the other camera 10, In the method of measuring the distance from the image of the camera 10, information on the object 60 cannot be obtained.
  • FIG. 16B if there is a space 17b between the tip 17a of the support 17 and the upper surface 21 of the moving body 20, from one camera 10 to the other camera 10 and the support.
  • the 17 side is photographed, at least a part of the object 60 is photographed in the space 17b. Therefore, information on the object 60 can be obtained from the images of the one camera 10 and the other camera 10 in which the object 60 is captured.
  • the ranging system 1A by providing the space 17b between the distal end portion 17a of the support body 17 and the upper surface 21 of the moving body 20, the blind spot by the support body 17 is reduced, and information around the moving body 20 is obtained. It is possible to get more.
  • the distance measuring system 1A according to the fourth embodiment can be mounted on various vehicles.
  • the support 17 and the camera 10 of the distance measuring system 1A are, for example, the examples of FIGS. 7A to 7C and FIGS. 8A to 8C described in the second embodiment. And can be provided on the roof 41 of the automobile. Further, as described in the second embodiment, the support 17 and the camera 10 may be provided diagonally on the roof 41 of the automobile, or when the automobile has a hatchback type door at the rear. You may provide in the upper edge part of the door.
  • the support body 17 and the camera 10 of the ranging system 1A are provided on the parts attached to the roof, such as the rear spoilers 44 and 45, in accordance with the example of FIGS. 9A and 9B described in the second embodiment. You can also.
  • rear spoilers 44 and 45 to which the support body 17 and the camera 10 of the ranging system 1A are attached are mounted on the automobile according to the example of FIGS. 10A and 10B described in the second embodiment. It can also be prepared in advance as an optional part that can be attached and attached or removed.
  • the support body 17 and the camera 10 of the ranging system 1A are provided on the roof rail 46 in accordance with the example of FIGS. 11A to 11C described in the second embodiment, or the example of FIG. Accordingly, it can be provided on the roof carrier 47 attached to the roof rail 46.
  • a pair of support bodies 17 holding the camera 10 are connected by a frame 50 according to the example of FIG. 13 described in the third embodiment, and a pair of support bodies 17 are connected. You may make it suppress the position shift which arises between these cameras 10.
  • FIG. 1A a pair of support bodies 17 holding the camera 10 are connected by a frame 50 according to the example of FIG. 13 described in the third embodiment, and a pair of support bodies 17 are connected. You may make it suppress the position shift which arises between these cameras 10.
  • the frame 50 that couples the pair of supports 17 that hold the camera 10 can be housed inside various vehicles such as an automobile.
  • the frame 50 is housed inside the roof 41 of the automobile according to the example of FIG. 14A described in the third embodiment, and is connected by the frame 50.
  • the pair of supports 17 are projected from the roof 41.
  • the camera 10 is provided at the front end portion 17a of the support body 17 protruding from the roof 41.
  • the frame 50 is accommodated inside the rear spoiler 44 attached to the roof 41 of the automobile, and the pair of supports 17 connected by the frame 50. Project from the rear spoiler 44.
  • the camera 10 is provided at the distal end portion 17a of the support body 17 protruding from the rear spoiler 44.
  • a camera 10a as shown in FIG. 2A or a camera 10b as shown in FIG. 2B may be provided at the tip 17a of the support 17. Even when the camera 10a or the camera 10b is provided at the distal end portion 17a of the support member 17, the same effects as those obtained when the camera 10 is provided can be obtained.
  • FIG. 17 is a diagram illustrating an example of a distance measuring system according to the fifth embodiment.
  • FIG. 17 is a schematic perspective view of a main part of an example of a distance measuring system according to the fifth embodiment.
  • the distance measuring system 1B shown in FIG. 17 includes a pair of columnar supports 18 projecting from the upper surface 21 of the moving body 20.
  • the distance measuring system 1B shown in FIG. For example, the cameras 10 as shown in FIG. 1 are provided at the tip portions 18a of the pair of support bodies 18, respectively.
  • the distance measuring system 1B shown in FIG. 17 is different from the distance measuring system 1 according to the first embodiment in this respect.
  • a distance measuring system 1B is realized in which the cameras 10 are provided at the tip portions 18a of the pair of support bodies 18 and the pair of cameras 10 are provided above the different portions 21a and 21b of the upper surface 21, respectively.
  • the camera 10 is held by a support 18 with its optical axis 13 facing upward V.
  • distance measurement is performed on various objects existing around the moving body 20 by the distance measuring system 1B in which the pair of cameras 10 are held.
  • the forward direction of the moving body 20 may be the X direction shown in FIG. 17 or the Y direction.
  • 90 °
  • a blind spot is formed and exists around the moving body 20. Note that the object detection range may be narrowed.
  • FIG. 18 is an explanatory diagram of a blind spot by the support according to the fifth embodiment.
  • FIGS. 18A and 18B schematically show a state in which the camera 10 and the support 18 side are copied from one camera 10.
  • FIG. 18A shows the case where the support 18 is standing upright
  • FIG. 18B shows the case where the support 18 is inclined obliquely.
  • the situation shown in FIG. 18B can be created when the camera 10 and the support 18 side are copied from one camera 10. That is, as shown in FIG. 18B, at least a part of an object 61 such as an upright person or an obstacle (a person is shown as an example) is not hidden by the support 18 of the other camera 10. A situation like this can be created. As a result, at least a part of the object 61 that is not hidden by the support 18 (at least a part of the contour line in the vertical direction of the object 61) is captured, and the other image on the object 61 side where it is captured. Information on the object 61 can be obtained from the image of the camera 10.
  • the columnar support 18 can have an angle ⁇ (FIG. 17) with respect to the upper surface 21 in a range of more than 0 degrees and less than 90 degrees (0 ° ⁇ ⁇ 90 °). Furthermore, from the viewpoint of the blind spot as shown in FIG. 18A, it is preferable that the angle ⁇ (FIG. 17) with respect to the upper surface 21 is in the range of 20 degrees to 70 degrees (20 ° ⁇ ⁇ 70 °).
  • the height of the camera 10 is set based on a detection range required by the distance measuring system 1B.
  • FIG. 19 is an explanatory diagram of the height of the camera according to the fifth embodiment.
  • a case where the columnar support 18 that holds the camera 10 is provided on the roof 41 of the automobile 40P is taken as an example.
  • the height H1 of the camera 10 from the roof 41 is set from the distance L1 from the camera 10 to the end of the roof 41, the distance L2 of the detection range, and the height H2.
  • the height H1 of the camera 10 is 15 cm due to the similar relationship between the triangle T1 and the triangle T2. It becomes.
  • the length of the support 18 that holds the camera 10 is determined from the height H1 of the camera 10 set in this way and the angle ⁇ of the support 18 with respect to the vertically upward V.
  • the distance measuring system 1B according to the fifth embodiment can be mounted on various vehicles.
  • the support 18 and the camera 10 of the distance measuring system 1B are shown in FIGS. 7A to 7C and FIGS. 8A to 8C described in the second embodiment.
  • And can be provided on the roof 41 of the automobile.
  • the support 18 and the camera 10 may be provided diagonally on the roof 41 of the automobile, or when the automobile has a hatchback type door at the rear. You may provide in the upper edge part of the door.
  • the support 18 and the camera 10 of the ranging system 1B are provided on the parts attached to the roof, such as the rear spoilers 44 and 45, in accordance with the example of FIGS. 9A and 9B described in the second embodiment. You can also.
  • rear spoilers 44 and 45 to which the support 18 and the camera 10 of the ranging system 1B are attached are mounted on the automobile according to the example of FIGS. 10A and 10B described in the second embodiment. It can also be prepared in advance as an optional part that can be attached and attached or removed.
  • the support 18 and the camera 10 of the distance measuring system 1B are provided on the roof rail 46 according to the example of FIGS. 11A to 11C described in the second embodiment, or the example of FIG. Accordingly, it can be provided on the roof carrier 47 attached to the roof rail 46.
  • a pair of support bodies 18 holding the camera 10 are connected by a frame 50 according to the example of FIG. 13 described in the third embodiment, and a pair of support bodies 18 are connected. You may make it suppress the position shift which arises between these cameras 10.
  • the frame 50 that connects the pair of support bodies 18 that hold the camera 10 can be housed inside various vehicles such as an automobile.
  • the frame 50 is housed inside the roof 41 of the automobile according to the example of FIG. 14A described in the third embodiment, and is connected by the frame 50.
  • the pair of supports 18 are projected from the roof 41.
  • the camera 10 is provided at the front end portion 18a of the support 18 that protrudes from the roof 41.
  • the frame 50 is accommodated inside the rear spoiler 44 attached to the roof 41 of the automobile according to the example of FIG. 14B described in the third embodiment, and the pair of supports 18 connected by the frame 50. Project from the rear spoiler 44.
  • the camera 10 is provided at the tip end portion 18 a of the support 18 that protrudes from the rear spoiler 44.
  • a camera 10a as shown in FIG. 2A or a camera 10b as shown in FIG. 2B may be provided at the tip 18a of the support 18. Even when the camera 10a or the camera 10b is provided at the distal end portion 18a of the support 18, the same effects as those obtained when the camera 10 is provided can be obtained.
  • FIG. 20 is a diagram illustrating a first configuration example of an angle varying mechanism for a support according to the fifth embodiment.
  • FIGS. 20 (A) to 20 (C) show schematic side views of an essential part of an example of a support according to the fifth embodiment.
  • the support 18 includes a base 18b and a column 18c.
  • the base 18b is fixed to the upper surface 21 of the moving body 20, such as the roof of an automobile.
  • the support column 18c is supported by a shaft 18d provided in the base 18b, for example, and is rotatable about the shaft 18d.
  • the camera 10 is provided at the tip of the support column 18c (tip 18a of the support 18).
  • the column 18c is tilted at a constant angle of less than 90 degrees from the upright position as shown in FIG. Adjustment to the position shown in FIG. 20C tilted by 90 degrees is possible by turning about the shaft 18d.
  • the rotation (angle adjustment) of the column 18c can be performed automatically or manually.
  • the angle of the support column 18c is variable by rotation, for example, a mechanism is provided to keep the direction of the optical axis 13 of the camera 10 above the upper surface 21 according to the rotation of the support column 18c.
  • the support 18c is set to various angles existing around the moving body 20 by the pair of cameras 10 with the optical axis 13 facing the upper surface 21 at any angle within the rotatable range. Distance measurement can be performed on an object.
  • the angle of the support column 18c is made variable by rotation, for example, a mechanism for fixing the support column 18c rotated to a certain angle at the angle is provided.
  • a mechanism for fixing the support column 18c rotated to a certain angle at the angle is provided.
  • the support column 18c is positioned as shown in FIG. 20A or 20B when in use (during distance measurement), and is shown when not used. Operation such as setting the position at 20 (C) is also possible.
  • FIG. 21 is a diagram illustrating a second configuration example of the angle varying mechanism of the support according to the fifth embodiment.
  • FIG. 21A is a schematic perspective view of a main part of an example of a support according to the fifth embodiment
  • FIG. 21B is an example of the support according to the fifth embodiment. The principal part side surface schematic diagram is shown.
  • the support columns 18c of a pair of support bodies 18 each having a base 18b and a support column 18c are connected by a shaft 55.
  • the base 18b is fixed to the upper surface 21 of the moving body 20, such as the roof of an automobile.
  • a shaft 55 that connects the pair of support columns 18c is rotatably accommodated inside the upper surface 21 of the moving body 20, such as the inside of the roof of an automobile.
  • the camera 10 is provided at the tip of the support column 18c (tip 18a of the support 18).
  • the angle of the support column 18c is adjusted by the rotation of the shaft 55.
  • the rotation of the shaft 55 can be performed automatically or manually.
  • the support 18 can also be provided with a mechanism for keeping the direction of the optical axis 13 of the camera 10 above the upper surface 21 according to the rotation of the shaft 55 and a mechanism for fixing the support column 18c at a constant angle.
  • the pair of struts 18c can be connected to the same angle by connecting the pair of struts 18c with the shaft 55 at the same time.
  • the shaft 55 has a function similar to that of the frame 50 described above, and it is possible to suppress a position (angle) shift between the pair of support columns 18c, that is, a position shift between the pair of cameras 10 provided at the tip portions thereof. It becomes possible.
  • FIG. 22 is a diagram illustrating a configuration example of a height varying mechanism for a support according to the fifth embodiment.
  • FIGS. 22A and 22B are schematic side views of an essential part of an example of a support according to the fifth embodiment.
  • the support 18 includes a base 18b and a support column 18c.
  • the base 18b is fixed to the upper surface 21 of the moving body 20, such as the roof of an automobile.
  • the support column 18c is configured to be variable in length by its own expansion and contraction.
  • the struts 18c in an expanded state are illustrated by dotted lines, and the struts 18c in a contracted state are illustrated by solid lines.
  • the extension of the column 18c can be performed automatically or manually.
  • the column 18c is configured such that the length thereof is shortened by being accommodated in the moving body 20, and the length is increased by protruding from the moving body 20. It can also be.
  • the support column 18c in a state of being protruded and extended from the moving body 20 is indicated by a dotted line
  • the support column 18c in a state of being accommodated in the moving body 20 and contracted is indicated by a solid line. Protrusion and accommodation (extension) of the column 18c can be performed automatically or manually.
  • the support 18 provided with the variable angle mechanism as shown in FIGS. 20 and 21 may be further provided with a variable length mechanism as shown in FIG.
  • a variable length mechanism as shown in FIG.
  • FIG. 23 is a diagram illustrating a configuration example of a support according to the sixth embodiment.
  • FIGS. 23A to 23C each show a schematic side view of an essential part of an example of a support according to the sixth embodiment, and
  • FIG. 23D shows the sixth embodiment.
  • the principal part perspective schematic diagram of an example of the support body which concerns on is shown.
  • the support 19A shown in FIG. 23A is provided on the upper surface 21 of the moving body 20, such as the roof of an automobile.
  • the support 19A includes two support columns 19Ac.
  • the camera 10 as shown in FIG. 1 is provided at the tip of these two support posts 19Ac (tip 19Aa of the support 19A).
  • the camera 10 is stably held by the two columns 19Ac.
  • the space between the two support columns 19Ac can suppress a situation in which an object such as an upright person or an obstacle is hidden when the image is taken from the camera 10 on the other support 19A side (not shown).
  • a support 19B shown in FIG. 23B is provided on the upper surface 21 of the moving body 20, and includes two curved support columns 19Bc.
  • the camera 10 as shown in FIG. 1 is provided at the tip of these two support columns 19Bc (tip 19Ba of the support 19B).
  • the camera 10 is stably held by the two columns 19Bc.
  • the two support columns 19Bc are curved, it is possible to suppress a situation in which an object such as an upright person or an obstacle is hidden when taken from the camera 10 on the other support body 19B (not shown). .
  • a support 19C shown in FIG. 23C is provided on the upper surface 21 of the moving body 20, and includes two bent columns 19Cc.
  • the camera 10 as shown in FIG. 1 is provided at the tip of these two support columns 19Cc (tip 19Ca of the support 19C).
  • the camera 10 is stably held by the two columns 19Cc.
  • the two support columns 19Cc are bent and formed in a rhombus in a side view, an object such as an upright person or an obstacle is hidden when taken from the camera 10 on the other support 19C side (not shown). The situation where it ends up is suppressed.
  • the support 19D shown in FIG. 23D is different from the support 19A shown in FIG. 23A in that the support 19D shown in FIG. 23D is provided on the upper surface 21 of the moving body 20 and includes three support posts 19Ac.
  • the camera 10 as shown in FIG. 1 is provided at the tip of these three support columns 19Ac (tip 19Da of the support 19D).
  • the camera 10 is stably held by the three columns 19Ac.
  • the number of support posts 19Ac that hold the camera 10 is not limited to two, and may be three, or four or more.
  • two or more curved support columns 19Bc can be provided for the support body 19B shown in FIG. 23B, and two or more bent support columns 19Cc can be provided for the support body 19C shown in FIG. Can be provided.
  • the supports 19A to 19D may be provided with a camera 10a as shown in FIG. 2A or a camera 10b as shown in FIG. 2B.
  • a transparent material such as acrylic may be used. When such a material is used, it is possible to acquire images of the other side of the supports 17, 18, 19 ⁇ / b> A to 19 ⁇ / b> D on the other side imaged by one camera 10, so that the range in which the distance can be measured is expanded. .
  • the support column 18c of the support 18 and the support columns 19Ac, 19Bc, and 19Cc of the support members 19A to 19D are made thinner, for example, thinner than the camera 10 to be held, they are hidden by the support columns 18c, 19Ac, 19Bc, and 19Cc. Since the area is reduced, the range that can be measured is expanded.
  • FIG. 24 is a diagram illustrating an example of a distance measuring system according to the seventh embodiment.
  • FIG. 25 is an image diagram of a vehicle equipped with a distance measuring system according to the seventh embodiment.
  • the distance measuring system 1 provided in the rear spoiler 44 of the automobile 40G as shown in FIG. 9A is taken as an example.
  • the distance measuring system 1 has a pair of cameras 10 provided on the left and right edges 44a of the rear spoiler 44 attached to the roof 41 of the automobile 40G.
  • the optical axis 13 (FIG. 1) of each camera 10 is directed above the rear spoiler 44.
  • the ranging system 1 further includes a space recognition processing unit 70 as shown in FIG.
  • the space recognition processing unit 70 includes an image input unit 71, an image output unit 72, a stereo distance measuring unit 73, and a surrounding object detection unit 74.
  • the image output unit 72 outputs the image information input to the image input unit 71 to a terminal (navigation terminal) 80 of a navigation system mounted on the automobile 40G.
  • the stereo distance measuring unit 73 uses both image information from the pair of cameras 10 input to the image input unit 71 to calculate the parallax of the specific area in the both image information, and based on the parallax to the specific area The distance is calculated.
  • the surrounding object detection unit 74 uses the distance information (distance information) calculated by the stereo distance measuring unit 73 to detect an object such as a person or an obstacle present around the automobile 40G.
  • Information of the object detected by the surrounding object detection unit 74 (detected object information) is output to an ADAS-ECU (Advanced Driver Assistance System System Electronic Control Unit) 81.
  • ADAS-ECU Advanced Driver Assistance System System Electronic Control Unit
  • the ADAS-ECU 81 uses the detected object information output from the surrounding object detection unit 74, or further uses information from various sensors 89 mounted on the automobile 40G to determine whether or not there is a dangerous situation. Based on the determination result, braking, turning, lighting or flashing of the dedicated LED lamp, etc. are performed.
  • information indicating the determination result of the ADAS-ECU 81 is output to the navigation terminal 80.
  • the navigation terminal 80 executes a process of superimposing judgment result information on information displayed on the monitor 82 or HUD (Head-Up Display) 83 as shown in FIG. 25, and outputs the processing result to the monitor 82 or HUD 83 by mapping. Or inform the driver by sound from the speaker 84.
  • FIG. 25 shows a state in which another automobile 40Q is approaching the left rear of the automobile 40G.
  • the detected object information output from the surrounding object detection unit 74 includes information on the automobile 40Q that approaches the left rear.
  • the navigation terminal 80 uses the determination result information of the ADAS-ECU 81 based on the detected object information, and displays, for example, a mark 100 or the like on the monitor 82 or the HUD 83 for the car 40Q approaching to the left rear.
  • the ADAS-ECU 81 generates an alarm sound 110 from the speaker 84 when detecting that the driver blinks the left blinker, for example, using information of the sensor 89 that detects blinking of the blinker.
  • the ADAS-ECU 81 uses the information of the sensor 89 that detects the steering angle of the steering wheel (steering) and detects that the driver has started to turn the steering wheel to the left, generates an appropriate torque to the steering wheel, Danger avoidance assistance, such as urging the driver to maintain a lane or performing braking 120 with a brake, is performed.
  • the processing functions of the space recognition processing unit 70, the ADAS-ECU 81, and the navigation terminal 80 of the ranging system 1 as described above can be realized using a computer controlled by one or more processors.
  • FIG. 26 to FIG. 31 below show configuration examples of the distance measuring system 1 according to the seventh embodiment and a vehicle (automobile) in which the distance measuring system 1 is mounted.
  • FIG. 26 is a diagram illustrating a first configuration example of a distance measuring system according to the seventh embodiment.
  • the distance measuring system 1 shown in FIG. 26 has a configuration in which a pair of cameras 10 are provided on the left and right edges 44 a of the rear spoiler 44, and the space recognition processing unit 70 as described above is provided inside the rear spoiler 44. .
  • Each of the pair of cameras 10 is connected to the space recognition processing unit 70 by a wiring 90.
  • the rear spoiler 44 is provided with a power supply terminal 91 for supplying power to the space recognition processing unit 70 and an information terminal 92 for outputting information from the space recognition processing unit 70 to the navigation terminal 80 and the ADAS-ECU 81.
  • FIG. 27 is a diagram illustrating a second configuration example of the distance measuring system according to the seventh embodiment.
  • the configuration in which the information terminal 92 is provided in the rear spoiler 44 is illustrated.
  • the rear spoiler 44 is provided with a communication unit 93 that performs wireless communication, and the space recognition is performed via the communication unit 93.
  • Information output from the processing unit 70 to the navigation terminal 80 and the ADAS-ECU 81 may be performed.
  • FIG. 28 is a diagram illustrating a third configuration example of the distance measuring system according to the seventh embodiment.
  • FIG. 28 shows an example of a distance measuring system 1B including a pair of cameras 10 that are held at a predetermined height from the upper surface of the rear spoiler 44 by the support 18 described in the fifth embodiment, for example. Yes.
  • the camera 10 By attaching the camera 10 to a higher position with the support 18, the field of view around the automobile 40G from the camera 10 is expanded, and the portion hidden by the roof 41 is reduced, so that the range that can be measured can be further expanded.
  • the camera 10 held by the support 18 is taken as an example.
  • the camera 10 is the same as the support 17 described in the fourth embodiment and the sixth embodiment. It may be held by the supports 19A to 19D as described. In these cases, similar effects can be obtained. Further, as described above, when a transparent material is used for the support 18 and the supports 17, 19A to 19D, the range in which the distance can be measured can be widened. Further, even if a transparent material is used for the rear spoiler 44, the same effect can be obtained.
  • FIG. 29 is a diagram illustrating a first configuration example of a vehicle equipped with a distance measuring system according to the seventh embodiment.
  • FIG. 29 shows an example of an automobile 40G including the distance measuring system 1 and the rear spoiler 44 as shown in FIG.
  • the automobile 40G further includes an information terminal 80a, a determination processing unit 81a, a turning control unit 84a, a brake control unit 85a, an accelerator control unit 88a, a heat sensor / vehicle speed sensor 89a, and a power source 86a.
  • the space recognition processing unit 70 of the ranging system 1 is connected to a power source 86a via a power source terminal 91.
  • the space recognition processing unit 70 is connected to the information terminal 80a, the determination processing unit 81a, and the like via the information terminal 92.
  • the information terminal 80a for example, a navigation terminal having a display unit is used.
  • a smart phone, a tablet terminal, a personal computer, a drive recorder, or a combination thereof may be used as the information terminal 80a.
  • an ADAS-ECU is used as the determination processing unit 81a.
  • the determination processing unit 81a is not limited to the ADAS-ECU, and various processors such as a microcontroller may be used.
  • various information (image information, distance information, detected object information, etc.) generated by the space recognition processing unit 70 of the distance measuring system 1 is recorded in the drive recorder. Is done. Thereby, for example, it is possible to acquire and record images until the automobile 40G comes into contact with an object such as a person or an obstacle around the automobile 40G. Since the distance is measured, the moving speed of the object up to the time of contact can be acquired, and highly reliable information can be left as evidence.
  • the determination processing unit 81a uses the detected object information output from the space recognition processing unit 70, and further uses the information of the thermal sensor / vehicle speed sensor 89a to determine whether the automobile 40G is in a dangerous situation. Execute the process. Based on the determination result, the information terminal 80a displays various information on a display unit such as a HUD. Further, the determination processing unit 81a performs processing for issuing an alarm from a speaker or the like, processing for controlling the brake control unit 85a so as to apply a brake, processing for controlling the steering with the turning control unit 84a so as to maintain or change the lane, deceleration Or the process etc. which control an accelerator with the accelerator control part 88a so that it may accelerate are performed.
  • FIG. 30 is a diagram illustrating a second configuration example of a vehicle equipped with a distance measuring system according to the seventh embodiment.
  • FIG. 30 shows an example of an automobile 40G including the distance measuring system 1 and the rear spoiler 44 as shown in FIG.
  • the automobile 40 ⁇ / b> G is provided with a communication unit 87 a that performs wireless communication 87 aa with the communication unit 93 provided in the rear spoiler 44.
  • the second configuration example shown in FIG. 30 is different from the first configuration example shown in FIG. 29 in that the wireless communication unit is used in this way.
  • a rear spoiler 44 may be provided at the upper edge of the door.
  • the camera 10 may be the camera 10a as shown in FIG. 2A or the camera 10b as shown in FIG. 2B.
  • a support for supporting the camera 10 or the like may be provided, and the support may have a shape as shown in FIGS.
  • FIG. 29 and 30 exemplify the automobile 40G in which the camera 10 of the distance measuring system 1 is provided in the rear spoiler 44, an example in which the camera 10 is provided on the roof 41 of the vehicle body is shown in FIG. 31 as a third configuration example. Show.
  • FIG. 31 is a diagram showing a third configuration example of the vehicle equipped with a distance measuring system according to the seventh embodiment.
  • an automobile 40B in which the camera 10 is provided at the rear edge 41b of the roof 41 as shown in FIG. 7B is taken as an example.
  • the space recognition processing unit 70 of the distance measuring system 1 is provided in the automobile 40B and is connected to the information terminal 80a, the determination processing unit 81a, and the like.
  • Other configurations can be the same as those of the automobile 40G of the first configuration example shown in FIG.
  • the communication unit 93 that outputs information from the space recognition processing unit 70 and the communication unit that performs wireless communication 87aa with the communication unit 93 in accordance with the example of FIG. 87a can be provided.
  • FIG. 31 shows an example in which the camera 10 is provided on the rear side of the roof 41, but the position of the camera 10 provided on the roof 41 is as shown in FIG. 7 (A), FIG. 7 (C), or FIG.
  • the camera 10 may be provided diagonally on the roof 41 of the automobile, or when the automobile has a hatchback-type door at the rear, You may provide in an edge.
  • the camera 10 may be provided on the roof rail 46 as shown in FIGS. 11A to 11C or the roof carrier 47 shown in FIG.
  • a camera 10a as shown in FIG. 2A or a camera 10b as shown in FIG. 2B may be used. It may be held by the support 17, the support 18 or the supports 19A to 19D as shown in FIG.
  • FIG. 32 is a diagram showing a first configuration example of a vehicle equipped with a distance measuring system according to the eighth embodiment.
  • FIG. 32 shows a perspective schematic view of the relevant part of a first configuration example of a vehicle equipped with a distance measuring system according to the eighth embodiment.
  • a vehicle (automobile) 40R shown in FIG. 32 has, for example, a camera 10 (10-1, 10-2, 10-3) held by the support 18 as described in the fifth embodiment described above on the roof 41. It includes a ranging system 1C provided at three locations. The cameras 10-1, 10-2, and 10-3 are each held by the support 18 with the optical axis 13 facing the upper side of the roof 41.
  • the parallax is obtained using the images of the camera 10-1 and the camera 10-2, and the parallax is obtained using the images of the camera 10-1 and the camera 10-3.
  • the parallax is obtained using the image 10-3.
  • combinations of cameras 10 for obtaining parallax are schematically shown by dotted arrows. Using these parallaxes, information such as distance is acquired for various objects existing around the automobile 40R.
  • each pair shares three areas around the vehicle 40R, so that such areas are assigned to another pair of cameras (for example, the camera 10-3 and the camera 10-1 or the camera 10-2). ) To obtain the parallax with high accuracy such as measurement error and variation. Thereby, it becomes possible to acquire information about various objects existing around the automobile 40R with excellent accuracy.
  • a pair of cameras 10 for example, camera 10-1 and camera 10-2
  • a different pair of cameras for example, camera 10-3 and camera 10-1 or Using the two types of distance measurement results of the camera 10-2)
  • the distance that can be measured from the vehicle 40R is increased, the accuracy of measurement errors and variations is improved, and the omnidirectional distance measurement is performed only in the area where the view is not obstructed by the roof 41 or the camera 10. Is also possible.
  • FIG. 33 is a diagram showing a second configuration example of the vehicle equipped with a distance measuring system according to the eighth embodiment.
  • FIG. 33 shows a perspective schematic view of the relevant part of a second configuration example of the vehicle equipped with a distance measuring system according to the eighth embodiment.
  • a vehicle (automobile) 40S shown in FIG. 33 includes a camera 10 (10-1, 10-2, 10-3, 10-4) held by the support 18 as described in the fifth embodiment, for example. Includes a ranging system 1D provided at the four corners of the roof 41. Each of the cameras 10-1, 10-2, 10-3, 10-4 is held by the support 18 with the optical axis 13 facing upward above the roof 41.
  • the parallax is obtained using the images of the camera 10-1 and the camera 10-2, and the parallax is obtained using the images of the camera 10-1 and the camera 10-3.
  • the parallax is obtained using the image 10-4, and the parallax is obtained using the images of the camera 10-3 and the camera 10-4.
  • the parallax for various objects is obtained by sharing the four areas around the vehicle 40S.
  • FIG. 33 a combination of the cameras 10 for obtaining the parallax is schematically illustrated by dotted arrows. Using these parallaxes, information such as distance is acquired for various objects existing around the automobile 40S.
  • the parallax can be obtained with high accuracy such as measurement error and variation, and information on various objects existing around the automobile 40S can be obtained with excellent accuracy. Is possible.
  • the distance that can be measured from the vehicle 40S is increased, the accuracy of measurement errors and variations is improved, and the omnidirectional distance measurement is performed only in the area where the view is not obstructed by the roof 41 or the camera 10. Is also possible.
  • the camera 10 is taken as an example, but the camera 10a as shown in FIG. 2A or the camera 10b as shown in FIG. 2B may be used. Good.
  • the camera 10 or the like is not limited to the support 18 and may be held by the support 17 or the supports 19A to 19D, or may be provided on the roof 41 without the support 18 or the like. At least a part of the camera 10 or the like may be provided on a component (such as the rear spoiler 44) attached to the roof 41.
  • the distance measuring system 1 and the like described above can be applied not only to vehicles but also to various moving objects. Examples of other moving bodies to which the ranging system 1 and the like (here, the ranging system 1 (FIG. 1) is applied as an example) are shown below.
  • FIG. 34 is a diagram illustrating a first application example.
  • FIGS. 34A and 34B are schematic side views of the main part of an example in which the distance measuring system 1 is applied to an aircraft 200 (moving body).
  • a pair of cameras 10 of the ranging system 1 are provided on the upper surface (e.g., the upper surface of a high place) of the aircraft 200.
  • the upper surface e.g., the upper surface of a high place
  • distance measurement can be performed in all upper directions of the aircraft 200.
  • a pair of cameras 10 of the ranging system 1 may be provided on the lower surface of the aircraft 200. As a result, distance measurement can be performed in all downward directions of the aircraft 200.
  • a pair of cameras 10 of the distance measuring system 1 may be provided on the upper surface and the lower surface of the aircraft 200, respectively, so that the upper omnidirectional and lower omnidirectional of the aircraft 200 can be the targets of distance measurement.
  • the distance measuring system 1 can be similarly applied to various flying objects such as helicopters and drones according to the example of FIG.
  • FIG. 35 is a diagram illustrating a second application example.
  • FIGS. 35A and 35B are schematic side views of main parts of an example in which the distance measuring system 1 is applied to a ship 300 (moving body).
  • a pair of cameras 10 of the distance measuring system 1 are provided on the upper surface (such as an upper surface of a high place) of the ship 300.
  • a configuration in which the camera 10 is supported by the support 18 is illustrated. Thereby, distance measurement about all directions of ship 300 is attained.
  • a pair of cameras 10 of the distance measuring system 1 can be provided on the bottom of the ship 300, and the underwater can be a target for distance measurement.
  • the distance measuring system 1 is not limited to the one that moves on the water like the ship 300 but can be similarly applied to one that moves in the water.
  • FIG. 36 is a diagram illustrating a third application example.
  • FIG. 36 shows a schematic front view of an essential part of an example in which the distance measuring system 1 is applied to a robot 400 (moving body).
  • a pair of cameras 10 of the distance measuring system 1 are provided on the upper surface (such as an upper surface of a high place) of the robot 400.
  • a configuration in which the camera 10 is supported by the support 18 is illustrated.
  • the distance measuring system 1 is not limited to a human type, but can be similarly applied to various types of robots such as household robots such as cleaning robots, industrial robots, and search robots.
  • FIG. 37 is a diagram illustrating a fourth application example.
  • FIG. 37 is a schematic perspective view of a main part of an example in which the distance measuring system 1 is applied to a personal mobility 500 (moving body).
  • the pair of cameras 10 of the distance measuring system 1 is provided on the upper surface of a high place of the personal mobility 500, for example, the upper surface of the support column 510.
  • distance measurement in all directions of the personal mobility 500 becomes possible.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Measurement Of Optical Distance (AREA)

Abstract

 一対のカメラで移動体の全方位について測距が可能な測距システムを実現する。 測距システム(1)は、一対のカメラ(10)を含み、移動体(20)の屋根や扉上縁部に設けられる。一方のカメラ(10)は、移動体(20)の屋根や扉上縁部の上面(21)の第1部位(21a)に設けられ、上面(21)の上方に向けられる光軸(13)を備え、その光軸(13)周りの全方位に視野を有する。他方のカメラ(10)は、移動体(20)の屋根や扉上縁部の上面(21)の、第1部位(21a)とは異なる第2部位(21b)に設けられ、上面(21)の上方に向けられる光軸(13)を備え、その光軸(13)周りの全方位に視野を有する。このような一対のカメラ(10)が用いられ、移動体(20)の全方位について測距が行われる。

Description

測距システム、移動体及び部品
 本発明は、測距システム、移動体及び部品に関する。
 異なる2つの視点位置から被写体を見た場合の視差画像を撮影し、その視差画像に基づき、被写体の特定領域の奥行き値を算出する測距技術が知られている。2つの視点位置からの被写体の撮像に、視野角(画角)の広い光学レンズ、例えば、魚眼レンズを備えたカメラを用いる技術が知られている。
特開2001-141422号公報 国際公開第WO2013/165006号パンフレット
 上記の測距技術を車両等の移動体に採用する場合、移動体の前後左右の全方位を測距対象にしようとすると、例えば移動体の前後左右にそれぞれ一対ずつカメラを設けることになる等、移動体に設けるカメラ数が増大してしまう。
 本発明の一観点によれば、移動体に設けられる測距システムであって、前記移動体の屋根の上面若しくは扉の上縁部の上面、又は前記屋根若しくは前記上縁部に設けられる部品の上面の第1部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第1光軸を備え、前記第1光軸周りの全方位に視野を有する第1カメラと、前記上面の前記第1部位とは異なる第2部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第2光軸を備え、前記第2光軸周りの全方位に視野を有する第2カメラとを含む測距システムが提供される。
 また、本発明の一観点によれば、屋根と、扉と、前記屋根の上面又は前記扉の上縁部の上面の第1部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第1光軸を備え、前記第1光軸周りの全方位に視野を有する第1カメラと、前記上面の前記第1部位とは異なる第2部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第2光軸を備え、前記第2光軸周りの全方位に視野を有する第2カメラとを含む移動体が提供される。
 また、本発明の一観点によれば、移動体の屋根又は扉の上縁部に取り付けられる部品であって、上面と、前記上面の第1部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第1光軸を備え、前記第1光軸周りの全方位に視野を有する第1カメラと、前記上面の前記第1部位とは異なる第2部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第2光軸を備え、前記第2光軸周りの全方位に視野を有する第2カメラとを含む部品が提供される。
 開示の技術によれば、一対のカメラで移動体の全方位について測距が可能な測距システムが実現される。また、そのような測距システムを搭載した移動体、移動体に取り付け可能な部品が実現される。
 本発明の目的、特徴及び利点は、本発明の例として好ましい実施の形態を表す添付の図面と関連した以下の説明により明らかになるであろう。
第1の実施の形態に係る測距システムの一例を示す図である。 第1の実施の形態に係るカメラの別例を示す図である。 第1の実施の形態に係る測距システムで取得される画像の一例を示す図である。 第1の実施の形態に係る測距システムで取得される画像の一例を正像化した図である。 測距の原理を示す図である。 第1の実施の形態に係る測距システムで測距を行った結果の一例を示す図である。 第2の実施の形態に係る測距システム搭載車両の第1構成例を示す図である。 第2の実施の形態に係る測距システム搭載車両の第2構成例を示す図である。 第2の実施の形態に係る測距システム搭載車両の第3構成例を示す図である。 第2の実施の形態に係る部品の説明図である。 第2の実施の形態に係る測距システム搭載車両の第4構成例を示す図である。 第2の実施の形態に係る測距システム搭載車両の第5構成例を示す図である。 第3の実施の形態に係る測距システムの一例を示す図である。 第3の実施の形態に係る測距システム搭載車両の一例を示す図である。 第4の実施の形態に係る測距システムの一例を示す図である。 第4の実施の形態に係る支持体による死角の説明図である。 第5の実施の形態に係る測距システムの一例を示す図である。 第5の実施の形態に係る支持体による死角の説明図である。 第5の実施の形態に係るカメラの高さの説明図である。 第5の実施の形態に係る支持体の角度可変機構の第1構成例を示す図である。 第5の実施の形態に係る支持体の角度可変機構の第2構成例を示す図である。 第5の実施の形態に係る支持体の高さ可変機構の構成例を示す図である。 第6の実施の形態に係る支持体の構成例を示す図である。 第7の実施の形態に係る測距システムの一例を示す図である。 第7の実施の形態に係る測距システム搭載車両のイメージ図である。 第7の実施の形態に係る測距システムの第1構成例を示す図である。 第7の実施の形態に係る測距システムの第2構成例を示す図である。 第7の実施の形態に係る測距システムの第3構成例を示す図である。 第7の実施の形態に係る測距システム搭載車両の第1構成例を示す図である。 第7の実施の形態に係る測距システム搭載車両の第2構成例を示す図である。 第7の実施の形態に係る測距システム搭載車両の第3構成例を示す図である。 第8の実施の形態に係る測距システム搭載車両の第1構成例を示す図である。 第8の実施の形態に係る測距システム搭載車両の第2構成例を示す図である。 第1適用例を示す図である。 第2適用例を示す図である。 第3適用例を示す図である。 第4適用例を示す図である。
 まず、第1の実施の形態について説明する。
 図1は第1の実施の形態に係る測距システムの一例を示す図である。図1には、第1の実施の形態に係る測距システムの一例の要部斜視模式図を示している。
 図1に示す測距システム1は、一対のカメラ10を含む。一対のカメラ10は、移動体20の上面21の、互いに異なる部位21a及び部位21bに設けられる。例えば、車両の屋根の上面や、屋根に取り付けられる部品の上面に、図1のように一対のカメラ10が設けられる。ここで上方Vは、上面21に対して垂直上方の方向であってもよいし、上面21とは無関係に鉛直上方の方向であってもよい。
 尚、図1に示す移動体20の上面21は、移動体20の上面の全体、或いは、移動体20の上面の一部である。また、一対のカメラ10には、例えば、同種のカメラが用いられる。
 カメラ10は、撮像素子11及びレンズ12を備える。撮像素子11は、例えばプラスチック等のケース11A内に収容され、レンズ12を通して入射される光を電気信号に変化する。撮像素子11には、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサ等が用いられる。レンズ12には、視野角が180度(°)又はそれ以上といった広視野角の光学レンズ、例えば、魚眼レンズが用いられる。このような撮像素子11及びレンズ12を備えるカメラ10は、その光軸13が、上方Vに向くように、移動体20の上面21に設けられる。カメラ10は、その光軸13周りの全方位に視野を有する、いわゆる全方位カメラの1つである。
 カメラ10は更に、図1に示すような、撮像素子11及びレンズ12を覆うカバー14を含んでよい。カバー14は、高い透明性を有していることが望ましい。例えば、カバー14には、アクリル等の材料が用いられる。図1には一例として、ドーム型のカバー14を図示している。
 尚、一対のカメラ10は同種のカメラだけでなく、例えば赤外線カメラと可視光カメラのような、異種のカメラの組み合わせであってもよい。
 測距システム1が設けられる移動体20の前進方向は、図1に示すX方向でもよいし、Y方向でもよい。即ち、測距システム1の一対のカメラ10は、移動体20の前進方向(Y方向の時)の前方側と後方側とに配置されてもよいし、移動体20の前進方向(X方向の時)に対して右方側と左方側とに配置されてもよい。
 このような測距システム1における一対のカメラ10による画像の取得、画像からの視差の取得、及び視差に基づく距離の取得等、測距システム1での測距に係る各種処理は、例えば、1つ又は2つ以上のプロセッサによって制御されるコンピュータを用いて実現される。その場合、測距に係る各種処理を実行するコンピュータは、測距システム1に含まれるものであってもよいし、測距システム1に有線又は無線の通信手段で接続されるものであってもよい。
 上記のように、測距システム1では、移動体20の上面21に、上方Vに向けた光軸13周りの全方位に視野を有する一対のカメラ10、即ち一対の全方位カメラが設けられる。この一対のカメラ10により、移動体20の周囲(前後左右の全方位)の画像が取得される。一対のカメラ10で取得される、移動体20の全方位の画像から、移動体20の周囲に存在する特定の物体までの距離を求めることができる。そのため、移動体20の全方位を測距対象とする場合でも、移動体20の前後左右にそれぞれ一対ずつ、前後左右の各方位に光軸を向けたカメラを設けるような構成とすることを要しない。
 上記の測距システム1によれば、少ないカメラ数(この例では2つのカメラ10)で、移動体20の全方位を測距対象とし、移動体20の周囲に存在する特定の物体までの距離を求めることができる。部品点数の増大を抑え、製造、設置、運用に要するコストやエネルギーを抑えて、移動体20の全方位を測距対象とする測距システム1を実現することができる。
 図1には、魚眼レンズ等の広視野角のレンズ12を備えるカメラ10を用いた測距システム1を例示したが、次の図2に示すようなカメラを用いた測距システムとすることもできる。
 図2は第1の実施の形態に係るカメラの別例を示す図である。図2(A)には、第1の実施の形態に係るカメラの、第1の例の要部斜視模式図を示している。図2(B)には、第1の実施の形態に係るカメラの、第2の例の要部斜視模式図を示している。
 図2(A)に示すカメラ10aは、撮像素子11a、レンズ12a及びミラー15aを備える。撮像素子11aは、例えばケース11A内に収容される。撮像素子11aには、CCDイメージセンサやCMOSイメージセンサ等が用いられる。レンズ12aには、魚眼レンズのような広視野角ではない通常のレンズが用いられる。このような撮像素子11a及びレンズ12aと対向する位置に、放物面状、半球状又は円錐状のミラー15aが、その凸側をレンズ12側に向け、支持棒16aで支持されて、配置される。
 例えば、この図2(A)に示すようなカメラ10aを、上記図1に示した測距システム1の一対のカメラ10に替えて、採用してもよい。その場合、各カメラ10aは、その光軸13aが、上方V(図1)に向くように、移動体20の上面21に設けられる。図2(A)に示すカメラ10aでは、放物面状、半球状又は円錐状のミラー15aに入射し反射され、レンズ12aを通して撮像素子11aに入射される光が、電気信号に変換されて、カメラ10aの周囲(全方位)の画像が取得される。カメラ10aも、上記カメラ10と同様、その光軸13a周りの全方位に視野を有する、全方位カメラの1つである。
 図2(A)に示すようなカメラ10aを一対用いた測距システムでも、その一対のカメラ10aで取得される、移動体20の全方位の画像から、移動体20の周囲に存在する特定の物体までの距離を求めることができる。部品点数の増大を抑え、製造、設置、運用に要するコストやエネルギーを抑えて、移動体20の全方位を測距対象とする測距システムを実現することができる。
 また、図2(B)に示すカメラ10bは、撮像素子11a及びレンズ12aと、ミラー15aとの間を、ドーム型のカバー14bで覆った構造を有している。カバー14bは、高い透明性を有していることが望ましい。カメラ10bにおいて、上記図2(A)のカメラ10aに設けたような支持棒16aは、同様に設けることもできるが、図2(B)に示すように省略することもできる。
 例えば、この図2(B)に示すようなカメラ10bを、上記図1に示した測距システム1の一対のカメラ10に替えて、採用してもよい。その場合、各カメラ10bは、その光軸13aが、上方V(図1)に向くように、移動体20の上面21に設けられる。図2(B)に示すカメラ10bも全方位カメラの1つであって、カバー14bを通してミラー15aに入射し反射され、レンズ12aを通して撮像素子11aに入射される光が、電気信号に変換されて、カメラ10bの周囲(全方位)の画像が取得される。
 図2(B)に示すカメラ10bでは、ミラー15aが、少なくともその外縁部をカバー14bで支持されることで、ミラー15aの変位が抑えられ、撮像素子11a、レンズ12a及びミラー15aの間における光軸13aのずれが抑えられる。
 図2(B)に示すようなカメラ10bを一対用いた測距システムでも、その一対のカメラ10bで取得される、移動体20の全方位の画像から、移動体20の周囲に存在する特定の物体までの距離を求めることができる。部品点数の増大を抑え、製造、設置、運用に要するコストやエネルギーを抑えて、移動体20の全方位を測距対象とする測距システムを実現することができる。
 尚、図2(A)のカメラ10aでは、直接ミラー15aに入射される光から画像を取得するため、カバー14bを通してミラー15aに入射される光から画像を取得する図2(B)のカメラ10bに比べて、良好な画質の画像が取得され得る。
 また、図3は第1の実施の形態に係る測距システムで取得される画像の一例を示す図である。図3(A)には、図1に示すカメラ10を用いて取得される画像の一例を示している。図3(B)には、図2(A)に示すカメラ10aを用いて取得される画像の一例を示している。
 例えば、図1に示すような、広視野角のレンズ12を備え、光軸13が上方Vに向けられたカメラ10を用い、屋外を撮像すると、左右それぞれのレンズ12により、図3(A)に示すような第1画像30L及び第2画像30Rが取得される。取得される第1画像30L及び第2画像30Rのそれぞれには、中央部に空31L及び31Rが写し出され、その周りの外周部に地上付近32L及び32Rが写し出される。また、第1画像30L及び第2画像30Rのそれぞれには、車両33L及び33R、建造物34L及び34R、歩行者37L及び37R、樹木38L及び38R、レンズ12に写り込んだ移動体20の一部35L及び35Rが写し出される。また、移動体20の一部35L及び35Rは、レンズ12が設置された筐体の一部であってもよい。また、レンズ12の設置位置や周辺の環境によって、空31L及び31R、地上付近32L及び32R、車両33L及び33R、建造物34L及び34R、歩行者37L及び37R、樹木38L及び38R、又は移動体20の一部35L及び35Rが第1画像30L及び第2画像30Rに写し出されないことがあってもよい。また、カメラ10を用いて取得される第1画像30L及び第2画像30Rでは、空31L及び31Rが比較的大きく写し出される。尚、第1画像30L及び第2画像30Rは、カメラ10が移動体20の前進方向に対して左右両側のそれぞれに設けられた場合であるが、後述するようにカメラ10の設置位置はこれに限られず、その設置位置に応じた第1画像30L及び第2画像30Rが取得される。
 図3(B)は、図2(A)に示すカメラ10aを用いた場合に得られる画像30aを示すものである。画像30aには、空31や地上付近32、車両33、建造物34、移動体20の一部35が写し出されている。ここで、車両33は、歩行者や樹木等であってもよい。また、移動体20の一部35は、カメラ10aが設置された筐体の一部であってもよい。図3(B)では画像30aを一つしか示していないが、例えば2台のカメラ10aを用いた場合、図3(A)と同様に、第1画像、第2画像を取得することができる。
 図4は、図3(A)の第1画像30L及び第2画像30Rを正像化したものであり、測距に用いられる。第1画像36Lは第1画像30Lを正像化したものであり、第2画像36Rは第2画像30Rを正像化したものである。また、上述のように図3(B)のような画像30aを第1画像、第2画像として取得した場合も同様に、図4のような複数の正像化した画像が得られる。
 図5(A)及び図5(B)は、測距の原理を示す図である。測距対象物39は、カメラ10の撮像素子11に取り込まれる全ての映像であり、例えば、図4の車両33L及び33Rや、建造物34R及び34L、歩行者37L及び37R、樹木38L及び38R、地上付近32R及び32Lや、その他、動物や道路上構造物等である。図4の正面方向又は後方向の測距対象物39については、第1画像に写し出された撮像39Lの位置と、撮像39Rの位置との視差(図4の視差36)に基づき、例えば水平方向の座標の違いを用いて測距を行う(図5(A))。図4の真横方向の測距対象物39については、第1画像に写し出された測距対象物39の撮像39Lと、第2画像に写し出された測距対象物39の撮像39Rとの大きさの違いを用いて測距を行う(図5(B))。尚、各真横方向と後方向との間や、各真横方向と正面方向との間については、図5(A)及び図5(B)に示した原理の両方を用いて測距を行ってもよい。また、求められる距離から、その距離に基づく各種情報、例えば、視野内に存在する各種物体までの距離を示す画像や、ある物体までの距離が一定値以下の時に発するアラーム等の情報の生成、出力が行われてもよい。
 ここで、カメラ10は、ミラー15aを用いるカメラ10a等に比べて、光軸13の調整に優れ、光軸13がずれ難い。そのため、カメラ10では、良好な画質の第1画像30L及び第2画像30Rを安定的に取得することができる。それにより、測定誤差やばらつき等、精度良く視差を求め、測距を行うことができる。
 また、カメラ10aを用いて取得される画像30aでは、地上付近32が比較的大きく写し出される。尚、図2(B)に示すカメラ10bを用いた場合も、この図3(B)と同様の画像が取得される。
 一対のカメラ10aを用いて取得される、このような画像30a群が用いられ、測距が行われる。例えば、屋外の地上付近に存在する物体が測距の対象とされる場合は、画像30aの中央部の地上付近32について視差が求められ、その視差に基づいて測距が行われる。このように屋外の地上付近に存在する物体が測距の対象とされる場合、画像30aのように地上付近32が比較的大きく写し出されていると、視差を求めるのに利用される画素数が多くなり、撮像素子11aの有効利用が図られる。
 図6は、第1の実施の形態に係る測距システムで測距を行った結果の一例を示す図であり、移動体20の上空から見下ろした様式で、移動体20の前方を上に表現している。第1の実施の形態では、全方位において、移動体20の周辺にある測距対象物39の、移動体20からの距離を取得することができる。
 次に、第2の実施の形態について説明する。
 ここでは、測距システムを、移動体の1種である車両、一例として自動車に搭載する形態について説明する。
 図7は第2の実施の形態に係る測距システム搭載車両の第1構成例を示す図である。図7(A)~図7(C)にはそれぞれ、第2の実施の形態に係る測距システム搭載車両の第1構成例の要部斜視模式図を示している。
 図7(A)に示す車両(自動車)40Aは、その屋根41の前方側(自動車40Aのフロント側)の縁部41aに、測距システムのカメラ、例えば上記第1の実施の形態で述べたような測距システム1のカメラ10が、左右一対、設けられた構成を有する。一対のカメラ10は、各々の光軸13(図1)を屋根41の上方に向けて、フロント側の縁部41aの2箇所に設けられる。これら一対のカメラ10により、自動車40Aの前後左右の全方位が測距対象とされる。このようにフロント側の縁部41aに一対のカメラ10を設けた測距システム1により、自動車40Aの周囲に存在する各種物体について、測距が行われる。尚、一対のカメラ10は自動車40Aの左右のドアの上縁部に設けられてもよい。
 図7(B)に示す車両(自動車)40Bは、その屋根41の後方側(自動車40Bのリア側)の縁部41bに、例えば上記第1の実施の形態で述べた測距システム1のカメラ10が、左右一対、設けられた構成を有する。一対のカメラ10は、各々の光軸13(図1)を屋根41の上方に向けて、リア側の縁部41bの2箇所に設けられる。これら一対のカメラ10により、自動車40Bの前後左右の全方位が測距対象とされる。このようにリア側の縁部41bに一対のカメラ10を設けた測距システム1により、自動車40Bの周囲に存在する各種物体について、測距が行われる。尚、自動車40Bが後方にハッチバック式のドアを有する場合、一対のカメラ10はそのハッチバック式ドアの上縁部の上面に設けられてもよい。
 図7(C)に示す車両(自動車)40Cは、その屋根41の、自動車40Cの左右方向の中央線42上における左右の縁部41cに、例えば上記第1の実施の形態で述べた測距システム1の一対のカメラ10が設けられた構成を有する。一対のカメラ10は、各々の光軸13(図1)を屋根41の上方に向けて、左右の縁部41cの2箇所に設けられる。これら一対のカメラ10により、自動車40Cの前後左右の全方位が測距対象とされる。このように左右の縁部41cに一対のカメラ10を設けた測距システム1により、自動車40Cの周囲に存在する各種物体について、測距が行われる。尚、一対のカメラ10は自動車40Cの左右のドアの上縁部に設けられてもよい。
 例えば、屋根41のフロント側に一対のカメラ10を搭載する、図7(A)に示すような自動車40Aでは、屋根41の写り込みが抑えられるその前方についての情報(前方の画像や物体との距離等)が比較的多く取得され得る。屋根41のリア側に一対のカメラ10を搭載する、図7(B)に示すような自動車40Bでは、屋根41の写り込みが抑えられるその後方についての情報(後方の画像や物体との距離等)が比較的多く取得され得る。屋根41の左右に一対のカメラ10を搭載する、図7(C)に示すような自動車40Cでは、屋根41の写り込みが抑えられるその前方及び後方についての情報(前方及び後方の画像や物体との距離等)が比較的多く取得され得る。
 図8は第2の実施の形態に係る測距システム搭載車両の第2構成例を示す図である。図8(A)~図8(C)にはそれぞれ、第2の実施の形態に係る測距システム搭載車両の第2構成例の要部斜視模式図を示している。
 図8(A)に示す車両(自動車)40Dは、その屋根41の、自動車40Dの直進方向の中央線43上におけるフロント側の縁部41aとリア側の縁部41bとに、例えば上記第1の実施の形態で述べた測距システム1のカメラ10が設けられた構成を有する。一対のカメラ10は、各々の光軸13(図1)を屋根41の上方に向けて、中央線43上のフロント側の縁部41aとリア側の縁部41bとの2箇所に設けられる。これら一対のカメラ10により、自動車40Dの前後左右の全方位が測距対象とされる。このように中央線43上のフロント側の縁部41aとリア側の縁部41bとに一対のカメラ10を設けた測距システム1によっても、自動車40Dの周囲に存在する各種物体について、測距が行われる。
 図8(B)に示す車両(自動車)40Eは、その屋根41の、自動車40Eの直進方向の中央線43から左方にずれたフロント側の縁部41aとリア側の縁部41bとに、例えば上記第1の実施の形態で述べた測距システム1のカメラ10が設けられた構成を有する。一対のカメラ10は、各々の光軸13(図1)を屋根41の上方に向けて、中央線43から左方にずれたフロント側の縁部41aとリア側の縁部41bとの2箇所に設けられる。これら一対のカメラ10により、自動車40Eの前後左右の全方位が測距対象とされる。このように中央線43から左方にずれたフロント側の縁部41aとリア側の縁部41bとに一対のカメラ10を設けた測距システム1により、自動車40Eの周囲に存在する各種物体について、測距が行われる。
 図8(C)に示す車両(自動車)40Fは、その屋根41の、自動車40Fの直進方向の中央線43から右方にずれたフロント側の縁部41aとリア側の縁部41bとに、例えば上記第1の実施の形態で述べた測距システム1のカメラ10が設けられた構成を有する。このようにカメラ10を設けた場合でも、自動車40Fの前後左右の全方位が測距対象とされ、その周囲に存在する各種物体について、測距が行われる。
 例えば、屋根41の中央線43上のフロント側とリア側とに一対のカメラ10を搭載する、図8(A)に示すような自動車40Dでは、屋根41の写り込みが抑えられるその左方及び右方についての情報(左方及び右方の画像や物体との距離等)が比較的多く取得され得る。屋根41の中央線43から左方にずれたフロント側とリア側とに一対のカメラ10を搭載する、図8(B)に示すような自動車40Eでは、屋根41の写り込みが抑えられるその左方についての情報(左方の画像や物体との距離等)が比較的多く取得され得る。屋根41の中央線43から右方にずれたフロント側とリア側とに一対のカメラ10を搭載する、図8(C)に示すような自動車40Fでは、屋根41の写り込みが抑えられるその右方についての情報(右方の画像や物体との距離等)が比較的多く取得され得る。
 運転席が右側又は左側に設けられる自動車では、運転席側とは反対の側の死角が大きくなり易い。中央線43に対して運転席側とは反対の側に一対のカメラ10を設けると、そちら側についての情報(画像や各種物体との距離等)が比較的多く取得され得る。
 尚、図8(A)~図8(C)のそれぞれにおいて、自動車40D~40Fが後方にハッチバック式のドアを有する場合、一対のカメラ10の一つはそのハッチバック式ドアの上縁部の上面に設けられてもよい。また、一対のカメラ10は自動車40E又は40Fの左右のいずれかのドアの上縁部に設けられてもよい。
 また、本実施例の変形例として、例えば自動車の屋根の前方右側及び後方左側、又は前方左側及び後方右側のように、対角線上に一対のカメラ10を設けてもよい。
 図9は第2の実施の形態に係る測距システム搭載車両の第3構成例を示す図である。図9(A)及び図9(B)にはそれぞれ、第2の実施の形態に係る測距システム搭載車両の第3構成例の要部斜視模式図を示している。
 図9(A)に示す車両(自動車)40Gは、その屋根41に取り付けられるリアスポイラ44の左右の縁部44aに、測距システムのカメラ、例えば上記第1の実施の形態で述べたような測距システム1の一対のカメラ10が設けられた構成を有する。一対のカメラ10は、各々の光軸13(図1)をリアスポイラ44の上方に向けて、左右の縁部44aの2箇所に設けられる。これら一対のカメラ10により、自動車40Gの前後左右の全方位が測距対象とされる。このようにリアスポイラ44に一対のカメラ10を設けた測距システム1によっても、自動車40Gの周囲に存在する各種物体について、測距が行われる。
 一対のカメラ10を設けるリアスポイラ44の形状は、図9(A)のようなものに限定されず、例えば、図9(B)に示すようなものであってもよい。
 図9(B)に示す車両(自動車)40Hは、中央部45aよりも左右の端部45bが高くなった形状のリアスポイラ45を備える。このようなリアスポイラ45の、高くなった左右の端部45bに、一対のカメラ10が設けられる。この一対のカメラ10で自動車40Hの前後左右の全方位が測距対象とされ、その周囲に存在する各種物体について、測距が行われる。リアスポイラ45をその中央部45aで屋根41に取り付けた場合、端部45bは屋根41よりも更に高い位置となり、そのような端部45bにカメラ10が設けられることで、自動車40H自体の写り込みが減り、自動車40Hの周囲の情報をより取得し易くなる。
 なお、図9(A)又は図9(B)のそれぞれにおいて、自動車40G又は40Hが後方にハッチバック式のドアを有する場合、リアスポイラ44又は45はそのハッチバック式ドアの上縁部の上面に設けられてもよい。
 このようなリアスポイラ44又はリアウィング等、自動車40G、自動車40Hの屋根41に取り付けられる部品に、測距システム1の一対のカメラ10が設けられてもよい。
 測距システム1を設けた部品は、オプション部品として、自動車40G、自動車40Hに取り付けられるようにしてよい。また、その取り付け位置は、自動車40G及び自動車40Hの屋根の後方に限定されず、例えば屋根の前方や中央付近であってもよい。
 図10は第2の実施の形態に係る部品の説明図である。図10(A)には、取り付け前の部品の要部斜視模式図を示し、図10(B)には、部品が取り付けられる又は取り外された自動車の要部斜視模式図を示している。
 例えば、図10(A)に示すような、一対のカメラ10を左右の縁部44aに設けたリアスポイラ44が、自動車40Gの屋根41に取り付け可能なオプション部品として、予め準備される。このようなリアスポイラ44が、図10(B)に示すように、自動車40Gの屋根41の、後方側の縁部41bに、所定の方法で取り付けられる(実線太矢印)。リアスポイラ44は、取り付け後、自動車40Gから取り外せるようにしてもよい(点線太矢印)。
 このように、測距システム1を設けたリアスポイラ44(図9(A))を、取り付け、取り外し可能なオプション部品とすることもできる。リアスポイラ45(図9(B))についても同様である。
 図11は第2の実施の形態に係る測距システム搭載車両の第4構成例を示す図である。図11(A)~図11(C)にはそれぞれ、第2の実施の形態に係る測距システム搭載車両の第4構成例の要部斜視模式図を示している。
 図11(A)に示す車両(自動車)40Iは、その屋根41に設けられた、左右一対のルーフレール(ルーフラック)46を備える。この左右一対のルーフレール46の、前方側(自動車40Iのフロント側)の縁部46aに、上記第1の実施の形態で述べたような測距システム1の一対のカメラ10が設けられる。一対のカメラ10は、各々の光軸13(図1)を屋根41の上方に向けて設けられ、これら一対のカメラ10により、自動車40Iの前後左右の全方位が測距対象とされる。このような測距システム1により、自動車40Iの周囲に存在する各種物体について、測距が行われる。
 図11(B)に示す車両(自動車)40Jは、左右一対のルーフレール46の、後方側(自動車40Jのリア側)の縁部46bに、上記第1の実施の形態で述べたような測距システム1の一対のカメラ10が設けられたものである。このように一対のカメラ10が設けられた測距システム1により、自動車40Jの周囲に存在する各種物体について、測距が行われる。
 図11(C)に示す車両(自動車)40Kは、左右一対のルーフレール46の、フロント側の縁部46aとリア側の縁部46bとの中間部46cに、上記第1の実施の形態で述べたような測距システム1の一対のカメラ10が設けられたものである。このように一対のカメラ10が設けられた測距システム1により、自動車40Kの周囲に存在する各種物体について、測距が行われる。
 例えば、ルーフレール46上での一対のカメラ10の位置によって、前方、後方、或いは左方及び右方といった、屋根41の写り込みが抑えられる所定方位についての情報(画像や物体との距離等)が比較的多く取得され得る。
 図12は第2の実施の形態に係る測距システム搭載車両の第5構成例を示す図である。図12には、第2の実施の形態に係る測距システム搭載車両の第5構成例の要部斜視模式図を示している。
 図12に示す車両(自動車)40Lは、ルーフレール46に取り付けられたルーフキャリア47を備える。このルーフキャリア47の左右の縁部47aに、上記第1の実施の形態で述べたような測距システム1の一対のカメラ10が設けられる。一対のカメラ10は、各々の光軸13(図1)を屋根41の上方に向けて設けられ、これら一対のカメラ10により、自動車40Lの前後左右の全方位が測距対象とされる。このような測距システム1により、自動車40Lの周囲に存在する各種物体について、測距が行われる。
 この自動車40Lのように、ルーフレール46に後から取り付けられ、また取り外しも可能なルーフキャリア47に、測距システム1の一対のカメラ10を設けることも可能である。また、ルーフレール46上のルーフキャリア47の位置を変更することで(便宜上、図12では太矢印で表す)、測距システム1の一対のカメラ10を、自動車40Lの前方寄りに設けたり、後方寄りに設けたり、或いはそれらの中間に設けたりすることも可能である。
 以上説明した第2の実施の形態に係る自動車40A~40Lによれば、自動車本来のデザイン性が損なわれるのを抑えて測距システム1を搭載することができる。更に、屋根41、リアスポイラ44,45、ルーフレール46又はルーフキャリア47から突出する部位をカメラ10とすることで、測距システム1を設けることによる自動車40A~40Lの走行時の空気抵抗を抑えることができる。
 また、測距システム1をリアスポイラ44等のオプション部品に組み込むと、例えば、メーカーオプションで測距システム1を搭載する場合には、その搭載工程を、自動車本体の組み立て工程とは分離することができ、製造工程の煩雑化を抑えることができる。
 ディーラーオプションや購入後に測距システム1を搭載する場合であれば、測距システム1が組み込まれたリアスポイラ44等のオプション部品を自動車に取り付ける作業で足りる。リアスポイラ44等への個々のカメラ10の取り付け、それらの光軸13の調整、更に、一対のカメラ10間の位置調整等を省略することができ、作業工程の煩雑化を抑えることができる。
 尚、ここでは、上記第1の実施の形態で述べた、図1に示したようなカメラ10を用いた測距システム1を搭載した自動車40A~40Lを例示した。このほか、上記図2(A)に示したようなカメラ10aを用いた測距システム、上記図2(B)に示したようなカメラ10bを用いた測距システムを、図7~図9及び図11の各例に従って搭載した各種自動車も、同様に実現することが可能である。
 また、ここでは、車両として自動車を例示したが、測距システム1等が搭載可能な車両には、トラックやバス等の大型自動車や除雪車、ショベルカー、コンバイン等の特殊車両や農業向け車両も含まれ、また、1~2人乗りの超小型モビリティ、自動二輪車や原動機付き自転車等の各種二輪車又は三輪車、自転車等の軽車両、車いす、電車やモノレール等の列車等も含まれる。例えば、各種車両の、元から備わっている高所の上面、或いは高所となる位置に別途設けた上面に、カメラ10等の一対のカメラを設け、測距システム1等を実現する。
 次に、第3の実施の形態について説明する。
 図13は第3の実施の形態に係る測距システムの一例を示す図である。図13には、第3の実施の形態に係る測距システムの一例の要部斜視模式図を示している。
 上記測距システム1の一対のカメラ10は、例えば、図13に示すように、共通の連結体(フレーム)50で互いに連結される。フレーム50には、例えば、図13に示すような板状のものが用いられる。フレーム50には、板状のもののほか、棒状のものが用いられてもよい。フレーム50の、対向する両端部51にそれぞれ、例えば上記第1の実施の形態で述べた測距システム1(図1)の一対のカメラ10が固定される。フレーム50で連結された一対のカメラ10は、互いの位置関係が精度良く合わせられ、更に、合わせた後も互いの位置関係のずれが効果的に抑えられる。
 測距システム1では、ステレオ測距は片方のカメラの写像と他方のカメラの写像を比較し、それぞれの写像の中で示される測定対象物の座標のズレ量(視差値)から距離を求める技術である。そのため、一対のカメラの取付けに関しては、高い精度で取付けられ、かつ、保たれることが望ましい。そのため、車両等の移動体20に測距システム1を搭載した当初は一対のカメラ10が適正な位置関係にあっても、測距システム1を搭載した後の移動体20の動きや揺れ等で位置関係にずれが生じると、測定誤差やばらつき等の精度が高く、信頼性の高い測距を行うことが困難になる。
 そこで、図13に示すように、一対のカメラ10をフレーム50で連結すると、測距システム1が搭載される移動体20の動きや揺れ等で一対のカメラ10間に位置ずれが生じるのを効果的に抑えることができる。フレーム50には、一対のカメラ10間に位置ずれが生じるのを抑えることができるような、剛性の高いものを用いることが望ましい。
 例えば、このようにフレーム50で連結された一対のカメラ10が、自動車等の車両に搭載される。
 図14は第3の実施の形態に係る測距システム搭載車両の一例を示す図である。図14(A)には、第3の実施の形態に係る測距システム搭載車両の第1構成例の要部斜視模式図を示している。図14(B)には、第3の実施の形態に係る測距システム搭載車両の第2構成例の要部斜視模式図を示している。ここでは、上記第1の実施の形態で述べた測距システム1(図1)を搭載する場合を例にする。
 例えば、図14(A)に示すように、一対のカメラ10を連結するフレーム50が、車両(自動車)40Mの屋根41の内側に収容され、固定される。この時、フレーム50で連結された一対のカメラ10は、屋根41の外側に設けられる。このように一対のカメラ10を設けた測距システム1により、自動車40Mの周囲に存在する各種物体について、測距が行われる。また、一対のカメラ10が、屋根41の内側のフレーム50で連結されていることで、互いの位置関係のずれが抑えられ、測定誤差やばらつき等の精度及び信頼性に優れる測距が実現される。
 ここではフレーム50を、屋根41の内側に、中央線42上の左右の縁部41cに一対のカメラ10が位置するように収容した例を示したが、フロント側の縁部41aやリア側の縁部41bに一対のカメラ10が位置するように収容することもできる。或いは、フレーム50を、屋根41の内側に、フロント側の縁部41aとリア側の縁部41bとに一対のカメラ10が位置するように収容することもできる。
 また、図14(B)に示すように、一対のカメラ10を連結するフレーム50が、車両(自動車)40Nの屋根41に取り付けられるリアスポイラ44の内側に収容され、固定されてもよい。この時、フレーム50で連結された一対のカメラ10は、リアスポイラ44の外側に設けられる。このように一対のカメラ10を設けた測距システム1により、自動車40Nの周囲に存在する各種物体について、測距が行われる。また、一対のカメラ10が、リアスポイラ44の内側のフレーム50で連結されていることで、互いの位置関係のずれが抑えられ、測定誤差やばらつき等の精度及び信頼性に優れる測距が実現される。
 尚、ここでは、上記図1に示したような一対のカメラ10をフレーム50で連結したもの、及びフレーム50で連結された一対のカメラ10を含む測距システム1を搭載した自動車40M,40Nを例示した。このほか、上記図2(A)に示したような一対のカメラ10aをフレーム50で連結したもの、及びそれを含む測距システムを図14(A)又は図14(B)の例に従って搭載した各種自動車も、同様に実現することが可能である。更に、上記図2(B)に示したような一対のカメラ10bをフレーム50で連結したもの、及びそれを含む測距システムを図14(A)又は図14(B)の例に従って搭載した各種自動車も、同様に実現することが可能である。
 次に、第4の実施の形態について説明する。
 図15は第4の実施の形態に係る測距システムの一例を示す図である。図15には、第4の実施の形態に係る測距システムの一例の要部斜視模式図を示している。
 図15に示す測距システム1Aは、移動体20の上面21から突出する、一対のシャークフィン状の支持体17を含む。この一対の支持体17の先端部17aにそれぞれ、例えば上記図1に示したようなカメラ10が設けられる。図15に示す測距システム1Aは、このような点で、上記第1の実施の形態に係る測距システム1と相違する。
 一対の支持体17の先端部17aにそれぞれカメラ10が設けられて、上面21の互いに異なる部位21a及び部位21bの上方に一対のカメラ10が設けられた測距システム1Aが実現される。カメラ10は、その光軸13を上方Vに向けて、支持体17で保持される。このように一対のカメラ10が保持された測距システム1Aにより、移動体20の周囲に存在する各種物体について、測距が行われる。
 尚、移動体20の前進方向は、移動時に支持体17が受ける空気抵抗を抑える観点から、図15に示すX方向とされることが好ましいが、これに限定されない。
 図15に示すように、測距システム1Aでは、移動体20の上面21から突出する支持体17を、その先端部17aと移動体20の上面21との間に空間17bができるような、湾曲させたシャークフィン状としている。カメラ10は、このようなシャークフィン状の支持体17の先端部17aに設けられる。
 カメラ10は、支持体17の先端部17aに設けられることで、移動体20の上面21から更に高い位置で保持される。これにより、各カメラ10で取得される画像に写り込む移動体20の割合を減らし、移動体20の周囲の情報をより取得し易くすることができる。
 更に、カメラ10の下に空間17bを設けることで、一方のカメラ10で取得される画像における、他方のカメラ10及び支持体17の側の、当該支持体17で隠れてしまう死角が減り、移動体20の周囲の情報を多く取得することができる。
 図16は第4の実施の形態に係る支持体による死角の説明図である。
 図16(A)及び図16(B)には、一方のカメラ10から他方のカメラ10及び支持体17の側を写した時の様子を模式的に示している。支持体17の先端部17aと移動体20の上面21との間に、空間17bが設けられていない場合を図16(A)に、空間17bが設けられている場合を図16(B)に、それぞれ示している。
 図16(A)に示すように、支持体17の先端部17aと移動体20の上面21との間に空間17bが無いと、一方のカメラ10から他方のカメラ10及び支持体17の側を写した時に、当該支持体17によって死角が生じる。そのため、一方のカメラ10には、他方のカメラ10及び支持体17の、更にそれらの向こう側に存在するはずの物体60が写らず、その物体60が他方のカメラ10には写るとしても、一対のカメラ10の画像から測距を行う手法では、物体60の情報が得られない。
 これに対し、図16(B)に示すように、支持体17の先端部17aと移動体20の上面21との間に空間17bがあると、一方のカメラ10から他方のカメラ10及び支持体17の側を写した時に、その空間17bに物体60の少なくとも一部が写るようになる。そのため、物体60が写る一方のカメラ10と他方のカメラ10の画像から、その物体60の情報が得られる。
 このように測距システム1Aでは、支持体17の先端部17aと移動体20の上面21との間に空間17bを設けることで、支持体17による死角を減らし、移動体20の周囲の情報をより多く取得することが可能になっている。
 この第4の実施の形態に係る測距システム1Aは、各種車両に搭載することが可能である。測距システム1Aの支持体17及びカメラ10を、例えば、上記第2の実施の形態で述べた図7(A)~図7(C)及び図8(A)~図8(C)の例に従い、自動車の屋根41に設けることができる。また、上記第2の実施の形態で述べたように、支持体17及びカメラ10を自動車の屋根41に対角線上に設けてもよいし、自動車が後方にハッチバック式のようなドアを有する場合にそのドアの上縁部に設けてもよい。
 測距システム1Aの支持体17及びカメラ10を、上記第2の実施の形態で述べた図9(A)及び図9(B)の例に従い、リアスポイラ44,45等、屋根に取り付ける部品に設けることもできる。
 また、測距システム1Aの支持体17及びカメラ10が取付けられたリアスポイラ44,45を、上記第2の実施の形態で述べた図10(A)及び図10(B)の例に従い、自動車に取り付け可能なオプション部品として予め準備し、取り付け又は取り外しすることもできる。
 また、測距システム1Aの支持体17及びカメラ10を、上記第2の実施の形態で述べた図11(A)~図11(C)の例に従い、ルーフレール46に設けたり、図12の例に従い、ルーフレール46に取り付けられるルーフキャリア47に設けたりすることもできる。
 この第4の実施の形態に係る測距システム1Aの、カメラ10を保持する一対の支持体17を、上記第3の実施の形態で述べた図13の例に従い、フレーム50で連結し、一対のカメラ10間に生じる位置ずれを抑えるようにしてもよい。
 カメラ10を保持する一対の支持体17を連結するフレーム50は、自動車等の各種車両の内部に収容することが可能である。
 例えば、自動車の内部に収容する場合であれば、上記第3の実施の形態で述べた図14(A)の例に従ってフレーム50を自動車の屋根41の内側に収容し、そのフレーム50で連結された一対の支持体17は、屋根41から突出させる。このように屋根41から突出させた支持体17の先端部17aに、カメラ10が設けられる。
 或いは、上記第3の実施の形態で述べた図14(B)の例に従ってフレーム50を自動車の屋根41に取り付けられるリアスポイラ44の内側に収容し、そのフレーム50で連結された一対の支持体17は、リアスポイラ44から突出させる。このようにリアスポイラ44から突出させた支持体17の先端部17aに、カメラ10が設けられる。
 尚、支持体17の先端部17aには、上記図2(A)に示したようなカメラ10a、或いは上記図2(B)に示したようなカメラ10bが設けられてもよい。支持体17の先端部17aにカメラ10a或いはカメラ10bを設けた場合にも、上記カメラ10を設けた場合と同様の作用効果が得られる。
 次に、第5の実施の形態について説明する。
 図17は第5の実施の形態に係る測距システムの一例を示す図である。図17には、第5の実施の形態に係る測距システムの一例の要部斜視模式図を示している。
 図17に示す測距システム1Bは、移動体20の上面21から突出する、一対の柱状の支持体18を含む。この一対の支持体18の先端部18aにそれぞれ、例えば上記図1に示したようなカメラ10が設けられる。図17に示す測距システム1Bは、このような点で、上記第1の実施の形態に係る測距システム1と相違する。
 一対の支持体18の先端部18aにそれぞれカメラ10が設けられて、上面21の互いに異なる部位21a及び部位21bの上方に一対のカメラ10が設けられた測距システム1Bが実現される。カメラ10は、その光軸13を上方Vに向けて、支持体18で保持される。このように一対のカメラ10が保持された測距システム1Bにより、移動体20の周囲に存在する各種物体について、測距が行われる。
 尚、移動体20の前進方向は、図17に示すX方向でもよいし、Y方向でもよい。
 図17に示す測距システム1Bにおいて、柱状の支持体18は、例えば、上面21に直立させることができる(θ=90°)。但し、このように直立させた場合、支持体18の太さ、上面21からのカメラ10(又は支持体18)と物体との位置関係によっては、死角ができ、移動体20の周囲に存在する物体の検知範囲が狭まる可能性がある点に留意する。
 図18は第5の実施の形態に係る支持体による死角の説明図である。
 図18(A)及び図18(B)には、一方のカメラ10から他方のカメラ10及び支持体18の側を写した時の様子を模式的に示している。支持体18を直立させている場合を図18(A)に、支持体18を斜めに傾けている場合を図18(B)に、それぞれ示している。
 柱状の支持体18を上面21に直立させていると、一方のカメラ10から他方のカメラ10及び支持体18の側を写した時に、図18(A)に示すように、当該支持体18により、人や障害物等の物体61(一例として人を図示)が隠れてしまうことが起こり得る。人や障害物等の物体61は、地上に直立していることが多く、柱状の支持体18を上面21に直立させていると、この図18(A)に示すような状況も生じかねない。
 これに対し、柱状の支持体18を傾けると、一方のカメラ10から他方のカメラ10及び支持体18の側を写した時に、図18(B)に示すような状況を作り出すことができる。即ち、図18(B)に示すように、直立した人や障害物等の物体61(一例として人を図示)であっても、その少なくとも一部は他方のカメラ10の支持体18で隠れないような状況を作り出すことができる。これにより、支持体18で隠れない物体61の少なくとも一部(物体61の鉛直方向の輪郭線の少なくとも一部)が写る一方のカメラ10の画像と、物体61側にあってそれが写る他方のカメラ10の画像とから、物体61の情報が得られるようになる。
 柱状の支持体18は、上面21に対する角度θ(図17)を、0度超から90度未満の範囲とすることができる(0°<θ<90°)。更に、図18(A)に示すような死角の観点からは、上面21に対する角度θ(図17)を、20度~70度(20°<θ<70°)の範囲とすることが好ましい。
 尚、柱状の支持体18の太さによっては、上面21に直立させていても、直立した人や障害物等の物体61の少なくとも一部は他方のカメラ10の支持体18で隠れないこともある。
 支持体18で保持するカメラ10の、上面21からの高さによっても、支持体18を直立させていても物体61の少なくとも一部は隠れない状況や、支持体18を傾ければ物体61の少なくとも一部は隠れない状況が作り出される。カメラ10の高さは、例えば、測距システム1Bで要求される検知範囲に基づいて設定される。
 図19は第5の実施の形態に係るカメラの高さの説明図である。
 ここでは、カメラ10を保持する柱状の支持体18を、自動車40Pの屋根41に設ける場合を例にする。
 屋根41からのカメラ10の高さH1は、カメラ10から屋根41の端までの距離L1、検知範囲の距離L2及び高さH2から設定される。例えば、カメラ10から屋根41の端までの距離L1が160cm、検知範囲の距離L2が320cmで高さH2が30cmの場合、三角形T1と三角形T2の相似関係から、カメラ10の高さH1は15cmとなる。尚、自動車40Pの屋根41の高さH3は、例えば180cmである。この場合、人物61はH3-H2=150cm以上の高さの部分がカメラ10に写る。
 カメラ10を保持する支持体18の長さは、このように設定されるカメラ10の高さH1と、鉛直上方Vに対する支持体18の角度θとから決定される。
 この第5の実施の形態に係る測距システム1Bは、各種車両に搭載することが可能である。測距システム1Bの支持体18及びカメラ10を、例えば、上記第2の実施の形態で述べた図7(A)~図7(C)及び図8(A)~図8(C)の例に従い、自動車の屋根41に設けることができる。また、上記第2の実施の形態で述べたように、支持体18及びカメラ10を自動車の屋根41に対角線上に設けてもよいし、自動車が後方にハッチバック式のようなドアを有する場合にそのドアの上縁部に設けてもよい。
 測距システム1Bの支持体18及びカメラ10を、上記第2の実施の形態で述べた図9(A)及び図9(B)の例に従い、リアスポイラ44,45等、屋根に取り付ける部品に設けることもできる。
 また、測距システム1Bの支持体18及びカメラ10が取付けられたリアスポイラ44,45を、上記第2の実施の形態で述べた図10(A)及び図10(B)の例に従い、自動車に取り付け可能なオプション部品として予め準備し、取り付け又は取り外しすることもできる。
 また、測距システム1Bの支持体18及びカメラ10を、上記第2の実施の形態で述べた図11(A)~図11(C)の例に従い、ルーフレール46に設けたり、図12の例に従い、ルーフレール46に取り付けられるルーフキャリア47に設けたりすることもできる。
 この第5の実施の形態に係る測距システム1Bの、カメラ10を保持する一対の支持体18を、上記第3の実施の形態で述べた図13の例に従い、フレーム50で連結し、一対のカメラ10間に生じる位置ずれを抑えるようにしてもよい。
 カメラ10を保持する一対の支持体18を連結するフレーム50は、自動車等の各種車両の内部に収容することが可能である。
 例えば、自動車の内部に収容する場合であれば、上記第3の実施の形態で述べた図14(A)の例に従ってフレーム50を自動車の屋根41の内側に収容し、そのフレーム50で連結された一対の支持体18は、屋根41から突出させる。このように屋根41から突出させた支持体18の先端部18aに、カメラ10が設けられる。
 或いは、上記第3の実施の形態で述べた図14(B)の例に従ってフレーム50を自動車の屋根41に取り付けられるリアスポイラ44の内側に収容し、そのフレーム50で連結された一対の支持体18は、リアスポイラ44から突出させる。このようにリアスポイラ44から突出させた支持体18の先端部18aに、カメラ10が設けられる。
 尚、支持体18の先端部18aには、上記図2(A)に示したようなカメラ10a、或いは上記図2(B)に示したようなカメラ10bが設けられてもよい。支持体18の先端部18aにカメラ10a或いはカメラ10bを設けた場合にも、上記カメラ10を設けた場合と同様の作用効果が得られる。
 また、支持体18は、上面21に対する角度θを可変とすることもできる。
 図20は第5の実施の形態に係る支持体の角度可変機構の第1構成例を示す図である。図20(A)~図20(C)にはそれぞれ、第5の実施の形態に係る支持体の一例の要部側面模式図を示している。
 例えば、図20(A)に示すように、支持体18は、基台18b及び支柱18cを備える。基台18bは、自動車の屋根等、移動体20の上面21に固定される。支柱18cは、例えば、基台18b内に設けられる軸18dに軸支され、軸18dを中心に回動可能になっている。支柱18cの先端部(支持体18の先端部18a)にカメラ10が設けられる。
 このような支持体18によれば、支柱18cを、図20(A)に示すような直立させた位置から、90度未満の一定角度で傾けた図20(B)のような位置、更には90度傾けた図20(C)のような位置まで、軸18dを中心とする回動により調整可能となる。支柱18cの回動(角度調整)は、自動又は手動で行えるようにすることが可能である。
 回動により支柱18cの角度を可変とする場合には、例えば、支柱18cの回動に応じてカメラ10の光軸13の向きを上面21の上方に保つ機構を設ける。このような機構を設けると、支柱18cを、その回動可能範囲のいずれの角度としても、光軸13が上面21の上方に向いた一対のカメラ10により、移動体20の周囲に存在する各種物体について測距を行うことが可能になる。
 また、回動により支柱18cの角度を可変とする場合には、例えば、一定角度まで回動された支柱18cを当該角度で固定する機構を設ける。このような機構を設けると、支柱18cの先端部に設けられるカメラ10の位置が安定し、測定誤差やばらつき等について精度の良い測距を行うことができる。
 尚、支持体18を上記のような構成とする場合には、使用時(測距時)には支柱18cを図20(A)又は図20(B)のような位置にし、未使用時には図20(C)の位置にする、といった運用も可能である。
 図21は第5の実施の形態に係る支持体の角度可変機構の第2構成例を示す図である。
図21(A)には、第5の実施の形態に係る支持体の一例の要部斜視模式図を示し、図21(B)には、第5の実施の形態に係る支持体の一例の要部側面模式図を示している。
 例えば、図21(A)及び図21(B)に示すように、各々基台18b及び支柱18cを備える一対の支持体18の、互いの支柱18cを軸55で連結する。基台18bは、自動車の屋根等、移動体20の上面21に固定される。一対の支柱18cを連結する軸55は、自動車の屋根の内側等、移動体20の上面21の内側に、回動可能に収容される。支柱18cの先端部(支持体18の先端部18a)にカメラ10が設けられる。
 この支持体18では、軸55の回動により、支柱18cの角度が調整される。軸55の回動は、自動又は手動で行えるようにすることが可能である。また、この支持体18においても、軸55の回動に応じてカメラ10の光軸13の向きを上面21の上方に保つ機構や、支柱18cを一定角度で固定する機構を設けることができる。
 図21(A)及び図21(B)に示すような支持体18によれば、一対の支柱18cを軸55で連結することで、一対の支柱18cを同角度へ同時に調整することが可能になる。また、軸55に、上記のフレーム50のような機能を持たせ、一対の支柱18c間の位置(角度)ずれ、即ちそれらの先端部に設けられる一対のカメラ10間の位置ずれを抑えることが可能になる。
 また、支持体18は、その高さを可変とすることもできる。
 図22は第5の実施の形態に係る支持体の高さ可変機構の構成例を示す図である。図22(A)及び図22(B)にはそれぞれ、第5の実施の形態に係る支持体の一例の要部側面模式図を示している。
 例えば、図22(A)に示すように、支持体18は、基台18b及び支柱18cを備える。基台18bは、自動車の屋根等、移動体20の上面21に固定される。支柱18cは、それ自身の伸縮によって長さを可変とした構成とされる。図22(A)には、伸ばした状態の支柱18cを点線で、縮めた状態の支柱18cを実線で、それぞれ図示している。支柱18cの伸長は、自動又は手動で行えるようにすることが可能である。
 また、支柱18cは、図22(B)に示すように、移動体20に収容されることによってその長さが縮められ、移動体20から突出されることによってその長さが伸ばされるような構成とすることもできる。図22(B)には、移動体20から突出されて伸ばされた状態の支柱18cを点線で、移動体20に収容されて縮められた状態の支柱18cを実線で、それぞれ図示している。支柱18cの突出及び収容(伸長)は、自動又は手動で行えるようにすることが可能である。
 上記図20及び図21に示したような角度可変機構を設けた支持体18に、更にこの図22に示すような長さ可変機構を設けることもできる。
 支持体18に、上記のような角度可変機構、長さ可変機構を設けることで、その先端部18aに設けられるカメラ10等の配置自由度を高めることが可能になる。
 次に、第6の実施の形態について説明する。
 図23は第6の実施の形態に係る支持体の構成例を示す図である。図23(A)~図23(C)にはそれぞれ、第6の実施の形態に係る支持体の一例の要部側面模式図を示し、図23(D)には、第6の実施の形態に係る支持体の一例の要部斜視模式図を示している。
 例えば、図23(A)に示す支持体19Aは、自動車の屋根等、移動体20の上面21に設けられる。支持体19Aは、2本の支柱19Acを備える。これら2本の支柱19Acの先端部(支持体19Aの先端部19Aa)に、例えば上記図1に示したようなカメラ10が設けられる。カメラ10は、2本の支柱19Acによって安定に保持される。また、2本の支柱19Acの間の空間により、図示しない他方の支持体19A側のカメラ10から写した時に、直立した人や障害物等の物体が隠れてしまうような状況が抑えられる。
 図23(B)に示す支持体19Bは、移動体20の上面21に設けられ、湾曲した2本の支柱19Bcを備える。これら2本の支柱19Bcの先端部(支持体19Bの先端部19Ba)に、例えば上記図1に示したようなカメラ10が設けられる。カメラ10は、2本の支柱19Bcによって安定に保持される。更に、2本の支柱19Bcが湾曲していることで、図示しない他方の支持体19B側のカメラ10から写した時に、直立した人や障害物等の物体が隠れてしまうような状況が抑えられる。
 図23(C)に示す支持体19Cは、移動体20の上面21に設けられ、屈曲した2本の支柱19Ccを備える。これら2本の支柱19Ccの先端部(支持体19Cの先端部19Ca)に、例えば上記図1に示したようなカメラ10が設けられる。カメラ10は、2本の支柱19Ccによって安定に保持される。更に、2本の支柱19Ccが屈曲し、側面視で菱形になっていることで、図示しない他方の支持体19C側のカメラ10から写した時に、直立した人や障害物等の物体が隠れてしまうような状況が抑えられる。
 図23(D)に示す支持体19Dは、移動体20の上面21に設けられ、3本の支柱19Acを備えている点で、図23(A)の支持体19Aと相違する。これら3本の支柱19Acの先端部(支持体19Dの先端部19Da)に、例えば上記図1に示したようなカメラ10が設けられる。カメラ10は、3本の支柱19Acによって安定に保持される。このようにカメラ10を保持する支柱19Acの本数は、2本に限らず、3本でもよく、また4本以上であってもよい。
 同様に、図23(B)に示す支持体19Bについても、湾曲した支柱19Bcを2本以上設けることができ、図23(C)に示す支持体19Cについても、屈曲した支柱19Ccを2本以上設けることができる。
 尚、支持体19A~19Dには、上記図2(A)に示したようなカメラ10a、或いは上記図2(B)に示したようなカメラ10bが設けられてもよい。
 上記第4の実施の形態で述べた支持体17、上記第5の実施の形態で述べた支持体18(支柱18c及び基台18b)、上記第6の実施の形態で述べた支持体19A~19Dには、アクリル等の透明な材料を用いてもよい。このような材料を用いると、一方のカメラ10で撮像される他方側の支持体17,18,19A~19Dの、その向こう側の領域の画像取得も可能になるため、測距できる範囲が広がる。また、支持体18の支柱18cや、支持体19A~19Dの各支柱19Ac,19Bc,19Ccを細くする、例えば保持するカメラ10等よりも細くすると、支柱18c,19Ac,19Bc,19Ccで隠れてしまう部分が減るため、測距できる範囲が広がる。
 次に、第7の実施の形態について説明する。
 図24は第7の実施の形態に係る測距システムの一例を示す図である。また、図25は第7の実施の形態に係る測距システム搭載車両のイメージ図である。
 ここでは、上記図9(A)に示したような、自動車40Gのリアスポイラ44に設けられた測距システム1を例にする。図24(及び図9(A))に示すように、測距システム1は、自動車40Gの屋根41に取り付けられるリアスポイラ44の左右の縁部44aに設けられた一対のカメラ10を有する。各々のカメラ10の光軸13(図1)は、リアスポイラ44の上方に向けられる。
 測距システム1は更に、図24に示すように、空間認識処理部70を有する。空間認識処理部70は、画像入力部71、画像出力部72、ステレオ測距部73及び周囲物体検知部74を備える。
 画像入力部71には、左右一対のカメラ10で撮像された各々の画像の情報(画像情報)が入力される。
 画像出力部72は、画像入力部71に入力された画像情報を、自動車40Gに搭載されるナビゲーションシステムの端末(ナビ端末)80に出力する。
 ステレオ測距部73は、画像入力部71に入力された、一対のカメラ10からの両画像情報を用い、両画像情報内の特定領域の視差を算出し、その視差に基づき、当該特定領域までの距離を算出する。
 周囲物体検知部74は、ステレオ測距部73で算出された距離の情報(距離情報)を用い、自動車40Gの周囲に存在する人や障害物等の物体を検知する。周囲物体検知部74で検知された物体の情報(検知物体情報)は、ADAS-ECU(Advanced Driver Assistance System - Electronic Control Unit)81に出力される。
 ADAS-ECU81は、周囲物体検知部74から出力された検知物体情報を用い、或いは更に、自動車40Gに搭載される各種センサ89からの情報も用いて、危険な状況にあるか否かを判断し、その判断結果に基づき、制動、旋回、専用LED灯の点灯や点滅等を行う。
 また、ADAS-ECU81の判断結果を示す情報(判断結果情報)は、ナビ端末80に出力される。ナビ端末80は、図25に示すようなモニタ82やHUD(Head Up Display)83に写し出される情報に対する判断結果情報の重畳処理を実行し、その処理結果を、モニタ82やHUD83に写像で出力したり、スピーカ84から音で運転者に知らせたりする。
 図25には一例として、自動車40Gの左後方に他の自動車40Qが接近してきている様子を示している。
 周囲物体検知部74から出力される検知物体情報には、左後方に接近する当該自動車40Qの情報が含まれる。例えば、ナビ端末80は、検知物体情報に基づくADAS-ECU81の判断結果情報を用い、例えば、左後方に接近する当該自動車40Qについて、モニタ82やHUD83においてマーク等の表示100を行う。また、ADAS-ECU81は、例えば、ウィンカーの点滅を検知するセンサ89の情報を用い、運転者が左ウィンカーを点滅させたことを検知すると、スピーカ84から警報音110を発する。更に、ADAS-ECU81は、例えば、ハンドル(ステアリング)の操舵角を検知するセンサ89の情報を用い、運転者がハンドルを左に切り始めたことを検知すると、ステアリングに適度なトルクを発生させ、ドライバに車線維持を促したり、ブレーキによる制動120を行ったりする等、危険回避支援を行う。
 上記のような測距システム1の空間認識処理部70、ADAS-ECU81及びナビ端末80が有する処理機能は、1つ又は2つ以上のプロセッサによって制御されるコンピュータを用いて実現することができる。
 以下の図26~図31には、第7の実施の形態に係る測距システム1及びそれを搭載する車両(自動車)の構成例を示す。
 図26は第7の実施の形態に係る測距システムの第1構成例を示す図である。
 図26に示す測距システム1は、リアスポイラ44の左右の縁部44aに、一対のカメラ10が設けられ、リアスポイラ44の内部に、上記のような空間認識処理部70が設けられた構成を有する。一対のカメラ10はそれぞれ、配線90で空間認識処理部70に接続される。リアスポイラ44には、例えば、空間認識処理部70への電源供給用の電源端子91、並びに、空間認識処理部70からナビ端末80及びADAS-ECU81への情報出力用の情報端子92が設けられる。
 図27は第7の実施の形態に係る測距システムの第2構成例を示す図である。
 上記図26では、リアスポイラ44に情報端子92を設ける構成を例示したが、図27に示すように、リアスポイラ44に、無線で通信する通信部93を設け、この通信部93を介して、空間認識処理部70からナビ端末80及びADAS-ECU81への情報出力を行うようにしてもよい。
 図28は第7の実施の形態に係る測距システムの第3構成例を示す図である。
 図28には、例えば上記第5の実施の形態で述べたような支持体18によってリアスポイラ44の上面から所定の高さに保持された一対のカメラ10を備える測距システム1Bの例を示している。支持体18でカメラ10がより高い位置に取り付けられることで、カメラ10からの自動車40Gの周辺の視界が広がり、屋根41で隠れる部分が減るため、測距できる範囲をより拡大することが可能になる。
 尚、図28には、支持体18で保持されたカメラ10を例にしたが、カメラ10は、上記第4の実施の形態で述べたような支持体17、上記第6の実施の形態で述べたような支持体19A~19Dで保持されてもよい。これらの場合も同様の作用効果を得ることができる。また、前述のように、支持体18や支持体17,19A~19Dに透明な材料を用いると、測距できる範囲を広げることができる。また、リアスポイラ44に透明な材料を用いても、同様の作用効果を得ることができる。
 図29は第7の実施の形態に係る測距システム搭載車両の第1構成例を示す図である。
 図29には、上記図26に示したような測距システム1及びリアスポイラ44を備える自動車40Gの例を示している。自動車40Gは更に、情報端末80a、判断処理部81a、旋回制御部84a、ブレーキ制御部85a、アクセル制御部88a、熱センサ/車速センサ89a、及び電源86aを備える。
 測距システム1の空間認識処理部70は、電源端子91を介して、電源86aに接続される。空間認識処理部70は、情報端子92を介して、情報端末80a、判断処理部81a等に接続される。
 情報端末80aには、例えば、表示部を有するナビ端末が用いられる。情報端末80aには、ナビ端末のほか、スマートフォン、タブレット端末、パーソナルコンピュータ、ドライブレコーダ等、又はこれらの組み合わせが用いられてもよい。判断処理部81aには、例えば、ADAS-ECUが用いられる。判断処理部81aには、ADAS-ECUに限らず、マイクロコントローラ等の各種プロセッサが用いられてもよい。
 尚、情報端末80aとしてドライブレコーダが設けられた自動車40Gでは、ドライブレコーダに、測距システム1の空間認識処理部70で生成される各種情報(画像情報、距離情報、検知物体情報等)が記録される。これにより、例えば、自動車40Gが、その周囲の人や障害物等の物体と接触した時までの画像を取得し記録することができる。測距を行っているため、接触時までの物体の移動速度も取得でき、証拠資料として信頼性の高い情報を残すことができる。
 判断処理部81aは、空間認識処理部70から出力される検知物体情報等を用い、更に熱センサ/車速センサ89aの情報等も用いて、自動車40Gが危険な状況にあるか否かを判断する処理を実行する。その判断結果に基づき、情報端末80aは、各種情報をHUD等の表示部に表示する。また、判断処理部81aは、スピーカ等から警報を発する処理、ブレーキをかけるようにブレーキ制御部85aを制御する処理、車線を維持又は変更するようにステアリングを旋回制御部84aで制御する処理、減速又は加速するようにアクセルをアクセル制御部88aで制御する処理等を実行する。
 尚、このような処理を実行する判断処理部81aを、リアスポイラ44に内蔵させることもできる。
 図30は第7の実施の形態に係る測距システム搭載車両の第2構成例を示す図である。
 図30には、上記図27に示したような測距システム1及びリアスポイラ44を備える自動車40Gの例を示している。自動車40Gは、リアスポイラ44に設けられた通信部93との間で、無線通信87aaを行う通信部87aが設けられる。図30に示す第2構成例は、このように無線通信手段を用いる点で、上記図29に示した第1構成例と相違するものである。
 尚、第7の実施の形態において、車両の後方にハッチバック式のようなドアを有する場合、そのドアの上縁部にリアスポイラ44を設けてもよい。また、上記の各実施の形態のように、カメラ10は、上記図2(A)に示したようなカメラ10a、又は上記図2(B)に示したようなカメラ10bが用いられてもよく、カメラ10等を支持する支持体を設けてもよいし、その支持体が図15~図23のような形状を有していてもよい。
 上記図29及び図30には、測距システム1のカメラ10をリアスポイラ44に設けた自動車40Gを例にしたが、カメラ10を車体の屋根41に設ける例を、第3構成例として図31に示す。
 図31は第7の実施の形態に係る測距システム搭載車両の第3構成例を示す図である。
 ここでは、上記図7(B)に示したような、屋根41のリア側の縁部41bにカメラ10を設ける自動車40Bを例にする。図31に示すように、この第3構成例の自動車40Bでは、測距システム1の空間認識処理部70が、自動車40B内に設けられ、情報端末80a、判断処理部81a等と接続される。その他の構成は、上記図29に示した第1構成例の自動車40Gと同様とすることができる。
 尚、この第3構成例の自動車40Bについても、上記図30の例に従い、空間認識処理部70から情報を出力する通信部93、及びその通信部93との間で無線通信87aaを行う通信部87aを設けることができる。
 図31には、屋根41のリア側にカメラ10を設ける例を示したが、屋根41に設けるカメラ10の位置は、上記図7(A)、図7(C)又は図8(A)~図8(C)に示したような位置でもよい。また、上記第2の実施の形態で述べたように、カメラ10を自動車の屋根41に対角線上に設けてもよいし、自動車が後方にハッチバック式のようなドアを有する場合にそのドアの上縁部に設けてもよい。また、カメラ10は、上記図11(A)~図11(C)に示したようなルーフレール46や、上記図12に示したルーフキャリア47に設けられてもよい。また、カメラ10のほか、上記図2(A)に示したようなカメラ10a、又は上記図2(B)に示したようなカメラ10bが用いられてもよく、カメラ10等は、図15~図23に示したような支持体17、支持体18、又は支持体19A~19D等で保持されてもよい。
 次に、第8の実施の形態について説明する。
 図32は第8の実施の形態に係る測距システム搭載車両の第1構成例を示す図である。図32には、第8の実施の形態に係る測距システム搭載車両の第1構成例の要部斜視模式図を示している。
 図32に示す車両(自動車)40Rは、例えば上記第5の実施の形態で述べたような支持体18で保持されたカメラ10(10-1,10-2,10-3)が屋根41の3箇所に設けられた測距システム1Cを含む。カメラ10-1,10-2,10-3はそれぞれ、光軸13を屋根41の上方に向けて、支持体18で保持される。
 測距システム1Cでは、カメラ10-1とカメラ10-2の画像を用いて視差が求められ、カメラ10-1とカメラ10-3の画像を用いて視差が求められ、カメラ10-2とカメラ10-3の画像を用いて視差が求められる。尚、図32には、視差を求めるカメラ10の組合せを点線矢印で模式的に図示している。これらの視差が用いられ、自動車40Rの周囲に存在する各種物体について、距離等の情報が取得される。
 例えば、或る対のカメラ10(例えばカメラ10-1とカメラ10-2)では、視差角が小さくなって、測定誤差やばらつき等の精度良く視差が求められない領域が生じることがある。測距システム1Cでは、各対のそれぞれが車両40Rの周辺の3領域を分担することで、そのような領域を別の対のカメラ(例えばカメラ10-3とカメラ10-1又はカメラ10-2)で補い、測定誤差やばらつき等の精度良く視差を求めることが可能になる。これにより、自動車40Rの周囲に存在する各種物体についての情報を、優れた精度で取得することが可能になる。また、遠近によって同一物体の視差に違いがでる、或る対のカメラ10(例えばカメラ10-1とカメラ10-2)と、別の対のカメラ(例えばカメラ10-3とカメラ10-1又はカメラ10-2)の、2通りの測距結果を用い、当該物体の測距精度を高めることが可能になる。また、車両40Rからの測距可能な距離が長くなるとともに、測定誤差やばらつきの精度も向上し、更にまた、屋根41やカメラ10で視界を邪魔されない領域のみで全方位の測距を行うことも可能となる。
 図33は第8の実施の形態に係る測距システム搭載車両の第2構成例を示す図である。図33には、第8の実施の形態に係る測距システム搭載車両の第2構成例の要部斜視模式図を示している。
 図33に示す車両(自動車)40Sは、例えば上記第5の実施の形態で述べたような支持体18で保持されたカメラ10(10-1,10-2,10-3,10-4)が屋根41の四隅に設けられた測距システム1Dを含む。カメラ10-1,10-2,10-3,10-4はそれぞれ、光軸13を屋根41の上方に向けて、支持体18で保持される。
 測距システム1Dでは、カメラ10-1とカメラ10-2の画像を用いて視差が求められ、カメラ10-1とカメラ10-3の画像を用いて視差が求められ、カメラ10-2とカメラ10-4の画像を用いて視差が求められ、カメラ10-3とカメラ10-4の画像を用いて視差が求められる。そして、各カメラ10の対のそれぞれを用いて、車両40Sの周辺の4領域を分担して各種物体についての視差が求められる。尚、図33には、視差を求めるカメラ10の組合せを点線矢印で模式的に図示している。これらの視差が用いられ、自動車40Sの周囲に存在する各種物体について、距離等の情報が取得される。
 この測距システム1Dによっても、上記測距システム1Cと同様に、測定誤差やばらつき等の精度良く視差を求め、自動車40Sの周囲に存在する各種物体についての情報を、優れた精度で取得することが可能になる。また、車両40Sからの測距可能な距離が長くなるとともに、測定誤差やばらつきの精度も向上し、更にまた、屋根41やカメラ10で視界を邪魔されない領域のみで全方位の測距を行うことも可能となる。
 尚、図32及び図33では、カメラ10を例にしたが、上記図2(A)に示したようなカメラ10a、又は上記図2(B)に示したようなカメラ10bが用いられてもよい。カメラ10等は、支持体18に限らず、支持体17又は支持体19A~19D等で保持されてもよく、また、支持体18等を介さずに屋根41に設けられてもよい。カメラ10等の少なくとも一部は、屋根41に取り付けられる部品(リアスポイラ44等)に設けられてもよい。
 以上説明した測距システム1等は、車両に限らず、各種移動体に適用することができる。測距システム1等(ここでは一例として測距システム1(図1))が適用されるその他の移動体の例を以下に示す。
 図34は第1適用例を示す図である。
 図34(A)及び図34(B)には、測距システム1を航空機200(移動体)に適用した例の要部側面模式図を示している。図34(A)に示すように、航空機200の上面(高所の上面等)に、測距システム1の一対のカメラ10を設ける。これにより、航空機200の上方側全方位についての測距が可能になる。また、図34(B)に示すように、航空機200の下面に、測距システム1の一対のカメラ10を設けてもよい。これにより、航空機200の下方側全方位についての測距が可能になる。航空機200の上面と下面にそれぞれ、測距システム1の一対のカメラ10を設け、航空機200の上方側全方位と下方側全方位を測距の対象とすることもできる。測距システム1は、図34の例に従い、ヘリコプター、ドローンといった各種飛行体に同様に適用可能である。
 図35は第2適用例を示す図である。
 図35(A)及び図35(B)には、測距システム1を船舶300(移動体)に適用した例の要部側面模式図を示している。図35(A)に示すように、船舶300の上面(高所の上面等)に、測距システム1の一対のカメラ10を設ける。ここではカメラ10を支持体18で支持して設けた形態を例示している。これにより、船舶300の全方位についての測距が可能になる。また、図35(B)に示すように、船舶300の船底に測距システム1の一対のカメラ10を設け、水中を測距の対象とすることもできる。測距システム1は、船舶300のような水上を移動するものに限らず、水中を移動するものにも同様に適用可能である。
 図36は第3適用例を示す図である。
 図36には、測距システム1をロボット400(移動体)に適用した例の要部正面模式図を示している。図36に示すように、ロボット400の上面(高所の上面等)に、測距システム1の一対のカメラ10を設ける。ここではカメラ10を支持体18で支持して設けた形態を例示している。これにより、ロボット400の全方位についての測距が可能になる。測距システム1は、人型に限らず、掃除ロボット等の家庭用ロボットや産業用ロボット、探索用ロボットといった各種形態のロボットに同様に適用可能である。
 図37は第4適用例を示す図である。
 図37には、測距システム1をパーソナルモビリティ500(移動体)に適用した例の要部斜視模式図を示している。図37に示すように、パーソナルモビリティ500の高所の上面、例えば支柱510の上面に、測距システム1の一対のカメラ10を設ける。これにより、パーソナルモビリティ500の全方位についての測距が可能になる。
 上記については単に例を示すものである。更に、多数の変形、変更が当業者にとって可能であり、本発明は上記に示し、説明した正確な構成及び応用例に限定されるものではなく、対応する全ての変形例及び均等物は、添付の請求項及びその均等物による本発明の範囲とみなされる。
 1,1A,1B,1C,1D 測距システム
 10,10a,10b,10-1,10-2,10-3,10-4 カメラ
 11,11a 撮像素子
 11A ケース
 12,12a レンズ
 13,13a 光軸
 14,14b カバー
 15a ミラー
 16a 支持棒
 17,18,19A,19B,19C,19D 支持体
 17a,18a,19Aa,19Ba,19Ca,19Da 先端部
 17b 空間
 18b 基台
 18c,19Ac,19Bc,19Cc,510 支柱
 18d,55 軸
 20 移動体
 21 上面
 21a,21b 部位
 30L,36L 第1画像
 30R,36R 第2画像
 30a 画像
 31L,31R,31 空
 32L,32R,32 地上付近
 33L,33R,33 車両
 34L,34R,34 建造物
 35L,35R,35 移動体の一部
 36 視差
 37L,37R 歩行者
 38L,38R 樹木
 39 測距対象物
 39L,39R 撮像
 40A,40B,40C,40D,40E,40F,40G,40H,40I,40J,40K,40L,40M,40N,40P,40Q,40R,40S 自動車
 41 屋根
 41a,41b,41c,44a,46a,46b,47a 縁部
 42,43 中央線
 44,45 リアスポイラ
 45a 中央部
 45b,51 端部
 46 ルーフレール
 46c 中間部
 47 ルーフキャリア
 50 フレーム
 60,61 物体
 70 空間認識処理部
 71 画像入力部
 72 画像出力部
 73 ステレオ測距部
 74 周囲物体検知部
 80 ナビ端末
 80a 情報端末
 81 ADAS-ECU
 81a 判断処理部
 82 モニタ
 83 HUD
 84 スピーカ
 84a 旋回制御部
 85a ブレーキ制御部
 86a 電源
 87a,93 通信部
 87aa 無線通信
 88a アクセル制御部
 89 センサ
 89a 熱センサ/車速センサ
 90 配線
 91 電源端子
 92 情報端子
 100 表示
 110 警報音
 120 制動
 200 航空機
 300 船舶
 400 ロボット
 500 パーソナルモビリティ

Claims (20)

  1.  移動体に設けられる測距システムであって、
     前記移動体の屋根の上面若しくは扉の上縁部の上面、又は前記屋根若しくは前記上縁部に設けられる部品の上面の第1部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第1光軸を備え、前記第1光軸周りの全方位に視野を有する第1カメラと、
     前記上面の前記第1部位とは異なる第2部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第2光軸を備え、前記第2光軸周りの全方位に視野を有する第2カメラと
     を含むことを特徴とする測距システム。
  2.  前記第1カメラは、前記上面よりも上方に位置する第1レンズを含み、
     前記第2カメラは、前記上面よりも上方に位置する第2レンズを含むことを特徴とする請求項1に記載の測距システム。
  3.  前記移動体は、車両であることを特徴とする請求項1に記載の測距システム。
  4.  前記第1カメラと前記第2カメラとは、前記移動体の前進方向の前方側と後方側とにそれぞれ設けられることを特徴とする請求項1に記載の測距システム。
  5.  前記第1カメラと前記第2カメラとは、前記移動体の前進方向に対して右方側と左方側とにそれぞれ設けられることを特徴とする請求項1に記載の測距システム。
  6.  前記第1カメラと前記第2カメラとを連結し、前記上面よりも内側に収容される連結体を更に含むことを特徴とする請求項1に記載の測距システム。
  7.  前記第1カメラから得られる第1画像と前記第2カメラから得られる第2画像との視差に基づいて全方位の測距を行うことを特徴とする請求項1に記載の測距システム。
  8.  複数の支持体を有し、
     前記第1カメラ及び前記第2カメラは、前記複数の支持体のそれぞれにより前記上面よりも上方の位置に保持されることを特徴とする請求項1に記載の測距システム。
  9.  前記上面の前記第1部位及び前記第2部位とは異なる第3部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第3光軸を備え、前記第3光軸周りの全方位に視野を有する第3カメラを更に含むことを特徴とする請求項1に記載の測距システム。
  10.  前記第1カメラから得られる第1画像と前記第2カメラから得られる第2画像との第1視差と、前記第2画像と前記第3カメラから得られる第3画像との第2視差と、前記第3画像と前記第1画像との第3視差とに基づいて全方位の測距を行うことを特徴とする請求項9に記載の測距システム。
  11.  複数の支持体を有し、
     前記第1カメラ、前記第2カメラ及び前記第3カメラは、前記複数の支持体のそれぞれにより前記上面よりも上方の位置に保持されることを特徴とする請求項9に記載の測距システム。
  12.  前記複数の支持体は、前記上面との間に空間を有する部分を含むことを特徴とする請求項8に記載の測距システム。
  13.  前記複数の支持体は、シャークフィン状の形状を有することを特徴とする請求項8に記載の測距システム。
  14.  前記複数の支持体は、柱状であることを特徴とする請求項8に記載の測距システム。
  15.  前記複数の支持体は、前記上面から斜め上方に突出することを特徴とする請求項14に記載の測距システム。
  16.  前記複数の支持体は、前記上面に対する角度が可変であることを特徴とする請求項14に記載の測距システム。
  17.  前記複数の支持体は、前記上面からの高さが可変であることを特徴とする請求項14に記載の測距システム。
  18.  屋根と、
     扉と、
     前記屋根の上面又は前記扉の上縁部の上面の第1部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第1光軸を備え、前記第1光軸周りの全方位に視野を有する第1カメラと、
     前記上面の前記第1部位とは異なる第2部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第2光軸を備え、前記第2光軸周りの全方位に視野を有する第2カメラと
     を含むことを特徴とする移動体。
  19.  移動体の屋根又は扉の上縁部に取り付けられる部品であって、
     上面と、
     前記上面の第1部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第1光軸を備え、前記第1光軸周りの全方位に視野を有する第1カメラと、
     前記上面の前記第1部位とは異なる第2部位に設けられ、前記上面よりも上方に位置し、前記上面の上方に向けられる第2光軸を備え、前記第2光軸周りの全方位に視野を有する第2カメラと
     を含むことを特徴とする部品。
  20.  前記移動体は車両であり、
     前記部品はリアスポイラ、ルーフレール又はルーフキャリアであることを特徴とする請求項19に記載の部品。
PCT/JP2016/057357 2015-12-04 2016-03-09 測距システム、移動体及び部品 WO2017094269A1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US15/994,117 US10663295B2 (en) 2015-12-04 2018-05-31 Distance measurement system, mobile object, and component

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2015-237172 2015-12-04
JP2015237172A JP6623729B2 (ja) 2015-12-04 2015-12-04 測距システム、移動体及び部品

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US15/994,117 Continuation US10663295B2 (en) 2015-12-04 2018-05-31 Distance measurement system, mobile object, and component

Publications (1)

Publication Number Publication Date
WO2017094269A1 true WO2017094269A1 (ja) 2017-06-08

Family

ID=58796815

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2016/057357 WO2017094269A1 (ja) 2015-12-04 2016-03-09 測距システム、移動体及び部品

Country Status (3)

Country Link
US (1) US10663295B2 (ja)
JP (1) JP6623729B2 (ja)
WO (1) WO2017094269A1 (ja)

Families Citing this family (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102019109147A1 (de) * 2019-04-08 2020-10-08 Carl Zeiss Jena Gmbh Bildaufnahmesystem und verfahren zum aufnehmen von bildern
JP7226360B2 (ja) * 2020-02-05 2023-02-21 トヨタ自動車株式会社 車両制御装置、制御装置、マネージャ、方法、プログラム、および車両
JP7327230B2 (ja) 2020-03-18 2023-08-16 トヨタ自動車株式会社 制御装置を備える車両、方法、プログラム
JP7422057B2 (ja) * 2020-11-19 2024-01-25 株式会社日立製作所 3次元画像処理装置
JP2022142433A (ja) * 2021-03-16 2022-09-30 キヤノン株式会社 光電変換装置及び撮像システム

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000074669A (ja) * 1998-08-28 2000-03-14 Zenrin Co Ltd 三次元地図データベースの作成方法及び装置
JP2006250917A (ja) * 2005-02-14 2006-09-21 Kazuo Iwane 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
JP2008096162A (ja) * 2006-10-06 2008-04-24 Iwate Univ 3次元距離計測センサおよび3次元距離計測方法

Family Cites Families (51)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH04331311A (ja) * 1991-01-24 1992-11-19 Mitsubishi Electric Corp 車間距離検出装置
JP3468428B2 (ja) * 1993-03-24 2003-11-17 富士重工業株式会社 車輌用距離検出装置
JP2939087B2 (ja) 1993-04-07 1999-08-25 シャープ株式会社 全方位視覚系
US6118475A (en) * 1994-06-02 2000-09-12 Canon Kabushiki Kaisha Multi-eye image pickup apparatus, and method and apparatus for measuring or recognizing three-dimensional shape
JP3723282B2 (ja) 1996-06-20 2005-12-07 シャープ株式会社 測距型全方位視覚センサ
DE19636028C1 (de) * 1996-09-05 1997-11-20 Daimler Benz Ag Verfahren zur Stereobild-Objektdetektion
JP3337197B2 (ja) * 1997-04-04 2002-10-21 富士重工業株式会社 車外監視装置
JP3516856B2 (ja) * 1998-01-30 2004-04-05 富士重工業株式会社 車外監視装置
JP3596314B2 (ja) * 1998-11-02 2004-12-02 日産自動車株式会社 物体端の位置計測装置および移動体の通行判断装置
EP2410741A1 (en) * 1999-04-16 2012-01-25 Panasonic Corporation Image processing apparatus and monitoring system
JP2001141422A (ja) 1999-11-10 2001-05-25 Fuji Photo Film Co Ltd 画像撮像装置及び画像処理装置
US20030202097A1 (en) * 2000-10-26 2003-10-30 Autoliv Development Ab Night vision arrangement
DE10059313A1 (de) * 2000-11-29 2002-06-13 Bosch Gmbh Robert Anordnung und Verfahren zur Überwachung des Umfelds eines Fahrzeugs
JP4425495B2 (ja) * 2001-06-08 2010-03-03 富士重工業株式会社 車外監視装置
JP4119177B2 (ja) 2002-06-28 2008-07-16 コクヨ株式会社 ラベル印字装置
US6762790B1 (en) * 2002-12-20 2004-07-13 Bendix Commercial Vehicle Systems Llc Universal camera bracket that allows 180 degree of pitch adjustment
JP4247066B2 (ja) * 2003-08-01 2009-04-02 株式会社オートネットワーク技術研究所 車両周辺視認装置
JP4134939B2 (ja) * 2004-04-22 2008-08-20 株式会社デンソー 車両周辺表示制御装置
JP3977368B2 (ja) * 2004-09-30 2007-09-19 クラリオン株式会社 駐車支援システム
JP5159070B2 (ja) * 2006-08-31 2013-03-06 アルパイン株式会社 車両周辺画像表示装置及び表示方法
WO2008053649A1 (fr) 2006-11-02 2008-05-08 Konica Minolta Holdings, Inc. Procédé d'acquisition d'image grand angle et dispositif d'appareil photographique stéréo grand angle
JP4846545B2 (ja) * 2006-11-29 2011-12-28 株式会社デンソー 運転支援装置
JP4858839B2 (ja) * 2006-12-28 2012-01-18 章 工藤 撮像カメラ付き旗竿及びグリーン用撮像カメラシステム
JP5072576B2 (ja) * 2007-12-20 2012-11-14 アルパイン株式会社 画像表示方法および画像表示装置
TWI332453B (en) * 2008-07-21 2010-11-01 Univ Nat Defense The asynchronous photography automobile-detecting apparatus and method thereof
DE102008049921A1 (de) * 2008-09-29 2010-04-15 Mobotix Ag Verfahren zur Videodatenstrom-Erzeugung
JP5344227B2 (ja) * 2009-03-25 2013-11-20 アイシン精機株式会社 車両用周辺監視装置
JP2010276433A (ja) 2009-05-28 2010-12-09 Tokyo Institute Of Technology 撮像装置、画像処理装置及び距離計測装置
JP2011064566A (ja) * 2009-09-17 2011-03-31 Fujitsu Ltd 距離推定装置
JP5035321B2 (ja) * 2009-11-02 2012-09-26 株式会社デンソー 車両周辺表示制御装置および車両周辺表示制御装置用のプログラム
US9762795B2 (en) * 2013-09-04 2017-09-12 Gyeongil Kweon Method and apparatus for obtaining rectilinear images using rotationally symmetric wide-angle lens
JP5569329B2 (ja) * 2010-10-15 2014-08-13 大日本印刷株式会社 会議システム、監視システム、画像処理装置、画像処理方法及び画像処理プログラム等
EP2511137B1 (en) * 2011-04-14 2019-03-27 Harman Becker Automotive Systems GmbH Vehicle Surround View System
US8594973B2 (en) * 2011-06-14 2013-11-26 Xyz Science Co., Ltd. Longitude/latitude ten-dimension XYZ digital-displaying spectrometer
JP2013024662A (ja) 2011-07-19 2013-02-04 Toyota Infotechnology Center Co Ltd 3次元範囲計測システム、3次元範囲計測プログラムおよび記録媒体
US9349057B2 (en) * 2011-09-12 2016-05-24 Nissan Motor Co., Ltd. Three-dimensional object detection device
CN104246821B (zh) * 2012-04-16 2016-08-17 日产自动车株式会社 三维物体检测装置和三维物体检测方法
CN104272715A (zh) * 2012-05-01 2015-01-07 中央工程株式会社 立体相机及立体相机***
JP5900623B2 (ja) * 2012-07-27 2016-04-06 日産自動車株式会社 立体物検出装置及び立体物検出方法
US20140085409A1 (en) * 2012-09-25 2014-03-27 GM Global Technology Operations LLC Wide fov camera image calibration and de-warping
TWI535587B (zh) * 2012-11-14 2016-06-01 義晶科技股份有限公司 利用觸控面板來控制車用影像之顯示的方法及其車用影像系統
EP2998934B1 (en) * 2013-05-16 2020-08-05 Sony Corporation Image processing device, image processing method, and program
JP6165050B2 (ja) * 2013-12-25 2017-07-19 株式会社日本防犯システム 移動式監視カメラ装置
JP6291866B2 (ja) * 2014-01-27 2018-03-14 株式会社デンソー 運転支援装置、および運転支援方法
EP3100206B1 (en) * 2014-01-30 2020-09-09 Mobileye Vision Technologies Ltd. Systems and methods for lane end recognition
US9621798B2 (en) * 2014-07-07 2017-04-11 GM Global Technology Operations LLC Grid-based image resolution enhancement for video processing module
JP6379967B2 (ja) * 2014-10-09 2018-08-29 株式会社デンソー 画像生成装置および画像生成方法
EP3043202B1 (en) * 2015-01-09 2019-07-24 Ricoh Company, Ltd. Moving body system
JP6307758B2 (ja) * 2015-02-02 2018-04-11 本田技研工業株式会社 車両用サイドミラー装置
US10089538B2 (en) * 2015-04-10 2018-10-02 Bendix Commercial Vehicle Systems Llc Vehicle 360° surround view system having corner placed cameras, and system and method for calibration thereof
US10259390B2 (en) * 2016-05-27 2019-04-16 GM Global Technology Operations LLC Systems and methods for towing vehicle and trailer with surround view imaging devices

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000074669A (ja) * 1998-08-28 2000-03-14 Zenrin Co Ltd 三次元地図データベースの作成方法及び装置
JP2006250917A (ja) * 2005-02-14 2006-09-21 Kazuo Iwane 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
JP2008096162A (ja) * 2006-10-06 2008-04-24 Iwate Univ 3次元距離計測センサおよび3次元距離計測方法

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
GOTO SHINICHI ET AL.: "3D Environment Measurement Using Binocular Stereo and Motion Stereo by Mobile Robot with Omnidirectional Stereo Camera", COMPUTER VISION WORKSHOPS(ICCV WORKSHOPS), 2011 IEEE INTERNATIONAL CONFERENCE ON, pages 296 - 303, XP032095253 *

Also Published As

Publication number Publication date
US10663295B2 (en) 2020-05-26
US20180274917A1 (en) 2018-09-27
JP2017102072A (ja) 2017-06-08
JP6623729B2 (ja) 2019-12-25

Similar Documents

Publication Publication Date Title
US20210291751A1 (en) Vehicular driver monitoring system with camera having micro lens array
JP6623729B2 (ja) 測距システム、移動体及び部品
US11341700B2 (en) User interface apparatus for vehicle and vehicle
CN110612431B (zh) 自主车辆***的交叉视场
US10366512B2 (en) Around view provision apparatus and vehicle including the same
US8199975B2 (en) System and method for side vision detection of obstacles for vehicles
US7034861B2 (en) Picture composing apparatus and method
EP1961613B1 (en) Driving support method and driving support device
KR102012776B1 (ko) 차량용 어라운드 뷰 제공 장치 및 차량
US10803643B2 (en) Electronic device and user interface apparatus for vehicle
CN104442567B (zh) 交通工具图像显示***中的物体突显和传感
EP3229458A1 (en) Driver assistance apparatus
US20190056749A1 (en) Driving assistance system and vehicle comprising the same
US10855906B2 (en) Camera apparatus for vehicle, and vehicle
JP4784572B2 (ja) 運転支援方法及び運転支援装置
US20130208118A1 (en) Vehicular infrared night assistant driving system
US20130021453A1 (en) Autostereoscopic rear-view display system for vehicles
JP2009154641A (ja) 運転支援装置
JP2019110448A (ja) 表示制御装置及び表示システム
TWM518653U (zh) 行車影像輔助裝置
KR20200082841A (ko) 카메라 줌 배율의 조정 방법
KR102302574B1 (ko) 스테레오 카메라 모듈 및 스테레오 카메라의 캘리브레이션 방법
KR20210019925A (ko) 차량용 어라운드 뷰 영상 제공 장치 및 차량
TWM510877U (zh) 三維行車影像輔助裝置
JP2023141792A (ja) 画像表示装置及び画像表示方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 16870210

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 16870210

Country of ref document: EP

Kind code of ref document: A1