WO2015125301A1 - 自己位置算出装置及び自己位置算出方法 - Google Patents

自己位置算出装置及び自己位置算出方法 Download PDF

Info

Publication number
WO2015125301A1
WO2015125301A1 PCT/JP2014/054317 JP2014054317W WO2015125301A1 WO 2015125301 A1 WO2015125301 A1 WO 2015125301A1 JP 2014054317 W JP2014054317 W JP 2014054317W WO 2015125301 A1 WO2015125301 A1 WO 2015125301A1
Authority
WO
WIPO (PCT)
Prior art keywords
pattern light
vehicle
road surface
feature point
feature points
Prior art date
Application number
PCT/JP2014/054317
Other languages
English (en)
French (fr)
Inventor
山口 一郎
西内 秀和
Original Assignee
日産自動車株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 日産自動車株式会社 filed Critical 日産自動車株式会社
Priority to US15/120,603 priority Critical patent/US9778029B2/en
Priority to BR112016019593-0A priority patent/BR112016019593B1/pt
Priority to JP2016503900A priority patent/JP6187672B2/ja
Priority to EP14883481.5A priority patent/EP3113150B1/en
Priority to PCT/JP2014/054317 priority patent/WO2015125301A1/ja
Priority to CN201480076129.9A priority patent/CN106030680B/zh
Priority to RU2016137952A priority patent/RU2621826C1/ru
Priority to MX2016010741A priority patent/MX349166B/es
Publication of WO2015125301A1 publication Critical patent/WO2015125301A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/02Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments
    • B60Q1/24Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead
    • B60Q1/249Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to illuminate the way ahead or to illuminate other areas of way or environments for lighting other areas than only the way ahead for illuminating the field of view of a sensor or camera
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/002Measuring arrangements characterised by the use of optical techniques for measuring two or more coordinates
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01BMEASURING LENGTH, THICKNESS OR SIMILAR LINEAR DIMENSIONS; MEASURING ANGLES; MEASURING AREAS; MEASURING IRREGULARITIES OF SURFACES OR CONTOURS
    • G01B11/00Measuring arrangements characterised by the use of optical techniques
    • G01B11/26Measuring arrangements characterised by the use of optical techniques for measuring angles or tapers; for testing the alignment of axes
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/521Depth or shape recovery from laser ranging, e.g. using interferometry; from the projection of structured light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle
    • GPHYSICS
    • G08SIGNALLING
    • G08GTRAFFIC CONTROL SYSTEMS
    • G08G1/00Traffic control systems for road vehicles
    • G08G1/16Anti-collision systems

Definitions

  • the present invention relates to a self-position calculation device and a self-position calculation method.
  • Patent Document 1 A technique is known in which an image in the vicinity of a vehicle is captured by a camera mounted on the vehicle and the amount of movement of the vehicle is obtained based on the change in the image (see Patent Document 1).
  • Patent Document 1 a feature point is detected from an image so that the amount of movement can be obtained accurately even when the vehicle moves at low speed and delicately, the position of the feature point is obtained, and the moving direction and movement of the feature point.
  • the movement amount of the vehicle is obtained from the distance (movement amount).
  • Patent Document 2 a technique for performing three-dimensional measurement using a laser projector that projects a lattice pattern (pattern light) is known (see Patent Document 2).
  • a pattern light projection area is captured by a camera, pattern light is extracted from the captured image, and the behavior of the vehicle is obtained from the position of the pattern light.
  • the present invention provides a self-position calculation device and a self-position calculation method capable of easily distinguishing feature points from pattern light and calculating the vehicle's self-position accurately. For the purpose.
  • the self-position calculation device projects pattern light on a road surface around the vehicle, captures an image of the road surface around the vehicle including the region where the pattern light is projected, and acquires an image. Calculate the attitude angle of the vehicle with respect to the road surface from the shape of the pattern light in the acquired image, detect multiple feature points on the road surface from the acquired image, and based on the time changes of the detected multiple feature points on the road surface Calculating the vehicle attitude change amount, adding the attitude change amount to the initial position and attitude angle of the vehicle with respect to the road surface, calculating the current position and attitude angle of the vehicle, and projecting pattern light, Pattern light is selectively projected onto a specific pattern light projection area among the plurality of pattern light projection areas in accordance with the detection state of the feature points on the road surface in the feature point detection unit.
  • FIG. 1 is a block diagram showing the overall configuration of the self-position calculation apparatus according to the first embodiment.
  • FIG. 2 is an external view showing an example of a method for mounting a projector and a camera on a vehicle.
  • FIG. 3A is a diagram illustrating a state in which the position on the road surface irradiated with the spot light is calculated using a projector and a camera, and FIG. 3B is different from the region irradiated with the pattern light. It is a figure which shows a mode that the moving direction of a camera is calculated
  • FIG. 4 is a diagram showing an image of pattern light obtained by performing binarization processing on an image acquired by a camera, FIG.
  • FIG. 4A is a diagram showing the entire pattern light
  • FIG. FIG. 4C is an enlarged view showing the spot light
  • FIG. 4C is a view showing the position of the center of gravity of the spot light.
  • FIG. 5 is a schematic diagram for explaining a method of calculating the change amount of the distance and the posture angle.
  • FIG. 6 is a diagram showing the feature points detected on the image
  • FIG. 6A is a diagram showing the first frame (image) acquired at time t
  • FIG. 6B is the diagram at time t + ⁇ t. It is a figure which shows the acquired 2nd frame.
  • 7A is a diagram illustrating an image acquired by the camera
  • FIG. 7B is a diagram illustrating an image of pattern light obtained by performing binarization processing on the image acquired by the camera.
  • FIG. 8 is a schematic diagram illustrating an example of a pattern light projection area divided into upper, lower, left, and right.
  • FIG. 9A is a schematic diagram illustrating an example of detected feature points
  • FIG. 9B is a schematic diagram illustrating an example of a selected pattern light projecting region.
  • FIG. 10A is a graph showing the change over time of the selected pattern light projection area
  • FIG. 10B is a graph showing the change over time of the number of feature points detected in each pattern light projection area. is there.
  • FIG. 11 is a flowchart for explaining an example of the self-position calculation method according to the first embodiment.
  • FIG. 12 is a flowchart showing details of step S01.
  • FIG. 12 is a flowchart showing details of step S01. FIG.
  • FIG. 13A is a schematic diagram illustrating an example of detected feature points
  • FIG. 13B is a schematic diagram illustrating an example of a selected pattern light projection region
  • FIG. 14A is a graph showing the time change of the light projection flag of each pattern light projection area
  • FIG. 14B shows the time change of the number of feature points detected in each pattern light projection area. It is a graph.
  • FIG. 15 is a schematic diagram illustrating an example of a pattern light projection region that is alternately combined in a vertical stripe pattern.
  • FIG. 16A is a schematic diagram illustrating an example of detected feature points
  • FIG. 16B is a schematic diagram illustrating an example of a selected pattern light projecting region.
  • FIG. 17A is a graph showing the time change of the selected pattern light projecting region, and FIG.
  • FIG. 17B is a graph showing the time change of the number of feature points detected in each pattern light projecting region. is there.
  • FIG. 18 is a schematic diagram showing an example of a pattern light projection area divided into left and right parts.
  • FIG. 19A is a schematic diagram illustrating an example of detected feature points
  • FIG. 19B is a schematic diagram illustrating an example of a selected pattern light projecting region.
  • FIG. 20 is a schematic diagram illustrating an example of a spotlight projection area.
  • FIG. 21A is a schematic diagram illustrating an example of detected feature points
  • FIG. 21B is a schematic diagram illustrating an example of a selected pattern light projecting region.
  • FIG. 22A is a graph showing a time change of the light projection flag of each spot light
  • FIG. 22B is a time change of a determination result of whether or not a feature point exists at the position of each spot light. It is a graph showing.
  • FIG. 23 is a block diagram showing the overall configuration of the self-position calculation apparatus according to the second embodiment.
  • FIG. 24A is a schematic diagram illustrating an example of detected feature points
  • FIG. 24B is a schematic diagram illustrating an example of a selected pattern light projecting region.
  • FIG. 25A is a graph showing a time change of the projection flag of each spot light
  • FIG. 25B is a time change of an estimation result as to whether or not a feature point exists at the position of each spot light. It is a graph showing.
  • FIG. 26 is a flowchart illustrating an example of details of step S01 according to the second embodiment.
  • FIG. 27 is a schematic diagram illustrating an example of a pattern light projection area that is divided into four in the vehicle width direction.
  • FIG. 28A is a schematic diagram illustrating an example of a feature point increase / decrease prediction area setting method and detected feature points
  • FIG. 28B is a schematic diagram illustrating an example of a selected pattern light projection area.
  • FIG. 29A is a graph showing a time change of the projection flag of each spot light
  • FIG. 29B is a time of a determination result of whether or not a feature point exists in each feature point increase / decrease prediction area. It is a graph showing a change.
  • FIG. 30 shows an example of a flowchart for calculating the distance and orientation with respect to the road surface.
  • the self-position calculating device includes a projector 11, a camera 12, and an engine control unit (ECU) 13.
  • the projector 11 is mounted on the vehicle and projects pattern light onto a road surface around the vehicle.
  • the camera 12 is an example of an imaging unit that is mounted on a vehicle and captures an image of a road surface around the vehicle including an area where pattern light is projected.
  • the ECU 13 is an example of a control unit that controls the projector 11 and executes a series of information processing cycles for calculating the vehicle's own position from an image acquired by the camera 12.
  • the camera 12 is a digital camera using a solid-state imaging device such as a CCD and a CMOS, and acquires a digital image that can be processed.
  • the imaging target of the camera 12 is a road surface around the vehicle, and the road surface around the vehicle includes the road surface of the front, rear, side, and bottom of the vehicle.
  • the camera 12 can be mounted on the front portion of the vehicle 10, specifically on the front bumper.
  • the height and direction in which the camera 12 is installed are adjusted so that the feature point (texture) on the road surface 31 in front of the vehicle 10 and the pattern light 32b projected from the projector 11 can be imaged, and the camera 12 is provided.
  • the lens focus and aperture are also automatically adjusted.
  • the camera 12 repeatedly captures images at a predetermined time interval and acquires a series of images (frames). Image data acquired by the camera 12 is transferred to the ECU 13 every time it is imaged and stored in a memory provided in the ECU 13.
  • the projector 11 projects pattern light 32 b having a predetermined shape including a square or rectangular lattice image toward the road surface 31 within the imaging range of the camera 12.
  • the camera 12 images the pattern light 32b irradiated on the road surface 31.
  • the projector 11 includes, for example, a laser pointer and a diffraction grating.
  • the projector 11 diffracts the laser light emitted from the laser pointer with a diffraction grating, and as shown in FIG. 2 to FIG. 4, pattern light (pattern light consisting of a plurality of spot lights arranged in a matrix form) 32b, 32a).
  • the pattern light 32a composed of 5 ⁇ 7 spot lights is generated.
  • the ECU 13 includes a microcontroller including a CPU, a memory, and an input / output unit, and configures a plurality of information processing units that function as a self-position calculating device by executing a computer program installed in advance. .
  • the ECU 13 repeatedly executes a series of information processing cycles for calculating the vehicle's own position from the image acquired by the camera 12 for each image (frame).
  • the ECU 13 may also be used as an ECU used for other controls of the vehicle 10.
  • the plurality of information processing units include a pattern light extraction unit 21, an attitude angle calculation unit 22, a feature point detection unit 23, an attitude change amount calculation unit 24, a self-position calculation unit 25, and pattern light control. Part 26 is included.
  • the pattern light extraction unit 21 reads an image acquired by the camera 12 from the memory, and extracts the position of the pattern light from this image. As shown in FIG. 3A, for example, a pattern light 32a composed of a plurality of spot lights in which the projectors 11 are arranged in a matrix is projected toward the road surface 31, and the pattern light 32a reflected by the road surface 31 is captured by the camera. 12 to detect.
  • the pattern light extraction unit 21 extracts only the image of the spot light Sp as shown in FIGS. 4A and 4B by performing binarization processing on the image acquired by the camera 12. . Then, as shown in FIG.
  • the pattern light extraction unit 21 calculates the position He of the center of gravity of each spot light Sp, that is, the coordinates (Uj, Vj) on the image of the spot light Sp.
  • the position of the light 32a is extracted.
  • the coordinates are in units of pixels of the image sensor of the camera 12, and in the case of 5 ⁇ 7 spot light Sp, “j” is a natural number between 1 and 35.
  • the coordinates (Uj, Vj) on the image of the spot light Sp are stored in the memory as data indicating the position of the pattern light 32a.
  • the posture angle calculation unit 22 reads data indicating the position of the pattern light 32a from the memory, and calculates the distance and posture angle of the vehicle 10 with respect to the road surface 31 from the position of the pattern light 32a in the image acquired by the camera 12. For example, as shown in FIG. 3A, from the baseline length Lb between the projector 11 and the camera 12 and the coordinates (Uj, Vj) on the image of each spot light, The position on the road surface 31 irradiated with the spot light is calculated as a relative position with respect to the camera 12.
  • the attitude angle calculation unit 22 calculates the plane type of the road surface 31 on which the pattern light 32a is projected, that is, the distance and the attitude angle of the camera 12 with respect to the road surface 31 (normal vector) from the relative position of each spot light with respect to the camera 12. ) Is calculated.
  • the distance and posture angle of the camera 12 with respect to the road surface 31 are calculated as an example of the distance and posture angle of the vehicle 10 with respect to the road surface 31. .
  • the distance between the road surface 31 and the vehicle 10 and the posture angle of the vehicle 10 with respect to the road surface 31 can be obtained.
  • the attitude angle calculation unit 22 uses the principle of triangulation to determine the position on the road surface 31 irradiated with each spot light from the coordinates (Uj, Vj) of each spot light on the image relative to the camera 12. (Xj, Yj, Zj).
  • the distance and posture angle of the camera 12 with respect to the road surface 31 are abbreviated as “distance and posture angle”.
  • the distance and posture angle calculated by the posture angle calculation unit 22 are stored in the memory.
  • the relative position (Xj, Yj, Zj) of each spot light with respect to the camera 12 often does not exist on the same plane. This is because the relative position of each spot light changes according to the asphalt unevenness exposed on the road surface 31. Therefore, a plane formula that minimizes the sum of squares of distance errors with respect to each spot light may be obtained by using the least square method.
  • the distance and posture angle data calculated in this way are used by the self-position calculation unit 25 shown in FIG.
  • the feature point detection unit 23 reads an image acquired by the camera 12 from the memory, and detects a feature point on the road surface 31 from the image read from the memory.
  • the feature point detection unit 23 detects, for example, “DG Lowe,“ Distinctive Image Features from Scale-Invariant Keypoints, ”“ Int. J. Compute. Vis., Vol. 60, no. 2, pp. 91-110, Nov. 200 "can be used.
  • the feature point detection unit 23 may be configured as “Akira Kanazawa, Kenichi Kanaya,“ Extracting feature points of an image for computer vision, ”IEICE Journal, vol. 87, no. 12, pp. 1043-1048, Dec. 2004. Can also be used.
  • the feature point detector 23 detects, as a feature point, a point whose luminance value changes greatly compared to the surroundings, such as a vertex of an object, using, for example, a Harris operator or a SUSAN operator.
  • the feature point detection unit 23 may detect, as a feature point, a point where the luminance value changes under a certain regularity using a SIFT (Scale-Invariant Feature Transform) feature amount. .
  • SIFT Scale-Invariant Feature Transform
  • the feature point detection unit 23 counts the total number N of feature points detected from one image, and assigns an identification number (i (1 ⁇ i ⁇ N)) to each feature point.
  • the position (Ui, Vi) on the image of each feature point is stored in a memory in the ECU 13.
  • FIGS. 6A and 6B show examples of feature points Te detected from an image acquired by the camera 12. Furthermore, the change direction and change amount of each feature point Te are shown as a vector Dte.
  • the feature points on the road surface 31 mainly assume asphalt mixture grains having a size of 1 cm to 2 cm.
  • the resolution of the camera 12 is VGA (approximately 300,000 pixels).
  • the distance of the camera 12 with respect to the road surface 31 is about 70 cm.
  • the imaging direction of the camera 12 is inclined toward the road surface 31 by about 45 degrees from the horizontal plane.
  • the luminance value when the image acquired by the camera 12 is transferred to the ECU 13 is in the range of 0 to 255 (0: the darkest, 255: the brightest).
  • the posture change amount calculation unit 24 among the images of each frame captured every fixed information processing cycle, the position coordinates (Ui,) of the plurality of feature points included in the image of the previous (time t) frame. Vi) is read from memory. Further, the posture change amount calculation unit 24 reads the position coordinates (Ui, Vi) on the image of a plurality of feature points included in the image of the current frame (time t + ⁇ t) from the memory. Then, the posture change amount calculation unit 24 obtains the posture change amount of the vehicle based on temporal position changes on the images of the plurality of feature points.
  • the “vehicle attitude change amount” includes both the “distance and attitude angle change amount” of the vehicle with respect to the road surface and the “vehicle movement amount” on the road surface.
  • the amount of change in the distance and posture angle” and “the amount of movement of the vehicle” will be described.
  • FIG. 6A shows an example of the first frame (image) 38 (FIG. 5) acquired at time t.
  • FIGS. 5 and 6A consider a case where, for example, the relative positions (Xi, Yi, Zi) of three feature points Te1, Te2, Te3 are calculated in the first frame 38, respectively.
  • the plane G (see FIG. 6A) specified by the feature points Te1, Te2, Te3 can be regarded as a road surface. Therefore, the posture change amount calculation unit 24 can obtain the distance and posture angle (normal vector) of the camera 12 with respect to the road surface (plane G) from the relative position (Xi, Yi, Zi) of each feature point.
  • the posture change amount calculation unit 24 forms distances (l1, l2, l3) between the feature points Te1, Te2, Te3 and straight lines connecting the feature points Te1, Te2, Te3 by a known camera model. The angle can be determined.
  • the camera 12 in FIG. 5 shows the position of the camera when the first frame is imaged.
  • the Z axis is set in the imaging direction of the camera 12, and the camera 12 is included with the imaging direction as the normal line.
  • An X axis and a Y axis that are orthogonal to each other are set in the plane.
  • the horizontal direction and the vertical direction are set to the V axis and the U axis, respectively.
  • FIG. 6B shows the second frame 38 ′ acquired at time (t + ⁇ t) when time ⁇ t has elapsed from time t.
  • the camera 12 ′ in FIG. 5 indicates the position of the camera when the second frame 38 ′ is imaged.
  • the camera 12 ′ captures the feature points Te1, Te2, and Te3, and the feature point detection unit 23 detects the feature points Te1, Te2, and Te3.
  • the posture change amount calculation unit 24 calculates the relative position (Xi, Yi, Zi) of each feature point Te1 to Te3 at time t and the position P1 (Ui, Vi) of each feature point on the second frame 38 ′.
  • the movement amount ⁇ L of the camera 12 at time ⁇ t can be calculated from the camera model of the camera 12. Therefore, the movement amount of the vehicle can be calculated. Furthermore, the amount of change in distance and posture angle can also be calculated.
  • the posture change amount calculation unit 24 calculates the movement amount ( ⁇ L) of the camera 12 (vehicle) and the change amounts of the distance and posture angle. Can be calculated.
  • the following equation (1) is modeled as an ideal pinhole camera in which the camera 12 has no distortion or optical axis deviation, ⁇ i is a constant, and f is a focal length.
  • the camera model parameters may be calibrated in advance.
  • the posture change amount calculation unit 24 does not use all of the feature points whose relative positions are calculated in the images detected at time t and time t + ⁇ t, but is optimal based on the positional relationship between the feature points.
  • a feature point may be selected.
  • epipolar geometry RI polar geometry, R. I. Hartley: “A linear method for reconstruction, points, points”, “Proc. (1995)
  • RI polar geometry R. I. Hartley: “A linear method for reconstruction, points, points”, “Proc. (1995)
  • the feature point detection unit 23 also detects the feature points Te1, Te2, and Te3 whose relative positions (Xi, Yi, Zi) are calculated in the frame image 38 at the time t from the frame image 38 ′ at the time t + ⁇ t.
  • the posture change amount calculation unit 24 calculates “the relative position (Xi, Yi, Zi) of the plurality of feature points on the road surface and the temporal change in the position (Ui, Vi) of the feature points on the image”
  • the amount of change in vehicle attitude angle can be calculated.
  • the amount of movement of the vehicle can be calculated.
  • the pattern light can be obtained by continuing the process of adding the distance and the change amount of the posture angle (integral calculation).
  • the distance and the posture angle can be continuously updated without using 32a.
  • a distance and posture angle calculated using the pattern light 32a or a predetermined initial position and initial posture angle may be used. That is, the distance and the attitude angle that are the starting points of the integration calculation may be calculated using the pattern light 32a, or may use predetermined initial values.
  • the predetermined initial position and initial posture angle are desirably a distance and a posture angle in consideration of at least the occupant and the load on the vehicle 10.
  • the pattern light 32a is projected, and the distance and posture angle calculated from the pattern light 32a are set to a predetermined initial value. What is necessary is just to use as a position and an initial attitude angle. Thereby, the distance and the posture angle when the roll motion or the pitch motion due to the turning or acceleration / deceleration of the vehicle 10 is not generated can be obtained.
  • an image of a small area around the detected feature points may be recorded in a memory, and the determination may be made based on the similarity of luminance and color information.
  • the ECU 13 records an image for 5 ⁇ 5 (horizontal ⁇ vertical) pixels centered on the detected feature point in the memory.
  • the posture change amount calculation unit 24 determines that the feature point is a feature point that can be correlated between the previous and next frames. Then, the posture change amount acquired by the above processing is used when the self-position calculating unit 25 in the subsequent stage calculates the self-position of the vehicle.
  • the self-position calculation unit 25 calculates the current distance and posture angle of the vehicle from the “change amount of distance and posture angle” calculated by the posture change amount calculation unit 24. Further, the vehicle's own position is calculated from the “vehicle movement amount” calculated by the posture change amount calculation unit 24.
  • the self-position calculation unit 25 is calculated by the posture change amount calculation unit 24 for the distance and posture angle calculated by the posture angle calculation unit 22. Then, the distance and posture angle change amount for each frame are sequentially added (integral calculation), and the distance and posture angle are updated to the latest numerical values.
  • the self-position calculation unit 25 uses the vehicle position when the distance and posture angle are calculated by the posture angle calculation unit 22 as a starting point (the initial position of the vehicle), and sequentially adds the movement amount of the vehicle from this initial position. To calculate the vehicle's own position. For example, the current position of the vehicle on the map can be sequentially calculated by setting the starting point (the initial position of the vehicle) that is collated with the position on the map.
  • the posture change amount calculation unit 24 can calculate the self-position of the vehicle by obtaining the movement amount ( ⁇ L) of the camera 12 during the time ⁇ t. Furthermore, since the change amount of the distance and the posture angle can be calculated at the same time, the posture change amount calculation unit 24 takes into account the change amount of the distance and the posture angle of the vehicle, and has six degrees of freedom (front and rear, left and right, up and down, The amount of movement ( ⁇ L) of yaw, pitch, roll) can be calculated with high accuracy. That is, even if the distance and the posture angle change due to roll motion or pitch motion caused by turning or acceleration / deceleration of the vehicle 10, an estimation error of the movement amount ( ⁇ L) can be suppressed.
  • the movement amount ( ⁇ L) of the camera 12 is calculated by calculating the distance and posture angle change amount and updating the distance and posture angle.
  • the posture angle of the camera 12 with respect to the road surface 31 is calculated. May be subject to change amount calculation and update.
  • the distance between the road surface 31 and the camera 12 may be assumed to be constant. Accordingly, it is possible to reduce the calculation load of the ECU 13 and improve the calculation speed while suppressing the estimation error of the movement amount ( ⁇ L) in consideration of the change amount of the posture angle.
  • the pattern light control unit 26 controls the projection of the pattern light 32 a by the projector 11. For example, when the ignition switch of the vehicle 10 is turned on and the self-position calculating device is activated, the pattern light control unit 26 starts projecting the pattern light 32a. Thereafter, the pattern light control unit 26 continuously projects the pattern light 32a until the self-position calculating device stops. Alternatively, the on / off of the light projection may be repeated at a predetermined time interval.
  • pattern light composed of 7 ⁇ 5 spot light Sp is projected, an image as shown in FIG. 7A is acquired by the camera 12.
  • the pattern light extraction unit 21 performs binarization processing on this image, whereby pattern light (spot light) Sp can be extracted as shown in FIG.
  • the feature point detection unit 23 tries to detect a feature point on the road surface 31 in the same region as the projection region of the pattern light Sp, as shown in FIG. 7C, the road surface 31 with respect to the pattern light Sp. It is difficult to distinguish the upper feature point, and it is difficult to detect the feature point.
  • the feature point detection unit 23 tries to detect a feature point on the road surface in a region away from the projection region of the pattern light Sp, a calculation error of the amount of movement of the feature point is increased.
  • the pattern light control unit 26 selects a specific pattern light projection region among the plurality of pattern light projection regions according to the detection state of the feature points on the road surface in the feature point detection unit 23. Pattern light is projected.
  • the pattern light control unit 26 sets a plurality (four) of pattern light projection areas A to D in the imaging area 30, for example, as shown in FIG.
  • an arrow 41 indicates the moving direction of the vehicle
  • an arrow 42 opposite to the arrow 41 indicates the moving direction of the feature point.
  • the pattern light projection areas A to D are rectangular patterns divided into four in the vehicle movement direction 41 (up and down) and the vehicle width direction (left and right) orthogonal to the vehicle movement direction 41.
  • the number of pattern light projection areas is not particularly limited as long as it is plural, and two or three pattern light projection areas may be set, or five or more pattern light projection areas may be set. Good.
  • the pattern light control unit 26 determines the number of feature points Te that can be detected for each of the pattern light projection areas A to D. Count.
  • the pattern light control unit 26 may count the number of feature points that are completely within the pattern light projection areas A to D.
  • the number of feature points that can be detected in the pattern light projection areas A to D is 1 and 4, respectively. 4, 3 and so on.
  • the pattern light control unit 26 selectively projects the pattern light projection area A having the smallest number of feature points among the plurality of pattern light projection areas A to D as shown in FIG. 9B.
  • FIG. 10A shows a time change of the selected pattern light projection area
  • FIG. 10B shows a time change of the number of feature points detected in the pattern light projection areas A to D.
  • Times t0 to t7 indicate times for each information processing cycle.
  • the pattern light control unit 26 counts the number of feature points Te detected by the feature point detection unit 23 at time t0, as shown in FIG. 10B, the number of feature points detected in the pattern light projection area A Is the least. Therefore, at the time t1, which is the next information processing cycle, the pattern light control unit 26, as shown in FIG. 10A, the pattern light projecting region having the smallest number of feature points at the time t0 of the previous information processing cycle. A light is selectively projected onto A.
  • the pattern light control unit 26 counts the number of feature points. Then, at time t2 to t7, which is the next information processing cycle, pattern light is selectively projected onto an area having the smallest number of feature points at times t1 to t6 of the previous information processing cycle.
  • This information processing cycle is an example of a self-position calculation method for calculating the self-position of the vehicle 10 from the image 38 acquired by the camera 12.
  • the information processing cycle shown in the flowchart of FIG. 11 is started at the same time as the ignition switch of the vehicle 10 is turned on and the self-position calculation device is started, and is repeatedly executed until the self-position calculation device is stopped.
  • the pattern light control unit 26 controls the projector 11 to project pattern light onto the road surface 31 around the vehicle.
  • the pattern light 32a is continuously projected. Details of step S01 will be described later.
  • step S03 the ECU 13 controls the camera 12 to capture the road surface 31 around the vehicle including the area where the pattern light 32a is projected, and acquire the image 38.
  • the ECU 13 stores the image data acquired by the camera 12 in a memory.
  • the ECU 13 can automatically control the aperture of the camera 12.
  • the diaphragm of the camera 12 may be feedback controlled so that the average luminance of the image 38 acquired in the previous information processing cycle becomes an intermediate value between the maximum value and the minimum value of the luminance value.
  • ECU13 may obtain
  • step S05 first, the pattern light extraction unit 21 reads the image 38 acquired by the camera 12 from the memory, and extracts the position of the pattern light 32a from the image 38 as shown in FIG.
  • the pattern light extraction unit 21 stores the coordinates (Uj, Vj) on the image of the spot light Sp calculated as data indicating the position of the pattern light 32a in the memory.
  • step S05 the posture angle calculation unit 22 reads data indicating the position of the pattern light 32a from the memory, calculates the distance and posture angle of the vehicle 10 with respect to the road surface 31 from the position of the pattern light 32a, and stores them in the memory. .
  • step S07 the ECU 13 detects the feature point Te from the image 38, extracts the feature point Te that can be correlated between the preceding and subsequent information processing cycles, and the position (Ui, Vi) of the feature point Te on the image. From the above, the amount of change in distance and posture angle is calculated. Further, the moving amount of the vehicle is calculated.
  • the feature point detection unit 23 reads the image 38 of the imaging region 30 corresponding to FIG. 8 acquired by the camera 12 from the memory, detects the feature point Te on the road surface 31 from the image 38, and each feature.
  • the position (Ui, Vi) on the image of the point Te is stored in the memory.
  • the posture change amount calculation unit 24 reads the position (Ui, Vi) of each feature point Te on the image from the memory, the distance and posture angle calculated by the posture angle calculation unit 22, and the position of the feature point Te on the image.
  • the relative position (Xi, Yi, Zi) of the feature point Te with respect to the camera 12 is calculated from (Ui, Vi).
  • the posture change amount calculation unit 24 uses the distance and posture angle set in step S09 of the previous information processing cycle.
  • the posture change amount calculation unit 24 stores the relative position (Xi, Yi, Zi) of the feature point Te with respect to the camera 12 in the memory.
  • the posture change amount calculation unit 24 calculates the position (Ui, Vi) of the feature point Te on the image and the relative position (Xi, Yi, Zi) of the feature point Te calculated in step S07 of the previous information processing cycle. ) From memory.
  • the posture change amount calculation unit 24 uses the relative position (Xi, Yi, Zi) of the feature point Te and the position (Ui, Vi) on the image that can be correlated between the preceding and following information processing cycles, and the distance and posture. Calculate the amount of change in corners. Further, the posture change amount calculation unit 24 calculates the movement amount of the vehicle from the previous relative position (Xi, Yi, Zi) of the feature point Te and the current relative position (Xi, Yi, Zi) of the feature point Te. To store in memory. The “amount of change in distance and posture angle” and “amount of movement of the vehicle” calculated in step S07 are used in the process of step S11.
  • the ECU 13 uses the distance and posture angle calculated using the pattern light 32a, or the integral calculation for calculating the self position using the predetermined initial position and initial posture angle. Set the starting point of. In the subsequent information processing cycle, if three or more feature points that can be correlated between the previous frame and the current frame can be detected continuously, the process of adding the distance and posture angle change amount (integration calculation) is continued. Thus, the distance and the posture angle can be continuously updated without using the pattern light 32a.
  • the self-position calculating unit 25 calculates the self-position of the vehicle 10 from the starting point of the integral calculation set in step S09 and the distance and the change amount of the posture angle of the vehicle 10 calculated in the process of step S07. Is calculated.
  • the self-position calculation apparatus can calculate the self-position of the vehicle 10 by repeatedly executing the above-described series of information processing cycles and integrating the movement amount of the vehicle 10.
  • step S101 the pattern light control unit 26 reads the position of the feature point Te of the previous information processing cycle detected by the feature point detection unit 23 from the memory, and each pattern information in the previous information processing cycle. The number of feature points detected in the pattern projection area is counted.
  • step S ⁇ b> 102 the projector 11 selectively projects light to an area where the number of detected feature points is the smallest among the plurality of pattern light projecting areas.
  • the light projector 11 may selectively project light to a plurality of (for example, two) regions having relatively few feature points instead of selecting a region having the fewest feature points from among a plurality of pattern light projection regions. Good. For example, as shown in FIG. 13A, when the number of feature points completely within the pattern light projection areas A to D is counted, the number of feature points detected in the pattern light projection areas A to D is respectively One, four, four, and three. As shown in FIG. 13B, the projector 11 selectively projects light to two pattern light projecting areas A and D having a relatively small number of feature points.
  • FIG. 14 (a) shows the change over time of the light projection flags in the pattern light projection areas A to D
  • FIG. 14 (b) shows the number of feature points detected in the pattern light projection areas A to D.
  • the light projection flags of the pattern light projection areas A to D are set to “1” when light is projected and “0” when light is not projected.
  • Times t0 to t7 indicate times for each information processing cycle.
  • the pattern light control unit 26 counts the number of feature points detected for each of the pattern light projection areas A to D, as shown in FIG. 14B, the pattern light control unit 26 detects the pattern light projection areas A and D. There are relatively few feature points. Accordingly, at the time t1 of the next information processing cycle, the projector 11 has two pattern light projection areas whose feature points are relatively small at the time t0 of the previous information processing cycle, as shown in FIG. A and D are selectively projected.
  • the pattern light control unit 26 counts the number of feature points detected for each of the pattern light projection areas A to D. Then, at times t2 to t7 of the next information processing cycle, the projector 11 selectively projects light to two regions having a relatively small number of feature points.
  • the projector 11 does not limit the number of pattern light projection areas A to D to be selected, and may select an area of the pattern light projection areas A to D whose feature point Te is a predetermined threshold value or less. Good.
  • the pattern light control unit 26 may be divided into vertical stripes extending in the moving direction 42 of the feature points, and set a plurality of pattern light projection areas A and B that are alternately combined.
  • the plurality of pattern light projection areas A and B are areas that have two areas alternately in the vehicle width direction and are selected by alternative.
  • the number of the plurality of pattern light projection areas A and B is not particularly limited, and each of the plurality of pattern light projection areas A and B may have three or more areas.
  • the pattern light control unit 26 calculates the total number of feature points detected in the two pattern light projection areas A and the number of feature points detected in the two pattern light projection areas B. Each sum is counted. When the number of feature points that are completely within the pattern light projection areas A and B is counted, the total number of feature points that can be detected in the pattern light projection area A is 4, and can be detected in the pattern light projection area B. The total number of feature points is 10. Therefore, as shown in FIG. 16B, the projector 11 selectively projects the pattern light projection area A having a relatively small number of feature points.
  • FIG. 17A shows the time change of the pattern light projection areas A and B
  • FIG. 17B shows the number of feature points detected in the pattern light projection areas A and B.
  • FIG. Times t0 to t7 indicate times for each information processing cycle.
  • the pattern light control unit 26 counts the number of feature points that can be detected in the pattern light projection areas A and B
  • the feature that can be detected in the pattern light projection area A as shown in FIG. The score is relatively small.
  • the projector 11 has a pattern light projection area A in which the number of feature points is relatively small at the time t0 of the previous information processing cycle at the time t1 of the next information processing cycle.
  • Selectively project light Similarly, from time t2 to t7, the projector 11 selectively projects light to one area where the number of feature points was relatively small at times t1 to t6 of the previous information processing cycle.
  • the pattern light control unit 26 may set two pattern light projection areas A and B that are divided into two in the vehicle width direction (left and right).
  • the pattern light control unit 26 selectively projects light onto the pattern light projection area A having a relatively small number of feature points. Also in this case, as shown in FIGS. 17 (a) and 17 (b), the projector 11 has a relatively small number of feature points at times t0 to t6 of the previous information processing cycle at times t1 to t7. Selectively project light in the area.
  • the pattern light control unit 26 sets m ⁇ n spot light Smn (here, 5 ⁇ 5 spot light S11, S12,..., S55) as a plurality of pattern light projection areas. . Further, as shown in FIG. 21A, the feature point detection unit 23 detects the position of the feature point Te.
  • the pattern light control unit 26 determines whether or not the position of the feature point Te detected by the feature point detection unit 23 overlaps the position of the spot light S11, S12,. Since this determination needs to be performed in the previous information processing cycle, in consideration of the fact that the feature point Te has moved from the detection position in the current information processing cycle, the projection areas of the spot lights S11, S12,. It may also be determined whether or not a wider area overlaps the position of the feature point Te. Note that the position of the spotlight that is extinguished can be estimated and determined from the distance and posture angle of the camera 12 with respect to the road surface and the position of other spotlights. As shown in FIG. 21B, the projector 11 turns off the spot light at the position determined to overlap with the feature point Te and selectively projects the spot light at the position determined not to overlap with the feature point Te. Shine.
  • FIG. 22 (a) shows temporal changes in the projection flags of the spot lights S11, S12,..., S55
  • FIG. 22 (b) shows the feature point Te overlapping the positions of the spot lights S11, S12,.
  • the change over time in the determination result is shown.
  • Times t0 to t7 indicate times for each information processing cycle.
  • the pattern light control unit 26 determines that the feature point Te does not overlap the positions of the spot lights S11 and S55, for example, and the feature point Te is located at the position of the spot light S12. It is determined that they overlap.
  • FIG. 22B shows temporal changes in the projection flags of the spot lights S11, S12,..., S55
  • FIG. 22 (b) shows the feature point Te overlapping the positions of the spot lights S11, S12,.
  • Times t0 to t7 indicate times for each information processing cycle.
  • the pattern light control unit 26 determines that the feature point Te does not overlap the positions of the spot lights S11 and S55, for example, and the
  • the light projecting unit 11 turns off the spot light S12 at the position where the feature point Te is determined to overlap in the previous information processing cycle at the time t1 of the next information processing cycle.
  • the spot lights S11 and S55 at positions where it is determined that the feature points Te do not overlap are selectively lit.
  • the light projecting unit 11 turns off the spot light at the position where the feature point Te is determined to overlap at the time t1 to t6 of the previous information processing cycle, and does not overlap with the feature point Te.
  • the spot light at the determined position is selectively projected.
  • the plurality of pattern light projection areas A and B are divided into positive and negative stripes extending in the moving direction of the feature point Te, and the projector 11 projects the plurality of pattern light projections.
  • the pattern light can be selectively projected with a simpler mechanism.
  • the plurality of pattern light projection areas A and B are divided into two in the vehicle width direction (left and right), and the projector 11 includes the plurality of pattern light projection areas A and B.
  • the pattern light projection area is set by setting the positions of the pattern light projection areas (spot lights) S11, S12,..., S55 in accordance with the detection position of the feature point Te.
  • the feature point Te can be easily discriminated from the pattern light even in the case of a relatively fine pattern.
  • the self-position calculation device according to the second embodiment is different from the self-position calculation device according to the first embodiment in that a vehicle behavior detection unit 14 is further provided.
  • a vehicle behavior detection unit 14 As the vehicle behavior detection unit 14, a wheel speed sensor for detecting the vehicle speed and a yaw rate sensor for detecting the lateral speed can be used. Since the other configuration of the self-position calculation device according to the second embodiment is substantially the same as that of the self-position calculation device according to the first embodiment, a duplicate description is omitted.
  • the pattern light control unit 26 estimates the movement direction and movement amount of the feature point Te, and sets the position of the pattern light according to the estimated movement direction and movement amount of the feature point Te.
  • the moving direction and moving amount of each feature point Te can be estimated from the moving amount of the vehicle obtained from the two preceding and following information processing cycles. Alternatively, it can be estimated from the vehicle speed and yaw rate detected by the vehicle behavior detection unit 14.
  • FIG. 24A shows the feature points Te detected one information processing cycle before, and the movement direction and the movement amount estimated for each feature point Te are shown by a vector Dte.
  • the pattern light control unit 26 estimates the position of each feature point Te in the current information processing cycle from the movement direction and the movement amount estimated for each feature point Te, and the position of the feature point Te is the spot light S11, S12, ..., it is estimated whether it overlaps with the position of S55.
  • the spot light at the position where the feature point Te is estimated to overlap in the current information processing cycle is turned off, and the spot light at the position where the feature point Te is estimated not to overlap is selectively selected. Lights up.
  • FIG. 25 (a) shows the time change of the projection flag of the spot lights S11, S12,..., S55
  • FIG. 25 (b) shows the feature point Te at the position of the spot lights S11, S12,.
  • the time change of the estimation result of whether or not to do is shown.
  • Times t0 to t7 indicate times for each information processing cycle.
  • FIG. 25 (b) at time t0, when it is time t which is the next information processing cycle, it is estimated that there is no feature point Te at the positions of the spot lights S11 and S55, and the position of the spot light S12. Is estimated to have a feature point Te.
  • FIG. 25 (b) shows the time change of the projection flag of the spot lights S11, S12,..., S55
  • FIG. 25 (b) shows the feature point Te at the position of the spot lights S11, S12,.
  • Times t0 to t7 indicate times for each information processing cycle.
  • FIG. 25 (b) at time t0, when it is
  • the projector 11 turns off the spot lights S11 and S55 at positions where the feature point Te is estimated to exist at the time t1 of the next current cycle, and estimates that there is no feature point Te.
  • the spot light S12 at the set position is selectively turned on.
  • the next projector 11 estimates whether or not the feature point Te at the time t2 to t7 of the next information processing cycle is at the position of the spot light. Then, at times t2 to t7 of the next information processing cycle, the spot at the position estimated to have the feature point Te is turned off, and the spot light at the position estimated to have no feature point Te is selectively turned on.
  • step S201 the vehicle behavior detection unit 14 detects the vehicle speed and the yaw rate.
  • step S202 the pattern light control unit 26 estimates the moving amount and moving direction of the feature point Te detected in the previous information processing cycle based on the vehicle speed and yaw rate detected by the vehicle behavior detecting unit 14, and further Estimates the position of the feature point Te in the current information processing cycle.
  • step S203 the pattern light control unit 26 determines whether the estimated position of the feature point Te and the positions of the spot lights S11, S12,.
  • the projector 11 turns off the spot light at the position determined to overlap with the estimated position of the feature point Te, and the position of the position determined to not overlap with the estimated position of the feature point Te. Only spot light is selectively projected.
  • the pattern light control unit 26 sets pattern light projection areas A, B, C, and D that are divided into four in the vehicle width direction (left and right) and extend in the moving direction 42 of the feature point Te. To do.
  • the feature point Te is reflected in the image acquired by the camera 12, and then moves mainly in one direction and deviates from the image.
  • a feature point increase / decrease prediction area is provided on the side where the feature point Te is reflected in the image, and it is determined whether or not a feature point exists in the feature point increase / decrease prediction area in the previous information processing cycle.
  • the light is projected aiming at an area where the feature point Te is likely to decrease in the cycle.
  • the pattern light control unit 26 sets the feature point increase / decrease prediction areas a to d in the upper part of the imaging region 30 as shown in FIG.
  • the feature point increase / decrease prediction areas a to d correspond to the pattern light projection areas A to D, respectively, and are located at the same positions as the pattern light projection areas A to D in the vehicle width direction.
  • the pattern light control unit 26 determines whether or not the feature point Te exists in each feature point increase / decrease prediction area a to d, and determines that the feature point Te does not exist in the feature point increase / decrease prediction areas a and c.
  • the projector 11 selectively projects pattern light selection areas A and C in the same row as the feature point increase / decrease prediction areas a and c.
  • the feature point Te is counted for each feature point increase / decrease prediction area a to d, and the feature point Te is relatively small.
  • the area may be projected.
  • FIG. 29 (a) shows temporal changes of the light projection flags in the pattern light selection areas A to D
  • FIG. 29 (b) shows the determination result of whether or not the feature point Te exists in the feature point increase / decrease prediction areas a to d.
  • the time change of is shown.
  • Times t0 to t7 indicate times for each information processing cycle.
  • FIG. 29B at time t0, it is determined that the feature point Te does not exist in the feature point increase / decrease prediction areas a and d and the feature point Te exists in the feature point increase / decrease prediction areas b and c. ing.
  • FIG. 29B shows temporal changes of the light projection flags in the pattern light selection areas A to D
  • FIG. 29 (b) shows the determination result of whether or not the feature point Te exists in the feature point increase / decrease prediction areas a to d.
  • the time change of is shown.
  • Times t0 to t7 indicate times for each information processing cycle.
  • FIG. 29B at time t0, it
  • the projector 11 is in the same row as the feature point increase / decrease prediction areas a and d determined that the feature point Te does not exist in the previous information processing cycle.
  • the pattern light projection areas A and D are selectively projected.
  • the pattern light control unit 26 performs the pattern light projection area corresponding to the feature point increase / decrease prediction area determined that the feature point Te does not exist at the times t1 to t6 of the previous information processing cycle at the times t2 to t7. Selectively project light.
  • the specific pattern light projection area is selectively projected according to the detection state of the feature point Te.
  • the feature point Te can be easily distinguished from the spot lights S11, S12,..., S55. Therefore, the self-position of the vehicle 10 can be calculated with high accuracy.
  • the current position of the feature point Te is estimated based on the moving direction of the feature point Te, and the positions of the pattern light projection areas (spot lights) S11, S12,. It is possible to further reduce the overlap between the spot lights S11, S12,..., S55 and the feature point Te in the cycle.
  • step S301 of FIG. 30 the ECU 13 determines whether or not to execute the process of step S05, that is, whether or not to calculate the distance and posture with respect to the road surface.
  • the process proceeds to step S301, and the pattern control unit 26 in each pattern light projection area in the previous information processing cycle. The number of feature points Te that can be detected is counted.
  • step S ⁇ b> 302 the projector 11 selectively projects pattern light onto, for example, a pattern light projection region having the smallest feature point Te that can be detected. Thereafter, the process proceeds to step S03 in FIG.
  • step S304 when the process of calculating the distance and the attitude angle with respect to the road surface from the pattern light position in step S05 is not executed in step S301, the process proceeds to step S304, and the projector 11 turns off the pattern light.
  • step S305 after the camera 12 acquires an image, the process proceeds to step S07 in FIG.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Mechanical Engineering (AREA)
  • Optics & Photonics (AREA)
  • Automation & Control Theory (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)

Abstract

 車両周囲の路面にパターン光を投光する投光器11と、車両に搭載され、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部12と、撮像部12で取得した画像におけるパターン光の形から路面に対する車両の姿勢角を算出する姿勢角算出部22と、撮像部12で取得した画像から、路面上の複数の特徴点を検出する特徴点検出部23と、特徴点検出部23により検出された路面上の複数の特徴点の時間変化に基づいて、車両の姿勢変化量を算出する姿勢変化量算出部24と、路面に対する車両の初期位置及び姿勢角に姿勢変化量を加算してゆくことによって車両の現在位置及び姿勢角を算出する自己位置算出部25とを備え、投光器11は、特徴点検出部での路面の特徴点の検出状態に応じて、複数のパターン光投光領域のうちの特定のパターン光投光領域に選択的にパターン光を投光する。

Description

自己位置算出装置及び自己位置算出方法
 本発明は、自己位置算出装置及び自己位置算出方法に関する。
 車両に搭載されたカメラで車両近傍の画像を撮像して取得し、この画像の変化に基づいて車両の移動量を求める技術が知られている(特許文献1参照)。特許文献1では、車両が低速かつ微妙に移動した場合でも精度よく移動量を求められるように、画像の中から特徴点を検出し、この特徴点の位置を求め、特徴点の移動方向及び移動距離(移動量)から車両の移動量を求めている。
 また、格子パターン(パターン光)を投光するレーザ投光器を用いて三次元計測を行う技術が知られている(特許文献2参照)。特許文献2では、パターン光の投光領域をカメラで撮像し、撮像した画像からパターン光を抽出して、パターン光の位置から車両の挙動を求めている。
特開2008-175717号公報 特開2007-278951号公報
 しかしながら、特許文献2に記載されたパターン光の投光領域と同じ領域で、特許文献1に記載された技術により路面上の特徴点を検出しようとした場合、パターン光と特徴点の判別が難しい。一方、パターン光の投光領域から離れた領域で路面上の特徴点を検出しようとすると、特徴点の移動量の算出誤差が大きくなる。
 上記問題点を鑑み、本発明は、パターン光と区別して特徴点を容易に判別することができ、車両の自己位置を精度よく算出することができる自己位置算出装置及び自己位置算出方法を提供することを目的とする。
 本発明の第一の態様に係る自己位置算出装置は、車両周囲の路面にパターン光を投光し、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得し、取得した画像におけるパターン光の形から路面に対する車両の姿勢角を算出し、取得した画像から、路面上の複数の特徴点を検出し、検出された路面上の複数の特徴点の時間変化に基づいて、車両の姿勢変化量を算出し、路面に対する車両の初期位置及び姿勢角に姿勢変化量を加算してゆくことによって車両の現在位置及び姿勢角を算出し、パターン光を投光するときには、特徴点検出部での路面の特徴点の検出状態に応じて、複数のパターン光投光領域のうちの特定のパターン光投光領域に選択的にパターン光を投光する。
図1は、第1実施形態に係る自己位置算出装置の全体構成を示すブロック図である。 図2は、投光器及びカメラを車両に搭載する方法の一例を示す外観図である。 図3(a)は、投光器とカメラを用いてスポット光が照射された路面上の位置を算出する様子を示す図であり、図3(b)は、パターン光が照射された領域とは異なる領域で検出された特徴点の時間変化からカメラの移動方向を求める様子を示す図である。 図4は、カメラで取得した画像に二値化処理を施したパターン光の画像を示す図であり、図4(a)はパターン光全体を示す図であり、図4(b)は1つのスポット光を拡大して示す図であり、図4(c)はスポット光の重心位置を示す図である。 図5は、距離及び姿勢角の変化量を算出する方法を説明するための模式図である。 図6は、画像上に検出された特徴点を示す図であり、図6(a)は時刻tに取得した第1フレーム(画像)を示す図であり、図6(b)は時刻t+Δtに取得した第2フレームを示す図である。 図7(a)は、カメラで取得した画像を示す図であり、図7(b)は、カメラで取得した画像に二値化処理を施したパターン光の画像を示す図であり、図7(c)は、特徴点の検出結果を示す図である。 図8は、上下左右に分割されたパターン光投光領域の一例を示す概略図である。 図9(a)は、検出された特徴点の一例を示す概略図であり、図9(b)は、選択されたパターン光投光領域の一例を示す概略図である。 図10(a)は、選択されたパターン光投光領域の時間変化を表すグラフであり、図10(b)は、各パターン光投光領域で検出された特徴点数の時間変化を表すグラフである。 図11は、第1実施形態に係る自己位置算出方法の一例を説明するためのフローチャートである。 図12は、ステップS01の詳細を示すフローチャートである。 図13(a)は、検出された特徴点の一例を示す概略図であり、図13(b)は、選択されたパターン光投光領域の一例を示す概略図である。 図14(a)は、各パターン光投光領域の投光フラグの時間変化を表すグラフであり、図14(b)は、各パターン光投光領域で検出された特徴点数の時間変化を表すグラフである。 図15は、縦縞模様で交互に組み合わせたパターン光投光領域の一例を示す概略図である。 図16(a)は、検出された特徴点の一例を示す概略図であり、図16(b)は、選択されたパターン光投光領域の一例を示す概略図である。 図17(a)は、選択されたパターン光投光領域の時間変化を表すグラフであり、図17(b)は、各パターン光投光領域で検出された特徴点数の時間変化を表すグラフである。 図18は、左右2分割したパターン光投光領域の一例を示す概略図である。 図19(a)は、検出された特徴点の一例を示す概略図であり、図19(b)は、選択されたパターン光投光領域の一例を示す概略図である。 図20は、スポット光の投光領域の一例を示す概略図である。 図21(a)は、検出された特徴点の一例を示す概略図であり、図21(b)は、選択されたパターン光投光領域の一例を示す概略図である。 図22(a)は、各スポット光の投光フラグの時間変化を表すグラフであり、図22(b)は、各スポット光の位置に特徴点が存在するか否かの判定結果の時間変化を表すグラフである。 図23は、第2実施形態に係る自己位置算出装置の全体構成を示すブロック図である。 図24(a)は、検出された特徴点の一例を示す概略図であり、図24(b)は、選択されたパターン光投光領域の一例を示す概略図である。 図25(a)は、各スポット光の投光フラグの時間変化を表すグラフであり、図25(b)は、各スポット光の位置に特徴点が存在するか否かの推定結果の時間変化を表すグラフである。 図26は、第2実施形態に係るステップS01の詳細の一例を示すフローチャートである。 図27は、車幅方向で4分割されたパターン光投光領域の一例を示す概略図である。 図28(a)は、特徴点増減予測エリアの設定方法及び検出された特徴点の一例を示す概略図であり、図28(b)は、選択されたパターン光投光領域の一例を示す概略図である。 図29(a)は、各スポット光の投光フラグの時間変化を表すグラフであり、図29(b)は、各特徴点増減予測エリアに特徴点が存在するか否かの判定結果の時間変化を表すグラフである。 図30は、路面に対する距離及び姿勢を算出するか場合分けをする場合のフローチャートの一例を示す。
 以下、本発明を適用した第1及び第2実施形態について図面を参照して説明する。
 (第1実施形態)
 [ハードウェア構成]
 先ず、図1を参照して、第1実施形態に係る自己位置算出装置のハードウェア構成を説明する。自己位置算出装置は、投光器11と、カメラ12と、エンジンコントロールユニット(ECU)13とを備える。投光器11は、車両に搭載され、車両周囲の路面にパターン光を投光する。カメラ12は、車両に搭載され、パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部の一例である。ECU13は、投光器11を制御し、且つカメラ12で取得した画像から車両の自己位置を算出する一連の情報処理サイクルを実行する制御部の一例である。
 カメラ12は、固体撮像素子、例えばCCD及びCMOSを用いたデジタルカメラであって、画像処理が可能なデジタル画像を取得する。カメラ12の撮像対象は車両周囲の路面であって、車両周囲の路面には車両の前部、後部、側部、車両底部の路面が含まれている。例えば、図2に示すように、カメラ12は、車両10の前部、具体的にはフロントバンパ上に搭載することができる。車両10の前方の路面31上の特徴点(テクスチャ)及び投光器11から投光されたパターン光32bを撮像できるように、カメラ12を設置する高さ及び向きが調整され、且つ、カメラ12が備えるレンズのピント及び絞りについても自動調整される。カメラ12は、所定の時間間隔をおいて繰り返し撮像を行い、一連の画像(フレーム)群を取得する。カメラ12で取得した画像データは、撮像する毎にECU13へ転送され、ECU13が備えるメモリに記憶される。
 投光器11は、図2に示すように、カメラ12の撮像範囲内の路面31に向けて、正方形や長方形の格子像を含む所定の形状を有するパターン光32bを投光する。カメラ12は、路面31に照射されたパターン光32bを撮像する。投光器11は、例えば、レーザポインター及び回折格子を備える。レーザポインターから射出されたレーザ光を回折格子で回折することにより、投光器11は、図2~図4に示すように、格子像、或いは行列状に配列された複数のスポット光からなるパターン光(32b、32a)を生成する。図3及び図4に示す例では、5×7個のスポット光からなるパターン光32aを生成している。
 図1に戻り、ECU13は、CPU、メモリ、及び入出力部を備えるマイクロコントローラからなり、予めインストールされたコンピュータプログラムを実行することにより、自己位置算出装置として機能する複数の情報処理部を構成する。ECU13は、カメラ12で取得した画像から車両の自己位置を算出する一連の情報処理サイクルを、画像(フレーム)毎に繰り返し実行する。なお、ECU13は、車両10の他の制御に用いるECUと兼用してもよい。
 ここで、複数の情報処理部には、パターン光抽出部21と、姿勢角算出部22と、特徴点検出部23と、姿勢変化量算出部24と、自己位置算出部25と、パターン光制御部26とが含まれる。
 パターン光抽出部21は、カメラ12で取得した画像をメモリから読み込み、この画像からパターン光の位置を抽出する。図3(a)に示すように、例えば、投光器11が行列状に配列された複数のスポット光からなるパターン光32aを路面31に向けて投光し、路面31で反射したパターン光32aをカメラ12で検出する。パターン光抽出部21は、カメラ12で取得した画像に対して二値化処理を施すことにより、図4(a)及び図4(b)に示すように、スポット光Spの画像のみを抽出する。そして、図4(c)に示すように、パターン光抽出部21は、各スポット光Spの重心の位置He、即ちスポット光Spの画像上の座標(Uj、Vj)を算出することにより、パターン光32aの位置を抽出する。座標は、カメラ12の撮像素子の画素を単位とし、5×7のスポット光Spの場合、“j”は1以上35以下の自然数である。スポット光Spの画像上の座標(Uj、Vj)は、パターン光32aの位置を示すデータとしてメモリに記憶される。
 姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、カメラ12で取得した画像におけるパターン光32aの位置から、路面31に対する車両10の距離及び姿勢角を算出する。例えば、図3(a)に示すように、投光器11とカメラ12の間の基線長Lbと、各スポット光の画像上の座標(Uj、Vj)とから、三角測量の原理を用いて、各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置として算出する。そして、姿勢角算出部22は、カメラ12に対する各スポット光の相対位置から、パターン光32aが投光された路面31の平面式、即ち、路面31に対するカメラ12の距離及び姿勢角(法線ベクトル)を算出する。
 なお、車両10に対するカメラ12の搭載位置及び撮像方向は既知であるため、実施形態では、路面31に対する車両10の距離及び姿勢角の一例として、路面31に対するカメラ12の距離及び姿勢角を算出する。換言すれば、路面31に対するカメラ12の距離及び姿勢角を算出することにより、路面31と車両10との間の距離、及び路面31に対する車両10の姿勢角を求めることができる。
 具体的には、カメラ12及び投光器11は車両10にそれぞれ固定されているため、パターン光32aの照射方向と、カメラ12と投光器11との間の距離(基線長Lb)は既知である。そこで、姿勢角算出部22は、三角測量の原理を用いて、各スポット光の画像上の座標(Uj、Vj)から各スポット光が照射された路面31上の位置を、カメラ12に対する相対位置(Xj,Yj,Zj)として求めることができる。以後、路面31に対するカメラ12の距離及び姿勢角を、「距離及び姿勢角」と略す。姿勢角算出部22で算出された距離及び姿勢角は、メモリに記憶される。
 なお、本実施形態では、毎回の情報処理サイクルにおいて距離及び姿勢角を算出する場合について説明する。
 また、カメラ12に対する各スポット光の相対位置(Xj,Yj,Zj)は同一平面上に存在しない場合が多い。なぜなら、路面31に表出するアスファルトの凹凸に応じて各スポット光の相対位置が変化するからである。そこで、最小二乗法を用いて、各スポット光との距離誤差の二乗和が最小となるような平面式を求めてもよい。こうして算出された距離及び姿勢角のデータは、図1に示す自己位置算出部25で使用される。
 特徴点検出部23は、カメラ12で取得した画像をメモリから読み込み、メモリから読み込んだ画像から、路面31上の特徴点を検出する。特徴点検出部23は、路面31上の特徴点を検出するために、例えば、「D.G.Lowe,“Distinctive Image Features from Scale-Invariant Keypoints,”Int.J.Comput.Vis.,vol.60,no.2,pp.91-110,Nov.200」に記載の手法を用いることができる。或いは、特徴点検出部23は、「金澤靖,金谷健一,“コンピュータビジョンのための画像の特徴点抽出,”信学誌,vol.87,no.12,pp.1043-1048,Dec.2004」に記載の手法を用いることもできる。
 具体的には、特徴点検出部23は、例えば、ハリス(Harris)作用素又はSUSANオペレータを用いて、物体の頂点のように周囲に比べて輝度値が大きく変化する点を特徴点として検出する。或いは、特徴点検出部23は、SIFT(Scale-Invariant Feature Transform)特徴量を用いて、その周囲で輝度値がある規則性のもとで変化している点を特徴点として検出してもよい。そして、特徴点検出部23は、1つの画像から検出した特徴点の総数Nを計数し、各特徴点に識別番号(i(1≦i≦N))を付す。各特徴点の画像上の位置(Ui、Vi)は、ECU13内のメモリに記憶される。図6(a)及び図6(b)は、カメラ12で取得した画像から検出された特徴点Teの例を示す。更に、各特徴点Teの変化方向及び変化量をベクトルDteとして示している。
 なお、本実施形態において、路面31上の特徴点は、主に大きさが1cm以上2cm以下のアスファルト混合物の粒を想定している。この特徴点を検出するために、カメラ12の解像度はVGA(約30万画素)である。また、路面31に対するカメラ12の距離は、おおよそ70cmである。更に、カメラ12の撮像方向は、水平面から約45degだけ路面31に向けて傾斜させる。また、カメラ12で取得する画像をECU13に転送するときの輝度数値は、0~255(0:最も暗い,255:最も明るい)の範囲内である。
 姿勢変化量算出部24は、一定の情報処理サイクル毎に撮像される各フレームの画像のうち、前回(時刻t)のフレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui、Vi)をメモリから読み込む。更に、姿勢変化量算出部24は、今回(時刻t+Δt)のフレームの画像に含まれる複数の特徴点の画像上の位置座標(Ui、Vi)をメモリから読み込む。そして、姿勢変化量算出部24は、複数の特徴点の画像上での時間的な位置変化に基づいて、車両の姿勢変化量を求める。ここで、「車両の姿勢変化量」とは、路面に対する車両の「距離及び姿勢角の変化量」、及び路面上での「車両の移動量」の双方を含んでいる。以下、「距離及び姿勢角の変化量」及び「車両の移動量」の算出方法について説明する。
 距離及び姿勢角の変化量は、例えば、以下のようにして求めることができる。図6(a)は、時刻tに取得した第1フレーム(画像)38(図5)の一例を示す。図5及び図6(a)に示すように、第1フレーム38において、例えば3つの特徴点Te1、Te2、Te3の相対位置(Xi,Yi,Zi)がそれぞれ算出されている場合を考える。この場合、特徴点Te1、Te2、Te3によって特定される平面G(図6(a)参照)を路面と見なすことができる。よって、姿勢変化量算出部24は、各特徴点の相対位置(Xi,Yi,Zi)から、路面(平面G)に対するカメラ12の距離及び姿勢角(法線ベクトル)を求めることができる。更に、姿勢変化量算出部24は、既知のカメラモデルによって、各特徴点Te1、Te2、Te3の間の距離(l1、l2、l3)及び夫々の特徴点Te1、Te2、Te3を結ぶ直線が成す角度を求めることができる。図5のカメラ12は、第1フレームを撮像したときのカメラの位置を示す。
 なお、図5では、カメラ12に対する特徴点の相対位置を示す3次元座標(Xi,Yi,Zi)として、カメラ12の撮像方向にZ軸を設定し、撮像方向を法線としてカメラ12を含む平面内に互いに直交するX軸及びY軸を設定する。一方、画像38上の座標としては、水平方向及び垂直方向をそれぞれV軸及びU軸に設定する。
 図6(b)は、時刻tから時間Δtだけ経過した時刻(t+Δt)に取得された第2フレーム38’を示す。図5のカメラ12’は、第2フレーム38’を撮像したときのカメラの位置を示す。図5及び図6(b)に示すように、第2フレーム38’において、カメラ12’が特徴点Te1、Te2、Te3を撮像し、特徴点検出部23が特徴点Te1、Te2、Te3を検出する。この場合、姿勢変化量算出部24は、時刻tにおける各特徴点Te1~Te3の相対位置(Xi,Yi,Zi)と、各特徴点の第2フレーム38’上の位置P1(Ui、Vi)と、カメラ12のカメラモデルとから時間Δtにおけるカメラ12の移動量ΔLを算出できる。したがって、ひいては車両の移動量を算出できる。更には、距離及び姿勢角の変化量も算出することができる。例えば、以下の(1)~(4)式からなる連立方程式を解くことにより、姿勢変化量算出部24は、カメラ12(車両)の移動量(ΔL)、並びに距離及び姿勢角の変化量を算出することができる。なお、下記の(1)式はカメラ12が歪みや光軸ずれのない理想的なピンホールカメラとしてモデル化したものであり、λiは定数、fは焦点距離である。カメラモデルのパラメータは、予めキャリブレーションをしておけば良い。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
Figure JPOXMLDOC01-appb-M000003
Figure JPOXMLDOC01-appb-M000004
 なお、姿勢変化量算出部24は、時刻tと時刻t+Δtで検出される各画像中で相対位置が算出された特徴点の全てを用いるのではなく、特徴点同士の位置関係に基づいて最適な特徴点を選定しても良い。選定方法としては、例えば、エピポーラ幾何(エピ極線幾何,R.I.Hartley:“A linear method for reconstruction from lines and points,”Proc.5thInternational Conference on Computer Vision,Cambridge,Massachusetts,pp.882-887(1995))を用いることができる。
 このように、特徴点検出部23が、時刻tのフレーム画像38で相対位置(Xi,Yi,Zi)が算出された特徴点Te1、Te2、Te3を、時刻t+Δtにおけるフレーム画像38‘からも検出された場合に、姿勢変化量算出部24は、路面上の複数の特徴点の相対位置(Xi,Yi,Zi)と特徴点の画像上の位置(Ui、Vi)の時間変化とから、「車両の姿勢角変化量」を算出することができる。更には、車両の移動量を算出することができる。
 即ち、前回フレームと今回フレームの間で対応関係が取れる3点以上の特徴点を継続して検出できれば、距離及び姿勢角の変化量を加算する処理(積分演算)を継続することにより、パターン光32aを用いずに距離及び姿勢角を更新し続けることができる。但し、最初の情報処理サイクルでは、パターン光32aを用いて算出した距離及び姿勢角、或いは所定の初期位置及び初期姿勢角を用いても良い。つまり、積分演算の起点となる距離及び姿勢角は、パターン光32aを用いて算出しても、或いは、所定の初期値を用いても構わない。所定の初期位置及び初期姿勢角は、少なくとも車両10への乗員及び搭載物を考慮した距離及び姿勢角であることが望ましい。例えば、車両10のイグニションスイッチがオン状態で、なお且つシフトポジションがパーキングから他のポジションへ移動した時に、パターン光32aを投光し、パターン光32aから算出した距離及び姿勢角を、所定の初期位置及び初期姿勢角として用いれば良い。これにより、車両10の旋回や加減速によるロール運動或いはピッチ運動が発生していない時の距離や姿勢角を求めることができる。
 なお、前後のフレーム間で特徴点を対応付けるには、例えば、検出した特徴点の周辺の小領域の画像をメモリに記録しておき、輝度や色情報の類似度から判断すれば良い。具体的には、ECU13は、検出した特徴点を中心とする5×5(水平×垂直)画素分の画像をメモリに記録する。姿勢変化量算出部24は、例えば、輝度情報が20画素以上で誤差1%以下に収まっていれば、前後のフレーム間で対応関係が取れる特徴点であると判断する。そして、上記の処理で取得した姿勢変化量は、後段の自己位置算出部25で車両の自己位置を算出する際に使用される。
 自己位置算出部25は、姿勢変化量算出部24で算出された「距離及び姿勢角の変化量」から車両の現在の距離及び姿勢角を算出する。更に、姿勢変化量算出部24で算出された「車両の移動量」から車両の自己位置を算出する。
 具体的に、姿勢角算出部22で算出された距離及び姿勢角(パターン光を用いて算出された距離及び姿勢角)が起点として設定された場合について説明する。この場合には、この起点(距離及び姿勢角)に対して、自己位置算出部25は、姿勢角算出部22で算出された距離及び姿勢角に対して、姿勢変化量算出部24で算出された各フレーム毎の距離及び姿勢角の変化量を逐次加算して(積分演算して)、距離及び姿勢角を最新の数値に更新する。また、自己位置算出部25は、姿勢角算出部22で距離及び姿勢角が算出された際の車両位置を起点(車両の初期位置)とし、この初期位置からの車両の移動量を逐次加算して(積分演算して)、車両の自己位置を算出する。例えば、地図上の位置と照合された起点(車両の初期位置)を設定することで、地図上の車両の現在位置を逐次算出することができる。
 従って、姿勢変化量算出部24は、時間Δtの間でのカメラ12の移動量(ΔL)を求めることにより、車両の自己位置を算出することができる。更に、距離及び姿勢角の変化量も同時に算出することができるので、姿勢変化量算出部24は、車両の距離及び姿勢角の変化量を考慮して、6自由度(前後、左右、上下、ヨー、ピッチ、ロール)の移動量(ΔL)を精度よく算出することができる。即ち、車両10の旋回や加減速によるロール運動或いはピッチ運動によって距離や姿勢角が変化しても、移動量(ΔL)の推定誤差を抑制することができる。
 なお、本実施形態では、距離及び姿勢角の変化量を算出し、距離及び姿勢角を更新することにより、カメラ12の移動量(ΔL)を算出したが、路面31に対するカメラ12の姿勢角だけを変化量算出及び更新の対象としても構わない。この場合、路面31とカメラ12との間の距離は一定と仮定すれば良い。これにより、姿勢角の変化量を考慮して、移動量(ΔL)の推定誤差を抑制しつつ、ECU13の演算負荷を軽減し、且つ演算速度を向上させることもできる。
 パターン光制御部26は、投光器11によるパターン光32aの投光を制御する。例えば、車両10のイグニションスイッチがオン状態となり、自己位置算出装置が起動すると同時に、パターン光制御部26は、パターン光32aの投光を開始する。その後、自己位置算出装置が停止するまで、パターン光制御部26は、パターン光32aを連続して投光する。或いは、所定の時間間隔をおいて、投光のオン/オフを繰り返してもよい。
 ここで、7×5のスポット光Spからなるパターン光を投光した場合、図7(a)に示すような画像がカメラ12により取得される。この画像に対して、パターン光抽出部21が二値化処理を施すことにより、図7(b)に示すようにパターン光(スポット光)Spを抽出することができる。一方、特徴点検出部23が、パターン光Spの投光領域と同じ領域で路面31上の特徴点を検出しようとすると、図7(c)に示すように、パターン光Spに対して路面31上の特徴点を判別することが難しく、特徴点の検出が難しい。これに対して、特徴点検出部23が、パターン光Spの投光領域から離れた領域で路面上の特徴点を検出しようとすると、今度は特徴点の移動量の算出誤差が大きくなる。
 そこで、本実施形態では、パターン光制御部26は、特徴点検出部23での路面の特徴点の検出状態に応じて、複数のパターン光投光領域のうち特定のパターン光投光領域に選択的にパターン光を投光する。
 パターン光制御部26は、例えば図8に示すように、撮像領域30内に複数(4つ)のパターン光投光領域A~Dを設定する。図8において、矢印41は車両の移動方向を示し、矢印41と逆向きの矢印42は特徴点の移動方向を示す。パターン光投光領域A~Dは、車両の移動方向41(上下)及び車両の移動方向41に直交する車幅方向(左右)に4分割された矩形のパターンである。なお、パターン光投光領域の数は複数であれば特に限定されず、2つ又は3つのパターン光投光領域を設定してもよく、5つ以上のパターン光投光領域を設定してもよい。
 図9(a)に示すように特徴点検出部23により特徴点Teが検出された場合、パターン光制御部26は、パターン光投光領域A~D毎に検出できた特徴点Teの数をカウントする。ここで、パターン光制御部26は、パターン光投光領域A~D内に完全に収まっている特徴点数をカウントしてもよい。或いは、パターン光投光領域A~D内に完全に収まっている特徴点に加え、パターン光投光領域A~Dの境界上に存在し、パターン光投光領域A~D内に一部が属している特徴点Teも含めてカウントしてもよい。
 図9(a)において、パターン光投光領域A~D内に完全に収まっている特徴点数をカウントした場合、パターン光投光領域A~Dで検出できた特徴点数はそれぞれ1個、4個、4個、3個となる。パターン光制御部26は、複数のパターン光投光領域A~Dのうち、図9(b)に示すように、特徴点数が最も少ないパターン光投光領域Aに選択的に投光する。
 図10(a)に、選択されたパターン光投光領域の時間変化を示し、図10(b)に、パターン光投光領域A~Dで検出できた特徴点数の時間変化を示す。時刻t0~t7は1情報処理サイクル毎の時刻を示す。時刻t0において、パターン光制御部26が特徴点検出部23により検出できた特徴点Teの数をカウントすると、図10(b)に示すように、パターン光投光領域Aで検出できた特徴点数が最も少ない。そこで、次の情報処理サイクルである時刻t1において、パターン光制御部26は、図10(a)に示すように、前の情報処理サイクルの時刻t0において特徴点数が最も少なかったパターン光投光領域Aに選択的にパターン光を投光させる。
 同様に、時刻t1~t6において、パターン光制御部26が特徴点数をカウントする。そして、次の情報処理サイクルである時刻t2~t7において、前の情報処理サイクルの時刻t1~t6において特徴点数が最も少なかった領域に選択的にパターン光を投光させる。
 [情報処理サイクル]
 次に、図11を参照して、ECU13によって繰り返し実行される情報処理サイクルを説明する。この情報処理サイクルは、カメラ12で取得した画像38から車両10の自己位置を算出する自己位置算出方法の一例である。
 図11のフローチャートに示す情報処理サイクルは、車両10のイグニションスイッチがオン状態となり、自己位置算出装置が起動すると同時に開始され、自己位置算出装置が停止するまで繰り返し実行される。
 図11のステップS01において、パターン光制御部26は、投光器11を制御して、車両周囲の路面31にパターン光を投光する。図11のフローチャートでは、パターン光32aを連続して投光する例を説明する。なお、ステップS01の詳細は後述する。
 ステップS03に進み、ECU13は、カメラ12を制御して、パターン光32aが投光された領域を含む車両周囲の路面31を撮像して画像38を取得する。ECU13は、カメラ12で取得した画像データを、メモリに記憶する。
 なお、ECU13はカメラ12の絞りを自動制御できる。前の情報処理サイクルで取得した画像38の平均輝度から、輝度値の最大値と最小値の中間値になるようにカメラ12の絞りをフィードバック制御してもよい。また、パターン光32aが投光されている領域は輝度値が高いため、ECU13は、パターン光32aを抽出した部分を除いた領域から、平均輝度値を求めてもよい。
 ステップS05に進み、先ず、パターン光抽出部21は、カメラ12で取得した画像38をメモリから読み込み、図4(c)に示すように、画像38からパターン光32aの位置を抽出する。パターン光抽出部21は、パターン光32aの位置を示すデータとして算出されたスポット光Spの画像上の座標(Uj、Vj)をメモリに記憶する。
 さらに、ステップS05において、姿勢角算出部22は、パターン光32aの位置を示すデータをメモリから読み込み、パターン光32aの位置から路面31に対する車両10の距離及び姿勢角を算出してメモリに記憶する。
 ステップS07に進み、ECU13は、画像38から特徴点Teを検出し、前後の情報処理サイクルの間で対応関係が取れる特徴点Teを抽出し、特徴点Teの画像上の位置(Ui、Vi)から距離及び姿勢角の変化量を算出する。さらに、車両の移動量を算出する。
 具体的に、先ず、特徴点検出部23は、カメラ12で取得した図8に対応する撮像領域30の画像38をメモリから読み込み、画像38から路面31上の特徴点Teを検出し、各特徴点Teの画像上の位置(Ui、Vi)をメモリに記憶させる。
 姿勢変化量算出部24は、各特徴点Teの画像上の位置(Ui、Vi)をメモリから読み込み、姿勢角算出部22で算出された距離及び姿勢角と、特徴点Teの画像上の位置(Ui、Vi)とから、カメラ12に対する特徴点Teの相対位置(Xi,Yi,Zi)を算出する。なお、姿勢変化量算出部24は、前の情報処理サイクルのステップS09において設定された距離及び姿勢角を用いる。そして、姿勢変化量算出部24は、カメラ12に対する特徴点Teの相対位置(Xi,Yi,Zi)を、メモリに記憶する。
 この後、姿勢変化量算出部24は、特徴点Teの画像上の位置(Ui、Vi)と、前の情報処理サイクルのステップS07において算出された特徴点Teの相対位置(Xi,Yi,Zi)をメモリから読み込む。姿勢変化量算出部24は、前後の情報処理サイクルの間で対応関係が取れる特徴点Teの相対位置(Xi,Yi,Zi)及び画像上の位置(Ui、Vi)を用いて、距離及び姿勢角の変化量を算出する。さらに、姿勢変化量算出部24は、前回の特徴点Teの相対位置(Xi,Yi,Zi)と今回の特徴点Teの相対位置(Xi,Yi,Zi)から、車両の移動量を算出してメモリに記憶する。ステップS07で算出された「距離及び姿勢角の変化量」並びに「車両の移動量」は、ステップS11の処理で用いられる。
 ステップS09に進み、ECU13は、最初の情報処理サイクルでは、パターン光32aを用いて算出した距離及び姿勢角、或いは所定の初期位置及び初期姿勢角を用いて、自己位置を算出するための積分演算の起点を設定する。以降の情報処理サイクルでは、前回フレームと今回フレームの間で対応関係が取れる3点以上の特徴点を継続して検出できれば、距離及び姿勢角の変化量を加算する処理(積分演算)を継続することにより、パターン光32aを用いずに距離及び姿勢角を更新し続けることができる。
 ステップS11に進み、自己位置算出部25は、ステップS09で設定された積分演算の起点と、ステップS07の処理で算出された車両10の距離及び姿勢角の変化量とから、車両10の自己位置を算出する。
 こうして本実施形態に係る自己位置算出装置は、上記した一連の情報処理サイクルを繰り返し実行して車両10の移動量を積算することにより、車両10の自己位置を算出することができる。
 [ステップS01の処理]
 次に、図12のフローチャートを参照して、図11のステップS01の詳細な手順を説明する。図12に示すように、ステップS101において、パターン光制御部26は、特徴点検出部23により検出された前の情報処理サイクルの特徴点Teの位置をメモリから読み出し、前の情報処理サイクルにおける各パターン投光領域内で検出できた特徴点数をカウントする。ステップS102において、投光器11は、複数のパターン光投光領域のうち、特徴点の検出数が最も少なかった領域に選択的に投光する。
 [第1の変形例]
 次に、第1の変形例として、パターン光の投光方法の他の一例を説明する。投光器11は、複数のパターン光投光領域のうち、特徴点が最も少ない領域を選択する代わりに、特徴点が相対的に少ない複数(例えば2つ)の領域に選択的に投光してもよい。例えば、図13(a)に示すように、パターン光投光領域A~D内に完全に収まっている特徴点数をカウントした場合、パターン光投光領域A~Dで検出できた特徴点数はそれぞれ1個、4個、4個、3個となる。投光器11は、図13(b)に示すように、特徴点数が相対的に少ない2つのパターン光投光領域A,Dに選択的に投光する。
 図14(a)にパターン光投光領域A~Dの投光フラグの時間変化を示し、図14(b)にパターン光投光領域A~Dで検出できた特徴点数を示す。パターン光投光領域A~Dの投光フラグは投光する場合に“1”、投光しない場合に“0”、に設定されている。時刻t0~t7は1情報処理サイクル毎の時刻を示す。時刻t0において、パターン光制御部26は、パターン光投光領域A~D毎で検出できた特徴点数をカウントすると、図14(b)に示すように、パターン光投光領域A,Dで検出できた特徴点数が相対的に少ない。したがって、次の情報処理サイクルの時刻t1において、投光器11は、図14(a)に示すように、前の情報処理サイクルの時刻t0において特徴点数が相対的に少なかった2つのパターン光投光領域A,Dに選択的に投光する。
 同様に、時刻t1~t6において、パターン光制御部26は、パターン光投光領域A~D毎で検出できた特徴点数をカウントする。そして、次の情報処理サイクルの時刻t2~t7において、投光器11は、特徴点数が相対的に少ない2つの領域に選択的に投光する。
 なお、投光器11は、選択するパターン光投光領域A~Dの数を限定せずに、パターン光投光領域A~Dのうち、特徴点Teが所定の閾値以下の領域を選択してもよい。
 [第2の変形例]
 次に、第2の変形例として、パターン光の投光方法の他の一例を説明する。パターン光制御部26は、図15に示すように、特徴点の移動方向42に延伸する縦縞模様に分割され、それぞれ交互に組み合わせた複数のパターン光投光領域A,Bを設定してもよい。複数のパターン光投光領域A,Bは、車幅方向にそれぞれ2つの領域を交互に有し、二者択一で選択される領域である。なお、複数のパターン光投光領域A,Bのそれぞれの数は特に限定されず、複数のパターン光投光領域A,Bのそれぞれが3つ以上の領域を有していてもよい。
 パターン光制御部26は、図16(a)に示すように、2つのパターン光投光領域Aで検出できた特徴点数の合計値及び2つのパターン光投光領域Bで検出できた特徴点数の合計値をそれぞれカウントする。パターン光投光領域A,B内に完全に収まっている特徴点数をカウントした場合、パターン光投光領域Aで検出できた特徴点数は合計4個であり、パターン光投光領域Bで検出できた特徴点数は合計10個である。したがって、投光器11は、図16(b)に示すように、特徴点数が相対的に少ないパターン光投光領域Aに選択的に投光する。
 図17(a)はパターン光投光領域A,Bのパターン光投光領域の時間変化を示し、図17(b)はパターン光投光領域A,Bで検出できた特徴点数を示す。時刻t0~t7は1情報処理サイクル毎の時刻を示す。時刻t0において、パターン光制御部26は、パターン光投光領域A,Bで検出できた特徴点数をカウントすると、図17(b)に示すように、パターン光投光領域Aで検出できた特徴点数が相対的に少ない。このため、投光器11は、図17(a)に示すように、次の情報処理サイクルの時刻t1において、前の情報処理サイクルの時刻t0において特徴点数が相対的に少なかったパターン光投光領域Aに選択的に投光する。同様に、投光器11は、時刻t2~t7において、前の情報処理サイクルの時刻t1~t6において特徴点数が相対的に少なかった一方の領域に選択的に投光する。
 [第3の変形例]
 次に、第3の変形例として、パターン光の投光方法の他の一例を説明する。パターン光制御部26は、図18に示すように、車幅方向(左右)に2分割された2つのパターン光投光領域A,Bを設定してもよい。
 例えば、図19(a)に示すように、パターン光投光領域A,B内に完全に収まっている特徴点数をカウントした場合、パターン光投光領域A,Bで検出できた特徴点数はそれぞれ3個、7個である。パターン光制御部26は、図19(b)に示すように、特徴点数が相対的に少ないパターン光投光領域Aに選択的に投光する。この場合も、図17(a)及び図17(b)に示すように、投光器11は、時刻t1~t7において、前の情報処理サイクルの時刻t0~t6において特徴点数が相対的に少なかった一方の領域に選択的に投光する。
 [第4の変形例]
 次に、第4の変形例として、特徴点Teの検出位置に応じてパターン光の位置を設定する場合を説明する。パターン光制御部26は、図20に示すように、複数のパターン光投光領域として、m×nのスポット光Smn(ここでは5×5のスポット光S11,S12,…,S55)を設定する。また、図21(a)に示すように、特徴点検出部23により特徴点Teの位置が検出される。
 パターン光制御部26は、特徴点検出部23により検出された特徴点Teの位置が、スポット光S11,S12,…,S55の位置(投光領域)と重なるか否かをそれぞれ判定する。この判定は前の情報処理サイクルで行う必要があるため、現在の情報処理サイクルでは特徴点Teが検出位置から移動していることを考慮し、スポット光S11,S12,…,S55の投光領域よりも広げた領域を、特徴点Teの位置と重なるか判定してもよい。なお、消灯しているスポット光の位置は、路面に対するカメラ12の距離及び姿勢角、並びに他のスポット光の位置から推定して求めることができる。投光器11は、図21(b)に示すように、特徴点Teと重なると判定された位置のスポット光は消灯し、特徴点Teと重ならないと判定された位置のスポット光を選択的に投光する。
 図22(a)に、スポット光S11,S12,…,S55の投光フラグの時間変化を示し、図22(b)に、スポット光S11,S12,…,S55の位置に特徴点Teが重なるかの判定結果の時間変化を示す。時刻t0~t7は1情報処理サイクル毎の時刻を示す。図22(b)に示すように、時刻t0において、パターン光制御部26は、例えばスポット光S11,S55の位置に特徴点Teが重ならないと判定し、スポット光S12の位置に特徴点Teが重なると判定している。投光部11は、図22(a)に示すように、次の情報処理サイクルの時刻t1において、前の情報処理サイクルで特徴点Teが重なると判定された位置のスポット光S12を消灯し、特徴点Teが重ならないと判定された位置のスポット光S11,S55を選択的に点灯する。同様に、時刻t2~t7において、投光部11は、前の情報処理サイクルの時刻t1~t6で特徴点Teが重なると判定された位置のスポット光を消灯し、特徴点Teと重ならないと判定された位置のスポット光を選択的に投光する。
 [第1実施形態の効果]
 第1実施形態によれば、特徴点Teの検出状態に応じて、図9(a)及び図9(b)に示すように、複数のパターン光投光領域A~Dのうち特定のパターン光投光領域Aに選択的に投光することにより、特徴点Teが相対的に多い領域ではパターン光が投光されないため、パターン光と区別して特徴点Teを容易に判別することができる。したがって、車両10の自己位置を精度よく算出することができる。
 また、図15に示すように、複数のパターン光投光領域A,Bが特徴点Teの移動方向に延伸する縦縞模様のポジとネガに分割されており、投光器11が、複数のパターン光投光領域A,Bのうち特徴点Teの検出数が相対的に少ない領域にパターン光を投光することにより、より簡単な機構で選択的にパターン光を投光することができる。
 また、図18に示すように、複数のパターン光投光領域A,Bが車幅方向(左右)に2分割されており、投光器11が、複数のパターン光投光領域A,Bのうち、特徴点Teの検出数が相対的に少ない一方に投光することにより、より簡単な機構で選択的にパターン光を投光することができる。
 また、図21(b)に示すように、特徴点Teの検出位置に応じてパターン光投光領域(スポット光)S11,S12,…,S55の位置を設定することにより、パターン光投光領域が比較的細かい場合でもパターン光と区別して特徴点Teを容易に判別することができる。
 (第2の実施の形態)
 [ハードウェア構成]
 第2実施形態に係る自己位置算出装置は、図23に示すように、車両挙動検出部14を更に備える点が、第1実施形態に係る自己位置算出装置の構成と異なる。車両挙動検出部14としては、車速を検出するための車輪速センサや横方向速度を検出するためのヨーレートセンサが使用可能である。第2実施形態に係る自己位置算出装置の他の構成は、第1実施形態に係る自己位置算出装置と実質的に同様であるので、重複した説明を省略する。
 パターン光制御部26は、特徴点Teの移動方向及び移動量を推定し、推定した特徴点Teの移動方向及び移動量に応じてパターン光の位置を設定する。各特徴点Teの移動方向と移動量は、前後の2つの情報処理サイクルから求めた車両の移動量から推定することができる。或いは、車両挙動検出部14により検出された車速やヨーレートから推定することもできる。
 図24(a)に、1情報処理サイクル前に検出された特徴点Teを示し、各特徴点Teについて推定された移動方向及び移動量をベクトルDteで示す。パターン光制御部26は、各特徴点Teについて推定された移動方向及び移動量から各特徴点Teの現在の情報処理サイクルにおける位置を推定し、特徴点Teの位置が、スポット光S11,S12,…,S55の位置に重なるか推定する。図24(b)に示すように、現在の情報処理サイクルにおいて特徴点Teが重なると推定された位置のスポット光を消灯し、特徴点Teが重ならないと推定された位置のスポット光を選択的に点灯する。
 図25(a)に、スポット光S11,S12,…,S55の投光フラグの時間変化を示し、図25(b)に、スポット光S11,S12,…,S55の位置に特徴点Teが存在するか否かの推定結果の時間変化を示す。時刻t0~t7は1情報処理サイクル毎の時刻を示す。図25(b)に示すように、時刻t0において、次の情報処理サイクルである時刻tとなった場合にスポット光S11,S55の位置に特徴点Teがないと推定され、スポット光S12の位置には特徴点Teがあると推定されている。投光器11は、図25(b)に示すように、次の現サイクルの時刻t1において、特徴点Teがあると推定された位置のスポット光S11,S55を消灯し、特徴点Teがないと推定された位置のスポット光S12を選択的に点灯する。同様に、時刻t1~t6において次の投光器11は、次の情報処理サイクルの時刻t2~t7における特徴点Teがスポット光の位置にあるか推定する。そして、次の情報処理サイクルの時刻t2~t7において、特徴点Teがあると推定された位置のスポットを消灯し、特徴点Teがないと推定された位置のスポット光を選択的に点灯する。
 次に、図26を参照して第2実施形態に係る自己位置算出方法のステップS01の詳細を説明する。ステップS201において、車両挙動検出部14が、車速及びヨーレートを検出する。ステップS202において、パターン光制御部26が、車両挙動検出部14により検出された車速及びヨーレートに基づいて、前の情報処理サイクルで検出できた特徴点Teの移動量及び移動方向を推定し、更には現在の情報処理サイクルにおける特徴点Teの位置を推定する。ステップS203において、パターン光制御部26が、特徴点Teの推定位置とスポット光S11,S12,…,S55の位置が重なるか判定する。投光器11は、パターン光制御部26による判定の結果、特徴点Teの推定位置と重なると判定された位置のスポット光を消灯し、特徴点Teの推定位置とは重ならないと判定された位置のスポット光のみ選択的に投光する。
 [変形例]
 次に、特徴点Teの移動方向に応じて、パターン光の位置を設定する場合の変形例を説明する。パターン光制御部26は、図27に示すように、車幅方向(左右)に4分割され、特徴点Teの移動方向42にそれぞれ延伸するパターン光投光領域A,B,C,Dを設定する。図27に特徴点Teの移動方向42を示すように、特徴点Teはカメラ12により取得された画像に映り込んだ後、主に一方向に移動して画像から外れていく。そこで、特徴点Teが画像に映り込む側に特徴点増減予測エリアを設け、前の情報処理サイクルにおいて特徴点増減予測エリアに特徴点が存在するか否かを判断することにより、現在の情報処理サイクルにおいて特徴点Teが減少しそうな領域を狙って投光する。
 例えば、パターン光制御部26は、図28(a)に示すように、撮像領域30内の上部に特徴点増減予測エリアa~dを設定する。特徴点増減予測エリアa~dは、パターン光投光領域A~Dにそれぞれ対応しており、車幅方向においてパターン光投光領域A~Dのそれぞれと同じ位置にある。パターン光制御部26は、各特徴点増減予測エリアa~dに特徴点Teが存在するか判定し、特徴点増減予測エリアa,cには特徴点Teが存在しないと判定する。投光器11は、図28(b)に示すように、特徴点増減予測エリアa,cと同列のパターン光選択領域A,Cに選択的に投光する。なお、各特徴点増減予測エリアa~d内の特徴点Teの有無を判定する代わりに、各特徴点増減予測エリアa~d毎に特徴点Teをカウントし、特徴点Teの相対的に少ない領域に投光してもよい。
 図29(a)に、パターン光選択領域A~Dの投光フラグの時間変化を示し、図29(b)に、特徴点増減予測エリアa~dに特徴点Teが存在するかの判定結果の時間変化を示す。時刻t0~t7は1情報処理サイクル毎の時刻を示す。図29(b)に示すように、時刻t0において、特徴点増減予測エリアa,dには特徴点Teが存在せず、特徴点増減予測エリアb,cに特徴点Teが存在したと判定されている。図29(a)に示すように、次の情報処理サイクルの時刻t1において、投光器11は、前の情報処理サイクルにおいて特徴点Teが存在しないと判定された特徴点増減予測エリアa,dと同列のパターン光投光領域A,Dに選択的に投光する。同様に、パターン光制御部26は、時刻t2~t7において、前の情報処理サイクルの時刻t1~t6において特徴点Teが存在しないと判定された特徴点増減予測エリアに対応するパターン光投光領域に選択的に投光する。
 [第2実施形態の効果]
 第2実施形態によれば、複数のパターン光投光領域(スポット光)S11,S12,…,S55のうち、特徴点Teの検出状態に応じて特定のパターン光投光領域に選択的に投光することにより、スポット光S11,S12,…,S55と区別して特徴点Teを容易に判別することができる。したがって、車両10の自己位置を精度よく算出することができる。
 また、特徴点Teの移動方向に基づいて特徴点Teの現在の位置を推定し、パターン光投光領域(スポット光)S11,S12,…,S55の位置を設定することにより、現在の情報処理サイクルにおけるスポット光S11,S12,…,S55と特徴点Teとの重なりをより低減することができる。
 (その他の実施の形態)
 以上、第1及び第2実施形態に沿って本発明の内容を説明したが、本発明はこれらの記載に限定されるものではなく、種々の変形及び改良が可能であることは、当業者には自明である。
 例えば、図30を参照して、ステップS05のパターン光から路面に対する距離及び姿勢を算出する処理を必要な場合のみ実行する一例を説明する。図30のステップS301において、ECU13が、ステップS05の処理を実行するか否か、即ち、路面に対する距離及び姿勢を算出するか否かを場合分けする。ステップS05のパターン光の位置から路面に対する距離及び姿勢角を算出する処理を実行する場合には、ステップS301に進み、パターン制御部26が、前の情報処理サイクルにおいて、各パターン光投光領域で検出できた特徴点Teの数をカウントする。そして、ステップS302において、投光器11が、例えば、検出できた特徴点Teが最も少ないパターン光投光領域に選択的にパターン光を投光する。その後、図11のステップS03に進む。一方、ステップS301でステップS05のパターン光の位置から路面に対する距離及び姿勢角を算出する処理を実行しない場合には、ステップS304に進み、投光器11はパターン光を消灯する。そして、ステップS305において、カメラ12が画像を取得した後、図11のステップS07の手順に進む。
10 車両
11 投光器
12 カメラ(撮像部)
13 ECU
21 パターン光抽出部
22 姿勢角算出部
23 特徴点検出部
24 姿勢変化量算出部
25 自己位置算出部
26 パターン光制御部
31 路面
32a、32b パターン光
A,B,C,D,S11~S55 パターン光投光領域
Te 特徴点

Claims (6)

  1.  車両周囲の路面にパターン光を投光する投光器と、
     前記車両に搭載され、前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する撮像部と、
     前記撮像部で取得した画像における前記パターン光の形から前記路面に対する車両の姿勢角を算出する姿勢角算出部と、
     前記撮像部で取得した画像から、前記路面上の複数の特徴点を検出する特徴点検出部と、
     前記特徴点検出部により検出された路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する姿勢変化量算出部と、
     前記路面に対する車両の初期位置及び姿勢角に前記姿勢変化量を加算してゆくことによって前記車両の現在位置及び姿勢角を算出する自己位置算出部
     とを備え、
     前記投光器は、前記特徴点検出部での路面の特徴点の検出状態に応じて、複数のパターン光投光領域のうちの特定のパターン光投光領域に選択的にパターン光を投光することを特徴とする自己位置算出装置。
  2.  前記複数のパターン光投光領域が、前記特徴点の移動方向に延伸する縦縞模様に分割され、それぞれ交互に組み合わせており、
     前記投光器は、前記複数のパターン光投光領域のうち、前記特徴点の検出数が相対的に少ない領域にパターン光を投光する
     ことを特徴とする請求項1に記載の自己位置算出装置。
  3.  前記複数のパターン光投光領域が車幅方向で2分割されており、
     前記投光器は、前記複数のパターン光投光領域のうち、前記特徴点の検出数が相対的に少ない一方に投光する
     ことを特徴とする請求項1に記載の自己位置算出装置。
  4.  前記投光器は、前記特徴点の検出位置に応じた位置にパターン光を投光することを特徴とする請求項1~3のいずれか1項に記載の自己位置算出装置。
  5.  前記投光器は、前記特徴点の移動方向に応じた位置にパターン光を投光することを特徴とする請求項1に記載の自己位置算出装置。
  6.  車両周囲の路面にパターン光を投光する手順と、
     前記パターン光が投光された領域を含む車両周囲の路面を撮像して画像を取得する手順と、
     前記取得した画像における前記パターン光の形から前記路面に対する車両の姿勢角を算出する手順と、
     前記取得した画像から、前記路面上の複数の特徴点を検出する手順と、
     前記検出された路面上の複数の特徴点の時間変化に基づいて、前記車両の姿勢変化量を算出する手順と、
     前記路面に対する車両の初期位置及び姿勢角に前記姿勢変化量を加算してゆくことによって前記車両の現在位置及び姿勢角を算出する手順
     とを含み、
     前記パターン光を投光する手順は、前記路面の特徴点の検出状態に応じて、複数のパターン光投光領域のうちの特定のパターン光投光領域に選択的にパターン光を投光することを特徴とする自己位置算出方法。
PCT/JP2014/054317 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法 WO2015125301A1 (ja)

Priority Applications (8)

Application Number Priority Date Filing Date Title
US15/120,603 US9778029B2 (en) 2014-02-24 2014-02-24 Self-position calculating apparatus and self-position calculating method
BR112016019593-0A BR112016019593B1 (pt) 2014-02-24 2014-02-24 Aparelho de cálculo de autoposição e método de cálculo de autoposição
JP2016503900A JP6187672B2 (ja) 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法
EP14883481.5A EP3113150B1 (en) 2014-02-24 2014-02-24 Local location computation device and local location computation method
PCT/JP2014/054317 WO2015125301A1 (ja) 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法
CN201480076129.9A CN106030680B (zh) 2014-02-24 2014-02-24 自身位置计算装置以及自身位置计算方法
RU2016137952A RU2621826C1 (ru) 2014-02-24 2014-02-24 Устройство вычисления собственного положения и способ вычисления собственного положения
MX2016010741A MX349166B (es) 2014-02-24 2014-02-24 Aparato de calculo de la posicion propia y metodo de calculo de la posicion propia.

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2014/054317 WO2015125301A1 (ja) 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法

Publications (1)

Publication Number Publication Date
WO2015125301A1 true WO2015125301A1 (ja) 2015-08-27

Family

ID=53877834

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2014/054317 WO2015125301A1 (ja) 2014-02-24 2014-02-24 自己位置算出装置及び自己位置算出方法

Country Status (8)

Country Link
US (1) US9778029B2 (ja)
EP (1) EP3113150B1 (ja)
JP (1) JP6187672B2 (ja)
CN (1) CN106030680B (ja)
BR (1) BR112016019593B1 (ja)
MX (1) MX349166B (ja)
RU (1) RU2621826C1 (ja)
WO (1) WO2015125301A1 (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184956A (ja) * 2014-03-25 2015-10-22 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
WO2017162644A1 (en) * 2016-03-25 2017-09-28 Jaguar Land Rover Limited Apparatus, system, method and computer program for providing lighting of a vehicle
WO2018127681A1 (en) * 2017-01-04 2018-07-12 CMY Holdings Limited Safety systems for mobile machinery

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN110641356B (zh) * 2015-04-10 2023-04-07 麦克赛尔株式会社 图像投射装置和图像投射方法
JP6601352B2 (ja) * 2016-09-15 2019-11-06 株式会社デンソー 車両姿勢推定装置
US11373418B2 (en) * 2017-08-04 2022-06-28 Sony Corporation Information processing apparatus, information processing method, program, and mobile object
JP7103359B2 (ja) * 2017-08-04 2022-07-20 ソニーグループ株式会社 制御装置、および制御方法、プログラム、並びに移動体
US10890918B2 (en) 2019-04-24 2021-01-12 Innovation First, Inc. Performance arena for robots with position location system
DE102020101710B4 (de) 2020-01-24 2021-09-02 Audi Aktiengesellschaft Verfahren zur Beleuchtung eines Fahrzeugumfeldes und Kraftfahrzeug
CN112288799A (zh) * 2020-09-22 2021-01-29 上海擎朗智能科技有限公司 一种行驶设备的定位方法、装置、设备及存储介质

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06325298A (ja) * 1993-05-13 1994-11-25 Yazaki Corp 車両周辺監視装置
JP2007256090A (ja) * 2006-03-23 2007-10-04 Nissan Motor Co Ltd 車両用環境認識装置及び車両用環境認識方法
JP2010101683A (ja) * 2008-10-22 2010-05-06 Nissan Motor Co Ltd 距離計測装置および距離計測方法
WO2012172870A1 (ja) * 2011-06-14 2012-12-20 日産自動車株式会社 距離計測装置及び環境地図生成装置
JP2013147114A (ja) * 2012-01-18 2013-08-01 Toyota Motor Corp 周辺環境取得装置およびサスペンション制御装置
JP2013187862A (ja) * 2012-03-09 2013-09-19 Topcon Corp 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム

Family Cites Families (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US3414213A (en) * 1966-05-13 1968-12-03 Bendix Corp Internal reflection temperature controlled sun sensor
RU2247921C2 (ru) * 2002-06-26 2005-03-10 Анцыгин Александр Витальевич Способ ориентирования на местности и устройство для его осуществления
JP2004198212A (ja) 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP2004198211A (ja) 2002-12-18 2004-07-15 Aisin Seiki Co Ltd 移動体周辺監視装置
JP4780614B2 (ja) 2006-04-10 2011-09-28 アルパイン株式会社 車体挙動測定装置
JP4914726B2 (ja) 2007-01-19 2012-04-11 クラリオン株式会社 現在位置算出装置、現在位置算出方法
US8692980B2 (en) * 2010-11-01 2014-04-08 Advanced Scientific Concepts, Inc. Flash LADAR collision avoidance system
EP2656156B1 (en) * 2010-12-22 2017-09-06 Philips Lighting Holding B.V. Vehicle positioning and guidance system
JP5857224B2 (ja) * 2012-03-30 2016-02-10 パナソニックIpマネジメント株式会社 駐車支援装置、及び駐車支援方法

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06325298A (ja) * 1993-05-13 1994-11-25 Yazaki Corp 車両周辺監視装置
JP2007256090A (ja) * 2006-03-23 2007-10-04 Nissan Motor Co Ltd 車両用環境認識装置及び車両用環境認識方法
JP2010101683A (ja) * 2008-10-22 2010-05-06 Nissan Motor Co Ltd 距離計測装置および距離計測方法
WO2012172870A1 (ja) * 2011-06-14 2012-12-20 日産自動車株式会社 距離計測装置及び環境地図生成装置
JP2013147114A (ja) * 2012-01-18 2013-08-01 Toyota Motor Corp 周辺環境取得装置およびサスペンション制御装置
JP2013187862A (ja) * 2012-03-09 2013-09-19 Topcon Corp 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP3113150A4 *

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015184956A (ja) * 2014-03-25 2015-10-22 日産自動車株式会社 自己位置算出装置及び自己位置算出方法
WO2017162644A1 (en) * 2016-03-25 2017-09-28 Jaguar Land Rover Limited Apparatus, system, method and computer program for providing lighting of a vehicle
WO2018127681A1 (en) * 2017-01-04 2018-07-12 CMY Holdings Limited Safety systems for mobile machinery

Also Published As

Publication number Publication date
EP3113150A1 (en) 2017-01-04
CN106030680B (zh) 2017-09-19
US9778029B2 (en) 2017-10-03
EP3113150A4 (en) 2017-04-19
BR112016019593B1 (pt) 2022-06-07
BR112016019593A2 (ja) 2017-08-15
JP6187672B2 (ja) 2017-08-30
EP3113150B1 (en) 2018-06-27
RU2621826C1 (ru) 2017-06-07
JPWO2015125301A1 (ja) 2017-03-30
MX2016010741A (es) 2016-10-26
MX349166B (es) 2017-07-17
US20170018087A1 (en) 2017-01-19
CN106030680A (zh) 2016-10-12

Similar Documents

Publication Publication Date Title
JP6187672B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6237876B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6187671B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6237875B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6176387B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6237874B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6547362B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6398218B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6398217B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6492974B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6299319B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6369897B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6369898B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6459745B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6459701B2 (ja) 自己位置算出装置及び自己位置算出方法
JP6398219B2 (ja) 自己位置算出装置及び自己位置算出方法

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 14883481

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2016503900

Country of ref document: JP

Kind code of ref document: A

WWE Wipo information: entry into national phase

Ref document number: MX/A/2016/010741

Country of ref document: MX

WWE Wipo information: entry into national phase

Ref document number: 15120603

Country of ref document: US

NENP Non-entry into the national phase

Ref country code: DE

REG Reference to national code

Ref country code: BR

Ref legal event code: B01A

Ref document number: 112016019593

Country of ref document: BR

REEP Request for entry into the european phase

Ref document number: 2014883481

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2014883481

Country of ref document: EP

ENP Entry into the national phase

Ref document number: 2016137952

Country of ref document: RU

Kind code of ref document: A

ENP Entry into the national phase

Ref document number: 112016019593

Country of ref document: BR

Kind code of ref document: A2

Effective date: 20160824