WO2010001940A1 - 位置測定方法、位置測定装置、およびプログラム - Google Patents

位置測定方法、位置測定装置、およびプログラム Download PDF

Info

Publication number
WO2010001940A1
WO2010001940A1 PCT/JP2009/062067 JP2009062067W WO2010001940A1 WO 2010001940 A1 WO2010001940 A1 WO 2010001940A1 JP 2009062067 W JP2009062067 W JP 2009062067W WO 2010001940 A1 WO2010001940 A1 WO 2010001940A1
Authority
WO
WIPO (PCT)
Prior art keywords
external orientation
orientation element
image
unit
feature point
Prior art date
Application number
PCT/JP2009/062067
Other languages
English (en)
French (fr)
Inventor
哲治 穴井
高地 伸夫
暢之 深谷
Original Assignee
株式会社トプコン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Priority claimed from JP2008172737A external-priority patent/JP5027747B2/ja
Priority claimed from JP2008172665A external-priority patent/JP5027746B2/ja
Application filed by 株式会社トプコン filed Critical 株式会社トプコン
Priority to EP09773518.7A priority Critical patent/EP2309225A4/en
Publication of WO2010001940A1 publication Critical patent/WO2010001940A1/ja
Priority to US12/980,839 priority patent/US8811718B2/en

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • G01C11/08Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken
    • G01C11/10Interpretation of pictures by comparison of two or more pictures of the same area the pictures not being supported in the same relative position as when they were taken using computers to control the position of the pictures
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • G06T7/74Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10004Still image; Photographic image
    • G06T2207/10012Stereo images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present invention relates to a position measurement technique for measuring a photographed position and posture and a three-dimensional position of a subject based on a moving image, and more particularly to a position measurement technique for reducing errors.
  • Patent Document 1 a technique for measuring the position and orientation of a camera and the three-dimensional position of a subject from a moving image using a photogrammetry theory has been disclosed.
  • Patent Document 1 determines the position of the camera by the backward intersection method and the position of the subject by the forward intersection method when the position cannot be measured by the GPS (Global Positioning System). According to this aspect, position measurement is not interrupted.
  • GPS Global Positioning System
  • Non-Patent Document 1 the method for obtaining the position of the camera and the position of the subject from the image tends to generate errors.
  • a technique for solving this problem is disclosed in Non-Patent Document 1 or Patent Document 2, for example.
  • Non-Patent Document 1 describes a position defined by an error (reprojection error) between coordinates obtained by projecting an estimated three-dimensional position on an image and coordinates detected on the image, and a GPS positioning value. The error is minimized simultaneously.
  • Patent Document 2 synchronizes the camera vector (CV) data indicating the position of the camera and the three-axis rotation position obtained from the video image and the position measurement data of the moving body with reference time, They are compared on the same time axis and compensated for each other.
  • CV camera vector
  • an object of the present invention is to provide a technique for reducing an error in a position measurement technique for measuring a captured position and posture and a three-dimensional position of a subject based on a moving image. .
  • the invention according to claim 1 is an initial value for calculating an initial value of an external orientation element composed of a photographing position and a photographing posture based on a known point in the initial image or a photographing position and / or photographing posture measured externally.
  • An external orientation element calculation step for calculating an external orientation element based on a known point in the moving image following the initial image used in the initial value calculation step or a feature point that has already been given a three-dimensional coordinate;
  • An external orientation element correction step for correcting the external orientation element calculated by the external orientation element calculation step based on a difference between an imaging timing of the image and an acquisition timing of the imaging position and / or imaging orientation given from outside, External orientation elements and features in one or more images based on the external orientation elements modified by the external orientation element modification step
  • a bundle adjustment step for simultaneously adjusting the three-dimensional coordinates of the three-dimensional coordinates, and a third order for calculating the three-dimensional coordinates of the feature points newly detected in the area where the density of the feature points is reduced based on
  • the external orientation element is appropriately corrected even when the image capture timing and the capture timing and / or capture orientation acquisition timing given from the outside are not synchronized, Error is reduced.
  • the external orientation element correction step includes a difference between an imaging timing of the image and an acquisition timing of the imaging position and / or imaging orientation given from the outside, The external orientation element is corrected based on the accuracy of the photographing position and / or photographing posture given from the outside.
  • the external orientation element calculated from the image is corrected in consideration of the inherent accuracy of the photographing position and / or photographing posture given from the outside.
  • the accuracy of the imaging position given from the outside is the positioning accuracy of each positioning mode of RTK-GPS, and external positioning is performed based on the positioning mode.
  • the threshold value for correcting the element is changed.
  • RTK-GPS Real Time Kinetic GPS
  • RTK-GPS Real Time Kinetic GPS
  • the accuracy of the photographing posture given from the outside is an accuracy based on a measurement time of the photographing posture.
  • the photographing posture given from the outside tends to accumulate errors depending on the measurement time on the principle of measurement. Therefore, the external orientation element is appropriately corrected by considering the accuracy based on the measurement time of the photographing posture.
  • the bundle adjustment step includes a weight of a photographing position and / or photographing posture given from outside, a weight of a three-dimensional coordinate of an external orientation element and a feature point. , And bundle adjustment is performed by weighting each data.
  • the shooting position and / or shooting posture given from the outside are also bundle-adjusted.
  • each data is weighted and bundle-adjusted, so that data with low accuracy is light and data with high accuracy is handled heavy. For this reason, errors in the three-dimensional coordinates of the external orientation elements and feature points are reduced.
  • the weight of the photographing position and / or photographing posture given from the outside is the photographing timing of the image and the photographing position and / or photographing posture given from the outside. It is calculated based on the difference from the acquisition timing of
  • the sixth aspect of the present invention even when the image capturing timing and the capturing position and / or capturing posture acquisition timing given from outside are not synchronized, the three-dimensional coordinates of the external orientation element and the feature point Error is reduced.
  • the weights of the three-dimensional coordinates of the external orientation elements and feature points are the image coordinates of corresponding points calculated by tracking feature points, and the correspondences.
  • the point is calculated based on a residual from the image coordinates obtained by projecting the three-dimensional coordinates of the points on the image.
  • the accuracy in the three-dimensional coordinates of the external orientation elements and feature points calculated from the image tends to depend on the tracking accuracy of the feature points.
  • the residual according to claim 7 represents tracking accuracy. For this reason, the error of the three-dimensional coordinate of an external orientation element and a feature point reduces by making a residual into the weight of the three-dimensional coordinate of an external orientation element and a feature point.
  • the invention according to claim 8 is the invention according to claim 5, wherein the bundle adjustment step is performed before calculating the three-dimensional coordinates of the newly detected feature point, or of the newly detected feature point. It is performed after calculating the three-dimensional coordinates.
  • the calculation accuracy of the three-dimensional coordinates of the newly detected feature points is calculated. Will improve. Even when the bundle adjustment is performed after the three-dimensional coordinates of the newly detected feature points are calculated, the three-dimensional coordinates of the newly detected feature points are calculated based on the corrected external orientation elements. Therefore, the same effect is produced.
  • the image coordinates of the corresponding points calculated by tracking the feature points and the image coordinates obtained by projecting the three-dimensional coordinates of the corresponding points on the image are obtained.
  • an erroneous corresponding point removing step for removing an erroneous corresponding point based on the residual.
  • the miscorresponding point is removed, so that the error of the external orientation element and the three-dimensional coordinate of the feature point is reduced. To do.
  • the invention according to claim 10 is the invention according to claim 1, wherein the three-dimensional coordinates of the corresponding points in the preceding and following images are projected onto the stereo image, and the coordinate value in the direction orthogonal to the baseline direction in the preceding and following stereo images. And an erroneous corresponding point removing step of removing an erroneous corresponding point based on the difference between the two.
  • the miscorresponding point is removed, so that the error of the external orientation element and the three-dimensional coordinate of the feature point is reduced. To do.
  • the erroneous corresponding point removing step is performed after the bundle adjusting step or before the external orientation element calculating step.
  • the eleventh aspect of the present invention when removal of the erroneous corresponding point is performed after the bundle adjustment, the calculation accuracy of the external orientation elements after the next image is improved. On the other hand, when the removal of the miscorresponding point is performed before the external orientation element calculation, the external orientation element is not calculated based on the miscorresponding point, so that the error of the external orientation element is reduced.
  • the step of eliminating the miscorresponding point according to the ninth or tenth aspect is selected based on a change in the photographing situation.
  • the twelfth aspect of the present invention it is possible to calculate the three-dimensional coordinates of the external orientation elements and the feature points without depending on the change of the photographing situation.
  • the invention described in claim 13 is characterized in that, in the invention described in claim 9 or 10, the threshold value is estimated by LMedS estimation in the erroneous corresponding point removal step.
  • the LmedS method can robustly estimate the outlier even if the data contains many outliers as compared to the least square method. For this reason, the error of the three-dimensional coordinate of an external orientation element or a feature point can be reduced.
  • the invention according to claim 14 is an initial value for calculating an initial value of an external orientation element composed of a photographing position and a photographing posture based on a known point in the initial image or a photographing position and / or photographing posture measured outside.
  • An external orientation element calculation step for calculating an external orientation element based on a known point in the moving image following the initial image used in the initial value calculation step or a feature point that has already been given a three-dimensional coordinate;
  • An external orientation element correction step for correcting the external orientation element calculated by the external orientation element calculation step based on a difference between an imaging timing of the image and an acquisition timing of the imaging position and / or imaging orientation given from outside, Based on the external orientation elements modified by the external orientation element modification step, the external orientation elements and the special features in one or more images.
  • the three-dimensional coordinates of the feature points newly detected in the area where the density of the feature points is reduced are calculated.
  • a position measurement program for executing a three-dimensional coordinate calculation step and a repetition step of repeating the processes from the external orientation element calculation step to the three-dimensional coordinate calculation step until a final image is obtained.
  • the external orientation element is appropriately corrected even when the image capturing timing is not synchronized with the capturing position and / or capturing orientation acquisition timing given from the outside, Error is reduced.
  • a moving image acquisition unit that acquires a moving image captured by relatively moving the object and the imaging unit little by little, and an image acquired by the moving image acquisition unit are sequentially input.
  • a feature point detection and tracking unit for detecting and tracking feature points from the image, a position measuring unit for measuring the shooting position of the moving image acquiring unit from the outside, and a shooting posture of the moving image acquiring unit from the outside
  • a posture measurement unit a moving image acquired by the moving image acquisition unit, a feature point detected and tracked by the feature point detection tracking unit, a shooting position measured by the position measurement unit, and a posture measurement unit
  • a position measuring device comprising: a measurement processing posture that inputs a measured photographing posture and calculates a three-dimensional coordinate of an external orientation element including the photographing position and photographing posture of the moving image and the feature point
  • the calculation processing unit is a known point in the initial image or an imaging position measured by the position measuring unit and / or an imaging posture measured by the posture measuring unit and includes an imaging position and a shooting posture.
  • An external orientation element calculation unit for calculating an element, and an external orientation element calculated by the external orientation element calculation unit are acquired from an image capturing timing and an imaging position acquired from the position measuring unit and / or an attitude measuring unit.
  • An external orientation element correction unit that corrects based on a difference from the acquisition timing of the shooting posture, and a plurality of external orientation elements that are corrected by the external orientation element correction unit.
  • a bundle adjustment unit that simultaneously bundle adjusts the three-dimensional coordinates of the external orientation elements and feature points in the image, and a feature point newly detected in a region where the density of feature points is reduced based on the bundle-adjusted external orientation elements
  • a three-dimensional coordinate calculation unit that calculates the three-dimensional coordinates of the position measurement device, wherein the processing from the external orientation element calculation unit to the three-dimensional coordinate calculation unit is repeated until a final image is obtained. is there.
  • the external orientation element is appropriately corrected even when the image capturing timing and the capturing position and / or capturing orientation acquisition timing given from the outside are not synchronized, Error is reduced.
  • an initial value for calculating an initial value of an external orientation element composed of a photographing position and a photographing posture based on a known point in the initial image or a photographing position and / or photographing posture measured outside An external orientation element calculation step for calculating an external orientation element based on a known point in the moving image following the initial image used in the initial value calculation step or a feature point that has already been given a three-dimensional coordinate;
  • the external orientation element calculated in the external orientation element calculation step is at least one of a feature point trajectory direction, a feature point trajectory amount, a feature point distribution rate, a feature point overlap rate, and vertical parallax.
  • a bundle adjustment step of simultaneously adjusting the bundle of the three-dimensional coordinates of the external orientation element and the feature point, and a feature point newly detected in the area where the density of the feature points is reduced based on the bundle-adjusted external orientation element Position measurement comprising: a three-dimensional coordinate calculation step for calculating three-dimensional coordinates; and a repetition step for repeating the processes from the external orientation element calculation step to the three-dimensional coordinate calculation step until a final image is obtained. Is the method.
  • the change in the shooting scene and the shooting device Can be judged.
  • Changes in the shooting scene and changes in the shooting apparatus make it difficult to track feature points and degrade the accuracy of the external orientation elements calculated from the images. Therefore, when the change in the shooting scene and the fluctuation of the shooting apparatus are relatively large, it is evaluated that the reliability of the external orientation element calculated from the image is low, and the change in the shooting scene and the fluctuation of the shooting apparatus are relatively If it is small, it is evaluated that the external orientation element calculated from the image has high reliability.
  • the external orientation element calculated from the image is not used, but the externally measured imaging position or orientation is used.
  • the invention according to claim 17 is the invention according to claim 16, wherein the direction of the trajectory of the feature point or the amount of the trajectory of the feature point corresponds to the feature point of the previous image in the processing target image. It is calculated based on the difference between the trajectory of the point and the trajectory of the newly detected feature point.
  • a change in the shooting scene and a change in the shooting apparatus are easily detected.
  • the current image to be processed includes a corresponding point corresponding to the feature point of the previous image and a newly detected feature point.
  • the trajectory of the corresponding point and the trajectory of the newly detected feature point have different directions and different amounts.
  • the distribution rate of the feature points or the overlap rate of the feature points is the X coordinate and / or Y coordinate of the feature point with the image center as the origin. It is calculated by the total value.
  • a change in the shooting scene and a change in the shooting apparatus are easily detected.
  • the external orientation element evaluation step includes the direction of the trajectory of the feature point, the amount of the trajectory of the feature point, the distribution rate of the feature point, and the feature point
  • the external orientation element is evaluated based on a value obtained by multiplying a plurality of values selected from the overlap rate and the vertical parallax.
  • a change in the shooting scene and a change in the shooting apparatus are detected with one parameter.
  • the bundle adjusting step includes a weight of a photographing position and / or a photographing posture given from outside, a weight of a three-dimensional coordinate of an external orientation element and a feature point. , And bundle adjustment is performed by weighting each data.
  • the photographing position and / or photographing posture given from the outside are also bundle-adjusted.
  • each data is weighted and bundle-adjusted, so that data with low accuracy is light and data with high accuracy is handled heavy. For this reason, errors in the three-dimensional coordinates of the external orientation elements and feature points are reduced.
  • the weight of the photographing position and / or photographing posture given from the outside is the photographing timing of the image and the photographing position and / or photographing posture given from the outside. It is calculated based on the difference from the acquisition timing of
  • the image capturing timing is not synchronized with the capturing position and / or capturing orientation acquisition timing given from outside, the three-dimensional coordinates of the external orientation elements and feature points Error is reduced.
  • the weights of the three-dimensional coordinates of the external orientation element and the feature point are the direction of the trajectory of the feature point, the amount of the trajectory of the feature point, and the feature point. It is calculated based on at least one of a distribution rate, an overlap rate of feature points, and vertical parallax.
  • the error of the three-dimensional coordinates of the external orientation element and the feature point is reduced.
  • the invention according to claim 23 is the invention according to claim 20, wherein the bundle adjustment step is performed before calculating the three-dimensional coordinates of the newly detected feature point or of the newly detected feature point. It is performed after calculating the three-dimensional coordinates.
  • the calculation accuracy of the three-dimensional coordinates of the newly detected feature point is high. improves.
  • the three-dimensional coordinates of the newly detected feature points are calculated based on the external orientation elements after the evaluation. Therefore, the same effect is produced.
  • an image coordinate of a corresponding point calculated by tracking a feature point and an image coordinate obtained by projecting the three-dimensional coordinate of the corresponding point on the image.
  • an erroneous corresponding point removing step for removing an erroneous corresponding point based on the residual.
  • the miscorresponding point is removed, so that the error of the external orientation element and the three-dimensional coordinate of the feature point is reduced. To do.
  • the three-dimensional coordinates of the corresponding points in the preceding and following images are projected onto the stereo image, and the coordinate values in the direction orthogonal to the baseline direction in the preceding and following stereo images.
  • the erroneous corresponding point removing step is performed after the bundle adjusting step or before the external orientation element calculating step.
  • the step of removing the miscorresponding points when the step of removing the miscorresponding points is performed after the bundle adjustment, the calculation accuracy of the external orientation elements after the next image is improved.
  • the removal of the miscorresponding point is performed before the external orientation element calculation, the external orientation element is not calculated based on the miscorresponding point, so that the error of the external orientation element is reduced.
  • the step of eliminating a corresponding point according to the twenty-fourth or twenty-fifth aspect is selected based on a change in photographing condition.
  • the twenty-seventh aspect of the present invention it is possible to calculate the three-dimensional coordinates of the external orientation elements and the feature points without depending on the change of the photographing situation.
  • the invention according to claim 28 is the invention according to claim 24 or 25, characterized in that a threshold value is estimated by LMedS estimation in the erroneous corresponding point removal step.
  • the LmedS method can robustly estimate an outlier even if the data contains many outliers as compared to the least square method. For this reason, the error of the three-dimensional coordinate of an external orientation element or a feature point can be reduced.
  • an initial value for calculating an initial value of an external orientation element composed of a photographing position and a photographing posture based on a known point in the initial image or a photographing position and / or photographing posture measured outside An external orientation element calculation step for calculating an external orientation element based on a known point in the moving image following the initial image used in the initial value calculation step or a feature point that has already been given a three-dimensional coordinate;
  • the external orientation element calculated in the external orientation element calculation step is at least one of a feature point trajectory direction, a feature point trajectory amount, a feature point distribution rate, a feature point overlap rate, and vertical parallax.
  • a position measurement program for executing a three-dimensional coordinate calculation step for calculating three-dimensional coordinates, and a repetition step for repeating the processes from the external orientation element calculation step to the three-dimensional coordinate calculation step until a final image is obtained. is there.
  • the change in the shooting scene and the shooting device Can be judged. For this reason, it is possible to reduce errors due to changes in the shooting scene and fluctuations in the shooting apparatus.
  • a moving image acquisition unit that acquires a moving image captured by relatively moving an object and an imaging unit little by little, and an image acquired by the moving image acquisition unit are sequentially input.
  • a feature point detection and tracking unit for detecting and tracking feature points from the image, a position measuring unit for measuring the shooting position of the moving image acquiring unit from the outside, and a shooting posture of the moving image acquiring unit from the outside
  • a posture measurement unit a moving image acquired by the moving image acquisition unit, a feature point detected and tracked by the feature point detection tracking unit, a shooting position measured by the position measurement unit, and a posture measurement unit
  • a position measuring device comprising: a measurement processing posture that inputs a measured photographing posture and calculates a three-dimensional coordinate of an external orientation element including the photographing position and photographing posture of the moving image and the feature point
  • the calculation processing unit is a known point in the initial image or an imaging position measured by the position measuring unit and / or an imaging posture measured by the posture measuring unit and includes an imaging position and a shooting
  • An external orientation element calculation unit that calculates an element, and an external orientation element calculated by the external orientation element calculation unit, the direction of the trajectory of the feature point, the amount of the trajectory of the feature point, the distribution rate of the feature points, and the overlap of the feature points
  • An external orientation element evaluation unit that evaluates based on at least one of rate and vertical parallax, and one or more images based on the external orientation element modified by the external orientation element evaluation unit
  • a bundle adjustment unit that simultaneously adjusts the three-dimensional coordinates of the external orientation elements and feature points in the image, and a feature point newly detected in an area where the density of feature points is reduced based on the bundle-adjusted external orientation elements
  • a position measuring device comprising: a three-dimensional coordinate calculating unit that calculates three-dimensional coordinates,
  • the change in the shooting scene and the shooting device Can be judged. For this reason, it is possible to reduce errors due to changes in the shooting scene and fluctuations in the shooting apparatus.
  • the figure (A) which shows the case where the GPS position data in consideration of the difference between the image capturing timing and the GPS position data acquisition timing is within the set threshold range, and the image capturing timing and the GPS position data
  • a figure (B) which shows the case where the GPS position data which considered the difference with the acquisition timing of this is outside the range of the set threshold value.
  • a diagram (A) showing the relationship between the measurement time of the posture data of the posture measurement unit and the accumulated error, and a timing chart (B) when the image capturing timing and the posture data acquisition timing of the posture measurement unit are not synchronized. is there.
  • It is a conceptual diagram of the forward dating method. It is a functional block diagram of a position measuring device.
  • FIG. 1 A diagram showing an image with a feature point distribution rate of 0
  • a diagram (C) showing an image with a positive feature point distribution rate. is there.
  • FIG. 5A is a diagram showing an image in which feature points overlapping in preceding and following frames are biased
  • FIG. 6B is a diagram showing an image in which feature points overlapping in preceding and following frames are not biased.
  • It is a conceptual diagram (A) of bundle adjustment concerning the 1st and 2nd embodiment, and a conceptual diagram (B) of weighted bundle adjustment concerning a 3rd embodiment.
  • It is the flowchart which took in removal of a miscorresponding point. It is the flowchart which took in removal of a false corresponding point. It is the flowchart which took in removal of a miscorresponding point.
  • SYMBOLS 1 Position measuring device, 2 ... Moving image acquisition part, 3 ... Feature point detection tracking part, 4 ... Position measurement part, 5 ... Attitude measurement part, 6 ... Reference
  • FIG. 1 is an overall view of the position measuring device
  • FIG. 2 is a functional block diagram of the position measuring device.
  • the position measurement apparatus 1 includes a moving image acquisition unit 2, a feature point detection tracking unit 3, a position measurement unit 4, an attitude measurement unit 5, a reference clock unit 6, and a calculation processing unit 7.
  • the moving image acquisition unit 2 includes a camera that acquires moving images such as a video camera, a CCD camera for industrial measurement (Charge Coupled Device Camera), and a CMOS camera (Complementary Metal Oxide Semiconductor Camera).
  • the moving image acquisition unit 2 may be a camera that acquires a still image. In this case, a plurality of still images taken while the subject and the camera move relatively little by little are acquired.
  • the feature point detection tracking unit 3 includes a feature point detection unit 8 and a feature point tracking unit 9.
  • the feature point detection unit 8 detects a feature point from the moving image acquired by the moving image acquisition unit 2.
  • the feature point tracking unit 9 tracks corresponding points corresponding to the feature points detected by the feature point detection unit 8 in other images.
  • the feature point detection unit 8 and the feature point tracking unit 9 are implemented by firmware such as ASIC (Application Specific Integrated Circuit) or FPGA (Field Programmable Gate Array). Note that the feature point detection unit 8 and the feature point tracking unit 9 may be configured by software executed on a general-purpose computer.
  • the position measuring unit 4 includes a GPS (Global Positioning System) receiver, an inertial measurement unit (IMU: Internal Measurement Unit), and the like.
  • the position measuring unit 4 is used for measuring the position of the camera (projection center). Based on the shooting environment or the like, the external orientation element calculated from the image can be appropriately corrected by combining GPS and IMU. A positional offset between the installation position of the position measurement unit 4 and the installation position of the camera is set in advance.
  • the attitude measurement unit 5 includes an attitude sensor such as a gyroscope, an IMU, an acceleration clock, an angular velocity meter, an angular accelerometer, and a combination thereof. By combining these based on the shooting environment or the like, the external orientation element calculated from the image can be appropriately corrected.
  • the posture measuring unit 5 is used for measuring the posture of the camera.
  • the reference clock unit 6 includes a crystal oscillator, a rubidium oscillator, a radio clock, and the like.
  • the reference clock unit 6 converts the time of the moving image photographing unit 2, the time of the position measuring unit 4, and the time of the posture measuring unit 5 into the same time axis.
  • the calculation processing unit 7 is composed of a personal computer (PC: Personal Computer).
  • the calculation processing unit 7 includes a control calculation unit 10 and a storage unit 11.
  • the control calculation unit 10 is a CPU (Central Processing Unit), and the storage unit 11 is configured by a semiconductor storage device such as a RAM (Random Access Memory) and a ROM (Read Only Memory), a magnetic storage device, and the like.
  • the storage unit 11 stores an operating system and a position measurement program, and the control calculation unit 10 reads and executes the program.
  • the position measurement program includes an initial value calculation unit 12, an external orientation element calculation unit 13, an external orientation element correction unit 14, a bundle adjustment unit 15, a three-dimensional coordinate calculation unit 16, an error point removal unit 17, a detailed measurement unit 18, and an external orientation.
  • An element / three-dimensional coordinate output unit 19 is included.
  • the position measurement program can be provided by a recording medium such as a CDROM.
  • the initial value calculation unit 12 is configured to detect the internal orientation element (focal length, The initial values of principal point position (shift of optical axis center, lens distortion coefficient) and external orientation elements (camera position and orientation) are calculated.
  • the external orientation element calculation unit 13 calculates an external orientation element based on the backward association method or the relative orientation method.
  • the backward intersection method is a method of observing the direction from an unknown point to three or more known points and determining the position of the unknown point as an intersection of these direction lines. Examples of the backward intersection method include single photo orientation and DLT method (Direct Liner Transformation Method).
  • the external orientation element correction unit 14 considers the difference between the image capturing timing and the position data acquired by the position measurement unit 4 and the acquisition timing of the orientation data acquired by the orientation measurement unit 5 for the external orientation element calculated from the image. To correct.
  • the bundle adjustment unit 15 adjusts the corrected external orientation element and the three-dimensional coordinates of the feature points simultaneously between one image, a plurality of images, or all images.
  • the three-dimensional coordinate calculation unit 16 calculates the three-dimensional coordinates of the newly detected feature point based on the forward intersection method.
  • the forward intersection method is a method of observing a direction from two or more known points toward an unknown point and determining the position of the unknown point as an intersection of these direction lines.
  • the bundle adjustment is performed before calculating the three-dimensional coordinates of the newly detected feature point or after calculating the three-dimensional coordinates of the newly detected feature point.
  • the miscorresponding point removal unit 17 removes a point having a relatively large error from the tracked corresponding points using the vertical parallax calculated by the backward projection or the relative orientation.
  • Backward projection is a method for removing error points from the residual between image coordinates calculated from three-dimensional coordinates of feature points and image coordinates of tracked corresponding points based on a backward intersection method.
  • the relative orientation is to obtain an external orientation element by using 6 or more corresponding points in the left and right images.
  • the vertical parallax is a difference in y-coordinates of corresponding points in two images shot in stereo, and means a difference in coordinate values in a direction orthogonal to the baseline direction of the stereo image. Note that a stereo image is an image pair in which the optical axes of cameras that photographed two images are parallel and the directions orthogonal to the baseline direction are parallel.
  • the detailed measurement unit 18 performs three-dimensional modeling.
  • Three-dimensional modeling means forming a three-dimensional object to be photographed.
  • the detailed measurement unit 15 calculates a contour line from the three-dimensional coordinates of the feature points to form a wire frame model and calculates a surface to form a surface model.
  • a two-dimensional image is texture-mapped on the surface of the formed surface model.
  • the detailed measurement unit 15 performs texture analysis based on the mapped texture, and calculates the three-dimensional coordinates of the feature portion of the texture.
  • the three-dimensional coordinates of the texture feature are bundle-adjusted and corrected to an optimum value.
  • the external orientation element / three-dimensional coordinate output unit 19 outputs the external orientation element and the three-dimensional coordinate data of the feature point or texture feature portion.
  • a moving image is acquired by the moving image acquisition unit 2 (step S1).
  • the moving image is composed of a plurality of continuous images captured by moving the moving image acquisition unit 2 and the object relatively little by little.
  • a plurality of continuous images are sequentially input to the feature point detection tracking unit 3.
  • the feature point detection unit 8 detects a feature point from the image input to the feature point detection tracking unit 3 (step S2). Filters such as Moravec, Laplacian, and Sobel are used for feature point detection.
  • the feature point tracking unit 9 tracks corresponding points corresponding to the feature points in the next image (step S3).
  • Template matching is used for tracking feature points. Examples of the template matching include a residual sequential test method (SSDA: Sequential Similarity Detection Algorithm), a cross-correlation coefficient method, and the like.
  • the feature point detection unit 8 newly detects the feature points in the area where the density of the feature points is reduced.
  • Step S2 for detecting feature points and step S3 for tracking feature points are repeated in successive images. Information about feature points is embedded in each image. Then, the image in which the information regarding the feature point is embedded is sequentially output to the calculation processing unit 7. Details of the processes in steps S2 and S3 are described in Japanese Patent Application Nos. 2007-147457 and 2007-183256.
  • the calculation processing unit 7 calculates the initial values of the internal orientation element and the external orientation element of the camera from the image where the reference point is photographed (step S4).
  • the worker installs a reference point in the target space and photographs the reference point.
  • the worker measures the three-dimensional coordinates of the reference point in the real space using a total station or GPS.
  • the operator calculates initial values of the internal orientation element and external orientation element of the camera by the backward intersection method based on the three-dimensional coordinates and the image coordinates of the reference point.
  • the initial value of the external orientation element is obtained by using a total station or GPS, instead of directly giving the three-dimensional coordinate values of the feature points, giving the three-dimensional coordinate values of a plurality of shooting positions and shooting at the plurality of shooting positions. You may make it obtain
  • the operator captures a plurality of images while moving a reference plate on which a plurality of reference points are drawn without using a total station or GPS.
  • the distance between the reference points drawn on the reference plate is known.
  • the image coordinates of the reference point are calculated from a plurality of images taken with the reference point, and the initial values of the camera position and orientation are obtained using relative orientation or the like.
  • the local coordinate system is used.
  • step S5 the external orientation element and the three-dimensional coordinates of the newly detected feature point are calculated (step S5).
  • the backward intersection method or the relative orientation method is used for the calculation of the external orientation element, and the forward intersection method is used for the calculation of the three-dimensional coordinates of the newly detected feature points. This process is repeated for all images. Details of this processing will be described later.
  • step S6 If more detailed measurement is performed (step S6), detailed measurement is performed (step S8).
  • Detailed measurement includes wire frame model formation, surface model formation, texture mapping, texture analysis, and the like.
  • the texture analysis the three-dimensional coordinates of the characteristic part of the texture are calculated.
  • the three-dimensional coordinates of the texture feature are bundle-adjusted together with the three-dimensional coordinates of the external orientation elements and feature points calculated in step S5, and are corrected to optimum values.
  • the calculated external orientation elements and three-dimensional coordinates are output as data (step S7).
  • the calculation processing of the three-dimensional coordinates / external orientation element in step S5 includes the calculation of the external orientation element (step S10), the correction of the calculated external orientation element (step S11), the corrected external orientation element and It consists of bundle adjustment of the three-dimensional coordinates of the known points and feature points (step S12) and calculation of the three-dimensional coordinates of the newly detected feature points (step S13).
  • the bundle adjustment (step S12) is performed before calculating the three-dimensional coordinates of the newly detected feature points (FIG. 3) or after calculating the three-dimensional coordinates of the newly detected feature points (FIG. 4). You may go to In the case of FIG. 3, the calculation accuracy of the three-dimensional coordinates of the newly detected feature points is improved. In the case of FIG. 4, since the three-dimensional coordinates of the newly detected feature point are calculated based on the corrected external orientation element, the same effect is obtained.
  • FIG. 5 is an explanatory diagram for explaining the backward intersection method.
  • the backward intersection method is a method of observing directions from the unknown point O toward three or more known points P 1 , P 2 , and P 3 and determining the position of the unknown point O as an intersection of these direction lines.
  • the external orientation elements X 0 , Y 0 , Z 0 , ⁇ , ⁇ , ⁇
  • the single photo orientation and DLT method used as the backward intersection method will be described.
  • Single photo orientation uses the collinear condition that holds the reference point in a single photo, and uses the camera position O (X 0 , Y 0 , Z 0 ) and camera posture ( ⁇ , ⁇ , ⁇ ).
  • the collinear condition is a condition that the projection center, the photographic image, and the ground target points (Op 1 P 1 , Op 2 P 2 , Op 3 P 3 ) are on a straight line.
  • the camera position O (X 0 , Y 0 , Z 0 ) and the camera posture ( ⁇ , ⁇ , ⁇ ) are external orientation elements.
  • the camera coordinate system be x, y, z
  • the photographic coordinate system x, y, and the ground coordinate system be X, Y, Z. It is assumed that photographing is performed in a direction in which the camera is sequentially rotated counterclockwise by ⁇ , ⁇ , and ⁇ counterclockwise with respect to the positive direction of each coordinate axis. Then, the four image coordinates (only three points are shown in FIG. 5) and the corresponding three-dimensional coordinates of the reference point are substituted into the quadratic projective transformation equation shown in Equation 1, and an observation equation is established to set the parameters b1 to b8 is obtained.
  • the DLT method approximates the relationship between the photographic coordinates and the three-dimensional coordinates of the target space with a cubic projective transformation formula.
  • the basic formula of the DLT method is as shown in Equation 13 below.
  • For details of the DLT method refer to “Shunji Murai: Analytical Photogrammetry, p46-51, p149-155” and the like.
  • Equation 4 ⁇ Erasing the denominator of Equation 3 yields the linear form of Equation 4.
  • Equation 4 is transformed, the following Equation 5 is obtained.
  • the relative orientation is a method in which a relative external orientation element is obtained even if there is no known point. If there is a known point, absolute coordinates can be obtained by performing absolute orientation.
  • FIG. 6 is an explanatory diagram for explaining relative orientation.
  • an external orientation element is obtained from six or more corresponding points in the left and right images.
  • a coplanar condition that two rays connecting the projection centers O 1 and O 2 and the reference point P must be in the same plane is used.
  • the following formula 6 shows the coplanar conditional expression.
  • the base length is the unit length.
  • the parameters to be obtained are the rotation angle ⁇ 1 of the left camera, the rotation angle ⁇ 1 of the Y axis, the rotation angle ⁇ 2 of the right camera, the rotation angle ⁇ 2 of the Y axis, and the rotation angle ⁇ 2 of the X axis.
  • the coplanar conditional expression of Equation 6 becomes as shown in Equation 7, and each parameter can be obtained by solving this equation.
  • an unknown parameter (external orientation element) is obtained by the following procedure.
  • the initial approximate values of unknown parameters ( ⁇ 1 , ⁇ 1 , ⁇ 2 , ⁇ 2 , ⁇ 2 ) are normally 0.
  • the coplanar conditional expression of Equation 7 is Taylor-expanded around the approximate value, and the value of the differential coefficient when linearized is obtained by Equation 8, and an observation equation is established.
  • a least square method is applied to obtain a correction amount for the approximate value.
  • the approximate value is corrected.
  • the operations (1) to (4) are repeated until convergence.
  • connection orientation is further performed.
  • the connection orientation is a process of unifying the inclination and scale between models to make the same coordinate system.
  • a connection range represented by the following formula 9 is calculated. As a result of the calculation, if ⁇ Z j and ⁇ D j are equal to or less than a predetermined value (for example, 0.0005 (1/2000)), it is determined that the connection orientation has been normally performed.
  • the external orientation element includes the position data of the position measuring unit 4 and the attitude data of the attitude measuring unit 5 in consideration of the difference between the image capturing timing and the position data of the position measuring unit 4 and the acquisition timing of the attitude data of the attitude measuring unit 5. Make corrections after evaluating.
  • a method for correcting the external orientation element (camera position and orientation) will be described.
  • the position data acquired from the position measurement unit 4 has inherent accuracy corresponding to each device. For example, when the accuracy is ⁇ , 2 ⁇ , 3 ⁇ , and the like are used as evaluation values (threshold values) for position data of GPS and IMU. That is, if the GPS or IMU position data that takes into account an error based on the difference between the image capturing timing and the GPS or IMU position data acquisition timing is outside the threshold range, the camera position calculated from the image is Selected. On the other hand, if the GPS or IMU position data taking into account an error based on the difference between the image capturing timing and the GPS or IMU position data acquisition timing is within the threshold value range, the GPS or IMU position data is selected. Is done. The position offset between the camera installation position and the GPS or IMU installation position is corrected in advance.
  • the GPS time is not synchronized with the camera time.
  • the GPS position data acquisition time and the image shooting time are converted to the reference time output by the reference clock 6.
  • the converted time takes into account the transmission delay of position data and the transmission delay of image data.
  • the image capturing timing and the GPS position data acquisition timing are not synchronized. For this reason, the error based on the difference between the image capturing timing and the GPS position data acquisition timing is taken into consideration for the GPS position data error.
  • FIG. 7 is a timing chart (A) when the image capturing timing and the GPS position data acquisition timing are not synchronized, and the timing when the image capturing timing and the GPS position data acquisition timing are synchronized. It is a chart (B).
  • ⁇ t in Equation 10 is generally unknown. However, if the frame rate of moving images is 30 fps and the acquisition rate of GPS position data is 1 fps, it can be assumed that ⁇ t is ⁇ 1/30 seconds at the maximum, as shown in FIG. it can. Note that ⁇ t may be changed.
  • the image capture time and the GPS position data acquisition time can be represented on the same time axis by the reference clock 6.
  • a time difference from an image taken at a close time is ⁇ t.
  • ⁇ t shown in FIG. 7A is obtained by subtracting the image capturing time from the GPS position data acquisition time.
  • GPS-specific positioning accuracy is considered.
  • the positioning accuracy of GPS varies depending on values such as satellite position (DOP: Division of Precision), multipath, link quality (LQ: Link Quality), and convergence evaluation of positioning calculation.
  • DOP Division of Precision
  • LQ Link Quality
  • convergence evaluation of positioning calculation For example, in the case of an RTK-GPS (Real Time Kinetic GPS) system, the positioning mode changes in real time in consideration of the position of the GPS satellite, the influence of multipath due to the surrounding environment, correction information from the reference station, and the like. Table 1 below shows an outline of positioning accuracy in each positioning mode.
  • the total error Et ALL of the GPS position data in consideration of the difference between the image capturing timing and the GPS position data acquisition timing is expressed by Equation 12.
  • Et ALL > threshold the external orientation element (camera position) calculated from the image is used, and the GPS position data is not used.
  • the external orientation element may be selected depending on which positioning mode the GPS position data is measured from among the positioning modes described in Table 1. For example, it is assumed that it is selected not to use other than the RTK Fix positioning mode. In this case, the external orientation element calculated from the image is selected.
  • FIG. 8A is a diagram illustrating a case where the GPS position data in consideration of the difference between the image capturing timing and the GPS position data acquisition timing is within the set threshold range.
  • the GPS position data Is selected.
  • FIG. 8B if the GPS position data Et ALL considering the difference between the image capturing timing and the GPS position data acquisition timing is outside the set threshold range, The calculated external orientation element (camera position) is selected.
  • [Camera posture correction] Posture data acquired from the posture measurement unit 5 (posture sensor or IMU) is evaluated using evaluation values (threshold values) of 2 ⁇ , 3 ⁇ , etc. of the assumed accuracy ⁇ . In other words, if the posture data considering the error based on the difference between the image capturing timing and the posture sensor or IMU posture data acquisition timing is outside the range of the threshold value, the camera posture calculated from the image is selected. . On the other hand, if the posture data considering an error based on the difference between the image capturing timing and the posture data acquisition timing of the posture sensor or the IMU is within the threshold range, the posture data of the posture measuring unit 5 is selected. .
  • the posture data of the posture measurement unit 5 is composed of three rotation angles ( ⁇ , ⁇ , ⁇ ) of the camera coordinate axes, but any one may be evaluated, or two or all three. You may evaluate. At this time, whether or not to use is set according to the accuracy of the attitude sensor or the IMU.
  • FIG. 9A is a diagram illustrating the relationship between the measurement time of posture data of the posture sensor and the accumulated error.
  • the time of the attitude sensor is not synchronized with the time of the camera, in the present invention, the acquisition time of the attitude data and the shooting time of the image are converted to the reference time output by the reference clock 6.
  • the converted time takes into account the transmission delay of the attitude data of the attitude sensor and the transmission delay of the image data.
  • the error in the attitude data of the attitude sensor takes into account an error based on the difference between the image capturing timing and the attitude data acquisition timing of the attitude sensor.
  • FIG. 9B is a timing chart when the image capturing timing and the posture data acquisition timing of the posture sensor are not synchronized. As shown in FIG. 9B, if the difference between the image capturing timing and the posture data acquisition timing of the posture sensor is ⁇ t and the posture of the camera at that time changes at angular velocities v x , v y , v z.
  • the errors Ext, Eyt, Ezt of the posture data of the posture sensor are further expressed by the following equation (14).
  • the image capture time and the attitude sensor acquisition data acquisition time can be represented by the same time axis by the reference clock 6.
  • a time difference from an image taken at a close time is ⁇ t.
  • ⁇ t shown in FIG. 9B is obtained by subtracting the image capturing time from the posture data acquisition time of the posture sensor. Further, as the angular velocities v x , v y , and v z , values acquired from an attitude sensor or an IMU are used.
  • Equation 15 the total error Ext ALL , Eyt ALL , Ezt ALL of the attitude data of the attitude sensor is as shown in Equation 15.
  • an external orientation element calculated from the image is selected. If the errors Ext ALL , Eyt ALL , Ezt ALL of the posture data of the posture sensor are within the set threshold range, the posture data of the posture sensor is selected.
  • Step S12 Bundle adjustment After correcting the external orientation elements, bundle adjustment is performed simultaneously on one or more images, or the 3D coordinates of the external orientation elements and feature points in all images.
  • the bundle adjustment is based on a collinear condition that a light beam (bundle) connecting three points of the target space, a point on the image, and the projection center must be on the same straight line, and an observation equation for each light beam of each image. And simultaneously adjusting by the least square method.
  • the collinear conditional expression is as shown in the following Expression 16.
  • the bundle adjustment uses a successive approximation method. Specifically, the three-dimensional coordinates of the reference points and feature points, and the true values of the external orientation elements are respectively converted into approximate values (X ′, Y ′, Z ′), (X 0 ′, Y 0 ′, Z 0 ′).
  • the approximate value to which the correction amount is added and the measurement value including the error are substituted into the collinear conditional expression (Equation 16) of one or a plurality of images, the Taylor expansion is performed around the approximate value, and the linearization is performed.
  • the correction amount is obtained by the square method.
  • the approximate value is corrected by the obtained correction amount, and the same operation is repeated to obtain a converged solution.
  • Equation 18 is a correction model of the internal orientation element when the lens has radial distortion.
  • the internal orientation element can also be adjusted at the same time by Equation (18). This is so-called bundle adjustment with self-calibration.
  • Step S13 Calculation of three-dimensional coordinates of feature points Based on the bundle-adjusted external orientation elements, the three-dimensional coordinates of feature points newly detected in an area where the density of feature points is reduced are calculated. Examples of the calculation method include a forward intersection method or DLT. As shown in FIG. 4, the calculation of the three-dimensional coordinates in step S13 may be processed prior to bundle adjustment (step S12).
  • FIG. 10 is an explanatory diagram for explaining the forward meeting method.
  • the forward intersection method is a method of observing a direction from two or more known points (O 1 , O 2 ) toward the unknown point P and determining the position of the unknown point P as an intersection of these direction lines.
  • the coordinate system of the target space is O-XYZ.
  • the coordinates (X 01 , Y 01 , Z 01 ) of the projection center O 1 of the camera of the previous frame image and the tilts ( ⁇ 1 , ⁇ 1 , ⁇ 1 ) of the camera coordinate axis and the projection center O 2 of the camera of the current frame image The coordinates (X 02 , Y 02 , Z 02 ) and the tilt (posture) ( ⁇ 2 , ⁇ 2 , ⁇ 2 ) of the camera coordinate axes are known.
  • the internal orientation elements (focal length, principal point position, lens distortion coefficient) are known.
  • the unknown point P ( X, Y, Z) is determined as the intersection of the light beam O 1 p 1 and the light beam O 2 p 2 .
  • the position of the intersection is obtained by the least square method.
  • Step S14 Final Frame Determination After the three-dimensional coordinates of the newly detected feature points are calculated, it is determined whether or not the currently processed image is the final image. If the currently processed image is not the final image, the process returns to step S10 to calculate the external orientation element of the next image. Thereafter, steps S10 to S14 are repeated until the final image. If the image currently being processed is the final image, the process ends.
  • the difference between the image capturing timing and the position data acquisition position of the position measurement unit 4 and the position measurement unit 5 is obtained from the position data of the position measurement unit 4 and the position measurement unit 5. It is regarded as an error in attitude data.
  • the position data of the position measurement unit 4 and the posture data of the posture measurement unit 5 in consideration of the difference between the image capturing timing and the position data of the position measurement unit 4 and the posture data acquisition timing of the posture measurement unit 5 are set threshold values.
  • the external orientation element is modified depending on whether it is within the range. Even when the image capturing timing is not synchronized with the position data acquisition position of the position measurement unit 4 or the posture measurement unit 5, the error is reduced because the external orientation element is appropriately corrected.
  • the error of the position data of the position measurement unit 4 or the posture data of the posture measurement unit 5 is obtained by adding inherent accuracy in the position data of the position measurement unit 4 or the posture data of the posture measurement unit 5 to the error based on the time difference ⁇ t. The For this reason, the external orientation element calculated from the image is appropriately corrected.
  • the positioning mode is changed in real time based on the position of GPS satellites that may affect accuracy, multipath due to the surrounding environment, and correction information from the reference station. . Therefore, the external orientation element is appropriately corrected by changing the threshold value for correcting the external orientation element based on the positioning mode.
  • the posture data of the posture measuring unit 5 tends to accumulate errors depending on the measurement time t on the principle of measurement. Therefore, the external orientation element is appropriately corrected by considering the accuracy based on the measurement time t of the posture data.
  • a change in shooting scene or a change in shooting apparatus is determined based on at least one of the direction and amount of the trajectory of feature points, the distribution rate of feature points, the overlap rate, and the vertical parallax. To do.
  • FIG. 11 is a functional block diagram of the position measuring device.
  • the position measurement program further includes an image determination unit 20 as compared with FIG. Further, an external orientation element evaluation unit 21 is provided instead of the external orientation element correction unit 14 of FIG.
  • the image determination unit 20 determines the change of the shooting scene and the change of the shooting apparatus based on the direction of the trajectory of the feature point, the movement amount of the feature point, the distribution rate of the feature point, the overlap rate, the vertical parallax, and the like.
  • the external orientation element evaluation unit 21 evaluates the external orientation element calculated from the image based on the determination result of the image determination unit 20. If it is determined that the change in the shooting scene is relatively large, the external orientation element is corrected with the position data acquired by the position measurement unit 4 and the posture data acquired by the posture measurement unit 5. If it is determined that the change in the shooting scene is relatively small, the external orientation element calculated from the image is selected as it is.
  • the calculation process of the three-dimensional coordinate / external orientation element in step S5 includes the calculation of the external orientation element (step S10), the evaluation of the calculated external orientation element (step S16), the evaluated external orientation element and It consists of bundle adjustment of the three-dimensional coordinates of the known points (step S12) and calculation of the three-dimensional coordinates of the newly detected feature points (step S13).
  • the bundle adjustment (step S12) is performed before calculating the three-dimensional coordinates of the newly detected feature points (FIG. 12) or after calculating the three-dimensional coordinates of the newly detected feature points (FIG. 13). You may go to In the case of FIG. 12, the calculation accuracy of the three-dimensional coordinates of the newly detected feature points is improved. In the case of FIG. 13, since the three-dimensional coordinates of the newly detected feature point are calculated based on the external orientation element after the evaluation, the same effect is produced.
  • Step S16 Evaluation of external orientation elements
  • the external orientation elements are calculated based on the reference points and the three-dimensional coordinates of the feature points whose three-dimensional coordinates have already been obtained, and the image coordinates obtained by tracking the feature points. Therefore, the accuracy of the external orientation element depends on the tracking accuracy of the feature points. Further, the tracking accuracy of the feature points depends on a significant change in the shooting scene and a change in the shooting apparatus. For this reason, an error occurs due to a change in the shooting scene or a change in the shooting apparatus, or calculation becomes impossible.
  • the position data acquired from the position measuring unit 4 or the posture data acquired from the posture measuring unit 5 is used. To do. At this time, the external orientation element calculated from the image is not used.
  • the change amount of the shooting scene and the change amount of the shooting apparatus are determined based on the direction and amount of the trajectory of the feature points, the distribution rate of the feature points, the overlap rate, and the vertical parallax. This determination is performed by the image determination unit 20.
  • the image determination unit 20 a method for determining a change in the shooting scene will be described.
  • FIG. 14A is a diagram showing an image in which the direction of the trajectory of the feature point of the previous frame is different from the direction of the trajectory of the newly detected feature point
  • FIG. 14B shows the feature point of the previous frame. It is a figure which shows the image from which the amount of this locus
  • the external orientation element calculated from the image is evaluated as having low reliability. Then, the external orientation element is corrected to position data acquired from the position measurement unit 4 or posture data acquired from the posture measurement unit 5.
  • the change in the direction of the trajectory of the feature point is defined as an angle ⁇ formed by the trajectory vector a of the feature point in the previous frame and the trajectory vector b of the newly detected feature point. This angle is obtained from the definition of the inner product of Equation 19.
  • the external orientation element calculated from the image is evaluated as having low reliability. Then, the external orientation element is corrected to position data acquired from the position measurement unit 4 or posture data acquired from the posture measurement unit 5.
  • the change in the amount of trajectory is the difference between the size of the trajectory vector a of the feature point in the previous frame and the size of the trajectory vector b of the newly detected feature point. This difference is obtained from the following equation (20).
  • the threshold for the direction and amount of the trajectory of the feature point can be adjusted.
  • FIG. 15A is a diagram showing an image with a feature point distribution rate of 0
  • FIG. 15B is a diagram showing an image with a feature point distribution rate negative
  • FIG. It is a figure which shows the image with the positive distribution rate of a feature point.
  • the distribution rate of the feature points in the horizontal direction is obtained as the total value of the X coordinates of the feature points when the image center is the origin (0, 0).
  • the total value of the X coordinates is zero.
  • the total value of the X coordinates is negative.
  • the total value of the X coordinates is positive.
  • the distribution rate of the feature points in the vertical direction is obtained as the total value of the Y coordinates of the feature points when the image center is the origin (0, 0). Therefore, the distribution rate of the feature points in the vertical direction may be obtained from the total value of the Y coordinates of the feature points.
  • FIG. 16A is a diagram illustrating an image in which feature points overlapping in the preceding and following frames are biased
  • FIG. 16B is a diagram in which feature points overlapping in the preceding and following frames are biased. It is a figure which shows no image.
  • the external orientation element calculated from the image is evaluated as having low reliability. Then, the external orientation element is corrected to position data acquired from the position measurement unit 4 or posture data acquired from the posture measurement unit 5. Further, as shown in FIG. 16B, when the feature points overlapping in the preceding and succeeding frames are not biased, the external orientation element calculated from the image is evaluated as having high reliability. Then, an external orientation element calculated from the image is used.
  • the method for calculating the distribution rate of feature points is used for the degree of bias (overlap rate) of overlapping feature points. Note that the threshold for the distribution rate of feature points and the overlap rate can be adjusted.
  • Longitudinal parallax refers to the difference between the y-coordinates of corresponding points in two stereo images. That is, a difference in coordinate values in a direction orthogonal to the baseline direction of the stereo image.
  • a stereo image is an image pair in which the optical axes of the cameras that photographed two images are parallel and the directions orthogonal to the baseline direction are parallel. Therefore, since the y-coordinates of the corresponding points of the two images are equal, the vertical parallax of the stereo image is normally 0 pixels.
  • the vertical parallax is not 0 pixels. Therefore, when the vertical parallax is 1 pixel or more, the external orientation element calculated from the image is not used, and the position data acquired from the position measurement unit 4 and the posture data acquired from the posture measurement unit 5 are used.
  • the vertical parallax is obtained by calculating the difference between the y coordinate of the feature point of the previous frame and the y coordinate of the feature point of the current frame.
  • the threshold for vertical parallax is adjustable.
  • changes in shooting scenes and fluctuations in the shooting apparatus may include two, three, four, or all of the direction and amount of the feature point trajectory, the feature point distribution rate, the overlap rate, and the vertical parallax. You may judge based on the multiplied value.
  • a change in the shooting scene or a change in the shooting device based on at least one of the direction and amount of the trajectory of the feature point, the distribution rate of the feature point, the overlap rate, and the vertical parallax. Is judged. Changes in the shooting scene and changes in the shooting apparatus make it difficult to track feature points and degrade the accuracy of the external orientation elements calculated from the images. Therefore, when the change in the shooting scene and the fluctuation of the shooting apparatus are relatively large, it is evaluated that the reliability of the external orientation element calculated from the image is low, and the change in the shooting scene and the fluctuation of the shooting apparatus are relatively If it is small, it is evaluated that the external orientation element calculated from the image has high reliability.
  • the external data calculated from the image using the position data acquired from the position measurement unit 4 or the posture data acquired from the posture measurement unit 5 is used.
  • the orientation element is not used.
  • FIG. 17A is a conceptual diagram of bundle adjustment according to the first and second embodiments.
  • the external orientation element calculated from the camera is corrected based on an error based on a time difference ⁇ t between GPS position data or attitude sensor attitude data.
  • the external orientation element calculated from the camera is based on at least one of the direction and amount of the trajectory of the feature points, the distribution rate of the feature points, the overlap rate, and the vertical parallax. Evaluated.
  • the best data is selected from the GPS position data, the orientation data of the orientation sensor, and the external orientation elements calculated from the camera, and the bundle is based on the selected external orientation elements. Adjustments are made. Therefore, bundle adjustment is performed based on the data indicated by the dotted frame in FIG.
  • FIG. 17B is a conceptual diagram of weighted bundle adjustment according to the third embodiment. As shown in FIG. 17B, data with poor accuracy has a light weight, and data with high accuracy has a heavy weight. As a result, the three-dimensional coordinates of the external orientation elements and feature points are bundle-adjusted within the range of the solid line frame in FIG.
  • the weight is calculated based on the accuracy of each data.
  • the accuracy of each data is ⁇
  • the weight w is calculated by Equation 21.
  • the accuracy of each data will be described.
  • GPS position data and attitude sensor attitude data The accuracy of the GPS position data and attitude sensor attitude data depends on the error based on the difference between the image capturing timing and the GPS position data and attitude sensor acquisition timing, and the GPS position data and attitude sensor attitude. Based on the inherent accuracy of the data.
  • GPS and attitude sensor time are not synchronized with camera time. Therefore, in the present invention, the GPS position data acquisition time and the image shooting time are converted to the reference time output by the reference clock 6.
  • the converted time takes into account the transmission delay of position data and attitude data and the transmission delay of image data.
  • the image capturing timing and the acquisition timing of the GPS position data and the attitude sensor attitude data are not synchronized. For this reason, the accuracy of the GPS and the attitude sensor considers an error based on the difference between the image capturing timing and the acquisition timing of the position data of the GPS and the attitude data of the attitude sensor.
  • the GPS position is determined when the camera moves at a speed v (angular velocities v x , v y , v z ).
  • the error Et of the data is expressed by Equation 22
  • the errors Ext, Eyt, Ezt of the posture data of the posture sensor are expressed by Equation 23.
  • ⁇ t is the time when the GPS position data and attitude sensor attitude data are acquired. And the time difference from the image taken at the time closest to this time.
  • the velocity v is obtained from the moving distance of the feature points in the moving image and the frame rate of the moving image as shown in Equation 24. Further, as the angular velocities v x , v y , and v z , values acquired from an attitude sensor or an IMU are used.
  • the positioning accuracy of GPS varies depending on values such as satellite position (DOP: Division of Precision), multipath, link quality (LQ: Link Quality), and convergence evaluation of positioning calculation.
  • DOP Division of Precision
  • LQ Link Quality
  • convergence evaluation of positioning calculation e.g., the positioning mode is real-time as shown in Table 1 above, taking into consideration the position of GPS satellites, the effects of multipath due to the surrounding environment, correction information from the reference station, etc. Change.
  • Equation 25 the total Et ALL of the accuracy of the GPS position data is expressed by Equation 25.
  • the attitude sensor theoretically takes acceleration integration, double integration, etc., errors accumulate according to elapsed time. Therefore, if the measurement time from when the initial value is set or when the hardware is reset is t, and the accumulated error approximates to an exponential function of 1.05 t ⁇ 1, the accuracy of the attitude sensor is several 26. In consideration of the accuracy IMUe inherent to the attitude sensor, the total accuracy Ext ALL , Eyt ALL , and Ezt ALL of the attitude sensor is expressed by Equation 27.
  • the accuracy of the three-dimensional coordinates of the external orientation element and the feature point is at least one of the direction and amount of the trajectory of the feature point, the distribution rate of the feature point, the overlap rate, and the vertical parallax in the second embodiment. Is required. That is, the change in the direction of the trajectory of the feature point is the angle ⁇ formed by the two vectors a and b (Equation 10), and the change in the amount of the trajectory of the feature point is the difference between the two vectors a and b
  • the accuracy ⁇ is the absolute value of the distribution rate and the overlap rate.
  • the accuracy ⁇ is an absolute value of the difference between the y coordinates of the feature points.
  • the accuracy ⁇ of the three-dimensional coordinates of the external orientation element and the feature point is two, three, four among the direction and amount of the trajectory of the feature point, the distribution rate of the feature point, the overlap rate, and the vertical parallax. Or a value obtained by multiplying all of them.
  • Each correction amount in the weighted bundle adjustment can be obtained as a value that minimizes the following function G.
  • the weight of the three-dimensional coordinate w 2 is by the camera
  • w 3 and w 4 is the weight
  • the exterior orientation parameters are the weight
  • w 5 is the weight of GPS position data
  • w 6 is the weight of IMU position data
  • w 7 is the weight of the attitude sensor.
  • the position data of the position measurement unit 4 and the posture data of the posture measurement unit 5 are simultaneously bundle-adjusted. At this time, each data is weighted and bundle-adjusted, so that data with low accuracy is light and data with high accuracy is handled heavy. For this reason, errors in the three-dimensional coordinates of the external orientation elements and feature points are reduced.
  • the weight of the position data of the position measurement unit 4 and the posture data of the posture measurement unit 5 is based on the difference between the image capturing timing and the position data of the position measurement unit 4 and the acquisition timing of the posture data of the posture measurement unit 5. Calculated. For this reason, even when the image capturing timing is not synchronized with the position data acquisition position of the position measurement unit 4 or the posture measurement unit 5, the error in the three-dimensional coordinates of the external orientation elements and feature points is reduced. .
  • the weights of the three-dimensional coordinates of the external orientation elements and feature points are calculated based on at least one of the direction and amount of the feature point trajectory, the feature point distribution rate, the overlap rate, and the vertical parallax. .
  • the accuracy in the three-dimensional coordinates of the external orientation elements and feature points calculated from the image tends to depend on changes in the shooting scene and changes in the shooting apparatus. For this reason, the direction and amount of the trajectory of feature points, which are used to determine changes in shooting scenes and fluctuations in the shooting device, the distribution rate of feature points, the overlap rate, and the vertical parallax are used as the three-dimensional coordinates of external orientation elements and feature points By using this weight, the errors in the three-dimensional coordinates of the external orientation elements and feature points are reduced.
  • the fourth embodiment removes a point having a relatively large error (miscorresponding point) from the corresponding points that have been tracked (tracked), and improves the calculation accuracy of the three-dimensional coordinates of the external orientation elements and feature points. It is.
  • FIG. 18 to FIG. 20 are flowcharts that incorporate the removal of erroneous corresponding points.
  • the erroneous corresponding points are removed after the bundle adjustment (FIGS. 18 and 19) or before the external orientation element calculation (FIG. 20).
  • FIG. 18 the calculation accuracy of the external orientation elements in the next frame and thereafter is improved.
  • FIG. 19 since the three-dimensional coordinates of the removed miscorresponding points are not calculated, the calculation process becomes efficient.
  • the accuracy of calculating the external orientation elements in the current frame is improved.
  • the vertical parallax calculated by backward projection or relative orientation is used for the method of removing the miscorresponding points. These removal methods are selectively used depending on the shooting situation or both. For example, miscorresponding point removal by backward projection using single photograph orientation is used when a scene change is large in order to remove miscorresponding points based on one image. In addition, the removal of miscorresponding points by relative orientation is used when there is little change in the scene because the miscorresponding points are removed based on a plurality of images.
  • robust estimation may be used for estimation of the error determination threshold.
  • LMedS estimation Least Median of Squares estimation
  • RANSAC estimation Random Sampl Consensus estimation
  • M estimation M estimation.
  • the LMedS estimation is excellent in robustness and can automatically remove a false corresponding point even if the error range is unknown.
  • the threshold value for error determination may be an adjustable fixed threshold value without depending on robust estimation. According to this aspect, since the calculation process is simple, the processing speed is improved.
  • FIG. 21A is a flowchart for removing erroneous corresponding points by backward projection
  • FIG. 21B is a flowchart for removing erroneous corresponding points using vertical parallax.
  • the tracked corresponding points are sampled randomly (step S20).
  • the image coordinates (x ′, y ′) is calculated. For example, in the case of single photograph orientation, the external orientation elements (X 0 , Y 0 , Z 0 , ⁇ , ⁇ , ⁇ ) and the corresponding three-dimensional coordinates (X, Y, Z) are added to the collinear conditional expression of Equation 6.
  • the image coordinates (x ′, y ′) are calculated backward (step S21).
  • step S22 the square of the residual between the image coordinates (x ′, y ′) obtained by the backward intersection method and the image coordinates (x, y) of the tracked corresponding point is obtained, and the square The median of the residual is calculated (step S22). Thereafter, steps S20 to S22 are repeated to obtain the minimum median value (LMedS) (step S23).
  • LMedS minimum median value
  • step S24 The point with a large error is removed using the LMedS value obtained in step S23 as a threshold value (step S24).
  • the vertical parallax is obtained as a difference between the y coordinates of the two reprojected corresponding points.
  • the vertical parallax is a difference in y-coordinates of corresponding points in two images taken in stereo, and means a difference in coordinate values in a direction orthogonal to the baseline direction of the stereo image.
  • a stereo image is an image pair in which the optical axes of cameras that photographed two images are parallel and the directions orthogonal to the baseline direction are parallel.
  • the square of the vertical parallax is obtained, and the median value is calculated (step S32). Thereafter, steps S30 to S32 are repeated to obtain the minimum median value (LMedS) (step S33).
  • the LMedS standard is given by Equation 12.
  • step S34 The point with a large error is removed using the LMedS value obtained in step S33 as a threshold (step S34).
  • the tracking result of feature points includes many miscorresponding points. Therefore, the external orientation elements and the three-dimensional coordinates of the feature points calculated based on the miscorresponding points are inferior in accuracy. However, by removing the miscorresponding points, the calculation accuracy of the three-dimensional coordinates of the external orientation elements and feature points is improved, and the error is reduced.
  • a method of eliminating the miscorresponding point is selected, so that it does not depend on the change of the shooting situation.
  • the three-dimensional coordinates of external orientation elements and feature points can be calculated.
  • the LmedS method can robustly estimate outliers even if the data contains many outliers compared to the least squares method. For this reason, the error of the three-dimensional coordinate of an external orientation element or a feature point can be reduced.
  • the present invention can be used for a position measuring method, a position measuring apparatus, and a program for measuring a position and orientation taken and a three-dimensional position of a subject based on a moving image.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

動画像に基づいて、撮影した位置や姿勢と被写体の三次元位置とを測定する位置測定技術において、誤差を低減する。位置測定方法は、ステップS10によって算出された外部標定要素を、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて修正する外部標定要素修正ステップS11と、ステップS11によって修正された外部標定要素に基づき、1または複数の画像の外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップS12と、バンドル調整された外部標定要素に基づき、画像中の特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップS13と、ステップS10からステップS13までの処理を、最終画像になるまで繰り返すステップとを備える。

Description

位置測定方法、位置測定装置、およびプログラム
 本発明は、動画像に基づいて、撮影した位置や姿勢と被写体の三次元位置とを測定する位置測定技術に係り、特に誤差を低減する位置測定技術に関する。
 従来から写真測量の理論が研究されている。近年では、写真測量の理論を用いて、動画像からカメラの位置や姿勢と被写体の三次元位置とを測定する技術が開示されている(例えば、特許文献1)。
 特許文献1に記載の発明は、GPS(Global Positioning System)によって位置測定ができない場合に、後方交会法によってカメラの位置を求め、前方交会法によって被写体の位置を求めるものである。この態様によれば、位置測定が中断されない。
 しかしながら、画像からカメラの位置や被写体の位置を求める方法は、誤差が発生する傾向がある。この問題を解決する技術は、例えば、非特許文献1または特許文献2に開示されている。
 非特許文献1に記載の発明は、推定された三次元位置を画像上へ投影した座標と画像上で検出された座標との誤差(再投影誤差)、および、GPS測位値によって定義される位置誤差を同時に最小化するものである。
 また、特許文献2に記載の発明は、ビデオ映像から求めたカメラの位置および三軸回転位置を示すカメラベクトル(CV)データと、移動体の位置計測データと、を基準時刻によって時刻同期させ、同一時間軸で比較し、相互に補完補正するものである。
特開2007-171048号公報 情報処理学会論文誌Vol.0、No.13、横地裕次著、p1-11 特開2006-250917号公報
 このような背景を鑑み、本発明は、動画像に基づいて、撮影した位置や姿勢と被写体の三次元位置とを測定する位置測定技術において、誤差を低減する技術を提供することを目的とする。
 請求項1に記載の発明は、初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、前記外部標定要素算出ステップによって算出された外部標定要素を、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて修正する外部標定要素修正ステップと、前記外部標定要素修正ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を備えることを特徴とする位置測定方法である。
 請求項1に記載の発明によれば、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングが同期しない場合であっても、外部標定要素が適切に修正されるため、誤差が低減する。
 請求項2に記載の発明は、請求項1に記載の発明において、前記外部標定要素修正ステップは、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差と、外部から与えられる撮影位置および/または撮影姿勢の精度と、に基づいて外部標定要素を修正することを特徴とする。
 請求項2に記載の発明によれば、画像から算出した外部標定要素は、外部から与えられる撮影位置および/または撮影姿勢の固有の精度も考慮して修正される。
 請求項3に記載の発明は、請求項2に記載の発明において、前記外部から与えられる撮影位置の精度は、RTK-GPSの各測位モードの測位精度であり、前記測位モードに基づいて外部標定要素を修正する閾値を変更するように構成されていることを特徴とする。
 請求項3に記載の発明において、RTK-GPS(Real Time Kinematic GPS)は、精度に影響を与え得るGPS衛星の位置、周辺環境によるマルチパス、および基準局からの補正情報などに基づいて、測位モードをリアルタイムに変更する。したがって、外部標定要素を修正する閾値を測位モードに基づいて変更することで、外部標定要素が適切に修正される。
 請求項4に記載の発明は、請求項2に記載の発明において、前記外部から与えられる撮影姿勢の精度は、撮影姿勢の計測時間に基づく精度であることを特徴とする。
 請求項4に記載の発明において、外部から与えられる撮影姿勢は、測定の原理上計測時間によって誤差が累積する傾向がある。したがって、撮影姿勢の計測時間に基づく精度を考慮することで、外部標定要素が適切に修正される。
 請求項5に記載の発明は、請求項1に記載の発明において、前記バンドル調整ステップは、外部から与えられる撮影位置および/または撮影姿勢の重み、外部標定要素および特徴点の三次元座標の重みを算出し、各データを重み付けしてバンドル調整することを特徴とする。
 請求項5に記載の発明によれば、外部標定要素および特徴点の三次元座標に加えて、外部から与えられる撮影位置および/または撮影姿勢も同時にバンドル調整される。この際、各データは、重みが付けられてバンドル調整されるため、精度の悪いデータは軽く、精度の良いデータは重く扱われる。このため、外部標定要素および特徴点の三次元座標の誤差が低減する。
 請求項6に記載の発明は、請求項5に記載の発明において、前記外部から与えられる撮影位置および/または撮影姿勢の重みは、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて算出されることを特徴とする。
 請求項6に記載の発明によれば、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングが同期しない場合であっても、外部標定要素および特徴点の三次元座標の誤差が低減する。
 請求項7に記載の発明は、請求項5に記載の発明において、前記外部標定要素および特徴点の三次元座標の重みは、特徴点の追跡によって算出された対応点の画像座標と、前記対応点の三次元座標を画像上に投影した画像座標との残差に基づいて算出されることを特徴とする。
 請求項7に記載の発明において、画像から算出される外部標定要素や特徴点の三次元座標における精度は、特徴点の追跡精度に依存する傾向が強い。請求項7に記載の残差は、追跡精度を表す。このため、残差を外部標定要素および特徴点の三次元座標の重みとすることで、外部標定要素および特徴点の三次元座標の誤差が低減する。
 請求項8に記載の発明は、請求項5に記載の発明において、前記バンドル調整ステップは、新たに検出された特徴点の三次元座標を算出する前、または、新たに検出された特徴点の三次元座標を算出した後に行われることを特徴とする。
 請求項8に記載の発明によれば、バンドル調整が、新たに検出された特徴点の三次元座標が算出される前に行われる場合、新たに検出された特徴点の三次元座標の算出精度が向上する。バンドル調整が、新たに検出された特徴点の三次元座標が算出された後に行われた場合も、修正後の外部標定要素に基づいて、新たに検出された特徴点の三次元座標が算出されるため、同様の効果を奏する。
 請求項9に記載の発明は、請求項1に記載の発明において、特徴点の追跡によって算出された対応点の画像座標と、前記対応点の三次元座標を画像上に投影した画像座標との残差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする。
 請求項9に記載の発明によれば、特徴点の追跡結果に誤対応点が含まれていても、誤対応点が除去されるため、外部標定要素や特徴点の三次元座標の誤差が低減する。
 請求項10に記載の発明は、請求項1に記載の発明において、前後の画像における対応点の三次元座標をステレオ画像上に投影し、前後のステレオ画像における基線方向に直交する方向の座標値の差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする。
 請求項10に記載の発明によれば、特徴点の追跡結果に誤対応点が含まれていても、誤対応点が除去されるため、外部標定要素や特徴点の三次元座標の誤差が低減する。
 請求項11に記載の発明は、請求項9または10に記載の発明において、前記誤対応点除去ステップは、前記バンドル調整ステップの後、または、前記外部標定要素算出ステップの前に行われることを特徴とする。
 請求項11に記載の発明によれば、誤対応点の除去が、バンドル調整の後に行われる場合には、次画像以降の外部標定要素の算出精度が向上する。一方、誤対応点の除去が、外部標定要素算出の前に行われる場合には、誤対応点に基づいて外部標定要素が算出されないため、外部標定要素の誤差が低減する。
 請求項12に記載の発明は、請求項9または10に記載の発明において、請求項9または請求項10に記載の誤対応点除去ステップは、撮影状況の変化に基づいて選択されることを特徴とする。
 請求項12に記載の発明によれば、撮影状況の変化に依存せずに、外部標定要素や特徴点の三次元座標を算出することができる。
 請求項13に記載の発明は、請求項9または10に記載の発明において、前記誤対応点除去ステップは、LMedS推定によって閾値が推定されることを特徴とする。
 請求項13に記載の発明によれば、LmedS法は、最小二乗法と比べ、データに外れ値が多く含まれていても、ロバストに外れ値を推定することができる。このため、外部標定要素や特徴点の三次元座標の誤差を低減することができる。
 請求項14に記載の発明は、初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、前記外部標定要素算出ステップによって算出された外部標定要素を、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて修正する外部標定要素修正ステップと、前記外部標定要素修正ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を実行させるための位置測定プログラムである。
 請求項14に記載の発明によれば、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングが同期しない場合であっても、外部標定要素が適切に修正されるため、誤差が低減する。
 請求項15に記載の発明は、対象物と撮影部とが少しずつ相対移動して撮影された動画像を取得する動画像取得部と、前記動画像取得部によって取得された画像を順次入力して、前記画像から特徴点の検出および追跡を行う特徴点検出追跡部と、前記動画像取得部の撮影位置を外部から測定する位置測定部と、前記動画像取得部の撮影姿勢を外部から測定する姿勢測定部と、前記動画像取得部によって取得された動画像、前記特徴点検出追跡部によって検出および追跡された特徴点、前記位置測定部によって測定された撮影位置、および前記姿勢測定部によって測定された撮影姿勢を入力して、前記動画像の撮影位置および撮影姿勢からなる外部標定要素および前記特徴点の三次元座標を計算する計算処理部と、を備えた位置測定装置であって、前記計算処理部は、初期画像中の既知点または前記位置測定部によって測定された撮影位置および/または前記姿勢測定部によって測定された撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出部と、前記初期値算出部で用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出部と、前記外部標定要素算出部によって算出された外部標定要素を、画像の撮影タイミングと前記位置測定部から取得した撮影位置および/または前記姿勢測定部から取得した撮影姿勢の取得タイミングとの差に基づいて修正する外部標定要素修正部と、前記外部標定要素修正部によって修正された外部標定要素に基づき、複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整部と、前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出部と、を備え、前記外部標定要素算出部から前記三次元座標算出部までの処理を、最終画像になるまで繰り返すことを特徴とする位置測定装置である。
 請求項15に記載の発明によれば、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングが同期しない場合であっても、外部標定要素が適切に修正されるため、誤差が低減する。
 請求項16に記載の発明は、初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、前記外部標定要素算出ステップによって算出された外部標定要素を、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価ステップと、前記外部標定要素評価ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を備えることを特徴とする位置測定方法である。
 請求項16に記載の発明によれば、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて、撮影シーンの変化や撮影装置の変動を判断することができる。撮影シーンの変化や撮影装置の変動は、特徴点の追跡を困難にし、画像から算出された外部標定要素の精度を劣化させる。したがって、撮影シーンの変化や撮影装置の変動が相対的に大きい場合には、画像から算出された外部標定要素の信頼性が低いと評価し、撮影シーンの変化や撮影装置の変動が相対的に小さい場合には、画像から算出された外部標定要素の信頼性が高いと評価する。
 画像から算出された外部標定要素の信頼性が低いと評価される場合には、外部で測定された撮影位置や撮影姿勢を利用し、画像から算出された外部標定要素は利用しない。この態様によって、撮影シーンの変化や撮影装置の変動による誤差が低減する。
 請求項17に記載の発明は、請求項16に記載の発明において、前記特徴点の軌跡の方向もしくは特徴点の軌跡の量は、処理対象の画像内における、前画像の特徴点に対応する対応点の軌跡と、新たに検出された特徴点の軌跡との差に基づいて算出されることを特徴とする。
 請求項17に記載の発明によれば、撮影シーンの変化や撮影装置の変動が容易に検知される。処理対象である現在の画像には、一つ前の画像の特徴点に対応する対応点と、新たに検出された特徴点とが存在する。撮影シーンの変化や撮影装置の変動がある場合には、対応点の軌跡と、新たに検出された特徴点の軌跡とが、異なる方向および異なる量となる。
 請求項18に記載の発明は、請求項16に記載の発明において、前記特徴点の分布率もしくは特徴点のオーバーラップ率は、画像中心を原点とした特徴点のX座標および/またはY座標の合計値によって算出されることを特徴とする。
 請求項18に記載の発明によれば、撮影シーンの変化や撮影装置の変動が容易に検知される。
 請求項19に記載の発明は、請求項16に記載の発明において、前記外部標定要素評価ステップは、前記特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の中から選ばれた複数の値を掛け合わせた値に基づいて、外部標定要素を評価することを特徴とする。
 請求項19に記載の発明によれば、撮影シーンの変化や撮影装置の変動が一つのパラメータで検知される。
 請求項20に記載の発明は、請求項16に記載の発明において、前記バンドル調整ステップは、外部から与えられる撮影位置および/または撮影姿勢の重み、外部標定要素および特徴点の三次元座標の重みを算出し、各データを重み付けしてバンドル調整することを特徴とする。
 請求項20に記載の発明によれば、外部標定要素および特徴点の三次元座標に加えて、外部から与えられる撮影位置および/または撮影姿勢も同時にバンドル調整される。この際、各データは、重みが付けられてバンドル調整されるため、精度の悪いデータは軽く、精度の良いデータは重く扱われる。このため、外部標定要素および特徴点の三次元座標の誤差が低減する。
 請求項21に記載の発明は、請求項20に記載の発明において、前記外部から与えられる撮影位置および/または撮影姿勢の重みは、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて算出されることを特徴とする。
 請求項21に記載の発明によれば、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングが同期しない場合であっても、外部標定要素および特徴点の三次元座標の誤差が低減する。
 請求項22に記載の発明は、請求項20に記載の発明において、前記外部標定要素および特徴点の三次元座標の重みは、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて算出されることを特徴とする。
 請求項22に記載の発明によれば、外部標定要素および特徴点の三次元座標の誤差が低減する。
 請求項23に記載の発明は、請求項20に記載の発明において、前記バンドル調整ステップは、新たに検出された特徴点の三次元座標を算出する前、または、新たに検出された特徴点の三次元座標を算出した後に行われることを特徴とする。
 請求項23に記載の発明によれば、新たに検出された特徴点の三次元座標を算出する前に、バンドル調整が行われる場合、新たに検出された特徴点の三次元座標の算出精度が向上する。新たに検出された特徴点の三次元座標が算出された後に、バンドル調整が行われた場合、評価後の外部標定要素に基づいて、新たに検出された特徴点の三次元座標が算出されるため、同様の効果を奏する。
 請求項24に記載の発明は、請求項16に記載の発明において、特徴点の追跡によって算出された対応点の画像座標と、前記対応点の三次元座標を画像上に投影した画像座標との残差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする。
 請求項24に記載の発明によれば、特徴点の追跡結果に誤対応点が含まれていても、誤対応点が除去されるため、外部標定要素や特徴点の三次元座標の誤差が低減する。
 請求項25に記載の発明は、請求項16に記載の発明において、前後の画像における対応点の三次元座標をステレオ画像上に投影し、前後のステレオ画像における基線方向に直交する方向の座標値の差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする。
 請求項25に記載の発明によれば、特徴点の追跡結果に誤対応点が含まれていても、誤対応点が除去されるため、外部標定要素や特徴点の三次元座標の誤差が低減する。
 請求項26に記載の発明は、請求項24または25に記載の発明において、前記誤対応点除去ステップは、前記バンドル調整ステップの後、または、前記外部標定要素算出ステップの前に行われることを特徴とする。
 請求項26に記載の発明によれば、誤対応点の除去ステップが、バンドル調整の後に行われる場合には、次画像以降の外部標定要素の算出精度が向上する。一方、誤対応点の除去が、外部標定要素算出の前に行われる場合には、誤対応点に基づいて外部標定要素が算出されないため、外部標定要素の誤差が低減する。
 請求項27に記載の発明は、請求項24または25に記載の発明において、請求項24または請求項25に記載の誤対応点除去ステップは、撮影状況の変化に基づいて選択されることを特徴とする。
 請求項27に記載の発明によれば、撮影状況の変化に依存せずに、外部標定要素や特徴点の三次元座標を算出することができる。
 請求項28に記載の発明は、請求項24または25に記載の発明において、前記誤対応点除去ステップは、LMedS推定によって閾値が推定されることを特徴とする。
 請求項28に記載の発明によれば、LmedS法は、最小二乗法と比べ、データに外れ値が多く含まれていても、ロバストに外れ値を推定することができる。このため、外部標定要素や特徴点の三次元座標の誤差を低減することができる。
 請求項29に記載の発明は、初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、前記外部標定要素算出ステップによって算出された外部標定要素を、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価ステップと、前記外部標定要素評価ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を実行させるための位置測定プログラムである。
 請求項29に記載の発明によれば、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて、撮影シーンの変化や撮影装置の変動を判断することができる。このため、撮影シーンの変化や撮影装置の変動による誤差を低減することができる。
 請求項30に記載の発明は、対象物と撮影部とが少しずつ相対移動して撮影された動画像を取得する動画像取得部と、前記動画像取得部によって取得された画像を順次入力して、前記画像から特徴点の検出および追跡を行う特徴点検出追跡部と、前記動画像取得部の撮影位置を外部から測定する位置測定部と、前記動画像取得部の撮影姿勢を外部から測定する姿勢測定部と、前記動画像取得部によって取得された動画像、前記特徴点検出追跡部によって検出および追跡された特徴点、前記位置測定部によって測定された撮影位置、および前記姿勢測定部によって測定された撮影姿勢を入力して、前記動画像の撮影位置および撮影姿勢からなる外部標定要素および前記特徴点の三次元座標を計算する計算処理部と、を備えた位置測定装置であって、前記計算処理部は、初期画像中の既知点または前記位置測定部によって測定された撮影位置および/または前記姿勢測定部によって測定された撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出部と、前記初期値算出部で用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出部と、前記外部標定要素算出部によって算出された外部標定要素を特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価部と、前記外部標定要素評価部によって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整部と、前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出部と、を備え、前記外部標定要素算出部から前記三次元座標算出部までの処理を、最終画像になるまで繰り返すことを特徴とする位置測定装置である。
 請求項30に記載の発明によれば、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて、撮影シーンの変化や撮影装置の変動を判断することができる。このため、撮影シーンの変化や撮影装置の変動による誤差を低減することができる。
 本発明によれば、動画像に基づいて、撮影した位置や姿勢と被写体の三次元位置とを測定する位置測定技術において、誤差が低減する。
位置測定装置の全体図である。 位置測定装置の機能ブロック図である。 位置測定装置の動作を示すフローチャートである。 位置測定装置の動作を示すフローチャートである。 後方交会法を説明する説明図である。 相互標定を説明する説明図である。 画像の撮影タイミングとGPSの位置データの取得タイミングが同期していない場合のタイミングチャート(A)と、画像の撮影タイミングとGPSの位置データの取得タイミングが同期している場合のタイミングチャート(B)である。 画像の撮影タイミングとGPSの位置データの取得タイミングとの差を考慮したGPSの位置データが、設定した閾値の範囲内にある場合を示す図(A)と、画像の撮影タイミングとGPSの位置データの取得タイミングとの差を考慮したGPSの位置データが、設定した閾値の範囲外にある場合を示す図(B)である。 姿勢測定部の姿勢データの計測時間と累積誤差との関係を示す図(A)と、画像の撮影タイミングと姿勢測定部の姿勢データの取得タイミングが同期していない場合のタイミングチャート(B)である。 前方交会法の概念図である。 位置測定装置の機能ブロック図である。 位置測定装置の動作を示すフローチャートである。 位置測定装置の動作を示すフローチャートである。 前フレームの特徴点の軌跡の方向と、新たに検出した特徴点の軌跡の方向が異なる画像を示す図(A)と、前のフレームの特徴点の軌跡の量と、新たに検出した特徴点の軌跡の量が異なる画像を示す図(B)である。 特徴点の分布率が0の画像を示す図(A)と、特徴点の分布率が負の画像を示す図(B)と、特徴点の分布率が正の画像を示す図(C)である。 前後のフレームでオーバーラップしている特徴点が偏っている画像を示す図(A)と、前後のフレームでオーバーラップしている特徴点が偏っていない画像を示す図(B)である。 第1,2の実施形態に係るバンドル調整の概念図(A)と、第3の実施形態に係る重み付きバンドル調整の概念図(B)である。 誤対応点の除去を取り入れたフローチャートである。 誤対応点の除去を取り入れたフローチャートである。 誤対応点の除去を取り入れたフローチャートである。 バックワードプロジェクションによる誤対応点の除去を行うフローチャート(A)と、縦視差による誤対応点の除去を行うフローチャート(B)である。
 1…位置測定装置、2…動画像取得部、3…特徴点検出追跡部、4…位置測定部、5…姿勢測定部、6…基準時計、7…計算処理部、8…特徴点検出部、9…特徴点追跡部、10…制御演算部、11…記憶部、12…初期値算出部、13…外部標定要素算出部、14…外部標定要素修正部、15…バンドル調整部、16…三次元座標算出部、17…誤対応点除去部、18…詳細計測部、19…外部標定要素・三次元座標出力部、20…画像判断部、21…外部評定要素評価部。
1.第1の実施形態
 以下、位置測定方法、位置測定装置およびプログラムの一例について、図面を参照して説明する。
(位置測定装置の構成)
 図1は、位置測定装置の全体図であり、図2は、位置測定装置の機能ブロック図である。位置測定装置1は、動画像取得部2、特徴点検出追跡部3、位置測定部4、姿勢測定部5、基準時計部6、計算処理部7を備えている。
 動画像取得部2は、ビデオカメラ、工業計測用のCCDカメラ(Charge Coupled Device Camera)、CMOSカメラ(Complementary Metal Oxide Semiconductor Camera)などの動画像を取得するカメラで構成される。なお、動画像取得部2は、静止画を取得するカメラでもよい。この場合、撮影対象とカメラが相対的に少しずつ移動しながら撮影された複数枚の静止画像が取得される。
 特徴点検出追跡部3は、特徴点検出部8、特徴点追跡部9で構成される。特徴点検出部8は、動画像取得部2が取得した動画像から特徴点を検出する。特徴点追跡部9は、特徴点検出部8が検出した特徴点に対応する対応点を他の画像内で追跡する。特徴点検出部8、特徴点追跡部9は、ASIC(Application Specific Integrated Circuit)、FPGA(Field Programmable Gate Array)などファームウェアで実装される。なお、特徴点検出部8、特徴点追跡部9は、汎用のコンピュータ上で実行するソフトウェアで構成してもよい。
 位置測定部4は、GPS(Global Positioning System)受信機、慣性計測装置(IMU:Internal Measurement Unit)などで構成される。位置測定部4は、カメラの位置(投影中心)の測定に利用される。撮影環境等に基づいて、GPS、IMUを組み合わせることで、画像から算出した外部標定要素を適切に修正すことができる。なお、位置測定部4の設置位置とカメラの設置位置との間の位置的なオフセットは、予め設定される。
 姿勢測定部5は、ジャイロスコープなどの姿勢センサ、IMU、加速時計、角速度計、角加速度計、およびこれらの組み合わせで構成される。撮影環境等に基づいて、これらを組み合わせることで、画像から算出した外部標定要素を適切に修正することができる。姿勢測定部5は、カメラの姿勢の測定に利用される。
 基準時計部6は、水晶発振器、ルビジウム発振器、電波時計などで構成される。基準時計部6は、動画像撮影部2の時刻、位置測定部4の時刻、および姿勢測定部5の時刻を同一の時間軸に変換する。
 計算処理部7は、パーソナルコンピュータ(PC:Personal Computer)で構成される。計算処理部7は、制御演算部10、記憶部11を備える。制御演算部10は、CPU(Central Processing Unit)であり、記憶部11は、RAM(Random Access Memory)、ROM(Read Only Memory)等の半導体記憶装置、磁気記憶装置などで構成される。記憶部11は、オペレーティングシステムや位置測定プログラムを記憶し、制御演算部10は、プログラムを読み出して実行する。
 位置測定プログラムは、初期値算出部12、外部標定要素算出部13、外部標定要素修正部14、バンドル調整部15、三次元座標算出部16、誤差点除去部17、詳細計測部18、外部標定要素・三次元座標出力部19で構成される。なお、位置測定プログラムは、CDROMなどの記録媒体によって提供が可能である。
 初期値算出部12は、トータルステーションやGPSによって計測された基準点の三次元座標と、この基準点が撮影された画像における基準点の画像座標とに基づいて、カメラの内部標定要素(焦点距離、主点位置(光軸中心のずれ)、レンズ歪係数)、外部標定要素(カメラの位置、姿勢)の初期値を算出する。
 外部標定要素算出部13は、後方交会法あるいは相互標定法に基づいて、外部標定要素を算出する。後方交会法とは、未知点から3つ以上の既知点へ向かう方向を観測して、それらの方向線の交点として未知点の位置を定める方法である。後方交会法としては、単写真標定、DLT法(Direct Liner Transformation Method)が挙げられる。
 外部標定要素修正部14は、画像から算出した外部標定要素を、画像の撮影タイミングと位置測定部4が取得した位置データ、姿勢測定部5が取得した姿勢データの取得タイミングとの差を考慮して修正する。
 バンドル調整部15は、修正された外部標定要素と、特徴点の三次元座標とを、1枚または複数枚または全部の画像間で同時調整する。
 三次元座標算出部16は、前方交会法に基づいて、新たに検出された特徴点の三次元座標を算出する。前方交会法とは、既知の2点以上から未知点へ向かう方向を観測して、それらの方向線の交点として未知点の位置を定める方法である。なお、バンドル調整は、新たに検出された特徴点の三次元座標を算出する前、もしくは新たに検出された特徴点の三次元座標を算出した後に行われる。
 誤対応点除去部17は、バックワードプロジェクションまたは相互標定により算出した縦視差を用いて、追跡された対応点のうち、誤差が相対的に大きい点を除去する。バックワードプロジェクションとは、後方交会法に基づいて、特徴点の三次元座標から算出した画像座標と、追跡された対応点の画像座標との残差から誤差点を除去するものである。また、相互標定とは、左右2枚の画像における6点以上の対応点によって外部標定要素を求めるものである。また、縦視差とは、ステレオ撮影された2枚の画像における対応点のy座標の差であり、ステレオ画像の基線方向に直交する方向の座標値の差のことを意味する。なお、ステレオ画像とは、2枚の画像を撮影したカメラの光軸が平行であり、かつ、基線方向に直交する方向が平行な画像対である。
 詳細計測部18は、三次元モデリングを行う。三次元モデリングとは、撮影対象の立体物を形成することを意味する。詳細計測部15は、特徴点の三次元座標から輪郭線を算出してワイヤーフレームモデルの形成や、面を算出してサーフィスモデルの形成を行う。また、形成されたサーフィスモデルの表面には、2次元の画像がテクスチャマッピングされる。さらに、詳細計測部15は、マッピングされたテクスチャに基づいて、テクスチャ解析を行い、テクスチャの特徴部分の三次元座標を算出する。テクスチャの特徴部分の三次元座標は、バンドル調整されて最適値に補正される。
 外部標定要素・三次元座標出力部19は、外部標定要素と、特徴点またはテクスチャ特徴部分の三次元座標のデータを出力する。
(位置測定装置の動作)
 次に、位置測定装置の全体の動作について説明する。図3、図4は、位置測定装置の動作を示すフローチャートである。
 まず、動画像取得部2によって、動画像が取得される(ステップS1)。動画像は、動画像取得部2と対象物とが少しずつ相対的に移動して撮影された複数の連続する画像で構成される。複数の連続する画像は、特徴点検出追跡部3に順次入力する。
 特徴点検出部8は、特徴点検出追跡部3に入力した画像から特徴点を検出する(ステップS2)。特徴点の検出には、モラベック、ラプラシアン、ソーベルなどのフィルタが用いられる。次に、特徴点追跡部9が、特徴点に対応する対応点を次画像内で追跡する(ステップS3)。特徴点の追跡には、テンプレートマッチングが用いられる。テンプレートマッチングとしては、残差逐次検定法(SSDA:Sequential Similarity Detection Algorithm)、相互相関係数法などが挙げられる。
 特徴点が追跡された画像において、特徴点検出部8は、特徴点の密度が少なくなった領域で新たに特徴点を検出する。特徴点を検出するステップS2と特徴点を追跡するステップS3は、連続する画像内で繰り返される。特徴点に関する情報は、各画像内に埋め込まれる。そして、特徴点に関する情報が埋め込まれた画像は、計算処理部7に順次出力される。ステップS2、ステップS3の処理の詳細は、特願2007-147457、特願2007-183256などに記載されている。
 次に、計算処理部7において、基準点が撮影された画像からカメラの内部標定要素と外部標定要素の初期値を算出する(ステップS4)。この作業に先立ち、作業者は、対象空間に基準点を設置し、その基準点を撮影しておく。また、作業者は、トータルステーションやGPSを用いて、実空間における基準点の三次元座標を計測しておく。ステップS4の初期値算出においては、作業者は、基準点の三次元座標と画像座標とに基づいて、後方交会法によってカメラの内部標定要素と外部標定要素の初期値を算出する。または、外部標定要素の初期値は、トータルステーションやGPSを用いて、特徴点の三次元座標値を直接与える代わりに、複数の撮影位置の三次元座標値を与え、複数の撮影位置で撮影されたステレオ画像から求めるようにしてもよい。
 もしくは、作業者は、トータルステーションやGPSを用いず、複数の基準点が描かれた基準板を移動しながら、複数枚の画像を撮影しておく。基準板に描かれた基準点間の距離は既知である。この場合、ステップS4の初期値算出において、基準点が撮影された複数枚の画像から基準点の画像座標が算出され、相互標定などを用いてカメラの位置、姿勢の初期値を得る。ただし、この場合、ローカル座標系となる。
 次に、入力された各画像について、外部標定要素と、新たに検出された特徴点の三次元座標が算出される(ステップS5)。外部標定要素の算出には、後方交会法または相互標定法が用いられ、新たに検出された特徴点の三次元座標の算出には、前方交会法が用いられる。この処理は、全画像について繰り返される。この処理の詳細は、後述する。
 さらに詳細に計測を行う場合には(ステップS6)、詳細計測が行われる(ステップS8)。詳細計測は、ワイヤーフレームモデルの形成、サーフィスモデルの形成、テクスチャマッピング、テクスチャ解析などが行われる。テクスチャ解析では、テクスチャの特徴部分の三次元座標が算出される。テクスチャの特徴部分の三次元座標は、ステップS5で算出した外部標定要素や特徴点の三次元座標と共に、バンドル調整されて最適値に補正される。算出された外部標定要素、三次元座標は、データ出力される(ステップS7)。
 以下、本発明に係るステップS5の三次元座標・外部標定要素算出処理の詳細について説明する。図3に示すように、ステップS5の三次元座標・外部標定要素の算出処理は、外部標定要素の算出(ステップS10)、算出した外部標定要素の修正(ステップS11)、修正した外部標定要素と既知点および特徴点の三次元座標のバンドル調整(ステップS12)、新たに検出された特徴点の三次元座標の算出(ステップS13)で構成される。
 なお、バンドル調整(ステップS12)は、新たに検出された特徴点の三次元座標を算出する前(図3)、もしくは新たに検出された特徴点の三次元座標を算出した後(図4)に行ってもよい。図3の場合には、新たに検出された特徴点の三次元座標の算出精度が向上する。図4の場合には、修正後の外部標定要素に基づいて、新たに検出された特徴点の三次元座標が算出されるため、同様の効果を奏する。
(ステップS10)外部標定要素の算出
 図5は、後方交会法を説明する説明図である。後方交会法とは、未知点Oから3つ以上の既知点P、P、Pへ向かう方向を観測して、それらの方向線の交点として未知点Oの位置を定める方法である。まず、初期値として設定された基準点P、P、Pの三次元座標(もしくは、前フレームで求められた三次元座標)に基づいて、後方交会法によって外部標定要素(X,Y,Z,ω,φ,κ)を算出する。以下、後方交会法として用いられる単写真標定、DLT法について説明する。
[単写真標定]
 単写真標定は、1枚の写真の中に写された基準点に成り立つ共線条件を用いて、写真を撮影したカメラの位置O(X,Y,Z)およびカメラの姿勢(ω,φ,κ)を求める。共線条件とは、投影中心、写真像および地上の対象点(Op,Op,Op)が、一直線上にあるという条件である。また、カメラの位置O(X,Y,Z)とカメラの姿勢(ω,φ,κ)は外部標定要素である。
 まず、カメラ座標系をx,y,z、写真座標系x,y、地上座標系をX,Y,Zとする。カメラを各座標軸の正方向に対して左回りにそれぞれω,φ,κだけ順次回転させた向きで撮影が行われたものとする。そして、4点の画像座標(図5では3点のみ記載)と対応する基準点の三次元座標を数1に示す2次の射影変換式に代入し、観測方程式を立ててパラメ-タb1~b8を求める。
Figure JPOXMLDOC01-appb-M000001
 数1のパラメータb1~b8を用いて、以下の数2から外部標定要素を求める。
Figure JPOXMLDOC01-appb-M000002
[DLT法]
 DLT法は、写真座標と対象空間の三次元座標との関係を3次の射影変換式で近似したものである。DLT法の基本式は以下の数13となる。なお、DLT法の詳細については、「村井俊治:解析写真測量、p46-51、p149-155」等を参照する。
Figure JPOXMLDOC01-appb-M000003
 数3の式の分母を消去すると、数4の線形式を導き出せる。
Figure JPOXMLDOC01-appb-M000004
 さらに、数4を変形すると、以下の数5となる。
Figure JPOXMLDOC01-appb-M000005
 数5に6点以上の基準点の三次元座標を代入し、最小二乗法を用いて解くと、写真座標と対象点座標との関係を決定するL~L11の11個の未知変量を取得できる。なお、L~L11には、外部標定要素が含まれる。
 次に、相互標定法による外部標定要素の算出について説明する。相互標定は、既知点がなくとも相対的な外部標定要素が求められる方法である。また、既知点があれば、絶対標定を行うことで、絶対座標を求めることができる。
[相互標定]
 図6は、相互標定を説明する説明図である。相互標定は、左右2枚の画像における6点以上の対応点によって外部標定要素を求める。相互標定では、投影中心OとOと基準点Pを結ぶ2本の光線が同一平面内になければならいという共面条件を用いる。以下の数6に、共面条件式を示す。
Figure JPOXMLDOC01-appb-M000006
 図6に示すように、モデル座標系の原点を左側の投影中心Oにとり、右側の投影中心Oを結ぶ線をX軸にとるようにする。縮尺は、基線長を単位長さとする。このとき、求めるパラメータは、左側のカメラのZ軸の回転角κ、Y軸の回転角φ、右側のカメラのZ軸の回転角κ、Y軸の回転角φ、X軸の回転角ωの5つの回転角となる。この場合、左側のカメラのX軸の回転角ωは0なので、考慮する必要はない。このような条件にすると、数6の共面条件式は数7のようになり、この式を解けば各パラメータが求められる。
Figure JPOXMLDOC01-appb-M000007
 ここで、モデル座標系XYZとカメラ座標系xyzの間には、次に示すような座標変換の関係式が成り立つ。
Figure JPOXMLDOC01-appb-M000008
 これらの式を用いて、次の手順により、未知パラメータ(外部標定要素)を求める。
(1)未知パラメータ(κ,φ,κ,φ,ω)の初期近似値は通常0とする。
(2)数7の共面条件式を近似値のまわりにテーラー展開し、線形化したときの微分係数の値を数8により求め、観測方程式をたてる。
(3)最小二乗法をあてはめ、近似値に対する補正量を求める。
(4)近似値を補正する。
(5)補正された近似値を用いて、(1)~(4)までの操作を収束するまで繰り返す。
 相互標定が収束した場合、さらに接続標定が行われる。接続標定とは、各モデル間の傾き、縮尺を統一して同一座標系とする処理である。この処理を行った場合、以下の数9で表される接続較差を算出する。算出した結果、ΔZおよびΔDが、所定値(例えば、0.0005(1/2000))以下であれば、接続標定が正常に行われたと判定する。
Figure JPOXMLDOC01-appb-M000009
(ステップS11)外部標定要素の修正
 次に、外部標定要素を修正する。外部標定要素は、画像の撮影タイミングと位置測定部4の位置データや姿勢測定部5の姿勢データの取得タイミングとの差を考慮した位置測定部4の位置データや姿勢測定部5の姿勢データを評価した上で修正する。以下、外部標定要素(カメラの位置、姿勢)の修正方法について説明する。
[カメラ位置の修正]
 位置測定部4(GPSもしくはIMU)から取得した位置データは、各機器に応じた固有の精度がある。例えば、その精度をσとすると、2σ、3σなどをGPSやIMUの位置データの評価値(閾値)とする。すなわち、画像の撮影タイミングとGPSやIMUの位置データの取得タイミングとの差に基づく誤差を考慮したGPSやIMUの位置データが、その閾値の範囲外であれば、画像から算出したカメラの位置が選択される。一方、画像の撮影タイミングとGPSやIMUの位置データの取得タイミングとの差に基づく誤差を考慮したGPSやIMUの位置データが、その閾値の範囲内であれば、GPSやIMUの位置データが選択される。なお、カメラの設置位置とGPSもしくはIMUの設置位置との間における位置オフセットは、予め補正される。
 以下、GPSの位置データにおける誤差の算出方法について説明する。一般に、GPSの時刻はカメラの時刻と同期していない。同期させるためには、巨額の投資が必要となり、実質的に実現が困難だからである。したがって、本発明においては、GPSの位置データの取得時刻と画像の撮影時刻は、基準時計6が出力する基準時刻に変換される。なお、変換された時刻は、位置データの伝送遅れや画像データの伝送遅れを考慮したものとなる。
 また、動画像のフレームレートとGPSの位置データの取得レートが一致していないため、画像の撮影タイミングとGPSの位置データの取得タイミングも同期していない。このため、GPSの位置データの誤差は、画像の撮影タイミングとGPSの位置データの取得タイミングとの差に基づく誤差を考慮する。
 図7は、画像の撮影タイミングとGPSの位置データの取得タイミングが同期していない場合のタイミングチャート(A)と、画像の撮影タイミングとGPSの位置データの取得タイミングが同期している場合のタイミングチャート(B)である。
 図7(A)に示すように、画像の撮影タイミングとGPSの位置データの取得タイミングとの差をΔtとすれば、カメラが速度vで移動するとき、GPSの位置データの誤差Etは、以下の数10のようになる。
Figure JPOXMLDOC01-appb-M000010
 基準時計6がない場合には、数10におけるΔtは、一般に未知である。しかしながら、動画像のフレームレートを30fps、GPSの位置データの取得レートを1fpsとするならば、図7(B)に示すように、Δtは最大で±1/30秒であると仮定することができる。なお、Δtは、変更するように構成してもよい。
 基準時計6がある場合には、画像の撮影時刻とGPSの位置データの取得時刻は、基準時計6によって同一の時間軸で表せるため、GPSの位置データが取得された時刻と、この時刻に最も近い時刻に撮影された画像との時間差がΔtとなる。図7(A)に示すΔtは、画像の撮影時刻とGPSの位置データの取得時刻とを差分することで得られる。
 また、速度vは、動画像内の特徴点の移動距離と動画像のフレームレートから求められる。以下の数11は、速度vの算出式である。例えば、(X-Xi-1)=0.1m、フレームレートが30fpsとすれば、v=3m/secとなる。したがって、GPSの位置データの誤差Etは、3×(1/30)=0.1mとなる。
Figure JPOXMLDOC01-appb-M000011
 さらに、GPS固有の測位精度を考慮する。GPSの測位精度は、衛星位置(DOP:Dilution of Precision)、マルチパス、リンククオリティ(LQ:Link Quality)、測位演算の収束評価などの値によって変わる。例えば、RTK-GPS(Real Time Kinematic GPS)システムの場合、GPS衛星の位置、周辺環境によるマルチパスの影響、基準局からの補正情報などを考慮して、測位モードがリアルタイムに変化する。以下の表1は、各測位モードにおける測位精度の概略を示している。
Figure JPOXMLDOC01-appb-T000012
 したがって、GPSの測位精度GPSrtkeを考慮すれば、画像の撮影タイミングとGPSの位置データの取得タイミングとの差を考慮したGPSの位置データの誤差合計EtALLは、数12となる。例えば、Et=0.1m、RTK Fix測位モードでGPSrtke=0.03mだった場合、GPSの位置データの誤差合計は、EtALL=0.13mとなる。また、閾値をRTK Fix測位モードの3σに設定した場合、閾値は、0.03×3=0.09mとなる。この場合は、EtALL>閾値となるため、画像から算出した外部標定要素(カメラの位置)を利用し、GPSの位置データを利用しない。
Figure JPOXMLDOC01-appb-M000013
 なお、GPSの位置データが、表1に記載の測位モードのうち、どの測位モードで測定されたものかによって、外部標定要素(カメラの位置)を修正するか否かを選択してもよい。例えば、RTK Fix測位モード以外は利用しないと選択したとする。この場合、画像から算出した外部標定要素を選択する。
 GPSの位置データの誤差を算出した後、画像の撮影タイミングとGPSの位置データの取得タイミングとの差を考慮したGPSの位置データが評価される。図8(A)は、画像の撮影タイミングとGPSの位置データの取得タイミングとの差を考慮したGPSの位置データが、設定した閾値の範囲内にある場合を示す図であり、図8(B)は、画像の撮影タイミングとGPSの位置データの取得タイミングとの差を考慮したGPSの位置データが、設定した閾値の範囲外にある場合を示す図である。図8(A)に示すように、画像の撮影タイミングとGPSの位置データの取得タイミングとの差を考慮したGPSの位置データEtALLが、設定した閾値の範囲内であれば、GPSの位置データが選択される。一方、図8(B)に示すように、画像の撮影タイミングとGPSの位置データの取得タイミングとの差を考慮したGPSの位置データEtALLが、設定した閾値の範囲外であれば、画像から算出した外部標定要素(カメラの位置)が選択される。
[カメラ姿勢の修正]
 姿勢測定部5(姿勢センサやIMU)から取得した姿勢データは、その想定し得る精度σの2σ、3σなどを評価値(閾値)として評価される。すなわち、画像の撮影タイミングと姿勢センサやIMUの姿勢データの取得タイミングとの差に基づく誤差を考慮した姿勢データが、その閾値の範囲外であれば、画像から算出したカメラの姿勢が選択される。一方、画像の撮影タイミングと姿勢センサやIMUの姿勢データの取得タイミングとの差に基づく誤差を考慮した姿勢データが、その閾値の範囲内であれば、姿勢測定部5の姿勢データが選択される。
 なお、姿勢測定部5の姿勢データは、カメラ座標軸の3つの回転角(ω,φ,κ)で構成されるが、いずれか一つを評価してもよいし、二つでも三つ全部を評価してもよい。この際、姿勢センサやIMUの精度によって使用するか否かを設定する。
 以下、姿勢センサの誤差の算出方法について説明する。図9(A)は、姿勢センサの姿勢データの計測時間と累積誤差との関係を示す図である。一般に、姿勢センサの姿勢データは、原理上加速度の積分や二重積分などをとるため、経過時間によって誤差が累積する。したがって、初期値が設定されたときから、もしくはハードウェアリセットされたときからの計測時間をt、累積誤差が指数関数1.05-1に近似するとすれば、姿勢センサの姿勢データの誤差Ext、Eyt、Eztは、以下の数13となる。例えば、t=10secの場合、Ext、Eyt、Ezt=0.63°となる。なお、累積誤差は、姿勢センサやIMUごと、計測軸ごとに異なるため、近似式は個別に設定される。
Figure JPOXMLDOC01-appb-M000014
 また、姿勢センサの時刻はカメラの時刻と同期していないが、本発明においては、姿勢データの取得時刻と画像の撮影時刻は、基準時計6が出力する基準時刻に変換される。なお、変換された時刻は、姿勢センサの姿勢データの伝送遅れや画像データの伝送遅れを考慮したものとなる。
 さらに、動画像のフレームレートと姿勢センサの姿勢データの取得レートが一致していないため、画像の撮影タイミングと姿勢センサの姿勢データの取得タイミングは同期していない。このため、姿勢センサの姿勢データの誤差は、画像の撮影タイミングと姿勢センサの姿勢データの取得タイミングとの差に基づく誤差を考慮する。
 図9(B)は、画像の撮影タイミングと姿勢センサの姿勢データの取得タイミングが同期していない場合のタイミングチャートである。図9(B)に示すように、画像の撮影タイミングと姿勢センサの姿勢データの取得タイミングとの差をΔt、その際のカメラの姿勢が角速度v、v、vで変化するとすれば、姿勢センサの姿勢データの誤差Ext、Eyt、Eztは、さらに数14のようになる。
Figure JPOXMLDOC01-appb-M000015
 基準時計6がある場合、画像の撮影時刻と姿勢センサの姿勢データの取得時刻は、基準時計6によって同一の時間軸で表せるため、姿勢センサの姿勢データが取得された時刻と、この時刻に最も近い時刻に撮影された画像との時間差がΔtとなる。図9(B)に示すΔtは、画像の撮影時刻と姿勢センサの姿勢データの取得時刻とを差分することで得られる。また、角速度v、v、vは、姿勢センサやIMUから取得した値を用いる。例えば、v=1.25°/sec、v=3.86°/sec、v=10.12°/sec、Δt=1/120secとすれば、Ext=0.64°、Eyt=0.66°、Ezt=0.71°となる。
 さらに、姿勢センサの固有の精度IMUeも考慮すると、姿勢センサの姿勢データの誤差合計ExtALL、EytALL、EztALLは、数15のようになる。
Figure JPOXMLDOC01-appb-M000016
 姿勢センサの姿勢データの誤差ExtALL、EytALL、EztALLが、設定した閾値の範囲外であれば、画像から算出した外部標定要素(カメラの姿勢)が選択される。姿勢センサの姿勢データの誤差ExtALL、EytALL、EztALLが、設定した閾値の範囲内であれば、姿勢センサの姿勢データが選択される。
(ステップS12)バンドル調整
 外部標定要素を修正した後、1枚または複数の画像、または全画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整する。バンドル調整は、対象空間の点、画像上の点、投影中心の3点を結ぶ光束(バンドル)が同一直線上になければならないという共線条件に基づき、各画像の光束1本毎に観測方程式を立て、最小二乗法によって同時調整する方法である。共線条件式は以下の数16のようになる。
Figure JPOXMLDOC01-appb-M000017
Figure JPOXMLDOC01-appb-M000018
 バンドル調整は、逐次近似解法を用いる。具体的には、基準点や特徴点の三次元座標、外部標定要素の真値を、各々の近似値(X’,Y’,Z’)、(X’,Y’,Z’,ω’,φ’,κ’)に補正量を加えたもの(X’+ΔX,Y’+ΔY,Z’+ΔZ)、(X’+ΔX,Y’+ΔY,Z’+ΔZ,ω’+Δω,φ’+Δφ,κ’+Δκ)とし、基準点や特徴点に対応する画像座標の真値を、計測値(x’,y’)に誤差を加えたもの(x’+dx,y’+dy)とする。そして、補正量を加えた近似値と、誤差を含む計測値とを、1つまたは複数の画像の共線条件式(数16)に代入し、近似値回りにテーラー展開して線形化し、最小二乗法により補正量を求める。求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。
 なお、Δx、Δyは、内部標定要素(焦点距離、主点位置、レンズ歪係数)の補正項を表す。以下の数18は、レンズが放射方向の歪みを有する場合の内部標定要素の補正モデルである。数18によって、内部標定要素も同時に調整することができる。いわゆる、セルフキャリブレーション付きバンドル調整である。
Figure JPOXMLDOC01-appb-M000019
(ステップS13)特徴点の三次元座標算出
 バンドル調整された外部標定要素に基づいて、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する。算出方法は、前方交会法、もしくは、DLTが挙げられる。なお、図4に示すように、ステップS13の三次元座標の算出は、バンドル調整(ステップS12)に先立って処理してもよい。
 図10は、前方交会法を説明する説明図である。前方交会法とは、既知の2点(O,O)以上から未知点Pへ向かう方向を観測して、それらの方向線の交点として未知点Pの位置を定める方法である。
 図10において、対象空間の座標系をO-XYZとする。前フレーム画像のカメラの投影中心Oの座標(X01,Y01,Z01)およびカメラ座標軸の傾き(ω,φ,κ)と、現フレーム画像のカメラの投影中心Oの座標(X02,Y02,Z02)およびカメラ座標軸の傾き(姿勢)(ω,φ,κ)は、既知である。また、内部標定要素(焦点距離、主点位置、レンズ歪係数)も既知である。この際、前フレーム画像上の点p(x,y)と、これに対応する現フレーム画像上の点p(x,y)が分かれば、対象空間の未知点P(X,Y,Z)は、光線Oと光線Oの交点として定まる。ただし、実際には誤差があり、2本の光線が交わらないため、最小二乗法によって交点位置を求める。
 具体的には、2本の共線条件式(数16)を立て、これに既知の外部標定要素、内部標定要素、対応点の画像座標を代入する。さらに、この共線条件式に未知点Pの近似値(X’,Y’,Z’)に補正量を加えたもの(X’+ΔX,Y’+ΔY,Z’+ΔZ)を代入する。近似値回りにテーラー展開して線形化し、最小二乗法により補正量を求める。求めた補正量によって近似値を補正し、同様の操作を繰り返し、収束解を求める。この操作によって、特徴点の三次元座標P(X,Y,Z)が求められる。
(ステップS14)最終フレーム判定
 新たに検出した特徴点の三次元座標が算出された後、現在処理している画像が最終画像であるか否かを判定する。現在処理している画像が最終画像でない場合には、ステップS10に戻って、次画像の外部標定要素を算出する。以後、ステップS10~ステップS14までを最終画像まで繰り返す。現在処理している画像が最終画像である場合には、処理を終了する。
(第1の実施形態の優位性)
 第1の実施形態によれば、画像の撮影タイミングと位置測定部4の位置データや姿勢測定部5の姿勢データの取得タイミングとの差は、位置測定部4の位置データや姿勢測定部5の姿勢データの誤差とみなされる。画像の撮影タイミングと位置測定部4の位置データや姿勢測定部5の姿勢データの取得タイミングとの差を考慮した位置測定部4の位置データや姿勢測定部5の姿勢データが、設定した閾値の範囲内か否かによって、外部標定要素が修正される。画像の撮影タイミングと位置測定部4の位置データや姿勢測定部5の姿勢データの取得タイミングが同期しない場合であっても、外部標定要素は適切に修正されるため、誤差が低減する。
 また、位置測定部4の位置データまたは姿勢測定部5の姿勢データの誤差は、時間差Δtに基づく誤差に、位置測定部4の位置データや姿勢測定部5の姿勢データにおける固有の精度が加味される。このため、画像から算出した外部標定要素は適切に修正される。
 特に、RTK-GPS(Real Time Kinematic GPS)の場合は、精度に影響を与え得るGPS衛星の位置、周辺環境によるマルチパス、および基準局からの補正情報などに基づいて、測位モードをリアルタイムに変更する。したがって、外部標定要素を修正する閾値を測位モードに基づいて変更することで、外部標定要素が適切に修正される。
 一方、姿勢測定部5の姿勢データは、測定の原理上、計測時間tによって誤差が累積する傾向がある。したがって、姿勢データの計測時間tに基づく精度を考慮することで、外部標定要素が適切に修正される。
2.第2の実施形態
 以下、第1の実施形態の変形例について説明する。第2の実施形態は、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて、撮影シーンの変化や撮影装置の変動を判断するものである。
(位置測定装置の構成)
 図11は、位置測定装置の機能ブロック図である。位置測定プログラムは、図2と比べ、画像判断部20をさらに備えている。また、図2の外部標定要素修正部14に替わり、外部標定要素評価部21を備えている。
 画像判断部20は、撮影シーンの変化や撮影装置の変動を、特徴点の軌跡の方向、特徴点の移動量、特徴点の分布率、オーバーラップ率、縦視差などに基づいて判断する。
 外部標定要素評価部21は、画像判断部20の判断結果に基づいて、画像から算出された外部標定要素を評価する。撮影シーンの変化が相対的に大きいと判断された場合には、位置測定部4が取得した位置データ、姿勢測定部5が取得した姿勢データで外部標定要素が修正される。撮影シーンの変化が相対的に小さいと判断された場合には、画像から算出された外部標定要素をそのまま選択する。
(位置測定装置の動作)
 次に、位置測定装置の全体の動作について説明する。図12、図13は、位置測定装置の動作を示すフローチャートである。
 以下、第2の実施形態に係るステップS5の三次元座標・外部標定要素算出処理の詳細について説明する。図12に示すように、ステップS5の三次元座標・外部標定要素の算出処理は、外部標定要素の算出(ステップS10)、算出した外部標定要素の評価(ステップS16)、評価した外部標定要素と既知点の三次元座標のバンドル調整(ステップS12)、新たに検出された特徴点の三次元座標の算出(ステップS13)で構成される。
 なお、バンドル調整(ステップS12)は、新たに検出された特徴点の三次元座標を算出する前(図12)、もしくは新たに検出された特徴点の三次元座標を算出した後(図13)に行ってもよい。図12の場合には、新たに検出された特徴点の三次元座標の算出精度が向上する。図13の場合には、評価後の外部標定要素に基づいて、新たに検出された特徴点の三次元座標が算出されるため、同様の効果を奏する。
(ステップS16)外部標定要素の評価
 外部標定要素の算出は、基準点や既に三次元座標が求められた特徴点の三次元座標と、特徴点の追跡によって求められた画像座標に基づいている。したがって、外部標定要素の精度は、特徴点の追跡精度に依存する。また、特徴点の追跡精度は、撮影シーンの著しい変化や撮影装置の変動に依存している。このため、撮影シーンの変化や撮影装置の変動によって、誤差が発生したり、もしくは、計算が不能となる。
 したがって、撮影シーンの変化や撮影装置の変動が大きく、画像から算出された外部標定要素が信頼できない場合には、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データを利用する。この際、画像から算出された外部標定要素は利用しない。
 撮影シーンの変化量や撮影装置の変動量は、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、縦視差に基づいて判断される。この判断は、画像判断部20によって行われる。以下、撮影シーンの変化の判断手法について説明する。
[特徴点の軌跡の方向と量による判断]
 図14(A)は、前フレームの特徴点の軌跡の方向と、新たに検出した特徴点の軌跡の方向が異なる画像を示す図であり、図14(B)は、前のフレームの特徴点の軌跡の量と、新たに検出した特徴点の軌跡の量が異なる画像を示す図である。
 例えば、図14(A)に示すように、カメラが右方向へ移動すると、特徴点の密度が少なくなる領域に新たに検出した特徴点が増えていく。この際、今までの軌跡の方向に対し、新しく検出された特徴点の軌跡の方向が、90度、180度、・・・と大きく変化した場合には、撮影シーンが変化した、または、撮影装置が変動したと判断する。このような場合、画像から算出した外部標定要素は、信頼性が低いと評価する。そして、外部標定要素は、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データに修正される。
 特徴点の軌跡の方向の変化は、前フレームの特徴点の軌跡ベクトルaと、新たに検出した特徴点の軌跡ベクトルbとのなす角θとして定義される。この角度は、数19の内積の定義から求められる。
Figure JPOXMLDOC01-appb-M000020
 また、例えば、図14(B)に示すように、今までの軌跡の量に対し、新たに検出された特徴点の軌跡の量が、2倍、4倍、・・・と大きく変化した場合には、撮影シーンが変化したと判断する。このような場合、画像から算出した外部標定要素は、信頼性が低いと評価する。そして、外部標定要素は、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データに修正される。
 軌跡の量の変化は、前フレームの特徴点の軌跡ベクトルaの大きさと、新たに検出した特徴点の軌跡ベクトルbの大きさとの差である。この差は、以下の数20から求める。なお、特徴点の軌跡の向きや量に対する閾値は、調整可能とする。
Figure JPOXMLDOC01-appb-M000021
[特徴点の分布率、オーバーラップ率による判断]
 撮影シーンの変化や撮影装置の変動が大きい場合、特徴点が追跡不能となり、画像内の点の配置が偏ることがある。図15(A)は、特徴点の分布率が0の画像を示す図であり、図15(B)は、特徴点の分布率が負の画像を示す図であり、図15(C)は、特徴点の分布率が正の画像を示す図である。
 カメラが水平方向へ移動する場合、水平方向における特徴点の分布率は、画像中心を原点(0,0)とすると、特徴点のX座標の合計値として求められる。例えば、図15(A)の場合、特徴点が画像全体に均一に分布しているため、X座標の合計値は、0となる。また、図15(B)の場合、特徴点が画像左側に分布しているため、X座標の合計値は、負となる。図15(C)の場合、特徴点が画像右側に分布しているため、X座標の合計値は、正となる。
 なお、カメラが鉛直方向へ移動する場合、鉛直方向における特徴点の分布率は、画像中心を原点(0,0)とすると、特徴点のY座標の合計値として求められる。したがって、特徴点のY座標の合計値によって、鉛直方向における特徴点の分布率を求めてもよい。
 また、撮影シーンの変化や撮影装置の変動が大きい場合、前後のフレームでオーバーラップしている特徴点が偏ることがある。オーバーラップしている特徴点とは、特徴点の追跡によって求められた点のことである。図16(A)は、前後のフレームでオーバーラップしている特徴点が偏っている画像を示す図であり、図16(B)は、前後のフレームでオーバーラップしている特徴点が偏っていない画像を示す図である。
 図16(A)に示すように、前後のフレームでオーバーラップしている特徴点が偏っている場合には、画像から算出した外部標定要素は、信頼性が低いと評価する。そして、外部標定要素は、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データに修正される。また、図16(B)に示すように、前後のフレームでオーバーラップしている特徴点が偏っていない場合には、画像から算出した外部標定要素は、信頼性が高いと評価する。そして、画像から算出された外部標定要素を利用する。
 オーバーラップしている特徴点の偏り具合(オーバーラップ率)は、特徴点の分布率の算出方法を用いる。なお、特徴点の分布率やオーバーラップ率に対する閾値は、調整可能とする。
[縦視差による判断]
 縦視差とは、ステレオ撮影された2枚の画像における対応点のy座標の差のことをいう。すなわち、ステレオ画像の基線方向に直交する方向の座標値の差のことである。ステレオ画像は、2枚の画像を撮影したカメラの光軸が平行であり、かつ、基線方向に直交する方向が平行な画像対である。したがって、2枚の画像の対応点のy座標は等しいため、ステレオ画像の縦視差は通常0画素となる。
 しかしながら、撮影装置の変動があった場合には、縦視差が0画素でなくなる。したがって、縦視差が1画素以上ある場合は、画像から算出された外部標定要素を利用せず、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データを利用する。
 縦視差は、前フレームの特徴点のy座標と、現フレームの特徴点のy座標との差を算出することで求められる。なお、縦視差に対する閾値は、調整可能とする。
 なお、撮影シーンの変化や撮影装置の変動は、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差のうち、2つ、3つ、4つ、または全てを掛け合わせた値に基づいて判断してもよい。
(第2の実施形態の優位性)
 第2の実施形態によれば、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて、撮影シーンの変化や撮影装置の変動が判断される。撮影シーンの変化や撮影装置の変動は、特徴点の追跡を困難にし、画像から算出された外部標定要素の精度を劣化させる。したがって、撮影シーンの変化や撮影装置の変動が相対的に大きい場合には、画像から算出された外部標定要素の信頼性が低いと評価し、撮影シーンの変化や撮影装置の変動が相対的に小さい場合には、画像から算出された外部標定要素の信頼性が高いと評価する。
 画像から算出された外部標定要素の信頼性が低いと評価される場合には、位置測定部4から取得する位置データや姿勢測定部5から取得する姿勢データを利用し、画像から算出された外部標定要素は利用しない。この態様によって、撮影シーンの変化や撮影装置の変動による誤差が低減する。
3.第3の実施形態
 以下、第1,2の実施形態の変形例について説明する。第3の実施形態は、重み付きバンドル調整を行うものである。
 図17(A)は、第1,2の実施形態に係るバンドル調整の概念図である。図17(A)に示すように、第1の実施形態においては、カメラから算出された外部標定要素が、GPSの位置データまたは姿勢センサの姿勢データの時間差Δtに基づく誤差を基準として修正される。また、第2の実施形態においては、カメラから算出された外部標定要素が、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価される。そして、バンドル調整される外部標定要素は、GPSの位置データ、姿勢センサの姿勢データ、カメラから算出された外部標定要素の中から最良なデータが選択され、選択された外部標定要素に基づいてバンドル調整が行われる。したがって、バンドル調整は、図17(A)の点線枠で示すデータに基づいて行われる。
 一方、第2の実施形態では、外部標定要素が最良なデータに修正されるのではなく、GPSの位置データ、姿勢センサの姿勢データ、カメラから算出された外部標定要素は、重み付けされてバンドル調整される。図17(B)は、第3の実施形態に係る重み付きバンドル調整の概念図である。図17(B)に示すように、精度の悪いデータは重みが軽くなり、精度の良いデータは重みが重くなる。この結果、外部標定要素、特徴点の三次元座標は、図17(B)の実線枠の範囲にバンドル調整される。
 重みは、各データの精度に基づいて算出される。各データの精度をσとすると、重みwは、数21によって算出される。以下、各データの精度について説明する。
[GPSの位置データ、姿勢センサの姿勢データの精度]
 GPSの位置データ、姿勢センサの姿勢データの精度は、画像の撮影タイミングとGPSの位置データや姿勢センサの姿勢データの取得タイミングとの差に基づいた誤差と、GPSの位置データ、姿勢センサの姿勢データの固有の精度とに基づく。
 一般に、GPSや姿勢センサの時刻はカメラの時刻と同期していない。したがって、本発明においては、GPSの位置データの取得時刻と画像の撮影時刻は、基準時計6が出力する基準時刻に変換される。なお、変換された時刻は、位置データや姿勢データの伝送遅れや画像データの伝送遅れを考慮したものとなる。
 また、動画像のフレームレートとGPSや姿勢センサの取得レートが一致していないため、画像の撮影タイミングとGPSの位置データや姿勢センサの姿勢データの取得タイミングも同期していない。このため、GPSや姿勢センサの精度は、画像の撮影タイミングとGPSの位置データや姿勢センサの姿勢データの取得タイミングとの差に基づく誤差を考慮する。
 画像の撮影タイミングとGPSの位置データや姿勢センサの姿勢データの取得タイミングとの差をΔtとすれば、カメラが速度v(角速度v、v、v)で移動するとき、GPSの位置データの誤差Etは、数22となり、姿勢センサの姿勢データの誤差Ext、Eyt、Eztは、数23となる。
Figure JPOXMLDOC01-appb-M000023
Figure JPOXMLDOC01-appb-M000024
 画像の撮影時刻とGPSの位置データや姿勢センサの姿勢データの取得時刻は、基準時計6によって同一の時間軸で表せるため、Δtは、GPSの位置データや姿勢センサの姿勢データが取得された時刻と、この時刻に最も近い時刻に撮影された画像との時間差となる。
 また、速度vは、数24に示すように動画像内の特徴点の移動距離と動画像のフレームレートから求められる。また、角速度v、v、vは、姿勢センサやIMUから取得した値を用いる。
Figure JPOXMLDOC01-appb-M000025
 次に、GPSや姿勢センサの固有の精度について説明する。GPSの測位精度は、衛星位置(DOP:Dilution of Precision)、マルチパス、リンククオリティ(LQ:Link Quality)、測位演算の収束評価などの値によって変わる。例えば、RTK-GPS(Real Time Kinematic GPS)システムの場合、GPS衛星の位置、周辺環境によるマルチパスの影響、基準局からの補正情報などを考慮して、上記表1のように測位モードがリアルタイムに変化する。
 GPSの測位精度をGPSrtkeとすると、GPSの位置データの精度の合計EtALLは、数25となる。
Figure JPOXMLDOC01-appb-M000026
 また、姿勢センサは、原理上加速度の積分や二重積分などをとることから、経過時間によって誤差が累積する。したがって、初期値が設定されたときから、もしくは、ハードウェアリセットされたときからの計測時間をt、累積誤差が指数関数1.05-1に近似するとすれば、姿勢センサの精度は、数26となる。また、これに姿勢センサ固有の精度IMUeを考慮すると、姿勢センサの精度の合計ExtALL、EytALL、EztALLは、数27となる。
Figure JPOXMLDOC01-appb-M000027
Figure JPOXMLDOC01-appb-M000028
[外部標定要素および特徴点の三次元座標の精度]
 外部標定要素および特徴点の三次元座標の精度は、第2の実施形態における、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づき求められる。すなわち、特徴点の軌跡の方向の変化は、2つのベクトルa、ベクトルbのなす角θであり(数10)、特徴点の軌跡の量の変化は、2つのベクトルa、ベクトルbの差|a-b|であるため(数11)、精度σは、θまたは|a-b|となる。
 また、特徴点の分布率やオーバーラップ率は、画像中心を原点とする特徴点のX座標および/またはY座標の合計値であるため、精度σは、分布率やオーバーラップ率の絶対値となる。また、縦視差は、ステレオ画像における特徴点のy座標の差であるため、精度σは、特徴点のy座標の差の絶対値となる。
 なお、外部標定要素および特徴点の三次元座標の精度σは、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差のうち、2つ、3つ、4つ、または全てを掛け合わせた値としてもよい。
[重み付きバンドル調整]
 重み付きバンドル調整における各補正量は、以下の関数Gを最小にする値として求めることができる。例えば、wがカメラによる三次元座標の重み、wおよびwが外部標定要素の重み、となる。
Figure JPOXMLDOC01-appb-M000029
 また、GPSやIMUによる位置データ、姿勢センサの姿勢データが加わった場合には、以下の数29となり、これを最小にする。例えば、wがGPSによる位置データの重み、wがIMUの位置データの重み、wが姿勢センサの重み、となる。
Figure JPOXMLDOC01-appb-M000030
(第3の実施形態の優位性)
 第3の実施形態によれば、外部標定要素および特徴点の三次元座標に加えて、位置測定部4の位置データや姿勢測定部5の姿勢データも同時にバンドル調整される。この際、各データは、重みが付けられてバンドル調整されるため、精度の悪いデータは軽く、精度の良いデータは重く扱われる。このため、外部標定要素および特徴点の三次元座標の誤差が低減する。
 また、位置測定部4の位置データや姿勢測定部5の姿勢データの重みは、画像の撮影タイミングと位置測定部4の位置データや姿勢測定部5の姿勢データの取得タイミングとの差に基づいて算出される。このため、画像の撮影タイミングと位置測定部4の位置データや姿勢測定部5の姿勢データの取得タイミングが同期しない場合であっても、外部標定要素および特徴点の三次元座標の誤差が低減する。
 さらに、外部標定要素および特徴点の三次元座標の重みは、特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差の少なくともいずれか一つに基づいて算出される。画像から算出される外部標定要素や特徴点の三次元座標における精度は、撮影シーンの変化や撮影装置の変動に依存する傾向が強い。このため、撮影シーンの変化や撮影装置の変動の判断材料となる特徴点の軌跡の方向や量、特徴点の分布率、オーバーラップ率、および縦視差を外部標定要素および特徴点の三次元座標の重みとすることで、外部標定要素および特徴点の三次元座標の誤差が低減する。
4.第4の実施形態
 以下、第1~3の実施形態の変形例について説明する。第4の実施形態は、追跡(トラッキング)された対応点のうち相対的に誤差の大きい点(誤対応点)を除去し、外部標定要素や特徴点の三次元座標の算出精度を向上させるものである。
 図18~図20は、誤対応点の除去を取り入れたフローチャートである。誤対応点の除去は、バンドル調整の後(図18、図19)、もしくは外部標定要素算出の前(図20)に行う。図18の場合、次フレーム以降における外部標定要素の算出精度が向上する。また、図19の場合、除去された誤対応点の三次元座標は算出されないため、計算処理が効率化する。また、図20の場合、現フレームにおける外部標定要素の算出精度が向上する。
 誤対応点の除去法には、バックワードプロジェクション、もしくは相互標定によって算出した縦視差を利用する。これらの除去法は、撮影状況によって使い分けを行ったり、双方を行ったりする。例えば、単写真標定を用いたバックワードプロジェクションによる誤対応点除去は、1つの画像に基づいて誤対応点を除去するため、シーンの変化が大きい場合に利用する。また、相互標定による誤対応点除去は、複数の画像に基づいて誤対応点を除去するため、シーンの変化が少ない場合に利用する。
 また、誤差判定の閾値の推定に、ロバスト推定を用いてもよい。例えば、LMedS推定(Least Median of Squares推定)、RANSAC推定(RANdom SAmple Consensus推定)、M推定が利用される。特に、LMedS推定は、ロバスト性に優れており、誤差範囲が不明でも自動的に誤対応点を除去することができる。
 なお、誤差判定の閾値は、ロバスト推定に依らず、調整可能な固定閾値としてもよい。この態様によれば、演算処理が簡易であるため、処理速度が向上する。
 以下、図21のフローチャートに従って説明する。図21(A)は、バックワードプロジェクションによる誤対応点の除去を行うフローチャートであり、図21(B)は、縦視差を用いた誤対応点の除去を行うフローチャートである。
[バックワードプロジェクションによる誤対応点の除去]
 まず、追跡された対応点がランダムにサンプリングされる(ステップS20)。次に、サンプリングされた点ごとに、後方交会法(単写真標定またはDLT)によって算出された外部標定要素と追跡された対応点の三次元座標に基づいて、対応点の画像座標(x’,y’)を算出する。例えば、単写真標定の場合、数6の共線条件式に外部標定要素(X,Y,Z,ω,φ,κ)と対応点の三次元座標(X,Y,Z)を代入することで、画像座標(x’,y’)が逆算される(ステップS21)。
 そして、サンプリングされた点ごとに、後方交会法によって得られた画像座標(x’,y’)と、追跡された対応点の画像座標(x,y)との残差の二乗を求め、二乗残差の中央値を算出する(ステップS22)。その後、ステップS20~ステップS22を繰り返し、中央値の最小値(LMedS)を求める(ステップS23)。以下の数30にLMedS基準を示す。
Figure JPOXMLDOC01-appb-M000031
 なお、ステップS20~ステップS22の繰り返しに必要な回数は、q回のランダムサンプリングで少なくとも一回は例外値が全く含まれない確率を考えることで決定できる。例えば、全データ中の例外値の割合をcとすると、この確率Pは、以下の数31に示すようになる。例えば、c=0.3、n=3とすると、P=0.01になるためには、q=11回となる。
Figure JPOXMLDOC01-appb-M000032
 ステップS23で求めたLMedS値を閾値として誤差の大きい点を除去する(ステップS24)。
[縦視差を用いた誤対応点の除去]
 まず、前後の画像における対応点がランダムにサンプリングされる(ステップS30)。次に、図6に示すように、サンプリングされた対応点(P,P)の実空間上の点Pの三次元座標は、相互標定の共面条件式(数6)によって、点線で示されるステレオ画像上に再投影される(ステップS31)。
 縦視差は、再投影された2つの対応点のy座標の差として求められる。縦視差とは、ステレオ撮影された2枚の画像における対応点のy座標の差であり、ステレオ画像の基線方向に直交する方向の座標値の差のことを意味する。なお、ステレオ画像とは、2枚の画像を撮影したカメラの光軸が平行であり、かつ、基線方向に直交する方向が平行な画像対である。次に、縦視差の二乗を求め、その中央値を算出する(ステップS32)。その後、ステップS30~ステップS32を繰り返し、中央値の最小値(LMedS)を求める(ステップS33)。LMedS基準は数12による。
 ステップS33で求めたLMedS値を閾値として誤差の大きい点を除去する(ステップS34)。
(第4の実施形態の優位性)
 特徴点の追跡結果には、多くの誤対応点が含まれている。したがって、誤対応点に基づいて算出された外部標定要素や特徴点の三次元座標は、精度が劣る。しかしながら、誤対応点を除去することで、外部標定要素や特徴点の三次元座標の算出精度が向上し、誤差が低減する。
 また、撮影状況の変化に基づいて、誤対応点の除去法(バックワードプロジェクションによって算出した残差または相互標定によって算出した縦視差)が選択されることで、撮影状況の変化に依存せずに、外部標定要素や特徴点の三次元座標を算出することができる。
 さらに、LmedS法は、最小二乗法と比べ、データに外れ値が多く含まれていても、ロバストに外れ値を推定することができる。このため、外部標定要素や特徴点の三次元座標の誤差を低減することができる。
 本発明は、動画像に基づいて、撮影した位置や姿勢と被写体の三次元位置とを測定する位置測定方法、位置測定装置、およびそのプログラムに利用することができる。

Claims (30)

  1.  初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、
     前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、
     前記外部標定要素算出ステップによって算出された外部標定要素を、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて修正する外部標定要素修正ステップと、
     前記外部標定要素修正ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、
     前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、
     前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を備えることを特徴とする位置測定方法。
  2.  前記外部標定要素修正ステップは、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差と、外部から与えられる撮影位置および/または撮影姿勢の精度と、に基づいて外部標定要素を修正することを特徴とする請求項1に記載の位置測定方法。
  3.  前記外部から与えられる撮影位置の精度は、RTK-GPSの各測位モードの測位精度であり、前記測位モードに基づいて外部標定要素を修正する閾値を変更するように構成されていることを特徴とする請求項2に記載の位置測定方法。
  4.  前記外部から与えられる撮影姿勢の精度は、撮影姿勢の計測時間に基づく精度であることを特徴とする請求項2に記載の位置測定方法。
  5.  前記バンドル調整ステップは、外部から与えられる撮影位置および/または撮影姿勢の重み、外部標定要素および特徴点の三次元座標の重みを算出し、各データを重み付けしてバンドル調整することを特徴とする請求項1に記載の位置測定方法。
  6.  前記外部から与えられる撮影位置および/または撮影姿勢の重みは、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて算出されることを特徴とする請求項5に記載の位置測定方法。
  7.  前記外部標定要素および特徴点の三次元座標の重みは、特徴点の追跡によって算出された対応点の画像座標と、前記対応点の三次元座標を画像上に投影した画像座標との残差に基づいて算出されることを特徴とする請求項5に記載の位置測定方法。
  8.  前記バンドル調整ステップは、新たに検出された特徴点の三次元座標を算出する前、または、新たに検出された特徴点の三次元座標を算出した後に行われることを特徴とする請求項5に記載の位置測定方法。
  9.  特徴点の追跡によって算出された対応点の画像座標と、前記対応点の三次元座標を画像上に投影した画像座標との残差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする請求項1に記載の位置測定方法。
  10.  前後の画像における対応点の三次元座標をステレオ画像上に投影し、前後のステレオ画像における基線方向に直交する方向の座標値の差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする請求項1に記載の位置測定方法。
  11.  前記誤対応点除去ステップは、前記バンドル調整ステップの後、または、前記外部標定要素算出ステップの前に行われることを特徴とする請求項9または10に記載の位置測定方法。
  12.  請求項9または請求項10に記載の誤対応点除去ステップは、撮影状況の変化に基づいて選択されることを特徴とする請求項9または10に記載の位置測定方法。
  13.  前記誤対応点除去ステップは、LMedS推定によって閾値が推定されることを特徴とする請求項9または10に記載の位置測定方法。
  14.  初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、
     前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、
     前記外部標定要素算出ステップによって算出された外部標定要素を、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて修正する外部標定要素修正ステップと、
     前記外部標定要素修正ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、
     前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、
     前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を実行させるための位置測定プログラム。
  15.  対象物と撮影部とが少しずつ相対移動して撮影された動画像を取得する動画像取得部と、
     前記動画像取得部によって取得された画像を順次入力して、前記画像から特徴点の検出および追跡を行う特徴点検出追跡部と、
     前記動画像取得部の撮影位置を外部から測定する位置測定部と、
     前記動画像取得部の撮影姿勢を外部から測定する姿勢測定部と、
     前記動画像取得部によって取得された動画像、前記特徴点検出追跡部によって検出および追跡された特徴点、前記位置測定部によって測定された撮影位置、および前記姿勢測定部によって測定された撮影姿勢を入力して、前記動画像の撮影位置および撮影姿勢からなる外部標定要素および前記特徴点の三次元座標を計算する計算処理部と、を備えた位置測定装置であって、
     前記計算処理部は、初期画像中の既知点または前記位置測定部によって測定された撮影位置および/または前記姿勢測定部によって測定された撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出部と、
     前記初期値算出部で用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出部と、
     前記外部標定要素算出部によって算出された外部標定要素を、画像の撮影タイミングと前記位置測定部から取得した撮影位置および/または前記姿勢測定部から取得した撮影姿勢の取得タイミングとの差に基づいて修正する外部標定要素修正部と、
     前記外部標定要素修正部によって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整部と、
     前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出部と、を備え、
     前記外部標定要素算出部から前記三次元座標算出部までの処理を、最終画像になるまで繰り返すことを特徴とする位置測定装置。
  16.  初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、
     前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、
     前記外部標定要素算出ステップによって算出された外部標定要素を、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価ステップと、
     前記外部標定要素評価ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、
     前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、
     前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を備えることを特徴とする位置測定方法。
  17.  前記特徴点の軌跡の方向もしくは特徴点の軌跡の量は、前画像の特徴点に対応する現画像の対応点の軌跡と、現画像で新たに検出された特徴点の軌跡との差に基づいて算出されることを特徴とする請求項16に記載の位置測定方法。
  18.  前記特徴点の分布率もしくは特徴点のオーバーラップ率は、画像中心を原点とした特徴点のX座標および/またはY座標の合計値によって算出されることを特徴とする請求項16に記載の位置測定方法。
  19.  前記外部標定要素評価ステップは、前記特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の中から選ばれた複数の値を掛け合わせた値に基づいて、外部標定要素を評価することを特徴とする請求項16に記載の位置測定方法。
  20.  前記バンドル調整ステップは、外部から与えられる撮影位置および/または撮影姿勢の重み、外部標定要素および特徴点の三次元座標の重みを算出し、各データを重み付けしてバンドル調整することを特徴とする請求項16に記載の位置測定方法。
  21.  前記外部から与えられる撮影位置および/または撮影姿勢の重みは、画像の撮影タイミングと外部から与えられる撮影位置および/または撮影姿勢の取得タイミングとの差に基づいて算出されることを特徴とする請求項20に記載の位置測定方法。
  22.  前記外部標定要素および特徴点の三次元座標の重みは、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて算出されることを特徴とする請求項20に記載の位置測定方法。
  23.  前記バンドル調整ステップは、新たに検出された特徴点の三次元座標を算出する前、または、新たに検出された特徴点の三次元座標を算出した後に行われることを特徴とする請求項20に記載の位置測定方法。
  24.  特徴点の追跡によって算出された対応点の画像座標と、前記対応点の三次元座標を画像上に投影した画像座標との残差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする請求項16に記載の位置測定方法。
  25.  前後の画像における対応点の三次元座標をステレオ画像上に投影し、前後のステレオ画像における基線方向に直交する方向の座標値の差に基づいて、誤対応点を除去する誤対応点除去ステップと、を備えることを特徴とする請求項16に記載の位置測定方法。
  26.  前記誤対応点除去ステップは、前記バンドル調整ステップの後、または、前記外部標定要素算出ステップの前に行われることを特徴とする請求項24または25に記載の位置測定方法。
  27.  請求項24または請求項25に記載の誤対応点除去ステップは、撮影状況の変化に基づいて選択されることを特徴とする請求項24または25に記載の位置測定方法。
  28.  前記誤対応点除去ステップは、LMedS推定によって閾値が推定されることを特徴とする請求項24または25に記載の位置測定方法。
  29.  初期画像中の既知点または外部で測定された撮影位置および/または撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出ステップと、
     前記初期値算出ステップで用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出ステップと、
     前記外部標定要素算出ステップによって算出された外部標定要素を、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価ステップと、
     前記外部標定要素評価ステップによって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整ステップと、
     前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出ステップと、
     前記外部標定要素算出ステップから前記三次元座標算出ステップまでの処理を、最終画像になるまで繰り返す繰り返しステップと、を実行させるための位置測定プログラム。
  30.  対象物と撮影部とが少しずつ相対移動して撮影された動画像を取得する動画像取得部と、
     前記動画像取得部によって取得された画像を順次入力して、前記画像から特徴点の検出および追跡を行う特徴点検出追跡部と、
     前記動画像取得部の撮影位置を外部から測定する位置測定部と、
     前記動画像取得部の撮影姿勢を外部から測定する姿勢測定部と、
     前記動画像取得部によって取得された動画像、前記特徴点検出追跡部によって検出および追跡された特徴点、前記位置測定部によって測定された撮影位置、および前記姿勢測定部によって測定された撮影姿勢を入力して、前記動画像の撮影位置および撮影姿勢からなる外部標定要素および前記特徴点の三次元座標を計算する計算処理部と、を備えた位置測定装置であって、
     前記計算処理部は、初期画像中の既知点または前記位置測定部によって測定された撮影位置および/または前記姿勢測定部によって測定された撮影姿勢に基づき、撮影位置と撮影姿勢とからなる外部標定要素の初期値を算出する初期値算出部と、
     前記初期値算出部で用いられた初期画像に続く動画像中の既知点または既に三次元座標が与えられた特徴点に基づいて、外部標定要素を算出する外部標定要素算出部と、
     前記外部標定要素算出部によって算出された外部標定要素を、特徴点の軌跡の方向、特徴点の軌跡の量、特徴点の分布率、特徴点のオーバーラップ率、および縦視差の少なくともいずれか一つに基づいて評価する外部標定要素評価部と、
     前記外部標定要素評価部によって修正された外部標定要素に基づき、1または複数の画像における外部標定要素および特徴点の三次元座標を同時にバンドル調整するバンドル調整部と、
     前記バンドル調整された外部標定要素に基づき、特徴点の密度が少なくなった領域で新たに検出された特徴点の三次元座標を算出する三次元座標算出部と、を備え、
     前記外部標定要素算出部から前記三次元座標算出部までの処理を、最終画像になるまで繰り返すことを特徴とする位置測定装置。
PCT/JP2009/062067 2008-07-01 2009-07-01 位置測定方法、位置測定装置、およびプログラム WO2010001940A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
EP09773518.7A EP2309225A4 (en) 2008-07-01 2009-07-01 POSITION MEASUREMENT METHOD, POSITION MEASUREMENT DEVICE AND PROGRAM
US12/980,839 US8811718B2 (en) 2008-07-01 2010-12-29 Position measurement method, position measurement device, and program

Applications Claiming Priority (4)

Application Number Priority Date Filing Date Title
JP2008172737A JP5027747B2 (ja) 2008-07-01 2008-07-01 位置測定方法、位置測定装置、およびプログラム
JP2008-172665 2008-07-01
JP2008172665A JP5027746B2 (ja) 2008-07-01 2008-07-01 位置測定方法、位置測定装置、およびプログラム
JP2008-172737 2008-07-01

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/980,839 Continuation US8811718B2 (en) 2008-07-01 2010-12-29 Position measurement method, position measurement device, and program

Publications (1)

Publication Number Publication Date
WO2010001940A1 true WO2010001940A1 (ja) 2010-01-07

Family

ID=41466032

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2009/062067 WO2010001940A1 (ja) 2008-07-01 2009-07-01 位置測定方法、位置測定装置、およびプログラム

Country Status (3)

Country Link
US (1) US8811718B2 (ja)
EP (1) EP2309225A4 (ja)
WO (1) WO2010001940A1 (ja)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018139297A1 (ja) * 2017-01-27 2018-08-02 日立オートモティブシステムズ株式会社 カメラ装置
CN113746963A (zh) * 2021-08-30 2021-12-03 苏州灵猴机器人有限公司 一种零部件安装方法、装置、设备及存储介质
CN114565680A (zh) * 2022-02-22 2022-05-31 山西支点科技有限公司 一种基于空间位置评价和贪心策略的多视图靶点标定方法
CN114925333A (zh) * 2022-06-13 2022-08-19 千寻位置网络有限公司 坐标转换的方法及其***
US20240085211A1 (en) * 2017-01-19 2024-03-14 Mindmaze Group Sa System, methods, device and apparatuses for preforming simultaneous localization and mapping

Families Citing this family (34)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
TWI389558B (zh) * 2009-05-14 2013-03-11 Univ Nat Central Method of determining the orientation and azimuth parameters of the remote control camera
JP4560128B1 (ja) * 2009-08-13 2010-10-13 株式会社パスコ 地図画像統合データベース生成システム及び地図画像統合データベース生成プログラム
FR2953940B1 (fr) * 2009-12-16 2012-02-03 Thales Sa Procede de geo-referencement d'une zone imagee
US20130016186A1 (en) * 2011-07-13 2013-01-17 Qualcomm Incorporated Method and apparatus for calibrating an imaging device
US20130106990A1 (en) 2011-11-01 2013-05-02 Microsoft Corporation Planar panorama imagery generation
JP5768684B2 (ja) * 2011-11-29 2015-08-26 富士通株式会社 ステレオ画像生成装置、ステレオ画像生成方法及びステレオ画像生成用コンピュータプログラム
US9406153B2 (en) 2011-12-14 2016-08-02 Microsoft Technology Licensing, Llc Point of interest (POI) data positioning in image
US9324184B2 (en) 2011-12-14 2016-04-26 Microsoft Technology Licensing, Llc Image three-dimensional (3D) modeling
US10008021B2 (en) 2011-12-14 2018-06-26 Microsoft Technology Licensing, Llc Parallax compensation
JP5728399B2 (ja) * 2012-01-19 2015-06-03 株式会社東芝 計測装置、方法及びプログラム
CN102607535B (zh) * 2012-02-07 2014-01-22 湖州师范学院 一种利用视差空间集束调整的高精度实时立体视觉定位方法
JP5832341B2 (ja) 2012-03-09 2015-12-16 株式会社トプコン 動画処理装置、動画処理方法および動画処理用のプログラム
US8903163B2 (en) 2012-08-09 2014-12-02 Trimble Navigation Limited Using gravity measurements within a photogrammetric adjustment
US9590728B2 (en) * 2012-09-29 2017-03-07 Intel Corporation Integrated photogrammetric light communications positioning and inertial navigation system positioning
CN105190226B (zh) * 2013-03-12 2017-09-19 富士胶片株式会社 图像判定装置、摄像装置、三维计量装置以及图像判定方法
US9747680B2 (en) 2013-11-27 2017-08-29 Industrial Technology Research Institute Inspection apparatus, method, and computer program product for machine vision inspection
EP2960859B1 (en) * 2014-06-19 2019-05-01 Tata Consultancy Services Limited Constructing a 3d structure
CN104243833B (zh) * 2014-09-30 2017-12-08 精宸智云(武汉)科技有限公司 一种相机姿态的调整方法及装置
JP6510247B2 (ja) * 2015-01-27 2019-05-08 株式会社トプコン 測量データ処理装置、測量データ処理方法およびプログラム
WO2017057054A1 (ja) 2015-09-30 2017-04-06 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
JP6493885B2 (ja) * 2016-03-15 2019-04-03 富士フイルム株式会社 画像位置合せ装置、画像位置合せ装置の作動方法および画像位置合せプログラム
CN105627995B (zh) * 2016-03-31 2018-03-23 京东方科技集团股份有限公司 摄像装置、转动装置、测距装置、测距***和测距方法
JP6702543B2 (ja) * 2016-05-31 2020-06-03 株式会社東芝 情報処理装置、方法およびプログラム
US10012517B2 (en) * 2016-08-01 2018-07-03 Infinity Augmented Reality Israel Ltd. Method and system for calibrating components of an inertial measurement unit (IMU) using scene-captured data
CN106840137B (zh) * 2016-12-28 2022-12-27 中国煤炭科工集团太原研究院有限公司 一种四点式掘进机自动定位定向方法
CN109029383B (zh) * 2018-05-03 2020-07-28 山东省科学院海洋仪器仪表研究所 一种基于空间分析的海洋浮标站位布局合理性评价方法
JP7156896B2 (ja) 2018-10-09 2022-10-19 株式会社日立ビルシステム 昇降路内計測システム
CN111383282B (zh) * 2018-12-29 2023-12-01 杭州海康威视数字技术股份有限公司 位姿信息确定方法及装置
CN111724472A (zh) * 2019-03-19 2020-09-29 北京四维图新科技股份有限公司 地图要素空间位置的确定方法和装置
TWI720869B (zh) * 2020-04-15 2021-03-01 致伸科技股份有限公司 相機模組之對位方法
CN111637837B (zh) * 2020-06-03 2022-04-08 龙永南 一种单目摄像头测量物体尺寸及距离的方法和***
CN113932793B (zh) * 2021-09-24 2024-03-22 江门职业技术学院 三维坐标定位方法、装置、电子设备和存储介质
CN114910933B (zh) * 2022-03-10 2024-03-19 苏州天硕导航科技有限责任公司 带视觉测量功能的rtk接收机***、板卡及测量方法
CN116433756B (zh) * 2023-06-15 2023-08-18 浪潮智慧科技有限公司 一种单目相机的地表物体空间分析方法、设备及介质

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005338107A (ja) * 2005-08-29 2005-12-08 Yuzo Onishi 変位計測方法及び変位計測装置
JP2006250917A (ja) 2005-02-14 2006-09-21 Kazuo Iwane 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
JP2007147457A (ja) 2005-11-28 2007-06-14 Topcon Corp 三次元形状演算装置及び三次元形状演算方法
JP2007147522A (ja) * 2005-11-29 2007-06-14 Gazo Keisoku Kenkyusho:Kk 写真計測方法及び写真計測プログラム
JP2007171048A (ja) 2005-12-22 2007-07-05 Topcon Corp 位置データ補間方法及び位置検出センサ及び位置測定装置
JP2007183256A (ja) 2005-12-08 2007-07-19 Topcon Corp 画像処理装置及びその方法
JP2007322170A (ja) * 2006-05-30 2007-12-13 Pasuko:Kk 空中写真測量方法
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1890263A2 (en) * 2000-03-07 2008-02-20 Sarnoff Corporation Method of pose estimation adn model refinement for video representation of a three dimensional scene
US7746377B2 (en) * 2003-11-28 2010-06-29 Topcon Corporation Three-dimensional image display apparatus and method
JP5362189B2 (ja) * 2006-05-10 2013-12-11 株式会社トプコン 画像処理装置及びその処理方法
JP4976756B2 (ja) * 2006-06-23 2012-07-18 キヤノン株式会社 情報処理方法および装置
US20080306708A1 (en) * 2007-06-05 2008-12-11 Raydon Corporation System and method for orientation and location calibration for image sensors

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006250917A (ja) 2005-02-14 2006-09-21 Kazuo Iwane 高精度cv演算装置と、この高精度cv演算装置を備えたcv方式三次元地図生成装置及びcv方式航法装置
JP2005338107A (ja) * 2005-08-29 2005-12-08 Yuzo Onishi 変位計測方法及び変位計測装置
JP2007147457A (ja) 2005-11-28 2007-06-14 Topcon Corp 三次元形状演算装置及び三次元形状演算方法
JP2007147522A (ja) * 2005-11-29 2007-06-14 Gazo Keisoku Kenkyusho:Kk 写真計測方法及び写真計測プログラム
JP2007183256A (ja) 2005-12-08 2007-07-19 Topcon Corp 画像処理装置及びその方法
JP2007171048A (ja) 2005-12-22 2007-07-05 Topcon Corp 位置データ補間方法及び位置検出センサ及び位置測定装置
JP2007322170A (ja) * 2006-05-30 2007-12-13 Pasuko:Kk 空中写真測量方法
JP2008089314A (ja) * 2006-09-29 2008-04-17 Topcon Corp 位置測定装置及びその方法

Non-Patent Citations (2)

* Cited by examiner, † Cited by third party
Title
HIROTSUGU YOKOJI, JOURNAL OF INFORMATION PROCESSING SOCIETY OF JAPAN, vol. 0, no. 13, pages 1 - 11
SHUNJI MURAI, ANALYTICAL PHOTOGRAMMETRY, pages 46 - 51,149-155

Cited By (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20240085211A1 (en) * 2017-01-19 2024-03-14 Mindmaze Group Sa System, methods, device and apparatuses for preforming simultaneous localization and mapping
WO2018139297A1 (ja) * 2017-01-27 2018-08-02 日立オートモティブシステムズ株式会社 カメラ装置
JP2018119910A (ja) * 2017-01-27 2018-08-02 日立オートモティブシステムズ株式会社 カメラ装置
CN113746963A (zh) * 2021-08-30 2021-12-03 苏州灵猴机器人有限公司 一种零部件安装方法、装置、设备及存储介质
CN113746963B (zh) * 2021-08-30 2023-11-21 苏州灵猴机器人有限公司 一种零部件安装方法、装置、设备及存储介质
CN114565680A (zh) * 2022-02-22 2022-05-31 山西支点科技有限公司 一种基于空间位置评价和贪心策略的多视图靶点标定方法
CN114565680B (zh) * 2022-02-22 2024-05-14 山西支点科技有限公司 一种基于空间位置评价和贪心策略的多视图靶点标定方法
CN114925333A (zh) * 2022-06-13 2022-08-19 千寻位置网络有限公司 坐标转换的方法及其***
CN114925333B (zh) * 2022-06-13 2024-05-31 千寻位置网络有限公司 坐标转换的方法及其***

Also Published As

Publication number Publication date
EP2309225A1 (en) 2011-04-13
EP2309225A4 (en) 2014-10-15
US8811718B2 (en) 2014-08-19
US20110096957A1 (en) 2011-04-28

Similar Documents

Publication Publication Date Title
WO2010001940A1 (ja) 位置測定方法、位置測定装置、およびプログラム
JP5027747B2 (ja) 位置測定方法、位置測定装置、およびプログラム
JP5027746B2 (ja) 位置測定方法、位置測定装置、およびプログラム
JP5832341B2 (ja) 動画処理装置、動画処理方法および動画処理用のプログラム
JP5992184B2 (ja) 画像データ処理装置、画像データ処理方法および画像データ処理用のプログラム
CN108171733B (zh) 使两个或更多个三维3d点云配准的方法
JP4889351B2 (ja) 画像処理装置及びその処理方法
US7747151B2 (en) Image processing device and method
US9967463B2 (en) Method for camera motion estimation and correction
US8059887B2 (en) System and method for providing mobile range sensing
JP3732335B2 (ja) 画像入力装置及び画像入力方法
CN113551665B (zh) 一种用于运动载体的高动态运动状态感知***及感知方法
CN103020952A (zh) 信息处理设备和信息处理方法
JP2009150848A (ja) 画像処理装置
JP6291519B2 (ja) 三次元点群データに実寸法を付与する方法とそれを用いた管路等の位置測定
JP3842988B2 (ja) 両眼立体視によって物体の3次元情報を計測する画像処理装置およびその方法又は計測のプログラムを記録した記録媒体
AU2022231762A1 (en) A bundle adjustment system
JP5267100B2 (ja) 運動推定装置及びプログラム
WO2022118513A1 (ja) 位置姿勢算出装置、位置姿勢算出方法及び測量装置
Castanheiro et al. Modeling hyperhemispherical points and calibrating a dual-fish-eye system for close-range applications
JP2023125506A (ja) 計測装置、移動装置、計測方法、及びコンピュータプログラム
JP3655065B2 (ja) 位置・姿勢検出装置と位置・姿勢検出方法と3次元形状復元装置及び3次元形状復元方法
JP5409451B2 (ja) 3次元変化検出装置
JP2004020398A (ja) 空間情報獲得方法、空間情報獲得装置、空間情報獲得プログラム、及びそれを記録した記録媒体
Arık et al. Mobile Device Camera Calibration Using Building Images and Onboard Accelerometer

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 09773518

Country of ref document: EP

Kind code of ref document: A1

NENP Non-entry into the national phase

Ref country code: DE

REEP Request for entry into the european phase

Ref document number: 2009773518

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2009773518

Country of ref document: EP