WO2018029950A1 - 較正装置、較正方法、光学装置、撮影装置、および投影装置 - Google Patents

較正装置、較正方法、光学装置、撮影装置、および投影装置 Download PDF

Info

Publication number
WO2018029950A1
WO2018029950A1 PCT/JP2017/020493 JP2017020493W WO2018029950A1 WO 2018029950 A1 WO2018029950 A1 WO 2018029950A1 JP 2017020493 W JP2017020493 W JP 2017020493W WO 2018029950 A1 WO2018029950 A1 WO 2018029950A1
Authority
WO
WIPO (PCT)
Prior art keywords
calibration
camera
coordinates
dimensional
camera model
Prior art date
Application number
PCT/JP2017/020493
Other languages
English (en)
French (fr)
Inventor
聡明 松沢
Original Assignee
オリンパス株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by オリンパス株式会社 filed Critical オリンパス株式会社
Priority to JP2018533434A priority Critical patent/JP6664000B2/ja
Publication of WO2018029950A1 publication Critical patent/WO2018029950A1/ja
Priority to US16/266,286 priority patent/US10977830B2/en

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/80Analysis of captured images to determine intrinsic or extrinsic camera parameters, i.e. camera calibration
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • H04N17/002Diagnosis, testing or measuring for television systems or their details for television cameras
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/80Geometric correction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/60Analysis of geometric attributes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/60Noise processing, e.g. detecting, correcting, reducing or removing noise
    • H04N25/61Noise processing, e.g. detecting, correcting, reducing or removing noise the noise originating only from the lens unit, e.g. flare, shading, vignetting or "cos4"

Definitions

  • the present invention relates to a calibration device, a calibration method, an optical device, an imaging device, and a projection device.
  • the camera model includes a plurality of unknown parameters (camera parameters), and the calibration device determines the camera parameters to mathematically calculate the real-world back projection straight line corresponding to the two-dimensional coordinates of the image. Can be obtained. Alternatively, two-dimensional coordinates of the image corresponding to three-dimensional coordinates of the real world can be obtained.
  • Camera calibration is performed according to the following procedure using a mathematical camera model that represents a process in which three-dimensional coordinates of the real world are captured by the camera and converted to two-dimensional coordinates of an image.
  • three-dimensional coordinates of the real world hereinafter referred to as world coordinates
  • x, y, z three-dimensional coordinates of the real world
  • normalized image plane coordinates up, vp
  • the rotation matrix R and the translation vector T of Expression 2 represent three-dimensional coordinate conversion from world coordinates to camera coordinates. These are values representing the position and orientation of the camera with respect to the world coordinates, and are called external parameters.
  • Equation 1 is an equation based on the assumption that all back projection straight lines intersect at the optical center of the camera.
  • (ud, vd) is obtained by adding distortion to the normalized image plane coordinates (up, vp) using Expression 3 below.
  • (g1, g2, g3, g4, k1) are distortion parameters. Furthermore, the normalized image plane coordinates (ud, vd) to which distortion is added are converted into pixel coordinates (u, v) in units of pixels using Equation 4 below.
  • Equation 1 it is a standard camera model that the transformation from world coordinates (x, y, z) to pixel coordinates (u, v) by imaging by a camera is represented by Equations 1 to 4.
  • the parameters ( ⁇ u, ⁇ v, u0, v0, g1, g2, g3, and k1) of Equations 3 and 4 are called internal parameters because they represent the properties of the camera itself.
  • Equation 3 is a model in which distortion up to the third order is taken into consideration
  • a model to which higher order terms of fifth order, seventh order, etc. are added is also used.
  • a representative distortion model is the Brown model of Non-Patent Document 2 shown in the following Equation 5.
  • Patent Document 2 discloses a camera model in which a back projection straight line on the object side corresponding to pixel coordinates is directly modeled. The model is characterized in that each coefficient of the distortion model is replaced by a linear expression of the object distance z. Patent Document 2 presents a camera model of the following equation 6 as an example.
  • a camera captures an image of a calibration chart provided with a plurality of feature points whose world coordinates (x, y, z) are known. Thereafter, the pixel coordinates (u, v) at which the feature point is captured by image processing are acquired. In this manner, camera parameters are obtained by obtaining a plurality of measurement data representing correspondences between world coordinates (x, y, z) and pixel coordinates (u, v).
  • Patent Document 1 and Non-Patent Document 1 use a camera model based on the assumption that all back projection straight lines intersect at the optical center of the camera.
  • the optical system generally has pupil aberration, all back projection straight lines do not intersect at one point on the entrance pupil.
  • pupil aberration is remarkable. Therefore, with this camera model, accurate pixel coordinates corresponding to world coordinates can not be obtained.
  • a conventional standard camera model including the camera model of Patent Document 1 is a non-linear model consisting of a plurality of mathematical expressions shown in Equations 1 to 4, and in the process of obtaining camera parameters from measurement data, It is necessary to optimize all camera parameters repeatedly. Therefore, the following two problems occur.
  • the camera model of Patent Document 2 solves the above problem.
  • the camera model models the back projection straight line on the object side corresponding to the pixel coordinates, and the inverse function, that is, the analytical formula for directly calculating the pixel coordinates corresponding to the world coordinates is Not presented. Therefore, in order to obtain pixel coordinates from world coordinates, it is necessary to perform iterative optimization, and it takes time for calculation.
  • the present invention has been made in view of the above-described circumstances, and it is possible to accurately obtain camera parameters in a short time, and to obtain a pixel coordinate corresponding to world coordinates in a short time.
  • An apparatus, an imaging apparatus, and a projection apparatus are provided.
  • One aspect of the present invention is a calibration of an optical device comprising a two-dimensional image conversion element having a plurality of pixels and an optical system forming an imaging relationship between the image conversion element and a three-dimensional world coordinate space.
  • a calibration data acquisition unit that acquires calibration data indicating correspondences between two-dimensional pixel coordinates of the image conversion element and three-dimensional world coordinates of the world coordinate space; and the calibration data acquisition unit Parameters for calculating parameters of the camera model by fitting a camera model in which two coordinate values of the two-dimensional pixel coordinates are expressed as a function of three coordinate values of the three-dimensional world coordinates to the calibrated data And a calculating unit.
  • the camera model in the parameter calculation unit is the calibration data indicating the correspondence between the two-dimensional pixel coordinates of the image conversion element and the three-dimensional world coordinates of the world coordinate space acquired by the calibration data acquisition unit.
  • parameters of the camera model are calculated.
  • a camera model is used in which two coordinate values of two-dimensional pixel coordinates are expressed as a function of three coordinate values of three-dimensional world coordinates.
  • a linear model indicating an imaging relationship between world coordinates including distortion and pixel coordinates is used to obtain camera model parameters accurately in a short time without performing excessive repetitive optimization, and corresponds to world coordinates.
  • Pixel coordinates can also be determined in a short time.
  • two coordinate values of the two-dimensional pixel coordinates may be represented by a linear sum of a plurality of two-dimensional vector functions having a function of the three coordinate values of the three-dimensional world coordinates as an element.
  • the camera model includes two pixel coordinate values of a point on the pixel coordinate plane, and two world coordinate values of a point on a plane optically conjugate with the pixel coordinate plane by the optical system.
  • the respective coefficients of the linear imaging model representing the imaging relationship of may be expressed by an equation in which the coefficients are replaced with power polynomials that are reciprocals of one other world coordinate.
  • the parameter calculation unit may apply the camera model to the calibration data by a linear least squares method.
  • the parameter calculation unit may set the three-dimensional world coordinates to one or more rotation angles of three rotation angles representing the rotation of the world coordinates.
  • the camera model may be fitted to calibration data converted to the world coordinates rotated at to obtain one or more rotation angles at which the residual of the camera model is minimized.
  • the parameter calculation unit may set the three-dimensional world coordinates to one or more of three translation components representing translation of the world coordinates.
  • the camera model may be fitted to calibration data converted into component parallel translated world coordinates to obtain one or more translation components that minimize the residual of the camera model.
  • the optical device includes a plurality of the image conversion elements and an optical system forming an imaging relationship between the image conversion elements and the three-dimensional world coordinate space, and the calibration data acquisition unit
  • the calibration data of each of the image conversion elements and the optical system is acquired, and the parameter calculation unit determines the calibration data of each of the image conversion elements and the optical system as a function of the two-dimensional pixel coordinates of each of the image conversion elements.
  • the optical device may be an imaging device, the image conversion element may be an imaging element, and the optical system may be an imaging optical system.
  • the optical device may be a projection device, the image conversion element may be an image forming element, and the optical system may be a projection optical system.
  • Another aspect of the present invention is an optical apparatus comprising: a two-dimensional image conversion element having a plurality of pixels; and an optical system for converting an imaging relationship between the image conversion element and a three-dimensional world coordinate space.
  • the camera model generates two coordinate values of the two-dimensional pixel coordinates by a linear sum of a plurality of two-dimensional vector functions whose elements are functions of three coordinate values of the three-dimensional world coordinates. It may be represented.
  • the camera model includes two pixel coordinate values of a point on the pixel coordinate plane, and two world coordinate values of a point on a plane optically conjugate with the pixel coordinate plane by the optical system.
  • the respective coefficients of the linear imaging model representing the imaging relationship of may be expressed by an equation in which the coefficients are replaced with power polynomials that are reciprocals of one other world coordinate.
  • the step of calculating the parameters may be fitted to the calibration data by linear least squares method for the camera model.
  • the three-dimensional world coordinate is one or more of three rotation angles representing the rotation of the world coordinate.
  • the camera model may be fitted to calibration data converted into world coordinates rotated by a rotation angle to obtain one or more rotation angles at which the residual of the camera model is minimized.
  • the three-dimensional world coordinate is one of three translation components representing the translation of the world coordinate.
  • the camera model may be fitted to calibration data converted to world coordinates translated by the above components to obtain one or more translation components that minimize the residual of the camera model.
  • Another aspect of the present invention is an optical device equipped with a camera model in which parameters calculated by the above-described calibration device are set.
  • the camera model may further include a pixel coordinate calculation unit that obtains two coordinate values of the pixel coordinates from three coordinate values of the three-dimensional world coordinates. By doing this, it is possible to easily obtain two coordinate values of pixel coordinates from the acquired three-dimensional world coordinates by the pixel coordinate calculation unit.
  • the camera model may be provided with a distortion-corrected image generation unit that obtains pixel coordinates of an image acquired or formed by the image conversion element corresponding to the world coordinates and generates an image in which distortion is corrected. Good.
  • Another aspect of the present invention is an optical device equipped with a camera model in which the rotational angle or translation component acquired by the above-described calibration device is set as a parameter.
  • a world coordinate rotation unit or a world coordinate translation unit may be provided that converts the world coordinates into the world coordinates after rotation or translation depending on the rotation angle or translation component.
  • Another aspect of the present invention is an imaging device comprising the above optical device.
  • Another aspect of the present invention is a projection device comprising the above optical device.
  • camera parameters can be accurately determined in a short time, and pixel coordinates corresponding to world coordinates can be determined in a short time.
  • the calibration apparatus is the camera calibration apparatus 1 and is a camera (shooting apparatus) 2 that externally transfers a captured image as an image file of a predetermined format.
  • the camera 2 is used as an example of the optical device.
  • the camera calibration device 1 includes a base 3 for fixing a camera 2 to be calibrated, a z-axis movement stage 4 provided on the base 3, and the z-axis movement.
  • the calibration chart 6 fixed to the movable part 5 moved by the stage 4 and the computer 7 connected to the camera 2 and the z-axis movement stage 4 are provided.
  • the three-dimensional coordinate axes of the camera calibration device 1 are defined as shown in FIG.
  • a calibration data acquisition unit 8 is configured by the base 3 for fixing the camera 2, the calibration chart 6 and the z-axis movement stage 4.
  • the z-axis moving stage 4 is a linear drive mechanism which is driven by the motor 4 a and linearly moves the movable portion 5.
  • the moving direction of the movable portion 5 is defined as the z axis
  • the horizontal and vertical directions in the plane perpendicular to the z axis are defined as the x axis and the y axis.
  • the position of the coordinate origin is defined near the entrance pupil of the camera lens 9.
  • the camera 2 is set so that its optical axis is parallel to the z-axis, and that the horizontal and vertical directions of the imaging plane are parallel to the x-axis and y-axis, and the coordinate origin of the camera 2 is predetermined. It is designed to be attached to the base 3 so as to coincide with the position.
  • the calibration chart 6 is the chessboard 10 of FIG. 2 widely used in camera calibration, and is disposed to face the camera 2 fixed to the base 3, that is, to be disposed in a plane perpendicular to the z axis Is fixed to the movable portion 5.
  • the calibration chart 6 may be any chart as long as it has a plurality of feature points.
  • the calibration chart 6 can be moved to any position in the z-axis direction by the z-axis moving stage 4.
  • the computer 7 functions to control the imaging of the camera 2 and read the imaged image as an image file of a predetermined format.
  • the computer 7 also functions to control the z-axis moving stage 4 to move the calibration chart 6 to a predetermined position in the z-axis direction.
  • the computer 7 also functions as a parameter calculation unit that calculates a camera parameter by applying a camera model to the acquired configuration data.
  • the chessboard 10 used as the calibration chart 6 will be described.
  • the chessboard 10 is a flat member having a checkered pattern in which black and white squares are arranged in a square grid on a plane, and the intersection points corresponding to the vertices of each square are used as feature points of camera calibration. (Hereafter, these feature points are called grid points 11).
  • the chess board 10 As the chess board 10, a board whose number of lattice points 11 sufficient for camera calibration falls within the imaging range of the camera 2 is used. Although the range of the chessboard 10 to be imaged changes depending on the object distance, it is preferable that at least about 10 ⁇ 10 grid points 11 be imaged at each object distance. In addition, one reference position mark 12 is provided near the center of the calibration chart 6 in order to correspond the pixel coordinates of the imaged grid point 11 to the world coordinates of the grid point 11 on the calibration chart 6.
  • the chessboard 10 is positioned so that the nearest lower rightmost lattice point (the center lattice point 13) of the reference position mark 12 is located on the z-axis and the vertical and horizontal directions of the chessboard 10 are parallel to the x-axis and y-axis simultaneously.
  • the world coordinates (x, y, z) of each of the grid points 11 and 13 are determined as known values from the lattice spacing of the square lattice of the chessboard 10 and the movement position of the z-axis movement stage 4.
  • a camera calibration method using the camera calibration device 1 according to the present embodiment configured as described above will be described below.
  • the operator first attaches the camera 2 to be calibrated to the camera calibration device 1 according to the definition of the coordinate axes, and connects it to the computer 7. Thereafter, the measurement program in the computer 7 is started.
  • step S1 When the measurement is started, first, the z-axis moving stage 4 is moved so that the calibration chart 6 is positioned at the end close to the camera 2 of the object distance range for which the camera 2 is to be calibrated (step S1). Next, the calibration chart 6 is imaged by the camera 2 and the image file is transferred to the computer 7 (step S2). Then, these steps S1 and S2 are repeated until imaging is performed a predetermined number of times (step S3). For example, five or more times are set as the predetermined number of times.
  • step S1 the movable unit 5 is moved by the z-axis moving stage 4 so that the object distance from the camera 2 to the calibration chart 6 becomes larger at a predetermined interval every one repetition.
  • the moving amounts of the movable portion 5 may not be equal intervals, but it is preferable to image the calibration chart 6 at different object distances of at least about five places within the object distance range in which the camera 2 is calibrated. Then, when the predetermined number of captured images is reached, the process proceeds to the next step S4.
  • step S4 By performing image processing on a plurality of image files transferred to the computer 7 in steps S1 to S3, the pixel coordinates of each grid point 11 within the imaging range are determined, and the barycenter of the reference position mark 12 of each image file Pixel coordinates are obtained (step S4).
  • requiring the pixel coordinate of the lattice point 11 of the chess board 10 by a sub pixel is well-known by the following documents etc., description here is abbreviate
  • the pixel coordinates of each lattice point 11 determined in step S4 are associated with the world coordinates of the lattice point 11 on the calibration chart 6 (step S5).
  • the pixel coordinates of the lattice points 11 and 13 are associated with the world coordinates based on that. be able to.
  • all associated pixel coordinates and world coordinates are written out to the measurement data file, and the measurement ends.
  • the measurement data necessary for optimization of the camera parameters can be obtained by the above procedure.
  • FIG. 4A is a cross-sectional view of the camera 2 for explaining the relationship between the pixel coordinates of the camera 2 and the back projection straight line on the object side.
  • the camera 2 includes an imaging optical system 14 having lenses 15 and 16 and an aperture stop 17, and an imaging element (image conversion element) 18.
  • the world coordinates (x, y, z) on the object side are defined as in FIG. Further, u-axis and v-axis of pixel coordinates are defined in parallel with the horizontal direction and the vertical direction of the imaging device 18 on the imaging surface of the imaging device 18. In FIG. 4A, a chief ray 19 incident on the center of each pixel of the imaging device 18 through the imaging optical system 14 is depicted.
  • the chief ray 19 is a ray passing through the center of the aperture stop 17 of the imaging optical system 14.
  • the concept of the chief ray 19 will be described with an image point 20 formed at the center of one pixel and its chief ray 19 as an example.
  • An object point 22 at the intersection of the plane 21 and the chief ray 19 is imaged at the image point 20 by the imaging optical system 14. That is, all rays passing through the object point 22 enter one point of the image point 20, ignoring the aberration.
  • the blurred image spreads around the incident position of the chief ray 19 passing the center of the aperture stop 17. Therefore, if the center of light intensity of the blurred image point is taken as the image position , The position of the image point 20 does not change.
  • all object points 22, 24 on the object-side chief ray 19 are imaged at one image point 20.
  • the chief ray 19 on the object side is a back projection straight line of the image point 20.
  • a virtual aperture formed by focusing the aperture stop 17 with the lens 15 on the object side is an entrance pupil 25.
  • the chief ray group on the object side passes near the center of the entrance pupil 25, but unlike the case of the aperture stop 17, it does not intersect at one point in the center of the entrance pupil 25. This is because the aberration of the lens 15 intervenes in the imaging relationship between the aperture stop 17 and the entrance pupil 25. This is pupil aberration.
  • the change of the distortion of the imaging optical system 14 depending on the object distance due to the pupil aberration will be described.
  • imaging in the reverse direction from the image side to the object side involves pincushion distortion. That is, the pixel array 26 of the square lattice of the imaging device 18 as shown in FIG. 4C is imaged as a pincushion-shaped distorted image 27 as shown in FIG. 4B on the conjugate plane 21 on the object side.
  • the camera model of the present invention created to fit such a situation will be described.
  • the imaging relationship from the world coordinates (x, y, z) of the object point 22 on the plane 21 conjugate to the imaging device 18 to the pixel coordinates (u, v) of the image point 20 on the imaging device 18 is distorted It is expressed by an imaging equation including an aberration.
  • the following imaging equation of Formula 7 is used based on the model of Brown of Formula 5.
  • Brown's model is a model representing the relationship between the imaging positions on two conjugate planes, it should be applied to the imaging relationship from the object point (x, y, z) to the image point (u, v) Can.
  • the positions of the image points respectively corresponding to the object point 22 on the chief ray 19 and the object point 22 'on the virtual chief ray 19' do not match.
  • the deviation is approximately in inverse proportion to the object distance z in pixel coordinates. Because the distance between the chief ray 19 and the virtual chief ray 19 '(the distance between the object points 22 and 22' on the plane 21 and the distance between the object points 24 and 24 'on the plane 23 of another object distance) is It is constant regardless of the distance.
  • the effective imaging range on the object side approximately spreads in proportion to the object distance z.
  • the constant terms k00, k10, p10 and p20 of the power polynomial of the inverse number of the object distance z are the same as the object point on the chief ray 19 and the object point on the virtual chief ray 19 'in the limit of object distance z. Represents imaging at an image point. Further, coefficients k01, k11, p11 and p21 which are reciprocals of the object distance z indicate that the divergence between the two image points is inversely proportional to the object distance z. Furthermore, in order to improve the accuracy of approximation, it is also possible to use a term that is a square or more of the reciprocal of the object distance z. Further, when the pupil aberration can be ignored, a camera model of Formula 8 in which only constant terms k00, k10, p10 and p20 are left can be used.
  • the camera model used in the camera calibration device 1 of the present embodiment shown in Equation 8 is obtained by directly modeling pixel coordinates corresponding to world coordinates. It is constructed on the basis of a linear model of Formula 7 representing an imaging relationship between world coordinates including distortion and pixel coordinates. Then, in order to be able to express the influence of the pupil aberration, there is a feature that each coefficient of the linear model of the equation 7 representing the imaging relationship is replaced with a power polynomial of inverse number of the object distance z.
  • another feature of the camera model used in the camera calibration device 1 of the present embodiment is the linear coordinate sum of linear independent two-dimensional basis function vectors consisting of variables (x, y, z) and the pixel coordinate vector (u , V). Since the linear sum of basis function vectors, the coefficients of the models representing u and v coordinates are common. Therefore, the coefficients of each basis function vector can be determined from all measurement data by the linear least squares method. It is described below.
  • the camera model in which the camera parameters obtained in the present embodiment are set can be used as follows by the photographing apparatus including the camera 2 equipped with the camera model.
  • the imaging apparatus includes a pixel coordinate calculation unit (not shown) that calculates two-dimensional pixel coordinate values from three-dimensional world coordinates, and a distortion correction image generation unit (not shown) that generates an image whose distortion is corrected. It is equipped further.
  • distortion of the image captured by the calibrated camera 2 can be corrected by the distortion correction image generation unit.
  • the method will be described.
  • An object represented by world coordinates is captured by the camera 2 and becomes a distorted image.
  • the obtained image is backprojected to world coordinates, distortion can be corrected.
  • the pixel coordinates (u, v) may be backprojected to the world coordinates (x, y) on the plane of the object distance z.
  • a reference object distance for distortion correction is defined, and back projection is performed on world coordinates (x, y) of the object distance z.
  • Such distortion correction is sufficient if the change in distortion due to the object distance is small.
  • back projection to world coordinates may enlarge or reduce the image. Therefore, the back-projected world coordinates are normalized by the reciprocal of the lateral magnification k0 'of the camera model of Eq. 8, that is, the lateral magnification from pixel coordinates to the world coordinates. As a result, it is possible to obtain a distortion-corrected image of approximately the same size as the original image.
  • the creation of a distortion correction image is a series of procedures in which the pixel value of the original image corresponding to the pixel coordinates (integer) of the image after distortion correction is substituted for the pixel coordinates after distortion correction. The procedure will be described with reference to the flowchart of FIG.
  • pixel coordinates (uc, vc) after the first distortion correction are determined (step S11).
  • world coordinates (x, y) are determined by multiplying the determined pixel coordinates (uc, vc) by the reciprocal of the lateral magnification k0 'of the camera model of Formula 8 at the reference object distance z (step S12). Then, the obtained world coordinates (x, y, z) are substituted into the camera model of Formula 8, and pixel coordinates (u, v) before distortion correction are obtained (step S13).
  • a pixel value of pixel coordinates (u, v) is determined by bilinear interpolation from the pixel values of four pixels close to the pixel coordinates. Then, it is set as the pixel value of pixel coordinates (uc, vc) after distortion correction (step S14). Note that other methods such as bicubic interpolation may be adopted for interpolation of pixel values.
  • steps S11 to S14 are repeated for all pixel coordinates (uc, vc) after distortion correction (step S15), and distortion correction is completed.
  • the pixel coordinates corresponding to the world coordinates are calculated each time by the camera model of Equation 8.
  • calculation can be speeded up by pre-calculating them and storing them as a data array.
  • camera calibration is performed using measurement data of grid points 11 and 13 arranged in a square grid on a plane chess board 10.
  • the feature points on the calibration chart 6 may be patterns other than the grid points 11 and 13.
  • a method of creating measurement data may be used in which dot marks distributed on a plane are imaged and their barycentric positions are used as pixel coordinates.
  • the feature points used in the camera calibration of the present invention do not have to be regularly arranged in the world coordinate space. Even if the arrangement of feature points is random, if the correspondence between the world coordinates and the pixel coordinates can be known by measurement or simulation, the camera model of the present invention can be fitted to them by the linear least squares method.
  • the condition required for the measurement data of the camera calibration of the present embodiment is only that the correspondence between the world coordinates and the pixel coordinates is clear.
  • Such measurement data can be acquired, for example, by the following method. First, a point light source movable in the x, y, z axis directions is prepared on the world coordinate side. Then, the point light source is moved in the x, y, and z axis directions so that the image of the point light source is positioned at the pixel coordinates of interest of the image captured by the camera 2. The correspondence between world coordinates and pixel coordinates can also be determined by repeating such measurement.
  • a camera model in which only third-order radial distortion and second-order tangent distortion are considered is adopted.
  • a camera model in which higher-order distortion and rotationally asymmetric distortion terms are added.
  • a linear model such as an imaging equation of Formula 7 representing an imaging relationship between the imaging surface of the imaging device 18 and the plane 21 conjugate to the imaging surface is prepared.
  • a new camera model can be constructed by replacing each coefficient of this linear model with a power polynomial of the inverse number of the object distance z as in the camera model of Eq.
  • the optimization method for obtaining each coefficient is the same as that of the present embodiment.
  • the back projection camera model and the camera model of Formula 8 are respectively measured Data can be applied to determine each camera parameter.
  • These two camera models should inherently be in inverse relationship to each other. However, since the measurement data contains a measurement error, the two camera models obtained above may not necessarily be in the correct inverse relationship.
  • one camera model may be determined from the measurement data, and the other camera model may be determined via the determined one model. That is, first, a back projection camera model is applied to the measurement data to determine its camera parameters. Next, the back projection camera model is used to create simulated measurement data that represents the correspondence between world coordinates and pixel coordinates. Then, the camera model is obtained by applying the camera model of Formula 8 to the created pseudo measurement data. Alternatively, several 8 camera models may be fitted to the measurement data first. Since there is no measurement error in the above-mentioned simulated measurement data, the two camera models obtained in this way can maintain an accurate inverse relationship.
  • the camera calibration device 1 and the camera calibration method according to the present embodiment it is possible to accurately model the pupil aberration of the imaging optical system 14 by the camera model of the present embodiment. Furthermore, rotationally asymmetric distortion and pupil aberrations can also be modeled. Thus, pixel coordinates corresponding to world coordinates can be accurately represented, and the accuracy of the camera model can be improved.
  • the camera model used in the camera calibration device 1 and the camera calibration method of the present embodiment is a linear model, it can be fitted to measurement data by the linear least squares method. Therefore, unlike the conventional example using iterative optimization, there is no optimization failure, and the calculation time can be significantly reduced. Furthermore, according to the camera model of the present embodiment, it is possible to directly obtain pixel coordinates corresponding to world coordinates in a short time, without requiring repeated optimization.
  • the feature points used in the camera calibration device 1 and the camera calibration method of the present embodiment do not have to be regularly arranged. Therefore, as long as correspondence between world coordinates and pixel coordinates can be made clear, it becomes possible to select an arbitrary measurement or calculation acquisition method suitable for the camera 2 to be calibrated.
  • the entrance pupil of the camera 2 calibrated as shown in FIG. 1 substantially coincides with the origin of the world coordinates, and the optical axis is parallel to the z-axis of the camera calibration device 1
  • the method of camera calibration has been described when the horizontal and vertical directions are parallel to the x and y axes.
  • a method of camera calibration will be described when the condition is not satisfied, that is, when the world coordinates and the camera coordinates do not match.
  • the camera model used in the first embodiment is established by camera coordinates whose origin is the center of the entrance pupil 25 of the imaging optical system 14 of the camera 2 to be calibrated. Therefore, when the world coordinates of the grid point 11 on the calibration chart 6 in the camera calibration device 1 of FIG. 1 are converted into camera coordinates, the above camera model is applied.
  • the transformation from world coordinates (x, y, z) to camera coordinates (xc, yc, zc) is represented by equation 9 by the rotation matrix R of three axes of equation 2 and the translation vector T.
  • the camera model of the first embodiment is fitted. Then, three components (tx, ty, tz) of the rotation angles ⁇ x, ⁇ y, ⁇ z of the three axes of the rotation matrix R and the translation vector T are optimized so that the residual of the camera model is minimized.
  • the residual of the camera model is minimized.
  • optimization parameters such as rotation angles ⁇ x, ⁇ y, ⁇ z and three components (tx, ty, tz) of a translation vector are iteratively optimized.
  • the initial values of the rotation angles ⁇ x, ⁇ y, ⁇ z and the three components (tx, ty, tz) of the parallel movement vector may be zero.
  • the rotation angle and translation vector of the camera 2 can be estimated by some method, it may be set as an initial value.
  • This iterative optimization can be performed by a general algorithm such as the downhill simplex method.
  • the rotation angles ⁇ x, ⁇ y, ⁇ z when the evaluation function converges to the minimum value and three components (tx, ty, tz) of the parallel movement vector are the optimum rotational angle and the parallel movement vector.
  • the camera calibration is finished by obtaining each coefficient of the camera model at the optimal rotation angle and translation vector.
  • the camera model in which the camera parameters determined using the camera calibration method according to the present embodiment are set can be used in the same manner as in the first embodiment with the imaging apparatus including the camera 2 equipped with the camera parameters.
  • the world coordinates are converted to camera coordinates by equation 9, and then are substituted into the camera model of equation 8 to obtain pixel coordinates.
  • three rotation angles ⁇ x, ⁇ y, ⁇ z and three components (tx, ty, tz) of a translation vector are optimized.
  • they may be fixed at known values and removed from the optimization parameters. In that case, it is sufficient to optimize only the remaining unknown one or more components of the rotation angle and the translation vector. In this way, the number of optimization parameters is reduced, so that the calculation time can be shortened.
  • the definition of the three rotation angles of three-dimensional coordinates is arbitrary.
  • the definition of the rotation angle around the x, y and z axes is adopted.
  • the present invention can be applied to other definitions.
  • a highly accurate camera model can be obtained even when the position and orientation of the camera 2 with respect to world coordinates are not properly aligned.
  • the number of parameters for iterative optimization is limited to six or less components of the rotation angle and the parallel movement, so there is no failure in optimization of the camera model.
  • the calculation time can be greatly shortened.
  • the camera calibration device 32 is applied to calibration of multi-viewpoint cameras 33, 34, 35.
  • the calibration of the three multi-view camera will be described as an example, but the present invention can be applied to the calibration of other number of cameras.
  • the three cameras 33, 34 and 35 to be calibrated are fixed to the camera fixing base 36 in the same arrangement as the use conditions of the multiview camera. Be done.
  • the camera mount 36 is attached to the camera calibration device 32 so that each camera 33, 34, 35 can capture the calibration chart 6.
  • the rest of the configuration, such as the calibration chart 6, the z-axis movement stage 4, and the computer 7, is the same as that shown in FIG.
  • the operation of the camera calibration device 32 according to the present embodiment configured as described above will be described below.
  • the operation of the camera calibration device 32 according to the present embodiment is similar to that of the camera calibration device 1 according to the first embodiment.
  • the images of the calibration chart 6 of a plurality of object distances are automatically captured by the cameras 33, 34, 35, and the pixel coordinates of the grid point 11 of the calibration chart 6 It is acquired.
  • steps S2, S4 and S5 in the flowchart of FIG. 3 are executed for each of the three cameras.
  • the respective camera models in which the camera parameters obtained by the camera calibration device 32 according to the present embodiment are set are used in the photographing apparatus including the respective cameras 33, 34 and 35 having the same as in the first and second embodiments. can do.
  • the measurement program of the flowchart of FIG. 3 may be sequentially executed individually for each camera. Furthermore, when measuring the measurement data of each camera 33, 34, 35, the installation position of the z-axis movement stage 4 is changed on the camera calibration device 32 so that the calibration chart 6 faces each camera to be measured. It is also good.
  • Such a camera calibration method is effective when there is a camera that can not capture the calibration chart 6 fixed in one direction because the multi-viewpoint cameras 33, 34, 35 are arranged so as to surround the observation region. is there.
  • the camera calibration can be performed in the same arrangement as the use conditions for the multi-viewpoint cameras 33, 34, 35. Then, pixel coordinates of each camera 33, 34, 35 corresponding to one common world coordinate can be obtained.
  • the calibration apparatus according to the present embodiment is a projector calibration apparatus 37, which internally includes an image forming element (image conversion element: not shown) such as a liquid crystal element and a projection optical system (optical system: not shown). And an apparatus for calibrating a projector (projector) that projects the image to the outside.
  • a projector 38 is used as an example of the optical device.
  • the projector calibration device 37 includes a base 39 for fixing the projector 38 to be calibrated, a z-axis moving stage 4 provided on the base 39, and a calibration chart 6 fixed to the movable portion 5 of the z-axis moving stage 4. , And a camera 2 disposed adjacent to the projector 38 and capturing an image of the calibration chart 6.
  • the camera 2 and the projector 38 are mounted on the projector calibration device 37 so that their optical axes are parallel to the z axis of the projector calibration device 37 and that the predetermined position of the projector 38 coincides with the coordinate origin It is supposed to be
  • the imaging range of the camera 2 includes the image projection range of the projector 38.
  • the other configurations, such as the calibration chart 6, the z-axis movement stage 4, and the computer 7, are the same as those in FIG. However, as the calibration chart 6 used in the present embodiment, the chess board 10 of FIG. 2 and a plain screen can be replaced.
  • the computer 7 also has a function of controlling the projector 38 to cause the projector 38 to project a predetermined image.
  • the camera 2 is calibrated with the chess board 10 of FIG. 2 installed as the calibration chart 6 .
  • a back projection camera model as in the conventional example is obtained.
  • the calibration chart 6 is replaced with a plain screen.
  • the projector 38 projects the pattern of the chessboard 10 of FIG. 2 onto the calibration chart 6 through the projection optical system.
  • the pixel coordinates defined on the image forming element (not shown) inside the projector 38 the pixel coordinates of the lattice points 11 and 13 of the chessboard 10 are known.
  • the image of the calibration chart 6 on which the pattern of the chess board 10 is projected is automatically captured by the camera 2 by the measurement program of the flowchart of FIG.
  • the pixel coordinates of the lattice point 11 of the pattern of the chessboard 10 are obtained from the image.
  • the chess projected onto the calibration chart 6 The world coordinates (x, y) of the grid point 11 of the pattern of the board 10 are obtained.
  • measurement data representing the correspondence between the pixel coordinates (u, v) of the projector 38 and the world coordinates (x, y, z) is obtained.
  • the method of determining the camera parameters of the projector 38 by applying the camera model of Formula 8 to the measured data is the same as that of the first embodiment.
  • the camera model in which the camera parameters of the projector 38 obtained in this manner are set can be used as follows by the projector 38 equipped with the camera model. First, by substituting the world coordinates (x, y) into the camera model of Equation 8, the pixel coordinates (u, v) of the projector 38 corresponding to it can be obtained.
  • an image distortion that cancels out the distortion caused by the projection may be added in advance to the image formed by the image forming element of the projector 38.
  • the procedure for obtaining the pixel coordinates of such a distortion corrected image is the same as the flowchart of the first embodiment shown in FIG.
  • the pattern projected by the projector 38 is not limited to the chessboard 10.
  • a pattern such as a dot mark that can calculate pixel coordinates of a feature point from an image captured by the camera 2 is also applicable.
  • the discrete pixels of the projector 38 may be lighted.
  • the world coordinates (x, y) of the feature points projected by the projector 38 are measured by the camera 2 calibrated in advance.
  • the measurement can also be realized by installing an imaging device instead of the calibration chart 6 and directly imaging the projected pattern.
  • other acquisition methods can be selected.
  • the projector 38 can be calibrated by the camera model.
  • a plurality of camera calibrations may be performed corresponding respectively to setting changes such as focus, zoom, and aperture of the camera 2 or the projector 38. Further, those camera models may be interpolated to obtain a camera model corresponding to an arbitrary setting.
  • camera calibration may be performed under multiple wavelengths of the light source.
  • a camera for capturing an image for each wavelength may use a camera model for each wavelength.
  • the image sensor 18 or the image forming element is used as an example of the image conversion element, but the present invention is not limited thereto. What is necessary is to convert the signal mutually.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Geometry (AREA)
  • Studio Devices (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Processing (AREA)

Abstract

カメラパラメータを短時間に精度よく求めることを目的として、較正装置(1)は、複数の画素を有する2次元の画像変換素子と、画像変換素子と3次元のワールド座標空間との間で結像関係を形成する光学系とを備える光学装置(2)の較正装置(1)であって、画像変換素子の2次元の画素座標と、ワールド座標空間の3次元のワールド座標との対応を示す較正データを取得する較正データ取得部(8)と、較正データ取得部(8)により取得された較正データに、2次元の画素座標の2つの座標値を、3次元のワールド座標の3つの座標値の関数として表したカメラモデルを当てはめて、カメラモデルのパラメータを算出するパラメータ算出部(7)とを備える。

Description

較正装置、較正方法、光学装置、撮影装置、および投影装置
 本発明は、較正装置、較正方法、光学装置、撮影装置、および投影装置に関するものである。
 撮影装置や投影装置のカメラ較正を行う較正装置が知られている(例えば、特許文献1参照。)。カメラモデルには複数の未知のパラメータ(カメラパラメータ)が含まれており、較正装置によってそれらのカメラパラメータを求めておくことにより、画像の2次元座標に対応する実世界の逆投影直線を数学的に得ることができる。あるいは、実世界の3次元座標に対応する画像の2次元座標を得ることができる。
 ここで、特許文献1および非特許文献1に開示されている従来のカメラ較正について説明する。カメラ較正は、実世界の3次元座標がカメラで撮像されて画像の2次元座標に変換される過程を表現した数学的なカメラモデルを用いて以下の手順により行われる。初めに、下記の数1を用いて実世界の3次元座標(以下、ワールド座標という。)(x,y,z)を正規化像面座標(up,vp)に投影する。
Figure JPOXMLDOC01-appb-M000001
Figure JPOXMLDOC01-appb-M000002
 ただし、数2の回転行列Rと平行移動ベクトルTは、ワールド座標からカメラ座標への3次元の座標変換を表している。これらはワールド座標に対するカメラの位置と姿勢を表す値であり、外部パラメータと呼ばれる。
 なお、数1は、全ての逆投影直線がカメラの光学中心で交わるという想定に基づいた式である。次に、下記の数3を用いて、正規化像面座標(up,vp)に歪曲収差を加えた(ud,vd)を求める。
Figure JPOXMLDOC01-appb-M000003
 ただし、(g1,g2,g3,g4,k1)は歪曲パラメータである。さらに、下記の数4を用いて、歪曲収差を加えた正規化像面座標(ud,vd)をピクセル単位の画素座標(u,v)に変換する。
Figure JPOXMLDOC01-appb-M000004
 このように、カメラの撮像によるワールド座標(x,y,z)から画素座標(u,v)への変換を数1から数4で表すのが標準的なカメラモデルである。なお、数3および数4のパラメータ(αu,αv,u0,v0,g1,g2,g3,g4,k1)は、カメラ自体の性質を表すので、内部パラメータと呼ばれる。
 歪曲パラメータは、用途によって様々に定義される。例えば、数3は、3次までの歪曲収差を考慮したモデルであるが、さらに5次、7次…という高次の項を追加したモデルも用いられる。それらの中で代表的な歪曲モデルが下記の数5に示される非特許文献2のブラウンのモデルである。
Figure JPOXMLDOC01-appb-M000005
 ただし、rp2=up2+vp2
 ブラウンのモデルでは、歪曲収差を、回転対称な動径歪曲のパラメータ(k1,k2,k3,…)および回転非対称な接線歪曲のパラメータ(p1,p2,p3,…)で表している。
 一方、特許文献2には、画素座標に対応する物体側の逆投影直線を直接モデル化したカメラモデルが開示されている。そのモデルは、歪曲モデルの各係数を物体距離zの1次式で置き換えた形になっているという特徴がある。特許文献2は、その一例として、下記の数6のカメラモデルを提示している。
Figure JPOXMLDOC01-appb-M000006
 ただし、数5のブラウンのモデルから数6への変更箇所は次のとおりである。(1)画素座標からワールド座標への横倍率を表す係数k0の項を追加した。(2)3次の動径歪曲k1と2次の接線歪曲(p1,p2)のみを考慮した。(3)ワールド座標に対する画素座標の横移動(Δu,Δv)を追加した。
 さらに、特許文献2は、カメラモデル数6の残差が最小になるように、数2の回転行列Rと平行移動ベクトルTを最適化する、というカメラ較正のアルゴリズムを開示している。
 カメラ較正では一般に、ワールド座標(x,y,z)が既知の特徴点を複数備えた較正チャートをカメラで撮像する。その後、画像処理で特徴点が撮像された画素座標(u,v)を取得する。このようにして、ワールド座標(x,y,z)と画素座標(u,v)との対応を表す複数の測定データを得て、カメラパラメータを求めている。
特開2004-213332号公報 国際公開第2016/76400号公報
「ディジタル画像処理[改訂新版]」、CG-ARTS協会、2015、p.308-317 D.C.Brown,"Close-range camera calibration",Photogramm, Eng.37,855-86 6,1971
  従来のカメラモデルで、ワールド座標に対応する画素座標を求めるとき、以下のような課題がある。
 特許文献1および非特許文献1の較正装置では、全ての逆投影直線がカメラの光学中心で交わるという想定に基づいたカメラモデルを用いている。しかしながら、一般には光学系は瞳収差を伴うために、全ての逆投影直線が入射瞳上の1点では交わらない。特に、画角が大きな広角レンズを用いている場合には、瞳収差が顕著である。そのため、このカメラモデルでは、ワールド座標に対応する正確な画素座標を求めることができない。
 また、特許文献1のカメラモデルを初めとする従来の標準的なカメラモデルは数1から数4に示される複数の数式からなる非線形モデルであり、測定データからカメラパラメータを求める過程で、最終的に全てのカメラパラメータを繰り返し最適化する必要がある。そのため、次の2つの問題が生じる。
 第1に、非線形モデルの最適化の評価関数には複数の極小値が存在する可能性があり、適切な初期値を設定しないと誤った最小値に収束するという問題がある。第2に、複数のカメラパラメータの最適化演算を繰り返し行う必要があるため、膨大な計算時間が必要となる場合がある。
 一方、特許文献2のカメラモデルは、上記の課題を解消している。しかし、そのカメラモデルは、画素座標に対応する物体側の逆投影直線をモデル化したものであり、その逆関数、すなわち、ワールド座標に対応する画素座標を直接計算するための解析的な数式は提示されていない。したがって、ワールド座標から画素座標を求めるためには繰り返し最適化が必要であり、そのための計算時間を要する。
 本発明は上述した事情に鑑みてなされたものであって、カメラパラメータを短時間に精度よく求めることができ、かつワールド座標に対応する画素座標を短時間に求められる較正装置、較正方法、光学装置、撮影装置、および投影装置を提供する。
 本発明の一態様は、複数の画素を有する2次元の画像変換素子と、該画像変換素子と3次元のワールド座標空間との間で結像関係を形成する光学系とを備える光学装置の較正装置であって、前記画像変換素子の2次元の画素座標と、前記ワールド座標空間の3次元のワールド座標との対応を示す較正データを取得する較正データ取得部と、該較正データ取得部により取得された較正データに、前記2次元の画素座標の2つの座標値を、前記3次元のワールド座標の3つの座標値の関数として表したカメラモデルを当てはめて、該カメラモデルのパラメータを算出するパラメータ算出部とを備える較正装置である。
 本態様によれば、較正データ取得部により取得された、画像変換素子の2次元の画素座標とワールド座標空間の3次元のワールド座標との対応を示す較正データに、パラメータ算出部においてカメラモデルが当てはめられることにより、カメラモデルのパラメータが算出される。パラメータの算出においては、2次元の画素座標の2つの座標値を、3次元のワールド座標の3つの座標値の関数として表したカメラモデルを用いる。これにより、歪曲収差を含むワールド座標と画素座標との結像関係を示す線形モデルによって、過度な繰り返し最適化を行うことなくカメラモデルのパラメータを短時間に精度よく求め、かつワールド座標に対応する画素座標も短時間に求めることができる。
 上記態様においては、前記3次元のワールド座標の3つの座標値の関数を要素とした複数の2次元ベクトル関数の線形和によって、前記2次元の画素座標の2つの座標値を表してもよい。
 このようにすることで、3次元のワールド座標の3つの座標値から、各画素に対応する2次元の画素座標の2つの座標値を簡易に求めるパラメータをより短時間に精度よく求めることができる。
 上記態様においては、前記カメラモデルが、前記画素座標平面上の点の2つの画素座標値と、前記光学系によって前記画素座標平面と光学的に共役な平面上の点の2つのワールド座標値との結像関係を表す線形の結像モデルの各係数を、他の1つのワールド座標の逆数のベキ多項式で置換した数式で表現されてもよい。
 上記態様においては、前記パラメータ算出部が、前記カメラモデルを線形の最小二乗法で前記較正データに当てはめてもよい。
 上記態様においては、前記パラメータ算出部が、前記較正データ取得部により取得された較正データの内、前記3次元のワールド座標を、該ワールド座標の回転を表す3つの回転角の1以上の回転角で回転したワールド座標に変換した較正データに、前記カメラモデルを当てはめて、該カメラモデルの残差が最小になる1以上の回転角を求めてもよい。
 上記態様においては、前記パラメータ算出部が、前記較正データ取得部により取得された較正データの内、前記3次元のワールド座標を、該ワールド座標の平行移動を表す3つの平行移動成分の1以上の成分で平行移動したワールド座標に変換した較正データに、前記カメラモデルを当てはめて、該カメラモデルの残差が最小になる1以上の平行移動成分を求めてもよい。
 上記態様においては、前記光学装置が、複数の前記画像変換素子および該画像変換素子と前記3次元のワールド座標空間との間で結像関係を形成する光学系を備え、前記較正データ取得部が各前記画像変換素子および前記光学系の較正データを取得し、前記パラメータ算出部が、各前記画像変換素子および前記光学系の較正データに、各該画像変換素子の前記2次元の画素座標の関数として表したカメラモデルを当てはめてもよい。
 上記態様においては、前記光学装置が撮影装置であり、前記画像変換素子が撮像素子であり、前記光学系が撮像光学系であってもよい。
 また、上記態様においては、前記光学装置が投影装置であり、前記画像変換素子が画像形成素子であり、前記光学系が投影光学系であってもよい。
 本発明の他の態様は、複数の画素を有する2次元の画像変換素子と、該画像変換素子と3次元のワールド座標空間との間で結像関係を変換する光学系とを備える光学装置の前記画像変換素子の2次元の画素座標と、前記ワールド座標空間の3次元のワールド座標との対応を示す較正データを取得するステップと、取得された較正データに、前記2次元の画素座標の2つの座標値を、前記3次元のワールド座標の3つの座標値の関数として表したカメラモデルを当てはめて、該カメラモデルのパラメータを算出するステップとを含む較正方法である。
 上記態様においては、前記カメラモデルが、前記3次元のワールド座標の3つの座標値の関数を要素とした複数の2次元ベクトル関数の線形和によって、前記2次元の画素座標の2つの座標値を表してもよい。
 上記態様においては、前記カメラモデルが、前記画素座標平面上の点の2つの画素座標値と、前記光学系によって前記画素座標平面と光学的に共役な平面上の点の2つのワールド座標値との結像関係を表す線形の結像モデルの各係数を、他の1つのワールド座標の逆数のベキ多項式で置換した数式で表現されてもよい。
 上記態様においては、パラメータを算出するステップが、前記カメラモデルを線形の最小二乗法で較正データに当てはめてもよい。
 上記態様においては、パラメータを算出するステップが、較正データを取得するステップにより取得された較正データの内、前記3次元のワールド座標を、該ワールド座標の回転を表す3つの回転角の1以上の回転角で回転したワールド座標に変換した較正データに、前記カメラモデルを当てはめて、該カメラモデルの残差が最小になる1以上の回転角を求めてもよい。
 上記態様においては、パラメータを算出するステップが、較正データを取得するステップにより取得された較正データの内、前記3次元のワールド座標を、該ワールド座標の平行移動を表す3つの平行移動成分の1以上の成分で平行移動したワールド座標に変換した較正データに、前記カメラモデルを当てはめて、該カメラモデルの残差が最小になる1以上の平行移動成分を求めてもよい。
 本発明の他の態様は、上記の較正装置により算出されたパラメータが設定されたカメラモデルを搭載した光学装置である。
 上記態様においては、前記カメラモデルにより、前記画素座標の2つの座標値を、前記3次元のワールド座標の3つの座標値から求める画素座標算出部を備えてもよい。
 このようにすることで、画素座標算出部により、取得された3次元のワールド座標から画素座標の2つの座標値を簡易に求めることができる。
 上記態様においては、前記カメラモデルにより、前記ワールド座標に対応する前記画像変換素子により取得あるいは形成された画像の画素座標を求め、歪みを補正した画像を生成する歪補正画像生成部を備えてもよい。
 本発明の他の態様は、上記の較正装置により取得された回転角または平行移動成分がパラメータとして設定されたカメラモデルを搭載した光学装置である。
 上記態様においては、前記回転角または平行移動成分により、前記ワールド座標を回転または平行移動後のワールド座標に変換するワールド座標回転部またはワールド座標平行移動部を備えていてもよい。
 本発明の他の態様は、上記の光学装置からなる撮影装置である。
 本発明の他の態様は、上記の光学装置からなる投影装置である。
 本発明によれば、カメラパラメータを短時間に精度よく求めることができ、かつワールド座標に対応する画素座標を短時間に求められるという効果を奏する。
本発明の第1の実施形態に係る較正装置を模式的に示す全体構成図である。 図1の較正装置の較正チャートのパターンを示す図である。 本発明の第1の実施形態に係る較正方法のフローチャートを示す図である。 図1の較正装置のワールド座標と画素座標との関係を示す図である。 樽型の歪曲収差がある場合の画像例を示す図である。 歪曲収差がない場合の画像例を示す図である。 歪補正方法のフローチャートを示す図である。 本発明の第3の実施形態に係る較正装置を模式的に示す平面図である。 本発明の第4の実施形態に係る較正装置を模式的に示す平面図である。
 本発明の第1の実施形態に係る較正装置およびカメラ較正方法について、図面を参照して以下に説明する。
 本実施形態に係る較正装置は、カメラ較正装置1であって、撮像した画像を所定のフォーマットの画像ファイルとして外部に転送するカメラ(撮影装置)2を較正対象としている。本実施形態においては、光学装置の一例として、カメラ2を用いている。
 本実施形態に係るカメラ較正装置1は、図1に示されるように、較正対象であるカメラ2を固定するベース3と、該ベース3に設けられたz軸移動ステージ4と、該z軸移動ステージ4によって移動させられる可動部5に固定された較正チャート6と、カメラ2およびz軸移動ステージ4に接続されたコンピュータ7とを備えている。カメラ較正装置1の3次元の座標軸は図1のように定義されている。カメラ2を固定するベース3、較正チャート6およびz軸移動ステージ4により、較正データ取得部8が構成されている。
 z軸移動ステージ4は、モータ4aにより駆動され可動部5を直線的に移動させる直線駆動機構である。カメラ較正装置1においては、可動部5の移動方向をz軸とし、z軸に垂直な面内の水平方向および垂直方向をx軸およびy軸と定義している。
 本実施形態においては、座標原点の位置がカメラレンズ9の入射瞳付近に定義されている。
 カメラ2は、その光軸がz軸に平行になるように、かつ、撮像面の水平方向および垂直方向がx軸およびy軸に平行になるように、かつ、座標原点がカメラ2の所定の位置と一致するように、ベース3に取り付けられるようになっている。
 較正チャート6は、カメラ較正で広く利用されている図2のチェスボード10であり、ベース3に固定されたカメラ2と正対するように、すなわち、z軸に垂直な面内に配置されるように可動部5に固定されている。較正チャート6は複数の特徴点を備えた図表であればどのようなものでも構わない。
 較正チャート6は、z軸移動ステージ4によってz軸方向の任意の位置に移動可能になっている。z軸移動ステージ4の可動部5の移動範囲は、カメラ較正が必要な物体距離(=カメラ2と撮像対象との距離)の範囲を包含している。
 コンピュータ7は、カメラ2の撮像を制御して、撮像された画像を所定のフォーマットの画像ファイルとして読み込むように機能する。また、コンピュータ7はz軸移動ステージ4を制御して、較正チャート6をz軸方向の所定の位置に移動するように機能する。さらにコンピュータ7は、取得された構成データにカメラモデルを当てはめてカメラパラメータを算出するパラメータ算出部としても機能する。
 ここで、図2を参照して、較正チャート6として使用されるチェスボード10について説明する。
 チェスボード10は、平面上に黒と白の正方形が正方格子を成すように並んだ市松模様のパターンを有する平板状部材であり、各正方形の頂点に相当する交点をカメラ較正の特徴点として利用するようになっている(以下、これらの特徴点を格子点11と呼ぶ。)。
 チェスボード10としては、カメラ較正に十分な数の格子点11がカメラ2の撮像範囲内に入るものが使用される。撮像されるチェスボード10の範囲は物体距離によって変化するが、各物体距離で少なくとも10×10個程度の格子点11が撮像されることが好ましい。また、撮像された格子点11の画素座標と較正チャート6上での格子点11のワールド座標との対応をとるために、較正チャート6の中央付近に1つの基準位置マーク12を設けている。
 この基準位置マーク12の右下最近傍の格子点(中央の格子点13)がz軸上に位置し、同時にチェスボード10の縦横がx軸およびy軸に平行になるように、チェスボード10をカメラ較正装置1に設置する。これにより、チェスボード10の正方格子の格子間隔とz軸移動ステージ4の移動位置とから、各格子点11,13のワールド座標(x,y,z)が既知の値として確定する。
 このように構成された本実施形態に係るカメラ較正装置1を用いたカメラ較正方法について以下に説明する。
 本実施形態に係るカメラ較正装置1を用いてカメラ2を較正するには、操作者は、初めに較正対象のカメラ2を座標軸の定義に従ってカメラ較正装置1に取り付け、コンピュータ7に接続する。その後に、コンピュータ7内部の測定プログラムを開始する。
 以下、測定プログラムにより、自動的に複数の物体距離の較正チャート6の画像がカメラ2によって撮像され、それらの画像から格子点11の画素座標が取得される。測定プログラムについて、図3のフローチャートを参照して説明する。
 測定が開始されると、まず、カメラ2を較正する物体距離の範囲のカメラ2に近い側の端に較正チャート6が位置するように、z軸移動ステージ4が移動される(ステップS1)。次に、カメラ2により較正チャート6が撮像され、その画像ファイルがコンピュータ7に転送される(ステップS2)。そして、所定回数の撮像が行われるまで、これらのステップS1,S2が繰り返される(ステップS3)。所定回数としては、例えば、5回以上の回数が設定されている。
 このとき、ステップS1では1回の繰り返しごとに、カメラ2から較正チャート6までの物体距離が所定の間隔で大きくなるようにz軸移動ステージ4により可動部5を移動させる。可動部5の移動量は等間隔でなくてもよいが、カメラ2を較正する物体距離の範囲内で少なくとも5カ所程度の異なる物体距離で較正チャート6を撮像することが好ましい。そして、所定の撮像枚数に達したら、次のステップS4に進む。
 ステップS1からステップS3でコンピュータ7に転送された複数の画像ファイルが画像処理されることにより、撮像範囲内の各格子点11の画素座標が求められ、各画像ファイルの基準位置マーク12の重心の画素座標が求められる(ステップS4)。なお、チェスボード10の格子点11の画素座標をサブピクセルで求める方法は、以下の文献等により公知なので、ここでの説明は省略する。G.Bradski,A.Kaehler(松田 晃一訳)「詳解 OpenCV-コンピュータビジョンライブラリを使った画像処理・認識」(オライリー・ジャパン,2009)p.325-326
 次いで、ステップS4で求めた各格子点11の画素座標が、較正チャート6上の格子点11のワールド座標に対応付けられる(ステップS5)。上述したように基準位置マーク12の右下最近傍の中央の格子点13はワールド座標のz軸上にあるので、それを基準にして各格子点11,13の画素座標とワールド座標とを対応付けることができる。最後に、対応付けられた全ての画素座標およびワールド座標が測定データファイルに書き出されて、測定が終了する。上記手順でカメラパラメータの最適化に必要な測定データが得られる。
 ここで、本実施形態において用いられるカメラモデルについて図4Aから図4Cを参照して説明する。図4Aは、カメラ2の画素座標と物体側の逆投影直線の関係を説明するカメラ2の断面図である。カメラ2は、レンズ15,16および開口絞り17を有する撮像光学系14と、撮像素子(画像変換素子)18とを備えている。
 物体側のワールド座標(x,y,z)を図1と同様に定義する。また、撮像素子18の撮像面に、撮像素子18の横方向および縦方向と平行に画素座標のu軸およびv軸を定義する。図4Aには、撮像光学系14を通して撮像素子18の各画素の中央に入射する主光線19が描かれている。
 主光線19とは、撮像光学系14の開口絞り17の中心を通る光線である。ここでは、1つの画素の中心に結像する像点20とその主光線19を例に、主光線19の概念を説明する。初めに、撮像素子18の撮像面と共役な平面21を考える。その平面21と主光線19の交点にある物点22は、撮像光学系14によって像点20に結像する。すなわち、物点22を通る全ての光線は、収差を無視すれば、像点20の1点に入射する。
 次に、共役な物点22から主光線19に沿って、撮像面と共役でない平面23上に移動した物点24を考える。共役でない物点24を通る各光線は像点20の1点に集まらないので、撮像面上の像点はボケて広がる。
 そのとき、コマ収差を無視すると、ボケ像は、開口絞り17の中心を通る主光線19の入射位置を中心に広がるので、ボケた像点の光強度の重心を取って像位置とするならば、像点20の位置は変わらない。したがって、物体側の主光線19上にある全ての物点22,24は、1つの像点20に結像する。言い換えると、物体側の主光線19は像点20の逆投影直線である。
 次に、瞳収差について説明する。開口絞り17をそれより物体側のレンズ15で結像した仮想的な開口が入射瞳25である。物体側の主光線群は入射瞳25の中心付近を通過するが、開口絞り17の場合と異なり、入射瞳25の中心の1点では交わらない。それは、開口絞り17と入射瞳25の結像関係にレンズ15の収差が介在するからである。これが瞳収差である。
 続いて、瞳収差に起因して、撮像光学系14の歪曲収差が物体距離によって変化することについて説明する。撮像光学系14の結像に樽型の歪曲収差があるとき、像側から物体側への逆方向の結像は糸巻き型の歪曲収差を伴う。すなわち、図4Cに示されるような撮像素子18の正方格子の画素配列26は、物体側の共役な平面21上に、図4Bに示されるような糸巻き型に歪んだ像27として結像する。
 ここで仮に、瞳収差が無く、物体側の全ての主光線19が入射瞳25の中心の1点で交わる状況を想定する。このとき、共役な平面21と平行な、共役でない平面23と図4Cに示される画素配列26の図形に対応する主光線群の交点は、図4Bに示されるような共役な平面21上の像27と相似な図形をなす。つまり、歪曲収差の形は物体距離によって変化しない。しかし、実際の撮像光学系14には瞳収差があるので、物体距離が変わると歪曲収差の形が変化することになる。
 このような状況に適合するように作成した、本発明のカメラモデルを説明する。初めに、撮像素子18と共役な平面21上の物点22のワールド座標(x,y,z)から撮像素子18上の像点20の画素座標(u,v)への結像関係を歪曲収差を含む結像式で表す。本実施形態では、数5のブラウンのモデルを基に、下記の数7の結像式を用いる。なお、ブラウンのモデルは共役な2平面上の結像位置の関係を表すモデルであるので、物点(x,y,z)から像点(u,v)への結像関係に適用することができる。
Figure JPOXMLDOC01-appb-M000007
ここで、数5のブラウンのモデルから数7の結像式への変更箇所は次のとおりである。(1)ワールド座標から画素座標への横倍率を表す係数k0の項を追加した。(2)3次の動径歪曲k1と2次の接線歪曲(p1,p2)のみを考慮した。(3)ワールド座標(x,y)を物体距離zで規格化した座標(x’,y’)を用いた。
 次に、主光線19と平行で、入射瞳25の中心を通る仮想の主光線19’について説明する。物体距離zが無限遠の極限では、主光線19上の物点と仮想の主光線19’上の物点は同じ像点に結像する。なぜなら、撮像素子18上の有効な撮像範囲に対応する物体側の撮像範囲も無限大に広がるので、これと比較して、主光線19と仮想の主光線19’の距離は無視できるからである。
 しかし、物体距離zが有限になると、主光線19上の物点22と仮想の主光線19’上 の物点22’にそれぞれ対応する像点の位置は一致しなくなる。その乖離は画素座標において近似的に、物体距離zに反比例する。なぜなら、主光線19と仮想の主光線19’の距離(平面21上の物点22と22’の距離、および別の物体距離の平面23上の物点24と24’の距離)は、物体距離に関わらす一定である。一方、物体側の有効な撮像範囲は近似的に、物体距離zに比例して広がるからである。
 これらにより、数7の結像式の各係数を物体距離zの逆数のベキ多項式で置き換えて、数8の本実施形態のカメラモデルを得る。
Figure JPOXMLDOC01-appb-M000008
 物体距離zの逆数のベキ多項式の定数項k00,k10,p10,p20は、物体距離zが無限遠の極限では、主光線19上の物点と仮想の主光線19’上の物点は同じ像点に結像することを表す。また、物体距離zの逆数の係数k01,k11,p11,p21は、両者の像点の乖離が物体距離zに反比例することを表す。さらに、近似の精度を向上するために、物体距離zの逆数の2乗以上の項を用いることもできる。また、瞳収差を無視できるときは、定数項k00,k10,p10,p20のみを残した数8のカメラモデルを用いることもできる。
 このように、数8に示される本実施形態のカメラ較正装置1に用いられるカメラモデルは、ワールド座標に対応する画素座標を直接モデル化したものである。それは、歪曲収差を含むワールド座標と画素座標の結像関係を表す数7の線形モデルを基に構築される。そして、瞳収差の影響を表現できるように、結像関係を表す数7の線形モデルの各係数を物体距離zの逆数のベキ多項式で置き換えた形になっているという特徴がある。
 また、本実施形態のカメラ較正装置1に用いられるカメラモデルのもう1つの特徴は、変数(x,y,z)からなる線形独立な2次元の基底関数ベクトルの線形和で画素座標ベクトル(u,v)を表すことにある。基底関数ベクトルの線形和なので、u座標とv座標を表すモデルの係数は共通である。そのため、各基底関数ベクトルの係数を全ての測定データから線形の最小二乗法で求めることができる。それを以下に述べる。
 まず、図3に示される上記測定プログラムにおいて、ワールド座標(x,y,z)と画素座標(u,v)の対応を表す測定データを求める。続いて、独立変数(x,y,z)と従属変数(u,v)の数8に示されるカメラモデルを、全ての格子点の測定データに線形の最小二乗法で当てはめて、数8のカメラモデルの各係数(カメラパラメータ)を求める。本実施形態のカメラ較正はこれで終了する。
 本実施形態で求めたカメラパラメータが設定されたカメラモデルを、それを搭載したカメラ2を含む撮影装置で次のように使うことができる。なお、撮影装置は、3次元のワールド座標から2次元の画素座標値を算出する画素座標算出部(図示省略)と、歪みを補正した画像を生成する歪補正画像生成部(図示省略)とをさらに備えている。
 第1に、画素座標算出部において、較正されたカメラ2で撮像されたワールド座標(x,y,z)を数8のカメラモデルに代入することにより、それが結像する画素座標(u,v)を求めることができる。
 第2に、較正されたカメラ2で撮像した画像の歪みを歪補正画像生成部によって補正することができる。その方法を説明する。ワールド座標で表される物体は、カメラ2で撮像されて歪んだ画像になる。また、得られた画像をワールド座標に逆投影すれば、歪みを補正することができる。既知の物体距離zの平面上にある物体を撮像したときは、画素座標(u,v)を物体距離zの平面上のワールド座標(x,y)に逆投影すればよい。
 一方、そのような平面上にない物体を撮像した画像では、歪補正の基準物体距離を定義して、その物体距離zのワールド座標(x,y)に逆投影する。物体距離による歪曲収差の変化が小さければ、このような歪補正で十分である。ただし、ワールド座標に逆投影すると、画像が拡大あるいは縮小してしまう。そこで、逆投影したワールド座標を数8のカメラモデルの横倍率k0’の逆数、すなわち画素座標からワールド座標への横倍率で規格化する。これにより、元の画像とほぼ等倍の歪補正画像を得ることができる。
 歪補正画像の作成は、歪補正後の画像の画素座標(整数)に対応する元の画像の画素値を、歪補正後の画素座標に代入する一連の手続きである。その手順を図5のフローチャートを参照して説明する。歪補正が開始されると、最初の歪補正後の画素座標(uc,vc)が決定される(ステップS11)。
 次に、決定された画素座標(uc,vc)に、基準物体距離zにおける数8のカメラモデルの横倍率k0’の逆数を乗じて、ワールド座標(x,y)を求める(ステップS12)。そして、求めたワールド座標(x,y,z)を数8のカメラモデルに代入して、歪補正前の画素座標(u,v)を求める(ステップS13)。
 その歪補正前の画素座標(u,v)は一般に非整数である。そこで、その画素座標に近接する4つの画素の画素値からバイリニア補間で画素座標(u,v)の画素値を求める。そして、それを歪補正後の画素座標(uc,vc)の画素値とする(ステップS14)。なお、画素値の補間にはバイキュービック補間などの他の手法を採用してもよい。
 全ての歪補正後の画素座標(uc,vc)について、上記ステップS11からステップS14を繰り返し(ステップS15)、歪補正を終了する。
 上述した第1から第2のカメラモデルの利用例では、ワールド座標に対応する画素座標を数8のカメラモデルでその度に計算した。一方、それらを予め計算してデータ配列として保持しておくことにより、計算の高速化を図ることもできる。
 本実施形態では、平面のチェスボード10上に正方格子で並んだ格子点11,13の測定データでカメラ較正を実施した。しかし、較正チャート6上の特徴点は、格子点11,13以外のパターンでもよい。
 例えば、平面上に分布したドットマークを撮像して、その重心位置を画素座標とするような測定データの作成方法でもよい。さらに、本発明のカメラ較正で用いる特徴点は、ワールド座標空間に規則的に配列されている必要もない。特徴点の配置がランダムであっても、そのワールド座標と画素座標の対応を測定あるいはシミュレーション等で知ることができれば、それらに本発明のカメラモデルを線形の最小二乗法で当てはめることができる。
 このように、本実施形態のカメラ較正の測定データに要求される条件は、ワールド座標と画素座標との対応が明らかになっていることのみである。そのような測定データは、例えば、次のような方法でも取得可能である。まず、ワールド座標側にx,y,z軸方向に移動可能な点光源を用意する。それから、その点光源をカメラ2で撮像した画像の注目する画素座標に点光源の像が位置するように、点光源をx,y,z軸方向に移動する。そのような測定を繰り返すことによってもワールド座標と画素座標との対応を求めることができる。
 本実施形態では、3次の動径歪曲と2次の接線歪曲のみを考慮したカメラモデルを採用した。しかし、歪曲収差がさらに大きいカメラ2を較正するときは、より高次の歪曲収差や回転非対称の歪曲の項を追加したカメラモデルも採用できる。その場合、撮像素子18の撮像面とそれと共役な平面21との結像関係を表す数7の結像式のような線形モデルを用意する。
 それから、この線形モデルの各係数を数8のカメラモデルのように、物体距離zの逆数のベキ多項式で置き換えることにより、新たなカメラモデルを構築することができる。各係数を求める最適化の方法は本実施形態と同様である。
 逆に、カメラモデルから不要な項を省略することもできる。例えば、回転非対称な歪曲成分が常に無視できるほど小さいカメラ2を較正するときは、数8のカメラモデルの接線歪曲の項を省略した方がよい。それにより、格子点11の測定誤差によって、カメラモデルが無意味に変形して不正確になることを防止できる。他の項についても同様である。
 本実施形態で求めたカメラモデルを搭載したカメラ2を含む撮影装置において、従来例のような逆投影のカメラモデルを併用する場合には、逆投影のカメラモデルと数8のカメラモデルをそれぞれ測定データに当てはめて、各々のカメラパラメータを求めることができる。これらの2つのカメラモデルは本来、互いに逆関数の関係にあるはずである。しかし、測定データには測定誤差が含まれているので、上記で求められた2つのカメラモデルは必ずしも正確な逆関数の関係にならない可能性がある。
 この場合には、測定データから一方のカメラモデルを求め、求められた一方のモデルを経由して、他方のカメラモデルを求めてもよい。すなわち、初めに、測定データに逆投影のカメラモデルを当てはめて、そのカメラパラメータを求める。次に、逆投影のカメラモデルを用いて、ワールド座標と画素座標の対応を表す擬似測定データを作成する。そして、作成した擬似測定データに数8のカメラモデルを当てはめてカメラパラメータを求める。あるいは、先に数8のカメラモデルを測定データに当てはめてもよい。上記の擬似測定データには測定誤差が無いので、このように求められた2つのカメラモデルは正確な逆関数の関係を保つことができる。
 このように、本実施形態に係るカメラ較正装置1およびカメラ較正方法によれば、本実施形態のカメラモデルによって、撮像光学系14の瞳収差を的確にモデル化することができる。さらに、回転非対称な歪曲収差と瞳収差もモデル化できる。それにより、ワールド座標に対応する画素座標を正確に表現でき、カメラモデルの精度を向上させることができる。
 また、本実施形態のカメラ較正装置1およびカメラ較正方法に用いられるカメラモデルは線形モデルなので、線形の最小二乗法で測定データに当てはめることができる。したがって、繰り返し最適化を用いる従来例と異なり、最適化の失敗が無く、かつ計算時間を大幅に短縮することができる。
 さらに、本実施形態のカメラモデルによれば、繰り返し最適化を要することなく、ワールド座標に対応する画素座標を直接、短時間に求めることができる。
 また、本実施形態のカメラ較正装置1およびカメラ較正方法に用いる特徴点は規則的に配列している必要がない。したがって、ワールド座標と画素座標の対応さえ明確にできれば、較正されるカメラ2に適した任意の測定あるいは計算による取得方法を選択することが可能になる。
 次に、本発明の第2の実施形態に係るカメラ較正方法について、以下に説明する。第1の実施形態においては、図1のように較正されるカメラ2の入射瞳がワールド座標の原点とほぼ一致し、かつ光軸がカメラ較正装置1のz軸と平行であり、撮像面の水平方向と垂直方向がx軸とy軸と平行であるときのカメラ較正の方法を説明した。本実施形態では、その条件を満たさないとき、すなわちワールド座標とカメラ座標が一致しないときのカメラ較正の方法を説明する。
 第1の実施形態で使用したカメラモデルは、較正対象のカメラ2の撮像光学系14の入射瞳25の中心を原点としたカメラ座標で成立している。したがって、図1のカメラ較正装置1における較正チャート6上の格子点11のワールド座標をカメラ座標に変換すると、上記のカメラモデルが当てはまるようになる。ワールド座標(x,y,z)からカメラ座標(xc,yc,zc)への変換は、数2の3軸の回転行列Rと平行移動ベクトルTにより、数9で表される。
Figure JPOXMLDOC01-appb-M000009
 第2の実施形態においては、測定した複数の格子点11のワールド座標(x,y,z)と画素座標(u,v)の対応を表す測定データのうち、ワールド座標のみを数9でカメラ座標(xc,yc,zc)に変換してから、第1の実施形態のカメラモデルを当てはめる。そして、カメラモデルの残差が最小になるように、回転行列Rの3軸の回転角θx,θy,θzと平行移動ベクトルTの3つの成分(tx,ty,tz)を最適化する。一般に、数9で変換したワールド座標がカメラ座標と一致したとき、カメラモデルの残差が最小になる。
 次に、第2の実施形態に係るカメラ較正方法を用いてカメラモデルを最適化する手順を説明する。初めに、第1の実施形態と同様にして、ワールド座標(x,y,z)と画素座標(u,v)との対応を表す測定データを求める。
 次に、測定データのワールド座標を数9で変換したカメラ座標(xc,yc,zc)と画素座標(u,v)に、数8のカメラモデルを線形の最小二乗法で当てはめたときの残差の標準偏差を評価関数として、最適化パラメータである回転角θx,θy,θzと平行移動ベクトルの3つの成分(tx,ty,tz)を繰り返し最適化する。回転角θx,θy,θzと平行移動ベクトルの3つの成分(tx,ty,tz)の初期値はゼロでよい。あるいは、何らかの方法でカメラ2の回転角と平行移動ベクトルを推定できるときは、それを初期値にしてもよい。
 この繰り返し最適化は、滑降シンプレックス法などの一般的なアルゴリズムで実行できる。評価関数が最小値に収束したときの回転角θx,θy,θzと平行移動ベクトルの3つの成分(tx,ty,tz)が最適な回転角と平行移動ベクトルである。最適な回転角と平行移動ベクトルでのカメラモデルの各係数を取得して、カメラ較正を終了する。
 本実施形態に係るカメラ較正方法を用いて求めたカメラパラメータが設定されたカメラモデルを、それを搭載したカメラ2を含む撮影装置で第1の実施形態と同様に利用することができる。その場合、ワールド座標を数9でカメラ座標に変換してから、それを数8のカメラモデルに代入して画素座標を求める。
 本実施形態では、3つの回転角θx,θy,θzと平行移動ベクトルの3つの成分(tx,ty,tz)を最適化した。しかし、それらの中のいくつかが既知のときは、それらを既知の値で固定して、最適化パラメータから外してもよい。そのときは、残りの未知の1つあるいは複数の回転角と平行移動ベクトルの成分のみを最適化すればよい。このようにすると最適化パラメータの数が減るので、計算時間を短縮することができる。
 なお、3次元座標の3つの回転角の定義には任意性がある。本実施形態ではx,y,z軸回りの回転角という定義を採用して説明した。しかし、それ以外の定義であっても本発明を適用できることは言うまでもない。
 このように、本実施形態に係るカメラ較正方法によれば、ワールド座標に対するカメラ2の位置と姿勢が適切にアライメントされていない場合でも、高精度なカメラモデルを取得することができる。また、歪曲収差などの多くのカメラパラメータが必要な場合でも、繰り返し最適化のパラメータ数は回転角と平行移動の6つ以下の成分に限定されるので、カメラモデルの最適化の失敗が無く、かつ計算時間を大幅に短縮することができる。
 次に、本発明の第3の実施の形態に係るカメラ較正装置32およびカメラ較正方法について、図面を参照して以下に説明する。本実施形態に係るカメラ較正装置32は、多視点カメラ33,34,35の較正に適用するものである。以下、3台からなる多視点カメラの較正を例示して説明するが、それ以外の台数のカメラの較正にも適用できる。
 本実施形態に係るカメラ較正装置32においては、図6に示されるように、較正対象の3台のカメラ33,34,35が、多視点カメラの使用条件と同じ配置でカメラ固定台36に固定される。そして、各々のカメラ33,34,35が較正チャート6を撮像できるように、カメラ固定台36がカメラ較正装置32に取り付けられるようになっている。較正チャート6とz軸移動ステージ4、コンピュータ7など、それ以外の構成は図1と同様であり、説明を省略する。
 このように構成された本実施形態に係るカメラ較正装置32の作用について、以下に説明する。本実施形態に係るカメラ較正装置32の動作は、第1の実施形態に係るカメラ較正装置1と同様である。初めに、図3のフローチャートの測定プログラムにより、自動的に複数の物体距離の較正チャート6の画像がカメラ33,34,35によって撮像され、その画像から較正チャート6の格子点11の画素座標が取得される。ただし、図3のフローチャートのステップS2,S4,S5は3台のカメラに対してそれぞれ実行される。
 続いて、各カメラ33,34,35の上記の測定データから、各カメラ33,34,35のカメラモデルが求められる。その手順は、第1あるいは第2の実施形態と同様である。
 本実施形態に係るカメラ較正装置32で求めたカメラパラメータを設定した各カメラモデルを、それらを搭載した各カメラ33,34,35を含む撮影装置で第1および第2の実施形態と同様に利用することができる。
 なお、多視点の各カメラ33,34,35の測定データを必ずしも同時に測定する必要は無い。例えば、図3のフローチャートの測定プログラムを各カメラに対して個別に順次、実行してもよい。さらに、各カメラ33,34,35の測定データを測定するときに、較正チャート6が測定対象の各カメラに正対するようにz軸移動ステージ4の設置位置をカメラ較正装置32上で変更してもよい。
 ただし、その設置位置の変更量を把握して、それを較正チャート6の格子点11のワールド座標に反映した測定データを作成する必要がある。このようなカメラ較正方法は、多視点カメラ33,34,35が観察領域を取り囲むように配置されているために、1方向に固定された較正チャート6を撮像できないカメラが存在する場合に有効である。
 このように本実施形態に係るカメラ較正装置32およびカメラ較正方法によれば、多視点カメラ33,34,35を使用条件と同じ配置でカメラ較正できる。そして、1つの共通なワールド座標に対応する各カメラ33,34,35の画素座標を求めることができる。
 次に、本発明の第4の実施形態に係る較正装置について、図7を参照して以下に説明する。本実施形態に係る較正装置は、プロジェクタ較正装置37であって、その内部に液晶素子などの画像形成素子(画像変換素子:図示省略)と、投影光学系(光学系:図示省略)とを備えており、その画像を外部へ投影するプロジェクタ(投影装置)38を較正するための装置である。本実施形態においては、光学装置の一例として、プロジェクタ38を用いている。
 プロジェクタ較正装置37は、較正対象のプロジェクタ38を固定するベース39と、該ベース39に設けられたz軸移動ステージ4と、該z軸移動ステージ4の可動部5に固定された較正チャート6と、プロジェクタ38と隣接する位置に配置され、較正チャート6の像を撮影するカメラ2とを備えている。カメラ2とプロジェクタ38とは、それらの光軸がプロジェクタ較正装置37のz軸と平行になるように、かつ、プロジェクタ38の所定の位置が座標原点と一致するように、プロジェクタ較正装置37に取り付けられるようになっている。
 なお、カメラ2の撮像範囲はプロジェクタ38の画像投影範囲を包含していることが好ましい。較正チャート6とz軸移動ステージ4、コンピュータ7など、それ以外の構成は図1と同様である。ただし、本実施形態において使用される較正チャート6としては、図2のチェスボード10と無地のスクリーンとを交換可能になっている。また、コンピュータ7は、プロジェクタ38を制御して、所定の画像をプロジェクタ38に投影させる機能を併せ持っている。
 このように構成された本実施形態に係るプロジェクタ較正装置37を用いてプロジェクタ38を較正するには、初めに、図2のチェスボード10を較正チャート6として設置した状態で、カメラ2を較正する。この場合、従来例のような逆投影のカメラモデルを求める。
 続いて、較正チャート6を無地のスクリーンに交換する。そして、プロジェクタ38から、投影光学系を通して図2のチェスボード10のパターンを較正チャート6に投影する。このとき、プロジェクタ38内部の画像形成素子(図示省略)上で定義される画素座標において、チェスボード10の各格子点11,13の画素座標は既知である。
 この状態で、第1の実施形態と同様に、図3のフローチャートの測定プログラムにより、自動的に複数の物体距離でチェスボード10のパターンが投影された較正チャート6の画像がカメラ2によって撮像され、その画像からチェスボード10のパターンの格子点11の画素座標が取得される。
 この後に、取得された画素座標(u,v)と較正チャート6の物体距離zとから、前記の手順で較正されたカメラ2の逆投影のカメラモデルで、較正チャート6上に投影されたチェスボード10のパターンの格子点11のワールド座標(x,y)を求める。以上の手順で、プロジェクタ38の画素座標(u,v)とワールド座標(x,y,z)との対応を表す測定データが得られる。その測定データに数8のカメラモデルを当てはめて、プロジェクタ38のカメラパラメータを求める方法は第1の実施形態と同様である。
 このようにして求められたプロジェクタ38のカメラパラメータを設定したカメラモデルを、それを搭載したプロジェクタ38で次のように使うことができる。第1に、ワールド座標(x,y)を数8のカメラモデルに代入することにより、それに対応するプロジェクタ38の画素座標(u,v)を求めることができる。
 第2に、歪みが無い画像を投影したいときは、プロジェクタ38の画像形成素子で形成する画像に、投影で生じる歪みを相殺するような画像歪みを予め加えておけばよい。そのような歪補正画像の画素座標を求める手順は、図5に示される第1の実施形態のフローチャートと同様である。
 なお、プロジェクタ38で投影するパターンはチェスボード10に限らない。カメラ2で撮像した画像から特徴点の画素座標を算出できる、ドットマークなどのパターンも適用可能である。あるいは、プロジェクタ38の離散した各画素を点灯する方法でもよい。
 また、本実施形態では、プロジェクタ38で投影された特徴点のワールド座標(x,y)を、予め較正したカメラ2で測定した。その測定は、較正チャート6の代わりに撮像素子を設置して、投影されたパターンを直接撮像する、という方法でも実現可能である。さらに、ワールド座標と画素座標の対応さえ明確にできれば、それ以外の取得方法も選択可能である。このように、本実施形態に係るプロジェクタ較正装置37によれば、プロジェクタ38をカメラモデルによって較正することができる。
 また、本発明の第1から第4の実施形態において、カメラ2あるいはプロジェクタ38のフォーカス、ズーム、絞りなどの設定変更にそれぞれ対応した、複数のカメラ較正を実施することにしてもよい。また、それらのカメラモデルを補間して、任意の設定に対応したカメラモデルを求めることにしてもよい。
 さらに、光源の複数の波長の下で、カメラ較正を実施することにしてもよい。また、波長別の画像を撮影するカメラで、波長別のカメラモデルを使用することにしてもよい。また、本発明の第1から第4の実施形態に記載の光学装置において、画像変換素子の一例として、撮像素子18や画像形成素子を用いたが、これに限られるものではなく、画像と映像信号とを相互に変換するものであればよい。
1,32 カメラ較正装置(較正装置)
2 カメラ(撮影装置、光学装置)
7 コンピュータ(パラメータ算出部)
8 較正データ取得部
14 撮像光学系(光学系)
15,16 レンズ(光学系)
18 撮像素子(画像変換素子)
37 プロジェクタ較正装置(較正装置)
38 プロジェクタ(投影装置、光学装置)

Claims (22)

  1.  複数の画素を有する2次元の画像変換素子と、該画像変換素子と3次元のワールド座標空間との間で結像関係を形成する光学系とを備える光学装置の較正装置であって、
     前記画像変換素子の2次元の画素座標と、前記ワールド座標空間の3次元のワールド座標との対応を示す較正データを取得する較正データ取得部と、
     該較正データ取得部により取得された較正データに、前記2次元の画素座標の2つの座標値を、前記3次元のワールド座標の3つの座標値の関数として表したカメラモデルを当てはめて、該カメラモデルのパラメータを算出するパラメータ算出部とを備える較正装置。
  2.  前記カメラモデルが、前記3次元のワールド座標の3つの座標値の関数を要素とした複数の2次元ベクトル関数の線形和によって、前記2次元の画素座標の2つの座標値を表す請求項1に記載の較正装置。
  3.  前記カメラモデルが、前記画素座標平面上の点の2つの画素座標値と、前記光学系によって前記画素座標平面と光学的に共役な平面上の点の2つのワールド座標値との結像関係を表す線形の結像モデルの各係数を、他の1つのワールド座標の逆数のベキ多項式で置換した数式で表現される請求項2に記載の較正装置。
  4.  前記パラメータ算出部が、前記カメラモデルを線形の最小二乗法で前記較正データに当てはめる請求項1から請求項3のいずれかに記載の較正装置。
  5.  前記パラメータ算出部が、前記較正データ取得部により取得された較正データの内、前記3次元のワールド座標を、該ワールド座標の回転を表す3つの回転角の1以上の回転角で回転したワールド座標に変換した較正データに、前記カメラモデルを当てはめて、該カメラモデルの残差が最小になる1以上の回転角を求める請求項1に記載の較正装置。
  6.  前記パラメータ算出部が、前記較正データ取得部により取得された較正データの内、前記3次元のワールド座標を、該ワールド座標の平行移動を表す3つの平行移動成分の1以上の成分で平行移動したワールド座標に変換した較正データに、前記カメラモデルを当てはめて、該カメラモデルの残差が最小になる1以上の平行移動成分を求める請求項1または請求項5に記載の較正装置。
  7.  前記光学装置が、複数の前記画像変換素子および該画像変換素子と前記3次元のワールド座標空間との間で結像関係を形成する光学系を備え、
     前記較正データ取得部が各前記画像変換素子および前記光学系の較正データを取得し、
     前記パラメータ算出部が、各前記画像変換素子および前記光学系の較正データに、各該画像変換素子の前記2次元の画素座標の関数として表したカメラモデルを当てはめる請求項1から請求項6のいずれかに記載の較正装置。
  8.  前記光学装置が撮影装置であり、
     前記画像変換素子が撮像素子であり、
     前記光学系が撮像光学系である請求項1から請求項7のいずれかに記載の較正装置。
  9.  前記光学装置が投影装置であり、
     前記画像変換素子が画像形成素子であり、
     前記光学系が投影光学系である請求項1から請求項7のいずれかに記載の較正装置。
  10.  複数の画素を有する2次元の画像変換素子と、該画像変換素子と3次元のワールド座標空間との間で結像関係を変換する光学系とを備える光学装置の前記画像変換素子の2次元の画素座標と、前記ワールド座標空間の3次元のワールド座標との対応を示す較正データを取得するステップと、
     取得された較正データに、前記2次元の画素座標の2つの座標値を、前記3次元のワールド座標の3つの座標値の関数として表したカメラモデルを当てはめて、該カメラモデルのパラメータを算出するステップとを含む較正方法。
  11.  前記カメラモデルが、前記3次元のワールド座標の3つの座標値の関数を要素とした複数の2次元ベクトル関数の線形和によって、前記2次元の画素座標の2つの座標値を表す請求項10に記載の較正方法。
  12.  前記カメラモデルが、前記画素座標平面上の点の2つの画素座標値と、前記光学系によって前記画素座標平面と光学的に共役な平面上の点の2つのワールド座標値との結像関係を表す線形の結像モデルの各係数を、他の1つのワールド座標の逆数のベキ多項式で置換した数式で表現される請求項11に記載の較正方法。
  13.  パラメータを算出するステップが、前記カメラモデルを線形の最小二乗法で較正データに当てはめる請求項10から請求項12のいずれかに記載の較正方法。
  14.  パラメータを算出するステップが、較正データを取得するステップにより取得された較正データの内、前記3次元のワールド座標を、該ワールド座標の回転を表す3つの回転角の1以上の回転角で回転したワールド座標に変換した較正データに、前記カメラモデルを当てはめて、該カメラモデルの残差が最小になる1以上の回転角を求める請求項10に記載の較正方法。
  15.  パラメータを算出するステップが、較正データを取得するステップにより取得された較正データの内、前記3次元のワールド座標を、該ワールド座標の平行移動を表す3つの平行移動成分の1以上の成分で平行移動したワールド座標に変換した較正データに、前記カメラモデルを当てはめて、該カメラモデルの残差が最小になる1以上の平行移動成分を求める請求項10に記載の較正方法。
  16.  請求項1から請求項7のいずれかに記載の較正装置により算出されたパラメータが設定されたカメラモデルを搭載した光学装置。
  17.  前記カメラモデルにより、前記画素座標の2つの座標値を、前記3次元のワールド座標の3つの座標値から求める画素座標算出部を備える請求項16に記載の光学装置。
  18.  前記カメラモデルにより、前記ワールド座標に対応する前記画像変換素子により取得あるいは形成された画像の画素座標を求め、歪みを補正した画像を生成する歪補正画像生成部を備える請求項16に記載の光学装置。
  19.  請求項5または請求項6に記載の較正装置により取得された回転角または平行移動成分がパラメータとして設定されたカメラモデルを搭載した光学装置。
  20.  前記回転角または平行移動成分により、前記ワールド座標を回転または平行移動後のワールド座標に変換するワールド座標回転部またはワールド座標平行移動部を備える請求項19に記載の光学装置。
  21.  請求項16から請求項20のいずれかに記載の光学装置からなる撮影装置。
  22.  請求項16から請求項20のいずれかに記載の光学装置からなる投影装置。
PCT/JP2017/020493 2016-08-12 2017-06-01 較正装置、較正方法、光学装置、撮影装置、および投影装置 WO2018029950A1 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2018533434A JP6664000B2 (ja) 2016-08-12 2017-06-01 較正装置、較正方法、光学装置、撮影装置、および投影装置
US16/266,286 US10977830B2 (en) 2016-08-12 2019-02-04 Calibration device, calibration method, optical device, image-acquisition device, and projection device

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016-158606 2016-08-12
JP2016158606 2016-08-12

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US16/266,286 Continuation US10977830B2 (en) 2016-08-12 2019-02-04 Calibration device, calibration method, optical device, image-acquisition device, and projection device

Publications (1)

Publication Number Publication Date
WO2018029950A1 true WO2018029950A1 (ja) 2018-02-15

Family

ID=61162056

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2017/020493 WO2018029950A1 (ja) 2016-08-12 2017-06-01 較正装置、較正方法、光学装置、撮影装置、および投影装置

Country Status (3)

Country Link
US (1) US10977830B2 (ja)
JP (1) JP6664000B2 (ja)
WO (1) WO2018029950A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114742905A (zh) * 2022-06-13 2022-07-12 魔视智能科技(武汉)有限公司 一种多相机参数标定方法、装置、设备及存储介质

Families Citing this family (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018173551A1 (ja) * 2017-03-21 2018-09-27 オリンパス株式会社 較正装置、較正方法、光学装置、撮影装置および投影装置
CN112414444B (zh) * 2019-08-22 2023-05-30 阿里巴巴集团控股有限公司 一种数据标定方法、计算机设备、存储介质
CN110992430B (zh) * 2019-12-10 2024-03-22 苏州鑫旺海精密科技有限公司 一种多相机标定装置及标定方法
CN111145268B (zh) * 2019-12-26 2023-10-31 四川航天神坤科技有限公司 一种视频注册方法及装置
CN111432204A (zh) * 2020-03-30 2020-07-17 杭州栖金科技有限公司 相机测试装置及***
CN111429529B (zh) * 2020-04-10 2024-02-20 浙江大华技术股份有限公司 一种坐标转换的标定方法、电子设备以及计算机存储介质
CN111524191B (zh) * 2020-04-13 2023-04-18 中山大学 基于张角序列的像机标定异面控制点自动匹配方法
CN111612845A (zh) * 2020-04-13 2020-09-01 江苏大学 一种基于移动标定板的激光雷达与相机联合标定方法
CN111667570B (zh) * 2020-06-05 2023-06-02 深圳市瑞立视多媒体科技有限公司 Marker点的三维重建方法、装置、设备及存储介质
CN113192143B (zh) * 2020-12-23 2022-09-06 合肥工业大学 一种用于摄像机快速标定的编码立体靶标及其解码方法
CN115482286A (zh) * 2021-05-31 2022-12-16 北京字跳网络技术有限公司 相机内参的标定验证方法、装置、设备及介质
CN113592956B (zh) * 2021-07-30 2023-12-19 武汉精测电子集团股份有限公司 一种基于显微检测机台的多镜头联合标定方法和装置
CN116805338A (zh) * 2022-03-18 2023-09-26 华为技术有限公司 一种相机内参标定的方法和装置
CN114782549B (zh) * 2022-04-22 2023-11-24 南京新远见智能科技有限公司 基于定点标识的相机标定方法及***
CN114877806B (zh) * 2022-06-06 2024-06-25 泉州华中科技大学智能制造研究院 一种具有色彩实时映射的双相机点云测量方法及装置
CN116543040A (zh) * 2023-04-21 2023-08-04 成都飞机工业(集团)有限责任公司 一种航空电连接器孔号识别方法

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213332A (ja) * 2002-12-27 2004-07-29 Olympus Corp キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具
JP2007309660A (ja) * 2006-05-16 2007-11-29 Roland Dg Corp 3次元形状測定装置におけるキャリブレーション方法

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11699247B2 (en) * 2009-12-24 2023-07-11 Cognex Corporation System and method for runtime determination of camera miscalibration
US20150260509A1 (en) * 2014-03-11 2015-09-17 Jonathan Kofman Three dimensional (3d) imaging by a mobile communication device
CN107003109B (zh) 2014-11-13 2019-11-05 奥林巴斯株式会社 校准装置、校准方法、光学装置、摄影装置、投影装置、测量***以及测量方法

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004213332A (ja) * 2002-12-27 2004-07-29 Olympus Corp キャリブレーション装置、キャリブレーション方法、キャリブレーション用プログラム、及び、キャリブレーション治具
JP2007309660A (ja) * 2006-05-16 2007-11-29 Roland Dg Corp 3次元形状測定装置におけるキャリブレーション方法

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN114742905A (zh) * 2022-06-13 2022-07-12 魔视智能科技(武汉)有限公司 一种多相机参数标定方法、装置、设备及存储介质

Also Published As

Publication number Publication date
US10977830B2 (en) 2021-04-13
JPWO2018029950A1 (ja) 2019-06-06
JP6664000B2 (ja) 2020-03-13
US20190180476A1 (en) 2019-06-13

Similar Documents

Publication Publication Date Title
WO2018029950A1 (ja) 較正装置、較正方法、光学装置、撮影装置、および投影装置
WO2018173551A1 (ja) 較正装置、較正方法、光学装置、撮影装置および投影装置
JP6576945B2 (ja) 較正装置、較正方法、光学装置、撮影装置、投影装置、計測システムおよび計測方法
JP6675478B2 (ja) 較正装置、較正方法、光学装置、撮影装置、投影装置、計測システムおよび計測方法
Tang et al. A precision analysis of camera distortion models
JP6079333B2 (ja) 校正装置、方法及びプログラム
CN105096329B (zh) 一种精确校正超广角摄像头图像畸变的方法
US9348111B2 (en) Automatic detection of lens deviations
US9652847B2 (en) Method for calibrating a digital optical imaging system having a zoom system, method for correcting aberrations in a digital optical imaging system having a zoom system, and digital optical imaging system
US20090002574A1 (en) Method and a system for optical design and an imaging device using an optical element with optical aberrations
US20150346471A1 (en) Method for the image-based calibration of multi-camera systems with adjustable focus and/or zoom
Dufour et al. Integrated digital image correlation for the evaluation and correction of optical distortions
CN113920205B (zh) 一种非同轴相机的标定方法
CN113298886B (zh) 一种投影仪的标定方法
JP5998532B2 (ja) 補正式算出方法、補正方法、補正装置及び撮像装置
JP2008298589A (ja) 位置検出装置及び位置検出方法
JP6628678B2 (ja) 距離測定装置、撮像装置、および距離測定方法
CN110298890B (zh) 一种基于普朗克参数化的光场相机标定方法
JP6755737B2 (ja) 距離測定装置、撮像装置、および距離測定方法
JP2016066995A (ja) 像ズレ量算出装置、撮像装置、および像ズレ量算出方法
CN113160393A (zh) 基于大景深的高精度三维重建方法、装置及其相关组件
CN114739321B (zh) 一种用于光栅精密测量的结构光条纹校正方法
JP2008286548A (ja) キャリブレーション方法
WO2020152995A1 (ja) 画像処理装置
JP2005340985A (ja) 画像処理方法、画像処理装置、および画像処理プログラム

Legal Events

Date Code Title Description
121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 17839025

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2018533434

Country of ref document: JP

Kind code of ref document: A

NENP Non-entry into the national phase

Ref country code: DE

122 Ep: pct application non-entry in european phase

Ref document number: 17839025

Country of ref document: EP

Kind code of ref document: A1