WO2011155161A1 - 画像処理装置および画像処理方法 - Google Patents

画像処理装置および画像処理方法 Download PDF

Info

Publication number
WO2011155161A1
WO2011155161A1 PCT/JP2011/003105 JP2011003105W WO2011155161A1 WO 2011155161 A1 WO2011155161 A1 WO 2011155161A1 JP 2011003105 W JP2011003105 W JP 2011003105W WO 2011155161 A1 WO2011155161 A1 WO 2011155161A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
inclination
information
angle
unit
Prior art date
Application number
PCT/JP2011/003105
Other languages
English (en)
French (fr)
Inventor
淳 大宮
整 山田
Original Assignee
パナソニック株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by パナソニック株式会社 filed Critical パナソニック株式会社
Priority to EP11792121.3A priority Critical patent/EP2582127B1/en
Priority to CN201180003255.8A priority patent/CN102474573B/zh
Priority to JP2012500753A priority patent/JP5756455B2/ja
Priority to US13/381,399 priority patent/US9088715B2/en
Publication of WO2011155161A1 publication Critical patent/WO2011155161A1/ja

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20048Transform domain processing
    • G06T2207/20061Hough transform
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30244Camera pose

Definitions

  • the present invention relates to an image processing apparatus and an image processing method, and more particularly to an image correction technique.
  • Japanese Patent Application Laid-Open No. 2004-228688 provides a method in which an acceleration sensor is provided in an imaging apparatus, the inclination of the imaging apparatus with respect to the earth axis is detected by measuring gravitational acceleration, and the inclination of an image captured based on the detected inclination angle is corrected.
  • Patent Document 2 discloses a method for detecting line segments existing above a captured image, estimating the tilt angle of the entire image from the tilt angles of those line segments, and correcting the tilt of the captured image.
  • Patent Document 3 discloses a technique for improving the accuracy of tilt angle calculation by using a combination of a sensor and image processing.
  • Patent Document 4 when calculating the tilt angle of an image using image processing, the image is divided into small blocks, the directionality indicated by the texture in each block is determined, and the texture is unidirectional. A method of calculating an inclination angle only for a region having the target is shown. This method is equivalent to extracting the tilt information from only the structure in the image, and contributes to improving the accuracy and stability of the tilt angle calculation.
  • the sensor output value includes fluctuation components such as inertia noise and other-axis sensitivity. Highly accurate tilt correction is difficult. Further, in Patent Document 2, there is a limitation on the composition of the captured image, which is not practical in a general usage situation.
  • Patent Document 3 and Patent Document 4 it is proposed to use a combination of a sensor and image processing in order to compensate for the above drawbacks. That is, a method for selecting an angle component satisfying a certain standard from a plurality of tilt angle candidates using sensor information is shown, but when a fluctuation component is superimposed on the output value of the sensor, A decrease in accuracy is inevitable.
  • Patent Document 4 discloses a method of improving accuracy by removing in advance tilt angle information from a non-structure that can be a fluctuation component in tilt angle estimation. The effect cannot be shown when the angle information itself is a fluctuation component.
  • FIGS. 1A and 1B are diagrams for explaining an example in which inclination angle information from a structure is a fluctuation component.
  • FIG. 1A is an image taken using a wide-angle lens such as a fisheye lens.
  • a wide-angle lens such as a fisheye lens.
  • FIG. 1B is an example of an image obtained by cutting out the vicinity of the center of FIG. 1A and performing distortion correction.
  • FIG. 2 is an angle histogram in which the luminance gradient for each pixel of the image shown in FIG. 1B is represented by the angle on the horizontal axis and the frequency on the vertical axis. If this image is tilted by an angle ⁇ , it is desirable that the frequency of the bin of ⁇ should be the mode value, but the frequency of the bin of the angle obtained from the horizontal line of the structure exceeds that. You can see that Since this characteristic is particularly noticeable with wide-angle images, it cannot be solved by the method of previously removing the non-structure disclosed in Patent Document 4.
  • Patent Document 5 a vanishing point candidate and an edge extracted from an image are connected by a line segment, a histogram in which the frequency of the inclination angle of the line segment satisfying a predetermined criterion is accumulated, and the vanishing point candidate is changed one after another. A method is shown in which this histogram is obtained and the vanishing point candidate having the highest frequency is used as the vanishing point. If this vanishing point can be determined, the horizontal line of the structure can be specified, and the fluctuation component from the structure can be removed. However, when the method disclosed in Patent Document 5 is used, there is a possibility that the vertical lines of the structure are also removed. In addition, a predetermined reference must be set in advance, and it cannot be used when it cannot be assumed at what tilt angle the image is taken.
  • An object of the present invention is to make it possible to estimate an inclination angle by selecting information that can be used for estimating an inclination angle of an image from edge components obtained from the image and its inclination angle, and to correct the inclination of the image.
  • JP 2006-245726 A Japanese Patent No. 3676360 International Publication No. 2009-001512 International Publication No. 2009-008174 Japanese Unexamined Patent Publication No. 63-106875
  • An image processing apparatus includes an image acquisition unit, a tilt information calculation unit that calculates a plurality of tilt information for estimating the tilt of the image for each pixel of the image acquired by the image acquisition unit, and tilt information.
  • An angle histogram generation unit that generates an angle histogram that is a frequency distribution for each inclination angle using the plurality of inclination information calculated by the calculation unit, a plurality of inclination information, and a position on the image from which the information is obtained
  • the inclination information-position recording unit for recording the correspondence between the inclination information, the inclination information distribution degree calculating unit for calculating the distribution degree of inclination information from the inclination information and its position, and the inclination estimation of the inclination information from the distribution degree of inclination information
  • a false information determination unit that determines what can be used and what cannot be used, a peak detection unit that extracts the maximum value or maximum value of an angle histogram that can be used based on the determination result of the false information determination unit, Consisting of
  • the plurality of pieces of inclination information for estimating the inclination is obtained by calculating a line segment in the image together with an inclination angle thereof, and the inclination information calculation unit preliminarily stores the image.
  • the calculation process may be performed for a predetermined range for a predetermined pixel interval.
  • the plurality of pieces of inclination information for estimating the inclination is calculated by substituting the luminance information in the image into a predetermined arithmetic expression to obtain a luminance gradient of the luminance information.
  • the inclination information calculation unit may calculate the predetermined range of the image with respect to a predetermined pixel interval.
  • the angle histogram generation unit may weight each inclination angle information, and the weight may be increased as the length of the line segment detected from the image is longer.
  • the angle histogram generation unit may weight each inclination angle information, and the weight may be increased as the luminance gradient detected from the image is closer to the vertical.
  • the distribution degree of the inclination information may be a variance or a standard deviation with respect to a position for each inclination angle that is the same or within a predetermined range.
  • the false information determination unit compares the calculation result of the inclination information distribution degree calculation unit with a preset value, and determines an inclination angle that is within a certain or predetermined range. Of the inclination angle satisfying a predetermined criterion in the angle histogram generation unit, the inclination angle determined not to be false information in the false information determination unit May be selected.
  • the inclination estimation unit has an inclination angle that is determined not to be false information by the false information determination unit among inclination angles having a frequency that satisfies a predetermined criterion in the angle histogram generation unit.
  • the tilt angle having the highest frequency may be selected.
  • the image processing apparatus may further include an image correction unit that corrects an image according to the tilt information output by the tilt estimation unit.
  • This configuration makes it possible to correct an image based on the tilt information estimated by the tilt estimation unit.
  • At least two images are selected and read out from the image storage unit for storing the acquired image and the images stored in the image storage unit, and these images are combined to obtain a panoramic image.
  • a panoramic image creation unit for creating the panorama image, and the tilt information calculation unit performs a predetermined calculation on each pixel of the panoramic image to obtain a plurality of pieces of information for estimating the panorama image tilt. It may be extracted.
  • the tilt estimation unit estimates a tilt angle of the panoramic image, and uses the relative rotation angle between two or more images constituting the panoramic image to convert the panoramic image.
  • the inclination angle of each of the two or more images constituting the image may be calculated.
  • the tilt angle of an image when estimating the tilt angle of an image, for example, an image shot using a wide-angle lens and the horizontal component of the structure is dominant, the tilt angle of the image is set.
  • the information to be expressed can be selected, and the inclination angle can be estimated and corrected correctly.
  • FIG. 1A is a diagram illustrating an image photographed using a wide-angle lens for explaining an example in which tilt angle information from a structure is a fluctuation component.
  • FIG. 1B is a diagram illustrating an image in which the vicinity of the center in FIG. 1A is cut out and distortion is removed for explaining an example in which the tilt angle information from the structure is a fluctuation component.
  • FIG. 2 is a diagram showing an angle histogram of the image of FIG. 1B.
  • FIG. 3 is a diagram showing the configuration of the image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 4 is a flowchart showing the image processing method according to Embodiment 1 of the present invention.
  • FIG. 5 is a diagram for explaining the luminance gradient at points on the line segment.
  • FIG. 5 is a diagram for explaining the luminance gradient at points on the line segment.
  • FIG. 6A is a diagram illustrating a coefficient matrix used in the Sobel filter.
  • FIG. 6B is a diagram illustrating a coefficient matrix used in the Sobel filter.
  • FIG. 7A is a diagram for explaining parameters characterizing a line segment in the Hough transform.
  • FIG. 7B is a diagram for explaining parameters characterizing a line segment in the Hough transform.
  • FIG. 8 is a diagram for explaining an example of a format for recording an edge extracted from an image and its parameters.
  • FIG. 9A is a diagram showing the difference in the spatial distribution characteristics of the vertical and horizontal lines of the structure.
  • FIG. 9B is a diagram showing the difference in the spatial distribution characteristics of the vertical and horizontal lines of the structure.
  • FIG. 9C is a diagram illustrating the difference in the spatial distribution characteristics of the vertical and horizontal lines of the structure.
  • FIG. 9D is a diagram showing the difference in the spatial distribution characteristics of the vertical and horizontal lines of the structure.
  • FIG. 10 is a diagram showing the configuration of the image processing apparatus according to Embodiment 2 of the present invention.
  • FIG. 11A is a diagram illustrating an example of creating a panoramic image from a plurality of images and advantages of using the panoramic image in the second embodiment of the present invention.
  • FIG. 11B is a diagram illustrating an example of creating a panoramic image from a plurality of images and advantages of using a panoramic image in the second embodiment of the present invention.
  • FIG. 12 is a diagram showing the configuration of the image processing apparatus according to Embodiment 3 of the present invention.
  • FIG. 13 is a diagram illustrating an example of triaxial output values of the acceleration sensor.
  • FIG. 14 is a diagram illustrating an example of output values in the x and y directions when tilt detection is performed using an acceleration sensor.
  • FIG. 3 is a diagram showing the configuration of the image processing apparatus according to Embodiment 1 of the present invention.
  • FIG. 4 is a flowchart showing the image processing method according to Embodiment 1 of the present invention.
  • the image acquisition unit 301 takes the image data acquired by the imaging unit 307 into the image processing apparatus 300 and sends it to the inclination information calculation unit 302 (S401).
  • the inclination information calculation unit 302 calculates inclination information for the captured image (S402).
  • grayscale conversion is performed on the image, a vertical and horizontal Sobel filter is applied to each pixel, and the result is combined to calculate a gradient vector, or Hough conversion that extracts a line segment from the image
  • the present invention is not limited to this method.
  • the image when extracting a line segment from an image, the image is divided into a plurality of small regions, and it is checked whether or not each small region includes a line segment or a pixel having an inclination to be determined (that is, in advance). It is also possible to examine whether or not a line segment or a pixel having an inclination to be determined for a predetermined pixel interval in a predetermined range is included. With this configuration, the processing load of the inclination information calculation unit 302 or the processing load after the inclination information calculation unit 302 can be reduced.
  • FIGS. 7A and 7B are filter elements for measuring the contrast change in the x direction and the y direction, respectively.
  • line segment detection by Hough transform will be described with reference to FIGS. 7A and 7B.
  • FIG. 7A a straight line passing through the point (x_i, y_i) satisfies the following equation.
  • x_i ⁇ cos ⁇ + y_i ⁇ sin ⁇
  • represents the distance between the straight line and the origin
  • represents the angle between the perpendicular line from the origin to the straight line and the x axis.
  • the angle histogram generation unit 303 performs processing such as accumulating the gradient vectors having the same direction component or adding the lengths of the line segments obtained by the Hough transform having the same direction component. To generate an angle histogram (S403).
  • This angle histogram is an index that represents "how many edges exist in a certain angle direction". Generally, when only the structure is shown in the image with no tilt (when there is no distortion), the horizontal and vertical line components Therefore, the angle histogram values of 0 degree and 90 degrees have a strong peak. If the image is inclined by ⁇ as shown in FIGS. 1A and 1B, an angle histogram obtained by translating the angle histogram when there is no inclination as shown in FIG. 2 by ⁇ is obtained.
  • the present invention is not limited to this.
  • the image when obtaining a luminance gradient from an image, the image is divided into a plurality of small areas, and in each small area, is there a pixel having the same inclination angle in the direction of ⁇ 90 ° with the obtained inclination angle? (That is, whether or not a pixel having the same inclination angle is included in a direction that is ⁇ 90 ° with respect to an inclination angle obtained for a predetermined pixel interval in a predetermined range) may be used. .
  • the processing load of the inclination information calculation unit 302 or the processing load after the inclination information calculation unit 302 can be reduced.
  • the peak detection unit 304 searches for the angle indicating the maximum value of the angle histogram, and the tilt estimation unit 305 directly uses the angle indicating the maximum value of the angle histogram as the image tilt angle to perform image correction.
  • the unit 306 performs processing for correcting the tilt angle.
  • the peak detection unit 304 selects several local maximum values including the maximum value, and the slope estimation unit 305 calculates an envelope that smoothly connects the local maximum values by polynomial interpolation, the least square method, the gradient method, and the like.
  • the maximum value is calculated analytically, and this is used as the tilt angle of the image, and the tilt is corrected by the image correction unit 306.
  • the image correction unit 306 corrects rotation by affine transformation. In the present invention, the same processing is performed for the estimation of the tilt angle from the angle histogram and the correction by the affine transformation.
  • the tilt information-position recording unit 310 records the tilt information obtained by the tilt information calculation unit 302 in association with the position in the image (S411).
  • FIG. 8 is an example in which the tilt information and the coordinates representing the position in the image are recorded in association with each other.
  • the position of the tilt information in the image is not limited to coordinates, and may be vector data or the like as long as the position can be expressed.
  • frame ID, edge ID, x / y direction edge component, angle, edge strength, coordinates, etc. are recorded in association with each other.
  • a feature amount or the like at the time of performing may be added, or a minimum configuration such as edge ID, x / y direction edge, only coordinates, or only edge ID, angle, coordinates may be used.
  • the inclination information distribution degree calculation unit 311 extracts a plurality of pieces of inclination information having angles within a predetermined angular width from the database, and calculates a variance or standard deviation regarding these coordinates (S412).
  • V_x / y the variance of coordinates in the x / y direction
  • ⁇ _x / y the standard deviation in the x / y direction
  • FIGS. 9B to 9D are obtained by extracting the horizontal lines of the structure.
  • the horizontal line of the structure has the same inclination angle on the image only in the same horizontal line (in the case of FIG. 9D) or coincides with the inclination angle of the horizontal line of the structure on the opposite side of the vanishing point at the maximum.
  • the fake information determination unit 312 determines whether or not the information is fake information by determining the locality of a certain inclination angle using the feature of the structure edge as described above (S413 to S415).
  • a specific method of determining locality is to calculate Equation 1 or Equation 2 after calculating coordinates rotated by the inclination angle of the edge, and a set of inclination angles having locality as shown in FIGS.
  • the dispersion or standard deviation in the x direction or y direction after rotation is a very small value, in FIG. 9A, there is a method using a characteristic that both the x direction and the y direction have a certain size.
  • a method may be considered in which an image is divided into a plurality of small areas and each small area is examined to determine whether or not a line segment or a pixel having an inclination to be determined is included.
  • it may be checked whether there is a pixel having the same inclination angle in a direction that makes ⁇ 90 ° with the inclination angle obtained there, or the result of Hough conversion may be used as it is.
  • the locality determination method is not limited to the method described here, and any method may be used as long as it can determine the locality of the feature amount in the image.
  • the peak detection unit 304 and the inclination estimation unit 305 are information such as an inclination angle that gives a plurality of maximum values of the angle histogram in the angle histogram generation unit 303 or an inclination angle that gives a mode value, and an inclination by the false information determination unit 312.
  • the determination result for each angle is received.
  • the angle that gives the mode value among the inclination angles determined not to be false information is set as the inclination estimation angle, and this information is sent to the image correction unit 306 (S404, S405).
  • the image correction unit 306 can correct the amount of rotational movement between images by rotating the entire image by performing, for example, affine transformation.
  • the tilt estimation unit 305 may ignore the estimation result and use the angle estimated immediately before as the tilt angle. .
  • an appropriate error tolerance range (for example, ⁇ 1 °) is set for the inclination angle estimated immediately before by the inclination estimation unit 305, and the most frequent inclination angle determined not to be false information within this range.
  • a tilt angle that gives a value may be selected and used as an estimated angle.
  • the image correction unit 306 finally rotates the entire image to complete the correction of the target image (S406).
  • the corrected image may be stored in the storage unit 308 and then displayed on a monitor device (not shown) or saved as a file in an external storage device (not shown). Moreover, you may send out via a network.
  • angle histogram generation unit 303 may weight each inclination angle information, and the weight may be increased as the length of the line segment detected from the image is longer. This is because the longer the length of a line segment, the more likely it is a reliable horizontal or vertical line component.
  • angle histogram generation unit 303 may weight each inclination angle information, and the weight may be increased as the luminance gradient detected from the image is closer to the vertical.
  • a buffer for storing the estimated tilt angle may be provided.
  • This buffer stores the estimated tilt angle calculated in time series, and when the tilt angle of a single image cannot be calculated, the result of successful tilt angle estimation before and after that is used.
  • the estimation may be performed by performing interpolation. This is because the inclination angle of an image generally changes continuously in a device that acquires continuous images such as a movie, and by using this property, extrapolation processing can be performed from past inclination angle estimation results. It is also possible to estimate the tilt angle of the target image.
  • FIG. 10 is a diagram showing the configuration of the image processing apparatus according to Embodiment 2 of the present invention. 10, the same components as those in FIG. 3 are denoted by the same reference numerals, and description thereof is omitted.
  • the image storage unit 1001 records the image data obtained by the image acquisition unit 301 for a predetermined time width. It shall have the same configuration as the FIFO.
  • the panorama image creation unit 1002 sequentially reads the image data recorded in the image storage unit 1001 and creates a panorama image.
  • a known method may be used to create the panoramic image itself. When a panoramic image is created, the relative inclination angle between a plurality of image data serving as the original data is removed.
  • the panorama image is sent to the tilt information calculation unit 302, and thereafter, the tilt angle is estimated and the panorama image is corrected by the same method as in the first embodiment.
  • FIG. 11A and 11B are examples of panoramic images.
  • FIG. 11A shows that a single panoramic image is created by combining four images. The overlapping portion of the image 4 from the image 1 is detected and combined so that the deviation of the portion is eliminated. A single panoramic image is created.
  • FIG. 11B is an example of a line segment or pixel having the same inclination angle extracted from the panoramic image. For example, as in image 3 in FIG. 11B, there is a case where there is no difference in the locality of the spatial distribution between the vertical line of the structure represented by a solid line and the horizontal line of the structure represented by a dotted line. In such a case, it is difficult to determine false information according to the present invention, but it can be seen that the locality becomes remarkable by using a panoramic image.
  • the false information in the panoramic image can be clarified by creating the panoramic image, and the tilt angle can be estimated. Then, it is possible to determine the inclination angle of each image by feeding back the information to a single image. That is, the panorama image creation unit 1002 stores the tilt angle with respect to the reference image when creating the panorama image or the tilt angle with respect to the adjacent image, and calculates the relative angle for the result obtained by the tilt estimation unit 305. By performing addition / subtraction, tilt angle correction is performed for each of a plurality of images.
  • FIG. 12 is a diagram showing the configuration of the image processing apparatus according to Embodiment 3 of the present invention. 12, the same components as those in FIG. 3 are denoted by the same reference numerals, and the description thereof is omitted.
  • the sensor unit 1201 is installed inside or outside the imaging unit 307, and measures and outputs the movement of the imaging unit 307 at a predetermined cycle.
  • FIG. 13 shows an example of sensor output.
  • the sensor unit 1201 includes an acceleration sensor, a gyro sensor, an orientation sensor, and the like.
  • the sensor unit 1201 is required to have three measurement axes in order to measure all the movements of the imaging unit 307. You don't need an axis.
  • Image data and sensor data are handled so as to be synchronized inside the image processing apparatus 1200.
  • the sensor acquisition unit 1202 processes the acquired sensor data and calculates auxiliary information for calculating the estimated tilt angle.
  • the false information determination unit 312 uses information from the sensor acquisition unit 1202 to estimate which direction of the image the vertical direction is, and which of the line segment extracted from the image or the inclination angle of the pixel is the structure. Determine if it is likely to be a vertical line. Specifically, the inner product of the unit vector indicating the vertical direction obtained from the sensor information and the unit vector having the tilt angle extracted from the image is obtained, and the result is 1 (the tilt angle is represented by a normal vector).
  • FIG. 14 is an example showing changes in acceleration in the x and y directions.
  • FIG. 14 shows the acceleration obtained in each direction at the timings (a), (b), and (c), mapped onto a two-dimensional plane, and vectorized.
  • the vectors of (a), (b), and (c) indicate the inclination angle with respect to the vertical direction when the image capturing unit 307 captures the image
  • the image is tilted by rotating the image so that the direction is directed to the vertical direction. Can be removed.
  • the sensor value may not be accurate due to inertial noise or other axis sensitivity. In that case, correction by the method clarified in the present invention is required, but the effect of the present invention can be further enhanced by inputting the tilt direction measured by the sensor to the tilt estimation unit 305.
  • a predetermined range is set around the direction indicated by the sensor, and the setting is made from the angle histogram obtained by the angle histogram generation unit 303.
  • the mode value of the frequency within the specified range is set as the tilt angle.
  • the range setting may be a fixed value or a fluctuation value. In the case of a fluctuation value, it may be changed depending on the magnitude of movement, that is, the amplitude or stability of the sensor (a dispersion value within a predetermined time range can be used). .
  • the motion when the motion is small, it is determined that the error of the sensor output value is small and the range is set narrow, and when the motion is large, the error is determined to be large and the range is set wide.
  • the change may be continuous or a discrete value having two or more steps.
  • the estimated angle when the information for calculating the estimated angle cannot be obtained from the image, the estimated angle may be calculated from the past estimation result, the previous and subsequent estimation results, and the sensor value. In that case, applying the assumption that the tilt angle also changes continuously if the images are continuously acquired in time series, set an allowable value for the already estimated angle, and within that range If the sensor value falls within the range, a method may be considered in which the value is used as a correction value.
  • Each of the above devices is specifically a computer system including a microprocessor, a ROM, a RAM, a hard disk unit, a display unit, a keyboard, a mouse, and the like.
  • a computer program is stored in the RAM or hard disk unit.
  • Each device achieves its functions by the microprocessor operating according to the computer program.
  • the computer program is configured by combining a plurality of instruction codes indicating instructions for the computer in order to achieve a predetermined function.
  • a part or all of the components constituting each of the above devices may be configured by one system LSI (Large Scale Integration).
  • the system LSI is a super multifunctional LSI manufactured by integrating a plurality of components on one chip, and specifically, a computer system including a microprocessor, a ROM, a RAM, and the like. .
  • a computer program is stored in the RAM.
  • the system LSI achieves its functions by the microprocessor operating according to the computer program.
  • a part or all of the constituent elements constituting each of the above devices may be constituted by an IC card or a single module that can be attached to and detached from each device.
  • the IC card or the module is a computer system including a microprocessor, a ROM, a RAM, and the like.
  • the IC card or the module may include the super multifunctional LSI described above.
  • the IC card or the module achieves its function by the microprocessor operating according to the computer program. This IC card or this module may have tamper resistance.
  • the present invention may be the method described above. Further, the present invention may be a computer program that realizes these methods by a computer, or may be a digital signal composed of the computer program.
  • the present invention also provides a computer-readable recording medium such as a flexible disk, hard disk, CD-ROM, MO, DVD, DVD-ROM, DVD-RAM, BD (Blu-ray Disc). ), Recorded in a semiconductor memory or the like.
  • the digital signal may be recorded on these recording media.
  • the computer program or the digital signal may be transmitted via an electric communication line, a wireless or wired communication line, a network represented by the Internet, a data broadcast, or the like.
  • the present invention may be a computer system including a microprocessor and a memory, the memory storing the computer program, and the microprocessor operating according to the computer program.
  • the program or the digital signal is recorded on the recording medium and transferred, or the program or the digital signal is transferred via the network or the like, and executed by another independent computer system. It is good.
  • the image processing apparatus can be incorporated into a photographing apparatus, an image display apparatus, or a video display apparatus, thereby correcting the inclination of the acquired image and generating an image with the correct orientation. Even for an image that has been difficult with a tilt correction apparatus using conventional image processing, it is possible to extract tilt information of a desired image by integrating a plurality of pieces of image information.
  • the present invention can be applied not only to a photographing apparatus and a display apparatus but also to tilt correction other than electronic media such as a printer and a scanner that handle video.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Image Analysis (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)

Abstract

 2以上の画像間の相対的な傾き角度を算出するため、画像中に含まれる傾き情報をその位置情報とあわせて取得する。次に、それらの傾き情報が、あわせて取得した位置情報の画像中の分布特性から、傾き角度推定に使用できるか(偽情報かどうか)を判定する。そして、使用できると判定された傾き情報から傾き角度を推定する。かかる推定結果を用いて、取得した画像に含まれる傾きを補正し、正しい向きの画像を生成することができる。

Description

画像処理装置および画像処理方法
 本発明は画像処理装置及び画像処理方法に関し、特に画像補正の技術に関するものである。
 近年、カメラ、ムービーなどの撮影装置における手ブレ補正技術において、画像の傾きを補正する技術が提案されている。
 特許文献1には、撮像装置に加速度センサを設け、加速度センサにより重力加速度を測定することで撮像装置の地軸に対する傾きを検出し、検出した傾き角度に基づいて撮影した画像の傾きを補正する方法が開示されている。また特許文献2には、撮像画像の上部に存在する線分を検出し、それらの線分の傾き角から画像全体の傾き角を推定し、撮像画像の傾きを補正する方法が開示されている。また特許文献3にはセンサと画像処理とを組み合わせて使用することで、傾き角度算出の精度を向上させる手法が示されている。
 さらに特許文献4には、画像処理を用いて画像の傾き角度を算出する際に、画像を小ブロックに分割し、個々のブロックにおけるテクスチャが示す方向性を判定し、そのテクスチャが一方向性を有する領域のみを対象として傾き角度を算出する方法が示されている。この方法は画像中の構造物のみから傾き情報を抽出することと等価であり、傾き角度算出の精度と安定性の向上に寄与するものである。
 しかしながら、特許文献1に開示されているセンサを用いる方式では、センサの出力値に慣性ノイズや他軸感度などの変動成分が含まれるため、ムービーなど撮影者が移動しながら撮像を行う場合には高精度な傾き補正が困難である。また、特許文献2では撮像された画像の構図に制限があり、一般的な使用状況では実用的ではない。
 特許文献3および特許文献4では上記の欠点を補うため、センサと画像処理を組み合わせて使用することが提案されている。すなわち、センサ情報を用いて複数の傾き角度候補の中からある一定の基準を満たす角度成分を選択する方法が示されているが、センサの出力値に変動成分が重畳している場合にはその精度の低下は避けられない。加えて特許文献4には、傾き角度推定の際に変動成分となりうる非構造物からの傾き角度情報を予め除去することでその精度向上を図る方式が示されているが、構造物からの傾き角度情報そのものが変動成分となる場合には効果を示すことができない。
 図1A、図1Bは、構造物からの傾き角度情報が変動成分となる一例を説明するための図である。図1Aは魚眼レンズのような広角レンズを使用して撮影した映像である。一般に、広角撮影された映像には歪が存在するため、正しい画像処理結果を得るためにはキャリブレーションあるいはレンズの射影方式から逆算することによって、広角撮影画像の一部領域を切り出して歪の少ない映像を作成する必要がある。図1Bは、図1Aの中心付近を切り出してひずみ補正を行った画像の例である。図1A、図1Bのような構図においては、構造物の水平線は手前から奥行き方向に向かって伸びており、本来は平行線であるものが消失点に向かって収束していることがわかる。また、正しい傾き角度情報を提供する構造物の垂直線は、水平線に比べて相対的に少なく、そのため正しい傾き角度情報の検出が困難となる。図2は、図1Bに示した画像の画素毎の輝度勾配を、横軸に角度、縦軸に頻度をとった角度ヒストグラムである。この画像が角度θだけ傾いているとしたとき、本来であればθのbinの度数が最頻値をとることが望ましいが、構造物の水平線から得られた角度のbinの度数がそれを上回っていることがわかる。この特性は特に広角映像によって顕著になるため、特許文献4に開示された非構造物を予め除去する方法では解決が不可能である。
 特許文献5には、消失点候補と画像から抽出したエッジとを線分で結び、所定の基準を満たす線分の傾き角度の頻度を累積したヒストグラムを作成し、消失点候補を次々と変えながらこのヒストグラムを求め、最も大きな頻度を示す消失点候補を消失点とする方法が示されている。この消失点が決定できれば、構造物の水平線を特定できることになり、構造物からの変動成分を除去できる。しかしながら、特許文献5に示された方法を利用すると、構造物の垂直線も除去してしまう可能性がある。また、予め所定の基準を定めておかなければならず、どのような傾き角度で撮影が行われるか想定できない場合には使用することができない。
 本発明は、画像から得られるエッジ成分およびその傾き角度から、画像の傾き角度の推定に使用できる情報を選択することによって傾き角度推定を可能にし、画像の傾きを補正することを目的とする。
特開2006-245726号公報 特許第3676360号公報 国際公開第2009-001512号 国際公開第2009-008174号 特開昭63-106875号公報
 本発明の画像処理装置は、画像取得部と、画像取得部で取得した画像の各画素に対して、画像の傾きを推定するための複数の傾き情報を算出する傾き情報算出部と、傾き情報算出部で算出した複数の傾き情報を用いて、その傾き角度ごとの度数分布である角度ヒストグラムを生成する角度ヒストグラム生成部と、複数の傾き情報と、その情報が得られた画像上の位置との対応を記録する傾き情報-位置記録部と、傾き情報とその位置から、傾き情報の分布度を算出する傾き情報分布度算出部と、傾き情報の分布度から、傾き情報のうち傾き推定に使用できるものと使用できないものとを判定する偽情報判定部と、偽情報判定部の判定結果にもとづいて、使用できる角度ヒストグラムの最大値あるいは極大値を抽出するピーク検出部と、ピーク検出部が検出した最大値あるいは極大値が示す傾き角度から画像の傾き角度を推定する傾き推定部と、推定された傾き角度を用いて画像の傾きを補正する画像補正部とからなる。
 かかる構成によって、画像の傾き角度を推定する際に、画像から抽出した複数のエッジ及びその傾き角度から、傾き角度の推定に使用することのできる情報を選択することが可能になる。
 また、前記画像処理装置において、前記傾きを推定するための複数の傾き情報は、前記画像中の線分をその傾斜角とともに算出されたものであり、前記傾き情報算出部は、前記画像の予め定められた範囲を予め定められた画素間隔について前記算出処理を行う、としてもよい。
 また、前記画像処理装置において、前記傾きを推定するための複数の傾き情報は、前記画像中の輝度情報を所定の演算式に代入して演算を行って、前記輝度情報の輝度勾配を求めて算出されたものであり、前記傾き情報算出部は、前記画像の予め定められた範囲を予め定められた画素間隔について前記算出処理を行う、としてもよい。
 この構成により、傾き情報算出部の処理負荷、あるいは傾き情報算出部以降の処理負荷を軽減することが可能となる。
 また、前記画像処理装置において、前記角度ヒストグラム生成部は、各傾き角度情報に対する重み付けを行い、その重みは前記画像から検出された線分の長さが長いほど大きくする、としてもよい。
 また、前記画像処理装置において、前記角度ヒストグラム生成部は、各傾き角度情報に対する重み付けを行い、その重みは前記画像から検出された輝度勾配が垂直に近いほど大きくする、としてもよい。
 信頼できる水平線、垂直線成分、輝度勾配の重みを大きくすることで、傾き角度の推定と補正を正確に行うことが可能となる。
 また、前記画像処理装置において、前記傾き情報の分布度は、同一あるいは予め定められた範囲内にある傾き角度ごとの位置についての分散あるいは標準偏差である、としてもよい。
 また、前記画像処理装置において、前記偽情報判定部は、前記傾き情報分布度算出部の算出結果と予め設定された値とを比較して、ある同一あるいは予め定められた範囲内にある傾き角度が偽情報であるか否かを判断し、前記傾き推定部は前記角度ヒストグラム生成部において予め定められた基準を満たす傾き角度のうち、前記偽情報判定部において偽情報でないと判断された傾き角度を選択する、としてもよい。
 また、前記画像処理装置において、前記傾き推定部は前記角度ヒストグラム生成部において予め定められた基準を満たす度数を有する傾き角度のうち、前記偽情報判定部において偽情報でないと判断された傾き角度の中で最も高い度数を有する傾き角度を選択する、としてもよい。
 また、前記画像処理装置において、前記傾き推定部が出力する前記傾き情報にしたがって画像を補正する画像補正部をさらに備えるとしてもよい。
 この構成により、傾き推定部で推定した傾き情報に基づいた画像の補正が可能となる。
 また、前記画像処理装置において、取得した画像を記憶する画像蓄積部と、前記画像蓄積部に記憶された画像のうち、少なくとも2つの画像を選択して読み出し、この画像を結合してパノラマ画像を作成するパノラマ画像作成部と、をさらに有し、前記傾き情報算出部は、前記パノラマ画像の各画素に対して所定の演算を行って、前記パノラマ画像の傾きを推定するための複数の情報を抽出する、としてもよい。
 この構成により、画像中の線分、あるいは画素の傾き角度毎の局所性がより明確になるため、傾き角度の推定精度が向上する。
 また、前記画像処理装置において、前記傾き推定部は前記パノラマ画像についての傾き角度を推定し、前記パノラマ画像を構成する2つ以上の画像間の相対的な回転角度を用いて、前記パノラマ画像を構成する2つ以上の画像それぞれの傾き角度を算出する、としてもよい。
 本発明の画像処理装置によれば、画像の傾き角度を推定する際に、例えば広角レンズを用いて撮影され、構造物の水平成分が支配的となる画像であっても、画像の傾き角度を表す情報を選択することができ、正しく傾き角度の推定と補正が可能になる。
図1Aは、構造物からの傾き角度情報が変動成分となる一例を説明するための、広角レンズを用いて撮影された画像を示す図である。 図1Bは、構造物からの傾き角度情報が変動成分となる一例を説明するための、図1Aの中心付近を切り出し、歪を除去した画像を示す図である。 図2は、図1Bの画像の角度ヒストグラムを示した図である。 図3は、本発明の実施の形態1における画像処理装置の構成を示す図である。 図4は、本発明の実施の形態1における画像処理方法を示すフローチャートである。 図5は、線分上の点における輝度勾配を説明する図である。 図6Aは、Sobelフィルタで用いられる係数行列を示す図である。 図6Bは、Sobelフィルタで用いられる係数行列を示す図である。 図7Aは、Hough変換における線分を特徴付けるパラメータを説明する図である。 図7Bは、Hough変換における線分を特徴付けるパラメータを説明する図である。 図8は、画像から抽出したエッジとそのパラメータを記録するフォーマットの一例を説明する図である。 図9Aは、構造物の垂直線と水平線の空間的分布特性の違いを示す図である。 図9Bは、構造物の垂直線と水平線の空間的分布特性の違いを示す図である。 図9Cは、構造物の垂直線と水平線の空間的分布特性の違いを示す図である。 図9Dは、構造物の垂直線と水平線の空間的分布特性の違いを示す図である。 図10は、本発明の実施の形態2における画像処理装置の構成を示す図である。 図11Aは、複数の画像からパノラマ画像を作成した例と本発明の実施の形態2におけるパノラマ画像を用いる利点を説明する図である。 図11Bは、複数の画像からパノラマ画像を作成した例と本発明の実施の形態2におけるパノラマ画像を用いる利点を説明する図である。 図12は、本発明の実施の形態3における画像処理装置の構成を示す図である。 図13は、加速度センサの3軸の出力値の一例を示す図である。 図14は、加速度センサを用いて傾き検出を行う際のx方向、y方向の出力値の一例を示す図である。
 以下、本発明の実施の形態の構成と動作について、図面を参照しながら説明する。
 (実施の形態1)
 図3は、本発明の実施の形態1における画像処理装置の構成を示す図である。また、図4は、本発明の実施の形態1における画像処理方法を示すフローチャートである。
 画像取得部301は、撮像部307で取得した画像データを画像処理装置300に取り込み、傾き情報算出部302に送る(S401)。傾き情報算出部302では、取り込んだ画像に対して傾き情報を算出する(S402)。その手法としては、画像をグレースケール変換し、画素ごとに縦方向、横方向のSobelフィルタを作用させ、その結果を合成して勾配ベクトルを算出する方法や、画像から線分抽出を行うHough変換を作用させ、線分長さとその傾き角度を算出する方法などがあるが、本発明はこれに限定するものではない。
 例えば、画像から線分抽出を行う際に、画像を複数の小領域に分割し、各小領域に判断対象となる傾きを持った線分、あるいは画素が含まれるかどうかを調べる(すなわち、予め定められた範囲の予め定められた画素間隔について判断対象となる傾きを持った線分、あるいは画素が含まれるかどうかを調べる)としてもよい。この構成により、傾き情報算出部302の処理負荷、あるいは傾き情報算出部302以降の処理負荷を軽減することが可能となる。
 ここで、勾配ベクトルの算出について図5、図6A、図6Bを用いて説明する。図5において位置Pにおける画像の画素値をI(P)とし、Pにおけるx方向、y方向のコントラスト変化をそれぞれdx、dyとしたとき、
 dx=∂I(P)/∂x、dy=∂I(P)/∂y
と表せる。このとき、コントラスト変化の方向をθとすると、
 θ=tan^(-1)(dy/dx)
が成り立ち、これが前述の勾配ベクトルの方向に相当する。dx、dyを求めるには図6A、図6Bに示すSobelフィルタを用いる。図6Aおよび図6Bはそれぞれx方向、y方向のコントラスト変化を測定するためのフィルタ要素である。次にHough変換による線分検出について図7A、図7Bを用いて説明する。図7Aにおいて、点(x_i、y_i)を通る直線は次式を満たす。
 ρ=x_i・cosθ+y_i・sinθ
なお、ρは直線と原点との距離、θは原点から直線への垂線とx軸のなす角を表す。
 これは点(x_i、y_i)を通る直線群が図7Bにおける一本の曲線に対応付けられることを意味する。いっぽう、同じ直線状にある複数の点について同様の対応を行うと、得られる複数の曲線は一点で交わり、この交点(ρ、θ)がこれらの点を通る直線を示している。すなわち、あるθに着目し、ρの数をカウントすることで傾きθの線分の数が取得できる。
 角度ヒストグラム生成部303は、勾配ベクトルのうち同じ方向成分を持つものを累積する、あるいはHough変換で求めた線分のうち同じ方向成分を持つものをその長さ分加算する、といった処理を行うことによって角度ヒストグラムを生成する(S403)。この角度ヒストグラムは「ある角度方向のエッジがどれほど存在するか」を表す指標となり、一般に画像に傾きがない状態で構造物のみが写っている場合(歪がない場合)には水平線や垂直線成分が多くなるため、0度および90度の角度ヒストグラムの値が強いピークを持つ形状となる。図1Aおよび図1Bのようにθだけ傾いた画像であれば、図2のように傾きがない場合の角度ヒストグラムがθだけ平行移動した角度ヒストグラムが得られる。
 なお、本実施の形態では、画素ごとに輝度勾配を求める例を説明したが、本発明はこれに限定するものではない。例えば、画像から輝度勾配を求める際に、画像を複数の小領域に分割し、各小領域において、そこで得られた傾き角度と±90゜をなす方向に同一の傾き角度を持つ画素があるかどうかを調べる(すなわち、予め定められた範囲の予め定められた画素間隔について得られた傾き角度と±90゜をなす方向に同一の傾き角度を持つ画素が含まれるかどうかを調べる)としてもよい。この構成により、傾き情報算出部302の処理負荷、あるいは傾き情報算出部302以降の処理負荷を軽減することが可能となる。
 従来の画像処理による傾き角度推定では、ピーク検出部304によって角度ヒストグラムの最大値を示す角度を探索し、傾き推定部305によって角度ヒストグラムの最大値を示す角度をそのまま画像の傾き角度として、画像補正部306においてその傾き角度を補正する処理を行っていた。あるいはピーク検出部304によって最大値を含む極大値数点を選択し、傾き推定部305ではその極大値を滑らかにつなぐような包絡線を多項式内挿、最少二乗法、勾配法などで算出したうえで最大値を解析的に算出し、これを画像の傾き角度として、画像補正部306においてその傾きを補正していた。一般に画像補正部306ではアフィン変換によって回転が補正される。本発明においても角度ヒストグラムからの傾き角度の推定とアフィン変換による補正は同様の処理を行う。
 傾き情報-位置記録部310では、傾き情報算出部302で求めた傾き情報と、その画像中の位置を関連付けて記録する(S411)。図8は、傾き情報とその画像中の位置を表す座標とを関連付けて記録した例である。なお、傾き情報の画像中の位置は、座標に限定されるものではなく、位置を表せればベクトルデータ等であってもよい。例えばフレームID、エッジID、x/y方向エッジ成分、角度、エッジ強度、座標などが関連付けられて記録されるが、このデータベースに構造物から得られたエッジであるか否か、あるいは特徴点抽出を行った際の特徴量などを追加してもよいし、エッジID、x/y方向エッジ、座標のみ、あるいはエッジID、角度、座標のみといった最小構成としてもよい。傾き情報分布度算出部311では前記データベースから所定の角度幅の範囲内にある角度を持つ複数の傾き情報を抽出し、それらの座標に関する分散あるいは標準偏差を計算する(S412)。x/y方向の座標の分散をそれぞれV_x/y、x/y方向の標準偏差をそれぞれσ_x/yとしたとき、Vおよびσは以下の式で表現できる。
 (式1) V_x=(1/n)Σ(x-x_n)^2,V_y=(1/n)Σ(y-y_n)^2
 (式2) σ_x=√(V_x),σ_y=√(V_y)
ここでx、yはそれぞれの座標の平均値であり、nはそのエッジ数である。このデータベースに登録された傾き情報はいずれかの角度範囲の集合に属し、そのすべての集合に対して座標についての標準偏差あるいは分散が求められる。なお、ある集合の分散度合を求める計算方法であればこれに限定するものではない。
 ここで、正しい傾き角度を与える構造物の垂直線と、偽情報となる構造物の水平線との画像上の幾何的な配置特性について論じる。図9Aから図9Dは、図1Bに示した画像から同じ傾き角度を持つ線分、あるいは画素を抽出したものである。図9Aは、構造物の垂直線であり、画像上の幅広い位置に分散して配置されていることがわかる。これに対し、図9Bから図9Dは、構造物の水平線を抽出したものである。構造物の水平線が画像上で同じ傾き角度となるのは、同一の水平線のみ(図9Dの場合)か、最大でも消失点に対して反対側にある構造物の水平線の傾き角度と偶然一致するとき(図9Bまたは図9Cの場合)であり、最大で2箇所にしか現れず、画像上の非常に狭い範囲に分布していることがわかる。この局所性を検出することができれば、画像の傾き角度推定に使用できるかどうかの判断ができることになる。
 偽情報判定部312では、前述のような構造物エッジの特徴を利用し、ある注目する傾き角度の局所性を判断することによって、偽情報であるか否かを判定する(S413からS415)。局所性の判断の具体的な方法は、エッジの傾き角度だけ回転した座標を算出したうえで式1あるいは式2を求め、図9Bから図9Dのような局所性を持った傾き角度の集合は回転後のx方向あるいはy方向の分散あるいは標準偏差が非常に小さい値となるが、図9Aではx方向、y方向のいずれもある程度の大きさを持つ、という特性を利用する方法がある。さらに、画像を複数の小領域に分割し、各小領域に判断対象となる傾きを持った線分、あるいは画素が含まれるかどうかを調べると言った方法などが考えられる。または、輝度勾配を求める際にそこで得られた傾き角度と±90゜をなす方向に同一の傾き角度を持つ画素があるかどうかを調べたり、Hough変換の結果をそのまま利用してもよい。局所性判断の方法は、ここに述べた方法に限定するものではなく、画像中における特徴量の局所性を判断できる方法であればどのような方法を利用してもよい。
 ピーク検出部304、傾き推定部305は、前記角度ヒストグラム生成部303における角度ヒストグラムの極大値を複数を与える傾き角度、あるいは最頻値を与える傾き角度といった情報と、前記偽情報判定部312による傾き角度ごとの判定結果を受け取る。このとき、例えば偽情報でないと判断された傾き角度のうち最頻値を与える角度を傾き推定角度と設定し、この情報を画像補正部306へ送る(S404,S405)。画像補正部306では例えばアフィン変換などを行って、画像全体を回転させることよって画像間の回転移動量を補正することができる。ここで、傾き推定部305は、前述の方法で設定した傾き推定角度が直前に推定された傾き角度と大きく異なっている場合、推定結果を無視し直前に推定された角度を傾き角度としてもよい。あるいは、傾き推定部305が直前に推定した傾き角度に対して適当な誤差許容範囲(例えば±1゜など)を設定し、この範囲内での偽情報でないと判定された傾き角度のうち最頻値を与える傾き角度を選択し、これを推定角度としてもよい。いずれの場合も最終的に画像補正部306において画像全体を回転させることによって、目的の画像の補正が完了する(S406)。
 補正後の画像は記憶部308に格納した後、図示しないモニタ装置に表示したり、図示しない外部記憶装置にファイルとして保存したり、してもよい。また、ネットワークを介して送出してもよい。
 以上が本発明の実施の形態1における画像処理装置300の構成と動作である。
 なお、角度ヒストグラム生成部303は、各傾き角度情報に対する重み付けを行い、その重みは前記画像から検出された線分の長さが長いほど大きくする、としてもよい。線分の長さが長いほど、信頼できる水平線あるいは垂直線成分である可能性が高いためである。
 また、角度ヒストグラム生成部303は、各傾き角度情報に対する重み付けを行い、その重みは前記画像から検出された輝度勾配が垂直に近いほど大きくする、としてもよい。
 なお、傾き角度を推定するために必要な情報を保有していない画像に対しては、何も処理を行わないようにしてもよい。たとえば、人物や自然物が画面いっぱいに映っている画像では、構造物情報が存在しないために傾き情報の算出が行えない。このような場合には視覚的にも画像の傾きについての感度が低くなる(傾いていても品質の低下を感じにくくなる)ため、人物や自然物から抽出した不安定かつ確度の低い傾き推定角度を用いて補正を行うよりも、補正自体をキャンセルしたほうがよい。
 なお、推定された傾き角度を保存するバッファを設けてもよい。このバッファには時系列で算出された推定傾き角度を保存しておき、ある一枚の画像の傾き角度の算出が不可であった場合に、その前後の傾き角度推定が成功した結果を用いた補間を行うことで推定を行ってもよい。ムービーなど連続した画像を取得する機器においては、画像の傾き角度は連続的に変化することが一般的であるためであり、この性質を用いることで、過去の傾き角度推定結果から外挿処理を用いて対象画像の傾き角度を推定することも可能である。
 (実施の形態2)
 図10は、本発明の実施の形態2における画像処理装置の構成を示す図である。図10において、図3と同じ構成要素については同じ符号を用い、説明を省略する。
 画像蓄積部1001は、画像取得部301で得た画像データを所定の時間幅だけ記録する。FIFOと同様の構成を持つものとする。パノラマ画像作成部1002は画像蓄積部1001に記録されている画像データを順次読み出し、パノラマ画像を作成する。パノラマ画像の作成自体は公知の方式を用いてよい。パノラマ画像を作成する際にはその元データとなる複数の画像データ間の相対的な傾き角度は除去されるものとする。パノラマ画像は傾き情報算出部302に送られ、以降、実施の形態1と同様の方法で、傾き角度の推定とパノラマ画像の傾き補正が行われる。
 パノラマ画像を作成することで、画像中の線分、あるいは画素の傾き角度毎の局所性がより明確になる。図11A、図11Bはパノラマ画像の例である。図11Aは、4枚の画像を合成して1枚のパノラマ画像を作成したことを示しており、画像1から画像4の重なっている部分を検出し、その部分のズレがなくなるように合成することで一枚のパノラマ画像を作成している。図11Bはパノラマ画像から抽出した線分あるいは画素の同じ傾き角度を持つものの一例である。例えば図11Bの画像3のように、実線で表された構造物の垂直線と点線で表された構造物の水平線が空間的な分布の局所性に差がないような場合がある。このような場合には本発明での偽情報判定が困難であるが、パノラマ画像にすることによってその局所性が顕著になっていることがわかる。
 これにより、仮に単一の画像において偽情報判定が不可能であった場合であっても、パノラマ画像を作成することによってパノラマ画像における偽情報を明らかにすることができ、傾き角度推定ができる。そして、その情報を単一画像にフィードバックすることによって個々の画像の傾き角度を決定することが可能となる。すなわち、パノラマ画像作成部1002ではパノラマ画像を作成する際の基準画像に対する傾き角度、あるいは隣接する画像に対する傾き角度を保存しておき、傾き推定部305で得られた結果に対して相対角度分を加減算することによって、複数の画像毎の傾き角度補正を行う。
 以上が本発明における実施の形態2における画像処理装置1000の構成と動作である。
 (実施の形態3)
 図12は、本発明の実施の形態3における画像処理装置の構成を示す図である。図12において、図3と同じ構成要素については同じ符号を用い、説明を省略する。
 センサ部1201は撮像部307の内部あるいは外部に設置され、撮像部307の動きを所定の周期で計測、出力する。図13はセンサ出力の一例である。一般に撮像部307が画像をキャプチャするときに同期して、その動きを計測するのがよい。センサ部1201は加速度センサ、ジャイロセンサ、方位センサなどで構成されており、理想的には撮像部307の動きすべてを計測できるよう、それぞれ3軸の計測軸を持つことが求められるが、必ずしもすべての軸を必要とはしない。画像データとセンサデータは、画像処理装置1200の内部では同期するように扱われる。センサ取得部1202は取得したセンサデータを処理し、推定傾き角度を算出するための補助情報を算出する。具体的には、センサ値に対してフィルタリングを施して、所望に帯域成分を抽出したり、予め強化学習によって構成された識別器を用いてセンサ群の振る舞いから動き方向を推定したりすることが可能である。これらの情報は、偽情報判定部312や傾き推定部305に送られる。偽情報判定部312は、センサ取得部1202からの情報を用いて、鉛直方向が画像のどの方向であるかを推定し、画像から抽出された線分あるいは画素の傾き角度のいずれが構造物の垂直線である可能性が高いかを決定する。具体的にはセンサ情報から得た鉛直方向を示す単位ベクトルと、画像から抽出された傾き角度を持つ単位ベクトルとの内積を求め、その結果が1(傾き角度が法線ベクトルで表されている場合は0)に近いものが垂直線の可能性が高い、と判断できる。また、傾き推定部305では、例えば加速度センサ、ジャイロセンサを用いて撮像部307の傾き角度をセンサによって大まかに推定し、傾き推定部305で推定傾き角度を算出する際の制約条件とすることもできる。図14はx方向、y方向の加速度の変化を示した一例である。(a)、(b)、(c)のタイミングでそれぞれの方向の加速度を取得し、2次元平面にマッピングしてベクトル化したものを図14に示す。(a)、(b)、(c)のベクトルは、その方向が撮像部307の撮像時の鉛直方向に対する傾き角度を示しているため、これが鉛直方向を向くように画像を回転させることで傾きを除去できる。ところで、歩きながらの撮影では、センサの値が慣性ノイズや他軸感度などで正確でなくなる場合がある。その場合には本発明で明らかにした方法での補正が必要となるが、センサによって計測された傾き方向を傾き推定部305に入力することにより、本発明の効果をさらに高めることができる。すなわち、センサによって示された方向が画像の真の鉛直方向である可能性が高いとし、センサの示す方向を中心として所定の範囲を設定し、角度ヒストグラム生成部303において求めた角度ヒストグラムからその設定された範囲内の頻度の最頻値を傾き角度とする。なお、範囲設定は固定値でも変動値でもよく、変動値の場合には動きの大きさ、すなわちセンサの振幅や安定度(所定時間範囲内の分散値などが利用できる)によって変化させてもよい。その場合は動きが小さいときはセンサの出力値の誤差は小さいと判断して範囲を狭く設定し、動きが大きいときは誤差が大きいと判断して範囲を広く設定する。その変化は連続的でもよいし、2段階以上の離散値であってもよい。あるいは、画像から推定角度を算出するための情報が得られない場合は、過去の推定結果、あるいは前後の推定結果と、センサ値とから推定角度を算出してもよい。その場合、時系列上で連続的に取得された画像であれば傾き角度も連続的に変化する、という仮定を適用し、すでに推定済みの角度に対して許容値を設定して、その範囲内にセンサ値が収まっていればその値を補正値とする、といった方式が考えられる。
 以上が本発明における実施の形態3における画像処理装置1200の構成と動作である。
 (その他変形例)
 なお、本発明を上記実施の形態に基づいて説明してきたが、本発明は、上記の実施の形態に限定されないのはもちろんである。以下のような場合も本発明に含まれる。
 (1)上記の各装置は、具体的には、マイクロプロセッサ、ROM、RAM、ハードディスクユニット、ディスプレイユニット、キーボード、マウスなどから構成されるコンピュータシステムである。前記RAMまたはハードディスクユニットには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、各装置は、その機能を達成する。ここでコンピュータプログラムは、所定の機能を達成するために、コンピュータに対する指令を示す命令コードが複数個組み合わされて構成されたものである。
 (2)上記の各装置を構成する構成要素の一部または全部は、1個のシステムLSI(Large Scale Integration:大規模集積回路)から構成されているとしてもよい。システムLSIは、複数の構成部を1個のチップ上に集積して製造された超多機能LSIであり、具体的には、マイクロプロセッサ、ROM、RAMなどを含んで構成されるコンピュータシステムである。前記RAMには、コンピュータプログラムが記憶されている。前記マイクロプロセッサが、前記コンピュータプログラムにしたがって動作することにより、システムLSIは、その機能を達成する。
 (3)上記の各装置を構成する構成要素の一部または全部は、各装置に脱着可能なICカードまたは単体のモジュールから構成されているとしてもよい。前記ICカードまたは前記モジュールは、マイクロプロセッサ、ROM、RAMなどから構成されるコンピュータシステムである。前記ICカードまたは前記モジュールは、上記の超多機能LSIを含むとしてもよい。マイクロプロセッサが、コンピュータプログラムにしたがって動作することにより、前記ICカードまたは前記モジュールは、その機能を達成する。このICカードまたはこのモジュールは、耐タンパ性を有するとしてもよい。
 (4)本発明は、上記に示す方法であるとしてもよい。また、これらの方法をコンピュータにより実現するコンピュータプログラムであるとしてもよいし、前記コンピュータプログラムからなるデジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記デジタル信号をコンピュータ読み取り可能な記録媒体、例えば、フレキシブルディスク、ハードディスク、CD-ROM、MO、DVD、DVD-ROM、DVD-RAM、BD(Blu-ray Disc)、半導体メモリなどに記録したものとしてもよい。また、これらの記録媒体に記録されている前記デジタル信号であるとしてもよい。
 また、本発明は、前記コンピュータプログラムまたは前記デジタル信号を、電気通信回線、無線または有線通信回線、インターネットを代表とするネットワーク、データ放送等を経由して伝送するものとしてもよい。
 また、本発明は、マイクロプロセッサとメモリを備えたコンピュータシステムであって、前記メモリは、上記コンピュータプログラムを記憶しており、前記マイクロプロセッサは、前記コンピュータプログラムにしたがって動作するとしてもよい。
 また、前記プログラムまたは前記デジタル信号を前記記録媒体に記録して移送することにより、または前記プログラムまたは前記デジタル信号を前記ネットワーク等を経由して移送することにより、独立した他のコンピュータシステムにより実施するとしてもよい。
 (5)上記実施の形態及び上記変形例をそれぞれ組み合わせるとしてもよい。
 本発明にかかる画像処理装置は、撮影装置あるいは画像表示装置、映像表示装置へ組み込むことで、取得した画像の傾きを補正し、正しい向きの画像を生成することができる。従来の画像処理を用いた傾き補正装置では困難であった画像であっても、複数の画像情報を統合することで所望の画像の傾き情報を抽出することができる。また、本発明は撮影装置、表示装置のみではなく、映像を扱うプリンタやスキャナなどの電子媒体以外の傾き補正への応用も可能である。
 301  画像取得部
 302  傾き情報算出部
 303  角度ヒストグラム生成部
 304  ピーク検出部
 305  傾き推定部
 306  画像補正部
 307  撮像部
 308  記憶部
 310  傾き情報-位置記録部
 311  傾き情報分布度算出部
 312  偽情報判定部
 1001  画像蓄積部
 1002  パノラマ画像作成部
 1201  センサ部
 1202  センサ取得部

Claims (18)

  1. 画像取得部と、
    前記画像取得部で取得した画像の各画素に対して、画像の傾きを推定するための複数の傾き情報を算出する傾き情報算出部と、
    前記傾き情報算出部で算出した複数の傾き情報を用いて、その傾き角度ごとの度数分布である角度ヒストグラムを生成する角度ヒストグラム生成部と、
    前記複数の傾き情報と、その情報が得られた画像上の位置との対応を記録する傾き情報-位置記録部と、
    前記傾き情報とその前記位置から、傾き情報の分布度を算出する傾き情報分布度算出部と、
    前記傾き情報の分布度から、前記傾き情報のうち傾き推定に使用できるものと使用できないものとを判定する偽情報判定部と、
    前記偽情報判定部の判定結果にもとづいて、使用できる前記角度ヒストグラムの最大値あるいは極大値を抽出するピーク検出部と、
    前記ピーク検出部が検出した前記最大値あるいは前記極大値が示す傾き角度から画像の傾き角度を推定する傾き推定部と
    からなる画像処理装置。
  2. 前記画像の傾きを推定するための複数の傾き情報は、前記画像中の線分をその傾斜角とともに算出されたものであり、
    前記傾き情報算出部は、前記画像の予め定められた範囲を予め定められた画素間隔について前記算出処理を行う
    請求項1に記載の画像処理装置。
  3. 前記画像の傾きを推定するための複数の傾き情報は、前記画像中の輝度情報を所定の演算式に代入して演算を行って、前記輝度情報の輝度勾配を求めて算出されたものであり、
    前記傾き情報算出部は、前記画像の予め定められた範囲を予め定められた画素間隔について前記算出処理を行う
    請求項1に記載の画像処理装置。
  4. 前記傾き情報算出部は、前記画像の予め定められた範囲における輝度勾配から得られる傾き角度と±90°をなす方向に同一の傾き角度を持つ画素があるかどうかを調べることで前記算出処理を行う
    請求項3に記載の画像処理装置。
  5. 前記角度ヒストグラム生成部は、各傾き角度情報に対する重み付けを行い、その重みは前記画像から検出された線分の長さが長いほど大きくする
    請求項2に記載の画像処理装置。
  6. 前記角度ヒストグラム生成部は、各傾き角度情報に対する重み付けを行い、その重みは前記画像から検出された輝度勾配が垂直に近いほど大きくする
    請求項3に記載の画像処理装置。
  7. 前記傾き情報の分布度は、同一あるいは予め定められた範囲内にある傾き角度ごとの位置についての分散あるいは標準偏差である
    請求項1に記載の画像処理装置。
  8. 前記偽情報判定部は、前記傾き情報分布度算出部の算出結果と予め設定された値とを比較して、ある同一あるいは予め定められた範囲内にある傾き角度が偽情報であるか否かを判断し、
    前記傾き推定部は前記角度ヒストグラム生成部において予め定められた基準を満たす傾き角度のうち、前記偽情報判定部において偽情報でないと判断された傾き角度を選択する
    請求項1に記載の画像処理装置。
  9. 前記傾き推定部は前記角度ヒストグラム生成部において予め定められた基準を満たす度数を有する傾き角度のうち、前記偽情報判定部において偽情報でないと判断された傾き角度の中で最も高い度数を有する傾き角度を選択する
    請求項1に記載の画像処理装置。
  10. 前記傾き推定部が出力する前記傾き情報にしたがって画像を補正する画像補正部
    をさらに備える請求項1に記載の画像処理装置。
  11. 取得した画像を記憶する画像蓄積部と、
    前記画像蓄積部に記憶された画像のうち、少なくとも2つの画像を選択して読み出し、この画像を結合してパノラマ画像を作成するパノラマ画像作成部と、
    をさらに備え、
    前記傾き情報算出部は、前記パノラマ画像の各画素に対して所定の演算を行って、前記パノラマ画像の傾きを推定するための複数の情報を抽出する
    請求項1に記載の画像処理装置。
  12. 前記傾き推定部は前記パノラマ画像についての傾き角度を推定し、
    前記パノラマ画像を構成する2つ以上の画像間の相対的な回転角度を用いて、前記パノラマ画像を構成する2つ以上の画像それぞれの傾き角度を算出する
    請求項11に記載の画像処理装置。
  13. 撮像部の動きを計測するセンサ部からのデータを取得するセンサ取得部
    をさらに備え、
    前記センサ取得部は、前記傾き角度から画像の傾き角度を推定するための補助情報を算出する
    請求項1に記載の画像処理装置。
  14. 前記偽情報判定部は、前記センサ取得部から得られた前記補助情報を用いて、鉛直方向が
    画像のどの方向であるかを推定し、画像から抽出された線分あるいは画素の傾き角度のいずれが垂直線であるかを決定する
    請求項13に記載の画像処理装置。
  15. 画像取得ステップと、
    前記画像取得ステップで取得した画像の各画素に対して、画像の傾きを推定するための複数の傾き情報を算出する傾き情報算出ステップと、
    前記傾き情報算出ステップで算出した複数の傾き情報を用いて、その傾き角度ごとの度数分布である角度ヒストグラムを生成する角度ヒストグラム生成ステップと、
    前記複数の傾き情報と、その情報が得られた画像上の位置との対応を記録する傾き情報-位置記録ステップと、
    前記傾き情報とその前記位置から、傾き情報の分布度を算出する傾き情報分布度算出ステップと、
    前記傾き情報の分布度から、前記傾き情報のうち傾き推定に使用できるものと使用できないものとを判定する偽情報判定ステップと、
    前記偽情報判定ステップの判定結果にもとづいて、使用できる前記角度ヒストグラムの最大値あるいは極大値を抽出するピーク検出ステップと、
    前記ピーク検出ステップで検出した前記最大値あるいは前記極大値が示す傾き角度から画像の傾き角度を推定する傾き推定ステップと
    からなる画像処理方法。
  16. 請求項1に記載の画像処理装置を含む集積回路。
  17. 請求項15に記載の画像処理方法をコンピュータに実行させるためのプログラム。
  18. 請求項17に記載のプログラムを記憶した記憶媒体。
PCT/JP2011/003105 2010-06-11 2011-06-02 画像処理装置および画像処理方法 WO2011155161A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
EP11792121.3A EP2582127B1 (en) 2010-06-11 2011-06-02 Image processing apparatus and image processing method
CN201180003255.8A CN102474573B (zh) 2010-06-11 2011-06-02 图像处理装置以及图像处理方法
JP2012500753A JP5756455B2 (ja) 2010-06-11 2011-06-02 画像処理装置および画像処理方法
US13/381,399 US9088715B2 (en) 2010-06-11 2011-06-02 Image processing apparatus and image processing method for image correction

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2010-133623 2010-06-11
JP2010133623 2010-06-11

Publications (1)

Publication Number Publication Date
WO2011155161A1 true WO2011155161A1 (ja) 2011-12-15

Family

ID=45097780

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2011/003105 WO2011155161A1 (ja) 2010-06-11 2011-06-02 画像処理装置および画像処理方法

Country Status (5)

Country Link
US (1) US9088715B2 (ja)
EP (1) EP2582127B1 (ja)
JP (1) JP5756455B2 (ja)
CN (1) CN102474573B (ja)
WO (1) WO2011155161A1 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013094154A1 (ja) * 2011-12-21 2013-06-27 パナソニック株式会社 画像処理装置および画像処理方法
JP5843033B1 (ja) * 2014-05-15 2016-01-13 株式会社リコー 撮像システム、撮像装置、プログラムおよびシステム
JP5843034B1 (ja) * 2014-05-15 2016-01-13 株式会社リコー 動画表示装置およびプログラム
JP2016111585A (ja) * 2014-12-09 2016-06-20 日本電気株式会社 画像処理装置、システム、画像処理方法、およびプログラム
JP2017175616A (ja) * 2012-09-11 2017-09-28 株式会社リコー 撮像装置、画像処理装置および方法
CN117078913A (zh) * 2023-10-16 2023-11-17 第六镜科技(成都)有限公司 对象倾斜矫正方法、装置、电子设备和存储介质

Families Citing this family (25)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5267794B2 (ja) * 2008-12-26 2013-08-21 株式会社リコー 画像処理装置及び車載カメラ装置
JP5696419B2 (ja) * 2010-09-30 2015-04-08 カシオ計算機株式会社 画像処理装置及び方法、並びにプログラム
CN102789642B (zh) 2011-05-16 2017-08-25 索尼公司 消失方向确定方法和装置、摄像机自标定方法和装置
JP2013214947A (ja) * 2012-03-09 2013-10-17 Ricoh Co Ltd 撮像装置、撮像システム、画像処理方法、情報処理装置、及びプログラム
US9094540B2 (en) * 2012-12-13 2015-07-28 Microsoft Technology Licensing, Llc Displacing image on imager in multi-lens cameras
US9025823B2 (en) * 2013-03-12 2015-05-05 Qualcomm Incorporated Tracking texture rich objects using rank order filtering
JP6070449B2 (ja) * 2013-07-08 2017-02-01 富士ゼロックス株式会社 傾斜角度補正装置、画像読取装置、画像形成装置およびプログラム
KR101482448B1 (ko) * 2013-11-01 2015-01-15 경북대학교 산학협력단 허프 변환을 통한 직선 정보 검출 방법 및 장치
JP5967504B1 (ja) * 2015-05-18 2016-08-10 パナソニックIpマネジメント株式会社 全方位カメラシステム
US10937168B2 (en) * 2015-11-02 2021-03-02 Cognex Corporation System and method for finding and classifying lines in an image with a vision system
DE102016120775A1 (de) 2015-11-02 2017-05-04 Cognex Corporation System und Verfahren zum Erkennen von Linien in einem Bild mit einem Sichtsystem
JP6604831B2 (ja) * 2015-11-30 2019-11-13 キヤノン株式会社 画像処理装置、画像処理装置の制御方法及びプログラム
US10148875B1 (en) * 2016-05-17 2018-12-04 Scott Zhihao Chen Method and system for interfacing multiple channels of panoramic videos with a high-definition port of a processor
KR102540236B1 (ko) * 2016-12-05 2023-06-02 삼성전자주식회사 이미지 처리 장치 및 시스템
CN108038820B (zh) * 2017-11-14 2021-02-02 影石创新科技股份有限公司 一种实现子弹时间拍摄效果的方法、装置及全景相机
US10652472B2 (en) * 2018-02-22 2020-05-12 Adobe Inc. Enhanced automatic perspective and horizon correction
CN108462838B (zh) * 2018-03-16 2020-10-02 影石创新科技股份有限公司 一种全景视频防抖方法、装置及便携式终端
CN109447070B (zh) * 2018-10-31 2020-08-28 新华三信息安全技术有限公司 一种信息确定方法及装置
US11128814B2 (en) * 2018-11-30 2021-09-21 Vecnos Inc. Image processing apparatus, image capturing apparatus, video reproducing system, method and program
CN109902695B (zh) * 2019-03-01 2022-12-20 辽宁工程技术大学 一种面向像对直线特征匹配的线特征矫正与提纯方法
CN110312070B (zh) * 2019-04-23 2021-08-24 维沃移动通信有限公司 一种图像处理方法及终端
JP7316867B2 (ja) * 2019-07-25 2023-07-28 キオクシア株式会社 半導体画像処理装置
CN111639642B (zh) * 2020-05-07 2023-07-07 浙江大华技术股份有限公司 一种图像处理方法、设备及装置
CN112818991B (zh) * 2021-02-18 2024-04-09 长江存储科技有限责任公司 图像处理方法及图像处理装置、电子设备、可读存储介质
US20220406003A1 (en) * 2021-06-17 2022-12-22 Fyusion, Inc. Viewpoint path stabilization

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63106875A (ja) 1986-10-24 1988-05-11 Nissan Motor Co Ltd 消点検出装置
JPH06290260A (ja) * 1993-03-31 1994-10-18 Toppan Printing Co Ltd 台紙入力装置
JPH0737103A (ja) * 1993-07-23 1995-02-07 Olympus Optical Co Ltd 傾き角度検出装置
JP2002207963A (ja) * 2001-01-11 2002-07-26 Ricoh Co Ltd 画像処理装置
JP3676360B2 (ja) 2003-02-25 2005-07-27 松下電器産業株式会社 画像撮像処理方法
JP2006245726A (ja) 2005-03-01 2006-09-14 Fuji Photo Film Co Ltd デジタルカメラ
WO2009001512A1 (ja) 2007-06-27 2008-12-31 Panasonic Corporation 撮像装置、方法、システム集積回路、及びプログラム
WO2009001510A1 (ja) * 2007-06-28 2008-12-31 Panasonic Corporation 画像処理装置、画像処理方法、プログラム
WO2009008174A1 (ja) 2007-07-12 2009-01-15 Panasonic Corporation 画像処理装置、画像処理方法、画像処理プログラム、画像処理プログラムを記録した記録媒体、および、画像処理プロセッサ

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP1184808A3 (en) * 2000-08-29 2003-10-29 Eastman Kodak Company Method for detection of skew angle and border of document images in a production scanning environment
JP4285287B2 (ja) * 2004-03-17 2009-06-24 セイコーエプソン株式会社 画像処理装置、画像処理方法およびそのプログラム、記録媒体
JP4755490B2 (ja) 2005-01-13 2011-08-24 オリンパスイメージング株式会社 ブレ補正方法および撮像装置
CN100487522C (zh) * 2005-01-13 2009-05-13 奥林巴斯映像株式会社 模糊校正方法及摄像装置
US8422788B2 (en) * 2008-08-26 2013-04-16 Microsoft Corporation Automatic image straightening
GB2473248A (en) * 2009-09-04 2011-03-09 Sony Corp Determining image misalignment by comparing image characteristics at points along a line
KR100976138B1 (ko) * 2009-09-16 2010-08-16 (주)올라웍스 건축물 이미지의 계층적 매칭 방법, 시스템 및 컴퓨터 판독 가능한 기록 매체
US8610708B2 (en) * 2010-09-22 2013-12-17 Raytheon Company Method and apparatus for three-dimensional image reconstruction

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS63106875A (ja) 1986-10-24 1988-05-11 Nissan Motor Co Ltd 消点検出装置
JPH06290260A (ja) * 1993-03-31 1994-10-18 Toppan Printing Co Ltd 台紙入力装置
JPH0737103A (ja) * 1993-07-23 1995-02-07 Olympus Optical Co Ltd 傾き角度検出装置
JP2002207963A (ja) * 2001-01-11 2002-07-26 Ricoh Co Ltd 画像処理装置
JP3676360B2 (ja) 2003-02-25 2005-07-27 松下電器産業株式会社 画像撮像処理方法
JP2006245726A (ja) 2005-03-01 2006-09-14 Fuji Photo Film Co Ltd デジタルカメラ
WO2009001512A1 (ja) 2007-06-27 2008-12-31 Panasonic Corporation 撮像装置、方法、システム集積回路、及びプログラム
WO2009001510A1 (ja) * 2007-06-28 2008-12-31 Panasonic Corporation 画像処理装置、画像処理方法、プログラム
WO2009008174A1 (ja) 2007-07-12 2009-01-15 Panasonic Corporation 画像処理装置、画像処理方法、画像処理プログラム、画像処理プログラムを記録した記録媒体、および、画像処理プロセッサ

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2582127A4

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103460249B (zh) * 2011-12-21 2016-08-17 松下知识产权经营株式会社 图像处理装置以及图像处理方法
CN103460249A (zh) * 2011-12-21 2013-12-18 松下电器产业株式会社 图像处理装置以及图像处理方法
JPWO2013094154A1 (ja) * 2011-12-21 2015-04-27 パナソニックIpマネジメント株式会社 画像処理装置および画像処理方法
US9183633B2 (en) 2011-12-21 2015-11-10 Panasonic Intellectual Property Management Co., Ltd. Image processing apparatus and image processing method
WO2013094154A1 (ja) * 2011-12-21 2013-06-27 パナソニック株式会社 画像処理装置および画像処理方法
JP2019097178A (ja) * 2012-09-11 2019-06-20 株式会社リコー 撮像装置、画像処理装置および方法
JP2017175616A (ja) * 2012-09-11 2017-09-28 株式会社リコー 撮像装置、画像処理装置および方法
JP5843033B1 (ja) * 2014-05-15 2016-01-13 株式会社リコー 撮像システム、撮像装置、プログラムおよびシステム
JP2016149752A (ja) * 2014-05-15 2016-08-18 株式会社リコー ファイル
JP2016149733A (ja) * 2014-05-15 2016-08-18 株式会社リコー 撮像システム、撮像装置、プログラムおよびシステム
JP2016149734A (ja) * 2014-05-15 2016-08-18 株式会社リコー 動画表示装置およびプログラム
JP5843034B1 (ja) * 2014-05-15 2016-01-13 株式会社リコー 動画表示装置およびプログラム
US10681268B2 (en) 2014-05-15 2020-06-09 Ricoh Company, Ltd. Imaging system, imaging apparatus, and system
JP2016111585A (ja) * 2014-12-09 2016-06-20 日本電気株式会社 画像処理装置、システム、画像処理方法、およびプログラム
CN117078913A (zh) * 2023-10-16 2023-11-17 第六镜科技(成都)有限公司 对象倾斜矫正方法、装置、电子设备和存储介质
CN117078913B (zh) * 2023-10-16 2024-02-02 第六镜科技(成都)有限公司 对象倾斜矫正方法、装置、电子设备和存储介质

Also Published As

Publication number Publication date
JPWO2011155161A1 (ja) 2013-08-01
CN102474573A (zh) 2012-05-23
EP2582127A1 (en) 2013-04-17
JP5756455B2 (ja) 2015-07-29
US9088715B2 (en) 2015-07-21
CN102474573B (zh) 2016-03-16
US20120105578A1 (en) 2012-05-03
EP2582127A4 (en) 2014-07-23
EP2582127B1 (en) 2018-04-18

Similar Documents

Publication Publication Date Title
JP5756455B2 (ja) 画像処理装置および画像処理方法
JP5694300B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP4950290B2 (ja) 撮像装置、方法、システム集積回路、及びプログラム
CN102714696B (zh) 图像处理装置、图像处理方法及摄影装置
US8798387B2 (en) Image processing device, image processing method, and program for image processing
CN105407271B (zh) 图像处理设备和方法、摄像设备以及图像生成设备
JP5074322B2 (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
EP1670237A2 (en) Matching un-synchronized image portions
US9224212B2 (en) Image processing apparatus and image processing method
JP2007228154A (ja) 画像処理装置および画像処理方法
US8774550B2 (en) Picture processing device, picture processing method, integrated circuit, and program
JP2011259342A (ja) 画像処理装置および画像処理方法
KR101845612B1 (ko) 투구 연습을 통한 3차원 정보 획득 시스템 및 카메라 파라미터 산출 방법
CN111279352A (zh) 通过投球练习的三维信息获取***及摄像头参数算出方法
JP2019149717A (ja) 画像処理装置及び画像処理方法、撮像装置、プログラム、記憶媒体
US20230377102A1 (en) Image processing apparatus, image processing method, and non-transitory computer-readable storage medium
JP2010041416A (ja) 画像処理装置、画像処理方法、画像処理プログラム、及び、撮像装置
JP2016146546A (ja) 画像処理装置、情報処理方法及びプログラム
JP2014007579A (ja) 映像振れ補正装置及び映像振れ補正方法

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 201180003255.8

Country of ref document: CN

WWE Wipo information: entry into national phase

Ref document number: 13381399

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2012500753

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 11792121

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2011792121

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE