WO2005046221A1 - 画像処理装置、画像処理方法、そのプログラムおよび記録媒体 - Google Patents

画像処理装置、画像処理方法、そのプログラムおよび記録媒体 Download PDF

Info

Publication number
WO2005046221A1
WO2005046221A1 PCT/JP2004/017128 JP2004017128W WO2005046221A1 WO 2005046221 A1 WO2005046221 A1 WO 2005046221A1 JP 2004017128 W JP2004017128 W JP 2004017128W WO 2005046221 A1 WO2005046221 A1 WO 2005046221A1
Authority
WO
WIPO (PCT)
Prior art keywords
images
image
image processing
shift amount
still
Prior art date
Application number
PCT/JP2004/017128
Other languages
English (en)
French (fr)
Inventor
Seiji Aiso
Original Assignee
Seiko Epson Corporation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Seiko Epson Corporation filed Critical Seiko Epson Corporation
Priority to US10/578,635 priority Critical patent/US7738731B2/en
Priority to JP2005515385A priority patent/JP4325625B2/ja
Priority to EP04799741A priority patent/EP1684506A4/en
Publication of WO2005046221A1 publication Critical patent/WO2005046221A1/ja
Priority to US12/800,608 priority patent/US7961985B2/en

Links

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/40Picture signal circuits
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T3/00Geometric image transformations in the plane of the image
    • G06T3/40Scaling of whole images or parts thereof, e.g. expanding or contracting
    • G06T3/4053Scaling of whole images or parts thereof, e.g. expanding or contracting based on super-resolution, i.e. the output image resolution being higher than the sensor resolution
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/30Determination of transform parameters for the alignment of images, i.e. image registration

Definitions

  • Image processing apparatus image processing method, program thereof, and recording medium
  • the present invention relates to an image processing device that generates one still image using a plurality of images, an image processing method, a computer program, and a recording medium.
  • an image processing apparatus and an image processing method for generating a single high-resolution image by combining a plurality of images For example, a technique is known in which one scene is determined from a moving image captured by a digital video camera, and a still image having a higher resolution (higher pixel density) than the determined one frame image is known.
  • one frame image is selected as a reference image from a series of (n + 1) frame images, and the motion vectors of the other n frame images (target images) with respect to this reference image are respectively determined.
  • a still image is generated by synthesizing (n + 1) frame images (see, for example, Japanese Patent Application Laid-Open No. 2000-240845). . It is said that such an image synthesis processing method can achieve high quality and clear images compared to a method of simply converting the resolution of a one-frame image. Disclosure of the invention
  • An object of the present invention is to solve such a problem and execute efficient image processing when generating one high-resolution image from a plurality of images.
  • the first image processing apparatus of the present invention employs the following method in order to solve at least a part of the above problems.
  • an image processing apparatus that generates a still image with a high pixel density from a plurality of images, an image extracting unit that extracts a plurality of images used for generating the still images, and a shift amount between the extracted plurality of images.
  • Deviation amount detecting means for detecting the deviation amount; identifying means for identifying two or more images from the plurality of extracted images based on the detected deviation amount; and synthesizing the identified two or more images.
  • the gist of the invention is to provide an image synthesizing means for generating one still image.
  • a first image processing method is an image processing method for generating a still image having a high pixel density from a plurality of images, the method comprising: extracting a plurality of images used for generating the still images; Detecting a shift amount between the plurality of images, and identifying two or more images from the plurality of extracted images based on the detected shift amounts, and synthesizing images other than the identified two images.
  • the purpose is to generate one still image.
  • the first image processing apparatus and the image processing method (referred to as first image processing)
  • a shift amount between a plurality of images is detected, and two or more images are combined based on the shift amount.
  • image processing a configuration is provided in which an image serving as a reference for synthesizing the one still image is provided, and a plurality of images are assigned to the specified image in accordance with a predetermined sequence. An image may be extracted. According to such image processing, extraction of a plurality of images to be used for synthesizing a still image having a high pixel density is performed in a previously associated order based on a specified image. Multiple images to be used for composition are automatically extracted by specifying one image.
  • the plurality of images may be a plurality of images that are continuous in time series, and the associated order may be an order that is continuous in time series from the specified image.
  • the image extraction process can be simplified.
  • the number of images used for synthesizing the images may be displayed prior to generation of one static ih image.
  • the user can easily recognize the number of images used for the image synthesis processing.
  • the number of images not used for the composition may be displayed.
  • a warning may be displayed when the number of images other than the specified two does not reach the predetermined number. Further, when the number of the specified two or more images does not reach the predetermined number, whether or not to execute the synthesis of the images may be selected. According to such image processing, a warning is given to the user in advance that the number of images used for the image synthesis processing does not reach the predetermined number, so that effective sharpening of one generated still image cannot be expected; ⁇ it can.
  • the synthesizing process can be stopped at an early stage without performing the synthesizing process which requires a long processing time. For example, when the number of detected images exceeds at least one predetermined threshold value by setting a predetermined number of images, the synthesizing process can be immediately stopped.
  • images in which the detected shift amount exceeds a predetermined threshold are excluded from the plurality of extracted images, and images other than the images thus excluded are replaced with the two or more images.
  • the image may be specified as the image.
  • the predetermined threshold may be set as a specific value, or may be set as the number of pixels of the image to be synthesized. On the other hand, it is also possible to set a predetermined ratio. For example, it may be determined as several percent to 10 percent of the number of vertical and horizontal pixels. Of course, a fixed value may be used. For example, in the case of a translational deviation amount, the predetermined threshold value for determination may be about ⁇ 16 pixels, and in the case of a rotational deviation, the predetermined threshold value for determination may be about ⁇ 1 °.
  • an image in which the translation error between the images exceeds ⁇ 16 pixels and the rotation error or the rotation error exceeds ⁇ 1 ° is excluded from the image synthesis target, or the synthesis process is stopped.
  • the image to be synthesized may contain blur. Therefore, by making a judgment based on this threshold value, it is possible to perform an image combining process while excluding images that are unlikely to contribute to image combining, or to cancel the image combining process.
  • the plurality of images used for the image processing may be a plurality of frame images included in a moving image. Usually, it is particularly effective when a plurality of low-resolution frame images are combined to generate one high-resolution still image.
  • the plurality of images used in the image processing can be a plurality of still images having information on exposure time that changes according to the brightness of the shooting target at the time of shooting, and based on the exposure time, May be set to the predetermined threshold value.
  • a threshold value for a shift amount between images is set for each still image from information on the exposure time at the time of photographing of the still image.
  • the deviation is detected Based on the time ratio between the photographing time interval and the exposure time of the two images to be processed, the allowable deviation amount within the exposure time of one still image is examined, and a threshold is set.
  • a threshold value corresponding to each still image can be set adaptively, instead of a fixed threshold value.
  • the present invention can also be implemented as a computer program product and a medium recording a computer program.
  • FIG. 1 is an explanatory diagram showing an image processing system as a first embodiment of the present invention.
  • FIG. 2 is a flowchart of the image processing of the first embodiment.
  • FIG. 3 is an explanatory diagram showing a positional shift between two images.
  • FIG. 4 is an explanatory diagram showing a method of calculating the amount of translational deviation by the gradient method.
  • FIG. 5 is an explanatory diagram schematically showing the amount of rotation deviation of a pixel.
  • FIG. 6 is an explanatory diagram of a relationship between an image shift amount and a range contributing to sharpening.
  • FIG. 7 is a flowchart of the image processing of the second embodiment.
  • FIG. 8 is an explanatory diagram of a deviation amount detection procedure in the second embodiment.
  • FIG. 9 is a flowchart of the image processing of the third embodiment.
  • FIG. 10 is an explanatory diagram of a relationship between a shooting cycle of a still image and an exposure time.
  • a 1. Configuration of image processing device :
  • FIG. 1 is an explanatory diagram showing an image processing system 100 as a first embodiment of the present invention.
  • the image processing system 100 includes an image database 20 that supplies image data such as a moving image and a still image, and an image that executes image processing on a plurality of images input from the image database 20. It is composed of a personal computer 30 as a processing device, a user interface 40 for a user to instruct execution of image processing, a color printer 50 for outputting an image subjected to image processing, and the like.
  • Image Data Base 20 has equipment to handle images such as digital video talent 21, digital still camera 22, DVD 23, and hard disk 24, and supplies image data to personal computer 30. I do.
  • the image data held in the image database 20 in the first embodiment is moving image data acquired by the digital video talent mera 21.
  • the image data handled in the image processing of the present embodiment is called a frame image.
  • This frame image is composed of a plurality of The personal computer 30, which is an image and a part of a moving image, includes a CPU 31 for executing image processing, a ROM 32, a RAM 33, a hard disk 34 on which image processing software is installed, and an image. It has an IZF circuit 35 for exchanging with external devices such as a database 20, a user interface 40, and a color printer 50.
  • the image processing of the software installed on the hard disk 34 is a processing of synthesizing a plurality of input frame images to generate one high-resolution still image.
  • the personal computer 30 on which this software is installed has the functions of “image extracting means”, “deviation amount detecting means”, “exclusion means”, and “image combining means” as image processing devices. The flow of this image processing will be described later in detail.
  • the user interface 40 includes a keyboard 41 and a mouse 42 for a user to perform an image processing execution operation, and a display 43 for displaying a frame image before performing the image processing and a still image after the synthesis processing. ing.
  • FIG. 2 is a flowchart of the image processing according to the first embodiment in which a plurality of pieces of image data are combined to generate one still image.
  • the image processing installed in the personal computer 30 is started.
  • the / ⁇ ° personal computer 30 inputs moving image data, which is a set of frame image data, from the image database 20 and reproduces the moving image data on the display 43.
  • the user can replay a scene that he / she wants to output as a still image.
  • Perform the operation of pausing the raw image and specify the scene (frame image) (step S200).
  • the personal computer 30 extracts frame images to be used for image processing from the specified frame images in chronological order (step S210).
  • frame images In this embodiment, four consecutive frame images are input in chronological order from the designated operation timing of the frame image.
  • the one specified by the user that is, the first one in the time series
  • the other frame images are the target frame images (F2 to F2). 4).
  • the number of frame images to be extracted may be arbitrarily set by the user.
  • the personal computer 30 detects a shift amount between the frame images of the four frame images designated and extracted in this way (step S220). As shown in Fig. 3, the displacement detected here is the "position displacement" between the two images.
  • the translation displacements u and V represent the translational displacement, and the rotational displacement represents the rotational displacement. It is represented by the three elements of the quantity ⁇ .
  • the personal computer 30 detects a shift amount (u, ⁇ , ⁇ ) between the reference frame image Fl and each of the three ⁇ f elephant frame images (F2 to F4). The method of detecting the shift amount will be described later.
  • the personal computer 30 determines whether or not the shift amount between the frame images adjacent in time series is within a predetermined range (threshold). For example, if the shift amount between the target frame image F2 and the target frame image F3 is larger than the threshold value, it can be estimated that the digital pancake melody 21 1 is consciously moved and the pan is fast.
  • the personal convenience server 30 determines the target frame image F 3 that may have blurred as a result of the determination.
  • a process for excluding from the object of synthesis is performed (step S230).
  • a threshold value of the lower limit is set for the translational deviation amounts u and V, and the judgment is made on the translational deviation amounts u and V between all the frame images.
  • the image F2 and the target frame image F4 are the same image, and there is a case where it is not necessary to use the same target frame image for image synthesis. In other words, since there are almost no frame images (the same image), it is sufficient to use one of them for the image synthesis processing.
  • a threshold value of 0. ⁇ pixel is set for the translation shift amount u, V between the frame images. If the detected shift amount u, V is 0.1 pixel or less, the synthesis is performed. Targets have been excluded.
  • the personal computer 30 performs an image synthesizing process using the target frame image that has not been excluded and the reference frame image F1 (step S240). Specifically, the target frame image obtained by correcting the position shift in the reference frame image F 1
  • the target frame image F 2 (For example, the target frame image F 2) is superimposed, and the gradation value of each pixel of the composite image is determined based on the gradation value of each pixel of both.
  • the well-known bilinear method is used for the gradation value of each pixel of the composite image. Note that, instead of the bilinear method, another well-known method such as the dual neighbor method or the bicubic method may be used.
  • the synthesis processing using this bilinear method is executed by j jets to generate one still image. In the present embodiment, even if the number of target frame images used in the combining process is reduced as a result of excluding the target frame images based on the predetermined threshold, the combining process is executed as it is.
  • the personal computer 30 The number of images used for the composition is displayed on the display 43, but the number of images used for the composition may be displayed prior to the execution of the composition processing. Further, a time-series continuous frame image (fifth image) is further extracted from the image database 20 as a target frame image, and the processing from step S220 is repeated to obtain the target frame image to be used in the synthesis processing. The number may always be kept constant. Further, a frame image preceding the reference frame image F1 in time series may be extracted. The personal computer 30 displays the still image thus synthesized at a predetermined position on the display 43, and ends this processing. The user performs an operation of outputting the still image to a color printer 20 or a hard disk 34 as desired.
  • This series of image processing does not contribute to increasing the resolution and sharpness of the synthesized image, such as an image in which the target frame image itself contains blurring or almost the same target frame image as the reference frame image F1.
  • the target frame image is excluded in advance. Therefore, efficient image processing can be performed.
  • the positional shift between the reference frame image F 1 and the target frame image F 2 is represented by the three frames (u, v, 6).
  • the reference frame image F 1 has a rectangular coordinate system (X 1, y 1) with the origin at the center of the image, the X 1 axis in the horizontal direction, and the y 1 axis in the vertical direction.
  • Figure 3 shows that the target frame image F 2 is rotated u relative to the reference frame image F 1 in the horizontal direction, v in the vertical direction, and the center of the target frame image.
  • FIG. 4 is an explanatory diagram showing a method of calculating the amount of translation error by the gradient method.
  • Figures 4 (a) and 4 (c) show the brightness of the pixels on each image
  • Figures 4 (b) and 4 (d) show the principle of the gradient method.
  • (X 1 i, y 1 i) indicates the coordinates of one pixel on the reference frame image F 1
  • B l (x 1 i, y 1 i) indicates the luminance of that pixel .
  • the pixel at the coordinates (x 2 i, y 2 i) on the target frame image F 2 is the coordinate (x 1 i to xli + l, y 1 i to y 1 i) on the reference frame image F 1. +1), and the coordinates are ( ⁇ ⁇ i + ⁇ , y 1 i + ⁇ y).
  • the pixel at the coordinates (x2i, y2i) in the target frame image F2 is shifted to the coordinates (x1i + ⁇ X, y) on the reference frame image F1.
  • ⁇ x that satisfies, it is possible to determine the translation displacement amount in the X-axis direction of the target frame image F2.
  • is calculated for each pixel and the average is calculated.
  • the pixel at the coordinates (x 2 i, y 2 i) in the target frame image F 2 is at the coordinates (x 1 i, y 1 i + ⁇ y) on the reference frame image F 1,
  • the translation deviation amount in the y-axis direction of the target frame image F 2 can be determined.
  • ⁇ y is calculated for each pixel, and the average is taken. Since equation (3) above considers only the X-axis direction and equation (6) above considers only the y-axis direction, if this is extended in both the X-axis direction and the y-axis direction,
  • FIG. 5 is an explanatory diagram schematically showing the amount of rotation deviation of a pixel.
  • r is the distance from the origin 0 of the coordinates (X 1, y 1) of the reference frame image F 1 and 0 is the rotation angle from the X 1 axis.
  • FIG. 6 is an explanatory diagram of a relationship between an image shift amount and a range contributing to sharpening.
  • the horizontal axis represents translational amounts u and v
  • the vertical axis represents rotational deviation ⁇
  • the criteria that contribute to high resolution and sharpness are defined in areas (a), (b), and (c).
  • the area (a) is the range of the shift between adjacent frame images caused by normal camera shake and panning
  • the area (b) is the fast panning and the distance between adjacent frame images when the rotation operation is intentionally performed.
  • the range of displacement, area (c), indicates the range of possible translation and rotation displacements.
  • the range of the region (a) is a region that satisfies the condition of ⁇ 16 pixels ⁇ translational deviation u, ⁇ ⁇ ⁇ 6 pixels, and 1 ° ⁇ rotational deviation ⁇ 5 ⁇ 1 °. If the shift amount between the frame images is included in the region (a), it is determined that the frame image is a target frame image that contributes to sharpening of the image. In other words, ⁇ 16 pixels and ⁇ 1 ° were set as threshold values that contribute to sharpening of the image.
  • the threshold value may be a fixed value as described above, but may be set according to image conditions, synthesis conditions, and the like.
  • this threshold may be learned. The user is allowed to judge the quality of the combined image, and when it is determined that the image is satisfactory for sharpening, the threshold value is increased, and when it is determined that the image is not satisfactory for sharpening, the threshold value is decreased. And the user gradually learns the threshold for the image to be used. It is good.
  • FIG. 7 is a flowchart of image processing according to the second embodiment for generating one still image by combining a plurality of pieces of image data.
  • a judgment step for stopping the image synthesizing process is provided, which is different from the case of the first embodiment shown in FIG. Therefore, the processing common to the first embodiment will be briefly described.
  • the hardware configuration of the image processing system according to the second embodiment is the same as that of the first embodiment, and thus the same reference numerals are used and the description is omitted.
  • the personal computer 30 inputs the frame image data from the image data database 20 (step S400). .
  • the image specified by the user is set as a reference frame image F 1, and three frame images continuous in time series from the reference frame image F 1 are set as the target frame image ( It is extracted as F2 to F4) (step S410).
  • the personal computer 30 detects the shift amount (LI, v, (5)) between the frame images (step S420) .
  • This shift amount detection processing is performed in the same manner as in the first embodiment. Detects the amount of displacement (u, V, ⁇ ) between each frame image of F1 and three target frame images (F2 to F4), and as shown in FIG. In the shift amount detection processing between the reference frame image F 1 and the target frame image F 2, the processing between the reference frame image F 1 and the target frame image F 2 is performed.
  • the processing is called processing S2_3 and the processing between the target frame image F3 and the target frame image F4 is called processing S3_4.
  • the personal computer 30 calculates the shift amount between the converted frame images. Is the deviation (u, ⁇ , ⁇ 5) between one adjacent frame image within the threshold of the first embodiment? (Step S430) More specifically, the ratio between the deviation (u, V, ⁇ ) detected in the processing S1-2 and the threshold value is determined. If the shift amount does not fall within the threshold value, a warning screen is displayed on the display 43 indicating that a clear image cannot be obtained even if the image combining process is executed (step S460), and the combining is performed.
  • step S4665 Display a selection screen that allows the user to select whether or not to execute the processing. If the user selects not to execute the synthesis processing in step S465, the synthesis is performed. Stops processing (Step S470) and ends this series of image processing To do.
  • step S430 when the deviation amount is within the threshold value, or in step S465, the user has selected that the deviation amount does not fall within the threshold value but to execute the combining process. In this case, it is determined whether or not the deviation amount (u, v, ⁇ ) has been confirmed for all the other adjacent frame images (step S440).
  • the process returns to step S430 to detect the shift amount between the next adjacent frame images. Make a judgment. More specifically, if the deviation amount detected in the process S1-2 satisfies the threshold condition, the condition for the deviation amount in the process S2-3 is determined. If the deviation amount detected in the process S2-3 satisfies the condition of the threshold, the condition is determined for the deviation amount in the process S3-4. In this process, if there is at least one that does not satisfy the threshold, a warning is displayed (step S460) and the user is allowed to select whether or not to execute the combining process as described above. (Step S465).
  • step S440 when the personal computer 30 determines that the amount of displacement between all adjacent frame images satisfies the threshold condition, the personal computer 30 executes the image combining process (step S450). ).
  • the image combining process Before executing the synthesizing process, as in the first embodiment, a determination is made as to the translational deviation amounts u and V for eliminating the same or the same frame image.
  • the personal computer 30 displays the synthesized still image on the display 43, and ends this series of image processing. This processing is the same as in the first embodiment.
  • image processing of the second embodiment when an image that does not contribute to high resolution and sharpness of image synthesis is included, a warning is displayed and the user is asked whether to execute the image synthesis processing. To select.
  • the user can easily determine whether sharpening of the image can be desired or not, and can select to execute the time-consuming image synthesizing process only when sharpening of the image is desired. Therefore, efficient image processing can be performed. Also, in general, in a moving image shot with a digital video talent, the amount of shift between adjacent frame images of a frame image that contributes to sharpening of a synthesized image does not change drastically. In the present embodiment, a warning is displayed if at least one of the detected shift amounts between adjacent frame images does not satisfy the condition. That is, it is possible to judge whether or not the ability to stop the image synthesis is at an early stage of the image processing. Therefore, a more efficient image processing system can be constructed.
  • the determination of the amount of shift is performed, and the amount of shift between one adjacent frame image is detected to make a determination. Only when the condition between one adjacent frame image satisfies the condition, the shift amount between the next adjacent frame images may be detected. Further, in the present embodiment, if at least one image has a deviation amount exceeding the threshold value, a warning is issued to prompt the user to cancel the combining process. However, when the value is less than the allowable value, the combining process may be stopped. For example, if one of the four extracted frame images exceeds the threshold, the images that exceed the threshold are excluded, the three images are combined, and the images that exceed the threshold are processed. If there are two or more, the combining process may be stopped.
  • the hardware configuration of the image processing system of the third embodiment is the same as that of the first embodiment, except that the image data held in the image database 20 (that is, the image synthesis processing is performed). Material). Therefore, the description is omitted assuming that the reference numerals of the respective devices are the same, and the image data to be handled is described.
  • the image data handled in the third embodiment is a plurality of still image data shot in the continuous shooting mode of a digital still camera.
  • This still image data is an Exif image file, and a JPEG image file.
  • the image database 20 contains at least four Exif files taken at 30-second intervals.
  • a still image with a 1/30 second interval is used, which includes an image taken automatically with the exposure time automatically changed according to the brightness of the subject.
  • still images taken in a normal continuous shooting mode such as four or nine images per second may be used.
  • FIG. 9 is a flowchart of image processing according to the third embodiment for generating one still image by combining a plurality of pieces of image data.
  • the image processing installed in the personal computer 30 is started.
  • the personal computer 30 reads a plurality of still image files shot in the continuous shooting mode from the image database 20 and displays them on the display 43.
  • the user designates one desired still image from the displayed still images (step S500). This designation operation is performed by using the mouse 4 2 This is done by clicking on.
  • the personal computer 30 that has received the instruction to specify one still image extracts three still images that are continuous in time series with the specified still image from the read still image file (step S510)
  • a process of detecting a shift amount between the four still images is performed (step S520).
  • the designated still image is called a reference image and the extracted still image is called a target image.
  • the personal computer 30 sets a threshold value for the amount of deviation in order to determine whether or not each image can be used for synthesizing images (step S530).
  • the threshold value is set for each target still image using the exposure time included in the shooting information of each image file without having a fixed threshold value as in the first embodiment. The setting of the threshold will be described later.
  • the personal computer 30 determines whether or not the amount of displacement between the images is within a threshold set based on the exposure time. In the present embodiment, since the rotation shift amount ⁇ is small because it is a still image continuously shot by a digital still camera, it is determined whether or not the translation shift amounts u and V are within a threshold value. As a result of the determination, the personal combination user 30 performs a process of excluding the target image that does not meet the threshold condition from the targets of the composition (step S540). The personal computer 30 performs an image combining process using the target image and the reference image that have not been excluded (step S550). This processing is the same as in the first embodiment. The personal computer 30 displays the still image thus synthesized on the display 43, and ends this processing.
  • FIG. 10 is an explanatory diagram of a relationship between a photographing cycle of still images photographed in the continuous shooting mode and an exposure time.
  • FIG. 10 shows the exposure time Tp of still images (F1, F2, F3...) Continuously photographed in time series for each photographing cycle Tf.
  • the photographing cycle Tf is 1/30 second at a constant interval, and the exposure time Tp in each still image changes for each still image.
  • the shift amount (u, v, 6) between the still image F 1 and the still image F 2 that are continuous in time series is obtained. If the image is taken in the continuous shooting mode and the rotational deviation ⁇ is small, the moving amount m f of the subject between the images is
  • This movement amount m f indicates the movement amount within the time of the imaging cycle T f.
  • This movement amount mp indicates the movement amount within the exposure time Tp. If this movement amount mp exceeds 1 pixel, it can be determined that there is a possibility that blurring has occurred in one still image. Assuming that the permissible amount for this pre is a predetermined value mpt of 1 pixel or less, the moving amount f between images is
  • the range that satisfies this conditional expression is set as the threshold for the amount of shift (U, V) between images.
  • the allowable range of the shift amount between images is narrow, and for a still image with a short exposure time T p, the gap between the images is small.
  • the allowable range of the amount is widened. Therefore, it is possible to set an appropriate threshold value of the shift amount for each still image having different shooting conditions.
  • the photographing cycle T f is constant at 1/30 seconds.
  • an image taken from the same angle on a different day may be selected as a material to be used in the image combining process.
  • images taken simultaneously by two nearby digital bidet merchants, digital still cameras, etc. can be used as the material to be used for image compositing. In this case, even though the resolution of each of the two cameras is low, a high-resolution still image can be output by the combining process.
  • the embodiments of the present invention have been described. It is needless to say that the present invention is not limited to the above, and can be implemented in various forms without departing from the spirit of the present invention. Industrial applicability
  • the personal computer is described as the image processing apparatus of the present invention.
  • the present invention can be applied to various devices such as a printer, a digital video camera, and a digital still camera.
  • the image processing apparatus and the image processing method of the present invention may be realized independently on a computer, or may be implemented in a form incorporated in these devices.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Image Processing (AREA)
  • Television Signal Processing For Recording (AREA)
  • Editing Of Facsimile Originals (AREA)

Abstract

 複数の画像から画素密度の高い静止画像を生成する画像処理装置であって、前記静止画像の生成に用いる複数の画像を抽出する画像抽出手段と、前記抽出した複数の画像間のずれ量を検出するずれ量検出手段と、前記検出したずれ量が所定の閾値を超える画像を前記抽出した複数の画像の中から除外する除外手段と、前記除外された画像以外の複数の画像を合成して一の静止画像を生成する画像合成手段とを備えた画像処理装置とする。 複数の画像から一の静止画像を生成する際に、効率的に画像処理を実行することができる。

Description

明細書
画像処理装置、 画像処理方法、 そのプログラムおよび記録媒体 技術分野
本発明は、 複数の画像を利用して一の静止画像を生成する画像処理装置, 画像 処理方法およびコンピュータプログラム, 記録媒体に関する。 背景技術
従来から、 複数の画像を合成して一枚の高解像度の画像を生成する画像処理装 置および画像処理方法がある。 例えば、 デジタルビデ才力メラで撮影された動画 像から 1シーンを決定し、 決定した 1フレームの画像よりも高解像度 (高い画素 密度) の静止画像を生成する技術が知られている。 この技術では、 連続する (n + 1 ) 枚のフレーム画像から 1枚のフレーム画像を基準画像として選択し、 この 基準画像に対する他の n枚のフレーム画像 (対象画像) の動きベクトルをそれぞ れ算出し、 各動きベクトルに基づいて、 (n + 1 ) 枚のフレーム画像を合成して 静止画像を生成している (例えば、 特開 2 0 0 0— 2 4 4 8 5 1号公報参照) 。 こうした画像の合成処理方法は、 単に 1フレーム画像を解像度変換する方法に比 ベ、 画像を高画質、 鮮明なものとすることができるとされている。 発明の開示
しかしながら、 こうした画像処理技術では、 画像の合成処理に時間を費やして も、 常に高解像度の静止画像を生成できるとは限らないという問題があった。 例 えば、 静止画像を生成する際に使用する一のフレーム画像自体にブレが含まれて いるような場合には、 それを用いて画像の合成処理を実行しても、 時間をかけた 割には、 満足のいく静止画像が得られない。 本発明は、 こうした問題を解決し、 複数の画像から一の高解像度の画像を生成 する際に、 効率的な画像処理を実行することを目的とする。 本発明の第 1の画像処理装置は、 上記課題の少なくとも一部を解決するため、 以下の手法を採った。 すなわち、 複数の画像から画素密度の高い静止画像を生成 する画像処理装置であって、 前記静止画像の生成に用いる複数の画像を抽出する 画像抽出手段と、 前記抽出した複数の画像間のずれ量を検出するずれ量検出手段 と、 前記検出したずれ量に基づいて、 前記抽出した複数の画像の中から 2以上の 画像を特定する特定手段と、 前記特定された 2以上の画像を合成して一の静止画 像を生成する画像合成手段とを備えたことを要旨としている。 また、 本発明の第〗の画像処理方法は、 複数の画像から画素密度の高い静止画 像を生成する画像処理方法であって、 前記静止画像の生成に用いる複数の画像を 抽出し、 前記抽出した複数の画像間のずれ量を検出し、 前記検出したずれ量に基 づいて、 前記抽出した複数の画像の中から 2以上の画像を特定し、 前記特定され た 2以外の画像を合成して一の静止画像を生成することを要旨としている。 第 1の画像処理装置および画像処理方法 (第 1の画像処理という) によれば、 複数の画像間のずれ量を検出し、 そのずれ量に基づいて、 2以上の画像を、 画像 の合成処理に先立って、 特定する。 つまり、 画像の合成に供される 2以上の画像 は、 画像間のずれ量に基づいて特定されていることになり、 画像合成の処理を効 率的に行なうことができる。 上記画像処理では、 前記一の静止画像の合成の基準となる画像を指定する構成 を備え、 該指定された画像に対して、 予め閧連付けられた順序に従って、 複数の 画像を抽出するものとしても良い。 かかる画像処理によれば、 画素密度の高い静止画像の合成に用いようとする複 数の画像の抽出は、 指定された画像を基準として予め関連付けられた順序で行な われる。 合成に用いようとする複数の画像は、 一の画像を指定することで自動的 に抽出される。 したがって、 合成に用いようとする複数の画像を全て指定する必 要がなく、 画像の合成処理操作を容易なものとすることができる。 上記画像処理において、 複数の画像は、 時系列に連続する複数の画像であり、 前記関連付けられた順序は、 前記指定された画像から連続する時系列順であるも のとしても良い。 複数の画像の抽出は、 指定された画像を中心として時系列で前 後方向に交互の順序や、 時系歹 ϋで一つ置きの順序など、 様々な態様が考えられる が、 指定された画像から時系歹 ijで連続する順に画像を抽出することで、 画像の抽 出処理を簡素なものとすることができる。 上記画像処理では、 一の静 ih画像の生成に先立って、 前記画像の合成に用いる 画像枚数を表示するものとしても良い。 かかる画像処理によれば、 画像の合成処 理に使用する画像枚数をユーザが容易に認識することができる。 なお、 この画像 枚数に加えて、 あるいはこの画像枚数に代えて、 合成に用いないとした画像の枚 数を表示するものとしても良い。 上記画像処理において、 特定された 2以外の画像が所定の枚数に達しない場合 には、 警告を表示するものとしても良い。 また、 特定された 2以上の画像の枚数 が所定の枚数に達しない場合には、 前記画像の合成を実行するか否かを選択する ものとしても良い。 かかる画像処理によれば、 画像の合成処理に使用する画像枚数が所定枚数に達 しない結果、 生成される一の静止画像の効果的な鮮明化が期待できない旨を予め ユーザに警告すること; ^できる。 また、 所定枚数に達しない状態での合成処理を 実行するか否かを、 ユーザに選択させることができる。 上記画像処理において、 特定された 2以上の画像の枚数が所定の枚数に達しな い場合には、 前記画像の合成を中止するものとしても良い。 かかる画像処理によれば、 ある画像が閾値を超えるため除外された結果、 合成 に用いる画像が 2枚以上、 3枚以上といった任意に設定した所定枚数に達しない 場合には、 合成処理自体を中止する。 したがって、 画素密度の高い静止画像を期 待できない場合には、 処理時間のかかる合成処理を行なうことなく、 早い段階で 合成処理を中止することができる。 例えば、 所定枚数の設定により、 検出した画 像間のずれ量が予め定めた閾値を超えるものが一つでもある場合には、 即座に合 成処理を中止するものとすることができる。
また、 2以上の画像を特定するに際しては、 検出されたずれ量が所定の閾値を 超える画像を前記抽出した複数の画像から除外するものとし、 こうして除外され た画像以外の画像を、 前記 2以上の画像として特定するものとしても良い。 検出 したずれ量と所定の閾 ί直との大小を判断すれば、 画像合成に用いにくい画像を容 易に見出すことができるからである。 上記画像処理おいて検出したずれ量は、 画像間の並進方向の並進ずれ量および /または回転方向の回転ずれ量とすることができ、 この並進ずれ量および また は回転ずれ量が所定の閾値を超える画像を除外するものとしても良 t 上記画像処理において、 所定の閾値は、 特定の値として設定しても良いし、 合 成しようとする画像の画素数に対して所定の割合として定めることも可能である。 例えば縦横の画素数の数%から 1 0 %として定めても良い。 もとより、 固定値と しても良い。 例えば、 並進ずれ量の場合には、 判断する所定の閾値は、 ± 1 6画 素程度とし、 回転ずれの場合には、 判断する所定の閾値は、 ± 1 ° 程度としても 良い。 かかる画像処理によれば、 画像間の並進ずれ量が ± 1 6画素およびノまた は回転ずれ量が ± 1 ° 、 を超える画像は、 画像の合成対象から除外され、 または 合成処理を中止する。 例えば、 時系列で連続する画像間の並進ずれ量がこの閾値 を超える場合には、 合成対象の画像自体にブレが含まれている可能がある。 した がって、 この閾値により判断することで、 合成に貢献する可能性の低い画像を予 め除外して合成処理を行なうことができ、 または、 合成処理を中止することがで さる。 上記画像処理に使用する複数の画像は、 動画像に含まれる複数のフレーム画像 であるものとしても良い。 通常、 低解像度である複数のフレーム画像を合成して、 一の高解像度の静止画像を生成する場合に特に有効である。 上記画像処理に使用する複数の画像は、 撮影時の撮影対象の明るさによって変 化する露光時間の情報を有する複数の静止画像とすることができ、 露光時間に基 づいて、 前記静止画像毎に前記所定の閾値を設定するものとしても良い。 かかる画像処理によれば、 备静止画像が有する撮影時の露光時間の情報から、 各静止画像毎に画像間のずれ量に対する閾値を設定する。 つまり、 ずれ量を検出 する対象となる 2つの画像の撮影時間間隔と露光時間との時間比率から、 一の静 止画像の露光時間内における許容ずれ量を検討し、 閾値を設定する。 こうするこ とで、 一律に固定された閾値ではなく、 各静止画像に対応した閾値を適応的に設 定することができる。 本発明は、 コンピュータプログラムプロダク卜およびコンピュータプログラム を記録した媒体としても実装することができる。 図面の簡単な説明
図 1は、 本発明の第 1実施例としての画像処理システムを示す説明図である。 図 2は、 第 1実施例の画像処理のフローチャートである。
図 3は、 2つの画像の位置ずれを示す説明図である。
図 4は、 勾配法による並進ずれ量の算出方法を示す説明図である。
図 5は、 画素の回転ずれ量を模式的に示す説明図である。
図 6は、 画像のずれ量と鮮明化に貢献する範囲との関係の説明図である。 図 7は、 第 2実施例の画像処理のフローチヤ一卜である。
図 8は、 第 2実施例におけるずれ量検出手順の説明図である。
図 9は、 第 3実施例の画像処理のフローチヤ一卜である。
図 1 0は、 静止画像の撮影周期と露光時間の関係の説明図である。 発明を実施するための最良の形態
以下、 本発明の実施の形態について、 実施例に基づき以下の順序で説明する。 A . 第 1実施例:
A 1 . 画像処理装置の構成
A 2 . 画像処理 A 3 . ずれ量の検出
A 4 . 閾値の設定
B . 第 2実施例:
B 1 . 画像処理
C . 第 3実施例:
C 1 . 画像処理装置の構成
C 2 . 画像処理
C 3 . 閾値の設定 A . 第 1実施例:
A 1 . 画像処理装置の構成:
図 1は、 本発明の第 1実施例としての画像処理システム 1 0 0を示す説明図で ある。 図示するように、 この画像処理システム 1 0 0は、 動画像や静止画像など の画像データを供給する画像データベース 2 0、 画像データベース 2 0から入力 した複数の画像に対して画像処理を実行する画像処理装置としてのパーソナルコ ンピュー夕 3 0、 画像処理の実行をユーザが指示するためのユーザインターフエ ース 4 0、 画像処理を施した画像を出力するカラープリン夕 5 0等から構成され ている。 画像デ一夕ベース 2 0は、 デジタルビデ才力メラ 2 1, デジタルスチルカメラ 2 2, D V D 2 3 , ハードディスク 2 4などの画像を取り扱う機器を有し、 パー ソナルコンピュータ 3 0へ画像データを供給する。 なお、 第 1実施例の画像デー 夕デース 2 0に保有される画像データは、 デジタルビデ才力メラ 2 1で取得した 動画像データである。 以下、 本実施例の画像処理にて取り扱う画像データをフレ ー厶画像と呼ぶ。 このフレー厶画像は、 時系列的に連続して配置された複数枚の 画像であり、 動画像を構成する一部である パーソナルコンピュータ 3 0は、 画像処理を実行する C P U 3 1、 R O M 3 2、 R A M 3 3、 画像処理のソフ卜ウェアをインストールするハードディスク 3 4、 画像データベース 2 0, ュ一ザイン夕一フェース 4 0やカラ一プリンタ 5 0など の外部機器とやり取りするための I Z F回路 3 5等を有している。 ハードデイス ク 3 4にインス I ^一ルされたソフトウェアの画像処理は、 入力した複数枚のフレ ー厶画像を合成して一枚の高解像度の静止画像を生成する処理である。 このソフ 卜ウェアをインストールしたパーソナルコンピュータ 3 0は、 画像処理装置とし ての 「画像抽出手段」 , 「ずれ量検出手段」 , 「除外手段」 , 「画像合成手段」 の各機能を有する。 なお、 この画像処理の流れについては、 後に詳しく説明する。 ユーザインターフェース 4 0は、 ユーザが画像処理の実行操作を行なうための キーボード 4 1やマウス 4 2、 画像処理を実行する前のフレーム画像や合成処理 後の静止画像を表示するディスプレイ 4 3などを備えている。
A 2 . 画像処理:
図 2は、 複数枚の画像データを合成して一の静止画像を生成する第 1実施例の 画像処理のフローチヤ一卜である。 上述のハード構成を有する画像処理システム 1 0 0において、 ユーザがキーボード 4 1を操作することで、 パーソナルコンビ ュ一夕 3 0にインストールされた画像処理が開始される。 画像処理が開始すると、 /\°一ソナルコンピュータ 3 0は、 画像データベース 2 0からフレーム画像データの集合である動画像データを入力し、 これをディスプ レイ 4 3上で再生する。 ユーザは、 静止画像として出力を所望する一シーンで再 生画像の一時停止の操作を行ない、 そのシーン (フレーム画像) を指定する (ス テツプ S 2 0 0 ) 。 パーソナルコンピュータ 3 0は、 指定されたフレーム画像から時系列順に、 画 像処理に使用するフレーム画像を抽出する (ステップ S 2 1 0 ) 。 本実施例では、 フレーム画像の指定の操作タイミングから時系列的に連続する 4枚のフレーム画 像を入力するものとした。 以下、 この 4枚のフレーム画像の内、 ユーザが指定し たもの (つまり、 時系列で最初のもの) を参照フレーム画像 F 1 と呼び、 それ以 外のものを対象フレーム画像 (F 2〜F 4 ) と呼ぶ。 なお、 抽出するフレーム画 像の数はユーザが任意に設定できるものとしても良い。 パーソナルコンピュータ 3 0は、 こうして指定 ·抽出された 4枚のフレーム画 像同士のフレーム画像間のずれ量を検出する (ステップ S 2 2 0 ) 。 ここで検出 するずれ量とは、 図 3に示すように、 2つの画像の 「位置のずれ」 であり、 並進 方向のずれを表す並進ずれ量 u, Vと、 回転方向のずれを表す回転ずれ量 δとの 3つの要素で表現されるものである。 パーソナルコンピュータ 3 0は、 参照フレ ー厶画像 F l , 3枚の ¾f象フレーム画像 (F 2 ~ F 4 ) のそれぞれとの間でずれ 量 (u, ν, δ ) を検出する。 なお、 ずれ量の検出方法については、 後述する。 パーソナルコンピュータ 3 0は、 時系列で隣接するフレーム画像間のずれ量が 所定の範囲 (閾値) にあるか否かの判断を行なう。 例えば、 対象フレーム画像 F 2と対象フレーム画像 F 3との間のずれ量が閾値を超えるほど大きい場合には、 意識的にデジタルビデ才力メラ 2 1を動かした速いパンであると推定でき、 対象 フレーム画像 F 3自体にブレが生じている可能性が高い。 パーソナルコンビュ一 夕 3 0は、 判断の結果、 ブレが生じている可能性のある対象フレーム画像 F 3を 合成の対象から排除する処理を行なう (ステップ S 2 3 0 ) 。 なお、 本実施例では、 並進ずれ量 u, Vについて下限値の閾値を設け、 全ての フレーム画像間の並進ずれ量 u, Vについての判断を行なっている。 例えば、 隣 接する対象フレーム画像 F 2と対象フレーム画像 F 3とのずれ量、 対象フレーム 画像 F 3と対象フレーム画像 F 4とのずれ量は、 それぞれ所定の範囲内である場 合でも、 対象フレーム画像 F 2と対象フレーム画像 F 4とが同一の画像であり、 画像の合成に同じ対象フレーム画像を用いる必要性がない場合がある。 つまり、 ほとんどずれのないフレーム画像 (同一の画像) であるため、 画像の合成処理に はどちらか一方を使用すれば足りる。 本実施例では、 フレーム画像間の並進ずれ 量 u, Vに対して 0 . Ί画素の閾 <直を設け、 検出したずれ量 u, Vが 0 . 1画素 以下である場合には、 合成の対象^^ら除外している。 パーソナルコンピュータ 3 0は、 除外されずに残った対象フレーム画像と参照 フレーム画像 F 1とを用いて、 画像の合成処理を行なう (ステップ S 2 4 0 ) 。 具体的には、 参照フレーム画像 F 1 に位置のずれを補正した対象フレーム画像
(例えば対象フレーム画像 F 2 ) を重ね合わせ、 両者の各画素の階調値に基づい て、 合成画像の各画素の階調値を決定する。 合成画像の各画素の階調値は、 周知 のバイリニア法を用いている。 なお、 バイリニア法に替えて、 二アレス卜ネイバ 法やバイキュービック法など、 他の周知の方法を用いる事としても良い。 このバ ィリニア法を用いた合成処理を、 j噴次実行し、 1枚の静止画像を生成する。 なお、 本実施例では、 所定の閾直に基づいて対象フレーム画像を除外した結果、 合成処理に使用する対象フレー厶画像の数が減っても、 そのまま合成処理を実行 するものとしている。 この場合に、 パーソナルコンピュータ 3 0は、 画像の合成 に使用した数をディスプレイ 4 3に表示するが、 合成処理の実行に先立って、 合 成に使用する画像枚数を表示するものとしても良い。 また、 画像データベース 2 0から更に時系列で連続するフレーム画像 (5枚目) を対象フレーム画像として 抽出し、 ステップ S 2 2 0からの処理を繰り返し、 合成処理に使用する対象フレ ー厶画像の数を常に一定に保つものとしても良い。 さらに、 参照フレーム画像 F 1より時系列で前のフレーム画像を抽出するものとしても良い。 パーソナルコンピュータ 3 0は、 こうして合成された静止画像をディスプレイ 4 3上の所定の位置に表示すると共に、 この処理を終了する。 ユーザは、 好みに 応じて、 この静止画像をカラープリンタ 2 0やハードディスク 3 4などに出力す る操作を行なう。 この一連の画像処理では、 対象フレーム画像自体にブレが含まれる画像や、 ほ とんど参照フレーム画像 F 1と同じ対象フレーム画像などの合成した画像の高解 像度化、 鮮明化に貢献しない対象フレーム画像を予め除外する。 したがって、 効 率的な画像処理を行なうことができる。
A 3 . ずれ量の検出
上述の図 3に示したように、 参照フレーム画像 F 1 と対象フレーム画像 F 2と の位置のずれは、 3つのノ \°ラメ一夕 (u, v, 6 ) によって表される。 ここで、 参照フレーム画像 F 1は、 画像中心を原点とし、 横方向を X 1軸, 縦方向を y 1 軸とする直行座標系 (X 1, y 1 ) を有し、 対象フレーム画像 F 2は、 画像中心 を原点とし、 横方向を X 2軸、 縦方向を y 2軸とする直行座標系 (x 2, y 2 ) を有するものとする。 図 3は、 対象フレーム画像 F 2が、 参照フレーム画像 F 1 に対して、 横方向に u, 縦方向に v, 対象フレーム画像の中心に対する回転方向 δのずれを生じている場合を示している。 本実施例では、 フレーム画像間のずれ量を求めるのに、 フレーム画像間の各画 素の輝度を用いて 1画素よりも細かい単位で画素の位置を推定する勾配法を用い た。 図 4は、 この勾配法による並進ずれ量の算出方法を示す説明図である。 図 4 の (a) (c) には、 各画像上の画素の輝度を示し、 図 4の (b) (d) には、 勾配法の原理を示した。 ここで、 (X 1 i , y 1 i ) は、 参照フレーム画像 F 1 上の一の画素の座標を示し、 B l (x 1 i , y 1 i ) は、 その画素の輝度を表し ている。 なお、 ここでは、 対象フレーム画像 F 2上の座標 (x 2 i, y 2 i ) の 画素が、 参照フレーム画像 F 1上の座標 (x 1 i〜x l i + l, y 1 i ~y 1 i + 1 ) の間にあるものとし、 その座標を (χ Ί i +Δχ, y 1 i +Δ y) とする。 図 4 (b) (d) に示すように、 対象フレーム画像 F 2における座標 (x 2 i, y 2 i ) の画素が、 参照フレーム画像 F 1上の座標 (x 1 i +Δ X , y λ i ) に あるものとし、
P X = B 1 (x 1 i + 1 , y 1 i ) - B 1 (x 1 i, y 1 i ) ■ ■ · (1 ) とすると、
P x ■ Δ x = B 2 (x 2 i , y 2 i ) - B 1 (x 1 i , y 1 i ) ■ ■ ■
(2)
が成り立つ。 この場合、 B 1 (x 1 i , y 1 i ) および B 2 (x 2 i , y 2 i ) を単に B 1 , B 2と置くと、
{P x ■ Δ x— ( B 2— B 1 ) }2 = 0 ■ ■ ■ (3)
を満たす△ xを求めれば、 対象フレーム画像 F 2の X軸方向の並進ずれ量を求め ることができる。 実際には、 各画素 ίこついて Δχを算出し、 平均をとることとな る。 同様にして、 対象フレーム画像 F 2における座標 (x 2 i, y 2 i ) の画素が、 参照フレーム画像 F 1上の座標 (x 1 i , y 1 i +Δ y) にあるものとし、
P y = B 1 (x 1 i, 1 i + 1 ) - B 1 (x 1 i , y 1 i ) ■ · ■ (4) とすると、
P y ■ Δ y = B 2 ( x 2 i , y 2 i ) - B 1 ( x 1 i , y 1 i ) · ■ ■
(5)
が成り立つ。 この場合、 B 1 (x 1 i , y 1 i ) および B 2 (x 2 i, y 2 i ) を単に B 1 , B 2と置くと、
{P y · Δ γ - (Β 2 - Β 1 ) } 2 = 0 ■ · ■ (6)
を満たす A yを求めれば、 対象フレーム画像 F 2の y軸方向の並進ずれ量を求め ることができる。 実際には、 各画素について△ yを算出し、 平均をとることとな る。 上記式 (3) は X軸方向のみを、 上記式(6)は y軸方向のみを考慮した場合で あるため、 これを X軸方向、 y軸方向の両方向について拡張すると、
S 2 =∑ {P X · △ X + P y ■ △ y— (B 2— B 1 ) } 2 ■ ■ ■ (7) を最小とする Δ χ, A yを最小自乗法により求めれば良いこととなる。 こうして 求められた Δ χ, A yが並進ずれ量 u, Vに相当する。 以上は、 フレーム画像間において、 単に並進ずれのみがある場合についての計 算であるが、 加えて、 回転す'れ量 δを考慮したずれ量の算出方法について説明す る。 図 5は、 画素の回転ずれ量を模式的に示す説明図である。 図示するように、 参照フレーム画像 F 1の座標 (X 1, y 1 ) の原点 0からの距離を r、 X 1軸か らの回転角度を 0とすると、 r、 0は以下の式により求められる。 なお、 図 5で は、 説明を簡単にするためフレーム画像中心を原点 oとし、 画像が回転している ものとして説明する。
r = (x2 + y 2 ) 1/2 · ■ ■ (8)
θ = tan1 ( χ Ζ y ) · ■ · ( 9 ) ここで、 原点 Oを中心として、 対象フレーム画像の座標 (X 1, 1 ) を角度 <5だけ回転させたときに、 対象フレーム画像の座標 (x 2, y 2) と一致するも のとする。 この回転による X軸方向の移動量△ Xと y軸方向の移動量△ yは、 以 下の式により求められる。 なお、 回転ずれ量 は微小量であるとして、 cos <5 = 1、 sin δ = δの近似式を用いている。
A x = x 2— x 1 =— r - S ' sin S =_ 3 ' y 1 ■ · · ( 1 0)
A y = y 2 - y 1 = r - δ · cos δ = δ - χ ΐ · · ■ ( 1 1 ) そこで、 上記式 (7) における、 Δ χ, A yを、 並進ずれ量 u, Vに回転ずれ 量 δを加味して表すと、 以下の式となる。
Δ x = u - - y 1 ■ ■ ■ ( 1 2)
Δ y = v + δ - χ 1 ■ · · ( 1 3)
これらを上記式 (7) に代入すると、 以下の一般式が得られる。
S 2 =∑ (Ρ X - (u - <5 ■ y ) + P y · (v + <5 - x) - (Β 2 - Β 1 ) } 2 ■ · · ( 1 4) すなわち、 上記式 (1 4) の S 2 を最小とする u, V , δを最小自乗法によつ て求めることにより、 フレーム画像間の 1画素未満のずれ量を精度良く検出する ことができる。 なお、 本実施例では、 勾配法により、 ずれ量を算出したが、 プロ ックマッチング法や反復勾配法, これらを組み合わせた手法などを用いて算出す るものとしても良い。 A 4 . 閾値の設定:
上述のように検出されたずれ量 ( u, ν, δ ) に対し、 画像の高解像度化、 鮮 明化に貢献する範囲 (閾値) の設定について説明する。 図 6は、 画像のずれ量と 鮮明化に貢献する範囲との関係の説明図である。 図示するように、 横軸を並進ず れ量 u, v、 縦軸を回転ずれ量 δで表し、 高解像度■鮮明化に貢献する基準を領 域 (a ) , ( b ) , (c ) で表している。 ここで、 領域 (a ) は、 通常の手ブレ、 パンにより発生する隣接フレーム画像間のずれの範囲、 領域 (b ) は、 速いパン、 故意に回転操作を行なった場合の隣接フレーム画像間のずれの範囲、 領域 (c ) は、 並進ずれ量、 回転ずれ量のとり得る範囲を示している。 本実施例では、 領域 (a ) の範囲は、 — 1 6画素≤並進ずれ量 u , ν≤ Ί 6画 素、 一 1 ° ≤回転ずれ量 <5≤ 1 ° の条件を満たす領域とした。 フレーム画像間の ずれ量が領域 (a ) に含まれる場合には、 画像の鮮明化に貢献する対象フレーム 画像であると判断する。 換言すると、 ± 1 6画素、 ± 1 ° を画像の鮮明化に貢献 する閾値として設定した。 もとより、 この閾値は、 上記のように固定的な値とし ても良いが、 画像の条件や合成の条件などに従って設定するものとしても良い。 例えば、 合成しょうとする画像全体の縦横の画素数に対する割合 (例えば、 数% ないし十数%) として設定するものとしても良い。 あるいは、 画像を抽出した元 の動画の光学的な倍率などに応じて設定するものとしても良い。 倍率が低ければ 一般にプレなどは生じにくいからである。 更に、 この閾値は学習するものとして も良い。 合成後の画像の良否を使用者に判定させ、 鮮明化に対して満足であると 判定された時には、 閾値を高くし、 鮮明化に対して不満足である判定された場合 には、 閾値を低くし、 その使用者が、使用する画像に対する閾値を徐々に学習する ものとしても良い。 一般に、 通常のデジタ レビデ才力メラにて撮影した動画像において、 手ブレゃ パンによる隣接するフレーム画像間のずれ量は、 並進ずれ量で数画素、 回転ずれ 量で 1 ° 以下程度である。 したがって、 フレーム画像間のずれ量が領域 (a ) に 入るフレーム画像を選択することで、 例えば、 速いパンにより、 フレーム画像自 体にプレが含まれるようなフレーム画像を対象フレーム画像から排除することが できる。 また、 シーンチェンジをまたぐようなフレーム画像を対象フレーム画像 から排除することができる。 なお、 領域 (a ) の範囲に含まれるフレーム画像の回転ずれ量 δは、 ± 1 ° 以 下であるため、 上述の 「ずれ量の検出」 過程で導入した cos 5 = 1, sin δ = δ の近似式が十分に成り立つ範囲 (ずれ量の検出精度を保つ範囲) となる。 したが つて、 領域 (a ) に含まれるフレーム画像を対象フレーム画像として使用するこ とで、 ずれ量検出の精度を低下させるフレーム画像も排除することができる。
B . 第 2実施例:
B 1 . 画像処理:
図 7は、 複数枚の画像データを合成して一の静止画像を生成する第 2実施例の 画像処理のフローチヤ一卜である。 図示するように、 画像の合成処理の中止の判 断ステップを設けたことカ、 図 2に示した第 1実施例の場合と異なる。 したがつ て、 第 1実施例と共通する処理については、 簡潔に説明する。 なお、 第 2実施例 の画像処理システムのハード構成については、 第 1実施例と同様であるため、 符 号を同一とし、 説明を省略する。 図 7に示すように、 ユーザのキー |f—ド 4 1操作により、 画像処理が開始する と、 パーソナルコンピュータ 30は、 画像データデース 2 0からフレーム画像デ 一夕を入力する (ステップ S 400) 。 本実施例では、 第 1実施例と同様に、 ュ 一ザが指定したものを参照フレーム面像 F 1 とし、 参照フレーム画像 F 1から時 系列に連続する 3枚のフレーム画像を対象フレーム画像 (F 2〜F 4) として抽 出する (ステップ S 4 1 0) 。 パーソナルコンピュータ 3 0は、 各フレーム画像間のずれ量 (LI, v, (5) を 検出する (ステップ S 4 2 0) 。 このずれ量検出処理は、 第 1実施例と同様、 参 照フレーム画像 F 1, 3枚の対象フレーム画像 (F 2〜F 4) のそれぞれのフレ ー厶画像間のずれ量 (u, V, δ) を検出する。 以下、 図 8に示すように、 この フレーム画像間のずれ量検出処理の内、 参照フレーム画像 F 1 と対象フレーム画 像 F 2との間の処理を処理 S 1 — 2と、 対象フレーム画像 F 2と対象フレーム画 像 F 3との間の処理を処理 S 2— 3と、 対象フレーム画像 F 3と対象フレーム画 像 F 4との間の処理を処理 S 3 _ 4と呼ぶ。 パーソナルコンピュータ 30は、 換出したフレーム画像間のずれ量の内、 隣接 する一のフレーム画像間のずれ量 (u, ν, <5) が第 1実施例の閾値内であるか 否かを判断する (ステップ S 43 0) 。 具体的には、 処理 S 1 — 2より検出した ずれ量 (u, V, δ) と閾値との比 を行なう。 ステップ S 4 3 0にて、 ずれ量 が閾値内に入らない場合には、 ディスプレイ 4 3上に画像の合成処理を実行して も鮮明な画像が得られない旨などの警告画面を表示し (ステップ S 4 60) 、 合 成処理を実行するか否かをユーザに還択させる選択画面を表示する (ステップ S 4 6 5) 。 ステップ S 4 6 5にて、 合成処理を実行しない旨をユーザが選択した 場合には、 合成処理を中止し (ステゾプ S 4 7 0) 、 この一連の画像処理を終了 する。 他方、 ステップ S 4 3 0にて、 ずれ量が閾値内である場合、 または、 ステップ S 4 6 5にて、 ずれ量が閾値内には入らないが合成処理を実行する旨をユーザが 選択した場合には、 他の隣接フレーム画像間の全てについて、 ずれ量 (u, v, δ ) の確認を行なったか否かを判断する (ステップ S 4 4 0 ) 。 全ての隣接フレ ー厶画像間のずれ量について、 閾値内であるか否かの確認を行なっていない場合 には、 ステップ S 4 3 0へ戻り、 次の隣接フレーム画像間のずれ量の検出につい ての判断を行なう。 具体的には、 処理 S 1 — 2にて検出したずれ量が閾値の条件 を満たせば、 処理 S 2— 3のずれ量について条件を判断する。 処理 S 2— 3にて 検出したずれ量が閾値の条件を満たせば、 処理 S 3— 4のずれ量について条件を 判断する。 この過程にて、 閾ィ直を満たさないものが一つでもあれば、 上述と同様 に、 警告表示を行ない (ステップ S 4 6 0 ) 、 合成処理を実行するか否かをユー ザに選択させる (ステップ S 4 6 5 ) 。 ステップ S 4 4 0にて、 パーソナルコンピュータ 3 0は、 全ての隣接フレーム 画像間のずれ量が閾値の条件を満たすと判断した場合には、 画像の合成処理を実 行する (ステップ S 4 5 0 ) 。 なお、 合成処理を実行する前に、 第 1実施例と同 様、 同一または同一と見なせるフレーム画像を排除するための並進ずれ量 u, V についての判断を行なっている。 パーソナルコンピュータ 3 0は、 合成された静 止画像をディスプレイ 4 3上に表示すると共に、 この一連の画像処理を終了する。 この処理は、 第 1実施例と同様である。 第 2実施例の画像処理では、 画像合成の高解像度化 ·鮮明化に貢献しない画像 が含まれる場合には、 警告を表示し、 画像の合成処理を実行するか否かをユーザ に選択させる。 ユーザは画像の鮮明化が望めるか否かの判断を容易に行なうこと ができ、 画像の鮮明化が望める場合にのみ、 処理時間のかかる画像の合成処理の 実行を選択することができる。 したがって、 効率的な画像処理を行なうことがで きる。 また、 一般に、 デジタルビデ才力メラで撮影した動画像において、 合成画 像の鮮明化に貢献するフレーム画像の隣接フレーム画像間のずれ量が急激に変化 することはない。 本実施例では、 検出した隣接フレーム画像間のずれ量の内、 少 なくとも一つが条件を満たさない場合には、 警告表示を行なう。 つまり、 画像処 理の早い段階で、 画像合成を中止する力否かを判断することができる。 したがつ て、 より効率的な画像処理システムを構築することができる。 なお、 本実施例では、 全ての隣接フレーム画像間のずれ量の検出の後に、 ずれ 量についての判断を行なうものとした力、 一の隣接フレーム画像間のずれ量を検 出して判断を行ない、 一の隣接フレーム画像間が条件を満たした時のみ、 次の隣 接フレーム画像間のずれ量を検出するものとしても良い。 また、 本実施例では、 一つでもずれ量が閾値を超える画像がある場合には合成処理の中止を促す警告を 行なうものとしたが、 合成処理を実行するための画像枚数の許容値を設定し、 許 容値に満たない場合に、 合成処理を中止するものとしても良い。 例えば、 抽出し た 4枚のフレーム画像のうち、 閾値を超える画像が 1枚ある場合には、 閾値を超 える画像を除外して、 3枚の画像で合成処理を実行し、 閾値を超える画像が 2枚 以上となった場合には、 合成処理を中止するものとして良い。
C . 第 3実施例:
C 1 . 画像処理装置の構成:
第 3実施例の画像処理システムのハード構成は、 第 1実施例と同様であるが、 画像データベース 2 0に保有される画像データ (つまり、 画像の合成処理を行な う素材) が異なる。 したがって、 各装置の符号は同一として説明は省略し、 取り 扱う画像データについて説明する。 第 3実施例で取り扱う画像データ(ま、 デジタルスチルカメラの連写モードで撮 影した複数の静止画像データである。 この静止画像データは、 E x i f 形式の画 像ファイルであり、 J P E G形式の画像データに、 撮影日時, 露光時間, フラッ シュの有無などの撮影情報を付加した構造からなる画像ファイルである。 このデ ジ夕ルスチルカメラの連写モードで fま、 シャッターを押し続けることで、 1 Z 3 0秒間隔の静止画像を撮影すること力できる。 画像データベース 2 0には、 1ノ 3 0秒間隔で撮影した少なくとも 4つの E x i f フアイルが保有されている。 こ の画像ファィルは、 撮影対象の明るさによって自動的に露光時間を変化させて撮 影された画像デ一夕を備えたフアイノレである。 なお、 本実施例では、 1 / 3 0秒 間隔の静止画像を取り扱うこととしたが、 例えば、 1秒間に 4枚、 9枚といった 通常の連写モードで撮影した静止画像を用いるものとしても良い。
C 2 . 画像処理:
図 9は、 複数枚の画像データを合成して一の静止画像を生成する第 3実施例の 画像処理のフローチヤ一卜である。 上述のハード構成において、 ユーザがキーボ —ド 4 1を操作することで、 パーソナルコンピュータ 3 0にインス I ルされた 画像処理が開始される。 パーソナルコンピュータ 3 0は、 画像データベース 2 0から連写モードで撮影 した複数の静止画像ファイルを読み込み、 ディスプレイ 4 3上に表示する。 ュ一 ザは、 表示された静止画像から、 所望する一の静止画像を指定する (ステップ S 5 0 0 ) 。 この指定操作は、 ディスプレイ 4 3上の一の静止画像を、 マウス 4 2 でクリックすることで行なわれる。 一の静止画像の指定指令を受けたパーソナルコンピュータ 3 0は、 読み込んだ 静止画像フアイルの中から、 指定された静止画像に時系列で連続する 3枚の静止 画像を抽出し (ステップ S 5 1 0 ) 、 第 1実施例と同様、 この 4枚の静止画像の 各画像間のずれ量を検出する処理を行なう (ステップ S 5 2 0 ) 。 なお、 区別の ため、 指定された静止画像を参照画像と、 抽出された静止画像を対象画像と呼ぶ。 続いて、 パーソナルコンピュータ 3 0は、 各画像が画像の合成に使用できるか 否かを判断するため、 ずれ量に対する閾値を設定する (ステップ S 5 3 0 ) 。 第 3実施例では、 第 1実施例のように固定された閾値を持たず、 各画像ファイルの 撮影情報に含まれる露光時間を用いて、 対象となる静止画像毎に閾値を設定する。 なお、 この閾値の設定については、 後述する。 パーソナルコンピュータ 3 0は、 各画像間のずれ量が露光時間に基づいて設定 した閾値内にあるか否かの判断を行なう。 本実施例では、 デジタルスチルカメラ で連写した静止画像であることから回転ずれ量 δは小さいものとして、 並進ずれ 量 u, Vに対して閾値内であるか否かの判断を行なっている。 パーソナルコンビ ユー夕 3 0は、 判断の結果、 閾値の条件を見たさない対象画像を合成の対象から 除外する処理を行なう (ステップ S 5 4 0 ) 。 パーソナルコンピュータ 3 0は、 除外されずに残った対象画像と参照画像とを 用いて、 画像の合成処理を行なう (ステップ S 5 5 0 ) 。 この処理は、 第 1実施 例と同様である。 パーソナルコンピュータ 3 0は、 こうして合成された静止画像 をディスプレイ 4 3上に表示すると共に、 この処理を終了する。 C 3. 閾値の設定:
図 1 0は、 連写モードで撮影される静止画像の撮影周期と露光時間の関係の説 明図である。 図 1 0は、 撮影周期 T f ごとに、 時系列で連続して撮影した静止画 像 (F 1, F 2, F 3 · - - ) の露光時間 T pを示している。 本実施例では、 上 述のように、 撮影周期 T f は 1 /3 0秒で一定間隔であり、 各静止画像における 露光時間 T pは静止画像ごとに変化する。 ここで、 時系列で連続する静止画像 F 1 と静止画像 F 2とのずれ量 (u, v, 6) を求める。 連写モードで撮影しており、 回転ずれ量 δが小さいとすると、 画 像間における被写体の移動量 m f は、
m f = (u 2 + v2 ) 1/2 ■ · ' ( 1 5)
で表される。 この移動量 m f は、 撮影周期 T f の時間内の移動量を示している こととなる。 他方、 一の静止画像内における被写体の移動量 m pが、 画像間の移動量 m に 比例関係にあるとすると、 一の静止画像内における被写体の移動量 m pは、 m p =m f X T p/T f ■ · ■ ( 1 6)
で表される。 この移動量 m pは、 露光時間 T p内の移動量を示していることと なる。 この移動量 m pが 1画素を超える cfcうな場合は、 一の静止画像内にブレが生じ ている可能性があると判断できる。 このプレに対する許容量を 1画素以下の所定 値 m p tとすると、 画像間の移動量 f は、
m f =m p t X T f /T p · , · ( 1 7) で表現できる。 つまり、 この条件式を満たす範囲を、 画像間のずれ量 (U, V ) の閾値とする。 この上記式 (1 7 ) では、 露光時間 T pが長い静止画像に対しては、 画像間の ずれ量の許容範囲が狭く、 露光時間 T pが短い静止画像に対しては、 画像間のず れ量の許容範囲が広くなる。 したがって、 撮影条件の異なる静止画像ごとに適切 なずれ量の閾値を設定することがきる。 なお、 本実施例では、 撮影周期 T f は 1 / 3 0秒で一定である力 撮影周期が変化しても上記式 (1 7 ) を満たす閾値を 設定することで、 プレのある画像を検出することができる。 本実施例では、 静止画像ごとの露光時間 T pを用いて個々に閾値を設定するこ とで、 静止画像内にブレの生じている可能性のある静止画像を適切に除外するこ とができる。 したがって、 効率的な画像処理を行なうことができる。 なお、 第 3 実施例では、 第 1実施 ί列と同様、 不適当な画像を除外して合成処理をするものと したが、 第 2実施例のように、 画像の合成を中止するものとしても良い。 また、 本発明の第 1実施例から第 3実施例では、 時系列的に連続する画像を素 材として説明したが、 本発明は、 これに限るものではない。 例えば、 日を異にし て同じアングルから撮影した画像を選択して、 画像の合成処理に用いる素材とし ても良い。 さらに、 近接する 2台のデジタルビデ才力メラ, デジタルスチルカメ ラ等で同時に撮影した画像を、 画像の合成処理に用いる素材とすることもできる。 この場合には、 2台のカメラの各々の解像度は低くても、 合成処理によって、 高 解像度の静止画像を出力することができる。 以上、 本発明の実施の形態について説明したが、 本発明はこうした実施の形態 に何ら限定されるものではなく、 本発明の趣旨を逸脱しない範囲内において様々 な形態で実施し得ることはもちろんである。 産業上の利用可能性
本実施例では、 パーソナルコンピュータを本発明の画像処理装置として説明し たが、 例えば、 プリンタ, デジタルビデ才力メラ, デジ夕ルスチルカメラなど種 々の機器においても実施可能である。 本発明の画像処理装置および画像処理方法 は、 コンピュータ上で単独で実現しても良いし、 これらの機器に内蔵した形態で 実施するものであっても差し支えない。

Claims

請求の範囲
1 . 複数の画像から画素密度の高い静止画像を生成する画像処理装置であつ て、
前記静止画像の^:成に用いる複数の画像を抽出する画像抽出手段と、 前記抽出した複数の画像間のずれ量を検出するずれ量検出手段と、
前記検出したずれ量に基づいて、 前記抽出した複数の画像の中から 2以上の画 像を特定する特定手段と、
該特定された 2以上の画像を合成して一の静止画像を生成する画像合成手段と を備えた画像処理装置。
2 . 請求項 1 に記載の画像処理装置であって、
前記画像抽出手段は、 前記一の静止画像の合成の基準となる画像を指定する指 定手段を備え、 該措定された画像に対して、 予め関連付けられた順序に従って、 複数の画像を抽出する手段である画像処理装置。
3 . 請求項 2に記載の画像処理装置であって、
前記複数の画像は、 時系列に連続する複数の画像であリ、
前記関連付けられた順序は、 前記指定された画像から連続する時系列順である 画像処理装置。
4 . 請求項 1ないし 3のいずれか記載の画像処理装置であって、
前記一の静止画像の生成に先立って、 前記画像の合成に用いる画像枚数を表示 する合成枚数表示手段を備えた画像処理装置。
5 . 請求項 1ないし 4のいずれか記載の画像処理装置であって、
前記特定された 2以上の画像の枚数が所定の枚数に達しない場合には、 警告を 表示する警告手段を備えた画像処理装置。
6 . 請求項 1ないし 5のいずれか記載の画像処理装置であって、
前記選沢された 2以上の画像の枚数が所定の枚数に達しない場合には、 前記画 像の合成を実行するか否かを選択する選択手段を備えた画像処理装置。
7 . 請求項〗ないし 6のいずれか記載の画像処理装置であって、
前記特定された 2以上の画像の枚数が所定の枚数に達しない場合には、 前記画 像の合成を中止する中止手段を備えた画像処理装置。
8 . 請求項 1ないし 7のいずれか記載の画像処理装置であって、
前記特定手段は、 前記検出されたずれ量が所定の閾値を超える画像を前記抽出 した複数の画像から除外する除外手段を備え、 該除外手段によって除外された画 像以外の画像を、 前記 2以上の画像として特定する手段である画像処理装置。
9 . 請求項 8記載の画像処理装置であつて、
前記検出したずれ量は、 画像間の並進方向の並進ずれ量および または回転方 向の回転ずれ量であり、
前記除外手段は、 前記並進ずれ量および Zまたは前記回転ずれ量が前記所定の 閾値を超える画像を除外する手段である
画像処理装置。
1 0 . 前記所定の閾値は、 前記画像を構成する画素数に対して所定の割合と して定められた画素数である請求項 9記載の画像処理装置。
1 1 . 請求 9に記載の画像処理装置であって、
前記並進ずれ量の所定の閾値は、 ± 1 6画素であり、 前記回転ずれ量の所定の 閾値は、 土 1 ° で^)る画像処理装置。
1 2 . 請求項 1ないし請求項 1 1のいずれか記載の画像処理装置であって、 前記複数の画像 ίま、 動画像に含まれる複数のフレーム画像である画像処理装置。
1 3 . 請求項 8ないし請求項 1 1のいずれか記載の画像処理装置であって、 前記複数の画像 (ま、 撮影時の撮影対象の明るさによって変化する露光時間の情 報を有する複数の静止画像であり、
前記露光時間に基づいて、 前記静止画像毎に前記所定の閾値を設定する閾値設 定手段を備える
画像処理装置。
1 4 . 複数の画像から画素密度の高い静止画像を生成する画像処理方法であ つて、
前記静止画像の生成に用いる複数の画像を抽出し、
前記抽出した複数の画像間のずれ量を検出し、
前記検出したずれ量に基づいて、 前記抽出した複数の画像の中から 2以上の画 像を特定し、
前記特定された 2以上の画像を合成して一の静止画像を生成する
画像処理方法。
1 5 . 請求項 1 4に記載の画像処理方法であって、
前記特定された 2以上の画像が所定の枚数に達しない場合には、 前記画像の合 成を中止する画像処理方法。
1 6 . 複数の画像から画素密度の高い静止画像を生成する画像処理装置であ つて、
前記静止画像の生成に用いる複数の画像を取り出す出力器と、
前記抽出した複数の画像間のずれ量を、 該画像のデータに基づいて演算する演 算器と、
前記演算したずれ量に基づいて、 前記抽出した複数の画像の中から 2以上の画 像を特定するセレクタと、
前記特定された複数の画像を合成して一の静止画像を生成する画像合成器と を備えた画像処理装置。
1 7 . コンピュータに読み込まれて、 複数の画像から画素密度の高い静止画 像を生成する処理を実現するするコンピュータプログラムプロダクトであって、 該コンピュータプログラムプロダクトは、 プログラムコードと、 該プログラムコ 一ドを記憶する記憶媒体とからなり、
前記プログラムコードは、
前記静止画像の生成に用いる複数の画像を抽出する第 1のプログラムコード と、
前記抽出した複数の画像間のずれ量を検出する機能と、
前記検出したずれ量に基づいて、 前記抽出した複数の画像の中から 2以上の 画像を特定する第 2のプログラムコードと、
前記特定された 2以上の画像を合成して一の静止画像を生成する第 3のプロ グラムコードと
を備えたコンピュータプログラムプロダク卜 ,
PCT/JP2004/017128 2003-11-11 2004-11-11 画像処理装置、画像処理方法、そのプログラムおよび記録媒体 WO2005046221A1 (ja)

Priority Applications (4)

Application Number Priority Date Filing Date Title
US10/578,635 US7738731B2 (en) 2003-11-11 2004-11-11 Image processing device, image processing method, program thereof, and recording medium
JP2005515385A JP4325625B2 (ja) 2003-11-11 2004-11-11 画像処理装置、画像処理方法、そのプログラムおよび記録媒体
EP04799741A EP1684506A4 (en) 2003-11-11 2004-11-11 IMAGE PROCESSING DEVICE, IMAGE PROCESSING METHOD, PROGRAM THEREFOR AND RECORDING MEDIUM
US12/800,608 US7961985B2 (en) 2003-11-11 2010-05-18 Image processing apparatus, image processing method, and program product thereof

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2003-380614 2003-11-11
JP2003380614 2003-11-11

Related Child Applications (2)

Application Number Title Priority Date Filing Date
US10/578,635 A-371-Of-International US7738731B2 (en) 2003-11-11 2004-11-11 Image processing device, image processing method, program thereof, and recording medium
US12/800,608 Continuation US7961985B2 (en) 2003-11-11 2010-05-18 Image processing apparatus, image processing method, and program product thereof

Publications (1)

Publication Number Publication Date
WO2005046221A1 true WO2005046221A1 (ja) 2005-05-19

Family

ID=34567244

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2004/017128 WO2005046221A1 (ja) 2003-11-11 2004-11-11 画像処理装置、画像処理方法、そのプログラムおよび記録媒体

Country Status (5)

Country Link
US (2) US7738731B2 (ja)
EP (1) EP1684506A4 (ja)
JP (1) JP4325625B2 (ja)
CN (1) CN100440944C (ja)
WO (1) WO2005046221A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007010807A (ja) * 2005-06-28 2007-01-18 Fuji Xerox Co Ltd 情報処理システム、情報処理装置、情報処理方法及びコンピュータ・プログラム
JP2007036359A (ja) * 2005-07-22 2007-02-08 Casio Comput Co Ltd 画像合成装置、画像合成方法及びプログラム
JP2007151080A (ja) * 2005-10-27 2007-06-14 Canon Inc 画像処理装置及び画像処理方法
JP2007305113A (ja) * 2006-04-11 2007-11-22 Matsushita Electric Ind Co Ltd 画像処理方法および画像処理装置
JP2008033914A (ja) * 2006-06-28 2008-02-14 Matsushita Electric Ind Co Ltd 画像読出し方法および画像拡大方法
WO2009082015A1 (en) * 2007-12-21 2009-07-02 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program and memory medium for executing image processing method
JP2009171560A (ja) * 2007-12-21 2009-07-30 Canon Inc 画像処理装置及び画像処理方法並びに画像処理方法を実行するプログラム及び記憶媒体
JP2009171559A (ja) * 2007-12-21 2009-07-30 Canon Inc 画像処理装置及び画像処理方法
JP2010103876A (ja) * 2008-10-27 2010-05-06 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP2011244069A (ja) * 2010-05-14 2011-12-01 Panasonic Corp 撮像装置、集積回路および画像処理方法
JP2015146192A (ja) * 2012-10-29 2015-08-13 株式会社日立国際電気 画像処理装置

Families Citing this family (69)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7792970B2 (en) 2005-06-17 2010-09-07 Fotonation Vision Limited Method for establishing a paired connection between media devices
US8948468B2 (en) 2003-06-26 2015-02-03 Fotonation Limited Modification of viewing parameters for digital images using face detection information
US8989453B2 (en) 2003-06-26 2015-03-24 Fotonation Limited Digital image processing using face detection information
US7471846B2 (en) 2003-06-26 2008-12-30 Fotonation Vision Limited Perfecting the effect of flash within an image acquisition devices using face detection
US7440593B1 (en) 2003-06-26 2008-10-21 Fotonation Vision Limited Method of improving orientation and color balance of digital images using face detection information
US7574016B2 (en) 2003-06-26 2009-08-11 Fotonation Vision Limited Digital image processing using face detection information
US8498452B2 (en) 2003-06-26 2013-07-30 DigitalOptics Corporation Europe Limited Digital image processing using face detection information
US7565030B2 (en) 2003-06-26 2009-07-21 Fotonation Vision Limited Detecting orientation of digital images using face detection information
US8494286B2 (en) 2008-02-05 2013-07-23 DigitalOptics Corporation Europe Limited Face detection in mid-shot digital images
US7269292B2 (en) 2003-06-26 2007-09-11 Fotonation Vision Limited Digital image adjustable compression and resolution using face detection information
US7844076B2 (en) 2003-06-26 2010-11-30 Fotonation Vision Limited Digital image processing using face detection and skin tone information
CN100440944C (zh) * 2003-11-11 2008-12-03 精工爱普生株式会社 图像处理装置以及图像处理方法
US8503800B2 (en) 2007-03-05 2013-08-06 DigitalOptics Corporation Europe Limited Illumination detection using classifier chains
JP4513764B2 (ja) * 2006-02-20 2010-07-28 セイコーエプソン株式会社 画像判定装置および画像判定方法
US8374464B2 (en) * 2006-05-31 2013-02-12 Nec Corporation Method, apparatus and program for enhancement of image resolution
US7965875B2 (en) 2006-06-12 2011-06-21 Tessera Technologies Ireland Limited Advances in extending the AAM techniques from grayscale to color images
JP4225339B2 (ja) * 2006-09-11 2009-02-18 ソニー株式会社 画像データ処理装置および方法、プログラム、並びに記録媒体
US8055067B2 (en) 2007-01-18 2011-11-08 DigitalOptics Corporation Europe Limited Color segmentation
DE602008001607D1 (de) 2007-02-28 2010-08-05 Fotonation Vision Ltd Trennung der direktionalen beleuchtungsvariabilität in der statistischen gesichtsmodellierung auf basis von texturraumzerlegungen
WO2008107002A1 (en) 2007-03-05 2008-09-12 Fotonation Vision Limited Face searching and detection in a digital image acquisition device
US7916971B2 (en) 2007-05-24 2011-03-29 Tessera Technologies Ireland Limited Image processing method and apparatus
CN202018662U (zh) * 2007-05-24 2011-10-26 德萨拉技术爱尔兰有限公司 图像获取和处理设备
US8068700B2 (en) * 2007-05-28 2011-11-29 Sanyo Electric Co., Ltd. Image processing apparatus, image processing method, and electronic appliance
US20090161982A1 (en) * 2007-12-19 2009-06-25 Nokia Corporation Restoring images
US8750578B2 (en) 2008-01-29 2014-06-10 DigitalOptics Corporation Europe Limited Detecting facial expressions in digital images
JP5226705B2 (ja) * 2008-02-04 2013-07-03 パナソニック株式会社 画像合成装置、画像合成方法、画像合成プログラム及び集積回路並びに撮像システム及び撮像方法
US7855737B2 (en) 2008-03-26 2010-12-21 Fotonation Ireland Limited Method of making a digital camera image of a scene including the camera user
CN106919911A (zh) 2008-07-30 2017-07-04 快图有限公司 使用脸部检测的自动脸部和皮肤修饰
JP5230381B2 (ja) * 2008-11-28 2013-07-10 三星電子株式会社 撮像装置及び撮像装置の制御方法
JP4735742B2 (ja) * 2008-12-18 2011-07-27 カシオ計算機株式会社 撮像装置、ストロボ画像生成方法、および、プログラム
JP5500163B2 (ja) * 2009-02-19 2014-05-21 日本電気株式会社 画像処理システム、画像処理方法および画像処理プログラム
US20100304720A1 (en) 2009-05-27 2010-12-02 Nokia Corporation Method and apparatus for guiding media capture
US8520967B2 (en) * 2009-06-26 2013-08-27 Nokia Corporation Methods and apparatuses for facilitating generation images and editing of multiframe images
US8379917B2 (en) 2009-10-02 2013-02-19 DigitalOptics Corporation Europe Limited Face recognition performance using additional image features
JP2015039049A (ja) * 2009-10-26 2015-02-26 株式会社東芝 画像処理装置及び画像処理方法
US9509911B2 (en) * 2010-07-14 2016-11-29 Nikon Corporation Image-capturing device, and image combination program
JP5653184B2 (ja) * 2010-11-11 2015-01-14 三菱電機株式会社 画像処理装置及び方法
CN102572250A (zh) * 2010-12-27 2012-07-11 华晶科技股份有限公司 电子装置、影像拍摄装置及其方法
US8379999B2 (en) * 2011-01-18 2013-02-19 Chanan Gabay Methods, circuits, devices, apparatuses and systems for providing image composition rules, analysis and improvement
CN103259972A (zh) * 2012-02-17 2013-08-21 佳能企业股份有限公司 影像处理方法及成像装置
CN103685951A (zh) 2013-12-06 2014-03-26 华为终端有限公司 一种图像处理方法、装置及终端
JP2015177221A (ja) 2014-03-13 2015-10-05 オリンパス株式会社 撮像装置、撮像方法、データ記録装置、及びプログラム
EP2937835A1 (en) * 2014-04-22 2015-10-28 Ceva D.S.P. Ltd. System and method for generating a super-resolution image
CN104301484B (zh) * 2014-10-24 2017-08-25 天津市康凯特软件科技有限公司 展示手机程序变化过程的方法
CN104580905A (zh) * 2014-12-31 2015-04-29 广东欧珀移动通信有限公司 一种拍照方法及终端
JP5846549B1 (ja) * 2015-02-06 2016-01-20 株式会社リコー 画像処理システム、画像処理方法、プログラム、撮像システム、画像生成装置、画像生成方法およびプログラム
WO2016172619A1 (en) 2015-04-23 2016-10-27 Apple Inc. Digital viewfinder user interface for multiple cameras
US10007990B2 (en) * 2015-12-24 2018-06-26 Intel Corporation Generating composite images using estimated blur kernel size
US9912860B2 (en) 2016-06-12 2018-03-06 Apple Inc. User interface for camera effects
US10905402B2 (en) * 2016-07-27 2021-02-02 Canon Medical Systems Corporation Diagnostic guidance systems and methods
JP7118893B2 (ja) * 2016-12-02 2022-08-16 ソニーセミコンダクタソリューションズ株式会社 撮像素子および撮像方法、並びに電子機器
CN107230192B (zh) 2017-05-31 2020-07-21 Oppo广东移动通信有限公司 图像处理方法、装置、计算机可读存储介质和移动终端
DK180859B1 (en) 2017-06-04 2022-05-23 Apple Inc USER INTERFACE CAMERA EFFECTS
EP3668077B1 (en) * 2017-08-09 2023-08-02 FUJIFILM Corporation Image processing system, server device, image processing method, and image processing program
CN109314744A (zh) * 2017-12-29 2019-02-05 深圳市大疆创新科技有限公司 拍摄设备的图像处理方法、拍摄设备及可移动平台
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
DK201870623A1 (en) 2018-09-11 2020-04-15 Apple Inc. USER INTERFACES FOR SIMULATED DEPTH EFFECTS
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US10672101B1 (en) * 2019-03-04 2020-06-02 Omnivision Technologies, Inc. DRAM with simultaneous read and write for multiwafer image sensors
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261526A (ja) * 1996-03-19 1997-10-03 Olympus Optical Co Ltd 撮像装置
JPH11187307A (ja) * 1997-12-17 1999-07-09 Canon Inc 撮像装置及び撮像方法
JP2000152250A (ja) * 1998-11-10 2000-05-30 Canon Inc 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2002112095A (ja) * 2000-09-29 2002-04-12 Minolta Co Ltd デジタルスチルカメラ
JP2004229004A (ja) * 2003-01-23 2004-08-12 Seiko Epson Corp 画像生成装置、画像生成方法および画像生成プログラム
JP2004234624A (ja) * 2003-01-07 2004-08-19 Seiko Epson Corp 静止画像生成装置、静止画像生成方法、静止画像生成プログラム、および静止画像生成プログラムを記録した記録媒体
JP2004272751A (ja) * 2003-03-11 2004-09-30 Seiko Epson Corp 複数のフレーム画像からの静止画像の生成

Family Cites Families (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5649032A (en) * 1994-11-14 1997-07-15 David Sarnoff Research Center, Inc. System for automatically aligning images to form a mosaic image
US5696848A (en) * 1995-03-09 1997-12-09 Eastman Kodak Company System for creating a high resolution image from a sequence of lower resolution motion images
US6075905A (en) * 1996-07-17 2000-06-13 Sarnoff Corporation Method and apparatus for mosaic image construction
US6552744B2 (en) * 1997-09-26 2003-04-22 Roxio, Inc. Virtual reality camera
US6650361B1 (en) * 1997-12-17 2003-11-18 Canon Kabushiki Kaisha Imaging apparatus control method, and a computer program product having computer program code therefor
CA2289053C (en) 1998-11-10 2008-07-29 Canon Kabushiki Kaisha Image processing method and apparatus
JP4371457B2 (ja) 1999-02-18 2009-11-25 キヤノン株式会社 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
EP1170942A4 (en) * 2000-01-24 2007-03-07 Matsushita Electric Ind Co Ltd IMAGE SYNTHESIZER, RECORDED MEDIUM AND PROGRAM
US6834128B1 (en) * 2000-06-16 2004-12-21 Hewlett-Packard Development Company, L.P. Image mosaicing system and method adapted to mass-market hand-held digital cameras
US6799920B2 (en) * 2000-09-01 2004-10-05 Precision Cover Systems, Inc. Angle adjustable utility access and method
JP2002077713A (ja) * 2000-09-05 2002-03-15 Minolta Co Ltd 撮像装置
JP2003153080A (ja) * 2001-11-09 2003-05-23 Matsushita Electric Ind Co Ltd 映像合成装置
NL1019365C2 (nl) * 2001-11-14 2003-05-15 Tno Bepaling van een beweging van een achtergrond in een reeks beelden.
JP4024581B2 (ja) * 2002-04-18 2007-12-19 オリンパス株式会社 撮像装置
US20040225221A1 (en) * 2003-05-06 2004-11-11 Olsson Lars Jonas Diagnostic ultrasound imaging system with adaptive persistence
US7474767B2 (en) * 2003-09-24 2009-01-06 Avago Technologies Ecbu Ip (Singapore) Pte. Ltd. Motion detection using multi-resolution image processing
JP4461937B2 (ja) * 2003-09-30 2010-05-12 セイコーエプソン株式会社 低解像度の複数の画像に基づく高解像度の画像の生成
CN100440944C (zh) * 2003-11-11 2008-12-03 精工爱普生株式会社 图像处理装置以及图像处理方法
US20050175235A1 (en) * 2004-02-05 2005-08-11 Trw Automotive U.S. Llc Method and apparatus for selectively extracting training data for a pattern recognition classifier using grid generation
JP4476723B2 (ja) * 2004-07-14 2010-06-09 アルパイン株式会社 画像表示装置
US7460730B2 (en) * 2005-08-04 2008-12-02 Microsoft Corporation Video registration and image sequence stitching

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH09261526A (ja) * 1996-03-19 1997-10-03 Olympus Optical Co Ltd 撮像装置
JPH11187307A (ja) * 1997-12-17 1999-07-09 Canon Inc 撮像装置及び撮像方法
JP2000152250A (ja) * 1998-11-10 2000-05-30 Canon Inc 画像処理装置、方法及びコンピュータ読み取り可能な記憶媒体
JP2002112095A (ja) * 2000-09-29 2002-04-12 Minolta Co Ltd デジタルスチルカメラ
JP2004234624A (ja) * 2003-01-07 2004-08-19 Seiko Epson Corp 静止画像生成装置、静止画像生成方法、静止画像生成プログラム、および静止画像生成プログラムを記録した記録媒体
JP2004229004A (ja) * 2003-01-23 2004-08-12 Seiko Epson Corp 画像生成装置、画像生成方法および画像生成プログラム
JP2004272751A (ja) * 2003-03-11 2004-09-30 Seiko Epson Corp 複数のフレーム画像からの静止画像の生成

Cited By (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007010807A (ja) * 2005-06-28 2007-01-18 Fuji Xerox Co Ltd 情報処理システム、情報処理装置、情報処理方法及びコンピュータ・プログラム
JP2007036359A (ja) * 2005-07-22 2007-02-08 Casio Comput Co Ltd 画像合成装置、画像合成方法及びプログラム
JP2007151080A (ja) * 2005-10-27 2007-06-14 Canon Inc 画像処理装置及び画像処理方法
US8050518B2 (en) 2005-10-27 2011-11-01 Canon Kabushiki Kaisha Image processing apparatus and method for readily identifying image data suitable for super-resolution processing
JP2007305113A (ja) * 2006-04-11 2007-11-22 Matsushita Electric Ind Co Ltd 画像処理方法および画像処理装置
JP2008033914A (ja) * 2006-06-28 2008-02-14 Matsushita Electric Ind Co Ltd 画像読出し方法および画像拡大方法
JP2009171560A (ja) * 2007-12-21 2009-07-30 Canon Inc 画像処理装置及び画像処理方法並びに画像処理方法を実行するプログラム及び記憶媒体
JP2009171559A (ja) * 2007-12-21 2009-07-30 Canon Inc 画像処理装置及び画像処理方法
WO2009082015A1 (en) * 2007-12-21 2009-07-02 Canon Kabushiki Kaisha Image processing apparatus, image processing method, and program and memory medium for executing image processing method
JP2010103876A (ja) * 2008-10-27 2010-05-06 Sony Corp 画像処理装置、画像処理方法およびプログラム
JP4623199B2 (ja) * 2008-10-27 2011-02-02 ソニー株式会社 画像処理装置、画像処理方法およびプログラム
US8368815B2 (en) 2008-10-27 2013-02-05 Sony Corporation Image processing apparatus, image processing method, and program
US9153289B2 (en) 2008-10-27 2015-10-06 Sony Corporation Image processing apparatus, image processing method, and program
JP2011244069A (ja) * 2010-05-14 2011-12-01 Panasonic Corp 撮像装置、集積回路および画像処理方法
JP2015146192A (ja) * 2012-10-29 2015-08-13 株式会社日立国際電気 画像処理装置

Also Published As

Publication number Publication date
US7961985B2 (en) 2011-06-14
JPWO2005046221A1 (ja) 2007-05-24
EP1684506A1 (en) 2006-07-26
US20070133901A1 (en) 2007-06-14
JP4325625B2 (ja) 2009-09-02
US20100232703A1 (en) 2010-09-16
US7738731B2 (en) 2010-06-15
EP1684506A4 (en) 2008-06-04
CN1879401A (zh) 2006-12-13
CN100440944C (zh) 2008-12-03

Similar Documents

Publication Publication Date Title
WO2005046221A1 (ja) 画像処理装置、画像処理方法、そのプログラムおよび記録媒体
JP4120677B2 (ja) 複数のフレーム画像からの静止画像の生成
US7317558B2 (en) System and method for image processing of multiple images
US7729563B2 (en) Method and device for video image processing, calculating the similarity between video frames, and acquiring a synthesized frame by synthesizing a plurality of contiguous sampled frames
US7535497B2 (en) Generation of static image data from multiple image data
JP2009253506A (ja) 画像処理装置、画像処理方法、手振れ範囲推定装置、手振れ範囲推定方法、及びプログラム
JP6656035B2 (ja) 画像処理装置、撮像装置および画像処理装置の制御方法
JP5825256B2 (ja) 画像処理装置、画像処理方法および画像処理用プログラム
JP2008198082A (ja) 画像処理方法、画像処理装置、及びディジタルカメラ
JP2006092450A (ja) 画像処置装置および画像処理方法
JP4340836B2 (ja) 画像合成装置及び画像合成プログラム
JP2006350936A (ja) 画像作成装置、及び画像作成用プログラム
JP7118729B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2010026734A (ja) 画像処理装置およびその方法
JPH10108003A (ja) 画像合成装置および画像合成方法
JP2011188035A (ja) 撮像装置及びパノラマ画像合成方法並びにそのプログラム
JP2005094614A (ja) 手ぶれ補正装置、手ぶれ補正方法および手ぶれ補正プログラムを記録した記録媒体
JP2008310418A (ja) 画像処理装置、画像処理プログラム及びそれらを搭載した電子カメラ
JP2006033232A (ja) 画像処理装置
JP2006119730A (ja) 画像のつなぎ合わせ
JP2005252739A (ja) 静止画像生成装置およびその方法
JP2005277916A (ja) 動画像処理装置、画像処理システム、動画像処理方法およびそのプログラム、記録媒体
JPH0991407A (ja) パノラマ画像合成システム及びパノラマ画像合成方法
JP2009042900A (ja) 撮像装置および画像選択装置
JP3325823B2 (ja) 映像静止画表示方法及び装置並びに映像静止画表示プログラム格納記録媒体

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200480033012.9

Country of ref document: CN

AK Designated states

Kind code of ref document: A1

Designated state(s): AE AG AL AM AT AU AZ BA BB BG BR BW BY BZ CA CH CN CO CR CU CZ DE DK DM DZ EC EE EG ES FI GB GD GE GH GM HR HU ID IL IN IS JP KE KG KP KR KZ LC LK LR LS LT LU LV MA MD MG MK MN MW MX MZ NA NI NO NZ OM PG PH PL PT RO RU SC SD SE SG SK SL SY TJ TM TN TR TT TZ UA UG US UZ VC VN YU ZA ZM ZW

AL Designated countries for regional patents

Kind code of ref document: A1

Designated state(s): BW GH GM KE LS MW MZ NA SD SL SZ TZ UG ZM ZW AM AZ BY KG KZ MD RU TJ TM AT BE BG CH CY CZ DE DK EE ES FI FR GB GR HU IE IS IT LU MC NL PL PT RO SE SI SK TR BF BJ CF CG CI CM GA GN GQ GW ML MR NE SN TD TG

WWE Wipo information: entry into national phase

Ref document number: 2005515385

Country of ref document: JP

121 Ep: the epo has been informed by wipo that ep was designated in this application
WWE Wipo information: entry into national phase

Ref document number: 2007133901

Country of ref document: US

Ref document number: 10578635

Country of ref document: US

WWE Wipo information: entry into national phase

Ref document number: 2004799741

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 2004799741

Country of ref document: EP

WWP Wipo information: published in national office

Ref document number: 10578635

Country of ref document: US