WO2008032392A1 - Procédé et dispositif de traitement d'image et programme connexe - Google Patents

Procédé et dispositif de traitement d'image et programme connexe Download PDF

Info

Publication number
WO2008032392A1
WO2008032392A1 PCT/JP2006/318302 JP2006318302W WO2008032392A1 WO 2008032392 A1 WO2008032392 A1 WO 2008032392A1 JP 2006318302 W JP2006318302 W JP 2006318302W WO 2008032392 A1 WO2008032392 A1 WO 2008032392A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
image processing
composite
images
region
Prior art date
Application number
PCT/JP2006/318302
Other languages
English (en)
French (fr)
Inventor
Kimitaka Murashita
Masayoshi Shimizu
Kaoru Chujo
Takashi Wakamatsu
Original Assignee
Fujitsu Limited
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Limited filed Critical Fujitsu Limited
Priority to KR1020097005488A priority Critical patent/KR101008917B1/ko
Priority to CN200680055837XA priority patent/CN101512596B/zh
Priority to PCT/JP2006/318302 priority patent/WO2008032392A1/ja
Priority to EP06810146.8A priority patent/EP2063390B1/en
Priority to JP2008534194A priority patent/JP4750854B2/ja
Publication of WO2008032392A1 publication Critical patent/WO2008032392A1/ja
Priority to US12/403,027 priority patent/US8311367B2/en

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/68Control of cameras or camera modules for stable pick-up of the scene, e.g. compensating for camera body vibrations
    • H04N23/682Vibration or motion blur correction
    • H04N23/683Vibration or motion blur correction performed by a processor, e.g. controlling the readout of an image memory
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio

Definitions

  • the present invention relates to image processing for combining a plurality of captured still images, and more particularly to a technique for superimposing images such as camera shake correction.
  • camera shake correction of an image taken by an imaging device has been performed by synthesizing continuous shot images of short exposure to correct camera shake. These are shot by shooting a specific subject and aligning the shot images.
  • the final combined image may have different numbers of images used for combining depending on the force region, which is a combination of multiple pixels at the same position (added and averaged pixel values).
  • the subject moves in addition to camera shake, so the subject may be multiplexed in simple addition. Multiplexing can be prevented by detecting the correlation between continuous shot images, and not using for combining if there is no pixel difference, and not using images with differences for combining (motion region detection). .
  • the common area can be combined with multiple images, but cannot be combined with other areas.
  • the composition of continuous shot images is a composite image in which a region where only one image is strong, a region where two images are combined, a region where three images are combined, and the like are mixed.
  • the image noise varies depending on the number of images used for this composition. For example, since noise is averaged by combining multiple images, noise decreases as the number of images combined increases. For this reason, a single image contains a lot of noisy areas and few areas.
  • contour enhancement processing has been performed on such a composite image in order to show the captured image clearly.
  • the sharpness of the image is enhanced, but half-surface noise is enhanced. Will be. Therefore, in most cases, the last adjustment is made to enhance the sense of clarity without emphasizing the noise.
  • Patent Document 1 the number of synthesized images is reduced or increased based on the motion vector (motion region and non-motion region) between frames of the moving image, and the first frame of the moving image is adapted to the number of synthesized images.
  • proposals have been made to interpolate and combine pixels of a plurality of frames.
  • Patent Document 1 it is difficult to achieve high image quality conversion from a plurality of low-resolution images to high-resolution images, and the n-th frame and the n + a-frame are input, The image is synthesized using the a + 1 image and the intermediate frame generated by interpolation from the a + 1 image.
  • Patent Document 2 proposes that image synthesis is performed for each region, and an image synthesis method (image processing) is switched according to a result of determination based on a motion vector for each region.
  • Patent Document 1 determines a frame to be used for image synthesis in accordance with a motion vector.
  • Patent Document 2 switches processing depending on the type of shake.
  • Patent Document 3 proposes a method in which a reader that reads an original image discriminates between a character area and a gray image area and performs processing (shading, contouring, etc.) with different parameters for each area. Speak.
  • Patent Document 3 one image is divided into a plurality of regions and different parameters are used.
  • the method of processing is the same, but based on image composition processing of multiple images!
  • This is an image separation method that divides an image into regions and performs processing with different parameters, and does not separate regions from one image.
  • Patent Document 4 proposes a method in which a captured image is read to separate a main area and a background area, and image processing is performed on the main area or the background area with color reproduction parameters.
  • Patent Document 6 proposes image processing corresponding to an area extracted from a color image.
  • the noise removal performs a filtering process on the image. Noise is reduced when applied to the noise area. When applied to the edge, the edge is blurred and the sharpness is lost. There is a problem. In addition, if the same parameter is applied to the entire image, an area with side effects (such as an edge portion) is generated, so that only weak processing that does not cause side effects can be applied.
  • Patent Document 1 Japanese Patent Laid-Open No. 2000-194845
  • Patent Document 2 Japanese Patent Laid-Open No. 2003-134385
  • Patent Document 3 Japanese Patent No. 3023374
  • An image processing method for acquiring a plurality of images and creating a composite image according to the present invention wherein when the images are combined, the number of the images to be combined is detected for each region of the composite image.
  • Composite number determination processing to be stored as composite number information
  • image processing parameter switching processing for switching parameters of image processing to be executed for each area of the composite image based on the composite number information
  • composite number One or both of image processing switching processing for switching image processing to be executed for each region of the composite image based on the information.
  • the image processing switching process performs noise removal processing when the composite number information of the region is N, and when the composite number is M (where N ⁇ M) Do the edge enhancement process.
  • the image processing switching unit performs noise removal processing when the composite number information of the area is N, and outline enhancement when the composite number is M (N> M). Processing may be performed.
  • the image is synthesized with a computer of an image processing apparatus that acquires a plurality of images and creates a synthesized image according to the present invention
  • the number of images to be synthesized is detected for each area of the synthesized image.
  • Composite number determination processing to be stored as composite number information
  • image processing parameter switching processing for switching image processing parameters to be executed for each area of the composite image based on the composite number information
  • composition This is a program for causing a computer to execute either or both of image processing switching processing for switching image processing to be performed on each area of the composite image based on the number information.
  • complex processing such as image analysis can be performed by switching image processing or image processing parameters according to the number of image compositing for each region over different image compositing numbers for each region of the composite image. This makes it possible to perform optimal image processing.
  • FIG. 1 is a block diagram showing the principle of the present invention.
  • FIG. 2 is a flowchart showing the operation of the present invention.
  • FIG. 3 is a diagram illustrating the principle of motion region detection.
  • FIG. 5A is a diagram showing the principle of common area detection (panoramic shooting).
  • FIG. 5B is a diagram showing the principle of common area detection (panoramic shooting).
  • FIG. 6 is a block diagram showing a configuration of Example 1.
  • FIG. 7 is a diagram showing a database showing the number of combined images and contour strength in Example 1.
  • FIG. 8 is a block diagram showing a configuration of Example 2.
  • FIG. 9 is a diagram showing a database indicating the number of combined images and filter size in Example 2.
  • FIG. 10 is a flowchart showing the operation of the third embodiment.
  • FIG. 1 shows a block diagram of the image processing apparatus 1.
  • the image processing apparatus 1 includes an image holding unit 2, a composite number determination unit 3, an image composition unit 4, a parameter selection unit 5, and an image processing unit 6.
  • the image processing apparatus 1 is provided in a digital camera, for example.
  • the imaging unit (not shown in the figure) equipped with an imaging element such as an optical Z electrical conversion element controls imaging at the time of shooting.
  • the imaging control controls imaging conditions such as gain value (sensitivity) and exposure time in the imaging unit. That is, the shooting conditions set by the user are input, and the shooting conditions of the imaging unit are set as appropriate.
  • the composite number determination unit 3 calculates the amount of deviation for each region (pixel, multi-pixel force configuration), determines the composite number by a motion region detection method, a common region detection method, and the like. Transfers the image composition information to the selection unit 5.
  • the image composition information includes composite number information indicating the number of composite images for each region, and may further include information necessary for composition. Yes.
  • shooting parameters indicating shooting conditions such as sensitivity and exposure time of the image data may be output to the composite number determining unit 3 and the image combining unit 4.
  • the image composition unit 4 acquires the image data stored in the image holding unit 2 , and performs image composition based on the image composition information (including the composition number information) generated by the composition number determination unit 3.
  • the meter selection unit 5 performs, for example, edge enhancement processing, noise removal, tone curve correction processing, etc., performed by the image processing unit 6 on the composite image generated by the image composition unit 4 based on the composite number information. Switch the parameters of each image processing. The parameter is switched based on the composite number information.
  • FIG. 2 shows the operation flow diagram of the present invention.
  • step S1 a plurality of still images are acquired by shooting (continuous shooting, video recording, etc.) and stored in the image holding unit 2 (frame memory).
  • step S2 the number of images to be combined is determined.
  • the number of combined images (composite number information) is determined for each area (may be a pixel or a plurality of pixels) of the plurality of images acquired in step S1.
  • FIG. 3 shows a principle diagram of motion region detection.
  • three images 31 to 33 (images 1 to 3) shown in Figure 3 are stored in the image holding unit 2 (image holding unit 2), and feature points of each image are detected and aligned.
  • image holding unit 2 image holding unit 2
  • feature points of each image are detected and aligned.
  • the difference between pixel values at the same position is calculated, and the difference is equal to or greater than a preset threshold value. Is detected as a motion region.
  • An image 35 (motion detection) in FIG. 3 is an image in which the motion area is represented by “white” and the non-motion area is represented by “black”.
  • image 36 in FIG. 3 moving region removal image image 1
  • image 36 in FIG. 3 is synthesized using the result of combining three non-motion regions using the image of image 32 (image 2) in FIG. It is a composite image.
  • image 36 in FIG. 3 the “white” region of image 35 in FIG. 3 is a single image, and the “black” region is a mixed image consisting of three-by-three composite images.
  • the vehicle is removed and only the background is extracted.
  • an image 37 (moving region removed image 1) shown in FIG. 3 can be obtained as a composite image.
  • the composite image of the image 37 in FIG. 3 also has a mixed area of only one image area, two image composition areas, and three image composition areas.
  • the three-image composition area is larger than the other composition areas.
  • two marginal areas that combine images are synthesized. Otherwise, it is a single image area.
  • No-V llama- tion creates a horizontally long image by panning the camera continuously while leaving a common area (margin) at the time of shooting, and then joining the margins. In this case, the margin will be a composite of two images, and the rest will be a single image.
  • the image composition area is composed of only one image area and two image composition areas.
  • step S3 image composition is performed.
  • Image synthesis is performed based on the number of synthesized images of each region (comprising a plurality of pixels) detected in step S2.
  • step S4 the composite number of each area is stored in the memory as composite number information.
  • step S6 the parameter switching is determined based on the result of the image composition process performed in steps Sl to 4 and the composition number determination process for each region. If the number of composites is 1, the process proceeds to step S7 (uses the reference image). If the composite number is plural, the process proceeds to step S8. In step S7, the image processing setting corresponding to the case of one sheet is selected. The parameter selection unit 5 selects parameter settings when performing image processing.
  • parameter values corresponding to the number of synthesized images may be stored in advance in the parameter selection unit 5 as a database, or a dedicated memory may be prepared.
  • the composite number is acquired in order to switch the parameters for each image processing (contour emphasis processing, noise removal, tone curve correction processing) from the composite number information stored for each region.
  • step S9 in order to perform image processing on the region of the composite image, the image processing selected in step S7 or step S8 corresponding to the image processing is performed on each region of the composite image.
  • step S10 it is determined whether or not the entire area has been combined. If synthesis is complete for all regions, the process ends. Otherwise, go to step S6 and continue image processing.
  • the parameters are switched based on the number of synthesized images at the time of synthesis processing. ) Is not required.
  • the parameter may be generated by holding the parameter when the number of combined images is 2 or more, and not holding the parameter when holding the number of combined images, and by interpolating the parameters.
  • the amount of noise tends to decrease in proportion to the number of image composites. Therefore, the number of image composites is stored, and the strength of edge enhancement processing is switched according to the number of image composites.
  • FIG. 6 shows a block diagram of the first embodiment.
  • the first embodiment includes an image holding unit 61, a deviation amount calculating unit 62, a motion region detecting unit 63, an image synthesizing unit 64, a parameter selecting unit 65, and an outline emphasizing processing unit 66.
  • the composite number determination unit 3 in the block diagram shown in FIG. 1 includes a deviation amount calculation unit 62 and a motion region detection unit 63
  • the image processing unit 6 includes a contour enhancement processing unit 66. .
  • the shift amount calculation unit 62 calculates the shift amount of the same region (pixel unit or pixel block unit having a plurality of pixel forces) in a plurality of images of the image holding unit 61, and the motion region detection unit 63 Output to.
  • the motion region detection unit 63 includes a threshold setting unit, a motion determination unit, an isolated point noise determination unit, and a determination buffer.
  • the threshold value setting unit calculates a first determination threshold value and a second determination threshold value according to the shooting parameters and outputs them to the motion determination unit and the isolated point noise determination unit, respectively. That is, the first determination threshold value includes either a threshold value d_exposure determined according to the exposure time te or a threshold value d_gain determined according to the gain value g.
  • the second determination threshold is also determined as the threshold I_exposure or the threshold Lgain based on the exposure time t e or the gain value g.
  • the motion determination unit determines whether or not the corresponding region of the plurality of images is a motion region according to the magnitude of the shift amount ⁇ a. Specifically, it is compared with the first determination threshold, and when the difference value ⁇ a is larger than the first determination threshold, it is determined that there is motion, and the motion determination result is output to the determination buffer.
  • the isolated point noise determination unit further determines whether or not M (x, y) of a pixel determined to have motion by the motion determination unit is isolated point noise. Makes M (x, y) no motion ("0"). Specifically, the surrounding 8 adjacent to M (x, y) of the target pixel The number of pixels determined to be in motion is counted with reference to the judgment result of the location, and if this count value is smaller than the second judgment threshold (threshold Lexposure or threshold Lgain), isolated point noise is detected. Judgment makes M (x, y) no motion ("0").
  • the motion region and the region are combined, and the moving region is not combined. For example, if there is no motion in all three images, the motion region information (image composition number information) in the region is kept 3, and if there is motion, the reference image is used and the motion region information (image composition number information) is 1. To do.
  • the image synthesis unit 64 synthesizes each image based on the motion region information (image synthesis number information).
  • the meter selection unit 65 sets the number of combined images and the contour strength (contour strength parameter) in advance for performing the contour emphasis process. For example, sharpening is performed by using a sharpening filter to increase the density value (contour strength) difference between pixels.
  • a database as shown in Fig. 7 is prepared and the contour strength is set to 30 for the area with one composite, 20 for the two areas, and 10 for the three areas, and stored in memory.
  • FIG. 8 shows a block diagram of the second embodiment.
  • the second embodiment includes an image holding unit 81, a deviation amount calculating unit 82, a common area detecting unit 83, an image synthesizing unit 84, a parameter selecting unit 85, and a noise removal processing unit 86.
  • the composite number determination unit 3 in the block diagram shown in FIG. 1 includes a deviation amount calculation unit 82 and a common area detection unit 83
  • the image processing unit 6 includes a noise removal processing unit 66.
  • the shift amount calculation unit 82 calculates the shift amount of the same region (pixel unit or pixel block unit having a plurality of pixel forces) in the plurality of images of the image holding unit 81, and the common region detection unit 83. Output to.
  • the common area detection unit 83 detects feature points of a plurality of images stored in the image holding unit 81 and, for example, superimposes three images, combines three images, combines two images, and combines one image. Detect area To do.
  • the image composition unit 84 composes each image based on the shared area information (image composition number information).
  • the meter selection unit 85 preliminarily sets the number of composites and the filter size (noise removal parameter) such as a weighted average filter, median fill, and blurring processing in order to perform noise removal processing. For example, prepare a database as shown in Fig. 9 and set the filter size to 5 X 5 in the area of composite number power ⁇ , set it to 3 X 3 in the area 2 and 1 X 1 in the area 3 and store it in memory etc. To do.
  • the filter size such as a weighted average filter, median fill, and blurring processing
  • Figure 10 shows the operation flow when changing the image processing by the number of combined images.
  • step S1 a plurality of images are captured (continuous shooting, no-rama shooting, etc.) to obtain a plurality of still images. Saved in image holding unit 2 (frame memory).
  • step S2 the number of images to be combined is determined.
  • the number of combined images (composite number information) is determined for each area (may be a pixel or a plurality of pixels) of the plurality of images acquired in step S1.
  • step S3 image composition is performed. Compositing is performed based on the number of composites of each region (consisting of pixels and a plurality of pixels) detected in step S2. In step S4, the composite number of each area is stored in the memory as composite number information.
  • step S5 it is determined whether or not the entire area has been combined. If the synthesis is completed for all areas, the process proceeds to step S6. Otherwise, go to step S2 and continue synthesis.
  • step S101 after performing the image compositing process performed in steps Sl to 4 and the compositing number determination process for each area, a determination for switching the image processing for each area of the composite image is performed.
  • the image processing is switched between edge enhancement processing and noise removal based on the composite number information stored for each region. If the number of combined images is 1, the process proceeds to step S102 (uses the reference image). If the composite number is plural, the process proceeds to step S103.
  • the power of switching processing when the number of composites is one or more.
  • the present invention is not limited to this.
  • the number of composites is N (N> 1)
  • noise removal is performed.
  • Processing may be performed, and the edge enhancement processing may be performed for M sheets (M> N).
  • the composite number information is 1, the noise removal process is selected and the noise removal process is performed.
  • step S 103 when there are a plurality of combined number information, for example, when combining two images, that is, when the combined number information is two, the contour enhancement processing is selected and the contour enhancement processing is performed.
  • step S103 if the number of combined images is large, the contour emphasis parameter is increased, and the emphasis is performed weakly in areas where the number of combined images is small. Thus, the strength of parameters used for image processing may be changed.
  • step S 104 it is determined whether composition has been performed for all regions. If the synthesis has been completed for all areas, the process ends. If not, the process proceeds to step S101 to continue image processing.
  • Figure 11 shows the operation flow of tone curve correction.
  • step S111 after performing the image composition processing performed in steps S1 to S4 and the composition number determination process for each region, a determination is made to switch tone curve correction for each region of the composite image. Tone curve correction switching is performed by switching the tone curve correction parameters from the composite number information stored for each area. If the number of composites is 1, the process proceeds to step S112 (uses the reference image). If the composite number is plural, the process proceeds to step S113.
  • step S112 when the composite number information is 1, the tone curve correction parameter for one sheet is selected and tone curve correction is performed.
  • step S113 when the composite number information is plural, for example, the composite number is two. If this is the case, select the tone curve correction parameter for two sheets and perform tone curve correction.
  • the tone curve correction parameter performs tone curve correction using a gamma characteristic.
  • Figure 12 shows the database for this purpose. Select 1 for the number of composites, 1 for the 2 sheets, and 1 for the 3 sheets.
  • the tone curve correction parameter When performing gamma correction, set the tone curve correction parameter so that the gamma value is 1.
  • the applied gamma value may be calculated by interpolation.
  • step S114 it is determined whether or not the synthesis has been performed for all regions. All areas! If tone curve correction is completed, the process ends. If not, the process proceeds to step S111 to continue image processing.
  • the captured image may become bluish or reddish. This is because the color of the entire image is adjusted starting from “white” in the image. For example, during continuous shooting, the “white” that has been the standard until then disappears due to subject movement (frameout). For example, if a reddish color is mistakenly detected as “white”, red will be corrected to white, resulting in an overall bluish image. If such an image is used for composition, the color of the composition result image becomes unclear, so it is deleted from the composition target.
  • the operation shown in the above embodiment is sourced from a computer (including a CPU and an information processing device) provided in a multi-channel data transfer device (LSI, etc.) using a PC or the like from the outside.
  • a predetermined program multi-channel data transfer program
  • ROM read only memory
  • the processing of the flowchart as described above is performed by a standard computer (for example, image processing).
  • the recording medium power is also read into the computer and executed by the CPU. Implementation of the present invention is possible.
  • FIG. 13 shows an example of a recording medium from which the recorded control program can be read by a computer system.
  • a recording medium for example, it is inserted into a storage device 131 such as a ROM node disk device provided as an internal or external accessory device in the computer system 130, and a medium driving device 132 provided in the computer system 130. Therefore, it is possible to use a portable recording medium 133 such as a flexible disk, MO (magneto-optical disk), CD-ROM, DVD-ROM, etc. that can read the recorded control program.
  • a storage device 131 such as a ROM node disk device provided as an internal or external accessory device in the computer system 130
  • a medium driving device 132 provided in the computer system 130. Therefore, it is possible to use a portable recording medium 133 such as a flexible disk, MO (magneto-optical disk), CD-ROM, DVD-ROM, etc. that can read the recorded control program.

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computing Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

明 細 書
画像処理方法および装置とそのプログラム
技術分野
[0001] 本発明は、撮影した複数の静止画像を合成する画像処理に係り、特に手振れ補正 など画像を重ね合わせる技術に関する。
背景技術
[0002] 近年、デジタルカメラなどの撮影装置により撮影された画像の手振れ補正は、短露 光の連写画像を合成することで手振れ補正をして 、る。これらは特定の被写体を連 写し、連写した画像を位置合わせして合成する。最終的に合成した画像は、複数枚 の同一位置の画素を合成 (画素値を加算して平均化)したものである力 領域によつ て合成に使用された枚数が異なる場合がある。
[0003] 連写画像では手振れの他に被写体の動きがあるため、単純加算では被写体が多 重化することがある。連写画像間の相関を検出し、画素差が無い場合は合成を、画 素差がある場合は差のある画像を合成に使わないことで、多重化を防ぐことができる (動き領域検出)。また、画像間にずれがある場合、画像が重なり合う領域 (共通領域 )と重ならない領域とがある。共通領域は複数画像によって合成できるが、それ以外 の領域では合成できない。このように、連写画像の合成は、 1枚のみ力もできた領域 、 2枚合成でできた領域、 3枚合成でできた領域、などが混在する合成画像になる。 画像のノイズはこの合成に使用した枚数によって異なる。例えばノイズは、複数画像 を合成することによってランダムノイズが平均化されるために、画像合成枚数が多い ほど少なくなる。そのため、 1枚の画像の中にノイズの多い領域、少ない領域が混在 すること〖こなる。
[0004] このような合成画像に従来は、撮影画像をくつきりと見せるために輪郭強調処理を 実施したりしているが、輪郭強調処理では、画像のくっきり感は高まるが、半面ノイズ が強調されてしまう。そこで、通常はノイズが強調されずにくっきり感が高まるぎりぎり の調整を実施する。
[0005] また、単純に画像合成した手振れ補正結果の画像では、重ね合わせ枚数の異なる 領域が混在する。そのため、ノイズ量は重ね合わせ枚数によって異なり、輪郭強調を 重ね合わせ枚数の少な ヽ領域に合わせて輪郭強調をする場合、強!、輪郭強調がか けられずくっきり感が弱くなつてしまう。また、重ね合わせ枚数の多い領域に合わせる とノイズが強調されてしまう。
[0006] そこで、特許文献 1では動画像のフレーム間の動きベクトル (動き領域と非動き領域 )に基づき、合成枚数を減らしたり、増やしたりし、動画像の最初のフレームに合成枚 数に応じて複数のフレームの画素を内挿し合成する提案がされている。
[0007] しかし、特許文献 1によれば、複数の低解像度画像から高解像度画像への変換の 高画質ィ匕が困難であるとともに、第 nフレームと第 n+aフレームとを入力し、その間の a+ 1枚の画像と、さらに a+ 1枚から内挿により生成した中間フレームとを用いて画像 合成している。
[0008] それに対し、複数の画像力 画像を合成するものであり、動きベクトルに応じて画像 合成に使用する 2フレームを変更し、 2フレームの間隔 aを短くする。これは「合成に使 用する画像の決定」であり、合成結果の画像に対して、何の処理をするかは記載され ていない。
[0009] 特許文献 2では、領域毎に画像合成を行 、、領域毎に動きベクトルにより判定した 結果に応じて、画像合成の方法 (画像処理)を切り替える提案がされて 、る。
しかし、特許文献 2によれば、画像の振れには「被写体振れ」と「手振れ」があり、同 一の振れ除去処理ではこれらを同時に除去できない。また、手振れ、被写体振れを 検知し、振れの種類に応じた画像処理を施している。しかし、検知した振れの種類に 応じて画像処理を切り替えるものであるが、その判別基準は「振れの種類」であり画 像合成枚数ではな ヽ。画像処理を切り替える契機が異なる。
[0010] つまり特許文献 1は動きベクトルに応じて画像合成に使用するフレームを決定する ものである。特許文献 2は振れの種類で処理を切り替えるものである。
特許文献 3では、原画像を読み取る読取機において、文字領域と濃淡画像領域と を判別し、それぞれの領域に対して異なるパラメータで処理 (影付け、輪郭化など)を 実施する方式が提案されて ヽる。
[0011] しかし、特許文献 3によれば、 1画像内を複数の領域に分割して異なるパラメータで 処理をする方法は同じであるが、複数画像の画像合成処理に基づ!、て画像を領域 に分割して異なるパラメータで処理を実施する画像分離手法であり、 1画像から領域 を分離するものではない。
[0012] 特許文献 4では、撮影画像を読み取って主要部領域と背景領域とを分離し、主要 部領域、あるいは背景領域に色再現パラメータで画像処理する方式が提案されて ヽ る。
しかし、特許文献 4によれば、 1画像を分離して、異なる画像処理を行うのは上記と 同じであるが、 1画像を元に主要部と背景とを分離するため画像分離手法が異なる。
[0013] 特許文献 5では、被写体の映った画像と映って 、な 、画像から、被写体のみを抽 出する方式が提案されて ヽる。
しかし、特許文献 5によれば、複数画像を用いて領域を分離する方法は同じである 力 複数画像を合成するのに対して分離している。また、合成画像に対して領域ごと に異なる処理を行うのに対し、抽出を容易にするために分離前の元画像に対して異 なる処理を行っている。
[0014] 特許文献 6では、カラー画像から特定領域を抽出して領域に応じた画像処理が提 案されている。
し力しながら、画像領域に応じて、合成対象とする枚数が異なると、最終的に得られ る画像のノイズの多さは合成枚数に左右されるため、画像全体に対して一律ではな い。そのためノイズ除去をしなければならない。また、画像解析 (エッジ部検出等)を 行って、対象部分のみノイズ除去することも考えられるが、画像解析には複雑な処理 が必要となり、処理時間や回路規模の増大を招く。また、画像解析は必ずしも所望の 結果が得られない。
[0015] 例えばノイズ除去を実施する場合、これまでは画像全体に対して同一のパラメータ で処理を行い、ノイズの多い場所はノイズ除去を行い、エッジ部はノイズ除去を行わ ないなどの画像解析を行って解析結果に応じてパラメータを切り替えるなどを行って いる。
[0016] そして、ノイズ除去は、画像に対してフィルタ処理を行う。ノイズ領域にかけるとノィ ズが減少する力 エッジ部にかけるとエッジがぼやけてしまい、シャープ感が無くなる といった問題がある。また、画像全体に一律に同じパラメータでかけると副作用がある 領域 (エッジ部など)が生じるため、副作用が生じない弱めの処理しかかけられないと いう問題がある。
特許文献 1:特開 2000— 194845号公報
特許文献 2 :特開 2003— 134385号公報
特許文献 3:特許第 3023374号公報
特許文献 4:特許第 3408770号公報
特許文献 5:特開平 8— 194113号公報
特許文献 6:特開平 11― 266358号公報
発明の開示
[0017] 本発明は複数の画像が合成されて構成される合成画像の領域ごとに、その領域に 合成した合成枚数に応じて処理を変え、画像内に特性の異なる領域が存在する合 成画像に対する画像処理を、簡易な構成によって行う適応型画像処理方法および 装置とそのプログラムを提供することを目的とする。
[0018] 本発明である複数の画像を取得し合成画像を作成する画像処理方法であって、前 記画像を合成するとき、前記合成画像の領域ごとに前記画像を合成する枚数を検出 して合成枚数情報として保存する合成枚数決定処理と、前記合成枚数情報に基づ V、て、前記合成画像の各領域に対し実行する画像処理のパラメータを切り替える画 像処理パラメータ切替処理と、前記合成枚数情報に基づいて、前記合成画像の各 領域に対し実行する画像処理を切り替える画像処理切替処理とのいずれかまたは両 方と、を有することを特徴とする。
[0019] 好ましくは、前記画像処理切替処理は、前記領域の前記合成枚数情報が N枚であ るときはノイズ除去処理を行い、前記合成枚数が M枚 (ただし, N< M)であるときは 輪郭強調処理を行ってもょ ヽ。
[0020] 本発明の態様のひとつである複数の画像を取得し合成画像を作成する画像処理 装置であって、前記画像を合成するとき、前記合成画像の領域ごとに前記画像を合 成する枚数を検出して合成枚数情報として保存する合成枚数決定部と、前記合成枚 数情報に基づ ヽて、前記合成画像の各領域に対し実行する画像処理のパラメータを 切り替える画像処理パラメータ切替部と、前記合成枚数情報に基づいて、前記合成 画像の各領域に対し実行する画像処理を切り替える画像処理切替部とのいずれか、 または両方と、を具備する。
[0021] 好ましくは、前記画像処理切替部は、前記領域の前記合成枚数情報が N枚である ときはノイズ除去処理を行い、前記合成枚数が M枚 (N>M)であるときは輪郭強調 処理を行ってもよい。
[0022] 本発明である複数の画像を取得し合成画像を作成する画像処理装置のコンビユー タに、前記画像を合成するとき、前記合成画像の領域ごとに前記画像を合成する枚 数を検出して合成枚数情報として保存する合成枚数決定処理と、前記合成枚数情 報に基づ ヽて、前記合成画像の各領域に対し実行する画像処理のパラメータを切り 替える画像処理パラメータ切替処理と、前記合成枚数情報に基づいて、前記合成画 像の各領域に対し実行する画像処理を切り替える画像処理切替処理とのいずれか、 または両方と、をコンピュータに実行させるプログラムである。
[0023] 本発明によれば、合成画像の各領域で異なる画像合成枚数にぉ ヽて、領域ごとの 画像合成枚数によって画像処理、あるいは画像処理のパラメータを切り替えることで 、画像解析など複雑な処理を簡単することができ、最適な画像処理を実施することが できる。
図面の簡単な説明
[0024] [図 1]本発明の原理を示すブロック図である。
[図 2]本発明の動作を示すフロー図である。
[図 3]動き領域検出の原理を示す図である。
[図 4]共通領域検出の原理を示す図である。
[図 5A]共通領域検出 (パノラマ撮影)の原理を示す図である。
[図 5B]共通領域検出 (パノラマ撮影)の原理を示す図である。
[図 6]実施例 1の構成を示すブロック図である。
[図 7]実施例 1の合成枚数と輪郭強度を示すデータベースを示す図である。
[図 8]実施例 2の構成を示すブロック図である。
[図 9]実施例 2の合成枚数とフィルタサイズを示すデータベースを示す図である。 [図 10]実施例 3の動作を示すフロー図である。
[図 11]実施例 4の構成を示すブロック図である。
[図 12]実施例 4の合成枚数と傾きを示すデータベースを示す図である。
[図 13]プログラムをコンピュータで読み取ることの可能な記録媒体の構成例を示す図 である。
発明を実施するための最良の形態
[0025] 以下図面に基づいて、本発明の実施形態について詳細を説明する。
(原理説明)
本発明は、複数枚の画像を動き領域検出方法や共通領域検出方法などを用いて 合成した合成画像に対して輪郭強調処理、ノイズ除去、トーンカーブ補正処理など の画像処理を行う場合、上記合成画像を構成する領域ごとの合成枚数に関する情 報 (合成枚数情報)に基づいて、上記画像処理ごとにパラメータを変更する。
(構成説明)
図 1に画像処理装置 1のブロック図を示す。画像処理装置 1は、画像保持部 2、合 成枚数決定部 3、画像合成部 4、パラメータ選択部 5、画像処理部 6から構成される。
[0026] 画像処理装置 1は例えばデジタルカメラなどに備えられる。光 Z電気変換素子等の 撮像素子を備えた撮像部(図示しな!ヽ)から、撮影時に撮像制御を行!ヽ任意の被写 体の画像を撮影する。ここで、撮像制御は、撮像部におけるゲイン値 (感度)、露光時 間等の撮影条件を制御する。すなわち、利用者の設定する撮影条件を入力して、撮 像部の撮影条件を適宜設定される。
[0027] 画像保持部 2 (フレームメモリ)は、撮像部で撮影された画像フレーム等の画像デー タを格納する。例えば、撮像部において時系列に撮影された複数の画像データが格 納される。上記画像データは後段の合成枚数決定部 3と画像合成部 4に転送される
[0028] 合成枚数決定部 3は、領域 (画素、複数画素力 構成)ごとにずれ量を算出し動き 領域検出方法や共通領域検出方法などにより合成枚数を決定し、画像合成部 4とパ ラメータ選択部 5に画像合成情報を転送する。ここで画像合成情報は領域ごとの画 像の合成枚数を示す合成枚数情報を含み、さらに合成時に必要な情報を含んでもよ い。
[0029] なお、この画像データとともに、当該画像データの感度、露光時間等の撮影条件を 示す撮影時パラメータなども、合成枚数決定部 3、画像合成部 4に対して出力しても よい。
画像合成部 4では、画像保持部2に格納されている画像データを取得し、合成枚数 決定部 3で生成した画像合成情報 (合成枚数情報を含む)に基づ!/、て画像合成を行
[0030] ノ メータ選択部 5では、合成枚数情報に基づ ヽて、画像合成部 4で生成した合成 画像に画像処理部 6で実施する、輪郭強調処理、ノイズ除去、トーンカーブ補正処理 などの各画像処理のパラメータを切り替える。ノ ラメータの切り替えは合成枚数情報 に基づいて行われる。
[0031] 上記画像処理装置 1は、デジタルカメラ、カメラ付き携帯電話、カメラ付き PDA、力 メラ付きパーソナルコンピュータ等の電子装置(コンピュータ)で実行されるプログラム として、ソフトウェアで実現することができる。あるいは、ハードウェアにより実現できる 。さらには、電子装置等のコンピュータに固定的に組み込まれたソフトウェアであるフ アームウェアとしても実現できる。
(動作説明)
図 2に本発明の動作フロー図を示す。
[0032] ステップ S1では、撮影 (連写撮影、ノ Vラマ撮影など)して複数の静止画像を取得 し画像保持部 2 (フレームメモリ)に保存する。
ステップ S2では画像合成枚数を決定する。ステップ S 1で取得した複数画像の領域 ごと (画素、複数画素であってもよい)に合成枚数 (合成枚数情報)を決定する。合成 枚数の決定は動き領域検出方法や共通領域検出方法などがある。
[0033] 図 3に動き領域検出の原理図を示す。
例えば、画像保持部 2に連写撮影した 3枚の画像図 3の画像 31〜33 (画像 1〜3) を格納 (画像保持部 2)し、各画像の特徴点を検出し位置合わせをして単純に合成す ると図 3の画像 34 (単純合成)に示すような車が多重化された合成画像ができる。次 に、同一位置の画素値の差分を算出し、その差分が予め設定した閾値以上の部分 を動き領域として検出する。
[0034] 図 3の画像 35 (動き検出)は動き領域を「白」、非動き領域を「黒」で表した画像であ る。例えば、図 3の画像 36 (動き領域除去画像画像 1)は、動き領域を図 3の画像 32 ( 画像 2)の画像を用い、非動き領域は 3枚合成を行った結果を用いて合成した合成画 像である。図 3の画像 36では図 3の画像 35の「白」の領域が 1枚画像、「黒」の領域が 3毎合成の画像カゝらなる混在画像であるので、図 3の画像 35の動き検出結果を元に 自動車を除去して背景だけを抽出する。その結果、合成画像として図 3の画像 37 (動 き領域除去画像画像 1)を得ることができる。この図 3の画像 37の合成画像も、 1枚の みの領域、 2枚合成の領域、 3枚合成の領域の混在部分がある。
[0035] また、合成枚数の決定方法として共通領域がある。
図 4に共通領域検出の原理図を示す。被写体が動いていなくても、連写画像間に は手振れがあるため、撮影領域が微妙に異なることがある。例えば、図 4の画像 41〜 43のように連写画像を取得して合成をする。その場合、図 4の画像 44に示すように 合成される。つまり、特徴点を検出後 3枚の画像を重ねると、中央が 3枚合成の領域 となり、重なりが 3枚でない端の部分に 2枚合成画像、 1枚画像領域が混在する。
[0036] また、図 4に示す例では 3枚合成領域が他の合成領域に比べ大きいが、例えば、図 5Aに示すモザィキングによるパノラマ画像生成の場合、画像間を結合するのりしろ 領域が 2枚合成であり、それ以外は 1枚画像領域となる。ノ Vラマ化は撮影時に共通 領域 (のりしろ)を残しつつ、カメラをパンユングさせて連続撮影し、のりしろ部分を結 合して横長画像を生成する。この場合、のりしろ部分が 2枚合成となり、それ以外が 1 枚画像となる。
[0037] また、図 5Bに示すようにパノラマ化は、横だけでなく縦方向、横 +縦方向などが可 能である。そのため、画像合成領域も 1枚領域と 2枚合成領域だけでなぐ 3枚合成、
4枚合成など多くのノリエーシヨンが存在する。
[0038] ステップ S3では画像合成を実施する。ステップ S 2で検出した各領域 (画素、複数 画素から構成)の合成枚数に基づいて画像合成を行う。そして、ステップ S4では各 領域の合成枚数を合成枚数情報としてメモリに保存する。
[0039] ステップ S5では全領域について合成を行つたかを判定する。全ての領域について 合成が完了して ヽればステップ S6に移行する。そうでなければステップ S2に移行し て合成を続ける。
[0040] ステップ S6では、ステップ Sl〜4で行った画像合成処理と領域ごとの合成枚数決 定処理を行った結果によりパラメータ切り替えの判定を行う。合成枚数が 1枚であれ ばステップ S7に移行する(基準画像を使用)。合成枚数が複数枚であればステップ S 8に移行する。 ステップ S7では 1枚の場合に対応する画像処理の設定を選択する。 パラメータ選択部 5により画像処理を行うさいのパラメータの設定を選択する。
[0041] ステップ S8では複数枚 (本例では 2〜n枚)の場合に、例えば合成枚数が 2枚であ れば 2枚のときのパラメータを選択する。パラメータ選択部 5により画像処理を行うさい のパラメータの設定を選択する。
[0042] ここで、ステップ S7、 S8で設定したパラメータは、予め合成枚数に対応するパラメ 一タ値をデータベースとしてパラメータ選択部 5に格納しておぐまたは専用にメモリ を用意してもよい。画像処理パラメータの切り替え処理は、領域ごとに保存された合 成枚数情報から画像処理 (輪郭強調処理、ノイズ除去、トーンカーブ補正処理)ごと のパラメータを切り替えるために合成枚数を取得する。
[0043] ステップ S9では、合成画像の領域に対して画像処理を行うため該画像処理に対応 するステップ S7またはステップ S8で選択した画像処理を合成画像の各領域に行う。 そして、ステップ S 10では全領域について合成を行つたかを判定する。全ての領域 について合成が完了していれば終了する。そうでなければステップ S6に移行して画 像処理を続ける。
[0044] 上記方法により領域適応型の画像処理を実現でき、ノイズ除去による副作用(画像 のボケなど)を画像解析など複雑な処理を行うことなく低減できる。
また、合成画像の合成枚数に応じて合成後画像の画像処理のパラメータを変更す ることにより、合成処理時の合成枚数に基づいてパラメータを切り替えるため、追加処 理 (領域分割、ノイズ量検出など)を必要としない。
また、パラメータは画像合成枚数が 2以上のときのパラメータを保持し、保持してい な 、画像合成枚数時のパラメータは、保持して 、るパラメータを補間して生成しても よい。 (実施例 1)
合成画像では、ノイズ量は画像合成枚数に比例して減る傾向にあるため、画像合 成枚数を記憶しておき、画像合成枚数に応じて輪郭強調処理の強度を切り替える。
[0045] 図 6に実施例 1のブロック図を示す。実施例 1は、画像保持部 61、ずれ量算出部 62 、動き領域検出部 63、画像合成部 64、パラメータ選択部 65、輪郭強調処理部 66よ り構成される。実施例 1では、図 1に示したブロック図の合成枚数決定部 3がずれ量 算出部 62と動き領域検出部 63から構成され、画像処理部 6が輪郭強調処理部 66に より構成されている。
[0046] ずれ量算出部 62は、画像保持部 61の複数の画像における同一領域 (画素単位ま たは、複数の画素力もなる画素ブロック単位)のずれ量を算出して、動き領域検出部 63に出力する。
[0047] 動き領域検出部 63は、閾値設定部、動き判定部、孤立点ノイズ判定部、判定バッ ファを含んでいる。
閾値設定部では、上記撮影時パラメータに応じて、第 1判定閾値、および第 2判定 閾値を算出し、動き判定部および孤立点ノイズ判定部にそれぞれ出力する。すなわ ち、第 1判定閾値は、露光時間 teに応じて決定される閾値 d_exposure、またはゲイン 値 gに応じて決定される閾値 d_gainのいずれかからなる。第 2判定閾値も、露光時間 t eまたはゲイン値 gに基づいて、閾値 I_exposure、または閾値 Lgainのように決定される
[0048] 動き判定部は、ずれ量 Δ aの大小に応じて、複数画像の対応する当該領域が動き 領域か否かを判定する。具体的には、第 1判定閾値と比較し、差分値 Δ aが第 1判定 閾値よりも大きい場合に動きありと判定し、動き判定結果を判定バッファに出力する。
[0049] 判定バッファは、例えば、動き判定結果をビットマップで記録する。比較する画像同 士の各画像の画素 (X, y)の領域が動き有りと判定された場合には、ビットマップの M (X, y)の位置に" 1"が、動きなしの場合は" 0"が、設定される。
[0050] 孤立点ノイズ判定部は、さらに、動き判定部によって動きあり、と判定された画素の M (x, y)が、孤立点ノイズか否かを判別し、ノイズと判定された場合には、当該 M (x , y)を動きなし("0")にする。具体的には、注目画素の M (x, y)に隣接する周囲の 8 箇所の判定結果を参照して、動きありと判定された画素の個数をカウントし、このカウ ント値が、第 2判定閾値(閾値 Lexposureまたは閾値 Lgain)よりも小さ 、場合には孤立 点ノイズと判定して、当該 M (x, y)を、動きなし ("0")にする。
[0051] 上記のように判定した結果に基づ 、て、動きがある場合、動 、て 、な 、領域を合成 し、動いている領域は合成しない。例えば、 3枚とも動きがなければ領域における動き 領域情報 (画像合成枚数情報)は 3を保持し、動きがあれば基準画像を使用するた め動き領域情報 (画像合成枚数情報)は 1を保持する。
[0052] 画像合成部 64では、各画像を動き領域情報 (画像合成枚数情報)に基づ!、て合成 する。
ノ メータ選択部 65は、実施例 1では輪郭強調処理を行うため合成枚数と輪郭強 度 (輪郭強度パラメータ)を予め設定しておく。例えば、鮮明化フィルタを用いて画素 間の濃度値 (輪郭強度)の差を大きくしてシャープネスを行う。図 7に示すようなデー タベースを用意し合成枚数が 1枚の領域では輪郭強度を 30とし、 2枚の領域では 20 、 3枚の領域では 10に設定し、メモリなどに格納する。
[0053] 輪郭強調処理部 66では、合成画像の領域ごとに対応する輪郭強度パラメータに基 づいて輪郭強調処理を実行する。つまり、領域ごとに設定された輪郭強度に基づい て輪郭強調処理する。
(実施例 2)
図 8に実施例 2のブロック図を示す。実施例 2は、画像保持部 81、ずれ量算出部 82 、共通領域検出部 83、画像合成部 84、パラメータ選択部 85、ノイズ除去処理部 86 より構成される。実施例 2では、図 1に示したブロック図の合成枚数決定部 3がずれ量 算出部 82と共通領域検出部 83から構成され、画像処理部 6がノイズ除去処理部 66 で構成されている。
[0054] ずれ量算出部 82は、画像保持部 81の複数の画像における同一領域 (画素単位ま たは、複数の画素力もなる画素ブロック単位)のずれ量を算出して、共通領域検出部 83に出力する。
[0055] 共通領域検出部 83では、画像保持部 81に格納した複数の画像の特徴点を検出し 、例えば 3枚の画像を重ね 3枚合成の領域、 2枚合成の領域、 1枚合成の領域を検出 する。
画像合成部 84では、各画像を共有領域情報 (画像合成枚数情報)に基づいて合 成する。
[0056] ノ メータ選択部 85は、ノイズ除去処理を行うため合成枚数と加重平均フィルタや メディアンフィル、ぼカゝし処理などのフィルタサイズ (ノイズ除去パラメータ)を予め設定 しておく。例えば、図 9に示すようなデータベースを用意し合成枚数力^の領域ではフ ィルタサイズを 5 X 5とし、 2の領域では 3 X 3、 3の領域では 1 X 1に設定し、メモリなど に格納する。
[0057] ノイズ除去処理部 86では、合成画像の領域ごとに対応するノイズ除去パラメータに 基づいてノイズ除去処理を実行する。つまり、領域ごとに設定されたフィルタサイズに 基づ!/、てノイズ除去処理する。
[0058] また、ノ Vラマ画像の生成におけるのりしろ領域を検出し、のりしろ領域かどうかでノ ィズ除去のパラメータを切り替えてもよ!/、。
(実施例 3)
図 10に画像処理を合成枚数で変更するときの動作フローを示す。
[0059] ステップ S1では、複数の画像を撮影 (連写撮影、ノ Vラマ撮影など)して複数の静 止画像を取得する。画像保持部 2 (フレームメモリ)に保存される。
ステップ S2では画像合成枚数を決定する。ステップ S 1で取得した複数画像の領域 ごと (画素、複数画素であってもよい)に合成枚数 (合成枚数情報)を決定する。合成 枚数の決定は例えば動き領域検出方法や共通領域検出方法がある。
[0060] ステップ S3では画像合成を実施する。ステップ S 2で検出した各領域 (画素、複数 画素から構成)の合成枚数に基づいて合成を行う。そして、ステップ S4では各領域の 合成枚数を合成枚数情報としてメモリに保存する。
[0061] ステップ S5では全領域について合成を行つたかを判定する。全ての領域について 合成が完了して ヽればステップ S6に移行する。そうでなければステップ S2に移行し て合成を続ける。
[0062] ステップ S101では、ステップ Sl〜4で行った画像合成処理と領域ごとの合成枚数 決定処理を行った後、合成画像の領域ごとに画像処理を切り替えるための判定を行 う。画像処理の切り替えは、領域ごとに保存された合成枚数情報から輪郭強調処理、 ノイズ除去を切り替える。合成枚数が 1枚であればステップ S102に移行する(基準画 像を使用)。合成枚数が複数枚であればステップ S103に移行する。
[0063] なお、ここでは、合成枚数が 1枚カゝ複数枚かで処理を切替えている力 本発明はこ れに限るものではなぐ合成枚数が N枚 (N> 1)の場合にノイズ除去処理を行い、 M 枚 (M>N)の場合に輪郭強調処理を行っても構わない。 ステップ S102では合成 枚数情報が 1枚の場合にノイズ除去処理を選択しノイズ除去処理を行う。
[0064] ステップ S 103では合成枚数情報が複数枚の場合に、例えば 2枚の画像を合成す るときすなわち、合成枚数情報が 2枚のときに輪郭強調処理を選択し輪郭強調処理 を行う。
なお、ステップ S103の処理においては、画像合成枚数が多い場合は、輪郭強調 のパラメータを強めにし、画像合成枚数が少な ヽ領域では弱めに輪郭強調を実施す るなど、合成枚数の多さに応じて、画像処理に用いるパラメータの強さを変化させて も良い。
[0065] ステップ S 104では全領域について合成を行つたかを判定する。全ての領域につい て合成が完了していれば終了し、そうでなければステップ S 101に移行して画像処理 を続ける。
(実施例 4)
図 11にトーンカーブ補正の動作フローを示す。
[0066] ステップ S 111では、ステップ S 1〜4で行った画像合成処理と領域ごとの合成枚数 決定処理を行った後、合成画像の領域ごとにトーンカーブ補正を切り替えるための 判定を行う。トーンカーブ補正の切り替えは、領域ごとに保存された合成枚数情報か らトーンカーブ補正パラメータを切り替える。合成枚数が 1枚であればステップ S 112 に移行する(基準画像を使用)。合成枚数が複数枚であればステップ S113に移行す る。
[0067] ステップ S 112では合成枚数情報が 1枚の場合、 1枚用のトーンカーブ補正パラメ ータを選択しトーンカーブ補正を行う。
ステップ S113では合成枚数情報が複数枚の場合に、例えば合成枚数が 2枚であ れば 2枚のときのトーンカーブ補正パラメータを選択しトーンカーブ補正を行う。
[0068] 例えば、トーンカーブ補正パラメータは、ガンマ特性を利用してトーンカーブ補正を する。そのためのデータベースを図 12に示す。合成枚数が 1枚のときは傾き 3を選択 し、 2枚のときは傾き 1. 5を選択し、 3枚のときは 1を選択する。また、ガンマ補正をす る場合はガンマ値が 1になるようにトーンカーブ補正パラメータを設定する。さらに、パ ラメータとして設定されていない合成枚数については適用するガンマ値を補間で算 出してもよい。
[0069] ステップ S114では全領域につ!、て合成を行つたかを判定する。全ての領域につ!ヽ てトーンカーブ補正が完了して ヽれば終了し、そうでなければステップ S111に移行 して画像処理を続ける。
(変形例)
次に、合成枚数の決定例として画像の不具合 (色、明るさなど)を検出する方法に ついて説明する。撮影した画像が青っぽくなつたり赤っぽくなつたりすることがある。こ れは画像中にある「白」を起点として画像全体の色味を調整するため、例えば連写撮 影中に、それまで基準となっていた「白」が被写体動きによって無くなり(フレームァゥ トするなど)、赤っぽい色を「白」と誤検出すると赤を白に直そうとするため、全体的に 青っぽい画像になる。このような画像を合成に使用すると、合成結果画像の色味が ぉカゝしくなるため、合成対象から削除する。
[0070] また、多チャンネルデータ転送装置 (LSIなど)内に設けられるコンピュータ(CPU、 情報処理装置を含む)に外部から PCなどを利用して、上記実施例に示した動作ゃス テツプをソースとする所定のプログラム(多チャンネルデータ転送プログラム)を、メモ リ(ROMなど)に保存し、起動時にコンピュータに書き込み、上記ステップを実行する ことができる。
[0071] また、単体のコンピュータ(CPU、 FPGAなどの情報処理装置を含む)などを用い、 上記実施例 1〜4に示したステップをソースとする所定のプログラム(多チャンネルデ ータ転送プログラム)を、メモリ (ROMなど)に保存し、起動時に該コンピュータに書き 込み、上記ステップを実行することができる。
[0072] また、前述したようなフローチャートの処理を標準的なコンピュータ(例えば画像処 理装置など)の CPUに行わせるための制御プログラムを作成してコンピュータ読み取 り可能な記録媒体に記録させておき、そのプログラムを記録媒体力もコンピュータに 読み込ませて CPUで実行させるようにしても、本発明の実施は可能である。
[0073] 記録させた制御プログラムをコンピュータシステムで読み取ることの可能な記録媒 体の例を図 13に示す。このような記録媒体としては、例えば、コンピュータシステム 1 30に内蔵若しくは外付けの付属装置として備えられる ROMゃノヽードディスク装置な どの記憶装置 131、コンピュータシステム 130に備えられる媒体駆動装置 132へ挿 入することによって記録された制御プログラムを読み出すことのできるフレキシブルデ イスク、 MO (光磁気ディスク)、 CD—ROM、 DVD— ROMなどといった携帯可能記 録媒体 133等が利用できる。
[0074] また、記録媒体は通信回線 134を介してコンピュータシステム 130と接続される、プ ログラムサーバ 135として機能するコンピュータシステムが備えている記憶装置 136 であってもよい。この場合には、制御プログラムを表現するデータ信号で搬送波を変 調して得られる伝送信号を、プログラムサーバ 135から伝送媒体である通信回線 134 を通じてコンピュータシステム 130へ伝送するようにし、コンピュータシステム 130では 受信した伝送信号を復調して制御プログラムを再生することでこの制御プログラムを コンピュータシステム 130の CPUで実行できるようになる。
[0075] また、本発明は、上記実施の形態に限定されるものでなぐ本発明の要旨を逸脱し ない範囲内で種々の改良、変更が可能である。

Claims

請求の範囲
[1] 複数の画像を取得し合成画像を作成する画像処理方法であって、
前記画像を合成するとき、前記合成画像の領域ごとに前記画像を合成する枚数を 検出して合成枚数情報として保存する合成枚数決定処理と、
前記合成枚数情報に基づ!/ヽて、前記合成画像の各領域に対し実行する画像処理 のパラメータを切り替える画像処理パラメータ切替処理と、前記合成枚数情報に基づ
Vヽて、前記合成画像の各領域に対し実行する画像処理を切り替える画像処理切替 処理との!/、ずれかまたは両方と、
を有することを特徴とする画像処理方法。
[2] 前記合成枚数決定処理は、
前記画像間のずれ量を算出し、前記ずれ量に基づいて前記画像間で被写体の動 きのある領域と動きのな 、領域を検出して動き領域情報を生成し、前記動き領域情 報に基づいて前記領域内の前記合成枚数情報を変更することを特徴とする請求項 1 に記載の画像処理方法。
[3] 前記合成枚数決定処理は、
前記画像間のずれ量を検出し、前記ずれ量に基づ 、て前記画像のうちの複数画 像間で共有する前記画像の共通領域を検出して共通領域情報を生成し、前記共通 領域情報に基づいて前記領域内の前記合成枚数情報を変更することを特徴とする 請求項 1に記載の画像処理方法。
[4] 前記合成枚数決定処理は、
前記画像間の色と明るさレベルのずれ量を算出し、予め設定したずれ量と比較し、 範囲外の前記画像を検出し、前記検出した前記画像を前記合成枚数から削除して 前記合成枚数決定処理を実行することを特徴とする請求項 1に記載の画像処理方 法。
[5] 前記合成画像の各領域に対し実行する前記画像処理は輪郭強調であることを特 徴とする請求項 1に記載の画像処理方法。
[6] 前記合成画像の各領域に対し実行する前記画像処理はノイズ除去であることを特 徴とする請求項 1に記載の画像処理方法。
[7] 前記合成画像の各領域に対し実行する前記画像処理はトーンカーブ補正であるこ とを特徴とする請求項 1に記載の画像処理方法。
[8] 前記画像処理切替処理は、前記領域の前記合成枚数情報が N枚であるときはノィ ズ除去処理を行い、前記合成枚数が M枚 (ただし, N< M)であるときは輪郭強調処 理を行うことを特徴とする請求項 1に記載の画像処理方法。
[9] 複数の画像を取得し合成画像を作成する画像処理装置であって、
前記画像を合成するとき、前記合成画像の領域ごとに前記画像を合成する枚数を 検出して合成枚数情報として保存する合成枚数決定部と、
前記合成枚数情報に基づ!/ヽて、前記合成画像の各領域に対し実行する画像処理 のパラメータを切り替える画像処理パラメータ切替部と、前記合成枚数情報に基づ ヽ て、前記合成画像の各領域に対し実行する画像処理を切り替える画像処理切替部と のいずれか、または両方と、
を具備することを特徴とする画像処理装置。
[10] 前記合成枚数決定部は、
前記画像間のずれ量を算出するずれ量算出部と、
前記ずれ量に基づ 、て前記画像間で被写体の動きのある領域と動きのな 、領域を 検出して動き領域情報を生成し、前記動き領域情報に基づいて前記領域内の前記 合成枚数情報を変更する動き領域検出部と、
を具備することを特徴とする請求項 9に記載の画像処理装置。
[11] 前記合成枚数決定部は、
前記画像間のずれ量を算出するずれ量算出部と、
前記ずれ量に基づいて前記画像間で共有する前記画像の共通領域を検出して共 通領域情報を生成し、前記共通領域情報に基づ 、て前記領域内の前記合成枚数 情報を変更する共通領域検出部と、
を具備することを特徴とする請求項 9に記載の画像処理方法。
[12] 前記合成枚数決定部は、
前記画像間の色と明るさレベルのずれ量を算出し、予め設定したずれ量と比較し、 範囲外の前記画像を検出し、前記検出された前記画像を削除して前記合成枚数決 定することを特徴とする請求項 9に記載の画像処理装置。
[13] 前記合成画像の各領域に対し実行する前記画像処理は輪郭強調であることを特 徴とする請求項 9に記載の画像処理装置。
[14] 前記合成画像の各領域に対し実行する前記画像処理はノイズ除去であることを特 徴とする請求項 9に記載の画像処理装置。
[15] 前記合成画像の各領域に対し実行する前記画像処理はトーンカーブ補正であるこ とを特徴とする請求項 9に記載の画像処理装置。
[16] 前記画像処理切替部は、前記領域の前記合成枚数情報が N枚であるときはノイズ 除去処理を行 ヽ、前記合成枚数が M枚 (N>M)であるときは輪郭強調処理を行うこ とを特徴とする請求項 9に記載の画像処理装置。
[17] 複数の画像を取得し合成画像を作成する画像処理装置のコンピュータに、
前記画像を合成するとき、前記合成画像の領域ごとに前記画像を合成する枚数を 検出して合成枚数情報として保存する合成枚数決定処理と、
前記合成枚数情報に基づ!/ヽて、前記合成画像の各領域に対し実行する画像処理 のパラメータを切り替える画像処理パラメータ切替処理と、前記合成枚数情報に基づ
Vヽて、前記合成画像の各領域に対し実行する画像処理を切り替える画像処理切替 処理とのいずれか、または両方と
をコンピュータに実行させることを特徴とする画像処理装置のプログラム。
[18] 前記合成枚数決定処理は、
前記画像間のずれ量を算出し、前記ずれ量に基づいて前記画像間で被写体の動 きのある領域と動きのな 、領域を検出して動き領域情報を生成し、前記動き領域情 報に基づいて前記領域内の前記合成枚数情報を変更することをコンピュータに実行 させることを特徴とする請求項 17に記載の画像処理装置のプログラム。
[19] 前記合成枚数決定処理は、
前記画像間のずれ量を検出し、前記ずれ量に基づ!、て前記画像間で共有する前 記画像の共通領域を検出して共通領域情報を生成し、前記共通領域情報に基づ 、 て前記領域内の前記合成枚数情報を変更することをコンピュータに実行させることを 特徴とする請求項 17に記載の画像処理装置のプログラム。
[20] 前記合成枚数決定処理は、
前記画像間の色と明るさレベルのずれ量を算出し、予め設定したずれ量と比較し、 範囲外の前記画像を検出し、前記検出した前記画像を前記合成枚数から削除して 前記合成枚数決定処理を実行することをコンピュータに実行させることを特徴とする 請求項 17に記載の画像処理装置のプログラム。
[21] 前記合成画像の各領域に対し実行する前記画像処理は輪郭強調であることをコン ピュータに実行させることを特徴とする請求項 17に記載の画像処理装置のプロダラ ム。
[22] 前記合成画像の各領域に対し実行する前記画像処理はノイズ除去であることをコ ンピュータに実行させることを特徴とする請求項 17に記載の画像処理装置のプログ ラム。
[23] 前記合成画像の各領域に対し実行する前記画像処理はトーンカーブ補正であるこ とをコンピュータに実行させることを特徴とする請求項 17に記載の画像処理装置の プログラム。
[24] 前記画像処理切替処理は、前記領域の前記合成枚数情報が 1枚であるときはノィ ズ除去処理を行!ヽ、前記合成枚数が複数枚であるときは輪郭強調処理を行うことを コンピュータに実行させることを特徴とする請求項 17に記載の画像処理装置のプロ グラム。
PCT/JP2006/318302 2006-09-14 2006-09-14 Procédé et dispositif de traitement d'image et programme connexe WO2008032392A1 (fr)

Priority Applications (6)

Application Number Priority Date Filing Date Title
KR1020097005488A KR101008917B1 (ko) 2006-09-14 2006-09-14 화상 처리 방법 및 장치와 그 프로그램을 기록한 기록 매체
CN200680055837XA CN101512596B (zh) 2006-09-14 2006-09-14 图像处理方法和装置
PCT/JP2006/318302 WO2008032392A1 (fr) 2006-09-14 2006-09-14 Procédé et dispositif de traitement d'image et programme connexe
EP06810146.8A EP2063390B1 (en) 2006-09-14 2006-09-14 Image processing device and its program
JP2008534194A JP4750854B2 (ja) 2006-09-14 2006-09-14 画像処理方法および装置とそのプログラム
US12/403,027 US8311367B2 (en) 2006-09-14 2009-03-12 Image processing device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2006/318302 WO2008032392A1 (fr) 2006-09-14 2006-09-14 Procédé et dispositif de traitement d'image et programme connexe

Related Child Applications (1)

Application Number Title Priority Date Filing Date
US12/403,027 Continuation US8311367B2 (en) 2006-09-14 2009-03-12 Image processing device

Publications (1)

Publication Number Publication Date
WO2008032392A1 true WO2008032392A1 (fr) 2008-03-20

Family

ID=39183463

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2006/318302 WO2008032392A1 (fr) 2006-09-14 2006-09-14 Procédé et dispositif de traitement d'image et programme connexe

Country Status (6)

Country Link
US (1) US8311367B2 (ja)
EP (1) EP2063390B1 (ja)
JP (1) JP4750854B2 (ja)
KR (1) KR101008917B1 (ja)
CN (1) CN101512596B (ja)
WO (1) WO2008032392A1 (ja)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011004282A (ja) * 2009-06-19 2011-01-06 Canon Inc 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2011010300A (ja) * 2009-06-29 2011-01-13 Internatl Business Mach Corp <Ibm> 集積回路の発光画像を生成するための方法、システム、およびプログラム
JP2011015091A (ja) * 2009-06-30 2011-01-20 Canon Inc 撮像装置
JP2012068733A (ja) * 2010-09-21 2012-04-05 Olympus Corp 画像処理装置および画像処理プログラム
JP2012085347A (ja) * 2008-05-16 2012-04-26 Casio Comput Co Ltd 撮影装置およびプログラム
CN103108122A (zh) * 2011-11-14 2013-05-15 卡西欧计算机株式会社 图像合成装置和图像记录方法
US8711230B2 (en) 2008-05-16 2014-04-29 Casio Computer Co., Ltd. Image capture apparatus and program
JP2015007816A (ja) * 2013-06-24 2015-01-15 富士通株式会社 画像補正装置、撮像装置及び画像補正用コンピュータプログラム
JPWO2013099025A1 (ja) * 2011-12-28 2015-04-30 ピタフォー モバイル エルエルシー 情報処理装置、情報処理方法並びに情報処理用プログラム及び情報記録媒体
JP2016219974A (ja) * 2015-05-19 2016-12-22 リコーイメージング株式会社 撮影装置及び撮影方法、画像処理装置及び画像処理方法、並びにプログラム
WO2017085988A1 (ja) * 2015-11-17 2017-05-26 三菱電機株式会社 画像処理装置及び画像処理方法

Families Citing this family (31)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4480760B2 (ja) * 2007-12-29 2010-06-16 株式会社モルフォ 画像データ処理方法および画像処理装置
US8248481B2 (en) * 2009-04-08 2012-08-21 Aptina Imaging Corporation Method and apparatus for motion artifact removal in multiple-exposure high-dynamic range imaging
JP4818393B2 (ja) * 2009-05-07 2011-11-16 キヤノン株式会社 画像処理方法および画像処理装置
JP5300590B2 (ja) * 2009-05-21 2013-09-25 キヤノン株式会社 画像処理装置およびその方法
JP5131257B2 (ja) * 2009-08-27 2013-01-30 カシオ計算機株式会社 表示制御装置及び表示制御プログラム
CN102450019B (zh) * 2010-01-07 2014-12-10 松下电器产业株式会社 图像处理装置、图像生成***、方法及程序
US20110235856A1 (en) * 2010-03-24 2011-09-29 Naushirwan Patuck Method and system for composing an image based on multiple captured images
JP5653104B2 (ja) * 2010-07-16 2015-01-14 キヤノン株式会社 画像処理装置、画像処理方法、およびプログラム
JP5787648B2 (ja) * 2011-07-11 2015-09-30 キヤノン株式会社 画像処理装置及び画像処理装置の制御方法
JP5874476B2 (ja) * 2012-03-21 2016-03-02 カシオ計算機株式会社 画像処理装置、画像処理方法及びプログラム
KR102031284B1 (ko) * 2013-03-14 2019-11-08 삼성전자주식회사 연속 촬영된 이미지를 합성하는 전자 장치 및 방법
KR20140132568A (ko) * 2013-05-08 2014-11-18 삼성전자주식회사 움직이는 물체를 하나의 이미지에 합성하기 위한 장치 및 방법
US9232119B2 (en) 2013-10-08 2016-01-05 Raytheon Company Integrating image frames
US10200649B2 (en) * 2014-02-07 2019-02-05 Morpho, Inc. Image processing device, image processing method and recording medium for reducing noise in image
US9420331B2 (en) 2014-07-07 2016-08-16 Google Inc. Method and system for categorizing detected motion events
US10127783B2 (en) 2014-07-07 2018-11-13 Google Llc Method and device for processing motion events
US9501915B1 (en) 2014-07-07 2016-11-22 Google Inc. Systems and methods for analyzing a video stream
US10140827B2 (en) 2014-07-07 2018-11-27 Google Llc Method and system for processing motion event notifications
USD782495S1 (en) 2014-10-07 2017-03-28 Google Inc. Display screen or portion thereof with graphical user interface
US9361011B1 (en) 2015-06-14 2016-06-07 Google Inc. Methods and systems for presenting multiple live video feeds in a user interface
US10506237B1 (en) 2016-05-27 2019-12-10 Google Llc Methods and devices for dynamic adaptation of encoding bitrate for video streaming
CN105979155A (zh) * 2016-06-30 2016-09-28 维沃移动通信有限公司 一种拍照方法及移动终端
US10957171B2 (en) 2016-07-11 2021-03-23 Google Llc Methods and systems for providing event alerts
US10380429B2 (en) 2016-07-11 2019-08-13 Google Llc Methods and systems for person detection in a video feed
US10192415B2 (en) 2016-07-11 2019-01-29 Google Llc Methods and systems for providing intelligent alerts for events
US10599950B2 (en) 2017-05-30 2020-03-24 Google Llc Systems and methods for person recognition data management
US11783010B2 (en) 2017-05-30 2023-10-10 Google Llc Systems and methods of person recognition in video streams
JP6545229B2 (ja) * 2017-08-23 2019-07-17 キヤノン株式会社 画像処理装置、撮像装置、画像処理装置の制御方法およびプログラム
US10664688B2 (en) 2017-09-20 2020-05-26 Google Llc Systems and methods of detecting and responding to a visitor to a smart home environment
US11134227B2 (en) 2017-09-20 2021-09-28 Google Llc Systems and methods of presenting appropriate actions for responding to a visitor to a smart home environment
US11893795B2 (en) 2019-12-09 2024-02-06 Google Llc Interacting with visitors of a connected home environment

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0323374B2 (ja) 1984-09-27 1991-03-28 Honda Motor Co Ltd
JPH08194113A (ja) 1995-01-17 1996-07-30 Dainippon Printing Co Ltd カラーフィルタおよびカラーフィルタの製造方法
JPH10243288A (ja) * 1997-02-28 1998-09-11 Canon Inc 撮像方法及び撮像装置
JPH11266358A (ja) 1998-03-17 1999-09-28 Fuji Photo Film Co Ltd 画像処理方法
JP2000194845A (ja) 1998-12-25 2000-07-14 Canon Inc 画像処理装置及びその方法、及び画像処理システム
JP2001357040A (ja) * 2000-06-09 2001-12-26 Softbank Broadmedia Corp オブジェクト調査システム
JP2003134385A (ja) 2001-10-23 2003-05-09 Olympus Optical Co Ltd 画像合成装置
JP2003143484A (ja) * 2001-11-07 2003-05-16 Olympus Optical Co Ltd 画像合成装置
JP3408770B2 (ja) 1998-03-04 2003-05-19 富士写真フイルム株式会社 画像処理装置
JP2004229004A (ja) * 2003-01-23 2004-08-12 Seiko Epson Corp 画像生成装置、画像生成方法および画像生成プログラム

Family Cites Families (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE3739263A1 (de) 1987-11-18 1989-06-01 Bayer Ag Nitrogruppenhaltige imidazolidino-1,2,3,4-tetrahydropyrimidine bzw. hexahydropyrimidino-1,2,3,4-tetrahydropyrimidine
JP3023374B2 (ja) 1990-10-25 2000-03-21 株式会社リコー 複写機の像域別画像処理装置
US6205259B1 (en) * 1992-04-09 2001-03-20 Olympus Optical Co., Ltd. Image processing apparatus
JP3083671B2 (ja) * 1992-10-08 2000-09-04 シャープ株式会社 画像処理装置
JP3022274B2 (ja) 1995-09-20 2000-03-15 村田機械株式会社 リニア搬送車の停止制御装置
KR100188116B1 (ko) * 1995-12-28 1999-06-01 김광호 손떨림 영상 안정화 회로
US5963675A (en) * 1996-04-17 1999-10-05 Sarnoff Corporation Pipelined pyramid processor for image processing systems
US5982951A (en) * 1996-05-28 1999-11-09 Canon Kabushiki Kaisha Apparatus and method for combining a plurality of images
JP3984346B2 (ja) * 1997-12-26 2007-10-03 コニカミノルタホールディングス株式会社 撮像装置及び画像合成方法
DE19909581A1 (de) 1998-03-04 1999-09-09 Fuji Photo Film Co Ltd Bildverarbeitungsvorrichtung
US6804419B1 (en) 1998-11-10 2004-10-12 Canon Kabushiki Kaisha Image processing method and apparatus
JP4028135B2 (ja) * 1999-05-27 2007-12-26 本田技研工業株式会社 物体検出装置
US7064783B2 (en) * 1999-12-31 2006-06-20 Stmicroelectronics, Inc. Still picture format for subsequent picture stitching for forming a panoramic image
US7133068B2 (en) * 2000-03-06 2006-11-07 Sony Corporation System and method for creating still images by utilizing a video camera device
JP2001268435A (ja) * 2000-03-16 2001-09-28 Minolta Co Ltd 画像処理方法および画像処理用の記録媒体ならびに画像処理装置
EP1150252B1 (en) * 2000-04-28 2018-08-15 Panasonic Intellectual Property Management Co., Ltd. Synthesis of image from a plurality of camera views
US6823086B1 (en) * 2000-08-29 2004-11-23 Analogic Corporation Adaptive spatial filter
US6804418B1 (en) 2000-11-03 2004-10-12 Eastman Kodak Company Petite size image processing engine
JP2002171424A (ja) * 2000-11-30 2002-06-14 Nec Corp 動画像処理方法、動画像処理装置および動画像表示装置
US7304677B2 (en) * 2000-12-13 2007-12-04 Eastman Kodak Company Customizing a digital camera based on demographic factors
JP4596226B2 (ja) * 2001-06-27 2010-12-08 ソニー株式会社 画像処理装置および方法、記録媒体、並びにプログラム
US7286168B2 (en) * 2001-10-12 2007-10-23 Canon Kabushiki Kaisha Image processing apparatus and method for adding blur to an image
US7206449B2 (en) * 2003-03-19 2007-04-17 Mitsubishi Electric Research Laboratories, Inc. Detecting silhouette edges in images
JP4181923B2 (ja) 2003-05-29 2008-11-19 キヤノン株式会社 撮像装置および撮像装置の制御方法
CN100498835C (zh) * 2003-09-08 2009-06-10 日本电气株式会社 图像组合***、图像组合方法
JP2005141527A (ja) * 2003-11-07 2005-06-02 Sony Corp 画像処理装置、および画像処理方法、並びにコンピュータ・プログラム
US8050491B2 (en) * 2003-12-17 2011-11-01 United Technologies Corporation CAD modeling system and method
JP4350616B2 (ja) * 2004-08-24 2009-10-21 キヤノン株式会社 撮像装置及びその制御方法
EP1843294B1 (en) 2005-01-14 2010-09-15 Morpho Inc. Motion vector calculation method, hand-movement correction device using the method, imaging device, and motion picture generation device
JP3968375B2 (ja) * 2005-02-15 2007-08-29 松下電器産業株式会社 周辺監視装置および周辺監視方法
US7912319B2 (en) * 2006-08-28 2011-03-22 Avago Technologies General Ip (Singapore) Pte. Ltd. Systems and methods for panoramic image construction using small sensor array
JP5053603B2 (ja) * 2006-09-21 2012-10-17 キヤノン株式会社 画像処理装置
JP4315971B2 (ja) * 2006-11-09 2009-08-19 三洋電機株式会社 撮像装置

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0323374B2 (ja) 1984-09-27 1991-03-28 Honda Motor Co Ltd
JPH08194113A (ja) 1995-01-17 1996-07-30 Dainippon Printing Co Ltd カラーフィルタおよびカラーフィルタの製造方法
JPH10243288A (ja) * 1997-02-28 1998-09-11 Canon Inc 撮像方法及び撮像装置
JP3408770B2 (ja) 1998-03-04 2003-05-19 富士写真フイルム株式会社 画像処理装置
JPH11266358A (ja) 1998-03-17 1999-09-28 Fuji Photo Film Co Ltd 画像処理方法
JP2000194845A (ja) 1998-12-25 2000-07-14 Canon Inc 画像処理装置及びその方法、及び画像処理システム
JP2001357040A (ja) * 2000-06-09 2001-12-26 Softbank Broadmedia Corp オブジェクト調査システム
JP2003134385A (ja) 2001-10-23 2003-05-09 Olympus Optical Co Ltd 画像合成装置
JP2003143484A (ja) * 2001-11-07 2003-05-16 Olympus Optical Co Ltd 画像合成装置
JP2004229004A (ja) * 2003-01-23 2004-08-12 Seiko Epson Corp 画像生成装置、画像生成方法および画像生成プログラム

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2063390A4

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8711230B2 (en) 2008-05-16 2014-04-29 Casio Computer Co., Ltd. Image capture apparatus and program
JP2012085347A (ja) * 2008-05-16 2012-04-26 Casio Comput Co Ltd 撮影装置およびプログラム
JP2011004282A (ja) * 2009-06-19 2011-01-06 Canon Inc 画像処理装置、画像処理方法、プログラム及び記録媒体
JP2011010300A (ja) * 2009-06-29 2011-01-13 Internatl Business Mach Corp <Ibm> 集積回路の発光画像を生成するための方法、システム、およびプログラム
JP2011015091A (ja) * 2009-06-30 2011-01-20 Canon Inc 撮像装置
JP2012068733A (ja) * 2010-09-21 2012-04-05 Olympus Corp 画像処理装置および画像処理プログラム
CN103108122A (zh) * 2011-11-14 2013-05-15 卡西欧计算机株式会社 图像合成装置和图像记录方法
CN103108122B (zh) * 2011-11-14 2015-11-04 卡西欧计算机株式会社 图像合成装置和图像记录方法
JPWO2013099025A1 (ja) * 2011-12-28 2015-04-30 ピタフォー モバイル エルエルシー 情報処理装置、情報処理方法並びに情報処理用プログラム及び情報記録媒体
JP2015007816A (ja) * 2013-06-24 2015-01-15 富士通株式会社 画像補正装置、撮像装置及び画像補正用コンピュータプログラム
US9641753B2 (en) 2013-06-24 2017-05-02 Fujitsu Limited Image correction apparatus and imaging apparatus
JP2016219974A (ja) * 2015-05-19 2016-12-22 リコーイメージング株式会社 撮影装置及び撮影方法、画像処理装置及び画像処理方法、並びにプログラム
WO2017085988A1 (ja) * 2015-11-17 2017-05-26 三菱電機株式会社 画像処理装置及び画像処理方法
JP6137437B1 (ja) * 2015-11-17 2017-05-31 三菱電機株式会社 画像処理装置及び画像処理方法

Also Published As

Publication number Publication date
EP2063390A1 (en) 2009-05-27
CN101512596A (zh) 2009-08-19
KR20090041442A (ko) 2009-04-28
JP4750854B2 (ja) 2011-08-17
US8311367B2 (en) 2012-11-13
JPWO2008032392A1 (ja) 2010-01-21
EP2063390B1 (en) 2016-08-03
CN101512596B (zh) 2012-06-13
EP2063390A4 (en) 2012-12-26
US20090232416A1 (en) 2009-09-17
KR101008917B1 (ko) 2011-01-17

Similar Documents

Publication Publication Date Title
WO2008032392A1 (fr) Procédé et dispositif de traitement d&#39;image et programme connexe
JP5413002B2 (ja) 撮像装置および方法、並びにプログラム
JP4282113B2 (ja) 撮像装置および撮像方法、並びに、撮像プログラムを記録した記録媒体
JP4499693B2 (ja) 画像処理装置、画像処理方法およびプログラム
JP5183297B2 (ja) 画像処理装置、撮像装置及び画像処理方法
JP5206466B2 (ja) 画像補正装置、画像補正プログラムおよび画像撮影装置
JP2011114823A (ja) 画像処理装置及び撮像装置
JP2010062836A (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
JP2006050109A (ja) ノイズ低減装置および方法
JP2008164758A (ja) 画像復元装置
JP4497233B2 (ja) 画素補間回路、およびプログラム
JP2008166947A (ja) 撮像装置
JP5211589B2 (ja) 画像処理装置、電子カメラ、および画像処理プログラム
JP5733588B2 (ja) 画像処理装置および方法、並びにプログラム
JP5919086B2 (ja) 画像処理装置及びその制御方法、並びにプログラム
JP2010041497A (ja) 画像処理装置、電子機器及び画像処理方法
JP2005117399A (ja) 画像処理装置
JP4998439B2 (ja) 画像処理装置、画像処理方法およびプログラム
CN111698389A (zh) 图像处理设备、摄像设备、图像处理方法以及存储介质
JP4936816B2 (ja) 撮像装置及び同時表示制御方法
JP2020092288A (ja) 画像処理装置、画像処理方法、及びプログラム
US20070253489A1 (en) Image processing circuit and method
JP2014220626A (ja) 撮像装置及びその制御方法、プログラム、記憶媒体
JP5121636B2 (ja) 画像処理装置、画像処理方法、および、画像処理プログラム
JP2008079301A (ja) 撮像装置

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200680055837.X

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 06810146

Country of ref document: EP

Kind code of ref document: A1

WWE Wipo information: entry into national phase

Ref document number: 2008534194

Country of ref document: JP

REEP Request for entry into the european phase

Ref document number: 2006810146

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2006810146

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE

WWE Wipo information: entry into national phase

Ref document number: 1020097005488

Country of ref document: KR