JPH1127574A - Camera-blur parameter detection method and information recording medium - Google Patents

Camera-blur parameter detection method and information recording medium

Info

Publication number
JPH1127574A
JPH1127574A JP9180846A JP18084697A JPH1127574A JP H1127574 A JPH1127574 A JP H1127574A JP 9180846 A JP9180846 A JP 9180846A JP 18084697 A JP18084697 A JP 18084697A JP H1127574 A JPH1127574 A JP H1127574A
Authority
JP
Japan
Prior art keywords
image
camera shake
parameter
parameters
magnitude
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP9180846A
Other languages
Japanese (ja)
Other versions
JP3812770B2 (en
Inventor
Koichi Ejiri
公一 江尻
Shin Aoki
青木  伸
Kaikatsu Seki
海克 関
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP18084697A priority Critical patent/JP3812770B2/en
Publication of JPH1127574A publication Critical patent/JPH1127574A/en
Application granted granted Critical
Publication of JP3812770B2 publication Critical patent/JP3812770B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically detect parameters for camera-blur such as the direction and magnitude for the correction of an image which is deteriorated due to a camera-blur and to easily confirm/correct the parameters. SOLUTION: Prameters that denote camera-blurs, such as the direction and magnitude are detected automatically from an image that is obtained by transformed an object image into a 2-dimensional frequency space. A partial image (A) of the object image is displayed on display screen, and an image (B) resulting from overlapping a line segment 10 corresponding to a camera-blur direction parameter, and line segments 12, 14 corresponding to a camera-blur magnitude parameter in the converted image is displayed on another display screen. The line segment 10 is rotated, and the line segments 12, 14 are moved through the operation of a mouse by the operator to correct the parameters. Corrected partial images D1, D2, D3 according to an automatic detection of 1st parameter candidate, an automatic detection of 2nd parameter candidate and corrected parameters respectively are displayed at each occasion and the user selects one of the corrected partial images D1, D2, D3 so as to confirm the parameters.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、手ぶれにより劣化
した画像の補正技術に係り、特に、劣化画像の手ぶれ補
正のためのパラメータの検出技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for correcting an image deteriorated due to camera shake, and more particularly to a technique for detecting a parameter for correcting camera shake of a deteriorated image.

【0002】[0002]

【従来の技術】カメラで撮影した画像の品質を低下させ
る一因に「手ぶれ」がある。この手ぶれにより劣化した
画像を修復するために様々な手法が試みられてきた。例
えば、Murat Tekalp 他による論文「Identification
of Image and BlurParameters for the Restoratio
n of Noncausal Blurs」,IEEETransaction on
Acoustics,Speech,and Signal Processing,Vo
l.ASSP-34,No.4,PP.963(1989)
によれば、手ぶれによる「ぼけ」を特徴付けるパラメー
タを推測することが、品質の良い補正画像を合成するた
めの条件であることがわかる。
2. Description of the Related Art "Camera shake" is one of the causes for lowering the quality of an image photographed by a camera. Various techniques have been tried to repair an image that has deteriorated due to camera shake. For example, a paper by Murat Tekalp et al.
of Image and BlurParameters for the Restoratio
n of Noncausal Blurs ”, IEEE Transactions on
Acoustics, Speech, and Signal Processing, Vo
l. ASSP-34, No. 4, PP. 963 (1989)
According to the above, it is understood that estimating a parameter characterizing “blur” due to camera shake is a condition for synthesizing a high-quality corrected image.

【0003】手ぶれによって劣化した写真画像において
は、通常、一方向に向かって画像の「尾引き現象」が見
られる。その尾引きの方向を見つけることができれば、
1次元のフィルタ処理で手ぶれによるぼけの補正が可能
である。さらに、尾引きの長さは、このフィルタのサイ
ズ、あるいは周波数の補正範囲を決める手がかりとな
る。このための補正方式に関連した文献として、R.F
abin and D.Malah;”Robust identification of m
otion and out-of-focus blur parameters fromblurred
and noisy images”,Graphical Modules and Imag
e Processing,Vol.53,No.5,pp.403−4
12,1991がある。これは、劣化した画像を周波数
空間に変換した画像から、その「ぶれ」の方向を検出
し、そして、ぶれの大きさを計測することに言及してい
る。ただし、その検出を自動的に行う具体的な方法は述
べられていない。
In a photographic image deteriorated due to camera shake, a "tailing phenomenon" of the image is usually observed in one direction. If you can find the direction of the tail,
Blur correction due to camera shake can be performed by one-dimensional filter processing. Further, the length of the tailing serves as a clue for determining the size of the filter or the correction range of the frequency. References relating to the correction method for this purpose include R.C. F
abin and D.A. Malah; "Robust identification of m
otion and out-of-focus blur parameters fromblurred
and noisy images ”, Graphical Modules and Imag
e Processing, Vol. 53, No. 5, pp. 403-4
12, 1991. This refers to detecting the direction of "blur" from an image obtained by converting a deteriorated image into a frequency space, and measuring the magnitude of the blur. However, no specific method for automatically performing the detection is described.

【0004】[0004]

【発明が解決しようとする課題】本発明の目的は、手ぶ
れによる劣化画像から、これを補正するための手ぶれの
方向及び大きさのパラメータの自動検出を可能にするこ
と、及び、自動検出されたパラメータの確認又は必要な
修正を容易に行い得るようにすることにある。
SUMMARY OF THE INVENTION It is an object of the present invention to enable automatic detection of a parameter of a direction and a magnitude of a camera shake for correcting a deteriorated image due to the camera shake, and to provide an automatic detection of the parameters. The purpose is to make it easy to confirm the parameters or make necessary corrections.

【0005】[0005]

【課題を解決するための手段】Fabinらの論文にもある
ように、手ぶれによる「ぼけ」は、次式のような1次元
の点広がり関数(PSF)によって近似的に表すことが
できる。
As described in the paper of Fabin et al., "Blur" due to camera shake can be approximately represented by a one-dimensional point spread function (PSF) as shown in the following equation.

【0006】[0006]

【数1】 (Equation 1)

【0007】ここで、dは「ぼけ」の長さ、つまりデジ
タル画像における「ぼけ」の及ぶ画素数である。この形
のPSFは周波数空間では周知のsinc関数であり、次
式のように表すことができる。
Here, d is the length of the "blur", that is, the number of pixels to which the "blur" in the digital image reaches. This form of the PSF is a well-known sinc function in the frequency space, and can be represented by the following equation.

【0008】[0008]

【数2】 (Equation 2)

【0009】この関数は、u=1/dの周期でゼロが現
れるから、H(u,v)をプロットして周期的なゼロ点
を探せばdが求まる、つまり手ぶれによる「ぼけ」の範
囲が分かる。
Since zero appears at a period of u = 1 / d in this function, d can be obtained by plotting H (u, v) and searching for a periodic zero point, that is, the range of “blur” due to camera shake I understand.

【0010】さて、実空間画像においては手ぶれは高コ
ントラスト部分の尾引き現象として画像が「流れ」て見
えるが、これは被写体に大きく依存するため、実空間画
像から手ぶれの方向を安定に検出することは困難であ
る。ところで、ほとんどの画像は、その周波数分布が低
周波から高周波までの成分を含んでいるが、手ぶれが起
きると、手ぶれの方向の高周波成分が消滅するか減少す
るため、周波数スペクトルの強度を濃淡信号として2次
元の平面にプロットすると、手ぶれに直交した方向に伸
びた周波数分布が認められる。本発明では、この周波数
分布の伸びた方向を2次元の周波数空間において検出す
ることにより、手ぶれの方向を認識する。
Now, in a real space image, camera shake appears as a "flow" in the image as a trailing phenomenon of a high contrast portion. However, since this largely depends on the subject, the direction of camera shake is detected stably from the real space image. It is difficult. By the way, most images have a frequency distribution that includes components from low frequencies to high frequencies.However, when camera shake occurs, the high frequency components in the direction of camera shake disappear or decrease, so the intensity of the frequency spectrum is changed to a grayscale signal. When plotted on a two-dimensional plane, a frequency distribution extending in a direction orthogonal to camera shake is recognized. In the present invention, the direction of camera shake is recognized by detecting the extending direction of the frequency distribution in the two-dimensional frequency space.

【0011】本発明は、撮影された画像の2次元周波数
空間への変換画像を利用して、手ぶれの方向と大きさの
パラメータを検出する。この変換画像としては、例えば
処理の対象画像のパワースペクトルを濃淡信号として2
次元の周波数空間にプロットした図1のような画像が用
いられる。図1において、原点部分が最も周波数の低い
成分を表し、外側ほど高い周波数成分を表す。なお、手
ぶれの方向及び大きさを反映した周波数分布を表すもの
であれば、パワースペクトルに限定されない。本発明に
よれば、例えば図1のようなパワースペクトルを原点か
ら周辺方向へ投影した強度分布を調べる。この分布に
は、手ぶれ方向に直交する方向に、幅の広いピークが出
現する。このピークの方位を、手ぶれ方向に直交する方
向として検出する。図2は、その様子を模式的に示して
いる。図2中の中心投影1が、その分布である。この分
布の輪郭線には通常、多くのノイズが含まれるので、ピ
ーク検出の前に適当なフィルタ処理を施す必要がある
が、ほとんどの場合、単純なローパスフィルタ処理で十
分である。
According to the present invention, a direction and a magnitude parameter of a camera shake are detected using a converted image of a photographed image into a two-dimensional frequency space. As the converted image, for example, the power spectrum of the image to be processed
An image as shown in FIG. 1 plotted in a dimensional frequency space is used. In FIG. 1, the origin portion represents the component having the lowest frequency, and the outer portion represents the higher frequency component. The power spectrum is not limited as long as it represents a frequency distribution that reflects the direction and magnitude of camera shake. According to the present invention, for example, an intensity distribution in which a power spectrum as shown in FIG. 1 is projected from an origin to a peripheral direction is examined. In this distribution, a broad peak appears in a direction orthogonal to the camera shake direction. The direction of this peak is detected as a direction orthogonal to the camera shake direction. FIG. 2 schematically shows the state. The central projection 1 in FIG. 2 is the distribution. Since the contour of this distribution usually contains a lot of noise, it is necessary to perform appropriate filtering before peak detection, but in most cases, simple low-pass filtering is sufficient.

【0012】手ぶれは、論理的モデルにおいて単純な矩
形の応答関数で近似することができ、矩形の応答関数を
周波数平面で表現すると(2)式のようなsinc関数で
あることはよく知られている。この関数のゼロ点は±1
/dの整数倍の位置に存在するから、このようなゼロ点
を検出することにより手ぶれの大きさ「d」が求まる。
It is well known that camera shake can be approximated by a simple rectangular response function in a logical model, and that the rectangular response function is represented by a sinc function as expressed by equation (2) when expressed on a frequency plane. I have. The zero point of this function is ± 1
Since it is located at a position that is an integral multiple of / d, the magnitude "d" of the camera shake can be obtained by detecting such a zero point.

【0013】本発明によれば、例えば図1のパワースペ
クトルを、先に検出されたピークの方向つまり手ぶれに
直交する方向に平行に投影した強度分布、すなわち図2
の平行投影2の谷を求め、その谷とピークとの距離を手
ぶれの大きさ「d」として検出する。なお、強度分布の
ピークや谷は必ずしも常に安定に見つかるわけではな
い。そこで、検出されたピークと谷の信頼性を評価し、
それを必要に応じユーザに知らせてもよい。その評価方
法は、ローパスフィルタ処理後の分布の最大値(あるい
は最小値)と平均値の差分を微小区間の平均標準偏差で
割り算し、その値が予め指定さた値(例えば2)より小
さいときは、信頼性が低いと判断するといった方法が可
能である。
According to the present invention, for example, an intensity distribution in which the power spectrum of FIG. 1 is projected parallel to the direction of the previously detected peak, that is, the direction orthogonal to the camera shake, ie, FIG.
Of the parallel projection 2 are determined, and the distance between the valley and the peak is detected as the magnitude “d” of camera shake. Note that peaks and valleys of the intensity distribution are not always found stably. Therefore, the reliability of the detected peaks and valleys was evaluated,
It may be notified to the user if necessary. The evaluation method is to divide the difference between the maximum value (or minimum value) of the distribution after the low-pass filter processing and the average value by the average standard deviation of the minute section, and when the value is smaller than a predetermined value (for example, 2). Is possible to determine that the reliability is low.

【0014】このようにして検出されたパラメータを使
って画像の手ぶれ補正を行うことができる。この補正処
理は、ウィーナー(Wiener)フィルタによっても実空
間でのデコンボリューションによってもよい。ウィーナ
ーフィルタ処理の場合に必要なノイズ成分の大きさは、
従来から採用されているように、画像中の信号の平坦部
分(例えば、空のような背景部分)の標準偏差値から推
定することができるが、画像の撮影に用いられたカメラ
の予め指定された推奨値を用いてもよい。
Image blur correction can be performed using the parameters detected in this manner. This correction processing may be performed by a Wiener filter or deconvolution in a real space. The magnitude of the noise component required for Wiener filter processing is
As conventionally employed, it can be estimated from the standard deviation value of a flat portion (for example, a background portion such as the sky) of a signal in an image, but can be estimated in advance by a camera designated by the camera used to capture the image. The recommended value may be used.

【0015】本発明によれば、上に述べた方法によって
検出されたパラメータの適否の確認及び必要な修正をユ
ーザーが容易かつ確実に行うためのユーザインターフェ
ース環境が提供される。例えば、対象画像の2次元周波
数空間への変換画像と検出されたパラメータを表す記号
とを重ねた画像がディスプレイ画面に表示され、ユーザ
は、画面上において記号を操作することによって、パラ
メータを修正することができる。そして、自動的に検出
された1組又は複数組のパラメータ、ユーザにより修正
されたパラメータの組に従って対象画像又はその部分画
像を補正した画像がディスプレイ画面に表示され、ユー
ザはそれら補正画像の中から最良と判断した1つの補正
画像を選択することにより、その補正画像に対応した1
組のパラメータを最終的に確定することができる。
According to the present invention, there is provided a user interface environment in which a user can easily and surely confirm whether parameters detected by the above-described method are appropriate and make necessary corrections. For example, an image in which the converted image of the target image into the two-dimensional frequency space and a symbol representing the detected parameter are superimposed is displayed on the display screen, and the user corrects the parameter by operating the symbol on the screen. be able to. Then, an image obtained by correcting the target image or a partial image thereof in accordance with one or more sets of parameters automatically detected and the set of parameters corrected by the user is displayed on the display screen, and the user can select from among the corrected images By selecting one corrected image determined to be the best, one corresponding to the corrected image is selected.
The set of parameters can finally be determined.

【0016】[0016]

【発明の実施の形態】次に、本発明の実施の形態につい
て図面を用い詳細に説明する。
Next, embodiments of the present invention will be described in detail with reference to the drawings.

【0017】本発明の一実施例によれば、手ぶれのパラ
メータの検出、修正及び画像補正は、コンピュータ上で
プログラムによって実現される。そのようなコンピュー
タの一例を図4に簡略化して示す。また、手ぶれのパラ
メータの検出、修正及びがそう補正のためのプログラム
の一例を図5乃至図7にフローチャートとして示す。
According to one embodiment of the present invention, detection, correction and image correction of camera shake parameters are realized by a program on a computer. An example of such a computer is shown in simplified form in FIG. An example of a program for detecting, correcting, and correcting camera shake parameters is shown as a flowchart in FIGS.

【0018】図4に示すコンピュータは、プログラムに
従ってデータ処理や各部の制御を実行するCPU50、
CPU50に実行されるプログラムを格納するプログラ
ムメモリ52、各種データを格納するためのデータメモ
リ54、ハードディスク装置等の補助記憶装置56、画
像表示のためのディスプレイ装置58、デジタルカメラ
64のような画像入力装置からの情報入力のための外部
インターフェース部61、画像データやプログラム等の
情報が記録されたフロッピーディスクやCD−ROMの
ような記録媒体59の読み書きのための媒体駆動装置6
0、キーボードやマウス等の入力装置62をシステムバ
ス68で接続したものである。本発明による処理の対象
となる画像のデータは、例えばデジタルカメラ64によ
って取得され、外部インターフェース部61を介して取
り込まれ、必要に応じ補助記憶装置56に保存される。
あるいは、フロッピーディスク等の記録媒体59から媒
体駆動装置60を介して取り込まれ、必要に応じ補助記
憶装置56に保存される。補助記憶装置56には、本発
明による処理のためのプログラムのようなプログラム
群、本発明の処理の対象となる画像やその他各種データ
が保存されており、それぞれ必要に応じ読み出されてプ
ログラムメモリ52又はデータメモリ54に書き込まれ
る。
The computer shown in FIG. 4 includes a CPU 50 for executing data processing and control of each unit according to a program.
A program memory 52 for storing programs to be executed by the CPU 50, a data memory 54 for storing various data, an auxiliary storage device 56 such as a hard disk device, a display device 58 for displaying images, and an image input device such as a digital camera 64 An external interface unit 61 for inputting information from the apparatus; a medium driving device 6 for reading and writing a recording medium 59 such as a floppy disk or a CD-ROM on which information such as image data and programs are recorded;
0, an input device 62 such as a keyboard or a mouse connected via a system bus 68. Image data to be processed according to the present invention is acquired by, for example, a digital camera 64, captured via the external interface unit 61, and stored in the auxiliary storage device 56 as necessary.
Alternatively, the data is taken from a recording medium 59 such as a floppy disk via the medium driving device 60 and stored in the auxiliary storage device 56 as necessary. The auxiliary storage device 56 stores a group of programs such as a program for processing according to the present invention, an image to be processed according to the present invention, and various other data. 52 or the data memory 54.

【0019】以下、このコンピュータの構成を適宜参照
しながら、図4乃至図7に示したプログラムによる処理
内容を説明する。図4に示すように、このプログラム7
2と処理の対象画像のデータ74を、予めプログラムメ
モリ52とデータメモリ54にロードし、プログラム7
2が起動されると、まず図5に示す手ぶれの方向のパラ
メータの検出処理が開始する。
Hereinafter, the processing contents by the programs shown in FIGS. 4 to 7 will be described with reference to the configuration of the computer as appropriate. As shown in FIG.
2 and the data 74 of the image to be processed are loaded into the program memory 52 and the data memory 54 in advance, and the program 7
When 2 is activated, first, the detection processing of the parameters of the direction of camera shake shown in FIG. 5 starts.

【0020】最初のステップS1において、対象画像を
2次元の周波数空間(u,v)に変換した画像76をデ
ータメモリ54上に生成する。本実施例では、この変換
画像76として図1に示すような対象画像のパワースペ
クトルを濃淡信号として2次元周波数空間にプロットし
た画像を生成する。そのパワースペクトルをF(u,
v)と置く。なお、手ぶれの方向と長さに対応した周波
数強度分布の偏りが現れる他の変換画像を生成してパラ
メータ検出に用いることも可能である。
In the first step S1, an image 76 obtained by converting the target image into a two-dimensional frequency space (u, v) is generated in the data memory 54. In this embodiment, an image in which the power spectrum of the target image as shown in FIG. 1 is plotted as a grayscale signal in a two-dimensional frequency space as the converted image 76 is generated. The power spectrum is represented by F (u,
v). Note that it is also possible to generate another converted image in which a bias of the frequency intensity distribution corresponding to the direction and length of the camera shake appears and use it for parameter detection.

【0021】次にステップS2において、図2に示すよ
うに、周波数空間(u,v)の原点から、同原点を中心
とした適当な半径rの円3の円周方向に向かって、F
(u,v)を投影し、投影された関数G(θ)を求め
る。
Next, in step S2, as shown in FIG. 2, from the origin of the frequency space (u, v) toward the circumference of the circle 3 having an appropriate radius r centered on the origin, F
(U, v) is projected, and a projected function G (θ) is obtained.

【0022】[0022]

【数3】 (Equation 3)

【0023】次のステップS3において、前ステップで
求められたG(θ)に対し、次式で表される平均化処理
すなわちローパスフィルタ処理を行う。Δθは20゜程
度が一般に適当であろう。
In the next step S3, averaging processing, that is, low-pass filter processing represented by the following equation is performed on G (θ) obtained in the previous step. A value of about 20 ° will generally be appropriate.

【0024】[0024]

【数4】 (Equation 4)

【0025】このようにG(θ)の平均化処理すなわち
ローパスフィルタ処理の結果<G(θ)>は、図2の中心
投影1に相当する。
As described above, the result <G (θ)> of the averaging process of G (θ), that is, the low-pass filter process, corresponds to the central projection 1 in FIG.

【0026】次のステップS4において、方位角度θを
0゜から180゜まで変化させながら、<G(θ)>の
極大点の方位θMiを求める。本実施例では、極大点の方
位として、<G(θ)>が最大値をとる極大点の方位θ
M1(第1候補)と、その次に大きな値をとる極大点の方
位θM2(第2候補)の2つを求める。ただし、方位の候
補を3つ以上求めてもよい。求められた各方位θMi(i
=1,2)は、手ぶれ方位のパラメータとしてデータメ
モリ24のパラメータ記憶域78に保存される。「θMi
±90゜=手ぶれ方向」の関係があることは前述のとお
りである。
In the next step S4, the azimuth θ Mi of the maximum point of <G (θ)> is determined while changing the azimuth angle θ from 0 ° to 180 °. In this embodiment, as the direction of the local maximum point, the direction θ of the local maximum point at which <G (θ)> takes the maximum value
M1 (first candidate) and the orientation θ M2 (second candidate) of the local maximum point having the next largest value are obtained. However, three or more azimuth candidates may be obtained. Each direction θ Mi (i
(= 1, 2) are stored in the parameter storage area 78 of the data memory 24 as parameters of the camera shake direction. "Θ Mi
As described above, there is a relationship of ± 90 ° = camera shake direction.

【0027】このようにして手ぶれ方向のパラメータが
検出されると、図6に示す手ぶれの大きさのパラメータ
の検出処理が開始する。
When the parameters of the camera shake direction are detected in this way, the process of detecting the parameters of the camera shake magnitude shown in FIG. 6 starts.

【0028】まず、ステップS5において、F(u,
v)をステップ4で得られたθMiの方向に平行に投影し
た関数PMi(t)を求める。これは図2の平行投影2に相
当する。ここで、tはθMiに直交する方向の周波数空間
の方向ベクトルである。
First, in step S5, F (u,
A function P Mi (t) obtained by projecting v) parallel to the direction of θ Mi obtained in step 4 is obtained. This corresponds to the parallel projection 2 in FIG. Here, t is a direction vector in a frequency space in a direction orthogonal to θ Mi.

【0029】つぎのステップS6において、前ステップ
で求められたPMi(t)をその中心(t=0)から遠ざか
る方向に走査し、PMi(t)の最初の極小点の位置tL1
見つけ、次の極小点の位置tL2を求める。すなわち、 PMi(tLi)<{PMi(tLi−Δt)+PMi(tLi+Δt)}
/2 を満たす最初のtLiをtL1(第1候補)、次に見つかっ
たtLiをtL2(第2候補)とする。これらは、手ぶれの
大きさのパラメータとしてパラメータ記憶域78に保存
される。なお、手ぶれによるぼけの範囲Δωは1/tLi
として求まり、これは図3(B)の直線12,14と原
点との距離に相当する。
In the next step S6, P Mi (t) obtained in the previous step is scanned in a direction away from the center (t = 0), and the position t L1 of the first minimum point of P Mi (t) is determined. Then, the position t L2 of the next minimum point is obtained. That is, P Mi (t Li ) <{P Mi (t Li −Δt) + P Mi (t Li + Δt)}
The first t Li that satisfies / 2 is t L1 (first candidate), and the next t Li found is t L2 (second candidate). These are stored in the parameter storage area 78 as parameters of the magnitude of camera shake. The range Δω of blur due to camera shake is 1 / t Li
And this corresponds to the distance between the straight lines 12 and 14 in FIG. 3B and the origin.

【0030】ステップS6においては、求めた各tLi
信頼性を表すパラメータCfも、例えば次式 Cf={PMi(tLi−Δt)+PMi(tLi+Δt)−2P
Mi(tLi)}/PMi(0) によって計算し(i=1,2)、パラメータ記憶域78
に保存する。このCfの値が大きいほど信頼性が高い。
In step S6, the parameter C f representing the reliability of each t Li obtained is also calculated by, for example, the following equation: C f = {P Mi (t Li −Δt) + P Mi (t Li + Δt) −2P
Mi (t Li )} / P Mi (0) (i = 1, 2), and the parameter storage area 78
To save. As the value of the C f is greater reliable.

【0031】次のステップS7において、ウイーナーフ
ィルタ処理に使用されるノイズの大きさを推定する。通
常、ノイズの大きさは対象画像を撮影したカメラ系で定
まり、その推奨値を用いてもが一般に支障はない。そこ
で本実施例においては、ノイズ成分の大きさを測定する
ことなく、カメラ系の推奨値(例えば0.002)をノ
イズの大きさとして設定する。
In the next step S7, the magnitude of noise used for Wiener filter processing is estimated. Normally, the magnitude of the noise is determined by the camera system that has captured the target image, and the use of the recommended value does not generally cause a problem. Therefore, in the present embodiment, the recommended value of the camera system (for example, 0.002) is set as the noise magnitude without measuring the magnitude of the noise component.

【0032】対象画像に広い周波数範囲の被写体が撮影
されていて、手ぶれが一方向であり、手ぶれが周波数空
間において顕著に検出されるほど大きい場合には、以上
の処理によって手ぶれパラメータを十分高い精度で検出
できる。しかし、そのような条件が十分に満たされない
場合には、パラメータの検出精度が不十分なこともある
ため、ユーザにより確認又は修正を行うのが好ましい。
If a subject in a wide frequency range is photographed in the target image, and the camera shake is one-way, and the camera shake is large enough to be noticeably detected in the frequency space, the camera shake parameter can be adjusted to a sufficiently high accuracy by the above processing. Can be detected. However, when such a condition is not sufficiently satisfied, the accuracy of parameter detection may be insufficient, and it is preferable that the user confirms or corrects the parameter.

【0033】そこで、ステップS7の次に、ユーザによ
るパラメータの確認/修正及び画像補正のための図7に
示す処理を開始する。まず、ステップS9において、対
象画像74すなわち手ぶれによる「ぼけ」画像の部分画
像(又は全体画像)をディスプレイ装置58に表示す
る。図3(A)は、この表示画像の一例である。
Then, after step S7, the processing shown in FIG. 7 for the user to confirm / correct the parameters and correct the image is started. First, in step S9, the target image 74, that is, a partial image (or the entire image) of the “blur” image due to camera shake is displayed on the display device 58. FIG. 3A is an example of this display image.

【0034】次のステップS10において、検出された
手ぶれの方向と大きさのパラメータを表す記号とその信
頼度CfをパワースペクトルF(u,v)と関連付けた
画像80を生成し、これをディスプレイ装置58の画面
に表示する。本実施例では、この画像80として、図3
(B)に示すような、周波数空間(u,v)の原点を通
る方位θM1の直線10、この直線から距離Δω=1/t
L1だけ離れた2本の直線12,14とその信頼度Cf
パワースペクトルF(u,v)と重ね合わせた画像を生
成し表示する(図3(B)には信頼度Cfは表されてい
ない)。このようなパラメータの表示形態は、手ぶれの
方向及び大きさとの関係を直感的に認識できる点で優れ
ている。なお、これら直線を対象画像と重ね合わせて表
示することも可能であるが、前述のように周波数空間に
おけるほうが手ぶれによる周波数分布の偏りがより明瞭
に視認できるので、本実施例のようにしたほうが一般に
有利であろう。検出されたパラメータの第1候補と第2
候補の各組について、同様の画像を表示してもよいが、
上に述べたようにパラメータの1組についてのみ表示す
るだけで十分であろう。
In the next step S10, an image 80 in which the symbols representing the detected camera shake direction and magnitude parameters and their reliability C f are associated with the power spectrum F (u, v) is generated and displayed. It is displayed on the screen of the device 58. In the present embodiment, this image 80 is
(B), a straight line 10 of the azimuth θ M1 passing through the origin of the frequency space (u, v), and a distance Δω = 1 / t from this straight line
L1 only with two straight lines 12, 14 apart the reliability C f power spectrum F (u, v) generates an image superimposed with and displayed (table reliability C f in FIG. 3 (B) It has not been). Such a parameter display mode is excellent in that the relationship between the direction and the magnitude of camera shake can be intuitively recognized. Although it is possible to display these straight lines superimposed on the target image, it is possible to display the bias of the frequency distribution due to camera shake more clearly in the frequency space as described above. Generally would be advantageous. First and second candidates for the detected parameters
Similar images may be displayed for each set of candidates,
As noted above, it may be sufficient to display only one set of parameters.

【0035】信頼度Cfを表示するのは、ユーザが自動
検出されたパラメータの修正の要否を判断する手がかり
として表示されるが、必ずしも表示しなくてもよく、信
頼度が一定レベルに達しない場合にのみ警告として表示
してもよい。信頼度Cfは数値の形で表示してもゲージ
のような記号として表示してもよい。
[0035] to display the reliability C f is the user is displayed as a clue to determine the necessity of automatic detection parameters modifications may not necessarily appear, reliability reaches the predetermined level A warning may be displayed only when not performed. The reliability Cf may be displayed in the form of a numerical value or a symbol such as a gauge.

【0036】次のステップS11において、ユーザに対
しパラメータの確認/修正を求めるガイダンス、例えば
「このままでよければリターンを、修正の必要があれば
マウスで表示されている直線を補正してください。」と
いう質問文章をディスプレイ装置58の画面に表示す
る。ユーザは、手ぶれ方向の修正が必要と判断した場合
には、情報入力装置62に含まれるポインティングデバ
イスであるマウスを使って画面上の太い直線10の一端
を所望の方向へ所望量だけドラッグし、直線10を回転
させる。手ぶれの大きさの修正が必要と判断した場合に
は、破線の直線12又は14をマウスによって所望の方
向又は所望量だけドラッグし、その直線を移動させる。
修正不要と判断した場合には、このドラッグ操作を行う
ことなく情報入力装置62のキーボードのリターンキー
を押す。
In the next step S11, guidance for asking the user for confirmation / correction of the parameter, for example, "Please correct the return if it is acceptable, or correct the straight line displayed with the mouse if it is necessary to correct it." Is displayed on the screen of the display device 58. When the user determines that the camera shake direction needs to be corrected, the user drags one end of the thick straight line 10 on the screen by a desired amount in a desired direction using a mouse that is a pointing device included in the information input device 62, The straight line 10 is rotated. If it is determined that the magnitude of the camera shake needs to be corrected, the dashed straight line 12 or 14 is dragged by the mouse in a desired direction or by a desired amount, and the straight line is moved.
If it is determined that the correction is unnecessary, the user presses the return key on the keyboard of the information input device 62 without performing the drag operation.

【0037】マウスによるドラッグ操作が行われた場
合、ステップS13において、ユーザのドラッグ操作に
従って、画像80中の実線の直線10と破線の直線1
2,14を同時に同じ角度だけ同じ向きに回転させ、及
び/又は、破線の直線12,14を逆向きに同じ量だけ
移動させたものに相当する画像82を生成し、これをデ
ィスプレイ装置58に逐次表示する。これは例えば図3
(C)のような画像であり、その直線10〜14の方位
又は位置はドラッグ操作中のマウスポインタに追従して
変化する。なお、この画像は画面上では、ステップS1
0で表示された画像つまり図3(B)の画像に上書きさ
れる形で表示される。ドラッグ操作が終了すると、その
時の画像82中の直線10の方位、及び、直線10と直
線12又は14との距離から、手ぶれの方向及び大きさ
のパラメータが計算され、これはユーザ提示のパラメー
タとしてパラメータ記憶域78に保存される。このステ
ップは、リターンキーが押された場合にはスキップされ
る。
When the drag operation with the mouse is performed, in step S13, the solid straight line 10 and the broken straight line 1 in the image 80 are displayed in accordance with the user's drag operation.
2 and 14 are simultaneously rotated by the same angle in the same direction, and / or an image 82 corresponding to the dashed straight lines 12 and 14 moved in the opposite direction by the same amount is generated, and this is displayed on the display device 58. Display sequentially. This is, for example, FIG.
The image is as shown in (C), and the azimuths or positions of the straight lines 10 to 14 change following the mouse pointer during the drag operation. This image is displayed on the screen in step S1.
The image displayed as 0 is overwritten on the image shown in FIG. 3B. When the drag operation is completed, parameters of the direction and magnitude of camera shake are calculated from the azimuth of the straight line 10 in the image 82 at that time and the distance between the straight line 10 and the straight line 12 or 14, and this is a parameter presented by the user. It is stored in the parameter storage area 78. This step is skipped if the return key is pressed.

【0038】次のステップS14において、パラメータ
記憶域78に記憶されている手ぶれの方向及び大きさの
パラメータの各組(自動検出されたパラメータの組、ユ
ーザにより修正が行われた場合のユーザ提示のパラメー
タの組)について、ウイーナーフィルタを計算し、その
ウイーナーフィルタを用いて対象画像74の部分画像を
それぞれ補正した画像84を生成し、これをディスプレ
イ装置58に表示する。例えば、自動検出されたθM1
そのtL1に従って補正された部分画像として図3(D
1)の画像が、自動検出されたθM1とそのtL2に従って
補正された部分画像として図3(D2)の画像が、ま
た、ユーザ提示のパラメータに従って補正された部分画
像として図3(D3)の画像がそれぞれ表示される。な
お、実際には本実施例では、手ぶれの方向パラメータが
2候補、その各候補について手ぶれの大きさのパラメー
タが2候補が検出されるので、全体でパラメータの組は
4組あるので、それぞれに従った4つの補正部分画像
と、ユーザにより提示されたパラメータの組に従った1
つの補正部分画像が同時あるいは順次に表示される。
In the next step S14, each set of parameters of the direction and magnitude of camera shake stored in the parameter storage area 78 (the set of automatically detected parameters, the user's presentation when correction is performed by the user). For the parameter set), a Wiener filter is calculated, and an image 84 in which the partial image of the target image 74 is corrected is generated using the Wiener filter, and is displayed on the display device 58. For example, FIG. 3 (D) shows a partial image corrected according to the automatically detected θ M1 and its t L1 .
The image of FIG. 3 (D2) is obtained by correcting the image 1) according to the automatically detected θ M1 and its t L2, and the image of FIG. 3 (D3) is obtained by correcting the image according to the parameters presented by the user. Are displayed. In practice, in the present embodiment, two candidates for the direction parameter of the camera shake and two candidates for the parameter of the camera shake magnitude are detected for each candidate, so that there are four sets of parameters as a whole. The four corrected partial images according to the above and one according to a set of parameters presented by the user.
The two corrected partial images are displayed simultaneously or sequentially.

【0039】次のステップS15において、例えば「好
みの修正画像を選択してください。」というようなガイ
ダンスを表示し、表示された補正部分画像の一つをユー
ザに選択させる。この選択は、例えばマウスポインタを
補正部分画像に合わせてクリックすることにより行われ
る。選択された補正部分画像に対応したパラメータの組
が、対象画像の補正のための手ぶれパラメータに確定す
る。
In the next step S15, for example, guidance such as "Please select a desired modified image" is displayed, and the user is allowed to select one of the displayed corrected partial images. This selection is made, for example, by moving the mouse pointer to the corrected partial image and clicking. A set of parameters corresponding to the selected corrected partial image is determined as a camera shake parameter for correcting the target image.

【0040】ユーザによって一つの補正部分画像が選択
されると、次のステップS16において、その補正部分
画像に対応したウイーナーフィルタを使い、対象画像7
4の全体を補正した画像86を生成し、これを画面表示
する。図3に示した例では、手ぶれによるぼけが最もよ
く補正されているのは図3(D1)の画像と認められる
ので、これが選択され、したがって自動検出されたθM1
とそのtL1の組が最終的に採用される。最終的な補正画
像のデータ、又は確定したパラメータの組又はその補正
のためのウイーナーフィルタのデータは、必要に応じて
補助記憶装置56に保存される。
When one correction partial image is selected by the user, in the next step S16, the target image 7 is selected using the Wiener filter corresponding to the correction partial image.
An image 86 in which the entirety of the image No. 4 is corrected is generated, and is displayed on the screen. In the example shown in FIG. 3, it is recognized that the blur caused by camera shake is best corrected as the image in FIG. 3 (D1), and this is selected, and therefore, the automatically detected θ M1
And the set of t L1 is finally adopted. The data of the final corrected image, the set of determined parameters or the data of the Wiener filter for the correction thereof is stored in the auxiliary storage device 56 as necessary.

【0041】不適当なパラメータに従って画像を補正す
ると、かえって画質を低下させてしまう。このような不
都合を避けるためには、本実施例のように、パラメータ
の組毎に補正結果を画面上で最終確認するのが好まし
い。また、その確認のために対象画像全体の補正画像を
表示してもよいが、部分補正画像を表示すると、その生
成のための処理量を少なくできるとともに限られた大き
さの画面に多数の補正画像を同時に表示して相互に比較
できるという利点がある。
If the image is corrected according to the inappropriate parameters, the image quality is rather deteriorated. In order to avoid such inconvenience, it is preferable to finally confirm the correction result on the screen for each parameter set as in this embodiment. In addition, a correction image of the entire target image may be displayed for confirmation, but displaying a partial correction image can reduce the amount of processing for the generation and provide a large number of correction images on a screen of a limited size. The advantage is that the images can be displayed simultaneously and compared with one another.

【0042】[0042]

【発明の効果】以上の説明から明らかなように、本発明
によれば、(1)画像の手ぶれによる劣化を補正するた
めのパラメータの自動検出が可能である。(2)自動検
出されたパラメータの妥当性の確認又は必要な修正を容
易に行うことができる。(3)実際に補正した画像を画
面上で確認することにより、適切なパラメータを確実に
選ぶことができる。(4)よって、手ぶれによる劣化画
像を高精度に補正し高品質な画像の復元が可能になる、
等の効果を得られる。
As is clear from the above description, according to the present invention, it is possible to (1) automatically detect a parameter for correcting deterioration caused by camera shake of an image. (2) The validity of the automatically detected parameter can be easily confirmed or necessary correction can be easily performed. (3) By confirming the actually corrected image on the screen, appropriate parameters can be reliably selected. (4) Thus, a deteriorated image due to camera shake can be corrected with high accuracy, and a high-quality image can be restored.
And the like.

【図面の簡単な説明】[Brief description of the drawings]

【図1】対象画像の2次元周波数空間への変換画像の例
を示す。
FIG. 1 shows an example of a converted image of a target image into a two-dimensional frequency space.

【図2】手ぶれ画像の周辺分布を示す図である。FIG. 2 is a diagram showing a peripheral distribution of a camera shake image.

【図3】手ぶれパラメータの確認/修正のためにディス
プレイ装置の画面に表示される画像の例を示す図であ
る。
FIG. 3 is a diagram showing an example of an image displayed on a screen of a display device for checking / correcting camera shake parameters.

【図4】本発明を実施するためのコンピュータの一例を
示す図である。
FIG. 4 is a diagram illustrating an example of a computer for implementing the present invention.

【図5】手ぶれの方向のパラメータの検出処理の一例を
示すフローチャートである。
FIG. 5 is a flowchart illustrating an example of a process of detecting a parameter of a direction of camera shake.

【図6】手ぶれの大きさのパラメータの検出処理の一例
を示すフローチャートである。
FIG. 6 is a flowchart illustrating an example of a process of detecting a parameter of a magnitude of camera shake.

【図7】手ぶれパラメータの確認/修正のための処理の
一例を示すフローチャートである。
FIG. 7 is a flowchart illustrating an example of a process for confirming / correcting camera shake parameters.

【符号の説明】[Explanation of symbols]

1 中心投影 2 平行投影 10 手ぶれ方向パラメータに対応した直線 12,14 手ぶれ大きさパラメータに対応した直線 50 CPU 52 プログラムメモリ 54 データメモリ 56 補助記憶装置 58 ディスプレイ装置 59 記録媒体 60 媒体駆動装置 61 外部インターフェイス部 64 デジタルカメラ 62 情報入力装置 72 本発明の処理のためのプログラム Reference Signs List 1 central projection 2 parallel projection 10 straight line corresponding to camera shake direction parameter 12, 14 straight line corresponding to camera shake magnitude parameter 50 CPU 52 program memory 54 data memory 56 auxiliary storage device 58 display device 59 recording medium 60 medium drive device 61 external interface Unit 64 digital camera 62 information input device 72 program for processing of the present invention

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 対象画像の2次元周波数空間への変換画
像を生成する第1のステップ、該変換画像を該周波数空
間の原点を中心とする円の円周方向へ投影する第2のス
テップ、該第2のステップにより得られた関数にローパ
スフィルタ処理を施す第3のステップ、該ローパスフィ
ルタ処理後の関数の極大点の方位を手ぶれ方向のパラメ
ータとして検出する第4のステップ、該変換画像を該第
4のステップで検出された極大点の方位に平行に投影す
る第5のステップ、及び、該第5のステップにより得ら
れた関数の極小点の位置を手ぶれの大きさのパラメータ
として検出する第5のステップからなることを特徴とす
る手ぶれパラメータ検出方法。
1. a first step of generating a transformed image of a target image into a two-dimensional frequency space; a second step of projecting the transformed image in a circumferential direction of a circle centered on the origin of the frequency space; A third step of subjecting the function obtained in the second step to low-pass filtering, a fourth step of detecting the azimuth of a local maximum point of the function after the low-pass filtering as a parameter of a camera shake direction, and A fifth step of projecting parallel to the azimuth of the maximum point detected in the fourth step, and detecting the position of the minimum point of the function obtained in the fifth step as a parameter of the magnitude of camera shake A camera shake parameter detecting method, comprising: a fifth step.
【請求項2】 対象画像の2次元周波数空間への変換画
像を生成し、該変換画像より該対象画像の手ぶれの方向
及び大きさのパラメータを検出する第1のステップ、該
第1のステップにより検出されたパラメータを表す記号
を該変換画像と関連付けてディスプレイ装置に表示させ
る第2のステップ、該ディスプレイ装置の画面上におい
てユーザにより該記号を操作させ、該操作された後の該
記号に基づいて手ぶれの方向及び大きさのパラメータを
求める第3のステップ、該対象画像の少なくとも部分画
像を該第1のステップで検出されたパラメータに従って
補正した補正画像及び該対象画像の少なくとも部分画像
を該第3のステップで求められたパラメータに従って補
正した補正画像をそれぞれ生成して該ディスプレイ装置
に表示させる第4のステップ、及び、画像ディスプレイ
装置の画面上においてユーザにより該該補正画像の一つ
を選択させ、選択された補正画像に対応した該第1ステ
ップ又は該第3ステップで求められたパラメータを、該
対象画像の補正のための手ぶれパラメータとして確定す
る第5のステップからなることを特徴とする手ぶれパラ
メータ検出方法。
2. A first step of generating a converted image of a target image into a two-dimensional frequency space, and detecting parameters of a direction and a magnitude of camera shake of the target image from the converted image. A second step of displaying a symbol representing the detected parameter on the display device in association with the converted image, causing the user to operate the symbol on a screen of the display device, based on the symbol after the operation; A third step of obtaining parameters of a direction and a magnitude of camera shake, a corrected image obtained by correcting at least a partial image of the target image in accordance with the parameters detected in the first step, and a third image of the target image in the third step. Generating a corrected image in accordance with the parameters obtained in the step and respectively displaying the corrected images on the display device. Step, and allowing the user to select one of the corrected images on the screen of the image display device, and setting the parameter obtained in the first step or the third step corresponding to the selected corrected image to the target A camera shake parameter detection method, comprising: a fifth step of determining a camera shake parameter for correcting an image.
【請求項3】 請求項2記載の手ぶれパラメータ検出方
法において、該第2のステップで、手ぶれの方向に依存
した方位の第1の直線、及び、手ぶれの大きさに依存し
た距離だけ該第1の直線から離れた第2の直線が該変換
画像と重ねられて該ディスプレイ装置に表示され、該第
3のステップで、ユーザにより手ぶれ方向のパラメータ
の修正のために該第1の直線が回転操作され、手ぶれの
大きさのパラメータの修正のために該第2の直線が移動
操作され、該操作後の該第1の直線の方位に基づいて手
ぶれの方向のパラメータが求められ、該操作後の該第2
の直線と該第1の直線との距離に基づいて手ぶれの大き
さのパラメータが求められることを特徴とする手ぶれパ
ラメータ検出方法。
3. The camera shake parameter detecting method according to claim 2, wherein in the second step, the first straight line having an azimuth depending on the direction of the camera shake and the first straight line having a distance depending on the magnitude of the camera shake. A second straight line deviating from the straight line is superimposed on the converted image and displayed on the display device, and in the third step, the first straight line is rotated by the user to correct the camera shake direction parameter. The second straight line is moved to correct the parameter of the magnitude of camera shake, and the parameter of the direction of camera shake is obtained based on the azimuth of the first straight line after the operation. The second
A parameter for the magnitude of camera shake is obtained based on the distance between the straight line and the first straight line.
【請求項4】 請求項2記載の手ぶれパラメータ検出方
法において、該第1のステップで、手ぶれの方向及び大
きさのパラメータは少なくとも2組検出され、該第4の
ステップでは、該第1のステップで検出されたパラメー
タの各組に従って補正された少なくとも2つの補正画像
と、該第3のステップで求められたパラメータに従って
補正された補正画像とが生成されて表示されることを特
徴とする手ぶれパラメータ検出方法。
4. The method according to claim 2, wherein in the first step, at least two sets of parameters of the direction and the magnitude of the camera shake are detected, and in the fourth step, the first step is performed. Wherein at least two corrected images corrected in accordance with each set of parameters detected in step (a) and a corrected image corrected in accordance with the parameters obtained in the third step are generated and displayed. Detection method.
【請求項5】 該第1のステップで検出されたパラメー
タの信頼度を求めるステップをさらに有し、該信頼度は
該第2のステップで表示される記号とともに該ディスプ
レイ装置に表示されることを特徴とする請求項2記載の
手ぶれパラメータ検出方法。
5. The method according to claim 1, further comprising the step of determining the reliability of the parameter detected in the first step, wherein the reliability is displayed on the display device together with the symbol displayed in the second step. 3. The method for detecting a camera shake parameter according to claim 2, wherein:
【請求項6】 コンピュータに、請求項1乃至5のいず
れか1項記載の手ぶれパラメータ検出方法の各ステップ
の手順を実行させるためのプログラムを記録した機械読
み取り可能な情報記録媒体。
6. A machine-readable information recording medium in which a program for causing a computer to execute a procedure of each step of the camera shake parameter detecting method according to claim 1 is recorded.
JP18084697A 1997-07-07 1997-07-07 Camera shake parameter detection method and information recording medium Expired - Fee Related JP3812770B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP18084697A JP3812770B2 (en) 1997-07-07 1997-07-07 Camera shake parameter detection method and information recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP18084697A JP3812770B2 (en) 1997-07-07 1997-07-07 Camera shake parameter detection method and information recording medium

Publications (2)

Publication Number Publication Date
JPH1127574A true JPH1127574A (en) 1999-01-29
JP3812770B2 JP3812770B2 (en) 2006-08-23

Family

ID=16090389

Family Applications (1)

Application Number Title Priority Date Filing Date
JP18084697A Expired - Fee Related JP3812770B2 (en) 1997-07-07 1997-07-07 Camera shake parameter detection method and information recording medium

Country Status (1)

Country Link
JP (1) JP3812770B2 (en)

Cited By (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002028091A1 (en) * 2000-09-28 2002-04-04 Nikon Corporation Image creating device and image creating method
JP2005310073A (en) * 2004-03-25 2005-11-04 Fuji Photo Film Co Ltd Image processing method, device, and program
JP2006011352A (en) * 2004-05-26 2006-01-12 Seiko Epson Corp Method and device for correcting image blurred due to camera shake and computer program
US7181074B2 (en) 2002-03-19 2007-02-20 Sanyo Electric Co., Ltd. Image coding apparatus and method
EP1944732A2 (en) 2007-01-12 2008-07-16 Sanyo Electric Co., Ltd. Apparatus and method for blur detection, and apparatus and method for blur correction
JP2008305431A (en) * 2008-08-08 2008-12-18 Sony Corp Image signal processing device and method, program, and storage medium
JP2009104639A (en) * 2009-01-26 2009-05-14 Seiko Epson Corp Method, program and device for evaluating image information
US7536090B2 (en) 2005-09-22 2009-05-19 Sanyo Electric Co., Ltd. Hand shake blur correcting apparatus
US7593039B2 (en) 2004-11-29 2009-09-22 Seiko Epson Corporation Image correcting method, image correcting apparatus, and storage medium having program stored thereon
US7643739B2 (en) 2005-05-13 2010-01-05 Casio Computer Co., Ltd. Image pick-up apparatus having function of detecting shake direction
US7693342B2 (en) 2004-11-29 2010-04-06 Seiko Epson Corporation Evaluating method of image information, storage medium having evaluation program stored therein, and evaluating apparatus
US7697775B2 (en) 2003-08-11 2010-04-13 Sony Corporation Image signal processing apparatus and method, and program and recording medium used therewith
JP2014153778A (en) * 2013-02-05 2014-08-25 Nk Works Co Ltd Image processing program, image processing apparatus, and image processing method

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2002028091A1 (en) * 2000-09-28 2002-04-04 Nikon Corporation Image creating device and image creating method
US7260270B2 (en) 2000-09-28 2007-08-21 Nikon Corporation Image creating device and image creating method
US7181074B2 (en) 2002-03-19 2007-02-20 Sanyo Electric Co., Ltd. Image coding apparatus and method
US7697775B2 (en) 2003-08-11 2010-04-13 Sony Corporation Image signal processing apparatus and method, and program and recording medium used therewith
KR101038690B1 (en) * 2003-08-11 2011-06-02 소니 주식회사 Image processing apparatus and image processing method, and recording medium
JP2005310073A (en) * 2004-03-25 2005-11-04 Fuji Photo Film Co Ltd Image processing method, device, and program
JP2006011352A (en) * 2004-05-26 2006-01-12 Seiko Epson Corp Method and device for correcting image blurred due to camera shake and computer program
JP4725059B2 (en) * 2004-05-26 2011-07-13 セイコーエプソン株式会社 Camera shake image correction apparatus, camera shake image correction method, and computer program
US7593039B2 (en) 2004-11-29 2009-09-22 Seiko Epson Corporation Image correcting method, image correcting apparatus, and storage medium having program stored thereon
US7693342B2 (en) 2004-11-29 2010-04-06 Seiko Epson Corporation Evaluating method of image information, storage medium having evaluation program stored therein, and evaluating apparatus
US7643739B2 (en) 2005-05-13 2010-01-05 Casio Computer Co., Ltd. Image pick-up apparatus having function of detecting shake direction
US7536090B2 (en) 2005-09-22 2009-05-19 Sanyo Electric Co., Ltd. Hand shake blur correcting apparatus
EP1944732A2 (en) 2007-01-12 2008-07-16 Sanyo Electric Co., Ltd. Apparatus and method for blur detection, and apparatus and method for blur correction
JP4645918B2 (en) * 2008-08-08 2011-03-09 ソニー株式会社 Image signal processing apparatus and method
JP2008305431A (en) * 2008-08-08 2008-12-18 Sony Corp Image signal processing device and method, program, and storage medium
JP2009104639A (en) * 2009-01-26 2009-05-14 Seiko Epson Corp Method, program and device for evaluating image information
JP2014153778A (en) * 2013-02-05 2014-08-25 Nk Works Co Ltd Image processing program, image processing apparatus, and image processing method

Also Published As

Publication number Publication date
JP3812770B2 (en) 2006-08-23

Similar Documents

Publication Publication Date Title
US10621740B2 (en) 3D modeling method based on point cloud data
US6774889B1 (en) System and method for transforming an ordinary computer monitor screen into a touch screen
JP3812770B2 (en) Camera shake parameter detection method and information recording medium
US20180108119A1 (en) Method for sliced inpainting
US20080037901A1 (en) Image processing method and image processing apparatus
EP2536123B1 (en) Image processing method and image processing apparatus
US20130177256A1 (en) Image Processing Apparatus, Recording Medium Storing Image Processing Program, And Method Of Image Processing
CN114463184B (en) Image splicing method and device, storage medium and electronic equipment
JP5750093B2 (en) Band-based patch selection with dynamic grid
US9979858B2 (en) Image processing apparatus, image processing method and program
JP7187265B2 (en) Image processing device and its control method and program
CN106373154B (en) Image processing apparatus and image processing method
JP2003016440A (en) Photograph extraction method, device, program, and recording medium
JP2000155839A (en) Marked area image extraction method, device therefor and recoding medium recorded with marked area image extracting program
JP7028729B2 (en) Object tracking device, object tracking system, and object tracking method
JP6478897B2 (en) Modulation transfer function calculation device and modulation transfer function calculation program
JP2004165944A (en) Method and device for projection information correction, program, and recording medium
JPH10248830A (en) Recognition method and device for irradiation field of radiation image
JP5340021B2 (en) Image processing apparatus, image processing method, and program
JP2006038701A (en) Connection composition method of data and connection composing program
CN108629788B (en) Image edge detection method, device and equipment and readable storage medium
JP4400481B2 (en) Image processing device
WO2021075314A1 (en) Image processing device, image processing method, and computer-readable recording medium
JP6800938B2 (en) Image processing equipment, image processing methods and programs
JP2005217721A (en) Apparatus and method for generating still picture

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20060524

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20060525

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20090609

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20100609

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110609

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110609

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120609

Year of fee payment: 6

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130609

Year of fee payment: 7

LAPS Cancellation because of no payment of annual fees