JPH1091807A - Method for generating moving image - Google Patents

Method for generating moving image

Info

Publication number
JPH1091807A
JPH1091807A JP8242970A JP24297096A JPH1091807A JP H1091807 A JPH1091807 A JP H1091807A JP 8242970 A JP8242970 A JP 8242970A JP 24297096 A JP24297096 A JP 24297096A JP H1091807 A JPH1091807 A JP H1091807A
Authority
JP
Japan
Prior art keywords
moving image
base
inner product
image
matching
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP8242970A
Other languages
Japanese (ja)
Inventor
Kenji Kurosu
健二 黒須
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP8242970A priority Critical patent/JPH1091807A/en
Publication of JPH1091807A publication Critical patent/JPH1091807A/en
Withdrawn legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Complex Calculations (AREA)
  • Image Analysis (AREA)

Abstract

PROBLEM TO BE SOLVED: To generate a moving image from a static image regardless of the kind of an object. SOLUTION: A first correlation matrix generating part 11 calculates a column correlation matrix S11a and an line correlation matrix S11b from a picture P(a) for one frame. A first basic graphic calculating part 12 calculates specific vectors S12a and S12b and a basic graphic S12c from the column correlation matrix S11a and the line correlation matrix S11b. An inner product calculating part 13 calculates an inner product S13 of one frame of a moving image P(t) and the basic graphic S12c. A second correlation matrix generating part 14 calculates a column correlation matrix S14a and a line correlation matrix S14b from a static image Q. A second basic graphic calculating part 15 calculates specific vectors S15a and S15b and a basic graphic S15c from the column correlation matrix S14a and the line correlation matrix S14b. A matching part 16 generates a matching result S16 of the basic graphic S12c and the basic graphic S15c. A moving image generating part 17 generates an artificial moving image S17 from the inner product S13 and the basic graphic S15c based on the matching result S16.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、直交変換を用いて
動画像を処理した情報をもとに、この動画像と同種の物
体の静止画像を動画像化した人工動画像を生成する動画
像生成方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a moving image for generating an artificial moving image in which a still image of an object of the same kind as the moving image is formed based on information obtained by processing the moving image using orthogonal transformation. It relates to a generation method.

【0002】[0002]

【従来の技術】従来、このような分野の技術としては、
例えば、次のような文献に記載されるものがあった。 文献;テレビジョン学会誌、VOl.49,No.10、(1995)、川
村貴弘他著、「NURBS,逆運動学、協調的運動モデルによ
る自然感の高い魚の実時間CG動画像生成」、P.1296-1
304 1枚の静止画像から動画像を作成する方法としては、コ
ンピュータ・グラフィクス(Computer Graphics、以下、
CGという) がある。CGで魚の動画像を作成する手法
の1例としてNURBUS(Non-Uniform Rational B-Spline)
が知られており、この手法を用いた動画像生成方法が前
記文献に記載されている。前記文献では、NURBS を用い
て魚の動きを生成する場合、まず、魚を8×4程度の制
御点群に分ける。魚のデフォメーション(形状変化) を
表すため、NURBSのグループ化した制御点群を、固有の
数学関数に基づいた回転角で魚に垂直な軸に関して回転
させることによって実現している。この際、魚の体のひ
ねりを「自然ひねり」、「左ひねり」、及び「右ひね
り」の3つに分け、ひねりの振幅やピッチはパラメータ
によって調整している。このようにして魚の動きが実現
できたら、写真のテクスチャマップ(即ち、モデルに2
次元画像を張り付ける方法) を行って魚に現実感をもた
せている。
2. Description of the Related Art Conventionally, techniques in such a field include:
For example, there is one described in the following literature. Literature; Journal of the Institute of Television Engineers of Japan, Vol. 49, No. 10, (1995), Takahiro Kawamura et al., "Real-time CG moving image generation of fish with high natural feeling by NURBS, inverse kinematics, cooperative motion model," P. .1296-1
304 As a method of creating a moving image from one still image, there is a computer graphics (hereinafter referred to as “Computer Graphics”).
CG). NURBUS (Non-Uniform Rational B-Spline) as an example of a method for creating a moving image of a fish with CG
Is known, and a moving image generation method using this method is described in the above-mentioned document. In the above literature, when generating the movement of a fish using NURBS, the fish is first divided into a group of control points of about 8 × 4. To represent the deformation of the fish (shape change), it is realized by rotating the NURBS grouped control points about an axis perpendicular to the fish at a rotation angle based on a unique mathematical function. At this time, the twist of the body of the fish is divided into three, "natural twist", "left twist", and "right twist", and the amplitude and pitch of the twist are adjusted by parameters. Once the fish movement has been achieved in this way, the texture map of the photograph (ie, 2
Method of attaching a three-dimensional image) to give the fish a sense of reality.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
動画像生成方法では、次のような課題があった。CGに
よって動画像を作成するには種々の手法があるが、その
手法は特定のオブジェクトに限られることが多い。例え
ば、NURBS で魚の動画像を作成する場合、体を8×4の
制御点に分けることによって表現できる魚は、体の表面
が滑らかなものに限られる。従って、例えばハリセンボ
ンやハナミノカサゴ等のような体の表面に凹凸がある魚
については顧慮されていない。又、前記文献では、魚の
運動様式は、進行波のように頭部で始まり、後方に向か
うにつれて振幅を増し、波長を減じていく波動形に限定
されているが、例えばエイやヒラメ等のような背復圧縮
形の魚には、この運動様式はあてはまらない。更に、魚
の動きを求める計算は複雑で時間がかかり、動きの計算
の後に人の手によってオブジェクトにマッピングを行う
必要があるという問題があった。
However, the conventional moving image generating method has the following problems. There are various methods for creating a moving image by CG, but the method is often limited to a specific object. For example, when a moving image of a fish is created by NURBS, the fish that can be expressed by dividing the body into 8 × 4 control points is limited to those having a smooth body surface. Therefore, there is no consideration with respect to fish having irregularities on the surface of the body, such as, for example, haribonboshi or scorpionfish. Further, in the above-mentioned literature, the movement mode of the fish is limited to a wave form that starts at the head like a traveling wave, increases in amplitude toward the rear, and decreases in wavelength, but is, for example, a ray or a flounder. This type of exercise does not apply to a fish with a compact compression. Further, there is a problem that the calculation for obtaining the movement of the fish is complicated and time-consuming, and it is necessary to manually map the object to the object after the calculation of the movement.

【0004】[0004]

【課題を解決するための手段】前記課題を解決するため
に、本発明のうちの第1の発明は、動画像生成方法にお
いて、動画像の或る1フレームに対して直交変換を施し
て第1の基底を求める第1の基底生成処理と、前記第1
の基底と前記動画像の任意の時間のフレームとの内積値
をフレーム毎に算出する内積値算出処理と、前記動画像
と同種の物体の静止画像に対して直交変換を施して第2
の基底を求める第2の基底生成処理と、前記第1の基底
と前記第2の基底との近似度を検出し、該第1の基底と
該第2の基底との最も近似した場合の基底の組み合わせ
を表すマッチング結果を生成するマッチング処理と、前
記マッチング結果に基づいて前記第2の基底と該第2の
基底に対応する前記動画像から求めた前記内積値とを掛
け合わせ、それらの和をとることによって前記静止画像
を動画像化した人工動画像を生成する動画像生成処理と
を、行うようにしている。
In order to solve the above-mentioned problems, a first aspect of the present invention provides a method for generating a moving image, the method comprising: performing orthogonal transformation on a certain frame of the moving image; A first basis generation process for finding a basis of
Inner product value calculation processing for calculating an inner product value between the base of the moving image and a frame at an arbitrary time of the moving image for each frame, and performing an orthogonal transformation on a still image of an object of the same kind as the moving image to obtain a second product
A second basis generation process for finding the basis of the first basis, the degree of approximation between the first basis and the second basis is detected, and the basis in the case where the first basis and the second basis are most approximated. And a matching process for generating a matching result representing a combination of the above, and multiplying the second base and the inner product value obtained from the moving image corresponding to the second base based on the matching result, and summing them And a moving image generation process of generating an artificial moving image obtained by converting the still image into a moving image.

【0005】第2の発明では、動画像の或る1フレーム
に対して直交変換を施して第1の基底を求める第1の基
底生成処理と、前記動画像と同種の物体の静止画像に対
して直交変換を施して基底を求め、該基底のうちの少数
の限定された第2の基底を求める第2の基底生成処理
と、前記第1の基底と前記第2の基底との近似度を検出
し、該第1の基底と該第2の基底との最も近似した場合
の基底の組み合わせを表すマッチング結果を生成するマ
ッチング処理と、前記マッチング結果に基づいて限定さ
れた前記第1の基底と前記動画像の任意の時間のフレー
ムとの内積値をフレーム毎に算出する内積値算出処理
と、前記第2の基底と該第2の基底に対応する前記動画
像との内積値とを離れた地点に伝送し、該離れた地点で
該第2の基底と該内積値とを掛け合わせ、それらの和を
とることによって該離れた地点で前記静止画像を動画像
化した人工動画像を生成する動画像生成処理とを、行う
ようにしている。
In the second invention, a first basis generation process for performing an orthogonal transformation on a certain frame of a moving image to obtain a first basis, and a method for generating a still image of an object of the same kind as the moving image. And a second basis generation process for obtaining a limited number of second bases among the bases by performing orthogonal transformation to calculate the degree of approximation between the first base and the second base. A matching process for detecting and generating a matching result representing a combination of the first base and the second base in the case of the closest approximation; and the first base limited based on the matching result. An inner product value calculation process of calculating an inner product value of the moving image with a frame at an arbitrary time for each frame, and an inner product value of the second base and the inner product value of the moving image corresponding to the second base separated from each other Transmitting to the point, the second base and the inner product at the remote point It multiplied the door, and a moving image generation processing for generating an artificial video image of the still image and video Zoka with 該離 the point by taking their sum are to perform.

【0006】第3の発明では、第1及び第2の発明にお
ける直交変換に特異値分解を用いる場合、マッチング処
理において、第1の基底と第2の基底との内積の最大値
を求めることによってマッチング結果を生成するように
している。第4の発明では、画像を離散コサイン変換し
て予め求めた第1の基底と動画像の任意の時間のフレー
ムとの内積値をフレーム毎に算出する内積値算出処理
と、前記動画像と同種の物体の静止画像に対して直交変
換を施して第2の基底を求める基底生成処理と、前記第
1の基底と前記第2の基底との近似度を検出し、該第1
の基底と該第2の基底との最も近似した場合の基底の組
み合わせを表すマッチング結果を生成するマッチング処
理と、前記マッチング結果に基づいて前記第2の基底と
該第2の基底に対応する前記動画像から求めた前記内積
値とを掛け合わせ、それらの和をとることによって前記
静止画像を動画像化した人工動画像を生成する動画像生
成処理とを、行うようにしている。
In the third invention, when singular value decomposition is used for the orthogonal transformation in the first and second inventions, the maximum value of the inner product between the first base and the second base is obtained in the matching process. A matching result is generated. In the fourth invention, an inner product value calculation process of calculating an inner product value between a first base previously obtained by performing discrete cosine transform of an image and a frame at an arbitrary time of the moving image for each frame, and the same type as the moving image Base generation processing for performing orthogonal transformation on a still image of the object to obtain a second base, detecting an approximation degree between the first base and the second base,
And a matching process for generating a matching result representing a combination of the most approximated basis and the second basis, based on the matching result, the second basis and the second basis corresponding to the second basis. A moving image generation process of generating an artificial moving image in which the still image is converted into a moving image by multiplying the inner product value obtained from the moving image and multiplying them by a sum thereof is performed.

【0007】第5の発明では、動画像の各フレームの基
底の方向の成分である第1の基底方向成分をフレーム毎
に求める第1の基底方向成分計算処理と、前記動画像と
同種の物体の静止画像の基底の方向の成分である第2の
基底方向成分を求める第2の基底方向成分計算処理と、
前記第1の基底方向成分と前記第2の基底方向成分との
近似度を検出し、該第1の基底方向成分と該第2の基底
方向成分とが最も近似するフレームに対応した時刻を表
すマッチング時刻を生成するマッチング処理と、前記第
2の基底方向成分を前記マッチング時刻からの前記第1
の基底方向成分の変化と相似形に時間方向に変化させ、
該第2の基底方向成分に対応する前記動画像の基底を掛
け合わせ、それらの和をとることによって前記静止画像
を動画像化した人工動画像を生成する動画像生成処理と
を、行うようにしている。第6の発明では、第5の発明
における基底に直交変換の基底を用いる場合、画像の基
底方向の成分に画像と基底との内積値を用いるようにし
ている。
According to a fifth aspect of the present invention, a first base direction component calculation processing for obtaining a first base direction component which is a base direction component of each frame of a moving image for each frame, and an object of the same kind as the moving image A second base direction component calculation process for obtaining a second base direction component that is a component in the base direction of the still image of
Detecting a degree of approximation between the first base direction component and the second base direction component, and representing a time corresponding to a frame in which the first base direction component and the second base direction component are closest; A matching process for generating a matching time;
In the time direction similar to the change in the base direction component of
A moving image generation process of multiplying the base of the moving image corresponding to the second base direction component and generating an artificial moving image obtained by moving the still image by adding the sum thereof. ing. In the sixth aspect, when the basis of the orthogonal transformation is used as the basis in the fifth aspect, an inner product value of the image and the basis is used as a component in the direction of the basis of the image.

【0008】[0008]

【発明の実施の形態】第1の実施形態 図1は、本発明の第1の実施形態の動画像生成方法を実
施するための動画像生成装置の構成図である。この動画
像生成装置は、第1の相関行列生成部11、第1の基本図
形計算部12、内積計算部13、第2の相関行列生成部14、
第2の基本図形計算部15、マッチング部16、動画像生成
部17、及び画像出力端子18を備えている。第1の相関行
列生成部11は、動画像P(t)の1フレーム分の画像P
(a)を入力し、この画像P(a)から列相間行列S1
1a及び行相間行列S11bを計算する機能を有してい
る。第1の相関行列生成部11の出力側は、第1の基本図
形計算部12に接続されている。第1の基本図形計算部12
は列相間行列S11a及び行相間行列S11bから固有
ベクトルS12a,S12bをそれぞれ求め、これらの
固有ベクトルS12a,S12bの積から基本図形S1
2cを計算する機能を有している。基本図形12cの値
は内積計算部13へ出力され、固有ベクトルS12a,S
12bの値がマッチング部16へ出力されるようになって
いる。内積計算部13は、動画像P(t)と基本図形S1
2cとを入力し、動画像P(t)の1フレームと基本図
形S12cとの内積値S13を計算する機能を有してい
る。内積計算部13の出力側は、動画像生成部17に接続さ
れている。
DESCRIPTION OF THE PREFERRED EMBODIMENTS First Embodiment FIG. 1 is a block diagram of a moving image generating apparatus for implementing a moving image generating method according to a first embodiment of the present invention. This moving image generation apparatus includes a first correlation matrix generation unit 11, a first basic figure calculation unit 12, an inner product calculation unit 13, a second correlation matrix generation unit 14,
It includes a second basic figure calculation unit 15, a matching unit 16, a moving image generation unit 17, and an image output terminal 18. The first correlation matrix generation unit 11 generates an image P for one frame of the moving image P (t).
(A) is input, and an inter-phase matrix S1 is obtained from the image P (a).
1a and a function for calculating the row-to-row matrix S11b. The output side of the first correlation matrix generation unit 11 is connected to the first basic figure calculation unit 12. First basic figure calculation unit 12
Calculates eigenvectors S12a and S12b from the column interphase matrix S11a and the row interphase matrix S11b, respectively, and calculates the basic graphic S1 from the product of these eigenvectors S12a and S12b.
2c is calculated. The value of the basic figure 12c is output to the inner product calculation unit 13, and the eigenvectors S12a, S12
The value of 12b is output to the matching unit 16. The inner product calculator 13 calculates the moving image P (t) and the basic figure S1.
2c, and has a function of calculating an inner product value S13 of one frame of the moving image P (t) and the basic graphic S12c. The output side of the inner product calculation unit 13 is connected to the moving image generation unit 17.

【0009】第2の相関行列生成部14は動画像P(t)
と同種の物体の静止画像Qを入力し、該静止画像Qから
列相関行列S14a及び行相間行列S14bを計算する
機能を有している。ここで、動画像P(t)を例えば魚
の秋刀魚とし、同種の物体の静止画像Qを魚の鯛とす
る。又、動画像P(t)及び静止画像Qは、形式の異な
る自動車等としてもよい。第2の相関行列生成部14の出
力側は、第2の基本図形計算部15に接続されている。第
2の基本図形計算部15は、列相関行列S14a及び行相
間行列S14bの固有ベクトルS15a,S15bをそ
れぞれ求め、これらの固有ベクトルS15a,S15b
から基本図形S15cを計算する機能を有している。固
有ベクトルS15a,S15bの値はマッチング部16に
出力され、基本図形S15cの値が動画像生成部17に出
力されるようになっている。マッチング部16は、固有ベ
クトルS12a,S12bと固有ベクトルS15a,S
15bとを用いて基本図形S12cと基本図形S15c
とのマッチングを行い、その結果を表わす信号(以下、
マッチング結果という)S16を生成する機能を有して
いる。マッチング部16は、動画像生成部17に接続されて
いる。動画像生成部17は、マッチング結果S16をもと
に、内積計算部13から入力された内積値S13と第2の
基本図形計算部15から入力された基本図形S15cから
人工動画像S17を生成する機能を有している。動画像
生成部17は、画像出力端子18に接続されている。
[0009] The second correlation matrix generator 14 generates a moving image P (t).
And a function of calculating a column correlation matrix S14a and a row-to-row matrix S14b from the still image Q. Here, the moving image P (t) is, for example, a fish sword fish, and the still image Q of the same kind of object is a fish bream. Further, the moving image P (t) and the still image Q may be automobiles of different types. The output side of the second correlation matrix generation unit 14 is connected to the second basic figure calculation unit 15. The second basic graphic calculation unit 15 obtains eigenvectors S15a and S15b of the column correlation matrix S14a and the row-to-row matrix S14b, respectively, and calculates these eigenvectors S15a and S15b.
Has the function of calculating the basic graphic S15c from The values of the eigenvectors S15a and S15b are output to the matching unit 16, and the value of the basic graphic S15c is output to the moving image generation unit 17. The matching unit 16 includes eigenvectors S12a and S12b and eigenvectors S15a and S15a
15b and the basic graphic S15c using the basic graphic S12c and the basic graphic S15c.
And a signal representing the result (hereinafter, referred to as
It has a function of generating S16 (referred to as a matching result). The matching unit 16 is connected to the moving image generation unit 17. The moving image generation unit 17 generates an artificial moving image S17 from the inner product value S13 input from the inner product calculation unit 13 and the basic graphic S15c input from the second basic graphic calculation unit 15, based on the matching result S16. Has a function. The moving image generator 17 is connected to the image output terminal 18.

【0010】図2は、特異値分解(Singular Value Dec
omposition、以下、SVDという)を説明する図であ
る。この図を用いて本実施形態に用いるSVDについて
説明する。まず、縦m画素及び横n画素の画像Pを想定
する。そして、画像Pをm行n列の行列とみなし、1画
素の画素値の値を行列の要素とする。次に、画像Pの列
間の関係を表わす列相関行列Rc及び行間の関係を表わ
す行相間行列Rrを次式(1)のように定義する。 Rc=PT P Rr=PPT ・・・(1) 但し、 T;転置 次に、列相間行列Rc(n×n)の固有値λi (i=1,2,3,
…,n) を絶対値の大きいものから順に並べ、同じ順に並
べた列相間行列Rcの正規化された固有ベクトルをv
[Wi ](v[ ]は、ベクトルを示す)とする。又、
行相間行列Rr(m×m)の固有値μj (j=1,2,3, …,m) を
絶対値の大きいものから順に並べ、同じ順に並べた行相
間行列Rrの正規化された固有ベクトルをv[Vj ]と
する。
FIG. 2 shows a singular value decomposition (Singular Value Dec
omposition (hereinafter, referred to as SVD). The SVD used in the present embodiment will be described with reference to FIG. First, an image P having m vertical pixels and n horizontal pixels is assumed. Then, the image P is regarded as a matrix of m rows and n columns, and the value of the pixel value of one pixel is set as an element of the matrix. Next, a column correlation matrix Rc representing the relationship between the columns of the image P and a row correlation matrix Rr representing the relationship between the rows are defined as in the following equation (1). Rc = P T P Rr = PP T (1) where T; transpose Next, the eigenvalue λ i (i = 1, 2, 3, 3) of the inter-column matrix Rc (n × n)
.., N) are arranged in descending order of absolute value, and the normalized eigenvectors of the column-to-phase matrix Rc arranged in the same order are represented by v
[W i ] (v [] indicates a vector). or,
The eigenvalues μ j (j = 1, 2, 3,..., M) of the row-to-phase matrix Rr (m × m) are arranged in ascending order of absolute value, and the normalized eigenvectors of the row-to-row matrix Rr arranged in the same order Is v [V j ].

【0011】固有ベクトルv[Wi ]はn次元の列ベク
トルでs(s≦n)種類のべクトルがあり、異なる固有
ベクトルは互いに直交する。又、固有ベクトルv
[Vj ]はm次元の列ベクトルでy(y≦m)種類のべ
クトルがあり、異なる固有ベクトルは互いに直交する。
固有値λi と固有値μj の間には次式(2)の関係があ
る。 λi =μi (i=1,2,3, …,r), λr+1 =…=λn =0, μr+1 =…=μm =0 但し、 r=rank(Rc)=rank(Rr)=rank(P) ・・・(2) 固有ベクトルv[Vi ],v[Wj ]を基底として使用
し、原画像Pを完全に再現すると次式(3)のようにな
る。
The eigenvector v [W i ] is an n-dimensional column vector having s (s ≦ n) types of vectors, and different eigenvectors are orthogonal to each other. Also, the eigenvector v
[V j ] is an m-dimensional column vector having y (y ≦ m) types of vectors, and different eigenvectors are orthogonal to each other.
Relationship of the following equation (2) between the eigenvalues λ i and the eigenvalues μ j. λ i = μ i (i = 1,2,3,..., r), λ r + 1 =... λ n = 0, μ r + 1 =... = μ m = 0 where r = rank (Rc) = Rank (Rr) = rank (P) (2) When the original image P is completely reproduced using the eigenvectors v [V i ] and v [W j ] as a basis, the following equation (3) is obtained. Become.

【0012】[0012]

【数1】 この式(3)を用いて画像Pの展開を最初のk項(k<
n)で打ち切ったときの展開結果Pと原画像Pとの2
乗誤差ε2 は、次式(4)のように表される。
(Equation 1) Using this equation (3), the expansion of the image P is calculated for the first k terms (k <
2 of expansion result P, a original image P when discontinued by n)
The squared error ε 2 is represented by the following equation (4).

【数2】 又、原画像Pから求めた基底である固有ベクトルv[V
i ],v[Wj ]を使用して他の画像Qを再現すると次
式(5)のように表される。
(Equation 2) Further, the eigenvector v [V, which is the basis obtained from the original image P,
When another image Q is reproduced using i ] and v [W j ], it is expressed as the following equation (5).

【0013】[0013]

【数3】 画像Pの基本図形Φijは、次式(6)で示される。基本
図形Φijはランク(rank)1の行列である。 Φij=v[Vi ]v[Wj T |Φij|=1 ・・・(6) ここで、式(5)のδijの数学的意味について考えてみ
る。
(Equation 3) The basic figure Φ ij of the image P is represented by the following equation (6). The basic figure Φ ij is a matrix of rank 1. Φ ij = v [V i ] v [W j ] T | Φ ij | = 1 (6) Here, the mathematical meaning of δ ij in equation (5) will be considered.

【0014】一般に、図形A(m×n画素)と図形B
(m×n画素)との内積は、ベクトルの場合の自然な拡
張として次式(7)のように定義される。
Generally, a figure A (m × n pixels) and a figure B
The inner product with (m × n pixels) is defined as the following equation (7) as a natural extension in the case of a vector.

【数4】 式(5)のδijを展開すると次式(8)のように表さ
れ、これよりδijは画像Pと基本図形Φijとの内積であ
ることがわかる。又、異なる基本図形同士の内積は0で
あり、直交することがわかる。
(Equation 4) When δ ij in Expression (5) is expanded, it is expressed as in the following Expression (8), from which it can be seen that δ ij is an inner product of the image P and the basic figure Φ ij . Also, the inner product between different basic figures is 0, which indicates that they are orthogonal.

【0015】[0015]

【数5】 又、式(5)を用いて基底を求めた画像Pを表わした場
合、次式(9)の関係が成り立つ。
(Equation 5) In addition, when the image P whose base is obtained by using Expression (5) is represented, the following Expression (9) holds.

【0016】[0016]

【数6】 又、式(5)を用いて画像Pとは異なる画像Qを完全に
再現することができるが、その時にはδijに式(9)の
関係は成り立たない。つまり、基本図形を作成した画像
以外を特異値分解で表わすときには、一般にはm×n個
の基本図形が必要である。次に、図1の各処理(A)〜
(E)の動作を説明する。
(Equation 6) Further, an image Q different from the image P can be completely reproduced by using the expression (5), but at that time, the relationship of the expression (9) does not hold for δ ij . That is, when singular value decomposition is used to represent an image other than the image in which the basic figure is created, m × n basic figures are generally required. Next, each process (A) to FIG.
The operation of (E) will be described.

【0017】(A) 第1の基底生成処理 第1の相間行列生成部11は、例えば図2に示すような縦
m画素及び横n画素の画像Pを入力し、列相間行列Rc
(n×n)及び行相間行列Rr(m×m)を計算し、こ
れらの行列の値S11a,S11bを第1の基本図形計
算部12に出力する。第1の基本図形計算部12は、列相関
行列Rc及び行相間行列Rrについて固有ベクトルをそ
れぞれ求める。そして、第1の基本図形計算部12は式
(6)を用いて基本図形Φijを計算し、固有ベクトルの
値S12a,S12bをマッチング部16に出力し、かつ
基本図形Φijの値S12cを内積計算部13に出力する。
この固有ベクトルS12a,S12b又は基本図形Φij
の値S12cが第1の基底である。固有ベクトルの数は
列相関行列Rc及び行相間行列Rrのランクによるが、
列相関行列Rcから求まる固有ベクトルはn次元のべク
トルが最大でn個求まり、行相間行列Rrから求まる固
有ベクトルはm次元のべクトルが最大でm個求まる。
(A) First Basis Generation Processing The first inter-phase matrix generation unit 11 receives, for example, an image P having m vertical pixels and n horizontal pixels as shown in FIG.
(N × n) and the row-to-row matrix Rr (m × m) are calculated, and the values S11a and S11b of these matrices are output to the first basic figure calculation unit 12. The first basic figure calculation unit 12 obtains eigenvectors for the column correlation matrix Rc and the row-to-row matrix Rr, respectively. Then, the first basic figure calculation unit 12 calculates the basic figure Φ ij using Expression (6), outputs the values S12a and S12b of the eigenvectors to the matching unit 16, and calculates the inner product of the value S12c of the basic figure Φ ij Output to the calculation unit 13.
This eigenvector S12a, S12b or the basic figure Φ ij
Is the first base. The number of eigenvectors depends on the rank of the column correlation matrix Rc and the row-to-row matrix Rr,
As for the eigenvectors obtained from the column correlation matrix Rc, at most n n-dimensional vectors are obtained, and as the eigenvectors obtained from the row-to-row matrix Rr, at most m m-dimensional vectors are obtained.

【0018】(B) 内積値算出処理 内積計算部13は連続した動画像P(t)を入力し、第1
の基本図形計算部12から入力された基本図形Φijの値S
12cと動画像P(t)の全てのフレームとの内積値を
式(7)を用いて計算し、これらの内積値S13を動画
像生成部17に出力する。 (C) 第2の基底生成処理 第2の相関行列生成部14は静止画像Qを入力し、この静
止画像Qについて列相間行列S14a及び行相間行列S
14bを計算し、第2の基本図形計算部15ヘ出力する。
第2の基本図形計算部15は、列相間行列S14a及び行
相間行列S14bについて固有ベクトルをそれぞれ計算
する。そして、第2の基本図形計算部15は、式(6)を
用いて基本図形Φ uv(u=1,2,3,…,m v=1,2,3,
…,n)を計算し、固有ベクトルの値S15a,S15b
をマッチング部16に出力し、かつ基本図形Φ uvの値1
5cを動画像生成部17に出力する。この固有ベクトルS
15a,S15b又は基本図形Φ uvの値S15cが第
2の基底である。
(B) Inner Product Value Calculation Processing The inner product calculator 13 receives a continuous moving image P (t) and
Of the basic figure Φ ij input from the basic figure calculation unit 12
An inner product value of 12c and all frames of the moving image P (t) is calculated using Expression (7), and the inner product value S13 is output to the moving image generator 17. (C) Second Basis Generation Process The second correlation matrix generation unit 14 receives a still image Q, and calculates a matrix S14a and a matrix S between rows for the still image Q.
14b is calculated and output to the second basic figure calculation unit 15.
The second basic figure calculation unit 15 calculates eigenvectors for the inter-column matrix S14a and the inter-row matrix S14b. Then, the second basic figure calculating unit 15 calculates the basic figures Φ , uv (u = 1, 2, 3,..., M v = 1, 2, 3,
.., N) and calculate eigenvector values S15a, S15b
Is output to the matching unit 16 and the value 1 of the basic figures Φ and uv
5c is output to the moving image generator 17. This eigenvector S
15a and S15b or the values S15c of the basic figures Φ and uv are the second bases.

【0019】(D) マッチング処理 マッチング部16は、基本図形Φ uvについて、第1の
基本図形計算部12が動画像P(t)の例えば最初の1フ
レームから求めた基本図形Φijの中から最もユークリッ
ド距離の近い基本図形Φijを求めるマッチングを行う
が、このマッチングを基本図形Φijと基本図形Φ uv
ついて直接行うと、その演算量は膨大なものになるの
で、本実施形態では、次のようにして基本図形同士のマ
ッチングを行う。即ち、基本図形Φijと基本図形Φ uv
のユークリッド距離dの2乗d2 は次式(10)のように
表わされる。 d2 =‖Φij−Φ uv2 =(Φij−Φ uv)・(Φij−Φ uv) =‖Φij2 +‖Φ uv2 −2Φij・Φ uv≧0 ・・・(10) この式(10)において、‖Φij‖=1かつ‖Φ uv
=1なので、ユークリッド距離dの2乗d2 が最小にな
る場合の基本図形Φijと基本図形Φ uvの組み合わせを
用いると、基本図形Φijと基本図形Φ uvの内積値Φij
・Φ uvが最大になることが分かる。基本図形Φijと基
本図形Φ uvは、それぞれ列相間行列と行相間行列との
各固有ベクトルの積なので、内積値Φij・Φ uvを展開
すると次式(11)のようになる。 Φij・Φ uv =(v[Vi ]v[Wj T )・(v[Vu ]v[Wv T ) =(v[Vi ]v[Vu ])・(v[Wj T v[Wv T ) =(v1iv 1u + v2iv 2u +…+ vmiv mu ) (w1jw 1v + w2jw 2v+…+ wnjw nv) ・・・(11) このように、マッチング部16がユークリッド距離dの2
乗d2 が最小となる基本図形Φijと基本図形Φ uvの組
み合わせを見つけることは、式(11)用いて内積値Φ
ij・Φ uvが最大となる基本図形Φ uvに対する基本図
形Φijの組み合わせを見つけることに等しい。
(D) Matching Processing The matching unit 16 calculates the basic figures Φ ij and uv from the basic figure Φ ij obtained by the first basic figure calculation unit 12 from, for example, the first frame of the moving image P (t). Is performed to obtain the basic figure Φ ij having the closest Euclidean distance from the matrix. However, if this matching is directly performed on the basic figure Φ ij and the basic figures Φ 1 and uv , the amount of calculation becomes enormous. Then, matching between basic figures is performed as follows. That is, the basic figures Φ ij and the basic figures Φ and uv
The squared d 2 of the Euclidean distance d is expressed by the following equation (10). d 2 = ‖Φ ij −Φ , uv2 = (Φ ij −Φ , uv ) · (Φ ij −Φ , uv ) = ‖Φ ij2 + ‖Φ , uv2 -2Φ ij · Φ , uv ≧ 0 (10) In this equation (10), {Φ ij } = 1 and {Φ , uv }
= 1, and therefore the Euclidean distance squared basic figure [Phi ij and basic figures when d 2 is minimum of d [Phi, when using a combination of uv, basic shapes [Phi ij and basic figures [Phi, uv inner product value [Phi ij of
・ It can be seen that Φ and uv are maximized. The basic figure Φ ij and the basic figures Φ and uv are the products of the respective eigenvectors of the column interphase matrix and the row interphase matrix, respectively. Therefore, when the inner product values Φ ij · Φ and uv are expanded, the following equation (11) is obtained. Φ ij · Φ , uv = (v [V i ] v [W j ] T ) · (v [V u , ] v [W v , ] T ) = (v [V i ] v [V u , ]) · (v [W j] T v [W v,] T) = (v 1i v 1u, + v 2i v 2u, + ... + v mi v mu,) (w 1j w, 1v + w 2j w, 2v +... + W nj w , nv ) (11) Thus, the matching unit 16 determines that the Euclidean distance d is 2
Finding the combination of the basic figure Φ ij and the basic figures Φ 1 , uv that minimizes the power d 2 is performed by using the inner product value Φ using equation (11).
ij · Φ, uv is the maximum basic figures [Phi, equivalent to finding the combination of basic figures [Phi ij for uv.

【0020】ここで、マッチング部16が基本図形Φij
基本図形Φ uvのユークリッド距離の2乗d2 の計算を
基本図形Φijと基本図形Φ uvの要素の直接の展開によ
り行う場合、ユークリッド距離dの2乗d2 の展開式は
次式(12)のようになる。基本図形Φij,Φ uvのサイ
ズを例えばm=100,n=100とすると、式(12)
では1回のマッチングでm×n=10000 回の乗算が必要
である。一方、同じ画像サイズで基本図形Φijと基本図
形Φ uvのマッチングを式(11)を用いて行う場合、1
回のマッチングでm+n+1=201回の乗算を行うこ
とになる。従って、サイズがm=100,n=100の
基本図形の場合、乗算量が約1/50になるが、この差
は画像サイズが大きくなるほど顕著になる。
[0020] Here, if the matching unit 16 performs the direct expansion of the square calculating a basic figure [Phi ij and basic figures [Phi of d 2, uv elements of Euclidean distances basic figure [Phi ij and basic figures [Phi, uv , The expansion formula of the square d 2 of the Euclidean distance d is as shown in the following equation (12). If the sizes of the basic figures Φ ij , Φ , and uv are, for example, m = 100 and n = 100, equation (12)
In this case, m × n = 10000 multiplications are required for one matching. On the other hand, when matching the basic figure Φ ij with the basic figures Φ and uv using the same image size by using equation (11),
In this case, m + n + 1 = 201 multiplications are performed. Therefore, in the case of a basic figure having a size of m = 100 and n = 100, the amount of multiplication becomes about 1/50, but this difference becomes more pronounced as the image size increases.

【0021】[0021]

【数7】 式(11)を用いて基本図形同士の内積値が最大となる条
件を求めることにより、ユークリッド距離dの2乗d2
が最小となる条件を求めてマッチングを行うことによ
り、マッチングが高速に行われる。マッチング部16は基
本図形Φ uvとユークリッド距離dの最も近い基本図形
Φijを検出し、その組み合わせを表わす信号(即ち、マ
ッチング結果S16)を動画像生成部17に出力する。
(Equation 7) By obtaining the condition for maximizing the inner product value between the basic figures using equation (11), the square d 2 of the Euclidean distance d is obtained.
The matching is performed at high speed by performing the matching by finding the condition that minimizes. The matching unit 16 detects the basic figure Φ ij, which is closest to the basic figure Φ 1 , uv and the Euclidean distance d, and outputs a signal representing the combination (ie, the matching result S 16) to the moving image generation unit 17.

【0022】(E) 動画像生成処理 動画像生成部17は、マッチング結果S16に基づいて基
本図形Φ uvを内積計算部13で計算された対応する内積
値の値S13だけ実数倍し、それらのべクトルの和を計
算して人工動画像S17を生成する。具体的には次のよ
うに行う。図3は、動画像生成部17の動作を説明する図
である。入力する画像のサイズを例えばm=3,n=4
とする。基本図形Φijは、3×4=12種類になる。内
積計算部13は、入力された動画像P(t)の1フレーム
毎に12種類の基本図形Φijとの内積を求めるので、1枚
のフレームについて12個の内積ができる。つまり、12個
の内積はフレーム毎に変化するので、12個の時間の関数
ができる。時間tにおける動画像P(t)は式(5)を
用いて次式(13)のように表される。
(E) Moving Image Generation Processing The moving image generation unit 17 multiplies the basic figures Φ and uv by the corresponding inner product value S13 calculated by the inner product calculation unit 13 based on the matching result S16, by a real number. And an artificial moving image S17 is generated. Specifically, it is performed as follows. FIG. 3 is a diagram illustrating the operation of the moving image generation unit 17. The size of the input image is, for example, m = 3, n = 4
And There are 3 × 4 = 12 basic figures Φ ij . The inner product calculation unit 13 obtains the inner product of the input moving image P (t) with the twelve basic figures Φ ij for each frame, so that 12 inner products can be formed for one frame. That is, since the 12 dot products change from frame to frame, there are 12 time functions. The moving image P (t) at the time t is expressed by the following equation (13) using the equation (5).

【0023】[0023]

【数8】 マッチング部16において、基本図形Φijと基本図形Φ
uvとのマッチング結果S16が例えば次式(14)のよう
に対応づけられたとき、動画生成部17は、例えば鯛の静
止画像Qを次式(15)を用いて鯛の動画像である人工動
画像Q(t)に変換し、画像出力端子18に出力する。 Φ 11=Φ34,Φ 12=Φ33,Φ 13=Φ32,Φ 14=Φ31, Φ 21=Φ24,Φ 22=Φ23,Φ 23=Φ22,Φ 24=Φ21, Φ 31=Φ14,Φ 32=Φ13,Φ 33=Φ12,Φ 34=Φ11 ・・・(14) Q(t)=λ11Φ 34+λ12Φ 33+λ13Φ 32+λ14Φ 31 +λ21Φ 24+λ22Φ 23+λ23Φ 22+λ24Φ 21 +λ31Φ 14+λ32Φ 13+λ33Φ 12+λ34Φ 11 ・・・(15) 以上のように、この第1の実施形態では、次の(i)〜
(iii) のような利点がある。
(Equation 8) In the matching unit 16, the basic figure Φ ij and the basic figure Φ ,
When the matching result S16 with uv is associated with, for example, the following equation (14), the moving image generating unit 17 converts the still image Q of the bream into an artificial image that is a moving image of the bream using the following equation (15). The image is converted into a moving image Q (t) and output to the image output terminal 18. Φ, 11 = Φ 34, Φ , 12 = Φ 33, Φ, 13 = Φ 32, Φ, 14 = Φ 31, Φ, 21 = Φ 24, Φ, 22 = Φ 23, Φ, 23 = Φ 22, Φ , 24 = Φ 21 , Φ , 31 = Φ 14 , Φ , 32 = Φ 13 , Φ , 33 = Φ 12 , Φ , 34 = Φ 11 ... (14) Q (t) = λ 11 Φ , 34 + λ 12 Φ , 33 + λ 13 Φ , 32 + λ 14 Φ , 31 + λ 21 Φ , 24 + λ 22 Φ , 23 + λ 23 Φ , 22 + λ 24 Φ , 21 + λ 31 Φ , 14 + λ 32 Φ , 13 + λ 33 Φ , 12 + λ 34 Φ , 11 ... (15) As described above, in the first embodiment, the following (i) to (11)
There are advantages such as (iii).

【0024】(i) 動画像P(t)の1フレームから
特異値分解の基底である基本図形Φijを求め、該基本図
形Φijと動画像P(t)との内積値S13を計算し、静
止画像Qから特異値分解の基底を求め、動画像の基底と
マッチングをとり、静止画像Qの基底に動画像から求め
た内積値S13を画素毎に掛けてその和を計算すること
により、静止画像Qから人工動画像S17を生成するよ
うにしている。そのため、オブジェクトの種類に無関係
に共通の方法で静止画像Qから人工動画像S17を生成
できる。 (ii) 本実施形態では、動画像P(t)(t=0)から
求めた基本図形Φijと静止画像Qから求めた基本図形Φ
uvとのユークリッド距離dを用いてマッチングを行っ
ているが、基本図形Φij,Φ uvの要素からユークリッ
ド距離dの最小値を直接計算せず、基本図形Φij,Φ
uvを分解した固有ベクトルの要素を用いて基本図形
Φij,Φ uv同士の内積を計算し、その内積値が最大と
なる場合の組み合わせを検出することにより、ユークリ
ッド距離dの2乗d2 が最小となる条件を見つけてい
る。この方法により、基本図形Φij,Φ uvのマッチン
グを高速化できる。 (iii) 画像生成部17で行う計算は、入力された基本図
形Φ uvを実数倍し、その和を求める単純な計算であ
る。従って、画像生成部17は、人工動画像S17を高速
に生成できる。
(I) A basic figure Φ ij which is a basis of singular value decomposition is obtained from one frame of the moving picture P (t), and an inner product value S13 of the basic figure Φ ij and the moving picture P (t) is calculated. By calculating the basis of the singular value decomposition from the still image Q, performing matching with the basis of the moving image, multiplying the basis of the still image Q by the inner product value S13 obtained from the moving image for each pixel, and calculating the sum thereof, The artificial moving image S17 is generated from the still image Q. Therefore, the artificial moving image S17 can be generated from the still image Q by a common method regardless of the type of the object. (ii) In the present embodiment, the basic figure Φ ij obtained from the moving image P (t) (t = 0) and the basic figure Φ obtained from the still image Q
Although performing matching using the Euclidean distance d between the uv, basic figures [Phi ij, [Phi, without directly calculating the minimum value of the Euclidean distance d from the elements of uv, basic figures [Phi ij, [Phi,
By calculating the inner product of the basic figures Φ ij , Φ , and uv using the elements of the eigenvectors obtained by decomposing uv , and detecting the combination where the inner product value is the maximum, the square d 2 of the Euclidean distance d is calculated. Finding the minimum condition. This method can speed up the matching of the basic figures Φ ij , Φ , and uv . (iii) The calculation performed by the image generation unit 17 is a simple calculation for multiplying the input basic figures Φ and uv by a real number and calculating the sum thereof. Therefore, the image generation unit 17 can generate the artificial moving image S17 at high speed.

【0025】第2の実施形態 図4は、本発明の第2の実施形態の動画像生成方法を実
施するための動画像生成装置の構成図であり、第1の実
施形態を示す図1中の要素と共通の要素には共通の符号
が付されている。この動画像生成装置では、図1と同様
の第1の相関行列生成部11、第1の基本図形計算部12、
内積計算部13、第2の相関行列生成部14、第2の基本図
形計算部15、及びマッチング部16を備え、図1中の動画
像生成部17がデータ出力部19に変更されている。そ
してこれらが、地点Aに設置されている。又、マッチン
グ部16は、データ出力部19に接続されると共に、内
積計算部13にも接続されている。更に、地点Aと離れ
た地点Bに動画像生成部17が設置され、データ出力部
19と例えば電話回線等の通信網Nを介して接続されて
いる。データ出力部19は、内積値S13と、第2の基
本図形計算部15から入力された基本図形S15cの一
部と、マッチング部16からのマッチング結果S16と
を動画像生成部17に出力する機能を有している。動画
像生成部17は、データ出力部19から入力された基本
図形と対応する内積値から人工動画像S17を生成して
画像出力端子18に出力する機能を有している。他は、
図1と同様の構成である。
Second Embodiment FIG. 4 is a block diagram of a moving image generating apparatus for executing a moving image generating method according to a second embodiment of the present invention. FIG. 1 shows the first embodiment. The same reference numerals are given to the elements common to the elements described above. In this moving image generation apparatus, a first correlation matrix generation unit 11, a first basic figure calculation unit 12,
It includes an inner product calculation unit 13, a second correlation matrix generation unit 14, a second basic figure calculation unit 15, and a matching unit 16, and the moving image generation unit 17 in FIG. These are installed at point A. The matching section 16 is connected to the data output section 19 and also to the inner product calculation section 13. Further, a moving image generating unit 17 is installed at a point B remote from the point A, and is connected to the data output unit 19 via a communication network N such as a telephone line. The data output unit 19 outputs the inner product value S13, a part of the basic graphic S15c input from the second basic graphic calculation unit 15, and the matching result S16 from the matching unit 16 to the moving image generation unit 17. have. The moving image generation unit 17 has a function of generating an artificial moving image S17 from the inner product value corresponding to the basic figure input from the data output unit 19 and outputting the generated artificial moving image S17 to the image output terminal 18. Others
The configuration is similar to that of FIG.

【0026】次に、図4の各処理(A)〜(E)の動作
を説明する。 (A) 第1の基底生成処理 第1の相関行列計算部11には、動画像P(t)のうち
の例えば最初の1フレームP(0)が入力される。そし
て、第1の相関行列生成部11は式(1)を用いて列相
間行列Rcと行相間行列Rrとを計算し、これらの行列
の値を第1の基本図形計算部12に出力する。第1の基
本図形計算部12は、第1の実施形態と同様に相関行列
生成部11から入力された列相間行列Rcと行相関行列
Rrについて固有ベクトルを求め、基本図形Φij(i=1,
2,3, …m j=1,2,3, …,n) を計算し、固有ベクトルの
値をマッチング部16に出力し、基本図形Φijの値を内
積計算部13に出力する。 (B) 第2の基底生成処理 第2の相関行列生成部14は静止画像Qを入力し、この
静止画像Qについて列相間行列と行相間行列を計算し、
第2の基本図形計算部15ヘ出力する。第2の基本図形
計算部15は、第2の相関行列計算部24から入力された
列相間行列と行相間行列について各固有ベクトルS15
a,S15bを求め、かつ基本図形Φ uu(u=1,2,3,
…,s s=rankQ) を計算し、固有ベクトルS15a,S1
5bの値をマッチング部16に出力し、基本図形Φ uu
の値S15cをデータ出力部19に出力する。この基本
図形Φ uuの値S15cは、行番号と列番号とが等しい
ものになっている。
Next, the operation of each of the processes (A) to (E) in FIG. 4 will be described. (A) First Base Generation Processing The first correlation matrix calculation unit 11 receives, for example, the first frame P (0) of the moving image P (t). Then, the first correlation matrix generation unit 11 calculates the inter-column matrix Rc and the inter-row matrix Rr using Expression (1), and outputs the values of these matrices to the first basic graphic calculation unit 12. The first basic figure calculation unit 12 obtains eigenvectors for the column inter-phase matrix Rc and the row correlation matrix Rr input from the correlation matrix generation unit 11 as in the first embodiment, and obtains the basic figure Φ ij (i = 1,
2, 3,..., Mj = 1, 2, 3,..., N), outputs the value of the eigenvector to the matching unit 16, and outputs the value of the basic figure Φ ij to the inner product calculation unit 13. (B) Second Basis Generation Process The second correlation matrix generation unit 14 receives a still image Q, calculates a matrix between columns and a matrix between rows for the still image Q,
The data is output to the second basic graphic calculation unit 15. The second basic graphic calculation unit 15 calculates the eigenvectors S15 for the column inter-phase matrix and the row inter-phase matrix input from the second correlation matrix calculation unit 24.
a, S15b, and the basic figures Φ , uu (u = 1, 2, 3,
.., Ss = rankQ) and calculate the eigenvectors S15a, S1
5b is output to the matching unit 16, and the basic figures Φ , uu
Is output to the data output unit 19. The values S15c of the basic figures Φ and uu have the same row number and column number.

【0027】(C) マッチング処理 マッチング部16は、第2の基本図形計算部15で計算
され基本図形Φ uuの値S15cについて、第1の基本
図形計算部12で計算された基本図形Φij(i=1,2,3, …
m j=1,2,3, …,n) の中から最もユークリッド距離が近
いものを検出し、その結果を表わすマッチング結果S1
6を内積計算部13とデータ出力部19とに出力する。
マッチング部16のマッチングの計算は、第1の実施形
態と同様に式(11)を用いて基本図形の内積の最大値の
組み合わせを検出することによって行う。 (D) 内積値算出処理 内積計算部13は、連続した動画像P(t)を入力し、
マッチング結果S16に基づき、基本図形Φ uuと最も
ユークリッド距離の近い第1の基本図形計算部12から
出力された基本図形Φijと動画像P(t)の1フレーム
との内積を計算し、この結果(即ち、内積値S13)を
データ出力部19に出力する。
(C) Matching Processing The matching unit 16 calculates the basic figure Φ ij calculated by the first basic figure calculation unit 12 for the values S15c of the basic figures Φ and uu calculated by the second basic figure calculation unit 15. (i = 1,2,3,…
mj = 1,2,3,..., n), the one having the closest Euclidean distance is detected, and a matching result S1 representing the result is detected.
6 is output to the inner product calculation unit 13 and the data output unit 19.
The calculation of the matching by the matching unit 16 is performed by detecting the combination of the maximum value of the inner product of the basic figures using Expression (11) as in the first embodiment. (D) Inner Product Value Calculation Process The inner product calculation unit 13 inputs a continuous moving image P (t),
Based on the matching result S16, an inner product of the basic figure Φ ij output from the first basic figure calculation unit 12 having the closest Euclidean distance to the basic figures Φ 1 and uu and one frame of the moving image P (t) is calculated. The result (that is, the inner product value S13) is output to the data output unit 19.

【0028】(E) 動画像生成処理 データ出力部19は、第2の基本図形計算部15で計算
された基本図形Φ uuと、内積計算部13で計算された
内積値S13を通信網Nを介して地点Bの動画像生成部
17に出力する。この際、動画像の作成に使用する基本
図形Φ uuは全てのフレームについて共通して使用する
ので、データ出力部19は地点Bに基本図形Φ uuのデ
ータを1回だけ送出すればよい。又、データ出力部19
は、基本図形Φ uuに最もユークリッド距離dの近い基
本図形Φijと動画像P(t)との内積値を1フレーム毎
に動画像生成部17に出力する。動画像生成部17は、
地点Aから送られた基本図形Φ uuに対し、対応する内
積値S13の値だけ実数倍し、それらの和を人工動画像
S17として出力端子18に出力する。本実施形態にお
いて、第2の基本図形計算部15から出力される基本図
形Φ uuを行番号と列番号の等しいものに限定できる理
由は以下の通りである。式(3)と式(5)とを比較す
ると、基本図形を求めた画像そのものを特異値分解で表
わす場合、別の画像を同じ基本図形を用いて表わす場合
に比べて、少ない数の基本図形を使用すれば済むことが
わかる。例えば、第2の相関行列生成部14に入力され
る静止画像Qのサイズが縦3画素×横4画素とする。こ
のとき、図形Q(t=0) は次式(16)のように表わされ
る。
(E) Moving Image Generation Processing The data output unit 19 transmits the basic figures Φ and uu calculated by the second basic figure calculation unit 15 and the inner product value S13 calculated by the inner product calculation unit 13 to the communication network N. Is output to the moving image generation unit 17 at the point B via the. At this time, since the basic figures Φ and uu used for creating a moving image are used in common for all frames, the data output unit 19 needs to send the data of the basic figures Φ and uu to the point B only once. . The data output unit 19
Outputs the inner product value of the basic figure Φ ij whose Euclidean distance d is closest to the basic figures Φ 1 and uu and the moving picture P (t) to the moving picture generating unit 17 for each frame. The moving image generation unit 17
The basic figures Φ and uu sent from the point A are multiplied by a real number by the value of the corresponding inner product value S13, and the sum thereof is output to the output terminal 18 as an artificial moving image S17. In the present embodiment, the reason why the basic figures Φ and uu output from the second basic figure calculation unit 15 can be limited to those having the same row number and column number is as follows. Comparing Equations (3) and (5), it can be seen that a smaller number of basic figures are obtained when the image from which the basic figure is obtained is represented by the singular value decomposition than when another image is represented using the same basic figure. It can be seen that it is sufficient to use. For example, it is assumed that the size of the still image Q input to the second correlation matrix generation unit 14 is 3 vertical pixels × 4 horizontal pixels. At this time, the figure Q (t = 0) is represented by the following equation (16).

【0029】[0029]

【数9】 但し、 v[Vi ];静止画像Qの行相間行列の固有ベクトル v[Wi ];静止画像Qの列相間行列の固有ベクトル 又、任意の時間tにおける図形Q(t) は次式(17)のQ
(t) に示すように近似できる。
(Equation 9) However, v [V i,]; eigenvectors v row phase between the matrix of the still images Q [W i,]; eigenvectors column interphase matrix of still images Q also figure Q (t) is at any time t following equation ( 17) Q
, (T) can be approximated.

【0030】[0030]

【数10】 マッチング部16において、基本図形Φ iiと動画像P
(t=0) から求めた基本図形Φijのマッチングが、次式
(18)に示すようにとれたとする。 Ф 11=Ф12 Ф 22=Ф21 Ф 33=Ф32 ・・・(18) 動画像P(t)の任意の時間の1フレームと基本図形の
Φijとの内積値をλij(t) とすると、式(17)及び式
(18)から動画像P(t)の動きをもとにして作成した
人工動画像Q(t)は、次式(19)に示すようになる。 Q(t)=λ12(t)Ф 11+λ21(t)Ф 22+λ32(t)Ф 33 ・・・(19) 本実施形態では、式(19)の計算を動画像生成部17で
行っている。
(Equation 10) In the matching unit 16, the basic figures Φ and ii and the moving image P
It is assumed that the matching of the basic figure Φ ij obtained from (t = 0) is obtained as shown in the following equation (18). Ф, 11 = Ф 12 Ф, 22 = Ф 21 Ф, 33 = Ф 32 ··· (18) the inner product value between [Phi ij of 1 frame and basic shapes any time lambda ij of the moving picture P (t) Assuming that (t), the artificial moving image Q (t) created based on the motion of the moving image P (t) from Expressions (17) and (18) is as shown in the following Expression (19). . Q (t) = λ 12 (t) Ф , 11 + λ 21 (t) Ф , 22 + λ 32 (t) Ф , 33 (19) In the present embodiment, the calculation of Expression (19) is performed to generate a moving image. This is performed in the section 17.

【0031】即ち、第2の基本図形計算部15は、該第
2の基本図形計算部15で計算された基本図形Φ
uv(u=1,2,3,…,s v=1,2,3,…,s)のうち、u=
vの条件を満たす基本図形Φ uuのみを選んで出力す
る。又、内積計算部13は、基本図形Φ uuとマッチン
グのとれた基本図形Φijのみの内積値S13を計算し、
動画像生成部17が式(19)を用いて人工動画像Q
(t)を生成している。以上のように、この第2の実施
形態では、次のような利点がある。特異値分解を用いて
動画像P(t)から基本図形Φijと動画像P(t)との
内積値S13を計算し、静止画像Qから求めた基本図形
Φ uuを求め、離れた地点Bに内積値S13と静止画像
Qの基本図形Φ uuを伝送し、静止画像Qから人工動画
像Q(t)を生成している。このため、使用する基本図
形Φ uvをu=vの条件を満たす基本図形Φ uuのみに
限定することによって動画像P(t)と基本図形Φ uu
との内積の計算に要する時間、画像データの伝送時間、
及び離れた地点Bにおける人工動画像Q(t)の生成に
要する時間の短縮を図ることができる。このとき、行番
号と列番号の等しい基本図形を使用することにより、デ
ータ量の減少による画質の劣化を最小限に抑えることが
できる。
That is, the second basic figure calculating section 15 calculates the basic figure Φ calculated by the second basic figure calculating section 15.
, Uv (u = 1,2,3, ..., s v = 1,2,3, ..., s), u =
Only the basic figures Φ and uu satisfying the condition of v are selected and output. Further, the inner product calculation unit 13 calculates the basic figures [Phi, uu and inner product value S13 in balanced only basic figures [Phi ij matching,
The moving image generation unit 17 calculates the artificial moving image Q using Expression (19).
(T). As described above, the second embodiment has the following advantages. The singular value decomposition is used to calculate the inner product value S13 of the basic figure Φ ij and the moving picture P (t) from the moving picture P (t), and the basic figures Φ and uu obtained from the still picture Q are obtained. B, the inner product value S13 and the basic figures Φ , uu of the still image Q are transmitted, and the artificial image Q (t) is generated from the still image Q. Therefore, by limiting the basic figures Φ and uv used to only the basic figures Φ and uu satisfying the condition of u = v, the moving picture P (t) and the basic figures Φ and uu
The time required to calculate the inner product with
In addition, it is possible to reduce the time required to generate the artificial moving image Q (t) at the distant point B. At this time, by using a basic figure having the same row number and column number, deterioration in image quality due to a decrease in data amount can be minimized.

【0032】第3の実施形態 図5は、本発明の第3の実施形態の動画像生成方法を実
施するための動画像生成装置の構成図である。この動画
像生成装置は、相関行列生成部21、基本図形計算部2
2、マッチング部23、内積計算部24、動画像生成部
25、及び画像出力端子26を備えている。相関行列生
成部21は静止画像Qを入力し、この静止画像Qから列
相間行列S21aと行相間行列S21bとを計算する機
能を有している。相関行列生成部21は、基本図形計算
部22に接続されている。基本図形計算部22は、基本
図形計算部22は相関行列生成部21から入力された列
相間行列S21aと行相間行列S21bから固有ベクト
ルを求め、かつ列相間行列S21aと行相間行列S21
bとの積から基本図形の値S22を計算する機能を有し
ている。基本図形計算部22は、マッチング部23と動
画像生成部25に接続されている。
Third Embodiment FIG. 5 is a block diagram of a moving image generating apparatus for implementing a moving image generating method according to a third embodiment of the present invention. This moving image generation device includes a correlation matrix generation unit 21, a basic graphic calculation unit 2,
2, a matching unit 23, an inner product calculating unit 24, a moving image generating unit 25, and an image output terminal 26. The correlation matrix generation unit 21 has a function of receiving the still image Q and calculating a matrix S21a and a matrix S21b from the still image Q. The correlation matrix generator 21 is connected to the basic figure calculator 22. The basic figure calculation unit 22 calculates an eigenvector from the column-to-phase matrix S21a and the row-to-row matrix S21b input from the correlation matrix generation unit 21, and calculates the eigenvector from the column-to-phase matrix S21a and the row-to-row matrix S21.
It has a function of calculating the value S22 of the basic figure from the product of the value b. The basic figure calculation unit 22 is connected to the matching unit 23 and the moving image generation unit 25.

【0033】マッチング部23は、離散コサイン変換
(以下、DCTという)の基底のうちの基本図形計算部
22から入力された基本図形の値S22と最もユークリ
ッド距離の近い基底を検出し、その検出結果を示すマッ
チング結果S23を生成する機能を有している。マッチ
ング部23は、動画像生成部25に接続されている。内
積計算部24は動画像P(t)を入力し、動画像P
(t)の1フレームとDCTの各々の基底との内積値S
24を計算する機能を有している。内積計算部24は、
動画像生成部25に接続されている。動画像生成部25
は、マッチング結果S23に基づき、基本図形計算部2
2から入力された基本図形の値S22に対応する内積値
S24を掛け合わせ、その和を計算する機能を有してい
る。動画像生成部25は、画像出力端子26に接続され
ている。次に、図5の各処理(A)〜(D)の動作を説
明する。
The matching unit 23 detects a base having the closest Euclidean distance to the value S22 of the basic figure input from the basic figure calculation unit 22 among the bases of the discrete cosine transform (hereinafter referred to as DCT), and the detection result Is generated. The matching unit 23 is connected to the moving image generation unit 25. The inner product calculation unit 24 receives the moving image P (t),
Inner product value S of one frame of (t) and each base of DCT
24 is provided. The inner product calculation unit 24
It is connected to the moving image generator 25. Moving image generator 25
Is based on the matching result S23.
It has a function of multiplying the value S22 of the basic figure input from 2 by the inner product value S24 corresponding to the value and calculating the sum. The moving image generator 25 is connected to the image output terminal 26. Next, the operation of each of the processes (A) to (D) in FIG. 5 will be described.

【0034】(A) 基底生成処理 相関行列生成部21は静止画像Qを入力し、式(1)に
基づいて列相間行列S21aと行相間行列S21bを計
算し、基本図形計算部22に出力する。基本図形計算部
22は入力された列相間行列S21aと行相間行列S2
1bについて各固有ベクトルをそれぞれ求め、かつ式
(6)を用いて第2の基底である基本図形Φij(i=1,2,
3, …m j=1,2,3, …,n) を計算し、基本図形Φijの値
S22をマッチング部23と動画像生成部25とに出力
する。尚、基本図形計算部22において固有ベクトルを
求める場合、例えばJacobi法等が用いられる。 (B) マッチング処理 マッチング部23には静止画像Qと同じサイズのDCT
の基底(即ち、第1の基底)が予め用意されており、入
力された基本図形の各々についてユークリッド距離が最
小となるDCTの基底を検出し、この対応を表わすマッ
チング結果S23を動画像生成部25に出力する。
(A) Basis Generation Processing The correlation matrix generation unit 21 receives a still image Q, calculates a column interphase matrix S21a and a row interphase matrix S21b based on equation (1), and outputs it to the basic figure calculation unit 22. . The basic figure calculation unit 22 receives the input column inter-phase matrix S21a and the row inter-phase matrix S2.
1b, each eigenvector is obtained, and the basic figure Φ ij (i = 1,2,
3,... Mj = 1, 2, 3,..., N), and outputs the value S22 of the basic figure Φ ij to the matching unit 23 and the moving image generation unit 25. When the eigenvector is obtained in the basic figure calculation unit 22, for example, the Jacobi method or the like is used. (B) Matching processing The matching unit 23 has a DCT of the same size as the still image Q.
(That is, a first base) is prepared in advance, a DCT base that minimizes the Euclidean distance is detected for each of the input basic figures, and a matching result S23 representing the correspondence is detected as a moving image generation unit. 25.

【0035】ここで、マッチング部23に記憶されてい
るDCTの基底について説明する。縦M画素、横N画素
の画像について、DCTの基底Ωuv(m,n)(m=0,1,2,…,M
-1n=0,1,2, …, N-1)は次式(20)のように表される。
Here, the base of the DCT stored in the matching unit 23 will be described. For an image with M pixels vertically and N pixels horizontally, the DCT basis Ω uv (m, n) (m = 0,1,2, ..., M
−1n = 0, 1, 2,..., N−1) is represented by the following equation (20).

【数11】 従って、マッチング部23は、静止画像Qから特異値分
解で求めた基本図形Φ ijに対してユークリッド距離が
最小となるDCTの基底Ωuvを検出し、その対応を表わ
すマッチング結果S23を動画像生成部25に出力す
る。
[Equation 11] Therefore, the matching unit 23 detects the DCT base Ω uv that minimizes the Euclidean distance with respect to the basic figures Φ and ij obtained from the still image Q by singular value decomposition, and generates a matching result S23 representing the correspondence between the base image Ω uv and the moving image. Output to the generation unit 25.

【0036】(C) 内積値算出処理 内積計算部24にはマッチング部23に記憶されている
ものと同じDCTの基底Ωuvが予め用意されており、動
画像P(t)と基底Ωuvとの内積Guv(t)の値S24
を計算して動画像生成部25に出力する。DCTの基底
Ωuvと動画像P(t)との内積Guv(t)の計算は、次
式(21)を用いて行う。DCTの基底Ωuvは動画像P
(t)に無関係に共通のものを使用するので、内積Guv
は時間の関数Guv(t)となる。
(C) Inner Product Value Calculation Process The inner product calculation unit 24 is prepared in advance with the same DCT basis Ω uv as that stored in the matching unit 23, and the moving image P (t) and the basis Ω uv Of the inner product G uv (t) of S24
Is calculated and output to the moving image generation unit 25. Calculation of the inner product G uv (t) between the DCT base Ω uv and the moving image P (t) is performed using the following equation (21). DCT basis Ω uv is the moving image P
Since a common one is used regardless of (t), the inner product G uv
Is a function of time G uv (t).

【0037】[0037]

【数12】 (D) 動画像生成処理 動画像生成部25は、基本図形計算部22から入力され
た静止画像Qの基本図形S22に対し、マッチング結果
S23に基づいて内積値S24を画素毎に掛け合わせ、
それらの和を計算し、動画像S25として画像出力端子
26に出力する。ここで、動画像生成部25の動作の原
理について説明する。動画像P(t)は、基底Ωuvと内
積値Guv(t) を用いて次式(22)のように表わされ
る。
(Equation 12) (D) Moving Image Generation Processing The moving image generation unit 25 multiplies the basic figure S22 of the still image Q input from the basic figure calculation unit 22 by the inner product value S24 for each pixel based on the matching result S23,
The sum is calculated and output to the image output terminal 26 as a moving image S25. Here, the principle of the operation of the moving image generation unit 25 will be described. The moving image P (t) is represented by the following equation (22) using the base Ω uv and the inner product value G uv (t).

【0038】[0038]

【数13】 本実施形態で扱う画像の大きさを例えば3×4とし、マ
ッチング部23で静止画像Qの基本図形Φ ijとDCT
の基底Ωuvの対応が次式(23)のようにとれたとする。 Ω11=Φ 34,Ω12=Φ 33,Ω13=Φ 32,Ω14=Φ 31, Ω21=Φ 24,Ω22=Φ 23,Ω23=Φ 22,Ω24=Φ 21, Ω31=Φ 14,Ω32=Φ 13,Ω33=Φ 12,Ω34=Φ 11 ・・・(23) このとき、動画像生成部25は式(22)の基底Ωuvを対
応する基本図形Φ ijに置き換え、次式(24)を用いて
人工動画像Q(t)を生成する。 Q(t)=G11Φ 34+G12Φ 33+G13Φ 32+G14Φ 31 +G21Φ 24+G22Φ 23+G23Φ 22+G24Φ 21 +G31Φ 14+G32Φ 13+G33Φ 12+G34Φ 11 ・・・(24) 以上のように、この第3の実施形態では、次のような利
点がある。
(Equation 13) The size of the image handled in the present embodiment is, for example, 3 × 4, and the matching unit 23 uses the basic figures Φ and ij of the still image Q and the DCT
Of the base Ω uv is obtained as in the following equation (23). Ω 11 = Φ, 34, Ω 12 = Φ, 33, Ω 13 = Φ, 32, Ω 14 = Φ, 31, Ω 21 = Φ, 24, Ω 22 = Φ, 23, Ω 23 = Φ, 22, Ω 24 = Φ , 21 , Ω 31 = Φ , 14 , Ω 32 = Φ , 13 , Ω 33 = Φ , 12 , Ω 34 = Φ , 11, ... (23) The base Ω uv of 22) is replaced with the corresponding basic figure Φ , ij , and an artificial moving image Q (t) is generated using the following equation (24). Q (t) = G 11 Φ , 34 + G 12 Φ, 33 + G 13 Φ, 32 + G 14 Φ, 31 + G 21 Φ, 24 + G 22 Φ, 23 + G 23 Φ, 22 + G 24 Φ, 21 + G 31 Φ, 14 + G 32 Φ , 13 + G 33 Φ , 12 + G 34 Φ , 11 (24) As described above, the third embodiment has the following advantages.

【0039】構成要素(本実施形態では、マッチング部
23及び内積計算部24)内に記憶されたDCTの基底
Ωuvを用いて処理を行うようにしたので、入力画像P
(t)毎に基底を計算する必要がない。更に、基底Ωuv
は構成要素間で伝達の必要がないので、動画像生成装置
をハードで構成する場合、回路構成がシンプルになる。第4の実施形態 図6は、本発明の第4の実施形態の動画像生成方法を実
施するための動画像生成装置の構成図である。この動画
像生成装置は、第1の共分散行列生成部31、第1の固
有ベクトル計算部32、内積計算部33、第2の共分散
行列計算部34、第2の固有ベクトル計算部35、マッ
チング部36、データ出力部37、平均ベクトル計算部
38、動画像生成部39、及び画像出力端子3aを備え
ている。動画像生成部39と画像出力端子3aは他の構
成要素とは離れた地点Bにあり、他の構成要素は地点A
にある。地点Aと地点Bは例えば電話回線等の通信網N
を介して接続されている。
Since the processing is performed using the DCT base Ω uv stored in the constituent elements (in the present embodiment, the matching unit 23 and the inner product calculation unit 24), the input image P
There is no need to calculate a basis for each (t). Furthermore, the base Ω uv
Since there is no need to transmit between the components, the circuit configuration is simplified when the moving image generating apparatus is configured by hardware. Fourth Embodiment FIG. 6 is a configuration diagram of a moving image generating apparatus for performing a moving image generating method according to a fourth embodiment of the present invention. This moving image generation device includes a first covariance matrix generation unit 31, a first eigenvector calculation unit 32, an inner product calculation unit 33, a second covariance matrix calculation unit 34, a second eigenvector calculation unit 35, a matching unit 36, a data output unit 37, an average vector calculation unit 38, a moving image generation unit 39, and an image output terminal 3a. The moving image generation unit 39 and the image output terminal 3a are located at a point B separated from other components, and the other components are located at a point A.
It is in. The point A and the point B are, for example, a communication network N such as a telephone line.
Connected through.

【0040】平均ベクトル計算部38は、動画像P
(t)の画像ベクトルから平均ベクトルS38を計算す
る機能を有している。平均ベクトル計算部38は、第1
の共分散行列計算部31、内積計算部33、第2の共分
散行列計算部34、及びデータ出力部37に接続されて
いる。第1の共分散行列生成部31は動画像P(t)を
入力し、この動画像P(t)の画像ベクトルから共分散
行列の平均S31を計算する機能を有している。第1の
共分散行列生成部31は、第1の固有ベクトル計算部3
2に接続されている。第1の固有ベクトル計算部32
は、第1の共分散行列生成部31から入力された共分散
行列S31から固有ベクトルS32を計算する機能を有
している。第1の固有ベクトル計算部32は、内積計算
部33及びマッチング部36に接続されている。第2の
共分散行列計算部34は静止画像Qを入力し、該静止画
像Qから共分散行列S34を計算する機能を有してい
る。第2の共分散行列計算部34は、第2の固有ベクト
ル計算部35に接続されている。第2の固有ベクトル計
算部35は、共分散行列S34の固有ベクトルS35を
計算する機能を有している。第2の固有ベクトル計算部
35は、マッチング部36及びデータ出力部37に接続
されている。
The average vector calculation unit 38 calculates the moving image P
It has a function of calculating an average vector S38 from the image vector of (t). The average vector calculator 38 calculates the first
Are connected to a covariance matrix calculation unit 31, an inner product calculation unit 33, a second covariance matrix calculation unit 34, and a data output unit 37. The first covariance matrix generation unit 31 has a function of receiving a moving image P (t) and calculating an average S31 of a covariance matrix from an image vector of the moving image P (t). The first covariance matrix generation unit 31 includes a first eigenvector calculation unit 3
2 are connected. First eigenvector calculator 32
Has a function of calculating an eigenvector S32 from the covariance matrix S31 input from the first covariance matrix generation unit 31. The first eigenvector calculation unit 32 is connected to the inner product calculation unit 33 and the matching unit 36. The second covariance matrix calculator 34 has a function of receiving the still image Q and calculating a covariance matrix S34 from the still image Q. The second covariance matrix calculator 34 is connected to the second eigenvector calculator 35. The second eigenvector calculation unit 35 has a function of calculating an eigenvector S35 of the covariance matrix S34. The second eigenvector calculation unit 35 is connected to the matching unit 36 and the data output unit 37.

【0041】マッチング部36は、第1の固有ベクトル
計算部32から入力された固有ベクトルS32と第2の
固有ベクトル計算部35から入力された固有ベクトルS
35とのマッチングを行い、その結果を表わすマッチン
グ結果S36を生成する機能を有している。マッチング
部36は、内積計算部33及びデータ出力部37に接続
されている。内積計算部33は、動画像P(t)と第1
の固有ベクトル計算部32からの固有ベクトルS32と
を入力し、マッチング部36のマッチング結果S36に
基づいて処理に用いる固有ベクトルを数個に限定し、動
画像P(t)の1フレームの画像ベクトルと平均ベクト
ルS38との差分ベクトルを計算し、該差分ベクトルと
前記限定された数個の固有ベクトルとの内積値S33を
計算する機能を有している。内積計算部33は、データ
出力部37に接続されている。データ出力部37は、内
積計算部33で計算された内積値S33とマッチング部
36からのマッチング結果S36に基づいて第2の固有
ベクトル計算部35で求めた固有ベクトルS35のうち
の数個の固有ベクトルを選択する機能を有している。デ
ータ出力部37は、通信網Nを介して動画像生成部39
に接続されている。動画像生成部39は、データ出力部
37から出力された内積値と固有ベクトルより人工動画
像S39を生成する機能を有している。動画像生成部3
9は、画像出力端子3aに接続されている。
The matching section 36 has an eigenvector S32 input from the first eigenvector calculation section 32 and an eigenvector S input from the second eigenvector calculation section 35.
35, and has a function of generating a matching result S36 representing the result. The matching unit 36 is connected to the inner product calculation unit 33 and the data output unit 37. The inner product calculation unit 33 calculates the moving image P (t) and the first
, The eigenvector S32 from the eigenvector calculation unit 32 is input, the number of eigenvectors used for processing is limited to several based on the matching result S36 of the matching unit 36, and the image vector of one frame of the moving image P (t) and the average vector It has a function of calculating a difference vector from S38 and calculating an inner product value S33 of the difference vector and the limited number of eigenvectors. The inner product calculation unit 33 is connected to the data output unit 37. The data output unit 37 selects several eigenvectors from the eigenvectors S35 obtained by the second eigenvector calculation unit 35 based on the inner product value S33 calculated by the inner product calculation unit 33 and the matching result S36 from the matching unit 36. It has the function to do. The data output unit 37 is connected to the moving image generation unit 39 via the communication network N.
It is connected to the. The moving image generation unit 39 has a function of generating an artificial moving image S39 from the inner product value output from the data output unit 37 and the eigenvector. Moving image generation unit 3
Reference numeral 9 is connected to the image output terminal 3a.

【0042】次に、本実施形態の原理となるKL(カル
ーネン・レーブ)変換について説明する。KL変換は確
率ベクトルxの直交展開であり、ベクトルxを少数の基
底で表わす場合、最小平均2乗誤差の基準のもとで最適
な直交基底を求め、ベクトルxを展開するものである。
いま、M次元のべクトルxi (i=1,2,3, …,s) の集合X
を考える。xi の平均ベクトルμを、 μ=(1/s)Σxi とすると、データXの共分散行列Rxは次式(25)のよ
うに表される。
Next, the KL (Karhunen-Loeve) conversion, which is the principle of the present embodiment, will be described. The KL transformation is an orthogonal expansion of the probability vector x. When the vector x is represented by a small number of bases, the optimal orthogonal base is obtained based on the standard of the minimum mean square error, and the vector x is expanded.
Now, a set X of an M-dimensional vector x i (i = 1, 2, 3,..., S)
think of. The mean vector mu of x i, when the μ = (1 / s) Σx i, covariance matrix Rx data X is expressed by the following equation (25).

【0043】[0043]

【数14】 ここで、共分散行列Rxの固有値の絶対値の大きい方か
ら順に並べた固有ベクトルをVi (i=1,2,3,…,M) 、集
合Xの中の任意のべクトルxと平均ベクトルμとの差分
をv[d](=x−μ)、及びv[d]と固有ベクトル
i との内積をλi とすると、ベクトルxは次式(26)
のように表わされる。
[Equation 14] Here, the eigenvectors arranged in order from the largest absolute value of the eigenvalues of the covariance matrix Rx are V i (i = 1, 2, 3,..., M), and any vector x and average vector in the set X If the difference from μ is v [d] (= x−μ) and the inner product of v [d] and the eigenvector V i is λ i , the vector x is given by the following equation (26)
It is represented as

【0044】[0044]

【数15】 ここで、固有ベクトルVi はM次元のべクトルであり、
式(26)の積和の計算をN項(N≦M)で打ち切っても
十分ベクトルxに近い近似が得られる。又、固有ベクト
ルVi のうち、対応する固有値の絶対値が大きい固有ベ
クトルほど集合Xの特徴をよく表わす。次に、図6の動
作を説明する。平均ベクトル計算部38は縦m画素及び
横n画素の動画像P(t)を入力し、それぞれの画像の
画像ベクトルを合計して平均値を計算する。具体的には
以下の各処理(A)〜(E)を行う。
(Equation 15) Here, the eigenvectors V i is a vector base of the M-dimensional,
Even if the calculation of the sum of products of the equation (26) is terminated by N terms (N ≦ M), an approximation sufficiently close to the vector x can be obtained. Also, among the eigenvectors V i, represent well the characteristics of the absolute value is larger eigenvectors as set X of corresponding eigenvalues. Next, the operation of FIG. 6 will be described. The average vector calculation unit 38 receives a moving image P (t) of m pixels vertically and n pixels horizontally and calculates an average value by summing up the image vectors of the respective images. Specifically, the following processes (A) to (E) are performed.

【0045】動画像P(t)の画素の並びをベクトルx
(t)の要素とする。行番号m及び列番号nの動画像P
(t)の画素をPmnとすると、ベクトルx(t)の要素
は次式(27)のように割り当てられる。 x(t)=(x1 ,x2 ,x3 ,…,xmn) =(P11,P12,…,P1n,P21,…,Pmn) ・・・(27) 動画像P(t)がt=1,2,3,…,sについて1フ
レームずつの画像で構成されるとき、動画像P(t)の
平均ベクトルμは式(28)のように表される。
The arrangement of pixels of the moving image P (t) is represented by a vector x
(T). Moving picture P of row number m and column number n
Assuming that the pixel at (t) is P mn , the elements of the vector x (t) are assigned as in the following equation (27). x (t) = (x 1 , x 2 , x 3 ,..., x mn ) = (P 11 , P 12 ,..., P 1n , P 21 ,..., P mn ) (27) When (t) is composed of images of one frame at a time for t = 1, 2, 3,..., S, the average vector μ of the moving image P (t) is expressed by Expression (28).

【数16】 平均ベクトル計算部38は式(28)を用いて平均ベクト
ルμを計算し、平均ベクトルμの値を第1の共分散行列
生成部31、第2の共分散行列計算部34、内積計算部
33、及びデータ出力部37に出力する。 (A) 第1の基底生成処理 第1の共分散行列生成部31は動画像P(t)を入力
し、動画像P(t)のベクトルx(t)と平均ベクトル
μから共分散行列Rxを計算する。具体的には式(25)
を用いて共分散行列Rxを求め、該共分散行列Rxの値
S31を第1の固有ベクトル計算部32に出力する。第
1の固有ベクトル計算部32は、第1の共分散行列計算
部31から入力された共分散行列Rxの固有ベクトルV
i (i=1,2,3, …,m×n)(即ち、第1の基底)を計算し、
この固有ベクトルVi の値S32を内積計算部33とマ
ッチング部36に出力する。固有ベクトルVi を求める
には、例えばJacobi法等が用いられる。
(Equation 16) The average vector calculator 38 calculates the average vector μ by using the equation (28), and calculates the value of the average vector μ as the first covariance matrix generator 31, the second covariance matrix calculator 34, and the inner product calculator 33. , And the data output unit 37. (A) First Basis Generation Processing The first covariance matrix generation unit 31 receives a moving image P (t), and obtains a covariance matrix Rx from a vector x (t) and an average vector μ of the moving image P (t). Is calculated. Specifically, equation (25)
Is used to obtain a covariance matrix Rx, and the value S31 of the covariance matrix Rx is output to the first eigenvector calculation unit 32. The first eigenvector calculation unit 32 calculates the eigenvector V of the covariance matrix Rx input from the first covariance matrix calculation unit 31.
i (i = 1,2,3,..., m × n) (ie, a first basis)
And outputs the value S32 in the eigenvector V i to the inner product calculation unit 33 and matching unit 36. To find the eigenvectors V i, for example, Jacobi method may be used.

【0046】(B) 第2の基底生成処理 第2の共分散行列計算部34は、静止画像Qと平均ベク
トル計算部48からの平均ベクトルS38(即ち、平均
ベクトルμ)を入力し、静止画像Qのベクトルと平均ベ
クトルS38の差分ベクトルを計算し、この差分ベクト
ルから式(25)を用いて共分散行列Qxを計算し、共分
散行列Qxの値S34を第2の固有ベクトル計算部35
へ出力する。第2の固有ベクトル計算部35は、第2の
共分散行列計算部34から入力された共分散行列Qxに
ついて、固有ベクトルWj (j=1,2,3,…,m×n)(即ち、
第2の基底)を計算し、この固有ベクトルWj の値S3
5をマッチング部36とデータ出力部37に出力する。
この固有ベクトルWj は、対応する固有値の絶対値の大
きいものから順に並んでいる。
(B) Second Basis Generation Process The second covariance matrix calculator 34 receives the still image Q and the average vector S38 (ie, average vector μ) from the average vector calculator 48, and A difference vector between the vector of Q and the average vector S38 is calculated, a covariance matrix Qx is calculated from the difference vector using Expression (25), and a value S34 of the covariance matrix Qx is calculated by a second eigenvector calculation unit 35.
Output to The second eigenvector calculator 35 calculates the eigenvectors W j (j = 1, 2, 3,..., M × n) for the covariance matrix Qx input from the second covariance matrix calculator 34 (ie,
(Second base) is calculated, and the value S3 of this eigenvector W j is calculated.
5 is output to the matching unit 36 and the data output unit 37.
The eigenvectors W j are arranged in descending order of the absolute value of the corresponding eigenvalue.

【0047】(C) マッチング処理 マッチング部36は、固有ベクトルWj の上位の数個に
ついて、固有ベクトルVi の中から最もユークリッド距
離の近いものを求め、その組み合わせを表わすマッチン
グ結果S36を内積計算部33及びデータ出力部37に
出力する。一例として、入力する画像のサイズをm=
3、n=4とする。又、マッチング部36において、固
有ベクトルVi (i=1,2,3, …,12)と固有ベクトルW
j (j=1,2,3,…,12)とのマッチングの結果が次式(29)
のように対応づけられ、動画像の生成に用いる固有ベク
トルの数を4個とする。 W1 =V12,W2 =V11,W3 =V10,W4 =V9 ,W5 =V8 , W6 =V7 ,W7 =V6 ,W8 =V5 ,W9 =V4 ,W10=V3 , W11=V2 ,W12=V1 ・・・(29) マッチング部36は、固有ベクトルW1 〜W4 に対応す
る固有ベクトルVi を表わす信号S36を内積計算部3
3及びデータ出力部37に出力する。
[0047] (C) matching the matching unit 36, the eigenvectors W upper few about the j, eigenvectors V seek close most Euclidean distance from among i, the inner product calculating unit 33 and matching result S36 representing the combination And the data output unit 37. As an example, the size of the input image is m =
3, n = 4. In the matching unit 36, the eigenvector V i (i = 1, 2, 3,..., 12) and the eigenvector W
The result of matching with j (j = 1,2,3,…, 12) is given by the following equation (29)
And the number of eigenvectors used for generating a moving image is four. W 1 = V 12, W 2 = V 11, W 3 = V 10, W 4 = V 9, W 5 = V 8, W 6 = V 7, W 7 = V 6, W 8 = V 5, W 9 = V 4, W 10 = V 3, W 11 = V 2, W 12 = V 1 ··· (29) matching section 36, the inner product a signal S36 representing the eigenvectors V i corresponding to the eigenvectors W 1 to W-4 Calculation part 3
3 and the data output unit 37.

【0048】(D) 内積値算出処理 内積計算部33は、動画像P(t)のべクトルx(t)
と第1の固有ベクトル計算部32からの固有ベクトルV
i を入力し、ベクトルx(t)と平均ベクトルμ(S3
8)との差分ベクトルd(t)を求め、マッチング結果
S36に基づいて固有ベクトルVi の数個と動画像P
(t)のべクトルx(t)との内積値λi(t)を求
め、該内積値λi (t)をデータ出力部37に出力す
る。内積値λi(t)は次式(30)のように表される。 λi (t)=Vi ・d(t)=Vi ・(x(t)−μ) ・・・(30) 式(29)の関係が成り立つとき、内積計算部33は固有
ベクトルW1 ,W2 ,W3 ,W4 に対応する固有ベクト
ルV12,V11,V10,V9 ついて、動画像P(t)のベ
クトルx(t)との内積S33を求め、該内積S33を
データ出力部37に出力する。
(D) Inner Product Value Calculation Processing The inner product calculator 33 calculates the vector x (t) of the moving image P (t).
And the eigenvector V from the first eigenvector calculator 32
i , the vector x (t) and the average vector μ (S3
Difference obtains a vector d (t) with 8), several and moving image P of eigenvectors V i based on the matching result S36
An inner product value λ i (t) of (t) with the vector x (t) is obtained, and the inner product value λ i (t) is output to the data output unit 37. The inner product value λ i (t) is represented by the following equation (30). when the relationship of λ i (t) = V i · d (t) = V i · (x (t) -μ) ··· (30) equation (29) is satisfied, the inner product calculation unit 33 eigenvectors W 1, W with 2, W 3, W 4 eigenvector V 12 corresponding to, V 11, V 10, V 9, obtains an inner product S33 in the vector x (t) of the moving picture P (t), the inner product S33 data output Output to the unit 37.

【0049】(E) 動画像生成処理 データ出力部37は、固有ベクトルWj の上位数個のデ
ータ、内積計算部33から入力された内積値S33、及
びマッチング部36でのマッチング結果S36を通信網
Nを介して動画像生成部39に出力する。又、式(29)
の関係が成り立つとき、データ出力部37は固有ベクト
ルW1 ,W2 ,W3 ,W4 と内積計算部33から入力さ
れた4つの内積値、マッチング部36から入力されたマ
ッチング結果S36を動画像生成部39に出力する。動
画像生成部39は、入力されたマッチング結果S36に
基づき、次式(31)を用いて固有ベクトルW1 ,W2
3 ,W4 に対して対応する内積の値だけ実数倍し、そ
れらの和を計算して人工動画像Q(t)として画像出力
端子3aに出力する。 Q(t)=λ121 +λ112 +λ103 +λ9 4 ・・・(31) 以上のように、この第4の実施形態では、次のような利
点がある。
(E) Moving Image Generation Process The data output unit 37 transmits the upper several data of the eigenvector W j , the inner product value S33 input from the inner product calculation unit 33, and the matching result S36 of the matching unit 36 to the communication network. The image data is output to the moving image generation unit 39 via N. Equation (29)
Is satisfied, the data output unit 37 displays the eigenvectors W 1 , W 2 , W 3 , and W 4 , the four inner product values input from the inner product calculator 33, and the matching result S 36 input from the matching unit 36 as a moving image Output to the generation unit 39. Based on the input matching result S36, the moving image generation unit 39 calculates the eigenvectors W 1 , W 2 ,
The values of W 3 and W 4 are multiplied by the corresponding inner product by a real number, the sum thereof is calculated, and the sum is output to the image output terminal 3 a as an artificial moving image Q (t). Q (t) = λ 12 W 1 + λ 11 W 2 + λ 10 W 3 + λ 9 W 4 (31) As described above, the fourth embodiment has the following advantages.

【0050】KL変換を用いて限定された基底数で静止
画像Qから人工動画像Q(t)を生成しているが、この
KL変換の基底は2次元の画素の並びをベクトルとして
扱っている。基底に特異値分解の基本図形を用い、基底
の数が制限された場合、基本図形は画像をランク1の行
列として扱うので、画像の斜めの線を表現することは困
難である。しかし、KL変換の基底は画像をベクトルと
して扱うので、地点Aから地点Bに伝送される基底の数
が制限されても、画像の斜めの線を表現できる。
The artificial moving image Q (t) is generated from the still image Q with a limited number of bases by using the KL conversion. The base of the KL conversion handles a two-dimensional pixel array as a vector. . When the basic figure of the singular value decomposition is used for the base and the number of bases is limited, the basic figure treats the image as a matrix of rank 1, so that it is difficult to represent an oblique line of the image. However, since the basis of the KL transformation treats the image as a vector, even if the number of bases transmitted from the point A to the point B is limited, an oblique line of the image can be expressed.

【0051】第5の実施形態 図7は、本発明の第5の実施形態の動画像生成方法を実
施するための動画像生成装置の構成図である。この動画
像生成装置は、第1の内積計算部41、第2の内積計算
部42、マッチング部43、内積生成部44、動画像生
成部15、及び画像出力端子16を備えている。第1の
内積計算部41は動画像P(t)を入力し、動画像P
(t)の1フレームと直交変換(例えば、DCT、フー
リエ変換、アダマール変換等) の基底との内積値S41
を計算する機能を有している。第1の内積計算部41
は、マッチング部43及び内積計算部44に接続されて
いる。第2の内積計算部42は静止画像Qを入力し、静
止画像Qと直交変換の基底との内積値S42を計算する
機能を有している。第2の内積計算部42は、マッチン
グ部43及び内積生成部44に接続されている。マッチ
ング部43は基底毎に求めた内積の並びを行列とし、静
止画像Qの内積とユークリッド距離が最も近い動画像P
(t)の内積の時刻を検出し、その結果を表わすマッチ
ング結果S43を生成する機能を有している。マッチン
グ部43は、内積生成部44に接続されている。
Fifth Embodiment FIG. 7 is a block diagram of a moving image generating apparatus for implementing a moving image generating method according to a fifth embodiment of the present invention. This moving image generating device includes a first inner product calculating unit 41, a second inner product calculating unit 42, a matching unit 43, an inner product generating unit 44, a moving image generating unit 15, and an image output terminal 16. The first inner product calculation unit 41 receives the moving image P (t),
Inner product value S41 of one frame of (t) and the basis of orthogonal transform (for example, DCT, Fourier transform, Hadamard transform, etc.)
Has the function of calculating First inner product calculator 41
Are connected to the matching unit 43 and the inner product calculation unit 44. The second inner product calculation unit 42 has a function of receiving the still image Q and calculating an inner product value S42 between the still image Q and the base of the orthogonal transformation. The second inner product calculator 42 is connected to the matching unit 43 and the inner product generator 44. The matching unit 43 uses the matrix of the inner product obtained for each basis as a matrix, and sets the inner product of the still image Q and the moving image P having the closest Euclidean distance.
It has a function of detecting the time of the inner product of (t) and generating a matching result S43 representing the result. The matching unit 43 is connected to the inner product generation unit 44.

【0052】内積生成部44は、マッチング結果S43
に基づき、静止画像Qから求めた内積をマッチングのと
れた時刻tからの動画像P(t)の内積と同じように変
化させ、内積値S44を生成する機能を有している。内
積生成部44は、動画像生成部45に接続されている。
動画像生成部45は、直交変換の基底を内積生成部44
から入力された内積値S44の値だけ実数倍し、その和
を計算して人工動画像S45として出力する機能を有し
ている。動画像生成部45は、動画像出力端子46に接
続されている。次に、図7の各処理(A)〜(D)の動
作を説明する。直交変換には、例えばDCT、フーリエ
変換、アマダール変換等があるが、本実施形態ではDC
Tを用いて説明する。
The inner product generation unit 44 determines the matching result S43
Has a function of changing the inner product obtained from the still image Q in the same manner as the inner product of the moving image P (t) from the time t at which matching is performed, and generating an inner product value S44. The inner product generation unit 44 is connected to the moving image generation unit 45.
The moving image generation unit 45 converts the basis of the orthogonal transformation into the inner product generation unit 44
Has the function of multiplying the value of the inner product value S44 input from the real number by a real number, calculating the sum thereof, and outputting the result as an artificial moving image S45. The moving image generator 45 is connected to a moving image output terminal 46. Next, the operation of each of the processes (A) to (D) in FIG. 7 will be described. The orthogonal transform includes, for example, DCT, Fourier transform, Amadal transform, and the like.
Explanation is given using T.

【0053】(A) 第1の基底方向成分計算処理 第1の内積計算部41は、縦M画素及び横N画素の動画
像P(t)を入力し、動画像の1フレームとDCTの基
底Ωuv(u=1,2,3,…,M v=1,2,3, …,N)との内積G
uv(t)(即ち、基底方向の成分)を求める。その際の
DCTの基底Ωuvは式(20)で示され、動画像P
(t)とDCTの基底Ωuvとの内積Guv(t)の計算は
式(21)で示される。 (B) 第2の基底方向成分計算処理 第2の内積計算部42は、縦M画素及び横N画素の静止
画像Qを入力し、静止画像QとDCTの基底Ωuvとの内
積値S42(即ち、基底方向の成分)を求める。
(A) First Base Direction Component Calculation Processing The first inner product calculation unit 41 receives a moving image P (t) of M pixels vertically and N pixels horizontally, and calculates one frame of the moving image and the base of DCT. Inner product G with Ω uv (u = 1,2,3,…, M v = 1,2,3,…, N)
uv (t) (that is, the component in the base direction) is obtained. The base Ω uv of the DCT at that time is expressed by Expression (20), and the moving image P
The calculation of the inner product G uv (t) between (t) and the base Ω uv of the DCT is represented by equation (21). (B) Second Base Direction Component Calculation Processing The second inner product calculation unit 42 receives a still image Q of M pixels vertically and N pixels horizontally, and calculates the inner product S42 of the still image Q and the base Ω uv of the DCT. That is, a component in the base direction) is obtained.

【0054】(C) マッチング処理 マッチング部43は、第2の内積計算部42から入力さ
れた基底の数と同数存在する内積値を行列Gの要素と
みなし、更に第1の内積計算部41から入力された動画
像P(t)の内積S41を行列G(t)(t=1,2,3, …,
s) の要素とみなす。そして、マッチング部43は、行
列Gと行列G(t)のユークリッド距離の2乗が最も
小さくなる時刻tを検出し、そのマッチング結果S43
を内積生成部44に出力する。行列G(t)は次式(3
2)、及び行列Gは次式(33)で示される。
(C) Matching Process The matching unit 43 regards the inner product values having the same number as the number of bases input from the second inner product calculating unit 42 as elements of the matrix G , and further, the first inner product calculating unit 41 , The inner product S41 of the moving image P (t) input from the matrix G (t) (t = 1, 2, 3,...,
s). Then, the matching section 43 detects the matrix G, the square is smallest time t of the Euclidean distance of the matrix G (t), the matching result S43
Is output to the inner product generation unit 44. The matrix G (t) is given by the following equation (3)
2), and the matrix G, is represented by the following formula (33).

【0055】[0055]

【数17】 [Equation 17]

【数18】 ここで、行列G(t)と行列Gのユークリッド距離の
2乗d2 (t)は、次式(34)のように表される。 d2 (t)=‖G(t)−G2 =(G11(t)−G 112 +(G12(t)−G 122 + …+(G1N(t)−G 1N2 +(G21(t)−G 212 + …(GMN(t)−G MN2 ・・・(34) マッチング部43は、式(34)を用いてユークリッド
距離の2乗d2 (t)を計算し、ユークリッド距離の2
乗d2 (t)が最小となる時刻tを求め、この情報(即
ち、マッチング結果S43)を内積生成部44に出力す
る。
(Equation 18) Here, the square d 2 (t) of the Euclidean distance between the matrix G (t) and the matrix G 1 , is represented by the following equation (34). d 2 (t) = ‖G (t) −G ,2 = (G 11 (t) −G , 11 ) 2 + (G 12 (t) −G , 12 ) 2 +... + (G 1N (t ) −G , 1N ) 2 + (G 21 (t) −G , 21 ) 2 +... ( GMN (t) −G , MN ) 2 (34) The matching unit 43 calculates the equation (34). Is used to calculate the square of the Euclidean distance d 2 (t),
The time t at which the power d 2 (t) is minimized is obtained, and this information (that is, the matching result S43) is output to the inner product generation unit 44.

【0056】(D) 動画像生成処理 内積生成部44は、マッチング結果S43に基づき、静
止画像Qの内積Gをマッチングのとれた時刻tからの
動画像の内積G(t)と相似形に変化させることによっ
て内積の行列G(t)を計算し、その結果(即ち、内
積値S44)を動画像生成部45に出力する。図8は、
図7中の内積生成部44の動作を説明する図である。一
例として、動画像の内積G(t)の要素のG11(t)が
図8に示すように時刻tで変化し、静止画像Qの内積G
と動画像の内積G(t)のマッチングが時刻k(0≦
k≦s)でとれたとする。時刻t(t=1,2,3,…,s
-k) における内積G(t)の要素G 11(t
は、次式(35)のように表される。 G 11(t)=(G 11(0)/G11(k))G11(t+k) ・・・(35) このとき、内積G(t)の要素G 11(t)は、
図8に示すように変化する。内積生成部44は,計算し
た内積G(t)を動画像生成部45に出力する。
[0056] (D) moving image generation processing inner product generator 44, based on the matching result S43, the inner product G of still images Q, similar in shape to the inner product of the moving image from the Matched time t G (t) The matrix G , (t) of the inner product is calculated by changing the value, and the result (that is, the inner product value S44) is output to the moving image generator 45. FIG.
FIG. 8 is a diagram illustrating an operation of an inner product generation unit 44 in FIG. 7. As an example, the element G 11 (t) of the inner product G (t) of the moving image changes at time t as shown in FIG.
, And the inner product G (t) of the moving image match at time k (0 ≦
k ≦ s). Time t , (t , = 1,2,3, ..., s
-k) , the element G of the inner product G , (t , ) , 11 (t , )
Is represented by the following equation (35). G, 11 (t,) = (G, 11 (0) / G 11 (k)) G 11 (t, + k) ··· (35) At this time, the inner product G, element G of (t,), 11 (T , ) is
It changes as shown in FIG. The inner product generation unit 44 outputs the calculated inner products G , (t) to the moving image generation unit 45.

【0057】動画像生成部45は、DCTの各基底に内
積生成部44から入力された内積G(t)の各要素を
かけ、その和を計算して人工動画像S45として画像出
力端子46に出力する。即ち、次式(36)を用いて人
工動画像Q(t)を生成する。 Q(t)=G 11(t)Ω11+G 12(t)Ω12+… +G 1N(t)Ω1N+G 21(t)Ω21+… +G MN(t)ΩMN ・・・(36) 以上のように、この第5の実施形態では、次のような利
点がある。直交変換の基底と動画像P(t)及び静止画
像Qとの内積をそれぞれ求め、2つの内積の間でマッチ
ングをとり、静止画像Qの内積を動画像P(t)の内積
と相似形に時間方向に変化させることにより、静止画像
Qから人工動画像Q(t)が生成される。本実施形態
で用いる直交変換は、DCTやフーリエ変換等、画像の
サイズによって基底が決まる変換なので、基底をオブジ
ェクトの種類に応じて計算する必要がない。そのため、
オブジェクトの種類によらず共通の方法で静止画像Qか
ら人工動画像Q(t)を生成でき、ハードウェアで実
現する場合には、回路構成をシンプルにできる。更に、
人工動画像を生成した後、人の手によって画像に修正を
加える必要がない。
The moving image generator 45 multiplies each element of the inner product G , (t) input from the inner product generator 44 by each base of the DCT, calculates the sum thereof, and outputs it as an artificial moving image S45 as an image output terminal 46. Output to That is, an artificial moving image Q (t , ) is generated using the following equation (36). Q (t,) = G, 11 (t,) Ω 11 + G, 12 (t,) Ω 12 + ... + G, 1N (t,) Ω 1N + G, 21 (t,) Ω 21 + ... + G, MN ( t , ) Ω MN (36) As described above, the fifth embodiment has the following advantages. The inner product of the basis of the orthogonal transformation, the moving image P (t) and the still image Q is obtained, and the matching between the two inner products is performed, and the inner product of the still image Q is made similar to the inner product of the moving image P (t). By changing in the time direction, an artificial moving image Q (t , ) is generated from the still image Q. Since the orthogonal transform used in the present embodiment is a transform whose base is determined by the size of the image, such as DCT or Fourier transform, it is not necessary to calculate the base according to the type of the object. for that reason,
The artificial moving image Q (t , ) can be generated from the still image Q by a common method irrespective of the type of the object, and when realized by hardware, the circuit configuration can be simplified. Furthermore,
After the generation of the artificial moving image, there is no need to manually modify the image.

【0058】尚、本発明は上記実施形態に限定されず、
種々の変形が可能である。その変形例としては、例えば
次の(a)〜(d)ようなものがある。 (a) 第1及び第2の実施形態では、第1の相関行列
生成部11に入力する画像を動画像P(t)の時間t=
0における1フレームとしたが、これは任意の時間の1
フレームの画像でもよい。 (b) 実施形態では、基底のマッチングをユークリッ
ド距離の2乗が最小となる条件で行っているが、マッチ
ングはこの手法に限らない。 (c) 第1〜4の実施形態では、動画像P(t)を直
交変換を用いて表わし、静止画像Qから直交変換を用い
て基底を求め、動画像P(t)から求めた基底とマッチ
ングをとり、静止画像Qから求めた基底に該基底と対応
する動画像P(t)から求めた内積値を掛け合わせ、そ
の線形和をとることにより、人工動画像Q (t)を生
成している。この場合、動画像P(t)に施す直交変換
と静止画Qに施す直交変換は、同じ直交変換である必要
はなく、動画像P(t)から求めた基底と静止画像Qか
ら求めた基底とが異なるものであればよい。但し、静止
画像Qに施す直交変換は、基底が該静止画像Qの特徴を
表わす必要があり、例えばDCTのように画像によらず
一定の基底を用いる直交変換ではなく、特異値分解やK
L変換のように画像により最適な基底を算出する直交変
換を用いる必要がある。動画像P(t)に施す直交変換
は、特に限定されない。 (d) 第5の実施形態では、直交変換としてDCTを
用いて説明しているが,動画像P(t)と静止画像Qに
ついて同じ基底を用いる場合、例えばフーリエ変換等の
他の直交変換を用いてもよい。
The present invention is not limited to the above embodiment,
Various modifications are possible. For example, the following modifications (a) to (d) are available. (A) In the first and second embodiments, the image input to the first correlation matrix generation unit 11 is obtained by calculating the time t =
1 frame at 0, but this is 1 frame at any time
It may be a frame image. (B) In the embodiment, the matching of the basis is performed under the condition that the square of the Euclidean distance is minimized, but the matching is not limited to this method. (C) In the first to fourth embodiments, the moving image P (t) is represented by using the orthogonal transformation, the base is obtained from the still image Q by using the orthogonal transformation, and the base obtained from the moving image P (t) is An artificial moving image Q (t) is generated by performing matching, multiplying a base obtained from the still image Q by an inner product value obtained from the moving image P (t) corresponding to the base, and taking a linear sum thereof. ing. In this case, the orthogonal transformation performed on the moving image P (t) and the orthogonal transformation performed on the still image Q need not be the same orthogonal transformation, and the base obtained from the moving image P (t) and the base obtained from the still image Q are not necessary. Should just be different. However, the orthogonal transform to be applied to the still image Q requires that the basis represents the feature of the still image Q. For example, it is not an orthogonal transform using a constant basis regardless of the image as in DCT, but a singular value decomposition or K
It is necessary to use an orthogonal transformation such as an L transformation that calculates an optimal basis from an image. The orthogonal transformation performed on the moving image P (t) is not particularly limited. (D) In the fifth embodiment, the DCT is used as the orthogonal transform. However, when the same base is used for the moving image P (t) and the still image Q, another orthogonal transform such as a Fourier transform is used. May be used.

【0059】[0059]

【発明の効果】以上詳細に説明したように、第1の発明
によれば、動画像から第1の基底を求め、該第1の基底
と動画像との内積値を計算し、静止画像から第2の基底
を求めて第1の発明の基底とマッチングをとり、第2の
基底に動画像から求めた内積値を画素毎に掛けてその和
を計算するようにしたので、オブジェクトの種類に無関
係に共通の方法で静止画像を動画像化した人工動画像を
生成できる。第2の発明によれば、動画像から第1の基
底を求め、該第1の基底と動画像との内積値を計算し、
静止画像から求めた少数の限定された第2の基底を求
め、離れた地点に該内積値と第2の基底を伝送し、静止
画像を動画像化した人工動画像を生成できる。この第2
の発明では、少数の限定された第2の基底に限定するこ
とによって動画像と第2の基底との内積の計算に要する
時間、画像データの伝送時間、及び離れた地点における
人工動画像の生成に要する時間の短縮を図ることができ
る。
As described above in detail, according to the first aspect, a first base is obtained from a moving image, an inner product value of the first base and the moving image is calculated, and the inner product is calculated from the still image. Since the second base is obtained and matched with the base of the first invention, the inner product value obtained from the moving image is multiplied for each pixel by the second base, and the sum is calculated. Irrespective of this, it is possible to generate an artificial moving image obtained by moving a still image into a moving image by a common method. According to the second invention, a first base is obtained from a moving image, and an inner product value of the first base and the moving image is calculated.
It is possible to obtain a small number of limited second bases obtained from the still image, transmit the inner product value and the second base to distant points, and generate an artificial moving image obtained by converting the still image into a moving image. This second
In the invention, the time required for calculating the inner product of the moving image and the second base, the transmission time of the image data, and the generation of the artificial moving image at a distant point are limited to a limited number of the second bases. Can be shortened.

【0060】第3の発明によれば、第1又は第2の発明
のマッチング処理において、基本図形の行ベクトル同士
の内積と列ベクトル同士の内積の積の最大値を求めるこ
とによってマッチングをとるようにしたので、基本図形
のマッチング処理を高速化できる。第4の発明によれ
ば、構成要素内に記憶されたDCTの基底を用いて処理
を行うようにしたので、動画像のフレーム毎に基底を計
算する必要がない。更に、DCTの基底は構成要素間で
伝達の必要がないので、動画像生成装置をハードで構成
する場合、回路構成をシンプルにできる。第5及び第6
の発明によれば、直交変換の基底と動画像及び静止画像
との内積をそれぞれ求め、2つの内積の間でマッチング
をとり、静止画像の内積を動画像の内積と相似形に時間
方向に変化させることにより、静止画像を動画像化した
人工動画像を生成できる。この第5及び第6の発明で用
いる直交変換は、DCTやフーリエ変換等、画像のサイ
ズによって基底が決まる変換なので、基底をオブジェク
トの種類に応じて計算する必要がない。そのため、オブ
ジェクトの種類によらず共通の方法で静止画像から人工
動画像を生成でき、ハードウェアで実現する場合には、
回路構成をシンプルにできる。又、人工動画像を生成し
た後、画像に修正を加える必要がない。
According to the third aspect, in the matching processing of the first or second aspect, matching is performed by obtaining the maximum value of the inner product between row vectors and the inner product between column vectors of the basic figure. Therefore, the matching processing of the basic figure can be speeded up. According to the fourth aspect, since the processing is performed using the DCT base stored in the component, it is not necessary to calculate the base for each frame of the moving image. Further, since the base of the DCT does not need to be transmitted between the components, the circuit configuration can be simplified when the moving image generating apparatus is configured by hardware. Fifth and sixth
According to the invention, the inner product between the base of the orthogonal transformation, the moving image and the still image is obtained, matching is performed between the two inner products, and the inner product of the still image is changed in the time direction in a similar manner to the inner product of the moving image. By doing so, it is possible to generate an artificial moving image obtained by converting a still image into a moving image. Since the orthogonal transform used in the fifth and sixth aspects of the present invention is a transform whose base is determined by the size of the image, such as DCT or Fourier transform, it is not necessary to calculate the base according to the type of the object. Therefore, an artificial moving image can be generated from a still image by a common method regardless of the type of an object.
The circuit configuration can be simplified. Further, there is no need to modify the image after generating the artificial moving image.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明の第1の実施形態の動画像生成装置の構
成図である。
FIG. 1 is a configuration diagram of a moving image generation device according to a first embodiment of the present invention.

【図2】特異値分解を説明する図である。FIG. 2 is a diagram illustrating singular value decomposition.

【図3】動画像生成部の動作を説明する図である。FIG. 3 is a diagram illustrating an operation of a moving image generation unit.

【図4】本発明の第2の実施形態の動画像生成装置の構
成図である。
FIG. 4 is a configuration diagram of a moving image generation device according to a second embodiment of the present invention.

【図5】本発明の第3の実施形態の動画像生成装置の構
成図である。
FIG. 5 is a configuration diagram of a moving image generation device according to a third embodiment of the present invention.

【図6】本発明の第4の実施形態の動画像生成装置の構
成図である。
FIG. 6 is a configuration diagram of a moving image generation device according to a fourth embodiment of the present invention.

【図7】本発明の第5の実施形態の動画像生成装置の構
成図である。
FIG. 7 is a configuration diagram of a moving image generation device according to a fifth embodiment of the present invention.

【図8】図7中の内積生成部の動作を説明する図であ
る。
FIG. 8 is a diagram for explaining the operation of the inner product generation unit in FIG. 7;

【符号の説明】[Explanation of symbols]

S12a,S12b,S32 固有ベクトル
(第1の基底) S12c 基本図形(第1
の基底) S13,S24 内積値 S15a,S15b,S35 固有ベクトル
(第2の基底) S15c,S22 基本図形(第2
の基底) S16,S23,S36,S43 マッチング結果 S17,S25,S39,S45 人工動画像 S41 内積値(動画像
の基底方向の成分) S42 内積値(静止画
像の基底方向の成分) P(t) 動画像 Q 静止画像
S12a, S12b, S32 Eigenvector (first basis) S12c Basic figure (first
S13, S24 Inner product values S15a, S15b, S35 Eigenvectors (second basis) S15c, S22 Basic figures (second
S16, S23, S36, S43 Matching results S17, S25, S39, S45 Artificial moving image S41 Inner product value (base component of moving image) S42 Inner product value (base component of still image) P (t) Moving image Q Still image

Claims (6)

【特許請求の範囲】[Claims] 【請求項1】 動画像の或る1フレームに対して直交変
換を施して第1の基底を求める第1の基底生成処理と、 前記第1の基底と前記動画像の任意の時間のフレームと
の内積値をフレーム毎に算出する内積値算出処理と、 前記動画像と同種の物体の静止画像に対して直交変換を
施して第2の基底を求める第2の基底生成処理と、 前記第1の基底と前記第2の基底との近似度を検出し、
該第1の基底と該第2の基底との最も近似した場合の基
底の組み合わせを表すマッチング結果を生成するマッチ
ング処理と、 前記マッチング結果に基づいて前記第2の基底と該第2
の基底に対応する前記動画像から求めた前記内積値とを
掛け合わせ、それらの和をとることによって前記静止画
像を動画像化した人工動画像を生成する動画像生成処理
とを、 行うことを特徴とする動画像生成方法。
A first base generation process for performing an orthogonal transformation on a certain frame of a moving image to obtain a first base; and a first base and a frame at an arbitrary time of the moving image. An inner product value calculation process of calculating an inner product value of each frame for each frame; a second base generation process of performing orthogonal transformation on a still image of an object of the same kind as the moving image to obtain a second base; Detecting the degree of approximation between the base of
A matching process for generating a matching result representing a combination of the first base and the second base in the case of the closest approximation; and, based on the matching result, the second base and the second base.
Multiplying the inner product value obtained from the moving image corresponding to the basis of the moving image, and generating a sum thereof to generate an artificial moving image obtained by converting the still image into a moving image. Characteristic moving image generation method.
【請求項2】 動画像の或る1フレームに対して直交変
換を施して第1の基底を求める第1の基底生成処理と、 前記動画像と同種の物体の静止画像に対して直交変換を
施して基底を求め、該基底のうちの少数の限定された第
2の基底を求める第2の基底生成処理と、 前記第1の基底と前記第2の基底との近似度を検出し、
該第1の基底と該第2の基底との最も近似した場合の基
底の組み合わせを表すマッチング結果を生成するマッチ
ング処理と、 前記マッチング結果に基づいて限定された前記第1の基
底と前記動画像の任意の時間のフレームとの内積値をフ
レーム毎に算出する内積値算出処理と、 前記第2の基底と該第2の基底に対応する前記動画像と
の内積値とを離れた地点に伝送し、該離れた地点で該第
2の基底と該内積値とを掛け合わせ、それらの和をとる
ことによって該離れた地点で前記静止画像を動画像化し
た人工動画像を生成する動画像生成処理とを、 行うことを特徴とする動画像生成方法。
2. A first basis generation process for performing an orthogonal transformation on a certain frame of a moving image to obtain a first basis, and performing an orthogonal transformation on a still image of an object similar to the moving image. Performing a second basis generation process for obtaining a limited number of second bases among the bases, detecting an approximation degree between the first base and the second basis,
A matching process for generating a matching result indicating a combination of the first base and the second base in the case of the closest approximation; and the first base and the moving image limited based on the matching result Inner product value calculation processing for calculating an inner product value with a frame at an arbitrary time for each frame, and transmitting an inner product value between the second base and the moving image corresponding to the second base to a distant point A moving image generation method for multiplying the second base by the inner product value at the distant point and taking the sum thereof to generate an artificial moving image obtained by moving the still image at the distant point. And a process.
【請求項3】 前記直交変換に特異値分解を用いる場
合、前記マッチング処理において、前記第1の基底と前
記第2の基底との内積の最大値を求めることによって前
記マッチング結果を生成することを特徴とする請求項1
又は2記載の動画像生成方法。
3. When the singular value decomposition is used for the orthogonal transformation, the matching processing may include generating a maximum value of an inner product between the first base and the second base to generate the matching result. Claim 1.
Or the moving image generation method according to 2.
【請求項4】 画像を離散コサイン変換して予め求めた
第1の基底と動画像の任意の時間のフレームとの内積値
をフレーム毎に算出する内積値算出処理と、 前記動画像と同種の物体の静止画像に対して直交変換を
施して第2の基底を求める基底生成処理と、 前記第1の基底と前記第2の基底との近似度を検出し、
該第1の基底と該第2の基底との最も近似した場合の基
底の組み合わせを表すマッチング結果を生成するマッチ
ング処理と、 前記マッチング結果に基づいて前記第2の基底と該第2
の基底に対応する前記動画像から求めた前記内積値とを
掛け合わせ、それらの和をとることによって前記静止画
像を動画像化した人工動画像を生成する動画像生成処理
とを、 行うことを特徴とする動画像生成方法。
4. An inner product value calculation process of calculating an inner product value between a first base previously obtained by performing discrete cosine transform of an image and a frame at an arbitrary time of a moving image for each frame; Base generation processing for performing orthogonal transformation on a still image of an object to obtain a second base, detecting an approximation degree between the first base and the second base,
A matching process for generating a matching result representing a combination of the first base and the second base in the case of the closest approximation; and, based on the matching result, the second base and the second base.
Multiplying the inner product value obtained from the moving image corresponding to the basis of the moving image, and generating a sum thereof to generate an artificial moving image obtained by converting the still image into a moving image. Characteristic moving image generation method.
【請求項5】 動画像の各フレームの基底の方向の成分
である第1の基底方向成分をフレーム毎に求める第1の
基底方向成分計算処理と、 前記動画像と同種の物体の静止画像の基底の方向の成分
である第2の基底方向成分を求める第2の基底方向成分
計算処理と、 前記第1の基底方向成分と前記第2の基底方向成分との
近似度を検出し、該第1の基底方向成分と該第2の基底
方向成分とが最も近似する時刻を表すマッチング時刻を
生成するマッチング処理と、 前記第2の基底方向成分を前記マッチング時刻からの前
記第1の基底方向成分の変化と相似形に時間方向に変化
させ、該第2の基底方向成分に対応する前記動画像の基
底を掛け合わせ、それらの和をとることによって前記静
止画像を動画像化した人工動画像を生成する動画像生成
処理とを、 行うことを特徴とする動画像生成方法。
5. A first base direction component calculation process for obtaining, for each frame, a first base direction component which is a base direction component of each frame of a moving image, and a first base direction component calculation process of a still image of an object of the same kind as the moving image. A second base direction component calculation process for obtaining a second base direction component that is a component in the base direction; detecting a degree of approximation between the first base direction component and the second base direction component; A matching process for generating a matching time indicating a time at which the first base direction component and the second base direction component are closest to each other; and converting the second base direction component to the first base direction component from the matching time. Is changed in the time direction in a manner similar to the change of the base image, the base of the moving image corresponding to the second base direction component is multiplied, and the sum thereof is taken to obtain an artificial moving image obtained by converting the still image into a moving image. Moving image generation processing to generate And a moving image generation method.
【請求項6】 前記基底に直交変換の基底を用いる場
合、画像の基底方向の成分に画像と基底との内積値を用
いることを特徴とする請求項5記載の動画像生成方法。
6. The moving image generation method according to claim 5, wherein when the basis of the orthogonal transformation is used as the basis, an inner product value of the image and the basis is used as a component in a direction of the basis of the image.
JP8242970A 1996-09-13 1996-09-13 Method for generating moving image Withdrawn JPH1091807A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP8242970A JPH1091807A (en) 1996-09-13 1996-09-13 Method for generating moving image

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP8242970A JPH1091807A (en) 1996-09-13 1996-09-13 Method for generating moving image

Publications (1)

Publication Number Publication Date
JPH1091807A true JPH1091807A (en) 1998-04-10

Family

ID=17096948

Family Applications (1)

Application Number Title Priority Date Filing Date
JP8242970A Withdrawn JPH1091807A (en) 1996-09-13 1996-09-13 Method for generating moving image

Country Status (1)

Country Link
JP (1) JPH1091807A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213560A (en) * 2006-02-09 2007-08-23 Mitsubishi Electric Research Laboratories Inc Computerized method for tracking object in frame sequence
WO2023127069A1 (en) * 2021-12-27 2023-07-06 日本電気株式会社 Collation system, collation method, and collation program

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007213560A (en) * 2006-02-09 2007-08-23 Mitsubishi Electric Research Laboratories Inc Computerized method for tracking object in frame sequence
WO2023127069A1 (en) * 2021-12-27 2023-07-06 日本電気株式会社 Collation system, collation method, and collation program

Similar Documents

Publication Publication Date Title
US6088040A (en) Method and apparatus of facial image conversion by interpolation/extrapolation for plurality of facial expression components representing facial image
EP0621969B1 (en) Memory-based method and apparatus for computer graphics
Balasubramanian et al. Sequential scalar quantization of color images
CN109410131B (en) Face beautifying method and system based on condition generation antagonistic neural network
JPH01503588A (en) Digital image compression and transmission system using visually weighted transform coefficients
JPH08205156A (en) Picture quality evaluating device for digitally compressed and reproduced image
JP7271244B2 (en) CNN processing device, CNN processing method, and program
JPH1013839A (en) Half pixel motion estimate device
JPH10178640A (en) Fractal image encoding method of single image or image sequence
US20040207735A1 (en) Method, apparatus, and program for moving image synthesis
US7356192B2 (en) Apparatus and method for processing an image
JP3577325B2 (en) Data processing method by discrete cosine transform (DCT), DCT method, and DCT data processing circuit
KR970004884A (en) Motion estimation method and estimation device
Hwang et al. Discohead: audio-and-video-driven talking head generation by disentangled control of head pose and facial expressions
US6486881B2 (en) Basis functions of three-dimensional models for compression, transformation and streaming
JPH1091807A (en) Method for generating moving image
CN113902818A (en) Voice-driven human body action generation method based on implicit coding enhancement
JPH10271505A (en) Signal processor, coding circuit and decoding circuit
CN116309990A (en) Face video generation method, device, equipment and storage medium
JPH11505349A (en) System and method for shearing or rotating an image using discrete cosine transform
JPH08140097A (en) Compressing device for information on moving image contour and extracting device for key frame of moving image
JP4173705B2 (en) Moving picture composition method, apparatus, and program
JPH08116541A (en) Image coder
WO2023095792A1 (en) Multi-viewpoint image generation device, method, and program
JP3435286B2 (en) Template matching method

Legal Events

Date Code Title Description
A300 Withdrawal of application because of no request for examination

Free format text: JAPANESE INTERMEDIATE CODE: A300

Effective date: 20031202