JPH02199579A - Method of forming animation - Google Patents

Method of forming animation

Info

Publication number
JPH02199579A
JPH02199579A JP1770189A JP1770189A JPH02199579A JP H02199579 A JPH02199579 A JP H02199579A JP 1770189 A JP1770189 A JP 1770189A JP 1770189 A JP1770189 A JP 1770189A JP H02199579 A JPH02199579 A JP H02199579A
Authority
JP
Japan
Prior art keywords
input
data
dynamic information
image
dynamic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP1770189A
Other languages
Japanese (ja)
Other versions
JP2714100B2 (en
Inventor
Hideji Nakamura
英児 中村
Shigeki Masaki
正木 茂樹
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Priority to JP1017701A priority Critical patent/JP2714100B2/en
Publication of JPH02199579A publication Critical patent/JPH02199579A/en
Application granted granted Critical
Publication of JP2714100B2 publication Critical patent/JP2714100B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PURPOSE:To enable a person having no expert knowledge to easily input animation by using a digitizing device and an image input device such as an image scanner to input the trace of the movement of an objective image, a time change such as a speed and the state of deformation as graphic information and calculating these contents to form an animation. CONSTITUTION:A dynamic information input image is displayed on a dynamic information input part 102 by an image display part 108 and animation information is conversationally inputted by means of a mouse or a tablet. After inputting the dynamic information of an object to an input area, data are sent to a correction/edition part 103, the graphic correction and edition of a trace and the dynamic information are executed by means of the mouse or the like and the data of movement are stored in a storage part 104. Then, the dynamic information data stored in the storage part 104 are read out by a dynamic contents calculating part 105 and applied to an animation forming part 106. The forming part 106 reads out the object data formed by an object data forming part 101, adds the data of the calculating part 105 to the read object data to form an animation and displays the animation on the display part 108.

Description

【発明の詳細な説明】 〔産業上の利用分野〕 この発明は、コンピュータにおいて動画を作成する際、
動く対象となる画像に動きの情報を入力し、該入力され
た情報より動画を作成する動画作成方法に関するもので
ある。
[Detailed Description of the Invention] [Industrial Application Field] This invention provides a method for creating a moving image on a computer.
The present invention relates to a video creation method in which motion information is input to an image that is a moving target, and a video is created from the input information.

(従来の技術) 従来、コンピュータを用いた動画の作成には、画像生成
用の特殊なプログラム言語を用いる方法がある。これは
、動く対象となる画像およびこの画像に対して与える動
きの種類や数値データをプログラム言語で直接細かく指
定し、この指定内容に基づいてコンピュータで動画を作
成する方法である。この方法では、動画を作成するため
には動画作成用の特殊なプログラム言語等の専門的な知
識が必要とされる問題点があった。
(Prior Art) Conventionally, there is a method of creating a moving image using a computer using a special programming language for image generation. This is a method in which an image to be moved, the type of motion to be applied to the image, and numerical data are directly specified in detail in a programming language, and a moving image is created using a computer based on the specified contents. This method has a problem in that creating a video requires specialized knowledge such as a special programming language for video creation.

また、コンピュータを用いて他に動画を作成する方法と
して、動画を1コマ1コマ手作業で作成していく方法が
ある。この方法では以下のようにして動画を作成する。
Another method of creating a video using a computer is to manually create the video frame by frame. In this method, you can create a video as follows.

まず、動画の1コマに相当する画面の内容をマウス等を
用いて会話的に作成し、記憶媒体上に動画の1コマとし
て保存する。
First, the contents of a screen corresponding to one frame of a moving image are created interactively using a mouse or the like, and saved as one frame of a moving image on a storage medium.

サラニ、この1コマの動画内容において、動く対象とな
る画像(以下オブジェクトと記述する)に対しマウス等
を用いて移動や拡大、縮小の処理を施し、次のコマとし
て記憶媒体上に保存する。このような作業を繰り返し行
い一連の動画として作成する。この方法では、プログラ
ミング言語等の専門的な知識は必要としないが、コマ1
枚1枚においてオブジェクトの動きを詳細に入力する必
要があった。
In this one-frame video content, a moving image (hereinafter referred to as an object) is moved, enlarged, or reduced using a mouse or the like, and then saved as the next frame on a storage medium. Repeat this process to create a series of videos. This method does not require specialized knowledge such as programming languages, but
It was necessary to input the movement of the object in detail for each image.

(発明が解決しようとする課題〕 コンピュータを用いて動画を作成する際、これら従来の
方式では前述のようにプログラムのための専門の知識を
必要としたり、あるいはオブジェクトの動ぎを1コマ1
コマ入力するために膨大な労力が必要であフた。
(Problems to be Solved by the Invention) When creating a video using a computer, these conventional methods require specialized knowledge for programming as described above, or require the movement of objects to be recorded frame by frame.
It took a huge amount of effort to input the frames.

この発明の目的は、従来技術の上記のような欠点を解消
し、動く対象画像の動きの指示を視覚的に入力編集し、
動画作成を容易にする動画作成方式を提供することにあ
る。
The purpose of the present invention is to solve the above-mentioned drawbacks of the prior art, to visually input and edit instructions for the movement of a moving target image, and to
An object of the present invention is to provide a video creation method that facilitates video creation.

(課題を解決するための手段) この発明に係る動画作成方法は、マウスやタブレット等
のディジタイズ装置やイメージスキャナ等の画像入力装
置を用いて動く対象画像の動きの軌跡や速度などの時間
的変化、動く対象画像の時間的な変形の様子などを図形
的な情報として入力し、図形的に入力された各種変形要
因の時間的変化から対象画像の動きの内容を算出するこ
とによって動画を入力作成するものである。
(Means for Solving the Problems) A video creation method according to the present invention is characterized by temporal changes in the trajectory and speed of movement of a moving target image using a digitizing device such as a mouse or a tablet, or an image input device such as an image scanner. , a video is input and created by inputting the temporal deformation of a moving target image as graphical information, and calculating the content of the movement of the target image from the temporal changes of various deformation factors input graphically. It is something to do.

(作用〕 この発明においては、動画を作成するにあたって複雑な
動きの内容を図形的に入力編集することにより直感的な
形で動画作成ができ、動画作成のための専門的な知識を
要することなく、また、オブジェクトの動きを1コマ1
コマ詳細に入力する必要がなく動画が作成される。
(Operation) In this invention, when creating a video, by graphically inputting and editing the content of complex movements, the video can be created in an intuitive manner, without requiring specialized knowledge for video creation. , you can also record the movement of the object one frame at a time.
Videos are created without the need to enter frame details.

(実施例〕 以下、図面に従フてこの発明の詳細な説明する。(Example〕 Hereinafter, the present invention will be described in detail with reference to the drawings.

第1図はこの発明の一実施例の構成を示すブロック図で
ある。101はオブジェクト作成部、102は動的情報
入力部、103は動的情報修正編集部、104はオブジ
ェクトの図形データや動的内容のエータを記憶する記憶
部、105は動的内容算出部、106は動画作成部、1
07は全体の実行およびマウスやタブレット、イメージ
スキャナあるいはキーボード等の入力装置からのデータ
の入力、デイスプレィ等のデータ表示装置を制御する制
御部、108は画像表示部である。
FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention. 101 is an object creation section, 102 is a dynamic information input section, 103 is a dynamic information modification/editing section, 104 is a storage section that stores object graphic data and dynamic content data, 105 is a dynamic content calculation section, 106 is video creation department, 1
Reference numeral 07 designates a control unit that controls overall execution, inputs data from an input device such as a mouse, tablet, image scanner, or keyboard, and controls a data display device such as a display. Reference numeral 108 designates an image display unit.

オブジェクト作成部101は、オブジェクトをマウスや
タブレットなどのディジタイズ装置を用いて、該オブジ
ェクトの輪郭を構成する点列の位置情報として図形的に
入力し、オブジェクトの図形データを第2図(後述)の
ようなデータ構成で生成し、該オブジェクトデータを画
像表示部108に渡しオブジェクトを表示する。さらに
、該オブジェクトの図形データを記憶部104に記憶す
る。
The object creation unit 101 uses a digitizing device such as a mouse or a tablet to graphically input an object as positional information of a sequence of points forming the outline of the object, and converts the graphical data of the object into the data shown in FIG. 2 (described later). The object data is generated in such a data configuration and the object data is passed to the image display unit 108 to display the object. Furthermore, the graphic data of the object is stored in the storage unit 104.

第2図(a)、(b)はオブジェクトと図形データの一
例を示すもので、マウスやタブレットなどのディジタイ
ズ装置を用いて入力した第2図(a)に示すオブジェク
トの図形データのデータ構造の一例を第2図(b)に示
しており、201はオブジェクトを識別するための番号
i、202は該オブジェクト1201を構成する端点の
数nI、203は各端点の属性At(t)、204は各
端点P+(t)の座標値(x+(t)、 y+(t))
、(t=1、・・・・・・、nl ;座標原点はあらか
じめ定めておく)、205はオブジェクトiの内部領域
色Ca1.206はオブジェクトiの境界色Cbl、2
07は次のオブジェクト(例えばオブジェクトj)への
ジャンプアドレスP1である。ここで、端点の属性A 
r (t)は以下の意味を持つ。
Figures 2 (a) and (b) show examples of object and graphic data, and the data structure of the graphic data of the object shown in Figure 2 (a) input using a digitizing device such as a mouse or tablet. An example is shown in FIG. 2(b), where 201 is a number i for identifying an object, 202 is the number nI of endpoints that make up the object 1201, 203 is the attribute At(t) of each endpoint, and 204 is Coordinate values of each end point P+(t) (x+(t), y+(t))
, (t=1, ..., nl; the coordinate origin is determined in advance), 205 is the internal area color Ca1 of object i.206 is the boundary color Cbl, 2 of object i
07 is a jump address P1 to the next object (for example, object j). Here, the endpoint attribute A
r (t) has the following meaning.

第2図(a)はオブジェクトiがP+(1)〜P+(L
+)の11個の端点間を境界色Cblの直線で結んで構
成し、内部は領域色Calで塗りつぶす場合について例
示したものである。実際の動く対象画像は複数のオブジ
ェクトから構成しても構わない。また、第2図(b)で
はマウス等を用いてオブジェクトが多角形や円等の幾何
学的な図形(以後ジオメトリツク図形と記述する)から
なる場合のデータ構造の例を示しているが、イメージス
キャナを用いてオブジェクト画像を入力し、オブジェク
トを構成する画素1点1点の色値および画素位置情報を
データとして持つドツト形式のデータ構造でも何ら差し
支えない。
Figure 2 (a) shows that object i is P+(1) to P+(L
This example shows a case in which the 11 end points of +) are connected by straight lines of boundary color Cbl, and the inside is filled with area color Cal. An actual moving target image may be composed of a plurality of objects. In addition, Fig. 2(b) shows an example of a data structure when an object is composed of a geometric figure such as a polygon or a circle (hereinafter referred to as a geometric figure) using a mouse or the like. There is no problem with a dot-format data structure in which an object image is input using an image scanner and the data includes color values and pixel position information for each pixel constituting the object.

動的情報入力部102の動作を第3図(a)。FIG. 3(a) shows the operation of the dynamic information input unit 102.

第4図を用いて説明する。ここで、動的情報とはオブジ
ェクトの動きを決定する上で重要となる移動の軌跡や移
動の速度の時間変化、拡大縮小率の時間変化、回転角度
の時間変化の情報等の変形要因を示す。あらかじめ動的
情報入力部102は第4図に示す動的情報入力画面を画
像表示部108を用いて表示しておき、マウスやタブレ
ットを用いて動的情報を会話的に入力する。ここで、4
01は移動の軌跡の入力領域、402は速度時間変化入
力領域、・403は拡大縮小率時間変化入力領域、40
4は回転角度時間変化入力領域、405はメニュー表示
領域である。該入力領域上でオブジェクトの動的情報を
入力後、該動的情報を後述する第3図(a)のようなデ
ータ構成で動的情報修正編集部103にデータを渡す。
This will be explained using FIG. Here, dynamic information refers to deformation factors that are important in determining the movement of an object, such as information on the trajectory of movement, time changes in movement speed, time changes in scaling ratio, and time changes in rotation angle. . The dynamic information input unit 102 displays the dynamic information input screen shown in FIG. 4 in advance using the image display unit 108, and dynamic information is input interactively using a mouse or a tablet. Here, 4
01 is a movement locus input area, 402 is a speed time change input area, 403 is an enlargement/contraction ratio time change input area, 40
4 is a rotation angle time change input area, and 405 is a menu display area. After inputting the dynamic information of the object on the input area, the dynamic information is passed to the dynamic information correction/editing section 103 in a data structure as shown in FIG. 3(a), which will be described later.

以下、動的情報の入力の一例としてオブジェクトの動き
の軌跡の入力方法について詳細に説明する。
Hereinafter, as an example of inputting dynamic information, a method for inputting a locus of movement of an object will be described in detail.

オブジェクトの動的情報を入力するには、まず動的情報
入力対象のオブジェクト番号をキーボード等から指示す
る。次に、マウス等により、まずメニュー表示領域40
5上で゛入力°°を指定し、軌跡の入力領域401に直
接マウス等のカーソルを移動させる。さらに、該軌跡の
入力領域401内でマウス等のボタンを押下し、ボタン
を押下しながらカーソルを移動させることにより、カー
ソルの移動した軌跡の座標データ(Xpt (t) +
Ypl (t))(t=1.・・・・・・、Npl)を
取り込み、移動の軌跡のデータとする。ただし、Npl
は該入力した軌跡の総点数である。入力を終了させるた
めにはマウス等のボタンを離せばよい。なお、データを
入力する際は、入力された座標データ間を直線やスプラ
イン関数等の曲線により補間し、その結果を画像表示部
108の表示画面上の軌跡の入力領域401に重畳して
表示する。
In order to input dynamic information of an object, first, the object number for which dynamic information is to be input is specified using a keyboard or the like. Next, use the mouse or the like to first select the menu display area 40.
5, and move a cursor such as a mouse directly to the trajectory input area 401. Furthermore, by pressing a button such as a mouse within the input area 401 of the trajectory and moving the cursor while pressing the button, coordinate data (Xpt (t) +
Ypl (t)) (t=1....., Npl) is taken in and used as movement locus data. However, Npl
is the total number of points of the input trajectory. To finish inputting, just release the button on the mouse or the like. Note that when inputting data, the input coordinate data is interpolated using a straight line or a curve such as a spline function, and the result is superimposed and displayed in the locus input area 401 on the display screen of the image display unit 108. .

速度の時間変化やスケールの時間変化、回転角度の時間
変化の入力については、それぞれの動的情報の時間変化
の入力領域において移動の軌跡情報入力と同様にマウス
等を用いて入力する。該入力された動的情報のデータ構
成の一例を第3図(a)に示す。
The time change in speed, the time change in scale, and the time change in rotation angle are input using a mouse or the like in the time change input area of each dynamic information in the same way as the movement locus information input. An example of the data structure of the input dynamic information is shown in FIG. 3(a).

第3図(a)、(b)において、301はオブジェクト
を識別するための番号i、302は入力された軌跡の総
点数Npl、303は該軌跡の座標値データ(Xpt(
i)、Yp+(j)’)  (t=ls・・−、Npt
)、3o4は速度の時間変化の入力における入力総点数
Nv+−305は該入力された速度の時間変化の座標値
データ(Nvt(t)、Yv+(t))  (t=1s
・・−1Nv+)、306は拡大縮小率の時間変化の入
力における入力総点数Nil、307は該入力された拡
大縮小率の時間変化の座標値データ(X−+ (t) 
+Ysl (t))  (t=1、・・・・・・、 N
1p)、30Bは回転角度の時間変化の入力における入
力総点数Nrl、309は該入力された回転角度の時間
変化の座標値データ(×rI(t)y、t(t))  
(j=l;++m、 Nr+)、310は次のオブジェ
クトの動的情景のアドレスを格納するためのジャンプア
ドレスP1を示す。
In FIGS. 3(a) and (b), 301 is the number i for identifying the object, 302 is the total number of points Npl of the input trajectory, and 303 is the coordinate value data (Xpt(
i), Yp+(j)') (t=ls...-, Npt
), 3o4 is the total number of input points Nv+-305 is the coordinate value data (Nvt(t), Yv+(t)) of the inputted speed change over time (t=1s
...-1Nv+), 306 is the total number of input points Nil in the input of the time change of the scaling ratio, and 307 is the coordinate value data (X-+ (t)
+Ysl (t)) (t=1,..., N
1p), 30B is the total number of input points Nrl in the input of the time change of the rotation angle, and 309 is the coordinate value data (×rI(t)y, t(t)) of the input time change of the rotation angle.
(j=l;++m, Nr+), 310 indicates a jump address P1 for storing the address of the dynamic scene of the next object.

今まではマウスやタブレットなどのディジタイズ装置を
用いた場合について動的情報入力部1゜2の動作につい
て説明したが、以下のようにイメージスキャナ等の画像
入力装置を用いてもよい。
Up to now, the operation of the dynamic information input unit 1.2 has been described using a digitizing device such as a mouse or a tablet, but an image input device such as an image scanner may also be used as described below.

イメージスキャナなどを用いる際は、第4図のような表
示画面イメージを印刷したシートをあらかじめ用意して
おき、各入力領域の軌跡やそれぞれの動的情報の時間変
化などを書き込んで使用する。次に、該入力シートをイ
メージスキャナでイメージデータとして読み取らせる。
When using an image scanner or the like, a sheet with a display screen image printed on it as shown in FIG. 4 is prepared in advance, and the trajectory of each input area and the time change of each dynamic information are written on it. Next, the input sheet is read as image data by an image scanner.

該得られたイメージデータから細線化、線追跡処理等に
よりそれぞれの動的情報の入力の枠や座標軸の部分を除
去しく入力シートがドロップアウトカラーで印刷した場
合は枠除去処理等は不要)、必要となる動きの入力情報
をイメージデータからベクトルブタに変換する。該得ら
れたベクトルデータより各点の座標等を求め、第3図(
a)のようなデータを得る。
From the obtained image data, remove the frames and coordinate axes for inputting each dynamic information by thinning, line tracing, etc. (If the input sheet is printed in dropout color, frame removal processing is not necessary), Convert the required motion input information from image data to a vector pig. The coordinates of each point are calculated from the obtained vector data and shown in Figure 3 (
Obtain data like a).

動的情報修正編集部103では動的情報入力部102で
入力されたオブジェクトの動的情報、すなわち、軌跡や
それぞれの動的情報に対してマウス等を用いて図形的に
修、正編集を行い、該動きのデータを記憶部104に記
憶する。該編集部の入力にはマウスやタブレットなどの
ディジタイズ装置を用いる。以下の動的情報修正編集部
103の動作を第3図、第4図を用いて説明する。
The dynamic information correction/editing unit 103 graphically corrects and corrects the dynamic information of the object input in the dynamic information input unit 102, that is, the trajectory and each dynamic information using a mouse or the like. , and stores the movement data in the storage unit 104. A digitizing device such as a mouse or a tablet is used for input to the editing section. The following operation of the dynamic information correction/editing unit 103 will be explained using FIGS. 3 and 4.

あらかじめ動的情報修正編集部103は動的情報入力部
102で動的情報を入力した際の動的情報入力・修正編
集画面(第4図)を画像表示部10Bを用いて表示して
おく。既に動的情報入力部102で入力された第3図C
B)の動的情報データの修正編集を行う場合には、まず
、マウス等によりメニュー表示領域405におけるパ修
正編集′°を選択する。次に、マウス等のカーソルを修
正すべき動的情報の入力・修正編集領域内に移動させ、
マウス等のボタンを押して指示すること、により修正編
集する動的情報を指定する。指定された動的情報を当該
動的情報入力領域上で動的情報入力部102における入
力と同様にして再入力する。あるいは既に入力された動
的情報を表示した動的情報入力・編集画面(第4図)を
見ながらマウス等のカーソルを修正編集すべき点の付近
まで移動させ、マウス等のボタンを押下することにより
当該修正点を選択指示し、1点のみ再入力する修正編集
でも構わない。いずれの場合でも修正編集した動的情報
は、第3図(b)に示すように、当該データの位置を再
入力したデータにより書き変える(第3図(b)では軌
跡のデータを修正編集した例を示す)。オブジェクトの
修正編集が終了次第、・修正した第3図(b)のデータ
を記憶部104に記憶する。
The dynamic information correction/editing section 103 uses the image display section 10B to display in advance the dynamic information input/correction/editing screen (FIG. 4) used when dynamic information is input using the dynamic information input section 102. C in FIG. 3, which has already been input in the dynamic information input unit 102.
When performing correction editing of the dynamic information data in B), first select ``par correction edit'' in the menu display area 405 using a mouse or the like. Next, move the cursor such as a mouse into the input/correction editing area of the dynamic information to be corrected,
Dynamic information to be corrected and edited is specified by pressing a button on a mouse or the like. The specified dynamic information is re-input on the dynamic information input area in the same manner as input in the dynamic information input unit 102. Alternatively, while looking at the dynamic information input/edit screen (Figure 4) that displays dynamic information that has already been input, move the cursor of a mouse or other device to the vicinity of the point to be corrected and edited, and press the button of the mouse or other device. It is also possible to perform correction editing by selecting and instructing the correction point using , and re-entering only one point. In either case, the modified and edited dynamic information is rewritten with the re-input data at the position of the relevant data, as shown in Figure 3 (b). example). As soon as the editing of the object is completed, the corrected data shown in FIG. 3(b) is stored in the storage unit 104.

修正編集を簡易に行うために、複写(数入力された動的
情報を他の部分に転写)や削除(該情報を削除)、伸長
、圧縮(時間変化の縦軸、横軸の仲、圧縮)、移動(該
情報を他の部分に移動)等の機能を設けても差し支えな
い。
In order to easily edit and edit, copy (transcribe dynamic information that has been input to another part), delete (delete the information), expand, compress (vertical axis of time change, horizontal axis, compression ), movement (moving the information to another part), etc. functions may be provided.

動的内容算出部105は動的情報修正編集部103で記
憶部104に記憶されたオブジェクトの動的情報データ
(第3図(b)と同じもの)を読みだし、該データから
実際に動きの変換行列等の動画作成のための第5図に示
すデータを生成し、該動画作成のためのデータを動□画
作成部1゜6に渡す。以下に動的内容算出部105の動
作を詳細に説明する。     ′ まず、速度の時間変化を求める。第4図に示す表示画面
の座標系で入力された点の座標値〔xvI(t)、Yv
+(t)) (t’=1.・・・・・・+NVl;0≦
Xv’+(t)≦LvX、O≦Yvt(t)≦LVy;
LVXIV)+−’はあ・らかしめ定められた入力領域
の縦軸、横軸の再犬値)に対して、xvI(t)=l+
、 Yy’t=fv+(u)なる置き変え(変換)を行
い、新たな座標値表現(u、fv+ (u)) (0≦
U≦Lv、、0≦fv+ (u)≦Lvy)とする。こ
の後、変換した点間を関数等で補間する。こうすること
により、オブジェクトが動くコマの枚数をN1とすると
任意のコマ数K(k=’i、・・・・・・、 N+)に
おける速度はvi(k)  =fv+((k−1)/(
N+−’1)×Lvx)と表せる。
The dynamic content calculation unit 105 reads the dynamic information data of the object (same as that shown in FIG. 3(b)) stored in the storage unit 104 by the dynamic information correction/editing unit 103, and calculates the actual movement from this data. The data shown in FIG. 5 for creating a moving image, such as a transformation matrix, is generated, and the data for creating a moving image is passed to the moving image creating section 1.6. The operation of the dynamic content calculation unit 105 will be described in detail below. ′ First, find the change in speed over time. The coordinate values of the points input in the coordinate system of the display screen shown in FIG. 4 [xvI(t), Yv
+(t)) (t'=1.....+NVl;0≦
Xv'+(t)≦LvX, O≦Yvt(t)≦LVy;
xvI(t)=l+
, Yy't=fv+(u), and a new coordinate value expression (u, fv+ (u)) (0≦
U≦Lv, 0≦fv+ (u)≦Lvy). After this, interpolation is performed between the converted points using a function or the like. By doing this, if the number of frames in which the object moves is N1, the speed at an arbitrary number of frames K (k = 'i, ..., N+) is vi (k) = fv + ((k-1) /(
It can be expressed as N+-'1)×Lvx).

拡大縮小率や回転角度の時間変化sf (k)、rr 
(k)(k=1.・・・・・・、 N+)についても速
度の時間変化と同様にして求められる。
Temporal change in scaling ratio and rotation angle sf (k), rr
(k) (k=1..., N+) is also found in the same way as the time change in speed.

次に、任意のコマ数kにおけるX方向、y方向の・入力
された。軌跡の始点からの移動画素数t、 (k)、t
、(k)  (k=t、・・・・・・、 N+)を以下
のようにして決定する。
Next, the X and Y directions for an arbitrary number of frames k are input. Number of moving pixels from the starting point of the trajectory t, (k), t
, (k) (k=t,..., N+) are determined as follows.

軌跡の座標値データ(Xp+ (t> +Ypl (t
))  (t= 1.・・・・・・、’Np+))を関
数等で補間し、連結した軌跡の離散座標点系列C: (
x(1))、y(1))・・・・・・(X(L))。
Coordinate value data of trajectory (Xp+ (t> +Ypl (t
)) (t= 1....,'Np+)) is interpolated with a function, etc., and the discrete coordinate point series C of the connected trajectory is created: (
x(1)), y(1))...(X(L)).

y (’L) )を得・る。この時、始点 (x (1
)  、y(1) )から終点(に(L;) ) 、y
 (L) )までの軌跡C上で移動する際の移動画素数
はLである。軌跡の離散座標点系列C上で始点(x(1
))、y(1))から (x(Il))、 y(1))
まで移動する際の移動画素数℃が、k=”、X、 、v
i (k)/’VXしくQ’+1 (但しV = j 
vi (k))  となる時、tx(k)=x(1−x
(1)、ty(k)=’y(u)−y(1)とする。
y ('L) ) is obtained. At this time, the starting point (x (1
), y(1) ) to the end point (to(L;) ), y
The number of moving pixels when moving on the trajectory C to (L) ) is L. On the discrete coordinate point series C of the trajectory, start point (x(1
)), y(1)) to (x(Il)), y(1))
The number of moving pixels °C when moving up to k=”,X, ,v
i (k)/'VXQ'+1 (where V = j
vi (k)), tx(k)=x(1-x
(1), ty(k)='y(u)-y(1).

オブジェクトのコマ毎の動的情報を算出した後、オブジ
ェクトの座標値を変換するための変換行列を作成する。
After calculating the dynamic information for each frame of the object, a transformation matrix for transforming the coordinate values of the object is created.

すなわち、任意のコマ数kにおける変換行列は次頁のよ
うになる。
That is, the transformation matrix for an arbitrary number of frames k is as shown on the next page.

変換行列算出後、第5図のようなデータを生成する。こ
こで、第5図は動的内容算出部の出力データの一例であ
り、501は以下に続く動的情報のオブジェクト番号i
、502はオブジェクトiの動的情報の変換行列M 1
(kl (k= t 、・・・・・・、 Nt)、50
3は次のオブジェクトの変換行列等の動的内容を格納し
たジャンプアドレスPdlである。この後、動的内容算
出部105は第5図のオブジェクトの動的内容データを
動画作成部106に渡す。
After calculating the transformation matrix, data as shown in FIG. 5 is generated. Here, FIG. 5 is an example of output data of the dynamic content calculation unit, and 501 is the object number i of the dynamic information that follows.
, 502 is a transformation matrix M 1 of dynamic information of object i
(kl (k=t,..., Nt), 50
3 is a jump address Pdl that stores dynamic contents such as a transformation matrix of the next object. Thereafter, the dynamic content calculation unit 105 passes the dynamic content data of the object shown in FIG. 5 to the video creation unit 106.

動画作成部106はオブジェクト作成部101で作成さ
れたオブジェクトデータ(第2図)を記憶部104から
読み出し、動的内容算出部105で生成された動的内容
データ(第5図)をもとに動画を作成し画像表示部10
8に動画を表示する。すなわち、オブジェクトを構成す
る端点(X+ (t) 、y(t)) (t= 1 s
・・−’、 nt)の任意のコマ数kにおける座標値(
x ′1(t) 、y ′r (t))は動的内容算出
部105で生成された座標の変換行列M t (k)に
より、 (平行移動の変換行列)×(スケールの変換行列)×(
回転の変換行列)(X” +(t)3” +(t)IE
(x+’(t)y+(t)t)  M+(k)で算出さ
れ、さらに、当該端点の属性203にしたがって新たな
オブジェクトを生成する。生成されたオブジェクトを画
像表示部108に表示する。このような動作を繰り返し
行うことによって動画を生成する。また、作成された動
画は画像表示部10B以外のデイスプレィ等の表示装置
に表示してもよい。
The video creation unit 106 reads out the object data (FIG. 2) created by the object creation unit 101 from the storage unit 104, and based on the dynamic content data (FIG. 5) generated by the dynamic content calculation unit 105. Create a video and display the image display section 10
Display the video on 8. In other words, the end points (X+ (t), y(t)) (t= 1 s
...-', nt) at an arbitrary number k of frames (
x'1(t), y'r(t)) are (translation matrix of translation) x (transformation matrix of scale) by the coordinate transformation matrix M t (k) generated by the dynamic content calculation unit 105. ×(
Rotation transformation matrix) (X” + (t)3” + (t)IE
(x+'(t)y+(t)t) M+(k) is calculated, and a new object is further generated according to the attribute 203 of the end point. The generated object is displayed on the image display unit 108. A moving image is generated by repeatedly performing such operations. Further, the created moving image may be displayed on a display device other than the image display section 10B, such as a display.

記憶部104はオブジェクト作成部101で作成された
データ(第2図)や動的情報修正編集部103で入力さ
れたデータ(第3図)、さらに動的内容算出部105で
算出されたデータ(第5図)を格納する。
The storage unit 104 stores data created by the object creation unit 101 (FIG. 2), data input by the dynamic information editing unit 103 (FIG. 3), and data calculated by the dynamic content calculation unit 105 (Fig. Fig. 5) is stored.

制御部107は第1図における全体の処理シーケンスの
制御、各部の実行制御およびオブジェクト作成部101
.動的情報入力部102.動的情報修正編集部103で
用いるマウスやディジタイザ、スキャナ等のデータの入
力制御、画像表示部108のデイスプレィ等へのデータ
表示を制御する表示制御を行う。
The control unit 107 controls the entire processing sequence in FIG. 1, controls the execution of each unit, and controls the object creation unit 101.
.. Dynamic information input unit 102. It performs data input control for the mouse, digitizer, scanner, etc. used in the dynamic information correction/editing section 103, and display control for controlling data display on the display of the image display section 108.

画像表示部10白は制御部107の制御のもとにデイス
プレィ等にオブジェクト作成部101あるいは動的情報
入力部102.動的情報修正編集部103.動画作成部
106からのデータを受け、第2図に示すようなオブジ
ェクトあるいは第4図に示すような動的情報を表示画面
上に表示する。
The image display section 10 (white) is displayed on a display or the like under the control of the control section 107, such as the object creation section 101 or the dynamic information input section 102. Dynamic information correction editing department 103. Upon receiving data from the moving image creation section 106, objects as shown in FIG. 2 or dynamic information as shown in FIG. 4 are displayed on the display screen.

これらを動作さぜるには、動く対象となる画像(オブジ
ェクト)をオブジェクト作成部101で図形的に入力し
、第2図(b)のようなオブジェクトデータを記憶部1
04に記憶する。さらに、オブジェクトに動きを与える
ために、動的情報入力部102でオブジェクトの動咎(
動的情報)をマウスやり□ブレットなどのディジタイズ
装置やイメージスキャナなどの画像入力装置により図形
的に入力し、動的情報修正編集部103では該動的情報
を図形的に修正し、第3図(b)のデータ構成で動的情
報を記憶部104に記憶する。動的情報を入力、修正編
集する際は、第4図に示すように、画像表示部108に
入力データを表示しながら行う。動的内容算出部105
では入力、修正編集された第3図のような動的情報デー
タを記憶部104から読み出し、第5図に示すようなオ
ブジェクトの動的内容を算出する。動画作成部106で
は動的内容(第5図)をもとにコマ毎に記憶部104か
ら8売み出したオブジェクトデータ(第2図)の座標変
換を行い、動画を作成し画像表示部108に表示する。
To operate these, an image (object) to be moved is graphically input to the object creation unit 101, and object data as shown in FIG. 2(b) is input to the storage unit 101.
Stored in 04. Furthermore, in order to give motion to the object, the dynamic information input unit 102 inputs the motion of the object (
Dynamic information) is graphically input using a digitizing device such as a mouse or bullet, or an image input device such as an image scanner, and the dynamic information modification/editing section 103 modifies the dynamic information graphically. Dynamic information is stored in the storage unit 104 with the data structure shown in (b). When dynamic information is input and edited, the input data is displayed on the image display section 108 as shown in FIG. 4. Dynamic content calculation unit 105
Then, inputted, modified and edited dynamic information data as shown in FIG. 3 is read out from the storage unit 104, and dynamic contents of the object as shown in FIG. 5 are calculated. The video creation unit 106 performs coordinate transformation of the object data (Fig. 2) sold from the storage unit 104 frame by frame based on the dynamic content (Fig. 5), creates a video, and displays the image display unit 108. to be displayed.

ただし、これらの全体の処理シーケンスの制御、各部の
実行制御およびマウスやディジタイザあるいはキーボー
ド等の入力装置からのデータ入力制御等は制御部107
が行う。
However, the control unit 107 controls the overall processing sequence, the execution control of each part, and the data input control from input devices such as a mouse, digitizer, or keyboard.
will do.

以上説明したこの発明の実施例では、動的情報として移
動の軌跡や速度、拡大縮小率9回転角度を例に各々の時
間変化を入力し動画を作成する方法を述べたが、・例え
ば第6図に示すように、動的情報に曲げやねじれ等の変
形を付加しても差し支えない。ここで、601は変形前
の形状、603は変形後の形状、602は変形のための
変換行列である。
In the above-described embodiments of the present invention, a method was described for creating a moving image by inputting time changes for each of the dynamic information such as the locus of movement, speed, and the scaling ratio of 9 rotation angles. As shown in the figure, deformations such as bending and twisting may be added to the dynamic information. Here, 601 is a shape before transformation, 603 is a shape after transformation, and 602 is a transformation matrix for transformation.

また、動的情報として、複数オブジェクト間の同期情報
も前述と同様にして入力することができる。この場合詳
細は省略するが、第7図に示すような同期入力領域を第
4図に示す動的情報入力・修正編集画面に付加して動き
の軌跡データと同様にして同期情報を入力1修正編集す
ることができる。オブジェクトの動封の動作開始時刻T
 sl+終了時刻Telを設定することにより、動的内
容算出部105では各オブジェクトの動的情報の時間変
化を時間がT□からTe4での変化とすることにより他
のオブジェクトとの動きの同期が可能となる。
Further, as dynamic information, synchronization information between multiple objects can also be input in the same manner as described above. In this case, details are omitted, but a synchronization input area as shown in Fig. 7 is added to the dynamic information input/correction editing screen shown in Fig. 4, and synchronization information is input and corrected in the same manner as the movement trajectory data. Can be edited. Object movement start time T
By setting sl+end time Tel, the dynamic content calculation unit 105 can synchronize the movement with other objects by setting the time change of the dynamic information of each object to change from time T□ to Te4. becomes.

(発明の効果) 以上述べたようにこの発明は、マウスやタブレット等の
ディジタイズ装置やイメージスキャナ等の画像入力装置
を用いて動く対象画像の動きの軌跡や速度などの時間的
変化、動く対象画像の時間的な変形の様子などを図形的
な情報として入力し、図形的に入力された各種変形要因
の時間的変化から対象画像の動きの内容を算出すること
によって動画を入力作成するようにしたので、画像や動
きを記述するプログラム言語の専門的な知識を特に有し
ない人でも動画入力を容易に行える。また、動きの開始
から終了までの必要な情報を一括して入力し動画が作成
で診るため、1枚1枚のセルを入力する必要がなく、大
幅な労力削減が可能となる。
(Effects of the Invention) As described above, the present invention can detect temporal changes in the trajectory and speed of a moving target image using a digitizing device such as a mouse or a tablet, or an image input device such as an image scanner. Videos are input and created by inputting information such as temporal deformation of images as graphic information, and calculating the content of the movement of the target image from the temporal changes of various deformation factors input graphically. Therefore, even people who do not have specialized knowledge of programming languages for describing images and motion can easily input videos. In addition, since the necessary information from the start to the end of the movement is input all at once and a video is created for examination, there is no need to input each cell individually, which can significantly reduce labor.

【図面の簡単な説明】 第1図はこの発明の一実施例の構成を示すブロック図、
第2図(a)、(b)はオブジェクトと、その図形デー
タの一例を示す図、第3図は動きの情報のデータ構造の
一例を示す図、第4図は動きの情報の入力画面の一例を
示す図、第5図は動的内容算出部の出力データのデータ
構成の一例を示す図、第6図は変形の一例を示す図、第
7図は同期情報入力領域の一例を示す図である。 図中、101はオブジェクト作成部、102は動的情報
入力部、103は動的情報修正編集部、104は記憶部
、105は動的内容算出部、106は動画作成部、10
7は制御部、108は画像表示部、201はオブジェク
ト番号、202は端点の数、203は端点の属性、20
4は座標値、205は領域色、206は境界色、207
はジャンプアドレス、301はオブジェクト番号、30
2は軌跡の総点数、303は軌跡データ、304は速度
入力領域の入力点数、305は速度入力点の座標工直、
3o6は拡大縮小率入力領域の入力点数、307は拡大
縮tJz率入力点の座標値、308は回転角度入力領域
の入力点数、309は回転角度入力点の座標値、301
はジャンプアドレス、401は移動の軌跡の入力領域、
402は速度時間変化入力領域、403は拡大縮小率時
間変化入力領域、404は回転角度入力領域、405は
メニュー表示領域、501はオブジェクト番号、502
は変換行列、503はジャンプアドレス、601は変形
前の図、602は変換行列、603は変形後の図である
。 (a) 果 図 (b)
[BRIEF DESCRIPTION OF THE DRAWINGS] FIG. 1 is a block diagram showing the configuration of an embodiment of the present invention.
Figures 2 (a) and (b) are diagrams showing an example of an object and its graphic data, Figure 3 is a diagram showing an example of the data structure of movement information, and Figure 4 is a diagram showing an example of the movement information input screen. FIG. 5 is a diagram showing an example of the data structure of the output data of the dynamic content calculation unit. FIG. 6 is a diagram showing an example of modification. FIG. 7 is a diagram showing an example of the synchronization information input area. It is. In the figure, 101 is an object creation section, 102 is a dynamic information input section, 103 is a dynamic information correction/editing section, 104 is a storage section, 105 is a dynamic content calculation section, 106 is a video creation section, 10
7 is a control unit, 108 is an image display unit, 201 is an object number, 202 is the number of end points, 203 is an attribute of the end points, 20
4 is the coordinate value, 205 is the area color, 206 is the boundary color, 207
is the jump address, 301 is the object number, 30
2 is the total number of points on the trajectory, 303 is the trajectory data, 304 is the number of input points in the speed input area, 305 is the coordinate engineering of the speed input point,
3o6 is the number of input points in the scaling rate input area, 307 is the coordinate value of the scaling tJz rate input point, 308 is the number of input points in the rotation angle input area, 309 is the coordinate value of the rotation angle input point, 301
is the jump address, 401 is the input area for the movement trajectory,
402 is a speed time change input area, 403 is a scaling ratio time change input area, 404 is a rotation angle input area, 405 is a menu display area, 501 is an object number, 502
is a transformation matrix, 503 is a jump address, 601 is a diagram before transformation, 602 is a transformation matrix, and 603 is a diagram after transformation. (a) Fruit map (b)

Claims (1)

【特許請求の範囲】[Claims] 静止画像を時間的に順次に変形させて動画を作成する方
法において、前記変形を複数の変形要因に分解し、各変
形要因の大きさの時間的変化を図形的に入力し、図形的
に入力された各種変形要因の時間変化から前記静止画像
の変形を算出し動画を作成することを特徴とする動画作
成方法。
In a method of creating a moving image by sequentially deforming a still image over time, the deformation is decomposed into a plurality of deformation factors, and the temporal change in the magnitude of each deformation factor is inputted graphically. A method for creating a video, characterized in that the deformation of the still image is calculated from the temporal changes of various deformation factors, and a video is created.
JP1017701A 1989-01-30 1989-01-30 How to make a video Expired - Fee Related JP2714100B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP1017701A JP2714100B2 (en) 1989-01-30 1989-01-30 How to make a video

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP1017701A JP2714100B2 (en) 1989-01-30 1989-01-30 How to make a video

Publications (2)

Publication Number Publication Date
JPH02199579A true JPH02199579A (en) 1990-08-07
JP2714100B2 JP2714100B2 (en) 1998-02-16

Family

ID=11951090

Family Applications (1)

Application Number Title Priority Date Filing Date
JP1017701A Expired - Fee Related JP2714100B2 (en) 1989-01-30 1989-01-30 How to make a video

Country Status (1)

Country Link
JP (1) JP2714100B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO1994006090A1 (en) * 1992-09-10 1994-03-17 Fujitsu Limited Graphic editor and processing method
US5717848A (en) * 1990-06-11 1998-02-10 Hitachi, Ltd. Method and apparatus for generating object motion path, method of setting object display attribute, and computer graphics system
US5926186A (en) * 1992-09-10 1999-07-20 Fujitsu Limited Graphic editing apparatus and method
JP2002359777A (en) * 2001-05-30 2002-12-13 Toshiba Corp Time space region information processing method and time space region information processing system

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6158680A (en) * 1985-07-30 1986-03-25 カシオ計算機株式会社 Animation control apparatus
JPS6249477A (en) * 1985-08-28 1987-03-04 Nec Corp Object image display device

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS6158680A (en) * 1985-07-30 1986-03-25 カシオ計算機株式会社 Animation control apparatus
JPS6249477A (en) * 1985-08-28 1987-03-04 Nec Corp Object image display device

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5717848A (en) * 1990-06-11 1998-02-10 Hitachi, Ltd. Method and apparatus for generating object motion path, method of setting object display attribute, and computer graphics system
WO1994006090A1 (en) * 1992-09-10 1994-03-17 Fujitsu Limited Graphic editor and processing method
GB2277661A (en) * 1992-09-10 1994-11-02 Fujitsu Ltd Graphic editor and processing method
US5926186A (en) * 1992-09-10 1999-07-20 Fujitsu Limited Graphic editing apparatus and method
JP2002359777A (en) * 2001-05-30 2002-12-13 Toshiba Corp Time space region information processing method and time space region information processing system

Also Published As

Publication number Publication date
JP2714100B2 (en) 1998-02-16

Similar Documents

Publication Publication Date Title
US4951040A (en) Image transformation processing
US5463729A (en) Image generation device
JPH02101456A (en) Producing method for clipped mask data
JP2002197478A (en) Computer and method for displaying processing effect
JP2703032B2 (en) How to make a video
JP3250841B2 (en) Graphic data processing method and apparatus
JPH02199579A (en) Method of forming animation
JPH0353668B2 (en)
JPH0498367A (en) Three-dimensional shape generation system
JPS63241625A (en) Line drawing input device
JP2721344B2 (en) Image processing method
JP3268667B2 (en) Interactive polygon selection device
JP2634404B2 (en) 3D image input method
JP2999538B2 (en) Wipe pattern designation device
JPH08235382A (en) Three-dimensional computer graphics editing device
JP2934011B2 (en) Image processing method and apparatus
JPS62267875A (en) Partial erasing system for drawn picture
JPS6283790A (en) Image processor
JPH0720240B2 (en) Image creation device
JPH0419695A (en) Method for transferring still picture and image plotting system in still picture
JPH1153513A (en) Method and device for setting region in image
JPS6385977A (en) Graphic editing device
JPS6218883A (en) Image processor
JPS6334670A (en) Three-dimensional coordinate value extracting method
JPS61159689A (en) Crt display unit

Legal Events

Date Code Title Description
LAPS Cancellation because of no payment of annual fees