JP2732645B2 - Video production and screening device, video production device and video screening device - Google Patents

Video production and screening device, video production device and video screening device

Info

Publication number
JP2732645B2
JP2732645B2 JP3563089A JP3563089A JP2732645B2 JP 2732645 B2 JP2732645 B2 JP 2732645B2 JP 3563089 A JP3563089 A JP 3563089A JP 3563089 A JP3563089 A JP 3563089A JP 2732645 B2 JP2732645 B2 JP 2732645B2
Authority
JP
Japan
Prior art keywords
video
cell
image
component
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Lifetime
Application number
JP3563089A
Other languages
Japanese (ja)
Other versions
JPH02214985A (en
Inventor
律子 細谷
剛裕 山田
正隆 武者
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP3563089A priority Critical patent/JP2732645B2/en
Publication of JPH02214985A publication Critical patent/JPH02214985A/en
Application granted granted Critical
Publication of JP2732645B2 publication Critical patent/JP2732645B2/en
Anticipated expiration legal-status Critical
Expired - Lifetime legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Description

【発明の詳細な説明】 [産業上の利用分野] 本発明は、効果的な発表を行うために使用される組立
法に必要な多くのセル映像を、一枚の映像素材から使用
者の指示に従って作成し、また、上映する映像作成上映
装置、映像作成装置および映像上映装置に関する。
DETAILED DESCRIPTION OF THE INVENTION [Industrial Application Field] The present invention provides many cell images necessary for an assembling method used for effective presentation from a single image material by a user's instruction. The present invention also relates to a video production and screening device, a video production device, and a video presentation device that are produced and shown according to the following.

[従来の技術] Dona.Z.Meilach:“プリゼングラフのすべて”、日経
マグロウヒル,P59(68年10月)に、記載されているよう
に、複数の話題を含むテーマを、映像を使用して分りや
すく説明する方法として、組立法が用いられる。
[Prior Art] Dona.Z. Meilach: Using a video to create a theme that includes multiple topics, as described in "All About the Presentation Graph", Nikkei McGraw-Hill, P59 (October 68). An assembling method is used as a method that can be easily understood.

通常、複数の話題を含む映像は、第2図(1)に示す
ように、すべての話題を一画面に示す。また、グラフな
ども、第2図(2)のように、完成図を一枚だけ示す。
これに対し、組立法は、第3図(0)〜(5)や、第4
図(0)〜(7)のように、各話題や、グラフの区分ご
との数量を一つずつ強調しながら、順に示していく方法
である。この組立法を用いると、聴衆は、話題の一つ一
つに集中し、論点が分り易くなるため、印象深く、効果
的な発表が行える。
Usually, in a video including a plurality of topics, as shown in FIG. 2A, all topics are displayed on one screen. In addition, as for the graph and the like, only one completed drawing is shown as in FIG. 2 (2).
On the other hand, the assembling method is the same as that shown in FIGS.
As shown in FIGS. (0) to (7), this is a method in which each topic and the quantity for each section of the graph are shown in order while emphasizing one by one. With this assembly method, the audience can concentrate on each topic and easily understand the issues, so that an impressive and effective presentation can be made.

組立法を使用して発表を行うと、第3,4図のように、
各話題ごとの、あるいは、グラフの区分ごとの映像が必
要となる。しかし、この方法を実現する従来の方法とし
ては、第3図(0)〜(5)や、第4図(0)〜(7)
のようなセル映像をそれぞれ別々に作成し、上映しなく
てはならなかった。
When making a presentation using the assembly method, as shown in Figs. 3 and 4,
An image for each topic or for each section of the graph is required. However, conventional methods for realizing this method include FIGS. 3 (0) to 5 (5) and FIGS. 4 (0) to 7 (7).
Had to be created separately and screened.

[発明が解決しようとする課題] このように、発表を行う時に、組立法を用いると、作
成しなくてはならない映像の数が、組立法を用いなかっ
た場合の数倍にもなるため、映像の作成に時間がかか
り、上映の際の映像切換数も多いため、発表者の負担も
大きかった。
[Problem to be Solved by the Invention] As described above, when the presentation method is used, the number of videos that need to be created is several times as large as that when the assembly method is not used. It took a long time to create the video, and the number of video switching during the screening was large, so the burden on the presenter was also large.

本発明の目的は、組立法を使用するために必要なセル
映像を、作成者の指示に応じて自動的に作成し、上映し
て、映像作成者と発表者の負担を、大幅に軽減する装置
を提供することにある。
An object of the present invention is to automatically create and display a cell image required for using an assembling method according to an instruction of a creator, thereby greatly reducing a burden on an image creator and a presenter. It is to provide a device.

[課題を解決するための手段] 本願は、前記目的を達成するための手段として、次の
発明を提供する。
[Means for Solving the Problems] The present application provides the following invention as means for achieving the above object.

本願第1の発明は、 映像素材について、該映像素材を構成する部品映像を
組立てたセル映像を作成し、このセル映像を上映する、
映像作成上映装置であって、 前記映像素材を取り込み表示する手段と、 該取り込んだ映像素材から1または2以上の部品映像
を抽出する手段と、 該抽出した部品映像毎の表示条件を付属情報として指
定する手段と、 該付属情報に従い、前記抽出した部品映像を用いて前
記セル映像を作成して、保存する手段と、 該手段から前記付属情報に従い、前記セル映像を読出
し、上映する手段とを備えることを特徴とする。
According to a first aspect of the present invention, for a video material, a cell video in which component videos constituting the video material are assembled is created, and the cell video is screened.
An image creation and screening device, comprising: means for capturing and displaying the video material; means for extracting one or more component videos from the captured video material; and display conditions for each extracted component video as attached information. Means for specifying, according to the attached information, creating and storing the cell image using the extracted component image, and means for reading and showing the cell image from the means according to the attached information. It is characterized by having.

本願第2の発明は、 映像素材について、該映像素材を構成する部品映像を
組立ててセル映像を作成する映像作成装置であって、 前記映像素材を取り込み表示する手段と、 該取り込んだ映像素材から1または2以上の部品映像
を抽出する手段と、 該抽出した部品映像毎の表示条件を付属情報として指
定する手段と、 該付属情報に従い、前記抽出した部品映像を用いて前
記セル映像を作成して、記憶する手段とを備えることを
特徴とする。
A second invention of the present application is an image creating apparatus for creating a cell image by assembling component images constituting the image material with respect to the image material, comprising: means for capturing and displaying the image material; Means for extracting one or more component videos; means for specifying display conditions for each of the extracted component videos as additional information; and creating the cell video using the extracted component video according to the additional information. And means for storing.

本願第3の発明は、 映像素材から抽出された1または2以上の部品映像に
ついて、該抽出した部品映像毎の付属情報に従って作成
された前記セル映像を、上映する映像上映装置であっ
て、 前記セル映像と前記付属情報とを、これらを記憶する
記憶手段から読みだすセル映像読み出し手段と、読み出
したセル映像を、前記付属情報に従って表示する表示手
段とを備えて構成されることを特徴とする。
A third invention of the present application is an image screening device for screening, with respect to one or more component videos extracted from a video material, the cell video created according to the attached information for each of the extracted component videos, Cell image reading means for reading the cell image and the attached information from the storage means for storing them, and display means for displaying the read cell image in accordance with the attached information. .

本願第4の発明は、 映像素材について、該映像素材を構成する部品映像を
組立てたセル映像を作成し、このセル映像を上映する、
映像作成上映システムであって、 前記映像素材を取り込み表示する手段と、該取り込ん
だ映像素材から1または2以上の部品映像を抽出する手
段と、該抽出した部品映像毎の表示条件を付属情報とし
て指定する手段と、該付属情報に従い、前記抽出した部
品映像を用いて前記セル映像を作成する手段と、該作成
されたセル映像と前記付属情報とを記憶媒体に書き込む
手段とを備える映像作成装置と、 前記映像作成装置により、作成された前記セル映像と
前記付属情報とを、記憶保持する記憶媒体と、 前記記憶媒体から、前記セル映像と前記付属情報とを
読みだすセル映像読み出し手段と、読み出したセル映像
を、前記付属情報に従って表示する表示手段とを備える
映像上映装置とを備えることを特徴とする。
The fourth invention of the present application is directed to a video material, which creates a cell video in which component videos constituting the video material are assembled, and shows the cell video.
A video production and screening system, comprising: means for capturing and displaying the video material; means for extracting one or more component videos from the captured video material; and display conditions for each of the extracted component videos as additional information. An image creating apparatus comprising: a designating unit; a unit for creating the cell image using the extracted component image according to the attached information; and a unit for writing the created cell image and the attached information to a storage medium. A storage medium that stores and holds the cell video and the additional information created by the video creation device; and a cell video readout unit that reads the cell video and the additional information from the storage medium. And a display means for displaying the read cell video in accordance with the attached information.

本願第5の発明は、 映像素材について、該映像素材を構成する部品映像を
組立てたセル映像を作成する映像作成システムであっ
て、 前記映像素材を取り込み表示する手段と、該取り込ん
だ映像素材から1または2以上の部品映像を抽出する手
段と、該抽出した部品映像毎の表示条件を付属情報とし
て指定する手段と、該付属情報に従い、前記抽出した部
品映像を用いて前記セル映像を作成する手段と、該作成
されたセル映像と前記付属情報とを記憶媒体に書き込む
手段とを備えることを特徴とする。
A fifth invention of the present application is an image creation system for creating a cell image by assembling component images constituting the image material, for the image material, comprising: means for capturing and displaying the image material; Means for extracting one or more component videos, means for specifying display conditions for each of the extracted component videos as additional information, and creating the cell video using the extracted component video according to the additional information. Means, and means for writing the created cell video and the attached information to a storage medium.

本願第6の発明は、 映像素材について、該映像素材を構成する部品映像を
組立てたセル映像を作成する映像作成システムであっ
て、 前記映像素材を取り込み表示する手段と、該取り込ん
だ映像素材から1または2以上の部品映像を抽出する手
段と、該抽出した部品映像毎の表示条件を付属情報とし
て指定する手段と、該付属情報に従い、前記抽出した部
品映像を用いて前記セル映像を作成する手段と、該作成
されたセル映像、前記付属情報およびこれらを記憶媒体
から読みだして上映するためのプログラムを記憶媒体に
書き込む手段とを備えることを特徴とする。
A sixth invention of the present application is an image creating system for creating a cell image by assembling component images constituting an image material for an image material, comprising: means for capturing and displaying the image material; Means for extracting one or more component videos, means for specifying display conditions for each of the extracted component videos as additional information, and creating the cell video using the extracted component video according to the additional information. Means, and means for writing the created cell video, the accessory information, and a program for reading and showing them from a storage medium to a storage medium.

[作用] 組立法を使用して発表を行いたい映像素材が、映像取
り込み格納表示手段により、装置内に格納され、表示さ
れる。表示された映像素材から、組立法を用いて強調し
たい部分を、部品映像抽出格納手段により、次々取り出
し、格納する。格納された部品映像の各々について、部
品付属情報指定手段により、表示順序、表示時間、表示
方法等の表示条件を付属情報として指定する。セル映像
作成格納手段が、各々の部品映像とその付属情報とに従
い、セル映像を作成し、格納する。
[Operation] A video material to be presented using the assembling method is stored and displayed in the apparatus by the video capture storage display unit. From the displayed video material, parts to be emphasized using the assembling method are successively extracted and stored by the component video extraction and storage means. For each of the stored component images, display conditions such as a display order, a display time, and a display method are specified as auxiliary information by the component auxiliary information specifying means. Cell image creation and storage means creates and stores a cell image according to each component image and its accompanying information.

セル映像上映手段は、保存されているセル映像を、表
示条件に基づいて、指定順に、指定時間ごとに読み出
し、組立法による発表を上映する。
The cell video screening means reads out the stored cell video at specified time intervals in a specified order based on display conditions, and screens a presentation by an assembling method.

[実施例] 以下、本発明の実施例について、図面を参照して説明
する。
Examples Examples of the present invention will be described below with reference to the drawings.

第1A図は、本願発明の第1実施例である映像作成上映
装置の構成の一例を示す。
FIG. 1A shows an example of the configuration of a video production / screening apparatus according to a first embodiment of the present invention.

本実施例にかかる映像作成上映装置は、次の部分から
構成される。すなわち、組立法で発表したい映像素材を
装置内に取込み、格納し、表示する映像素材取込表示部
Aと、取り込んだ映像素材から、部品映像を抽出し、保
存する部品映像抽出格納部Bと、抽出した部品映像から
セル映像を作成するために必要な部品映像の表示順序、
表示時間および表示法からなる表示条件を付属情報とし
て指定する部品付属情報指定部Cと、映像素材、部品映
像および付属情報からセル映像を作成し、保存するセル
映像作成保存部Dと、付属情報に従って組立法での発表
を上映するセル映像上映部Eとより成る。
The video creating and showing apparatus according to the present embodiment includes the following parts. That is, a video material capture display unit A that captures, stores, and displays a video material to be announced by the assembly method, and a component video extraction storage unit B that extracts and stores a component video from the captured video material. , The display order of component images required to create a cell image from the extracted component images,
A component accessory information designating section C for designating a display condition including a display time and a display method as accessory information; a cell video creating / storing section D for creating and saving a cell video from an image material, a component video and the accessory information; And a cell video screening section E for screening the presentation by the assembling method.

前記各部は、以下に述べるように構成される。なお、
機能的に隣接する各部は、その構成要素の一部を相互に
共有して構成される。
The above components are configured as described below. In addition,
Functionally adjacent parts are configured by sharing some of their constituent elements with each other.

また、本実施例の装置は、ハードウェアとしては、図
示していないが、1または2台以上の中央処理装置(CP
U)と、メモリと、ディスプレイと、キーボード、マウ
ス等の入力装置とを含んで構成される。このハードウェ
ア構成は、専用の装置として構成してもよいが、例え
ば、ワークステーション、パーソナルコンピュータ等に
より構成することもできる。なお、ディスプレイは、発
表に適した大型のものを接続してもよい。
In the apparatus of this embodiment, one or two or more central processing units (CP
U), a memory, a display, and an input device such as a keyboard and a mouse. This hardware configuration may be configured as a dedicated device, but may also be configured, for example, with a workstation, a personal computer, or the like. Note that a large display suitable for presentation may be connected to the display.

さらに、本実施例では、映像作成装置として機能する
部分と、映像上映装置として機能する部分とが一体の装
置として、システムが構成されているが、本願発明は、
これに限られない。例えば、映像作成装置と、映像上映
装置とを別個の装置により構成し、前者と後者とを、記
憶媒体、バス、通信回線等により隣接して、全体とし
て、映像作成上映システムを構成することができる。
Furthermore, in the present embodiment, the system is configured as an integrated device in which a portion functioning as a video creation device and a portion functioning as a video screening device are provided.
Not limited to this. For example, an image creation apparatus and an image presentation apparatus may be configured as separate apparatuses, and the former and the latter may be adjacent to each other by a storage medium, a bus, a communication line, or the like, to configure an image creation and exhibition system as a whole. it can.

以下、本実施例を構成する前記A〜E各部の構成およ
び作用について、第1B図〜第9図を参照しながら詳細に
説明する。
Hereinafter, the configuration and operation of each of the parts A to E constituting the present embodiment will be described in detail with reference to FIGS. 1B to 9.

なお、本実施例では、映像素材として、第2図(2)
に示すような棒グラフを用い、第4図(0)〜(7)に
示すような8枚のセル映像を作成して、組立法により上
映する場合を例として説明する。
In this embodiment, as the video material, FIG.
An example in which eight cell images as shown in FIGS. 4 (0) to (7) are created using a bar graph as shown in FIG.

映像素材取込表示部Aは、発表すべき映像素材を供給
する映像素材発生源10で作成された映像素材をディジタ
ル映像信号に変換する映像取込みI/F(インタフェー
ス)11と、前記映像信号を格納する映像素材ファイルメ
モリ13と、該映像素材ファイルメモリ13に前記映像デー
タの取り込みを指示する映像取込み駆動ユニット12とを
有して、映像素材の取り込みを行なう。
A video material capture and display unit A includes a video capture I / F (interface) 11 for converting a video material created by a video material source 10 for supplying a video material to be announced into a digital video signal, and A video material file memory 13 to be stored and a video capture drive unit 12 for instructing the video material file memory 13 to capture the video data are provided to capture the video material.

また、映像素材取込表示部Aは、映像素材ファイルメ
モリ13の中から映像素材の読み出し指示を行なう映像素
材指示ユニット14と、読みだされた映像素材の映像デー
タを記憶保持する映像表示メモリ15と、この映像表示メ
モリ15上の映像データを読み出す映像表示ユニット16
と、読みだされた映像データを映像として表示する表示
装置17とを備えている。
The video material capture / display unit A includes a video material instruction unit 14 for instructing reading of a video material from the video material file memory 13 and a video display memory 15 for storing and holding video data of the read video material. And a video display unit 16 for reading video data on the video display memory 15.
And a display device 17 for displaying the read video data as a video.

映像素材発生源10は、例えば、グラフ作成アプリケー
ションソフトウェアを有するパーソナルコンピュータに
より作成された映像素材を記憶保持し、これを出力する
手段により構成される。具体的には、映像素材を記録し
てあるフロッピーディスクおよびそのドライブ装置が挙
げられる。もっとも、グラフ作成アプリケーションソフ
トを搭載したパソコンシステムであってもよい。この場
合、本実施例を構成するハードウェアを用いても、ま
た、別途の装置を用いてもよい。
The video material generation source 10 is configured by, for example, a unit that stores and holds a video material created by a personal computer having graph creation application software and outputs the created video material. Specifically, there are a floppy disk on which a video material is recorded and a drive device for the floppy disk. However, a personal computer system equipped with graph creation application software may be used. In this case, hardware constituting the present embodiment may be used, or a separate device may be used.

映像取込みI/F11は、ビデオコンバータとA/D変換器と
を有している。
The video capturing I / F 11 has a video converter and an A / D converter.

映像表示メモリ15は、例えば、ビデオRAM等により構
成される。
The video display memory 15 is composed of, for example, a video RAM.

この映像素材取込表示部Aは、次のように作用する。 The video material capture and display section A operates as follows.

まず、第2図(2)のグラフ映像素材は、映像素材発
生源10から供給される。この映像素材発生源10からの映
像素材は、映像取込みI/F11の中のビデオコンバータとA
/D変換器で信号変換され、RGBのデジタル映像信号とな
る。このRGBデジタル映像信号が、映像取込み駆動ユニ
ット12からの指令で、映像素材ファイルメモリ13に、映
像データとして格納される。
First, the graph image material shown in FIG. 2 (2) is supplied from an image material generation source 10. The video material from this video material source 10 is connected to the video converter in the video capture I / F11 and A
The signal is converted by the / D converter and becomes an RGB digital video signal. This RGB digital video signal is stored as video data in the video material file memory 13 in response to a command from the video capture drive unit 12.

この映像素材の表示は、次のように行われる。すなわ
ち、映像素材ファイルメモリ13の中の映像素材は、映像
素材指示ユニット14からの読み出し指示により、映像表
示メモリ15に読み出される。この映像表示メモリ15上の
映像データが、映像表示ユニット16を介して表示装置17
上に映像として表示される。
The display of this video material is performed as follows. That is, the video material in the video material file memory 13 is read out to the video display memory 15 in response to a read instruction from the video material instruction unit 14. The video data on the video display memory 15 is transmitted to the display device 17 via the video display unit 16.
Displayed above as a video.

ここまでが、映像素材取込表示部Aによる処理であ
る。この後、第4図に示されるセル映像を作成する処理
は、この表示された映像素材をもとにして行われる。
The processing up to this point is performed by the video material capture and display unit A. Thereafter, the process of creating the cell image shown in FIG. 4 is performed based on the displayed image material.

部品映像抽出格納部Bは、前記映像表示メモリ15、映
像表示ユニット16および表示装置17と、映像領域指定ユ
ニット18と、部品抽出ユニット19と、部品ファイルメモ
リ20から構成される。
The component video extraction storage unit B includes the video display memory 15, the video display unit 16, the display device 17, the video area designation unit 18, the component extraction unit 19, and the component file memory 20.

映像領域指定ユニット18は、部品映像の抽出を容易に
行うために、部品映像を含んだ大まかな部品領域を指定
するものである。この映像領域指定ユニット18は、第5
図に示すように、映像表示メモリ内の任意の座標値を入
力する座標入力装置501と、入力した座標値を受け取っ
て映像表示メモリ上のその座標値周辺を一時的に別の色
に書き換えるカーソル表示装置502と、座標入力装置501
から入力される指定したい方形領域の対角点となる2点
の座標を格納する座標記憶装置503と、格納された2座
標値を読み、その2点を結ぶ直線が対角線となる方形の
枠を示すように、映像表示メモリ15の内容を一時的に書
き換える領域表示装置504とを備えている。
The image area designation unit 18 designates a rough part area including the part image in order to easily extract the part image. This image area designation unit 18
As shown in the figure, a coordinate input device 501 for inputting an arbitrary coordinate value in a video display memory, and a cursor for receiving the input coordinate value and temporarily rewriting the vicinity of the coordinate value on the video display memory to another color Display device 502 and coordinate input device 501
A coordinate storage device 503 for storing the coordinates of two diagonal points of a rectangular area to be designated, which is input from, and reading the stored two coordinate values, forming a rectangular frame in which a straight line connecting the two points is a diagonal line As shown, an area display device 504 for temporarily rewriting the contents of the video display memory 15 is provided.

部品抽出ユニット19は、映像領域指定ユニット18で指
定された領域から、色を指定して、部品映像を抽出す
る。この部品抽出ユニット19は、第5図に示すように、
後述する領域内使用色探索装置505と、探索された色を
記憶する使用色記憶装置506と、使用色記憶装置506に書
き込まれた色情報をもとに、色種を、その使用されてい
る範囲の広い順に並べたパレットを作成するパレット作
成装置507と、色種および色種番号から成るパレット
を、映像表示メモリに、一時的に書き込み表示するパレ
ット表示装置508と、抽出したい部分の色の色種番号を
パレットを見て選び、入力する色指定装置509と、該色
指定装置509に色種番号が入ると、その指定した色種番
号の色種と同色と見なされたデータを持つ、指定領域内
の座標値をすべて抽出し、内部の仮メモリに納める座標
抽出装置510と、前記使用色の探索を行なう際に最大色
数を指定する最大色数指定装置511と、色種が使用され
ている範囲であって、ノイズとしてパレットから省かれ
る値を設定するノイズ除却装置512とを備えている。
The component extraction unit 19 specifies a color and extracts a component video from the area specified by the video area specification unit 18. As shown in FIG. 5, the component extraction unit 19
An in-area use color search device 505, which will be described later, a use color storage device 506 for storing the searched color, and a color type used based on the color information written in the use color storage device 506 are used. A palette creation device 507 for creating palettes arranged in the order of the widest range, a palette display device 508 for temporarily writing and displaying a palette composed of color types and color type numbers in a video display memory, and a palette display device 508 for extracting a color of a portion to be extracted. When a color type number is entered in the color specifying device 509 and the color specifying device 509 to be selected by looking at the palette, and the color type number is input to the color specifying device 509, the data has data regarded as the same color as the color type of the specified color type number. A coordinate extraction device 510 that extracts all coordinate values in the designated area and stores it in an internal temporary memory, a maximum color number designation device 511 that designates the maximum number of colors when searching for the use color, and a color type used. Within the specified range, and And a noise retirement unit 512 to set the value to be omitted from Tsu and.

前記領域内使用色探索装置505は、前記の映像領域指
定ユニット18により指定した方形の指定領域内を走査
し、各座標値の色データを調べ、領域内の色数と、色の
種類(RGBの各デジタル量)と、各色種について、その
色の使用されている範囲(座標値数)を計算し、使用色
記憶装置506に書き込む。
The in-area use color search device 505 scans the specified area of the rectangle specified by the image area specifying unit 18, checks the color data of each coordinate value, and determines the number of colors in the area and the type of color (RGB For each color type, the used range (the number of coordinate values) of the color is calculated and written to the used color storage device 506.

部品ファイルユニット20は、抽出した部品映像を保存
する装置である。この部品ファイルユニット20は、第5
図に示すように、座標抽出装置510の仮メモリに貯えら
れた1個分の部品映像データの読み込みを指示する部品
読み込み駆動ユニット513と、該部品読み込み駆動ユニ
ット513の指示で、部品映像データを部品番号を付けて
保存する部品ファイルメモリ515と、該部品ファイルメ
モリ515に部品映像が1つ格納されると、前記パレット
表示装置512と領域表示装置504に指定し、映像表示メモ
リ上のパレットや、領域を元の映像素材データに書き直
し、装置を領域指定する前の状態に戻すリセットユニッ
ト514とを備える。
The component file unit 20 is a device that stores the extracted component video. This part file unit 20
As shown in the figure, a component reading drive unit 513 for instructing to read one piece of component video data stored in the temporary memory of the coordinate extraction device 510, and the component video data is A part file memory 515 for attaching and storing a part number, and when one part image is stored in the part file memory 515, it is designated to the pallet display device 512 and the area display device 504, and the And a reset unit 514 for rewriting the region to the original video material data and returning the device to the state before the region was specified.

セル映像作成のための第一ステップの処理を行なうの
が、部品映像抽出格納部Bである。部品映像抽出格納部
Bでは、映像素材から各セル映像で強調したい部分の映
像を部品映像として抽出し、格納する。第4図の例で
は、第4図の各セル映像で、順次強調されているグラフ
の軸と目盛、1984〜1988年の売り上げを示す5本の棒の
それぞれ、グラフのタイトルの計7つの部分が、第2図
(2)から抽出し、格納する部品映像である。
The component image extraction and storage unit B performs the process of the first step for cell image creation. In the component video extraction and storage unit B, a video of a portion to be emphasized in each cell video is extracted from the video material as a component video and stored. In the example of FIG. 4, in each cell image of FIG. 4, the axis and the scale of the graph which are sequentially emphasized, the five bars indicating the sales from 1984 to 1988, and the graph title in total of seven parts. Are component images extracted from FIG. 2 (2) and stored.

次に、表示装置17に表示されている第2図(2)の映
像素材から上記7つの部品映像の内のグラフのタイトル
部分を部品映像として抽出し、格納する場合を例にとっ
て、部品映像抽出格納部Bの動作を説明する。
Next, a case where the title part of the graph among the seven component videos is extracted as a component video from the video material of FIG. 2 (2) displayed on the display device 17 and stored is taken as an example. The operation of the storage unit B will be described.

最初に、第5図を用いて、映像領域指定ユニット18の
動作を説明する。
First, the operation of the video area designation unit 18 will be described with reference to FIG.

領域の指定は、映像表示メモリ上の2点を指定し、そ
の2点を結ぶ直線を対角線とする方形を指定した領域と
して認識するため、この2点の指定が領域の指定とな
る。
The area is specified by designating two points on the video display memory and recognizing the area as a rectangle having a straight line connecting the two points as a diagonal. Therefore, the specification of these two points is the area specification.

まず、第5図の座標入力装置501から、映像表示メモ
リ内の任意の座標値を入力する。入力した座標値を受け
取ったカーソル表示装置502は、映像表示メモリ上のそ
の座標値周辺を一時的に別の色に書き換える。この結
果、表示装置17上に表示された映像素材には、第6図
(1)に示すようなカーソルCUが表示される。
First, an arbitrary coordinate value in the video display memory is input from the coordinate input device 501 in FIG. The cursor display device 502 that receives the input coordinate value temporarily rewrites the vicinity of the coordinate value on the video display memory to another color. As a result, a cursor CU as shown in FIG. 6 (1) is displayed on the video material displayed on the display device 17.

座標入力装置501から、また別の座標を入力すると、
カーソル表示装置502は、前のカーソルを消し、新しく
入力された座標値を示すカーソルを表示する。座標入力
装置501から、次々と座標を入力してカーソルを移動さ
せる。これを目安としながら、指定したい方形領域の対
角点となる2点の座標を、第6図(2)のように選び、
座標入力装置501から入力し、座標記憶装置503に格納す
る。
When another coordinate is input from the coordinate input device 501,
The cursor display device 502 erases the previous cursor and displays a cursor indicating the newly input coordinate value. The coordinates are input one after another from the coordinate input device 501 to move the cursor. Using this as a guide, select the coordinates of the two diagonal points of the rectangular area to be specified as shown in FIG.
The data is input from the coordinate input device 501 and stored in the coordinate storage device 503.

座標記憶装置503に、2つの座標値が格納されると、
領域表示装置504は、格納された2座標値を読み、その
2点を結ぶ直線が対角線となる方形の枠を示すように、
映像表示メモリ15の内容を一時的に書き換える。この結
果、第6図(3)のように、指定した領域を示す枠が、
映像素材上に表われ、指定した領域を確認できる。
When two coordinate values are stored in the coordinate storage device 503,
The area display device 504 reads the stored two coordinate values, and displays a rectangular frame in which a straight line connecting the two points is a diagonal line.
The contents of the video display memory 15 are temporarily rewritten. As a result, as shown in FIG. 6 (3), the frame indicating the designated area is
It appears on the video material and you can check the specified area.

以上の処理により、第2図(2)の映像素材から、第
6図(3)に示すように、グラフのタイトルを囲む、大
まかな領域を指定できる。
By the above processing, a rough area surrounding the title of the graph can be designated from the video material of FIG. 2 (2), as shown in FIG. 6 (3).

次に、第5図を用いて、部品抽出ユニット19の動作を
説明する。
Next, the operation of the component extraction unit 19 will be described with reference to FIG.

部品抽出ユニット19は、領域内で、指定した複数個の
色をデータとして持つ座標値群を、部品映像として抽出
する。従って、抽出したい部分に使用されている色をす
べて指定することにより、目的の部品映像が抽出でき
る。
The component extraction unit 19 extracts a group of coordinate values having a plurality of designated colors as data in the region as a component video. Therefore, by specifying all the colors used for the portion to be extracted, the target component video can be extracted.

まず、この領域内の色の探索の際、最大色数指定装置
511により指定した色数より、領域内の色数が大きくな
らないように、ある一定範囲内の色種は、同色と見なさ
れる。ここで、一定範囲とは、(本装置で取り扱える最
大表示色数)/(最大色数指定装置に設定した指定色
数)となる。この最大色数指定により、色データのわず
かなノイズによる抽出もれを防止できる。
First, when searching for a color in this area, the maximum color number specifying device
Color types within a certain range are regarded as the same color so that the number of colors in the area does not become larger than the number of colors specified by 511. Here, the certain range is (the maximum number of display colors that can be handled by the present apparatus) / (the number of specified colors set in the maximum number of colors specifying apparatus). By specifying the maximum number of colors, it is possible to prevent omission of extraction of color data due to slight noise.

使用色記憶装置506に書き込まれた色情報をもとに、
パレット作成装置507が、色種を、その使用されている
範囲の広い順に並べたパレットを作成する。このとき、
使用されている範囲が、ノイズ除却装置512で指定され
たある値以下の色種は、パレットから省かれる。
Based on the color information written in the used color storage device 506,
The palette creating device 507 creates a palette in which the color types are arranged in the order in which the used colors are wide. At this time,
Color types whose used range is equal to or less than a certain value specified by the noise canceller 512 are omitted from the palette.

パレット表示装置508は、第7図に示すように、色種
と、色種番号から成るパレットを、映像表示メモリに、
一時的に書き込み表示する。例えば、第2図(2)の映
像素材のグラフの軸と目盛が白、5本の棒が赤、タイト
ルが緑、背景が青であったとすると、第6図(3)のよ
うに領域を指定した場合、第7図で表示されるパレット
は、1番目が領域内で一番多く使用されている背景の
青、2番目が次に多く使用されているタイトル文字の
緑、3番目が棒の赤となる。
As shown in FIG. 7, the palette display device 508 stores a palette composed of color types and color type numbers in the video display memory.
Temporarily write and display. For example, if the axes and scales of the graph of the video material in FIG. 2 (2) are white, five bars are red, the title is green, and the background is blue, the area is changed as shown in FIG. 6 (3). If specified, the palette displayed in Fig. 7 is the first used background blue in the area, the second most used title character green, and the third Of red.

このように表示されたパレットを見ながら、パレット
中の色を選ぶことにより、部品映像となる部分を、以下
の手順で抽出する。
By selecting a color in the palette while viewing the displayed palette in this way, a part to be a component image is extracted in the following procedure.

色指定装置509から、抽出したい部分の色の色種番号
をパレットを見て選び、入力する。色指定装置509に色
種番号が入ると、座標抽出装置510は、その指定した色
種番号の色種と同色と見なされたデータを持つ、指定領
域内の座標値をすべて抽出し、座標抽出装置510内の仮
メモリに納める。また、次に別の色を色指定装置509か
ら指定すると、座標抽出装置510は、同様に、その色種
の座標値を抽出し、すでに納められた仮メモリのデータ
に付け加える。このようにして、抽出したい部品映像に
使用されている色をすべて指定し、1個分の部品映像デ
ータを仮メモリに入れる。
A color type number of a color to be extracted is selected from the color designation device 509 by looking at the palette and input. When the color type number is input to the color designation device 509, the coordinate extraction device 510 extracts all the coordinate values in the designated area having data regarded as the same color as the color type of the designated color type number, and performs coordinate extraction. It is stored in a temporary memory in the device 510. Next, when another color is designated from the color designation device 509, the coordinate extraction device 510 similarly extracts the coordinate value of the color type and adds it to the data of the temporary memory already stored. In this way, all colors used in the component video to be extracted are specified, and one component video data is stored in the temporary memory.

第7図の例では、抽出したいグラフのタイトル文字が
緑一色のみで表示されているため、パレットの緑の色種
番号を選び、色指定装置509から入力する。すると、座
標抽出装置510が、緑のタイトル文字部分を抽出し、仮
メモリ内に収める。
In the example of FIG. 7, since the title character of the graph to be extracted is displayed only in green, the green color type number of the palette is selected and input from the color designation device 509. Then, the coordinate extracting device 510 extracts the green title character portion and stores it in the temporary memory.

以上のように、使用者は、素材映像に使用されている
色を色のノイズやわずかな色変化に妨げられることな
く、区別したパレットを利用して色を指示するだけで部
品映像を抽出できる。
As described above, the user can extract the component image simply by designating the color using the distinguished palette without being disturbed by the color noise and slight color change of the color used in the material image. .

次に、部品ファイルユニットの動作について、第5図
を参照して述べる。
Next, the operation of the component file unit will be described with reference to FIG.

座標抽出装置510の仮メモリに貯えられた1個分の部
品映像データは、部品読み込み駆動ユニット513の指示
で、部品ファイルメモリ515に読み込まれ、部品番号を
付けて保存される。部品ファイルメモリ515に、部品映
像が1つ格納されると、リセットユニット514が、パレ
ット表示装置508と領域表示装置504に指示し、映像表示
メモリ15上のパレットや、領域を元の映像素材データに
書き直し、装置を領域指定する前の状態にもどし、次の
部品映像抽出に備える。
One piece of component video data stored in the temporary memory of the coordinate extracting device 510 is read into the component file memory 515 according to an instruction of the component reading drive unit 513, and is stored with a component number. When one component video is stored in the component file memory 515, the reset unit 514 instructs the pallet display device 508 and the area display device 504 to store the pallet or area in the video display memory 15 as the original video material data. And the device is returned to the state before the region was designated, in preparation for the next part image extraction.

上記と同様にして、領域指定→部品映像抽出→部品映
像格納の過程を繰り返し、第2図(2)の映像素材か
ら、グラフの5本の棒をそれぞれ抽出すると共に格納
し、および、軸と目盛を抽出すると共に格納して、第4
図のセル映像作成に必要な、7つの部品映像がすべて揃
うことになる。
In the same manner as described above, the process of area designation → part image extraction → part image storage is repeated, and five bars of the graph are respectively extracted and stored from the image material of FIG. 2 (2). The scale is extracted and stored, and the fourth
All seven component images required for the creation of the cell image shown in the figure are provided.

上記のように、本装置では、使用者は2点を選んで、
領域を指定し、パレットから色を選ぶだけで、任意の形
状の部品映像を容易に抽出して、格納することができ
る。
As described above, in this device, the user selects two points,
By simply specifying a region and selecting a color from the palette, a component video of an arbitrary shape can be easily extracted and stored.

部品付属情報指定部Cは、部品選択ユニット21と、部
品表示順序指定ユニット22と、部品表示時間指定ユニッ
ト23と、部品表示法指定ユニット24と、表示法ファイル
メモリ25と、部品付属情報ファイルメモリ26とを備えて
構成される。
The part attachment information designation unit C includes a parts selection unit 21, a parts display order designation unit 22, a parts display time designation unit 23, a parts display method designation unit 24, a display method file memory 25, and a part attachment information file memory. 26.

部品付属情報指定部Cは、セル映像作成のための第2
ステップの処理を行う。本実施例において、部品付属情
報とは、部品映像からセル映像を作成し、また、作成し
たセル映像を上映する時に必要な、各部品映像から作成
するセル映像の表示順序、表示時間および表示方法に関
する情報を意味する。
The part attachment information designating section C is a second part for creating a cell image.
Perform step processing. In the present embodiment, the component attached information means that a cell video is created from the component video, and a display order, a display time, and a display method of the cell video created from each component video, which are necessary when the created cell video is screened. Means information about.

本装置では、セル映像を作る部品映像の各々に、表示
順序、時間および方法を部品付属情報として指定する。
以下、その動作について、第1図を参照して、説明す
る。
In the present apparatus, the display order, time, and method are designated as component attached information for each of the component images for forming the cell image.
Hereinafter, the operation will be described with reference to FIG.

まず、部品付属情報を与えるべき部品を、部品選択ユ
ニット21から、部品番号を入力することにより指定す
る。部品選択ユニット21から選択された部品映像に対し
て、部品付属情報ファイルメモリ26は、その付属情報を
書き込む領域を用意する。部品付属情報は、部品表示順
指定ユニット22と、部品表示時間指定ユニット23と、部
品表示法指定ユニット24とから指定する。
First, a part to which the part attachment information is to be given is designated by inputting a part number from the part selection unit 21. For the component video selected from the component selection unit 21, the component accessory information file memory 26 prepares an area for writing the accessory information. The part attachment information is designated from a part display order designation unit 22, a part display time designation unit 23, and a part display method designation unit 24.

表示順序は、その部品映像から作成するセル映像を何
番目に表示するかを、自然数で、部品表示順序指定ユニ
ット22から入力し、部品付属情報ファイルメモリ26の用
意された場所に書き込む。同様に、作成するセル映像を
表示する秒数を、部品表示時間指定ユニット23から入力
し、部品付属情報ファイルメモリ26に書き込む。表示法
は、表示法ファイルメモリ25に、あらかじめ用意されて
いる複数の表示方法の中から1つの方法を選び、部品表
示法指定ユニット24から入力し、部品付属情報ファイル
メモリ26に書き込む。
As the display order, the number of the cell image created from the component image to be displayed is input as a natural number from the component display order specifying unit 22 and written in the prepared location of the component attached information file memory 26. Similarly, the number of seconds for displaying the cell video to be created is input from the component display time designation unit 23 and written into the component attached information file memory 26. As the display method, one method is selected from a plurality of display methods prepared in advance in the display method file memory 25, input from the component display method designation unit 24, and written into the component attached information file memory 26.

表示法ファイルメモリ25には、複数個の表示法と、そ
の表示法による上映を実現するために必要なセル映像を
作成する手順が格納されている。格納される表示法とし
ては、例えば、部品映像がそのまま表示される直接表
示、第4図(2)〜(6)のように、部品映像の色が変
化して表示される色変換表示、部品映像部分が点滅する
点滅表示などがある。
The display method file memory 25 stores a plurality of display methods and a procedure for creating a cell image necessary for realizing the screening by the display methods. The stored display methods include, for example, direct display in which the component video is displayed as it is, color conversion display in which the color of the component video is changed as shown in FIGS. 4 (2) to (6), and component display. There is a blinking display where the video part blinks.

第4図のようなセル映像を作成し、3秒ごとに1枚ず
つ上映したい場合、7つの部品映像各々についての部品
付属情報は、第8図のようになる。
If a cell image as shown in FIG. 4 is created and one image is to be shown every three seconds, the component attachment information for each of the seven component images is as shown in FIG.

上記のようにして、表示順序、表示時間および表示方
法を簡単に指定することができる。この部品付属情報ど
おりに、目的のセル映像が、自動的に作成されて、上映
される。
As described above, the display order, the display time, and the display method can be easily specified. A target cell image is automatically created and shown according to the part attachment information.

セル映像作成保存部Dは、前記した映像表示メモリ1
5、映像表示ユニット16、表示装置17、部品ファイルユ
ニット20、部品付属情報ファイルメモリ26および表示法
ファイルメモリ25の他、セル作成ユニット27と、セル読
み込み駆動ユニット28と、セル保存ファイルメモリ29
と、セル上映順・時間指示ユニット31と、セル保存ファ
イルメモリ29から映像表示メモリ15上にセル映像を読み
出すセル読出しユニット30とを備えて構成される。
The cell image creation / storage unit D includes the image display memory 1 described above.
5, image display unit 16, display device 17, component file unit 20, component attached information file memory 26 and display method file memory 25, a cell creation unit 27, a cell reading drive unit 28, and a cell storage file memory 29
And a cell display order / time instruction unit 31 and a cell reading unit 30 for reading a cell video from the cell storage file memory 29 onto the video display memory 15.

前記セル作成ユニット27は、第9図に示すように、映
像表示メモリ15上の映像素材から部品付属情報を指定し
た部品映像の部分について背景色で書き換える部品消去
装置901と、前記書き換えの際の背景色を指定する背景
指定部902と、作成するセル映像のための部品映像とそ
の部品映像の表示順序と方法を部品付属情報ファイルメ
モリ26から読み込んで、今回作成する部品映像より早い
表示順序を持つ部品映像を映像表示メモリ15上のセル映
像に書き込むよう指示する部品書込指定部903と、前記
部品書込指定部903からの指示に従って映像表示メモリ1
5上の映像に一つずつ部品映像を書き込む部品書込み部9
04と、表示方法に従って、部品の色を換えるための色を
指定する部品色指定部905とを有して構成される。
As shown in FIG. 9, the cell creation unit 27 includes, as shown in FIG. 9, a component erasing device 901 that rewrites a part video part in which component accessory information is specified from a video material on the video display memory 15 with a background color. The background designation unit 902 for designating the background color, the component video for the cell video to be created, and the display order and method of the component video are read from the component attached information file memory 26, and the display order earlier than the component video created this time is read. A component write designation unit 903 for instructing to write a component video to be stored in a cell video on the video display memory 15, and a video display memory 1 according to an instruction from the component write designation unit 903
Component writing unit 9 that writes component images one by one on the image on 5
04 and a component color designation unit 905 for designating a color for changing the color of the component according to the display method.

セル映像作成の第1ステップとして、部品映像を抽出
し、第2ステップとして、部品付属情報を指定した後、
実際にセル映像を作成するのが、第1A図のセル映像作成
保存部Dである。セル映像作成保存部Dは、映像素材
と、部品映像と、部品付属情報とから、セル映像を1枚
ずつ作成保存し、上映のための手順を整える。以下、第
9図に従い、セル映像作成保存部Dの動作を説明する。
As a first step of cell image creation, a component image is extracted, and as a second step, after specifying component attached information,
It is the cell image creation and storage unit D in FIG. 1A that actually creates the cell image. The cell video creation / storage unit D creates and saves one cell video at a time from the video material, the component video, and the component attachment information, and prepares a procedure for screening. Hereinafter, the operation of the cell video creation / storage unit D will be described with reference to FIG.

まず、映像表示メモリ15に、映像素材ファイルメモリ
13から映像素材が読み出され、表示装置17に表示され
る。次に、部品消去装置901により、映像表示メモリ15
上の映像素材から、部品付属情報を指定した部品映像の
部分についてすべて、背景指定部902で指定された色で
書き換える。使用者は、背景指定部902が所望の色を出
力するように、あらかじめ設定しておく。
First, a video material file memory is stored in the video display memory 15.
The video material is read from 13 and displayed on the display device 17. Next, the image display memory 15 is
From the above video material, all of the part video parts for which the component attachment information is specified are rewritten with the color specified by the background specification unit 902. The user sets in advance so that the background designation unit 902 outputs a desired color.

こうして書き換えられた映像表示メモリ上の映像を、
セル映像0としてセル読み込み駆動ユニット28からの指
示で、セル保存ファイルメモリ29に読み込む。
The video on the video display memory rewritten in this way is
It is read into the cell storage file memory 29 as a cell image 0 in accordance with an instruction from the cell reading drive unit 28.

第2図(2)の映像素材から、第8図に示す部品映像
と部品付属情報とに従い、第4図のセル映像を作成する
例では、上記の処理で背景指定部902の色指定を、グラ
フの背景と同じ青にしておくと、部品消去部901により
書き換えられたセル映像0は、第4図(0)であり、目
的のセル映像である。以後のセル映像作成作業は、この
セル映像0に部品映像を書き込むことにより進められ
る。
In the example in which the cell image shown in FIG. 4 is created from the image material shown in FIG. 2 (2) in accordance with the component image and the component attached information shown in FIG. If the color is set to the same blue as the background of the graph, the cell image 0 rewritten by the component erasing unit 901 is the target cell image shown in FIG. 4 (0). Subsequent cell image creation work proceeds by writing a component image in the cell image 0.

以下、第4図(4)のセル映像が作成される過程を例
にして動作を説明する。
Hereinafter, the operation will be described by taking as an example the process of creating the cell image of FIG. 4 (4).

まず、セル映像0の映像が、セル保存ファイルメモリ
29から映像表示メモリ15上に、セル読出しユニット30の
指示で読出される。この例では、第4図(0)が、映像
表示メモリ15上に読み込まれる。次に、部品付属情報フ
ァイルメモリ26から、これから作成するセル映像のため
の部品映像とその部品映像の表示順序と方法が、部品書
込指定部903に読み込まれる。部品書込指定部903は、今
読んだ部品の表示時間より、早い表示順序を持つ部品映
像を、すべて映像表示メモリ15上のセル映像0に、書き
込むように、部品書込部904に指示する。部品書込部904
は、部品書込指定部903からの指示に従い映像表示メモ
リ15上の映像に、1つづつ部品映像を書き込む。
First, the image of cell image 0 is stored in the cell storage file memory.
From 29, it is read onto the video display memory 15 by the instruction of the cell reading unit 30. In this example, FIG. 4 (0) is read into the video display memory 15. Next, the component video for the cell video to be created and the display order and method of the component video are read from the component attached information file memory 26 into the component write designation unit 903. The component writing designation unit 903 instructs the component writing unit 904 to write all component images having a display order earlier than the display time of the component just read to the cell image 0 on the video display memory 15. . Parts writing unit 904
Writes the component images one by one in the video on the video display memory 15 in accordance with the instruction from the component write designation unit 903.

上記の第4図(4)のセル映像作成例では、セル作成
の対象となる部品映像が、1986年の棒の部分、表示順序
が4、表示方法が色変化のため、まず、映像表示メモリ
上のセル映像0(第4図(0))に表示順序が4より小
さい部品映像である。枠と目盛、1984年の棒、1985年の
棒がそのまま書込まれることになる。それから、セル作
成の対象となる部品を表示方法に従って書き込んで、セ
ル映像が、作成される。
In the example of the cell image creation shown in FIG. 4 (4), the component image to be created is a bar part in 1986, the display order is 4, and the display method is color change. The upper cell image 0 (FIG. 4 (0)) is a component image whose display order is smaller than 4. Frames and scales, 1984 sticks, 1985 sticks will be written as they are. Then, a cell to be created is written according to the display method, and a cell image is created.

上記の例では、表示方法が色変換であるため、1986年
の棒部分である部品映像を部品色指定部905の指定する
色に変えて、書き換えるように、部品書込指定部903が
部品書込部904に指示する。使用者は、部品色指定部905
が所望の色を出力するように、あらかじめ設定してお
く。
In the above example, since the display method is color conversion, the component writing designation unit 903 changes the component image, which is a bar in 1986, to the color designated by the component color designation unit 905 and rewrites it. Instruction to the storage unit 904. The user can use the part color designation section 905
Is set in advance so that a desired color is output.

上記の例で、部品色指定部905の色を黄色にしておい
たとすると、第2図(2)の映像素材は、グラフの枠と
目盛が白、グラフの棒が赤、タイトル文字が緑、背景が
青のため、それから作られる第4図(4)のセル映像
は、グラフの枠と目盛が白、1984年と1985年の棒が赤、
1986年の棒が黄色、背景が青となる。
In the above example, assuming that the color of the component color designation section 905 is yellow, the video material of FIG. 2 (2) has a white frame, a white scale, a red bar, and a green title. Since the background is blue, the cell image shown in Fig. 4 (4) is made of white graphs and scales, red bars in 1984 and 1985,
The bar in 1986 is yellow and the background is blue.

このようにして、映像表示メモリ15上にセル映像が作
成されると、セル読込駆動ユニット28の指示で、セル保
存ファイルメモリ29が、読み込み、表示順に対するセル
映像番号を付けて格納する。同時に、セル上映指示ユニ
ット31に、新しく格納されたセル映像名と、その表示順
および表示時間が、セル上映順、時間指定ユニット31に
書き込まれる。
When the cell image is created on the image display memory 15 in this way, the cell storage file memory 29 reads the cell image in accordance with the instruction of the cell reading drive unit 28, and stores it with the cell image number in the display order. At the same time, the newly stored cell video name and its display order and display time are written in the cell display order and time designation unit 31 in the cell display instruction unit 31.

以上のようにして、従来8枚別々に作成しなくてはな
らなかったセル映像が、自動的に作成でき、利用者の負
担は大幅に軽減される。
As described above, the cell images which had to be separately created in the past eight cells can be automatically created, and the burden on the user is greatly reduced.

次に、セル映像上映部Eは、前記した映像表示メモリ
15と、映像表示ユニット16と、表示装置17と、セル保存
ファイルメモリ29と、セル読出し駆動ユニット30と、セ
ル上映順・時間指示ユニット31とを有し、かつ、本実施
例装置をセル上映モードに設定すると共に上映開始を指
示する上映駆動ユニット32とを有して構成される。
Next, the cell video screening section E is provided with the above-described video display memory.
15, a video display unit 16, a display device 17, a cell storage file memory 29, a cell readout drive unit 30, and a cell display order / time instruction unit 31. And a screening drive unit 32 for setting the mode and instructing the start of the screening.

作成したセル映像を使い、組立法による発表を上映す
るのが、セル映像上映部Eである。以下、第1図に従
い、その動作を説明する。
It is the cell video screening section E that uses the created cell video to present a presentation by the assembling method. The operation will be described below with reference to FIG.

まず、上映駆動ユニット32から、装置を上映モードに
移すための指示が出されると、セル読出しユニット30
が、セル保存ファイルメモリ29から、セル映像0を読み
出し、映像表示メモリ15に書き込む。これが、映像表示
ユニット16を通して表示装置17に表示され、上映の準備
が整う。
First, when an instruction to shift the apparatus to the screening mode is issued from the screening drive unit 32, the cell reading unit 30
Reads the cell video 0 from the cell storage file memory 29 and writes it to the video display memory 15. This is displayed on the display device 17 through the video display unit 16, and preparation for showing is completed.

次に、上映駆動ユニット32から、上映開始の指示が出
されると、セル上映順・時間指示ユニット31は、表示時
間を内部のクロックで測定しながら、表示するセル映像
名を、表示順に従ってセル読出しユニット30に送る。セ
ル読出しユニット30の指示で、セル保存ファイルメモリ
29から、映像表示メモリ15にセル映像が書き込まれ、映
像表示ユニット16を通して表示装置17に表示され、上映
が行われる。
Next, when a screening start instruction is issued from the screening drive unit 32, the cell screening order / time designation unit 31 measures the display time with an internal clock, and displays the cell video name to be displayed in the cell according to the display order. It is sent to the reading unit 30. In accordance with the instruction of the cell reading unit 30, the cell storage file memory
From 29, the cell video is written to the video display memory 15, displayed on the display device 17 through the video display unit 16, and shown.

最終の表示順番のセル映像が表示され、その表示時間
が過ぎると、映像素材(完成映像)が表示され、上映が
終る。
The cell video in the final display order is displayed, and when the display time elapses, the video material (complete video) is displayed, and the screening ends.

以上のようにして、従来、セル映像の順番を確かめな
がら、次々表示する必要のあった発表が、あらかじめ設
定したとおり正確に上映され、使用者は上映開始の指示
を出すのみでよいことになる。
As described above, the announcements that had to be displayed one after another while checking the order of the cell images were screened accurately as set in advance, and the user only needs to give an instruction to start the screening. .

次に、本発明の第2実施例について説明する。 Next, a second embodiment of the present invention will be described.

本実施例は、第10図に示すように、システムバス1015
に、CPU1010、RAM1011およびROM1012と、フレームバッ
ファ1003と、タイムカウンタ1013と、映像ファイルメモ
リ1014と、フロッピーディスクドライブ1016と、インタ
フェース1007を介して接続されたディスプレー1006と、
インタフェース1009を介して接続されたキーボード1008
とが接続されている。
In the present embodiment, as shown in FIG.
CPU 1010, RAM 1011 and ROM 1012, frame buffer 1003, time counter 1013, video file memory 1014, floppy disk drive 1016, display 1006 connected via interface 1007,
Keyboard 1008 connected via interface 1009
And are connected.

前記フレームバッファ1003には、その入力側に、映像
取込I/F(インタフェース)1002を介してデジタルカメ
ラ1001が接続され、出力側に、モニターI/F(インタフ
ェース)1004を介してモニター1005が接続されている。
A digital camera 1001 is connected to the frame buffer 1003 via an image capture I / F (interface) 1002 on the input side, and a monitor 1005 via a monitor I / F (interface) 1004 on the output side. It is connected.

本実施例は、前記ハードウェアと、第11図に示すソフ
トウェアとによりシステムが構成される。すなわち、前
記ROM1012内に格納されるソフトウェアに従って、CPU10
10が動作することにより、前記第1A図に示す各種機能を
実行する構成となっている。
In this embodiment, a system is constituted by the hardware and the software shown in FIG. That is, according to the software stored in the ROM 1012, the CPU 10
The configuration in which the various functions shown in FIG. 1A are executed by the operation of 10 is provided.

すなわち、本実施例は、前記第1実施例と同様、映像
素材取込み表示部Aと、部品映像抽出格納部Bと、部品
付属情報指定部Cと、セル映像作成保存部Dと、セル映
像上映部Eとから成り、それぞれ、第11図の映像素材取
込み表示ルーチン、部品映像抽出格納ルーチン、部品付
属情報指定ルーチン、セル映像作成保存ルーチン、およ
び、セル映像上映ルーチンにより実行される。
That is, in the present embodiment, as in the first embodiment, the video material capture / display unit A, the component video extraction storage unit B, the component attachment information designation unit C, the cell video creation storage unit D, and the cell video screening The routine is executed by a video material take-in and display routine, a component video extraction and storage routine, a component attached information designation routine, a cell video creation and storage routine, and a cell video screening routine shown in FIG.

以下、本実施例の作用について、第10図〜第16図を参
照して詳細に説明する。
Hereinafter, the operation of the present embodiment will be described in detail with reference to FIGS. 10 to 16.

まず、装置の電源を入れると、リードオンリメモリ
(ROM)1012に入った、第11図のフローチャートから成
るソフトウェアが起動し、映像素材取込み表示ルーチン
に入る。CPU1010は、第11図の制御ソフトウェアに従
い、システムバス1013を通じて、ランダムアクセスメモ
リ(RAM)1011や、フレームバッファ1003、映像ファイ
ルメモリ1014、ディスプレー1006、キーボード1008など
を制御し、セル映像を作成し、上映する。
First, when the power of the apparatus is turned on, the software including the flow chart of FIG. 11 in the read only memory (ROM) 1012 is started, and a video material taking and displaying routine is started. The CPU 1010 controls the random access memory (RAM) 1011, the frame buffer 1003, the video file memory 1014, the display 1006, the keyboard 1008, etc. through the system bus 1013 according to the control software shown in FIG. Screenings.

第12図は、映像素材取込み表示ルーチンの詳細図であ
る。
FIG. 12 is a detailed diagram of a video material capturing and displaying routine.

電源を入れ、セル映像作成を指示すると、システム
は、ステップ1201で、使用者に対して、映像素材をカメ
ラ1001の被写体としてセットするように求めるメッセー
ジを、ディスプレー1006に出力させる。このとき、カメ
ラ1001から入った映像データは、映像取込みインタフェ
ース1002により、ディジタル信号に変換され、フレーム
バッファ1003に、連続的に書き込まれる。フレームバッ
ファ1003上の映像データは、常に、モーターインタフェ
ース1004を通して、モニター1005に表示される。
When the power is turned on and an instruction to create a cell image is issued, the system causes the display 1006 to output a message asking the user to set an image material as a subject of the camera 1001 in step 1201. At this time, the video data input from the camera 1001 is converted into a digital signal by the video capture interface 1002, and is continuously written to the frame buffer 1003. The video data on the frame buffer 1003 is always displayed on the monitor 1005 through the motor interface 1004.

システムは、ステップ1201に続き、ステップ1202で、
使用者に対して、カメラ1001からの映像をフレームバッ
ファ1003上にフリーズするコマンドを入力するように求
めるメッセージを、ディスプレー1006上に出力する。使
用者が、フリーズコマンドをキーボード1008から入力す
ると、フレームバッファ1003の書き換えが禁止され、映
像がフリーズされる。
The system continues at step 1201 and at step 1202,
A message requesting the user to input a command to freeze the video from the camera 1001 onto the frame buffer 1003 is output on the display 1006. When the user inputs a freeze command from the keyboard 1008, rewriting of the frame buffer 1003 is prohibited, and the image is frozen.

このようにして、フレームバッファ1003上に取り込ま
れた映像を、映像素材として使用する場合は、ステップ
1203において、次のステップへ進むコマンドをキーボー
ド1008から入力する。一方、映像の取込みをやり直した
い場合は、ステップ1201に戻るコマンドをキーボード10
08から入力する。
To use the video captured on the frame buffer 1003 as a video material in this way,
In step 1203, a command to proceed to the next step is input from the keyboard 1008. On the other hand, if the user wants to redo the video capture,
Enter from 08.

次のステップ1204では、フレームバッファ1003上の映
像を、映像ファイルメモリ1014にアロケートしたファイ
ルへ転送し、映像素材ファイルを作成する。
In the next step 1204, the video on the frame buffer 1003 is transferred to a file allocated to the video file memory 1014, and a video material file is created.

ステップ1205で、使用者に、映像素材ファイル名を入
力するよう表示するメッセージを、ディスプレー1006上
に出力する。使用者が、キーボード1006から映像素材フ
ァイル名を入力すると、ステップ1206で、そのファイル
名が、ステップ1204で作成された映像素材ファイルに付
けられる。
In step 1205, a message is displayed on the display 1006, prompting the user to enter a video material file name. When the user inputs a video material file name from the keyboard 1006, the file name is attached to the video material file created in step 1204 in step 1206.

以上で、映像素材の取込みは完了し、次に、部品映像
抽出格納ルーチンに制御が移る。
Thus, the capture of the video material is completed, and then the control is transferred to the component video extraction and storage routine.

第13図は、部品映像抽出格納ルーチンの詳細図であ
る。
FIG. 13 is a detailed diagram of a part video extraction and storage routine.

部品映像の抽出は、第1実施例と同様、方形で抽出し
たい部品を囲み、その中から、色を指定して部品映像を
抽出する。
As in the first embodiment, the component video is extracted by surrounding the component to be extracted in a rectangular shape and specifying a color from among the components to extract the component video.

まず、最初のステップ1301で、フレームバッファ1003
上に映像素材をロードし、第1実施例と同じように、第
6図(1)のようなカーソルを表示させる。
First, in the first step 1301, the frame buffer 1003
A video material is loaded on the top, and a cursor as shown in FIG. 6A is displayed as in the first embodiment.

ステップ1302で、使用者に対し、キーボード1008を使
用して、カーソルを移動させる信号を入力するよう要求
するメッセージを、ディスプレー1006に表示し、使用者
の入力する信号に従い、ステップ1303で、フレームバッ
ファ上のカーソルを移動させる。ステップ1304で、カー
ソルが指定したい方形領域の対角点の1点にくるまで、
カーソルの移動を繰り返させる。
In step 1302, a message requesting the user to input a signal for moving the cursor using the keyboard 1008 is displayed on the display 1006, and according to the signal input by the user, in step 1303, the frame buffer Move the upper cursor. In step 1304, until the cursor reaches one of the diagonal points of the rectangular area to be specified,
Make the cursor move repeatedly.

カーソルが、求める場所に来た時、使用者のキーボー
ドからの信号を受けて、ステップ1305が、フレームバッ
ファ上のカーソルの位置をRAM1011内に登録する。
When the cursor reaches a desired position, a signal from the user's keyboard is received, and a step 1305 registers the position of the cursor on the frame buffer in the RAM 1011.

ステップ1306を通してステップ1302に戻り、同様にし
て、2点目の対角点がRAM1011内に登録されると、ステ
ップ1307で、二つの対角点から方形領域を算出する。ス
テップ1308で、算出した方形領域の境界線を、第6図
(3)のように、フレームバッファ1003上に描き、モニ
ター1005に表示する。
Returning to step 1302 through step 1306, similarly, when the second diagonal point is registered in the RAM 1011, in step 1307, a rectangular area is calculated from the two diagonal points. At step 1308, the calculated boundary line of the rectangular area is drawn on the frame buffer 1003 as shown in FIG. 6 (3) and displayed on the monitor 1005.

次に、ステップ1309では、算出した領域内の画素を走
査して、色データを調べ、領域内で使用されている色数
を数え、その色データと、使用されている画素数とを、
RAM1011内に記録する。ステップ1310では、RAM1011内に
記録された色データを、使用されている画素数の多い順
に読み出し、ステップ1311で、色データ名(番号)と色
サンプルとを、第7図のように、フレームバッファ1003
に書き込み、表示させる。
Next, in step 1309, the pixels in the calculated area are scanned, color data is checked, the number of colors used in the area is counted, and the color data and the number of pixels used are calculated.
Record in RAM1011. In step 1310, the color data recorded in the RAM 1011 is read out in the descending order of the number of used pixels. In step 1311, the color data name (number) and the color sample are stored in the frame buffer as shown in FIG. 1003
And display it.

続いて、ステップ1312で、表示してあるパレットから
一色を選択するように、使用者に対するメッセージをデ
ィスプレー1006に出力し、使用者が色データ名(番号)
を入力するのを待つ。
Subsequently, in step 1312, a message for the user is output to the display 1006 so as to select one color from the displayed palette, and the user inputs the color data name (number).
Wait to enter.

キーボード1008から、色データ名が入力されると、ス
テップ1313では、入力された色と同じ色を使用している
領域内の画素を選択して、色データと共に、RAM1011内
に記録する。そして、記録した部分を、その補色に書き
換える。ステップ1314で、部品映像として抽出したい部
分を全て抽出するまで、ステップ1312に戻って、色を指
定しては記録し、部品映像部分が全て抽出したら、ステ
ップ1315に進む。
When a color data name is input from the keyboard 1008, in step 1313, a pixel in an area using the same color as the input color is selected and recorded in the RAM 1011 together with the color data. Then, the recorded portion is rewritten with the complementary color. In step 1314, the process returns to step 1312 until all the parts to be extracted as component images are extracted, and the color is designated and recorded. When all of the component images are extracted, the process proceeds to step 1315.

ステップ1315では、RAM1011内に記録されている部品
映像のデータを、映像ファイルメモリ1014に転送し、部
品映像ファイルを作成する。そして、RAM内の部品映像
とパレットと領域のデータとを消去し、次の部品映像抽
出に備える。
In step 1315, the component video data recorded in the RAM 1011 is transferred to the video file memory 1014, and a component video file is created. Then, the part image in the RAM, the pallet, and the data in the area are deleted to prepare for the next part image extraction.

ステップ1316で、全ての部品映像をファイルにしてし
まったら、ステップ1317へ進む。まだ抽出していない部
品映像が存在すれば、ステップ1301に戻る。
If all the component videos have been converted to files in step 1316, the process proceeds to step 1317. If there is a component video that has not been extracted yet, the process returns to step 1301.

ステップ1317では、再びカーソルをフレームバッファ
上に表示させ、使用者に背景色を選択するよう指示する
メッセージを、ディスプレー1006に表示する。背景色
は、セル映像を作るとき、部品映像の部分と置き換える
色で、映像素材に使用している色から一色を選択する。
In step 1317, the cursor is displayed again on the frame buffer, and a message instructing the user to select a background color is displayed on the display 1006. The background color is a color that replaces a part image part when a cell image is created, and one color is selected from the colors used for the image material.

使用者は、ステップ1317で表示されたカーソルを、キ
ーボード1008を使用して移動させ、背景色としたい色を
使用している画素の上に置き、登録の指示コマンドを入
力する。ステップ1318は、カーソルの示している画素の
色データを、背景色として、RAM1011内に記憶する。
The user moves the cursor displayed in step 1317 using the keyboard 1008, places the cursor on the pixel using the color desired to be the background color, and inputs a registration instruction command. A step 1318 stores the color data of the pixel indicated by the cursor in the RAM 1011 as a background color.

以上のようにして、組立法で、順に示して発表したい
部分を、1枚の映像素材から抽出する。
As described above, the parts to be presented and presented sequentially are extracted from one video material by the assembling method.

抽出した部品映像のそれぞれに、セル映像を作成し、
上映するための情報を与えるのが、部品付属情報指定ル
ーチンである。第14図は、部品付属情報指定ルーチンの
詳細図である。
Create a cell image for each of the extracted component images,
A part attachment information designation routine gives information for screening. FIG. 14 is a detailed diagram of a component attachment information designation routine.

まず、最初のステップ1401で、フレームバッファ1003
上の映像を消去し、ステップ1402で、映像ファイルメモ
リ1014に作成されている部品映像ファイルを全てフレー
ムバッファ1003上にロードし、表示する。
First, in the first step 1401, the frame buffer 1003
The upper video is deleted, and in step 1402, all the component video files created in the video file memory 1014 are loaded on the frame buffer 1003 and displayed.

次に、ステップ1403からステップ1405で、部品映像の
それぞれに、表示順序と表示時間とを指定する。ステッ
プ1403は、部品映像を一つ一つ補色に変えて示す。ステ
ップ1404では、補色に変えられている部品映像につい
て、使用者が、表示順序と表示時間とをキーボードから
入力し、その値を、その部品映像に対する部品付属情報
として映像ファイルメモリ内に保存する。
Next, in steps 1403 to 1405, a display order and a display time are specified for each of the component images. In step 1403, the component images are changed one by one and shown. In step 1404, the user inputs the display order and the display time of the component video that has been changed to the complementary color from the keyboard, and saves the values in the video file memory as component accessory information for the component video.

ステップ1405で、全部品に部品付属情報が指定された
ら、次のセル映像作成保存ルーチンに進む。
In step 1405, when the component attachment information is specified for all components, the process proceeds to the next cell image creation / save routine.

第15図は、セル映像作成保存ルーチンの詳細図であ
る。
FIG. 15 is a detailed diagram of a cell image creation / save routine.

セル映像の作成は、まず、ステップ1501で、フレーム
バッファ1003上に、映像素材をロードし、表示させる。
ステップ1502では、上映のとき、一番最初に表示するセ
ル映像0を作成する。第3,4図の例では、それぞれ第3
図(0)、第4図(0)の映像にあたる。セル映像0
は、フレームバッファ1003上の映像素材で、部品映像フ
ァイルとして映像部品ファイルメモリ1014に格納されて
いる部品の画素を、第13図ステップ1318で登録しておい
た背景色で、すべて書き換えることによって、作成でき
る。
To create a cell image, first, in step 1501, an image material is loaded on the frame buffer 1003 and displayed.
In step 1502, at the time of screening, a cell video 0 to be displayed first is created. In the example of FIGS. 3 and 4,
This corresponds to the image shown in FIG. 4 (0) and FIG. 4 (0). Cell image 0
Is a video material on the frame buffer 1003, by rewriting all the pixels of the component stored in the video component file memory 1014 as a component video file with the background color registered in step 1318 in FIG. 13, Can be created.

フレームバッファ上に出来上がったセル映像0を、ス
テップ1503で、映像ファイルメモリへ転送し、セル映像
0ファイルを作成する。
In step 1503, the cell video 0 created on the frame buffer is transferred to the video file memory, and a cell video 0 file is created.

ステップ1504からステップ1508までで、上記で作成し
たフレームバッファ1003上のセル映像0に、上映順に従
い、部品を一つずつ書き込んでは、セル映像ファイルと
して格納し、すべてのセル映像を作成する。
In steps 1504 to 1508, the parts are written one by one in the cell video 0 on the frame buffer 1003 created in accordance with the order of presentation, stored as a cell video file, and all the cell videos are generated.

まず、ステップ1504では、部品付属情報の上映順序に
従って、部品映像ファイルを指定する。ステップ1505
で、ステップ1504が指定した部品映像ファイルを、映像
ファイルメモリ1014からロードし、フレームバッファ10
03上に書き込む。ステップ1506で、フレームバッファ10
03上の映像を、映像ファイルメモリ1014に転送し、ステ
ップ1507では、ステップ1504で指定した部品の上映順序
と上映時間とを、該作成したセル映像ファイルの属性と
して登録する。ステップ1508で、すべての部品映像につ
いてセル映像を作成するまで、ステップ1504からステッ
プ1507までの処理を繰り返す。
First, in step 1504, a component video file is specified in accordance with the order in which the component accessory information is displayed. Step 1505
Then, the component video file specified in step 1504 is loaded from the video file memory 1014, and the frame buffer 10
Write on 03. In step 1506, the frame buffer 10
The video on 03 is transferred to the video file memory 1014. In step 1507, the display order and the display time of the component specified in step 1504 are registered as attributes of the created cell video file. In step 1508, the processes from step 1504 to step 1507 are repeated until cell images are created for all component images.

以上のようにして、セル映像0の映像に、上映順序1
の部品映像を書き込んで、セル映像1の映像を作成、格
納し、セル映像1の映像に、上映順序2の部品映像を書
き込んで、セル映像2を作成し、格納する、という過程
を繰り返して、必要なセル映像が作成される。
As described above, the order of screening 1 is added to the image of cell image 0.
Of the cell video 1 is created and stored, and the component video of the screening order 2 is written on the video of the cell video 1 to create and store the cell video 2. , Necessary cell images are created.

作成したセル映像を上映するのが、セル映像上映ルー
チンである。第16図は、セル映像上映ルーチンの詳細図
である。
Displaying the created cell video is a cell video display routine. FIG. 16 is a detailed diagram of a cell video screening routine.

第15図1508で、必要なセル映像がすべて作成され、付
属情報をつけて、映像ファイルメモリ1014内に格納され
ると、第16図ステップ1601に制御が移る。
In FIG. 15 1508, when all necessary cell images are created and stored in the image file memory 1014 with attached information, control is transferred to step 1601 in FIG.

ステップ1601で、フレームバッファ1003に、セル映像
0ファイルをロードし、モニター1005に表示させる。ス
テップ1602で、使用者に、上映を開始する信号をキーボ
ード1008から入力するように求めるメッセージを、ディ
スプレー1006に表示する。
In step 1601, the cell video 0 file is loaded into the frame buffer 1003 and displayed on the monitor 1005. In step 1602, a message is displayed on the display 1006 asking the user to input a signal to start showing from the keyboard 1008.

キーボード1008から、上映開始の信号が入力される
と、ステップ1603は、上映順に従い、次に表示するセル
映像を指定し、ステップ1604で、該セル映像を映像ファ
イルメモリ1014からロードし、モニター1005に表示す
る。ステップ1605では、タイムカウンタ1013で、表示し
たセル映像の表示時間を計測し、セル映像に付属した上
映時間に従って、表示する。この後、ステップ1606で、
まだ上映していないセル映像が存在したら、ステップ16
03に戻って上映を続け、すべてのセル映像を表示し、希
望する組立法による上映が実現する。
When a signal to start the screening is input from the keyboard 1008, a step 1603 specifies a cell image to be displayed next according to the order of the screening, and in a step 1604, the cell image is loaded from the image file memory 1014 to the monitor 1005. To be displayed. In step 1605, the display time of the displayed cell image is measured by the time counter 1013, and the cell image is displayed according to the presentation time attached to the cell image. Then, in step 1606,
If there is a cell image that has not been shown yet, step 16
Return to 03 and continue the screening, display all cell images, and realize the screening by the desired assembly method.

目的のセル映像が、作成できたら、そのセル映像とセ
ル映像の付属情報とを保存することにより、何度でも所
望するときに上映することができる。目的の組立法によ
る上映が行なわれることを確認した後、キーボード1008
から、セル映像を保存する指示を入力し、続いて、保存
場所と、識別のための作品名を入力する。保存場所は、
本装置の映像ファイルメモリ1014か、あるいは、フロッ
ピーディスクドライブ1016によりフロッピーディスクに
保存する。映像保存しないときは、システムは、作成し
たセル映像や部品映像、部品付属情報などをすべて消去
してしまう。保存を指定すると、セル映像ファイルと、
セル映像ファイルの属性と、映像素材とを保存し、残り
のデータを消去して、終了する。
Once the target cell video has been created, the cell video and the accompanying information of the cell video are saved, so that the desired cell video can be shown as many times as desired. After confirming that the desired assembly method will be used, the keyboard 1008
Then, the user inputs an instruction to save the cell video, and then inputs a storage location and a work name for identification. The storage location is
The image is stored in the video file memory 1014 of this apparatus or the floppy disk by the floppy disk drive 1016. If the video is not saved, the system deletes all the created cell video, component video, component attached information, and the like. When saving is specified, the cell video file and
The attribute of the cell video file and the video material are saved, the remaining data is deleted, and the process ends.

一度保存した作品は、最初、システムの電源を入れた
後に、上映を指示すると、ディスプレー1006に一覧され
る。その中から、作品の一つを選択すると、第16図のセ
ル映像上映ルーチンが、選択した作品について起動し、
上映が行なわれる。
Once the work has been saved, first turn on the system, and then indicate a screening, and it will be listed on the display 1006. When one of the works is selected from among them, the cell video screening routine of Fig. 16 starts for the selected work,
The screening will take place.

上記のようなシステムが、離れた場所に、2台以上存
在する場合、その中の1台のシステムで作成した組立法
の作品を、フロッピーディスクに保存し、他の場所のシ
ステムに運んで上映することができる。
If two or more of the above systems exist in a distant place, the work of the assembly method created by one of them will be saved on a floppy disk and transported to a system in another place for screening. can do.

また、他の場所にあるシステムに、第11図に示すよう
なソフトウェアが付いていない場合は、セル映像を保存
したフロッピーディスクに、上映ルーチンのソフトウェ
アもコピーすれば、上映ルーチンのないシステムでの上
映も行なえる。
If the system in another location does not have the software as shown in Fig. 11, copy the software for the screening routine to the floppy disk that stores the cell images, and use it in a system without the screening routine. Screening is also available.

さらに、離れた場所に存在する2以上のシステムを、
通信回線で接続することにより、いずれかのシステムか
ら他の1または2以上のシステムに対してセル映像を伝
送して、セル映像の遠隔上映が可能となる。
In addition, two or more remote systems
By connecting via a communication line, a cell image can be transmitted from one system to one or more other systems, and the cell image can be displayed remotely.

上記実施例では、デジタルカメラにより撮影した映像
を素材としているが、素材は、これに限られない。例え
ば、上記のようにして得られたセル映像自体を素材とし
て、さらに加工を加えることもできる。また、既存の映
像蓄積手段、例えば、ビデオテープ、ビデオディスク等
からの映像データを用いることができる。さらに、有線
または無線通信手段を介して伝送された映像データを用
いてもよい。
In the above embodiment, a video taken by a digital camera is used as a material, but the material is not limited to this. For example, the cell image itself obtained as described above may be used as a material for further processing. Further, video data from an existing video storage means, for example, a video tape, a video disk, or the like can be used. Further, video data transmitted via wired or wireless communication means may be used.

前記各実施例において、部品の付属情報として、表示
順序、表示時間および表示法を設定しているが、これら
の一部または全部を省略することもできる。また、表示
条件を付加したり、変更したりすることもできる。
In each of the above embodiments, the display order, the display time, and the display method are set as the accessory information of the parts, but some or all of them may be omitted. Also, display conditions can be added or changed.

本願発明は、種々の用途に適用できる。例えば、研究
発表等の各種発表の資料作成、教材の作成等に好適であ
る。また、テレビ電話、電子会議システム等における画
像情報の作成・上映にも好適である。
The present invention can be applied to various uses. For example, it is suitable for creating materials for various presentations such as research presentations, creating teaching materials, and the like. It is also suitable for creating and showing image information in videophones, electronic conference systems, and the like.

本発明は、セル映像を作成するものであるが、作成し
たセル映像を映像素材発源に戻す機能を付加することに
より、映像に修正を加えたり、トリミングしたりするこ
とができる映像編集装置としても使用することができ
る。
The present invention is intended to create a cell image, but as a video editing device capable of modifying or trimming the image by adding a function of returning the created cell image to the source of the image material. Can also be used.

[発明の効果] 以上、本発明によれば、組立法を用いて発表を行う場
合に必要な多数の映像を、使用者の指示通りに自動的に
作成・上映して、映像制作者と発表者の負担を大幅に減
らす装置を実現することができる。
[Effects of the Invention] As described above, according to the present invention, a large number of images necessary for making a presentation using the assembling method are automatically created and shown as instructed by the user, and presented to the video creator. A device that greatly reduces the burden on the user can be realized.

【図面の簡単な説明】[Brief description of the drawings]

第1A図は本願発明の構成を示すブロック図、第1B図は本
発明の第1実施例の装置の構成を示すブロック図、第2
図、第3図、第4図、第6図、第7図および第8図はそ
の動作を説明するための説明図、第5図は部品映像抽出
部の詳細構成を示すブロック図、第9図はセル映像作成
保存部の詳細構成を示すブロック図、第10図は本発明の
第2実施例のハードウェア構成を示すブロック図、第11
図は制御ソフトウェアの流れを示すフローチャート、第
12図は映像素材取込み表示ルーチンの流れを示すフロー
チャート、第13図は部品映像抽出格納ルーチンの流れを
示すフローチャート、第14図は部品付属情報指定ルーチ
ンの流れを示すフローチャート、第15図はセル映像作成
保存ルーチンの流れを示すフローチャート、第16図はセ
ル映像上映ルーチンの流れを示すフローチャートであ
る。 A……映像素材取込表示部、B……部品映像抽出格納
部、C……部品付属情報指定部、D……セル映像作成保
存部、E……セル映像上映部。 10……映像素材発生源、11……映像素材取込みインター
フェース、12……映像取込み駆動ユニット、13……映像
素材ファイルメモリ、14……映像素材指示ユニット、16
……映像表示メモリ、16……映像表示ユニット、17……
表示装置、18……映像領域指定ユニット、19……部品抽
出ユニット、20……部品ファイルユニット、21……部品
選択ユニット、22……部品表示順序指定ユニット、23…
…部品表示時間指定ユニット、24……部品表示指定ユニ
ット、25……表示法ファイルメモリ、26……部品付属情
報ファイルメモリ、27……セル作成ユニット、28……セ
ル読込み駆動ユニット、29……セル保存ファイルメモ
リ、30……セル読出しユニット、31……セル上映順・時
間指示ユニット、32……上映駆動ユニット、501……座
標入力値、502……カーソル表示装置、503……座標記憶
装置、504……領域表示装置、505……領域内使用色探索
装置、506……使用色記憶装置、507……パレット作成装
置、508……パレット表示装置、509……色指定装置、51
0……座標抽出装置、511……最大色数指定装置、512…
…ノイズ除却装置、513……部品読み込み駆動ユニッ
ト、514……リセットユニット、515……部品ファイルメ
モリ、901……部品消去部、902……背景指定部、903…
…部品書込み指定部、904……部品書込み部、905……部
品色指定部。
FIG. 1A is a block diagram showing the configuration of the present invention, FIG. 1B is a block diagram showing the configuration of the device of the first embodiment of the present invention, and FIG.
FIG. 3, FIG. 3, FIG. 4, FIG. 6, FIG. 7, and FIG. 8 are explanatory diagrams for explaining the operation thereof, FIG. FIG. 10 is a block diagram showing a detailed configuration of a cell video creation / storage unit. FIG. 10 is a block diagram showing a hardware configuration of a second embodiment of the present invention.
The figure is a flowchart showing the flow of control software.
FIG. 12 is a flowchart showing the flow of a video material import / display routine, FIG. 13 is a flowchart showing the flow of a component video extraction and storage routine, FIG. 14 is a flowchart showing the flow of a component attached information designation routine, and FIG. FIG. 16 is a flowchart showing a flow of a creation / save routine, and FIG. 16 is a flowchart showing a flow of a cell video screening routine. A: video material take-in display section, B: component video extraction storage section, C: component accessory information designation section, D: cell video creation storage section, E: cell video screening section. 10 ... video material source, 11 ... video material capture interface, 12 ... video capture drive unit, 13 ... video material file memory, 14 ... video material indication unit, 16
…… Video display memory, 16 …… Video display unit, 17 ……
Display device, 18: Image area designation unit, 19: Component extraction unit, 20: Component file unit, 21: Component selection unit, 22: Component display order designation unit, 23 ...
... Part display time designation unit, 24 ... Part display designation unit, 25 ... Display method file memory, 26 ... Part accessory information file memory, 27 ... Cell creation unit, 28 ... Cell read drive unit, 29 ... Cell storage file memory, 30: Cell readout unit, 31: Cell display order / time instruction unit, 32: Screening drive unit, 501: Coordinate input value, 502: Cursor display device, 503: Coordinate storage device 504 area display device 505 area use color search device 506 use color storage device 507 pallet creation device 508 pallet display device 509 color designation device 51
0 ... Coordinate extraction device, 511 ... Maximum color number designation device, 512 ...
… Noise removal device, 513… component reading drive unit, 514… reset unit, 515… component file memory, 901… component erasing unit, 902… background designating unit, 903…
... Component write designation section, 904... Component write section, 905.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 武者 正隆 神奈川県横浜市戸塚区吉田町292番地 株式会社日立製作所マイクロエレクトロ ニクス機器開発研究所内 (56)参考文献 特開 昭63−143676(JP,A) 特開 昭63−276179(JP,A) 特開 平1−123369(JP,A) ──────────────────────────────────────────────────続 き Continuation of the front page (72) Inventor Masataka Musha 292 Yoshida-cho, Totsuka-ku, Yokohama-shi, Kanagawa Prefecture Inside the Microelectronics Device Development Laboratory, Hitachi, Ltd. (56) References JP-A-63-143676 (JP, A JP-A-63-276179 (JP, A) JP-A-1-123369 (JP, A)

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】基になる映像素材から複数の映像を抽出し
てそれぞれのセル映像を作成し、このセル映像を上映す
る映像作成上映装置であって、 前記基になる映像素材を取込み表示する手段と、該取込
んだ映像素材について1または2以上の部分領域の指定
を受け付ける手段と、指定された部分領域を部品映像と
して抽出する手段と、該抽出した部品映像毎のセル映像
作成上映条件を付属情報とするための指定を受け付ける
手段と、該付属情報に従い、前記抽出した部品映像を用
いて、一つの部品映像に対し一つの前記セル映像を作成
し、保存する手段と、該保存手段から前記付属情報に従
ってセル映像を読み出し、表示装置に表示させて上映す
る手段とを備えることを特徴とする映像作成上映装置。
An image creating and screening apparatus for extracting a plurality of images from a base image material to create respective cell images, and displaying the cell images, wherein the base image material is taken in and displayed. Means, means for receiving designation of one or more partial areas for the captured video material, means for extracting the designated partial area as a component video, and cell video creation screening conditions for each of the extracted component videos Means for accepting a designation for making the part information as auxiliary information, means for creating and storing one cell image for one part image using the extracted part image according to the auxiliary information, and the storage means Means for reading out a cell image according to the attached information from the device, and displaying the cell image on a display device for screening.
【請求項2】基になる映像素材から複数の映像を抽出し
てそれぞれのセル映像を作成する映像作成装置であっ
て、 前記基になる映像素材を取込み表示する手段と、該取込
んだ映像素材について1または2以上の部分領域の指定
を受け付ける手段と、指定された部分領域を部品映像と
して抽出する手段と、該抽出した部品映像毎のセル映像
の作成上映条件をセル付属情報とするための指定を受け
付ける手段と、該セル付属情報に従い、前記抽出した部
品映像を用いて、一つの部品映像に対し一つの前記セル
映像を作成し、保存する手段とを備えることを特徴とす
る映像作成装置。
2. A video creating apparatus for extracting a plurality of videos from a base video material to create respective cell videos, comprising: means for capturing and displaying the base video material; Means for receiving designation of one or more partial areas for a material; means for extracting the designated partial area as a component video; and creating and displaying cell video for each of the extracted component videos as cell attached information. And a means for creating and storing one cell video for one component video using the extracted component video in accordance with the cell attached information. apparatus.
【請求項3】基になる映像素材から複数の映像を抽出し
てそれぞれのセル映像を作成し、このセル映像を上映す
る映像作成上映装置であって、 前記基になる映像素材を取込み表示する手段と、該取込
んだ映像素材について1または2以上の部分領域の指定
を受け付ける手段と、指定された部分領域を部品映像と
して抽出する手段と、該抽出した部品映像毎のセル映像
作成上映条件を付属情報とするための指定を受け付ける
手段と、該付属情報に従い、前記抽出した部品映像を用
いて、一つの部品映像に対し一つの前記セル映像を作成
し、保存する手段と、該保存手段から前記付属情報に従
ってセル映像を読み出し、通信回線を介して他システム
にセル映像を伝送する手段とを備えることを特徴とする
映像作成上映装置。
3. A video production / screening device for extracting a plurality of videos from a base video material to create respective cell videos, and displaying the cell video, wherein the base video material is captured and displayed. Means, means for receiving designation of one or more partial areas for the captured video material, means for extracting the designated partial area as a component video, and cell video creation screening conditions for each of the extracted component videos Means for accepting a designation for making the part information as auxiliary information, means for creating and storing one cell image for one part image using the extracted part image according to the auxiliary information, and the storage means Means for reading a cell image according to the auxiliary information from the device and transmitting the cell image to another system via a communication line.
【請求項4】基になる映像素材から複数の映像を抽出し
てそれぞれのセル映像を作成し、このセル映像を上映す
る映像作成上映装置であって、 前記基になる映像素材を取込んで表示する手段と、該取
込んだ映像素材について1または2以上の部分領域の指
定を受け付ける手段と、指定された部分領域を部品映像
として抽出する手段と、該抽出した部品映像毎のセル映
像作成上映条件を付属情報とするための指定を受け付け
る手段と、該付属情報に従い、前記抽出した部品映像を
用いて、一つの部品映像に対し一つの前記セル映像を作
成する手段と、 前記作成したセル映像、および、該セル映像を作成する
ために用いた付属情報を、着脱可能な記憶手段に保存す
る手段と、 前記記憶手段から前記作成したセル映像、および、該セ
ル映像を作成するために用いた付属情報を読み出し、表
示装置に表示させて上映する手段とを備えること を特徴とする映像作成上映装置。
4. An image creation and screening device for extracting a plurality of images from a base image material to create respective cell images, and displaying the cell images, wherein the base image material is fetched. Means for displaying, means for receiving designation of one or more partial areas for the captured image material, means for extracting the designated partial area as a part image, and creation of a cell image for each of the extracted part images Means for accepting a designation for setting the screening condition as attached information; means for creating one cell image for one component image using the extracted component image according to the attached information; and Means for storing the image and the attached information used to create the cell image in a removable storage means, the cell image created from the storage means, and the creation of the cell image Reads accessory information used in order, the image creation screening device, characterized in that it comprises a means for screening by displaying on the display device.
【請求項5】基になる映像素材から複数の映像を抽出し
てそれぞれのセル映像を作成する映像作成装置であっ
て、 前記基になる映像素材を取込んで表示する手段と、該取
込んだ映像素材について1または2以上の部分領域の指
定を受け付ける手段と、指定された部分領域を部品映像
として抽出する手段と、該抽出した部品映像毎のセル映
像の作成上映条件をセル付属情報とするための指定を受
け付ける手段と、該セル付属情報に従い、前記抽出した
部品映像を用いて、一つの部品映像に対し一つの前記セ
ル映像を作成する手段と、 前記作成したセル映像、および、該セル映像を作成する
ために用いた付属情報を、着脱可能な記憶手段に保存す
る手段とを備えること を特徴とする映像作成装置。
5. An image creating apparatus for extracting a plurality of images from a base image material to create respective cell images, comprising: means for taking in and displaying the base image material; Means for receiving designation of one or more partial areas for the video material, means for extracting the designated partial area as a component video, and creation and display conditions for the cell video for each of the extracted component videos as cell attachment information. Means for accepting a designation for performing, a means for creating one cell video for one component video using the extracted component video according to the cell attached information, and the created cell video, Means for storing attached information used for creating a cell image in a removable storage means.
JP3563089A 1989-02-15 1989-02-15 Video production and screening device, video production device and video screening device Expired - Lifetime JP2732645B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP3563089A JP2732645B2 (en) 1989-02-15 1989-02-15 Video production and screening device, video production device and video screening device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP3563089A JP2732645B2 (en) 1989-02-15 1989-02-15 Video production and screening device, video production device and video screening device

Publications (2)

Publication Number Publication Date
JPH02214985A JPH02214985A (en) 1990-08-27
JP2732645B2 true JP2732645B2 (en) 1998-03-30

Family

ID=12447189

Family Applications (1)

Application Number Title Priority Date Filing Date
JP3563089A Expired - Lifetime JP2732645B2 (en) 1989-02-15 1989-02-15 Video production and screening device, video production device and video screening device

Country Status (1)

Country Link
JP (1) JP2732645B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0743774B2 (en) * 1986-12-05 1995-05-15 富士通株式会社 Animation creation processing device
JPS63276179A (en) * 1987-05-07 1988-11-14 Matsushita Electric Ind Co Ltd Graphic image dynamic plotting controller
JPH01123369A (en) * 1987-11-06 1989-05-16 Matsushita Electric Ind Co Ltd Presentation device

Also Published As

Publication number Publication date
JPH02214985A (en) 1990-08-27

Similar Documents

Publication Publication Date Title
AU650179B2 (en) A compositer interface for arranging the components of special effects for a motion picture production
US6795094B1 (en) Method and apparatus for processing an image, and storage
US6278497B1 (en) Moving picture processing method and apparatus, and computer program product having processing procedure recorded therefore
JP3288460B2 (en) Display data generation apparatus and method
JP2732645B2 (en) Video production and screening device, video production device and video screening device
JP2720807B2 (en) Scenario editing device
JP3890096B2 (en) Image editing system
JP2002094898A (en) Method for retrieving and displaying video data in video recording system
JPH06348438A (en) Scenario editor and scenatio executing device
JPH0823871B2 (en) Make-up simulation system
JP2904535B2 (en) Image editing device
JPH10162093A (en) Commodity information allocation device
JP2001255926A (en) Product manufacture information generating device and program recoding medium
JP2001209694A (en) Work analysis supporting system
WO2024085123A1 (en) Development system, method, and program
JPH10222144A (en) Picture display device and its method
JP2873371B2 (en) Image search method
JP3742358B2 (en) Optical character recognition apparatus and program
JP2596740B2 (en) Image retrieval device
JP3154790B2 (en) Optical character reader
JP2662947B2 (en) Image search method
JP2001103445A (en) Information processing unit and control method therefor and storage medium
JPH0816809A (en) Drawing system
JPH06309375A (en) Picture recording and reproducing device
JP3311057B2 (en) Graphic processing apparatus and method