JP3502196B2 - Multimedia title playback device - Google Patents

Multimedia title playback device

Info

Publication number
JP3502196B2
JP3502196B2 JP17466295A JP17466295A JP3502196B2 JP 3502196 B2 JP3502196 B2 JP 3502196B2 JP 17466295 A JP17466295 A JP 17466295A JP 17466295 A JP17466295 A JP 17466295A JP 3502196 B2 JP3502196 B2 JP 3502196B2
Authority
JP
Japan
Prior art keywords
title
information
synchronization
processing
basic
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP17466295A
Other languages
Japanese (ja)
Other versions
JPH0926868A (en
Inventor
香葉子 浅井
淳 峰村
真 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Panasonic Holdings Corp
Original Assignee
Panasonic Corp
Matsushita Electric Industrial Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp, Matsushita Electric Industrial Co Ltd filed Critical Panasonic Corp
Priority to JP17466295A priority Critical patent/JP3502196B2/en
Priority to CA002180969A priority patent/CA2180969C/en
Priority to AU59437/96A priority patent/AU693371B2/en
Priority to US08/677,752 priority patent/US6487564B1/en
Priority to EP96111195A priority patent/EP0753820B1/en
Priority to DE69623880T priority patent/DE69623880T2/en
Publication of JPH0926868A publication Critical patent/JPH0926868A/en
Application granted granted Critical
Publication of JP3502196B2 publication Critical patent/JP3502196B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Landscapes

  • Digital Computer Display Output (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
  • User Interface Of Digital Computer (AREA)

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、電子計算機を用いて、
動画・静止画・テキスト・音声などのマルチメディア情
報を、予め決められたシナリオに従って提示するマルチ
メディアタイトル再生装置に関するものである。
BACKGROUND OF THE INVENTION The present invention uses an electronic computer to
The present invention relates to a multimedia title reproducing device that presents multimedia information such as moving images, still images, texts, and sounds according to a predetermined scenario.

【0002】[0002]

【従来の技術】従来のマルチメディアプレゼンテーショ
ンにおいて実行される、マルチメディアタイトルの機構
としては、タイトルの進行軸として実時間などの絶対軸
を設け、この軸に対して各々のオブジェクトのリンク情
報を付加することで、タイトルの進行に伴う状態の変
化、すなわちシナリオを定義していた。
2. Description of the Related Art As a mechanism of a multimedia title executed in a conventional multimedia presentation, an absolute axis such as real time is provided as a title progression axis, and link information of each object is added to this axis. By doing so, the state change with the progress of the title, that is, the scenario was defined.

【0003】このようにタイトルの進行軸として実時間
などの絶対軸を設ける方法では、タイトルの進行は、全
てこの実時間軸で管理されているため、時間の長さを持
つ動画や音声などのオブジェクト(以下、有時間オブジ
ェクトと記述)のあるシーンで静止画などの他のオブジ
ェクト情報を提示するようなストーリーを実現したい場
合、タイトルの進行軸に対して情報を付加することで、
間接的に有時間オブジェクトとのリンク情報を表現して
いた。
In such a method in which an absolute axis such as real time is provided as the progress axis of a title, the progress of the title is entirely managed on the real time axis, so that a moving image or sound having a length of time is displayed. If you want to realize a story that presents other object information such as a still image in a scene with an object (hereinafter, described as a timed object), by adding information to the progress axis of the title,
The link information with the timed object was indirectly expressed.

【0004】また、有時間オブジェクトそのものの再生
は一般に、専用のデコーダを用いて行うが、それらの専
用デコーダで再生を行った場合、一旦再生が開始される
と、タイトルの進行とは無関係に再生処理が行われる。
すなわち、有時間オブジェクトはタイトル進行軸に対し
て、開始点でのみ同期していた。
[0004] In addition, although the timed object itself is generally reproduced using dedicated decoders, when the reproduction is performed by these dedicated decoders, once the reproduction is started, the reproduction is performed regardless of the progress of the title. Processing is performed.
That is, the timed object was synchronized with the title progression axis only at the starting point.

【0005】また、タイトルの再生機構について述べる
と、シナリオにはタイトル進行軸における位置と、その
時点で行う処理が記述されており、タイトルの再生はタ
イトルの進行に従って、シナリオに記述されている処理
を行うことで実現していた。
Further, regarding the title reproducing mechanism, the scenario describes the position on the title advancing axis and the process to be performed at that time, and the title is reproduced according to the progress of the title. It was realized by doing.

【0006】[0006]

【発明が解決しようとする課題】しかしながら、前記し
た従来の技術には、次のような問題点があった。まず第
1の問題点は、このように実時間軸を進行軸とするタイ
トルの再生機構では、有時間オブジェクトの再生速度
が、保証されなかった場合、タイトルのストーリーが変
わってしまうということである。
However, the above-mentioned conventional technique has the following problems. First, the first problem is that in the title playback mechanism whose progress axis is the real-time axis, the story of the title changes if the playback speed of the timed object is not guaranteed. .

【0007】処理装置にかかる負荷や、ネットワーク上
でのデータ伝送遅延などにより、有時間オブジェクト再
生処理に遅延が発生することは十分に考えられることで
ある。有時間オブジェクトの再生処理に遅延が発生する
ことによって、有時間オブジェクトの進行とタイトルの
進行軸、すなわち実時間軸との間にズレが生じると、有
時間オブジェクトのあるシーンで提示されるよう、間接
的にリンクさせた静止画などの他のオブジェクトは、実
時間軸で管理されているため、そのシーンでは提示され
なくなる。
It is quite conceivable that a delay will occur in the timed object reproduction processing due to the load on the processing device, the data transmission delay on the network, and the like. If there is a gap between the progress of the timed object and the progress axis of the title, that is, the real-time axis due to the delay in the playback processing of the timed object, it is presented in a scene with the timed object. Other objects such as still images that are indirectly linked are not presented in the scene because they are managed on the real time axis.

【0008】つまり提示されるタイミングがずれてしま
うということが起こり得る。言い換えると、実行する環
境によって、タイトルのストーリーが変化してしまうこ
とがあるという問題を抱えていた。このような現象は、
有時間オブジェクトが長ければ長いほど、より顕著にな
る。
That is, it is possible that the presented timing may be shifted. In other words, there was a problem that the story of the title might change depending on the environment in which it was executed. Such a phenomenon is
The longer the timed object, the more prominent it becomes.

【0009】第2の問題点は、従来のマルチメディアタ
イトル再生装置においては、タイトルの進行に従ってシ
ナリオを逐次読み込む方式を取っており、オブジェクト
提示の際に、その都度オブジェクトデータをファイルな
どから読み込みオブジェクトを生成するという重い処理
を行っていたため、タイトルの進行、特に動画などの有
時間オブジェクトの再生が一時中断するなど、タイトル
の再生に支障をきたすことがあった。
The second problem is that the conventional multimedia title reproducing apparatus employs a method of sequentially reading the scenarios as the title progresses, and when presenting the object, object data is read from a file or the like each time the object is read. Since the heavy processing of generating a title is performed, the title may be interrupted, particularly the progress of the title, particularly the pause of the playback of a timed object such as a video.

【0010】第3の問題点は、従来のマルチメディアタ
イトル再生装置においては、シナリオに従って先頭から
順方向に再生する自動再生の機能は実現されていたが、
ユーザがタイトル再生中に再生位置を任意に移動するな
ど、タイトルの進行を手動で制御する手動制御は実現で
きていなかった。
The third problem is that the conventional multimedia title reproducing apparatus has realized the automatic reproducing function of reproducing from the beginning according to the scenario.
Manual control for manually controlling the progress of the title, such as the user arbitrarily moving the playback position during title playback, has not been realized.

【0011】その理由は次のように考えられる。従来の
マルチメディアタイトル再生装置が扱うシナリオにはタ
イトル進行軸における位置と、その時点で行う、オブジ
ェクトの提示(再生)開始または提示(再生)終了とい
った処理が記述されており、タイトル再生装置は、オブ
ジェクトの提示(再生)に関する開始点・終了点にのみ
着目してタイトルの再生を行っている。
The reason is considered as follows. In the scenario handled by the conventional multimedia title reproducing apparatus, the position on the title progression axis and the processing at that point such as the presentation (reproduction) start or the presentation (reproduction) end of the object are described. The title is reproduced by focusing only on the start and end points regarding the presentation (reproduction) of the object.

【0012】従って、タイトル進行軸の任意の位置にお
ける再生状態を取得するためには、シナリオを最初から
読み直してその時点まで辿り、その時点で提示されるべ
きオブジェクト情報を取得する必要があり、タイトル再
生中にその処理を行うために時間を要し、スムーズな再
生位置への移動が困難である。
Therefore, in order to obtain the playback state at any position on the title progression axis, it is necessary to reread the scenario from the beginning and trace to that point in time to obtain the object information to be presented at that point. It takes time to perform the processing during reproduction, and it is difficult to smoothly move to the reproduction position.

【0013】第4の問題点は、従来のマルチメディアタ
イトル再生装置においては、タイトルを見ている利用者
の要求に応じて、オブジェクトのふるまい(表示位置、
表示サイズ、表示範囲など)を変更するといった、シナ
リオには記述されていない動作(以下、利用者適応と記
述する)は行えなかった。これは、タイトル再生中、オ
ブジェクトがシナリオに記述されている以外のインタラ
クティブな動作を行うことにより、タイトルの進行に支
障をきたすことがあるためである。
The fourth problem is that in the conventional multimedia title reproducing apparatus, the behavior of the object (display position, display position,
It was not possible to perform operations (hereinafter referred to as user adaptation) not described in the scenario, such as changing the display size and display range). This is because, during the reproduction of the title, the object may perform an interactive operation other than that described in the scenario, which may hinder the progress of the title.

【0014】第5の問題点は、従来のマルチメディアタ
イトル再生装置においては、タイトル再生以外の処理は
対象にしておらず、タイトル再生以外の処理を行いたい
場合は、その機能を提供する独自の装置を、別途作り込
む必要があった。外部アプリケーションとリンクさせ、
マルチメディアタイトル再生装置からそれらの外部アプ
リケーションが実行できれば、マルチメディアタイトル
再生装置において様々な機能を容易に提供することがで
き、広範な用途が見込まれる。本発明は、上記問題点を
解決するためのものである。
The fifth problem is that the conventional multimedia title reproducing apparatus does not target the processing other than the title reproduction, and when it is desired to perform the processing other than the title reproduction, it has a unique function of providing the function. The device had to be built separately. Link with an external application,
If these external applications can be executed from the multimedia title reproducing device, various functions can be easily provided in the multimedia title reproducing device, and a wide range of applications are expected. The present invention is to solve the above problems.

【0015】[0015]

【課題を解決するための手段】前記第1の課題を解決す
るため、第1の手段では、1つの有時間オブジェクトの
時間軸、例えば動画のフレーム数や、オブジェクトに付
されているタイムスタンプなどを基軸とし、この軸に対
して他のオブジェクトとのリンク情報を付加すること
で、同期を定義付けるタイトル形式を考案し、この形式
のタイトルを再生する装置を提供する。
In order to solve the first problem, in the first means, the time axis of one timed object, for example, the number of frames of a moving image, the time stamp attached to the object, etc. The present invention provides a device for reproducing a title in this title by devising a title format that defines synchronization by adding link information with other objects to this axis.

【0016】ここで、タイトル進行の基軸となる有時間
オブジェクトを基軸オブジェクトと呼ぶ。
Here, the timed object which is the base axis of the title progress is called a base axis object.

【0017】前記第2の課題を解決するため、第2の手
段では、タイトルの再生開始前にシナリオを解析し、全
てのオブジェクトを生成しておくことによって、タイト
ル再生中にオブジェクト生成という重い処理を行う必要
をなくし、タイトルのスムーズな再生が可能であるマル
チメディアタイトル再生装置を提供する。
In order to solve the second problem, the second means analyzes the scenario before starting the reproduction of the title and generates all the objects, so that a heavy process of object generation during title reproduction is performed. To provide a multimedia title reproducing device capable of smoothly reproducing a title by eliminating the need to perform.

【0018】前記第3の課題を解決するため、第3の手
段では、タイトルの任意の位置における、オブジェクト
の提示状態情報データを生成・保持し、このデータを利
用することでタイトルの任意の位置の状態が復元できる
ことを利用し、タイトルの進行を手動で制御することが
可能であるマルチメディアタイトル再生装置を提供す
る。
In order to solve the third problem, in the third means, the presentation state information data of the object at an arbitrary position of the title is generated and held, and by using this data, the arbitrary position of the title is obtained. A multimedia title reproducing apparatus capable of manually controlling the progress of a title by utilizing the fact that the state of can be restored.

【0019】前記第4の課題を解決するため、第4の手
段では、シナリオに記述されていな動作に関して、その
動作を行う際にできるだけその時点で行う処理が軽くな
るよう、前もって処理を施しておくことによって、イン
タラクティブな動作を、タイトル再生に支障をきたすこ
となく行うことが可能であるマルチメディアタイトル再
生装置を提供する。
In order to solve the above-mentioned fourth problem , in the fourth means, with respect to an operation which is not described in the scenario, a processing is performed in advance so that the processing performed at that time can be lightened as much as possible when the operation is performed. By providing the multimedia title reproducing apparatus, it is possible to perform an interactive operation without disturbing the title reproduction.

【0020】前記第5の課題を解決するため、第5の手
段では、タイトル再生処理以外の提供したい機能を持つ
アプリケーションに関する情報をシナリオに記述してお
き、これを解釈・実行することで、タイトル再生以外の
処理も簡単に組み込むことが可能であるマルチメディア
タイトル再生装置を提供する。
In order to solve the fifth problem, in the fifth means, information about an application having a function to be provided other than the title reproducing process is described in a scenario, and this is interpreted and executed to obtain the title. (EN) Provided is a multimedia title reproducing device in which processing other than reproduction can be easily incorporated.

【0021】[0021]

【0022】[0022]

【作用】本発明は上記の第1の手段により、有時間オブ
ジェクトと他のオブジェクトの同期が保証され、再生環
境に依存しない、安定したマルチメディアタイトルの再
生が可能となる。
According to the first aspect of the present invention, the synchronization of the timed object and the other object is guaranteed by the first means, and stable multimedia title reproduction independent of the reproduction environment becomes possible.

【0023】また、第2の手段では、高速なオブジェク
トの提示制御が実現できる。また、第3の手段では、マ
ルチメディアタイトルの再生において、その再生位置を
任意に移動する手動制御が可能となる。
In the second means, high-speed object presentation control can be realized. Further, in the third means, in the reproduction of the multimedia title, it is possible to manually control the moving position of the multimedia title.

【0024】また、第4の手段では、マルチメディアタ
イトル再生装置において、利用者適応の動作が実現でき
る。
In the fourth means, the user-adapted operation can be realized in the multimedia title reproducing apparatus.

【0025】また、第5の手段では、マルチメディアタ
イトル再生装置から外部アプリケーションの起動が実現
できる。
In the fifth means, the external application can be activated from the multimedia title reproducing device.

【0026】[0026]

【0027】[0027]

【実施例】【Example】

(実施例1)ここで、本願において使用する用語を整理
する。本願において、「タイトル」とは動画、静止画、
テキスト、音声などのマルチメディアデータが予め決め
られた一連のストーリーに従って、提示されるものをい
い、「シナリオ」とは、タイトルのストーリーを記述し
たもの。「オブジェクト」とは、タイトルを構成する、
静止画やテキストといったメディアで、シナリオに従っ
て提示される単位。「ハイパーメディア型タイトル」と
は、時間の長さを持つ1つのオブジェクト(動画や音声
等)の時間軸をタイトル進行の時間軸とし、この軸に対
して、他の複数のオブジェクトがリンクされている構成
のタイトルをいう。また、「基軸オブジェクト」とは、
ハイパーメディア型タイトルにおいて、タイトルの進行
の時間軸となるオブジェクトを。「非基軸オブジェク
ト」とは、ハイパーメディア型タイトルにおける基軸オ
ブジェクト以外のオブジェクトを。「外部アプリケーシ
ョン」とは、マルチメディアタイトルとは直接関係の無
い処理を行うアプリケーションをゆもとする。
(Example 1) Here, terms used in the present application will be summarized. In the present application, "title" means a moving image, a still image,
Multimedia data such as text and voice is presented according to a predetermined series of stories, and a "scenario" describes the story of the title. An "object" constitutes a title,
A unit that is presented according to a scenario in media such as still images and text. "Hypermedia type title" means that the time axis of one object (video, audio, etc.) with a length of time is the time axis of title progress, and other objects are linked to this axis. This is the title of the structure that has In addition, "basic object" means
For hypermedia titles, the object that becomes the time axis of the title progress. "Non-baseline object" means any object other than the baseline object in the hypermedia title. “External application” refers to an application that performs processing that is not directly related to multimedia titles.

【0028】第1の発明の実施例について、図1は本発
明の第1の実施例におけるマルチメディアタイトル再生
装置の構成を示すブロック図である。また動作フローを
図2に示す。
FIG. 1 is a block diagram showing the structure of a multimedia title reproducing apparatus according to the first embodiment of the present invention. The operation flow is shown in FIG.

【0029】図1において、全体制御・管理手段101
は、まずシナリオ蓄積手段102に蓄積されているシナ
リオを読み込み、それを解釈し、内部データに変換し、
内部データ格納手段103に格納する。これらの処理
は、タイトルの再生開始前に初期処理として行われる。
初期処理実行後、タイトル再生コマンド入力手段109
から入力されたタイトル再生コマンドに従って、基軸オ
ブジェクトの再生や停止などの制御を行い、基軸オブジ
ェクト表示手段108を通して表示する。一方、一定時
間おきに、タイマーイベント発生手段110によりタイ
マーイベントが発生すると、同期処理手段106は、基
軸オブジェクトの再生位置を取得し、取得した基軸オブ
ジェクトの再生位置をもとに、内部データ格納手段10
3に格納されている内部データを参照し、その時点で提
示すべきオブジェクトが存在した場合、素材蓄積手段1
04から素材データを読み込み、オブジェクト表示手段
107を通して、それらを提示する。
In FIG. 1, overall control / management means 101
First reads the scenario stored in the scenario storage means 102, interprets it, converts it into internal data,
The data is stored in the internal data storage means 103. These processes are performed as initial processes before the reproduction of the title is started.
After executing the initial processing, the title reproduction command input means 109
According to the title reproduction command input from, the basic object is controlled to be reproduced or stopped and displayed through the basic object display means 108. On the other hand, when a timer event is generated by the timer event generation means 110 at regular intervals, the synchronization processing means 106 acquires the reproduction position of the basic axis object, and based on the acquired reproduction position of the basic axis object, the internal data storage means. 10
If there is an object to be presented at that time by referring to the internal data stored in 3, the material storage means 1
Material data is read from 04 and presented through the object display means 107.

【0030】本実施例では、基軸オブジェクトとして動
画オブジェクトを用いたハイパービデオ型タイトルを対
象に説明する。本実施例においては、シナリオはテキス
トで記述され、ファイルに格納されているものとする。
シナリオの書式BNF(バッカスーナウアキ記法)を用
いて図3に示す。
In this embodiment, a hyper video type title using a moving image object as a base object will be described. In this embodiment, the scenario is described in text and stored in a file.
It is shown in FIG. 3 using the scenario format BNF (Backus Nauki notation).

【0031】タイトル記述子にはタイトル名と基軸オブ
ジェクトのIDが記述されている(図3 )。オブジェ
クト記述子には、表示サイズや表示位置などのオブジェ
クト情報が記述されている(図3 )。素材記述子には
ファイル名などの素材情報が記述されている(図3
)。同期トリガデータ(図3)には、同期処理情報が
記述されており、<処理時刻>には基軸オブジェクトの
持つ時間軸での時間、本実施例では動画のフレーム番
号、<処理内容>には提示(ON)/消去(OFF)の
どちらを行うかのフラグが記述される。
In the title descriptor, the title name and the ID of the basic axis object are described (FIG. 3). Object information such as display size and display position is described in the object descriptor (FIG. 3). Material information such as file name is described in the material descriptor (Fig. 3
). The synchronization processing information is described in the synchronization trigger data (FIG. 3), the <processing time> is the time on the time axis of the base axis object, the frame number of the moving image in this embodiment, and the <processing content> is A flag indicating whether to present (ON) or erase (OFF) is described.

【0032】この同期トリガデータにおいて、動画のN
フレーム目にオブジェクトIDで指定されるオブジェク
トを提示/消去する、という同期処理を記述しており、
これによって、基軸オブジェクトである動画のフレーム
番号と、他のオブジェクトの提示/消去タイミングとの
リンク情報が記述される。
In this synchronous trigger data, N
It describes the synchronization process of presenting / erasing the object specified by the object ID in the frame.
As a result, the link information of the frame number of the moving image, which is the basic object, and the presentation / erasure timing of other objects is described.

【0033】図1において、全体制御・管理手段(10
1)は、初期処理としてまず、シナリオ蓄積手段(10
2)であるコンピュータの補助記憶装置からシナリオフ
ァイルを読み込んで内容を解釈し、同期処理手段が理解
できる形式の内部データに変換し、内部データ格納手段
(103)であるコンピュータ上のメモリに展開する
(図2:ステップ202)。内部データの構造を図4に
示す。
In FIG. 1, overall control / management means (10
As for the initial processing, 1) first, scenario storage means (10
2) The scenario file is read from the auxiliary storage device of the computer which is 2), the contents are interpreted, converted into internal data in a format understandable by the synchronization processing means, and expanded in the memory on the computer which is the internal data storage means (103). (FIG. 2: Step 202). The structure of internal data is shown in FIG.

【0034】タイトル記述子(図4(a))には、タイ
トル名などタイトル全体に関する情報が格納されてい
る。シナリオファイルにおいて図3で示した部分がタイ
トル記述子として記述される。
The title descriptor (FIG. 4A) stores information about the entire title such as the title name. The part shown in FIG. 3 in the scenario file is described as a title descriptor.

【0035】オブジェクト記述子(図4(b))は、配
列構造になっており、オブジェクトに固有のIDである
オブジェクトIDが配列番号になっている。オブジェク
ト記述子には次のようなオブジェクト情報が格納されて
いる。素材IDは同期処理手段(106)などが素材を
一意に識別するための番号、表示位置・表示サイズはオ
ブジェクトを画面に表示する際のオブジェクトの位置・
サイズ指定である。シナリオには図3で示した部分がオ
ブジェクト記述子として記述される。
The object descriptor (FIG. 4B) has an array structure, and the object ID, which is a unique ID of the object, is the array number. The following object information is stored in the object descriptor. The material ID is a number for the synchronization processing means (106) or the like to uniquely identify the material, and the display position / display size is the position of the object when the object is displayed on the screen.
The size is specified. In the scenario, the part shown in FIG. 3 is described as an object descriptor.

【0036】素材記述子(図4(c))も配列構造にな
っており、素材IDが配列番号になっている。格納され
ている情報は、個々の素材ファイルのファイル名であ
る。シナリオには図3で示した部分が素材記述子として
記述される。
The material descriptor (FIG. 4C) also has an array structure, and the material ID is the array number. The stored information is the file name of each material file. In the scenario, the part shown in FIG. 3 is described as a material descriptor.

【0037】同期トリガデータ(図4(d))には、同
期処理情報が格納される。処理時刻は、前述の同期処理
を行う時間、ここでは基軸オブジェクトである動画のフ
レーム番号が格納される。オブジェクトIDには、処理
対象のオブジェクトのIDが、処理内容には、ここでは
ON(提示)/OFF(消去)のいずれかが格納され
る。シナリオには図3で示した部分が同期トリガデータ
として記述される。
Synchronization processing information is stored in the synchronization trigger data (FIG. 4 (d)). The processing time stores the time for performing the above-described synchronization processing, in this case, the frame number of the moving image that is the basic object. The object ID stores the ID of the object to be processed, and the processing content stores here either ON (presentation) or OFF (erasure). The part shown in FIG. 3 is described in the scenario as synchronization trigger data.

【0038】また、同期トリガデータは処理時刻の昇順
に配列で格納されている。また図5に示すように、同じ
時刻に行う処理が複数存在した場合、それぞれの処理に
優先度を付け、優先度の高い処理が先になるよう、リス
ト構造で格納しており、本実施例では、見た目に滑らか
なタイトルの再生を実現する上で、OFF(消去)の処
理をON(提示)の処理より先に行うという判断基準で
優先度を付け、リスト構造に格納している。
Further, the synchronous trigger data are stored in an array in the ascending order of the processing time. Further, as shown in FIG. 5, when there are a plurality of processes to be performed at the same time, each process is given a priority and stored in a list structure so that the process with a higher priority comes first. Then, in order to realize the playback of a title that looks smooth, priorities are given and stored in the list structure on the basis of a criterion that OFF (erasing) processing is performed before ON (presentation) processing.

【0039】全体制御・管理手段(101)は、次に、
タイトル進行管理フラグT_flagに初期値として1をセッ
トし、タイトル進行管理フラグ格納手段(105)に格
納する(図2:ステップ203)。
The overall control / management means (101)
The title progress management flag T_flag is set to 1 as an initial value and stored in the title progress management flag storage means (105) (FIG. 2: step 203).

【0040】これらの初期処理後、全体制御・管理手段
(101)はイベント待ち状態になる(図2:ステップ
204)。この状態における画面状態を図6に示す。図
6において、601は基軸オブジェクト表示手段(10
8)である動画ウィンドウ、1802、1803、18
04はタイトル再生コマンド入力手段(109)である
ボタンである。
After these initial processes, the overall control / management means (101) goes into an event waiting state (FIG. 2: step 204). The screen state in this state is shown in FIG. In FIG. 6, reference numeral 601 denotes a basic object display means (10
8) is a movie window, 1802, 1803, 18
A button 04 is a title reproduction command input means (109).

【0041】タイトル再生コマンド入力手段(109)
にある、再生ボタン/一時停止ボタン/停止ボタンのい
ずれかが押され、イベントが発生すると、全体制御・管
理手段(101)では、入力されたコマンドに従って、
動画を制御し(図2:ステップ205)、基軸オブジェ
クト表示手段(108)でこれを表示する。再生ボタン
が押された場合の画面状態は、図7に示すように動画の
再生が開始される。
Title reproduction command input means (109)
When any one of the play button / pause button / stop button is pressed and an event occurs, the overall control / management means (101) follows the input command.
The moving image is controlled (FIG. 2: step 205), and the basic object display means (108) displays it. As for the screen state when the play button is pressed, the reproduction of the moving image is started as shown in FIG.

【0042】また、一定間隔でタイマーイベントを発生
するタイマーイベント発生手段(110)がイベントを
発生すると、全体制御・管理手段(101)は同期処理
手段(106)に制御を渡す。同期処理手段(106)
は、基軸オブジェクト表示手段(108)からその時点
での動画の再生フレーム番号を取得する(図2:ステッ
プ206)。
When the timer event generating means (110) for generating a timer event at regular intervals generates an event, the overall control / management means (101) transfers control to the synchronization processing means (106). Synchronization processing means (106)
Acquires the reproduction frame number of the moving image at that time from the basic object display means (108) (FIG. 2: step 206).

【0043】次に、同期処理手段(106)は、内部デ
ータ格納手段(103)から内部データの同期トリガデ
ータを取得するが、同期トリガデータは処理時刻の昇順
に配列で格納されており、一方これから行う処理のカウ
ントはタイトル進行管理フラグT_flagに格納されている
ので、配列番号がT_flag(初期状態では1がセット)で
与えられる同期トリガデータを取得する(図2:ステッ
プ207)。
Next, the synchronization processing means (106) acquires the synchronization trigger data of the internal data from the internal data storage means (103), but the synchronization trigger data is stored in an array in the ascending order of processing time. Since the count of the process to be performed is stored in the title progress management flag T_flag, the synchronization trigger data given by the array element number T_flag (1 is set in the initial state) is acquired (FIG. 2: step 207).

【0044】同期処理手段(106)は、取得した同期
トリガデータの処理時刻と、動画の再生フレーム番号と
を比較し(図2:ステップ208)、動画の再生フレー
ム番号が、同期トリガデータの処理時刻と等しい(処理
を行うべき時刻である)か、或いは大きかった(処理を
行う時刻を過ぎている)ら、同期トリガデータの示す処
理、すなわち同期処理を実行する。動画の再生フレーム
番号が大きい場合を考慮する必要があるのは、タイマー
イベントの発生するタイミングによって、イベントとイ
ベントの間に処理時刻になってしまう可能性があるの
で、処理時刻を過ぎてしまった場合にも、処理を行うよ
うに考慮する必要があるからである(図8(a))。
The synchronization processing means (106) compares the processing time of the acquired synchronization trigger data with the playback frame number of the moving image (FIG. 2: step 208), and the playback frame number of the moving image is the processing of the synchronization trigger data. If it is equal to the time (the time when the processing should be performed) or is larger (the time when the processing is performed), the processing indicated by the synchronization trigger data, that is, the synchronization processing is executed. It is necessary to consider the case where the playback frame number of the video is large, because the processing time may be between events depending on the timing of the timer event, so the processing time has passed. This is because, in this case as well, it is necessary to consider the processing (FIG. 8A).

【0045】この場合、同期ポイントがその分ずれてし
まうことになるが、本実施例では、タイマーイベントは
10msec間隔で発生させているので、最大でもその時間
間隔よりも同期ポイントがずれることはなく、タイトル
進行上、問題はない。
In this case, the synchronization points are displaced by that amount, but in this embodiment, since the timer events are generated at intervals of 10 msec, the synchronization points will not be displaced from the time intervals at the maximum. , There is no problem in the progress of the title.

【0046】また本実施例ではMPEG1の動画を使用
しており、約30msec毎に1フレーム再生されることに
なる。タイマーイベントの間隔は10msecなので、図8
(b)に示すように、タイマーイベントの間に、2箇所
の同期ポイントが存在することはない。
In this embodiment, a moving picture of MPEG1 is used, and one frame is reproduced every about 30 msec. Since the timer event interval is 10 msec,
As shown in (b), no two synchronization points exist during the timer event.

【0047】同期処理手段(106)が行う、同期処理
の実行は、取得した同期トリガデータの処理内容がON
(表示)の場合は、内部データ格納手段(103)から
オブジェクトIDで与えられるオブジェクト記述子の情
報を取得し、その内容に従って、素材蓄積手段(10
4)であるコンピュータの補助記憶装置から素材ファイ
ルを読み込むなどしてオブジェクトを生成し(図2:ス
テップ210)、オブジェクト表示手段(107)によ
って表示する(図2:ステップ211)。
The synchronization processing executed by the synchronization processing means (106) indicates that the processing content of the acquired synchronization trigger data is ON.
In the case of (display), the information of the object descriptor given by the object ID is acquired from the internal data storage means (103), and the material storage means (10
The object is generated by reading the material file from the auxiliary storage device of the computer which is 4) (FIG. 2: step 210) and displayed by the object display means (107) (FIG. 2: step 211).

【0048】この時の画面状態を図9に示す。図9にお
いて901はオブジェクト表示手段(107)であり、
静止画オブジェクトが提示されている。
The screen state at this time is shown in FIG. In FIG. 9, 901 is an object display means (107),
A still image object is presented.

【0049】処理内容がOFF(非表示)の場合は、オ
ブジェクトIDで与えられるオブジェクトをオブジェク
ト表示手段(107)によって非表示にする(図2:ス
テップ213)。この時の画面状態を図10に示す。
When the processing content is OFF (non-display), the object given by the object ID is hidden by the object display means (107) (FIG. 2: step 213). The screen state at this time is shown in FIG.

【0050】次に同期トリガデータのポインタを参照
し、NULLでなかった場合は、ポインタの示すデータ
(図4)を取得し、同様の処理(図2:ステップ209
〜214)を行う。
Next, the pointer of the synchronization trigger data is referred to, and if it is not NULL, the data indicated by the pointer (FIG. 4) is acquired and the same processing (FIG. 2: step 209) is performed.
~ 214).

【0051】これらの同期処理の実行後、同期処理手段
(106)は、T_flagをインクリメントする(図2:ス
テップ215)。
After executing these synchronization processes, the synchronization processing means (106) increments T_flag (FIG. 2: step 215).

【0052】以上のように、本実施例によればマルチメ
ディアタイトルの基軸として1つの有時間オブジェクト
を採用し、この有時間オブジェクトの再生に合わせてタ
イトルを再生することによって有時間オブジェクトと他
オブジェクトとの再生環境によらない同期が保証され
る。
As described above, according to the present embodiment, one timed object is adopted as the base of a multimedia title, and the timed object and other objects are reproduced by reproducing the title in accordance with the reproduction of this timed object. Synchronization is guaranteed regardless of the playback environment.

【0053】(実施例2)第2の発明の実施例につい
て、図11を参照しながら説明する。まず、図11で示
したマルチメディアタイトル再生装置の動作概略につい
て説明する。まず初期処理として、図1と同様の処理を
行い、さらに内部データの内容に従って素材蓄積手段1
04から素材データを読み込み、全ての非基軸オブジェ
クトを生成し、オブジェクト格納手段1102に格納す
る。これらの初期処理実行後、タイトル再生コマンド、
タイマーイベントに対して図1と同様の処理を行うが、
同期処理手段1103が、非基軸オブジェクトを提示す
る際、図1とは異なり、予め生成され、オブジェクト格
納手段1102に格納されているオブジェクトを表示す
る。
(Embodiment 2) An embodiment of the second invention will be described with reference to FIG. First, an outline of the operation of the multimedia title reproducing device shown in FIG. 11 will be described. First, as the initial processing, the same processing as in FIG. 1 is performed, and further, the material storage means 1 is executed according to the contents of the internal data.
Material data is read from 04, all non-basic axis objects are generated, and stored in the object storage means 1102. After executing these initial processing, title playback command,
Perform the same process as in Figure 1 for the timer event,
When presenting the non-baseline object, the synchronization processing unit 1103 displays the object previously generated and stored in the object storage unit 1102, unlike FIG.

【0054】この図に示す実施例が上述した第1発明の
実施例と異なる点は、オブジェクト格納手段(110
2)を備え、初期処理において、全ての非基軸オブジェ
クトを生成し、オブジェクト格納手段(1102)であ
るコンピュータ上のメモリに記憶させておく点である。
The difference between the embodiment shown in this figure and the embodiment of the first invention described above is that the object storing means (110
2), and all the non-baseline objects are generated in the initial processing and stored in the memory on the computer which is the object storage means (1102).

【0055】なお、この図において図1と共通する部分
には同一の番号を付し、その説明を省略する。図11に
おいて、1101はシステム全体の動きを制御及び管理
する全体制御・管理手段、1102はオブジェクトを格
納するオブジェクト格納手段、1103は基軸オブジェ
クトの進行に合わせて非基軸オブジェクトの制御を行う
同期処理手段である。
In this figure, the same parts as those in FIG. 1 are designated by the same reference numerals and the description thereof will be omitted. In FIG. 11, reference numeral 1101 is an overall control / management unit that controls and manages the movement of the entire system, 1102 is an object storage unit that stores objects, and 1103 is a synchronization processing unit that controls a non-baseline object in accordance with the progress of the baseline object. Is.

【0056】このような構成による第2発明の実施例の
動作について説明する。動作フローを図12に示す。図
11において、全体制御・管理手段(1101)は、初
期処理として、図1における全体制御・管理手段(10
1)と同様の処理を行い(図12:ステップ1202、
1203)、さらに内部データ格納手段(103)であ
るコンピュータ上のメモリから、オブジェクト記述子と
それにリンクする素材記述子を参照し、その内容に従
い、素材蓄積手段(104)である補助記憶装置から素
材ファイルを読み込み、全ての非基軸オブジェクトを生
成し、オブジェクト格納手段(1202)であるコンピ
ュータ上のメモリに格納する(図12:ステップ120
4)。
The operation of the embodiment of the second invention having such a configuration will be described. The operation flow is shown in FIG. In FIG. 11, the overall control / management unit (1101) performs the initial control by the overall control / management unit (1010).
The same process as 1) is performed (FIG. 12: step 1202,
1203), and further refers to the object descriptor and the material descriptor linked to it from the memory on the computer which is the internal data storage means (103), and according to the contents, the material is stored from the auxiliary storage device which is the material storage means (104). The file is read, all non-baseline objects are generated, and stored in the memory on the computer which is the object storage means (1202) (FIG. 12: step 120).
4).

【0057】これらの初期処理後、全体制御・管理手段
(201)は、図1における全体制御・管理手段(10
1)と同様に、イベント待ち状態になり(図12:ステ
ップ1205)、タイトル再生コマンド入力手段(10
9)によってイベントが発生すると、入力されたコマン
ドに従って動画を制御し(図12:ステップ120
6)、タイマーイベント発生手段(110)によってイ
ベントが発生すると、同期処理手段(1103)に制御
を渡す。
After these initial processes, the overall control / management means (201) is replaced by the overall control / management means (10) in FIG.
In the same manner as 1), an event wait state is entered (FIG. 12: step 1205), and title reproduction command input means (10
When an event occurs according to 9), the moving image is controlled according to the input command (FIG. 12: step 120).
6) When an event occurs by the timer event generating means (110), control is passed to the synchronous processing means (1103).

【0058】タイマーイベントが発生し、同期処理手段
(1103)に制御が渡されたら、同期処理手段(11
03)は、図1における同期処理手段(106)と同様
の処理を行う(図12:ステップ1207〜121
0)。異なるのは、同期処理手段(1103)が、オブ
ジェクトIDで与えられたオブジェクトを提示する際、
その都度提示するオブジェクトを生成するのではなく、
初期処理において予め生成され、オブジェクト格納手段
(1102)であるコンピュータ上のメモリに格納して
あるオブジェクト情報を取得する(図12:ステップ1
211)という点であり、取得したオブジェクト情報を
オブジェクト表示手段(107)によって表示する(図
12:ステップ1212)。
When a timer event occurs and control is passed to the synchronization processing means (1103), the synchronization processing means (11
03) performs the same processing as the synchronization processing means (106) in FIG. 1 (FIG. 12: steps 1207 to 121).
0). The difference is that when the synchronization processing means (1103) presents the object given by the object ID,
Instead of creating the object to be presented each time,
Object information which is generated in advance in the initial processing and is stored in the memory on the computer which is the object storage means (1102) is acquired (FIG. 12: step 1).
211), and the acquired object information is displayed by the object display means (107) (FIG. 12: step 1212).

【0059】以上のように、予め全てのオブジェクトを
起動時に読み込み、メモリに格納しておくことで、オブ
ジェクトの提示の際は、メモリ内の情報をオブジェクト
表示手段によって表示することで実現できることから、
提示する内容を、オブジェクト提示時で生成する必要が
無く、従ってオブジェクトの提示が高速に実行でき、ス
ムーズなタイトル再生が可能となる。
As described above, by loading all objects in advance at the time of activation and storing them in the memory, the information in the memory can be displayed by the object display means when the objects are presented.
It is not necessary to generate the content to be presented at the time of presenting the object, so that the object can be presented at high speed and the title can be smoothly reproduced.

【0060】(実施例3)第3の発明の実施例につい
て、図13を参照しながら説明する。まず図13で示し
たマルチメディアタイトル再生装置においての動作概略
を以下に説明する。まず初期処理として、図11と同様
の処理を行い、さらにタイトルの区間毎のオブジェクト
の提示状態を表すオブジェクト提示状態管理データを内
部データの内容に従って生成し、オブジェクト提示状態
管理データ格納手段1302に格納する。これらの初期
処理実行後、タイトル再生コマンド、タイマーイベント
に対しては図11と同様の処理を行う。またタイトル制
御コマンド入力手段1304から入力されたタイトル制
御コマンドに従って、基軸オブジェクトの再生位置の移
動制御を行い、基軸オブジェクト表示手段108を通し
て表示するとともに、再生状態復元処理手段1303
は、オブジェクト提示状態管理データから、その再生位
置における非基軸オブジェクトの提示状態を取得し、オ
ブジェクト表示手段107を通してそれらを反映させ
る。
(Embodiment 3) An embodiment of the third invention will be described with reference to FIG. First, an outline of the operation of the multimedia title reproducing apparatus shown in FIG. 13 will be described below. First, as an initial process, the same process as in FIG. 11 is performed, and object presentation state management data representing the object presentation state for each title section is generated according to the contents of the internal data and stored in the object presentation state management data storage unit 1302. To do. After executing these initial processes, the same processes as in FIG. 11 are performed for the title reproduction command and the timer event. Further, according to the title control command input from the title control command input means 1304, the movement control of the reproduction position of the basic axis object is performed and displayed through the basic axis object display means 108, and the reproduction state restoration processing means 1303.
Acquires the presentation state of the non-baseline object at the reproduction position from the object presentation state management data, and reflects them through the object display means 107.

【0061】この図に示す実施例が上述した第2発明の
実施例と異なる点は、タイトルの進行を区間に分割し、
区間毎に、どのオブジェクトが提示状態にあるか、とい
ったオブジェクト提示状態管理データを格納する、オブ
ジェクト提示状態管理データ格納手段(1302)と、
オブジェクト提示状態管理データを参照し、タイトルの
ある区間での状態を復元する再生状態復元処理手段(1
303)と、タイトルの再生位置を移動するコマンドを
入力する制御コマンド入力手段(1304)を備え、タ
イトルの任意の再生位置に移動できる点である。
The embodiment shown in this figure differs from the embodiment of the second invention described above in that the progress of the title is divided into sections.
Object presentation state management data storage means (1302) for storing object presentation state management data such as which object is in the presentation state for each section;
Reproduction state restoration processing means (1) for restoring the state in a section having a title by referring to the object presentation state management data
303) and a control command input means (1304) for inputting a command for moving the reproduction position of the title, which is the point that the reproduction position of the title can be moved to any position.

【0062】図13において、図1、図112と共通す
る部分には、同一の番号を付し、その説明を省略する。
In FIG. 13, parts common to those in FIGS. 1 and 112 are designated by the same reference numerals, and the description thereof will be omitted.

【0063】このような構成による第3発明の実施例の
動作について説明する。図14に動作フローを示す。図
13において、全体制御・管理手段(1301)は初期
処理として、図11における全体制御・管理手段(11
01)と同様の処理を行い(図14:ステップ1402
〜1404)、さらに内部データ格納手段(103)で
あるコンピュータ上のメモリから、同期トリガデータを
参照し、オブジェクト提示状態管理データを生成し、オ
ブジェクト提示状態管理データ格納手段(1302)で
あるコンピュータ上のメモリに格納する(図14:ステ
ップ1405)。オブジェクト提示状態管理データの生
成方法を図15に示す。
The operation of the embodiment of the third invention having such a configuration will be described. FIG. 14 shows an operation flow. In FIG. 13, the overall control / management unit (1301) performs the initial processing as the overall control / management unit (11
01) is performed (FIG. 14: Step 1402).
-1404), further, referring to the synchronization trigger data from the memory on the computer which is the internal data storage means (103), the object presentation state management data is generated, and on the computer which is the object presentation state management data storage means (1302). In the memory (FIG. 14: step 1405). A method for generating the object presentation state management data is shown in FIG.

【0064】オブジェクト提示状態管理データは2次元
配列になっており、トリガnとトリガ(n+1)の区間(これ
を区間nと定義する)で提示されるべきオブジェクトの
オブジェクトIDを DISP_OBJ[n,m] m:1から順に付される
正整数値 に格納する。図15においては、トリガT1〜トリガT2
の区間で提示されるべきオブジェクトはO1のみなの
で、 DISP_OBJ[1,1]=O1 となる。トリガT2〜トリガT3区間では、O1、O2が提
示されるべきなので、 DISP_OBJ[2,1]=O1 DISP_OBJ[2,2]=O2 となる。同様に、 DISP_OBJ[3,x] x:1,2,3 DISP_OBJ[4,y] y:1,2,3 DISP_OBJ[5,z] z:1,2,3 についても図15に示すような値が入る。
The object presentation state management data is a two-dimensional array, and the object ID of the object to be presented in the section of the trigger n and the trigger (n + 1) (this is defined as section n) is DISP_OBJ [n , M] m: Store in positive integer values sequentially assigned from m: 1. In FIG. 15, trigger T1 to trigger T2
Since O1 is the only object that should be presented in the section, DISP_OBJ [1,1] = O1. In the section from the trigger T2 to the trigger T3, since O1 and O2 should be presented, DISP_OBJ [2,1] = O1 DISP_OBJ [2,2] = O2. Similarly, DISP_OBJ [3, x] x: 1,2,3 DISP_OBJ [4, y] y: 1,2,3 DISP_OBJ [5, z] z: 1,2,3 is also as shown in FIG. It has a value.

【0065】これらの初期処理後、全体制御・管理手段
(301)はイベント待ち状態になる(図14:ステッ
プ1406)。この状態における画面状態を図16に示
す。図16において、1601、1602、1603は
タイトル制御コマンド入力手段(1304)であるボタ
ン及びスライダーである。タイトル再生コマンド入力手
段(109)からコマンドが入力された場合、及びタイ
マーイベント発生手段(110)がイベントを発生した
場合は、図11における全体制御・管理手段(110
1)と同様の処理を行う(図14:ステップ1407〜
1417)。
After these initial processes, the overall control / management means (301) goes into an event waiting state (FIG. 14: step 1406). The screen state in this state is shown in FIG. In FIG. 16, reference numerals 1601, 1602 and 1603 denote buttons and sliders which are title control command input means (1304). When a command is input from the title reproduction command input means (109) and when the timer event generation means (110) generates an event, the overall control / management means (110 in FIG. 11
The same process as 1) is performed (FIG. 14: Steps 1407-).
1417).

【0066】さらに、タイトル制御コマンド入力手段
(1304)にある、早送ボタン/巻戻ボタン/スライ
ダーが操作され、コマンドが入力されると、全体制御・
管理手段(1301)は入力されたコマンドに従って、
移動する先の動画のフレーム番号を算出し(図14:ス
テップ1418)、基軸オブジェクト表示手段(10
8)を用いて動画の再生位置を移動する(図14:ステ
ップ1419)。ここで移動する先の動画のフレーム番
号を「目標フレーム位置」と定義する。早送ボタンが押
された場合は、動画の現在の再生位置から決められたフ
レーム数分先の、目標フレーム位置へ再生位置を移動す
る(図17(a))。
Further, when the fast forward button / rewind button / slider in the title control command input means (1304) is operated and a command is input, the overall control /
The management means (1301) follows the input command
The frame number of the moving destination moving image is calculated (FIG. 14: step 1418), and the basic object display means (10
8) is used to move the playback position of the moving image (FIG. 14: step 1419). Here, the frame number of the moving image to be moved is defined as the "target frame position". When the fast-forward button is pressed, the reproduction position is moved to the target frame position, which is a predetermined number of frames ahead of the current reproduction position of the moving image (FIG. 17A).

【0067】巻戻ボタンが押された場合は、動画の現在
の再生位置から決められたフレーム数分前の、目標フレ
ーム位置へ再生位置を移動する(図17(b))。
When the rewind button is pressed, the reproduction position is moved to the target frame position, which is a predetermined number of frames before the current reproduction position of the moving image (FIG. 17B).

【0068】スライダーが操作された場合は、スライダ
ーの位置から目標フレーム位置を計算し、再生位置を移
動する(図17(c))。
When the slider is operated, the target frame position is calculated from the position of the slider and the reproduction position is moved (FIG. 17 (c)).

【0069】全体制御・管理手段(301)は、入力さ
れたコマンドに従って動画の再生位置を移動したら、再
生状態復元処理手段(1303)に制御を渡す。
The overall control / management means (301) transfers control to the reproduction state restoration processing means (1303) after moving the reproduction position of the moving image in accordance with the input command.

【0070】全体制御・管理手段(1301)より制御
が渡されたら、再生状態復元処理手段(1303)は、
まず現在提示されているオブジェクトを全て消去し(図
14:ステップ1420)、次に内部データ格納手段
(103)より同期トリガデータを参照し、目標フレー
ム位置における区間番号を求める(図14:ステップ1
421)。区間番号は、 同期トリガデータ[K].処理時刻 ≦ 目標フレーム位置 < 同期トリ
ガデータ[K+1].処理時刻 を満たすKで与えられる。
When control is passed from the overall control / management means (1301), the reproduction state restoration processing means (1303)
First, all currently presented objects are erased (FIG. 14: step 1420), then the internal data storage means (103) is referred to, and the section number at the target frame position is obtained (FIG. 14: step 1).
421). The section number is given by K that satisfies the synchronization trigger data [K]. Processing time ≤ target frame position <synchronization trigger data [K + 1]. Processing time.

【0071】次に再生状態復元処理手段(1303)
は、オブジェクト提示状態管理データ格納手段(130
2)より、オブジェクト提示状態管理データを参照し、
区間Kにおいて提示されるべきオブジェクトのIDを取
得し(図14:ステップ1422)、オブジェクト格納
手段(1102)からオブジェクト情報を取得し、オブ
ジェクト表示手段(107)によって表示する(図1
4:ステップ1423)。以上の処理を行った後、再生
状態復元処理手段(1303)は、タイトル進行管理フ
ラグ(T_flag)にK+1を代入する(図14:ステップ1
424)。
Next, a reproduction state restoration processing means (1303)
Is an object presentation state management data storage means (130
From 2), refer to the object presentation state management data,
The ID of the object to be presented in the section K is acquired (FIG. 14: step 1422), the object information is acquired from the object storage means (1102) and displayed by the object display means (107) (FIG. 1).
4: Step 1423). After performing the above processing, the reproduction state restoration processing means (1303) substitutes K + 1 for the title progress management flag (T_flag) (FIG. 14: step 1).
424).

【0072】以上のように、タイトルを区間に分割し、
各々の区間においてのタイトルの再生状態(オブジェク
トの提示状態)を管理することにより、タイトル中の任
意の再生位置においての再生状態の取得が可能になるた
め、早送りや巻戻し、スライダーによるタイトル再生位
置の移動操作が可能となる。
As described above, the title is divided into sections,
By managing the playback status of the title (presentation status of the object) in each section, it is possible to obtain the playback status at any playback position in the title, so fast forward, rewind, and title playback position by the slider. Can be moved.

【0073】(実施例4)第4の発明の実施例につい
て、図18を参照しながら説明する。まず図18で示し
たマルチメディアタイトル再生装置においての動作を以
下に説明する。まず初期処理として、図13と同様の処
理を行い、さらに利用者適応を実現するのに必要なデー
タを生成し、オブジェクト格納手段1302に格納す
る。これらの初期処理実行後、タイトル再生コマンド、
タイトル制御コマンド、タイマーイベントに対しては図
13と同様の処理を行う。またオブジェクト制御コマン
ド入力手段1802から入力された利用者適応コマンド
に従って、オブジェクト制御手段1803はオブジェク
トの個々の動作を制御し、オブジェクト表示手段107
を通して表示する。
(Embodiment 4) An embodiment of the fourth invention will be described with reference to FIG. First, the operation of the multimedia title reproducing apparatus shown in FIG. 18 will be described below. First, as an initial process, a process similar to that shown in FIG. 13 is performed, and further, data necessary for realizing user adaptation is generated and stored in the object storage unit 1302. After executing these initial processing, title playback command,
With respect to the title control command and the timer event, the same processing as in FIG. 13 is performed. Further, the object control means 1803 controls each operation of the object according to the user adaptation command input from the object control command input means 1802, and the object display means 107.
Display through.

【0074】この図に示す実施例が上述した第3発明の
実施例と異なる点は、利用者適応の動作のコマンド(以
下、利用者適応コマンドと記述)を入力するオブジェク
ト制御コマンド入力手段(1802)と、入力されたコ
マンドに従ってオブジェクトのふるまいを制御するオブ
ジェクト制御手段(1803)を備え、タイトル再生中
にタイトルの再生に支障をきたすことなく、利用者適応
の動作ができるという点である。
The embodiment shown in this figure differs from the embodiment of the third invention described above in that the object control command input means (1802) for inputting a command for user adaptation operation (hereinafter referred to as user adaptation command). ) And an object control means (1803) for controlling the behavior of the object in accordance with the input command, so that the user-adapted operation can be performed during the title reproduction without disturbing the reproduction of the title.

【0075】このような構成による第4発明の実施例の
動作について説明する。なお、本実施例においては、利
用者適応の動作として、オブジェクトの表示サイズの変
更という動きを例にとり、利用者適応コマンドが入力さ
れたら、オブジェクトを拡大して表示、テキストオブジ
ェクトの場合は、フォントサイズも大きくして表示す
る、という制御を行う。
The operation of the embodiment of the fourth invention having such a configuration will be described. It should be noted that in the present embodiment, as the user adaptation operation, the movement of changing the display size of the object is taken as an example. When the user adaptation command is input, the object is enlarged and displayed. In the case of a text object, the font is changed. The size of the image is increased and displayed.

【0076】図19に動作フローを示す。図18におい
て、全体制御・管理手段(1801)は初期処理とし
て、図13における全体制御・管理手段(1301)と
ほぼ同様の処理を行う(図19:ステップ1902、1
903、1905)。但し、非基軸オブジェクトを生成
する際、拡大表示時に提示するデータも生成し、オブジ
ェクト格納手段(1102)であるコンピュータ上のメ
モリに格納する(図19:ステップ1904)。
FIG. 19 shows an operation flow. 18, the overall control / management unit (1801) performs almost the same process as the overall control / management unit (1301) in FIG. 13 as an initial process (FIG. 19: steps 1902, 1).
903, 1905). However, when the non-baseline object is generated, data to be presented at the time of enlarged display is also generated and stored in the memory on the computer which is the object storage means (1102) (FIG. 19: step 1904).

【0077】これらの初期処理後、全体制御・管理手段
(1801)はイベント待ち状態になる(図19:ステ
ップ1906)。タイトル再生コマンド入力手段(10
9)からコマンドが入力された場合、タイマーイベント
発生手段(110)がイベントを発生した場合、及びタ
イトル制御コマンド入力手段(1304)からコマンド
が入力された場合は、図13における全体制御・管理手
段(1301)と同様の処理を行う(図19:ステップ
1907〜1924)。
After these initial processes, the overall control / management means (1801) goes into an event waiting state (FIG. 19: step 1906). Title playback command input means (10
9), when the timer event generating means (110) generates an event, and when the command is input from the title control command input means (1304), the overall control / management means in FIG. The same processing as (1301) is performed (FIG. 19: Steps 1907 to 1924).

【0078】オブジェクト制御コマンド入力手段(18
02)は、本実施例では、図20に示すように画面表示
されているオブジェクトウィンドウ(図20:200
1)とする。このオブジェクトウィンドウをマウスなど
でクリックすることにより、利用者適応コマンドが入力
される。
Object control command input means (18
02) is the object window displayed on the screen as shown in FIG.
1). A user adaptation command is input by clicking this object window with a mouse or the like.

【0079】コマンドが入力されると、全体制御・管理
手段(1801)は、オブジェクト制御手段(180
3)に制御を渡す。この際、全体制御・管理手段(18
01)は、クリックされたウィンドウを認識することに
より、対象となるオブジェクトのIDも認識し、オブジ
ェクト制御手段(1803)に、このオブジェクトID
を渡す。
When a command is input, the overall control / management means (1801) is changed to the object control means (180
Pass control to 3). At this time, overall control / management means (18
01) recognizes the ID of the target object by recognizing the clicked window, and the object control means (1803) recognizes this object ID.
give.

【0080】全体制御・管理手段(1801)から制御
が渡されたら、オブジェクト制御手段(1803)は、
全体制御・管理手段(1801)から渡されたオブジェ
クトIDをもとに、対象となるオブジェクトをオブジェ
クト表示手段(107)によって消去する(図19:ス
テップ1925)。オブジェクト制御手段(1803)
はさらに、全体制御・管理手段(1801)から渡され
たオブジェクトIDをもとに、オブジェクト格納手段
(1102)であるコンピュータのメモリ上に予め用意
されているオブジェクトの拡大表示用データを取得し、
オブジェクト表示手段(107)によって提示する(図
19:ステップ1926)。
When control is passed from the overall control / management means (1801), the object control means (1803)
Based on the object ID passed from the overall control / management means (1801), the object display means (107) erases the target object (FIG. 19: step 1925). Object control means (1803)
Further obtains the enlarged display data of the object prepared in advance in the memory of the computer which is the object storage means (1102) based on the object ID passed from the overall control / management means (1801),
It is presented by the object display means (107) (FIG. 19: step 1926).

【0081】この状態での画面状態を図21に示す。図
21において、2101が拡大表示されたオブジェクト
である。この際、オブジェクトの拡大表示用データが予
め用意されてなく、コマンドが入力された時点で、これ
を生成し、提示した場合、拡大表示用データの生成に時
間がかかり、タイトル再生に支障をきたす可能性が高
い。予め拡大表示用データを生成し、メモリに格納して
おくことにより、拡大表示用データの生成に要する時間
だけ短縮され、拡大表示が高速化され、タイトル再生に
支障をきたす可能性の低減化が図れる。
The screen state in this state is shown in FIG. In FIG. 21, reference numeral 2101 is an enlarged object. At this time, if the enlarged display data of the object is not prepared in advance and is generated and presented when the command is input, it takes time to generate the enlarged display data, which hinders the title reproduction. Probability is high. By generating the enlarged display data in advance and storing it in the memory, the time required to generate the enlarged display data can be shortened, the enlarged display can be speeded up, and the possibility that the title reproduction is disturbed can be reduced. Can be achieved.

【0082】以上のように、利用者適応の動作に関して
も考慮し、予めオブジェクトのデータとして用意してお
く等の機構を設けることにより、タイトル再生中であっ
ても、これらのインタラクティブな制御を、タイトルの
進行を妨げることなく実現することができる。
As described above, by considering the operation of user adaptation and providing a mechanism such as preparing as object data in advance, these interactive controls can be performed even during title reproduction. It can be realized without hindering the progress of the title.

【0083】(実施例5)第5の発明の実施例につい
て、図22を参照しながら説明する。まず、図22で示
したマルチメディアタイトル再生装置においての動作を
以下に説明する。まず初期処理として、図13と同様の
処理を行うが、シナリオ解釈時にリンクする外部アプリ
ケーション情報を読みとり、外部アプリ情報データを生
成し、外部アプリ情報格納手段2202に格納する。こ
れらの初期処理実行後、タイトル再生コマンド、タイト
ル制御コマンド、タイマーイベントに対しては図13と
同様の処理を行う。また外部アプリ起動コマンド入力手
段2203から入力された外部アプリ制御コマンドに従
って、外部アプリ起動手段2204は、外部アプリ情報
格納手段2202より外部アプリ情報データを参照し、
外部アプリケーションの制御を行う。
(Embodiment 5) An embodiment of the fifth invention will be described with reference to FIG. First, the operation of the multimedia title reproducing apparatus shown in FIG. 22 will be described below. First, as the initial processing, the same processing as in FIG. 13 is performed, but external application information linked at the time of scenario interpretation is read, external application information data is generated, and stored in the external application information storage unit 2202. After these initial processes are executed, the same processes as in FIG. 13 are performed for the title reproduction command, title control command, and timer event. Further, according to the external application control command input from the external application start command input means 2203, the external application start means 2204 refers to the external application information data from the external application information storage means 2202,
Control external applications.

【0084】この図に示す実施例が第3発明の実施例と
異なる点は、全体制御・管理手段(2201)が、リン
クする外部アプリケーション情報の記述されたシナリオ
を解釈し、その情報を格納する外部アプリ情報格納手段
(2202)と、外部アプリケーションを起動するコマ
ンドを入力する外部アプリ起動コマンド入力手段(22
03)と、入力されたコマンドを受けて、外部アプリ情
報格納手段(2202)に格納されているデータを参照
し、リンクされている外部アプリケーションを起動する
外部アプリ起動手段(2204)を備え、外部アプリ制
御コマンド入力手段(2203)からコマンドが入力さ
れると、シナリオでリンク付けされたアプリケーション
を起動する機構を持つ点である。
The embodiment shown in this figure is different from the embodiment of the third invention in that the overall control / management means (2201) interprets the scenario in which the external application information to be linked is described and stores the information. External application information storage means (2202) and external application start command input means (22) for inputting a command to start an external application.
03) and the input command to refer to the data stored in the external application information storage means (2202) and to include the external application activation means (2204) for activating the linked external application. This is that it has a mechanism for activating an application linked in a scenario when a command is input from the application control command input means (2203).

【0085】図22において、図1、図11、図13と
共通する部分には、同一の番号を付し、その説明を省略
する。
In FIG. 22, parts common to those in FIGS. 1, 11, and 13 are designated by the same reference numerals, and the description thereof will be omitted.

【0086】このような構成による第5発明の実施例の
動作について説明する。図23に動作フローを示す。
The operation of the fifth embodiment having such a configuration will be described. FIG. 23 shows an operation flow.

【0087】図22において、全体制御・管理手段(2
201)は初期処理としてまず、シナリオ蓄積手段(1
02)であるコンピュータの補助記憶装置からシナリオ
ファイルを読み込んで内容を解釈し、内部データに変
換、内部データ格納手段(103)に格納する(図2
3:ステップ2302)。さらにシナリオから外部アプ
リ情報データを生成し、外部アプリ情報格納手段(22
02)に格納する(図23:ステップ2303)。
In FIG. 22, overall control / management means (2
201) is an initial process. First, the scenario storage means (1
02), which reads the scenario file from the auxiliary storage device of the computer, interprets the content, converts it into internal data, and stores it in the internal data storage means (103) (FIG. 2).
3: Step 2302). Further, external application information data is generated from the scenario, and external application information storage means (22
02) (FIG. 23: step 2303).

【0088】外部アプリケーション情報が記述されたシ
ナリオの書式を図24に示す。(a)〜(d)は図3と同様で
あり、(e)がリンクする外部アプリケーション情報であ
る。内部データの構造は図4と同様である。
The format of the scenario in which the external application information is described is shown in FIG . (a) to (d) are the same as those in FIG. 3, and (e) is the external application information to be linked. The structure of internal data is the same as in FIG.

【0089】外部アプリ情報データの構造を図25に示
す。外部アプリ情報データは配列構造になっており、ア
プリケーションIDが配列番号になっている。アプリケ
ーションIDは、シナリオファイルの解釈時に1から順
に割り振られる。
The structure of the external application information data is shown in FIG. The external application information data has an array structure, and the application ID is an array number. Application IDs are sequentially assigned from 1 when the scenario file is interpreted.

【0090】この状態における画面状態を図26に示
す。図26において、2601、2602は外部アプリ
起動コマンド入力手段(2203)であるボタンであ
る。外部アプリ情報データを生成する際に、リンクする
アプリケーションの数に応じて、表示すべきボタンの個
数や配置などを予め決められた規則に基づいて自動的に
決定する。
FIG. 26 shows the screen state in this state. In FIG. 26, reference numerals 2601 and 2602 are buttons which are external application activation command input means (2203). When generating the external application information data, the number and arrangement of buttons to be displayed are automatically determined according to the number of applications to be linked based on a predetermined rule.

【0091】本実施例では、シナリオ(図24)の形式
に従って外部アプリ情報(e)として2つのアプリケーシ
ョンが記述されているとすると、外部アプリ起動コマン
ド入力手段(2203)として2つのボタンが表示され
る。さらに全体制御・管理手段(2201)は、図11
における全体制御・管理手段(1101)と同様に、タ
イトル進行管理フラグの初期化(図23:ステップ23
04)、及びオブジェクト提示状態管理データの生成
(図23:ステップ2305)を行う。
In this embodiment, the format of the scenario (FIG. 24 )
If two applications are described as the external application information (e), the two buttons are displayed as the external application activation command input means (2203). Further, the overall control / management means (2201) is shown in FIG.
Similar to the overall control / management means (1101) in FIG. 23, initialization of the title progress management flag (FIG. 23: step 23).
04) and generation of object presentation state management data (FIG. 23: step 2305).

【0092】これらの初期処理後、全体制御・管理手段
(2201)はイベント待ち状態になる(図23:ステ
ップ2306)。タイトル再生コマンド入力手段(10
9)からコマンドが入力された場合、タイマーイベント
発生手段(110)がイベントを発生した場合、及びタ
イトル制御コマンド入力手段(1304)からコマンド
が入力された場合は、図13における全体制御・管理手
段(1301)と同様の処理を行う(図23:ステップ
2307〜2324)。
After these initial processes, the overall control / management means (2201) goes into an event waiting state (FIG. 23: step 2306). Title playback command input means (10
9), when the timer event generating means (110) generates an event, and when the command is input from the title control command input means (1304), the overall control / management means in FIG. The same process as (1301) is performed (FIG. 23: Steps 2307 to 2324).

【0093】外部アプリ起動コマンド入力手段(220
3)からコマンドが入力された場合、全体制御・管理手
段(2201)は、外部アプリ起動手段(2204)に
制御を渡す。この際、全体制御・管理手段(2201)
は、クリックされたボタンを認識することにより、対象
となるアプリケーションIDを認識し、外部アプリ起動
手段(2204)にこのアプリケーションIDを渡す。
External application start command input means (220
When a command is input from 3), the overall control / management unit (2201) passes control to the external application activation unit (2204). At this time, overall control / management means (2201)
Recognizes the clicked button, recognizes the target application ID, and passes this application ID to the external application starting means (2204).

【0094】全体制御・管理手段(2201)から制御
が渡されたら、外部アプリ起動手段(2204)は、外
部アプリ情報格納手段(2202)に格納されている外
部アプリ情報データを参照し(図23:ステップ232
5)、全体制御・管理手段(2201)から渡されたア
プリケーションIDに対応するアプリケーションを認識
し、起動する(図23:ステップ2326)。
When the control is passed from the overall control / management means (2201), the external application starting means (2204) refers to the external application information data stored in the external application information storage means (2202) (FIG. 23). : Step 232
5) The application corresponding to the application ID passed from the overall control / management means (2201) is recognized and activated (FIG. 23: step 2326).

【0095】以上のように、マルチメディアタイトルの
再生とは直接は関係無い処理を行う外部アプリケーショ
ンを、リンクするアプリケーションとしてシナリオファ
イルに記述し、それを起動する機構を設けることによ
り、マルチメディアタイトル再生と外部のアプリケーシ
ョンの機能を提供する、マルチメディアタイトル再生装
置が実現できる。例えば、商品広告であるマルチメディ
アタイトルを再生しつつ、外部アプリケーションであ
る、FAXによる資料送付装置や発注申込装置によっ
て、資料を得たり、発注をしたりすることが可能とな
る。
As described above, by writing an external application which performs a process not directly related to the reproduction of the multimedia title in the scenario file as an application to be linked, and providing a mechanism for activating it, the multimedia title reproduction is performed. It is possible to realize a multimedia title reproducing device that provides functions of an external application. For example, while reproducing a multimedia title, which is a product advertisement, it is possible to obtain or place an order by using an external application, such as a fax material sending device or an order application device.

【0096】[0096]

【0097】[0097]

【0098】[0098]

【0099】[0099]

【0100】[0100]

【0101】[0101]

【0102】[0102]

【0103】[0103]

【0104】[0104]

【0105】[0105]

【0106】[0106]

【0107】[0107]

【0108】[0108]

【発明の効果】以上詳細に説明したように、本発明によ
れば、第1の発明では、ハイパーメディアタイトルの再
生が実現できる。これにより、有時間オブジェクトと他
のオブジェクトの同期が保証され、再生環境に依存しな
い、安定したマルチメディアタイトルの再生が可能とな
る。
As described above in detail, according to the present invention, the reproduction of the hypermedia title can be realized in the first invention. This guarantees the synchronization of the timed object with other objects and enables stable reproduction of the multimedia title independent of the reproduction environment.

【0109】また、第2の発明では、高速なオブジェク
トの提示制御が実現できる。これにより、滑らかなマル
チメディアタイトルの再生が可能となる。
Further, in the second invention, high-speed object presentation control can be realized. This enables smooth playback of multimedia titles.

【0110】また、第3の発明では、マルチメディアタ
イトルの再生において、その再生位置を任意に移動する
手動制御が実現できる。これにより、マルチメディアタ
イトルの再生に関して、順方向の再生だけでなく、早送
りや巻戻しなどの操作が可能となる。
Further, in the third invention, in the reproduction of the multimedia title, a manual control for arbitrarily moving the reproduction position can be realized. As a result, not only the reproduction in the forward direction but also the fast-forwarding and the rewinding can be performed for the reproduction of the multimedia title.

【0111】また、第4の発明では、マルチメディアタ
イトル再生装置において、利用者適応の動作が実現でき
る。これにより、利用者の好みに応じたマルチメディア
タイトルの再生が可能となる。
According to the fourth aspect of the invention, the user-adapted operation can be realized in the multimedia title reproducing apparatus. As a result, it becomes possible to reproduce the multimedia title according to the user's preference.

【0112】また、第5の発明では、マルチメディアタ
イトル再生装置から外部アプリケーションの起動が実現
できる。これにより、マルチメディアタイトルを利用し
た様々なアプリケーションが容易に提供できる。
In the fifth invention, the external application can be activated from the multimedia title reproducing device. This makes it possible to easily provide various applications using multimedia titles.

【0113】[0113]

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の第1発明のマルチメディアタイトル再
生装置の構成を示すブロック図
FIG. 1 is a block diagram showing a configuration of a multimedia title reproducing apparatus according to a first aspect of the present invention.

【図2】本発明の第1の実施例における処理のフローチ
ャート
FIG. 2 is a flowchart of processing in the first embodiment of the present invention.

【図3】本発明の第1の実施例におけるシナリオの書式
FIG. 3 is a format diagram of a scenario according to the first embodiment of this invention.

【図4】本発明の第1の実施例における内部データ構造
FIG. 4 is an internal data structure diagram in the first embodiment of the present invention.

【図5】本発明の第1の実施例における同期トリガデー
タの生成方法し示す概念図
FIG. 5 is a conceptual diagram showing a method of generating synchronization trigger data in the first embodiment of the present invention.

【図6】本発明の第1の実施例における第1の画面状態
FIG. 6 is a first screen state diagram in the first embodiment of the present invention.

【図7】本発明の第1の実施例における第2の画面状態
FIG. 7 is a second screen state diagram in the first embodiment of the present invention.

【図8】(a)本発明の第1の実施例における同期ポイ
ントとタイマーイベントの第1の関係図 (b)本発明の第1の実施例における同期ポイントとタ
イマーイベントの第2の関係図
FIG. 8A is a first relational diagram of synchronization points and timer events in the first embodiment of the present invention. FIG. 8B is a second relational diagram of synchronization points and timer events in the first embodiment of the present invention.

【図9】本発明の第1の実施例における第3の画面状態
FIG. 9 is a third screen state diagram according to the first embodiment of the present invention.

【図10】本発明の第1の実施例における第4の画面状
態図
FIG. 10 is a fourth screen state diagram according to the first embodiment of the present invention.

【図11】本発明の第2の実施例におけるマルチメディ
アタイトル再生装置の構成を示すブロック図
FIG. 11 is a block diagram showing a configuration of a multimedia title reproducing device according to a second embodiment of the present invention.

【図12】本発明の第2の実施例における処理のフロー
チャート
FIG. 12 is a flowchart of the process in the second embodiment of the present invention.

【図13】本発明の第3の実施例におけるマルチメディ
アタイトル再生装置の構成を示すブロック図
FIG. 13 is a block diagram showing a configuration of a multimedia title reproducing device according to a third embodiment of the present invention.

【図14】本発明の第3の実施例における処理のフロー
チャート
FIG. 14 is a flowchart of the process in the third embodiment of the present invention.

【図15】本発明の第3の実施例におけるオブジェクト
提示状態管理データの生成方法を示す概念図
FIG. 15 is a conceptual diagram showing a method of generating object presentation state management data in the third embodiment of the present invention.

【図16】本発明の第3の実施例における画面状態図FIG. 16 is a screen state diagram according to the third embodiment of the present invention.

【図17】本発明の第3の実施例における目標フレーム
位置を示す概念図
FIG. 17 is a conceptual diagram showing a target frame position in the third embodiment of the present invention.

【図18】本発明の第4の実施例におけるマルチメディ
アタイトル再生装置の構成を示すブロック図
FIG. 18 is a block diagram showing a configuration of a multimedia title reproducing device according to a fourth embodiment of the present invention.

【図19】本発明の第4の実施例における処理のフロー
チャート
FIG. 19 is a flowchart of processing according to the fourth embodiment of the present invention.

【図20】本発明の第4の実施例における第1の画面状
態図
FIG. 20 is a first screen state diagram according to the fourth embodiment of the present invention.

【図21】本発明の第4の実施例における第2の画面状
態図
FIG. 21 is a second screen state diagram according to the fourth embodiment of the present invention.

【図22】本発明の第5の実施例におけるマルチメディ
アタイトル再生装置の構成を示すブロック図
FIG. 22 is a block diagram showing the configuration of a multimedia title reproducing device according to a fifth embodiment of the present invention.

【図23】本発明の第5の実施例における処理のフロー
チャート
FIG. 23 is a flowchart of the process in the fifth embodiment of the present invention.

【図24】本発明の第5の実施例におけるシナリオの書
式図
FIG. 24 is a format diagram of a scenario according to the fifth embodiment of the present invention.

【図25】本発明の第5の実施例における外部アプリ情
報データの構造図
FIG. 25 is a structural diagram of external application information data according to the fifth embodiment of the present invention.

【図26】本発明の第5の実施例における画面状態図FIG. 26 is a screen state diagram according to the fifth embodiment of the present invention.

【符号の説明】[Explanation of symbols]

101 全体制御・管理手段 102 シナリオ蓄積手段 103 内部データ格納手段 104 素材蓄積手段 105 タイトル進行管理フラグ格納手段 106 同期処理手段 107 オブジェクト表示手段 108 記述オブジェクト表示手段 109 タイトル再生コマンド入力手段 110 タイマーイベント発生手段 101 Overall control / management means 102 scenario storage means 103 internal data storage means 104 Material storage means 105 Title progress management flag storage means 106 synchronization processing means 107 object display means 108 description object display means 109 Title playback command input means 110 Timer event generation means

───────────────────────────────────────────────────── フロントページの続き (72)発明者 佐藤 真 大阪府門真市大字門真1006番地 松下電 器産業株式会社内 (56)参考文献 特開 平7−78063(JP,A) 特開 平5−274419(JP,A) 特開 平6−118916(JP,A) 特開 平7−93228(JP,A) 特開 平5−53544(JP,A) 特開 平6−195050(JP,A)   ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Makoto Sato               1006 Kadoma, Kadoma-shi, Osaka Matsushitaden               Instrument industry Co., Ltd.                (56) Reference JP-A-7-78063 (JP, A)                 JP-A-5-274419 (JP, A)                 JP-A-6-118916 (JP, A)                 JP-A-7-93228 (JP, A)                 JP-A-5-53544 (JP, A)                 JP-A-6-195050 (JP, A)

Claims (5)

(57)【特許請求の範囲】(57) [Claims] 【請求項1】マルチメディアデータを、予め決められた
一連のストーリーを記述したシナリオに従って提示する
ものであるタイトルを再生する装置であって、 タイトルを構成するメディアで、シナリオに従って提示
される単位であるオブジェクトのうち、時間の長さを持
つ1つのオブジェクトの時間軸をタイトル進行の時間軸
とし、前記タイトル進行の時間軸とされたオブジェクト
(基軸オブジェクト)以外のオブジェクトである非基軸
オブジェクトの提示のタイミングを、基軸オブジェクト
の時間軸に対して同期させ、 シナリオには、少なくとも、タイトルに関する情報と、
オブジェクトに関する情報と、同期に関する情報と、が
記述され、 タイトルに関する情報には、少なくとも、タイトル名な
どタイトル全体に関する情報と、基軸オブジェクトのI
Dなど基軸オブジェクトを識別するための情報と、が記
述され、 オブジェクトに関する情報には、少なくとも、IDなど
非基軸オブジェクトを識別するための情報と、当該非基
軸オブジェクトを画面に表示する際の位置・サイズに関
する情報と、が記述され、 同期に関する情報には、少なくとも、IDなど同期の対
象となる非基軸オブジェクトを識別するための情報と、
当該同期のタイミングに関する情報としてそのタイミン
グに相当する前記基軸オブジェクトの時間軸情報と、提
示(ON)/消去(OFF)など同期の処理内容に関する情
報と、が記述され、 装置全体の管理・制御を行う全体制御・管理手段と、シ
ナリオを蓄積するシナリオ蓄積手段と、内部データを格
納する内部データ格納手段と、基軸オブジェクトの表示
処理を行う基軸オブジェクト表示手段と、非基軸オブジ
ェクトの表示処理を行うオブジェクト表示手段と、一定
間隔でタイマーイベントを発生させるタイマーイベント
発生手段と、基軸オブジェクトの進行に合わせて非基軸
オブジェクトの制御を行う同期処理手段と、タイトルの
再生コマンドを入力するタイトル再生コマンド入力手段
とを備え、 全体制御・管理手段は、シナリオ蓄積手段に蓄積されて
いるシナリオを読み込んで解釈し、同期処理手段が理解
できる形式である内部データへ変換して内部データ格納
手段へ格納し、 基軸オブジェクト表示手段は、タイトル再生コマンド入
力手段から入力されたタイトル再生コマンドに従って基
軸オブジェクトの表示処理を行い、 同期処理手段は、タイマーイベント発生手段によりタイ
マーイベントが発生すると、基軸オブジェクト表示手段
よりその時点で表示されている基軸オブジェクトの時間
軸情報である基軸オブジェクトの再生位置を取得し、当
該再生位置をもとに内部データ格納手段に格納されてい
る内部データを参照し、その時点で提示すべき非基軸オ
ブジェクトが存在した場合、オブジェクト表示手段を通
して、当該非基軸オブジェクトを提示する、ことを特徴
とするタイトル再生装置。
1. Multimedia data is predetermined
Present a series of stories according to the described scenario
It is a device that reproduces a title, which is a medium that composes the title, and is presented according to a scenario.
Of the objects that are the units
The time axis of each object is the time axis of the title progress
And the object used as the time axis of the title progress
Non-base axis that is an object other than (base object)
The timing of the presentation of the object
Synchronized to the time axis of, the scenario, at least information about the title,
Information about objects and information about synchronization
The information about the title that is described must include at least the title name.
Information about the whole title and I of the basic object
Information for identifying the key axis object such as D is described.
The information about the object is at least the ID, etc.
Information for identifying the non-baseline object and the non-baseline object
The position and size of the axis object displayed on the screen
The information related to synchronization is described at least in the information related to synchronization.
Information to identify the non-baseline object that becomes the elephant, and
The timing is used as information regarding the timing of the synchronization.
Axis information of the basic object corresponding to the
Information related to synchronization processing contents such as display (ON) / erase (OFF)
Is described, and overall control / management means for managing / controlling the entire apparatus, scenario storage means for storing scenarios, internal data storage means for storing internal data, and basic axis for displaying basic object Object display means, object display means for performing display processing of non-baseline objects, timer event generation means for generating timer events at regular intervals, and synchronization processing means for controlling non-baseline objects in accordance with the progress of the baseline objects. , A title reproduction command input means for inputting a title reproduction command, and the overall control / management means reads and interprets the scenario stored in the scenario storage means, and the internal data in a format understandable by the synchronization processing means. To the internal data storage means, Performs display processing of the basic object according to the title reproduction command input from the title reproduction command input means, and the synchronization processing means, when a timer event occurs by the timer event generation means, is displayed by the basic object display means at that time. Acquires the playback position of the basic object that is the time axis information of the existing basic object, refers to the internal data stored in the internal data storage means based on the playback position, and determines the non-basic object to be presented at that time. if present, through the object display means, for presenting the non cornerstone objects, features and to filter title reproducing apparatus that.
【請求項2】タイトルの進行を管理するタイトル進行管
理フラグを格納するタイトル進行管理フラグ格納手段を
備え、 内部データ格納手段は、内部データのうち、同期処理に
関する情報である同期トリガデータを、処理時刻の昇順
に配列の形式で、また前記各配列には、処理時刻として
その時刻に相当する基軸オブジェクトの時間軸情報と、
同期対象である非基軸オブジェクトを識別する情報と、
提示(ON)/消去(OFF)など処理内容に関する情報
と、を格納し、 タイトル進行管理フラグの初期値として、同期トリガデ
ータを格納した配列の最初の配列番号をセットした場
合、 同期処理手段は、タイマーイベントの発生を受けて、タ
イトル進行管理フラグの値と同じ配列番号の同期トリガ
データを内部データ格納手段より取得し、取得した同期
トリガデータの処理時刻と、基軸オブジェクト表示手段
より取得した基軸オブジェクトの再生位置とを比較し、
基軸オブジェクトの再生位置が前記処理時刻と等しい又
は大きい場合、同期トリガデータの処理内容を実行し、
その実行後、タイトル進行管理フラグの値をインクリメ
ントし、次のタイマーイベントの発生を受けて、同様の
処理を繰り返すことを特徴とする請求項に記載のタイ
トル再生装置。
2. A title progress management flag storage means for storing a title progress management flag for managing the progress of a title, wherein the internal data storage means processes synchronization trigger data, which is information relating to synchronization processing, of the internal data. In the form of an array in ascending order of time, and in each of the arrays, the time axis information of the basic axis object corresponding to that time as the processing time,
Information that identifies the non-baseline object that is the synchronization target, and
If information about processing contents such as presentation (ON) / erasure (OFF) is stored and the first array element number of the array storing the synchronization trigger data is set as the initial value of the title progress management flag, the synchronization processing means , In response to the occurrence of the timer event, the synchronous trigger data of the same array number as the value of the title progress management flag is acquired from the internal data storage means, the processing time of the acquired synchronous trigger data, and the basic axis acquired from the basic axis object display means. Compare with the playback position of the object,
If the playback position of the basic object is equal to or greater than the processing time, execute the processing content of the synchronization trigger data,
The title reproducing apparatus according to claim 1 , wherein after the execution, the value of the title progress management flag is incremented, and the same processing is repeated in response to the occurrence of the next timer event.
【請求項3】同じ同期のタイミングに複数の非基軸オブ
ジェクトが存在した場合、処理内容が提示の非基軸オブ
ジェクトよりも消去の非基軸オブジェクトを先に処理す
ることを特徴とする請求項1又は2に記載のタイトル再
生装置。
3. When a plurality of non cornerstone object in the same synchronization timing, according to claim 1 or 2, characterized in that the processing contents are processed first non cornerstone object of erase than non cornerstone object presentation Title reproduction device described in.
【請求項4】タイトル進行の時間軸を区間毎に分割し、
その区間毎にどの非基軸オブジェクトが提示状態にある
かをを示したオブジェクト提示状態管理データを格納す
るオブジェクト提示状態管理データ格納手段と、 オブジェクト提示状態管理データを参照し、タイトルの
ある区間での状態を復元する再生状態復元処理手段と、 早送り/巻き戻し/スライダーの操作など、その時点で
表示されているタイトルの時間軸情報であるタイトルの
再生位置を移動するコマンドであるタイトル制御コマン
ドを入力するタイトル制御コマンド入力手段とを備え、 タイトル制御コマンドに従って、基軸オブジェクトの再
生位置の移動制御を行い、基軸オブジェクト表示手段を
通して、当該再生位置に相当する基軸オブジェクトを表
示するとともに、再生状態復元処理手段は、オブジェク
ト提示状態管理データから、その再生位置における非基
軸オブジェクトの提示状態を取得し、オブジェクト表示
手段を通して、当該提示状態に従って非基軸オブジェク
トを表示する、ことを特徴とする請求項1から3のいず
れかに記載のタイトル再生装置。
4. The time axis of title progress is divided into sections,
Object presentation state management data storage means for storing object presentation state management data indicating which non-baseline object is in the presentation state for each section, and referring to the object presentation state management data, Input the playback state restoration processing means for restoring the state and the title control command that is the command for moving the playback position of the title, which is the time axis information of the title currently displayed, such as fast forward / rewind / slider operation. Title control command input means for controlling the movement of the reproduction position of the basic axis object according to the title control command, displaying the basic axis object corresponding to the reproduction position through the basic axis object display means, and reproducing state restoration processing means. Is the object presentation state management data Et obtains the presentation state of non cornerstone object in its playback position, through the object displaying means displays the non cornerstone object in accordance with the presentation condition, title reproduction according to any one of claims 1 to 3, characterized in apparatus.
【請求項5】タイトル進行の時間軸を区間毎に分割し、
その区間毎にどの非基軸オブジェクトが提示状態にある
かをを示したオブジェクト提示状態管理データを格納す
るオブジェクト提示状態管理データ格納手段と、 オブジェクト提示状態管理データを参照し、タイトルの
ある区間での状態を復元する再生状態復元処理手段と、 早送り/巻き戻し/スライダーの操作など、その時点で
表示されているタイトルの時間軸情報であるタイトルの
再生位置を移動するコマンドであるタイトル制御コマン
ドを入力するタイトル制御コマンド入力手段とを備え、 同期トリガデータを格納した配列の最初の配列番号より
1少ない値を、前記分割された区間の最初の区間番号と
た場合、 全体制御・管理手段は、タイトル制御コマンドに従っ
て、移動する先の基軸オブジェクトの再生位置である目
標位置を算出し、基軸オブジェクトの再生位置を目標位
置へ移動し、基軸オブジェクト表示手段を通して、当該
再生位置に相当する基軸オブジェクトを表示し、 再生状態復元処理手段は、現在提示されている非基軸オ
ブジェクトを消去し、内部データ格納手段より同期トリ
ガデータを参照し、前記目標位置が、配列番号Kの同期
トリガデータにおける処理時刻以上で、かつ配列番号K
+1の同期トリガデータにおける処理時刻よりも小さ
い、という条件を満たす値Kを求め、オブジェクト提示
状態管理データを参照し、区間Kにおいて提示されるべ
き非基軸オブジェクトを、オブジェクト表示手段によっ
て表示し、以上の処理を行った後、タイトル進行管理フ
ラグにK+1を代入する、ことを特徴とする請求項
記載のタイトル再生装置。
5. The title progress time axis is divided into sections,
Object presentation state management data storage means for storing object presentation state management data indicating which non-baseline object is in the presentation state for each section, and referring to the object presentation state management data, Input the playback state restoration processing means for restoring the state and the title control command that is the command for moving the playback position of the title, which is the time axis information of the title currently displayed, such as fast forward / rewind / slider operation. Title control command input means, and when the value of the first array number of the array storing the synchronization trigger data is 1 less than the first section number of the divided section, the overall control / management means Calculate the target position, which is the playback position of the basic object to move to, according to the control command. , Moving the reproduction position of the basic object to the target position, displaying the basic object corresponding to the reproduction position through the basic object display means, the reproduction state restoration processing means erases the non-basic object currently presented, By referring to the synchronous trigger data from the internal data storage means, the target position is equal to or more than the processing time in the synchronous trigger data of array number K, and array number K
A value K satisfying the condition that it is smaller than the processing time in the +1 synchronization trigger data is obtained, the object presentation state management data is referred to, and the non-baseline object to be presented in the section K is displayed by the object display means. 3. The title reproducing apparatus according to claim 2 , wherein K + 1 is substituted into the title progress management flag after performing the process of.
JP17466295A 1995-07-11 1995-07-11 Multimedia title playback device Expired - Fee Related JP3502196B2 (en)

Priority Applications (6)

Application Number Priority Date Filing Date Title
JP17466295A JP3502196B2 (en) 1995-07-11 1995-07-11 Multimedia title playback device
CA002180969A CA2180969C (en) 1995-07-11 1996-07-10 Multimedia playing apparatus utilizing synchronization of scenario-defined processing time points with playing of finite-time monomedia item
AU59437/96A AU693371B2 (en) 1995-07-11 1996-07-10 Multimedia playing apparatus utilizing synchronization of scenario-defined processing time points with playing of finite-time monomedia item
US08/677,752 US6487564B1 (en) 1995-07-11 1996-07-10 Multimedia playing apparatus utilizing synchronization of scenario-defined processing time points with playing of finite-time monomedia item
EP96111195A EP0753820B1 (en) 1995-07-11 1996-07-11 Multimedia playing apparatus utilizing synchronization of scenario-defined processing time points with playing of finite-time monomedia item
DE69623880T DE69623880T2 (en) 1995-07-11 1996-07-11 Multimedia playback device with synchronization of execution times defined in scripts with the playback of a monomedia object limited in time

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP17466295A JP3502196B2 (en) 1995-07-11 1995-07-11 Multimedia title playback device

Publications (2)

Publication Number Publication Date
JPH0926868A JPH0926868A (en) 1997-01-28
JP3502196B2 true JP3502196B2 (en) 2004-03-02

Family

ID=15982508

Family Applications (1)

Application Number Title Priority Date Filing Date
JP17466295A Expired - Fee Related JP3502196B2 (en) 1995-07-11 1995-07-11 Multimedia title playback device

Country Status (1)

Country Link
JP (1) JP3502196B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7143257B2 (en) 2018-07-12 2022-09-28 株式会社神戸製鋼所 Reactor and reactor system with the same

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20060236219A1 (en) * 2005-04-19 2006-10-19 Microsoft Corporation Media timeline processing infrastructure

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2861619B2 (en) * 1991-07-12 1999-02-24 松下電器産業株式会社 Information presentation device and presentation information creation device
JP2600530B2 (en) * 1991-08-23 1997-04-16 日本電気株式会社 Scenario presentation method and editing method
JPH06195050A (en) * 1992-05-29 1994-07-15 Nec Corp Method for presenting/editing scenario
JPH06118916A (en) * 1992-08-17 1994-04-28 Hitachi Ltd Operation device and reproducing device, and data editing device for operation device
JPH0793228A (en) * 1993-04-26 1995-04-07 Fuji Xerox Co Ltd Communication equipment
JP2541464B2 (en) * 1993-08-18 1996-10-09 日本電気株式会社 How to describe and present multimedia documents

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7143257B2 (en) 2018-07-12 2022-09-28 株式会社神戸製鋼所 Reactor and reactor system with the same

Also Published As

Publication number Publication date
JPH0926868A (en) 1997-01-28

Similar Documents

Publication Publication Date Title
JP4364190B2 (en) Method and apparatus for nonlinear playback control of multimedia data stream
US5751281A (en) Apparatus and method for storing a movie within a movie
US6584463B2 (en) Video searching method, apparatus, and program product, producing a group image file from images extracted at predetermined intervals
JP3943635B2 (en) Method for controlling session playback points in a computer controlled display system
JP3751314B2 (en) Method and apparatus for rewinding a time-based script sequence
JP5524653B2 (en) Display control apparatus and control method thereof
JP2003052011A (en) Video editing method and system for editing video project
JPH09179709A (en) Computer controlled display system
US8837912B2 (en) Information processing apparatus, information processing method and program
JP2001202754A (en) Editing device, its method and medium
CN101276376A (en) Method and system to reproduce contents, and recording medium including program to reproduce contents
US8750685B2 (en) Image processing apparatus
JP3502196B2 (en) Multimedia title playback device
JP2002008052A (en) Presentation system and recording medium
JPH1078947A (en) Reproduction device for multimedia title
JPH0779404A (en) Method and device for generating representative picture list of video image
JPH1032773A (en) Summary video browsing method/device
WO2006033416A1 (en) Presentation system, reproduction switching method, and program
JP4780128B2 (en) Slide playback device, slide playback system, and slide playback program
JP3841815B2 (en) How to edit video data
JP2005167822A (en) Information reproducing device and information reproduction method
CN101388989B (en) Recording apparatus and method, and recording medium
JP2000083194A (en) Method for editing video data
JPH08115335A (en) Multimedia processor
JP2002262238A (en) Video reproducing device, video distributing device and recording medium

Legal Events

Date Code Title Description
A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20031204

LAPS Cancellation because of no payment of annual fees