JP2001100731A - Object picture display device - Google Patents

Object picture display device

Info

Publication number
JP2001100731A
JP2001100731A JP27382099A JP27382099A JP2001100731A JP 2001100731 A JP2001100731 A JP 2001100731A JP 27382099 A JP27382099 A JP 27382099A JP 27382099 A JP27382099 A JP 27382099A JP 2001100731 A JP2001100731 A JP 2001100731A
Authority
JP
Japan
Prior art keywords
label
video
label object
image
area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP27382099A
Other languages
Japanese (ja)
Inventor
Kensuke Uehara
堅助 上原
Masakazu Suzuki
正和 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Toshiba Corp
Original Assignee
Toshiba Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Toshiba Corp filed Critical Toshiba Corp
Priority to JP27382099A priority Critical patent/JP2001100731A/en
Publication of JP2001100731A publication Critical patent/JP2001100731A/en
Pending legal-status Critical Current

Links

Landscapes

  • Compression Or Coding Systems Of Tv Signals (AREA)
  • Controls And Circuits For Display Device (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To automatically stick a label object while avoiding areas having high degrees of importance in an object picture moving in a display screen. SOLUTION: An object picture A8 to which a label object 112 should be stuck is selected by an object picture selection part 6, and for example, a head area of the object picture A8 is detected by a sticking position detection part 20. The label object 112 to be stuck is generated by a label object generation part 24, and the label object 112 is stuck to an area other than the head area by a label object sticking part 26. The picture to which it is stuck is synthesized with other object pictures by a picture composition part 30 and is displayed on a monitor 16.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、例えばMPEG方
式により符号化された複数のオブジェクト映像を表示で
きるオブジェクト映像表示装置に関するもので、特に、
ある特定のオブジェクト映像と例えばその内容を説明す
るためのラベルオブジェクトとを共に表示する技術に関
する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an object video display device capable of displaying a plurality of object videos encoded by, for example, the MPEG system.
The present invention relates to a technique for displaying both a specific object video and a label object for explaining its contents, for example.

【0002】[0002]

【従来の技術】オブジェクト映像をモニタに表示する際
に、オブジェクト映像の内容等を説明するラベルオブジ
ェクトを、該当するオブジェクト映像の近傍に表示する
必要がある。例えば、ラベルオブジェクトはそのオブジ
ェクト映像が人物オブジェクトの場合、その人物の名前
および身分等を表示する。そして、そのオブジェクト映
像がどのようなものかを紹介する短文等を表示する場合
もある。また、そのオブジェクト映像に対して、チェッ
クマークを付加する意味で、アイコンあるいはロゴなど
別なオブジェクト映像をそのオブジェクト映像に重ねて
表示することがある。このような要求に応える技術とし
て、特開平10−124278に開示されたものがあ
る。この文献には対象としているオブジェクト映像の状
態が変わったとき、そのオブジェクト映像に対してマー
クを付加する方法が紹介されている。また、マウス等で
表示位置を指定して、その位置にオブジェクト映像を表
示させ、そのオブジェクト映像にビットマップを貼り付
ける例も説明している。
2. Description of the Related Art When an object image is displayed on a monitor, it is necessary to display a label object for explaining the contents of the object image in the vicinity of the object image. For example, when the object video is a person object, the label object displays the name and status of the person. Then, a short sentence or the like that introduces what the object video looks like may be displayed. In addition, another object image such as an icon or a logo may be displayed so as to be superimposed on the object image in the sense of adding a check mark to the object image. As a technique for meeting such a demand, there is a technique disclosed in Japanese Patent Application Laid-Open No. H10-124278. This document introduces a method of adding a mark to a target object video when the state of the target object video changes. Also described is an example in which a display position is designated with a mouse or the like, an object image is displayed at that position, and a bitmap is pasted on the object image.

【0003】また、別の従来技術が開示された文献とし
て特開平6−282538がある。この文献には、文字
オブジェクトと図形オブジェクトが重なった例が紹介さ
れている。図17はこの文献に紹介されている文書作成
装置の処理を説明する図である。この文書作成装置は、
図17の(a)、(b)のように、文字オブジェクト1
02と図形オブジェクト106を自由な位置に配置して
作成できる。しかし、文字オブジェクト102と図形オ
ブジェクト106が重畳している領域があるため、図1
7の(c)のように図形オブジェクト106の領域を避
けて文字オブジェクト102を再配置する手段を提供し
ている。そして、図17(d)のように図形領域が動け
ば文字領域も図形領域に応じて再配置されることを特徴
としている。
Further, Japanese Patent Application Laid-Open No. 6-282538 discloses another conventional technique. This document introduces an example in which a character object and a graphic object overlap. FIG. 17 is a view for explaining the processing of the document creation device introduced in this document. This document creation device
As shown in (a) and (b) of FIG.
02 and the graphic object 106 can be created at any position. However, since there is an area where the character object 102 and the graphic object 106 overlap, FIG.
As shown in FIG. 7C, means for rearranging the character object 102 while avoiding the area of the graphic object 106 is provided. Then, as shown in FIG. 17D, if the graphic area moves, the character area is rearranged according to the graphic area.

【0004】図18はパソコン上にアイコン104と文
字オブジェクト102を同時に表示させた例を示した図
である。図18において、アイコン104すなわちオブ
ジェクト映像をマウス等のポインタ108により指定す
る。しばらくするとアイコン104の近傍に文字オブジ
ェクト102が表示される。文字オブジェクト102は
アイコン104がどのようなものかを示した説明文等が
表示される。
FIG. 18 is a diagram showing an example in which an icon 104 and a character object 102 are simultaneously displayed on a personal computer. In FIG. 18, an icon 104, that is, an object image is designated by a pointer 108 such as a mouse. After a while, the character object 102 is displayed near the icon 104. The text object 102 displays an explanatory note indicating what the icon 104 looks like.

【0005】[0005]

【発明が解決しようとする課題】上記の特開平6−28
2538に開示された技術は、文字オブジェクト102
の上を図形オブジェクト106が動く用途で、あくまで
も図形オブジェクト106の稼動範囲が文字オブジェク
ト102と重なった場合における文字オブジェクト10
2の再配置に限定している。そして、図形オブジェクト
106と文字オブジェクト102の相互について隠蔽す
ることなく表示させるために、文字オブジェクト102
を再配置する手段を提供している。
The above-mentioned JP-A-6-28
The technique disclosed in US Pat.
Character object 10 when the operating range of the graphic object 106 overlaps with the character object 102 for the purpose of moving the graphic object 106
2 rearrangements. Then, in order to display the graphic object 106 and the character object 102 without hiding each other, the character object 102
Provides a means to relocate.

【0006】また、図18に示す図形オブジェクト10
6と文字オブジェクト102の組み合わせの表示形態に
よると、図18(A)で、ポインタ108がアイコン1
04の下側に位置していれば、文字オブジェクト102
とアイコン104は重ならないで表示される。しかし、
図18(B)のように、ポインタ108がアイコン10
4の上側に位置するとアイコン104と文字オブジェク
ト102は重なって表示されて、アイコン104の表示
内容が一部隠蔽されてしまう。そして、図18(A)と
図18(B)ともにポインタ108によりアイコン10
4の一部が隠蔽されて内容が判別できない欠点がある。
Further, a graphic object 10 shown in FIG.
According to the display mode of the combination of the character 6 and the character object 102, in FIG.
04, the character object 102
And the icon 104 are displayed without overlapping. But,
As shown in FIG. 18B, the pointer 108
4, the icon 104 and the character object 102 are displayed in an overlapping manner, and the display content of the icon 104 is partially hidden. 18 (A) and FIG. 18 (B), the icon 10 is
There is a drawback that the contents cannot be discriminated because part of 4 is hidden.

【0007】上で紹介した従来例はオブジェクト映像に
対して図形オブジェクト106あるいは文字オブジェク
ト102を相互に関係づけて配置する場合に、相互の配
置位置あるいは配置関係は予め決めれらた位置に配置す
るか、あるいは図17あるいは図18のように人手で図
形オブジェクト106あるいは文字オブジェクト102
を配置する必要があった。
In the conventional example introduced above, when the graphic object 106 or the character object 102 is arranged in relation to the object video, the mutual arrangement position or arrangement relation is determined at a predetermined position. Alternatively, as shown in FIG. 17 or FIG.
Had to be placed.

【0008】図19に示すように、オブジェクト映像D
110に対してラベルオブジェクト112を重ねた場
合、ラベルオブジェクト112の配置位置を考慮しない
とラベルオブジェクト112が下側のオブジェクト映像
D110すなわち人物オブジェクトの重要な部分である
頭部に重なることがある。
[0008] As shown in FIG.
When the label object 112 is overlapped with the label object 110, the label object 112 may overlap the lower object video D110, that is, the head which is an important part of the person object, without considering the arrangement position of the label object 112.

【0009】仮に、ラベルオブジェクト112を人物オ
ブジェクトの頭部を避けて配置したとする。しかし、人
物オブジェクトの動きが激しくなると、ラベルオブジェ
クト112を人物オブジェクトの対応した位置(例えば
胸の位置等)に貼り付けておくと、人物オブジェクトの
動きに応じてラベルオブジェクト112の動きも激しく
なり、ラベルオブジェクト112の内容が読めなくなっ
てしまうという問題点もあった。
It is assumed that the label object 112 is arranged so as to avoid the head of the person object. However, when the movement of the person object becomes intense, if the label object 112 is pasted to a position corresponding to the person object (for example, the position of the chest), the movement of the label object 112 becomes intense in accordance with the movement of the person object. There is also a problem that the contents of the label object 112 cannot be read.

【0010】[0010]

【課題を解決するための手段】本発明は、上記した問題
を解決するためになされたもので、オブジェクト映像を
供給する手段と、前記オブジェクト映像供給手段から供
給されたオブジェクト映像の形状情報を抽出し出力する
形状情報出力手段と、前記オブジェクト映像供給手段よ
り供給されたオブジェクト映像内の所定の領域を、前記
形状情報出力手段より出力された当該オブジェクトの形
状情報を元に検出する領域検出手段と、前記オブジェク
ト映像供給手段より供給されたオブジェクト映像に対応
する内容を示すラベルオブジェクトを生成する手段と、
前記ラベルオブジェクト生成手段より生成されたラベル
オブジェクトを、前記所定の領域を考慮した領域に貼り
付けるラベルオブジェクト貼付手段と、ラベルオブジェ
クト貼付手段で貼り付けられた前記ラベルオブジェクト
と前記オブジェクト映像供給手段より供給されたオブジ
ェクト映像とを合わせて表示する表示手段とを具備した
ことを特徴とする。
SUMMARY OF THE INVENTION The present invention has been made to solve the above-mentioned problem, and has a means for supplying an object image and extracting shape information of the object image supplied from the object image supply means. Shape information output means for outputting the predetermined area in the object video supplied from the object video supply means, based on the shape information of the object output from the shape information output means, Means for generating a label object indicating the content corresponding to the object video supplied from the object video supply means,
Label object attaching means for attaching the label object generated by the label object generating means to an area in consideration of the predetermined area, and the label object attached by the label object attaching means and the object image supplying means. Display means for displaying the object image together with the selected object image.

【0011】また、別の発明として、オブジェクト映像
を供給する手段と、前記オブジェクト映像供給手段から
供給されたオブジェクト映像の形状情報を抽出し出力す
る形状情報出力手段と、前記オブジェクト映像供給手段
から供給されたオブジェクト映像の平均の移動軌跡を検
出する手段と、前記オブジェクト映像供給手段より供給
されたオブジェクト映像内の所定の領域を、前記形状情
報出力手段より出力された当該オブジェクトの形状情報
を元に検出する領域検出手段と、前記オブジェクト映像
供給手段より供給されたオブジェクト映像に対応する内
容を示すラベルオブジェクトを生成し、生成されたラベ
ルオブジェクトを、前記移動軌跡検出部より検出された
移動軌跡に追従して移動するオブジェクト映像を連動さ
せて出力するラベルオブジェクト生成手段と、前記ラベ
ルオブジェクト生成手段より出力されたラベルオブジェ
クトを前記所定の領域を考慮した領域に貼り付けるラベ
ルオブジェクト貼付手段と、ラベルオブジェクト貼付手
段で貼り付けられた前記ラベルオブジェクトと前記オブ
ジェクト映像供給手段より供給されたオブジェクト映像
とを合わせて表示する表示手段とを具備したことを特徴
とする。
According to another aspect of the invention, there is provided means for supplying an object image, shape information output means for extracting and outputting shape information of the object image supplied from the object image supply means, and supply from the object image supply means. Means for detecting an average moving trajectory of the object video, and a predetermined area in the object video supplied from the object video supply means, based on the shape information of the object output from the shape information output means. Generating a label object indicating the content corresponding to the object video supplied from the object video supply unit, and causing the generated label object to follow the movement trajectory detected by the movement trajectory detection unit Labels that output linked object images Object generating means, label object attaching means for attaching the label object output from the label object generating means to an area in consideration of the predetermined area, and the label object and the object image attached by the label object attaching means. Display means for displaying together with the object video supplied from the supply means.

【0012】上述した本発明の構成にあっては、オブジ
ェクト映像供給手段から供給されたオブジェクト映像の
形状情報から、当該オブジェクト映像内の所定の領域を
検出し、ラベルオブジェクト生成手段より生成されたラ
ベルオブジェクトを、前記所定の領域を考慮した領域に
貼り付けるラベルオブジェクト貼付手段を備えている。
このような構成を採ったことにより、形状情報より取得
てきる人物オブジェクトの頭部のような重要な領域を避
け、かつ人物オブジェクトの近傍の領域を検出し、その
領域にラベルオブジェクトを貼り付けて表示することが
できる。そして、人物オブジェクトが動いた場合でも、
人物オブジェクトの動きに応じてラベルオブジェクトも
動いていき、いつもラベルオブジェクトの内容を最適な
状態で観察できる。
In the configuration of the present invention described above, a predetermined area in the object video is detected from the shape information of the object video supplied from the object video supply means, and the label generated by the label object generation means is detected. Label object attaching means for attaching an object to an area in consideration of the predetermined area is provided.
By adopting such a configuration, it is possible to avoid an important area such as the head of a person object obtained from the shape information, detect an area near the person object, and paste a label object in that area. Can be displayed. And even if the person object moves,
The label object also moves according to the movement of the person object, and the contents of the label object can always be observed in an optimal state.

【0013】また、本発明の別の発明にあっては、オブ
ジェクト映像供給手段から供給されたオブジェクト映像
の平均の移動軌跡を検出する手段と、この手段で検出さ
れた移動軌跡に追従して移動するオブジェクト映像を連
動させて出力するラベルオブジェクト生成手段とを備
え、前記ラベルオブジェクト生成手段より出力されたラ
ベルオブジェクトを前記所定の領域を考慮した領域に貼
り付けるラベルオブジェクト貼付手段を備えている。こ
のような構成を採ったことにより、人物オブジェクトの
動きが激しくなっても、人物オブジェクトの動きを積分
して、緩慢な動きを抽出し、その動きに合わせてラベル
オブジェクトの動きを追従させることができるので、ラ
ベルオブジェクト内容を容易に観察できる。
According to another aspect of the present invention, there is provided a means for detecting an average moving trajectory of an object image supplied from an object image supplying means, and a movement following the moving trajectory detected by the means. Label object generating means for outputting linked object images in conjunction with each other, and label object attaching means for attaching the label object output from the label object generating means to an area considering the predetermined area. By adopting such a configuration, even if the movement of the person object becomes severe, the movement of the person object can be integrated, a slow movement can be extracted, and the movement of the label object can be made to follow the movement. Since it is possible, the contents of the label object can be easily observed.

【0014】[0014]

【発明の実施の形態】以下、本発明の実施形態について
図面を参照して説明する。 (第1の実施の形態)図1は本発明によるオブジェクト
映像表示装置のブロック構成図である。映像ソース2は
ディスクなどのメディアで映画等のシーンの出演者ある
いは静物あるいは文字等がオブジェクト映像として格納
されている。本発明では、ディスクに格納されたオブジ
ェクト映像を再生する用途で説明するが、テレビカメラ
等で撮影した映像から被写体を領域抽出してからオブジ
ェクト映像符号化したようなリアルタイムでのオブジェ
クト映像を一緒に表示させてもよい。
Embodiments of the present invention will be described below with reference to the drawings. (First Embodiment) FIG. 1 is a block diagram of an object video display device according to the present invention. The video source 2 is a medium such as a disk, in which performers of a scene such as a movie or still life or characters are stored as object videos. In the present invention, a description will be given of an application in which an object video stored on a disc is reproduced. However, a real-time object video such as an object video encoded by extracting a subject from a video captured by a television camera or the like is used. It may be displayed.

【0015】映像ソース2から読み出されたオブジェク
ト映像は直列符号化データ4として出力される。直列符
号化データ4はオブジェクト映像選択部6に印加され、
ラベル貼付対象となるオブジェクト映像A8とその他の
オブジェクト映像B10に選択される。そして、オブジ
ェクト映像A8の形状情報12も出力される。図1では
オブジェクト映像A8を1サンプルと仮定しているが実
際の応用では複数のサンプルを対象にしてもかまわな
い。ここで形状情報とは、座標の情報で、当該オブジェ
クト映像が存在する座標位置がわかる情報である。した
がって、この形状情報は当該オブジェクト映像の輪郭に
関する情報も含んでいる。形状情報はアルファープレー
ンと呼ばれ、オブジェクト映像が存在する領域を論理値
1、存在しない残りの領域を論理値0と表現したもの
で、論理値1の座標はオブジェクト映像がある領域、論
理値0の座標は当該オブジェクト映像のない残りの領域
を示す。
[0015] The object video read from the video source 2 is output as serially encoded data 4. The serially encoded data 4 is applied to the object video selection unit 6,
The object image A8 to be labeled and the other object image B10 are selected. Then, the shape information 12 of the object video A8 is also output. In FIG. 1, the object video A8 is assumed to be one sample, but a plurality of samples may be used in an actual application. Here, the shape information is information of coordinates, and is information that indicates a coordinate position where the object video exists. Therefore, this shape information also includes information on the contour of the object video. The shape information is called an alpha plane, and the area where the object video exists is expressed as a logical value 1, and the remaining area where the object video does not exist is expressed as a logical value 0. Indicate the remaining area without the object video.

【0016】映像ソース2からは、シーン構成情報14
も出力される。シーン構成情報14には時々刻々に展開
されるシーンで、登場しているオブジェクト映像のうち
必要とされるシーンで対象となるオブジェクト映像に対
してラベル貼付を指示する識別情報を含んでいる。ま
た、モニタ16を見ながら対象となるシーンを観察して
いるユーザが、設定部18から希望するオブジェクト映
像を指定して選択することによりラベル貼付対象のオブ
ジェクト映像として扱われる。例えば、シーンに登場し
ている人物オブジェクトの氏名あるいは肩書きを知りた
い場合、ユーザは随時設定部(リモコン等)から希望す
るオブジェクト映像を設定選択すると、以下に説明する
処理を経てそのオブジェクト映像にラベルオブジェクト
112が付加されることになる。
From the video source 2, scene configuration information 14
Is also output. The scene configuration information 14 includes identification information for instructing a label to be attached to a target object video in a required scene among appearing object videos in a scene that is developed every moment. Also, a user observing a target scene while viewing the monitor 16 specifies and selects a desired object video from the setting unit 18 and is treated as an object video to be labeled. For example, if the user wants to know the name or title of a person object appearing in a scene, the user can select and set a desired object video from a setting unit (remote control or the like) at any time. Object 112 will be added.

【0017】オブジェクト映像選択部6でラベルオブジ
ェクト貼付対象となったオブジェクト映像はオブジェク
ト映像A8となり、ラベルオブジェクト貼付部26に供
給される。
The object video to be labeled by the object video selection unit 6 becomes an object video A8, which is supplied to the label object pasting unit 26.

【0018】形状情報12は貼付位置検出部20に印加
される。貼付位置検出部20では、ラベルオブジェクト
112の貼付情報22が算出される。貼付情報22はラ
ベルオブジェクト112の貼付位置および貼付される貼
付領域等の情報を含んでいる。貼付情報22はラベルオ
ブジェクト生成部24に印加される。ラベルオブジェク
ト生成部24では前記貼付情報22から適切の大きさの
ラベルオブジェクト112をシーン構成情報14から選
択する。また、デフォルトとして常備していたラベルオ
ブジェクト112の形状および内容(文字列)を前記貼
付情報22により加工編集する。
The shape information 12 is applied to a sticking position detecting section 20. In the pasting position detecting section 20, the pasting information 22 of the label object 112 is calculated. The sticking information 22 includes information such as a sticking position of the label object 112 and a sticking area to be stuck. The pasting information 22 is applied to the label object generation unit 24. The label object generation unit 24 selects a label object 112 having an appropriate size from the pasting information 22 from the scene configuration information 14. In addition, the shape and content (character string) of the label object 112, which is always prepared as a default, are processed and edited by the pasting information 22.

【0019】ラベルオブジェクト生成部24で生成され
たラベルオブジェクト112はラベルオブジェクト貼付
部26に印加される。ラベルオブジェクト貼付部26で
は元のオブジェクト映像A8が印加されており、オブジ
ェクト映像A8の重要領域を避けた領域にラベルオブジ
ェクト112を貼付して処理済オブジェクト映像A28
として出力する。
The label object 112 generated by the label object generating section 24 is applied to the label object attaching section 26. In the label object attaching section 26, the original object image A8 is applied, and the label object 112 is attached to an area of the object image A8 other than the important area, and the processed object image A28 is applied.
Output as

【0020】ラベルオブジェクト112が貼付されてい
ないオブジェクト映像B10と処理済オブジェクト映像
A28は映像合成部30で重ね合わされて、合成直列デ
ータ32として出力し、合成映像がモニタ16で表示さ
れる。
The object image B10 to which the label object 112 is not attached and the processed object image A28 are superimposed by the image synthesizing unit 30 and output as synthesized serial data 32. The synthesized image is displayed on the monitor 16.

【0021】図2はラベルオブジェクト112をオブジ
ェクト映像に貼付する状態を示す図である。オブジェク
ト映像A8のうちaとcの区域は貼付禁止区域で、ラベ
ルオブジェクト貼付できない。bの区域はラベルオブジ
ェクト112の貼付可能な区域である。図2において、
オブジェクト映像A8の頂点から縦方向の距離でラベル
オブジェクト112の禁止区域および許可区域を区別し
ている。図2における禁止区域および許可区域を自動的
に区別するにはオブジェクト映像A8の形状情報12を
使用して、頂点を検出して頂点から縦方向にa、b、c
の距離を測り区域を区別する。この計測処理はオブジェ
クト映像A8が表示画面上を動いていても自動的に行わ
れる。すなわち、一度対象とするオブジェクト映像を選
定してa、b、cの距離を予め決めておけば、後は貼付
位置検出部20でラベルオブジェクト112の貼付可能
区域および貼付位置を自動的に検出できる。また、縦方
向あるいは横方向における全体の大きさを常に監視して
いて、大きさが拡大されたり縮小されたりしたら随時、
前記a、b、cの大きさに比例して拡大あるいは縮小し
てもよい。
FIG. 2 is a diagram showing a state where the label object 112 is attached to the object video. The areas a and c in the object image A8 are sticking prohibited areas, and label objects cannot be stuck. The area b is an area where the label object 112 can be attached. In FIG.
The prohibited area and the permitted area of the label object 112 are distinguished by the vertical distance from the vertex of the object image A8. In order to automatically distinguish the prohibited area and the permitted area in FIG. 2, the vertex is detected using the shape information 12 of the object image A8, and a, b, and c are vertically set from the vertex.
Measure the distance of and distinguish the area. This measurement process is automatically performed even if the object video A8 is moving on the display screen. That is, once the target object video is selected and the distances a, b, and c are determined in advance, the sticking position detection unit 20 can automatically detect the stickable area and the sticking position of the label object 112. . In addition, we always monitor the overall size in the vertical or horizontal direction, and whenever the size is enlarged or reduced,
It may be enlarged or reduced in proportion to the size of a, b, c.

【0022】図3は人物オブジェクトにラベルオブジェ
クト112を貼付する例を示した図で、人物オブジェク
トすなわちオブジェクト映像A8の頭部aを避けて胴体
部分bの上にラベルオブジェクト112を貼付する例を
示している。
FIG. 3 is a diagram showing an example in which a label object 112 is attached to a person object. FIG. 3 shows an example in which the label object 112 is attached on a torso part b avoiding the head a of an object image A8. ing.

【0023】図4は人物オブジェクトの頭部分を検出す
る方法を説明するための図である。図4において、ま
ず、オブジェクト映像A8における頭頂jを検出する。
頭頂は形状情報12に水平線を当てて、水平線を上部に
動かしていき、形状情報12と接する点を求めればよ
い。そして、頭頂から右側に沿って、形状情報12にお
ける閉曲線上を下側に動かしていく。そして、最も右側
に寄った耳を通り、最も窪んだ首を通り(l)、再び肩
の部分で右側によってくる(m)。前記の左側に最も寄
った首の部分すなわちlの部分で水平線を引く。この水
平線から上部すなわちaの部分が頭部となり、ラベルオ
ブジェクト112の貼付を禁止する区域となる。そし
て、ラベルオブジェクト112を貼付する位置は、首の
部分から下側、すなわち胸部付近に貼付する。ラベルオ
ブジェクト112の貼付位置は首の部分からデフォルト
値bだけ下げて貼付する。そして、ラベルオブジェクト
112の大きさ、すなわち横の長さdと縦の長さeとラ
ベルオブジェクト112に書き込まれる文字情報は予め
シーン構成情報14でオブジェクト映像毎に指定してお
く。
FIG. 4 is a diagram for explaining a method of detecting the head of a person object. In FIG. 4, first, the top j of the object image A8 is detected.
The top of the head may be obtained by applying a horizontal line to the shape information 12, moving the horizontal line upward, and finding a point in contact with the shape information 12. Then, it moves downward on the closed curve in the shape information 12 along the right side from the top of the head. Then, it passes through the ear closest to the right side, passes through the neck that is most concave, (l), and comes again at the shoulder portion by the right side (m). A horizontal line is drawn at the part of the neck closest to the left side, that is, at the part l. The upper part from this horizontal line, that is, the portion a is the head, and is an area where the sticking of the label object 112 is prohibited. The label object 112 is attached at a position below the neck, that is, near the chest. The label object 112 is attached at a position lower than the neck by the default value b. The size of the label object 112, that is, the horizontal length d and the vertical length e, and the character information to be written to the label object 112 are specified in advance for each object video in the scene configuration information 14.

【0024】ラベルオブジェクト112の左右の貼付位
置は、頭部の横幅cを求め、cの2分の1の点を頭部の
中心とし、また、ラベルオブジェクト112の横方向の
中心を0.5dの位置とし、前記頭部の中心とラベルオ
ブジェクト112の中心を合わせて、ラベルオブジェク
ト112を配置すればよい。
The left and right attachment positions of the label object 112 are obtained by calculating the width c of the head, a half point of c is set as the center of the head, and the center of the label object 112 in the horizontal direction is set at 0.5 d. , And the label object 112 may be arranged by aligning the center of the head with the center of the label object 112.

【0025】上述した実施の形態によれば、従来、手操
作で行っていたラベルオブジェクトの貼付けを自動的に
行うことができる。また、形状情報12が時間ごとに変
形したり、元のオブジェクト映像が時間ごとに動いても
自動的に重要領域を避けてラベルオブジェクト112を
貼付できる。このため、オブジェクト映像が動くとこれ
と連動して前記重要領域を避けて、貼付されたラベルオ
ブジェクト112も動いていくことになり、常にラベル
オブジェクトの内容を最適な状態で表示できる。
According to the above-described embodiment, the pasting of the label object, which has conventionally been performed manually, can be automatically performed. Further, even if the shape information 12 is deformed every time or the original object video moves every time, the label object 112 can be automatically attached to avoid the important area. For this reason, when the object image moves, the attached label object 112 also moves, avoiding the important area in conjunction with the movement, and the contents of the label object can always be displayed in an optimal state.

【0026】以下、本発明の他の実施形態を説明する。 (第2の実施の形態)上述した第1の実施の形態では、
貼付されるオブジェクト映像の重要度の低い領域(例え
ば人物の胸部)にラベルオブジェクトを貼付する例を説
明した。しかし、重要度が低いとはいえ、他のオブジェ
クト映像で隠蔽させたくない場合がある。そこで、本実
施形態はラベルオブジェクトの貼付位置をオブジェクト
映像の上でなく、空いている表示領域に貼付する例を示
す。
Hereinafter, another embodiment of the present invention will be described. (Second Embodiment) In the first embodiment described above,
An example has been described in which a label object is pasted to a region of low importance (for example, the chest of a person) of an object video to be pasted. However, even though the importance is low, there is a case where the user does not want to be concealed by another object video. Therefore, the present embodiment shows an example in which the label object is pasted not on the object video but on an empty display area.

【0027】図5は貼付すべきラベルオブジェクト11
2をオブジェクト映像の近傍の空間で、縦方向に貼付し
た例を説明するための図である。図5に示すように、ま
ず、頭部の中心から水平線を引き、右側での接点からデ
フォルト値bだけ離してラベルオブジェクト112を貼
付する。ラベルオブジェクト112は縦方向に配置して
いる。ラベルオブジェクト112はシーン構成情報14
により、横方向および縦方向で貼付できるものを用意し
ておき、貼付すべき領域に応じて貼付位置検出部20で
適宜選択すればよい。
FIG. 5 shows a label object 11 to be attached.
FIG. 2 is a diagram for describing an example in which the image No. 2 is pasted in a vertical direction in a space near an object video. As shown in FIG. 5, first, a horizontal line is drawn from the center of the head, and the label object 112 is attached with a default value b away from the contact point on the right side. The label objects 112 are arranged in the vertical direction. The label object 112 is the scene configuration information 14
Thus, what can be pasted in the horizontal and vertical directions is prepared, and the pasting position detecting unit 20 may appropriately select one according to the region to be pasted.

【0028】図6はラベルオブジェクト112をオブジ
ェクト映像A8の頭頂からbだけ離し頭部の上にラベル
オブジェクト112を配置した別の例を示した図であ
り、このようにラベルオブジェクトを配置してもよい。
FIG. 6 is a diagram showing another example in which the label object 112 is arranged on the head by separating the label object 112 from the top of the object image A8 by b, and even if the label object is arranged in this manner. Good.

【0029】(第3の実施の形態)図7はラベルオブジ
ェクト112を貼付する際に表示面の外枠に制限され
て、ラベルオブジェクト112の形状を変形した例を示
した図である。図7の例では、オブジェクト映像A8の
胴体におけるかなりの部分が外枠34で切られたため、
ラベルオブジェクト112をラベルオブジェクト生成部
24で水平方向に偏平させている。ここで、上述したよ
うにシーン構成情報14内に、前記偏平したラベルオブ
ジェクト112の形状に関わる情報および、ラベルオブ
ジェクト112に記載される文字情報配列などを記憶さ
せておき、それら情報を適宜呼び出してもよい。
(Third Embodiment) FIG. 7 is a diagram showing an example in which the shape of the label object 112 is modified by being limited to the outer frame of the display surface when the label object 112 is attached. In the example of FIG. 7, since a considerable portion of the body of the object image A8 is cut by the outer frame 34,
The label object 112 is flattened in the horizontal direction by the label object generation unit 24. Here, as described above, information relating to the shape of the flattened label object 112, a character information array described in the label object 112, and the like are stored in the scene configuration information 14, and the information is appropriately called up. Is also good.

【0030】(第4の実施の形態)図8は近接した他の
オブジェクト映像に応じてラベルオブジェクト112の
形状および配置位置を変えた例を示した図である。この
例では、オブジェクト映像A8にオブジェクト映像B1
0が近づいて、両者の隙間にラベルオブジェクト112
を配置している例を示している。ラベルオブジェクト1
12はオブジェクト映像A8の頭部からbだけ離して左
側のオブジェクト映像B10と重ならないように配置し
ている。そして、オブジェクト映像A8とオブジェクト
映像B10の隙間に適合したラベルオブジェクト112
をラベルオブジェクト生成部24で生成する。また、シ
ーン構成情報14から隙間に適合した形状のラベルオブ
ジェクト112を選択して表示してもよい。
(Fourth Embodiment) FIG. 8 is a diagram showing an example in which the shape and the arrangement position of the label object 112 are changed in accordance with another nearby object image. In this example, the object image A8 is added to the object image B1.
0 approaches and the label object 112
The example which arrange | positions is shown. Label object 1
Reference numeral 12 is arranged at a distance of b from the head of the object image A8 so as not to overlap with the object image B10 on the left side. Then, the label object 112 adapted to the gap between the object video A8 and the object video B10
Is generated by the label object generation unit 24. Alternatively, a label object 112 having a shape suitable for the gap may be selected from the scene configuration information 14 and displayed.

【0031】(第5の実施の形態)図9はラベルオブジ
ェクト112の左端が外枠34にかかりそうになって、
ラベルオブジェクト112を右側に寄せて配置した例を
示した図である。この例では、オブジェクト映像A8が
外枠34に寄っているため、ラベルオブジェクト112
の中心と、オブジェクト映像A8の中心を合わせようと
するとラベルオブジェクト112の左端が外枠34にか
かってしまうので、ラベルオブジェクト112を右側に
寄せている。
(Fifth Embodiment) FIG. 9 shows that the left end of the label object 112 is likely to be over the outer frame 34,
FIG. 9 is a diagram illustrating an example in which label objects 112 are arranged to be shifted to the right side. In this example, since the object image A8 is close to the outer frame 34, the label object 112
When the center of the object image A8 is to be aligned with the center of the object image A8, the left end of the label object 112 covers the outer frame 34. Therefore, the label object 112 is moved to the right.

【0032】(第6の実施の形態)図10はラベルオブ
ジェクト112が優先度の低いオブジェクトの上に重な
った例を示した図である。ラベルオブジェクト112よ
り優先度が低く、ラベルオブジェクト112が一時的に
上に重なっても差し支えないオブジェクト映像があった
とする。オブジェクト映像B10はラベルオブジェクト
112より優先度が低いため、ラベルオブジェクト11
2を配置する際に、オブジェクト映像B10の存在を無
視し、表示画面の空白領域に配置するのと同様な方法で
配置している。そして、オブジェクト映像A8の頭部か
らデフォルト値だけ離し、オブジェクト映像A8の中心
から対称に配置している。
(Sixth Embodiment) FIG. 10 is a diagram showing an example in which a label object 112 overlaps an object having a low priority. It is assumed that there is an object image that has a lower priority than the label object 112 and can safely overlap the label object 112 temporarily. Since the object video B10 has a lower priority than the label object 112, the label image 11
When arranging 2, the object video B10 is ignored, and the object video B10 is laid out in the same manner as laid out in a blank area of the display screen. Then, the object image A8 is symmetrically arranged from the center of the object image A8 by being separated from the head by a default value.

【0033】(第7の実施の形態)図11は優先度の高
いオブジェクト映像が近くにあるため、ラベルオブジェ
クト112を貼り付ける際に、重ならないように避けて
配置した例を示した図である。図11によるとオブジェ
クト映像B10はラベルオブジェクト112より優先度
が高い。しかし、ラベルオブジェクト112を配置しよ
うとしたら、オブジェクト映像B10の上に重なりそう
になった場合、ラベルオブジェクト112を左側に寄せ
て配置している。そして、ラベルオブジェクト112の
先端がオブジェクト映像B10よりデフォルト値fだけ
離している。
(Seventh Embodiment) FIG. 11 is a diagram showing an example in which a label object 112 is disposed so as not to overlap when pasting a label object 112 because an object video having a high priority is nearby. . According to FIG. 11, the object video B10 has a higher priority than the label object 112. However, when the label object 112 is about to be placed on the object image B10 when the label object 112 is to be placed, the label object 112 is placed on the left side. Then, the tip of the label object 112 is separated from the object image B10 by the default value f.

【0034】(第8の実施の形態)図12はラベルオブ
ジェクト112を配置する際に、近傍に他のオブジェク
ト映像が近接して配置されているため、目的のオブジェ
クト映像を指定するためにラベルオブジェクト112か
ら矢印を出した例を示した図である。図12のようにオ
ブジェクト映像A8がラベルオブジェクト112の内容
と依存関係がある。しかし、近隣にオブジェクト映像B
及びオブジェクト映像C36が配置されている。ラベル
オブジェクト112をこれらオブジェクト映像の近くの
空白領域に配置すると、このラベルオブジェクト112
がどのオブジェクト映像を示しているか分からなくなっ
てしまう。そこで、ラベルオブジェクト112から対象
となるオブジェクト映像A8に向かう矢印38を付加す
る。矢印38の方向はオブジェクト映像A8の頭部の中
心位置を求めて、ラベルオブジェクト112から中心に
向かって矢印38を付加すればよい。
(Eighth Embodiment) FIG. 12 shows that when a label object 112 is arranged, another object image is arranged in the vicinity, so that a label object 112 is designated to specify a target object image. It is the figure which showed the example which made the arrow go out of 112. As shown in FIG. 12, the object video A8 has a dependency relationship with the contents of the label object 112. However, object video B
And an object video C36. When the label object 112 is placed in a blank area near these object images, the label object 112
Does not know which object video is showing. Therefore, an arrow 38 pointing from the label object 112 to the target object video A8 is added. In the direction of the arrow 38, the center position of the head of the object video A8 may be obtained, and the arrow 38 may be added from the label object 112 toward the center.

【0035】(第9の実施の形態)図13は対象となる
オブジェクト映像が外枠34にかかり、ラベルオブジェ
クト112を外枠34からデフォルト値だけ離して配置
した例を示した図である。オブジェクト映像A8が外枠
34にかかることが明らかな場合、ラベルオブジェクト
112をできるだけ外枠34に近い位置に貼り付けた方
が、オブジェクト映像A8の頭部に近い部分が開けて頭
部が見易くなる。ラベルオブジェクト112を貼付すべ
き左右の基準として、図13のようにオブジェクト映像
A8の中心とラベルオブジェクト112の中心を合わせ
て、ラベルオブジェクト112は外枠34からデフォル
ト値bだけ離して配置すればよい。
(Ninth Embodiment) FIG. 13 is a diagram showing an example in which a target object image is placed on the outer frame 34 and the label object 112 is arranged at a distance from the outer frame 34 by a default value. When it is clear that the object video A8 covers the outer frame 34, it is easier to see the head by opening the part near the head of the object video A8 by pasting the label object 112 as close to the outer frame 34 as possible. . As the left and right references to which the label object 112 is to be attached, the center of the object image A8 and the center of the label object 112 are aligned as shown in FIG. .

【0036】(第10の実施の形態)第1〜第9の実施
の形態では人物オブジェクトの動きに合わせてラベルオ
ブジェクトが一緒に動く。ラベルオブジェクトはその内
容と相関の強い人物オブジェクトの側に位置されて画面
上に表示されるので、人物オブジェクトの氏名あるいは
身分などがすぐに観察できるようになっている。しか
し、人物オブジェクトの動きが激しくなる場合がある。
例えば、スポーツ選手が動き回っていて、その選手の氏
名等をラベルオブジェクトで表示したいことがある。
(Tenth Embodiment) In the first to ninth embodiments, the label object moves together with the movement of the person object. Since the label object is positioned on the side of the person object having a strong correlation with the content and displayed on the screen, the name or the status of the person object can be immediately observed. However, the movement of the person object may become severe.
For example, an athlete may be moving around and want to display the name or the like of the athlete with a label object.

【0037】本実施形態は人物オブジェクトの動きから
平均した動き、すなわち緩慢な動きを抽出して、抽出し
た動きに合わせてラベルオブジェクトを動かすことを特
徴としている。
The present embodiment is characterized in that an average movement, that is, a slow movement is extracted from the movement of the person object, and the label object is moved in accordance with the extracted movement.

【0038】図14はこの実施形態の構成を示すブロッ
ク図で、図1と同一部分には同一の参照符号を付し、詳
しい説明は省略する。図14において図1と異なる部分
は軌跡積分部40が追加されたところである。軌跡積分
部40は人物オブジェクトの重心を検出し、重心の動き
を追尾して大局的な動きを検出する。図15は人物オブ
ジェクトの動きが激しい場合、ラベルオブジェクト11
2の動きを緩慢にして人物オブジェクトに追従すること
を説明するための図である。
FIG. 14 is a block diagram showing the configuration of this embodiment. The same parts as those in FIG. 1 are denoted by the same reference numerals, and a detailed description thereof will be omitted. 14 differs from FIG. 1 in that a trajectory integration unit 40 is added. The trajectory integration unit 40 detects the center of gravity of the person object, and detects the global movement by tracking the movement of the center of gravity. FIG. 15 shows a case where the movement of the person object is rapid, and the label object 11
FIG. 7 is a diagram for explaining that the movement of the second object is slowed down and follows the person object.

【0039】図16は人物オブジェクトの動きと、人物
オブジェクトの動きを平均化した動きと、ラベルオブジ
ェクト112の動きを説明する図である。図15に示す
ように、オブジェクト映像A8が左右上下に激しく動い
ている。軌跡積分部40はオブジェクト映像A8の重心
42を検出し、重心42の動きを蓄積しながら時間方向
に積分していく。図16の人物オブジェクト軌跡44は
激しく左右に振れながら下方向に移動している。そし
て、軌跡積分部40で人物オブジェクト軌跡44を積分
すると点線のように積分軌跡46になる。そして、ラベ
ルオブジェクト112の中心の動きすなわちラベルオブ
ジェクト軌跡48は積分軌跡46をそのまま上部に座標
移動している。
FIG. 16 is a diagram for explaining the motion of the person object, the motion obtained by averaging the motion of the person object, and the motion of the label object 112. As shown in FIG. 15, the object video A8 moves violently right and left and up and down. The trajectory integration unit 40 detects the center of gravity 42 of the object video A8, and integrates in the time direction while accumulating the movement of the center of gravity 42. The trajectory 44 of the person object in FIG. 16 is moving downward while vibrating right and left. Then, when the trajectory integration section 40 integrates the human object trajectory 44, an integrated trajectory 46 is formed as shown by a dotted line. The movement of the center of the label object 112, that is, the label object trajectory 48 moves the coordinate of the integral trajectory 46 upward as it is.

【0040】この実施の形態によれば、人物オブジェク
トが激しく動いてもラベルオブジェクト112の動きは
緩慢になるため、ラベルオブジェクト112の内容を好
適に観察することができる。ここで、シーン構成情報1
4による指定あるいは設定部18による指定で、ラベル
オブジェクト112が表示画面に登場するとき、最初の
所定の時間、例えば数秒間はラベルオブジェクト112
の動きを停止しておくとよい。画面を観察しているユー
ザはこの時間でラベルオブジェクト112の内容を観察
して理解することができる。そして、後はラベルオブジ
ェクト112が動いても、初期に観察した内容を記憶し
ているためラベルオブジェクト112の内容を常に観察
する必要がなくなる。また、上述したラベルオブジェク
ト112が最初に登場したときに、所定の時間停止させ
る処理は、そのまま第1〜第9の実施の形態についても
適用できる。
According to this embodiment, even if the person object moves violently, the movement of the label object 112 becomes slow, so that the contents of the label object 112 can be suitably observed. Here, scene configuration information 1
When the label object 112 appears on the display screen according to the specification by the user 4 or the setting unit 18, the label object 112 is displayed for the first predetermined time, for example, a few seconds.
It is better to stop the movement. The user observing the screen can observe and understand the contents of the label object 112 at this time. Then, even if the label object 112 moves, it is not necessary to always observe the contents of the label object 112 since the contents initially observed are stored. In addition, the above-described processing of stopping the label object 112 for a predetermined time when the label object 112 first appears can be applied to the first to ninth embodiments as it is.

【0041】[0041]

【発明の効果】以上詳述したように、本発明のオブジェ
クト映像表示装置によれば、表示画面中を動くオブジェ
クト映像内の重要度の高い領域を設定し、そのオブジェ
クト映像の近傍でかつ上記領域を避けた位置にラベルオ
ブジェクトを自動的に貼り付けることができる。また、
人物オブジェクトの動きが激しい場合、動きの軌跡を積
分し、緩慢な動きにして、この動きによりラベルオブジ
ェクトを動かすことによりラベルオブジェクトの内容を
視覚的に確認し易くなる。
As described in detail above, according to the object video display apparatus of the present invention, a region of high importance in an object video moving on the display screen is set, and the region is located near the object video and in the above-mentioned region. The label object can be automatically pasted at the position where it was avoided. Also,
When the movement of the person object is intense, the trajectory of the movement is integrated to make the movement slow, and the movement of the label object by this movement makes it easy to visually confirm the contents of the label object.

【図面の簡単な説明】[Brief description of the drawings]

【図1】本発明のオブジェクト映像表示装置の構成を示
すブロック図。
FIG. 1 is a block diagram showing a configuration of an object video display device of the present invention.

【図2】ラベルオブジェクトをオブジェクト映像に貼付
する状態を示す図。
FIG. 2 is a diagram showing a state in which a label object is pasted on an object video.

【図3】人物オブジェクトにラベルオブジェクトを貼付
する実施形態を説明する図。
FIG. 3 is a diagram illustrating an embodiment in which a label object is attached to a person object.

【図4】人物オブジェクトの頭部分を検出する方法を示
す図。
FIG. 4 is a diagram illustrating a method of detecting a head portion of a person object.

【図5】貼付すべきラベルオブジェクトをオブジェクト
映像の近傍の空間で、縦方向に貼付した例を示す図。
FIG. 5 is a diagram showing an example in which a label object to be pasted is pasted vertically in a space near an object video.

【図6】ラベルオブジェクトをオブジェクト映像Aの頭
頂からbだけ離し頭部の上にラベルオブジェクトを配置
した例を示す図。
FIG. 6 is a diagram showing an example in which a label object is separated from the top of the object video A by b and the label object is placed on the head.

【図7】ラベルオブジェクトを貼付する際に表示面の外
枠に制限されて、ラベルオブジェクトの形状を変形した
例を示す図。
FIG. 7 is a diagram showing an example in which the shape of the label object is modified by being limited to the outer frame of the display surface when attaching the label object.

【図8】近接した他のオブジェクト映像に応じてラベル
オブジェクトの形状および配置位置を変えた例を示す
図。
FIG. 8 is a diagram showing an example in which the shape and arrangement position of a label object are changed according to another nearby object video.

【図9】ラベルオブジェクトの左端が外枠にかかりそう
になって、ラベルオブジェクトを右側に寄せて配置した
例を示す図。
FIG. 9 is a diagram showing an example in which the left end of the label object is likely to be over the outer frame, and the label object is arranged closer to the right side.

【図10】ラベルオブジェクトが優先度の低いオブジェ
クトの上に重なった例を示す図。
FIG. 10 is a diagram illustrating an example in which a label object overlaps an object with a low priority.

【図11】優先度の高いオブジェクト映像が近くにある
ため、ラベルオブジェクトを貼り付ける際に、重ならな
いように避けて配置した例を示す図。
FIG. 11 is a diagram showing an example in which a label object is arranged so as not to overlap when pasting a label object because an object video having a high priority is near;

【図12】ラベルオブジェクトを配置する際に、近傍に
他のオブジェクト映像が近接して配置されているため、
目的のオブジェクト映像を指定するためにラベルオブジ
ェクトから矢印を出した例を示す図。
FIG. 12 is a diagram showing another object video image arranged close to a label object when the label object is arranged.
The figure which shows the example which showed the arrow from the label object in order to designate the target object video.

【図13】対象となるオブジェクト映像が外枠にかか
り、ラベルオブジェクトを外枠からデフォルト値だけ離
して配置した例を示す図。
FIG. 13 is a diagram illustrating an example in which a target object image is placed on an outer frame, and a label object is arranged away from the outer frame by a default value.

【図14】オブジェクト映像が激しく動いた場合に、平
均的な動きを抽出して、その動きに合わせたラベルオブ
ジェクトを表示し、オブジェクト映像と共に表示を行う
ためのオブジェクト映像表示装置の構成を示すブロック
図。
FIG. 14 is a block diagram showing a configuration of an object video display device for extracting an average motion, displaying a label object in accordance with the motion, and displaying the average object motion together with the object video when the object video moves violently. FIG.

【図15】人物オブジェクトの動きが激しい場合、ラベ
ルオブジェクトの動きを緩慢にして人物オブジェクトに
追従することを説明するための図。
FIG. 15 is a diagram for explaining that when the movement of the person object is rapid, the movement of the label object is slowed to follow the person object.

【図16】人物オブジェクトの動きと、人物オブジェク
トの動きを平均化した動きと、ラベルオブジェクトの動
きを説明するための図。
FIG. 16 is a diagram for explaining the movement of a person object, the movement obtained by averaging the movement of the person object, and the movement of a label object.

【図17】従来の文書作成装置の処理を示す図。FIG. 17 is a diagram showing processing of a conventional document creation device.

【図18】アイコンと文字オブジェクトを同時に表示さ
せた例を示す図。
FIG. 18 is a diagram illustrating an example in which an icon and a character object are simultaneously displayed.

【図19】従来の方法でオブジェクト映像の上にラベル
オブジェクトを配置した例を示す図。
FIG. 19 is a diagram showing an example in which a label object is arranged on an object video by a conventional method.

【符号の説明】[Explanation of symbols]

2 映像ソース 6 オブジェクト映像選択部 16 モニタ 20 貼付位置検出部 24 ラベルオブジェクト生成部 26 ラベルオブジェクト貼付部 30 映像合成部 40 軌跡積分部 Reference Signs List 2 video source 6 object video selecting unit 16 monitor 20 pasting position detecting unit 24 label object generating unit 26 label object pasting unit 30 video synthesizing unit 40 trajectory integrating unit

Claims (7)

【特許請求の範囲】[Claims] 【請求項1】オブジェクト映像を供給する手段と、前記
オブジェクト映像供給手段から供給されたオブジェクト
映像の形状情報を抽出し出力する形状情報出力手段と、
前記オブジェクト映像供給手段より供給されたオブジェ
クト映像内の所定の領域を、前記形状情報出力手段より
出力された当該オブジェクトの形状情報を元に検出する
領域検出手段と、前記オブジェクト映像供給手段より供
給されたオブジェクト映像に対応する内容を示すラベル
オブジェクトを生成する手段と、前記ラベルオブジェク
ト生成手段より生成されたラベルオブジェクトを、前記
所定の領域を考慮した領域に貼り付けるラベルオブジェ
クト貼付手段と、ラベルオブジェクト貼付手段で貼り付
けられた前記ラベルオブジェクトと前記オブジェクト映
像供給手段より供給されたオブジェクト映像とを合わせ
て表示する表示手段とを具備したことを特徴とするオブ
ジェクト映像表示装置。
A means for supplying an object image; a shape information output means for extracting and outputting shape information of the object image supplied from the object image supply means;
Area detection means for detecting a predetermined area in the object video supplied from the object video supply means based on the shape information of the object output from the shape information output means, and supplied from the object video supply means Means for generating a label object indicating the content corresponding to the object video, label object attaching means for attaching the label object generated by the label object generating means to an area considering the predetermined area, and label object attaching means A display means for displaying the label object pasted by the means together with the object video supplied from the object video supply means.
【請求項2】前記ラベルオブジェクト貼付手段は、ラベ
ルオブジェクトを前記オブジェクト映像供給手段から供
給されたオブジェクト映像の上に重ねて貼り付けること
を特徴とする請求項1記載のオブジェクト映像表示装
置。
2. The object video display device according to claim 1, wherein said label object pasting means superimposes a label object on an object video supplied from said object video supply means.
【請求項3】前記ラベルオブジェクト貼付手段は、ラベ
ルオブジェクトを前記オブジェクト映像供給手段から供
給されたオブジェクト映像を表示すべき領域以外の領域
に貼り付けることを特徴とする請求項1記載のオブジェ
クト映像表示装置。
3. The object video display according to claim 1, wherein said label object pasting means pastes a label object to an area other than an area where an object video supplied from said object video supply means is to be displayed. apparatus.
【請求項4】前記ラベルオブジェクト生成手段は、ラベ
ルオブジェクトが貼り付けられる領域に表示ができない
場合に、当該ラベルオブジェクトの形状を変形すること
を特徴とする請求項1記載のオブジェクト映像表示装
置。
4. The object video display device according to claim 1, wherein said label object generating means changes the shape of the label object when the label object cannot be displayed in an area where the label object is pasted.
【請求項5】前記ラベルオブジェクト貼付手段は、ラベ
ルオブジェクトより表示の優先度の低いオブジェクト映
像を考慮せずに、当該ラベルオブジェクトを貼り付ける
ことを特徴とする請求項1記載のオブジェクト映像表示
装置。
5. The object video display apparatus according to claim 1, wherein the label object pasting means pastes the label object without considering an object video having a lower display priority than the label object.
【請求項6】前記ラベルオブジェクト貼付手段は、ラベ
ルオブジェクトより表示の優先度が高いオブジェクト映
像を避けて当該ラベルオブジェクトを貼り付けることを
特徴とする請求項1記載のオブジェクト映像表示装置。
6. The object video display apparatus according to claim 1, wherein the label object pasting means pastes the label object while avoiding an object video having a higher display priority than the label object.
【請求項7】オブジェクト映像を供給する手段と、前記
オブジェクト映像供給手段から供給されたオブジェクト
映像の形状情報を抽出し出力する形状情報出力手段と、
前記オブジェクト映像供給手段から供給されたオブジェ
クト映像の平均の移動軌跡を検出する手段と、前記オブ
ジェクト映像供給手段より供給されたオブジェクト映像
内の所定の領域を、前記形状情報出力手段より出力され
た当該オブジェクトの形状情報を元に検出する領域検出
手段と、前記オブジェクト映像供給手段より供給された
オブジェクト映像に対応する内容を示すラベルオブジェ
クトを生成し、生成されたラベルオブジェクトを、前記
移動軌跡検出部より検出された移動軌跡に追従して移動
するオブジェクト映像を連動させて出力するラベルオブ
ジェクト生成手段と、前記ラベルオブジェクト生成手段
より出力されたラベルオブジェクトを前記所定の領域を
考慮した領域に貼り付けるラベルオブジェクト貼付手段
と、ラベルオブジェクト貼付手段で貼り付けられた前記
ラベルオブジェクトと前記オブジェクト映像供給手段よ
り供給されたオブジェクト映像とを合わせて表示する表
示手段とを具備したことを特徴とするオブジェクト映像
表示装置。
7. A means for supplying an object image, a shape information output means for extracting and outputting shape information of the object image supplied from the object image supply means,
Means for detecting an average movement trajectory of the object video supplied from the object video supply means, and a predetermined area in the object video supplied from the object video supply means, the predetermined area being output from the shape information output means. Area detection means for detecting based on the shape information of the object, and a label object indicating the content corresponding to the object video supplied from the object video supply means are generated, and the generated label object is generated by the movement trajectory detection unit. A label object generating unit that outputs an object image that moves following the detected movement locus in conjunction with the label object, and a label object that pastes the label object output from the label object generating unit to an area considering the predetermined area Sticking means and label objects Object image display apparatus is characterized in that comprising a display means for displaying together the supplied object image from the label object and the object image providing unit affixed in the defect attaching means.
JP27382099A 1999-09-28 1999-09-28 Object picture display device Pending JP2001100731A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP27382099A JP2001100731A (en) 1999-09-28 1999-09-28 Object picture display device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP27382099A JP2001100731A (en) 1999-09-28 1999-09-28 Object picture display device

Publications (1)

Publication Number Publication Date
JP2001100731A true JP2001100731A (en) 2001-04-13

Family

ID=17533024

Family Applications (1)

Application Number Title Priority Date Filing Date
JP27382099A Pending JP2001100731A (en) 1999-09-28 1999-09-28 Object picture display device

Country Status (1)

Country Link
JP (1) JP2001100731A (en)

Cited By (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006254129A (en) * 2005-03-11 2006-09-21 Casio Comput Co Ltd Histogram display device
JP2008508801A (en) * 2004-07-30 2008-03-21 ユークリッド・ディスカバリーズ・エルエルシー Apparatus and method for processing video data
US8243118B2 (en) 2007-01-23 2012-08-14 Euclid Discoveries, Llc Systems and methods for providing personal video services
US8553782B2 (en) 2007-01-23 2013-10-08 Euclid Discoveries, Llc Object archival systems and methods
US8902971B2 (en) 2004-07-30 2014-12-02 Euclid Discoveries, Llc Video compression repository and model reuse
US8908766B2 (en) 2005-03-31 2014-12-09 Euclid Discoveries, Llc Computer method and apparatus for processing image data
US8942283B2 (en) 2005-03-31 2015-01-27 Euclid Discoveries, Llc Feature-based hybrid video codec comparing compression efficiency of encodings
JP2016106311A (en) * 2016-01-25 2016-06-16 カシオ計算機株式会社 Electronic apparatus, display control method, and program
US9532069B2 (en) 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
US9578345B2 (en) 2005-03-31 2017-02-21 Euclid Discoveries, Llc Model-based video encoding and decoding
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
US9743078B2 (en) 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
CN112619143A (en) * 2020-12-23 2021-04-09 上海米哈游天命科技有限公司 Role identification display method, device, equipment and storage medium
CN112657191A (en) * 2020-12-23 2021-04-16 上海米哈游天命科技有限公司 Role identification display method, device, equipment and storage medium

Cited By (19)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8902971B2 (en) 2004-07-30 2014-12-02 Euclid Discoveries, Llc Video compression repository and model reuse
JP2008508801A (en) * 2004-07-30 2008-03-21 ユークリッド・ディスカバリーズ・エルエルシー Apparatus and method for processing video data
US9743078B2 (en) 2004-07-30 2017-08-22 Euclid Discoveries, Llc Standards-compliant model-based video encoding and decoding
US9532069B2 (en) 2004-07-30 2016-12-27 Euclid Discoveries, Llc Video compression repository and model reuse
JP2006254129A (en) * 2005-03-11 2006-09-21 Casio Comput Co Ltd Histogram display device
US9578345B2 (en) 2005-03-31 2017-02-21 Euclid Discoveries, Llc Model-based video encoding and decoding
US8908766B2 (en) 2005-03-31 2014-12-09 Euclid Discoveries, Llc Computer method and apparatus for processing image data
US8942283B2 (en) 2005-03-31 2015-01-27 Euclid Discoveries, Llc Feature-based hybrid video codec comparing compression efficiency of encodings
US8964835B2 (en) 2005-03-31 2015-02-24 Euclid Discoveries, Llc Feature-based video compression
US9106977B2 (en) 2006-06-08 2015-08-11 Euclid Discoveries, Llc Object archival systems and methods
US8553782B2 (en) 2007-01-23 2013-10-08 Euclid Discoveries, Llc Object archival systems and methods
US8842154B2 (en) 2007-01-23 2014-09-23 Euclid Discoveries, Llc Systems and methods for providing personal video services
US8243118B2 (en) 2007-01-23 2012-08-14 Euclid Discoveries, Llc Systems and methods for providing personal video services
US9621917B2 (en) 2014-03-10 2017-04-11 Euclid Discoveries, Llc Continuous block tracking for temporal prediction in video encoding
US10091507B2 (en) 2014-03-10 2018-10-02 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
US10097851B2 (en) 2014-03-10 2018-10-09 Euclid Discoveries, Llc Perceptual optimization for model-based video encoding
JP2016106311A (en) * 2016-01-25 2016-06-16 カシオ計算機株式会社 Electronic apparatus, display control method, and program
CN112619143A (en) * 2020-12-23 2021-04-09 上海米哈游天命科技有限公司 Role identification display method, device, equipment and storage medium
CN112657191A (en) * 2020-12-23 2021-04-16 上海米哈游天命科技有限公司 Role identification display method, device, equipment and storage medium

Similar Documents

Publication Publication Date Title
JP2001100731A (en) Object picture display device
CN106331732B (en) Generate, show the method and device of panorama content
JP3773670B2 (en) Information presenting method, information presenting apparatus, and recording medium
US9762816B2 (en) Video processing apparatus, camera apparatus, video processing method, and program
CN100383710C (en) Information processing apparatus and method for presenting image combined with virtual image
CN110463195B (en) Method and apparatus for rendering timed text and graphics in virtual reality video
JP4401728B2 (en) Mixed reality space image generation method and mixed reality system
US7552387B2 (en) Methods and systems for video content browsing
EP2200287A3 (en) Video synthesis device and program
US20090077459A1 (en) Method And System For Presenting A Hotspot In A Hypervideo Stream
US10839601B2 (en) Information processing device, information processing method, and program
US20080152193A1 (en) Output apparatus, output method and program
US8189865B2 (en) Signal processing apparatus
US20060227385A1 (en) Image processing apparatus and image processing program
CN113709542B (en) Method and system for playing interactive panoramic video
JP2007047324A (en) Information processor, information processing method, and program
KR102279300B1 (en) Virtual object display control apparatus, virtual object display system, virtual object display control method, and virtual object display control program
US20130342667A1 (en) Endoscope apparatus, reproducing apparatus, displaying method and inspection report generating apparatus
TW201507476A (en) Television control apparatus and associated method
JP2003271283A (en) Information display apparatus
JP2010123069A (en) Sensing data retrieval device and retrieval image creation method
US20200051594A1 (en) Generating method and playing method of multimedia file, multimedia file generation apparatus and multimedia file playback apparatus
JP5116513B2 (en) Image display apparatus and control method thereof
WO2011024363A1 (en) Image display control device, image display control method, and integrated circuit
JP2007515864A (en) Video image processing method

Legal Events

Date Code Title Description
RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050414

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20050606