JP2019200774A - Image synthesizing device, image synthesizing method, and program - Google Patents

Image synthesizing device, image synthesizing method, and program Download PDF

Info

Publication number
JP2019200774A
JP2019200774A JP2018212309A JP2018212309A JP2019200774A JP 2019200774 A JP2019200774 A JP 2019200774A JP 2018212309 A JP2018212309 A JP 2018212309A JP 2018212309 A JP2018212309 A JP 2018212309A JP 2019200774 A JP2019200774 A JP 2019200774A
Authority
JP
Japan
Prior art keywords
image
target object
video
unit
arrangement
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018212309A
Other languages
Japanese (ja)
Other versions
JP7285045B2 (en
Inventor
佐藤 誠
Makoto Sato
佐藤  誠
正斗 神崎
Masato Kanzaki
正斗 神崎
寿晃 鈴木
Hisaaki Suzuki
寿晃 鈴木
篠田貴之
Takayuki Shinoda
貴之 篠田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Television Network Corp
Original Assignee
Nippon Television Network Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Television Network Corp filed Critical Nippon Television Network Corp
Publication of JP2019200774A publication Critical patent/JP2019200774A/en
Application granted granted Critical
Publication of JP7285045B2 publication Critical patent/JP7285045B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

To adaptively control a position on which a CG image is superimposed depending on the position in video of an object.SOLUTION: Provided is an image synthesizing device for synthesizing, into a video, a computer graphic image related to a target object appearing in the video. The image synthesizing device comprises: an image recognition unit for image-recognizing the target object from the video; a position detection unit for detecting a position in the video of the target object recognized by the image recognition unit; an image arrangement unit for adaptively determining an arrangement position in the video of the computer graphic image using the position in the video of the target object detected by the position detection unit; and an image synthesizing unit for generating a video in which the computer graphic image is superimposed on the arrangement position determined by the image arrangement unit.SELECTED DRAWING: Figure 1

Description

本発明は、画像合成装置、画像合成方法及びプログラムに関する。   The present invention relates to an image composition device, an image composition method, and a program.

放送番組の映像等では、映像中に出現する人物や建物等のオブジェクトの名前、説明等の関連事項を記述したコンピュータグラフィク画像(以下、CG画像と記載する)を、そのオブジェクト上や近傍の位置に配置した合成映像が用いられている。   In a broadcast program video or the like, a computer graphic image (hereinafter referred to as a CG image) that describes related items such as names and descriptions of objects such as persons and buildings that appear in the video is positioned on or near the object. The composite video placed in is used.

現在、これらの合成技術において、CG画像を配置する配置位置は、オブジェクトを基準にして予め定めており、コンピュータグラフィク画像をその位置に配置して、合成映像を生成している。   At present, in these synthesis techniques, the arrangement position where the CG image is arranged is determined in advance with reference to the object, and the computer graphic image is arranged at that position to generate a synthesized video.

しかしながら、オブジェクトの映像上の位置によっては、予め定めた位置にCG画像を配置すると、CG画像が画面内に収まりきれない場合があった。結果として、このような場合はCG画像の合成を諦めていた。   However, depending on the position of the object on the video, if the CG image is arranged at a predetermined position, the CG image may not fit within the screen. As a result, in such a case, the synthesis of the CG image was given up.

また、オブジェクトが多数の場合、それに伴い合成するCG画像も増加する。このような場合、従来のように予め定めた位置にCG画像を配置すると、CG画像同士が重なり合ってしまう場合も多かった。   In addition, when there are a large number of objects, CG images to be combined increase accordingly. In such a case, when CG images are arranged at a predetermined position as in the past, the CG images often overlap each other.

そこで、本発明の目的は、オブジェクトの映像上の位置によって、CG画像を重畳する位置を適応的に制御する画像合成装置、画像合成方法及びプログラムを提供することにある。   Accordingly, an object of the present invention is to provide an image composition device, an image composition method, and a program that adaptively control the position where a CG image is superimposed according to the position of an object on a video.

本発明の一態様は、映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成する画像合成装置であって、前記映像から、前記ターゲットオブジェクトを画像認識する画像認識部と、前記画像認識部により認識されたターゲットオブジェクトの映像上の位置を検出する位置検出部と、前記位置検出部により検出されたターゲットオブジェクトの映像上の位置を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定する画像配置部と、前記コンピュータグラフィク画像が前記画像配置部により決定された配置位置に重畳された映像を生成する画像合成部とを有する画像合成装置である。   One aspect of the present invention is an image synthesis device that synthesizes a computer graphic image related to a target object appearing in a video with the video, an image recognition unit that recognizes the target object from the video, and A position detection unit for detecting a position on the video of the target object recognized by the image recognition unit, and an arrangement on the video of the computer graphic image using the position on the video of the target object detected by the position detection unit An image composition apparatus comprising: an image placement unit that adaptively determines a position; and an image composition unit that generates an image in which the computer graphic image is superimposed on the placement position determined by the image placement unit.

本発明の一態様は、映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成する画像合成方法であって、前記映像から、前記ターゲットオブジェクトを画像認識し、認識されたターゲットオブジェクトの映像上の位置を検出し、検出されたターゲットオブジェクトの映像上の位置を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定し、前記コンピュータグラフィク画像が前記画像配置部により決定された配置位置に重畳された映像を生成する画像合成方法である。   One aspect of the present invention is an image composition method for compositing a computer graphic image related to a target object appearing in a video with the video, wherein the target object is image-recognized from the video, and the recognized target object The position of the computer graphic image is adaptively determined using the detected position of the target object on the image, and the computer graphic image is detected by the image arrangement unit. This is an image composition method for generating a video image superimposed on a determined arrangement position.

本発明の一態様は、映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成するコンピュータのプログラムであって、前記映像から、前記ターゲットオブジェクトを画像認識する画像認識処理と、前記画像認識処理により認識されたターゲットオブジェクトの映像上の位置を検出する位置検出処理と、前記位置検出処理により検出されたターゲットオブジェクトの映像上の位置を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定する画像配置処理と、前記コンピュータグラフィク画像が前記画像配置部により決定された配置位置に重畳された映像を生成する画像合成処理とをコンピュータに実行させるプログラムである。   One aspect of the present invention is a computer program that synthesizes a computer graphic image related to a target object appearing in a video with the video, the image recognition processing for recognizing the target object from the video, A position detection process for detecting a position on the video of the target object recognized by the image recognition process, and an arrangement on the video of the computer graphic image using the position on the video of the target object detected by the position detection process This is a program for causing a computer to execute an image arrangement process for adaptively determining a position and an image composition process for generating an image in which the computer graphic image is superimposed on the arrangement position determined by the image arrangement unit.

本発明は、オブジェクトの映像上の位置によって、CG画像を重畳する位置を適応的に制御しているので、CG画像が適切な位置で重畳された映像を生成することができる。   According to the present invention, the position where the CG image is superimposed is adaptively controlled according to the position of the object on the video, so that a video in which the CG image is superimposed at an appropriate position can be generated.

図1は第1の実施の形態における画像合成装置1のブロック図である。FIG. 1 is a block diagram of an image composition apparatus 1 according to the first embodiment. 図2はターゲットオブジェクト位置・大きさ検出部12によるターゲットオブジェクトの画面上の位置、大きさの認識の一例を示す図である。FIG. 2 is a diagram showing an example of recognition of the position and size of the target object on the screen by the target object position / size detection unit 12. 図3はCG画像記憶部13に記憶されているCG画像の一例を示す図である。FIG. 3 is a diagram illustrating an example of a CG image stored in the CG image storage unit 13. 図4はCG画像の大きさを制御する例を説明するための図である。FIG. 4 is a diagram for explaining an example of controlling the size of a CG image. 図5はCG画像配置部15によるCG画像の配置位置の決定の一例を説明するための図である。FIG. 5 is a diagram for explaining an example of determination of the arrangement position of the CG image by the CG image arrangement unit 15. 図6はコンピュータシステム2によって構成された画像合成装置1のブロック図である。FIG. 6 is a block diagram of the image composition apparatus 1 configured by the computer system 2. 図7は画像合成装置1の動作フローチャートである。FIG. 7 is an operation flowchart of the image composition apparatus 1. 図8は画像合成装置1の具体的な動作を説明するための図である。FIG. 8 is a diagram for explaining a specific operation of the image composition apparatus 1. 図9は画像合成装置1の具体的な動作を説明するための図である。FIG. 9 is a diagram for explaining a specific operation of the image composition device 1. 図10は画像合成装置1の具体的な動作を説明するための図である。FIG. 10 is a diagram for explaining a specific operation of the image composition apparatus 1. 図11は画像合成装置1の具体的な動作を説明するための図である。FIG. 11 is a diagram for explaining a specific operation of the image composition device 1. 図12は第1の実施の形態の変形例を説明するための図である。FIG. 12 is a diagram for explaining a modification of the first embodiment. 図13は第2の実施の形態の画像合成装置1のブロック図である。FIG. 13 is a block diagram of the image composition device 1 according to the second embodiment. 図14はターゲットオブジェクトをマラソン等の選手とし、選手を正面から撮影した映像を示した図である。FIG. 14 is a view showing an image in which a target object is a player such as a marathon and the player is photographed from the front. 図15はターゲットオブジェクトをマラソン等の選手とし、選手を正面から撮影した映像を示した図である。FIG. 15 is a diagram showing an image in which a target object is a player such as a marathon and the player is photographed from the front. 図16は第3の実施の形態の画像合成装置1のブロック図である。FIG. 16 is a block diagram of the image synthesizing apparatus 1 according to the third embodiment. 図17は第2の実施の形態の変形例を説明するための図である。FIG. 17 is a diagram for explaining a modification of the second embodiment. 図18は第2の実施の形態の変形例を説明するための図である。FIG. 18 is a diagram for explaining a modification of the second embodiment.

<第1の実施の形態>
図面を参照して、本発明の第1の実施の形態における画像合成装置及びプログラムを説明する。
<First Embodiment>
With reference to the drawings, an image composition device and a program according to the first embodiment of the present invention will be described.

図1は本実施形態における画像合成装置1のブロック図である。画像合成装置1は、画像認識部11と、ターゲットオブジェクト位置・大きさ検出部12と、CG画像記憶部13と、CG画像選択部14と、CG画像配置部15と、画像合成部16とを備える。   FIG. 1 is a block diagram of an image composition apparatus 1 in the present embodiment. The image composition device 1 includes an image recognition unit 11, a target object position / size detection unit 12, a CG image storage unit 13, a CG image selection unit 14, a CG image arrangement unit 15, and an image composition unit 16. Prepare.

画像認識部11は、CG画像に関連する又は表示する対象となるオブジェクト(以下、ターゲットオブジェクトと記載する)を、入力された映像から画像認識するものである。ターゲットオブジェクトの画像認識は、ターゲットオブジェクトの特徴量(例えば、ターゲットオブジェクトが特定人物の場合、顔の特徴量)等により認識する。このような、ターゲットオブジェクトを認識する画像認識方法としては、パターンマッチングや、ディープラーニング等の手法を用いた機械学習を用いた画像認識技術などがある。尚、ターゲットオブジェクトの画像認識は、予め定められた時間間隔(例えば、1秒又は2秒毎)で行われることが好ましい。   The image recognition unit 11 recognizes an object related to a CG image or a display target (hereinafter referred to as a target object) from an input video. Image recognition of the target object is recognized based on the feature amount of the target object (for example, the feature amount of the face when the target object is a specific person). Examples of such an image recognition method for recognizing a target object include image recognition technology using machine learning using a technique such as pattern matching and deep learning. Note that image recognition of the target object is preferably performed at a predetermined time interval (for example, every 1 second or 2 seconds).

画像認識部11が認識するターゲットオブジェクトの指定であるが、ユーザがCG画像を表示させたいターゲットオブジェクトを、画像認識部1に指定することにより行われる。ターゲットオブジェクトの指定は、個々の個体を特定する方法(例えば、特定の人物を指定する方法)と、個々の個体を特定しない方法(例えば、映像上に現れる人物等を指定する方法)とのいずれでも良い。また、指定するターゲットオブジェクトの数は、単数、複数を問わない。そして、画像認識したターゲットオブジェクトの認識結果(例えば、ターゲットオブジェクトの属性情報やターゲットオブジェクトを映像上で特定する情報等)を、ターゲットオブジェクト位置・大きさ検出部12に出力する。更に、複数のターゲットオブジェクトを画像認識する場合において、そのターゲットオブジェクトに優先順位が設けられている場合には、認識したターゲットオブジェクトの情報に優先順位を付してターゲットオブジェクト位置・大きさ検出部12に出力する。以下の説明では、ターゲットオブジェクトを主に特定の人物とする例を説明するが、ターゲットオブジェクトは人物に限らず、置物、建物等のオブジェクトでも良い。   The target object to be recognized by the image recognition unit 11 is designated by designating a target object for which the user wants to display a CG image to the image recognition unit 1. The target object is specified by either a method for specifying individual individuals (for example, a method for specifying a specific person) or a method for not specifying individual individuals (for example, a method for specifying a person or the like appearing on an image). But it ’s okay. The number of target objects to be specified may be singular or plural. Then, the recognition result of the target object that has been image-recognized (for example, attribute information of the target object or information for specifying the target object on the video) is output to the target object position / size detection unit 12. Further, in the case of recognizing a plurality of target objects, if priority order is provided for the target objects, the target object position / size detection unit 12 is assigned priority to the information of the recognized target objects. Output to. In the following description, an example in which the target object is mainly a specific person will be described. However, the target object is not limited to a person but may be an object such as an ornament or a building.

ターゲットオブジェクト位置・大きさ検出部12は、画像認識部11の認識結果を受け、ターゲットオブジェクトの映像画面上の位置、大きさを検出する。ターゲットオブジェクト位置・大きさ検出部12によるターゲットオブジェクトの画面上の位置、大きさの認識であるが、例えば、図2の例がある。図2の例は、人物をターゲットオブジェクトとした場合の例である。ターゲットオブジェクト位置・大きさ検出部12は、画像認識部11が認識した人物に関して、図2に示す如く、認識した人物の頭頂部から首中点を結ぶ直線の距離をLとし、人物の首中心から下方向の位置にL×2Lの大きさの注目領域を設定する。また、認識した人物の首中点を中心点とする。そして、認識した人物の大きさを注目領域の面積とし、中心点を認識した人物の画面上の位置座標とする。尚、本例は一例であり、他の方法でもかまわない。例えば、顔を囲むL×Lの大きさの領域を注目領域としても良い。更に、ターゲットオブジェクトである人物の顔そのものを注目領域としても良い。そして、ターゲットオブジェクト位置・大きさ検出部12は、ターゲットオブジェクトの注目領域、中心点及び属性情報を、CG画像選択部14に出力する。   The target object position / size detection unit 12 receives the recognition result of the image recognition unit 11 and detects the position and size of the target object on the video screen. The target object position / size detection unit 12 recognizes the position and size of the target object on the screen. For example, there is an example of FIG. The example of FIG. 2 is an example when a person is a target object. For the person recognized by the image recognition unit 11, the target object position / size detection unit 12 sets the distance of the straight line connecting the top of the recognized person to the center of the neck as shown in FIG. An attention area having a size of L × 2L is set at a position in the downward direction. The center point of the recognized person's neck is the center point. Then, the size of the recognized person is set as the area of the attention area, and the position coordinates on the screen of the person who has recognized the center point. This example is an example, and other methods may be used. For example, an area of L × L size surrounding the face may be set as the attention area. Furthermore, the face of the person who is the target object may be used as the attention area. Then, the target object position / size detection unit 12 outputs the attention area, center point, and attribute information of the target object to the CG image selection unit 14.

CG画像記憶部13は、図3に示す如く、映像に重畳するターゲットオブジェクトのCG画像が記憶されている。記憶されているCG画像は、ターゲットオブジェクトの属性毎に、CG画像の内容は同じものであるが、ターゲットオブジェクトの注目領域の大きさに応じた複数の異なる大きさのCG画像である。CG画像の大きさは、基本的に、ターゲットオブジェクトの注目領域の大きさが大きい程、CG画像も大きい。尚、CG画像の大きさは、ターゲットオブジェクトの大きさに比例させると、CG画像が不自然に大きくなってしまたり、小さくなってしまう可能性がある。そこで、図4のように、ターゲットオブジェクトの大きさがある所定の大きさ以上、又、以下になると、CG画像の大きさもそれ以上大きくならず、又は、小さくならないように制御しても良い。   As shown in FIG. 3, the CG image storage unit 13 stores a CG image of the target object to be superimposed on the video. The stored CG images are CG images having a plurality of different sizes according to the size of the target region of the target object, although the contents of the CG image are the same for each attribute of the target object. The size of the CG image is basically larger as the size of the target area of the target object is larger. Note that if the size of the CG image is proportional to the size of the target object, the CG image may become unnaturally large or small. Therefore, as shown in FIG. 4, when the size of the target object is greater than or equal to a predetermined size or less, the size of the CG image may be controlled so as not to become larger or smaller.

CG画像選択部14は、ターゲットオブジェクト位置・大きさ検出部12からのターゲットオブジェクトの注目領域及びターゲットオブジェクトの属性情報を受信し、ターゲットオブジェクトの属性情報に合致し、ターゲットオブジェクトの注目領域に応じた大きさのCG画像を、CG画像記憶部13から選択する。CG画像選択部14のCG画像の選択であるが、ターゲットオブジェクトに優先順位が設定されている場合には、その優先順位の順番で、CG画像記憶部13から選択する。   The CG image selection unit 14 receives the target object attention area and the target object attribute information from the target object position / size detection unit 12, matches the target object attribute information, and corresponds to the target object attention area. A CG image having a size is selected from the CG image storage unit 13. The CG image selection unit 14 selects a CG image. When a priority order is set for the target object, selection is made from the CG image storage unit 13 in the order of the priority order.

尚、本例では、複数のCG画像がCG画像記憶部13に記憶され、CG画像選択部14がターゲットオブジェクトの大きさ及び属性情報に応じたCG画像を、CG画像記憶部13から選択する方法を説明するが、これに限られない。例えば、CG画像選択部14が、ターゲットオブジェクトの属性情報及び検出されたターゲットオブジェクトの大きさに応じたCG画像を自動的に生成するようにしても良い。尚、CG画像を自動的に生成する場合も、上述したように、CG画像の大きさは、ターゲットオブジェクトの大きさに比例させると、CG画像が不自然に大きくなってしまたり、小さくなってしまう可能性がある。そこで、図4のように、ターゲットオブジェクトの大きさがある所定の大きさ以上、又、以下になると、CG画像の大きさもそれ以上大きくならず、又は、小さくならないように制御しても良い。   In this example, a plurality of CG images are stored in the CG image storage unit 13 and the CG image selection unit 14 selects a CG image corresponding to the size and attribute information of the target object from the CG image storage unit 13. However, the present invention is not limited to this. For example, the CG image selection unit 14 may automatically generate a CG image according to the attribute information of the target object and the size of the detected target object. Even when a CG image is automatically generated, as described above, if the size of the CG image is proportional to the size of the target object, the CG image becomes unnaturally large or small. There is a possibility. Therefore, as shown in FIG. 4, when the size of the target object is greater than or equal to a predetermined size or less, the size of the CG image may be controlled so as not to become larger or smaller.

CG画像配置部15は、CG画像選択部14により選択されたCG画像を、映像の画面上の適切な位置に配置するものである。CG画像の映像の画面上の配置位置は、予め複数設定されており、その配置位置には優先順位か設けられている。そして、その優先順位に従って、CG画像の配置を試み、配置可能な最も優先順位の高い配置位置にCG画像を配置する。   The CG image arrangement unit 15 arranges the CG image selected by the CG image selection unit 14 at an appropriate position on the video screen. A plurality of arrangement positions on the screen of the video of the CG image are set in advance, and a priority order is provided for the arrangement positions. Then, according to the priority order, an attempt is made to place the CG image, and the CG image is placed at the highest possible placement position.

CG画像配置部15によるCG画像の配置位置の決定の一例を、図5を用いて説明する。まず、ターゲットオブジェクトの中心点を中心とする円上にCG画像の配置位置を設定する。図5の例では、0度、90度、180度、270度の位置がCG画像の配置位置である。そして、配置位置の優先順位は、高い順位に、180度の配置位置a、0度の配置位置b、270度の配置位置c、90度の配置位置dに設定されている。上述した配置位置の優先順位は一例であり、これに限定するものではない。例えば、配置位置の優先順位は、高い順位に、配置位置b、配置位置a、配置位置c、配置位置dであっても良い。   An example of determination of the layout position of the CG image by the CG image layout unit 15 will be described with reference to FIG. First, the arrangement position of the CG image is set on a circle centered on the center point of the target object. In the example of FIG. 5, the positions of 0 degrees, 90 degrees, 180 degrees, and 270 degrees are the CG image arrangement positions. The priority of the arrangement positions is set to 180 degrees arrangement position a, 0 degrees arrangement position b, 270 degrees arrangement position c, and 90 degrees arrangement position d in the highest order. The priority of the arrangement position described above is an example, and the present invention is not limited to this. For example, the priority of the arrangement position may be the arrangement position b, the arrangement position a, the arrangement position c, and the arrangement position d in the higher order.

CG画像配置部15は、まず、最も優先順位が高い配置位置aに、CG画像の配置を試みる。この時、配置位置aに配置したCG画像の全てが画面内に表示できる場合、かつ、後述するように、優先順位の高いターゲットオブジェクトの注目領域に重複していない場合等は、CG画像の配置位置を配置位置aに決定する。一方、配置位置aに配置したCG画像が画面上からはみ出してCG画像の全てを表示できない場合、又は、優先順位の高いターゲットオブジェクトの注目領域に重複してしまう場合等は、配置位置aにはCG画像を配置できないと判定する。そして、次に優先順位の高い配置位置bに、CG画像の配置を試みる。このような判定を、配置位置が決定するまで行う。尚、全ての配置位置の検証を行っても配置位置の決定ができない場合は、CG画像の配置の決定行わず、CG画像を映像に重畳しないことを決定する。   The CG image placement unit 15 first tries to place a CG image at the placement position a having the highest priority. At this time, if all of the CG images arranged at the arrangement position a can be displayed on the screen, and if not overlapped with the attention area of the target object having a higher priority as will be described later, the arrangement of the CG images The position is determined as the arrangement position a. On the other hand, when the CG image arranged at the arrangement position a protrudes from the screen and cannot display all of the CG image, or when it overlaps the attention area of the target object having a high priority, the arrangement position a It is determined that a CG image cannot be arranged. Then, an attempt is made to place a CG image at the placement position b having the next highest priority. Such determination is performed until the arrangement position is determined. If the arrangement position cannot be determined even after verifying all the arrangement positions, the arrangement of the CG image is not determined and it is determined not to superimpose the CG image on the video.

上述したCG画像配置部15の配置位置の決定は、一例であり、これに限定するものではなく、他の方法でも良い。   The determination of the arrangement position of the CG image arrangement unit 15 described above is an example, and the present invention is not limited to this, and other methods may be used.

画像合成部16は、CG画像配置部15により決定された映像上の配置位置に、CG画像選択部14により選択されたCG画像を重畳し、CG画像が合成された映像を生成する。   The image composition unit 16 superimposes the CG image selected by the CG image selection unit 14 on the placement position on the video determined by the CG image placement unit 15 to generate a video in which the CG image is synthesized.

上述した画像合成装置1は、具体的には、各種の演算処理等を行うプロセッサを有するコンピュータシステム2(情報処理装置)によって実現することができる。図6はコンピュータシステム2によって構成された画像合成装置1のブロック図である。   Specifically, the above-described image composition device 1 can be realized by a computer system 2 (information processing device) having a processor that performs various arithmetic processes and the like. FIG. 6 is a block diagram of the image composition apparatus 1 configured by the computer system 2.

画像合成装置1は、プロセッサ21、メモリ(ROMやRAM)22、記憶装置(ハードディスク、半導体ディスクなど)23、入力装置(キーボード、マウス、タッチパネルなど)24、表示装置25、通信装置26などのハードウェア資源を有する汎用のコンピュータ2により構成することができる。   The image composition device 1 includes a processor 21, a memory (ROM or RAM) 22, a storage device (hard disk, semiconductor disk, etc.) 23, an input device (keyboard, mouse, touch panel, etc.) 24, a display device 25, a communication device 26, and other hardware. It can be constituted by a general-purpose computer 2 having hardware resources.

コンピュータ2は、記憶装置23に格納されたプログラムがメモリ22にロードされ、プロセッサ21により実行されることにより、画像認識処理と、ターゲットオブジェクト位置・大きさ検出処理と、CG画像選択処理と、CG画像配置処理と、画像合成処理とが実現されるものである。尚、画像認識処理は画像認識部11に対応し、ターゲットオブジェクト位置・大きさ検出処理はターゲットオブジェクト位置・大きさ検出部12に対応し、CG画像選択処理はCG画像選択部14に対応し、CG画像配置処理はCG画像配置部15に対応し、画像合成処理は画像合成部16に対応する。   The computer 2 loads the program stored in the storage device 23 into the memory 22 and is executed by the processor 21, thereby performing image recognition processing, target object position / size detection processing, CG image selection processing, CG An image arrangement process and an image composition process are realized. The image recognition process corresponds to the image recognition unit 11, the target object position / size detection process corresponds to the target object position / size detection unit 12, and the CG image selection process corresponds to the CG image selection unit 14. The CG image arrangement process corresponds to the CG image arrangement unit 15, and the image composition process corresponds to the image composition unit 16.

次に、上述した画像合成装置1の動作を説明する。   Next, the operation of the image composition apparatus 1 described above will be described.

図7は画像合成装置1の動作フローチャートである。尚、以下の説明では、CG画像の配置位置とその優先順位とは、図5のものとして説明する。   FIG. 7 is an operation flowchart of the image composition apparatus 1. In the following description, the arrangement position of the CG image and its priority will be described as those in FIG.

最初に、ターゲットオブジェクトが単数の特定人物Xであり、特定人物Xが映像上移動する場合を、図7の動作フローチャート、図8及び図9の具体例を用いて説明する。   First, a case where the target object is a single specific person X and the specific person X moves on the video will be described with reference to the operation flowchart of FIG. 7 and the specific examples of FIGS.

まず、ターゲットオブジェクトの数を設定する(Step100)。本例では、ターゲットオブジェクトは特定人物Xのみであり、単数なので、P=1である。   First, the number of target objects is set (Step 100). In this example, since the target object is only the specific person X and is singular, P = 1.

画像認識部11は、CG画像を表示する対象となる特定人物Xを、映像から画像認識する(Step101)。そして、画像認識したターゲットオブジェクトの認識結果(例えば、ターゲットオブジェクトの属性情報やターゲットオブジェクトを映像上で特定する情報等)をターゲットオブジェクト位置・大きさ検出部12に出力する。尚、ターゲットオブジェクトに優先順位が設けられている場合には、認識したターゲットオブジェクトの情報に優先順位を付してターゲットオブジェクト位置・大きさ検出部12に出力する。   The image recognition unit 11 recognizes an image of the specific person X that is a target for displaying the CG image from the video (Step 101). Then, the recognition result of the target object that has been image-recognized (for example, attribute information of the target object or information for specifying the target object on the video) is output to the target object position / size detection unit 12. Note that, when a priority order is set for the target object, the priority order is given to the information of the recognized target object and the information is output to the target object position / size detection unit 12.

ターゲットオブジェクト位置・大きさ検出部12は、画像認識部11が認識した特定人物Xの画面上の位置、大きさを検出する。すなわち、特定人物Xの注目領域、中心点の算出である(Step102)。   The target object position / size detection unit 12 detects the position and size of the specific person X recognized by the image recognition unit 11 on the screen. That is, it is the calculation of the attention area and the center point of the specific person X (Step 102).

CG画像選択部14は、ターゲットオブジェクトの優先順位Mを1に設定する(Step103)。CG画像選択部14は、優先順位M=1の特定人物Xの注目領域及び属性情報を取得する(Step104)。CG画像選択部14は、特定人物Xの注目領域の大きさ及び属性情報に対応したCG画像を選択する(Step105)。   The CG image selection unit 14 sets the priority M of the target object to 1 (Step 103). The CG image selection unit 14 acquires the attention area and attribute information of the specific person X with the priority M = 1 (Step 104). The CG image selection unit 14 selects a CG image corresponding to the size and attribute information of the attention area of the specific person X (Step 105).

CG画像配置部15は、ターゲットオブジェクト位置・大きさ検出部12から特定人物Xの中心点と、CG画像選択部14から選択されたCG画像とを、取得する(Step106)。そして、CG画像の配置位置の優先順位数をQとし(Step107)、優先順位をNとしN=1とする(Step108)。   The CG image arrangement unit 15 acquires the center point of the specific person X from the target object position / size detection unit 12 and the CG image selected from the CG image selection unit 14 (Step 106). Then, the priority order number of the arrangement position of the CG image is set to Q (Step 107), the priority order is set to N, and N = 1 is set (Step 108).

CG画像配置部15は、CG画像を優先順位が1の配置位置に配置することを試みる(Step109)。図8は映像上の時刻tの特定人物Xの映像上の位置を示したものであり、特定人物Xの中心点を中心とする円上の4つのCG画像の配置位置aから配置位置dを示したものである。尚、配置位置の優先順位は高い順位に、180度の配置位置a、0度の配置位置b、270度の配置位置c、90度の配置位置dに設定されている。従って、CG画像配置部15は、CG画像を優先順位が1の配置位置aに配置することを試みる。   The CG image placement unit 15 tries to place the CG image at the placement position having the priority of 1 (Step 109). FIG. 8 shows the position of the specific person X on the video at the time t on the video. The positions d of the four CG images on the circle centered on the center point of the specific person X are shown. It is shown. Note that the priority of the arrangement positions is set to the higher order: an arrangement position a of 180 degrees, an arrangement position b of 0 degrees, an arrangement position c of 270 degrees, and an arrangement position d of 90 degrees. Therefore, the CG image placement unit 15 tries to place the CG image at the placement position a having the priority order of 1.

CG画像配置部15は、優先順位が1の配置位置にCG画像が配置可能かを判定する(Step110)。図8の例では、配置位置aにCG画像を配置した場合、CG画像の全てを表示でき、かつ、他のターゲットオブジェクトの注目領域に重複していないので、CG画像を配置位置aに配置可能と判定する。   The CG image placement unit 15 determines whether a CG image can be placed at a placement position with a priority of 1 (Step 110). In the example of FIG. 8, when the CG image is arranged at the arrangement position a, all of the CG images can be displayed and do not overlap with the attention area of other target objects, so the CG image can be arranged at the arrangement position a. Is determined.

CG画像配置部15が配置可能と判定した場合、画像合成部16はその配置位置にCG画像が重畳された映像を生成する(Step111)。図8の下図の例では、配置位置aにCG画像が重畳された映像を示している。   When the CG image placement unit 15 determines that the placement is possible, the image composition unit 16 generates a video in which the CG image is superimposed on the placement position (Step 111). The example in the lower diagram of FIG. 8 shows a video in which a CG image is superimposed on the arrangement position a.

CG画像選択部14は、処理対象となるターゲットオブジェクトが残っているかを判定する(Step112)。すなわち、M=Pとなるかの判定である。本例では、ターゲットオブジェクトが単数の特定人物Xであるので、M=P=1である。よって、処理は終了する。   The CG image selection unit 14 determines whether a target object to be processed remains (Step 112). That is, it is a determination as to whether M = P. In this example, since the target object is a single specific person X, M = P = 1. Therefore, the process ends.

次に、時刻t+1となり、特定人物Xが移動した場合を、図7の動作フローチャート、図9の具体例を用いて説明する。   Next, a case where the specific person X moves at time t + 1 will be described with reference to an operation flowchart of FIG. 7 and a specific example of FIG.

まず、ターゲットオブジェクトの数を設定する(Step100)。本例では、特定人物Xの単数なので、P=1である。   First, the number of target objects is set (Step 100). In this example, since the specific person X is singular, P = 1.

画像認識部11は、CG画像を表示する対象となる特定人物Xを、映像から画像認識する(Step101)。そして、画像認識したターゲットオブジェクトの認識結果(例えば、ターゲットオブジェクトの属性情報やターゲットオブジェクトを映像上で特定する情報等)をターゲットオブジェクト位置・大きさ検出部12に出力する。尚、ターゲットオブジェクトに優先順位が設けられている場合には、認識したターゲットオブジェクトの情報に優先順位を付してターゲットオブジェクト位置・大きさ検出部12に出力する。   The image recognition unit 11 recognizes an image of the specific person X that is a target for displaying the CG image from the video (Step 101). Then, the recognition result of the target object that has been image-recognized (for example, attribute information of the target object or information for specifying the target object on the video) is output to the target object position / size detection unit 12. Note that, when a priority order is set for the target object, the priority order is given to the information of the recognized target object and the information is output to the target object position / size detection unit 12.

ターゲットオブジェクト位置・大きさ検出部12は、画像認識部11が認識した特定人物Xの画面上の位置、大きさを検出する。すなわち、特定人物Xの注目領域、中心点の算出する(Step102)。   The target object position / size detection unit 12 detects the position and size of the specific person X recognized by the image recognition unit 11 on the screen. That is, the attention area and center point of the specific person X are calculated (Step 102).

CG画像選択部14は、ターゲットオブジェクトの優先順位Mを1に設定する(Step103)。CG画像選択部14は、優先順位M=1の特定人物Xの注目領域及び属性情報を取得する(Step104)。CG画像選択部14は、特定人物Xの注目領域の大きさ及び属性情報に対応したCG画像を選択する(Step105)。ここで、留意すべきは、選択されるCG画像の大きさである。時刻tの特定人物Xの注目領域の大きさと、時刻t+1の特定人物Xの注目領域の大きさとでは、時刻t+1の特定人物Xの注目領域の方が大きい。従って、時刻t+1の特定人物Xに対して選択されるCG画像は、時刻tの特定人物Xに対して選択されるCG画像よりも大きいことに留意すべきである。   The CG image selection unit 14 sets the priority M of the target object to 1 (Step 103). The CG image selection unit 14 acquires the attention area and attribute information of the specific person X with the priority M = 1 (Step 104). The CG image selection unit 14 selects a CG image corresponding to the size and attribute information of the attention area of the specific person X (Step 105). Here, what should be noted is the size of the selected CG image. The attention area of the specific person X at time t + 1 is larger in the size of the attention area of the specific person X at time t and the attention area of the specific person X at time t + 1. Therefore, it should be noted that the CG image selected for the specific person X at time t + 1 is larger than the CG image selected for the specific person X at time t.

CG画像配置部15は、ターゲットオブジェクト位置・大きさ検出部12から特定人物Xの注目領域及び中心点と、CG画像選択部14から選択されたCG画像とを、取得する(Step106)。そして、CG画像の配置位置の優先順位数をQとし(Step107)、優先順位をNとしN=1とする(Step108)。尚、本例では、CG画像の配置位置の優先順位が1から4であるので、優先順位数は4であり、Q=4である。   The CG image placement unit 15 acquires the attention area and center point of the specific person X from the target object position / size detection unit 12 and the CG image selected from the CG image selection unit 14 (Step 106). Then, the priority order number of the arrangement position of the CG image is set to Q (Step 107), the priority order is set to N, and N = 1 is set (Step 108). In this example, since the priority order of the arrangement position of the CG image is 1 to 4, the priority order number is 4, and Q = 4.

CG画像配置部15は、CG画像を優先順位が1の配置位置に配置することを試みる(Step109)。図9は映像上の時刻t+1の特定人物Xの映像上の位置を示したものであり、特定人物Xの中心点を中心とする円上の4つのCG画像の配置位置aから配置位置dを示したものである。尚、配置位置の優先順位は高い順位に、180度の配置位置a、0度の配置位置b、270度の配置位置c、90度の配置位置dに設定されている。従って、CG画像配置部15は、CG画像を優先順位が1の配置位置aに配置することを試みる。   The CG image placement unit 15 tries to place the CG image at the placement position having the priority of 1 (Step 109). FIG. 9 shows the position of the specific person X on the video at the time t + 1 on the video. The positions d of the four CG images on the circle centered on the center point of the specific person X are shown. It is shown. Note that the priority of the arrangement positions is set to the higher order: an arrangement position a of 180 degrees, an arrangement position b of 0 degrees, an arrangement position c of 270 degrees, and an arrangement position d of 90 degrees. Therefore, the CG image placement unit 15 tries to place the CG image at the placement position a having the priority order of 1.

CG画像配置部15は、優先順位が1の配置位置aにCG画像が配置可能かを判定する(Step110)。図9の例では、配置位置aにCG画像を配置した場合、CG画像を画面内に全て表示することができないので、CG画像を配置位置aに配置不可能と判定する。   The CG image placement unit 15 determines whether or not a CG image can be placed at the placement position a having a priority of 1 (Step 110). In the example of FIG. 9, when a CG image is arranged at the arrangement position a, it is determined that the CG image cannot be arranged at the arrangement position a because all the CG images cannot be displayed on the screen.

配置不可能と判定した場合、CG画像配置部15は配置可能な配置位置があるかを判定する(Step113)。すなわち、N=Qであるかである。図9の例では、配置可能な配置位置b、配置位置c、配置位置dが残っている。そこで、CG画像配置部15は、Nに1を加算し(Step114)、CG画像を優先順位が2の配置位置に配置することを試みる(Step109)。図9の例では、配置位置bにCG画像を配置した場合、CG画像の全てを表示でき、かつ、他のターゲットオブジェクトの注目領域に重複していないので、CG画像を配置位置bに配置可能と判定する。一方、N=Qの場合、Step112に進む。   When it is determined that the arrangement is impossible, the CG image arrangement unit 15 determines whether there is an arrangement position where the arrangement is possible (Step 113). That is, whether N = Q. In the example of FIG. 9, the arrangement position b, the arrangement position c, and the arrangement position d that can be arranged remain. Therefore, the CG image placement unit 15 adds 1 to N (Step 114), and tries to place the CG image at a placement position with a priority of 2 (Step 109). In the example of FIG. 9, when the CG image is arranged at the arrangement position b, the entire CG image can be displayed and does not overlap with the attention area of another target object, so the CG image can be arranged at the arrangement position b. Is determined. On the other hand, if N = Q, the process proceeds to Step 112.

CG画像配置部15が配置可能と判定した場合、画像合成部16はその配置位置にCG画像が重畳された映像を生成する(Step111)。図9の下図の例では、配置位置bにCG画像が重畳された映像を示している。   When the CG image placement unit 15 determines that the placement is possible, the image composition unit 16 generates a video in which the CG image is superimposed on the placement position (Step 111). The example in the lower diagram of FIG. 9 shows a video in which a CG image is superimposed on the arrangement position b.

CG画像選択部14は、処理対象となるターゲットオブジェクトが残っているかを判定する(Step112)。すなわち、M=Pとなるかの判定である。本例では、ターゲットオブジェクトが単数の特定人物Xであるので、M=P=1である。よって、処理は終了する。   The CG image selection unit 14 determines whether a target object to be processed remains (Step 112). That is, it is a determination as to whether M = P. In this example, since the target object is a single specific person X, M = P = 1. Therefore, the process ends.

次に、ターゲットオブジェクトが複数の特定人物X、特定人物Yである場合を、図7の動作フローチャート、図10及び図11の具体例を用いて説明する。   Next, the case where the target object is a plurality of specific persons X and specific persons Y will be described using the operation flowchart of FIG. 7 and the specific examples of FIGS. 10 and 11.

まず、ターゲットオブジェクトの数を設定する(Step100)。本例では、複数の特定人物X、特定人物Yなので、P=2である。また、特定人物Xの優先順位を1、特定人物Yの優先順位を2とする。   First, the number of target objects is set (Step 100). In this example, since a plurality of specific persons X and specific persons Y, P = 2. Further, the priority order of the specific person X is 1, and the priority order of the specific person Y is 2.

画像認識部11は、CG画像を表示する対象となる特定人物X、特定人物Yを、映像から画像認識する(Step101)。そして、画像認識したターゲットオブジェクトの認識結果(例えば、ターゲットオブジェクトの属性情報やターゲットオブジェクトを映像上で特定する情報等)をターゲットオブジェクト位置・大きさ検出部12に出力する。尚、認識した特定人物Xの情報に優先順位1を付し、認識した特定人物Yの情報に優先順位2を付してターゲットオブジェクト位置・大きさ検出部12に出力する。   The image recognition unit 11 recognizes the specific person X and the specific person Y, which are targets for displaying the CG image, from the video (Step 101). Then, the recognition result of the target object that has been image-recognized (for example, attribute information of the target object or information for specifying the target object on the video) is output to the target object position / size detection unit 12. Note that the priority order 1 is assigned to the information of the recognized specific person X, the priority order 2 is assigned to the information of the recognized specific person Y, and the information is output to the target object position / size detection unit 12.

ターゲットオブジェクト位置・大きさ検出部12は、画像認識部11が認識した特定人物X及び特定人物Yの画面上の位置、大きさを検出する。すなわち、特定人物X及び特定人物Yの注目領域、中心点の算出する(Step102)。   The target object position / size detection unit 12 detects the positions and sizes of the specific person X and the specific person Y recognized by the image recognition unit 11 on the screen. That is, the attention area and the center point of the specific person X and the specific person Y are calculated (Step 102).

CG画像選択部14は、ターゲットオブジェクトの優先順位Mを1に設定する(Step103)。尚、図10の例では、特定人物Xの優先順位を1、特定人物Yの優先順位を2とする。   The CG image selection unit 14 sets the priority M of the target object to 1 (Step 103). In the example of FIG. 10, the priority order of the specific person X is 1 and the priority order of the specific person Y is 2.

CG画像選択部14は、優先順位M=1の特定人物Xの注目領域及び属性情報を取得する(Step104)。CG画像選択部14は、特定人物Xの注目領域の大きさ及び属性情報に対応したCG画像を選択する(Step105)。   The CG image selection unit 14 acquires the attention area and attribute information of the specific person X with the priority M = 1 (Step 104). The CG image selection unit 14 selects a CG image corresponding to the size and attribute information of the attention area of the specific person X (Step 105).

CG画像配置部15は、ターゲットオブジェクト位置・大きさ検出部12から特定人物Xの注目領域及び中心点と、CG画像選択部14から選択されたCG画像とを、取得する(Step106)。そして、CG画像の配置位置の優先順位数をQとし(Step107)、優先順位をNとし、N=1とする(Step108)。尚、本例では、CG画像の配置位置の優先順位が1から4であるので、優先順位数は4であり、Q=4である。   The CG image placement unit 15 acquires the attention area and center point of the specific person X from the target object position / size detection unit 12 and the CG image selected from the CG image selection unit 14 (Step 106). Then, the priority order number of the arrangement position of the CG image is set to Q (Step 107), the priority order is set to N, and N = 1 is set (Step 108). In this example, since the priority order of the arrangement position of the CG image is 1 to 4, the priority order number is 4, and Q = 4.

CG画像配置部15は、CG画像を優先順位が1の配置位置に配置することを試みる(Step109)。図10は映像上の時刻tの特定人物Xの映像上の位置を示したものであり、特定人物Xの中心点を中心とする円上の4つのCG画像の配置位置aから配置位置dを示したものである。尚、配置位置の優先順位は高い順位に、180度の配置位置a、0度の配置位置b、270度の配置位置c、90度の配置位置dに設定されている。従って、CG画像配置部15は、CG画像を優先順位が1の配置位置aに配置することを試みる。   The CG image placement unit 15 tries to place the CG image at the placement position having the priority of 1 (Step 109). FIG. 10 shows the position of the specific person X on the video at the time t on the video. The positions d of the four CG images on the circle centered on the center point of the specific person X are shown. It is shown. Note that the priority of the arrangement positions is set to the higher order: an arrangement position a of 180 degrees, an arrangement position b of 0 degrees, an arrangement position c of 270 degrees, and an arrangement position d of 90 degrees. Therefore, the CG image placement unit 15 tries to place the CG image at the placement position a having the priority order of 1.

CG画像配置部15は、優先順位が1の配置位置にCG画像が配置可能かを判定する(Step110)。図10の例では、配置位置aにCG画像を配置した場合、CG画像の全てを表示でき、かつ、優先順位の高い他のターゲットオブジェクトの注目領域に重複していないので、CG画像を配置位置aに配置可能と判定する。   The CG image placement unit 15 determines whether a CG image can be placed at a placement position with a priority of 1 (Step 110). In the example of FIG. 10, when a CG image is arranged at the arrangement position a, all of the CG images can be displayed and do not overlap with the attention area of another target object having a high priority. It determines with arrangement | positioning to a possible.

CG画像配置部15が配置可能と判定した場合、画像合成部16はその配置位置にCG画像が重畳された映像を生成する(Step111)。図10の下図の例では、配置位置aに特定人物XのCG画像が重畳された映像を示している。   When the CG image placement unit 15 determines that the placement is possible, the image composition unit 16 generates a video in which the CG image is superimposed on the placement position (Step 111). The example in the lower diagram of FIG. 10 illustrates a video in which a CG image of the specific person X is superimposed on the arrangement position a.

CG画像選択部14は、処理対象となるターゲットオブジェクトが残っているかを判定する(Step112)。すなわち、M=Pとなるかの判定である。本例では、M=1、P=2なので、M=Pではない。よって、Mに1を加算し(Step115)、Step104に戻る。   The CG image selection unit 14 determines whether a target object to be processed remains (Step 112). That is, it is a determination as to whether M = P. In this example, since M = 1 and P = 2, M = P is not satisfied. Therefore, 1 is added to M (Step 115), and the process returns to Step 104.

CG画像選択部14は、優先順位M=2の特定人物Yの注目領域及び属性情報を取得する(Step104)。CG画像選択部14は、特定人物Yの注目領域の大きさ及び属性情報に対応したCG画像を選択する(Step105)。ここで、留意すべきは、選択されるCG画像の大きさである。図11に示されるように、時刻tの特定人物Xの注目領域の大きさと、時刻tの特定人物Yの注目領域の大きさとでは、特定人物Yの注目領域の方が小さい。従って、特定人物Yに対して選択されるCG画像は、特定人物Xに対して選択されるCG画像よりも小さいことに留意すべきである。   The CG image selection unit 14 acquires the attention area and attribute information of the specific person Y with the priority M = 2 (Step 104). The CG image selection unit 14 selects a CG image corresponding to the size and attribute information of the attention area of the specific person Y (Step 105). Here, what should be noted is the size of the selected CG image. As shown in FIG. 11, the attention area of the specific person Y is smaller in the size of the attention area of the specific person X at the time t and the size of the attention area of the specific person Y at the time t. Therefore, it should be noted that the CG image selected for the specific person Y is smaller than the CG image selected for the specific person X.

CG画像配置部15は、ターゲットオブジェクト位置・大きさ検出部12から特定人物Yの注目領域及び中心点と、CG画像選択部14から選択されたCG画像とを、取得する(Step106)。そして、CG画像の配置位置の優先順位数をQとし(Step107)、N=1とする(Step108)。   The CG image placement unit 15 acquires the attention area and center point of the specific person Y from the target object position / size detection unit 12 and the CG image selected from the CG image selection unit 14 (Step 106). Then, the priority order number of the arrangement position of the CG image is set to Q (Step 107), and N = 1 (Step 108).

CG画像配置部15は、CG画像を優先順位が1の配置位置に配置することを試みる(Step109)。図11は映像上の特定人物Yの映像上の位置を示したものであり、特定人物Yの中心点を中心とする円上の4つのCG画像の配置位置aから配置位置dを示したものである。尚、配置位置の優先順位は高い順位に、180度の配置位置a、0度の配置位置b、270度の配置位置c、90度の配置位置dに設定されている。従って、CG画像配置部15は、CG画像を優先順位が1の配置位置aに配置することを試みる。   The CG image placement unit 15 tries to place the CG image at the placement position having the priority of 1 (Step 109). FIG. 11 shows the position on the video of the specific person Y on the video, and shows the position d from the positions of the four CG images on the circle centered on the center point of the specific person Y. It is. Note that the priority of the arrangement positions is set to the higher order: an arrangement position a of 180 degrees, an arrangement position b of 0 degrees, an arrangement position c of 270 degrees, and an arrangement position d of 90 degrees. Therefore, the CG image placement unit 15 tries to place the CG image at the placement position a having the priority order of 1.

CG画像配置部15は、優先順位が1の配置位置aにCG画像が配置可能かを判定する(Step110)。図11の例では、配置位置aにCG画像を配置した場合、CG画像が優先順位の高い特定人物Xの注目領域に重複してしまうので、CG画像を配置位置aに配置不可能と判定する。   The CG image placement unit 15 determines whether or not a CG image can be placed at the placement position a having a priority of 1 (Step 110). In the example of FIG. 11, when a CG image is arranged at the arrangement position a, the CG image overlaps the attention area of the specific person X having a high priority, so it is determined that the CG image cannot be arranged at the arrangement position a. .

配置不可能と判定した場合、CG画像配置部15は配置可能な配置位置があるかを判定する(Step113)。すなわち、N=Qであるかである。図11の例では、配置可能な配置位置b、配置位置c、配置位置dが残っている。そこで、CG画像配置部15は、Nに1を加算し(Step114)、CG画像を優先順位が2の配置位置に配置することを試みる(Step109)。図11の例では、配置位置bにCG画像を配置した場合、CG画像を画面内に表示することができないので、CG画像を配置位置bに配置不可能と判定する。   When it is determined that the arrangement is impossible, the CG image arrangement unit 15 determines whether there is an arrangement position where the arrangement is possible (Step 113). That is, whether N = Q. In the example of FIG. 11, the arrangement position b, the arrangement position c, and the arrangement position d that can be arranged remain. Therefore, the CG image placement unit 15 adds 1 to N (Step 114), and tries to place the CG image at a placement position with a priority of 2 (Step 109). In the example of FIG. 11, when a CG image is arranged at the arrangement position b, the CG image cannot be displayed on the screen, so it is determined that the CG image cannot be arranged at the arrangement position b.

配置不可能と判定した場合、CG画像配置部15は配置可能な配置位置があるかを判定する(Step113)。すなわち、N=Qであるかである。図11の例では、配置可能な配置位置c、配置位置dが残っている。そこで、CG画像配置部15は、Nに1を加算し(Step114)、CG画像を優先順位が3の配置位置に配置することを試みる(Step109)。図11の例では、配置位置cにCG画像を配置した場合、CG画像の全てを表示でき、又は、特定人物Xのターゲットオブジェクトの注目領域に重複していないので、CG画像を配置位置cに配置可能と判定する。一方、N=Qの場合、Step112に進む。   When it is determined that the arrangement is impossible, the CG image arrangement unit 15 determines whether there is an arrangement position where the arrangement is possible (Step 113). That is, whether N = Q. In the example of FIG. 11, the arrangement position c and the arrangement position d that can be arranged remain. Therefore, the CG image placement unit 15 adds 1 to N (Step 114), and tries to place the CG image at the placement position with the priority order 3 (Step 109). In the example of FIG. 11, when the CG image is arranged at the arrangement position c, the entire CG image can be displayed, or since it does not overlap the attention area of the target object of the specific person X, the CG image is placed at the arrangement position c. It is determined that placement is possible. On the other hand, if N = Q, the process proceeds to Step 112.

CG画像配置部15が配置可能と判定した場合、画像合成部16はその配置位置にCG画像が重畳された映像を生成する(Step111)。図11の下図の例では、配置位置cに特定人物YのCG画像が重畳された映像を示している。   When the CG image placement unit 15 determines that the placement is possible, the image composition unit 16 generates a video in which the CG image is superimposed on the placement position (Step 111). The example in the lower diagram of FIG. 11 shows a video in which a CG image of the specific person Y is superimposed on the arrangement position c.

CG画像選択部14は、処理対象となるターゲットオブジェクトが残っているかを判定する(Step112)。すなわち、M=Pとなるかの判定である。本例では、ターゲットオブジェクトが特定人物Xと特定人物Yの二人なので、M=P=2である。よって、処理は終了する。   The CG image selection unit 14 determines whether a target object to be processed remains (Step 112). That is, it is a determination as to whether M = P. In this example, since the target objects are the specific person X and the specific person Y, M = P = 2. Therefore, the process ends.

第1の実施の形態は、ターゲットオブジェクトの映像上の位置及び大きさによって、CG画像を重畳する位置とCG画像の大きさを適応的に制御しているので、CG画像が適切な位置、大きさで重畳された映像を生成することができる。   In the first embodiment, the position where the CG image is superimposed and the size of the CG image are adaptively controlled according to the position and size of the target object on the video. The superimposed video can be generated.

尚、CG画像の表示は、ターゲットオブジェクトが映像上に表示(登場)している間、表示し続けても良いが、CG画像の表示の開始から所定時間経過後に表示しないようにしても良い。また、CG画像を表示したターゲットオブジェクトが映像から一旦消え、再度、表示(登場)されたような場合は、CG画像を表示しないように制御しても良い。   The display of the CG image may be continued while the target object is displayed (appears) on the video, but may not be displayed after a predetermined time has elapsed since the start of the display of the CG image. Further, when the target object displaying the CG image disappears from the video once and is displayed (appears) again, it may be controlled not to display the CG image.

<第1の実施の形態の変形例>
第1の実施の形態では、予め記憶されているCG画像をCG画像選択部14が選択し、選択されたCG画像を映像に合成する例を説明した。
<Modification of the first embodiment>
In the first embodiment, the example in which the CG image selection unit 14 selects a CG image stored in advance and synthesizes the selected CG image with a video has been described.

しかし、多くのCG画像を配置する場合や、CG画像の配置位置によっては、いずれのターゲットオブジェクトのCG画像であるのかが解りにくくなる場合もあると思われる。   However, when many CG images are arranged or depending on the arrangement position of the CG image, it may be difficult to understand which target object is the CG image.

そこで、第1の実施の形態の変形例では、映像に重畳するCG画像を配置する位置によって変形させる例を説明する。   Therefore, in the modification of the first embodiment, an example will be described in which deformation is performed depending on the position where the CG image to be superimposed on the video is arranged.

変形させる代表的な方法として、重畳するCG画像がいずれのターゲットオブジェクトのCG画像であるかを示すような吹き出し、矢印を設ける方法がある。図12は、吹き出しによってCG画像を変形させた場合の例である。図12の例では、各CG画像aからCG画像dが吹き出しの画像であり、吹き出し元をターゲットオブジェクトの中心点に設定した場合の例を示している。   As a typical method of deformation, there is a method of providing a balloon and an arrow indicating which target object the CG image to be superimposed is. FIG. 12 shows an example in which a CG image is deformed by a balloon. In the example of FIG. 12, each CG image a to CG image d is a balloon image, and the balloon source is set to the center point of the target object.

これらの変形は、CG画像配置部15がCG画像の配置位置を決定した後に、決定した配置位置からターゲットオブジェクトの中心点に向けて、選択したCG画像の吹き出しを変形させることにより、可能となる。   These deformations are made possible by deforming the balloon of the selected CG image from the determined arrangement position toward the center point of the target object after the CG image arrangement unit 15 determines the arrangement position of the CG image. .

<第2の実施の形態>
駅伝やマラソン等の競技では、多くの人物が映像に映っており、また、その順位の変動も大きい。このようなケースにおいて、競技に出場している全ての選手をターゲットオブジェクトとし、全ての選手にCG画像を配置すると、CG画像によって本来の映像が見にくくなってしまう。そこで、先頭から何位までというようにターゲットオブジェクトに優先順位をつけて、配置するCG画像の数を制限することが考えられる。
<Second Embodiment>
In competitions such as relay races and marathons, many people are shown in the images, and the ranking varies greatly. In such a case, if all players participating in the competition are set as target objects and CG images are arranged for all players, the original image becomes difficult to see due to the CG images. Therefore, it is conceivable to prioritize the target objects such as how many from the top to limit the number of CG images to be arranged.

しかし、ターゲットオブジェクトを単に認識するだけでは順位まではわからない。   However, simply recognizing the target object does not tell the rank.

そこで、第2の実施の形態では、認識したターゲットオブジェクトの映像上の位置関係を識別し、その位置関係に基づいてターゲットオブジェクトの優先順位を設定する方法を説明する。   Therefore, in the second embodiment, a method of identifying the positional relationship of the recognized target object on the video and setting the priority order of the target object based on the positional relationship will be described.

図13は第2の実施の形態の画像合成装置1のブロック図である。   FIG. 13 is a block diagram of the image composition device 1 according to the second embodiment.

第2の実施の形態の画像合成装置1は、第1の実施の形態の画像合成装置1に加えて、位置関係識別部30を備える。   The image composition device 1 according to the second embodiment includes a positional relationship identification unit 30 in addition to the image composition device 1 according to the first embodiment.

位置関係識別部30は、画像識別部11により識別されたターゲットオブジェクトの映像上の位置関係を識別するものである。位置関係を識別する一つの方法としては、映像上のターゲットオブジェクトの大きさを用いる。2次元の映像では、手前にあるものが大きく映り、遠方にあるものほど小さく映る。これは競技を撮影している場合も同様である。例えば、マラソンや駅伝では、選手を正面から撮影した場合、手前を走る選手ほど映像上で大きく映り、後方の選手ほど映像上で小さく映る。選手を背面から撮影した場合も、同様である。位置関係識別部30は、このような性質を利用し、画像識別部11により識別したターゲットオブジェクトの映像上の大きさから各ターゲットオブジェクトの位置関係を識別する。   The positional relationship identifying unit 30 identifies the positional relationship on the video of the target object identified by the image identifying unit 11. As one method for identifying the positional relationship, the size of the target object on the video is used. In a two-dimensional image, what is in the foreground appears larger, and what is in the distance appears smaller. The same applies when shooting competitions. For example, in a marathon or Ekiden, when a player is photographed from the front, the player who runs in front will appear larger on the video and the player behind will appear smaller on the video. The same applies when the player is photographed from the back. The positional relationship identifying unit 30 utilizes such a property to identify the positional relationship of each target object from the size of the target object identified by the image identifying unit 11 on the video.

具体的には、位置関係識別部30は、識別したターゲットオブジェクトの映像上の大きさの指標として、ターゲットオブジェクト位置・大きさ検出部12が検出した注目領域の大きさ(例えば、面積)に着目する。   Specifically, the positional relationship identification unit 30 focuses on the size (for example, area) of the attention area detected by the target object position / size detection unit 12 as an index of the size of the identified target object on the video. To do.

例えば、図14はターゲットオブジェクトをマラソン等の選手とし、選手を正面から撮影した映像の場合である。図14の例では、選手Aの注目領域が最も大きく、選手Cの注目領域が最も小さい。従って、選手の順位は、選手A、選手B、選手Cであることが識別できる。一方、図15は選手を背面から撮影した映像の場合である。図15の例でも、選手Aの注目領域が最も大きく、人物Cの注目領域が最も小さい。しかし、選手を背面から撮影した映像であるので、選手の順位は、選手C、選手B、選手Aであることを識別できる。   For example, FIG. 14 shows a case where a target object is a player such as a marathon and the player is photographed from the front. In the example of FIG. 14, the attention area of player A is the largest, and the attention area of player C is the smallest. Therefore, it is possible to identify the player ranks as player A, player B, and player C. On the other hand, FIG. 15 shows a case where an image is taken of the player from the back. Also in the example of FIG. 15, the attention area of the player A is the largest, and the attention area of the person C is the smallest. However, since it is a video taken from the back of the player, it can be identified that the player's rank is player C, player B, and player A.

このような撮影方向は、撮影するカメラから得ても良いし、画像認識により顔正面か背面かを識別し、正面から撮影した映像か、背面から撮影した映像かを識別するようにしても良い。   Such a shooting direction may be obtained from the camera that shoots, or may be identified from the front or back of the face by image recognition to identify whether the video is shot from the front or from the back. .

このように、識別されたターゲットオブジェクトの映像上の大きさに着目することにより、位置関係識別部30は、画像識別部1により識別されたターゲットオブジェクトの映像上の位置関係を識別する。そして、位置関係識別部30は、ターゲットオブジェクト位置・大きさ検出部12が検出したターゲットオブジェクトの中心点、注目領域の大きさ及び属性情報に、位置関係を識別したターゲットオブジェクトの優先順位を付して、CG画像選択部14に出力する。尚、上述した注目領域は一例であり、他の方法でもかまわない。例えば、顔を囲むL×Lの大きさの領域を注目領域としても良い。更に、ターゲットオブジェクトである人物の顔そのものを注目領域としても良い。   In this way, by focusing on the size of the identified target object on the video, the positional relationship identifying unit 30 identifies the positional relationship on the video of the target object identified by the image identifying unit 1. Then, the positional relationship identification unit 30 attaches the priority order of the target object that has identified the positional relationship to the center point of the target object, the size of the attention area, and the attribute information detected by the target object position / size detection unit 12. To the CG image selection unit 14. Note that the region of interest described above is an example, and other methods may be used. For example, an area of L × L size surrounding the face may be set as the attention area. Furthermore, the face of the person who is the target object may be used as the attention area.

尚、上述した例では、識別したターゲットオブジェクトの注目領域に着目して位置関係を識別したが、これに限られない。注目領域の大きさを決定したL等の長さに着目するようにしても良い。更に、例えば、ターゲットオブジェクト自体の映像内での選手の大きさでも良い。また、他の方法として、映像上にある基準点を利用する方法がある。基準点の例としては、映像上の消失点等がある。位置関係の特定は、まず、画像識別部1により、識別された選手の映像上の位置情報を取得する。映像上にある消失点と各選手の映像上の位置情報との距離を計算し、この距離が長い程、映像上手前にあると推定するようにしても良い。   In the above-described example, the positional relationship is identified by focusing on the attention area of the identified target object, but the present invention is not limited to this. You may make it pay attention to the length of L etc. which determined the magnitude | size of the attention area. Furthermore, for example, the size of the player in the video of the target object itself may be used. As another method, there is a method of using a reference point on the video. Examples of the reference point include a vanishing point on the video. For specifying the positional relationship, first, the image identifying unit 1 acquires positional information on the video of the identified player. The distance between the vanishing point on the video and the position information on the video of each player may be calculated, and it may be estimated that the longer this distance is, the closer to the video.

CG画像配置部15は、位置関係識別部30が識別したターゲットオブジェクトの優先順位で、上述した第1の実施の形態と同様に、CG画像の配置を行う。このとき、CG画像配置部15は、CG画像を配置するターゲットオブジェクトを、例えば、上位から1番目から3番目までの順位のターゲットオブジェクトとすることにより、配置するCG画像の数を制限することができる。   The CG image arrangement unit 15 arranges the CG images in the priority order of the target objects identified by the positional relationship identification unit 30 as in the first embodiment described above. At this time, the CG image placement unit 15 may limit the number of CG images to be placed by setting the target objects on which the CG images are placed, for example, as the target objects having the first to third ranks from the top. it can.

<第2の実施の形態の変形例>
第2の実施の形態の変形例を説明する。第2の実施の形態では、ターゲットオブジェクト(選手)の位置関係により、ターゲットオブジェクトの優先順位を設定する方法を説明した。第2の実施の形態の変形例では、ターゲットオブジェクト(選手)の位置関係により、ターゲットオブジェクト(選手)の優先順位を選定するまでは、同様であるが、ターゲットオブジェクト(選手)の優先順位を用いて、CG画像配置部15によるCG画像の配置位置の優先順位を変化させる例を説明する。
<Modification of Second Embodiment>
A modification of the second embodiment will be described. In the second embodiment, the method of setting the priority order of the target objects based on the positional relationship of the target objects (players) has been described. The modification of the second embodiment is the same until the priority order of the target object (player) is selected according to the positional relationship of the target object (player), but the priority order of the target object (player) is used. An example in which the priority order of the CG image placement position by the CG image placement unit 15 is changed will be described.

図17は第2の実施の形態の変形例を説明するための図である。図17の例では、CG画像配置部15によるCG画像の映像の画面上の配置位置の優先順位を示しており、ターゲットオブジェクト(選手)の走行順位が1から3位までの配置位置の優先順位と、ターゲットオブジェクト(選手)の走行順位が4以下の配置位置の優先順位とを示している。   FIG. 17 is a diagram for explaining a modification of the second embodiment. In the example of FIG. 17, the priority order of the placement positions on the screen of the CG image video by the CG image placement unit 15 is shown, and the priority orders of the placement positions of the target object (player) running ranks 1 to 3 are shown. And the priority order of the arrangement positions where the traveling order of the target object (player) is 4 or less.

ターゲットオブジェクト(選手)の走行順位が1から3位までの配置位置の優先順位は、高い順位に、180度の配置位置a、270度の配置位置c、90度の配置位置d、0度の配置位置bに設定されている。一方、ターゲットオブジェクト(選手)の走行順位が4位以下の配置位置の優先順位は、高い順位に、0度の配置位置b、270度の配置位置c、90度の配置位置d、180度の配置位置aに設定されている。   The priority order of the placement positions of the target object (player) with the running order from 1st to 3rd place is 180 degree placement position a, 270 degree placement position c, 90 degree placement position d, 0 degree. The arrangement position b is set. On the other hand, the priority order of the placement positions where the running order of the target object (player) is 4th or lower is higher, the placement position b of 0 degrees, the placement position c of 270 degrees, the placement position d of 90 degrees, and the position of 180 degrees. The arrangement position a is set.

このようなターゲットオブジェクト(選手)の走行順位によって、CG画像の画面上の配置位置の優先順位を変化させる理由は、走行順位が高いターゲットオブジェクト(選手)ほど、すなわち、映像の前方に映っているターゲットオブジェクト(選手)ほど、その選手のCG画像をターゲットオブジェクト(選手)の下方(例えば、配置位置a)に表示させ、走行順位が低いターゲットオブジェクト(選手)ほど、すなわち、映像の後方に映っているターゲットオブジェクト(選手)ほど、その選手のCG画像をターゲットオブジェクト(選手)の上方(例えば、配置位置b)に表示させることにある。   The reason why the priority of the arrangement position on the screen of the CG image is changed according to the running order of such target objects (players) is that the target object (player) with the higher running order is shown in front of the video. The target object (player) displays the CG image of the player below the target object (player) (for example, the arrangement position a), and the target object (player) with the lower running order, that is, appears behind the video. The target object (player) is to display the CG image of the player above the target object (player) (for example, the arrangement position b).

図18は、図17で示した配置順位により、選手Aから選手Fまでの6人の選手が映っている映像で、それらの選手のCG画像を表示した場合の一例を示した図である。図17では、1位から3位までの選手には走行順位が1から3位までの配置位置の優先順位が適用され、先頭の選手AのCG画像は優先順位が最も高い配置位置aに表示されており、2位の選手BのCG画像は優先順位が2番目の配置位置cに表示されており、3位の選手CのCG画像は優先順位が最も高い配置位置aに表示されている。一方、4位以下の選手には走行順位が4位以下の配置位置の優先順位が適用され、4位の選手DのCG画像は優先順位が最も高い配置位置bに表示されており、5位の選手EのCG画像は優先順位が最も高い配置位置bに表示されており、6位の選手FのCG画像は優先順位が最も高い配置位置bに表示されている。   FIG. 18 is a diagram showing an example in which six players from player A to player F are shown in the arrangement order shown in FIG. 17 and CG images of those players are displayed. In FIG. 17, the first to third players are assigned the priority of the placement positions from the first to the third run order, and the CG image of the first player A is displayed at the placement position a having the highest priority. The CG image of the second player B is displayed at the second arrangement position c, and the CG image of the third player C is displayed at the highest arrangement position a. . On the other hand, the priority of the arrangement position where the running order is the fourth or lower is applied to the player who is fourth or lower, and the CG image of the player D who is the fourth place is displayed at the arrangement position b having the highest priority. The CG image of the player E is displayed at the arrangement position b with the highest priority, and the CG image of the player F, which is the sixth place, is displayed at the arrangement position b with the highest priority.

上述した配置位置の優先順位は一例であり、これに限定するものではない。配置位置の優先順位は適時変更しても良い。   The priority of the arrangement position described above is an example, and the present invention is not limited to this. The priority of the arrangement position may be changed as appropriate.

このようにすることにより、映像上に多数のターゲットオブジェクト(選手)が映っている場合、走行順位が高いターゲットオブジェクト(選手)ほど、すなわち、前方に映っているターゲットオブジェクト(選手)ほど、そのターゲットオブジェクト(選手)のCG画像が下方(胸の位置)に表示され、走行順位が低いターゲットオブジェクト(選手)ほど、すなわち、後方に映っているターゲットオブジェクト(選手)ほど、そのターゲットオブジェクト(選手)のCG画像が上方に表示され、自然な映像表現を行うことができる。   By doing in this way, when a large number of target objects (players) are shown on the video, the target object (player) with the higher running order, that is, the target object (player) shown in the front is the target. A CG image of an object (player) is displayed below (chest position), and a target object (player) with a lower running order, that is, a target object (player) reflected in the rear of the target object (player). A CG image is displayed on the upper side, and natural video expression can be performed.

<第3の実施の形態>
コンテンツの内容によっては、登場するターゲットオブジェクトの大きさが変化しない場合も多いと思われる。例えば、屋上に設けられた定点カメラの映像等では、カメラがパン、チルトすることにより、画面内に登場するビルなどのオブジェクトは変更するが、その大きさ自体は変わらない場合が多い。このような映像にCG画像を配置する場合、ターゲットオブジェクトの位置を考慮すれば良いと思われる。
<Third Embodiment>
Depending on the content, the size of the target object that appears may not change. For example, in a fixed-point camera image or the like provided on a rooftop, an object such as a building that appears on the screen changes as the camera pans and tilts, but the size itself often does not change. When a CG image is arranged on such a video, it is considered that the position of the target object should be taken into consideration.

そこで、第3の実施の形態は、ターゲットオブジェクトの大きさを考慮せず、ターゲットオブジェクトの位置のみを考慮して、CG画像の画面に配置する例である。   Therefore, the third embodiment is an example in which the size of the target object is not taken into consideration, and only the position of the target object is taken into consideration, and arranged on the CG image screen.

図16は第3の実施の形態の画像合成装置1のブロック図である。   FIG. 16 is a block diagram of the image synthesizing apparatus 1 according to the third embodiment.

第3の実施の形態が第1の実施の形態と異なる所は、ターゲットオブジェクト位置・大きさ検出部12に代えて、ターゲットオブジェクト位置検出部40を備える点である。ターゲットオブジェクト位置検出部40は、画像認識部11の認識結果を受け、ターゲットオブジェクトの映像画面上の位置を検出する。すなわち、ターゲットオブジェクト位置・大きさ検出部12からターゲットオブジェクトの大きさを検出する機能が除かれている。   The third embodiment differs from the first embodiment in that a target object position detection unit 40 is provided instead of the target object position / size detection unit 12. The target object position detection unit 40 receives the recognition result of the image recognition unit 11 and detects the position of the target object on the video screen. That is, the function of detecting the size of the target object is excluded from the target object position / size detection unit 12.

更に、CG画像選択部14は、ターゲットオブジェクトの大きさにかかわらず、一つの大きさのCG画像を選択する。尚、上述したように、予め用意されたCG画像から選択するのではなく、リアルタイムにCG画像を生成するようにしても良い。   Further, the CG image selection unit 14 selects a CG image of one size regardless of the size of the target object. As described above, a CG image may be generated in real time instead of selecting from a CG image prepared in advance.

他の動作は、第1の実施の形態と同様なものなので、説明を省略する。   Since other operations are the same as those in the first embodiment, description thereof will be omitted.

以上好ましい実施の形態をあげて本発明を説明したが、全ての実施の形態の構成を備える必要はなく、適時組合せて実施することができるばかりでなく、本発明は必ずしも上記実施の形態に限定されるものではなく、その技術的思想の範囲内において様々に変形し実施することが出来る。   Although the present invention has been described with reference to the preferred embodiments, it is not necessary to have the configurations of all the embodiments, and not only can be implemented in combination in a timely manner, but the present invention is not necessarily limited to the above embodiments. However, various modifications can be made within the scope of the technical idea.

1 画像合成装置
2 コンピュータ
11 画像認識部
12 ターゲットオブジェクト位置・大きさ検出部
13 CG画像記憶部
14 CG画像選択部
15 CG画像配置部
16 画像合成部
21 プロセッサ
22 メモリ
23 記憶装置
24 入力装置
25 表示装置
26 通信装置
30 位置関係識別部
40 ターゲットオブジェクト位置検出部
DESCRIPTION OF SYMBOLS 1 Image composition apparatus 2 Computer 11 Image recognition part 12 Target object position and magnitude | size detection part 13 CG image memory | storage part 14 CG image selection part 15 CG image arrangement | positioning part 16 Image composition part 21 Processor 22 Memory 23 Storage device 24 Input device 25 Display Device 26 Communication device 30 Position relationship identification unit 40 Target object position detection unit

Claims (11)

映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成する画像合成装置であって、
前記映像から、前記ターゲットオブジェクトを画像認識する画像認識部と、
前記画像認識部により認識されたターゲットオブジェクトの映像上の位置を検出する位置検出部と、
前記位置検出部により検出されたターゲットオブジェクトの映像上の位置を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定する画像配置部と、
前記コンピュータグラフィク画像が前記画像配置部により決定された配置位置に重畳された映像を生成する画像合成部と
を有する画像合成装置。
An image composition device for compositing a computer graphic image related to a target object appearing in a video with the video,
An image recognition unit for recognizing the target object from the video;
A position detection unit for detecting a position on the video of the target object recognized by the image recognition unit;
An image arrangement unit that adaptively determines an arrangement position on the video of the computer graphic image using a position on the video of the target object detected by the position detection unit;
An image composition apparatus comprising: an image composition unit that generates a video in which the computer graphic image is superimposed on an arrangement position determined by the image arrangement unit.
前記画像配置部には、前記コンピュータグラフィク画像の配置位置の候補であり、優先順位が定められた複数の候補配置位置が予め定められ、前記画像配置部は、前記コンピュータグラフィク画像を、検出されたターゲットオブジェクトの映像上の位置を基準とした候補配置位置に配置した場合、前記コンピュータグラフィク画像の全てが映像上に表示され、かつ、最も優先順位の高い候補配置位置を、前記コンピュータグラフィク画像の配置位置と決定する
請求項1に記載の画像合成装置。
The image placement unit is a candidate for the placement position of the computer graphic image, and a plurality of candidate placement positions with priorities determined in advance, and the image placement unit detects the computer graphic image. When the target object is placed at a candidate placement position on the basis of the position on the video, all the computer graphic images are displayed on the video, and the highest priority candidate placement position is placed on the computer graphic image. The image composition device according to claim 1, wherein the image composition device determines the position.
前記画像認識部は、複数のターゲットオブジェクトを画像認識し、
前記画像配置部には、前記複数のターゲットオブジェクトの優先順位が予め定められ、前記画像配置部は、前記ターゲットオブジェクトの優先順位に従って、前記コンピュータグラフィク画像を前記候補配置位置に配置していき、前記コンピュータグラフィク画像の全てが映像上に表示され、優先順位の高いターゲットオブジェクトの所定の領域と前記コンピュータグラフィク画像とが重畳せず、かつ、最も優先順位の高い候補配置位置を、前記コンピュータグラフィク画像の配置位置と決定する
請求項2に記載の画像合成装置。
The image recognition unit recognizes a plurality of target objects,
In the image placement unit, the priority order of the plurality of target objects is determined in advance, and the image placement unit places the computer graphic image in the candidate placement position according to the priority order of the target objects, All of the computer graphic images are displayed on the video, the predetermined region of the target object having a high priority and the computer graphic image are not superimposed, and the candidate arrangement position having the highest priority is determined as the computer graphic image. The image synthesizing apparatus according to claim 2, wherein the image synthesizing apparatus is determined as an arrangement position.
前記画像認識部により認識されたターゲットオブジェクトの映像上の大きさを検出する大きさ検出部と、
前記大きさ検出部により検出されたターゲットオブジェクトの映像上の大きさに応じたコンピュータグラフィク画像を選択する画像選択部と
を有し、
前記画像配置部は、前記画像選択部により選択されたコンピュータグラフィク画像を、前記候補配置位置に配置する
請求項1から請求項3のいずれかに記載の画像合成装置。
A size detector for detecting the size of the target object recognized by the image recognition unit;
An image selection unit that selects a computer graphic image according to the size of the target object on the video detected by the size detection unit;
The image composition device according to any one of claims 1 to 3, wherein the image arrangement unit arranges the computer graphic image selected by the image selection unit at the candidate arrangement position.
前記大きさ検出部は、前記画像認識部により認識されたターゲットオブジェクトの少なくとも一部を含む注目領域の大きさを、前記ターゲットオブジェクトの映像上の大きさとして検出する
請求項4に記載の画像合成装置。
The image composition according to claim 4, wherein the size detection unit detects a size of a region of interest including at least a part of the target object recognized by the image recognition unit as a size on the video of the target object. apparatus.
前記ターゲットオブジェクトの所定の領域が、前記注目領域である
請求項5に記載の画像合成装置。
The image synthesizing apparatus according to claim 5, wherein the predetermined area of the target object is the attention area.
前記画像配置部は、複数のターゲットオブジェクトのうち、予め定められた優先順位のターゲットオブジェクトにのみ、前記コンピュータグラフィク画像を配置する
請求項1から請求項6のいずれかに記載の画像合成装置。
The image composition device according to any one of claims 1 to 6, wherein the image arrangement unit arranges the computer graphic image only on a target object having a predetermined priority order among a plurality of target objects.
複数のターゲットオブジェクトの位置関係を識別する位置関係識別部を有し、
前記画像配置部は、前記位置関係識別部が識別したターゲットオブジェクトの位置関係を用いて、予め定められた優先順位のターゲットオブジェクトにのみ、前記コンピュータグラフィク画像を配置する
請求項7に記載の画像合成装置。
A positional relationship identifying unit for identifying the positional relationship of a plurality of target objects;
The image composition unit according to claim 7, wherein the image arrangement unit arranges the computer graphic image only on a target object having a predetermined priority order using the positional relationship of the target objects identified by the positional relationship identification unit. apparatus.
前記画像配置部は、ターゲットオブジェクトの優先順位に応じて、前記候補配置位置の優先順位を異ならせる
請求項1から請求項8のいずれかに記載の画像合成装置。
The image composition device according to any one of claims 1 to 8, wherein the image arrangement unit changes the priority of the candidate arrangement positions according to the priority of the target object.
映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成する画像合成方法であって、
前記映像から、前記ターゲットオブジェクトを画像認識し、
認識されたターゲットオブジェクトの映像上の位置を検出し、
検出されたターゲットオブジェクトの映像上の位置を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定し、
前記コンピュータグラフィク画像が前記画像配置部により決定された配置位置に重畳された映像を生成する
画像合成方法。
An image composition method for compositing a computer graphic image related to a target object appearing in a video with the video,
Image recognition of the target object from the video,
Detect the position of the recognized target object on the video,
Using the position of the detected target object on the video, adaptively determining the position of the computer graphic image on the video;
An image synthesis method for generating a video in which the computer graphic image is superimposed on an arrangement position determined by the image arrangement unit.
映像中に出現するターゲットオブジェクトに関連するコンピュータグラフィク画像を前記映像に合成するコンピュータのプログラムであって、
前記映像から、前記ターゲットオブジェクトを画像認識する画像認識処理と、
前記画像認識処理により認識されたターゲットオブジェクトの映像上の位置を検出する位置検出処理と、
前記位置検出処理により検出されたターゲットオブジェクトの映像上の位置を用いて、前記コンピュータグラフィク画像の映像上の配置位置を適応的に決定する画像配置処理と、
前記コンピュータグラフィク画像が前記画像配置部により決定された配置位置に重畳された映像を生成する画像合成処理と
をコンピュータに実行させるプログラム。
A computer program for combining a computer graphic image related to a target object appearing in a video with the video,
Image recognition processing for recognizing the target object from the video;
A position detection process for detecting a position on the video of the target object recognized by the image recognition process;
An image arrangement process for adaptively determining an arrangement position on the video of the computer graphic image using a position on the video of the target object detected by the position detection process;
A program for causing a computer to execute an image composition process for generating a video in which the computer graphic image is superimposed on an arrangement position determined by the image arrangement unit.
JP2018212309A 2018-05-09 2018-11-12 Image synthesizing device, image synthesizing method and program Active JP7285045B2 (en)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2018090385 2018-05-09
JP2018090385 2018-05-09

Publications (2)

Publication Number Publication Date
JP2019200774A true JP2019200774A (en) 2019-11-21
JP7285045B2 JP7285045B2 (en) 2023-06-01

Family

ID=68611266

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018212309A Active JP7285045B2 (en) 2018-05-09 2018-11-12 Image synthesizing device, image synthesizing method and program

Country Status (1)

Country Link
JP (1) JP7285045B2 (en)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215097A (en) * 2006-02-13 2007-08-23 Matsushita Electric Ind Co Ltd Display data generating apparatus
JP2011234343A (en) * 2010-04-06 2011-11-17 Canon Inc Video processing apparatus and video processing method
WO2013021643A1 (en) * 2011-08-11 2013-02-14 パナソニック株式会社 Hybrid broadcast and communication system, data generation device, and receiver

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007215097A (en) * 2006-02-13 2007-08-23 Matsushita Electric Ind Co Ltd Display data generating apparatus
JP2011234343A (en) * 2010-04-06 2011-11-17 Canon Inc Video processing apparatus and video processing method
WO2013021643A1 (en) * 2011-08-11 2013-02-14 パナソニック株式会社 Hybrid broadcast and communication system, data generation device, and receiver

Also Published As

Publication number Publication date
JP7285045B2 (en) 2023-06-01

Similar Documents

Publication Publication Date Title
CN105938552B (en) Face recognition method and device for automatically updating base map
CN105027033B (en) Method, device and computer-readable media for selecting Augmented Reality object
JP6501501B2 (en) INFORMATION PROCESSING APPARATUS, INFORMATION PROCESSING METHOD, INFORMATION PROCESSING SYSTEM, AND PROGRAM
KR100845390B1 (en) Image processing apparatus, image processing method, record medium, and semiconductor device
EP2372653B1 (en) Image processing device and image processing method
AU2010366331B2 (en) User interface, apparatus and method for gesture recognition
WO2022022036A1 (en) Display method, apparatus and device, storage medium, and computer program
JP4916548B2 (en) Establish and use dominant lines of images
CN103914876B (en) For showing the method and apparatus of video on 3D maps
US11501471B2 (en) Virtual and real composite image data generation method, virtual and real images compositing system, trained model generation method, virtual and real composite image data generation device
JP2019057836A (en) Video processing device, video processing method, computer program, and storage medium
CN104508680B (en) Improved video signal is tracked
JP2011146796A5 (en)
JP2017102808A (en) Image processing device and method
US20130229342A1 (en) Information providing system, information providing method, information processing apparatus, method of controlling the same, and control program
US11709593B2 (en) Electronic apparatus for providing a virtual keyboard and controlling method thereof
US10032248B2 (en) Image switching method and apparatus
US10295403B2 (en) Display a virtual object within an augmented reality influenced by a real-world environmental parameter
CN108431871A (en) The method that object is shown on threedimensional model
US10546406B2 (en) User generated character animation
US11961190B2 (en) Content distribution system, content distribution method, and content distribution program
CN111918114A (en) Image display method, image display device, display equipment and computer readable storage medium
JP2019200774A (en) Image synthesizing device, image synthesizing method, and program
CN116863107A (en) Augmented reality providing method, apparatus, and non-transitory computer readable medium
CN115220636B (en) Virtual operation method, virtual operation device, electronic equipment and readable storage medium

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211102

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220722

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220907

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20221102

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230104

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230510

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230521

R150 Certificate of patent or registration of utility model

Ref document number: 7285045

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150