JP4983494B2 - Composite image output apparatus and composite image output processing program - Google Patents

Composite image output apparatus and composite image output processing program Download PDF

Info

Publication number
JP4983494B2
JP4983494B2 JP2007232207A JP2007232207A JP4983494B2 JP 4983494 B2 JP4983494 B2 JP 4983494B2 JP 2007232207 A JP2007232207 A JP 2007232207A JP 2007232207 A JP2007232207 A JP 2007232207A JP 4983494 B2 JP4983494 B2 JP 4983494B2
Authority
JP
Japan
Prior art keywords
image
data
transformation
image data
character
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007232207A
Other languages
Japanese (ja)
Other versions
JP2009064288A (en
Inventor
孝 湖城
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2007232207A priority Critical patent/JP4983494B2/en
Publication of JP2009064288A publication Critical patent/JP2009064288A/en
Application granted granted Critical
Publication of JP4983494B2 publication Critical patent/JP4983494B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Studio Circuits (AREA)
  • Image Analysis (AREA)

Description

本発明は、動画撮影された人物画像を他のキャラクタ画像に置き換えた合成画像を生成して出力するための合成画像出力装置および合成画像出力処理プログラムに関する。   The present invention relates to a composite image output apparatus and a composite image output processing program for generating and outputting a composite image obtained by replacing a person image captured with a moving image with another character image.

近年、特殊撮影の技術の進歩により、ミニチュア撮影、人物と背景画像の合成、コンピュータグラフィックと撮影画像の合成等により、現実にはない情景を画面上に作り出すことが可能となった。そして最近では、モーションキャプチャ技術と3D画像処理技術によって、予め動画撮影されたモデル(対象人物)の動きにそのまま対応させた任意のキャラクタ画像を動画表示させることができるようになっている。また動画にコメントを追加する画像合成もネットサービスを用いて一般に行なわれるようになってきた。   In recent years, with the advancement of special photography technology, it has become possible to create scenes that do not exist on the screen by miniature photography, composition of a person and a background image, composition of a computer graphic and a photographed image, and the like. Recently, an arbitrary character image corresponding to the motion of a model (target person) captured in advance as a moving image can be displayed as a moving image by the motion capture technology and the 3D image processing technology. In addition, image composition for adding comments to moving images has been generally performed using a net service.

また従来、同一出願人において、デジタルカメラにより撮影された撮影画像に含まれる各画像部分までの距離情報に応じて、当該撮影画像から置き換え対象となる人物画像を抽出し、この抽出された対象人物画像のポーズ(姿勢)に応じた他のキャラクタ画像からなるまね画像を、当該対象人物画像に置き換え合成して表示する画像出力装置が考えられている(例えば、特許文献1参照。)。   Conventionally, in the same applicant, a person image to be replaced is extracted from the photographed image according to distance information to each image portion included in the photographed image photographed by the digital camera, and the extracted target person An image output device is conceivable in which a mimic image composed of another character image corresponding to an image pose (posture) is replaced with a target person image and displayed (for example, refer to Patent Document 1).

また、同一出願人において、通信ネットワーク上の端末装置から送られてくる撮影された置き換え対象となる人物画像の姿勢を示すポーズ情報を受信し、このポーズ情報に対応した姿勢のキャラクタ画像をデータベースから読み出して前記端末装置へ送信提供する画像配信サーバも考えられている(例えば、特許文献2参照。)。また、撮影画像中で、サーチする顔画像を記憶しておき、それと同じ顔を特定し、漫画や別の顔画像におきかえたキャラクタ画像に置き換え合成して表示する画像出力装置が考えられている(例えば、特許文献3参照。)。   Further, the same applicant receives pose information indicating the posture of the person image to be replaced that is sent from the terminal device on the communication network, and the character image of the posture corresponding to the pose information is received from the database. An image distribution server that reads out and provides a transmission to the terminal device is also considered (for example, see Patent Document 2). In addition, an image output device is conceived in which a face image to be searched is stored in a photographed image, the same face is specified, and a character image replaced with a cartoon or another face image is combined and displayed. (For example, refer to Patent Document 3).

このような従来の画像出力装置や画像配信サーバによれば、撮影画像の中の任意の対象人物画像を他のキャラクタ画像に置き換え合成して表示あるいはプリントすることが可能となり、ユーザ本人や知人を他のキャラクタ画像に置き換えて楽しんだり、あるいは他人に見られてはいけない人物を対象に他のキャラクタ画像に置き換えて隠したりして、撮影画像を様々な状況でより効果的に利用することができる。   According to such a conventional image output device or image distribution server, it is possible to replace an arbitrary target person image in a photographed image with another character image, and display or print it. You can enjoy using images by replacing them with other character images, or you can use the captured images more effectively in various situations by replacing them with other character images and hiding people who should not be seen by others. .

特許第3901015号公報Japanese Patent No. 3901015

特許第3918632号公報Japanese Patent No. 3918632

特開2005−50012号公報Japanese Patent Laying-Open No. 2005-50012

前記従来における撮影人物画像の他のキャラクタ画像への置き換え合成技術では、静止画、動画、何れの場合でも、その対象人物画像をそのまま置き換え合成しているだけなので、特に、動画撮影された人物画像について、特撮やアニメーションのように対象人物の意志をもって他のキャラクタ画像に変化(変身)させ、一連のシーンとなるような合成画像を生成することは困難な問題がある。また怪獣映画など、怪獣役や変身ヒーロー役等を予め決めて演技することになるが、このような役割を決めた画像合成は、これまでできなかった。   In the conventional technique for replacing a photographed person image with another character image, the target person image is replaced and synthesized as it is in either case of a still image or a moving image. As for special effects and animations, it is difficult to change (transform) other character images with the will of the target person and generate a composite image that forms a series of scenes. In addition, monster movies, transformation hero roles, etc. will be performed in advance, such as monster movies, but image composition that has decided such a role has not been possible so far.

本発明は、このような課題に鑑みなされたもので、動画撮影された人物画像について、役割を予め決めておき、対応するキャラクタ画像に置き換えた合成画像を生成することが可能になる合成画像出力装置および合成画像出力処理プログラムを提供することを目的とする。   The present invention has been made in view of such a problem, and it is possible to generate a composite image that can generate a composite image in which a role is determined in advance and replaced with a corresponding character image for a human image that has been shot. An object is to provide an apparatus and a composite image output processing program.

請求項1に記載の合成画像出力装置は、変身対象の人物画像と役柄別の変身キャラクタの画像データとを対応付けて記憶する役柄データ記憶手段と、動画撮影された一連の撮影画像データを取得する撮影画像取得手段と、この撮影画像取得手段により取得された一連の撮影画像データの中から、前記役柄データ記憶手段に記憶された変身対象の人物画像を検出する役柄人物検出手段と、この役柄人物検出手段により検出された人物画像に対応づけて前記役柄データ記憶手段により記憶されている変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の変身キャラクタの画像データに置き換えた合成画像データを生成する合成画像生成手段と、この合成画像生成手段により生成された一連の合成画像データを出力する合成画像出力手段と、を備え、前記役柄データ記憶手段は、役柄別に変身キャラクタの画像データおよび音声データと当該変身キャラクタを示すマークデータとを対応付けて記憶し、前記合成画像生成手段は、前記人物画像が検出された撮影画像データについて、当該検出された人物画像に前記役柄データ記憶手段により記憶されている変身キャラクタを示すマークデータを付加したマーク付き撮影画像データを生成するマーク付き撮影画像生成手段を有し、このマーク付き撮影画像生成手段により生成されたマーク付き撮影画像データについて、前記変身キャラクタを示すマークデータが付加された人物画像を、前記役柄データ記憶手段により記憶されている変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の変身キャラクタの画像データに置き換えると共に、該変身キャラクタの音声データを対応付けた合成画像データを生成し、前記撮影画像取得手段による一連の撮影画像データの取得に伴い、前記マーク付き撮影画像生成手段により生成されたマーク付き撮影画像データを表示させるマーク付き撮影画像表示制御手段と、このマーク付き撮影画像表示制御手段による前記マーク付き撮影画像データの表示制御に伴い、当該マーク付き撮影画像データのマークデータに対応付けられて前記役柄データ記憶手段により記憶されている変身キャラクタの音声データを読み出して出力させる音声出力制御手段と、をさらに備えたことを特徴としている。 The composite image output apparatus according to claim 1, wherein a character data storage unit that stores a person image to be transformed and image data of a transformation character for each character in association with each other, and obtains a series of photographed image data captured by moving images. A captured image acquisition means, a role person detection means for detecting a transformation target person image stored in the role data storage means, from the series of captured image data acquired by the captured image acquisition means, and the role Based on the image data of the transformation character stored in the character data storage unit in association with the person image detected by the person detection unit, the combined image data replaced with the image data of the transformation character having the same posture as the person image. A composite image generating means for generating the composite image output means for outputting a series of composite image data generated by the composite image generating means; When, wherein the role data storage means in association with the mark data indicating the image data and audio data and the transformed character transformed character by role, the composite image generation means, the person image is detected For the captured image data, there is a marked photographic image generation means for generating marked photographic image data in which mark data indicating a transformation character stored in the role data storage means is added to the detected person image. In addition, with respect to the marked photographed image data generated by the marked photographed image generating means, the person image to which the mark data indicating the transformation character is added is used as the transformation character image data stored by the character data storage means. Image data of a transformation character with the same posture as the person image At the same time, the composite image data in which the voice data of the transformation character is associated is generated, and with the acquisition of a series of captured image data by the captured image acquisition unit, the marked-captured shooting is generated by the marked captured image generation unit In accordance with display control of the marked photographic image data by the marked photographic image display control means for displaying the image data, and the marked photographic image display control means, the mark photographic image data is associated with the mark data of the photographic image data with the mark. Voice output control means for reading out and outputting the voice data of the transformation character stored in the role data storage means is further provided .

請求項2に記載の合成画像出力装置は、前記請求項1に記載の合成画像出力装置において、前前記役柄データ記憶手段は、さらに、前記役柄別に第2の変身キャラクタの画像データを記憶し、前記検出された人物画像により、予め設定された変身身振りが行われたことを検出する変身身振り検出手段を有し、前記合成画像生成手段は、この変身身振り検知手段により変身身振りが行われたことが検出された以後の撮影画像データについて、前記検出された人物画像に対応する役柄別の第2の変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の第2の変身キャラクタの画像データに置き換えた合成画像データを生成する、ことを特徴としている。   The composite image output device according to claim 2, in the composite image output device according to claim 1, wherein the character data storage unit further stores image data of a second transformation character for each character, The detected person image has a transformation gesture detection means for detecting that a preset transformation gesture has been performed, and the composite image generation means has been transformed by the transformation gesture detection means. The image data of the second transformation character having the same posture as the person image is obtained based on the image data of the second transformation character for each role corresponding to the detected person image. It is characterized by generating the replaced composite image data.

請求項3に記載の合成画像出力装置は、前記請求項1に記載の合成画像出力装置において、前記役柄データ記憶手段は、役柄別に変身キャラクタの画像データおよび音声データとを対応付けて記憶し、前記合成画像生成手段は、前記人物画像が検出された撮影画像データについて、当該検出された人物画像を前記変身データ記憶手段により記憶されている変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の変身キャラクタの画像データに置き換えると共に、当該変身キャラクタの音声データを対応付けた合成画像データを生成する、ことを特徴としている The composite image output device according to claim 3 is the composite image output device according to claim 1, wherein the character data storage unit stores the image data and the sound data of the transformation character in association with each character, The synthesized image generating means has the same posture as the person image based on the image data of the transformation character stored in the transformation data storage means for the photographed image data from which the person image is detected. It is characterized by generating synthetic image data in which voice data of the transformation character is associated with the image data of the transformation character .

請求項に記載の合成画像出力処理プログラムは、コンピュータを、変身対象の人物画像と役柄別の変身キャラクタの画像データとを対応付けて記憶する役柄データ記憶手段、動画撮影された一連の撮影画像データを取得する撮影画像取得手段、この撮影画像取得手段により取得された一連の撮影画像データの中から、前記役柄データ記憶手段に記憶された変身対象の人物画像を検出する役柄人物検出手段、この役柄人物検出手段により検出された人物画像に対応づけて、前記役柄データ記憶手段により記憶されている変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の変身キャラクタの画像データに置き換えた合成画像データを生成する合成画像生成手段、この合成画像生成手段により生成された一連の合成画像データを出力する合成画像出力手段、として機能させ、前記役柄データ記憶手段は、役柄別に変身キャラクタの画像データおよび音声データと当該変身キャラクタを示すマークデータとを対応付けて記憶するように機能させ、前記合成画像生成手段は、前記人物画像が検出された撮影画像データについて、当該検出された人物画像に前記役柄データ記憶手段により記憶されている変身キャラクタを示すマークデータを付加したマーク付き撮影画像データを生成するマーク付き撮影画像生成手段を有するように機能させ、前記マーク付き撮影画像生成手段により生成されたマーク付き撮影画像データについて、前記変身キャラクタを示すマークデータが付加された人物画像を、前記役柄データ記憶手段により記憶されている変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の変身キャラクタの画像データに置き換えると共に、該変身キャラクタの音声データを対応付けた合成画像データを生成するように機能させ、さらに、前記撮影画像取得手段による一連の撮影画像データの取得に伴い、前記マーク付き撮影画像生成手段により生成されたマーク付き撮影画像データを表示させるマーク付き撮影画像表示制御手段、このマーク付き撮影画像表示制御手段による前記マーク付き撮影画像データの表示制御に伴い、当該マーク付き撮影画像データのマークデータに対応付けられて前記役柄データ記憶手段により記憶されている変身キャラクタの音声データを読み出して出力させる音声出力制御手段、として機能させることを特徴としている。 5. The composite image output processing program according to claim 4 , wherein the computer stores a character data storage means for storing a person image to be transformed and image data of a transformation character for each character in association with each other, a series of photographed images taken by moving images Captured image acquisition means for acquiring data, and a role person detection means for detecting a person image to be transformed stored in the role data storage means from a series of captured image data acquired by the captured image acquisition means, A composite image that is associated with the person image detected by the role person detecting means and replaced with the image data of the transformed character having the same posture as the person image based on the image data of the transformed character stored in the role data storing means. A composite image generation means for generating data, and a series of composite image data generated by the composite image generation means are output. Composite image output means for, to function as, the role data storage means is operable to store in association with the mark data indicating the image data and audio data and the transformed character transformed character by role, the composite image The generating unit generates, for the captured image data from which the person image is detected, marked imaged image data in which mark data indicating a transformation character stored in the role data storage unit is added to the detected person image. It is made to function so as to have a photographed image generation unit with a mark, and for the photographed image data with a mark generated by the photographed image generation unit with a mark, a person image to which mark data indicating the transformation character is added is stored in the character data storage To the image data of the transformation character stored by the means Then, it is replaced with image data of a transformation character having the same posture as that of the person image, and functions to generate synthesized image data in which the voice data of the transformation character is associated, and a series of photographing by the photographed image acquisition means Along with the acquisition of the image data, the marked photographic image display control means for displaying the marked photographic image data generated by the marked photographic image generation means, and the marked photographic image display control means of the marked photographic image display control means with the display control, the Rukoto to function as the audio output control means for outputting the read audio data transformation character stored by the role data storage means associated with the mark data of the photographic image data with the mark It is a feature.

請求項に記載の合成画像出力処理プログラムは、前記請求項4に記載の合成画像出力処理プログラムにおいて、前記役柄データ記憶手段は、前記コンピュータを、役柄別の変身キャラクタの画像データを、複数種類、選択的にダウンロードしてメモリに記憶する手段として機能させることを特徴としている。
The composite image output processing program according to claim 5 is the composite image output processing program according to claim 4, wherein the character data storage means includes a plurality of types of image data of a transformation character for each character. , And functioning as means for selectively downloading and storing in a memory.

本発明によれば、動画撮影された人物画像について、怪獣役や変身ヒーロー役等を予め役割を決めた合成画像を生成することが可能になる合成画像出力装置および合成画像出力処理プログラムを提供できる。   According to the present invention, it is possible to provide a composite image output device and a composite image output processing program capable of generating a composite image in which roles of a monster role and a transformation hero role are determined in advance for a human image taken with a moving image. .

以下図面により本発明の実施の形態について説明する。
図1は、本発明の合成画像出力装置の実施形態に係るデジタルカメラ10を利用した動画像の撮影状態と合成画像の生成状態を示す概念図である。
このデジタルカメラ10は、その背面にLCD表示部11、入力部12、音声出力部(スピーカ)13を備え、入力部12の操作に応じて撮影される動画像(撮影画像)Gは、リアルタイムで表示部11に表示される。
Embodiments of the present invention will be described below with reference to the drawings.
FIG. 1 is a conceptual diagram illustrating a moving image shooting state and a combined image generation state using a digital camera 10 according to an embodiment of a combined image output device of the present invention.
The digital camera 10 includes an LCD display unit 11, an input unit 12, and an audio output unit (speaker) 13 on the back surface thereof, and a moving image (captured image) G photographed according to the operation of the input unit 12 is real-time. It is displayed on the display unit 11.

このデジタルカメラ10は、主要な機能として、撮影中の動画像Gに含まれる人物・物体画像(P,K,A,B)を抽出する機能、抽出された人物画像が予め登録された人物画像(P)であるか否かを顔画像を認識処理して識別する機能、抽出された人物画像が予め登録された人物画像(P)である場合にその登録人物画像(P)に対応付けて予め設定された役柄変身画像(24Gw1)のマーク(役柄変身マーク24Mw1)を付加する機能、前記役柄変身マーク24Mw1の付加された人物画像(P)を同予め設定された役柄変身画像(24Gw1)に置き換える機能、抽出された人物画像の予め設定された身振り(モーション)を検出する機能、予め設定された身振りが検出された人物画像(K)について、その人物画像(K)の役柄が予め設定されていて、その役柄の変身条件が「変身ポーズを検知後」である場合に、その身振り検出時点から予め設定された役柄変身画像(24Gw3)のマーク(変身マーク24Mw3’)を付加する機能、前記変身マーク24Mu3’の付加された人物画像(K)を同予め設定された役柄変身画像(24Gw3’)に置き換える機能、抽出された物体画像が予め登録された破壊対象画像(A,B)である場合にその破壊対象画像(A,B)に対応付けて予め設定された破壊画像(15Ga,15Gb)のマーク(破壊マーク15Ma,15Mb)を付加する機能、前記破壊マーク15Ma,15Mbの付加された破壊対象画像(A,B)を同予め設定された破壊画像(15Ga,15Gb)に置き換える機能、そして、前記抽出された人物画像(P,K)の動きを捉えて前記役柄変身画像(24Gw)や役柄変身画像(24Gw3’)の3D画像に変換するためのモーションキャプチャ処理機能、3D画像処理機能などを有する。   The digital camera 10 has, as main functions, a function of extracting a person / object image (P, K, A, B) included in the moving image G being shot, and a person image in which the extracted person images are registered in advance. A function of recognizing whether or not the image is (P) by recognizing the face image; if the extracted person image is a person image (P) registered in advance, it is associated with the registered person image (P) A function for adding a mark (posture transformation mark 24Mw1) of a pre-set role change image (24Gw1), and a person image (P) to which the post-posture change mark 24Mw1 is added to the pre-set role change image (24Gw1) The function of the person image (K) for the function to replace, the function to detect the preset gesture (motion) of the extracted person image, and the person image (K) from which the preset gesture has been detected When the transformation condition for the role is “after detecting a transformation pose”, a mark (transformation mark 24Mw3 ′) of the role transformation image (24Gw3) set in advance from the gesture detection time is added. Function, a function to replace the person image (K) to which the transformation mark 24Mu3 ′ is added with the pre-set role transformation image (24Gw3 ′), a destruction target image (A, B in which the extracted object image is registered in advance) ), A function of adding marks (destruction marks 15Ma, 15Mb) of destruction images (15Ga, 15Gb) set in advance in association with the destruction target images (A, B), and the destruction marks 15Ma, 15Mb A function for replacing the added destruction target images (A, B) with the preset destruction images (15Ga, 15Gb), and the extracted Object image (P, K) the captures motion role transformation image (24Gw) and motion capture processing function for converting 3D images of the role transformation image (24Gw3 ') of having such 3D image processing function.

なお、前記顔画像認識処理、モーションキャプチャ処理、3D画像処理については、周知の画像処理技術であるためその詳細な説明を省略する。
このような主要な機能を有するデジタルカメラ10を、例えば家族で利用してその父親Pを怪獣役、子供Kを○○マン役とした一連のシーンを母親が動画撮影して遊ぶ場合に、当該デジタルカメラ10において、父親Pの顔画像を怪獣画像(役柄画像24Gw)に対応付けて予め登録し、子供Kの顔画像を変身前の隊員画像(変身(1)画像24Gw3)と変身後の○○マン画像(変身(2)画像24Gw3’)に対応付けて予め登録すると共に、ビール瓶Aと紙飛行機Bの破壊対象画像をそれぞれ塔と飛行機の破壊画像15Gaと15Gbに対応付けて予め登録する。
The face image recognition process, the motion capture process, and the 3D image process are well-known image processing techniques, and thus detailed description thereof is omitted.
When a digital camera 10 having such a main function is used by a family, for example, when a mother plays a series of scenes in which the father P serves as a monster and the child K serves as a man, In the digital camera 10, the face image of the father P is registered in advance in association with the monster image (the role image 24Gw), and the face image of the child K is converted into the member image before the transformation (the transformation (1) image 24Gw3) and the ○ after the transformation. ○ Register in advance in association with the man image (transformation (2) image 24Gw3 ′) and register the destruction target images of the beer bottle A and the paper airplane B in association with the destruction images 15Ga and 15Gb of the tower and the airplane, respectively.

そして、父親Pによってビール瓶Aを倒したり、飛んで来る紙飛行機Bを叩き落としたりするのに伴い、子供Kが変身のためのモーション(身振り)をして○○マンに変身しようとする一連のシーンを、母親がデジタルカメラ10により動画撮影する。
撮影中の動画像Gは、図1(A)に示すように、リアルタイムで表示部11に表示されると共に、本デジタルカメラ10が有する前記各種の機能によって解析され、父親Pの人物画像には、対応する怪獣画像(役柄画像24Gw)を示す役柄変身マーク24Mwが付加表示され、子供Kの人物画像には、予め設定された身振り(モーション)が検出された時点以降、該当する役柄に応じて変身した○○マン画像(役柄変身画像24Gw3’)を示す変身マーク24Mw3’が付加表示される。また、ビール瓶Aには、対応する塔の破壊画像15Gaを示す破壊マーク15Maが付加表示され、紙飛行機Bには、対応する飛行機の破壊画像15Gbを示す破壊マーク15Maが付加表示される。
Then, as the father P defeats the beer bottle A or knocks down the flying paper airplane B, a series of children K tries to transform into XX man with a motion for transformation. The scene is taken by the mother using the digital camera 10.
As shown in FIG. 1A, the moving image G being shot is displayed on the display unit 11 in real time and analyzed by the various functions of the digital camera 10. In addition, a role transformation mark 24Mw indicating a corresponding monster image (a role image 24Gw) is additionally displayed, and the character image of the child K is displayed in accordance with a corresponding role after a preset gesture (motion) is detected. A transformation mark 24Mw3 ′ indicating the transformed XX man image (role transformation image 24Gw3 ′) is additionally displayed. The beer bottle A is additionally displayed with a destruction mark 15Ma indicating the destruction image 15Ga of the corresponding tower, and the paper airplane B is additionally displayed with a destruction mark 15Ma indicating the destruction image 15Gb of the corresponding airplane.

これにより撮影中の母親は、父親Pや子供Kの人物画像がその役柄通りに変身処理され、またビール瓶Aや紙飛行機Bの物体画像がその登録通りに置き換え処理されていることを容易に認識することができる。
またこの際、前記怪獣画像(役柄変身画像24Gw)と○○マン画像(役柄変身画像24Gw3’)にそれぞれ対応付けられて予め記憶されている音声データ「ガオー」「ター、ター」が読み出され音声出力部13から出力されることで、各役柄を演じている最中の父親Pや子供Kにあっても、自らがその役柄通りに変身処理されていることを容易に認識することができる。
As a result, the mother being photographed easily recognizes that the human P images of the father P and the child K have been transformed according to their roles, and that the object images of the beer bottle A and the paper plane B have been replaced as registered. can do.
At this time, the voice data “Gao” and “Tur, ter” stored in advance in association with the monster image (the role transformation image 24Gw) and the XX man image (the role transformation image 24Gw3 ′) are read out. By outputting from the voice output unit 13, even in the father P or the child K who is playing each role, it can be easily recognized that the transformation process is performed according to the role. .

なお、前記撮影された動画像(撮影画像)Gに対して役柄変身マーク24Mw、24Mw3、24Mw3’、破壊マーク15Ma,15Mbが付加された動画像をマーク付き撮影画像Gmと称する。
この後、前記一連のシーンの動画像Gの撮影が終了すると共にそのマーク付き撮影画像Gmが生成されると、当該マーク付き撮影画像Gmが前記各種の機能によって解析され、図1(B)に示すように、前記役柄変身マーク24Mwの付加された父親Pの人物画像に対応する怪獣の役柄変身画像24Gw1と、前記役柄変身マーク24Mw3’の付加された子供Kの人物画像に対応する○○マンの変身画像24Gw3’、および前記各破壊マーク15Ma,15Mbの付加されたビール瓶Aと紙飛行機Bの各破壊対象画像に対応する塔と飛行機の各破壊画像15Ga,15Gbが、予め設定された背景画像BGに合成されてなる合成動画像GGが生成される。
A moving image in which the role transformation marks 24Mw, 24Mw3, 24Mw3 ′ and the destruction marks 15Ma, 15Mb are added to the captured moving image (captured image) G is referred to as a marked captured image Gm.
Thereafter, when the shooting of the moving image G of the series of scenes is finished and the captured image Gm with the mark is generated, the captured image Gm with the mark is analyzed by the various functions, and is shown in FIG. As shown, the monster role transformation image 24Gw1 corresponding to the person image of the father P to which the role transformation mark 24Mw is added and the child K person image to which the role transformation mark 24Mw3 ′ is added. Transformation image 24Gw3 ′ and the destruction images 15Ga and 15Gb of the tower and the plane corresponding to the destruction target images of the beer bottle A and the paper airplane B to which the destruction marks 15Ma and 15Mb are added are set as background images. A synthesized moving image GG synthesized with BG is generated.

なお、前記ビール瓶Aと紙飛行機Bの各破壊対象画像に対応付けられた各破壊画像15Ga,15Gbは、何れもその破壊対象画像(A,B)に対して、前記役柄変身マーク24Mw1や変身マーク14Mw1が付加された父親Pや子供Kの人物画像が接触したことを検知して予め記憶された破壊後の画像に置き換え合成される。   Note that the destruction images 15Ga and 15Gb associated with the destruction target images of the beer bottle A and the paper airplane B are both the character change mark 24Mw1 and the transformation mark with respect to the destruction target images (A, B). It is detected that a father P or a child K image to which 14 Mw1 has been added is in contact with the image and is replaced with a pre-stored image after destruction.

これによりユーザ家族は、容易に特撮風の合成動画像GGを作ることができ、建造物や飛行機などの破壊シーンについて、撮影画像中のビール瓶Aと紙飛行機Bの各破壊対象を、対応する塔と飛行機の各破壊画像に置き換え合成された画像を含む一連の合成動画像GGを表示部11に出力表示させて見たり、外部のモニタに出力表示させて見たりすることで、これまでにない楽しみを得ることができる。このように動画撮影された画像について、物体の破壊画像との合成を容易かつ効果的に行える。
図2は、前記デジタルカメラ10(通信端末A)の電子回路の構成を示すブロック図である。
As a result, the user family can easily create a special-effects-like synthesized moving image GG, and the destruction towers corresponding to the beer bottle A and the paper airplane B in the photographed image are destroyed by the corresponding tower. And a series of synthesized moving images GG including images that have been replaced and combined with the respective destruction images of the airplane are output and displayed on the display unit 11 or output and displayed on an external monitor, which is unprecedented. You can get fun. Thus, it is possible to easily and effectively synthesize the image captured with the moving image with the destruction image of the object.
FIG. 2 is a block diagram showing a configuration of an electronic circuit of the digital camera 10 (communication terminal A).

このデジタルカメラ10は、コンピュータであるCPU16を備えている。
CPU16は、メモリ17に予め記憶されたシステムプログラム、あるいはメモリカードなどの外部記録媒体18からカードスロットなどの記録媒体読取部19を介して前記メモリ17に読み込まれたカメラ制御プログラム、あるいは通信ネットワーク(N)上のサーバ装置30(この場合はプログラムサーバ)から電送制御部20を介して前記メモリ17に読み込まれたカメラ制御プログラムに従い回路各部の動作を制御する。
The digital camera 10 includes a CPU 16 that is a computer.
The CPU 16 is a system program stored in the memory 17 in advance, a camera control program read from the external recording medium 18 such as a memory card into the memory 17 via a recording medium reading unit 19 such as a card slot, or a communication network ( N) The operation of each part of the circuit is controlled according to the camera control program read into the memory 17 from the server device 30 (in this case, the program server) via the power transmission control unit 20.

CPU16には、前記LCD表示部11、入力部12、音声出力部13、メモリ17、記録媒体読取部19、電送制御部20が接続される他に、固体撮像素子(CCD)や撮像光学系および距離センサや照度センサを備えた画像撮影部2lが接続される。
前記メモリ17のプログラムメモリ22には、本デジタルカメラ10の全体の動作を司るシステムプログラムや撮影動作を司るカメラ制御プログラム、通信ネットワークN上のサーバ装置30や外部の通信端末B(PC:personal computer)40との通信動作を司る通信制御プログラムが記憶されると共に、前記画像撮影部21により撮影された撮影画像Gに基づいて、前述したマーク付き撮影画像Gmや合成画像GGを生成したり出力したりするための前記各種の機能を司る画像処理プログラムが予め記憶される。
The CPU 16 is connected to the LCD display unit 11, the input unit 12, the audio output unit 13, the memory 17, the recording medium reading unit 19, and the power transmission control unit 20, as well as a solid-state imaging device (CCD), an imaging optical system, and the like. An image photographing unit 21 having a distance sensor and an illuminance sensor is connected.
The program memory 22 of the memory 17 includes a system program that controls the entire operation of the digital camera 10, a camera control program that controls the photographing operation, a server device 30 on the communication network N, and an external communication terminal B (PC: personal computer). ) A communication control program for controlling the communication operation with 40 is stored, and based on the captured image G captured by the image capturing unit 21, the above-described marked captured image Gm and composite image GG are generated and output. An image processing program that manages the various functions for storing the image is stored in advance.

そして、前記プログラムメモリ22に記憶された各種のプログラムは、入力部12からのキー入力信号や画像撮影部21からの撮影入力信号、電送制御部20を介した外部機器(30,40)からの受信入力信号に応じて起動される。
また、前記メモリ17には、変身データメモリ14、特殊効果データメモリ23、破壊データメモリ15、役柄データメモリ24A、役柄別変身状態メモリ24B、撮影画像データメモリ25、マーク付き撮影画像データメモリ26、合成画像データメモリ27、およびその他の作業用データメモリなどが備えられる。
The various programs stored in the program memory 22 are a key input signal from the input unit 12, a shooting input signal from the image shooting unit 21, and an external device (30, 40) via the transmission control unit 20. It is activated in response to the received input signal.
The memory 17 includes a transformation data memory 14, a special effect data memory 23, a destruction data memory 15, a role data memory 24A, a role-specific transformation status memory 24B, a shot image data memory 25, a marked shot image data memory 26, A composite image data memory 27 and other work data memory are provided.

図3は、前記デジタルカメラ10の変身データメモリ14に予め記憶される変身データの内容を示す図である。
この変身データメモリ14は、変身モーションモデルデータ14Pと変身画像データ14Guと変身マークデータ14Muの記憶領域を有し、変身画像データ14Guの記憶領域には、複数種類の変身画像データ(変身キャラクタ)およびその音声データが、例えば○○マンAの変身画像データ14Gu1およびその音声データ「シュワッチ」14Su1、初代○○マンの変身画像データ14Gu2およびその音声データ「ヤー・ター」14Su2として記憶される。また、変身マークデータ14Muの記憶領域には、前記複数種類の変身画像データ14Gu1,14Gu2をそれぞれ簡易表現する変身マークデータ14Mu1,14Mu2が記憶される。そして、変身モーションモデルデータ14Pの記憶領域には、前記複数種類の変身画像データ14Gu1,14Gu2にそれぞれ変身するための一連のモーション(身振り)からなる変身モーションモデルデータ14P1a〜14P1c,14P2a〜14P2cが記憶される。
FIG. 3 is a diagram showing the contents of the transformation data stored in advance in the transformation data memory 14 of the digital camera 10.
The transformation data memory 14 has storage areas for transformation motion model data 14P, transformation image data 14Gu, and transformation mark data 14Mu. The storage area for transformation image data 14Gu includes a plurality of types of transformation image data (transformation characters) and The audio data is stored as, for example, XX Man A's transformation image data 14Gu1 and its audio data “Swatch” 14Su1, the first XX Man's transformation image data 14Gu2 and its audio data “Ya Tah” 14Su2. Further, in the storage area of the transformation mark data 14Mu, transformation mark data 14Mu1 and 14Mu2 that respectively express the plurality of types of transformation image data 14Gu1 and 14Gu2 in a simplified manner are stored. In the storage area of the transformation motion model data 14P, transformation motion model data 14P1a to 14P1c and 14P2a to 14P2c including a series of motions (gestures) for transformation into the plural types of transformation image data 14Gu1 and 14Gu2 are stored. Is done.

なお、前記変身画像データ14Gu1,14Gu2は、様々な動きを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データと3D画像生成用データとの組み合わせとして記憶される。また前記変身モーションモデルデータ14P1a〜14P1c,14P2a〜14P2cは、当該変身モーションを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データとして記憶される。   The transformed image data 14Gu1 and 14Gu2 are stored as image data itself representing various movements, or a combination of movement data of limb skeletons and facial feature points and 3D image generation data. The transformation motion model data 14P1a to 14P1c and 14P2a to 14P2c are stored as image data representing the transformation motion itself, or movement data of the limb skeleton and facial feature points.

図4は、前記デジタルカメラ10の特殊効果データメモリ23に予め記憶される特殊効果データの内容を示す図である。
この特殊効果データメモリ23は、特殊効果モーションモデルデータ23Pと特殊効果画像データ23Guと特殊効果マークデータ23Muの記憶領域を有し、特殊効果画像データ23Guの記憶領域には、前記複数種類の変身画像データ14Gu1,14Gu2にそれぞれ対応する特殊効果画像データおよびその音声データが、例えば○○マンA用の特殊効果画像データ23Gu1およびその音声データ「ビビビビー」23Su1、初代○○マン用の特殊効果画像データ23Gu2およびその音声データ「ピーバリバリー」23Su2として記憶される。また、特殊効果マークデータ23Muの記憶領域には、前記複数種類の特殊効果画像データ23Gu1,23Gu2をそれぞれ簡易表現する特殊効果マークデータ23Mu1,23Mu2が記憶される。そして、特殊効果モーションモデルデータ23Pの記憶領域には、前記複数種類の特殊効果画像データ23Gu1,23Gu2をそれぞれ対応する変身画像データ14Gu1,14Gu2の所定の位置から発生させて付加するための一連のモーション(身振り)からなる特殊効果モーションモデルデータ23P1a〜23P1c,23P2a〜23P2cが記憶される。
FIG. 4 is a diagram showing the contents of special effect data stored in advance in the special effect data memory 23 of the digital camera 10.
The special effect data memory 23 has storage areas for special effect motion model data 23P, special effect image data 23Gu, and special effect mark data 23Mu. The storage area for the special effect image data 23Gu includes the plurality of types of transformed images. The special effect image data corresponding to each of the data 14Gu1 and 14Gu2 and the sound data thereof are, for example, the special effect image data 23Gu1 for XX Man A and the sound data “BibiBibi” 23Su1, the special effect image data 23Gu2 for the first XX man. And its voice data “Peeverly” 23Su2. In addition, special effect mark data 23Mu1, 23Mu2 for simply expressing the plurality of types of special effect image data 23Gu1, 23Gu2 is stored in the storage area of the special effect mark data 23Mu. A series of motions for generating and adding the plurality of types of special effect image data 23Gu1, 23Gu2 from predetermined positions of the corresponding transformation image data 14Gu1, 14Gu2 to the storage area of the special effect motion model data 23P. Special effect motion model data 23P1a to 23P1c and 23P2a to 23P2c including (gesture) are stored.

なお、前記特殊効果画像データ23Gu1,23Gu2は、画像データそのもの、又は3D画像生成用データとして記憶される。また前記特殊効果モーションモデルデータ23P1a〜23P1c,23P2a〜23P2cは、当該特殊効果モーションを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データとして記憶される。   The special effect image data 23Gu1 and 23Gu2 are stored as image data itself or 3D image generation data. The special effect motion model data 23P1a to 23P1c and 23P2a to 23P2c are stored as image data representing the special effect motion itself, or movement data of the limb skeleton and facial feature points.

図5は、前記デジタルカメラ10の破壊データメモリ15に予め記憶される破壊データの内容を示す図である。
この破壊データメモリ15は、破壊対象画像データ15Tと破壊画像データ15Gと破壊(前)マークデータ15Mと破壊(後)マークデータ15M′の記憶領域を有し、破壊画像データ15Gの記憶領域には、複数種類の一連の破壊画像データおよびその破壊途中の音声データが、例えば塔の破壊前,破壊中,破壊後の各画像データ15Ga1〜15Ga3およびその破壊中音声データ「グシャ」15Sa、飛行機の破壊前,破壊中,破壊後の各画像データ15Gb1〜15Gb3およびその破壊中音声データ「ドカーン」15Sb、建物の破壊前,破壊中,破壊後の各画像データ15Gc1〜15Gc3およびその破壊中音声データ「ガラガラ」15Scとして記憶される。また、破壊(前)マークデータ15Mと破壊(後)マークデータ15M′の各記憶領域には、前記複数種類の破壊前後の画像データ15Ga1,15Ga3、15Gb1,15Gb3、15Gc1,15Gc3をそれぞれ簡易表現する同破壊前後のマークデータ15Ma,15Ma′、15Mb,15Mb′、15Mc,15Mc′が記憶される。そして、破壊対象画像データ15Tの記憶領域には、前記複数種類の破壊画像データ15Ga1〜15Ga3,15Gb1〜15Gb3,15Gc1〜15Gc3にそれぞれ置き換えるための対象となる一般家庭にある物体画像が、例えば塔の破壊画像データ15Ga1〜15Ga3の場合にはビール瓶A1やペットボトルA2、飛行機の破壊画像データ15Gb1〜15Gb3の場合には紙飛行機B、建物の破壊画像データ15Gc1〜15Gc3の場合にはティッシュボックスCとして記憶される。
FIG. 5 is a diagram showing the contents of the destruction data stored in advance in the destruction data memory 15 of the digital camera 10.
The destruction data memory 15 has storage areas for destruction target image data 15T, destruction image data 15G, destruction (front) mark data 15M, and destruction (rear) mark data 15M ′, and the storage area for the destruction image data 15G includes A series of a plurality of types of destruction image data and sound data in the middle of destruction include, for example, image data 15Ga1 to 15Ga3 before destruction of the tower, destruction of the tower, and sound data “Gusha” 15Sa during destruction, destruction of the airplane, The image data 15Gb1 to 15Gb3 before, during and after destruction, and the sound data “Dekan” 15Sb before destruction, the image data 15Gc1 to 15Gc3 before, during and after destruction of the building, and the sound data “Rattle” "Is stored as 15Sc. In addition, in each storage area of the destruction (previous) mark data 15M and the destruction (rear) mark data 15M ′, the plurality of types of image data 15Ga1, 15Ga3, 15Gb1, 15Gb3, 15Gc1, 15Gc3 before and after the destruction are respectively expressed in a simplified manner. Mark data 15Ma, 15Ma ′, 15Mb, 15Mb ′, 15Mc, 15Mc ′ before and after the destruction are stored. In the storage area of the destruction target image data 15T, an object image in a general household to be replaced with the plurality of types of destruction image data 15Ga1 to 15Ga3, 15Gb1 to 15Gb3, 15Gc1 to 15Gc3, for example, In the case of the destruction image data 15Ga1 to 15Ga3, it is stored as the beer bottle A1 or the plastic bottle A2, in the case of the destruction image data 15Gb1 to 15Gb3 of the airplane, the paper plane B, and in the case of the destruction image data 15Gc1 to 15Gc3 of the building, it is stored as the tissue box C. Is done.

なお、前記破壊画像データ15Ga1〜15Ga3,15Gb1〜15Gb3,15Gc1〜15Gc3は、画像データそのもの、又は3D画像生成用データとして記憶される。また前記破壊対象画像データA1(A2),B,Cは、その物体を撮影した画像データそのもの、又は同物体の特徴を示す形状データとして記憶される。   The destructive image data 15Ga1 to 15Ga3, 15Gb1 to 15Gb3, and 15Gc1 to 15Gc3 are stored as image data itself or 3D image generation data. The destruction target image data A1 (A2), B, and C are stored as image data obtained by photographing the object, or shape data indicating the characteristics of the object.

図6は、前記デジタルカメラ10の役柄データメモリ24Aに記憶される役柄データの内容を示す図である。
この役柄データメモリ24Aは、ユーザ登録される変身対象画像データ24T、変身(1)画像データ24Gwと変身(1)マークデータ24Mw、変身(2)画像データ24Gw′と変身(2)マークデータ24Mw′、変身条件データ24Hの記憶領域を有し、変身(1)画像データ24Gwの記憶領域には、複数種類の第1段階の変身画像データ(変身キャラクタ)およびその音声データが設定される。
変身対象画像データ24Tの記憶領域には、役柄別に複数種類の変身画像データ24Gw1,24Gw2,24Gw3,24Gw3にそれぞれ変身させて置き換えるための対象となる人物の顔画像が、例えば登録A;父親の顔画像P、登録B;母親の顔画像M、登録C;子供の顔画像K、登録D;女子の顔画像Jとしてユーザ登録され記憶される。登録Aの父親Pの画像に対応して役柄-怪獣Aの変身(1)画像データ24Gw1およびその音声データ「ガオー」24Sw1、登録Bの母親Pの画像に対応して役柄-怪獣Bの変身(1)画像データ24Gw2およびその音声データ「ギャーギャー」24Sw2、子供(K)の画像に対応して役柄-隊員の変身の画像データ24Gw3、女子(J)の画像に対応して役柄-女隊員の変身の画像データ24Gw4として記憶される。また、変身(1)マークデータ24Mwの記憶領域には、前記複数種類の変身(1)画像データ24Gw1,24Gw2,24Gw3,24Gw4をそれぞれ簡易表現する変身(1)マークデータ24Mw1,24Mw2,24Mw3,24Mwが記憶される。
また、変身(2)画像データ24Gw′の記憶領域には、前記複数種類の第1段階の変身画像データ24Gw1,24Gw2,24Gw3,24Gw4にそれぞれ対応する第2段階の変身画像データ24Gw1′,24Gw2′,24Gw3′,24Gw4′およびその音声データ24Sw1′,24Sw2′,24Sw3′,24Sw4′が記憶される。また、変身(2)マークデータ24Mw′の記憶領域には、前記変身(2)画像データ24Gw1′,24Gw2′を簡易表現する変身(2)マークデータ24Mw1′,24Mw2′,24Mw3′,24Mw4′が記憶される。さらに、変身条件データ24Hの記憶領域には、前記第1段階の変身(1)画像データ24Gw1,24Gw2,24Gw3,24Gw4から第2段階の変身(2)画像データ24Gw1′,24Gw2′,24Gw3’,24Gw4’に変身するための条件データ24H1,24H2,24H3,24H4が記憶される。たとえば、子供(K)の画像に対応して役柄-○○マンTの変身の画像データ24Gw3’およびその音声データ「ター、ター」24Sw3’、女子(J)の画像に対応して役柄-○○マンMの変身の画像データ24Gw4’およびその音声データ「マー、マー」24Sw4’が設定されている。また、変身条件データ24H3として「変身ポーズを検知後」設定され、変身条件データ24H4として「5分経過後」が設定されている。
FIG. 6 is a diagram showing the contents of the role data stored in the role data memory 24A of the digital camera 10. As shown in FIG.
This role data memory 24A includes user-registered transformation target image data 24T, transformation (1) image data 24Gw and transformation (1) mark data 24Mw, transformation (2) image data 24Gw ′ and transformation (2) mark data 24Mw ′. A storage area for transformation condition data 24H is provided. In the storage area for transformation (1) image data 24Gw, a plurality of types of first stage transformation image data (transformation characters) and their audio data are set.
In the storage area of the transformation target image data 24T, a facial image of a person to be transformed and replaced with a plurality of types of transformation image data 24Gw1, 24Gw2, 24Gw3, and 24Gw3 for each role, for example, registration A; father's face Image P, registration B; mother's face image M, registration C; child's face image K, registration D; Corresponding to the image of Father P of Registration A-Transformation of Monster A (1) Image data 24Gw1 and its voice data "Gao" 24Sw1, Corresponding to the image of Mother P of Registration B-Transformation of Monster B ( 1) Image data 24Gw2 and its audio data “Gagya” 24Sw2, the image of the character-member's transformation corresponding to the image of the child (K) 24Gw3, the character-image corresponding to the image of the girl (J) -the transformation of the woman's member Image data 24Gw4. Further, in the storage area of the transformation (1) mark data 24Mw, transformation (1) mark data 24Mw1, 24Mw2, 24Mw3, 24Mw that respectively express the plural types of transformation (1) image data 24Gw1, 24Gw2, 24Gw3, 24Gw4 in a simple manner. Is memorized.
Further, in the storage area of the transformation (2) image data 24Gw ′, second-stage transformation image data 24Gw1 ′ and 24Gw2 ′ respectively corresponding to the plurality of types of first-stage transformation image data 24Gw1, 24Gw2, 24Gw3, and 24Gw4. , 24Gw3 ′, 24Gw4 ′ and voice data 24Sw1 ′, 24Sw2 ′, 24Sw3 ′, 24Sw4 ′ are stored. Further, in the storage area of the transformation (2) mark data 24Mw ′, transformation (2) transformation data (2) mark data 24Mw1 ′, 24Mw2 ′, 24Mw3 ′, 24Mw4 ′ representing the transformation (2) image data 24Gw1 ′, 24Gw2 ′ is stored. Remembered. Further, in the storage area of the transformation condition data 24H, the first stage transformation (1) image data 24Gw1, 24Gw2, 24Gw3, 24Gw4 to the second stage transformation (2) image data 24Gw1 ′, 24Gw2 ′, 24Gw3 ′, Condition data 24H1, 24H2, 24H3, and 24H4 for transformation into 24Gw4 ′ are stored. For example, a role corresponding to an image of a child (K) -XXX Mankin T's transformation image data 24Gw3 'and its voice data "Tur, Tur"24Sw3', a character corresponding to a girl (J) image-XX ○ Man M's transformation image data 24Gw4 'and its audio data "mer, mer"24Sw4' are set. Further, “after detecting a transformation pose” is set as the transformation condition data 24H3, and “after 5 minutes has elapsed” as the transformation condition data 24H4.

また、図2の役柄別変身状態メモリ24Bには、登録者(登録A〜登録D)についての現時点での変身状態(変身(1)又は変身(2))を記憶しており、初期状態では、変身(1)を記憶している。各役柄別の変身条件が満たされた時点(たとえば、登録Cでは、「変身ポーズが検知された後」)で、この役柄別の変身状態が「変身(2)」に変更して記憶される。     2 stores the current transformation state (transformation (1) or transformation (2)) of the registrant (registration A to registration D) in the initial state. , Remember the transformation (1). When the transformation condition for each role is satisfied (for example, in registration C, “after a transformation pose is detected”), the transformation state for each role is changed to “transformation (2)” and stored. .

なお、前記変身(1)(2)画像データ24Gw,24Gw′は、様々な動きを表現した画像データそのもの、又は手足の骨格や顔の特徴点の移動データと3D画像生成用データとの組み合わせとして記憶される。
撮影画像データメモリ25には、画像撮影部21により静止画または動画撮影されて入力された撮影画像データGが記憶される。
The transformation (1) and (2) image data 24Gw and 24Gw ′ are image data representing various movements, or a combination of movement data of limb skeletons and facial feature points and 3D image generation data. Remembered.
The photographed image data memory 25 stores photographed image data G input by taking a still image or a moving image by the image photographing unit 21.

マーク付き撮影画像データメモリ26には、前記撮影画像データメモリ25に動画撮影されて記憶された撮影画像データGに基づき、前記画像処理プログラムに従い撮影にリアルタイムで生成されたマーク付き撮影画像データGm(図1(A)参照)が順次記憶される。   In the marked-captured image data memory 26, the marked-captured image data Gm (generated in real time for shooting according to the image processing program based on the captured image data G captured and stored in the captured image data memory 25). 1A) are sequentially stored.

合成画像データメモリ27には、前記マーク付き撮影画像データメモリ26に生成記憶されたマーク付き撮影画像データGmに基づき、前記画像処理プログラムに従い生成された合成画像データGG(図1(B)参照)が記憶される。
なお、前記構成のデジタルカメラ10は、当該デジタルカメラ10自体により動画撮影される撮影画像データGに基づいて、前記マーク付き撮影画像データGm(図1(A)参照)をリアルタイムに生成表示し、この後に当該マーク付き撮影画像データGmから前記合成画像データGG(図1(B)参照)を生成して表示あるいは外部に出力するものである。これに対し、前記デジタルカメラ10が有する撮影機能以外の前記動画撮影された撮影画像データGからマーク付き撮影画像データGm(図1(A)参照)を生成し、このマーク付き撮影画像データGmから合成画像データGG(図1(B)参照)を生成するための各種の機能を、通信ネットワークN上のサーバ装置30に備えさせ、通信機能付きのデジタルカメラ(通信端末A)10′やPC(通信端末B)40から転送された動画撮影データGに基づき、当該サーバ装置30が前記マーク付き撮影画像データGmおよび合成画像データGGを生成し、前記各通信端末(A)10′,(B)40に応答配信してサービスを提供する構成としてもよい。
In the composite image data memory 27, composite image data GG generated according to the image processing program based on the marked captured image data Gm generated and stored in the marked captured image data memory 26 (see FIG. 1B). Is memorized.
The digital camera 10 having the above configuration generates and displays the marked photographic image data Gm (see FIG. 1A) in real time based on the photographic image data G captured by the digital camera 10 itself. Thereafter, the composite image data GG (see FIG. 1B) is generated from the photographed image data Gm with the mark and displayed or output to the outside. On the other hand, photographic image data Gm with a mark (see FIG. 1 (A)) is generated from the photographic image data G taken with the moving image other than the photographic function of the digital camera 10, and the photographic image data Gm with the mark is generated. Various functions for generating the composite image data GG (see FIG. 1B) are provided in the server device 30 on the communication network N, and a digital camera (communication terminal A) 10 ′ or PC (with communication function) is installed. Based on the moving image shooting data G transferred from the communication terminal B) 40, the server device 30 generates the marked shooting image data Gm and the composite image data GG, and the communication terminals (A) 10 'and (B). It is good also as a structure which responds to 40 and provides a service.

図7は、本発明の合成画像出力装置の実施形態に係るサーバ装置30の電子回路の構成を示すブロック図である。
このサーバ装置30は、コンピュータであるCPU31を備えている。
CPU31は、メモリ32に予め記憶されたシステムプログラム、あるいはCD−ROMなどの外部記録媒体33から光ディスクドライブなどの記録媒体読取部34を介して前記メモリ32に読み込まれたサーバ制御プログラムに従い回路各部の動作を制御する。
FIG. 7 is a block diagram showing the configuration of the electronic circuit of the server apparatus 30 according to the embodiment of the composite image output apparatus of the present invention.
The server device 30 includes a CPU 31 that is a computer.
The CPU 31 operates in accordance with a system program stored in advance in the memory 32 or a server control program read into the memory 32 from an external recording medium 33 such as a CD-ROM via a recording medium reading unit 34 such as an optical disk drive. Control the behavior.

CPU31には、前記メモリ32、記録媒体読取部34が接続される他に、通信ネットワークN上の通信端末A(デジタルカメラ)10′や通信端末B(PC)40との間でデータの電送制御を行うための電送制御部35、キーボード・マウスなどの入力部36、LCD表示部37が接続される。   In addition to the memory 32 and the recording medium reading unit 34 being connected to the CPU 31, data transmission control between the communication terminal A (digital camera) 10 ′ and the communication terminal B (PC) 40 on the communication network N is performed. Are connected to an electric transmission control unit 35, an input unit 36 such as a keyboard / mouse, and an LCD display unit 37.

前記メモリ32のプログラムメモリ32Aには、本サーバ装置30の全体の動作を司るシステムプログラム、通信ネットワークN上の各通信端末A(デジタルカメラ)10′や通信端末B(PC)40との通信動作を司る通信制御プログラムが記憶されると共に、当該外部の各通信端末A10′,B40から転送された動画撮影画像データGに基づいて、前述したデジタルカメラ10と同様にマーク付き撮影画像Gmや合成画像GGを生成したり出力(配信)したりするための前記図1を参照して説明した各種の機能を司る画像処理プログラムが予め記憶される。   The program memory 32A of the memory 32 includes a system program that controls the overall operation of the server device 30, and communication operations with each communication terminal A (digital camera) 10 'and communication terminal B (PC) 40 on the communication network N. The communication control program for managing the image is stored, and based on the moving image photographic image data G transferred from each of the external communication terminals A10 ′ and B40, the marked photographic image Gm and the composite image are obtained as in the digital camera 10 described above. An image processing program for managing various functions described with reference to FIG. 1 for generating or outputting (distributing) GG is stored in advance.

そして、前記プログラムメモリ32Aに記憶された各種のプログラムは、入力部36からの入力信号、電送制御部35を介した外部の各通信端末A10′,B40からの受信入力信号に応じて起動される。
また、前記メモリ32には、前記図1〜図6を参照して説明したデジタルカメラ10におけるそれと略同一のデータ内容である、変身データメモリ32B、特殊効果データメモリ32C、破壊データメモリ32D、役柄データメモリ32EA、撮影画像データメモリ32F、マーク付き撮影画像データメモリ32G、合成画像データメモリ32H、およびその他の作業用データメモリなどが備えられる。
Various programs stored in the program memory 32A are activated in response to an input signal from the input unit 36 and a received input signal from each of the external communication terminals A10 'and B40 via the transmission control unit 35. .
Further, the memory 32 includes a transformation data memory 32B, a special effect data memory 32C, a destruction data memory 32D, a role, which are substantially the same data contents as those in the digital camera 10 described with reference to FIGS. A data memory 32EA, a photographed image data memory 32F, a marked photographed image data memory 32G, a composite image data memory 32H, and other work data memories are provided.

これにより、サーバ装置30では、通信ネットワークNに接続された通信端末A(デジタルカメラ)10′や通信端末B(PC)40から転送された動画撮影画像データGに基づき、前記同様のマーク付き撮影画像データGm(図1(A)参照)および合成画像データGG(図1(B)参照)を生成すると共に、前記撮影画像データGの転送元である各通信端末A10′,B40に応答配信してサービスを提供できる。   Thereby, in the server apparatus 30, based on the moving image photographic image data G transferred from the communication terminal A (digital camera) 10 'or the communication terminal B (PC) 40 connected to the communication network N, the same marked shooting as described above is performed. Image data Gm (see FIG. 1 (A)) and composite image data GG (see FIG. 1 (B)) are generated and distributed to the communication terminals A10 ′ and B40 that are the transfer source of the photographed image data G. Service.

次に、前記構成のデジタルカメラ10あるいはサーバ装置30による合成画像出力装置の動作について説明する。
図8は、前記合成画像出力装置による合成画像出力処理の全体過程を示すフローチャートである。
図9は、前記合成画像出力処理に伴い撮影画像(G)中に存在する人物(P,M,K)・物体(A,B,C)の対象画像を抽出する対象画像抽出処理を示すフローチャートである。
Next, the operation of the composite image output apparatus by the digital camera 10 or the server apparatus 30 having the above configuration will be described.
FIG. 8 is a flowchart showing the overall process of the composite image output process by the composite image output apparatus.
FIG. 9 is a flowchart showing target image extraction processing for extracting target images of persons (P, M, K) and objects (A, B, C) existing in the captured image (G) in accordance with the composite image output processing. It is.

図10は、前記合成画像出力処理に伴い役柄登録された人物画像(P,M)に変身マーク(24Mw)を付加する役柄変身マーク処理を示すフローチャートである。
図11は、前記合成画像出力処理に伴い抽出された物体画像(A,B,C)に破壊マーク(15M,15M′)を付加すると共に対応音声(15S)を出力する破壊マーク処理を示すフローチャートである。
FIG. 10 is a flowchart showing a role transformation mark process for adding a transformation mark (24 Mw) to a person image (P, M) whose role has been registered along with the composite image output process.
FIG. 11 is a flowchart showing destruction mark processing for adding a destruction mark (15M, 15M ′) to the object image (A, B, C) extracted with the composite image output processing and outputting the corresponding sound (15S). It is.

図12は、前記合成画像出力処理に伴い変身モーション(14P)の検出された人物画像(K)に変身マーク(14Mu)を付加すると共に対応音声(14Su)を出力するモーション変身マーク処理を示すフローチャートである。
図13は、前記合成画像出力処理に伴い特殊効果モーション(23P)の検出された人物画像(K)に特殊効果マーク(23Gu)を付加すると共に対応音声(23Su)を出力する特殊効果マーク処理を示すフローチャートである。
FIG. 12 is a flowchart showing a motion transformation mark process for adding a transformation mark (14Mu) to a person image (K) in which a transformation motion (14P) is detected in accordance with the synthetic image output process and outputting a corresponding voice (14Su). It is.
FIG. 13 shows a special effect mark process for adding a special effect mark (23Gu) to a person image (K) in which a special effect motion (23P) is detected in accordance with the composite image output process and outputting a corresponding sound (23Su). It is a flowchart to show.

図14は、前記合成画像出力処理に伴い変身マーク(24Mw)(14Mu)の付加された人物画像(P)(K)を変身画像(24Gw)((14Gu)に置き換え合成すると共に対応音声(24Sw)(14Su)の出力を設定する変身マーク合成処理を示すフローチャートである。   In FIG. 14, the person image (P) (K) to which the transformation mark (24Mw) (14Mu) is added in accordance with the synthetic image output processing is replaced with the transformation image (24Gw) ((14Gu) and synthesized, and the corresponding voice (24Sw ) (14Su) is a flowchart showing a transformation mark composition process for setting the output of (14Su).

図15は、前記合成画像出力処理に伴い破壊マーク(15M,15M′)の付加された物体画像(A,B)を破壊画像(15G)に置き換え合成すると共に対応音声(15S)の出力を設定する破壊マーク合成処理を示すフローチャートである。
図16は、前記合成画像出力処理に伴い特殊効果マーク(23Gu)の付加された人物画像(K)の所定位置に特殊効果画像23Guを追加合成すると共に対応音声(23Su)の出力を設定する特殊効果マーク合成処理を示すフローチャートである。
In FIG. 15, the object images (A, B) to which the destruction marks (15M, 15M ′) are added in accordance with the synthetic image output processing are replaced with the destruction images (15G), and the corresponding sound (15S) output is set. It is a flowchart which shows the destruction mark synthetic | combination process to perform.
FIG. 16 shows a special effect in which the special effect image 23Gu is additionally synthesized at a predetermined position of the person image (K) to which the special effect mark (23Gu) is added in accordance with the synthetic image output process and the output of the corresponding sound (23Su) is set. It is a flowchart which shows an effect mark synthetic | combination process.

図17〜図25は、前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送り(その1)〜(その9)にして示す図であり、同図(A)は撮影画像Gを示す図、同図(B)はマーク付き撮影画像Gmを示す図、同図(C)は合成画像GGを示す図である。   FIGS. 17 to 25 are diagrams showing image processing states based on the moving image captured image (G) accompanying the composite image output processing in order of typical frame advance (part 1) to (part 9). FIG. 3A is a diagram showing a captured image G, FIG. 4B is a diagram showing a marked captured image Gm, and FIG. 4C is a diagram showing a composite image GG.

前記図8における合成画像出力処理のステップS1〜S3の処理は、前記図17(A)〜図25(A)に示すように、動画撮影される各コマの撮影画像(G)が取得されるのに伴い繰り返し実行され、前記図17(B)〜図25(B)に示すようなマーク付き撮影画像(Gm)が生成出力される。   In the combined image output processing in steps S1 to S3 in FIG. 8, as shown in FIGS. 17A to 25A, a captured image (G) of each frame to be captured is acquired. As a result, the captured image (Gm) with a mark as shown in FIGS. 17B to 25B is generated and output.

そして、前記図8における合成画像出力処理のステップS4〜S7の処理は、前記図17(B)〜図25(B)に示すように生成された一連のマーク付き撮影画像(Gm)に基づき実行され、前記図17(C)〜図25(C)に示すような合成画像(GG)が生成出力される。   Then, the process of steps S4 to S7 of the composite image output process in FIG. 8 is executed based on a series of marked photographed images (Gm) generated as shown in FIGS. 17 (B) to 25 (B). Then, a composite image (GG) as shown in FIGS. 17C to 25C is generated and output.

なお、ここでは前記デジタルカメラ10(図2参照)において図8における合成画像出力処理を実行した場合を主体にして説明し、前記サーバ装置30(図7参照)において同合成画像出力処理を実行した場合については、略同じ処理内容となるためその説明を省略する。   Here, the case where the composite image output process in FIG. 8 is executed in the digital camera 10 (see FIG. 2) will be mainly described, and the composite image output process is executed in the server device 30 (see FIG. 7). Since the processing contents are substantially the same, the description thereof is omitted.

デジタルカメラ10の画像撮影部13により、例えば図17(A)〜図25(A)で示すように親子によって演じられる一連のシーンが撮影されると、その撮影画像G1〜G9は順次撮影画像データメモリ25に記憶され保存され(ステップS1)、リアルタイムで図9における対象画像抽出処理へ移行される(ステップSA)。   When a series of scenes played by a parent and child are photographed by the image photographing unit 13 of the digital camera 10, for example, as shown in FIGS. 17A to 25A, the photographed images G1 to G9 are sequentially captured image data. It is stored and stored in the memory 25 (step S1), and the process proceeds to the target image extraction process in FIG. 9 in real time (step SA).

この対象画像抽出処理は、2通りの方式があり、図9(A)に示す対象画像抽出処理(方式1)では、前記撮影画像データメモリ25に順次保存される撮影画像データGnが作業用メモリに一時転送記憶され(ステップA11)、前回の撮影画像データGn−1と今回の撮影画像データGnとの画像の変化部分がブロック化されて抽出される(ステップA12)。   This target image extraction processing has two methods. In the target image extraction processing (method 1) shown in FIG. 9A, the captured image data Gn sequentially stored in the captured image data memory 25 is stored in the work memory. Are temporarily transferred and stored (step A11), and the changed portion of the image between the previous captured image data Gn-1 and the current captured image data Gn is blocked and extracted (step A12).

すると、前記撮影画像データGn上でブロック化された位置情報が、人物や物体である対象画像の位置情報となり、当該撮影画像データGnの付加情報として前記撮影画像データメモリ25に記憶される(ステップA13)。
一方、図9(B)に示す対象画像抽出処理(方式2)では、前記撮影画像データメモリ25に順次保存される撮影画像データGnの付加情報である前記画像撮影部21の距離センサにより取得された被写体までの距離情報が読み出され(ステップA21)、その中で近距離に存在する画像部分がブロック化されて抽出される(ステップA22)。
Then, the position information blocked on the photographed image data Gn becomes the position information of the target image that is a person or an object, and is stored in the photographed image data memory 25 as additional information of the photographed image data Gn (step). A13).
On the other hand, in the target image extraction process (method 2) shown in FIG. 9B, it is acquired by the distance sensor of the image photographing unit 21, which is additional information of the photographed image data Gn sequentially stored in the photographed image data memory 25. The distance information to the subject is read (step A21), and the image portion existing at a short distance is extracted as a block (step A22).

すると、前記撮影画像データGn上でブロック化された位置情報が、人物や物体である対象画像の位置情報となり、当該撮影画像データGnの付加情報として前記撮影画像データメモリ25に記憶される(ステップA23)。
すなわち、図9(B)で示した対象画像抽出処理(方式2)は、撮影画像データGnの付加情報として被写体までの距離情報が必要になるため、デジタルカメラ10での処理に適し、また、図9(A)で示した対象画像抽出処理(方式1)は、逆に前記撮影画像データGnにおける被写体までの距離情報を必要としないので、サーバ装置30での処理に適している。
Then, the position information blocked on the photographed image data Gn becomes the position information of the target image that is a person or an object, and is stored in the photographed image data memory 25 as additional information of the photographed image data Gn (step). A23).
That is, the target image extraction process (method 2) shown in FIG. 9B requires distance information to the subject as additional information of the captured image data Gn, and is therefore suitable for processing by the digital camera 10, The target image extraction processing (method 1) shown in FIG. 9A is suitable for processing in the server device 30 because it does not require distance information to the subject in the captured image data Gn.

このように、前記対象画像抽出処理(ステップSA)により、撮影画像データGnの中に存在する人物画像(P,K)や物体画像(A,B)が抽出されると、図10における役柄変身マーク処理へ移行される(ステップSB)。
この役柄変身マーク処理では、前記対象画像抽出処理により抽出された撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記役柄データメモリ24A(図6参照)にユーザ登録された変身対象(顔)画像データ24Tとしての人物画像(PやM)が含まれるか否かが前記顔画像認識処理を用いて識別される(ステップB1)。
ここで、図17(A)〜図25(A)の撮影画像データG1〜G9にそれぞれ示すように、変身対象(顔)画像データ24Tとしての父親の人物画像Pが含まれていることが識別されると(ステップB1(Yes))、メモリ17の役柄別変身状態メモリ内のワークエリア内の役柄データが検知され、現在の父親人物画像に対応する登録Aの変身状態が検知される。そして、変身(1)の状態であることが検知され(ステップB2(No))、
変身条件は「なし(24H1)」であるので、ステップB6(No)→B10(No)→(2)→B9と処理が進み、前記役柄データメモリ24A(図6参照)に対応付けられて記憶されている変身(1)の怪獣Aの変身マークデータ24Mw1が読み出されると共に、前記識別された父親の人物画像Pの顔画像認識された位置に対応して付加され、図17(B)〜図25(B)に示すようなマーク付き撮影画像データGm1〜Gm9として作業用データメモリに一時保存されると共に表示部11に表示される(ステップB9)。
なお、前記登録された人物画像Pの顔画像の位置に対応付加される変身マークデータ24Mw1は、当該顔画像に重ねて付加されるか、または当該顔画像の近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップB4(Yes))、前記役柄データメモリ24A(図6参照)に対応付けられて記憶されている音声データ「ガオー」24Sw1が読み出され、同図17(B)〜図25(B)に示すように音声出力部13から出力される(ステップB5)。
As described above, when the person image (P, K) and the object image (A, B) existing in the captured image data Gn are extracted by the target image extraction process (step SA), the role transformation in FIG. The process proceeds to mark processing (step SB).
In this role transformation mark process, the role data memory 24A (see FIG. 6) is used for the person image (P, K) and object image (A, B) in the photographed image data Gn extracted by the target image extraction process. It is identified using the face image recognition processing whether or not a person image (P or M) as transformation target (face) image data 24T registered as a user is included in (step B1).
Here, as shown in each of the captured image data G1 to G9 in FIGS. 17A to 25A, it is identified that the father's person image P as the transformation target (face) image data 24T is included. When this is done (step B1 (Yes)), the role data in the work area in the role-specific transformation state memory of the memory 17 is detected, and the transformation state of registration A corresponding to the current father person image is detected. And it is detected that it is in the state of transformation (1) (step B2 (No)),
Since the transformation condition is “none (24H1)”, the process proceeds from step B6 (No) → B10 (No) → (2) → B9, and stored in association with the role data memory 24A (see FIG. 6). The transformation mark data 24Mw1 of the monster A of the transformed transformation (1) is read out and added corresponding to the position of the identified facial image P of the father's face image, as shown in FIGS. The image data Gm1 to Gm9 with marks as shown in FIG. 25 (B) are temporarily stored in the work data memory and displayed on the display unit 11 (step B9).
The transformation mark data 24Mw1 added corresponding to the position of the face image of the registered person image P is either added to the face image or added in the vicinity of the face image. There may be.
If it is determined that the digital camera 10 is currently shooting (step B4 (Yes)), the voice data “Gao” stored in association with the role data memory 24A (see FIG. 6) is stored. 24Sw1 is read and output from the audio output unit 13 as shown in FIGS. 17B to 25B (step B5).

また、役柄変身マーク処理(ステップSB)において、変身対象(顔)画像データ24Tとしての子供の人物画像Kが含まれていることが識別されると(ステップB1(Yes))、メモリ17の役柄別変身状態メモリ内のワークエリア内の役柄データが検知され、現在の子供人物画像に対応する登録Cの変身状態が検知される。そして、変身(1)の状態であることが検知され(ステップB2(No))、変身条件は「変身モーションを検知後(24H3)」であるので(ステップB6(Yes))、変身対象画像が含まれる一連の撮影画像中に変身モーション(図3の14Pの(1)又は(2)のいずれかのモーション(身振り))が検知されたか否かを判断する(ステップB7)、ここで、子供Kにより(図3の14Pの(1))のモーション(身振り)が行われたことが検知されると(ステップB7(Yes))、子供Kの変身状態フラグを変身(2)に変更し(ステップB8)、の前記役柄データメモリ24A(図6参照)に子供Kの顔画像に対応付けられて記憶されている変身(2)の○○マンTの変身マークデータ24Mw3’が読み出されると共に、前記識別された子供の人物画像Kの顔画像認識された位置に対応して付加され、図22(B)〜図25(B)に示すようなマーク付き撮影画像データGm6〜Gm9として作業用データメモリに一時保存されると共に表示部11に表示される(ステップB3)。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップB4(Yes))、前記役柄データメモリ24A(図6参照)に対応付けられて記憶されている音声データ「ター、ター」24Sw3’が読み出され、同図22(B)〜図25(B)に示すように音声出力部13から出力される(ステップB5)。
なお、前記登録された人物画像Pの顔画像の位置に対応付加される変身マークデータ24Mw1は、当該顔画像に重ねて付加されるか、または当該顔画像の近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップB4(Yes))、前記役柄データメモリ24A(図6参照)に対応付けられて記憶されている音声データ「ター、ター」24Sw3’が読み出され、同図22(B)〜図25(B)に示すように音声出力部13から出力される(ステップB5)。
Further, when it is identified in the role transformation mark processing (step SB) that the child person image K as the transformation target (face) image data 24T is included (step B1 (Yes)), the role in the memory 17 is identified. The role data in the work area in the separate transformation status memory is detected, and the transformation status of the registration C corresponding to the current child person image is detected. Then, it is detected that the state is a transformation (1) (step B2 (No)), and the transformation condition is “after transformation motion is detected (24H3)” (step B6 (Yes)). It is determined whether or not a transformation motion (motion (gesture) of either (1) or (2) of 14P in FIG. 3) is detected in a series of captured images included (step B7). When it is detected by K that the motion (gesture) of (14P of FIG. 3 (1)) has been performed (step B7 (Yes)), the transformation state flag of child K is changed to transformation (2) ( In step B8), the transformation mark data 24Mw3 ′ of the XX man T of the transformation (2) stored in association with the face image of the child K is read in the role data memory 24A (see FIG. 6). Above A working data memory is added as corresponding to the recognized position of the face image of the identified person image K of the child, as marked image data Gm6 to Gm9 as shown in FIGS. 22 (B) to 25 (B). And temporarily displayed on the display unit 11 (step B3).
If it is determined that the digital camera 10 is currently shooting (step B4 (Yes)), the voice data “tar,” stored in association with the role data memory 24A (see FIG. 6) is stored. "24Sw3 'is read out and output from the audio output unit 13 as shown in FIGS. 22B to 25B (step B5).
The transformation mark data 24Mw1 added corresponding to the position of the face image of the registered person image P is either added to the face image or added in the vicinity of the face image. There may be.
If it is determined that the digital camera 10 is currently shooting (step B4 (Yes)), the voice data “tar,” stored in association with the role data memory 24A (see FIG. 6) is stored. "24Sw3 'is read out and output from the audio output unit 13 as shown in FIGS. 22B to 25B (step B5).

また、役柄変身マーク処理(ステップSB)において、変身対象(顔)画像データ24Tとしての女子Jの人物画像が含まれていることが識別されると(ステップB1(Yes)→B2)、変身状態(1)であることが検知され(ステップB2(No))、女子Jの人物画像に対応づけれらた変身条件「5分経過後」が読み出され(ステップB6(No)→ステップB10(Yes))撮影開始から計時された時間が5分になったか否かが検知さされ、5分経過ならば(ステップB11(Yes))、女子Jの変身状態フラグを変身(2)に変更し(ステップB8)、女子Jの顔画像に対応付けられて記憶されている変身(2)の○○マンMの変身マークデータ24Mw3’が読み出されると共に、前記識別された女子の人物画像Jの顔画像認識された位置に対応して付加され、マーク付き撮影画像データGmとして作業用データメモリに一時保存されると共に表示部11に表示される(ステップB3)。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップB4(Yes))、前記役柄データメモリ24A(図6参照)に対応付けられて記憶されている音声データ「マー、マー」24Sw4’が読み出され、音声出力部13から出力される(ステップB5)。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップB4(Yes))、前記役柄データメモリ24A(図6参照)に対応付けられて記憶されている音声データ「マー、マー」24Sw4’が読み出され、音声出力部13から出力される(ステップB5)。
なお、変身条件は、変身(2)から変身(1)に戻す条件を付加するようにしてもよい。たとえば、(3)登録C:子供Kの変身条件に、変身(2)から変身(1)に戻す条件として、「変身(2)後、3分間経過」を設定するようにしてもよい。この場合は、子供Kが、○○マンT(24Gw3’)に変身後3分間経過すると、隊員(24Gw3)に戻ることになり、このような設定を行うことで、目的にあった特撮撮影が、容易にできることになる。
Further, if it is identified in the role transformation mark process (step SB) that the person J's human image as the transformation target (face) image data 24T is included (step B1 (Yes) → B2), the transformation state (1) is detected (Step B2 (No)), and the transformation condition “after 5 minutes” associated with the person image of the girl J is read (Step B6 (No) → Step B10 ( Yes)) It is detected whether or not the time counted from the start of shooting has become 5 minutes, and if 5 minutes have elapsed (step B11 (Yes)), the transformation state flag of girl J is changed to transformation (2). (Step B8) The transformation mark data 24Mw3 ′ of the XX man M of the transformation (2) stored in association with the facial image of the female J is read, and the face of the identified female personal image J Image recognition It is added in correspondence with the recognized position, and is temporarily stored in the work data memory as marked image data Gm and displayed on the display unit 11 (step B3).
If it is determined that the digital camera 10 is currently shooting (step B4 (Yes)), the voice data “mer,” stored in association with the role data memory 24A (see FIG. 6) is stored. Mer “24Sw4 ′” is read out and output from the audio output unit 13 (step B5).
If it is determined that the digital camera 10 is currently shooting (step B4 (Yes)), the voice data “mer,” stored in association with the role data memory 24A (see FIG. 6) is stored. Mer “24Sw4 ′” is read out and output from the audio output unit 13 (step B5).
In addition, you may make it add the conditions to return from transformation (2) to transformation (1) as transformation conditions. For example, “3 minutes after transformation (2)” may be set as the condition for returning from transformation (2) to transformation (1) as the transformation condition of (3) registration C: child K. In this case, when the child K changes to XX man T (24Gw3 ') for 3 minutes after the transformation, it will return to the member (24Gw3). It will be easy to do.

役柄変身処理が終了すると、次に、図11における破壊マーク処理へ移行される(ステップSC)。
この破壊マーク処理では、まず、前記対象画像抽出処理により抽出された撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記破壊データメモリ15(図5参照)に予め記憶された破壊対象画像データ15Tとしての物体画像(AやBやC)が含まれるか否かが画像認識処理により識別される(ステップC1)。
When the role transformation process ends, the process proceeds to the destruction mark process in FIG. 11 (step SC).
In the destruction mark process, first, the destruction data memory 15 (see FIG. 5) is used for the person image (P, K) and the object image (A, B) in the photographed image data Gn extracted by the target image extraction process. ) Includes an object image (A, B, or C) as the destruction target image data 15T stored in advance (step C1).

ここで、図17(A)〜図25(A)の撮影画像データG1〜G9にそれぞれ示すように、破壊対象画像データ15Tとしてのビール瓶A1や紙飛行機Bの物体画像が含まれていることが識別されると(ステップC1(Yes))、当該識別されたビール瓶A1や紙飛行機Bの物体画像は破壊後の状態にあるか否かが、当該各物体画像(A1,B)が転倒状態や反転状態にあるか否かの画像認識によって判断される(ステップC2)。   Here, the object images of the beer bottle A1 and the paper airplane B as the destruction target image data 15T are included as shown in the captured image data G1 to G9 of FIGS. If the object image is identified (step C1 (Yes)), whether the object image of the identified beer bottle A1 or paper airplane B is in a state after destruction, whether each object image (A1, B) Judgment is made by image recognition as to whether or not it is in an inverted state (step C2).

ここで、例えば図17(A)におけるビール瓶A1あるいは図18(A)における紙飛行機Bで示すように、その各物体画像A1,Bは転倒状態や反転状態にないと画像認識されて破壊後の状態ではないと判断された場合には(ステップC2(No))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔と飛行機の破壊(前)マークデータ15Ma,15Mbが読み出されると共に、前記各物体画像A1,Bの位置に対応して付加され、図17(B)あるいは図18(B)に示すようなマーク付き撮影画像データGm1,Gm2として作業用データメモリに一時保存されると共に表示部11に表示される(ステップC3)。   Here, for example, as shown by the beer bottle A1 in FIG. 17A or the paper airplane B in FIG. 18A, each of the object images A1 and B is image-recognized unless they are in the overturned state or the inverted state. If it is determined that the state is not in the state (step C2 (No)), the tower and airplane destruction (previous) mark data 15Ma and 15Mb stored in association with the destruction data memory 15 (see FIG. 5) are stored. Is added corresponding to the position of each of the object images A1 and B, and is recorded in the work data memory as marked image data Gm1 and Gm2 as shown in FIG. 17B or 18B. It is temporarily stored and displayed on the display unit 11 (step C3).

なお、前記破壊対象の各物体画像A1,Bの位置に対応付加される破壊(前)マークデータ15Ma,15Mbは、当該各物体画像A1,Bに重ねて付加されるか、または当該各物体画像A1,Bの近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップC4(Yes))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている飛行機の破壊(前)画像データ15Gb1の音声データ「ビューン」15Sb1が読み出され、同図18(B)に示すように音声出力部13から出力される(ステップC5)。
The destruction (previous) mark data 15Ma and 15Mb added corresponding to the positions of the object images A1 and B to be destroyed are added to the object images A1 and B, or are added to the object images A1 and B. It may be added in the vicinity of A1 and B.
If it is determined that the digital camera 10 is currently photographing (step C4 (Yes)), the destruction of the airplane stored in association with the destruction data memory 15 (see FIG. 5) (previous) ) The audio data “Bune” 15Sb1 of the image data 15Gb1 is read out and output from the audio output unit 13 as shown in FIG. 18B (step C5).

すると、前記ステップC3において付加表示された塔や飛行機の破壊(前)マークデータ15Ma,15Mbに対応する部分であるビール瓶A1や紙飛行機Bの破壊対象画像データ(物体画像)の位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定され(ステップC6)、他の対象画像抽出ブロックの画像部分と接触したか否か判断される(ステップC7)。   Then, the position of the destruction target image data (object image) of the beer bottle A1 or the paper airplane B, which is a portion corresponding to the tower or airplane destruction (previous) mark data 15Ma, 15Mb additionally displayed in step C3, is the target. It is identified from the position information of the block obtained as additional information of the captured image data Gn by the image extraction process (step SA) (step C6), and it is determined whether or not the image portion of another target image extraction block has been touched. (Step C7).

ここで、例えば図18(A)の撮影画像データG2におけるビール瓶A1の物体画像と父親の人物画像Pとの接触状態、あるいは図19(A)の撮影画像データG3における紙飛行機Bの物体画像と同父親の人物画像Pとの接触状態において示すように、前記特定された破壊対象画像データ(A1やB)の位置が、他の抽出画像部分と接触したと判断された場合には(ステップC7(Yes))、当該接触判断された他の抽出画像部分が前記役柄変身マーク処理(ステップSB)にて変身マークデータ24Mwの付加された人物画像の部分であるか否か判断される(ステップC8)。   Here, for example, the contact state between the object image of the beer bottle A1 and the father's person image P in the photographed image data G2 in FIG. 18A, or the object image of the paper airplane B in the photographed image data G3 in FIG. As shown in the state of contact with the father's person image P, when it is determined that the position of the specified destruction target image data (A1 or B) is in contact with another extracted image portion (step C7). (Yes)), it is determined whether or not the other extracted image portion determined to be in contact is the portion of the person image to which the transformation mark data 24Mw is added in the role transformation mark processing (step SB) (step C8). ).

この場合、前記接触判断された他の抽出画像部分は、怪獣Aの変身マークデータ24Mw1が付加された父親Pの人物画像部分であると判断されるので(ステップC8(Yes))、図18(B)に示すように、ビール瓶A1の破壊対象画像データに対応する位置には、前記破壊データメモリ15に対応付けられて記憶されている塔の破壊(後)マークデータ15Ma′が読み出されて付加され、マーク付き撮影画像データGm2として作業用データメモリに一時保存されると共に表示部11に表示される(ステップC9)。また同様に、図19(B)に示すように、紙飛行機Bの破壊対象画像データに対応する位置には、前記破壊データメモリ15に対応付けられて記憶されている飛行機の破壊(後)マークデータ15Mb′が読み出されて付加され、マーク付き撮影画像データGm3として作業用データメモリに一時保存されると共に表示部11に表示される(ステップC9)。   In this case, since the other extracted image part determined to be in contact is determined to be the person image part of the father P to which the transformation mark data 24Mw1 of the monster A is added (step C8 (Yes)), FIG. As shown in B), the tower destruction (after) mark data 15Ma ′ stored in association with the destruction data memory 15 is read out at the position corresponding to the destruction target image data of the beer bottle A1. The image data Gm2 with a mark is added and temporarily stored in the work data memory and displayed on the display unit 11 (step C9). Similarly, as shown in FIG. 19B, the destruction (rear) mark of the airplane stored in association with the destruction data memory 15 at the position corresponding to the destruction target image data of the paper airplane B. Data 15Mb ′ is read and added, and is temporarily stored in the working data memory as marked image data Gm3 and displayed on the display unit 11 (step C9).

そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップC10(Yes))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔の破壊(中)画像データ15Ga2の音声データ「グシャ」15Saが読み出され、同図18(B)に示すように音声出力部13から出力される(ステップC11)。また同様に、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている飛行機の破壊(中)画像データ15Gb2の音声データ「ドカーン」15Sb2が読み出され、同図19(B)に示すように音声出力部13から出力される(ステップC11)。このように破壊中データの音声データ「グシャ」「ドカーン」等により、破壊の合成画像処理が適切に行われていることが、演技者(父親P等)により容易に聴覚的に認識することができる。   If it is determined that the digital camera 10 is currently photographing (step C10 (Yes)), the tower is stored in the destruction data memory 15 (see FIG. 5) in association with the destruction (medium). ) The audio data “Gusha” 15Sa of the image data 15Ga2 is read and output from the audio output unit 13 as shown in FIG. 18B (step C11). Similarly, the audio data “docan” 15Sb2 of the aircraft destruction (medium) image data 15Gb2 stored in association with the destruction data memory 15 (see FIG. 5) is read out, and FIG. Is output from the audio output unit 13 (step C11). In this way, the performer (such as father P) can easily and audibly recognize that the composite image processing of the destruction is appropriately performed by the voice data “Gusha”, “Dokan”, etc. of the data being destroyed. it can.

この後、当該破壊マーク処理における前記ステップC2において、例えば図19(A)〜図25(A)におけるビール瓶A1、あるいは図20(A)〜図25(A)における紙飛行機Bで示すように、その各物体画像A1,Bは転倒状態や反転状態にあると画像認識されて破壊後の状態であると判断された場合には(ステップC2(Yes))、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔と飛行機の破壊(後)マークデータ15Ma′,15Mb′が読み出されると共に、前記各物体画像A1,Bの位置に対応して付加され、図19(B)〜図25(B)あるいは図20(B)〜図25(B)に示すようなマーク付き撮影画像データGm3〜Gm9あるいはGm4〜Gm9として作業用データメモリに一時保存され表示部11に表示される(ステップC12)。   Thereafter, in the step C2 in the break mark processing, for example, as shown by the beer bottle A1 in FIGS. 19 (A) to 25 (A) or the paper airplane B in FIGS. 20 (A) to 25 (A), When each of the object images A1 and B is recognized as being in an overturned state or an inverted state and is determined to be in a state after destruction (step C2 (Yes)), the destruction data memory 15 (see FIG. 5). ) And the destruction (after) mark data 15Ma ′ and 15Mb ′ of the tower and the plane stored in association with each other) are read out and added corresponding to the positions of the object images A1 and B, respectively. ) To 25B or 20B to 25B, the marked image data Gm3 to Gm9 or Gm4 to Gm9 is temporarily stored in the work data memory. Is displayed on the display unit 11 is (step C12).

すると次に、図12におけるモーション変身マーク処理へ移行される(ステップSD)。
このモーション変身マーク処理では、前記対象画像抽出処理により抽出される一連の撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記変身データメモリ14(図3参照)に予め記憶された○○マンAの一連の変身モーションモデルデータ14P1a〜14P1cや初代○○マンの一連の変身モーションモデルデータ14P2a〜14P2cと一致する画像部分が検出されたか否か判断される(ステップD1)。
Then, the process proceeds to the motion transformation mark process in FIG. 12 (step SD).
In this motion transformation mark processing, the transformation data memory 14 (FIG. 3) is used for the person images (P, K) and object images (A, B) in the series of photographed image data Gn extracted by the target image extraction processing. It is determined whether or not an image portion corresponding to the series of transformation motion model data 14P1a to 14P1c of XX Man A and the series of transformation motion model data 14P2a to 14P2c of the first XX man is stored in advance. (Step D1).

ここで、前記対象画像抽出処理により抽出される一連の子供の人物画像Kについて、前記変身データメモリ14(図3参照)に予め記憶された○○マンAの一連の変身モーションモデルデータ14P1a〜14P1cと身振りが一致する画像部分であると検出されると(ステップD1(Yes))、当該変身データメモリ14(図3参照)に対応付けられて記憶されている○○マンAの変身マークデータ14Mu1が読み出されると共に、前記モーション検出された子供の人物画像Kの顔画像認識された位置に対応して付加され、マーク付き撮影画像データGm6〜Gm9として作業用データメモリに一時保存され表示部11に表示される(ステップD2)。   Here, a series of transformation motion model data 14P1a to 14P1c of XX man A stored in advance in the transformation data memory 14 (see FIG. 3) for a series of person images K extracted by the target image extraction processing. Is detected (step D1 (Yes)), the transformation mark data 14Mu1 of XX man A stored in association with the transformation data memory 14 (see FIG. 3) is detected. Is added corresponding to the position of the face image of the child image K whose motion has been detected, and is temporarily stored in the work data memory as marked image data Gm6 to Gm9. It is displayed (step D2).

なお、モーション検出された人物画像Kが、役柄データに登録された顔である場合は、この処理による変身マークデータ14Mu1の読み出しを、無効とするようにしてもよい。その場合、前述のように、役柄変身処理において、役柄データに登録された顔の人が変身モーションを行った際に、その顔の人の役柄に応じた変身マークを付加するようにしても良い。
また、前記モーション検出された人物画像Kの顔画像の位置に対応付加される変身マークデータ14Mu1は、当該顔画像に重ねて付加されるか、または当該顔画像の近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップD3(Yes))、前記変身データメモリ14(図3参照)に対応付けられて記憶されている○○マンAの音声データ「シュワッチ」14Su1が読み出され音声出力部13から出力される(ステップD4)。
When the motion-detected person image K is a face registered in the role data, reading of the transformation mark data 14Mu1 by this process may be invalidated. In that case, as described above, when the face person registered in the role data performs a transformation motion in the role transformation process, a transformation mark corresponding to the role of the person of the face may be added. .
Further, the transformation mark data 14Mu1 added corresponding to the position of the face image of the person image K whose motion is detected is either added over the face image or added in the vicinity of the face image. It may be.
If it is determined that the digital camera 10 is currently photographing (step D3 (Yes)), the XXX man A stored in association with the transformation data memory 14 (see FIG. 3) is stored. The audio data “Schwatch” 14Su1 is read and output from the audio output unit 13 (step D4).

すると次に、図13における特殊効果マーク処理へ移行される(ステップSE)。
この特殊効果マーク処理では、前記対象画像抽出処理により抽出される一連の撮影画像データGnの中の人物画像(P,K)や物体画像(A,B)について、前記特殊効果データメモリ23(図4参照)に予め記憶された特殊効果Aの一連の変身モーションモデルデータ23P1a〜23P1cや特殊効果Bの一連の変身モーションモデルデータ23P2a〜23P2cと一致する画像部分が検出されたか否か判断される(ステップE1)。
Then, the process proceeds to the special effect mark process in FIG. 13 (step SE).
In the special effect mark processing, the special effect data memory 23 (FIG. 5) is used for the human images (P, K) and object images (A, B) in the series of photographed image data Gn extracted by the target image extraction processing. 4), it is determined whether or not an image portion matching the series of transformation motion model data 23P1a to 23P1c of special effect A and the series of transformation motion model data 23P2a to 23P2c of special effect B stored in advance is detected (see FIG. 4). Step E1).

ここで、図23(A)〜図25(A)の撮影画像データG7〜G9に順次示すように、前記対象画像抽出処理により抽出される一連の子供の人物画像Kについて、前記特殊効果データメモリ23(図4参照)に予め記憶された特殊効果Aの一連の変身モーションモデルデータ23P1a〜23P1cと身振りが一致する画像部分であると検出されると(ステップE1(Yes))、当該特殊効果データメモリ23(図4参照)に対応付けられて記憶されている特殊効果Aの特殊効果マークデータ23Mu1が読み出されると共に、前記モーション検出された子供の人物画像Kの所定位置(例えば画像上部から3分の1の位置)に対応して前記怪獣Aの変身マークデータ24Mw1が付加されている人物画像(父親)Pの方向へ向けて付加され、図25(B)に示すようなマーク付き撮影画像データGm9として作業用データメモリに一時保存され表示部11に表示される(ステップE2)。   Here, as shown in the photographed image data G7 to G9 in FIG. 23A to FIG. 25A in sequence, the special effect data memory for the series of child person images K extracted by the target image extraction process. 23 (see FIG. 4), if it is detected that the image portion has the same gesture as the series of transformation motion model data 23P1a to 23P1c of special effect A stored in advance (step E1 (Yes)), the special effect data The special effect mark data 23Mu1 of the special effect A stored in association with the memory 23 (see FIG. 4) is read out, and a predetermined position (for example, 3 minutes from the top of the image) of the child image K of the motion detected. Corresponding to the person image (father) P to which the transformation mark data 24Mw1 of the monster A is added. Figure 25 is temporarily stored in a working data memory as marked photographic image data Gm9 as shown in (B) is displayed on the display unit 11 (step E2).

なお、前記モーション検出された人物画像Kの所定位置に対応付加される特殊効果マークデータ24Mu1は、当該人物画像Kに重ねて付加されるか、または当該人物画像Kの近傍に付加されるかの何れであってもよい。
そして、現在デジタルカメラ10による撮影中にあると判断された場合には(ステップE3(Yes))、前記特殊効果データメモリ23(図4参照)に対応付けられて記憶されている特殊効果Aの音声データ「ビビビビー」23Su1が読み出され、同図25(B)に示すように音声出力部13から出力される(ステップE4)。
Whether the special effect mark data 24Mu1 added corresponding to a predetermined position of the person image K detected in motion is added to the person image K or in the vicinity of the person image K. Either may be sufficient.
If it is determined that the digital camera 10 is currently photographing (step E3 (Yes)), the special effect A stored in association with the special effect data memory 23 (see FIG. 4) is stored. The audio data “BibiBibi” 23Su1 is read and output from the audio output unit 13 as shown in FIG. 25B (step E4).

すると、前記図17(B)〜図25(B)で示したように、前記ステップSA〜SEの処理に従い作業用データメモリ上に生成されたマーク付きの連続した撮影画像データGm1〜Gm9がマーク付き撮影画像データメモリ26に記憶され保存される(ステップS2)。   Then, as shown in FIG. 17B to FIG. 25B, the continuous photographed image data Gm1 to Gm9 with marks generated on the work data memory in accordance with the processing of the steps SA to SE are marked. It is stored and saved in the attached photographed image data memory 26 (step S2).

そして、画像撮影部21からの一連の撮影画像データG1〜G9の撮影入力が終了したと判断されると(ステップS3(Yes))、前記マーク付き撮影画像データメモリ26に生成保存された一連のマーク付き撮影画像データGm1〜Gm9に基づく合成画像の生成処理に進むか否か判断される(ステップS4)。   When it is determined that the shooting input of the series of shot image data G1 to G9 from the image shooting unit 21 has been completed (step S3 (Yes)), the series of shot images generated and stored in the marked shot image data memory 26. It is determined whether or not to proceed to the composite image generation process based on the marked image data Gm1 to Gm9 (step S4).

ここで、入力部12に対する合成画像生成のためのユーザ操作に応じて、あるいは前記一連の撮影画像データの取得終了に伴い自動的に、合成画像の生成処理に進むと判断されると(ステップS4(Yes))、前記マーク付き撮影画像データメモリ26から前記一連のマーク付き撮影画像データGm1〜Gm9が作業用メモリに読み出され、図14における変身マーク合成処理へ移行される(ステップSF)。   Here, when it is determined that the process proceeds to a composite image generation process in response to a user operation for generating a composite image on the input unit 12 or automatically upon completion of acquisition of the series of captured image data (step S4). (Yes)), the series of marked photographed image data Gm1 to Gm9 is read from the marked photographed image data memory 26 to the working memory, and the process proceeds to the transformation mark composition process in FIG. 14 (step SF).

この変身マーク合成処理では、まず、前記マーク付き撮影画像データメモリ26から作業用メモリに読み出されたマーク付き撮影画像データGm1〜Gm9について、前記役柄データメモリ24A(図6参照)に予め記憶されている変身マークデータ24Mwや前記変身データメモリ14(図3参照)に予め記憶されている変身マークデータ14muが付加された画像が含まれているか否か判断される(ステップF1)。   In this transformation mark composition process, first, the marked photographed image data Gm1 to Gm9 read from the marked photographed image data memory 26 to the working memory are stored in advance in the role data memory 24A (see FIG. 6). It is determined whether or not an image to which the transformation mark data 14mu stored in advance is included in the transformation mark data 24Mw or the transformation data memory 14 (see FIG. 3) (step F1).

ここで、図17(B)〜図25(B)で示すように怪獣Aの変身マークデータ24Mw1が付加された画像、また、図20(B)〜図21(B)で示すように子供Kの隊員の変身マークデータ23Mu3が付加された画像、また、図22(B)〜図25(B)で示すように○○マンTの変身マークデータ23Mu3’が付加された画像、または○○マンAの変身マークデータ14Mu1が付加された画像が存在すると判断された場合には(ステップF1(Yes))、当該各変身マークデータ24Mw1,23Mu3,23Mu3’,14Mu1が対応付加されている該マーク近傍の人物画像P,Kの位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定される(ステップF2)。   Here, an image to which the transformation mark data 24Mw1 of the monster A is added as shown in FIGS. 17B to 25B, and a child K as shown in FIGS. 20B to 21B. An image to which the member's transformation mark data 23Mu3 is added, or an image to which the transformation mark data 23Mu3 'of XX Man T is added, as shown in FIGS. 22 (B) to 25 (B), or XX Man If it is determined that there is an image to which the transformation mark data 14Mu1 of A is added (step F1 (Yes)), the vicinity of the mark to which the transformation mark data 24Mw1, 23Mu3, 23Mu3 ′, 14Mu1 are added correspondingly. The positions of the human images P and K are specified from the block position information obtained as additional information of the captured image data Gn by the target image extraction process (step SA). (Step F2).

すると、前記特定された人物画像P,Kがモーションキャプチャ処理され、役柄データメモリ24A(図6参照)に記憶されている前記怪獣Aの変身マークデータ24Mw1に対応するところの変身(1)画像データ24Gw1、前記隊員の変身マークデータ24Mw3に対応するところの変身(1)画像データ24Gw3、前記○○マンTの変身マークデータ24Mw3’に対応するところの変身(2)画像データ24Gw3’、変身データメモリ14(図3参照)に記憶されている前記○○マンAの変身マークデータ14Mu1に対応するところの変身画像データ14Gu1に基づき、図17(C)〜図25(C)に示すように当該人物画像(父親)Pと同じポーズ(姿勢)の怪獣Aの変身画像データ24Gw1、図20(B)〜図21(B)に示すように当該人物画像(子供)Kと同じポーズ(姿勢)の隊員の変身画像データ24Gw3、図22(C)〜図25(C)に示すように当該人物画像(子供)Kと同じポーズ(姿勢)の○○マンTの変身画像データ24Gw3’等にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG1〜GG9,GG4〜GG5,GG6〜GG9が生成される(ステップF3)。   Then, the identified person images P and K are subjected to motion capture processing, and the transformation (1) image data corresponding to the transformation mark data 24Mw1 of the monster A stored in the role data memory 24A (see FIG. 6). 24Gw1, transformation corresponding to the member's transformation mark data 24Mw3 (1) image data 24Gw3, transformation corresponding to the XX man T transformation mark data 24Mw3 '(2) image data 24Gw3', transformation data memory 14 (see FIG. 3), based on the transformation image data 14Gu1 corresponding to the transformation mark data 14Mu1 of the XX man A stored in FIG. Transform image data 24Gw1 of monster A in the same pose (posture) as image (father) P, FIGS. 20 (B) to 21 B), the transformation image data 24Gw3 of the member in the same pose (posture) as the person image (child) K, and the person image (child) K as shown in FIGS. 22 (C) to 25 (C). The transformed image data 24Gw3 'of XX man T in the same pose (posture) is replaced and synthesized on the preset background image BG, and synthesized image data GG1 to GG9, GG4 to GG5, GG6 to GG9 are generated. (Step F3).

なおこの際、前記図22(C)の矢印xで示すように、人物画像(子供)Kと同じポーズ(姿勢)の○○マンTの変身画像データ24Gw3’は拡大処理されて置き換え合成される。
そして、前記役柄データメモリ24A(図6参照)に対応付けられて記憶されている怪獣Aの音声データ「ガオー」24Sw1が読み出され、前記図17(C)〜図25(C)に示すように生成された合成画像GG1〜GG9に対応付けられて保存され、また、前記変身データメモリ14(図3参照)に対応付けられて記憶されている○○マンTの音声データ「ター、ター」23Sw3が読み出され、前記図22(C)〜図25(C)に示すように生成された合成画像GG6〜GG9に対応付けられて保存される(ステップF4)。
At this time, as shown by the arrow x in FIG. 22C, the transformation image data 24Gw3 ′ of the XX man T having the same pose (posture) as the person image (child) K is enlarged and replaced and synthesized. .
Then, the voice data “Gaoh” 24Sw1 of the monster A stored in association with the role data memory 24A (see FIG. 6) is read out, as shown in FIGS. 17 (C) to 25 (C). Is stored in association with the synthesized images GG1 to GG9 and stored in association with the transformation data memory 14 (see FIG. 3). 23Sw3 is read out and stored in association with the synthesized images GG6 to GG9 generated as shown in FIGS. 22C to 25C (step F4).

すると次に、図15における破壊マーク合成処理へ移行される(ステップSG)。
この破壊マーク合成処理では、まず、前記マーク付き撮影画像データメモリ26から作業用メモリに読み出されたマーク付き撮影画像データGm1〜Gm9について、前記破壊データメモリ15(図5参照)に予め記憶されている破壊(前)マークデータ15Mや破壊(後)マークデータ15M′が付加された画像が含まれているか否か判断される(ステップG1)。
Then, the process proceeds to the destruction mark composition process in FIG. 15 (step SG).
In this destruction mark composition process, first, the marked photographed image data Gm1 to Gm9 read from the marked photographed image data memory 26 to the working memory are stored in advance in the destruction data memory 15 (see FIG. 5). It is determined whether or not an image to which the destruction (front) mark data 15M and the destruction (rear) mark data 15M ′ are added is included (step G1).

ここで、図17(B)〜図25(B)で示すように塔の破壊(前/後)マークデータ15Ma/15Ma′が付加された画像、また、図18(B)〜図25(B)で示すように飛行機の破壊(前/後)マークデータ15Mb/15Mb′が付加された画像が存在すると判断された場合には(ステップG1(Yes))、当該各破壊(前/後)マークデータ15Ma/15Ma′や15Mb/15Mb′が対応付加されている該マーク近傍の破壊対象画像データ(ビール瓶)A1,(紙飛行機)Bの位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定される(ステップG2)。   Here, as shown in FIGS. 17B to 25B, an image to which the tower destruction (front / rear) mark data 15Ma / 15Ma ′ is added, and FIGS. 18B to 25B. ), When it is determined that there is an image to which the airplane destruction (front / rear) mark data 15Mb / 15Mb ′ is added (step G1 (Yes)), the respective destruction (front / rear) marks The position of destruction target image data (beer bottle) A1 (paper airplane) B in the vicinity of the mark to which data 15Ma / 15Ma 'and 15Mb / 15Mb' are added is taken by the target image extraction process (step SA). It is specified from the position information of the block obtained as additional information of the data Gn (step G2).

そして、前記特定された破壊対象画像データ(ビール瓶)A1,(紙飛行機)Bの位置が、前記対象画像抽出処理(ステップSA)により抽出されている他の対象画像抽出ブロックの画像部分と接触したか否か判断される(ステップG3)。
ここで、例えば図17(B)のマーク付き撮影画像データGm1における破壊対象画像データ(ビール瓶)A1、あるいは図18(B)のマーク付き撮影画像データGm2における破壊対象画像データ(紙飛行機)Bにおいて示すように、当該特定された破壊対象画像データ(A1やB)の位置が、他の抽出画像部分と接触してないと判断された場合には(ステップG3(No))、該特定されたビール瓶A1や紙飛行機Bの破壊対象画像データは破壊後の状態にあるか否かが、当該各物体画像(A1,B)が転倒状態や反転状態にあるか否かの画像認識によって判断される(ステップG4)。
And the position of the specified destruction target image data (beer bottle) A1, (paper airplane) B is in contact with the image portion of another target image extraction block extracted by the target image extraction process (step SA). Is determined (step G3).
Here, for example, in the destruction target image data (beer bottle) A1 in the marked photographed image data Gm1 in FIG. 17B, or in the destruction target image data (paper airplane) B in the marked photographed image data Gm2 in FIG. 18B. As shown, when it is determined that the position of the specified destruction target image data (A1 or B) is not in contact with another extracted image portion (step G3 (No)), the specified Whether or not the image data to be destroyed of the beer bottle A1 or the paper airplane B is in a state after destruction is determined by image recognition of whether or not each object image (A1, B) is in a fallen state or a reversed state. (Step G4).

ここで、例えば図17(B)におけるビール瓶A1あるいは図18(B)における紙飛行機Bで示すように、その各物体画像A1,Bは転倒状態や反転状態にないと画像認識されて破壊後の状態ではないと判断された場合には(ステップG4(No))、その特定されたビール瓶A1あるいは紙飛行機Bの破壊対象画像データが、図17(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記塔の破壊(前)マークデータ15Maに対応するところの破壊(前)画像データ15Ga1、あるいは図18(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記飛行機の破壊(前)マークデータ15Mbに対応するところの破壊(前)画像データ15Gb1にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG1,GG2が生成される(ステップG5)。   Here, for example, as shown by the beer bottle A1 in FIG. 17B or the paper airplane B in FIG. 18B, each of the object images A1 and B is image-recognized unless it is in the overturned state or the inverted state. If it is determined that it is not in the state (step G4 (No)), the image data to be destroyed of the specified beer bottle A1 or paper plane B is shown in FIG. 17C as the destruction data memory 15 (FIG. 5), the destruction (previous) image data 15Ga1 corresponding to the tower destruction (previous) mark data 15Ma stored in the tower, or the destruction data memory 15 (see FIG. 5) as shown in FIG. On the background image BG previously set in the destruction (previous) image data 15Gb1 corresponding to the destruction (previous) mark data 15Mb of the airplane stored in FIG. Synthesized been replaced come, the composite image data GG1, GG2 is generated (step G5).

そして、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている飛行機の破壊前音声データ「ビューン」15Sb1が読み出され、前記図18(C)に示すように生成された合成画像GG2に対応付けられて保存される(ステップG6)。
一方、例えば図18(B)のマーク付き画像データGm2における破壊対象画像データ(ビール瓶)A1と人物画像(父親)Pとの接触状態、あるいは図19(B)のマーク付き撮影画像データGm3における破壊対象画像データ(紙飛行機)Bと人物画像(父親)Pとの接触状態において示すように、当該特定された破壊対象画像データ(A1やB)の位置が、他の動作中の抽出画像部分と接触したと判断された場合には(ステップG3(Yes))、さらに、変身マーク付きの画像部分と接触したか否かが判別される。(ステップG7)。そして、変身マーク付きの画像部分と接触が検知された場合には、破壊対象画像として特定されたビール瓶A1あるいは紙飛行機Bの破壊対象画像データが、図18(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記塔の破壊(後)マークデータ15Ma′に対応するところの破壊(中)画像データ15Ga2、あるいは図19(C)に示すように破壊データメモリ15(図5参照)に記憶されている前記飛行機の破壊(後)マークデータ15Mb′に対応するところの破壊(中)画像データ15Gb2にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG2,GG3が生成される(ステップG8)。
なお、ステップG7で、変身マーク付きの画像部分と接触したか否かが判別されるが、この変身マークには、変身データ記憶手段(図3の14)に記憶された身振りのモデルデータと身振りが一致する人物画像を検出してその人物画像に変身マークをつけた場合(図8のSD)と、顔変身データ記憶手段に記憶された顔画像が一致する人物画像を検出してその人物画像に変身マークをつけた場合(図8のSB)がある。このように変身マークをつけた抽出画像部分との接触のみに応じて、破壊マークをつけるようにすることで、単に動いている画像部分と破壊対象画像がたまたま画面上重なった場合を排除して、変身マークをつけた人物との接触に限定して、適切に破壊画像を生成することができる。
Then, the pre-destruction voice data “Bune” 15Sb1 of the airplane stored in association with the destruction data memory 15 (see FIG. 5) is read out and generated as shown in FIG. 18C. The image is stored in association with the image GG2 (step G6).
On the other hand, for example, the destruction target image data (beer bottle) A1 and the person image (father) P in the marked image data Gm2 in FIG. 18B, or the destruction in the marked photographed image data Gm3 in FIG. 19B. As shown in the contact state between the target image data (paper airplane) B and the person image (father) P, the position of the specified destruction target image data (A1 and B) is the other extracted image part in operation. If it is determined that contact has been made (step G3 (Yes)), it is further determined whether or not the image portion with the transformation mark has been contacted. (Step G7). When contact with the image portion with the transformation mark is detected, the destruction target image data of the beer bottle A1 or the paper airplane B specified as the destruction target image is the destruction data memory as shown in FIG. 15 (see FIG. 5), the destruction (medium) image data 15Ga2 corresponding to the destruction (after) mark data 15Ma ′ stored in the tower 15 (see FIG. 5), or the destruction data memory 15 (see FIG. 19C). (See FIG. 5), the destruction (medium) image data 15Gb2 corresponding to the destruction (rear) mark data 15Mb 'of the airplane stored in FIG. 5 is respectively replaced with the preset background image BG and synthesized. Image data GG2 and GG3 are generated (step G8).
In step G7, it is determined whether or not the image portion with the transformation mark is touched. The transformation mark is stored in the transformation data storage means (14 in FIG. 3) and the gesture model data. When a person image with a matching face is detected and a transformation mark is attached to the person image (SD in FIG. 8), a person image with a matching face image stored in the face transformation data storage means is detected and the person image is detected. There is a case where a transformation mark is put on (SB in FIG. 8). In this way, the destruction mark is attached only in accordance with the contact with the extracted image part with the transformation mark, thereby eliminating the case where the moving image part and the destruction target image happen to overlap on the screen. The destruction image can be appropriately generated only for the contact with the person with the transformation mark.

そして、前記破壊データメモリ15(図5参照)に対応付けられて記憶されている塔の破壊音データ「グシャ」15Saが読み出され、前記図18(C)に示すように生成された合成画像GG2に対応付けられて保存され、また飛行機の破壊音データ「ドカーン」15Sb2が読み出され、前記19(C)に示すように生成された合成画像GG3に対応付けられて保存される(ステップG9)。   Then, the destruction sound data “Gusha” 15Sa of the tower stored in association with the destruction data memory 15 (see FIG. 5) is read, and the composite image generated as shown in FIG. It is stored in association with GG2, and the destruction sound data “Docan” 15Sb2 of the airplane is read out and stored in association with the synthesized image GG3 generated as shown in 19 (C) (step G9). ).

一方、例えば図19(B)〜図25(B)のマーク付き撮影画像データGm3〜Gm9における破壊対象画像データ(ビール瓶)A1、あるいは図20(B)〜図25(B)のマーク付き撮影画像データGm4〜Gm9における破壊対象画像データ(紙飛行機)Bにおいて示すように、当該特定された破壊対象画像データ(A1やB)の位置が、他の抽出画像部分と接触してないと判断された場合であっても(ステップG3(No))、その各破壊対象画像データA1,Bは転倒状態や反転状態にあると画像認識されて破壊後の状態であると判断された場合には(ステップG4(Yes))、当該特定されたビール瓶A1あるいは紙飛行機Bの破壊対象画像データは、同図19(B)〜図25(B)に示すように破壊データメモリ15(図5参照)に記憶されている前記塔の破壊(後)マークデータ15Ma′に対応するところの破壊(後)画像データ15Ga3、あるいは同図20(B)〜図25(B)に示すように破壊データメモリ15(図5参照)に記憶されている前記飛行機の破壊(後)マークデータ15Mb′に対応するところの破壊(後)画像データ15Gb3にそれぞれ予め設定された背景画像BG上で置き換えられて合成され、合成画像データGG3〜GG9あるいはGG4〜GG9が生成される(ステップG10)。   On the other hand, for example, the destruction target image data (beer bottle) A1 in the marked photographed image data Gm3 to Gm9 in FIGS. 19B to 25B, or the marked photographed images in FIGS. 20B to 25B. As shown in the destruction target image data (paper airplane) B in the data Gm4 to Gm9, it is determined that the position of the specified destruction target image data (A1 or B) is not in contact with other extracted image portions. Even if it is a case (step G3 (No)), when each of the destruction target image data A1 and B is image-recognized as being in the overturned state or the inverted state and is judged to be in the state after the destruction (step G4 (Yes)), the destruction target image data of the specified beer bottle A1 or paper plane B is the destruction data memory 15 (FIG. 5) as shown in FIGS. 19 (B) to 25 (B). The destruction (rear) image data 15Ga3 corresponding to the destruction (rear) mark data 15Ma 'of the tower stored in (b)) or the destruction data as shown in FIGS. 20 (B) to 25 (B). The destruction (rear) image data 15Gb3 corresponding to the destruction (rear) mark data 15Mb 'of the airplane stored in the memory 15 (see FIG. 5) is replaced with the preset background image BG and synthesized. Then, composite image data GG3 to GG9 or GG4 to GG9 are generated (step G10).

すると次に、図16における特殊効果マーク合成処理へ移行される(ステップSH)。
この特殊効果マーク合成処理では、まず、前記マーク付き撮影画像データメモリ26から作業用メモリに読み出されたマーク付き撮影画像データGm1〜Gm9について、前記特殊効果データメモリ23(図4参照)に予め記憶されている特殊効果マークデータ23Muが付加された画像が含まれているか否か判断される(ステップH1)。
Then, the process proceeds to the special effect mark composition process in FIG. 16 (step SH).
In this special effect mark composition processing, first, the marked image data Gm1 to Gm9 read from the marked image data memory 26 to the working memory is stored in advance in the special effect data memory 23 (see FIG. 4). It is determined whether or not an image to which the stored special effect mark data 23Mu is added is included (step H1).

ここで、特殊効果Aの特殊効果マークデータ23Mu1が付加された画像Gm9が存在しないと判断された場合には(ステップH1(No))処理を終了し、図25(B)で示すように特殊効果Aの特殊効果マークデータ23Mu1が付加された画像Gm9が存在すると判断された場合には(ステップH1(Yes))、当該特殊効果マークデータ23Mu1が対応付加されている該マーク近傍の人物画像(子供)Kの位置が、前記対象画像抽出処理(ステップSA)により撮影画像データGnの付加情報として得られているブロックの位置情報から特定される(ステップH2)。   If it is determined that the image Gm9 to which the special effect mark data 23Mu1 for the special effect A is added does not exist (step H1 (No)), the process is terminated, and the special effect mark data as shown in FIG. When it is determined that the image Gm9 to which the special effect mark data 23Mu1 of the effect A is added exists (step H1 (Yes)), the person image (in the vicinity of the mark to which the special effect mark data 23Mu1 is added correspondingly) ( The position of the child (K) is specified from the block position information obtained as additional information of the captured image data Gn by the target image extraction process (step SA) (step H2).

すると、前記特殊効果データメモリ23(図4参照)の特殊効果マークデータ23Mu1に対応付けられて記憶されている特殊効果画像データ23Gu1が読み出され、前記特定された人物画像(子供)Kの所定位置(例えば画像上部から3分の1の位置)に対応して前記怪獣Aの変身マークデータ24Mw1が付加されている人物画像(父親)Pの方向へ向けて追加合成され、合成画像データGG9が生成される(ステップH3)。   Then, the special effect image data 23Gu1 stored in association with the special effect mark data 23Mu1 in the special effect data memory 23 (see FIG. 4) is read out, and the specified person image (child) K is predetermined. Corresponding to the position (for example, one third of the position from the top of the image), the image is added and synthesized in the direction of the person image (father) P to which the transformation mark data 24Mw1 of the monster A is added, and the combined image data GG9 is obtained. Is generated (step H3).

さらに、前記人物画像(子供)Kの所定位置に追加合成された特殊効果画像データ23Gu1は、その先端部の爆発効果画像部分23Gu1′が前記人物画像(父親)Pに対応する怪獣Aの変身(1)画像データ24Gw1に到達する位置まで延長されて追加合成され、合成画像データGG9が生成される(ステップH4)
そして、前記特殊効果データメモリ23(図4参照)に対応付けられて記憶されている特殊効果Aの音声データ「ビビビビー」23Su1が読み出され、前記図25(C)に示すように生成された合成画像GG9に対応付けられて保存される(ステップH5)。
Furthermore, the special effect image data 23Gu1 additionally synthesized at a predetermined position of the person image (child) K is transformed into a monster A whose explosion effect image part 23Gu1 ′ at the tip thereof corresponds to the person image (father) P ( 1) The image data 24Gw1 is extended to a position that reaches the image data 24Gw1, and is additionally combined to generate combined image data GG9 (step H4).
Then, the audio data “Bibi Bibi” 23Su1 of the special effect A stored in association with the special effect data memory 23 (see FIG. 4) is read out and generated as shown in FIG. 25 (C). The image is stored in association with the composite image GG9 (step H5).

すると、前記図17(C)〜図25(C)で示したように、前記ステップSF〜SHの処理に従い作業用データメモリ上に生成された一連の合成画像データGG1〜GG9が合成画像データメモリ27に記憶され保存される(ステップS6)。
そして、前記合成画像データメモリ27に記憶された一連の合成画像データ(対応付けられた音声データを含む)GG1〜GG9が、前記図17(C)〜図25(C)で示すように、表示部11により再生表示されると共に音声出力部13により再生出力される(ステップS7)。なお、本合成画像出力装置がサーバ装置30(図7参照)として構成されている場合には、前記ステップS1において受信された一連の撮影画像データG1〜G9の送信元である通信ネットワークN上の通信端末A(デジタルカメラ)10′や通信端末B(PC)40に対して、前記合成画像データメモリ27に記憶された一連の合成画像データ(対応付けられた音声データを含む)GG1〜GG9が読み出されて応答送信される(ステップS7)。
Then, as shown in FIGS. 17C to 25C, a series of synthesized image data GG1 to GG9 generated on the work data memory in accordance with the processing of the steps SF to SH is obtained as a synthesized image data memory. 27 and stored (step S6).
A series of synthesized image data (including associated audio data) GG1 to GG9 stored in the synthesized image data memory 27 is displayed as shown in FIGS. 17 (C) to 25 (C). Reproduced and displayed by the unit 11 and reproduced and output by the audio output unit 13 (step S7). When the composite image output device is configured as the server device 30 (see FIG. 7), it is on the communication network N that is the transmission source of the series of captured image data G1 to G9 received in step S1. For the communication terminal A (digital camera) 10 ′ and the communication terminal B (PC) 40, a series of synthesized image data (including associated audio data) GG1 to GG9 stored in the synthesized image data memory 27. The read response is transmitted (step S7).

したがって、前記構成のデジタルカメラ10あるいはサーバ装置30による合成画像出力装置によれば、画像撮影部21により動画撮影された一連の撮影画像データGnが入力されると、当該撮影画像データGnに含まれる人物画像(P,K)が抽出され、予め設定された人物画像(K)の有無が検出される。そして、この顔画像に対応づけられた隊員の変身画像データ24Gw3に基づき、前記撮影画像データGnの人物画像(K)がそのモーションを同じにした隊員の変身画像データ24Gw3に置き換えられた合成画像データGGnとして生成出力される。さらに、撮影画像データGnに含まれる予め設定されたモーション(身振り)をしている人物画像(K)が検出されると、当該設定モーションに対応して、この人物画像に対応づけられ変身(2)の例えば○○マンTの3D画像生成用の変身画像データ24Gw3’に基づき、前記撮影画像データGnの人物画像(K)がそのモーションを同じにした変身画像データ24Gw3’に置き換えられた合成画像データGGnとして生成出力されるので、前記動画撮影に際して被写体となる予め登録された役割の人物がアニメのヒーローなどに変身するためのモーション(身振り)をするだけで、当初は、隊員の変身画像に置き換えた合成画像を生成し、変身モーション以降から当該被写体の人物画像を前記ヒーローの画像に置き換えた合成画像を容易に生成することができる。   Therefore, according to the composite image output device using the digital camera 10 or the server device 30 having the above configuration, when a series of captured image data Gn captured by the image capturing unit 21 is input, the captured image data Gn includes the captured image data Gn. A person image (P, K) is extracted, and the presence or absence of a preset person image (K) is detected. Then, based on the member's transformation image data 24Gw3 associated with the face image, the composite image data in which the person image (K) of the photographed image data Gn is replaced with the member's transformation image data 24Gw3 having the same motion. Generated and output as GGn. Further, when a person image (K) having a preset motion (gesture) included in the photographed image data Gn is detected, the person image (K) is associated with the person image and transformed (2 ), For example, based on the transformation image data 24Gw3 ′ for generating a 3D image of XX Man T, the synthesized image data 24Gw3 ′ in which the person image (K) of the photographed image data Gn has the same motion is replaced. Since it is generated and output as data GGn, a person with a role registered in advance as a subject at the time of shooting the video simply performs a motion (gesture) for transforming it into an anime hero or the like. A composite image is generated, and a composite image obtained by replacing the person image of the subject with the hero image after the transformation motion is generated. It can be generated easily.

よって、動画撮影された人物画像について、役割を予め決めておき、対応するキャラクタ画像に置き換えた合成画像を手軽に作成することができる。
これにより、例えばユーザ家族において役割を決めて、父親を怪獣役、子供をヒーロー役にした動画撮影を行えば、容易に特撮風の合成動画像GGnを作ることができ、当該生成された合成動画像GGnを表示部11に出力表示させて見たり、外部のモニタに出力表示させて見たりすることで、これまでにない楽しみを得ることができる。
Therefore, it is possible to easily create a composite image in which a role is determined in advance for a human image taken with a moving image and replaced with a corresponding character image.
Thus, for example, if a role is determined in the user's family and a movie is shot with the father serving as a monster and the child serving as a hero, a special effect-like synthesized moving image GGn can be easily created, and the generated synthesized movie The image GGn can be output and displayed on the display unit 11 or can be output and displayed on an external monitor for viewing.

また、前記構成のデジタルカメラ10あるいはサーバ装置30による合成画像出力装置によれば、予め役割の設定された人物画像(K)を検出して、これに対応する例えば○○マンTの変身画像データ24Gw3’に前記人物画像(K)を置き換え合成した合成画像GGnを生成した際には、前記変身データメモリ14に記憶されている当該変身画像データ24Gw3の音声データ「ター、ター」24Sw3を、前記合成画像GGnに対応付けて保存し出力させるので、容易且つよりリアルに特撮風の合成動画像GGnを作ることができる。   In addition, according to the composite image output device using the digital camera 10 or the server device 30 having the above-described configuration, a person image (K) having a role set in advance is detected, and, for example, a transformation image data of XX Man T corresponding thereto. When the synthesized image GGn is generated by replacing the person image (K) with 24Gw3 ′ and synthesized, the audio data “tar, ter” 24Sw3 of the transformed image data 24Gw3 stored in the transformed data memory 14 is Since it is stored and output in association with the composite image GGn, it is possible to easily and more realistically create a special effect-like composite moving image GGn.

また、前記構成のデジタルカメラ10による合成画像出力装置によれば、前記動画撮影中に表示部11にリアルタイムに表示される撮影画像データGnについて、予め役割の設定された人物画像(K)が検出された際には、当該人物画像(K)に対して例えば○○マンAの変身画像データ24Gw3’への変身対象となったことを示す変身マークデータ14Mu1を付加したマーク付き撮影画像データGmnとして表示部11に表示させ、しかも前記変身画像データ24Gw3の音声データ「ター、ター」24Sw3も共に音声出力部13から出力させるので、例えば撮影操作中の家族は、被写体の人物画像(子供)Kがその役柄通りに変身され置き換え処理されていることを容易に認識することができ、またこれを演じている最中の被写体自身(子供K)にあっても、自らがその役柄通りに変身処理されていることを音声により容易に認識することができる。   Further, according to the composite image output device using the digital camera 10 having the above-described configuration, a human image (K) having a role set in advance is detected for the captured image data Gn displayed in real time on the display unit 11 during the moving image capturing. When the photographed image data Gmn with the mark is added to the person image (K), for example, the transformation mark data 14Mu1 indicating that the person image (K) has been transformed into the transformation image data 24Gw3 ′ of XX Man A. Since the audio data “Tur, Tur” 24Sw3 of the transformation image data 24Gw3 is also output from the audio output unit 13 for display on the display unit 11, for example, the family image during the shooting operation is a person image (child) K of the subject. You can easily recognize that it has been transformed and replaced according to its role, and the subject that is playing this Even in body (child K), it can be easily recognized by the voice that has been transformed treated himself to its role as.

前記実施形態では、撮影画像データGnの予め設定された人物画像(K)にこれに対応する変身マークデータ24Mwおよび変身画像データ24Gwとを、変身データメモリ14により予め記憶する構成としたが、通信ネットワークN上のサーバ装置30(この場合はサービスサイトのデータ提供サーバ)から変身画像データ(変身キャラクタ)の好みの種類を選択してダウンロードし、変身データメモリ14として新たに記憶させ前記同様に機能させる構成としてもよい。   In the embodiment described above, the transformation mark data 24Mw and the transformation image data 24Gw corresponding to the preset person image (K) of the photographed image data Gn are stored in advance by the transformation data memory 14, but communication is performed. A desired type of transformation image data (transformation character) is selected and downloaded from the server device 30 on the network N (in this case, the data providing server of the service site), newly stored as the transformation data memory 14, and functions in the same manner as described above. A configuration may be adopted.

なお、前記実施形態において記載した合成画像出力装置による各処理の手法、すなわち、図8のフローチャートに示す合成画像出力処理、図9のフローチャートに示す前記合成画像出力処理に伴う対象画像抽出処理、図10のフローチャートに示す前記合成画像出力処理に伴う役柄変身マーク処理、図11のフローチャートに示す前記合成画像出力処理に伴う破壊マーク処理、図12のフローチャートに示す前記合成画像出力処理に伴うモーション変身マーク処理、図13のフローチャートに示す前記合成画像出力処理に伴う特殊効果マーク処理、図14のフローチャートに示す前記合成画像出力処理に伴う変身マーク合成処理、図15のフローチャートに示す前記合成画像出力処理に伴う破壊マーク合成処理、図16のフローチャートに示す前記合成画像出力処理に伴う特殊効果マーク合成処理等の各手法は、何れもコンピュータに実行させることができるプログラムとして、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶媒体18(33)に格納して配布することができる。そして、変身データ14(32B)、特殊効果データ23(32C)、破壊データ15(32D)、役柄データ24A(32EA)をメモリ17(32)に記憶した種々のコンピュータ端末は、この外部記憶媒体18(33)に記憶されたプログラムをプログラムメモリ22(32A)に読み込み、この読み込んだプログラムによって動作が制御されることにより、前記実施形態において説明した動画撮影画像データGnからの変身画像を用いた合成画像GGnの作成・出力機能を実現し、前述した手法による同様の処理を実行することができる。   Note that each processing method by the composite image output apparatus described in the embodiment, that is, the composite image output process shown in the flowchart of FIG. 8, the target image extraction process accompanying the composite image output process shown in the flowchart of FIG. The process change mark process accompanying the composite image output process shown in the flowchart of FIG. 10, the destruction mark process accompanying the composite image output process shown in the flowchart of FIG. 11, and the motion change mark accompanying the composite image output process shown in the flowchart of FIG. Processing, special effect mark processing accompanying the composite image output processing shown in the flowchart of FIG. 13, transformation mark composition processing accompanying the composite image output processing shown in the flowchart of FIG. 14, and the composite image output processing shown in the flowchart of FIG. Destruction mark compositing process with accompanying, shown in flowchart of FIG. Each method such as the special effect mark synthesis process associated with the synthesized image output process is a program that can be executed by a computer, such as a memory card (ROM card, RAM card, etc.), magnetic disk (floppy disk, hard disk, etc.). It can be stored and distributed in an external storage medium 18 (33) such as an optical disk (CD-ROM, DVD, etc.), semiconductor memory or the like. Various computer terminals storing the transformation data 14 (32B), special effect data 23 (32C), destruction data 15 (32D), and role data 24A (32EA) in the memory 17 (32) are connected to the external storage medium 18. The program stored in (33) is read into the program memory 22 (32A), and the operation is controlled by the read program, so that the composition using the transformed image from the moving image captured image data Gn described in the above embodiment is used. An image GGn creation / output function can be realized, and the same processing as described above can be executed.

また、前記各手法を実現するためのプログラムのデータは、プログラムコードの形態として通信ネットワーク(インターネット)N上を伝送させることができ、この通信ネットワーク(インターネット)Nに接続されたコンピュータ端末(プログラムサーバ)から前記のプログラムデータを取り込み、前述した動画撮影画像データGnからの変身画像を用いた合成画像GGnの作成・出力機能を実現することもできる。   Further, program data for realizing each of the above methods can be transmitted on a communication network (Internet) N as a program code form, and a computer terminal (program server) connected to the communication network (Internet) N ) From the above-mentioned program data, and a function of creating and outputting a composite image GGn using a transformed image from the above-described moving image captured image data Gn can be realized.

なお、本願発明は、前記各実施形態に限定されるものではなく、実施段階ではその要旨を逸脱しない範囲で種々に変形することが可能である。さらに、前記各実施形態には種々の段階の発明が含まれており、開示される複数の構成要件における適宜な組み合わせにより種々の発明が抽出され得る。例えば、各実施形態に示される全構成要件から幾つかの構成要件が削除されたり、幾つかの構成要件が異なる形態にして組み合わされても、発明が解決しようとする課題の欄で述べた課題が解決でき、発明の効果の欄で述べられている効果が得られる場合には、この構成要件が削除されたり組み合わされた構成が発明として抽出され得るものである。   Note that the present invention is not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the invention at the stage of implementation. Further, each of the embodiments includes inventions at various stages, and various inventions can be extracted by appropriately combining a plurality of disclosed constituent elements. For example, even if some constituent elements are deleted from all the constituent elements shown in each embodiment or some constituent elements are combined in different forms, the problems described in the column of the problem to be solved by the invention If the effects described in the column “Effects of the Invention” can be obtained, a configuration in which these constituent requirements are deleted or combined can be extracted as an invention.

本発明の合成画像出力装置の実施形態に係るデジタルカメラ10を利用した動画像の撮影状態と合成画像の生成状態を示す概念図。The conceptual diagram which shows the imaging | photography state of a moving image using the digital camera 10 which concerns on embodiment of the synthesized image output apparatus of this invention, and the production | generation state of a synthesized image. 前記デジタルカメラ10(通信端末A)の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the said digital camera 10 (communication terminal A). 前記デジタルカメラ10の変身データメモリ14に予め記憶される変身データの内容を示す図。The figure which shows the content of the transformation data previously stored in the transformation data memory 14 of the said digital camera 10. FIG. 前記デジタルカメラ10の特殊効果データメモリ23に予め記憶される特殊効果データの内容を示す図。The figure which shows the content of the special effect data previously stored in the special effect data memory 23 of the said digital camera 10. FIG. 前記デジタルカメラ10の破壊データメモリ15に予め記憶される破壊データの内容を示す図。The figure which shows the content of the destruction data previously stored in the destruction data memory 15 of the said digital camera 10. FIG. 前記デジタルカメラ10の役柄データメモリ24Aに記憶される役柄データの内容を示す図。The figure which shows the content of the role data memorize | stored in the role data memory 24A of the said digital camera 10. FIG. 本発明の合成画像出力装置の実施形態に係るサーバ装置30の電子回路の構成を示すブロック図。The block diagram which shows the structure of the electronic circuit of the server apparatus 30 which concerns on embodiment of the synthesized image output apparatus of this invention. 前記合成画像出力装置による合成画像出力処理の全体過程を示すフローチャート。6 is a flowchart showing an overall process of a composite image output process by the composite image output apparatus. 前記合成画像出力処理に伴い撮影画像(G)中に存在する人物(P,M,K)・物体(A,B,C)の対象画像を抽出する対象画像抽出処理を示すフローチャート。The flowchart which shows the target image extraction process which extracts the target image of the person (P, M, K) and the object (A, B, C) which exist in the picked-up image (G) with the said composite image output process. 前記合成画像出力処理に伴い役柄登録された人物画像(P,M)に変身マーク(24Mw)を付加する役柄変身マーク処理を示すフローチャート。The flowchart which shows the role transformation mark process which adds a transformation mark (24Mw) to the person image (P, M) by which the role registration was carried out with the said composite image output process. 前記合成画像出力処理に伴い抽出された物体画像(A,B,C)に破壊マーク(15M,15M′)を付加すると共に対応音声(15S)を出力する破壊マーク処理を示すフローチャート。The flowchart which shows the destruction mark process which adds a destruction mark (15M, 15M ') to the object image (A, B, C) extracted with the said synthetic image output process, and outputs corresponding sound (15S). 前記合成画像出力処理に伴い変身モーション(14P)の検出された人物画像(K)に変身マーク(14Mu)を付加すると共に対応音声(14Su)を出力するモーション変身マーク処理を示すフローチャート。The flowchart which shows the motion transformation mark process which adds a transformation mark (14Mu) to the person image (K) by which transformation motion (14P) was detected with the said composite image output process, and outputs corresponding sound (14Su). 前記合成画像出力処理に伴い特殊効果モーション(23P)の検出された人物画像(K)に特殊効果マーク(23Gu)を付加すると共に対応音声(23Su)を出力する特殊効果マーク処理を示すフローチャート。The flowchart which shows the special effect mark process which adds a special effect mark (23Gu) to the person image (K) from which the special effect motion (23P) was detected with the said composite image output process, and outputs corresponding sound (23Su). 前記合成画像出力処理に伴い変身マーク(24Mw)の付加された人物画像(P)(K)を変身画像(24Gw)(に置き換え合成すると共に対応音声(24Sw)の出力を設定する変身マーク合成処理を示すフローチャート。The transformation image synthesis processing for synthesizing the person image (P) (K) to which the transformation mark (24Mw) has been added in accordance with the synthetic image output processing, by replacing it with the transformation image (24Gw) (and setting the output of the corresponding voice (24Sw)) The flowchart which shows. 前記合成画像出力処理に伴い破壊マーク(15M,15M′)の付加された物体画像(A,B)を破壊画像(15G)に置き換え合成すると共に対応音声(15S)の出力を設定する破壊マーク合成処理を示すフローチャート。Destructive mark composition for replacing the object image (A, B) to which the destructive mark (15M, 15M ′) is added with the destructive image (15G) and setting the output of the corresponding voice (15S) along with the synthetic image output processing The flowchart which shows a process. 前記合成画像出力処理に伴い特殊効果マーク(23Gu)の付加された人物画像(K)の所定位置に特殊効果画像23Guを追加合成すると共に対応音声(23Su)の出力を設定する特殊効果マーク合成処理を示すフローチャート。A special effect mark synthesis process for additionally synthesizing the special effect image 23Gu at a predetermined position of the person image (K) to which the special effect mark (23Gu) is added in accordance with the synthetic image output process and setting the output of the corresponding sound (23Su). The flowchart which shows. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その1)であり、同図(A)は撮影画像G1を示す図、同図(B)はマーク付き撮影画像Gm1を示す図、同図(C)は合成画像GG1を示す図。FIG. 2 is a diagram (part 1) illustrating image processing states based on a moving image captured image (G) associated with the composite image output process in order of typical frame advance, in which FIG. (A) illustrates a captured image G1; FIG. 4B is a diagram showing a marked-captured photographed image Gm1, and FIG. 4C is a diagram showing a composite image GG1. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その2)であり、同図(A)は撮影画像G2を示す図、同図(B)はマーク付き撮影画像Gm2を示す図、同図(C)は合成画像GG2を示す図。FIG. 2 is a diagram (part 2) illustrating image processing states based on the moving image captured image (G) associated with the composite image output processing in order of typical frame advance, in which (A) is a diagram illustrating the captured image G2. FIG. 5B is a diagram showing a marked photographed image Gm2, and FIG. 5C is a diagram showing a composite image GG2. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その3)であり、同図(A)は撮影画像G3を示す図、同図(B)はマーク付き撮影画像Gm3を示す図、同図(C)は合成画像GG3を示す図。FIG. 3 is a diagram (part 3) illustrating image processing states based on the moving image captured image (G) associated with the composite image output process in order of typical frame advance, in which FIG. (A) is a diagram illustrating the captured image G3; FIG. 4B is a view showing a marked-captured photographed image Gm3, and FIG. 4C is a view showing a composite image GG3. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その4)であり、同図(A)は撮影画像G4を示す図、同図(B)はマーク付き撮影画像Gm4を示す図、同図(C)は合成画像GG4を示す図。FIG. 4 is a diagram (part 4) illustrating image processing states based on the moving image captured image (G) associated with the composite image output process sequentially as representative frame advance, and FIG. (A) is a diagram illustrating the captured image G4; FIG. 4B is a diagram showing a marked-captured photographed image Gm4, and FIG. 4C is a diagram showing a composite image GG4. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その5)であり、同図(A)は撮影画像G5を示す図、同図(B)はマーク付き撮影画像Gm5を示す図、同図(C)は合成画像GG5を示す図。FIG. 5 is a diagram (part 5) illustrating image processing states based on the moving image captured image (G) associated with the composite image output processing in order of typical frame advance, in which FIG. (A) illustrates the captured image G5; FIG. 5B is a view showing a marked photographic image Gm5, and FIG. 4C is a view showing a composite image GG5. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その6)であり、同図(A)は撮影画像G6を示す図、同図(B)はマーク付き撮影画像Gm6を示す図、同図(C)は合成画像GG6を示す図。FIG. 6 is a diagram (part 6) illustrating image processing states based on the moving image captured image (G) associated with the composite image output process sequentially as a representative frame advance, in which FIG. (A) illustrates the captured image G6; FIG. 5B is a view showing a marked photographed image Gm6, and FIG. 4C is a view showing a composite image GG6. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その7)であり、同図(A)は撮影画像G7を示す図、同図(B)はマーク付き撮影画像Gm7を示す図、同図(C)は合成画像GG7を示す図。FIG. 7 is a diagram (part 7) illustrating image processing states based on the moving image captured image (G) associated with the composite image output process sequentially as a representative frame advance, in which FIG. (A) illustrates the captured image G7; FIG. 4B is a diagram showing a marked photographic image Gm7, and FIG. 4C is a diagram showing a composite image GG7. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その8)であり、同図(A)は撮影画像G8を示す図、同図(B)はマーク付き撮影画像Gm8を示す図、同図(C)は合成画像GG8を示す図。FIG. 8 is a diagram (No. 8) illustrating image processing states based on the moving image captured image (G) accompanying the composite image output processing in order of typical frame advance, in which FIG. (A) is a diagram illustrating the captured image G8; FIG. 4B is a diagram showing a marked photographic image Gm8, and FIG. 4C is a diagram showing a composite image GG8. 前記合成画像出力処理に伴う動画撮影画像(G)に基づいた画像処理状態を順次代表的なコマ送りにして示す図(その9)であり、同図(A)は撮影画像G9を示す図、同図(B)はマーク付き撮影画像Gm9を示す図、同図(C)は合成画像GG9を示す図。FIG. 9 is a diagram (No. 9) illustrating image processing states based on the moving image captured image (G) associated with the composite image output processing sequentially as representative frame advance, in which FIG. (A) is a diagram illustrating the captured image G9; FIG. 4B is a diagram showing a marked photographic image Gm9, and FIG. 4C is a diagram showing a composite image GG9.

符号の説明Explanation of symbols

10 …デジタルカメラ(通信端末A)
11(37)…表示部
12(36)…入力部
13 …音声出力部
14(32B)…変身データメモリ
14P…変身モーションモデルデータ
14Gu…変身画像データ
14Su…変身音声データ
14Mu…変身マークデータ
15(32D)…破壊データメモリ
15T…破壊対象画像データ
15G…破壊画像データ
15S…破壊音声データ
15M…破壊(前)マークデータ
15M′…破壊(後)マークデータ
16(31)…CPU
17(32)…メモリ
18(33)…外部記録媒体
19(34)…記録媒体読取部
20(35)…電送制御部
21 …画像撮影部
22(32A)…プログラムメモリ
23(32C)…特殊効果データメモリ
23P…特殊効果モーションモデルデータ
23Gu…特殊効果画像データ
23Su…特殊効果音声データ
23Mu…特殊効果マークデータ
24A(32EA)…役柄データメモリ
24B(32EB)…役柄別変身状態
24T…変身対象(顔)画像データ
24Gw…変身画像データ
24Sw…変身音声データ
24Mw…変身マークデータ
24H …変身条件データ
25(32F)…撮影画像データメモリ
26(32G)…マーク付き撮影画像データメモリ
27(32H)…合成画像データメモリ
30 …サーバ装置
40 …通信端末B(PC)
N …通信ネットワーク(インターネット)
BG…背景画像データ
Gn…撮影画像データ
Gmn…マーク付き撮影画像データ
GGn…合成画像データ
P …人物画像(父親)
K …人物画像(子供)
M …人物画像(母親)
A1…物体画像(ビール瓶)
A2…物体画像(ペットボトル)
B …物体画像(紙飛行機)
C …物体画像(ティッシュボックス)
10 ... Digital camera (communication terminal A)
11 (37) ... Display unit 12 (36) ... Input unit 13 ... Audio output unit 14 (32B) ... Transformation data memory 14P ... Transformation motion model data 14Gu ... Transformation image data 14Su ... Transformation voice data 14Mu ... Transformation mark data 15 ( 32D) ... Destruction data memory 15T ... Destruction target image data 15G ... Destruction image data 15S ... Destruction audio data 15M ... Destruction (front) mark data 15M '... Destruction (rear) mark data 16 (31) ... CPU
17 (32) ... Memory 18 (33) ... External recording medium 19 (34) ... Recording medium reading section 20 (35) ... Transmission control section 21 ... Image photographing section 22 (32A) ... Program memory 23 (32C) ... Special effects Data memory 23P ... Special effect motion model data 23Gu ... Special effect image data 23Su ... Special effect sound data 23Mu ... Special effect mark data 24A (32EA) ... Role data memory 24B (32EB) ... Transform state according to role 24T ... Transformation object (face) ) Image data 24Gw ... Transformation image data 24Sw ... Transformation voice data 24Mw ... Transformation mark data 24H ... Transformation condition data 25 (32F) ... Captured image data memory 26 (32G) ... Marked captured image data memory 27 (32H) ... Composite image Data memory 30 ... Server device 40 ... Communication End B (PC)
N ... Communication network (Internet)
BG ... Background image data Gn ... Shooting image data Gmn ... Marked shooting image data GGn ... Composite image data P ... Person image (father)
K ... person image (child)
M ... person image (mother)
A1 ... Object image (beer bottle)
A2 ... Object image (plastic bottle)
B ... Object image (paper airplane)
C ... Object image (tissue box)

Claims (5)

変身対象の人物画像と役柄別の変身キャラクタの画像データとを対応付けて記憶する役柄データ記憶手段と、
動画撮影された一連の撮影画像データを取得する撮影画像取得手段と、
この撮影画像取得手段により取得された一連の撮影画像データの中から、前記役柄データ記憶手段に記憶された変身対象の人物画像を検出する役柄人物検出手段と、
この役柄人物検出手段により検出された人物画像に対応づけて前記役柄データ記憶手段により記憶されている変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の変身キャラクタの画像データに置き換えた合成画像データを生成する合成画像生成手段と、
この合成画像生成手段により生成された一連の合成画像データを出力する合成画像出力手段と、
を備え
前記役柄データ記憶手段は、役柄別に変身キャラクタの画像データおよび音声データと当該変身キャラクタを示すマークデータとを対応付けて記憶し、
前記合成画像生成手段は、
前記人物画像が検出された撮影画像データについて、当該検出された人物画像に前記役柄データ記憶手段により記憶されている変身キャラクタを示すマークデータを付加したマーク付き撮影画像データを生成するマーク付き撮影画像生成手段を有し、
このマーク付き撮影画像生成手段により生成されたマーク付き撮影画像データについて、前記変身キャラクタを示すマークデータが付加された人物画像を、前記役柄データ記憶手段により記憶されている変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の変身キャラクタの画像データに置き換えると共に、該変身キャラクタの音声データを対応付けた合成画像データを生成し、
前記撮影画像取得手段による一連の撮影画像データの取得に伴い、前記マーク付き撮影画像生成手段により生成されたマーク付き撮影画像データを表示させるマーク付き撮影画像表示制御手段と、
このマーク付き撮影画像表示制御手段による前記マーク付き撮影画像データの表示制御に伴い、当該マーク付き撮影画像データのマークデータに対応付けられて前記役柄データ記憶手段により記憶されている変身キャラクタの音声データを読み出して出力させる音声出力制御手段と、
をさらに備えたことを特徴とする合成画像出力装置。
A role data storage means for storing a person image to be transformed and image data of a transformation character for each role;
Captured image acquisition means for acquiring a series of captured image data taken by a movie,
Among the series of photographed image data acquired by the photographed image acquisition means, a role person detection means for detecting a person image to be transformed stored in the role data storage means,
Based on the image data of the transformation character stored in the role data storage unit in association with the person image detected by the role person detection unit, the synthesized image is replaced with the image data of the transformation character having the same posture as the person image. Synthetic image generation means for generating data;
A composite image output means for outputting a series of composite image data generated by the composite image generation means;
Equipped with a,
The character data storage means stores image data and voice data of a transformation character and mark data indicating the transformation character in association with each character,
The composite image generation means includes
With respect to the photographed image data from which the person image has been detected, a photographed image with a mark for generating marked photographed image data in which mark data indicating a transformation character stored in the role data storage unit is added to the detected person image. Generating means,
Based on the image data of the transformation character stored in the character data storage unit, the person image to which the mark data indicating the transformation character is added is added to the marked-up photographed image data generated by the marked shooting image generation unit. , Replacing with the image data of the transformation character of the same posture as the person image, and generating synthetic image data in which the voice data of the transformation character is associated,
With the acquisition of a series of captured image data by the captured image acquisition means, a marked captured image display control means for displaying the marked captured image data generated by the marked captured image generation means,
In accordance with the display control of the marked photographed image data by the marked photographed image display control means, the voice data of the transformation character stored in the role data storage means in association with the mark data of the marked photographed image data. Audio output control means for reading out and outputting,
Composite image output apparatus characterized by further comprising a.
前記役柄データ記憶手段は、さらに、前記役柄別に第2の変身キャラクタの画像データを記憶し、
前記検出された人物画像により、予め設定された変身身振りが行われたことを検出する変身身振り検出手段を有し、
前記合成画像生成手段は、この変身身振り検知手段により変身身振りが行われたことが検出された以後の撮影画像データについて、前記検出された人物画像に対応する役柄別の第2の変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の第2の変身キャラクタの画像データに置き換えた合成画像データを生成することを特徴とする請求項1に記載の合成画像出力装置。
The character data storage means further stores image data of a second transformation character for each character,
The detected person image has a transformation gesture detection means for detecting that a preset transformation gesture has been performed,
The synthesized image generation means is configured to detect the second transformed character image by character corresponding to the detected person image with respect to the captured image data after the transformation gesture detection means detects that the transformation gesture has been performed. The composite image output device according to claim 1, wherein the composite image data is generated based on the data and replaced with the image data of the second transformation character having the same posture as the person image.
前記役柄データ記憶手段は、役柄別に変身キャラクタの画像データおよび音声データとを対応付けて記憶し、
前記合成画像生成手段は、前記人物画像が検出された撮影画像データについて、当該検出された人物画像を前記変身データ記憶手段により記憶されている変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の変身キャラクタの画像データに置き換えると共に、当該変身キャラクタの音声データを対応付けた合成画像データを生成する、
ことを特徴とする請求項1に記載の合成画像出力装置。
The role data storage means stores image data and voice data of a transformation character in association with each role,
The synthesized image generating means has the same posture as the person image based on the image data of the transformation character stored in the transformation data storage means for the photographed image data from which the person image is detected. In addition to the image data of the makeover character, and generate composite image data in which the sound data of the makeover character is associated,
The composite image output apparatus according to claim 1.
コンピュータを、
変身対象の人物画像と役柄別の変身キャラクタの画像データとを対応付けて記憶する役柄データ記憶手段、
動画撮影された一連の撮影画像データを取得する撮影画像取得手段、
この撮影画像取得手段により取得された一連の撮影画像データの中から、前記役柄データ記憶手段に記憶された変身対象の人物画像を検出する役柄人物検出手段、
この役柄人物検出手段により検出された人物画像に対応づけて、前記役柄データ記憶手段により記憶されている変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の変身キャラクタの画像データに置き換えた合成画像データを生成する合成画像生成手段、
この合成画像生成手段により生成された一連の合成画像データを出力する合成画像出力手段、
として機能させ
前記役柄データ記憶手段は、役柄別に変身キャラクタの画像データおよび音声データと当該変身キャラクタを示すマークデータとを対応付けて記憶するように機能させ、
前記合成画像生成手段は、
前記人物画像が検出された撮影画像データについて、当該検出された人物画像に前記役柄データ記憶手段により記憶されている変身キャラクタを示すマークデータを付加したマーク付き撮影画像データを生成するマーク付き撮影画像生成手段を有するように機能させ、
前記マーク付き撮影画像生成手段により生成されたマーク付き撮影画像データについて、前記変身キャラクタを示すマークデータが付加された人物画像を、前記役柄データ記憶手段により記憶されている変身キャラクタの画像データに基づき、当該人物画像と同じ姿勢の変身キャラクタの画像データに置き換えると共に、該変身キャラクタの音声データを対応付けた合成画像データを生成するように機能させ、さらに、
前記撮影画像取得手段による一連の撮影画像データの取得に伴い、前記マーク付き撮影画像生成手段により生成されたマーク付き撮影画像データを表示させるマーク付き撮影画像表示制御手段、
このマーク付き撮影画像表示制御手段による前記マーク付き撮影画像データの表示制御に伴い、当該マーク付き撮影画像データのマークデータに対応付けられて前記役柄データ記憶手段により記憶されている変身キャラクタの音声データを読み出して出力させる音声出力制御手段、
として機能させるようにしたコンピュータ読み込み可能な合成画像出力処理プログラム。
Computer
Role data storage means for storing a person image to be transformed and image data of a transform character for each role in association with each other,
Captured image acquisition means for acquiring a series of captured image data taken with a movie,
From the series of photographed image data acquired by the photographed image acquisition means, a role person detection means for detecting a person image to be transformed stored in the role data storage means,
Based on the image data of the transformed character stored in the role data storage unit in association with the person image detected by the role person detecting unit, the synthesized image is replaced with the image data of the transformed character having the same posture as the person image. Synthetic image generation means for generating image data;
A composite image output means for outputting a series of composite image data generated by the composite image generation means;
To function as,
The role data storage means functions to store image data and sound data of a transformation character for each role in association with mark data indicating the transformation character,
The composite image generation means includes
With respect to the photographed image data from which the person image has been detected, a photographed image with a mark for generating marked photographed image data in which mark data indicating a transformation character stored in the role data storage unit is added to the detected person image. Function to have generating means,
For the marked photographed image data generated by the marked photographed image generation means, a person image to which mark data indicating the transformation character is added is based on the transformation character image data stored in the role data storage means. , Replacing the image data of a transformation character with the same posture as the person image, functioning to generate synthesized image data in which the voice data of the transformation character is associated,
With the acquisition of a series of captured image data by the captured image acquisition means, a marked captured image display control means for displaying the marked captured image data generated by the marked captured image generation means,
In accordance with the display control of the marked photographed image data by the marked photographed image display control means, the voice data of the transformation character stored in the role data storage means in association with the mark data of the marked photographed image data. Voice output control means for reading out and outputting,
Computer readable composite image output processing program in so that to function as a.
前記役柄データ記憶手段は、前記コンピュータを、役柄別の変身キャラクタの画像データを、複数種類、選択的にダウンロードしてメモリに記憶する手段として機能させることを特徴とする請求項に記載の合成画像出力処理プログラム。 5. The composition according to claim 4 , wherein said character data storage means causes said computer to function as means for selectively downloading a plurality of types of image data of transformation characters for different characters and storing them in a memory. Image output processing program.
JP2007232207A 2007-09-07 2007-09-07 Composite image output apparatus and composite image output processing program Expired - Fee Related JP4983494B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007232207A JP4983494B2 (en) 2007-09-07 2007-09-07 Composite image output apparatus and composite image output processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007232207A JP4983494B2 (en) 2007-09-07 2007-09-07 Composite image output apparatus and composite image output processing program

Publications (2)

Publication Number Publication Date
JP2009064288A JP2009064288A (en) 2009-03-26
JP4983494B2 true JP4983494B2 (en) 2012-07-25

Family

ID=40558811

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007232207A Expired - Fee Related JP4983494B2 (en) 2007-09-07 2007-09-07 Composite image output apparatus and composite image output processing program

Country Status (1)

Country Link
JP (1) JP4983494B2 (en)

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5267279B2 (en) * 2009-03-31 2013-08-21 カシオ計算機株式会社 Image composition apparatus and program
JP7218979B1 (en) 2022-07-07 2023-02-07 Jp Games株式会社 Information processing device, information processing method and program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002006900A (en) * 2000-06-27 2002-01-11 Megafusion Corp Method and system for reducing and reproducing voice

Also Published As

Publication number Publication date
JP2009064288A (en) 2009-03-26

Similar Documents

Publication Publication Date Title
JP4973622B2 (en) Image composition apparatus and image composition processing program
CN108322832B (en) Comment method and device and electronic equipment
JP5169111B2 (en) Composite image output apparatus and composite image output processing program
JP5012373B2 (en) Composite image output apparatus and composite image output processing program
WO2019100753A1 (en) Video generation method and apparatus, and electronic device
CN111080759A (en) Method and device for realizing split mirror effect and related product
JP4962219B2 (en) Composite image output apparatus and composite image output processing program
JP5252068B2 (en) Composite image output apparatus and composite image output processing program
JP4981370B2 (en) Movie generation system and movie generation method
JP4423929B2 (en) Image output device, image output method, image output processing program, image distribution server, and image distribution processing program
JP4935647B2 (en) Composite image output apparatus and composite image output processing program
JP2006227838A (en) Image processor and image processing program
KR102200239B1 (en) Real-time computer graphics video broadcasting service system
JP5651939B2 (en) Image processing apparatus and program
JP4962218B2 (en) Composite image output apparatus and composite image output processing program
JP4983494B2 (en) Composite image output apparatus and composite image output processing program
JP7160707B2 (en) Method for providing images containing virtual characters
JP6313003B2 (en) Karaoke apparatus, image output method, and program
JP3901015B2 (en) Image output apparatus, image output processing program, and image output method
JP4254391B2 (en) Image output device, image output processing program, and image distribution server
KR20200025285A (en) System and method for entertainer experience
JP4151543B2 (en) Image output apparatus, image output method, and image output processing program
CN116419031A (en) Data processing method, device and equipment
JP7065708B2 (en) Recording / playback device and program
JP4168803B2 (en) Image output device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100727

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111025

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111213

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120210

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120327

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120409

R150 Certificate of patent or registration of utility model

Ref document number: 4983494

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150511

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees