JP5249805B2 - Image composition system and image composition method - Google Patents

Image composition system and image composition method Download PDF

Info

Publication number
JP5249805B2
JP5249805B2 JP2009028074A JP2009028074A JP5249805B2 JP 5249805 B2 JP5249805 B2 JP 5249805B2 JP 2009028074 A JP2009028074 A JP 2009028074A JP 2009028074 A JP2009028074 A JP 2009028074A JP 5249805 B2 JP5249805 B2 JP 5249805B2
Authority
JP
Japan
Prior art keywords
image
additional
unit
position information
additional image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2009028074A
Other languages
Japanese (ja)
Other versions
JP2010187052A (en
Inventor
潤 池田
卓真 小杉
謙太 千代田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
SoftBank Corp
Original Assignee
SoftBank Mobile Corp
SoftBank Telecom Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by SoftBank Mobile Corp, SoftBank Telecom Corp filed Critical SoftBank Mobile Corp
Priority to JP2009028074A priority Critical patent/JP5249805B2/en
Publication of JP2010187052A publication Critical patent/JP2010187052A/en
Application granted granted Critical
Publication of JP5249805B2 publication Critical patent/JP5249805B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Studio Devices (AREA)

Description

本発明は、画像を合成する画像合成システム、撮像装置、画像合成方法、及びプログラムに関する。   The present invention relates to an image composition system, an imaging apparatus, an image composition method, and a program for compositing images.

従来、GPSにより現在の位置を取得して、現在の位置の地名と撮影した画像とを合成する技術が知られている。   Conventionally, a technique is known in which a current position is acquired by GPS and a place name of the current position is combined with a captured image.

特開2001−235790号公報JP 2001-235790 A

現在の位置の地名を撮影した画像に単に合成すると、ユーザが撮影しようしている被写体に重畳して地名が合成される虞がある。   If the place name at the current position is simply combined with the captured image, the place name may be combined with the subject that the user is shooting.

上記課題を解決するために、本発明の第1の態様においては、撮像装置とサーバとを有する画像合成システムであって、撮像装置は、被写体を撮像する撮像部と、撮像した撮像画像内にある特定の被写体を検出する被写体検出部と、撮像装置の現在位置を示す位置情報を取得する位置情報取得部と、取得した位置情報をサーバに送信する位置情報送信部と、位置情報に応じた付加画像をサーバから取得する付加画像取得部と、撮像画像における、被写体検出部が検出した特定の被写体の位置に対して予め定められた位置に、付加画像を配置させた合成画像を生成する合成画像生成部とを備え、サーバは、位置情報に対応付けて付加画像を記録した付加画像記録部と、位置情報送信部が送信した位置情報を受信する位置情報受信部と、付加画像記録部が記録している、受信した位置情報に対応する付加画像を撮像装置に送信する付加画像送信部とを備える。   In order to solve the above problems, in a first aspect of the present invention, an image composition system including an imaging device and a server, the imaging device includes an imaging unit that images a subject, and a captured image that is captured A subject detection unit that detects a specific subject, a location information acquisition unit that acquires location information indicating the current location of the imaging device, a location information transmission unit that transmits the acquired location information to the server, and a response to the location information An additional image acquisition unit that acquires the additional image from the server, and a composite that generates a composite image in which the additional image is arranged at a predetermined position with respect to the position of the specific subject detected by the subject detection unit in the captured image An image generation unit, and the server includes an additional image recording unit that records the additional image in association with the position information, a position information reception unit that receives the position information transmitted by the position information transmission unit, and an additional image. Recording unit is recording, and an additional image transmitting unit that transmits to the imaging device the additional image corresponding to the received location information.

撮像装置は、被写体検出部が検出した特定の被写体の大きさに応じて付加画像の大きさを変更する画像変更部をさらに備え、合成画像生成部は、撮像画像における、被写体検出部が検出した特定の被写体の位置に対して予め定められた位置に、画像変更部が変更した付加画像を配置させた合成画像を生成する。   The imaging apparatus further includes an image changing unit that changes the size of the additional image in accordance with the size of the specific subject detected by the subject detection unit, and the composite image generation unit is detected by the subject detection unit in the captured image. A composite image is generated in which the additional image changed by the image changing unit is arranged at a position predetermined with respect to the position of the specific subject.

付加画像記録部は、複数の位置情報及び時刻に対応付けて複数の付加画像を記録しており、付加画像送信部は、受信した位置情報及び時刻に応じた付加画像を撮像装置に送信し、付加画像取得部は、付加画像送信部が送信した付加画像を取得する。   The additional image recording unit records a plurality of additional images in association with the plurality of position information and time, and the additional image transmission unit transmits the received additional information according to the position information and time to the imaging device, The additional image acquisition unit acquires the additional image transmitted by the additional image transmission unit.

撮像装置は、顔の表情を判断する表情判断部をさらに備え、被写体検出部は、特定の被写体として人物の顔を検出し、表情判断部は、被写体検出部が検出した人物の顔の表情を判断し、位置情報送信部は、取得した位置情報及び判断した顔の表情を送信し、付加画像記録部は、複数の位置情報及び複数の顔の表情に対応付けて複数の付加画像を記録しており、付加画像送信部は、受信した位置情報及び顔の表情に応じた付加画像を撮像装置に送信し、付加画像取得部は、付加画像送信部が送信した付加画像を取得する。   The imaging apparatus further includes a facial expression determination unit that determines facial expressions, the subject detection unit detects a human face as a specific subject, and the facial expression determination unit uses the facial expression of the person detected by the subject detection unit. The position information transmission unit transmits the acquired position information and the determined facial expression, and the additional image recording unit records a plurality of additional images in association with the plurality of position information and the plurality of facial expressions. The additional image transmission unit transmits an additional image corresponding to the received position information and facial expression to the imaging device, and the additional image acquisition unit acquires the additional image transmitted by the additional image transmission unit.

撮像装置は、合成画像を表示する表示部を備え、撮像部は、被写体を順次撮像し、付加画像取得部は、位置情報に応じた付加動画像を取得し、合成画像生成部は、順次撮像したそれぞれの撮像画像における、被写体検出部が検出した特定の被写体の位置に対して予め定められた付加動画像の位置に、付加動画像のフレーム画像を順次配置させた合成画像を順次生成し、表示部は、合成画像生成部が生成した合成画像を順次表示する。   The imaging device includes a display unit that displays a composite image, the imaging unit sequentially captures the subject, the additional image acquisition unit acquires an additional moving image according to the position information, and the composite image generation unit sequentially captures the image. In each captured image, a combined image in which the frame images of the additional moving image are sequentially arranged at the position of the additional moving image that is predetermined with respect to the position of the specific subject detected by the subject detection unit is sequentially generated, The display unit sequentially displays the composite images generated by the composite image generation unit.

撮像部は、被写体の動画像を撮像し、付加画像取得部は、位置情報に応じた付加動画像を取得し、合成画像生成部は、撮像動画像に対する、被写体検出部が検出した特定の被写体の位置に対して予め定められた付加動画像の位置に、付加動画像を配置させた合成動画像を生成する。   The imaging unit captures a moving image of a subject, the additional image acquisition unit acquires an additional moving image according to position information, and the composite image generation unit detects a specific subject detected by the subject detection unit for the captured moving image A synthesized moving image is generated in which the additional moving image is arranged at a position of the additional moving image that is predetermined with respect to the position.

上記課題を解決するために、本発明の第2の態様においては、画像を合成する撮像装置であって、被写体を撮像する撮像部と、撮像した撮像画像内にある特定の被写体を検出する被写体検出部と、撮像装置の現在位置を示す位置情報を取得する位置情報取得部と、位置情報に応じた付加画像を取得する付加画像取得部と、撮像画像における、被写体検出部が検出した特定の被写体の位置に対して予め定められた位置に、付加画像を配置させた合成画像を生成する合成画像生成部とを備える。   In order to solve the above-described problem, in a second aspect of the present invention, an image pickup apparatus that combines images, an image pickup unit that picks up a subject, and a subject that detects a specific subject in the picked-up image A detection unit, a position information acquisition unit that acquires position information indicating the current position of the imaging device, an additional image acquisition unit that acquires an additional image according to the position information, and a specific object detected by the subject detection unit in the captured image A composite image generation unit configured to generate a composite image in which the additional image is arranged at a position predetermined with respect to the position of the subject.

なお、上記の発明の概要は、本発明の必要な特徴の全てを列挙したものではない。また、これらの特徴群のサブコンビネーションもまた、発明となりうる。   It should be noted that the above summary of the invention does not enumerate all the necessary features of the present invention. In addition, a sub-combination of these feature groups can also be an invention.

実施の形態の画像合成システム100の一例を示す。1 shows an example of an image composition system 100 according to an embodiment. 撮像装置200の構成の一例を示す。2 shows an exemplary configuration of an imaging apparatus 200. サーバ300の構成の一例を示す。2 shows an exemplary configuration of a server 300. 付加画像テーブル400の一例を示す。An example of the additional image table 400 is shown. 画像合成システム100の動作のフローチャートを示す。2 shows a flowchart of the operation of the image composition system 100. 合成画像生成部208が生成した合成画像の一例を示す。An example of a composite image generated by the composite image generation unit 208 is shown. 付加動画像の場合における合成画像生成部208が生成した合成動画像の一例を示す。An example of a synthesized moving image generated by the synthesized image generating unit 208 in the case of an additional moving image is shown. 特定の被写体として文字を検出する場合における、撮像画像及び該撮像画像に付加画像が合成された合成画像の一例を示す。An example of a captured image and a combined image obtained by combining an additional image with the captured image when a character is detected as a specific subject is shown.

以下、発明の実施の形態を通じて本発明を説明するが、以下の実施形態は特許請求の範囲にかかる発明を限定するものではない。また、実施形態の中で説明されている特徴の組み合わせの全てが発明の解決手段に必須であるとは限らない。   Hereinafter, the present invention will be described through embodiments of the invention, but the following embodiments do not limit the invention according to the claims. In addition, not all the combinations of features described in the embodiments are essential for the solving means of the invention.

図1は、実施の形態の画像合成システム100の一例を示す。画像合成システム100は、撮像装置200、ネットワーク250、及びサーバ300を備える。   FIG. 1 shows an example of an image composition system 100 according to the embodiment. The image composition system 100 includes an imaging device 200, a network 250, and a server 300.

撮像装置200は、被写体を撮像して画像データを得る。撮像装置200は、デジタルカメラに限られず、ビデオカメラ、携帯電話、PDAなどの被写体を撮像することができる電気機器であってよい。撮像装置200及びサーバ300は、携帯電話通信網、インターネット網等のネットワーク250と接続されている。撮像装置200及びサーバ300は、ネットワーク250を介して、相互に通信できる。   The imaging device 200 captures a subject and obtains image data. The imaging device 200 is not limited to a digital camera, and may be an electric device that can image a subject such as a video camera, a mobile phone, or a PDA. The imaging device 200 and the server 300 are connected to a network 250 such as a mobile phone communication network or the Internet network. The imaging device 200 and the server 300 can communicate with each other via the network 250.

遊園地などのテーマパークの敷地内、市内、又は地域などを任意の複数のエリアに分ける。撮像装置200が特定の被写体を撮像すると、撮像装置200が存在するエリアに応じた付加画像をサーバ300が撮像装置200に送信する。例えば、エリア1内に存在する特定の被写体を撮像した撮像装置200に、サーバ300が送信する画像と、エリア2内に存在する特定の被写体を撮像した撮像装置200に、サーバ300が送信する画像とは異なる。撮像装置200は、撮像した画像とサーバ300が送信した付加画像とを合成する。なお、撮像装置200は、プログラムを読み込んだ情報処理装置によって実現してもよい。また、サーバ300は、プログラムを読み込んだ情報処理装置によって実現してもよい。また、撮像装置200は、プログラムを記録した記録媒体を有してよい。また、サーバ300は、プログラムを記録した記録媒体を有してもよい。   Divide the theme park grounds such as an amusement park, the city, or the area into any number of areas. When the imaging device 200 captures a specific subject, the server 300 transmits an additional image corresponding to the area where the imaging device 200 exists to the imaging device 200. For example, an image transmitted by the server 300 to the imaging device 200 that captured a specific subject existing in the area 1 and an image transmitted by the server 300 to the imaging device 200 that captured a specific subject present in the area 2. Is different. The imaging device 200 combines the captured image and the additional image transmitted by the server 300. Note that the imaging apparatus 200 may be realized by an information processing apparatus that has read a program. The server 300 may be realized by an information processing apparatus that has read a program. Further, the imaging apparatus 200 may include a recording medium that records a program. The server 300 may have a recording medium that records the program.

図2は、撮像装置200の構成の一例を示す。撮像装置200は、撮像部201、被写体検出部202、表情判断部203、位置情報取得部204、位置情報送信部205、付加画像取得部206、画像変更部207、合成画像生成部208、表示部209、及び記録部210を備える。   FIG. 2 shows an example of the configuration of the imaging apparatus 200. The imaging apparatus 200 includes an imaging unit 201, a subject detection unit 202, a facial expression determination unit 203, a position information acquisition unit 204, a position information transmission unit 205, an additional image acquisition unit 206, an image change unit 207, a composite image generation unit 208, and a display unit. 209 and a recording unit 210.

撮像部201は、被写体からの光を電気信号に変換して、画像データを得る。撮像部201は、撮像素子、A/D変換器、撮像素子駆動ドライバ等を備える。撮像素子駆動ドライバは、撮像素子が蓄積した画像データを読み出す。A/D変換器は、読み出したアナログ信号の画像データをデジタル信号の画像データに変換する。撮像部201は、デジタル信号の撮像画像を被写体検出部202、表情判断部203、及び合成画像生成部208に出力する。撮像素子駆動ドライバ及びA/D変換器は、情報処理装置によって制御される。   The imaging unit 201 converts light from the subject into an electrical signal to obtain image data. The imaging unit 201 includes an imaging element, an A / D converter, an imaging element driving driver, and the like. The image sensor drive driver reads image data accumulated by the image sensor. The A / D converter converts the read analog signal image data into digital signal image data. The imaging unit 201 outputs the captured image of the digital signal to the subject detection unit 202, the facial expression determination unit 203, and the composite image generation unit 208. The image sensor driving driver and the A / D converter are controlled by the information processing apparatus.

被写体検出部202は、撮像部201が撮像した撮像画像内にある特定の被写体を検出する。特定の被写体としては、人物の顔であってもよく、特定の人物の顔であってもよい。また、特定の被写体として、子供の顔であってもよい。さらに、特定の動物、特定の建物、特定の置物、特定の人形等を特定の被写体として検出してよい。被写体検出部202は、特定の被写体の特徴データを記録しておいてよく、撮像画像を解析して、特徴データとより一致する画像領域を検出してよい。被写体検出部202は、特定の被写体を検出した画像領域の情報を表情判断部203、及び画像変更部207に出力する。また、被写体検出部202は、複数種類の被写体を特定の被写体として検出してもよい。被写体検出部202は、CPU等の情報処理装置によって実現してもよく、電子回路又は電気回路によって実現してもよい。   The subject detection unit 202 detects a specific subject in the captured image captured by the imaging unit 201. The specific subject may be a person's face or a specific person's face. The specific subject may be a child's face. Furthermore, a specific animal, a specific building, a specific figurine, a specific doll, or the like may be detected as a specific subject. The subject detection unit 202 may record feature data of a specific subject and may analyze a captured image to detect an image region that more closely matches the feature data. The subject detection unit 202 outputs information on an image area in which a specific subject is detected to the facial expression determination unit 203 and the image change unit 207. The subject detection unit 202 may detect a plurality of types of subjects as specific subjects. The subject detection unit 202 may be realized by an information processing device such as a CPU, or may be realized by an electronic circuit or an electric circuit.

表情判断部203は、被写体検出部202が検出した人の顔の表情を判断する。表情判断部203は、撮像部201から送られてきた画像データのうち、被写体検出部202が検出した人の顔領域の画像データを解析して、表情を判断する。表情判断部203は、笑い、泣き、怒りなどのそれぞれの表情の特徴データを記録しておいてよく、どの特徴データとより一致するかを検出することにより、表情を判断してよい。表情判断部203は、判断した顔の表情を位置情報送信部205に出力する。表情判断部203は、CPU等の情報処理装置によって実現してもよく、電子回路又は電気回路によって実現してもよい。   The facial expression determination unit 203 determines the facial expression of the person detected by the subject detection unit 202. The facial expression determination unit 203 analyzes the image data of the human face area detected by the subject detection unit 202 from the image data sent from the imaging unit 201 to determine the facial expression. The facial expression determination unit 203 may record feature data of each facial expression such as laughter, cry, and anger, and may determine the facial expression by detecting which feature data is more consistent. The facial expression determination unit 203 outputs the determined facial expression to the position information transmission unit 205. The facial expression determination unit 203 may be realized by an information processing device such as a CPU, or may be realized by an electronic circuit or an electric circuit.

位置情報取得部204は、撮像装置200の現在位置を取得する。位置情報取得部204は、GPS等により現在の位置を取得してもよい。また、エリア毎に、エリアの位置を示す情報を無線通信により送信する位置情報送信部を設けてよく、位置情報取得部204は、位置情報送信部が送信した位置情報を取得してもよい。また、他の方法によって撮像装置200の現在位置を取得してもよい。位置情報取得部204は、取得した位置情報を位置情報送信部205に出力する。位置情報取得部204は、CPU等の情報処理装置によって実現してもよく、電子回路又は電気回路によって実現してもよい。   The position information acquisition unit 204 acquires the current position of the imaging device 200. The position information acquisition unit 204 may acquire the current position by GPS or the like. In addition, for each area, a position information transmission unit that transmits information indicating the position of the area by wireless communication may be provided, and the position information acquisition unit 204 may acquire the position information transmitted by the position information transmission unit. Further, the current position of the imaging device 200 may be acquired by other methods. The position information acquisition unit 204 outputs the acquired position information to the position information transmission unit 205. The position information acquisition unit 204 may be realized by an information processing device such as a CPU, or may be realized by an electronic circuit or an electric circuit.

位置情報送信部205は、表情判断部203が判断した人物の顔の表情を示す情報、及び位置情報取得部204が取得した位置情報を、ネットワーク250を介してサーバに送信する。位置情報送信部205は、携帯電話通信網のパケット通信によりデータを送信してもよく、無線LANによりデータを送信してもよい。付加画像取得部206は、サーバ300が位置情報及び顔の表情に応じて送信した付加画像を、ネットワーク250を介して取得する。付加画像取得部206は、携帯電話通信網のパケット通信によりデータを取得してもよく、無線LANによりデータを取得してもよい。付加画像取得部206は、取得した付加画像を画像変更部207に出力する。付加画像は、静止画像であってもよく、動画像であってもよい。つまり、付加画像とは、静止画像と動画像の両方を意味する。また、付加動画像は、動画の付加画像を示す。位置情報送信部205及び付加画像取得部206は、CPU等の情報処理装置によって実現してもよく、電子回路又は電気回路によって実現してもよい。   The position information transmission unit 205 transmits information indicating the facial expression of the person determined by the expression determination unit 203 and the position information acquired by the position information acquisition unit 204 to the server via the network 250. The location information transmission unit 205 may transmit data by packet communication of a cellular phone communication network, or may transmit data by wireless LAN. The additional image acquisition unit 206 acquires the additional image transmitted by the server 300 according to the position information and facial expression via the network 250. The additional image acquisition unit 206 may acquire data by packet communication of a cellular phone communication network, or may acquire data by a wireless LAN. The additional image acquisition unit 206 outputs the acquired additional image to the image change unit 207. The additional image may be a still image or a moving image. That is, the additional image means both a still image and a moving image. Further, the additional moving image indicates a moving image additional image. The position information transmission unit 205 and the additional image acquisition unit 206 may be realized by an information processing device such as a CPU, or may be realized by an electronic circuit or an electric circuit.

画像変更部207は、被写体検出部202が検出した特定の被写体の大きさに応じて、付加画像取得部206が取得した付加画像の大きさを変更する。被写体検出部202が検出した特定の被写体の大きさが大きいほど、付加画像を大きくしてよい。画像変更部207は、被写体検出部202が検出した特定の被写体の撮像画像内における大きさに応じて付加画像の大きさを変更する。つまり、画像変更部207は、撮像画像内における被写体検出部202が検出した特定の被写体の画像領域の大きさに応じて付加画像の大きさを変更する。画像変更部207は、変更した付加画像を合成画像生成部208に出力する。画像変更部207は、CPU等の情報処理装置によって実現してもよく、電子回路又は電気回路によって実現してもよい。   The image change unit 207 changes the size of the additional image acquired by the additional image acquisition unit 206 according to the size of the specific subject detected by the subject detection unit 202. The additional image may be enlarged as the size of the specific subject detected by the subject detection unit 202 increases. The image changing unit 207 changes the size of the additional image according to the size of the specific subject detected by the subject detection unit 202 in the captured image. That is, the image changing unit 207 changes the size of the additional image according to the size of the image area of the specific subject detected by the subject detection unit 202 in the captured image. The image changing unit 207 outputs the changed additional image to the composite image generating unit 208. The image changing unit 207 may be realized by an information processing device such as a CPU, or may be realized by an electronic circuit or an electric circuit.

合成画像生成部208は、撮像部201が撮像した撮像画像と、付加画像取得部206が取得した付加画像とを合成して合成画像を生成する。合成画像生成部208は、撮像画像と画像変更部207が変更した付加画像とを合成して合成画像を生成してよい。合成画像生成部208は、撮像画像における特定の被写体の位置に対して予め定められた位置に、付加画像を配置させた合成画像を生成する。付加画像毎に予め定められた位置が異なってもよい。また、付加画像取得部206が付加動画像を取得した場合は、撮像画像における特定の被写体の位置に対して予め定められた付加動画像の位置に、付加動画像のフレーム画像を配置させた合成画像を生成してもよい。また、合成画像生成部208は、撮像動画像に対する、被写体検出部202が検出した被写体の位置に対して予め定められた付記動画像の位置に、付加動画像を配置させた合成動画像を生成してもよい。   The composite image generation unit 208 combines the captured image captured by the imaging unit 201 and the additional image acquired by the additional image acquisition unit 206 to generate a composite image. The composite image generation unit 208 may generate a composite image by combining the captured image and the additional image changed by the image change unit 207. The composite image generation unit 208 generates a composite image in which the additional image is arranged at a position predetermined with respect to the position of the specific subject in the captured image. A predetermined position may be different for each additional image. Further, when the additional image acquisition unit 206 acquires the additional moving image, a composition in which the frame image of the additional moving image is arranged at the position of the additional moving image that is predetermined with respect to the position of the specific subject in the captured image. An image may be generated. The composite image generation unit 208 generates a composite moving image in which an additional moving image is arranged at a position of a supplementary moving image that is predetermined with respect to the position of the subject detected by the subject detection unit 202 with respect to the captured moving image. May be.

また、撮像部201が所定のフレームレートで画像を撮像している場合、合成画像生成部208は、撮像された撮像画像順に付加画像を配置させた合成画像を順次生成してもよい。また、付加画像取得部206は、付加動画像を取得した場合は、順次撮像した撮像画像における特定の被写体の位置に対して予め定められた付加動画像の位置に、付加動画像のフレーム画像を順次配置させた合成画像を順次生成してもよい。つまり、撮像した1枚目の撮像画像と、付加動画像の1枚目のフレーム画像とを合成して、撮像した2枚目の撮像画像と、付加動画像の2枚目のフレーム画像とを合成するというように、撮像した撮像動画像と付加動画像とを合成する。合成画像生成部208は、CPU等の情報処理装置によって実現してもよく、電子回路又は電気回路によって実現してもよい。   When the imaging unit 201 captures an image at a predetermined frame rate, the composite image generation unit 208 may sequentially generate a composite image in which additional images are arranged in the order of the captured image. Further, when the additional image acquisition unit 206 acquires the additional moving image, the additional image acquisition unit 206 adds the frame image of the additional moving image to the position of the additional moving image that is predetermined with respect to the position of the specific subject in the sequentially captured images. Synthesized images arranged sequentially may be sequentially generated. In other words, the first captured image captured and the first frame image of the additional moving image are combined, and the second captured image and the second frame image of the additional moving image are combined. As in the case of combining, the captured moving image and the additional moving image are combined. The composite image generation unit 208 may be realized by an information processing device such as a CPU, or may be realized by an electronic circuit or an electric circuit.

表示部209は、合成画像生成部208が生成した合成画像を表示する。表示部209は、液晶、有機EL、プラズマなどのディスプレイを有する。記録部210は、合成画像生成部208が生成した合成画像を記録する。記録部210は、ハードディスク、不揮発性メモリ等の記録媒体を有する。   The display unit 209 displays the composite image generated by the composite image generation unit 208. The display unit 209 includes a display such as liquid crystal, organic EL, or plasma. The recording unit 210 records the composite image generated by the composite image generation unit 208. The recording unit 210 includes a recording medium such as a hard disk and a nonvolatile memory.

図3は、サーバ300の構成の一例を示す。サーバ300は、位置情報受信部301、付加画像記録部302、及び付加画像送信部303を有する。位置情報受信部301は、ネットワーク250を介して、撮像装置200が送信した位置情報及び顔の表情を受信する。位置情報受信部301は、携帯電話通信網のパケット通信によりデータを受信してもよく、無線LANによりデータを受信してもよい。   FIG. 3 shows an exemplary configuration of the server 300. The server 300 includes a position information receiving unit 301, an additional image recording unit 302, and an additional image transmitting unit 303. The position information receiving unit 301 receives the position information and facial expression transmitted from the imaging apparatus 200 via the network 250. The location information receiving unit 301 may receive data by packet communication of a cellular phone communication network, or may receive data by a wireless LAN.

付加画像記録部302は、複数の位置情報のそれぞれに対応づけて複数の付加画像を格納した付加画像テーブル400を有する。付加画像記録部302は、位置情報受信部301が受信した位置情報に対応する付加画像を付加画像送信部303に出力する。付加画像記録部302は、複数の位置情報及び時刻に対応づけて複数の付加画像を記録してもよい。また、付加画像記録部302は、位置情報受信部301が受信した位置情報及び現在の時刻に対応する付加画像を付加画像送信部303に出力してもよい。現在の時刻とは、位置情報受信部301が位置情報を受信した時刻であってもよく、位置情報送信部205が位置情報を送信した時刻であってもよい。また、付加画像記録部302は、複数の位置情報及び複数の顔の表情に対応づけて複数の付加画像を記録してもよい。付加画像記録部302は、位置情報受信部301が受信した位置情報及び顔の表情に対応する付加画像を付加画像送信部303に出力してもよい。   The additional image recording unit 302 includes an additional image table 400 that stores a plurality of additional images in association with each of a plurality of pieces of position information. The additional image recording unit 302 outputs an additional image corresponding to the position information received by the position information receiving unit 301 to the additional image transmitting unit 303. The additional image recording unit 302 may record a plurality of additional images in association with a plurality of position information and time. Further, the additional image recording unit 302 may output the additional information corresponding to the position information received by the position information receiving unit 301 and the current time to the additional image transmitting unit 303. The current time may be a time when the position information receiving unit 301 receives the position information, or may be a time when the position information transmitting unit 205 transmits the position information. Further, the additional image recording unit 302 may record a plurality of additional images in association with a plurality of position information and a plurality of facial expressions. The additional image recording unit 302 may output an additional image corresponding to the positional information and facial expression received by the positional information receiving unit 301 to the additional image transmitting unit 303.

付加画像送信部303は、付加画像記録部302から送られてきた付加画像をネットワーク250を介して撮像装置200に送信する。詳しくは、付加画像送信部303は、位置情報受信部301が受信した位置情報に応じた付加画像を撮像装置200に送信する。また、付加画像送信部303は、位置情報受信部301が受信した位置情報及び現在の時刻に応じた付加画像を撮像装置200に送信してもよい。また、付加画像送信部303は、位置情報受信部301が受信した位置情報及び顔の表情に応じた付加画像を撮像装置200に送信してもよい。なお、撮像装置200が表情判断部203を有するのではなく、サーバ300が表情判断部203を有してもよい。この場合は、位置情報送信部205は、位置情報と被写体検出部202が検出した被写体領域の画像データを送信する。そして、サーバ300側にある表情判断部203は、位置情報受信部301が受信した被写体領域の画像データを解析して表情を判断してもよい。   The additional image transmission unit 303 transmits the additional image transmitted from the additional image recording unit 302 to the imaging device 200 via the network 250. Specifically, the additional image transmission unit 303 transmits an additional image corresponding to the position information received by the position information reception unit 301 to the imaging device 200. Further, the additional image transmission unit 303 may transmit the additional information corresponding to the position information received by the position information receiving unit 301 and the current time to the imaging apparatus 200. Further, the additional image transmission unit 303 may transmit an additional image corresponding to the position information received by the position information receiving unit 301 and the facial expression to the imaging apparatus 200. Note that the imaging apparatus 200 may not include the facial expression determination unit 203, but the server 300 may include the facial expression determination unit 203. In this case, the position information transmission unit 205 transmits the position information and the image data of the subject area detected by the subject detection unit 202. Then, the facial expression determination unit 203 on the server 300 side may determine the facial expression by analyzing the image data of the subject area received by the position information reception unit 301.

図4は、付加画像テーブル400の一例を示す。付加画像テーブル400は、エリアごとに付加画像を記録している。また、付加画像テーブル400は、それぞれのエリアごとに、時刻に応じた付加画像をそれぞれ記録している。また、付加画像テーブル400は、それぞれの時刻毎に、顔の表情に応じた付加画像をそれぞれ記録している。また、付加画像テーブル400は、それぞれの付加画像の合成位置を記録している。この合成位置は、撮像画像における、被写体検出部202が検出した特定の被写体の位置に対して予め定められた位置を示す。つまり、合成位置は、被写体検出部202が検出した被写***置と、撮像画像における付加画像を配置させる位置との相対距離を示す。この合成位置が示す相対距離は、検出した被写体からの実距離を示す。撮像画像上における実距離は、検出した被写体の大きさから求めることができる。したがって、検出した被写体が小さく撮像された場合は、検出された被写***置と、撮像画像における付加画像を配置させる位置との相対距離は短くなる。また、検出した被写体が大きく撮像された場合は、検出された被写***置と、撮像画像における付加画像を配置させる位置との相対距離は長くなる。   FIG. 4 shows an example of the additional image table 400. The additional image table 400 records additional images for each area. Further, the additional image table 400 records additional images according to time for each area. The additional image table 400 records additional images corresponding to facial expressions for each time. Further, the additional image table 400 records the composite position of each additional image. This combination position indicates a position that is predetermined with respect to the position of the specific subject detected by the subject detection unit 202 in the captured image. That is, the composite position indicates the relative distance between the subject position detected by the subject detection unit 202 and the position where the additional image is arranged in the captured image. The relative distance indicated by the combined position indicates the actual distance from the detected subject. The actual distance on the captured image can be obtained from the size of the detected subject. Therefore, when the detected subject is imaged small, the relative distance between the detected subject position and the position where the additional image is arranged in the captured image is shortened. Further, when the detected subject is imaged large, the relative distance between the detected subject position and the position where the additional image is arranged in the captured image becomes long.

エリア1の場合を例にとって説明すると、時刻がAM9:00からAM9:59までの間は、顔の表情が「笑い」に対応する付加画像は、「aaa.jpg」となり、顔の表情が「泣き」に対応する付加画像は、「bbb.jpg」となる。「aaa.jpg」及び「bbb.jpg」は、例えば、キャラクターの画像であってもよい。「aaa.jpg」の画像は、キャラクターが笑った画像であってもよく、「bbb.jpg」の画像は、キャラクターが泣いた画像であってもよい。つまり、顔の表情と同じ表情を有するキャラクター画像であってもよい。なお、付加画像は、キャラクターの画像でなくてもよく、文字画像、又はデザイン画像であってもよい。また、付加画像テーブル400は、顔の表情に応じた付加画像を記録しなくてもよい。つまり、時刻に応じた付加画像を記録してもよい。   Taking the case of area 1 as an example, during the time from AM 9:00 to AM 9:59, the additional image corresponding to the “laughing” facial expression is “aaa.jpg” and the facial expression is “ The additional image corresponding to “crying” is “bbb.jpg”. “Aaa.jpg” and “bbb.jpg” may be, for example, character images. The image “aaa.jpg” may be an image of a character laughing, and the image “bbb.jpg” may be an image of a character crying. That is, it may be a character image having the same facial expression as the facial expression. The additional image may not be a character image, but may be a character image or a design image. Further, the additional image table 400 may not record additional images corresponding to facial expressions. That is, an additional image corresponding to the time may be recorded.

また、エリア1の時刻がAM10:00からAM10:59までの間は、顔の表情が「笑い」に対応する付加画像は、「aaa.mpg」となり、顔の表情が「泣き」に対応する付加画像は、「bbb.mpg」となる。ここで、「aaa.mpg」は、「bbb.mpg」は、例えば、キャラクターの動画像であってもよい。「aaa.mpg」の付加画像は、キャラクターが笑った動画像であってもよく、「bbb.mpg」の付加画像は、キャラクターが泣いた動画像であってもよい。つまり、顔の表情と同じ表情を有するキャラクターの動画像であってもよい。なお、付加画像は、キャラクターの動画像でなくてもよく、文字の動画像、又はデザインの動画像等の動画像であってもよい。   In addition, when the time in area 1 is from AM 10:00 to AM 10:59, the additional image corresponding to “laughter” for the facial expression is “aaa.mpg” and the facial expression corresponds to “crying”. The additional image is “bbb.mpg”. Here, “aaa.mpg” and “bbb.mpg” may be, for example, a moving image of a character. The additional image of “aaa.mpg” may be a moving image of a character laughing, and the additional image of “bbb.mpg” may be a moving image of a character crying. That is, it may be a moving image of a character having the same facial expression as the facial expression. The additional image may not be a moving image of a character, but may be a moving image such as a moving image of a character or a moving image of a design.

エリア1の時刻「AM9:00〜AM9:59」に対応する付加画像の合成位置は、右方向に10cmとなる。つまり、検出した被写体から実距離で右方向に10cm離れた位置が合成位置となる。ここで、右方向とは撮像画像上における検出した被写体からの方向であってもよい。この場合は、撮像画像の上を上方向として、右を右方向とする。また、エリア1の時刻「AM10:00〜AM10:59」に対応する付加画像の合成位置は、周囲に20cmとなる。つまり、検出した被写体から実距離で周囲20cm離れた位置が付加動画像の合成位置となる。また、付加動画像のそれぞれのフレーム画像毎に合成位置を記録してもよい。なお、時刻毎に、合成位置を変えるようにしたが、付加画像毎に合成位置を変えるようにしてもよい。また、付加画像テーブル400では、時刻を「AM9:00〜AM9:59」、「AM:10:00〜AM10:59」と、1時間単位で区切り、1時間毎に付加画像を対応づけて記録するようにしたが、1分単位、1秒単位で、付加画像を対応づけて記録してもよい。   The combined position of the additional image corresponding to the time “AM9: 00 to AM9: 59” in area 1 is 10 cm in the right direction. That is, a position that is 10 cm away from the detected subject in the right direction at the actual distance is the composite position. Here, the right direction may be a direction from the detected subject on the captured image. In this case, the top of the captured image is the upward direction, and the right is the right direction. Further, the additional image synthesis position corresponding to the time “AM10: 0 to AM10: 59” in area 1 is 20 cm in the periphery. That is, a position that is 20 cm away from the detected subject at an actual distance is a position where the additional moving image is synthesized. Further, the synthesis position may be recorded for each frame image of the additional moving image. Although the composition position is changed for each time, the composition position may be changed for each additional image. In the additional image table 400, the time is divided into “AM9: 00 to AM9: 59” and “AM: 10: 00 to AM10: 59” in units of one hour, and the additional images are recorded in association with each other every hour. However, the additional images may be recorded in association with each other in units of one minute or one second.

これにより、ユーザが撮影しようとしている被写体に応じた適切な位置に付加画像を配置させた合成画像を生成することできる。また、同じ位置であっても、時刻が違えば付加画像が異なるので、ユーザの興趣を高めることができる。例えば、昼の時刻は、キャラクターが外で遊んでいる付加画像を格納しておき、夜の時刻になると、寝ているキャラクターの付加画像を格納してもよい。また、顔の表情毎に異なる付加画像を格納しているので、特定の被写体の表情に応じたキャラクターの付加画像を合成させることができ、ユーザの興趣を高めることができる。   Thereby, it is possible to generate a composite image in which the additional image is arranged at an appropriate position according to the subject that the user is shooting. Moreover, even if it is the same position, if a time is different, since an additional image differs, it can raise a user's interest. For example, an additional image of a character playing outside may be stored at noon time, and an additional image of a sleeping character may be stored at night time. Further, since different additional images are stored for each facial expression, it is possible to synthesize additional images of characters according to the facial expression of a specific subject, and enhance the interest of the user.

図5は、画像合成システム100の動作のフローチャートを示す。図5の左側のフローチャートは撮像装置200の動作を示す。図5の右側のフローチャートはサーバ300の動作を示す。まず、撮像装置200が起動すると、ステップS1で、位置情報取得部204は、撮像装置200の現在位置を取得する。ステップS2で、撮像部201は、被写体を仮撮像する。この仮撮像とは、ユーザの撮影指示を行われるまで、スルー画像表示させる画像の撮像のことをいう。ステップS3で、被写体検出部202は、撮像部201が撮像した撮像画像内にある特定の被写体を検出する。被写体検出部202は、特定の被写体として人の顔を検出してもよい。ステップS4で、表情判断部203は、被写体検出部202が検出した人の顔の表情を判断する。ステップS5で、位置情報送信部205は、位置情報取得部204が取得した位置情報及び表情判断部203が判断した顔の表情を示す情報をネットワーク250を介して、サーバ300に送信する。   FIG. 5 shows a flowchart of the operation of the image composition system 100. The flowchart on the left side of FIG. 5 shows the operation of the imaging apparatus 200. The flowchart on the right side of FIG. First, when the imaging apparatus 200 is activated, the position information acquisition unit 204 acquires the current position of the imaging apparatus 200 in step S1. In step S2, the imaging unit 201 provisionally images the subject. The provisional imaging refers to imaging of an image to be displayed as a through image until a user gives a shooting instruction. In step S <b> 3, the subject detection unit 202 detects a specific subject in the captured image captured by the imaging unit 201. The subject detection unit 202 may detect a human face as a specific subject. In step S <b> 4, the facial expression determination unit 203 determines the facial expression of the person detected by the subject detection unit 202. In step S <b> 5, the position information transmission unit 205 transmits the position information acquired by the position information acquisition unit 204 and information indicating the facial expression determined by the expression determination unit 203 to the server 300 via the network 250.

撮像装置200から位置情報及び顔の表情を示す情報がサーバ300に送られてくると、ステップS6で、位置情報受信部301は、送られてきた位置情報及び顔の表情を示す情報を受信する。ステップS7で、付加画像送信部303は、付加画像記録部302に記録されている、位置情報受信部301が受信した位置情報、顔の表情、及び現在の時刻に応じた付加画像を撮像装置200に送信する。付加画像送信部303は、送信する付加画像の合成位置を示す合成位置情報を付加画像と共に送ってもよい。なお、位置情報、顔の表情及び現在の時刻に対応する付加画像が付加動画像の場合は、付加画像送信部303は、対応する付加動画像のフレーム画像を送信してもよい。この送信するフレーム画像は、前回送信したフレーム画像の次に表示すべきフレーム画像であってよい。前回送信したフレーム画像がない場合、つまり、付加動画像のフレーム画像を初めて送信する場合は、1枚目のフレーム画像を送信してもよい。つまり、付加画像送信部303は、順々に付加動画像のフレーム画像を送信してもよい。これにより、例えば、スルー画像中に被写体の表情が変わった場合は、送信されるフレーム画像のキャラクターの表情も変わることになる。ステップS8で、付加画像取得部206は、サーバ300から送られてきた付加画像を取得する。付加画像取得部206は、合成位置情報も取得してもよい。ステップS9で、被写体検出部202が検出した被写体の大きさに応じて、付加画像取得部206が取得した付加画像の大きさを変更する。例えば、特定の被写体より遥かに小さいキャラクターが付加画像の場合に、特定の被写体が小さく撮像された場合、付加画像を小さくするので、小さいキャラクターが特定の被写体より大きくなることはない。なお、逆に特定の被写体が小さいほど、付加画像を大きくしてもよい。   When position information and facial expression information are sent from the imaging apparatus 200 to the server 300, in step S6, the positional information reception unit 301 receives the sent positional information and facial expression information. . In step S <b> 7, the additional image transmission unit 303 captures the additional image corresponding to the position information received by the position information receiving unit 301, the facial expression, and the current time, which are recorded in the additional image recording unit 302. Send to. The additional image transmission unit 303 may send combined position information indicating the combined position of the additional image to be transmitted together with the additional image. If the additional image corresponding to the position information, facial expression, and current time is an additional moving image, the additional image transmitting unit 303 may transmit a frame image of the corresponding additional moving image. The frame image to be transmitted may be a frame image to be displayed next to the previously transmitted frame image. When there is no previously transmitted frame image, that is, when a frame image of an additional moving image is transmitted for the first time, the first frame image may be transmitted. That is, the additional image transmission unit 303 may sequentially transmit the frame images of the additional moving images. Thereby, for example, when the expression of the subject changes in the through image, the expression of the character in the transmitted frame image also changes. In step S <b> 8, the additional image acquisition unit 206 acquires the additional image sent from the server 300. The additional image acquisition unit 206 may also acquire composite position information. In step S9, the size of the additional image acquired by the additional image acquisition unit 206 is changed according to the size of the subject detected by the subject detection unit 202. For example, when a character much smaller than a specific subject is an additional image, and the specific subject is captured small, the additional image is made smaller, so the small character does not become larger than the specific subject. Conversely, the additional image may be enlarged as the specific subject is smaller.

ステップS10で、合成画像生成部208は、被写体検出部202が検出した被写体の位置に対して予め定められた位置に、取得した付加画像を配置させた合成画像を生成する。合成画像生成部208は、被写体検出部202が検出した被写体の位置に対して予め定められた位置に、画像変更部207が変更した付加画像を配置させた合成画像を生成してもよい。ステップS11で、表示部209は、合成画像生成部208が生成した合成画像を表示する。ステップS12で、撮像装置200は、本撮影の指示があるか否かを判断して、本撮影の指示がない場合はステップS1に戻り、上記した動作を繰り返す。撮像装置200は、撮影を指示する撮影指示ボタンを有してよく、撮影指示ボタンの操作が行われると、本撮影が指示されたと判断する。これにより、スルー画像表示時に合成画像を表示することができる。また、付加動画像が合成された動画の合成動画像を生成することができ、ユーザの興趣を高めることができる。   In step S <b> 10, the composite image generation unit 208 generates a composite image in which the acquired additional image is arranged at a position predetermined with respect to the position of the subject detected by the subject detection unit 202. The composite image generation unit 208 may generate a composite image in which the additional image changed by the image change unit 207 is arranged at a position predetermined with respect to the position of the subject detected by the subject detection unit 202. In step S11, the display unit 209 displays the composite image generated by the composite image generation unit 208. In step S12, the imaging apparatus 200 determines whether or not there is a main shooting instruction. If there is no main shooting instruction, the imaging apparatus 200 returns to step S1 and repeats the above-described operation. The imaging apparatus 200 may include a shooting instruction button for instructing shooting. When the shooting instruction button is operated, it is determined that the main shooting is instructed. Thereby, a composite image can be displayed when a through image is displayed. Moreover, the synthetic | combination moving image of the moving image with which the additional moving image was synthesize | combined can be produced | generated, and a user's interest can be heightened.

ステップS12で、本撮影が指示されたと判断すると、撮像部201は、被写体を本撮像する。ステップS13で、合成画像生成部208は、撮像画像と直近に取得した付加画像とを合成する。合成画像生成部208は、撮像画像と、画像変更部207が変更した付加画像とを合成してもよい。この場合も、合成画像生成部208は、撮像画像に対して、被写体検出部202が直近に検出した被写体の位置に対して予め定められた位置に、直近に取得した付加画像を配置させた合成画像を生成する。なお、本撮影の指示後に、付加画像取得部206が新たに付加画像を取得して、合成画像生成部208は、新たに取得した付加画像を用いて合成画像を生成してよい。また、被写体検出部202が本撮影の指示後に撮像した撮像画像内にある特定の被写体を検出してもよい。この場合は、合成画像生成部208は、本撮影の指示後に検出した被写体の位置に対して予め定められた位置に付加画像を配置させた合成画像を生成してもよい。ステップS15で、記録部210は、ステップS14で生成した合成画像を記録する。なお、表示部209は、ステップS14で生成した合成画像を表示してもよい。   If it is determined in step S12 that the main shooting has been instructed, the imaging unit 201 performs the main shooting of the subject. In step S13, the synthesized image generation unit 208 synthesizes the captured image and the most recently acquired additional image. The composite image generation unit 208 may synthesize the captured image and the additional image changed by the image change unit 207. Also in this case, the composite image generation unit 208 combines the captured image with the most recently acquired additional image at a position predetermined with respect to the position of the subject most recently detected by the subject detection unit 202. Generate an image. Note that the additional image acquisition unit 206 may newly acquire an additional image after the instruction of the main shooting, and the composite image generation unit 208 may generate a composite image using the newly acquired additional image. In addition, the subject detection unit 202 may detect a specific subject in a captured image that is captured after an instruction for actual photographing. In this case, the composite image generation unit 208 may generate a composite image in which an additional image is arranged at a position determined in advance with respect to the position of the subject detected after the instruction for main photographing. In step S15, the recording unit 210 records the composite image generated in step S14. Note that the display unit 209 may display the composite image generated in step S14.

なお、ステップS12の本撮影の指示が動画の本撮影の指示の場合は、本撮影の指示が終了するまで、ステップS1からステップS11の動作を繰り返すと共に、ステップS10で生成した合成画像を順次記録してもよい。   If the instruction for main shooting in step S12 is an instruction for main shooting of a moving image, the operations from step S1 to step S11 are repeated until the instruction for main shooting is finished, and the composite images generated in step S10 are sequentially recorded. May be.

また、ステップS10では、撮像画像における、検出された特定の被写体の位置に対して予め定められた位置に、取得した付加画像を配置させた合成画像を生成するようにしたが、ユーザが合成位置を変更できるようにしてもよい。撮像装置200は、ユーザが画像の合成位置を指示する指示部を有してよい。この指示部は、カーソルキー、又はタッチパネル等であってよい。合成画像生成部208は、ユーザの指示部の操作によって合成位置が指示されると、指示された合成位置に付加画像を配置させる。この場合、合成画像生成部208は、ユーザによって合成位置が指示されると、検出された特定の被写体の位置に応じた合成位置ではなく、ユーザによって指示された合成位置に付加画像を配置させる。つまり、合成画像生成部208は、ユーザの指示に応じて合成位置を変更する。   In step S10, a composite image in which the acquired additional image is arranged at a predetermined position with respect to the position of the detected specific subject in the captured image is generated. May be changed. The imaging apparatus 200 may include an instruction unit that allows the user to instruct the image synthesis position. This instructing unit may be a cursor key or a touch panel. When the composite position is instructed by the user's operation of the instruction unit, the composite image generation unit 208 places an additional image at the instructed composite position. In this case, when the composite position is instructed by the user, the composite image generation unit 208 places the additional image at the composite position instructed by the user instead of the composite position according to the detected position of the specific subject. That is, the composite image generation unit 208 changes the composite position in accordance with a user instruction.

スルー画像表示中は、検出された特定の被写体に対して予め定められた位置に付加画像が合成された合成画像が表示されるが、付加画像が示すキャラクターの位置がユーザの好みでない場合は、ユーザは合成位置の指示することができる。そして、合成位置が指示された後は、ステップS10で、指示された合成位置に付加画像が配置された合成画像が生成されて、ステップS11で合成画像が表示されることになる。また、本撮影の指示がされる前に、ユーザによって合成位置が指示された場合は、ステップS14で、合成画像生成部208は、該指示された合成位置に付加画像を配置させた合成画像を生成する。なお、撮像装置200は、解除キーを備えてもよい。ユーザが合成位置を指示した後に解除キーを操作すると、解除キー操作後は、合成画像生成部208は、検出された被写体の位置に対して予め定められた位置に付加画像を配置させた合成画像を生成する。   During the through image display, a composite image in which the additional image is combined at a predetermined position with respect to the detected specific subject is displayed, but if the position of the character indicated by the additional image is not the user's preference, The user can specify the synthesis position. After the synthesis position is instructed, a synthesized image in which an additional image is arranged at the designated synthesis position is generated in step S10, and the synthesized image is displayed in step S11. If the composite position is instructed by the user before the main shooting instruction is given, in step S14, the composite image generation unit 208 displays a composite image in which the additional image is arranged at the instructed composite position. Generate. Note that the imaging apparatus 200 may include a release key. When the user operates the release key after designating the composite position, the composite image generation unit 208 after the release key operation operates the composite image in which the additional image is arranged at a predetermined position with respect to the detected subject position. Is generated.

また、ステップS14では、本撮像された撮像画像と付加画像とを合成して、ステップS15で、合成画像を記録するようにしたが、ステップS14の動作を行わずにステップS15に進んでもよい。この場合は、ステップS15で、記録部210は、本撮像された撮像画像と付加画像とを対応付けて記録する。そして、記録された撮像画像を表示するときに、対応づけて記録された付加画像を、検出された特定の被写体の位置に対して予め定められた位置に配置させて表示させる。そして、ユーザにより合成位置の指示があると、指示された合成位置に付加画像を配置させて記録された撮像画像を表示させてもよい。また、本撮影指示の前に、ユーザによって合成位置が指示された場合は、本撮像された撮像画像と付加画像とを合成せずに、記録部210は、撮像画像と付加画像とを対応づけて記録してもよい。このように、撮像画像と付加画像とを合成しないで記録するので、記録した撮像画像を表示させるときに、付加画像の表示位置を変更することができる。   In step S14, the captured image that has been actually captured and the additional image are combined and the combined image is recorded in step S15. However, the operation may proceed to step S15 without performing the operation of step S14. In this case, in step S15, the recording unit 210 records the captured image that has been actually captured and the additional image in association with each other. Then, when displaying the recorded captured image, the additional image recorded in association with the detected captured image is arranged and displayed at a predetermined position with respect to the position of the detected specific subject. Then, when the user instructs the composition position, the captured image recorded by arranging the additional image at the designated composition position may be displayed. In addition, when the combination position is instructed by the user before the main shooting instruction, the recording unit 210 associates the captured image with the additional image without combining the captured image with the additional image. May be recorded. Thus, since the captured image and the additional image are recorded without being combined, the display position of the additional image can be changed when the recorded captured image is displayed.

図6は、合成画像生成部208が生成した合成画像の一例を示す。合成画像501は、被写体検出部202が検出した被写体601に対して予め定められた位置に付加画像602を配置された画像となる。図7は、付加動画像の場合における合成画像生成部208が生成した合成動画像の一例を示す。合成動画像502は、撮像動画像に対する、被写体検出部202が検出した被写体603に対して予め定められた付加動画像の位置に、付加動画像が配置された動画像となる。つまり、撮像部201が順次撮像したそれぞれのフレーム画像に対する、検出された被写体に対して予め定められた付加動画像の位置に、付加動画像のフレーム画像を順次配置させた合成画像を順次生成することにより合成動画像を生成する。ここでは、付加動画像の合成位置は、検出した被写体603から周囲20cmとして、付加動画像は蝶々の動画とすると、生成された合成動画像は、検出された被写体の周囲20cmに蝶々が飛んでいる合成動画像502となる。図7では、便宜上蝶々604の動きを表すことを目的として、蝶々604を複数描写しているが、合成動画像のそれぞれのフレーム画像上には蝶々604は1つとなる。この付加動画像の合成位置を基に、付加動画像のそれぞれのフレーム画像の合成位置が定まる。そして、被写体603が動くと、その動きに応じて、付加動画の合成位置も変わる。つまり、被写体603が動いても、蝶々604は、被写体の周囲20cmを動いた合成動画像503となる。   FIG. 6 shows an example of a composite image generated by the composite image generation unit 208. The composite image 501 is an image in which the additional image 602 is arranged at a predetermined position with respect to the subject 601 detected by the subject detection unit 202. FIG. 7 shows an example of a synthesized moving image generated by the synthesized image generating unit 208 in the case of an additional moving image. The synthesized moving image 502 is a moving image in which an additional moving image is arranged at a position of an additional moving image that is predetermined for the subject 603 detected by the subject detection unit 202 with respect to the captured moving image. In other words, for each frame image sequentially captured by the imaging unit 201, a composite image in which the frame images of the additional moving images are sequentially arranged at the position of the additional moving image predetermined for the detected subject is sequentially generated. Thus, a synthesized moving image is generated. In this case, if the additional moving image is 20 cm around the detected subject 603 and the additional moving image is a butterfly moving image, the generated synthesized moving image has a butterfly flying around 20 cm around the detected subject. The synthesized moving image 502 becomes. In FIG. 7, a plurality of butterflies 604 are depicted for the purpose of representing the motion of the butterflies 604 for convenience, but there is one butterfly 604 on each frame image of the synthesized moving image. Based on the combination position of the additional moving image, the combination position of each frame image of the additional moving image is determined. When the subject 603 moves, the position where the additional moving image is synthesized also changes according to the movement. That is, even if the subject 603 moves, the butterfly 604 becomes a composite moving image 503 that moves 20 cm around the subject.

これにより、例えば、テーマパーク内のそれぞれのエリアに、テーマパークのキャラクターの付加画像を設けておく。そして、ユーザが該エリアに入って撮像装置で特定の被写体を撮像すると、現実ではいないキャラクターが撮像された撮像画像内にいることになる。また、サーバ300は、キャラクターが仮想的に存在するエリアに撮像装置200が入ると、撮像装置200に、又は撮像装置200を所有しているユーザの携帯電話にメールにより、「近くにキャラクターがいます」と知らせてもよい。このメールを受けて、ユーザが撮像装置200で周囲を撮像すると、キャラクターが画像上に存在することになる。なお、サーバ300から付加画像を取得するようにしたが、テーマパークに入場するときに、付加画像記録部302に格納されている付加画像テーブル400を撮像装置200に一括ダウンロードしてもよく、付加画像テーブル400を格納した記録媒体を撮像装置200に装着してもよい。これにより、サーバ300と通信する必要がなくなる。また、図5のフローチャートでは、付加動画像のフレーム画像を逐次サーバ300から取得するようにしたが、エリアに入ると付加動画像を一括して取得するようにしてもよい。また、特定の被写体として顔を検出した場合は、検出した顔の表情を判断するようにしたが、笑顔を判断しなくてもよい。   Thus, for example, an additional image of a theme park character is provided in each area in the theme park. When the user enters the area and images a specific subject with the imaging device, a character that is not real is in the captured image. In addition, when the imaging device 200 enters the area where the character is virtually present, the server 300 sends an e-mail to the imaging device 200 or the mobile phone of the user who owns the imaging device 200, saying “There is a character nearby. May be informed. When the user receives this mail and images the surroundings with the imaging apparatus 200, the character is present on the image. Although the additional image is acquired from the server 300, the additional image table 400 stored in the additional image recording unit 302 may be downloaded to the imaging device 200 when entering the theme park. A recording medium storing the image table 400 may be attached to the imaging apparatus 200. This eliminates the need to communicate with the server 300. In the flowchart of FIG. 5, the frame images of the additional moving images are sequentially acquired from the server 300. However, the additional moving images may be acquired collectively when entering the area. In addition, when a face is detected as a specific subject, the expression of the detected face is determined, but a smile need not be determined.

また、本実施の形態は、テーマパーク以外の場所でも適用できる。例えば、街にあるポスター、看板を撮像装置200で撮像することによって初めて広告として意味を成すようにしてもよい。   In addition, this embodiment can be applied to places other than the theme park. For example, it may be meaningful as an advertisement for the first time when a poster or a signboard in the city is imaged by the imaging device 200.

図8は、特定の被写体として文字を検出する場合における、撮像画像及び該撮像画像に付加画像が合成された合成画像の一例を示す。被写体検出部202は、特定の被写体として、「A C E G」という文字を検出する場合を例にとって説明する。被写体検出部202が「A C E G」という文字を検出すると、現在の位置情報に応じた付加画像を取得することにより、「A C E G」の撮像画像505と付加画像とを合成して、「ABCDEFG」という合成画像506を生成するようにしてもよい。これにより、「A C E G」単体では広告としては意味を成さない文字が、付加画像を合成することにより、初めて広告として機能する。したがって、ユーザの興趣を高めることができ、人の注意を広告に向けることができる。   FIG. 8 shows an example of a captured image and a combined image obtained by combining an additional image with the captured image when a character is detected as a specific subject. An example will be described in which the subject detection unit 202 detects a character “ACEG” as a specific subject. When the subject detection unit 202 detects the characters “A C E G”, the captured image 505 of “A C E G” and the additional image are synthesized by acquiring an additional image corresponding to the current position information. , A composite image 506 called “ABCDEFG” may be generated. As a result, characters that do not make sense as an advertisement in “AC E G” alone function as an advertisement for the first time by synthesizing an additional image. Therefore, the interest of the user can be enhanced and the attention of the person can be directed to the advertisement.

また、被写体検出部202が特定の被写体としてマネキンを検出すると、現在の位置情報に応じた付加画像を取得して、マネキンの撮像画像と付加画像とを合成することにより、服を着たマネキンの合成画像を生成してもよい。また、被写体検出部202が特定の被写体として樅の木を検出すると、現在の位置情報に応じた付加画像を取得して、樅の木の撮像画像と付加画像とを合成することにより、クリスマスの飾り付けがされた樅の木の合成画像を生成してもよい。   In addition, when the subject detection unit 202 detects a mannequin as a specific subject, an additional image corresponding to the current position information is acquired, and the captured image of the mannequin and the additional image are combined, so that the dressed mannequin A composite image may be generated. In addition, when the subject detection unit 202 detects an oak tree as a specific subject, an additional image corresponding to the current position information is acquired, and the captured image of the oak tree and the additional image are combined, so that A composite image of a decorated oak tree may be generated.

さらに、検出した特定の被写体の種類及び位置情報等に応じて、取得する付加画像を変えるようにしてもよい。例えば、同じエリアであっても、検出した被写体の種類によって付加画像取得部206が取得する付加画像の内容を変えてもよい。例えば、子供の顔を検出した場合と、大人の顔を検出した場合とでは、取得する付加画像を変えるようにしてもよい。また、同じエリアであっても、特定の被写体として検出した文字が違う場合は、異なる付加画像を取得してもよい。また、オリエンテーションなどで、ある場所である被写体を撮像すると付加画像を取得できるようにしてもよい。また、宝探しゲームにおいて、検出した特定の被写体の種類に応じて、宝を表す付加画像を異ならせてもよい。この付加画像はまた、合成画像を記録するようにしたが、付加画像のみを記録できるようにしてもよい。また、位置情報に拘らずに被写体検出部202が検出した被写体の種類に応じた付加画像を取得するようにしてもよい。   Furthermore, the additional image to be acquired may be changed according to the type and position information of the detected specific subject. For example, even in the same area, the content of the additional image acquired by the additional image acquisition unit 206 may be changed depending on the type of the detected subject. For example, the additional image to be acquired may be changed depending on whether a child's face is detected or an adult's face is detected. Also, even in the same area, if the character detected as a specific subject is different, a different additional image may be acquired. Further, an additional image may be acquired by capturing an image of a subject at a certain place by orientation or the like. Further, in the treasure hunt game, the additional image representing the treasure may be varied depending on the type of the detected specific subject. The additional image is also recorded as a composite image, but only the additional image may be recorded. Further, an additional image corresponding to the type of subject detected by the subject detection unit 202 may be acquired regardless of the position information.

また、特定の被写体を検出すると、付加画像取得部206は、位置情報に対応した付加画像を取得して、合成画像生成部208は、撮像画像と付加画像とを合成するようにしたが、特定の被写体の検出に関わらず、位置情報に対応した付加画像を取得してもよい。この場合、付加画像に対応した位置情報も取得する。この付加画像に対応した位置情報とは、例えば、経緯、緯度であってもよく、実際のエリアのどの位置であるかを示す情報であってもよい。また、撮像装置200は、方位センサを有してよく、位置情報取得部204が取得した位置と方位センサによりどの範囲が撮像されているかを判断する。そして、取得した付加画像に対応する位置情報が示す位置が撮像されると、合成画像生成部208は、撮像した撮像画像と付加画像とを合成して表示してもよい。合成画像生成部208は、撮像装置200の現在の位置及び方位センサにより検出された方位から、撮像画像における、付加画像に対応する位置情報が示す位置に付加画像を配置させて、合成画像を生成してもよい。これにより、ユーザが撮像装置200をパーンして、付加画像に対応する位置が画角内に入ると突然キャラクターが出現して、付加画像に対応する位置が画角から外れるとキャラクターがいなくなる。つまり、仮想的にキャラクターがある位置に存在するように演出することができる。   Further, when a specific subject is detected, the additional image acquisition unit 206 acquires an additional image corresponding to the position information, and the composite image generation unit 208 combines the captured image and the additional image. Regardless of the detection of the subject, an additional image corresponding to the position information may be acquired. In this case, position information corresponding to the additional image is also acquired. The position information corresponding to the additional image may be, for example, background and latitude, or information indicating which position in the actual area. The imaging apparatus 200 may include an orientation sensor, and determines which range is captured by the position acquired by the position information acquisition unit 204 and the orientation sensor. Then, when the position indicated by the position information corresponding to the acquired additional image is captured, the composite image generation unit 208 may synthesize and display the captured image and the additional image. The composite image generation unit 208 generates a composite image by arranging an additional image at a position indicated by position information corresponding to the additional image in the captured image based on the current position of the imaging device 200 and the orientation detected by the orientation sensor. May be. Thus, when the user pans the imaging apparatus 200 and the position corresponding to the additional image enters the angle of view, the character suddenly appears, and when the position corresponding to the additional image deviates from the angle of view, the character disappears. That is, it can produce so that a character may exist virtually in a certain position.

また、合成画像生成部208は、仮撮像された撮像画像と付加画像とを合成するようにしたが、本撮像された撮像画像と付加画像とを合成するようにしてもよい。これにより、ユーザは、スルー画像表示中は、キャラクターなどの付加画像を見ることはできないが、撮影をしてみて初めてキャラクターなどの付加画像が合成された合成画像を見ることができる。また、ユーザの興趣を高めることができる。また、動画像を撮像した後に、動画像と付加動画像とを合成するようにしてもよい。   The composite image generation unit 208 combines the captured image that has been temporarily captured and the additional image, but may combine the captured image that has been actually captured and the additional image. As a result, the user cannot see the additional image such as the character while the through image is displayed, but can see the synthesized image in which the additional image such as the character is synthesized only after shooting. Moreover, a user's interest can be improved. Alternatively, the moving image and the additional moving image may be synthesized after the moving image is captured.

記録部210は、合成画像又は付加画像と、位置情報取得部204が取得した位置情報とを、対応づけて記録するようにしてもよい。この場合は、撮像装置200は、合成画像又は付加画像を他の撮像装置200、又は他の機器に送信した場合でも位置情報だけは送信できないように設定する。これにより、ユーザは、オリエンテーションなどで、付加画像を自分で集めずに、他人から付加画像又は合成画像をもらうという不正ができなくなる。つまり、ユーザは、合成画像又は付加画像と位置情報とにより、自分で合成画像又は付加画像を集めたということを証明できる。また、サーバが、付加画像を送信した撮像装置200の識別情報と、送信した付加画像又は受信した位置情報の履歴を記録しておくようにしてもよい。   The recording unit 210 may record the composite image or the additional image and the position information acquired by the position information acquisition unit 204 in association with each other. In this case, the imaging apparatus 200 is set so that only the position information cannot be transmitted even when the composite image or the additional image is transmitted to another imaging apparatus 200 or another device. As a result, the user cannot perform an injustice such as obtaining an additional image or a composite image from another person without collecting the additional image by himself / herself during orientation or the like. In other words, the user can prove that he / she has collected the composite image or the additional image by himself / herself based on the composite image or the additional image and the position information. Further, the server may record the identification information of the imaging device 200 that has transmitted the additional image, and the history of the transmitted additional image or the received position information.

また、被写体検出部202が特定の被写体を検出してから、付加画像取得部206は、位置情報に対応する付加画像を取得するようにしたが、付加画像取得部206が付加画像を取得してから、被写体検出部202が特定の被写体を検出してもよい。特定の被写体が検出されなかった場合は、合成画像生成部208は、撮像画像と付加画像とを合成しなくてもよく、撮像画像の所定の位置に付加画像を配置させた合成画像を生成してもよい。   Further, after the subject detection unit 202 detects a specific subject, the additional image acquisition unit 206 acquires an additional image corresponding to the position information. However, the additional image acquisition unit 206 acquires the additional image. Therefore, the subject detection unit 202 may detect a specific subject. When a specific subject is not detected, the composite image generation unit 208 does not need to combine the captured image and the additional image, and generates a composite image in which the additional image is arranged at a predetermined position of the captured image. May be.

以上、本発明を実施の形態を用いて説明したが、本発明の技術的範囲は上記実施の形態に記載の範囲には限定されない。上記実施の形態に、多様な変更または改良を加えることが可能であることが当業者に明らかである。その様な変更または改良を加えた形態も本発明の技術的範囲に含まれ得ることが、特許請求の範囲の記載から明らかである。   As mentioned above, although this invention was demonstrated using embodiment, the technical scope of this invention is not limited to the range as described in the said embodiment. It will be apparent to those skilled in the art that various modifications or improvements can be added to the above-described embodiment. It is apparent from the scope of the claims that the embodiments added with such changes or improvements can be included in the technical scope of the present invention.

特許請求の範囲、明細書、および図面中において示した装置、システム、プログラム、および方法における動作、手順、ステップ、および段階等の各処理の実行順序は、特段「より前に」、「先立って」等と明示しておらず、また、前の処理の出力を後の処理で用いるのでない限り、任意の順序で実現しうることに留意すべきである。特許請求の範囲、明細書、および図面中の動作フローに関して、便宜上「まず、」、「次に、」等を用いて説明したとしても、この順で実施することが必須であることを意味するものではない。   The order of execution of each process such as operations, procedures, steps, and stages in the apparatus, system, program, and method shown in the claims, the description, and the drawings is particularly “before” or “prior to”. It should be noted that the output can be realized in any order unless the output of the previous process is used in the subsequent process. Regarding the operation flow in the claims, the description, and the drawings, even if it is described using “first”, “next”, etc. for convenience, it means that it is essential to carry out in this order. It is not a thing.

100 画像合成システム、200 撮像装置、250 ネットワーク、300 サーバ、201 撮像部、202 被写体検出部、203 表情判断部、204 位置情報取得部、205 位置情報送信部、206 付加画像取得部、207 画像変更部、208 合成画像生成部、209 表示部、210 記録部、301 位置情報受信部、302 付加画像記録部、303 付加画像送信部、400 付加画像テーブル、501 合成画像、505 撮像画像、506 合成画像、601 被写体、602 付加画像、502 合成動画像、503 合成動画像、603 被写体、604 蝶々 DESCRIPTION OF SYMBOLS 100 Image composition system, 200 Imaging device, 250 Network, 300 server, 201 Imaging part, 202 Subject detection part, 203 Facial expression judgment part, 204 Position information acquisition part, 205 Position information transmission part, 206 Additional image acquisition part, 207 Image change , 208 composite image generation unit, 209 display unit, 210 recording unit, 301 position information reception unit, 302 additional image recording unit, 303 additional image transmission unit, 400 additional image table, 501 composite image, 505 captured image, 506 composite image , 601 Subject, 602 Additional image, 502 Composite video, 503 Composite video, 603 Subject, 604 Butterfly

Claims (6)

撮像装置とサーバとを有する画像合成システムであって、
前記撮像装置は、
被写体を撮像する撮像部と、
撮像した撮像画像内にある特定の被写体を検出する被写体検出部と、
前記撮像装置の現在位置を示す位置情報を取得する位置情報取得部と、
取得した位置情報を前記サーバに送信する位置情報送信部と、
前記位置情報に応じた付加画像を前記サーバから取得する付加画像取得部と、
前記撮像画像における、前記被写体検出部が検出した前記特定の被写体の位置に対して予め定められた位置に、前記付加画像を配置させた合成画像を生成する合成画像生成部と
を備え、
前記サーバは、
前記位置情報に対応付けて前記付加画像を記録した付加画像記録部と、
前記位置情報送信部が送信した前記位置情報を受信する位置情報受信部と、
前記付加画像記録部が記録している、受信した前記位置情報に対応する前記付加画像を前記撮像装置に送信する付加画像送信部と
を備え、
前記撮像装置は、
顔の表情を判断する表情判断部をさらに備え、
前記被写体検出部は、前記特定の被写体として人物の顔を検出し、
前記表情判断部は、前記被写体検出部が検出した人物の顔の表情を判断し、
前記位置情報送信部は、取得した位置情報及び判断した顔の表情を送信し、
前記付加画像記録部は、複数の前記位置情報及び複数の前記顔の表情に対応付けて複数の前記付加画像を記録しており、
前記付加画像送信部は、受信した前記位置情報及び前記顔の表情に応じた前記付加画像を前記撮像装置に送信し、
前記付加画像取得部は、前記付加画像送信部が送信した前記付加画像を取得する
画像合成システム。
An image composition system having an imaging device and a server,
The imaging device
An imaging unit for imaging a subject;
A subject detection unit for detecting a specific subject in the captured image;
A position information acquisition unit that acquires position information indicating a current position of the imaging device;
A position information transmitting unit that transmits the acquired position information to the server;
An additional image acquisition unit that acquires an additional image corresponding to the position information from the server;
A composite image generation unit that generates a composite image in which the additional image is arranged at a position predetermined with respect to the position of the specific subject detected by the subject detection unit in the captured image;
The server
An additional image recording unit that records the additional image in association with the position information;
A position information receiving unit that receives the position information transmitted by the position information transmitting unit;
An additional image transmission unit configured to transmit the additional image corresponding to the received position information recorded by the additional image recording unit to the imaging device;
The imaging device
A facial expression judgment unit for judging facial expressions;
The subject detection unit detects a human face as the specific subject,
The facial expression determination unit determines the facial expression of the person detected by the subject detection unit,
The position information transmission unit transmits the acquired position information and the determined facial expression,
The additional image recording unit records a plurality of the additional images in association with a plurality of the positional information and a plurality of facial expressions,
The additional image transmission unit transmits the additional image corresponding to the received position information and facial expression to the imaging device,
The additional image acquisition unit acquires the additional image transmitted by the additional image transmission unit .
前記撮像装置は、
前記被写体検出部が検出した前記特定の被写体の大きさに応じて前記付加画像の大きさを変更する画像変更部をさらに備え、
前記合成画像生成部は、前記撮像画像における、前記被写体検出部が検出した前記特定の被写体の位置に対して予め定められた位置に、前記画像変更部が変更した前記付加画像を配置させた前記合成画像を生成する
請求項1に記載の画像合成システム。
The imaging device
An image changing unit that changes the size of the additional image according to the size of the specific subject detected by the subject detection unit;
The composite image generation unit arranges the additional image changed by the image change unit at a position predetermined with respect to the position of the specific subject detected by the subject detection unit in the captured image. The image composition system according to claim 1, wherein a composite image is generated.
前記付加画像記録部は、前記複数の位置情報及び時刻に対応付けて前記複数の付加画像を記録しており、
前記付加画像送信部は、受信した前記位置情報及び時刻に応じた前記付加画像を前記撮像装置に送信し、
前記付加画像取得部は、前記付加画像送信部が送信した前記付加画像を取得する
請求項1又は2に記載の画像合成システム。
The additional image recording unit records the plurality of additional images in association with the plurality of position information and time,
The additional image transmission unit transmits the additional image according to the received position information and time to the imaging device,
The image composition system according to claim 1, wherein the additional image acquisition unit acquires the additional image transmitted by the additional image transmission unit.
前記撮像装置は、
前記合成画像を表示する表示部を備え、
前記撮像部は、被写体を順次撮像し、
前記付加画像取得部は、前記位置情報に応じた付加動画像を取得し、
前記合成画像生成部は、順次撮像したそれぞれの前記撮像画像における、前記被写体検出部が検出した前記特定の被写体の位置に対して予め定められた前記付加動画像の位置に、前記付加動画像のフレーム画像を順次配置させた前記合成画像を順次生成し、
前記表示部は、前記合成画像生成部が生成した前記合成画像を順次表示する
請求項1から3の何れか一項に記載の画像合成システム。
The imaging device
A display unit for displaying the composite image;
The imaging unit sequentially images a subject,
The additional image acquisition unit acquires an additional moving image according to the position information,
The composite image generation unit is configured to place the additional moving image at a position of the additional moving image that is predetermined with respect to the position of the specific subject detected by the subject detection unit in each of the captured images sequentially captured. The composite image in which the frame images are sequentially arranged is sequentially generated,
The image display system according to any one of claims 1 to 3, wherein the display unit sequentially displays the composite images generated by the composite image generation unit.
前記撮像部は、被写体の動画像を撮像し、
前記付加画像取得部は、前記位置情報に応じた付加動画像を取得し、
前記合成画像生成部は、撮像動画像に対する、前記被写体検出部が検出した前記特定の被写体の位置に対して予め定められた前記付加動画像の位置に、前記付加動画像を配置させた合成動画像を生成する
請求項1から4の何れか一項に記載の画像合成システム。
The imaging unit captures a moving image of a subject,
The additional image acquisition unit acquires an additional moving image according to the position information,
The synthesized image generating unit is a synthesized moving image in which the additional moving image is arranged at a position of the additional moving image that is predetermined with respect to the position of the specific subject detected by the subject detecting unit with respect to the captured moving image. image synthesizing system according to claim 1, any one of 4 to generate an image.
撮像装置とサーバとを有するシステムが画像を合成する画像合成方法であって、
前記撮像装置は、
被写体を撮像する撮像工程と、
撮像した撮像画像内にある特定の被写体を検出する被写体検出工程と、
前記撮像装置の現在位置を示す位置情報を取得する位置情報取得工程と、
取得した位置情報を前記サーバに送信する位置情報送信工程と、
前記位置情報に応じた付加画像を前記サーバから取得する付加画像取得工程と、
前記撮像画像における、前記被写体検出工程が検出した前記特定の被写体の位置に対して予め定められた位置に、前記付加画像を配置させた合成画像を生成する合成画像生成工程と
を備え、
前記サーバは、
前記位置情報に対応付けて前記付加画像を記録した付加画像記録部を備え、
前記位置情報送信工程が送信した前記位置情報を受信する位置情報受信工程と、
前記付加画像記録部が記録している、受信した前記位置情報に対応する前記付加画像を前記撮像装置に送信する付加画像送信工程と
を備え、
前記撮像装置は、
顔の表情を判断する表情判断工程をさらに備え、
前記被写体検出工程では、前記特定の被写体として人物の顔を検出し、
前記表情判断工程では、前記被写体検出工程にて検出された人物の顔の表情を判断し、
前記位置情報送信工程では、取得した位置情報及び判断した顔の表情を送信し、
前記付加画像記録部は、複数の前記位置情報及び複数の前記顔の表情に対応付けて複数の前記付加画像を記録しており、
前記付加画像送信工程では、受信した前記位置情報及び前記顔の表情に応じた前記付加画像を前記撮像装置に送信し、
前記付加画像取得工程では、前記付加画像送信工程で送信された前記付加画像を取得する
画像合成方法。
An image synthesis method in which a system having an imaging device and a server synthesizes an image,
The imaging device
An imaging process for imaging a subject;
A subject detection step of detecting a specific subject in the captured image;
A position information acquisition step of acquiring position information indicating a current position of the imaging device;
A positional information transmission step of transmitting the acquired positional information to the server;
An additional image acquisition step of acquiring an additional image corresponding to the position information from the server;
A composite image generation step of generating a composite image in which the additional image is arranged at a position predetermined with respect to the position of the specific subject detected by the subject detection step in the captured image;
The server
An additional image recording unit that records the additional image in association with the position information;
A position information receiving step for receiving the position information transmitted by the position information transmitting step;
An additional image transmission step of transmitting the additional image corresponding to the received position information recorded by the additional image recording unit to the imaging device;
The imaging device
A facial expression judging step for judging facial expressions;
In the subject detection step, a human face is detected as the specific subject,
In the facial expression determination step, the facial expression of the person detected in the subject detection step is determined,
In the position information transmission step, the acquired position information and the determined facial expression are transmitted,
The additional image recording unit records a plurality of the additional images in association with a plurality of the positional information and a plurality of facial expressions,
In the additional image transmission step, the additional image corresponding to the received position information and facial expression is transmitted to the imaging device,
The image synthesizing method, wherein, in the additional image acquisition step, the additional image transmitted in the additional image transmission step is acquired .
JP2009028074A 2009-02-10 2009-02-10 Image composition system and image composition method Expired - Fee Related JP5249805B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009028074A JP5249805B2 (en) 2009-02-10 2009-02-10 Image composition system and image composition method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009028074A JP5249805B2 (en) 2009-02-10 2009-02-10 Image composition system and image composition method

Publications (2)

Publication Number Publication Date
JP2010187052A JP2010187052A (en) 2010-08-26
JP5249805B2 true JP5249805B2 (en) 2013-07-31

Family

ID=42767461

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009028074A Expired - Fee Related JP5249805B2 (en) 2009-02-10 2009-02-10 Image composition system and image composition method

Country Status (1)

Country Link
JP (1) JP5249805B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP5691632B2 (en) * 2011-02-24 2015-04-01 株式会社大林組 Image composition method

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004214920A (en) * 2002-12-27 2004-07-29 Canon Finetech Inc Imaging device, server, and printer device
JP3986444B2 (en) * 2003-02-14 2007-10-03 富士フイルム株式会社 Camera system
JP2006227838A (en) * 2005-02-16 2006-08-31 Nec Corp Image processor and image processing program

Also Published As

Publication number Publication date
JP2010187052A (en) 2010-08-26

Similar Documents

Publication Publication Date Title
US11779807B2 (en) Information processing system
US20130194421A1 (en) Information processing apparatus, information processing method, and recording medium, for displaying information of object
CN111093026A (en) Video processing method, electronic device and computer-readable storage medium
US20160205317A1 (en) Information processing device, recording medium, and information processing method
JP2008527542A5 (en)
JP2018504802A5 (en)
EP3070681A1 (en) Display control device, display control method and program
WO2016136104A1 (en) Information processing device, information processing method, and program
US20130113952A1 (en) Information processing apparatus, information processing method, and program
JP5249805B2 (en) Image composition system and image composition method
JP2011066717A (en) Image photographing display device and program for the same
JP6375597B2 (en) Network system, server, program, and training support method
JP2017055175A (en) Image processing system
WO2017022296A1 (en) Information management device, information management method, image reproduction device and image reproduction method
JP2015114694A (en) Image processing device, image processing method, and program
US10257586B1 (en) System and method for timing events utilizing video playback on a mobile device
JP2016149158A (en) Method of generating social time line, social net work service system, server, terminal, and program
JP5924474B2 (en) Portable electronic device, its control method and program
JP2013183233A (en) Image processor, image processing method, and program
JP2019061386A (en) Information processing system, information processing apparatus, information processing method and program
JP7235098B2 (en) Information distribution device, information distribution method, information distribution program
JP2014160963A (en) Image processing device and program
JP2011244214A5 (en)
JP4983494B2 (en) Composite image output apparatus and composite image output processing program
JP6451110B2 (en) Imaging apparatus, image generation method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120208

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20130215

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130226

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130312

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130409

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130412

R150 Certificate of patent or registration of utility model

Ref document number: 5249805

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160419

Year of fee payment: 3

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313115

S533 Written request for registration of change of name

Free format text: JAPANESE INTERMEDIATE CODE: R313533

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

LAPS Cancellation because of no payment of annual fees