JP6458460B2 - Image generating apparatus and method, and program - Google Patents

Image generating apparatus and method, and program Download PDF

Info

Publication number
JP6458460B2
JP6458460B2 JP2014232157A JP2014232157A JP6458460B2 JP 6458460 B2 JP6458460 B2 JP 6458460B2 JP 2014232157 A JP2014232157 A JP 2014232157A JP 2014232157 A JP2014232157 A JP 2014232157A JP 6458460 B2 JP6458460 B2 JP 6458460B2
Authority
JP
Japan
Prior art keywords
image
user
editing
group
stamp
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2014232157A
Other languages
Japanese (ja)
Other versions
JP2015146566A (en
Inventor
優希 太治
優希 太治
理予 若吉
理予 若吉
岡田 常雄
常雄 岡田
和人 片田
和人 片田
雅典 住永
雅典 住永
中嶋 孝
孝 中嶋
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2014232157A priority Critical patent/JP6458460B2/en
Priority to US14/574,731 priority patent/US9519950B2/en
Publication of JP2015146566A publication Critical patent/JP2015146566A/en
Application granted granted Critical
Publication of JP6458460B2 publication Critical patent/JP6458460B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Description

本発明は、面白味のある画像を提供することができるようにする画像生成装置および方法、並びにプログラムに関する。   The present invention relates to an image generation apparatus and method, and a program that can provide an interesting image.

利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供する写真シール機が知られている。このような写真シール機は娯楽(遊戯)施設等に設置される。   There is known a photo sticker that takes a picture of a user, causes the user to edit the shot image, and prints and provides the edited image on sticker paper. Such a photo sticker is installed in an entertainment facility.

写真シール機によって提供される1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影し、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集し、編集後の画像である編集済み画像をシール紙に印刷するという流れになる。   The flow of one game provided by the photo-seal machine usually shoots a user in the shooting space as a subject, moves the user to the editing space, edits the image according to operations performed in the editing space, The edited image, which is the edited image, is printed on sticker paper.

このような写真シール機の中には、編集対象となる編集対象画像において、被写体の顔の傾きや大きさに基づいて、奥行きが感じられるように回転可能なスタンプ画像を、その傾きや大きさを変えて合成するようにしたものがある(例えば、特許文献1参照)。   In such a photo sticker, a stamp image that can be rotated so that the depth can be felt based on the inclination and size of the face of the subject in the image to be edited, the inclination and size of the image. There are some which are synthesized by changing (see, for example, Patent Document 1).

この他にも、近年の写真シール機においては、撮影画像に合成させる合成用画像として様々なデザインの画像を用意することで、面白味のあるシール紙を利用者に提供することが行われている。   In addition, in recent photo stickers, it is possible to provide users with interesting sticker paper by preparing images of various designs as composite images to be combined with photographed images. .

特開2011−114744号公報JP 2011-114744 A

しかしながら、特許文献1の写真シール機において、例えば利用者が複数人の場合、編集対象画像における被写体の顔それぞれに、傾きや大きさの異なるスタンプ画像を合成するには、被写体毎にスタンプ画像を合成する作業を行う必要があり、利用者にとって手間であった。   However, in the photo sticker of Patent Document 1, for example, when there are a plurality of users, in order to synthesize stamp images having different inclinations and sizes on each face of the subject in the image to be edited, a stamp image is provided for each subject. It was necessary for the user to perform composition work, which was troublesome for the user.

また、編集対象画像における利用者の顔それぞれに一括して同じスタンプ画像を合成する機能が知られているが、被写体毎に異なるスタンプ画像を合成することはできず、意外性や面白味に欠けていた。   Also, a function is known that combines the same stamp image for each user's face in the image to be edited, but it is not possible to synthesize different stamp images for each subject and lacks surprise and fun. It was.

本発明は、このような状況に鑑みてなされたものであり、より簡単に、面白味のある画像を提供することができるようにするものである。   The present invention has been made in view of such a situation, and makes it possible to more easily provide an interesting image.

本発明の一側面の画像生成装置は、利用者を被写体として撮影し、撮影画像を得る撮影手段と、前記撮影画像とともに、前記撮影画像を編集するための編集ツールとしての複数の合成用画像がグループ毎に分類されて表示される編集用パレットを表示する表示手段と、前記利用者による前記編集用パレットに対する操作に応じて、前記合成用画像を前記撮影画像に合成する合成手段とを備え、前記合成手段は、前記利用者による、所定グループに対応する前記編集用パレットに対する操作に応じて、前記所定グループに含まれるいずれかの前記合成用画像を無作為に選択して、前記撮影画像に合成する。   An image generating apparatus according to an aspect of the present invention includes a photographing unit that photographs a user as a subject and obtains a photographed image, and a plurality of composite images as an editing tool for editing the photographed image together with the photographed image. Display means for displaying editing palettes classified and displayed for each group, and combining means for combining the composite image with the captured image in response to an operation on the editing palette by the user, The synthesizing means randomly selects any one of the synthesis images included in the predetermined group in response to an operation on the editing palette corresponding to the predetermined group by the user, Synthesize.

前記合成手段には、前記利用者による、前記所定グループに対応する前記編集用パレットに対する操作に応じて、前記所定グループに含まれるいずれか1つの前記合成用画像を無作為に選択して、前記撮影画像における前記利用者に合成させることができる。   The synthesizing means randomly selects any one of the images for synthesis included in the predetermined group in response to an operation on the editing palette corresponding to the predetermined group by the user, and The user in the captured image can be synthesized.

前記撮影手段には、複数の前記利用者を被写体として撮影させ、前記合成手段には、前記利用者による、前記所定グループに対応する前記編集用パレットに対する操作に応じて、前記所定グループに含まれるいずれか1つの前記合成用画像を無作為に選択して、前記撮影画像における複数の前記利用者毎に合成させることができる。   The photographing means causes a plurality of users to be photographed as subjects, and the combining means is included in the predetermined group according to an operation on the editing palette corresponding to the predetermined group by the user. Any one of the images for synthesis can be selected at random and synthesized for each of the plurality of users in the captured image.

前記合成手段には、前記利用者による、前記所定グループに対応する前記編集用パレットに対する操作に応じて、前記所定グループに含まれる、少なくともいずれか1つは互いに異なる複数の前記合成用画像を無作為に選択して、前記撮影画像における複数の前記利用者それぞれに合成させることができる。   The synthesizing unit may include at least one of the plurality of compositing images included in the predetermined group according to an operation performed on the editing palette corresponding to the predetermined group by the user. It is possible to make a selection for each of the plurality of users in the photographed image.

前記表示手段には、前記編集用パレットにおいて、前記合成用画像と所定のボタンとを前記グループ毎に表示させ、前記合成手段には、前記合成用画像のいずれかが選択された場合、選択された前記合成用画像を撮影画像に合成し、前記ボタンが選択された場合、対応する前記グループに含まれるいずれかの前記合成用画像を無作為に選択して、前記撮影画像に合成させることができる。   The display means displays the composition image and a predetermined button for each group in the editing palette, and the composition means is selected when any of the composition images is selected. When the button is selected, the composition image is synthesized with the photographed image, and any one of the composition images included in the corresponding group is randomly selected and synthesized with the photographed image. it can.

前記表示手段には、前記グループそれぞれに含まれる前記合成用画像として、前記撮影画像における前記利用者の所定の部位に対応して分類された前記合成用画像を表示させ、前記合成手段には、前記撮影画像における前記利用者の所定の部位を認識することで、前記グループに含まれるいずれかの前記合成用画像を、前記撮影画像において前記グループに対応する前記利用者の所定の部位に合成させることができる。   The display means displays the composition image classified corresponding to the predetermined part of the user in the photographed image as the composition image included in each group, and the composition means By recognizing a predetermined part of the user in the captured image, any of the images for synthesis included in the group is combined with a predetermined part of the user corresponding to the group in the captured image. be able to.

前記表示手段には、前記グループそれぞれに含まれる前記合成用画像として、前記撮影画像における前記利用者の顔の部位に対応して分類された前記合成用画像を表示させ、前記合成手段には、前記ボタンが選択された場合、対応する前記グループに含まれるいずれかの前記合成用画像を、前記撮影画像において前記グループに対応する前記利用者の顔の部位に合成させることができる。   The display means displays, as the composition images included in each of the groups, the composition images classified according to the user's face part in the captured image, and the composition means includes When the button is selected, any of the images for synthesis included in the corresponding group can be combined with the part of the user's face corresponding to the group in the captured image.

前記表示手段には、1つのグループに含まれる前記合成用画像として、前記撮影画像における前記利用者の顔の各部位に合成される前記合成用画像それぞれを表示させ、前記合成手段には、前記ボタンが選択された場合、対応する前記グループに含まれるいずれかの前記合成用画像を組み合わせて、前記撮影画像における前記利用者の顔の各部位に合成させることができる。   The display means displays each of the synthesis images synthesized on each part of the user's face in the captured image as the synthesis image included in one group, and the synthesis means When a button is selected, any of the images for synthesis included in the corresponding group can be combined and synthesized with each part of the user's face in the captured image.

前記合成手段には、前記ボタンが選択される毎に、対応する前記グループに含まれるいずれかの前記合成用画像を無作為に選択して、前記撮影画像における前記利用者に合成させることができる。   Each time the button is selected, the synthesizing unit can randomly select any one of the synthesis images included in the corresponding group and synthesize it to the user in the captured image. .

本発明の一側面の画像生成方法は、利用者を被写体として撮影し、撮影画像を得る撮影ステップと、前記撮影画像とともに、前記撮影画像を編集するための編集ツールとしての複数の合成用画像がグループ毎に分類されて表示される編集用パレットを表示する表示ステップと、前記利用者による前記編集用パレットに対する操作に応じて、前記合成用画像を前記撮影画像に合成する合成ステップとを含み、前記合成ステップの処理は、前記利用者による、所定グループに対応する前記編集用パレットに対する操作に応じて、前記所定グループに含まれるいずれかの前記合成用画像を無作為に選択して、前記撮影画像に合成する。   An image generation method according to an aspect of the present invention includes a shooting step of shooting a user as a subject to obtain a shot image, and a plurality of images for synthesis as an editing tool for editing the shot image together with the shot image. A display step of displaying an editing palette that is classified and displayed for each group, and a combining step of combining the combined image with the captured image in response to an operation on the editing palette by the user, The process of the compositing step is performed by randomly selecting any one of the compositing images included in the predetermined group in response to an operation on the editing palette corresponding to the predetermined group by the user. Composite to the image.

本発明の一側面のプログラムは、利用者を被写体として撮影し、撮影画像を得る撮影ステップと、前記撮影画像とともに、前記撮影画像を編集するための編集ツールとしての複数の合成用画像がグループ毎に分類されて表示される編集用パレットを表示する表示ステップと、前記利用者による前記編集用パレットに対する操作に応じて、前記合成用画像を前記撮影画像に合成する合成ステップとを含む処理をコンピュータに実行させ、前記合成ステップの処理は、前記利用者による、所定グループに対応する前記編集用パレットに対する操作に応じて、前記所定グループに含まれるいずれかの前記合成用画像を無作為に選択して、前記撮影画像に合成する。   A program according to an aspect of the present invention includes a shooting step of shooting a user as a subject to obtain a shot image, and a plurality of images for synthesis as an editing tool for editing the shot image together with the shot image. A process including: a display step for displaying an editing palette that is classified and displayed; and a combining step for combining the combined image with the captured image in response to an operation on the editing palette by the user. The composition step is performed by randomly selecting one of the composition images included in the predetermined group in response to an operation on the editing palette corresponding to the predetermined group by the user. And composited with the captured image.

本発明の一側面においては、利用者による、所定グループに対応する編集用パレットに対する操作に応じて、所定グループに含まれるいずれかの合成用画像が無作為に選択されて、撮影画像に合成される。   In one aspect of the present invention, any of the images for synthesis included in the predetermined group is randomly selected and combined with the photographed image in response to the user's operation on the editing palette corresponding to the predetermined group. The

本発明によれば、より簡単に、面白味のある画像を提供することが可能となる。   According to the present invention, an interesting image can be provided more easily.

本発明の一実施の形態に係る写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photograph sticker production apparatus which concerns on one embodiment of this invention. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 事前接客部の構成例を示す図である。It is a figure which shows the structural example of a prior customer service part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of an edit unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the structural example of the side surface of an edit unit. 写真シール作成装置の内部の構成例を示すブロック図である。It is a block diagram which shows the example of an internal structure of a photograph sticker production apparatus. 制御部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of a control part. 編集処理部の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of an edit process part. 写真シール作成ゲーム処理の流れの例を説明するフローチャートである。It is a flowchart explaining the example of the flow of photograph sticker creation game processing. 編集処理について説明するフローチャートである。It is a flowchart explaining an edit process. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. スタンプ画像の自動合成処理の例を示すフローチャートである。It is a flowchart which shows the example of the automatic synthesis | combination process of a stamp image. スタンプ画像の合成の例について説明する図である。It is a figure explaining the example of a synthesis | combination of a stamp image. スタンプ画像の合成の例について説明する図である。It is a figure explaining the example of a synthesis | combination of a stamp image. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. スタンプ画像の組み合わせのパターンについて説明する図である。It is a figure explaining the pattern of the combination of a stamp image. 組み合わされたスタンプ画像の合成について説明する図である。It is a figure explaining the synthesis | combination of the combined stamp image. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集画面の例を示す図である。It is a figure which shows the example of an edit screen. 編集用パレットの例を示す図である。It is a figure which shows the example of the palette for edit. 編集用パレットの例を示す図である。It is a figure which shows the example of the palette for edit. 編集対象画像表示領域におけるスタンプ画像の表示位置を説明するための図である。It is a figure for demonstrating the display position of the stamp image in an edit object image display area. 編集対象画像表示領域におけるスタンプ画像の表示位置を説明するための図である。It is a figure for demonstrating the display position of the stamp image in an edit object image display area. 回転操作を行ったときのスタンプ画像の表示位置を説明するための図である。It is a figure for demonstrating the display position of a stamp image when rotating operation is performed. ランダムボタン用のカテゴリの構成を説明した図である。It is a figure explaining the structure of the category for random buttons. 海賊カテゴリに含まれるスタンプ画像の例を説明した図である。It is a figure explaining the example of the stamp image contained in a pirate category. パーティカテゴリに含まれるスタンプ画像の例を説明した図である。It is a figure explaining the example of the stamp image contained in a party category.

以下、本発明を適用した具体的な実施の形態について、図面を参照しながら詳細に説明する。   Hereinafter, specific embodiments to which the present invention is applied will be described in detail with reference to the drawings.

実施の形態1
[写真シール作成装置の外観構成]
図1および図2は、本発明に係る画像生成装置の一実施形態である写真シール作成装置1の外観の構成例を示す斜視図である。
Embodiment 1
[External structure of photo sticker creation device]
FIG. 1 and FIG. 2 are perspective views showing an external configuration example of a photographic sticker creating apparatus 1 which is an embodiment of an image generating apparatus according to the present invention.

写真シール作成装置1は、撮影画像や編集済み画像を提供するゲーム機である。画像の提供は、シール紙に印刷した形で行われることもあるし、サーバに送信した画像を利用者の携帯端末上で閲覧可能にする形で行われることもある。写真シール作成装置1は、アミューズメント施設などの施設や店舗に設置される。利用者は、主に女子高生や若い女性が中心とされる。利用者は1人であることもあるが、主に、1組あたり2人や3人等の複数人である。   The photo sticker creating apparatus 1 is a game machine that provides a photographed image or an edited image. The provision of the image may be performed in a form printed on a sticker sheet or may be performed in such a manner that the image transmitted to the server can be viewed on the user's portable terminal. The photo sticker creating apparatus 1 is installed in a facility or store such as an amusement facility. Users are mainly high school girls and young women. Although there may be one user, it is mainly a plurality of people such as 2 or 3 people per group.

写真シール作成装置1で遊ぶ利用者は、自身が被写体となって撮影を行い、撮影によって得られた撮影画像の中から選択した画像を、手書きの文字やスタンプ画像を合成して編集することにより、撮影画像を彩り豊かな画像にする。利用者は、撮影画像や編集済み画像が印刷されたシール紙を受け取って一連のゲームを終了させる。   A user who plays with the photo sticker creating apparatus 1 takes a picture of himself / herself as a subject, and edits an image selected from the shot images obtained by shooting by combining handwritten characters and stamp images. , Make the shot image rich and colorful. The user receives the sticker sheet on which the photographed image and the edited image are printed, and ends the series of games.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。   As shown in FIG. 1, the photo sticker creating apparatus 1 is basically configured by being installed in a state where a photographing unit 11 and an editing unit 12 are in contact with each other.

撮影ユニット11は、事前接客部20、撮影部21、および背景部22から構成される。事前接客部20は、撮影部21の両側面に設置されており、それぞれの前方の空間が、事前接客処理を行う事前接客空間となる。また、撮影部21と背景部22は所定の距離だけ離れて設置され、撮影部21と背景部22の間に形成される空間が、撮影処理を行う撮影空間となる。   The photographing unit 11 includes a pre-service section 20, a photographing section 21, and a background section 22. The pre-service section 20 is installed on both side surfaces of the photographing section 21, and the respective front spaces are pre-service areas for performing pre-service processes. In addition, the photographing unit 21 and the background unit 22 are set apart by a predetermined distance, and a space formed between the photographing unit 21 and the background unit 22 becomes a photographing space for performing photographing processing.

事前接客部20は、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする事前接客処理を行う装置である。事前接客部20には、利用者による代金を受け取る硬貨投入口、各種の操作に用いられるタブレット内蔵モニタやタッチペンが設けられる。事前接客部20は、撮影空間の空き状況に応じて、適宜、事前接客空間にいる利用者を撮影空間へと案内する。   The pre-service section 20 is a device that performs pre-service processing that performs guidance for introducing a game provided by the photo sticker creation device 1 and performs various settings in shooting processing performed in a shooting space. The customer service unit 20 is provided with a coin slot for receiving a price from the user, a tablet built-in monitor used for various operations, and a touch pen. The prior customer service unit 20 appropriately guides the user in the prior customer service space to the photographing space according to the vacant state of the photographing space.

撮影部21は、利用者を被写体とした撮影処理を行う装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間にいる利用者から見て右側の面を右側面、左側の面を左側面とすると、撮影部21の右側面が側面パネル41Aにより構成され、左側面が側面パネル41B(図3)により構成され、さらに、正面が正面パネル42により構成される。なお、側面パネル41A,41Bそれぞれには、上述した事前接客部20が設置される。   The photographing unit 21 is a device that performs photographing processing with a user as a subject. The photographing unit 21 is located in front of the user who has entered the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space. When the right side as viewed from the user in the shooting space is the right side and the left side is the left side, the right side of the shooting unit 21 is constituted by the side panel 41A, and the left side is constituted by the side panel 41B (FIG. 3). Further, the front surface is constituted by the front panel 42. In addition, the pre-service section 20 described above is installed on each of the side panels 41A and 41B.

背景部22は、正面を向いて撮影を行っている利用者の背面側に位置する板状の部材である背面パネル51、背面パネル51の右端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である側面パネル52A、および、背面パネル51の左端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である側面パネル52B(図3)から構成される。   The background portion 22 is attached to the right end of the rear panel 51, which is a plate-like member located on the back side of the user who is taking a picture facing the front, and has a plate shape with a narrower width than the side panel 41A. And a side panel 52B (FIG. 3), which is a plate-like member attached to the left end of the back panel 51 and having a narrower width than the side panel 41B.

撮影部21の右側面を構成する側面パネル41Aと背景部22の側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aは、上部が板状の部材である連結部23Aによって連結され、下部が、床面に設けた例えば金属製の部材である連結部23A’によって連結される。撮影部21の左側面を構成する側面パネル41Bと背景部22の側面パネル52Bも同様に、ほぼ同一平面に設けられ、上部において連結部23B(図示せず)によって連結され、下部において連結部23B’(図示せず)によって連結される。   The side panel 41A constituting the right side surface of the photographing unit 21 and the side panel 52A of the background unit 22 are provided on substantially the same plane. In the side panel 41A and the side panel 52A, the upper part is connected by a connecting part 23A which is a plate-like member, and the lower part is connected by a connecting part 23A 'which is a metal member provided on the floor surface. Similarly, the side panel 41B and the side panel 52B of the background unit 22 constituting the left side of the photographing unit 21 are also provided on substantially the same plane, and are connected by a connecting part 23B (not shown) in the upper part and the connecting part 23B in the lower part. Connected by '(not shown).

撮影部21の側面パネル41A、連結部23A、および背景部22の側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、撮影部21の側面パネル41B、連結部23B、および背景部22の側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。   An opening formed by being surrounded by the side panel 41A of the imaging unit 21, the connecting unit 23A, and the side panel 52A of the background unit 22 serves as an entrance to the imaging space. An opening formed by being surrounded by the side panel 41B of the photographing unit 21, the connecting part 23B, and the side panel 52B of the background 22 is also an entrance of the photographing space.

背景部22の上部には、背面パネル51、側面パネル52A、および側面パネル52Bに支持される形で背景カーテンユニット25が設けられる。背景カーテンユニット25には、撮影によって得られる撮影画像において利用者の背景に写る所定の色の背景カーテンが収納される。背景カーテンユニット25は、撮影と連動して、適宜、撮影空間内に、例えば緑色のクロマキー用のカーテンを下ろす。   The background curtain unit 25 is provided above the background portion 22 so as to be supported by the back panel 51, the side panel 52A, and the side panel 52B. The background curtain unit 25 stores a background curtain of a predetermined color that appears in the background of the user in a photographed image obtained by photographing. The background curtain unit 25 appropriately lowers, for example, a green chroma key curtain in the shooting space in conjunction with shooting.

なお、クロマキー用のカーテンを予め撮影空間の背面となる背面パネル51に張り付けるようにしてもよい。クロマキー用のカーテンを背景として撮影が行われる場合には、合成用の背景画像を複数種類用意し、撮影処理や編集処理においてクロマキー処理を行うことで、利用者が所望する背景画像をカーテンの部分に合成することができるようにする。   Note that a chroma key curtain may be previously attached to the back panel 51 which is the back of the shooting space. When shooting is performed using the chroma key curtain as a background, multiple types of composite background images are prepared, and the chroma key processing is performed in the shooting process and editing process, so that the background image desired by the user is displayed in the curtain part. To be able to synthesize.

撮影空間の上方には、撮影部21の正面、連結部23A、連結部23B、および背景カーテンユニット25に囲まれた天井が形成され、その天井の一部として天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられており、撮影空間の照明としても機能する。   Above the photographing space, a ceiling surrounded by the front of the photographing unit 21, the connecting part 23A, the connecting part 23B, and the background curtain unit 25 is formed, and a ceiling strobe unit 24 is provided as a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. Inside the ceiling strobe unit 24, a fluorescent lamp is provided in addition to the strobe, and also functions as illumination of the photographing space.

編集ユニット12は、撮影画像の編集処理を行う装置である。編集ユニット12は、一方の側面が撮影部21の背面に接するように撮影ユニット11に連結して設けられる。
図1および図2において見える編集ユニット12の構成を正面側の構成とすると、2組の利用者が同時に編集を行うことができるように、編集ユニット12の正面側と背面側には編集に用いられる構成がそれぞれ設けられる。
The editing unit 12 is an apparatus that performs a captured image editing process. The editing unit 12 is provided so as to be connected to the photographing unit 11 so that one side surface is in contact with the back surface of the photographing unit 21.
If the configuration of the editing unit 12 visible in FIGS. 1 and 2 is the front side configuration, the editing unit 12 is used for editing on the front side and the back side so that two sets of users can edit simultaneously. Each configuration is provided.

編集ユニット12の正面側は、床面に対して垂直な面であり、撮影部21の側面パネル41Aとほぼ平行な面である面61と、面61の上方に形成された斜面62から構成される。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の右側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の左側にも、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。   The front side of the editing unit 12 is a surface perpendicular to the floor surface, and includes a surface 61 that is substantially parallel to the side panel 41 </ b> A of the photographing unit 21, and a slope 62 formed above the surface 61. The The slope 62 is provided with a tablet built-in monitor and a touch pen as a configuration used for editing work. On the right side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. A columnar support portion 63 </ b> B that supports the other end of the lighting device 64 is also provided on the left side of the slope 62. A support portion 65 that supports the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを、上から見たときの形状がコの字状となるように組み合わせることによって構成される。平行に設けられるレール26Aと26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、他端にレール26Cの両端が接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C so that the shape when viewed from above becomes a U-shape. One end of the rails 26A and 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, and both ends of the rail 26C are joined to the other end.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間の内部が外から見えないようにカーテンが取り付けられる。カーテンレール26に取り付けられたカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が撮影画像の編集を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the inside of the space in front of the editing unit 12 and the space in front of the back cannot be seen from the outside. A space in front of the editing unit 12 and a space behind the back of the editing unit 12 surrounded by a curtain attached to the curtain rail 26 serve as an editing space in which a user edits a captured image.

また、後述するが、編集ユニット12の右側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の右側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。   As will be described later, the right side surface of the editing unit 12 is provided with a discharge port through which printed sticker paper is discharged. The space in front of the right side surface of the editing unit 12 is a print waiting space where the user waits for the printed sticker sheet to be discharged.

[利用者の移動について]
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
図3は、写真シール作成装置1を上から見た平面図である。
[About moving users]
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described.
FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

まず、事前接客部20の前方の空間である事前接客空間A0−1または事前接客空間A0−2において硬貨投入口に代金を投入した利用者は、タブレット内蔵モニタに表示される画面に従って各種の設定を、利用者の指またはタッチペンを用いて行う。事前接客空間A0−1,A0−2においては、例えば、撮影空間で行われる撮影処理のコース選択や、撮影画像の背景選択が事前接客作業として行われる。   First, in the advance customer service space A0-1 or advance customer service space A0-2, which is the space in front of the advance customer service section 20, the user who has paid the coin insertion slot makes various settings according to the screen displayed on the tablet built-in monitor. Is performed using the user's finger or touch pen. In the pre-service spaces A0-1 and A0-2, for example, course selection for photographing processing performed in the photographing space and background selection of the photographed image are performed as pre-customer work.

事前接客作業を終えた利用者は、白抜き矢印#1で示すように出入り口G1から、または白抜き矢印#2で示すように出入り口G2から、撮影部21と背景部22の間に形成された撮影空間A1に入り、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影を行う。出入り口G1は側面パネル41Aと側面パネル52Aの間の開口であり、出入り口G2は側面パネル41Bと側面パネル52Bの間の開口である。   The user who has completed the customer service is formed between the photographing unit 21 and the background unit 22 from the entrance G1 as indicated by the white arrow # 1 or from the entrance G2 as indicated by the white arrow # 2. The camera enters the shooting space A1 and performs shooting using a camera or a touch panel monitor provided in the shooting unit 21. The doorway G1 is an opening between the side panel 41A and the side panel 52A, and the doorway G2 is an opening between the side panel 41B and the side panel 52B.

なお、事前接客空間A0−1と事前接客空間A0−2のそれぞれにおいて、2組の利用者が同時に事前接客作業を行うことが可能であるが、先に事前接客作業を終えた利用者が、撮影空間A1へと案内される。このとき、事前接客部20は、事前接客作業を終えていない利用者に対して、撮影処理に関するガイダンスを行うなどして、先に撮影空間A1に入った利用者が撮影を終えるまで待機させるようにする。   In addition, in each of the pre-serving space A0-1 and the pre-serving space A0-2, two sets of users can perform the pre-serving work at the same time. You are guided to the shooting space A1. At this time, the pre-service section 20 waits until the user who has entered the photographing space A1 finishes photographing by giving guidance regarding photographing processing to a user who has not finished pre-serving work. To.

撮影を終えた利用者は、白抜き矢印#3で示すように出入り口G1を使って撮影空間A1から出て編集空間A2−1に移動するか、白抜き矢印#4で示すように出入り口G2を使って撮影空間A1から出て編集空間A2−2に移動する。   The user who has finished shooting uses the doorway G1 to move out of the shooting space A1 as indicated by the white arrow # 3 and moves to the editing space A2-1 or opens the doorway G2 as indicated by the white arrow # 4. Use to move out of the shooting space A1 and move to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間であり、編集空間A2−2は、編集ユニット12の背面側の編集空間である。編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は撮影画像の編集を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12, and the editing space A2-2 is an editing space on the back side of the editing unit 12. Which of the editing space A2-1 and the editing space A2-2 is to be moved is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the free one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing the captured image. The user of the editing space A2-1 and the user of the editing space A2-2 can edit simultaneously.

編集が終了した後、撮影画像や編集画像の印刷が開始される。画像の印刷が終了すると、編集空間A2−1での編集を終えた利用者は、白抜き矢印#5で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集を終えた利用者は、白抜き矢印#6で示すように編集空間A2−2から印刷待ち空間A3に移動する。   After the editing is completed, printing of the captured image and the edited image is started. When the printing of the image is completed, the user who has finished editing in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by a white arrow # 5. In addition, the user who has finished editing in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by a white arrow # 6.

印刷待ち空間A3に移動した利用者は、編集ユニット12の右側面に設けられた排出口からシール紙を受け取り、一連の写真シール作成ゲームを終えることになる。   The user who has moved to the print waiting space A3 receives the sticker paper from the discharge port provided on the right side of the editing unit 12, and finishes a series of photo sticker creation games.

次に、各装置の構成について説明する。   Next, the configuration of each device will be described.

[事前接客部の構成]
図4は、側面パネル41A(または側面パネル41B)に設置される事前接客部20の正面側の構成例を示す図である。
[Composition of pre-service department]
FIG. 4 is a diagram showing a configuration example of the front side of the pre-serving section 20 installed on the side panel 41A (or the side panel 41B).

事前接客部20の上方にはタブレット内蔵モニタ71が設けられる。タブレット内蔵モニタ71を挟んで左側にタッチペン72Aが設けられ、右側にタッチペン72Bが設けられる。タブレット内蔵モニタ71は、指またはタッチペン72Aまたは72Bを用いて操作入力が可能なタブレットがディスプレイを露出するように設けられることによって構成される。タブレット内蔵モニタ71には、コース選択や背景選択などの事前接客処理に用いられる画面が表示される。2人の利用者が同時に事前接客作業を行う場合、タッチペン72Aはタブレット内蔵モニタ71に向かって左側にいる利用者により用いられ、タッチペン72Bはタブレット内蔵モニタ71に向かって右側にいる利用者により用いられる。   A tablet built-in monitor 71 is provided above the customer service unit 20. A touch pen 72A is provided on the left side of the tablet built-in monitor 71, and a touch pen 72B is provided on the right side. The tablet built-in monitor 71 is configured by providing a tablet capable of operating input using a finger or a touch pen 72A or 72B so that the display is exposed. On the tablet built-in monitor 71, a screen used for pre-service processing such as course selection and background selection is displayed. When two users perform pre-service work at the same time, the touch pen 72A is used by the user on the left side toward the monitor 71 with a built-in tablet, and the touch pen 72B is used by the user on the right side with respect to the monitor 71 with a built-in tablet. It is done.

タブレット内蔵モニタ71の下には、事前接客処理の案内音声、BGM(Back Ground Music)、効果音等の音を出力するスピーカ73が設けられ、スピーカ73の下には、利用者が硬貨を入れる硬貨投入返却口74が設けられる。   A speaker 73 is provided under the tablet built-in monitor 71 for outputting pre-service processing guidance voices, BGM (Back Ground Music), sound effects, and the like. A coin insertion / return port 74 is provided.

[撮影部の構成]
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42が、箱状の形状を有するベース部43に取り付けられることによって構成される。
[Configuration of shooting section]
FIG. 5 is a diagram illustrating a configuration example of the front of the photographing unit 21. The photographing unit 21 is configured by attaching a side panel 41A, a side panel 41B, and a front panel 42 to a base part 43 having a box shape.

正面パネル42の中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91、タッチパネルモニタ92、および正面ストロボ93から構成される。   A camera unit 81 is provided at the center of the front panel 42. The camera unit 81 includes a camera 91, a touch panel monitor 92, and a front strobe 93.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91はCCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。利用者により撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画は、撮影画像として保存される。   The camera 91 is a single-lens reflex camera, for example, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 has an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the photographing space A1. A moving image (hereinafter also referred to as a live view image) captured by the camera 91 is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing such as when a user gives an instruction to shoot is stored as a photographic image.

カメラ91の上に設けられた正面ストロボ93は、乳白アクリル板よりなる横長楕円形の発光面1つと縦長楕円形の発光面2つを有する。正面ストロボ93は、カメラ91による撮影に合わせて発光することで、被写体としての利用者の顔付近を正面から照射する。   A front strobe 93 provided on the camera 91 has one horizontally long elliptical light emitting surface and two vertically elliptical light emitting surfaces made of a milky white acrylic plate. The front strobe 93 illuminates the vicinity of the user's face as a subject from the front by emitting light in accordance with shooting by the camera 91.

カメラユニット81の下に設けられたタッチパネルモニタ92は、LCD(Liquid CrystalDisplay)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。   The touch panel monitor 92 provided under the camera unit 81 is configured by a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUIs (Graphical User Interfaces) and accepts a user's selection operation. On the touch panel monitor 92, a moving image (live view image) and a still image (captured image) captured by the camera 91 are displayed.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、カメラ91による撮影に合わせて発光することで、上方から利用者を照射する。   Above the camera unit 81, an upper strobe 82 with a curved light emitting surface facing the user is installed. The upper strobe 82 illuminates the user from above by emitting light in accordance with shooting by the camera 91.

ベース部43の中央には利用者の下半身および足元を照射する足元ストロボ83が設けられる。   At the center of the base portion 43, a foot strobe 83 for irradiating the lower body and feet of the user is provided.

ベース部43の上面には、足元ストロボ83の上面を挟んでスペース84A,84Bが左右に形成される。スペース84A,84Bは、撮影を行う利用者が手荷物等を置くための荷物置き場として用いられる。図示はしないが、正面パネル42の例えば天井付近には、撮影処理の案内音声、BGM、効果音等の音を出力するスピーカも設けられる。   Spaces 84 </ b> A and 84 </ b> B are formed on the upper surface of the base portion 43 on both sides of the upper surface of the foot strobe 83. The spaces 84A and 84B are used as a luggage storage place for a user who takes a picture to put baggage or the like. Although not shown, a speaker for outputting sounds such as shooting process guidance voice, BGM, and sound effects is also provided near the ceiling of the front panel 42, for example.

[背景部の構成]
図6は、背景部22の撮影空間A1側の構成例を示す図である。
[Configuration of the background]
FIG. 6 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

上述したように、背面パネル51の上方には背景カーテンユニット25が設けられる。
背景カーテンユニット25のほぼ中央には、撮影空間A1内で撮影処理を行っている利用者を後方中央から照射する背面中央ストロボ101が取り付けられる。
As described above, the background curtain unit 25 is provided above the back panel 51.
Near the center of the background curtain unit 25, a back center strobe 101 that irradiates a user who is performing a photographing process in the photographing space A1 from the rear center is attached.

背面パネル51の、出入り口G1側の位置には、撮影空間A1内で撮影処理を行っている利用者を右後方から照射する背面右ストロボ102が取り付けられる。また、背面パネル51の、出入り口G2側の位置には、撮影空間A1内で撮影処理を行っている利用者を左後方から照射する背面左ストロボ103が取り付けられる。   A rear right strobe 102 for irradiating a user who is performing a photographing process in the photographing space A1 from the right rear is attached to a position of the rear panel 51 on the doorway G1 side. Further, a rear left strobe 103 that irradiates a user who is performing a photographing process in the photographing space A1 from the left rear is attached to the rear panel 51 on the doorway G2 side.

[編集ユニットの構成]
図7は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
[Configuration of editing unit]
FIG. 7 is a diagram illustrating a configuration example of the editing unit 12 on the front side (editing space A2-1 side).

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131を挟んで左側にタッチペン132Aが設けられ、右側にタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided in the approximate center of the slope 62. A touch pen 132A is provided on the left side of the tablet built-in monitor 131, and a touch pen 132B is provided on the right side.

タブレット内蔵モニタ131は、指またはタッチペン132Aまたはタッチペン132Bを用いて操作入力が可能なタブレットがディスプレイを露出するように設けられることによって構成される。タブレット内蔵モニタ131には、例えば撮影画像の編集に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。   The tablet built-in monitor 131 is configured by providing a tablet capable of operating input using a finger or the touch pen 132A or the touch pen 132B so that the display is exposed. On the tablet built-in monitor 131, for example, an editing screen used for editing a captured image is displayed. When two users perform editing work at the same time, the touch pen 132A is used by a user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by a user on the right side of the tablet built-in monitor 131. .

図8は、編集ユニット12の右側面の構成例を示す図である。   FIG. 8 is a diagram illustrating a configuration example of the right side surface of the editing unit 12.

編集ユニット12の右側面下方にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられており、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。   A seal paper discharge port 161 is provided below the right side surface of the editing unit 12. A printer is provided inside the editing unit 12, and an image showing a user of the editing space A2-1 or an image showing a user of the editing space A2-2 is printed on a sticker sheet with a predetermined layout. The paper is discharged from the sticker paper outlet 161.

[写真シール作成装置の内部構成]
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してあり、重複する説明については適宜省略する。
[Internal configuration of photo sticker creation device]
FIG. 9 is a block diagram illustrating an internal configuration example of the photo sticker creating apparatus 1. In FIG. 9, the same components as those described above are denoted by the same reference numerals, and redundant description will be omitted as appropriate.

制御部201はCPU(Central Processing Unit)などよりなり、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前接客部208A,208B、撮影部209、編集部210A,210B、および印刷部211の各構成も接続される。   The control unit 201 includes a CPU (Central Processing Unit) and the like, executes a program stored in a ROM (Read Only Memory) 206 and a storage unit 202, and controls the overall operation of the photo sticker creating apparatus 1. A storage unit 202, a communication unit 203, a drive 204, a ROM 206, and a RAM (Random Access Memory) 207 are connected to the control unit 201. The control unit 201 is also connected with each configuration of the customer service units 208A and 208B, the photographing unit 209, the editing units 210A and 210B, and the printing unit 211.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体からなり、制御部201から供給された各種の設定情報等を記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。   The storage unit 202 includes a nonvolatile storage medium such as a hard disk or a flash memory, and stores various setting information supplied from the control unit 201. Information stored in the storage unit 202 is appropriately read out by the control unit 201.

通信部203は、インターネットなどのネットワークのインタフェースであり、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば撮影画像や編集済み画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。   A communication unit 203 is an interface of a network such as the Internet, and communicates with an external device according to control by the control unit 201. For example, the communication unit 203 transmits a captured image or an edited image to the server. The image transmitted from the communication unit 203 is allocated and stored in a predetermined storage area in the server, and is displayed or downloaded on a mobile terminal that has accessed the server.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたコンピュータプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。   A removable medium 205 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 204. Computer programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206には、制御部201において実行されるプログラムやデータが記憶されている。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。   The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

事前接客部208Aは、事前接客空間A0−1にいる利用者を対象とした事前接客処理を行う。事前接客部208Aは、タブレット内蔵モニタ71、タッチペン72A,72B、スピーカ73、および硬貨処理部221から構成される。事前接客部208Bは、事前接客部208Aと同一の構成を有しており、事前接客空間A0−2にいる利用者を対象とした事前接客処理を行う。なお、以下、事前接客部208A,208Bを特に区別しない場合には、単に、事前接客部208という。   The pre-service section 208A performs pre-service processing for users in the pre-service space A0-1. The pre-service section 208A includes a tablet built-in monitor 71, touch pens 72A and 72B, a speaker 73, and a coin processing section 221. The pre-service section 208B has the same configuration as the pre-service section 208A and performs pre-service processing for users in the pre-service area A0-2. In the following description, the prior customer service sections 208A and 208B are simply referred to as the prior customer service section 208 unless otherwise distinguished.

タブレット内蔵モニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を検出する。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の選択処理が行われる。   The tablet built-in monitor 71 displays various selection screens under the control of the control unit 201, and detects user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the control unit 201, and various selection processes are performed.

硬貨処理部221は、硬貨投入返却口74に対する硬貨の投入を検出する。硬貨処理部221は、例えば400円などの所定の金額分の硬貨が投入されたことを検出した場合、そのことを表す起動信号を制御部201に出力する。   The coin processing unit 221 detects the insertion of coins into the coin insertion / return port 74. When the coin processing unit 221 detects that a predetermined amount of coins such as 400 yen has been inserted, the coin processing unit 221 outputs an activation signal indicating that to the control unit 201.

撮影部209は、撮影空間A1にいる利用者を対象とした撮影処理を行う。撮影部209は、背景制御部231、照明装置232、カメラ91、タッチパネルモニタ92、およびスピーカ233から構成される。   The photographing unit 209 performs photographing processing for a user in the photographing space A1. The photographing unit 209 includes a background control unit 231, a lighting device 232, a camera 91, a touch panel monitor 92, and a speaker 233.

背景制御部231は、制御部201から供給される背景制御信号に従って背景カーテンユニット25による背景カーテンの上げ下ろしを制御する。   The background control unit 231 controls the raising / lowering of the background curtain by the background curtain unit 25 according to the background control signal supplied from the control unit 201.

照明装置232は、撮影空間A1内の各ストロボであり、制御部201から供給される照明制御信号に従って発光する。撮影空間A1には、天井ストロボユニット24のストロボの他に、撮影部21の正面ストロボ93、上ストロボ82、足元ストロボ83、背景部22の背面中央ストロボ101、背面右ストロボ102、および背面左ストロボ103が設けられる。   The illumination device 232 is each strobe in the imaging space A1, and emits light according to an illumination control signal supplied from the control unit 201. In the photographing space A1, in addition to the strobe of the ceiling strobe unit 24, the front strobe 93, the upper strobe 82, the foot strobe 83, the back center strobe 101 of the background unit 22, the back right strobe 102, and the back left strobe 103 is provided.

カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた画像(画像データ)を制御部201に出力する。   The camera 91 shoots according to the shutter control by the control unit 201, and outputs an image (image data) obtained by the shooting to the control unit 201.

編集部210Aは、編集空間A2−1にいる利用者を対象とした編集処理を行う。編集部210Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ241から構成される。編集部210Bは、編集部210Aと同一の構成を有しており、編集空間A2−2にいる利用者を対象とした編集処理を行う。なお、以下、編集部210A,210Bを特に区別しない場合には、単に、編集部210という。   The editing unit 210A performs an editing process for a user in the editing space A2-1. The editing unit 210A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 241. The editing unit 210B has the same configuration as the editing unit 210A, and performs editing processing for the user in the editing space A2-2. Hereinafter, when the editing units 210A and 210B are not particularly distinguished, they are simply referred to as the editing unit 210.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を検出する。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象の撮影画像の編集が行われる。   The tablet built-in monitor 131 displays an editing screen according to control by the control unit 201, and detects a user operation on the editing screen. An input signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

印刷部211は、印刷待ち空間A3にいる利用者に印刷済みのシール紙を提供する印刷処理を行う。印刷部211は、プリンタ251を含むように構成される。プリンタ251にはシール紙ユニット252が装着される。   The printing unit 211 performs a printing process for providing a printed sticker sheet to a user in the print waiting space A3. The printing unit 211 is configured to include a printer 251. A sticker sheet unit 252 is attached to the printer 251.

プリンタ251は、制御部201から供給された印刷データに基づいて、撮影画像や編集済み画像をシール紙ユニット252に収納されているシール紙261に印刷し、シール紙排出口161に排出する。   Based on the print data supplied from the control unit 201, the printer 251 prints the photographed image or the edited image on the sticker paper 261 stored in the sticker paper unit 252 and discharges it to the sticker paper discharge port 161.

[制御部の構成]
図10は、制御部201の機能構成例を示すブロック図である。図10に示す機能部のうちの少なくとも一部は、制御部201内のCPUにより所定のプログラムが実行されることによって実現される。
[Configuration of control unit]
FIG. 10 is a block diagram illustrating a functional configuration example of the control unit 201. At least a part of the functional units illustrated in FIG. 10 is realized by a predetermined program being executed by the CPU in the control unit 201.

制御部201においては、事前接客処理部301、撮影処理部302、編集処理部303、および印刷処理部304が実現される。   In the control unit 201, a pre-service processing unit 301, a photographing processing unit 302, an editing processing unit 303, and a print processing unit 304 are realized.

事前接客処理部301は、事前接客部208の各部を制御し、事前接客処理を行う。撮影処理部302は、撮影部209の各部を制御し、撮影処理を行う。編集処理部303は、編集部210の各部を制御し、編集処理を行う。印刷処理部304は、印刷部211のプリンタ251を制御し、印刷処理を行う。   The pre-service processing unit 301 controls each part of the pre-service unit 208 and performs pre-service processing. The imaging processing unit 302 controls each unit of the imaging unit 209 and performs imaging processing. The editing processing unit 303 controls each unit of the editing unit 210 and performs editing processing. The print processing unit 304 controls the printer 251 of the printing unit 211 to perform print processing.

[編集処理部の構成例]
図11は、編集処理部303の詳細な構成例を示している。
[Configuration example of edit processing section]
FIG. 11 shows a detailed configuration example of the editing processing unit 303.

編集処理部303は、編集処理を行うことで、撮影処理により得られた撮影画像を編集対象画像として利用者に選択させ、その編集対象画像(撮影画像)に合成する合成用画像を利用者に選択させ、選択された合成用画像を編集対象画像に合成し、得られた合成画像を編集済み画像として出力するとともに、撮影画像または編集済み画像を外部のサーバへ送信する。   The editing processing unit 303 performs the editing process to cause the user to select a captured image obtained by the shooting process as an image to be edited, and to provide the user with a composition image to be combined with the image to be edited (captured image). The selected composite image is combined with the image to be edited, and the resultant composite image is output as an edited image, and the captured image or the edited image is transmitted to an external server.

ここで、合成用画像には、利用者による描画入力の描画軌跡に対応して合成される線からなる画像であるペン画像、撮影画像の任意の位置に合成される図形や文字等の画像であるスタンプ画像、撮影画像の予め定められた位置に合成される図柄や模様等の画像であるフレーム画像が含まれる。すなわち、編集処理部303は、利用者による編集入力に基づいて、撮影画像に対してペン画像やスタンプ画像、フレーム画像を合成することで、合成画像を生成する。   Here, the composition image includes a pen image that is an image composed of lines that are combined corresponding to a drawing locus of a drawing input by a user, and an image such as a figure or a character that is combined at an arbitrary position of a captured image. A certain stamp image and a frame image which is an image such as a pattern or pattern synthesized at a predetermined position of the photographed image are included. That is, the edit processing unit 303 generates a composite image by combining a pen image, a stamp image, and a frame image with a captured image based on an edit input by a user.

編集処理部303は、表示制御部311、入力受付部312、落書き編集部313、および通信制御部314から構成される。   The edit processing unit 303 includes a display control unit 311, an input reception unit 312, a graffiti editing unit 313, and a communication control unit 314.

表示制御部311は、編集部210におけるタブレット内蔵モニタ131の表示を制御する。例えば、表示制御部311は、撮影画像を、落書き編集の対象となる編集対象画像として、タブレット内蔵モニタ131に表示される編集画面の所定の領域に表示させるとともに、撮影画像に合成するための合成用画像を編集画面の他の領域に表示させる。   The display control unit 311 controls the display of the tablet built-in monitor 131 in the editing unit 210. For example, the display control unit 311 displays the captured image as an editing target image to be edited in graffiti in a predetermined area of the editing screen displayed on the tablet built-in monitor 131 and combines the captured image with the captured image. The image is displayed in another area of the editing screen.

入力受付部312は、タブレット内蔵モニタ131に対する、利用者による指またはタッチペン132A,132Bを用いた操作入力を受け付ける。例えば、入力受付部312は、編集画面に表示された編集対象画像に合成させる合成用画像の選択を受け付ける。   The input receiving unit 312 receives an operation input using a finger or the touch pens 132 </ b> A and 132 </ b> B by the user for the tablet built-in monitor 131. For example, the input reception unit 312 receives selection of a composition image to be combined with an editing target image displayed on the editing screen.

落書き編集部313は、編集空間A2−1や編集空間A2−2において行われる、利用者による撮影画像に対する落書き編集作業に関する処理を行う。具体的には、落書き編集部313は、利用者により選択された合成用画像を編集対象画像に合成する合成処理を行う。   The graffiti editing unit 313 performs processing related to the graffiti editing work performed on the photographed image by the user, which is performed in the editing space A2-1 and the editing space A2-2. Specifically, the graffiti editing unit 313 performs a combining process for combining the combining image selected by the user with the editing target image.

通信制御部314は、通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。例えば、通信制御部314は、通信部203を制御することで、撮影処理に得られた撮影画像や、落書き編集の結果得られた編集済み画像を、外部のサーバへ送信する。   The communication control unit 314 controls the communication unit 203 and performs processing related to communication via a network such as the Internet. For example, the communication control unit 314 controls the communication unit 203 to transmit a photographed image obtained by the photographing process or an edited image obtained as a result of the doodle editing to an external server.

このような構成により、写真シール作成装置1は、撮影画像や編集済みの画像を、外部のサーバを介して携帯端末に送信することができる。すなわち、写真シール作成装置1は、利用者を被写体として撮影し、得られた画像に対して利用者に落書き編集を行わせ、その画像を外部のサーバへ送信することができる。   With such a configuration, the photo sticker creating apparatus 1 can transmit a photographed image or an edited image to a mobile terminal via an external server. That is, the photo sticker creating apparatus 1 can photograph a user as a subject, cause the user to perform graffiti editing on the obtained image, and transmit the image to an external server.

[写真シール作成装置の動作]
ここで、図12のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
[Operation of photo sticker creation device]
Here, with reference to the flowchart of FIG. 12, operation | movement of the photo sticker production apparatus 1 which provides a photo sticker production game is demonstrated.

ステップS1において、事前接客処理部301は、所定の金額分の硬貨が投入されたか否かを硬貨処理部221から供給される起動信号に基づいて判定し、投入されたと判定するまで待機する。   In step S1, the pre-service processing unit 301 determines whether or not a predetermined amount of coins has been inserted based on an activation signal supplied from the coin processing unit 221, and waits until it is determined that the coins have been inserted.

ステップS1において、硬貨が投入されたと判定された場合、ステップS2において、事前接客処理部301は、事前接客空間A0−1と事前接客空間A0−2のうち、硬貨の投入がなされた方の事前接客空間に対応する事前接客部208を制御し、撮影空間で行われる撮影処理のコース選択や、撮影画像の背景選択、さらには、撮影空間において流れるBGMの選択などを利用者に行わせることで、各種の設定を行う事前接客処理を行う。   If it is determined in step S1 that coins have been inserted, in step S2, the pre-service customer processing unit 301 performs advance advance of one of the pre-service spaces A0-1 and A0-2 in which coins have been inserted. By controlling the pre-service section 208 corresponding to the customer service space, the user can select the course of the shooting process performed in the shooting space, the background selection of the shot image, and the selection of the background music flowing in the shooting space. The customer service process for various settings is performed.

ステップS3において、事前接客処理部301は、事前接客作業を行っている利用者が、撮影空間A1へ移動可能であるか否かを判定する。具体的には、事前接客処理部301は、前の組の利用者の撮影作業の進行状況に基づいて、撮影空間A1が使用中であるか否かを判定し、撮影空間A1が使用中で、事前接客作業を行っている利用者の撮影空間A1への移動が不可能であると判定した場合、処理はステップS2に戻り、例えば撮影処理に関するガイダンス等を行うことで、事前接客処理を継続して行う。   In step S <b> 3, the pre-service processing unit 301 determines whether or not the user performing the pre-service service can move to the shooting space A <b> 1. Specifically, the customer service processing unit 301 determines whether or not the shooting space A1 is in use based on the progress of the shooting work of the previous group of users, and the shooting space A1 is in use. If it is determined that it is impossible for the user performing the pre-service operation to move to the shooting space A1, the process returns to step S2, and the pre-service process is continued by performing, for example, guidance regarding the shooting process. And do it.

そして、ステップS3において、撮影空間A1が使用中でなく、撮影空間A1へ移動可能であると判定された場合、処理はステップS4に進み、事前接客処理部301は、事前接客空間A0−1または事前接客空間A0−2にいる利用者に対して、撮影空間A1への移動を案内する。撮影空間A1への移動の案内は、事前接客部208のタブレット内蔵モニタ71に案内画面を表示させることによって、または音声をスピーカ73から出力させることによって行われる。   If it is determined in step S3 that the shooting space A1 is not in use and can be moved to the shooting space A1, the process proceeds to step S4, and the pre-service processing unit 301 selects the pre-service space A0-1 or The user in the pre-service space A0-2 is guided to move to the shooting space A1. Guidance of movement to the imaging space A1 is performed by displaying a guidance screen on the tablet built-in monitor 71 of the pre-service section 208 or by outputting sound from the speaker 73.

ステップS5において、撮影処理部302は、撮影部209を制御し、カメラ91に取り込まれた被写体の動画像をタッチパネルモニタ92にライブビュー表示させ、撮影空間A1にいる利用者を被写体として撮影し、撮影画像を取得する撮影処理を行う。   In step S5, the imaging processing unit 302 controls the imaging unit 209 to display the moving image of the subject captured by the camera 91 on the touch panel monitor 92, and shoots the user in the imaging space A1 as the subject. A photographing process for acquiring a photographed image is performed.

撮影処理においては、例えば7回の撮影が行われ、撮影結果として7枚の撮影画像が得られる。もちろん、撮影が行われる回数は7回に限られない。   In the photographing process, for example, seven photographings are performed, and seven photographed images are obtained as photographing results. Of course, the number of times of shooting is not limited to seven.

ステップS6において、撮影処理部302は、撮影空間A1にいる利用者に対して、編集空間A2−1または編集空間A2−2への移動を案内する。編集空間A2−1または編集空間A2−2への移動の案内は、撮影部209のタッチパネルモニタ92に案内画面を表示させることによって、または音声をスピーカ233から出力させることによって行われる。   In step S6, the imaging processing unit 302 guides the user in the imaging space A1 to move to the editing space A2-1 or the editing space A2-2. The guidance for moving to the editing space A2-1 or the editing space A2-2 is performed by displaying a guidance screen on the touch panel monitor 92 of the photographing unit 209 or by outputting sound from the speaker 233.

ステップS7において、編集処理部303は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部210を制御し、撮影処理により得られた撮影画像に対して利用者に落書き編集を行わせ、落書き編集が施された編集済み画像を生成する編集処理を行う。   In step S <b> 7, the editing processing unit 303 controls the editing unit 210 corresponding to the editing space of the editing space A <b> 2-1 and the editing space A <b> 2-2 as the destination of the user who has finished the shooting process, The user performs a graffiti edit on the photographed image obtained by the photographing process, and performs an edit process for generating an edited image subjected to the graffiti edit.

ステップS8において、印刷処理部304は、撮影処理により得られた撮影画像、または編集処理により得られた編集済み画像を、印刷画像としてプリンタ251に出力してシール紙に印刷する印刷処理を行う(開始する)。   In step S <b> 8, the print processing unit 304 performs a printing process in which the photographed image obtained by the photographing process or the edited image obtained by the editing process is output as a print image to the printer 251 and printed on the sticker paper ( Start).

印刷が終了すると、ステップS9において、プリンタ251は、画像が印刷されたシール紙をシール紙排出口161に排出し、処理を終了させる。このとき、編集処理部303は、編集空間A2−1または編集空間A2−2で編集処理を終えた利用者に対して、印刷が終了した旨をタブレット内蔵モニタ131に表示させることで、印刷待ち空間A3への移動を案内する。印刷待ち空間A3への移動の案内は、音声をスピーカ241から出力させることによって行われるようにしてもよい。   When printing is completed, in step S9, the printer 251 discharges the sticker sheet on which the image is printed to the sticker paper discharge port 161, and ends the process. At this time, the editing processing unit 303 causes the user who has finished the editing processing in the editing space A2-1 or the editing space A2-2 to display that the printing is completed on the tablet built-in monitor 131, thereby waiting for printing. Guide the movement to the space A3. The guidance for movement to the print waiting space A3 may be performed by outputting sound from the speaker 241.

[編集処理の流れ]
次に、図13のフローチャートを参照して、上述した写真シール作成ゲームの一連の処理におけるステップS7の編集処理の流れを説明する。
[Editing process flow]
Next, the flow of the editing process in step S7 in the series of processes of the photo sticker creation game described above will be described with reference to the flowchart of FIG.

編集処理が開始されると、編集処理部303は、撮影処理により得られた、例えば7枚の撮影画像を記憶部202から取得する。そして、ステップS31において、編集処理部303は、タブレット内蔵モニタ131やスピーカ241等を制御して、落書き作業の流れを案内する画像や音声を出力することにより、利用者に対して落書き作業のガイダンスを行う。   When the editing process is started, the editing processing unit 303 acquires, for example, seven photographed images obtained by the photographing process from the storage unit 202. In step S31, the editing processing unit 303 controls the tablet built-in monitor 131, the speaker 241 and the like, and outputs images and sounds for guiding the flow of the graffiti work. I do.

その後、編集処理部303の表示制御部311は、ステップS32において、タブレット内蔵モニタ131に編集画面を表示する。   Thereafter, the display control unit 311 of the editing processing unit 303 displays an editing screen on the tablet built-in monitor 131 in step S32.

ステップS33において、入力受付部312および落書き編集部313は、編集部210Aまたは編集部210B(利用者が編集作業を行う方)の各部を制御して、利用者による撮影画像に対する落書き編集作業を受け付ける落書き編集処理を行う。すなわち、落書き編集部313は、利用者の落書き編集によって、編集対象画像に合成用画像を合成する。   In step S33, the input receiving unit 312 and the graffiti editing unit 313 control each unit of the editing unit 210A or the editing unit 210B (the user performs editing work), and accepts the graffiti editing work on the photographed image by the user. Do graffiti editing. That is, the graffiti editing unit 313 synthesizes the image for synthesis with the image to be edited by editing the graffiti of the user.

落書き編集作業が終了すると、ステップS34において、表示制御部311は、タブレット内蔵モニタ131に分割数選択画面を表示し、入力受付部312は、利用者からの指示を受け付けることで、シール紙の分割数を選択させる。そして、編集処理部303は、利用者からの指示に応じて、シール紙の分割数を決定し、シールレイアウトを設定する。   When the graffiti editing work is completed, in step S34, the display control unit 311 displays a division number selection screen on the tablet built-in monitor 131, and the input reception unit 312 receives the instruction from the user, thereby dividing the sticker sheet. Let the number be selected. Then, the edit processing unit 303 determines the number of divisions of the sticker sheet according to the instruction from the user, and sets the sticker layout.

このシールレイアウトを表す情報は、印刷処理部304に供給され、印刷処理部304は、この情報で表されるシールレイアウトで、撮影画像または編集済み画像をシール紙に印刷する。   Information representing the sticker layout is supplied to the print processing unit 304, and the print processing unit 304 prints the photographed image or the edited image on the sticker sheet with the sticker layout represented by the information.

ステップS35において、表示制御部311は、タブレット内蔵モニタ131に携帯送信用画像選択画面を表示させ、入力受付部312は、利用者からの指示を受け付けることで、利用者に携帯送信用画像として、例えば1枚の撮影画像を選択させる。ここで、撮影画像に限らず、携帯送信用画像として編集済み画像が選択されるようにしてもよく、また、携帯送信用画像として選択される画像は、1枚に限らず、2枚以上であってもよい。   In step S <b> 35, the display control unit 311 displays the portable transmission image selection screen on the tablet built-in monitor 131, and the input reception unit 312 accepts an instruction from the user, so that the user can obtain a portable transmission image as the portable transmission image. For example, one photographed image is selected. Here, the edited image may be selected as the mobile transmission image, not limited to the captured image, and the number of images selected as the mobile transmission image is not limited to one, but may be two or more. There may be.

ステップS36において、表示制御部311は、タブレット内蔵モニタ131にメールアドレス入力画面を表示させ、入力受付部312は、利用者からの指示を受け付けることで、利用者の所有する携帯端末のメールアドレスの入力を受け付ける。   In step S36, the display control unit 311 displays a mail address input screen on the tablet built-in monitor 131, and the input receiving unit 312 receives an instruction from the user, thereby receiving the mail address of the mobile terminal owned by the user. Accept input.

その後、所定の時間が経過したか、または終了ボタンが操作されると、ステップS37において、通信制御部314は、通信部203を制御し、インターネットなどのネットワークを介して、利用者により選択された携帯送信用画像を、利用者により入力されたメールアドレスとともに、例えば写真シール作成装置1の製造メーカが管理するサーバに送信する。   Thereafter, when a predetermined time has elapsed or the end button is operated, in step S37, the communication control unit 314 controls the communication unit 203 and is selected by the user via a network such as the Internet. The portable transmission image is transmitted together with the mail address input by the user to, for example, a server managed by the manufacturer of the photo sticker creating apparatus 1.

サーバは、利用者により入力されたメールアドレス宛てに、携帯端末がサーバにアクセスするのに必要なURLが記載されたメールを送信する。そして、そのURLに基づいて、利用者が所有する携帯端末が、インターネットなどのネットワークを介して、サーバにアクセスすることで、サーバに送信された携帯送信用画像が携帯端末に提供される。   The server sends a mail describing a URL necessary for the mobile terminal to access the server to the mail address input by the user. Then, based on the URL, the mobile terminal owned by the user accesses the server via a network such as the Internet, so that the mobile transmission image transmitted to the server is provided to the mobile terminal.

ステップS37の後、処理は、図12のステップS7に戻り、それ以降の処理が行われる。   After step S37, the processing returns to step S7 in FIG. 12, and the subsequent processing is performed.

[編集画面の例]
ここで、図14を参照して、図13のステップS32において表示される編集画面の例について説明する。
[Example of edit screen]
Here, an example of the edit screen displayed in step S32 of FIG. 13 will be described with reference to FIG.

編集画面は、主な構成が、一部を除き左右に2つずつ設けられているが、図14に示される編集画面401は、タブレット内蔵モニタ131に表示される編集画面の左半分のみを示している。   The editing screen is provided with two main configurations except for a part, but the editing screen 401 shown in FIG. 14 shows only the left half of the editing screen displayed on the tablet built-in monitor 131. ing.

編集対象画像表示領域411には、その上側に示される、7枚の撮影画像のうちの6枚の撮影画像に対応するサムネイル画像P1乃至P6の中から利用者が選択したサムネイル画像に対応する撮影画像が、編集対象画像として表示される。   In the edit target image display area 411, a photograph corresponding to a thumbnail image selected by the user from thumbnail images P1 to P6 corresponding to six of the seven photographed images shown on the upper side is displayed. An image is displayed as an image to be edited.

編集対象画像表示領域411の左側には、サーバに送信するための画像の編集を行うときに操作されるケータイおまけボタン412と、編集対象画像に対して、所定の落書き編集を1回の操作で行うときに操作される一発らくがきボタン413が表示される。   On the left side of the edit target image display area 411, a mobile phone bonus button 412 that is operated when editing an image to be transmitted to the server, and a predetermined graffiti edit for the edit target image can be performed by one operation. A one-time scribing button 413 operated when performing is displayed.

ケータイおまけボタン412が操作されると、ケータイおまけ(携帯端末用の待受画像や、メールやブログ等に添付される画像)の作成を行うことができる。また、一発らくがきボタン413が操作されると、複数の合成用画像が合成された編集済み画像を1回の操作で作成することができる。   When the mobile phone bonus button 412 is operated, a mobile phone bonus (a standby image for a mobile terminal or an image attached to an email, a blog, or the like) can be created. Further, when the one-time scribing button 413 is operated, an edited image in which a plurality of compositing images are combined can be created by a single operation.

さらに、一発らくがきボタン413の下側には、7枚の撮影画像のうちの、サムネイル画像P1乃至P6として表示されない1枚の撮影画像に対して、その撮影画像専用の落書き編集を行うときに操作される特別らくがきボタン414が表示される。   Further, on the lower side of the one-time scribing button 413, when one of the seven photographed images that is not displayed as the thumbnail images P1 to P6 is subjected to graffiti editing dedicated to the photographed image. A special graffiti button 414 to be operated is displayed.

編集対象画像表示領域411の下側には、編集対象画像表示領域411に表示されている編集対象画像に対して、落書き編集を行うための編集機能を提供する編集ツールを利用者に選択させるための編集用パレット415が表示されている。   Below the editing target image display area 411, the user selects an editing tool that provides an editing function for performing graffiti editing on the editing target image displayed in the editing target image display area 411. The editing palette 415 is displayed.

編集用パレット415には、編集ツールが、「おすすめ」、「ペン」、「スタンプ」、「メッセージ」、「メイクアップ」、「いたずら」といったカテゴリ毎のタブで分類されて表示されるようになされており、図14の例では、「いたずら」タブが選択されている。   In the editing palette 415, editing tools are classified and displayed in tabs for each category such as “Recommendation”, “Pen”, “Stamp”, “Message”, “Makeup”, and “Prank”. In the example of FIG. 14, the “mischievous” tab is selected.

さらに、図14に示されるように、「いたずら」タブには、編集ツールが、「一発いたずら」、「いたずら」、「おそろい」、「ふきだし」、「サングラス・めがね」といった、種類毎のボタンで分類されて表示されるようになされており、図14の例では、編集用パレット415において、「一発いたずら」ボタンが選択されている。   Furthermore, as shown in FIG. 14, in the “Mischief” tab, the editing tools include buttons for each type such as “one-shot mischief”, “mischief”, “match”, “drumstick”, and “sunglasses / glasses”. In the example of FIG. 14, the “one shot mischief” button is selected in the editing palette 415.

「一発いたずら」ボタンが選択されている編集用パレット415には、グループ毎に分類された複数のスタンプ画像の集合として、メガネスタンプ画像群431、つけ耳スタンプ画像群432、はなスタンプ画像群433、およびパーツスタンプ画像群434が表示されている。   In the editing palette 415 in which the “one shot mischief” button is selected, a group of a plurality of stamp images classified for each group includes a glasses stamp image group 431, a fleece stamp image group 432, and a Hana stamp image group. 433 and a part stamp image group 434 are displayed.

ここでは、表示制御部311によって、グループ(スタンプ画像群)それぞれに含まれるスタンプ画像として、編集対象画像における利用者の所定の部位、具体的には顔の部位(目、鼻、口、等)に対応して分類されたスタンプ画像が表示される。そして、いずれかのスタンプ画像が選択されると、落書き編集部313によって、顔認識処理に基づいて顔の各部位(目、鼻、口、等)が認識された上で、選択されたスタンプ画像が、そのグループに対応する顔の部位に合成される。   Here, as a stamp image included in each group (stamp image group) by the display control unit 311, a predetermined part of the user in the editing target image, specifically, a part of the face (eyes, nose, mouth, etc.) A stamp image classified corresponding to is displayed. When one of the stamp images is selected, the graffiti editing unit 313 recognizes each part of the face (eyes, nose, mouth, etc.) based on the face recognition process, and then selects the selected stamp image. Are combined with the facial part corresponding to the group.

例えば、メガネスタンプ画像群431は、編集対象画像における利用者の目の部分に合成される、メガネやサングラスを模したスタンプ画像のグループに分類される合成用画像からなる。編集用パレット415において、メガネスタンプ画像群431に含まれるいずれかのスタンプ画像が選択されると、そのスタンプ画像が、編集対象画像表示領域411に表示されている編集対象画像における利用者それぞれの目の部分に、一括して合成される。   For example, the glasses stamp image group 431 is composed of images for synthesis classified into a group of stamp images imitating glasses and sunglasses, which are synthesized with the eye portion of the user in the image to be edited. When any one of the stamp images included in the glasses stamp image group 431 is selected in the editing palette 415, the stamp image is displayed in the edit target image displayed in the edit target image display area 411. This part is synthesized in a lump.

図14の例では、メガネスタンプ画像群431において、左上のスタンプ画像が選択されることで、対応するスタンプ画像431−1が、編集対象画像における2人の利用者それぞれの目の部分に合成されている。   In the example of FIG. 14, when the upper left stamp image is selected in the glasses stamp image group 431, the corresponding stamp image 431-1 is combined with the eyes of the two users in the editing target image. ing.

つけ耳スタンプ画像群432は、編集対象画像における利用者の額より上の部分に合成される、動物やキャラクタの耳を模したスタンプ画像のグループに分類される合成用画像からなる。編集用パレット415において、つけ耳スタンプ画像群432に含まれるいずれかのスタンプ画像が選択されると、そのスタンプ画像が、編集対象画像表示領域411に表示されている編集対象画像における利用者それぞれの額より上の部分に、一括して合成される。   The false ear stamp image group 432 is composed of images for synthesis classified into a group of stamp images imitating the ears of animals and characters, which are synthesized in a portion above the user's forehead in the image to be edited. When one of the stamp images included in the false ear stamp image group 432 is selected in the editing palette 415, the stamp image is displayed on the editing target image displayed in the editing target image display area 411. It is synthesized in a lump above the forehead.

はなスタンプ画像群433は、編集対象画像における利用者の鼻の部分に合成される、動物やキャラクタの鼻およびその近傍を模したスタンプ画像のグループに分類される合成用画像からなる。編集用パレット415において、はなスタンプ画像群433に含まれるいずれかのスタンプ画像が選択されると、そのスタンプ画像が、編集対象画像表示領域411に表示されている編集対象画像における利用者それぞれの鼻の部分に、一括して合成される。   The Hana stamp image group 433 is composed of synthesis images classified into a group of stamp images imitating the nose of the animal or character and the vicinity thereof, which is synthesized with the nose portion of the user in the image to be edited. When one of the stamp images included in the Hana stamp image group 433 is selected in the editing palette 415, the stamp image is displayed on the editing target image displayed in the editing target image display area 411. It is synthesized at the nose.

パーツスタンプ画像群434は、編集対象画像における利用者の顔の各部位(パーツ)に合成される、そのパーツ自体を模したスタンプ画像のグループに分類される合成用画像からなる。編集用パレット415において、パーツスタンプ画像群434に含まれるいずれかのスタンプ画像が選択されると、そのスタンプ画像が、編集対象画像表示領域411に表示されている編集対象画像における利用者それぞれにおける対応するパーツに、一括して合成される。   The parts stamp image group 434 is composed of images for synthesis classified into groups of stamp images imitating the parts themselves, which are synthesized with each part (part) of the user's face in the image to be edited. When one of the stamp images included in the part stamp image group 434 is selected in the editing palette 415, the stamp image corresponds to each user in the editing target image displayed in the editing target image display area 411. The parts to be combined are combined together.

このような、利用者の顔の各部位へのスタンプ画像の合成は、編集対象画像において、利用者の顔認識処理が行われることで実現され、顔認識された顔の大きさや向きに応じて、合成されるスタンプ画像の大きさや向きも調整されて合成が行われる。なお、ここでいうスタンプ画像の向きは、編集対象画像上の2次元的な傾きを表す以外にも、奥行き方向を含む3次元的な傾きも表すものとする。また、編集用パレット415にスタンプ画像の向きや大きさを変更するための操作ボタンを設けるようにし、利用者の操作により、合成されるスタンプ画像の大きさや向きが調整されるようにしてもよい。   The composition of the stamp image to each part of the user's face is realized by performing the user's face recognition process on the image to be edited, depending on the size and orientation of the face recognized. Then, the size and orientation of the stamp image to be combined are also adjusted and combined. Note that the direction of the stamp image here represents not only a two-dimensional inclination on the image to be edited but also a three-dimensional inclination including the depth direction. In addition, an operation button for changing the orientation and size of the stamp image may be provided on the editing palette 415, and the size and orientation of the combined stamp image may be adjusted by a user operation. .

図14Aは、スタンプ画像の自動合成処理を説明したフローチャートである。利用者により、1つのスタンプ画像群の中から1つのスタンプ画像が選択されると(S41でYES)、制御部201は、編集対象画像から複数の所定の部位(目、鼻、口等)を検出する(S42)。具体的には、制御部201は、顔認識機能により、編集対象画像から顔の目、鼻、口等の特徴点を検出してそれらの部位を検出し、各部位の位置、大きさ、向きを判断する。例えば、顔認識機能により、目頭、目尻、目の中心、口中心、口左端、口右端、口上、及び鼻の左右端を特徴点(基準点)として検出し、検出した特徴点に基づき各部位を検出する。その後、制御部201は、選択されたスタンプ画像に対応した顔の部位について、検出された部位の大きさ、位置、向きに応じて、選択されたスタンプ画像の大きさ、位置、向きを調整する(S43)。その後、制御部201は、調整したスタンプ画像を編集対象画像に合成し(S44)、合成した画像を編集対象画像表示領域411に表示する(S45)。なお、撮影対象画像に複数の顔が含まれる場合、顔毎に、顔認識機能が実施されて、スタンプ画像の位置、大きさ等が調整される。   FIG. 14A is a flowchart illustrating an automatic synthesis process for stamp images. When one stamp image is selected from one stamp image group by the user (YES in S41), the control unit 201 selects a plurality of predetermined parts (eyes, nose, mouth, etc.) from the image to be edited. Detect (S42). Specifically, with the face recognition function, the control unit 201 detects feature points such as face eyes, nose, mouth, and the like from the image to be edited, detects those parts, and positions, sizes, and orientations of the parts. Judging. For example, the face recognition function detects the eyes, corners of the eyes, the center of the eyes, the center of the mouth, the left end of the mouth, the right end of the mouth, the top of the mouth, and the left and right ends of the nose as feature points (reference points). Is detected. Thereafter, the control unit 201 adjusts the size, position, and orientation of the selected stamp image in accordance with the size, position, and orientation of the detected portion of the face corresponding to the selected stamp image. (S43). Thereafter, the control unit 201 combines the adjusted stamp image with the editing target image (S44), and displays the combined image in the editing target image display area 411 (S45). When a plurality of faces are included in the shooting target image, a face recognition function is performed for each face, and the position, size, and the like of the stamp image are adjusted.

上記のステップS43におけるスタンプ画像の調整処理について具体的に説明する。例えば、メガネスタンプ画像群431に含まれるスタンプ画像は、編集対象画像において、利用者の顔認識により認識された左右の目の位置を基準とした位置に、スタンプ画像の中心が重なるように合成される。このとき、スタンプ画像は、利用者の顔の3次元的な向き(角度)に応じて合成されるようにする。なお、メガネスタンプ画像群431に含まれるスタンプ画像は、片方の目が認識されなかった利用者には合成されないものとするが、認識された片方の目の位置に基づいて合成されるようにしてもよい。   The stamp image adjustment processing in step S43 will be specifically described. For example, the stamp images included in the glasses stamp image group 431 are combined so that the center of the stamp image overlaps the position of the edit target image with the position of the left and right eyes recognized by the user's face recognition as a reference. The At this time, the stamp image is synthesized according to the three-dimensional orientation (angle) of the user's face. It should be noted that the stamp images included in the glasses stamp image group 431 are not combined by a user whose one eye is not recognized, but are combined based on the recognized position of one eye. Also good.

また、つけ耳スタンプ画像群432に含まれるスタンプ画像は、編集対象画像において、顔認識により認識された利用者の左右の目の位置および鼻の位置を基準とした位置に、スタンプ画像の中心が重なるように合成される。具体的には、図15に示されるように、つけ耳スタンプ画像群432に含まれるつけ耳スタンプ画像432−4は、利用者の顔認識により認識された左右の目の間の位置Aと鼻の位置Bから、位置Aを中心として位置Bに点対称となる点Cを求め、その点Cを基準とした位置に、つけ耳スタンプ画像432−4を囲む矩形の底辺の中心が重なるように合成される。   In addition, the stamp image included in the false ear stamp image group 432 has the center of the stamp image at a position relative to the position of the left and right eyes of the user and the position of the nose recognized by face recognition in the editing target image. Synthesized to overlap. Specifically, as shown in FIG. 15, the ear-tip stamp image 432-4 included in the ear-ear stamp image group 432 is a position A between the left and right eyes recognized by the user's face recognition and the nose. A point C that is point-symmetric with respect to the position B with respect to the position A is obtained from the position B, and the center of the bottom of the rectangle that surrounds the false ear stamp image 432-4 overlaps the position with the point C as a reference. Synthesized.

さらに、はなスタンプ画像群433に含まれるスタンプ画像は、編集対象画像において、利用者の顔認識により認識された鼻の位置を基準とした位置に、スタンプ画像の中心が重なるように合成される。なお、はなスタンプ画像群433に含まれるスタンプ画像は、利用者の顔認識により認識された左右の目の間の位置から所定の距離だけ下方向に移動した位置に、そのスタンプ画像の中心が重なるように合成されるようにしてもよい。   Further, the stamp images included in the Hana stamp image group 433 are combined so that the center of the stamp image overlaps with the position of the edit target image based on the position of the nose recognized by the user's face recognition. . It should be noted that the stamp image included in the Hana stamp image group 433 has the center of the stamp image at a position moved downward by a predetermined distance from the position between the left and right eyes recognized by the user's face recognition. You may make it synthesize | combine so that it may overlap.

さらにまた、パーツスタンプ画像群434に含まれるスタンプ画像は、編集対象画像において、利用者の顔認識により認識された各パーツの位置を基準とした位置に、スタンプ画像の中心が重なるように合成される。例えば、図16に示されるように、パーツスタンプ画像群434に含まれるスタンプ画像のうちの血管を模したスタンプ画像434−1は、利用者の顔認識により認識された左右の目の間の位置Aと鼻の位置Bから、位置Aを中心として位置Bに点対称となる点Cを求め、その点Cから所定の距離、所定の角度で右上方向に移動した位置に、スタンプ画像434−1の中心が重なるように合成される。   Furthermore, the stamp images included in the part stamp image group 434 are synthesized so that the center of the stamp image overlaps with the position of each part recognized by the user's face recognition in the editing target image. The For example, as shown in FIG. 16, a stamp image 434-1 simulating a blood vessel among the stamp images included in the part stamp image group 434 is a position between the left and right eyes recognized by the user's face recognition. From point A and nose position B, a point C that is point-symmetric with respect to position B with respect to position A is obtained, and a stamp image 434-1 is moved to a position moved from the point C to the upper right by a predetermined distance and a predetermined angle. Are synthesized so that the centers of each overlap.

また、パーツスタンプ画像群434に含まれるスタンプ画像は、編集対象画像において、利用者の顔認識により認識された利用者の各部位の位置を基準とした位置に、スタンプ画像の中心が重なるように合成される。例えば、パーツスタンプ画像群434に含まれるスタンプ画像のうち、左右の眉毛を模したスタンプ画像は、編集対象画像において、利用者の顔認識により認識された左右の眉毛の間の位置に、そのスタンプ画像の中心が重なるように合成され、唇を模したスタンプ画像は、編集対象画像において、利用者の顔認識により認識された唇の中心に、そのスタンプ画像の中心が重なるように合成される。   Further, the stamp images included in the part stamp image group 434 are arranged such that the center of the stamp image overlaps with the position of each part of the user recognized by the user's face recognition in the editing target image. Synthesized. For example, among the stamp images included in the part stamp image group 434, a stamp image imitating the left and right eyebrows is located at the position between the left and right eyebrows recognized by the user's face recognition in the image to be edited. A stamp image imitating the center of the image and imitating the lips is synthesized such that the center of the stamp image overlaps the center of the lip recognized by the user's face recognition in the editing target image.

なお、メガネスタンプ画像群431、つけ耳スタンプ画像群432、およびはなスタンプ画像群433に含まれるスタンプ画像のいずれかが選択されて、編集対象画像における利用者の顔の各部位に合成された後、同じグループ(スタンプ画像群)に含まれる他のスタンプ画像が選択された場合、先に選択され合成されたスタンプ画像は消去され、後に選択されたスタンプ画像が合成される。すなわち、同じグループに含まれるスタンプ画像のうち、直近に選択されたものが、編集対象画像に反映されるようになる。   In addition, any one of the stamp images included in the glasses stamp image group 431, the artificial ear stamp image group 432, and the Hana stamp image group 433 is selected and combined with each part of the user's face in the editing target image. Thereafter, when another stamp image included in the same group (stamp image group) is selected, the stamp image selected and combined first is deleted, and the stamp image selected later is combined. That is, the most recently selected stamp image included in the same group is reflected in the editing target image.

一方、パーツスタンプ画像群434に含まれるスタンプ画像のいずれかが選択されて、編集対象画像における利用者の顔の各部位に合成された後、パーツスタンプ画像群434に含まれる他のスタンプ画像が選択された場合には、先に選択され合成されたスタンプ画像は消去されずに、後に選択されたスタンプ画像が合成される。   On the other hand, after one of the stamp images included in the part stamp image group 434 is selected and combined with each part of the user's face in the image to be edited, another stamp image included in the part stamp image group 434 is displayed. If selected, the stamp image selected and synthesized first is not erased, but the stamp image selected later is synthesized.

また、メガネスタンプ画像群431、つけ耳スタンプ画像群432、はなスタンプ画像群433、およびパーツスタンプ画像群434の各グループには、OFFボタンが設けられている。このOFFボタンが押下されると、そのグループ内で選択されて編集対象画像に合成されたスタンプ画像が全て消去される。   Further, an OFF button is provided in each group of the glasses stamp image group 431, the artificial ear stamp image group 432, the Hana stamp image group 433, and the parts stamp image group 434. When this OFF button is pressed, all the stamp images selected in the group and combined with the image to be edited are deleted.

さらに、メガネスタンプ画像群431、つけ耳スタンプ画像群432、はなスタンプ画像群433、およびパーツスタンプ画像群434の各グループには、それぞれのグループに含まれるスタンプ画像に加えて、ランダムボタン437が設けられている。このランダムボタン437が押下されると、そのグループに含まれるいずれかのスタンプ画像が無作為に選択されて、編集対象画像における利用者の顔の対応する部位に合成される。   Furthermore, in addition to the stamp images included in the respective groups, a random button 437 is provided in each group of the glasses stamp image group 431, the false ear stamp image group 432, the Hana stamp image group 433, and the parts stamp image group 434. Is provided. When the random button 437 is pressed, one of the stamp images included in the group is randomly selected and combined with the corresponding portion of the user's face in the image to be edited.

より詳細には、利用者が1人の場合、ランダムボタン437が押下されると、対応するグループに含まれるいずれか1つのスタンプ画像が無作為に選択されて、編集対象画像における利用者に合成される。ランダムボタン437が押下される度に、対応するグループに含まれるいずれか1つのスタンプ画像が無作為に選択されて、編集対象画像における利用者に合成される。   More specifically, in the case of one user, when the random button 437 is pressed, any one stamp image included in the corresponding group is randomly selected and combined with the user in the editing target image. Is done. Each time the random button 437 is pressed, any one stamp image included in the corresponding group is selected at random and combined with the user in the image to be edited.

また、利用者が複数の場合、ランダムボタン437が押下されると、対応するグループに含まれる、少なくともいずれか1つは互いに異なる複数のスタンプ画像が無作為に選択されて、編集対象画像における利用者それぞれに合成される。ランダムボタン437が押下される度に、対応するグループに含まれるいずれか1つのスタンプ画像が無作為的に選択されて、編集対象画像における利用者毎に合成される。   Further, when there are a plurality of users, when the random button 437 is pressed, a plurality of stamp images included in the corresponding group are randomly selected and used in the editing target image. Synthesized for each person. Each time the random button 437 is pressed, one of the stamp images included in the corresponding group is randomly selected and combined for each user in the image to be edited.

例えば、編集用パレット415において、メガネスタンプ画像群431に含まれるランダムボタン437が押下されると、図17に示されるように、編集対象画像における利用者のうち、左側の利用者の目の部分には、メガネスタンプ画像431−1が合成される一方で、ランダムボタン437が押下される度に、メガネスタンプ画像群431に含まれるいずれかのスタンプ画像が無作為に選択されて、それぞれの利用者の目の部分に合成されるようになる。   For example, when the random button 437 included in the glasses stamp image group 431 is pressed in the editing palette 415, as shown in FIG. 17, the left user's eye part among the users in the editing target image. In addition, while the glasses stamp image 431-1 is synthesized, each time the random button 437 is pressed, any one of the stamp images included in the glasses stamp image group 431 is randomly selected and used. It will be synthesized into the eyes of the person.

また、編集用パレット415において、はなスタンプ画像群433に含まれるランダムボタン437が押下されると、図18に示されるように、編集対象画像における利用者のうち、左側の利用者の鼻の部分には、はなスタンプ画像433−1が合成される一方で、右側の利用者の鼻の部分には、はなスタンプ画像433−3が合成される。ランダムボタン437が押下される度に、はなスタンプ画像群433に含まれるいずれかのスタンプ画像が無作為に選択されて、それぞれの利用者の鼻の部分に合成されるようになる。   Further, when the random button 437 included in the Hana stamp image group 433 is pressed in the editing palette 415, as shown in FIG. 18, among the users in the editing target image, the nose of the left user Hana stamp image 433-1 is combined with the portion, while Hana stamp image 433-3 is combined with the right user's nose portion. Each time the random button 437 is pressed, one of the stamp images included in the Hana stamp image group 433 is selected at random, and is combined with the nose portion of each user.

このように、あるスタンプ画像群のランダムボタン437が押下されるだけで、そのスタンプ画像群に含まれるスタンプ画像が無作為に選択されて、編集対象画像における利用者毎に合成されるので、利用者(被写体)毎にスタンプ画像を合成する作業を行う必要もなく、より簡単に、意外性があって、面白味のある画像を利用者に提供することが可能となる。   In this way, just by pressing the random button 437 of a certain stamp image group, stamp images included in the stamp image group are randomly selected and combined for each user in the image to be edited. It is not necessary to synthesize a stamp image for each person (subject), and it is possible to provide a user with an image that is simple, surprising, and interesting.

なお、利用者が複数の場合、利用者それぞれに合成されるスタンプ画像は、全てがそれぞれ互いに異なるスタンプ画像とは限らない。   When there are a plurality of users, the stamp images synthesized for each user are not necessarily different from each other.

さらに、編集用パレット415において、パーツスタンプ画像群434に含まれるランダムボタン437が押下されると、パーツスタンプ画像群434に含まれるいずれか複数のスタンプ画像が無作為に選択され、この選択されたスタンプ画像が組み合わされて、編集対象画像における利用者それぞれの顔の各パーツに合成される。   Furthermore, when the random button 437 included in the part stamp image group 434 is pressed in the editing palette 415, any one of a plurality of stamp images included in the part stamp image group 434 is randomly selected. The stamp images are combined and combined with each part of the face of each user in the image to be edited.

具体的には、図19に示されるように、パーツスタンプ画像群434に含まれるランダムボタン437が押下されると、パーツスタンプ画像群434に含まれる5つのパーツスタンプ画像434−1乃至434−5のうち無作為にパーツスタンプ画像が選択される。例えば、パーツスタンプ画像434−1,434−2,434−3が無作為に選択されて、組み合わされる。このとき、編集対象画像における左側の利用者には、図20に示されるように、組み合わされたパーツスタンプ画像434−1,434−2,434−3が合成されるようになる。なお、図19は、無作為に選択されたパーツスタンプ画像の組み合わせの例を示している。   Specifically, as shown in FIG. 19, when a random button 437 included in the part stamp image group 434 is pressed, five parts stamp images 434-1 to 434-5 included in the part stamp image group 434 are displayed. A part stamp image is selected at random. For example, part stamp images 434-1, 434-2, and 434-3 are randomly selected and combined. At this time, as shown in FIG. 20, the combined part stamp images 434-1, 434-2, and 434-3 are synthesized with the user on the left side of the editing target image. FIG. 19 shows an example of a combination of randomly selected parts stamp images.

また、パーツスタンプ画像群434に含まれるランダムボタン437が2回目に押下されると、パーツスタンプ画像434−1,434−2,434−4が組み合わされ、ランダムボタンが3回目に押下されると、パーツスタンプ画像434−2,434−4,434−5が組み合わされる。さらに、ランダムボタン437が4回目に押下されると、パーツスタンプ画像434−2,434−3が組み合わされ、ランダムボタン437が5回目に押下されると、パーツスタンプ画像434−1,434−4,434−5が組み合わされる。   When the random button 437 included in the part stamp image group 434 is pressed for the second time, the part stamp images 434-1, 434-2, and 434-4 are combined, and when the random button is pressed for the third time. Part stamp images 434-2, 434-4, and 434-5 are combined. Further, when the random button 437 is pressed for the fourth time, the parts stamp images 434-2 and 434-3 are combined, and when the random button 437 is pressed for the fifth time, the parts stamp images 434-1 and 434-4 are combined. , 434-5.

このように、パーツスタンプ画像群434に含まれるランダムボタン437が押下される度に、パーツスタンプ画像群434に含まれるパーツスタンプ画像のいずれかが無作為に選択されて組み合わされて、編集対象画像における利用者の顔の各パーツに合成されるので、スタンプ画像を合成する作業を何度も行う必要もなく、より簡単に、意外性があって、面白味のある画像を利用者に提供することが可能となる。   In this way, each time the random button 437 included in the part stamp image group 434 is pressed, any one of the part stamp images included in the part stamp image group 434 is randomly selected and combined to be edited. Because it is combined with each part of the user's face in, there is no need to repeat the process of combining the stamp image, and it is easier to provide the user with a surprising, interesting and interesting image. Is possible.

なお、編集対象画像における利用者が複数の場合、例えば、図20に示されるように、利用者が2人の場合には、ランダムボタン437が1回目に押下されると、左側の利用者には、1回目の組み合わせでスタンプ画像が合成されるとともに、右側の利用者には、2回目の組み合わせでスタンプ画像が合成され、ランダムボタン437が2回目に押下されると、左側の利用者には、3回目の組み合わせでスタンプ画像が合成されるとともに、右側の利用者には、4回目の組み合わせでスタンプ画像が合成される等としてもよいし、利用者毎に、図19に示されるように、無作為にスタンプ画像が組み合わされて、ランダムボタン437が押下される度に、編集対象画像における利用者毎に合成されるようにしてもよい。   When there are a plurality of users in the image to be edited, for example, as shown in FIG. 20, when there are two users, when the random button 437 is pressed for the first time, the user on the left side is notified. The stamp image is combined with the first combination, and the right user is combined with the stamp image with the second combination. When the random button 437 is pressed for the second time, the left user is The stamp image is synthesized by the third combination, and for the right user, the stamp image may be synthesized by the fourth combination, etc., as shown in FIG. 19 for each user. In addition, the stamp images may be randomly combined and may be combined for each user in the image to be edited each time the random button 437 is pressed.

さらに、編集画面401の所定の領域に入れ替えボタンを設けるようにし、入れ替えボタンが操作されることで、編集対象画像において、複数の利用者それぞれに合成されているスタンプ画像を、それぞれの利用者の間で入れ替えるようにしてもよい。具体的には、編集対象画像における利用者が2人であれば、それぞれの利用者に合成されているスタンプ画像を、利用者同士で入れ替えるようにしたり、利用者が3人であれば、それぞれの利用者に合成されているスタンプ画像を、3人の利用者の間で無作為に入れ替えるようにしたりする。   Furthermore, a replacement button is provided in a predetermined area of the editing screen 401, and by operating the replacement button, a stamp image combined with each of a plurality of users in the editing target image is displayed for each user. You may make it replace between. Specifically, if there are two users in the image to be edited, the stamp image synthesized for each user can be exchanged between users, or if there are three users, For example, the stamp image synthesized by the users is randomly exchanged among the three users.

以上においては、メガネスタンプ画像群431、つけ耳スタンプ画像群432、はなスタンプ画像群433、およびパーツスタンプ画像群434に対する操作、具体的には、そのスタンプ画像群のランダムボタン437の選択に応じて、そのスタンプ画像群に含まれるいずれかのスタンプ画像が無作為に選択されて、編集対象画像に合成されるものとしたが、編集用パレット415において、カテゴリ毎に分類されているタブや、種類毎に分類されているボタンに対する操作に応じて、そのカテゴリや種類に含まれるいずれかのスタンプ画像が無作為に選択されて、編集対象画像に合成されるようにしてもよい。   In the above, according to the operation with respect to the glasses stamp image group 431, the artificial ear stamp image group 432, the Hana stamp image group 433, and the parts stamp image group 434, specifically, according to the selection of the random button 437 of the stamp image group. Any one of the stamp images included in the stamp image group is selected at random and combined with the image to be edited. In the editing palette 415, tabs classified by category, Depending on the operation on the button classified for each type, any stamp image included in the category or type may be selected at random and combined with the image to be edited.

例えば、「いたずら」タブが選択され、「一発いたずら」ボタンが選択された編集用パレット415において、スタンプ画像群毎にランダムボタンを設けるのではなく、1つのランダムボタンを設けるようにする。そして、このランダムボタンが選択されることで、スタンプ画像群を跨って、複数のスタンプ画像が無作為に選択されるようにする。このとき、複数のスタンプ画像の組み合わせとして、例えば、つけ耳スタンプ画像群432およびはなスタンプ画像群433に含まれるスタンプ画像のうち、同一の動物(猫やねずみなど)の耳や鼻を模したスタンプ画像が組み合わされるようにしてもよい。   For example, in the editing palette 415 in which the “mischievous” tab is selected and the “single mischief” button is selected, one random button is provided instead of a random button for each stamp image group. By selecting this random button, a plurality of stamp images are randomly selected across the stamp image group. At this time, as a combination of a plurality of stamp images, for example, among the stamp images included in the artificial ear stamp image group 432 and the Hana stamp image group 433, the ears and nose of the same animal (cat, mouse, etc.) are imitated. Stamp images may be combined.

また、以上においては、各グループに含まれるスタンプ画像は、利用者に選択されると、顔認識の結果に基づいて、自動的に、編集対象画像における利用者それぞれの顔の対応する部位に合成されるものとしたが、スタンプ画像が合成される位置は、利用者の操作によって決定されるようにしてもよい。   Further, in the above, when the stamp image included in each group is selected by the user, the stamp image is automatically combined with the corresponding part of each user's face in the image to be edited based on the result of face recognition. However, the position where the stamp image is combined may be determined by the user's operation.

すなわち、編集用パレット415において、利用者の指またはタッチペン132Aまたは132Bによって、いずれかのグループに含まれるいずれかのスタンプ画像が選択され、さらに、編集対象画像表示領域411の所定の位置が選択されると、編集対象画像表示領域411に表示される編集対象画像の対応する位置に、編集用パレット415において選択されたスタンプ画像が合成されるようになる。   That is, in the editing palette 415, any stamp image included in any group is selected by the user's finger or the touch pen 132A or 132B, and a predetermined position in the editing target image display area 411 is selected. Then, the stamp image selected in the editing palette 415 is combined with the position corresponding to the editing target image displayed in the editing target image display area 411.

このとき、図21に示されるように、編集対象画像表示領域411上には、合成されるスタンプ画像の向きや大きさを変更するための操作アイコン451が表示されるようにしてもよい。操作アイコン451には、編集対象画像表示領域411上に表示されたスタンプ画像を回転するためのアイコンと、サイズを変更するためのアイコンが表示される。なお、操作アイコン451は、編集対象画像表示領域411において、編集対象画像における利用者の顔に重ならないように表示される。   At this time, as shown in FIG. 21, an operation icon 451 for changing the orientation and size of the combined stamp image may be displayed on the editing target image display area 411. The operation icon 451 displays an icon for rotating the stamp image displayed on the edit target image display area 411 and an icon for changing the size. The operation icon 451 is displayed in the editing target image display area 411 so as not to overlap the user's face in the editing target image.

また、この場合、編集対象画像表示領域411上においては、利用者の指またはタッチペン132Aまたは132Bによって、表示されているスタンプ画像を保持しながら、利用者の指またはタッチペン132Aまたは132Bをスライドさせることによって、そのスタンプ画像を移動させるようにもできる。   In this case, the user's finger or touch pen 132A or 132B is slid on the editing target image display area 411 while the displayed stamp image is held by the user's finger or touch pen 132A or 132B. Can also move the stamp image.

このように、スタンプ画像が合成される位置が、利用者の操作によって決定されるようにすることで、利用者の発想に応じて、面白味のある画像を提供することも可能となる。   As described above, the position where the stamp image is synthesized is determined by the user's operation, so that an interesting image can be provided according to the user's idea.

以上においては、編集用パレット415において、「いたずら」タブが選択され、「一発いたずら」ボタンが選択されている場合のスタンプ画像の合成の例について説明した。   In the above, an example of stamp image synthesis in the case where the “mischievous” tab is selected and the “single mischief” button is selected in the editing palette 415 has been described.

次に、「いたずら」タブが選択され、「いたずら」ボタンが選択されている場合のスタンプ画像の合成の例について説明する。   Next, an example of combining stamp images when the “prank” tab is selected and the “prank” button is selected will be described.

図22に示されるように、「いたずら」タブが選択されている編集用パレット415には、スタンプ画像群511,512,513、およびオートスタンプボタン514が表示されている。   As shown in FIG. 22, stamp images 511, 512, and 513 and an auto stamp button 514 are displayed in the editing palette 415 in which the “tamper” tab is selected.

ここでは、表示制御部311によって、グループ(スタンプ画像群)それぞれに含まれるスタンプ画像として、編集対象画像における利用者の所定の部位、具体的には顔や、顔以外の体の部位に対応して分類されたスタンプ画像が表示される。そして、いずれかのスタンプ画像が選択されると、落書き編集部313によって、選択されたスタンプ画像が、そのグループに対応する顔や体の部位に合成される。但し、利用者が複数であっても、スタンプ画像群511,512,513に含まれるスタンプ画像は、編集対象画像における複数の利用者それぞれに、一括して合成されることはない。   Here, the display control unit 311 corresponds to a predetermined part of the user in the image to be edited, specifically a face or a part of the body other than the face, as a stamp image included in each group (stamp image group). The stamp images classified as above are displayed. When any one of the stamp images is selected, the graffiti editing unit 313 combines the selected stamp image with the face or body part corresponding to the group. However, even if there are a plurality of users, the stamp images included in the stamp image groups 511, 512, and 513 are not collectively combined with the plurality of users in the image to be edited.

スタンプ画像群511は、編集対象画像における利用者の顔の各部位(パーツ)に合成されるスタンプ画像からなり、上述したメガネスタンプ画像群431、つけ耳スタンプ画像群432、はなスタンプ画像群433に含まれるスタンプ画像と同様のスタンプ画像が含まれている。   The stamp image group 511 is composed of stamp images that are combined with each part (part) of the user's face in the image to be edited. The above-described glasses stamp image group 431, false ear stamp image group 432, and hana stamp image group 433. The stamp image similar to the stamp image included in is included.

スタンプ画像群512は、編集対象画像における利用者の顔以外の体の各部位(具体的には、手や腰等)や体の近傍に合成されるスタンプ画像からなる。スタンプ画像群513は、編集対象画像における任意の領域に合成されるスタンプ画像からなる。   The stamp image group 512 is made up of stamp images that are combined in the vicinity of the body parts (specifically, hands and waists) other than the user's face in the edit target image. The stamp image group 513 is composed of stamp images to be combined with an arbitrary area in the image to be edited.

また、オートスタンプボタン514は、スタンプ画像群511,512,513に含まれるスタンプ画像を、編集対象画像における対応する位置に、自動的に合成させる(「自動でつける」)か、利用者の操作によって合成させる(「手動でつける」)かを、利用者に選択させるためのボタンである。   The auto stamp button 514 automatically combines the stamp images included in the stamp image groups 511, 512, and 513 at the corresponding positions in the image to be edited ("automatically attach") or user operation. This is a button for allowing the user to select whether to synthesize ("attach manually").

図22の例では、オートスタンプボタン514において、「自動でつける」が選択されており、この状態で、利用者の指またはタッチペン132Aまたは132Bによって、スタンプ画像群511に含まれるスタンプ画像が選択され、さらに、その指またはタッチペン132Aまたは132Bによって、編集対象画像表示領域411に表示される編集対象画像において、顔認識により形成された利用者の顔近傍の領域内の位置が選択されたり(タップされたり)、顔近傍の領域の外側から内側に向かってスライド操作がなされたりしたときに、編集用パレット415において選択されたスタンプ画像が、編集対象画像における利用者の顔の対応する部位に合成されるようになる。このとき、利用者の顔の向きや大きさに応じて、スタンプ画像の向きや大きさが調整されて合成される。   In the example of FIG. 22, “automatically apply” is selected in the auto stamp button 514, and in this state, a stamp image included in the stamp image group 511 is selected by the user's finger or the touch pen 132A or 132B. Further, with the finger or the touch pen 132A or 132B, the position in the region near the user's face formed by face recognition is selected (tapped) in the editing target image displayed in the editing target image display region 411. When a slide operation is performed from the outside to the inside of the area near the face, the stamp image selected in the editing palette 415 is combined with the corresponding portion of the user's face in the editing target image. Become so. At this time, the orientation and size of the stamp image are adjusted according to the orientation and size of the user's face and are combined.

また、オートスタンプボタン514において、「自動でつける」が選択された状態で、利用者の指またはタッチペン132Aまたは132Bによって、スタンプ画像群512に含まれるスタンプ画像が選択され、さらに、その指またはタッチペン132Aまたは132Bによって、編集対象画像表示領域411に表示される編集対象画像において、人物認識により形成された利用者の体近傍の領域内の位置が選択されたり(タップされたり)、体近傍の領域の外側から内側に向かってスライド操作がなされると、編集用パレット415において選択されたスタンプ画像が、編集対象画像における利用者の体の対応する部位に合成されるようになる。このとき、利用者の体の向きや大きさに応じて、スタンプ画像の向きや大きさが調整されて合成される。   In addition, when “automatically apply” is selected in the auto stamp button 514, a stamp image included in the stamp image group 512 is selected by the user's finger or touch pen 132A or 132B, and the finger or touch pen is further selected. In the editing target image displayed in the editing target image display area 411 by 132A or 132B, the position in the area near the user's body formed by person recognition is selected (tapped), or the area near the body When the slide operation is performed from the outside to the inside, the stamp image selected in the editing palette 415 is combined with the corresponding part of the user's body in the editing target image. At this time, the orientation and size of the stamp image are adjusted according to the orientation and size of the user's body, and are combined.

さらに、オートスタンプボタン514において、「自動でつける」が選択された状態で、利用者の指またはタッチペン132Aまたは132Bによって、スタンプ画像群513に含まれるスタンプ画像が選択されると、編集用パレット415において選択されたスタンプ画像が、例えば編集対象画像における利用者の領域以外の領域に合成されるようになる。   Furthermore, when a stamp image included in the stamp image group 513 is selected by the user's finger or the touch pen 132A or 132B in a state where “automatically attach” is selected in the auto stamp button 514, the editing palette 415 is selected. For example, the stamp image selected in (2) is combined with an area other than the user area in the image to be edited.

一方、図23の例では、オートスタンプボタン514において、「手動でつける」が選択されており、この状態で、利用者の指またはタッチペン132Aまたは132Bによって、スタンプ画像群511,512,513に含まれるスタンプ画像が選択され、さらに、その指またはタッチペン132Aまたは132Bによって、編集対象画像表示領域411の所定の位置が選択されると、編集対象画像表示領域411に表示される編集対象画像の対応する位置に、編集用パレット415において選択されたスタンプ画像が合成されるようになる。   On the other hand, in the example of FIG. 23, “Manually attach” is selected in the auto stamp button 514, and in this state, it is included in the stamp image groups 511, 512, 513 by the user's finger or the touch pen 132 A or 132 B. When a stamp image to be edited is selected and a predetermined position of the editing target image display area 411 is selected by the finger or the touch pen 132A or 132B, the corresponding editing target image displayed in the editing target image display area 411 corresponds. The stamp image selected in the editing palette 415 is synthesized at the position.

また、オートスタンプボタン514において「手動でつける」が選択されている場合、編集用パレット415には、回転ボタン515およびサイズ変更ボタン516が表示されるようになり、回転ボタン515およびサイズ変更ボタン516に対する利用者の操作に応じて、スタンプ画像の向きや大きさが調整されて合成される。回転ボタン515が1回押下される毎に、スタンプ画像が所定角度だけ時計回りまたは反時計回りに回転される。またサイズ変更ボタン515が1回押下される毎にスタンプ画像が所定サイズだけ拡大または縮小される。   In addition, when “manual attachment” is selected in the auto stamp button 514, a rotation button 515 and a size change button 516 are displayed on the editing palette 415, and the rotation button 515 and the size change button 516 are displayed. The direction and size of the stamp image are adjusted in accordance with the user's operation on the image. Each time the rotation button 515 is pressed once, the stamp image is rotated clockwise or counterclockwise by a predetermined angle. Each time the size change button 515 is pressed once, the stamp image is enlarged or reduced by a predetermined size.

なお、オートスタンプボタン514において「自動でつける」が選択されている場合であっても、回転ボタン515およびサイズ変更ボタン516を表示させるようにしてもよい。ただし、この場合、回転ボタン515およびサイズ変更ボタン516を非アクティブな状態とし、利用者による選択を受け付けないようにする。   Even when “automatically attach” is selected in the auto stamp button 514, the rotation button 515 and the size change button 516 may be displayed. However, in this case, the rotation button 515 and the size change button 516 are deactivated so that the selection by the user is not accepted.

次に、「メイク」タブが選択され、「カラコン」ボタンが選択されている場合のスタンプ画像の合成の例について説明する。   Next, an example of compositing a stamp image when the “make” tab is selected and the “color control” button is selected will be described.

図24に示されるように、「カラコン」タブが選択されている編集用パレット415の左側には、カラコンスタンプ画像531−1、被写体画像532−1、目拡大ボタン533−1、サイズ変更ボタン534−1、およびオートスタンプボタン535−1が表示されている。   As shown in FIG. 24, on the left side of the editing palette 415 for which the “color control” tab is selected, a color control stamp image 531-1, a subject image 532-1, an eye enlargement button 533-1, and a size change button 534 are displayed. -1 and an auto stamp button 535-1 are displayed.

カラコンスタンプ画像531−1は、カラーコンタクトレンズを模したスタンプ画像であり、編集対象画像の利用者の目の部分に合成される合成用画像である。被写体画像532−1は、カラコンスタンプ画像531−1のいずれかが合成される、編集対象画像における2人の利用者のうちの左側の利用者の顔の画像である。   The color contact stamp image 531-1 is a stamp image imitating a color contact lens, and is a composite image that is combined with the eye portion of the user of the image to be edited. The subject image 532-1 is an image of the face of the left user of the two users in the editing target image, to which any of the color contact stamp images 531-1 is synthesized.

目拡大ボタン533−1は、編集対象画像表示領域411や被写体画像532−1において、編集対象画像における左側の利用者の目の部分を拡大表示させるためのボタンであり、サイズ変更ボタン534−1は、編集対象画像における左側の利用者の目の部分に合成されるカラコンスタンプ画像531−1の大きさを調整するためのボタンである。   The eye enlargement button 533-1 is a button for enlarging and displaying the left eye portion of the user in the edit target image in the edit target image display area 411 and the subject image 532-1, and the size change button 534-1. Is a button for adjusting the size of the color contact stamp image 531-1 to be combined with the left eye portion of the user to be edited.

オートスタンプボタン535−1は、上述したオートスタンプボタン514と同様の機能を有するものであり、カラコンスタンプ画像531−1を、編集対象画像における左側の利用者の目の部分に自動的に合成させるか、利用者の操作によって合成させるかを、利用者に選択させるためのボタンである。   The auto stamp button 535-1 has the same function as the auto stamp button 514 described above, and automatically combines the color contact stamp image 531-1 with the left eye portion of the user to be edited. Or a button for allowing the user to select whether to synthesize by user operation.

また、編集用パレット415の右側には、カラコンスタンプ画像531−2、被写体画像532−2、目拡大ボタン533−2、サイズ変更ボタン534−2、およびオートスタンプボタン535−2が表示されているが、被写体画像532−2が、編集対象画像における2人の利用者のうちの右側の利用者の顔の画像である以外は、基本的に同様である。   Further, on the right side of the editing palette 415, a color contact stamp image 531-2, a subject image 532-2, an eye enlargement button 533-2, a size change button 534-2, and an auto stamp button 535-2 are displayed. This is basically the same except that the subject image 532-2 is an image of the face of the right user of the two users in the editing target image.

このように、本実施の形態においては、利用者が2人の場合には、1人の利用者が、編集対象画像における利用者(被写体)毎に、カラコンスタンプ画像を選択し合成することができる。   As described above, in the present embodiment, when there are two users, one user can select and synthesize a color contact stamp image for each user (subject) in the image to be edited. it can.

なお、図24に示される編集用パレット415は、編集対象画像に対する顔認識処理によって、2つの顔が認識された場合に表示されるようにする。   Note that the editing palette 415 shown in FIG. 24 is displayed when two faces are recognized by the face recognition processing for the image to be edited.

ちなみに、編集対象画像において1つの顔のみ認識された場合、すなわち、利用者が1人の場合には、図25に示される編集用パレット415が表示される。   Incidentally, when only one face is recognized in the image to be edited, that is, when there is one user, an editing palette 415 shown in FIG. 25 is displayed.

図25に示される編集用パレット415には、カラコンスタンプ画像531、被写体画像532、目拡大ボタン533、サイズ変更ボタン534、およびオートスタンプボタン535が表示されており、1人の利用者が、編集対象画像における利用者(自分自身)に、カラコンスタンプ画像を選択し合成することができる。   In the editing palette 415 shown in FIG. 25, a color control stamp image 531, a subject image 532, an eye enlargement button 533, a size change button 534, and an auto stamp button 535 are displayed. A colored contact stamp image can be selected and combined with a user (self) in the target image.

図26は、編集用パレット415の別の表示例である。図26では、つけまつげ用のスタンプ画像537−1〜537−3が表示されている。図26に示す編集用パレット415上において、利用者は、指またはタッチペン132A、132Bにより、画像に合成するためのつけまつげを選択することができる。   FIG. 26 shows another display example of the editing palette 415. In FIG. 26, stamp images 537-1 to 537-3 for false eyelashes are displayed. On the editing palette 415 shown in FIG. 26, the user can select false eyelashes to be combined with an image with a finger or the touch pens 132A and 132B.

編集用パケット415上で「メイクアップ」タブが選択され、さらに「つけまつげ」または「カラコン」ボタンが選択されている場合、図26または図25に示すように、編集用パレット415に、つけまつげ又はカラコンを示す複数のスタンプ画像537−1〜3、531が表示される。   When the “make-up” tab is selected on the editing packet 415 and the “false eyelashes” or “color control” button is selected, as shown in FIG. 26 or FIG. 25, the false palette or color control is displayed on the editing palette 415. A plurality of stamp images 537-1 to 5331 are displayed.

スタンプ画像の合成位置を手動で決定する場合に、利用者が次のようなドラッグ操作(画面にタッチしたまま画像を移動)でスタンプ画像の合成位置を決定できるようにしてもよい。まず、利用者は、編集用パレット415上に表示された複数のスタンプ画像の中の1つが指またはタッチペン132A、132Bでタッチする。これにより、制御部201はタッチされたスタンプ画像を合成用のスタンプ画像として選択する。続いて、利用者は、指またはタッチペン132A、132Bにより編集対象画像表示領域411内の一点をタッチする。制御部201は、そのタッチされた位置の近傍に、選択されたスタンプ画像を表示する。その後、利用者は、指またはタッチペン132A、132Bによって、編集対象画像表示領域411内スタンプ画像610をドラッグして所望の位置まで移動させる。このとき、制御部201は、ドラッグ操作にしたがいスタンプ画像610の表示位置を移動させる。そして、利用者は、スタンプ画像が所望の位置に達したときにドラッグ操作を終了する。制御部201は、ドラッグ操作が終了したときの所望の位置を、スタンプ画像610の合成位置として確定する。   When manually determining the stamp image combining position, the user may be able to determine the stamp image combining position by the following drag operation (moving the image while touching the screen). First, the user touches one of the plurality of stamp images displayed on the editing palette 415 with a finger or the touch pens 132A and 132B. As a result, the control unit 201 selects the touched stamp image as a composite stamp image. Subsequently, the user touches one point in the editing target image display area 411 with the finger or the touch pens 132A and 132B. The control unit 201 displays the selected stamp image in the vicinity of the touched position. Thereafter, the user drags the stamp image 610 in the edit target image display area 411 to a desired position by using the finger or the touch pens 132A and 132B. At this time, the control unit 201 moves the display position of the stamp image 610 according to the drag operation. Then, the user ends the drag operation when the stamp image reaches a desired position. The control unit 201 determines a desired position when the drag operation is completed as a combined position of the stamp image 610.

特に、上記の例の場合、編集対象画像表示領域411においてスタンプ画像610がドラッグされるとき、図27(a)に示すように、指600またはタッチペン132A、132Bによるタッチ位置620(すなわち、表示画面に指やタッチペンで押下した際に最も指圧がかかる位置)から所定距離dだけ離れた位置に、スタンプ画像610を表示する。このように、指やタッチペンのタッチ位置から離れた位置にスタンプ画像610を表示することにより、指やタッチペンによってスタンプ画像が隠れてしまい見難くなるという問題を防止できる。   In particular, in the case of the above example, when the stamp image 610 is dragged in the edit target image display area 411, as shown in FIG. 27A, the touch position 620 (that is, the display screen) by the finger 600 or the touch pens 132A and 132B. A stamp image 610 is displayed at a position separated by a predetermined distance d from a position where the finger pressure is most pressed when the finger is pressed with a finger or a touch pen. Thus, by displaying the stamp image 610 at a position away from the touch position of the finger or the touch pen, it is possible to prevent a problem that the stamp image is hidden by the finger or the touch pen and is difficult to see.

上記の表示を実現するため、図27(b)に示すように、スタンプ画像610に対して、スタンプ画像610の中心615から距離dだけ離れた位置に基準点630を設定する。制御部201は、この基準点630の位置とタッチされた位置620とが一致するようにスタンプ画像610を配置して表示(描画)する。これにより、タッチ位置620から所定距離dだけ離れた位置にスタンプ画像610が表示される。   In order to realize the above display, as shown in FIG. 27B, a reference point 630 is set at a position away from the center 615 of the stamp image 610 by a distance d as shown in FIG. The control unit 201 arranges and displays (draws) the stamp image 610 so that the position of the reference point 630 matches the touched position 620. As a result, the stamp image 610 is displayed at a position away from the touch position 620 by a predetermined distance d.

タッチ位置620から所定距離dだけ離れた位置にスタンプ画像610が表示された状態で、スタンプ画像610がドラッグされた場合、制御部201は、図28に示すように、指600の移動に連動してスタンプ画像610を移動させる。この場合、編集対象画像表示領域411からはみ出したスタンプ画像610の部分は、編集対象画像表示領域411内には表示(印刷)しないようにする。   When the stamp image 610 is dragged in a state where the stamp image 610 is displayed at a position away from the touch position 620 by a predetermined distance d, the control unit 201 interlocks with the movement of the finger 600 as shown in FIG. The stamp image 610 is moved. In this case, the portion of the stamp image 610 that protrudes from the edit target image display area 411 is not displayed (printed) in the edit target image display area 411.

また、回転ボタン515が押下された場合、制御部201は図29(a)に示すように、基準点630を中心として、回転ボタン515の操作に応じた方向(時計回り/反時計回り)に、回転ボタン515の操作に応じた角度θだけ、スタンプ画像610を回転させる。このとき、スタンプ画像610は、タッチ位置620を基準として、図29(b)に示すように回転ボタン515の操作量に応じた角度θだけ回転した状態で表示される。なお、スタンプ画像を、基準点630ではなく、スタンプ画像の中心点615を中心にして回転させてもよい。また、スタンプ画像を表示画面に合成した後に、回転ボタン515が押下されたときに、スタンプ画像を所定角度だけ回転させるようにしてもよい。また、回転ボタンを設けない場合は、表示画面上にスタンプ画像を合成した後、タッチペンや指で円軌跡を描くように操作されたときに、スタンプ画像を回転させてもよい。   Further, when the rotation button 515 is pressed, the control unit 201, as shown in FIG. 29 (a), centered on the reference point 630 in a direction (clockwise / counterclockwise) according to the operation of the rotation button 515. The stamp image 610 is rotated by an angle θ corresponding to the operation of the rotation button 515. At this time, the stamp image 610 is displayed in a state of being rotated by an angle θ corresponding to the operation amount of the rotation button 515 with reference to the touch position 620 as shown in FIG. Note that the stamp image may be rotated around the center point 615 of the stamp image instead of the reference point 630. Alternatively, after the stamp image is combined with the display screen, the stamp image may be rotated by a predetermined angle when the rotation button 515 is pressed. If the rotation button is not provided, the stamp image may be rotated when the stamp image is synthesized on the display screen and then operated to draw a circular locus with a touch pen or a finger.

他の実施の形態
以下、本発明の一実施形態として上記の例を説明したが、以下に、本発明の実施形態のバリエーションについて説明する。
Other Embodiments While the above example has been described as an embodiment of the present invention, variations of the embodiment of the present invention will be described below.

上記の例では、各スタンプ画像群の中のランダムボタンが押下されたときに、編集用パレット415においてそのスタンプ画像群のスタンプ画像として表示されているいずれかのスタンプ画像が無作為に選択された。しかし、あるスタンプ画像群のランダムボタン437が押下されたときに合成されるスタンプ画像に、編集用パレット415においてそのスタンプ画像群のスタンプ画像として表示されていないスタンプ画像が含まれるようにしてもよい。このスタンプ画像は、ランダムボタン437が押下されることでしか現れない、利用者にとって希少価値のあるスタンプ画像となる。   In the above example, when the random button in each stamp image group is pressed, one of the stamp images displayed as the stamp image of the stamp image group in the editing palette 415 is randomly selected. . However, a stamp image that is not displayed as a stamp image of the stamp image group in the editing palette 415 may be included in the stamp image that is combined when the random button 437 of a stamp image group is pressed. . This stamp image appears only when the random button 437 is pressed, and becomes a stamp image having a rare value for the user.

例えば、ランダムボタンが押下されたときに、特定のスタンプ画像群のカテゴリ(以下「ランダムボタン用のカテゴリ」と称す)のスタンプ画像が無作為に選択され、編集対象画像に合成されてもよい。   For example, when a random button is pressed, a stamp image of a category of a specific stamp image group (hereinafter referred to as “random button category”) may be randomly selected and combined with an image to be edited.

図30は、ランダムボタンが押されたときに選択されるランダムボタン用カテゴリの構成を説明した図である。本実施形態では、ランダムボタン用のカテゴリの例として、「海賊」、「パーティ」、「忍者」、「キャラクタ」、「アニメ」のカテゴリを用意している。各カテゴリは、そのカテゴリに関連したスタンプ画像(コンテンツ画像)を複数含んでいる。例えば、図31に示すように、「海賊」のカテゴリについては、海賊を想起させる帽子(コンテンツA1、A5、A9)、ひげ(コンテンツA2、A8)、バンダナ(コンテンツA3、A7)、眼帯(コンテンツA4、A6、A10)の画像がスタンプ画像として用意されている。また、「パーティ」のカテゴリについては、図32に示すように、パーティを想起させる帽子(コンテンツB1、B3)やメガネ(コンテンツB2、B4)の画像がスタンプ画像として用意されている。   FIG. 30 is a diagram illustrating the configuration of a random button category selected when the random button is pressed. In this embodiment, categories of “pirate”, “party”, “ninja”, “character”, and “animation” are prepared as examples of categories for random buttons. Each category includes a plurality of stamp images (content images) related to the category. For example, as shown in FIG. 31, in the category of “pirates”, hats (contents A1, A5, A9), beards (contents A2, A8), bandanas (contents A3, A7), eye zones (contents) A4, A6, A10) images are prepared as stamp images. For the “party” category, as shown in FIG. 32, images of hats (contents B1 and B3) and glasses (contents B2 and B4) reminiscent of a party are prepared as stamp images.

この場合、ランダムボタンが押された場合、複数のランダムボタン用カテゴリの中から一つのカテゴリが無作為に選択され、さらにその選択されたカテゴリに含まれる複数のスタンプ画像の中から1つのスタンプ画像が無作為に選択され、編集対象画像に合成される。   In this case, when the random button is pressed, one category is randomly selected from the plurality of random button categories, and one stamp image is selected from the plurality of stamp images included in the selected category. Are randomly selected and combined with the image to be edited.

なお、ランダムボタンが最初に押下されて合成用画像が選択された後に2回目のランダムボタンが押下された場合、1回目のランダムボタン押下時に選択されたカテゴリと同じカテゴリの中からスタンプ画像が無作為に選択される。これは、カテゴリ毎に世界観を形成していることから、一旦1つのカテゴリが決定されると、それを失わないようにするためである。   If the second random button is pressed after the random button is first pressed and the compositing image is selected, there is no stamp image from the same category as the category selected when the first random button is pressed. Selected for work. This is because a world view is formed for each category, so that once a category is determined, it is not lost.

ランダムボタンが押下されたときに選択されるスタンプ画像の数は、1つまたは複数の場合がある。例えば、海賊のカテゴリにおいては、1回のランダムボタンの押下により同時に2つのスタンプ画像が選択される。すなわち、図31に示すように、コンテンツA1の画像とコンテンツA2の画像、コンテンツA3の画像とコンテンツA4の画像、コンテンツA5の画像とコンテンツA6の画像、…がセットで選択される。一方、パーティのカテゴリについては、図32に示すように、1回のランダムボタンの押下により1つのスタンプ画像のみが選択される。   There may be one or more stamp images selected when the random button is pressed. For example, in the pirate category, two stamp images are selected simultaneously by pressing a random button once. That is, as shown in FIG. 31, the image of content A1 and the image of content A2, the image of content A3 and the image of content A4, the image of content A5 and the image of content A6,. On the other hand, for the party category, as shown in FIG. 32, only one stamp image is selected by pressing the random button once.

以上のように、ランダムボタンが押されたときに、ランダムボタン用の複数のカテゴリの中から一つのカテゴリが無作為に選択され、選択されたカテゴリに含まれる複数のスタンプ画像の中から少なくとも1つのスタンプ画像が無作為に選択され、編集対象画像に合成されてもよい。   As described above, when the random button is pressed, one category is randomly selected from the plurality of categories for the random button, and at least one of the plurality of stamp images included in the selected category is selected. Two stamp images may be selected at random and combined with the image to be edited.

また、編集対象画像に対してスタンプ画像が合成されて編集対象画像表示領域411に表示されている状態において、そのスタンプ画像の合成をキャンセルできる機能を備えてもよい。この場合、利用者により「戻る」ボタンが押下されたときに、編集対象画像に最近に合成されたスタンプ画像の表示を消去するようにしてもよい。これにより、利用者はスタンプ画像の編集をリセットでき、再度、最初からスタンプ画像の編集を始めることができる。   In addition, in a state where the stamp image is combined with the editing target image and displayed in the editing target image display area 411, a function of canceling the combining of the stamp image may be provided. In this case, when the “return” button is pressed by the user, the display of the stamp image recently synthesized with the image to be edited may be deleted. Thereby, the user can reset the editing of the stamp image, and can start editing the stamp image again from the beginning.

また、編集対象画像に対してスタンプ画像が合成されて編集対象画像表示領域411に表示されている状態において、スタンプ画像が2度タッチされたときに、そのスタンプ画像の編集(回転、拡大/縮小等)を可能とするようにしてもよい。例えば、編集対象画像表示領域411において編集対象画像に対して合成されて表示されているスタンプ画像に対して、利用者が指またはタッチペンによりタッチされたとき(1回目のタッチ)に、制御部201は、タッチされたスタンプ画像を編集対象として指定する。続いて、利用者により、その指定されたスタンプ画像またはその周辺の領域に対して所定のタッチ操作(2回目のタッチ)がなされたときに、制御部201はその操作に応じてスタンプ画像を編集してもよい。例えば、2本の指を用いて回転や拡大/縮小のためのタッチ操作がなされたときに、制御部201は、その操作に応じて、スタンプ画像を回転したり、拡大/縮小したりしてもよい。なお、タッチ位置に関して、スタンプ画像の表示領域に直接的にタッチしなくとも、表示領域から所定の範囲内の領域にタッチすれば、その操作行うことを可能とする。   Further, when the stamp image is combined with the edit target image and displayed in the edit target image display area 411, when the stamp image is touched twice, the stamp image is edited (rotated, enlarged / reduced). Etc.) may be made possible. For example, when the user touches with a finger or a touch pen on the stamp image synthesized and displayed on the editing target image in the editing target image display area 411 (first touch), the control unit 201. Designates the touched stamp image as an editing target. Subsequently, when the user performs a predetermined touch operation (second touch) on the designated stamp image or the surrounding area, the control unit 201 edits the stamp image according to the operation. May be. For example, when a touch operation for rotation or enlargement / reduction is performed using two fingers, the control unit 201 rotates or enlarges / reduces the stamp image according to the operation. Also good. In addition, regarding the touch position, even if the display area of the stamp image is not directly touched, the operation can be performed by touching an area within a predetermined range from the display area.

以上においては、オートスタンプボタンの機能により、編集対象画像における利用者の顔近傍の領域や体近傍の領域にスタンプ画像が配置されたときに、そのスタンプ画像が、対応する顔や体の部位に合成されるものとしたが、この機能に準じた機能を、撮影処理において表示されるライブビュー画像や、撮影結果として表示される撮影画像に適用するようにしてもよい。   In the above, when the stamp image is arranged in the region near the user's face or the region near the body in the image to be edited by the function of the auto stamp button, the stamp image is displayed on the corresponding face or body part. Although it is assumed that they are synthesized, a function according to this function may be applied to a live view image displayed in the shooting process or a shot image displayed as a shooting result.

例えば、ライブビュー画像が表示されるライブビュー表示画面に、利用者の顔(耳や鼻など)に合成されるようなスタンプ画像を前景画像として位置を固定して表示し、そのスタンプ画像に対応する位置に、カメラ91に取り込まれたライブビュー画像における利用者の顔の対応する部位が配置されるように、ライブビュー画像の表示領域を移動させるようにする。   For example, on a live view display screen where a live view image is displayed, a stamp image that is combined with the user's face (ears, nose, etc.) is displayed as a foreground image with the position fixed, and the stamp image is supported. The display area of the live view image is moved so that the corresponding part of the user's face in the live view image captured by the camera 91 is arranged at the position to be moved.

これにより、利用者は、ライブビュー表示画面に表示されるスタンプ画像の位置に、自分自身の顔の位置を合わせる等の動作をすることなく、実際に得られる撮影画像をイメージしながら撮影を行うことができるようになる。   As a result, the user can take an image of the actually obtained captured image without performing an operation such as aligning the position of his / her face with the position of the stamp image displayed on the live view display screen. Will be able to.

上述した一連の処理は、ハードウェアにより実行させることもできるし、ソフトウェアにより実行させることもできる。上述した一連の処理をソフトウェアにより実行させる場合には、そのソフトウェアを構成するプログラムが、ネットワークや記録媒体からインストールされる。   The series of processes described above can be executed by hardware or can be executed by software. When the above-described series of processing is executed by software, a program constituting the software is installed from a network or a recording medium.

この記録媒体は、例えば、図9に示されるように、装置本体とは別に、写真シール作成装置1の管理者にプログラムを配信するために配布される、プログラムが記録されている磁気ディスク(フレキシブルディスクを含む)、光ディスク(CD-ROMおよびDVDを含む)、光磁気ディスク(MDを含む)、もしくは半導体メモリなどよりなるリムーバブルメディア205により構成されるだけでなく、装置本体に予め組み込まれた状態で管理者に配信される、プログラムが記録されているROM206や、記憶部202に含まれるハードディスクなどで構成される。   For example, as shown in FIG. 9, the recording medium is distributed to distribute the program to the administrator of the photo sticker creating apparatus 1 separately from the main body of the apparatus. Disk), optical disk (including CD-ROM and DVD), magneto-optical disk (including MD), or removable media 205 made of semiconductor memory, etc., but also pre-installed in the main unit The ROM 206 that stores the program and the hard disk included in the storage unit 202 are distributed to the administrator.

なお、本明細書において、記録媒体に記録されるプログラムを記述するステップは、記載された順序に沿って時系列的に行われる処理はもちろん、必ずしも時系列的に処理されなくとも、並列的あるいは個別に実行される処理をも含むものである。   In the present specification, the step of describing the program recorded on the recording medium is not limited to the processing performed in chronological order according to the described order, but is not necessarily performed in chronological order. It also includes processes that are executed individually.

以上において、印刷媒体は、シール紙や写真紙に限られるものではなく、例えば、所定のサイズの紙やフィルム、ポスター用の紙、テレホンカードなどのカード、あるいは、Tシャツなどの布地などに印刷するようにしてもよい。   In the above, the printing medium is not limited to sticker paper or photographic paper. For example, printing on a predetermined size of paper or film, poster paper, a card such as a telephone card, or a cloth such as a T-shirt. You may make it do.

また、本発明の実施の形態は、上述した実施の形態に限定されるものではなく、本発明の要旨を逸脱しない範囲において種々の変更が可能である。   The embodiments of the present invention are not limited to the above-described embodiments, and various modifications can be made without departing from the scope of the present invention.

1 写真シール作成装置
11 撮影ユニット
12 編集ユニット
21 事前接客部
22 撮影部
23 背景部
201 制御部
208 事前接客部
209 撮影部
210 編集部
211 印刷部
301 事前接客処理部
302 撮影処理部
303 編集処理部
304 印刷処理部
311 表示制御部
312 入力受付部
313 落書き編集部
314 通信制御部
DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus 11 Shooting unit 12 Editing unit 21 Pre-service section 22 Shooting section 23 Background section 201 Control section 208 Pre-service section 209 Shooting section 210 Editing section 211 Printing section 301 Pre-service section 302 Imaging process section 303 Editing processing section 304 Print Processing Unit 311 Display Control Unit 312 Input Accepting Unit 313 Graffiti Editing Unit 314 Communication Control Unit

Claims (7)

利用者を被写体として撮影し、撮影画像を得る撮影手段と、
前記撮影画像とともに、前記撮影画像を編集するための編集ツールとしての複数の合成用画像がグループ毎に分類されて表示される編集用パレットを表示する表示手段と、
前記利用者による前記編集用パレットに対する操作に応じて、前記合成用画像を前記撮影画像に合成する合成手段と
を備え、
前記合成手段は、前記利用者による、所定グループに対応する前記編集用パレットに対する操作に応じて、前記所定グループに含まれるいずれかの前記合成用画像を無作為に選択して、前記撮影画像に合成し、
前記表示手段は、前記グループそれぞれに含まれる前記合成用画像として、前記撮影画像における前記利用者の所定の部位に対応して分類された前記合成用画像を表示し、
前記合成手段は、前記撮影画像における前記利用者の所定の部位を認識することで、前記グループに含まれるいずれかの前記合成用画像を、前記撮影画像において前記グループに対応する前記利用者の所定の部位に合成し、
前記撮影手段が複数の利用者を被写体として撮影した場合、前記合成手段は、前記利用者それぞれの所定の部位に合成する合成用画像を互いに異ならせた画像にする、
画像生成装置。
Photographing means for photographing a user as a subject and obtaining a photographed image;
Display means for displaying an editing palette for displaying a plurality of compositing images as an editing tool for editing the captured image, grouped for each group, and displayed together with the captured image;
And a compositing means for compositing the compositing image with the captured image in response to an operation on the editing palette by the user,
The synthesizing means randomly selects any one of the synthesis images included in the predetermined group in response to an operation on the editing palette corresponding to the predetermined group by the user, Synthesize,
The display means displays the composition image classified according to a predetermined part of the user in the photographed image as the composition image included in each group,
The synthesizing unit recognizes a predetermined part of the user in the photographed image, so that any one of the synthesis images included in the group is determined by the user corresponding to the group in the photographed image. Is synthesized at the site of
In the case where the photographing unit photographs a plurality of users as subjects, the synthesizing unit makes the images for synthesis combined with predetermined portions of the users different from each other.
Image generation device.
前記表示手段は、前記編集用パレットにおいて、前記合成用画像と所定のボタンとを前記グループ毎に表示し、
前記合成手段は、前記合成用画像のいずれかが選択された場合、選択された前記合成用画像を撮影画像に合成し、
前記ボタンが選択された場合、対応する前記グループに含まれるいずれかの前記合成用画像を無作為に選択して、前記撮影画像に合成する
請求項1に記載の画像生成装置。
The display means displays the composition image and a predetermined button for each group in the editing palette,
When any of the images for synthesis is selected, the synthesizing unit synthesizes the selected image for synthesis with a captured image,
The image generation apparatus according to claim 1, wherein when the button is selected, any of the images for synthesis included in the corresponding group is randomly selected and synthesized with the captured image.
前記合成手段は、前記ボタンが選択された場合、対応する前記グループに含まれるいずれかの前記合成用画像を、前記撮影画像において前記グループに対応する前記利用者の顔の部位に合成する
請求項2に記載の画像生成装置。
The composition unit, when the button is selected, combines any one of the composition images included in the corresponding group with a part of the face of the user corresponding to the group in the captured image. The image generating apparatus according to 2.
前記合成手段は、前記ボタンが選択された場合、対応する前記グループに含まれるいずれかの前記合成用画像を組み合わせて、前記撮影画像における前記利用者の顔の各部位に合成する
請求項2に記載の画像生成装置。
When the button is selected, the synthesizing unit combines any of the images for synthesis included in the corresponding group, and synthesizes them to each part of the user's face in the captured image.
The image generation apparatus according to claim 2 .
前記合成手段は、前記ボタンが選択される毎に、対応する前記グループに含まれるいずれかの前記合成用画像を無作為に選択して、前記撮影画像における前記利用者に合成する
請求項2乃至4のいずれかに記載の画像生成装置。
3. The composition unit, when each of the buttons is selected, randomly selects any one of the composition images included in the corresponding group, and composes it with the user in the captured image. 5. The image generating device according to any one of 4 above.
利用者を被写体として撮影し、撮影画像を得る撮影ステップと、
前記撮影画像とともに、前記撮影画像を編集するための編集ツールとしての複数の合成用画像がグループ毎に分類されて表示される編集用パレットを表示する表示ステップと、
前記利用者による前記編集用パレットに対する操作に応じて、前記合成用画像を前記撮影画像に合成する合成ステップと
を含み、
前記合成ステップは、前記利用者による、所定グループに対応する前記編集用パレットに対する操作に応じて、前記所定グループに含まれるいずれかの前記合成用画像を無作為に選択して、前記撮影画像に合成し、
前記合成ステップは、前記グループそれぞれに含まれる前記合成用画像として、前記撮影画像における前記利用者の所定の部位に対応して分類された前記合成用画像を表示し、
前記表示ステップは、前記撮影画像における前記利用者の所定の部位を認識することで、前記グループに含まれるいずれかの前記合成用画像を、前記撮影画像において前記グループに対応する前記利用者の所定の部位に合成し、さらに、前記撮影画像において複数の利用者が含まれている場合、前記利用者それぞれの所定の部位に合成する合成用画像を互いに異ならせる、
画像生成方法。
A shooting step of shooting a user as a subject and obtaining a shot image;
A display step of displaying an editing palette in which a plurality of compositing images as an editing tool for editing the captured image are classified and displayed for each group together with the captured image;
Combining a composite image with the captured image in response to an operation on the editing palette by the user,
The compositing step randomly selects any one of the compositing images included in the predetermined group in response to an operation on the editing palette corresponding to the predetermined group by the user, Synthesize,
The combining step displays the combining image classified corresponding to the predetermined part of the user in the photographed image as the combining image included in each of the groups,
The display step recognizes a predetermined part of the user in the captured image, so that any one of the images for synthesis included in the group is determined by the user corresponding to the group in the captured image. And, when a plurality of users are included in the captured image, the images for synthesis to be combined with the respective predetermined portions of the users are made different from each other,
Image generation method.
利用者を被写体として撮影し、撮影画像を得る撮影ステップと、
前記撮影画像とともに、前記撮影画像を編集するための編集ツールとしての複数の合成用画像がグループ毎に分類されて表示される編集用パレットを表示する表示ステップと、
前記利用者による前記編集用パレットに対する操作に応じて、前記合成用画像を前記撮影画像に合成する合成ステップと
を含む処理をコンピュータに実行させ、
前記合成ステップは、前記利用者による、所定グループに対応する前記編集用パレットに対する操作に応じて、前記所定グループに含まれるいずれかの前記合成用画像を無作為に選択して、前記撮影画像に合成し、
前記合成ステップは、前記グループそれぞれに含まれる前記合成用画像として、前記撮影画像における前記利用者の所定の部位に対応して分類された前記合成用画像を表示し、
前記表示ステップは、前記撮影画像における前記利用者の所定の部位を認識することで、前記グループに含まれるいずれかの前記合成用画像を、前記撮影画像において前記グループに対応する前記利用者の所定の部位に合成し、さらに、前記撮影画像において複数の利用者が含まれている場合、前記利用者それぞれの所定の部位に合成する合成用画像を互いに異ならせる、
プログラム。
A shooting step of shooting a user as a subject and obtaining a shot image;
A display step of displaying an editing palette in which a plurality of compositing images as an editing tool for editing the captured image are classified and displayed for each group together with the captured image;
In response to an operation on the editing palette by the user, the computer is caused to execute a process including a combining step of combining the combined image with the captured image,
The compositing step randomly selects any one of the compositing images included in the predetermined group in response to an operation on the editing palette corresponding to the predetermined group by the user, Synthesize,
The combining step displays the combining image classified corresponding to the predetermined part of the user in the photographed image as the combining image included in each of the groups,
The display step recognizes a predetermined part of the user in the captured image, so that any one of the images for synthesis included in the group is determined by the user corresponding to the group in the captured image. And, when a plurality of users are included in the captured image, the images for synthesis to be combined with the respective predetermined portions of the users are made different from each other,
program.
JP2014232157A 2013-12-20 2014-11-14 Image generating apparatus and method, and program Expired - Fee Related JP6458460B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2014232157A JP6458460B2 (en) 2013-12-20 2014-11-14 Image generating apparatus and method, and program
US14/574,731 US9519950B2 (en) 2013-12-20 2014-12-18 Image generating apparatus and image generating method

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013264572A JP5664755B1 (en) 2013-12-20 2013-12-20 Photo sticker creation apparatus and method, and program
JP2013264572 2013-12-20
JP2014232157A JP6458460B2 (en) 2013-12-20 2014-11-14 Image generating apparatus and method, and program

Publications (2)

Publication Number Publication Date
JP2015146566A JP2015146566A (en) 2015-08-13
JP6458460B2 true JP6458460B2 (en) 2019-01-30

Family

ID=52569410

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2013264572A Expired - Fee Related JP5664755B1 (en) 2013-12-20 2013-12-20 Photo sticker creation apparatus and method, and program
JP2014232157A Expired - Fee Related JP6458460B2 (en) 2013-12-20 2014-11-14 Image generating apparatus and method, and program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2013264572A Expired - Fee Related JP5664755B1 (en) 2013-12-20 2013-12-20 Photo sticker creation apparatus and method, and program

Country Status (1)

Country Link
JP (2) JP5664755B1 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP6245530B2 (en) * 2015-07-31 2017-12-13 株式会社メイクソフトウェア Photo game machine
JP6762723B2 (en) * 2016-01-18 2020-09-30 キヤノン株式会社 Recording device, control method and program of recording device
JP6620572B2 (en) * 2016-01-28 2019-12-18 辰巳電子工業株式会社 Game shooting apparatus and image processing method
JP2018032322A (en) * 2016-08-26 2018-03-01 株式会社メイクソフトウェア Image editing method, image editing program, communication terminal, and image providing device
CN110431838B (en) 2017-03-22 2022-03-29 韩国斯诺有限公司 Method and system for providing dynamic content of face recognition camera
JP2018025766A (en) * 2017-07-13 2018-02-15 株式会社メイクソフトウェア Picture shot game machine, and control program
JP7032632B2 (en) * 2017-07-14 2022-03-09 フリュー株式会社 Photographing game consoles, display methods, and programs
JP2020053831A (en) * 2018-09-27 2020-04-02 フリュー株式会社 Photo-creating game machine, image processing method, and program
KR102646684B1 (en) 2019-02-28 2024-03-13 삼성전자 주식회사 Electronic device and method for generating contents

Family Cites Families (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2004178163A (en) * 2002-11-26 2004-06-24 Matsushita Electric Ind Co Ltd Image processing method and device
JP2005080284A (en) * 2004-06-04 2005-03-24 Make Softwear:Kk Method, apparatus, and program for providing photography print
JP4542943B2 (en) * 2005-04-27 2010-09-15 株式会社アイ・エム・エス Photo sticker dispensing apparatus and control method thereof
JP4970302B2 (en) * 2008-02-14 2012-07-04 富士フイルム株式会社 Image processing apparatus, image processing method, and imaging apparatus
JP5456984B2 (en) * 2008-04-18 2014-04-02 フリュー株式会社 Photo sticker creation apparatus, photo sticker creation method, and program
JP2011044883A (en) * 2009-08-20 2011-03-03 Nihon System Kaihatsu Co Ltd Digital camera with image synthesis function
JP5029926B2 (en) * 2009-11-30 2012-09-19 フリュー株式会社 Photo sticker creation apparatus, photo sticker creation method, and program
JP2012181688A (en) * 2011-03-01 2012-09-20 Sony Corp Information processing device, information processing method, information processing system, and program
JP5423744B2 (en) * 2011-06-24 2014-02-19 フリュー株式会社 Image providing apparatus and method, and program
JP5540417B2 (en) * 2011-09-30 2014-07-02 フリュー株式会社 Photo sticker creation apparatus, control method therefor, and program
JP2013186801A (en) * 2012-03-09 2013-09-19 Nec Casio Mobile Communications Ltd Image processor

Also Published As

Publication number Publication date
JP5664755B1 (en) 2015-02-04
JP2015148641A (en) 2015-08-20
JP2015146566A (en) 2015-08-13

Similar Documents

Publication Publication Date Title
JP6458460B2 (en) Image generating apparatus and method, and program
JP6607281B2 (en) Photo sticker creation apparatus, display method, and program
JP5418708B2 (en) Photo sealing machine, photo sealing machine processing method and program
US9519950B2 (en) Image generating apparatus and image generating method
JP5201430B1 (en) Photo sticker creation apparatus and method, and program
JP6115774B2 (en) Image editing apparatus, image editing method, and program
JP5472365B2 (en) Photo sticker creation apparatus, image processing method, and program
JP2015210513A (en) Photographic seal creation device
JP6810336B2 (en) Photo creation game console and display method
JP2015210397A (en) Photographic seal creation device
JP6418444B2 (en) Photo sticker creating apparatus and image providing method
JP5904192B2 (en) Photo sticker creation apparatus, image processing method, and program
JP5120508B1 (en) Photo sticker creation apparatus and method, and program
JP2017017409A (en) Imaging apparatus and imaging method
JP6558209B2 (en) Imaging device
JP2015211461A (en) Photographic seal creation device and photographic seal creation method
JP5737790B2 (en) Image processing apparatus and method, and program
JP7074994B2 (en) Photographing game console and image processing method
JP2021182104A (en) Photograph creation game machine, editing method and program
JP2015211460A (en) Photographic seal creation device and photographic seal creation method
JP5850281B2 (en) Photo sticker creation device
JP5979463B1 (en) Photo sticker creation apparatus, information processing method, and program
JP6146268B2 (en) Photo sticker creation apparatus, image processing method, and program
JP2015211462A (en) Photographic seal creation device and photographic seal creation method
JP5780345B1 (en) Photo sticker creating apparatus and image processing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170925

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180525

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180605

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20180806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180914

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20181002

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20181127

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20181210

R150 Certificate of patent or registration of utility model

Ref document number: 6458460

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees