JP7401727B2 - Image processing device, image processing method, and image processing program - Google Patents

Image processing device, image processing method, and image processing program Download PDF

Info

Publication number
JP7401727B2
JP7401727B2 JP2019002840A JP2019002840A JP7401727B2 JP 7401727 B2 JP7401727 B2 JP 7401727B2 JP 2019002840 A JP2019002840 A JP 2019002840A JP 2019002840 A JP2019002840 A JP 2019002840A JP 7401727 B2 JP7401727 B2 JP 7401727B2
Authority
JP
Japan
Prior art keywords
user
image
unit
image data
editing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019002840A
Other languages
Japanese (ja)
Other versions
JP2020113878A (en
Inventor
侑加 諸岡
卓麻 鈴木
拓真 吉岡
周平 矢本
法子 三谷
Original Assignee
フリュー株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by フリュー株式会社 filed Critical フリュー株式会社
Priority to JP2019002840A priority Critical patent/JP7401727B2/en
Publication of JP2020113878A publication Critical patent/JP2020113878A/en
Application granted granted Critical
Publication of JP7401727B2 publication Critical patent/JP7401727B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)
  • Editing Of Facsimile Originals (AREA)
  • Studio Devices (AREA)
  • Image Analysis (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Processing Or Creating Images (AREA)

Description

本発明は、撮影した画像に写る利用者の属性に応じて画像を処理する画像処理装置、画像処理方法及び画像処理プログラムに関する。 The present invention relates to an image processing device, an image processing method, and an image processing program that process an image according to attributes of a user appearing in a photographed image.

従来、撮影した画像に所定の画像処理を行い、ユーザに提供する写真シール作成装置が知られている。また、このような写真シール作成装置において、例えば、ユーザが男女のいずれであるかを選択し、その選択結果によって異なる処理が行われることがあった(例えば、特許文献1参照) 2. Description of the Related Art Conventionally, there has been known a photo sticker creation device that performs predetermined image processing on a photographed image and provides the resultant image to a user. Furthermore, in such photo sticker creation devices, for example, the user may select whether the user is male or female, and different processing may be performed depending on the selection result (for example, see Patent Document 1).

特許文献1に記載される写真シール作成装置では、性別選択画面で性別を選択し、選択された性別に応じた画像処理を行うことが記載される。 The photo sticker creation device described in Patent Document 1 describes that a gender is selected on a gender selection screen and image processing is performed according to the selected gender.

特開2014-74914号公報Japanese Patent Application Publication No. 2014-74914

しかしながら、特許文献1においては、仮に、性別の選択を誤った場合、本来行うことが求められる画像処理が行われなかったり、本来行う必要のない画像処理が行われたりする恐れがあった。特に、操作に慣れていないユーザには、選択の操作が困難なこともあり、選択を誤る恐れもある。 However, in Patent Document 1, if the gender is incorrectly selected, there is a risk that image processing that is originally required to be performed may not be performed, or image processing that does not originally need to be performed may be performed. In particular, the selection operation may be difficult for users who are not accustomed to the operation, and there is a risk of making a wrong selection.

本発明は、以上のような課題を解決し、利用者の属性に応じて適切に画像を処理し、操作性が向上した画像処理装置、画像処理方法及び画像処理プログラムを提供することを目的とする。 It is an object of the present invention to solve the above-mentioned problems and provide an image processing device, an image processing method, and an image processing program that process images appropriately according to user attributes and have improved operability. do.

本発明に係る画像処理装置の第1の態様は、利用者を撮影し、画像データを生成する撮影部と、前記撮影部で生成された画像データから、利用者の属性を判別する判別部と、前記判別部の判別結果に応じた所定のパラメータにしたがって、利用者の顔領域に対して画像データを処理する画像処理部と、前記画像処理部で処理された画像データを出力する出力部とを備える。これにより、利用者の属性に応じて適切に画像を処理し、操作性を向上させることができる。 A first aspect of the image processing device according to the present invention includes a photographing section that photographs a user and generates image data, and a determining section that determines attributes of the user from the image data generated by the photographing section. , an image processing section that processes image data for a user's face area according to predetermined parameters according to a determination result of the discrimination section; and an output section that outputs the image data processed by the image processing section. Equipped with This makes it possible to appropriately process images according to user attributes and improve operability.

画像処理装置の前記判別部は、利用者の属性として、男女を判別し、前記画像処理部が使用するパラメータは、利用者が女性の場合には、男性の場合よりも画像の変化量が大きくなる値としてもよい。女性の場合には変化が明確となることで、女性の利用者にとって、より満足度の高い画像データを提供することができる。 The discrimination unit of the image processing device discriminates whether the user is male or female as an attribute of the user, and the parameters used by the image processing unit are such that the amount of change in the image is larger when the user is female than when the user is male. It may be a value of In the case of a female user, the change becomes clearer, making it possible to provide image data that is more satisfying for female users.

画像処理装置の前記画像処理部は、前記利用者の顔、目、鼻又は口の少なくともいずれかのサイズ又は形状の少なくともいずれかを変更して画像データを処理するようにしてもよい。これにより、利用者の顔や顔の一部を処理することにより、利用者にとって、満足度の高い画像データを提供することができる。 The image processing unit of the image processing device may process the image data by changing the size or shape of at least one of the user's face, eyes, nose, and mouth. Thereby, by processing the user's face or part of the face, it is possible to provide image data with high satisfaction to the user.

画像処理装置の前記判別部は、利用者の属性として、利用者が眼鏡を着用するか否かを判別し、前記画像処理部は、前記利用者が眼鏡を着用し、かつ、前記利用者の目の画像データを処理する場合、前記画像データから前記利用者の眼鏡のフレーム内の目の領域を抽出し、当該目の領域に対して画像データを処理するようにしてもよい。これにより、眼鏡を着用する利用者にも、より満足度の高い画像データを提供することができる。 The determining unit of the image processing device determines whether the user wears glasses as an attribute of the user, and the image processing unit determines whether the user wears glasses and whether the user wears glasses or not. When processing eye image data, the eye area within the frame of the user's glasses may be extracted from the image data, and the image data may be processed for the eye area. This makes it possible to provide more satisfying image data even to users who wear glasses.

前記画像処理部は、前記利用者の顔に口紅又は頬紅の少なくともいずれかを付加して画像データを処理してもよい。利用者にメイクを施すことにより、利用者にとって、満足度の高い画像データを提供することができる。 The image processing unit may process the image data by adding at least one of lipstick and blush to the user's face. By applying makeup to the user, it is possible to provide image data that is highly satisfying to the user.

前記画像処理部は、前記利用者の顔の肌色を調整して画像データを処理してもよい。利用者の肌色を調整することにより、利用者にとって、満足度の高い画像データを提供することができる。 The image processing unit may process the image data by adjusting the skin color of the user's face. By adjusting the user's skin color, it is possible to provide image data that is highly satisfying to the user.

性別と関連付けて、複数のコンテンツを含むコンテンツデータを記憶する記憶部と、前記判別部の判別結果に応じ、判別された性別と関連付けられるコンテンツデータを前記記憶部から選択して利用者に提示し、提示したコンテンツデータから利用者によって選択されたコンテンツを前記画像データに合成する編集処理部を備えてもよい。利用者の性別に応じて選択されたコンテンツを選択可能とすることにより、利用者の操作性を向上させることができる。 a storage unit that stores content data including a plurality of contents in association with gender; and a storage unit that selects content data that is associated with the determined gender from the storage unit and presents it to the user according to the determination result of the determination unit. The image processing apparatus may include an editing processing section that combines content selected by the user from the presented content data with the image data. By making it possible to select content that is selected according to the user's gender, it is possible to improve the user's operability.

本発明によれば、利用者の属性に応じて適切に画像を処理し、操作性を向上させることができる。 According to the present invention, it is possible to appropriately process images according to user attributes and improve operability.

本発明の一実施形態である写真シール作成装置の斜視図である。BRIEF DESCRIPTION OF THE DRAWINGS FIG. 1 is a perspective view of a photo sticker production device that is an embodiment of the present invention. 写真シール作成装置の斜視図である。FIG. 1 is a perspective view of a photo sticker producing device. 写真シール作成ゲーム中の利用者の空間移動を説明するための図である。FIG. 3 is a diagram for explaining spatial movement of a user during a photo sticker creation game. 事前選択部の正面図である。FIG. 3 is a front view of the pre-selection section. 撮影部の正面図である。FIG. 3 is a front view of the imaging section. 背景部の撮影空間側の正面図である。FIG. 3 is a front view of the background portion on the imaging space side. 編集ユニットの編集空間側の正面図である。FIG. 3 is a front view of the editing unit on the editing space side. 編集ユニットの左側面図である。FIG. 3 is a left side view of the editing unit. 写真シール作成装置の内部構成を示すブロック図である。FIG. 2 is a block diagram showing the internal configuration of the photo sticker creation device. 写真シール作成装置の機能ブロックを示すブロック図である。FIG. 2 is a block diagram showing functional blocks of the photo sticker creation device. 写真シール作成装置による写真シール作成ゲームに関する一連の動作を示すフローチャートである。2 is a flowchart showing a series of operations related to a photo sticker creation game by the photo sticker creation device. 合成処理及び編集処理の詳細を示すフローチャートである。3 is a flowchart showing details of compositing processing and editing processing. 編集処理で利用される編集画面の一例である。This is an example of an editing screen used in editing processing. 画像処理の一例を説明する図である。It is a figure explaining an example of image processing. 画像処理の他の例を説明する図である。FIG. 7 is a diagram illustrating another example of image processing. 画像処理の他の例を説明する図である。FIG. 7 is a diagram illustrating another example of image processing. 編集処理で利用される編集画面の他の例である。This is another example of an editing screen used in editing processing.

以下、本発明の具体的な実施の形態について添付の図面を参照しながら説明する。なお、同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。さらに、各図面に記載した構成の形状、また、長さ、奥行および幅などの寸法は、実際の形状および寸法を反映させたものではなく、図面の明瞭化と簡略化のために適宜変更している。 Hereinafter, specific embodiments of the present invention will be described with reference to the accompanying drawings. Note that members having the same functions are designated by the same reference numerals, and the description thereof will be omitted as appropriate. Furthermore, the shapes and dimensions of structures, such as length, depth, and width, shown in each drawing do not reflect actual shapes and dimensions, and may be changed from time to time for clarity and simplification of the drawings. ing.

本発明に係る画像処理装置を、一例である写真シール作成装置として説明する。本発明を適用する写真シール作成装置は、撮影や編集等を利用者にゲームとして行わせ、その撮影・編集した画像を、写真シールやデータとして利用者に提供するゲーム装置である。写真シール作成装置1は、例えば、ゲームセンタ、ショッピングモールおよび観光地の店舗等に設置される。 An image processing device according to the present invention will be described as an example of a photo sticker creation device. A photo sticker creation device to which the present invention is applied is a game device that allows a user to perform photography, editing, etc. as a game, and provides the photographed and edited images to the user as a photo sticker or data. The photo sticker creation device 1 is installed, for example, at game centers, shopping malls, stores in tourist spots, and the like.

写真シール作成装置が提供するゲームにおいて、利用者は、写真シール作成装置に設けられたカメラを用いて自分自身等を撮影する。利用者は、その撮影画像に対して、前景画像および/または背景画像を合成したり、また、編集用合成用画像としてのペン画像入力やスタンプ画像入力等の編集機能(落書き編集機能)を用いたりして編集を行い、撮影画像を彩り豊かなものにデザインする。そしてゲーム終了後、利用者は、編集した画像が印刷された写真シール等を成果物として受け取る。または、写真シール作成装置は編集した画像を利用者の携帯端末に提供し、利用者は携帯端末により成果物を受け取ることもできる。 In the game provided by the photo sticker creation device, the user takes a picture of himself or herself using a camera provided in the photo sticker creation device. The user can combine the foreground image and/or background image with the captured image, or use editing functions (doodle editing function) such as inputting a pen image or stamp image as an image for editing composition. Edit the images to make them more colorful. After the game ends, the user receives a photo sticker or the like on which the edited image is printed as a result. Alternatively, the photo sticker creation device can provide the edited image to the user's mobile terminal, and the user can receive the product through the mobile terminal.

(写真シール作成装置の構成)
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1の利用者は、主に女子中学生および女子高校生などの若い女性が中心とされる。写真シール作成装置1において、1組当たり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。
(Configuration of photo sticker making device)
FIGS. 1 and 2 are perspective views showing an example of the external configuration of the photo sticker producing device 1. FIG. The photo sticker creation device 1 is a game machine that provides photographed images and edited images. The photo sticker creation device 1 provides images to the user by printing the images on sticker paper and transmitting the images to a server so that the images can be viewed on the user's mobile terminal. Users of the photo sticker creation device 1 are mainly young women such as junior high school girls and high school girls. In the photo sticker creation device 1, a plurality of users, mainly two or three users per group, can enjoy the game. Of course, one user can also enjoy the game in the photo sticker creation device 1.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が華やかな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creation device 1, a user performs a photographing operation with himself/herself as a subject. Through editing work, the user combines images for synthesis, such as handwritten characters and stamp images, with an image selected from among the photographed images obtained by photographing. As a result, the photographed image is edited into a gorgeous image. The user receives the sticker sheet on which the edited image, which is the edited image, is printed, and completes the series of games.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。 As shown in FIG. 1, the photo sticker creation device 1 is basically constructed by installing a photographing unit 11 and an editing unit 12 in contact with each other.

撮影ユニット11は、事前選択操作部20、撮影操作部21、および背景部22から構成される。事前選択操作部20は、撮影操作部21の側面に設置される。事前選択操作部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影操作部21と背景部22は所定の距離だけ離れて設置される。撮影操作部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。 The photographing unit 11 includes a pre-selection operation section 20, a photographing operation section 21, and a background section 22. The pre-selection operation section 20 is installed on the side of the photographing operation section 21. The space in front of the pre-selection operation unit 20 becomes a pre-selection space where the pre-selection process is performed. Further, the photographing operation section 21 and the background section 22 are installed apart from each other by a predetermined distance. A space formed between the photographing operation section 21 and the background section 22 becomes a photographing space in which photographing processing is performed.

事前選択操作部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を利用者に選択させるための処理を行ったりする。事前選択操作部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択操作部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。 The pre-selection operation unit 20 performs pre-selection processing such as providing guidance introducing games provided by the photo sticker creation device 1 and processing for allowing the user to select various settings for the photographing process performed in the photographing space. to do things. The pre-selection operation section 20 is provided with a coin slot into which the user inserts money, a touch panel monitor used for various operations, and the like. The preselection operation unit 20 guides the user in the preselection space to the shooting space as appropriate depending on the availability of the shooting space.

撮影操作部21は、利用者を被写体として撮影するための装置である。撮影操作部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影操作部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影操作部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影操作部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択操作部20が設置されるものとする。なお、事前選択操作部20は、側面パネル41Bに設置されるようにしてもよいし、側面パネル41A,41Bの両方に設置されるようにしてもよい。 The photographing operation unit 21 is a device for photographing a user as a subject. The photographing operation section 21 is located in front of the user who has entered the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided on the front side of the photographing operation section 21 facing the photographing space. Assuming that the left side is the left side and the right side is the right side when viewed from the user facing forward in the shooting space, the left side of the shooting operation unit 21 is constituted by the side panel 41A, and the right side is constituted by the side panel 41B. configured. Further, the front side of the photographing operation section 21 is constituted by a front panel 42. It is assumed that the above-mentioned pre-selection operation section 20 is installed on the side panel 41A. Note that the pre-selection operation section 20 may be installed on the side panel 41B, or may be installed on both the side panels 41A and 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。 The background section 22 includes a back panel 51, a side panel 52A, and a side panel 52B. The back panel 51 is a plate-shaped member located on the back side of the user facing the front. The side panel 52A is a plate-shaped member that is attached to the left end of the back panel 51 and is narrower in width than the side panel 41A. The side panel 52B is a plate-shaped member that is attached to the right end of the back panel 51 and is narrower in width than the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。 The side panel 41A and the side panel 52A are provided on substantially the same plane. The upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A, which is a plate-shaped member. The lower portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A', which is a metal member, for example, provided on the floor surface. Similarly, the side panel 41B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B'.

なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、利用者が所望する背景画像がシートの部分に合成される。 Note that, for example, a green chroma key sheet is pasted on the surface of the back panel 51 facing the photographing space. The photo sticker creation device 1 performs chromakey composition in photographing processing and editing processing by photographing a chroma key sheet as a background. As a result, the background image desired by the user is combined with the sheet portion.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。 An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance/exit to the photographing space. Further, an opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance to the photographing space.

撮影空間の上方には、撮影操作部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。 A ceiling surrounded by the front of the photographing operation section 21, the connecting section 23A, and the connecting section 23B is formed above the photographing space. A ceiling strobe unit 24 is provided on a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 has a built-in strobe that emits light into the shooting space in accordance with the shooting. Inside the ceiling strobe unit 24, a fluorescent lamp is provided in addition to a strobe. Thereby, the ceiling strobe unit 24 also functions as lighting for the photographing space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影操作部21の正面パネル42に接するようにして、撮影ユニット11に連結している。 The editing unit 12 is a device for editing a photographed image. The editing unit 12 is connected to the photographing unit 11 so that one side surface is in contact with the front panel 42 of the photographing operation section 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。 If the configuration of the editing unit 12 shown in FIG. 1 is the configuration on the front side, configurations used in editing work are provided on each of the front side and the back side of the editing unit 12. This configuration allows two sets of users to perform editing work at the same time.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影操作部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。 The front side of the editing unit 12 is composed of a surface 61 and a slope 62 formed above the surface 61. The surface 61 is perpendicular to the floor surface and substantially parallel to the side panel 41A of the photographing operation section 21. A monitor with a built-in tablet and a touch pen are provided on the slope 62 as components used for editing work. A columnar support portion 63A that supports one end of the lighting device 64 is provided on the left side of the slope 62. A columnar support portion 63B that supports the other end of the lighting device 64 is provided on the right side of the slope 62. A support portion 65 that supports the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A,26B,26Cが、組み合わせられて構成される。3本のレール26A,26B,26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。 A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is constructed by combining three rails 26A, 26B, and 26C. The three rails 26A, 26B, and 26C are combined so that they have a U-shape when viewed from above. One ends of the rails 26A and 26B, which are provided in parallel, are fixed to the connecting portions 23A and 23B, respectively, and the other ends of the rails 26A and 26B are joined to both ends of the rail 26C, respectively.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 26 so that the space in front of the front and the space in front of the back of the editing unit 12 cannot be seen from the outside. The space in front of the front of the editing unit 12 and the space behind the back of the editing unit 12 surrounded by the curtain serve as an editing space in which the user performs editing work.

また、後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。 Furthermore, as will be described later, an ejection port is provided on the left side of the editing unit 12 to eject printed sticker paper. The space in front of the left side of the editing unit 12 is a printing waiting space where the user waits for printed sticker sheets to be ejected.

(利用者の移動)
ここで、画像作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成ゲーム中の利用者の空間移動を説明するための図である。
(User movement)
Here, the flow of the image creation game and the accompanying movement of the user will be explained. FIG. 3 is a diagram for explaining the spatial movement of the user during the photo sticker creation game.

まず、利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。 First, the user inserts money into the coin slot in the pre-selection space A0, which is the space in front of the pre-selection operation section 20. Next, the user performs various settings according to the screen displayed on the touch panel monitor. The user performs, for example, a pre-selection task such as selecting a course regarding photography to be performed in the photography space.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影操作部21と背景部22の間に形成された撮影空間A1に入る。そして利用者は、撮影操作部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 After completing the pre-selection process, the user enters the photographing space formed between the photographing operation section 21 and the background section 22 from the entrance G1 between the side panel 41A and the side panel 52A, as shown by the white arrow #1. Enter A1. Then, the user performs a photographing operation using a camera, a touch panel monitor, etc. provided in the photographing operation section 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2-1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2-2に移動する。 After finishing the shooting work, the user either exits the shooting space A1 through the doorway G1 and moves to the editing space A2-1, as shown by the outlined arrow #2, or exits the shooting space A1 and moves to the editing space A2-1, as shown by the outlined arrow #3. The user exits the shooting space A1 and moves to the editing space A2-2.

編集空間A2-1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2-2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2-1と編集空間A2-2のいずれの空間に移動するのかは、撮影操作部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2-1または編集空間A2-2に移動した利用者は、編集作業を開始する。編集空間A2-1の利用者と、編集空間A2-2の利用者は同時に編集作業を行うことができる。 The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the rear side of the editing unit 12. The user is guided as to which space to move to, editing space A2-1 or editing space A2-2, by a screen display on the touch panel monitor of the photographing operation section 21, or the like. For example, the user is guided to the vacant one of the two editing spaces as the destination. The user who has moved to editing space A2-1 or editing space A2-2 starts editing work. A user of editing space A2-1 and a user of editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2-1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2-1から印刷待ち空間A3に移動する。また、編集空間A2-2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2-2から印刷待ち空間A3に移動する。 After the editing work is completed, printing of the edited image is started. When printing is started, the user who has completed the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the outline arrow #4. Further, the user who has completed the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the outline arrow #5.

印刷待ち空間A3に移動した利用者は、画像の印刷の終了を待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の画像作成ゲームを終える。 The user who has moved to the print waiting space A3 waits for the printing of the image to finish. When printing is completed, the user receives the sticker sheet discharged from the discharge port provided on the right side of the editing unit 12, and completes the series of image creation games.

(事前選択部の構成)
次に、各装置の構成について説明する。図4は、事前選択操作部20の正面図である。
(Configuration of pre-selection section)
Next, the configuration of each device will be explained. FIG. 4 is a front view of the preselection operation section 20.

事前選択操作部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、撮影に関するコースの選択、編集の対象となる編集対象画像における背景となる画像の選択、作成画像のレイアウト、画像作成ゲーム中に流れるBGM(Back Ground Music)、音および音声の少なくともいずれかの選択、並びに利用者の名前の入力などを行わせる事前選択処理に用いられる画面が表示される。 A touch panel monitor 71 is provided above the preselection operation section 20. The touch panel monitor 71 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and accepting selection operations from the user. The touch panel monitor 71 displays information such as selecting a shooting course, selecting a background image for an image to be edited, the layout of an image to be created, BGM (Background Music) played during an image creation game, and sounds and sounds. A screen used for pre-selection processing is displayed, in which the user is required to select at least one of the options and input the user's name.

撮影に関するコースは、利用者が2人で撮影を行う2人用コースと、3人以上で撮影を行う大人数コースとが用意されている。また、男女のカップルで撮影を行うカップルコースが用意されていてもよい。 Photography-related courses are available in two-person courses, in which two users take pictures, and in large-group courses, in which three or more users take pictures. Additionally, a couples course may be provided in which male and female couples are photographed.

タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM、効果音などを出力する。また、スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。 A speaker 72 is provided below the touch panel monitor 71. The speaker 72 outputs guidance audio, BGM, sound effects, etc. for the pre-selection process. Further, adjacent to the speaker 72, a coin insertion/return slot 73 is provided in which the user inserts coins.

(撮影部の構成)
図5は、撮影部としての撮影操作部21の正面図である。撮影操作部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
(Composition of the photography department)
FIG. 5 is a front view of the photographing operation section 21 as a photographing section. The photographing operation section 21 is configured to be surrounded by a side panel 41A, a side panel 41B, and a front panel 42.

正面パネル42の中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91および表示部としてのタッチパネルモニタ92から構成される。 A camera unit 81 is provided at the center of the front panel 42. The camera unit 81 includes a camera 91 and a touch panel monitor 92 as a display section.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー表示画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。 The camera 91 is, for example, a single-lens reflex camera, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 includes an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs the user in the photographing space A1. A moving image captured by the camera 91 (hereinafter also referred to as a live view display image) is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing, such as when a shooting is instructed, is saved as a captured image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。当該選択操作の具体例としては、撮影コースの選択、撮影開始および終了の指示(撮影の制御指示)、目の変形具合および色、ならびに肌の色の補正具合の選択、作成画像における背景画像となる画像の選択、ならびに画像作成ゲーム中のBGM(音・音声)の選択などが挙げられる。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。 A touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 includes a monitor such as an LCD and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays moving images captured by the camera 91, and a function that displays various GUIs and receives selection operations from the user. Specific examples of such selection operations include selecting a shooting course, instructing to start and end shooting (shooting control instructions), selecting the degree of eye deformation and color, and the degree of skin color correction, and selecting the background image and color of the created image. Examples include selecting an image, and selecting BGM (sound/audio) during an image creation game. The touch panel monitor 92 displays moving images (live view images) and still images (photographed images) captured by the camera 91.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、正面上方から利用者の顔および上半身に光を照射する。 An upper strobe 82 is installed above the camera unit 81 with a curved light emitting surface facing the user. The upper strobe 82 irradiates light onto the user's face and upper body from the upper front.

また、カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボ85が設けられる。なお、上ストロボ82と足元ストロボ85には、ストロボと蛍光灯が含まれている。 Further, below the camera unit 81, a foot strobe 85 is provided that irradiates light onto the user's lower body and feet. Note that the upper strobe 82 and the foot strobe 85 include a strobe and a fluorescent lamp.

なお、図1および図5においては図示を省略するが、正面パネル42の例えば天井付近には、スピーカ93が設けられる。スピーカ93は、制御部201から出力される音声信号により、撮影処理の案内音声、BGM、効果音などを出力する。 Although not shown in FIGS. 1 and 5, a speaker 93 is provided on the front panel 42, for example near the ceiling. The speaker 93 outputs guidance audio, BGM, sound effects, etc. for the photographing process based on the audio signal output from the control unit 201 .

(背景部の構成)
図6は、背景部22の撮影空間A1側の正面図である。
(Composition of background part)
FIG. 6 is a front view of the background section 22 on the photographing space A1 side.

背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。 A back strobe 101 is installed above the back panel 51. The back strobe 101 irradiates light onto the user from above the back.

図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。 In the figure, a rear left strobe 102 is installed on the left side of the rear panel 51. The back left strobe 102 illuminates the user from the right side of the back. In the figure, a back right strobe 103 is installed on the right side of the back panel 51. The back right strobe 103 illuminates the user from the left side of the back.

また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられていてもよい。クロマキーシート121の色は、例えば緑色とされる。 Further, a chromakey sheet 121 may be attached to the surface of the back panel 51 on the photographing space A1 side (the front side in the figure). The color of the chromakey sheet 121 is, for example, green.

なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面にも、クロマキーシート121と同様に、クロマキーシートが貼り付けられていてもよい。 Although not shown, a chroma key sheet may also be attached to the surfaces of the side panels 52A and 52B on the photographing space A1 side, similar to the chroma key sheet 121.

(編集ユニットの構成)
図7は、編集ユニット12の編集空間A2-1側の正面図である。
(Editing unit configuration)
FIG. 7 is a front view of the editing unit 12 on the editing space A2-1 side.

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。例えば、2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 A tablet built-in monitor 131 is provided approximately at the center of the slope 62. A touch pen 132A is provided on the left side of the tablet built-in monitor 131. A touch pen 132B is provided on the right side of the tablet built-in monitor 131. The tablet built-in monitor 131 is configured by installing a tablet so that its display is exposed. The tablet allows operation input using the touch pen 132A or the touch pen 132B. For example, an editing screen used for editing work is displayed on the tablet built-in monitor 131. For example, when two users perform editing work at the same time, the touch pen 132A is used by the user on the left side facing the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side facing the tablet built-in monitor 131. used.

図8は、編集ユニット12の左側面図である。 FIG. 8 is a left side view of the editing unit 12.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部には出力部としてのプリンタが設けられている。そのプリンタにより、編集空間A2-1の利用者が写る画像、または、編集空間A2-2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。 A sticker paper outlet 161 is provided on the lower left side of the editing unit 12. A printer is provided inside the editing unit 12 as an output section. The printer prints an image showing the user of the editing space A2-1 or an image showing the user of the editing space A2-2 in a predetermined layout on sticker paper, and discharges it from the sticker paper outlet 161.

(写真シール作成装置の内部構成)
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
(Internal configuration of photo sticker making device)
FIG. 9 is a block diagram showing an example of the internal configuration of the photo sticker creating device 1. As shown in FIG. In FIG. 9, the same components as those described above are given the same reference numerals. Duplicate explanations will be omitted as appropriate.

制御部201はCPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前選択操作部20、撮影操作部21、背景部22、編集操作部27A,27B、および印刷操作部28の各構成も接続される。 The control unit 201 is composed of a CPU (Central Processing Unit) and the like. The control unit 201 executes programs stored in a ROM (Read Only Memory) 206 and a storage unit 202 to control the overall operation of the photo sticker creation device 1. A storage unit 202 , a communication unit 203 , a drive 204 , a ROM 206 , and a RAM (Random Access Memory) 207 are connected to the control unit 201 . Also connected to the control section 201 are the preselection operation section 20, the photographing operation section 21, the background section 22, the editing operation sections 27A and 27B, and the printing operation section 28.

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。 The storage unit 202 is a nonvolatile storage medium such as a hard disk or flash memory. The storage unit 202 stores various setting information and the like supplied from the control unit 201. Information stored in the storage unit 202 is read out by the control unit 201 as appropriate.

通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。 The communication unit 203 is an interface for a network such as the Internet. The communication unit 203 communicates with an external device under the control of the control unit 201. The communication unit 203 transmits, for example, a photographed image or an edited image selected by the user to the server. The image transmitted from the communication unit 203 is stored in a predetermined storage area in the server, and displayed on a mobile terminal accessing the server or downloaded.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。 A removable medium 205 such as an optical disk or a semiconductor memory is appropriately installed in the drive 204 . Programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored or installed in the storage unit 202.

ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。 The ROM 206 stores programs and data executed by the control unit 201. The RAM 207 temporarily stores data and programs processed by the control unit 201.

事前選択操作部20は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択操作部20は、タッチパネルモニタ71、スピーカ72、および硬貨処理部74から構成される。 The pre-selection operation unit 20 implements a pre-selection process targeting users in the pre-selection space A0. The pre-selection operation section 20 includes a touch panel monitor 71, a speaker 72, and a coin processing section 74.

タッチパネルモニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。 The touch panel monitor 71 displays various selection screens under the control of the control unit 201 and receives user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the control unit 201, and various settings are performed.

硬貨処理部74は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部74は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。 The coin processing unit 74 detects the insertion of a coin into the coin insertion/return slot 73 . When the coin processing unit 74 detects that a predetermined amount of coins have been inserted, it outputs an activation signal to the control unit 201 instructing the start of the game.

撮影操作部21は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部220は、上ストロボ82、左ストロボ83、右ストロボ84、足元ストロボ85、カメラ91、タッチパネルモニタ92、およびスピーカ93から構成される。 The photographing operation unit 21 realizes photographing processing for the users in the photographing space A1. The photographing unit 220 includes an upper strobe 82 , a left strobe 83 , a right strobe 84 , a foot strobe 85 , a camera 91 , a touch panel monitor 92 , and a speaker 93 .

上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85は、撮影空間A1内に配置され、制御部201から供給される照明制御信号に従って発光する。 The upper strobe 82, the left strobe 83, the right strobe 84, and the foot strobe 85 are arranged in the photographing space A1 and emit light in accordance with a lighting control signal supplied from the control unit 201.

カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。 The camera 91 performs photography according to shutter control by the control unit 201 and outputs a photographed image (image data) obtained by photography to the control unit 201.

編集操作部27Aは、編集空間A2-1にいる利用者を対象とした編集処理を実現する。編集操作部27Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ133から構成される。編集操作部27Bは、編集空間A2-2にいる利用者を対象とした編集処理を実現し、編集操作部27Aと同一の構成を有する。なお、以下、編集操作部27A,27Bを特に区別しない場合には、単に、編集操作部27という。 The editing operation unit 27A implements editing processing for users in the editing space A2-1. The editing operation unit 27A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 133. The editing operation unit 27B realizes editing processing for users in the editing space A2-2, and has the same configuration as the editing operation unit 27A. Note that hereinafter, unless the editing operation sections 27A and 27B are particularly distinguished, they will simply be referred to as the editing operation section 27.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。 The tablet built-in monitor 131 displays an editing screen under the control of the control unit 201 and receives user operations on the editing screen. An input signal representing the content of the user's operation is supplied to the control unit 201, and the photographed image to be edited is edited.

印刷操作部28は、印刷待ち空間A3にいる利用者に、作成画像を印刷済みのシール紙を提供する印刷処理を実現する。印刷操作部28は、プリンタ140を含むように構成される。プリンタ140にはシール紙ユニット141が装着される。 The print operation unit 28 realizes a print process that provides sticker sheets on which created images are printed to users in the print waiting space A3. The print operation section 28 is configured to include a printer 140. A sticker paper unit 141 is attached to the printer 140.

プリンタ140は、制御部201から供給された印刷データに基づいて、編集画像をシール紙ユニット141に収納されているシール紙142に印刷し、シール紙排出口161に排出する。 The printer 140 prints the edited image on the sticker paper 142 stored in the sticker paper unit 141 based on the print data supplied from the control unit 201, and discharges it to the sticker paper outlet 161.

(写真シール作成装置の機能ブロック)
図10は、写真シール作成装置1の機能ブロックを示すブロック図である。写真シール作成装置1は、事前選択部210、撮影部220、編集部230、および印刷部240として機能する。また、制御部201は、本発明の写真シール作成プログラムを実行することにより、事前選択処理部301、撮影処理部302、判別部303、画像処理部304、合成部305、編集処理部306、および印刷処理部307として機能する。
(Functional block of photo sticker making device)
FIG. 10 is a block diagram showing functional blocks of the photo sticker creation device 1. As shown in FIG. The photo sticker creation device 1 functions as a pre-selection section 210, a photographing section 220, an editing section 230, and a printing section 240. Furthermore, by executing the photo sticker creation program of the present invention, the control unit 201 controls the pre-selection processing unit 301, the photographing processing unit 302, the discrimination unit 303, the image processing unit 304, the composition unit 305, the editing processing unit 306, and It functions as a print processing unit 307.

事前選択部210は、上述した事前選択操作部20と、事前選択処理部301とを備える。事前選択処理部301は、事前選択操作部20におけるタッチパネルモニタ71、スピーカ72、および硬貨処理部74を制御することで、事前選択処理を行う。事前選択処理部301は、撮影空間A1において行われる撮影に関するコースの選択のための選択画面等をタッチパネルモニタ71に表示させる。また事前選択処理部301は、タッチパネルモニタ71に対する、利用者の操作入力を受け付ける。具体的には、事前選択処理部301は、タッチパネルモニタ71に表示された選択画面に対する選択の操作入力、および利用者の名前の入力等を受け付ける。また事前選択処理部301は、各種の選択操作を説明するガイダンスの出力を制御する。事前選択処理部301は、各種の選択操作を説明する画面をタッチパネルモニタ71に表示させたり、各種の選択操作を説明する音声をスピーカ72から出力させたりする。 The preselection section 210 includes the above-mentioned preselection operation section 20 and a preselection processing section 301. The preselection processing section 301 performs a preselection process by controlling the touch panel monitor 71, the speaker 72, and the coin processing section 74 in the preselection operation section 20. The pre-selection processing unit 301 causes the touch panel monitor 71 to display a selection screen for selecting a course regarding photography to be performed in the photography space A1. Further, the pre-selection processing unit 301 receives operation input from the user on the touch panel monitor 71. Specifically, the pre-selection processing unit 301 receives an operation input for selection on the selection screen displayed on the touch panel monitor 71, an input of the user's name, and the like. Further, the pre-selection processing unit 301 controls the output of guidance explaining various selection operations. The pre-selection processing unit 301 causes the touch panel monitor 71 to display a screen explaining various selection operations, and causes the speaker 72 to output audio explaining the various selection operations.

撮影部220は、上述した撮影操作部21と、撮影処理部302とを備える。撮影処理部302は、撮影操作部21におけるカメラ91、タッチパネルモニタ92、およびスピーカ93を制御することで、撮影処理を行う。 The photographing section 220 includes the photographing operation section 21 described above and the photographing processing section 302. The photographing processing section 302 performs photographing processing by controlling the camera 91, touch panel monitor 92, and speaker 93 in the photographing operation section 21.

撮影処理部302は、タッチパネルモニタ92に対する、利用者の操作入力を受け付ける。例えば、撮影空間A1における撮影処理は、撮影処理部302が、利用者によるタッチパネルモニタ92への接触操作を入力として受け付けることにより開始される。 The photographing processing unit 302 receives the user's operation input on the touch panel monitor 92. For example, the photographing process in the photographing space A1 is started when the photographing processing unit 302 receives a user's touch operation on the touch panel monitor 92 as an input.

撮影処理部302は、カメラ91を制御し、利用者を被写体として撮影する。撮影には、動画像と静止画像とがある。撮影処理部302は、タッチパネルモニタ92の表示を制御することにより、カメラ91に取り込まれた動画像をタッチパネルモニタ92にライブビュー表示させたり、撮影結果である静止画像を撮影画像として表示させたりする。 The photographing processing unit 302 controls the camera 91 and photographs the user as a subject. Shooting includes moving images and still images. By controlling the display on the touch panel monitor 92, the photographing processing unit 302 displays a moving image captured by the camera 91 in live view on the touch panel monitor 92, or displays a still image as a photographed image as a photographed image. .

また、撮影処理部302は、撮影枚数、利用者の立ち位置、サンプルポーズ、目線についてのメッセージ、および撮影タイミング等を説明するインストラクション画面をタッチパネルモニタ92に表示させる。さらに、それぞれのインストラクション画面に対応するナレーションの音声、およびBGMをスピーカ93から出力させる。 Further, the photographing processing unit 302 causes the touch panel monitor 92 to display an instruction screen explaining the number of photographs, the user's standing position, a sample pose, a message regarding the line of sight, the photographing timing, and the like. Furthermore, the narration audio and BGM corresponding to each instruction screen are outputted from the speaker 93.

判別部303は、予め定められる属性判別方法にしたがって、撮影部220で撮影された撮影画像に含まれる利用者の属性を判別する。具体的には、判別部303は、利用者の属性として男女を判別する。また、判別部303は、利用者の属性として、利用者が眼鏡を着用するか否かを判別する。例えば、判別部303は、撮影画像から顔認識技術を利用して利用者の顔画像領域を抽出し、予め定められる男女の判別プログラムを利用して、男女を判別する。なお、この男女の判別プログラムは、機械学習等を利用して、判別の精度を向上させることができる。また例えば、判別部303は、抽出される顔画像領域から、予め定められる眼鏡抽出プログラムを利用して、利用者が眼鏡を着用するか否かを判別する。この眼鏡抽出プログラムも、機械学習等を利用して、判別の精度を向上させることができる。 The determining unit 303 determines the attributes of the user included in the photographed image taken by the photographing unit 220 according to a predetermined attribute determining method. Specifically, the determining unit 303 determines whether the user is male or female as an attribute. Further, the determining unit 303 determines whether the user wears glasses as an attribute of the user. For example, the determining unit 303 extracts the facial image area of the user from the photographed image using face recognition technology, and determines whether the user is male or female using a predetermined male or female discrimination program. Note that this gender discrimination program can improve the accuracy of discrimination by using machine learning or the like. For example, the determination unit 303 determines whether the user wears glasses from the extracted facial image area using a predetermined glasses extraction program. This glasses extraction program can also improve the accuracy of discrimination by using machine learning or the like.

男女の判別プログラムでは、一例として、顔画像領域から特定された利用者の顔の肌の輝度値、唇の色、髪の毛の領域、前髪の長さ等の値を利用し、これらの値の平均データと利用者の各データの値を比較して判別することができる。これは、男性よりも女性の方が肌の輝度値が高い、唇の色が赤い、髪の毛が長い等で髪の毛の領域が広い、前髪が長い等の傾向がある。したがって、複数の男女の写真データを学習データとした機械学習により、平均データ得ることで、男女の判別の精度を向上させることができる。 For example, a gender discrimination program uses the skin brightness value, lip color, hair area, bang length, etc. of the user's face identified from the facial image area, and calculates the average of these values. It is possible to make a determination by comparing the data and the value of each data of the user. This is because women tend to have higher skin luminance values than men, have redder lips, have longer hair, etc., and have longer bangs. Therefore, by obtaining average data through machine learning using photographic data of a plurality of men and women as learning data, it is possible to improve the accuracy of gender discrimination.

また、多の例では、男女の判別プログラムでは、予め記憶部等で記憶される肌の輝度値、唇の色、髪の毛の領域、及び、前髪の長さ等の閾値のテーブルを利用してもよい。これらの閾値は、女性又は男性を判別するための値として、予め定められる。具体的には、判別プログラムは、このテーブルを読み出し、顔画像領域から特定された利用者の各値をテーブルで記憶される各閾値と比較し、それぞれ利用者の値が閾値以上又は閾値以下である場合、女性と判別したり、男性と判別したりする。 In addition, in many examples, a gender discrimination program may utilize a table of threshold values such as skin brightness values, lip color, hair area, and bang length that are stored in advance in a storage unit. good. These threshold values are determined in advance as values for determining whether a person is female or male. Specifically, the discrimination program reads this table, compares each value of the user identified from the face image area with each threshold value stored in the table, and determines whether the user's value is greater than or equal to the threshold value or less than the threshold value. In some cases, it is determined that the person is female or male.

そのほか、男女の判別プログラムでは、目の大きさと目の輪郭の太さの比率を利用しても良い。例えば、メイクをしている利用者の場合、メイクをしていない利用者と比較すると、目の輪郭がはっきりする。すなわち、メイクをしている利用者の方が目の輪郭が太くなる。したがって、仮に目のサイズが同程度たったとしても、メイクをしている利用者としていない利用者では、目の大きさと輪郭の太さの比率は異なる。また、目の周りにメイクをする男性はまれである。したがって、目の大きさと目の輪郭の太さが所定以上である場合、利用者メイクをしていると推定可能であり、これにより、女性と判別するようにしても良い。 In addition, the ratio between the size of the eyes and the thickness of the outline of the eyes may be used in a gender discrimination program. For example, in the case of a user who wears makeup, the outline of the eyes becomes clearer when compared to a user who does not wear makeup. In other words, the outline of the eyes of the user who wears makeup becomes thicker. Therefore, even if the eye sizes are about the same, the ratio of eye size to outline thickness will be different between users who wear makeup and users who do not. Also, it is rare for men to wear makeup around their eyes. Therefore, if the size of the eyes and the thickness of the eye outline are larger than a predetermined value, it can be estimated that the user is wearing makeup, and based on this, the user may be determined to be a woman.

多の例として、口や目の輪郭とその周辺の肌の色の濃淡差を利用しても良い。例えば、メイクをしている利用者の場合、メイクをしていない利用者と比較すると、口や目の輪郭とその周辺の肌の色の濃淡差が大きくなる。すなわち、メイクをしない場合口や目等の顔のパーツはその他の顔の肌の色の差は大きくないが、メイクをすることで、これらの差が大きくなる。したがって、目や口等のパーツの輪郭とその周辺の肌の色の差が所定以上である場合、利用者メイクをしていると推定可能であり、これにより、女性と判別するようにしても良い。 For example, the difference in shading between the contours of the mouth and eyes and the skin color around them may be used. For example, in the case of a user who wears makeup, the difference in shading between the contours of the mouth and eyes and the skin color around them is greater than that of a user who does not wear makeup. That is, when no makeup is worn, there is not a large difference in the skin color between facial parts such as the mouth and eyes, but when makeup is applied, these differences become larger. Therefore, if the difference between the contours of parts such as eyes and mouth and the skin color around them is more than a predetermined value, it can be assumed that the user is wearing make-up, and even if the user is determined to be female. good.

また、例えば、眼鏡の抽出プログラムでは、口や鼻等の目以外のパーツの大きさと、比較により、眼鏡の着用の有無を判別してもよい。具体的には、記憶部において、予め、一般的な人間の目と口のサイズの比率の閾値を記憶部で記憶する。そして、眼鏡の抽出プログラムでは、目と識別される部分のサイズが、口のサイズとの比較が、閾値より大きすぎる場合、利用者は眼鏡を着用すると判別することができる。 Further, for example, in a glasses extraction program, whether or not glasses are being worn may be determined by comparing the sizes of parts other than the eyes, such as the mouth and nose. Specifically, the storage unit stores in advance a threshold value of the ratio of the size of the eyes and the mouth of a typical human being. The glasses extraction program can determine that the user wears glasses if the size of the portion identified as the eye is larger than the threshold compared to the mouth size.

また、判別部303は、判別結果に応じて利用者に画像データの処理に利用する値であるパラメータを設定する。ここで、撮影画像に複数の利用者が含まれる場合、判別部303は、利用者毎に、パラメータを設定する。具体的には、判別部303は、利用者が女性の場合には男性の場合よりも、画像の変化量が大きくなる値をパラメータとして設定する。パラメータは、例えば、利用者の顔、目、鼻、又は口等のサイズ、形状又は色等を変化させる値である。具体的には、パラメータの値に応じて、撮影画像の利用者の顔を小顔に変化したり、目を大きく変化したりする。また、パラメータは、例えば、口紅(「リップ」ともいう)や頬紅(「チーク」ともいう)を付加するか否かを特定する値である。具体的には、パラメータの値に応じて、撮影画像の利用者にリップやチークをつける。さらに、パラメータは、例えば、利用者の肌の色や質感を調整する値である。具体的には、パラメータの値に応じて、肌を色白に変更したり、健康的に日焼けした肌色に変更したりする。その他、パラメータによって目や口の輪郭をはっきりさせるようにしてもよいし、リップやチーク以外のメイクをしてもよい。 Further, the determining unit 303 sets parameters, which are values used for processing image data, for the user according to the determination result. Here, if a plurality of users are included in the captured image, the determination unit 303 sets parameters for each user. Specifically, the determining unit 303 sets a value as a parameter that causes a larger amount of change in the image when the user is a woman than when the user is a man. The parameters are values that change the size, shape, color, etc. of the user's face, eyes, nose, mouth, etc., for example. Specifically, depending on the value of the parameter, the face of the user in the photographed image is changed to a smaller face or the eyes are changed significantly. Further, the parameter is, for example, a value that specifies whether to apply lipstick (also referred to as "lip") or blusher (also referred to as "cheek"). Specifically, lips and cheeks are applied to the user of the photographed image according to the value of the parameter. Further, the parameters are, for example, values for adjusting the color and texture of the user's skin. Specifically, depending on the value of the parameter, the skin color is changed to fair skin or to a healthy tanned skin color. Additionally, depending on the parameters, the outlines of the eyes and mouth may be made clearer, or makeup other than lips and cheeks may be applied.

加えて、判別部303は、判別結果に応じて、ゲームの進行を決定するためのゲームフローを設定する。具体的には、判別部303は、撮影画像に含まれる男女の構成比率に応じてゲームフローを設定する。なお、タッチパネルモニタ92に表示させるインストラクション画面や、スピーカ93から出力される音声及びBGMは、判別部303で設定されたゲームフローに応じて異なるものとすることができる。これにより、利用者の男女の構成比率に応じたインストラクション画面や音声及びBGMとなり、利用者にとって分かりやすく操作性が向上させることが可能となり、また、利用者毎に撮影を盛り上げる効果を得ることができる。 In addition, the determining unit 303 sets a game flow for determining the progress of the game according to the determination result. Specifically, the determining unit 303 sets the game flow according to the composition ratio of men and women included in the photographed image. Note that the instruction screen displayed on the touch panel monitor 92 and the audio and BGM output from the speaker 93 can be different depending on the game flow set by the determination unit 303. As a result, the instruction screen, audio, and BGM will be tailored to the composition ratio of male and female users, making it easier for users to understand and improving operability, as well as increasing the excitement of shooting for each user. can.

画像処理部304は、判別部303で設定されたパラメータを用いて画像データを処理する。具体的には、画像処理部304は、利用者の顔領域に対して画像処理を実行する。例えば、画像処理部304は、女性の場合には、パラメータに応じた画像処理により小顔にしたり、目を大きくしたり、メイクを施したり、肌を色白に変更したりする。一方、男性の場合には、小顔にしたり、目を大きくしたりする際に、その変化量が女性と比較して小さいパラメータを利用する。また、画像処理部は、男性の場合には、パラメータに応じた画像処理により、日焼けしたような健康的な肌色に変更したりする。 The image processing unit 304 processes the image data using the parameters set by the determination unit 303. Specifically, the image processing unit 304 performs image processing on the user's face area. For example, in the case of a woman, the image processing unit 304 performs image processing according to parameters to make the face smaller, enlarge the eyes, apply makeup, or change the skin to fair skin. On the other hand, in the case of a man, when making his face smaller or making his eyes larger, a parameter whose amount of change is smaller than that of a woman is used. Further, in the case of a man, the image processing unit performs image processing according to parameters to change the skin color to a healthy skin color that looks like a sunburn.

また、画像処理部304は、判別部303で設定された判別結果で眼鏡を着用すると判別された利用者について目のサイズや形状を変更する場合、利用者の眼鏡のフレーム内の目の領域を抽出し、当該目の領域に対して目のサイズや形状を変更する。これにより、写真シール作成装置1では、眼鏡自体のサイズや形状等を変更することなく、眼鏡フレーム内の利用者の目のサイズや形状を変更する。 Furthermore, when changing the eye size or shape of a user who is determined to wear glasses based on the determination result set by the determination unit 303, the image processing unit 304 changes the eye area within the frame of the user's glasses. Then, the eye size and shape are changed for the relevant eye area. As a result, the photo sticker creation device 1 changes the size and shape of the user's eyes within the eyeglass frame without changing the size and shape of the eyeglasses themselves.

合成部305は、処理した画像を合成用画像とし、カメラ91に取り込まれた動画像に合成用画像を合成し、合成した画像をタッチパネルモニタ92にライブビュー表示画像としてさせる。したがって、利用者は、仕上がりイメージをリアルタイムで確認しながら撮影を行うことができる。 The synthesis unit 305 uses the processed image as a synthesis image, synthesizes the synthesis image with the moving image captured by the camera 91, and displays the synthesized image on the touch panel monitor 92 as a live view display image. Therefore, the user can shoot while checking the finished image in real time.

編集部230は、上述した編集操作部27A,27Bと、編集処理部306とを備える。編集処理部306は、編集操作部27A,27Bにおけるタブレット内蔵モニタ131、およびスピーカ133を制御することで、編集処理を行う。編集処理部306は、タブレット内蔵モニタ131に対する、タッチペン132A,132Bを用いた利用者の操作入力を受け付ける。 The editing section 230 includes the above-mentioned editing operation sections 27A and 27B and an editing processing section 306. The editing processing section 306 performs editing processing by controlling the tablet built-in monitor 131 and the speaker 133 in the editing operation sections 27A and 27B. The editing processing unit 306 receives operation input from the user using the touch pens 132A and 132B on the tablet built-in monitor 131.

また、編集処理部306は、タブレット内蔵モニタ131に表示させた選択画面に対する選択操作に応じて、編集対象画像としての撮影画像に所定の画像処理を施し、タブレット内蔵モニタ131に表示させる。あるいは、編集処理部306は、タブレット内蔵モニタ131に表示させた編集画面に対する入力操作に応じて、合成用画像に所定の画像処理を施し、あるいは、入力操作に応じて新たな合成用画像を生成して、撮影画像に合成し、タブレット内蔵モニタ131に表示させる。 Further, the editing processing unit 306 performs predetermined image processing on the photographed image as the image to be edited in response to a selection operation on the selection screen displayed on the tablet built-in monitor 131, and causes the tablet built-in monitor 131 to display the processed image. Alternatively, the editing processing unit 306 performs predetermined image processing on the compositing image in response to an input operation on the editing screen displayed on the tablet built-in monitor 131, or generates a new compositing image in response to the input operation. Then, it is combined with the photographed image and displayed on the tablet built-in monitor 131.

また、編集処理部306は、編集の進め方などを説明するガイダンスの出力を制御する。例えば、編集処理部306は、編集の進め方などを説明するガイダンスの画面をタブレット内蔵モニタ131に表示させたり、編集の進め方などを説明するガイダンスの音声をスピーカ133から出力させたりする。また、編集処理部306は通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。また、編集処理部306は、印刷操作部28のプリンタ140を制御することで、印刷処理を行ってもよい。 Further, the editing processing unit 306 controls the output of guidance explaining how to proceed with editing. For example, the editing processing unit 306 causes the tablet built-in monitor 131 to display a guidance screen explaining how to proceed with editing, etc., or causes the speaker 133 to output a guidance voice explaining how to proceed with editing, etc. Further, the editing processing unit 306 controls the communication unit 203 and performs processing related to communication via a network such as the Internet. Further, the editing processing unit 306 may perform printing processing by controlling the printer 140 of the printing operation unit 28.

印刷部240は、上述した印刷操作部28と、印刷処理部307とを備える。印刷処理部307は、編集処理部306から印刷データを受け取り、印刷操作部28のプリンタ140を制御することで、印刷処理を行う。なお、ここでは、画像データを出力する出力部の一例として印刷データである写真シールを出力する印刷部240を用いて説明したが、画像データの出力方法は、これに限定されない。例えば、ネットワーク等を用いて画像データ自体を外部の通信端末に送信する送信手段を出力部としてもよい。 The printing unit 240 includes the above-described print operation unit 28 and a print processing unit 307. The print processing unit 307 receives print data from the editing processing unit 306, and performs print processing by controlling the printer 140 of the print operation unit 28. Note that although the printing section 240 that outputs a photo sticker as print data has been described as an example of an output section that outputs image data, the method of outputting image data is not limited to this. For example, the output unit may be a transmission unit that transmits the image data itself to an external communication terminal using a network or the like.

このように、写真シール作成装置1は課金と引き換えに、利用者の気持ちが盛り上がるような仕掛け(撮影ポーズの選択、BGM、ナレーションなど)が種々施された写真シール作成ゲームを提供する。そのため、写真シール作成装置1での作成画像は、利用者の楽しい表情が引き出された画像や、趣向を凝らした、華やかな画像となる。 In this way, the photo sticker creation device 1 provides a photo sticker creation game with various features (selection of photographic poses, BGM, narration, etc.) to make the user feel excited in exchange for a fee. Therefore, the images created by the photo sticker creation device 1 are images that bring out the happy facial expressions of the user, or elaborate and gorgeous images.

また、写真シール作成装置1ではライティングなどの設備が充実しており、そして画像の変形処理(例えば被写体の目の大きさや脚の長さなど)および色の補正(被写体の肌の美白処理など)などを高度な技術で行えるため、写真シール作成装置1で作成した画像は、利用者の写りが良い画像となる。 In addition, the photo sticker creation device 1 is fully equipped with lighting and other equipment, and can perform image transformation processing (for example, the size of the subject's eyes and leg length) and color correction (for example, whitening the subject's skin). Since these steps can be performed using advanced technology, the image created by the photo sticker creation device 1 will be an image that looks good on the user.

また、写真シール作成装置1以外での画像処理(例えば写真加工のためのアプリケーションなどでの処理)に比べて容易に編集(画像への落書き)ができ、当該編集のバリエーションも豊かである。この点からも、写真シール作成装置1での作成画像は写真シール作成装置1以外で撮影および画像処理された画像に比べ、比較的華やかに仕上がるといえる。 Furthermore, editing (doodling on an image) can be performed more easily than image processing performed by a device other than the photo sticker creation device 1 (for example, processing using an application for photo processing), and the editing can be performed in a wide variety of variations. From this point of view as well, it can be said that images created by the photo sticker creation device 1 are relatively more gorgeous than images taken and image-processed by a device other than the photo sticker creation device 1.

(写真シール作成ゲームの流れ)
次に、利用者が写真シール作成装置1において写真シール作成ゲームを行う処理の流れについて、図11を用いて説明する。図11は、写真シール作成装置1におけるゲームの開始から当該ゲームで写真シールを作成するまでの処理の流れを示すフローチャートである。
(Flow of photo sticker creation game)
Next, the flow of processing in which the user plays the photo sticker creation game on the photo sticker creation device 1 will be described using FIG. 11. FIG. 11 is a flowchart showing the flow of processing in the photo sticker creation device 1 from the start of a game to the creation of a photo sticker in the game.

ゲーム開始前の状態においては、写真シール作成装置1の事前選択処理部301として機能する制御部201は、事前選択操作部20のタッチパネルモニタ71に、硬貨の投入を促すメッセージを表示させる。また、制御部201は、図11に示すように、硬貨処理部74からの起動信号の有無に基づいて、硬貨投入返却口73に硬貨が投入されたか否かを判定する(S1)。制御部201は、硬貨投入返却口73に硬貨が投入されていないと判定した場合には(S1:NO)、硬貨が投入されたか否かの判定処理を継続する。 Before the start of the game, the control unit 201 functioning as the pre-selection processing unit 301 of the photo sticker creation device 1 causes the touch panel monitor 71 of the pre-selection operation unit 20 to display a message prompting the user to insert coins. Further, as shown in FIG. 11, the control unit 201 determines whether a coin has been inserted into the coin insertion/return port 73 based on the presence or absence of an activation signal from the coin processing unit 74 (S1). When the control unit 201 determines that no coin has been inserted into the coin insertion/return port 73 (S1: NO), the control unit 201 continues the process of determining whether or not a coin has been inserted.

ゲームを開始しようとする利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入返却口73に硬貨を投入する。硬貨投入返却口73へ硬貨が投入されると、硬貨処理部74からゲームの開始を指示する起動信号が出力される。制御部201は、硬貨処理部74から起動信号を入力すると、硬貨投入返却口73に硬貨が投入されたと判定し(S1:YES)、利用者に対して事前接客処理を実行する(S2)。 A user who wants to start the game inserts coins into the coin insertion/return slot 73 in the pre-selection space A0, which is the space in front of the pre-selection operation section 20. When a coin is inserted into the coin insertion/return slot 73, the coin processing section 74 outputs an activation signal instructing the start of the game. When the control unit 201 receives the activation signal from the coin processing unit 74, it determines that a coin has been inserted into the coin insertion/return slot 73 (S1: YES), and performs a preliminary customer service process for the user (S2).

事前接客処理においては、制御部201は、タッチパネルモニタ71に、コースの選択、名前の入力、およびデザインの選択等を促すメッセージ等を表示させる。利用者が、タッチパネルモニタ71に表示されるメッセージ等に従って各種の選択または入力を行うと、制御部201は、撮影コース、名前、デザイン、および印刷レイアウト等の設定を行う。制御部201は、複数種類の合成用背景画像を選択可能にタッチパネルモニタ92に表示させ、合成用背景画像を利用者に選択させる。 In the preliminary customer service process, the control unit 201 causes the touch panel monitor 71 to display a message etc. prompting the user to select a course, input a name, select a design, etc. When the user makes various selections or inputs according to messages displayed on the touch panel monitor 71, the control unit 201 sets the shooting course, name, design, print layout, etc. The control unit 201 selectably displays a plurality of types of background images for synthesis on the touch panel monitor 92, and allows the user to select a background image for synthesis.

事前接客処理が終了すると、制御部201は、利用者に対して撮影空間A1に移動して撮影を行うことを促すメッセージ等をタッチパネルモニタ71に表示させる。撮影処理部302として機能する制御部201は、撮影操作部21のタッチパネルモニタ92に、画面にタッチするように促すメッセージを表示させる。なお、このメッセージと共に、あるいはこのメッセージに代えて、スタートボタンを表示させてもよい。また、制御部201は、BGMと共に、画面にタッチするように促すナレーションを、スピーカ93から出力させる。撮影空間A1に移動した利用者が、タッチパネルモニタ92にタッチすると、制御部201は、タッチパネルモニタ92がタッチされたことを読み取り、撮影処理を開始する(S3)。 When the preliminary customer service process is completed, the control unit 201 causes the touch panel monitor 71 to display a message or the like urging the user to move to the photographing space A1 and take a photograph. The control section 201 functioning as the photographing processing section 302 causes the touch panel monitor 92 of the photographing operation section 21 to display a message prompting the user to touch the screen. Note that a start button may be displayed together with or in place of this message. Further, the control unit 201 causes the speaker 93 to output a narration urging the user to touch the screen along with the BGM. When the user who has moved to the photographing space A1 touches the touch panel monitor 92, the control unit 201 reads that the touch panel monitor 92 has been touched and starts photographing processing (S3).

撮影処理においては、制御部201は、タッチパネルモニタ92に、例えばライティングに関するガイダンスを表示させ、利用者にライティングのレベルの選択を促す。利用者がライティングのレベルを選択すると、制御部201は、ライティングのレベルを、選択されたレベルに設定する。 In the photographing process, the control unit 201 causes the touch panel monitor 92 to display guidance regarding lighting, for example, and prompts the user to select a lighting level. When the user selects the writing level, the control unit 201 sets the writing level to the selected level.

また、制御部201は、撮影枚数を説明するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。本実施形態では、一例として、撮影枚数は7枚に設定されている。 Further, the control unit 201 causes the touch panel monitor 92 to display an instruction screen for explaining the number of images to be taken, and causes the speaker 93 to output a corresponding narration. In this embodiment, as an example, the number of shots is set to seven.

次に、制御部201は、利用者を立ち位置に誘導するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。 Next, the control unit 201 causes the touch panel monitor 92 to display an instruction screen for guiding the user to a standing position, and causes the speaker 93 to output a corresponding narration.

以上のようなインストラクション画面を表示させた後、制御部201は、利用者に選択させた撮影コースに応じて、合成用背景画像と、カメラ91で取得している動画像とを合成したライブビュー表示画像を、ライブビュー表示としてタッチパネルモニタ92に表示させる(S4)。これにより、利用者は、仕上がりイメージを確認しながらポーズを取ることができる。 After displaying the instruction screen as described above, the control unit 201 displays a live view that combines the background image for synthesis and the moving image captured by the camera 91 according to the shooting course selected by the user. The display image is displayed on the touch panel monitor 92 as a live view display (S4). This allows the user to take a pose while checking the finished image.

制御部201は、ライブビュー表示を、撮影のためのカウントダウンの終了直前まで行い、その間、制御部201は、ライブビュー表示と共に、あるいはライブビュー表示に代えて、サンプルポーズをタッチパネルモニタ92に表示させる。制御部201は、サンプルポーズに合わせたナレーションをスピーカ93から出力させる。 The control unit 201 displays the live view until just before the end of the countdown for shooting, and during that time, the control unit 201 causes the touch panel monitor 92 to display a sample pose along with or in place of the live view display. . The control unit 201 causes the speaker 93 to output a narration that matches the sample pose.

制御部201は、ライブビュー表示の開始から終了までの時間を管理しており、予め設定した所定の時間が経過すると、タッチパネルモニタ92の表示とスピーカ93の音声とでカウントダウンを行う。 The control unit 201 manages the time from the start to the end of the live view display, and when a predetermined time set in advance has elapsed, a countdown is performed using the display on the touch panel monitor 92 and the sound from the speaker 93.

制御部201は、カウントダウンの終了タイミングで、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85に照明制御信号を送信すると共にカメラ91にシャッタ信号を送信する。 The control unit 201 transmits illumination control signals to the upper strobe 82, left strobe 83, right strobe 84, and foot strobe 85 and also sends a shutter signal to the camera 91 at the end timing of the countdown.

これにより、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85から閃光を照射し、照明された利用者が背景とともに写っている撮影画像をカメラ91により取得する。本実施形態では、一例として、ステップS3からステップS4までの処理を複数回繰り返して7枚の撮影画像を取得する。また、制御部201は、撮影画像に合成用背景画像を合成させた編集対象画像を記憶部202に記憶させる。 As a result, flash light is emitted from the upper strobe 82, left strobe 83, right strobe 84, and foot strobe 85, and the camera 91 captures a photographed image in which the user is illuminated with the background. In this embodiment, as an example, the processes from step S3 to step S4 are repeated multiple times to obtain seven captured images. Further, the control unit 201 causes the storage unit 202 to store an editing target image obtained by combining the photographed image and the background image for synthesis.

なお、ここでは、予め設定した時間毎に撮影画像が取得される例で説明したが、撮影画像の取得タイミングはこれに限定されない。例えば、撮影のための操作ボタンを撮影操作部21が有する場合、この操作ボタンを操作したタイミングで撮影画像を取得するようにしてもよい。 Note that although an example has been described here in which photographed images are acquired at preset intervals, the timing of acquiring photographed images is not limited to this. For example, if the photographing operation section 21 has an operation button for photographing, a photographed image may be acquired at the timing when this operation button is operated.

撮影終了後、制御部201は、利用者に対して、編集空間A2-1、または編集空間A2-2のいずれか一方への移動を促す案内画面をタッチパネルモニタ92に表示するとともに、音声による移動案内をスピーカ93に出力する。 After the shooting is completed, the control unit 201 displays a guidance screen on the touch panel monitor 92 that prompts the user to move to either editing space A2-1 or editing space A2-2, and also prompts the user to move by voice. The guidance is output to the speaker 93.

そして、制御部201は、利用者による編集対象画像の編集を許容する編集処理を実行する(S5)。詳述すると、制御部201は、編集対象画像を、タブレット内蔵モニタ131に表示し、この編集対象画像に対して利用者がタッチペン132A,132Bでスタンプ画像やペン画像などを描くことを許容し、編集画像を作成する。 Then, the control unit 201 executes an editing process that allows the user to edit the image to be edited (S5). Specifically, the control unit 201 displays the image to be edited on the tablet built-in monitor 131, allows the user to draw a stamp image, a pen image, etc. on the image to be edited with the touch pens 132A, 132B, Create an edited image.

その後、制御部201は、利用者に対してシール紙排出口161が設けられた印刷待ち空間A3への移動を促す案内画面をタブレット内蔵モニタ131に表示するとともに、音声による移動案内をスピーカ133に出力する。 Thereafter, the control unit 201 displays a guidance screen on the tablet built-in monitor 131 that prompts the user to move to the print waiting space A3 where the sticker paper outlet 161 is provided, and also provides audio movement guidance on the speaker 133. Output.

さらに、制御部201は、事前選択操作部20において選択された印刷レイアウトに編集画像を配置して印刷用画像を作成し、この印刷用画像をシール紙142に印刷する印刷処理を実行する(S6)。 Further, the control unit 201 creates a print image by arranging the edited image in the print layout selected by the pre-selection operation unit 20, and executes a print process of printing this print image on the sticker paper 142 (S6 ).

印刷処理が終了すると、制御部201は、シール紙142の排出処理を実行し(S7)、印刷完了したシール紙142をシール紙排出口161から排出し、利用者に写真シールとして提供してゲームを終了する。このようにして、写真シール作成装置1により作成した利用者の撮影画像を、写真シールとして出力することができる。なお、詳細な説明は省略するが、本実施形態の写真シール作成装置1は、通信により、撮影画像を携帯端末等に出力することも可能である。 When the printing process is completed, the control unit 201 executes the ejection process of the sticker paper 142 (S7), ejects the printed sticker paper 142 from the sticker paper ejection port 161, and provides the user with a photo sticker to play the game. end. In this way, the photographed image of the user created by the photo sticker creation device 1 can be output as a photo sticker. Although detailed description will be omitted, the photo sticker creation device 1 of this embodiment is also capable of outputting photographed images to a mobile terminal or the like through communication.

(合成処理及び編集処理の詳細)
次に、図11のフローチャートのステップS4の合成処理及びステップS5の編集処理の詳細について、図12のフローチャート、および図13の編集画面の一例を参照して説明する。図12は、合成処理及び編集処理の流れを示すフローチャートである。
(Details of composition processing and editing processing)
Next, details of the synthesis process in step S4 and the editing process in step S5 of the flowchart in FIG. 11 will be described with reference to the flowchart in FIG. 12 and an example of the editing screen in FIG. 13. FIG. 12 is a flowchart showing the flow of composition processing and editing processing.

図12に示すように、ステップS4の合成処理では、判別部303は、まず、撮影画像に含まれる利用者の属性を判別する(S41)。撮影画像に複数の利用者を含む場合、判別部303は、利用者毎に属性を判別する。ここで、判別部303は、予め定められる属性判別方法にしたがって、利用者の属性を判別する。具体的には後述するが、ここで判別された属性は、写真シール作成ゲームにおける画像処理やフローを利用者に応じて決定するために利用される。属性の一例としては、利用者の性別や眼鏡の着用の有無があげられる。利用者が女性である場合と男性である場合には、写真シール作成装置1に求められる完成画像が異なるためである。また、利用者が眼鏡を着用する場合、画像処理に影響する可能性があるためである。 As shown in FIG. 12, in the combining process of step S4, the determining unit 303 first determines the attributes of the user included in the photographed image (S41). When a plurality of users are included in the captured image, the determining unit 303 determines attributes for each user. Here, the determining unit 303 determines the user's attributes according to a predetermined attribute determining method. Although specifically described later, the attributes determined here are used to determine image processing and flow in the photo sticker creation game depending on the user. Examples of attributes include the user's gender and whether or not the user wears glasses. This is because the completed image required of the photo sticker creation device 1 is different depending on whether the user is a woman or a man. Furthermore, if the user wears glasses, this may affect image processing.

利用者の属性が判別されると、判別部303は、利用者に対してパラメータを設定する(S42)。仮に、画像が複数の利用者を含む場合、各利用者に対してパラメータを設定する。ここで設定するパラメータは、画像データを処理する際の変化量を決定する値である。例えば、利用者が女性である場合、男性である場合と比較して、利用者の顔や目のサイズの変化量が大きくなるような値をパラメータとする。 When the attributes of the user are determined, the determining unit 303 sets parameters for the user (S42). If the image includes multiple users, parameters are set for each user. The parameters set here are values that determine the amount of change when processing image data. For example, if the user is a woman, the parameter is set to a value such that the amount of change in the size of the user's face or eyes is larger than if the user is a man.

また、判別部303は、利用者に対してゲームフローを設定する(S43)。具体的には、利用者の男女の構成比率に応じて、ゲームフローを設定する。利用者の男女の構成比率に応じて、写真シール作成ゲームに求められるフローが異なるためである。 Further, the determining unit 303 sets a game flow for the user (S43). Specifically, the game flow is set according to the composition ratio of male and female users. This is because the flow required for the photo sticker creation game differs depending on the composition ratio of male and female users.

画像処理部304は、ステップS42で設定されたパラメータを用いて、画像データを処理する(S44)。具体的には、画像処理部304は、パラメータにしたがって、各ユーザの顔や目のサイズや形状、肌の色、メイク等を変更させた画像を生成する。 The image processing unit 304 processes the image data using the parameters set in step S42 (S44). Specifically, the image processing unit 304 generates an image in which the size and shape of each user's face and eyes, skin color, makeup, etc. are changed according to the parameters.

合成部305は、ステップS42で処理された画像を用いて画像を合成する(S45)。ここで合成された画像は、ライブビュー表示により利用者に確認されながら画像の取得がされる。 The composition unit 305 composes an image using the images processed in step S42 (S45). The combined image here is acquired while being confirmed by the user through live view display.

図11のフローチャートのステップS5の編集処理では、編集処理部306は、ステップS43で設定されたゲームフローに応じて選択されたコンテンツを編集画面400に表示する(S51)。ここで、「コンテンツ」は、写真シール作成ゲームにおいて、画像の編集で利用されるフレームデザイン、色、文字、模様、イラスト等種々の画像を装飾する要素である。また、これら、複数の組み合わせを「コンテンツ」としてもよい。なお、これらのコンテンツは、コンテンツデータとして、ROM206等の記憶装置に記憶される。また、コンテンツの一例については、後に詳述する。 In the editing process in step S5 of the flowchart in FIG. 11, the editing processing unit 306 displays the content selected in accordance with the game flow set in step S43 on the editing screen 400 (S51). Here, "content" refers to various image decoration elements such as frame designs, colors, characters, patterns, and illustrations used in image editing in the photo sticker creation game. Further, a combination of a plurality of these may be referred to as "content". Note that these contents are stored in a storage device such as the ROM 206 as content data. Further, an example of the content will be described in detail later.

図13は、タブレット内蔵モニタ131に表示される編集画面400の一例である。図13に示すように、編集画面400は、第1編集部401と第2編集部402とを備える。 FIG. 13 is an example of an editing screen 400 displayed on the tablet built-in monitor 131. As shown in FIG. 13, the editing screen 400 includes a first editing section 401 and a second editing section 402.

第1編集部401は、第1サムネイル部403、第1編集対象画像表示部405、第1操作ボタン表示部407及び第1パレット409を備える。同様に、第2編集部402は、第2サムネイル部404、第2編集対象画像表示部406、第2操作ボタン表示部408及び第2パレット410を備える。 The first editing section 401 includes a first thumbnail section 403, a first editing target image display section 405, a first operation button display section 407, and a first palette 409. Similarly, the second editing section 402 includes a second thumbnail section 404, a second editing target image display section 406, a second operation button display section 408, and a second palette 410.

第1サムネイル部403及び第2サムネイル部404には、撮影された複数の編集対象画像Im1~Im5のサムネイルが表示される。第1サムネイル部403及び第2サムネイル部404に表示されるサムネイルは、タッチペン132A又は132Bで選択することができる。図13に示す例では、それぞれ、編集対象画像Im1、Im3が選択される。なお、図示は省略するが、選択された編集対象画像のサムネイルには、「選択中」の文字が表示されてもよい。また、図11のフローチャートのステップS3で7枚の画像を撮影した場合、サムネイル部403,404にもそれぞれ7枚の編集対象画像が表示されるが、図13では、便宜的に5枚の編集対象画像が表示される例で説明する。 In the first thumbnail section 403 and the second thumbnail section 404, thumbnails of the plurality of shot images to be edited Im1 to Im5 are displayed. The thumbnails displayed in the first thumbnail section 403 and the second thumbnail section 404 can be selected using the touch pen 132A or 132B. In the example shown in FIG. 13, the images to be edited Im1 and Im3 are respectively selected. Although not shown, the words "selected" may be displayed on the thumbnail of the selected image to be edited. Furthermore, when seven images are shot in step S3 of the flowchart in FIG. 11, seven images to be edited are also displayed in the thumbnail sections 403 and 404, but in FIG. 13, five images are edited for convenience. An example will be explained in which a target image is displayed.

第1編集対象画像表示部405には、第1サムネイル部403で選択された編集対象画像が表示される。また、第2編集対象画像表示部406には、第2サムネイル部404で選択された編集対象画像が表示される。サムネイル部403又は404に表示される編集対象画像において選択される編集対象画像が変更されると、編集対象画像表示部405又は406に表示される編集対象画像も変更される。 The first editing target image display section 405 displays the editing target image selected in the first thumbnail section 403. Further, the second editing target image display section 406 displays the editing target image selected in the second thumbnail section 404. When the editing target image selected from among the editing target images displayed in the thumbnail section 403 or 404 is changed, the editing target image displayed in the editing target image display section 405 or 406 is also changed.

第1パレット409は、第1編集対象画像表示部405に表示される編集対象画像にコンテンツである文字、模様、色等で装飾する場合にコンテンツの種類等を選択するために利用される。また、第2パレット410は、第2編集対象画像表示部406に表示される編集対象画像にコンテンツで装飾する場合にコンテンツの種類等を選択するために利用される。後に詳述するが、図13に示す例では、各パレット409及び410は、「なりきり」、「顔落書き」、「アイテム」及び「メイク」のタブを含む。 The first palette 409 is used to select the type of content, etc. when decorating the editing target image displayed on the first editing target image display section 405 with content such as characters, patterns, colors, etc. Further, the second palette 410 is used to select the type of content, etc. when decorating the editing target image displayed in the second editing target image display section 406 with content. As will be described in detail later, in the example shown in FIG. 13, each palette 409 and 410 includes tabs for "Pretend", "Face Doodle", "Item", and "Makeup".

図12のフローチャートに示すように、編集処理部306は、ステップS51で表示したコンテンツに対して、利用者による編集の操作を受け付ける(S52)。例えば、タッチペン132A又は132Bでパレット409又は410が操作されて、編集操作を受け付ける。 As shown in the flowchart of FIG. 12, the editing processing unit 306 receives an editing operation from the user for the content displayed in step S51 (S52). For example, the palette 409 or 410 is operated with the touch pen 132A or 132B to receive an editing operation.

編集処理部306は、ステップS52で受け付けた操作に応じて、画像を編集する(S53)。例えば、編集処理部306は、利用者の顔に落書きがされたような画像を生成したり、背景や利用者にイラストを付加したような画像を生成する。 The editing processing unit 306 edits the image according to the operation received in step S52 (S53). For example, the editing processing unit 306 generates an image that looks like a user's face has been doodled, or an image that looks like an illustration has been added to the background and the user.

編集処理部306は、ステップS52で編集された画像を表示する(S54)。 The editing processing unit 306 displays the image edited in step S52 (S54).

また、編集処理部306は、画像が確定されると、編集処理を終了し、上述したステップS6の印刷処理に進む(S55)。 Furthermore, when the image is finalized, the editing processing unit 306 ends the editing process and proceeds to the printing process of step S6 described above (S55).

なお、図12に示す処理については、必ずこの順序で実行する必要はなく、可能な範囲で順序を入れ替えても同様である。また、同時に実行可能な複数の処理は、同時に実行してもよい。 Note that the processing shown in FIG. 12 does not necessarily have to be executed in this order, and the same effect can be obtained by changing the order to the extent possible. Further, a plurality of processes that can be executed simultaneously may be executed simultaneously.

〈パラメータ〉
まず、図12のフローチャートのステップS42で設定するパラメータについて説明する。上述したように、パラメータは、利用者の男女の別によって異なる値が設定される。この際、画像の処理の対象の部位によって異なる値のパラメータを設定することができる。例えば、顔のサイズ、顔の形、目のサイズ、目の形、目の色、肌の色、肌のなめらかさ等、処理の対象毎に異なる値を設定してもよい。また、パラメータは、利用者の眼鏡の装着の有無によっても異なる。
<Parameter>
First, the parameters set in step S42 of the flowchart in FIG. 12 will be explained. As described above, different values are set for the parameters depending on whether the user is male or female. At this time, parameters can be set to different values depending on the part of the image to be processed. For example, different values may be set for each object of processing, such as face size, face shape, eye size, eye shape, eye color, skin color, skin smoothness, etc. The parameters also differ depending on whether the user wears glasses.

《性別》
具体的には、女性と男性とでは、自身の外見で、気にする部分が異なる。女性の利用者は、写真シールに印刷される画像において、例えば、色白であったり、小顔であったり、目が大きく写ることを好む。これに対し、男性の利用者は、気にする部分や程度が女性と異なることが一般的である。そのため、男性の利用者を女性と同様の変化量で色白にしたり、小顔にしたり、目を大きくした場合、利用者の満足度は低くなると考えられる。したがって、写真シール作成装置1では、利用者が男性と女性である場合に、利用者を処理する度合いを異なるものとする。
"sex"
Specifically, women and men are concerned about different aspects of their appearance. Female users prefer, for example, fair skin, small faces, and large eyes in images printed on photo stickers. On the other hand, male users generally have different areas and degrees of concern than women. Therefore, if a male user's face is made fairer, his face is made smaller, or his eyes are made larger by the same amount of change as a female user's, it is thought that the user's satisfaction level will be lower. Therefore, in the photo sticker creation device 1, the degree of processing of the user is different depending on whether the user is male or female.

例えば、利用者が女性である場合、顔のサイズは0.8倍となり、目のサイズは1.3倍となるようなパラメータを設定する。一方、利用者が男性である場合、顔のサイズは、0.9倍となり、目のサイズは、1.1倍となるようなパラメータを設定する。なお、ここで、パラメータとしては必ず変化させる値を設定する必要はなく、その変化量には、0も含む。すなわち、男性の利用者に設定するパラメータは、目や顔のサイズを変化させないようなパラメータであってもよい。 For example, if the user is a woman, parameters are set such that the face size is 0.8 times larger and the eye size is 1.3 times larger. On the other hand, if the user is male, parameters are set such that the face size is 0.9 times larger and the eye size is 1.1 times larger. Note that here, it is not necessary to always set a value to be changed as a parameter, and the amount of change includes 0. That is, the parameters set for a male user may be parameters that do not change the size of the eyes or face.

図14は、撮影画像に含まれる利用者が女性である場合の一例である。図14(a)の撮影画像が取得された場合、判別部303は、第1の利用者U11について、「女性」の属性を判別する。また判別部303は、第2の利用者U12についても、「女性」の属性を判別する。これにより、判別部303は、各利用者U11及びU12に、女性の場合のパラメータを設定する。なお、図14では、眼鏡の着用については考慮しない例で説明する。 FIG. 14 is an example in which the user included in the photographed image is a woman. When the captured image of FIG. 14A is acquired, the determination unit 303 determines the attribute of "female" for the first user U11. The determining unit 303 also determines the attribute of "female" for the second user U12. Thereby, the determining unit 303 sets parameters for each user U11 and U12 in the case of a woman. Note that in FIG. 14, an example will be described in which wearing of glasses is not considered.

その後、画像処理部304によって、女性の場合のパラメータを利用して画像処理がされる。例えば、図14(b)は、女性用のパラメータにしたがって、女性の利用者U11,U12の顔を小顔にし、目を大きく画像処理した一例である。 Thereafter, the image processing unit 304 performs image processing using the parameters for a woman. For example, FIG. 14B is an example of image processing in which the faces of female users U11 and U12 are made smaller and their eyes are enlarged according to parameters for women.

図15は、撮影画像に含まれる利用者が女性及び男性である場合の一例である。図15(a)の撮影画像が取得された場合、判別部303は、第1の利用者U21について、「女性」の属性を判別する。また判別部303は、第2の利用者U22について、「男性」の属性を判別する。これにより、判別部303は、第1の利用者U21に、女性の場合のパラメータを設定し、第2の利用者U22に、男性の場合のパラメータを設定する。なお、図15でも、眼鏡の着用については考慮しない例で説明する。 FIG. 15 is an example in which the users included in the photographed image are female and male. When the captured image in FIG. 15A is acquired, the determination unit 303 determines the attribute of "female" for the first user U21. The determining unit 303 also determines the attribute of "male" for the second user U22. Thereby, the determining unit 303 sets parameters for the first user U21 for a woman, and sets parameters for the second user U22 for a man. Note that FIG. 15 will also be described using an example in which wearing of glasses is not considered.

その後、画像処理部304によって、女性の場合のパラメータ及び男性の場合のパラメータを利用して画像処理がされる。例えば、図15(b)は、女性用のパラメータにしたがって、女性である利用者U21の顔を小顔にし、目を大きく画像処理し、また、男性用のパラメータにしたがって、男性である利用者U22の顔は小顔にせず、目を女性と比較して小さな変化量で大きく画像処理した一例である。このように、画像処理部304は、利用者の男女の属性に応じて、好適な変化量で画像処理を実行する。 Thereafter, the image processing unit 304 performs image processing using the parameters for women and the parameters for men. For example, in FIG. 15(b), image processing is performed to make the face of the female user U21 smaller and make her eyes larger according to the parameters for women, and image processing is performed to make the face of the female user U21 larger according to the parameters for men. This is an example in which the face of U22 is not made smaller, but the eyes are greatly image-processed with a smaller amount of change than that of a woman. In this way, the image processing unit 304 executes image processing with a suitable amount of change depending on the user's male and female attributes.

図示を用いた説明は省略するが、画像処理部304は、女性の場合には、パラメータに応じて、色白に画像処理したり、メイクを目立ちやすくするように画像処理することができる。また、画像処理部304は、女性の場合には、パラメータに応じて、肌色を日焼けしたような健康的な色に画像処理することができる。 Although a description using illustrations will be omitted, in the case of a woman, the image processing unit 304 can perform image processing to make the woman fair-skinned or to make makeup more noticeable, depending on parameters. Furthermore, in the case of a woman, the image processing unit 304 can perform image processing to change the skin color to a healthy color that looks like a sunburn, depending on the parameters.

《眼鏡の着用の有無》
また、撮影画像に対して、利用者の目が大きくなるように処理する場合、誤って利用者が着用する眼鏡のフレームを目の輪郭と判別した場合、眼鏡のフレームが拡大された画像となるため、利用者の求めない完成画像となる。したがって、写真シール作成装置1では、利用者が眼鏡を着用している場合、眼鏡のフレームを基準に編集しないように設定する。なお、判別部303は、眼鏡の有無をパラメータの値として設定してもよいし、眼鏡の有無に対応するON/OFFのフラグ等で設定してもよい。
《Whether or not to wear glasses》
Additionally, when processing a photographed image to make the user's eyes larger, if the frame of the glasses worn by the user is mistakenly determined to be the outline of the eye, the image will have the frames of the glasses enlarged. This results in a completed image that the user does not want. Therefore, in the photo sticker creation device 1, if the user wears glasses, the photo sticker creation device 1 is set not to edit based on the frames of the glasses. Note that the determination unit 303 may set the presence or absence of glasses as a parameter value, or may set it as an ON/OFF flag corresponding to the presence or absence of glasses.

図16は、撮影画像に含まれる利用者が眼鏡を着用しない女性と眼鏡を着用した女性の場合の一例である。 FIG. 16 is an example in which the users included in the captured image are a woman who does not wear glasses and a woman who wears glasses.

図16(a)の撮影画像が取得された場合、仮に、眼鏡の着用の有無を考慮せずに、画像処理を実行した場合、眼鏡を着用する利用者U32の眼鏡フレームを目と判別される恐れがある。このように判別された場合、図16(b)に一例を示すように、眼鏡フレームも画像処理によって大きくなることがある。 When the photographed image of FIG. 16(a) is acquired, if image processing is performed without considering whether or not the user U32 is wearing glasses, the glasses frame of the user U32 who wears glasses will be identified as an eye. There is a fear. When it is determined in this way, the size of the eyeglass frame may also be increased by image processing, as shown in an example in FIG. 16(b).

したがって、判別部303は、利用者の属性として、眼鏡の有無を判別する。具体的には、図16(a)の撮影画像に対して、判別部303は、第1の利用者U31について、「女性」及び「眼鏡着用無し」の属性を判別する。また、判別部303は、第2の利用者U32について、「女性」及び「眼鏡着用有り」の属性を判別する。これにより、判別部303は、第1の利用者U31に、女性及び眼鏡無しの場合のパラメータを設定し、第2の利用者U32に、女性及び眼鏡有りの場合のパラメータを設定する。 Therefore, the determining unit 303 determines the presence or absence of glasses as an attribute of the user. Specifically, with respect to the captured image of FIG. 16(a), the determining unit 303 determines the attributes of "female" and "not wearing glasses" for the first user U31. Further, the determining unit 303 determines the attributes of "female" and "wears glasses" for the second user U32. As a result, the determining unit 303 sets parameters for the first user U31 when the user is female and without glasses, and sets parameters for the second user U32 when the user is female and wears glasses.

その後、画像処理部304によって、女性及び眼鏡無しの場合のパラメータ及び女性及び眼鏡有りの場合のパラメータを利用して画像処理がされる。例えば、図16(c)は、女性用のパラメータにしたがって、女性である利用者U31の顔を小顔にし、目を大きく画像処理し、また、女性用及び眼鏡有りのパラメータにしたがって、眼鏡を着用する利用者U32の顔は小顔にし、眼鏡のフレーム内の目を大きく画像処理した一例である。このように、画像処理部304は、利用者の男女及び眼鏡の着用の有無の属性に応じて、好適な変化量で画像処理を実行する。なお、画像処理部304は、このとき、目の領域が眼鏡のフレームよりも大きくならないように調整する。 Thereafter, the image processing unit 304 performs image processing using the parameters for a woman without glasses and the parameters for a woman with glasses. For example, in FIG. 16(c), image processing is performed to make the face of a female user U31 smaller and her eyes larger according to parameters for women, and glasses are added according to parameters for women and with glasses. This is an example in which image processing is performed to make the face of the user U32 who wears the glasses smaller and enlarge the eyes within the frames of the glasses. In this manner, the image processing unit 304 executes image processing with a suitable amount of change depending on the user's gender and whether or not the user wears glasses. Note that at this time, the image processing unit 304 adjusts so that the eye area does not become larger than the frame of the glasses.

パラメータによって目を大きくしたり、目の輪郭をはっきりさせることもできるが、眼鏡と目を区別できない場合、眼鏡のフレームが大きく処理されたり、眼鏡のフレームが大きく処理される。したがって、利用者の属性として眼鏡の着用の有無を判別することにより、眼鏡を着用する利用者の場合にも、画像を適切に処理することが可能となる。 It is possible to make the eyes larger or make the outline of the eyes clearer depending on the parameters, but if it is not possible to distinguish the glasses from the eyes, the frames of the glasses are processed to be larger or the frames of the glasses are processed to be larger. Therefore, by determining whether or not the user wears glasses as an attribute of the user, it is possible to appropriately process images even in the case of a user who wears glasses.

〈ゲームフロー〉
続いて、図12のフローチャートのステップS43で設定するゲームフローについて説明する。上述したように、女性と男性とでは、好む色やデザインも異なり、その利用者の男女の割合によっても写真シールで利用される色やデザインも異なる等、利用者の属性によって求める写真シール作成ゲームの内容も異なる。したがって、写真シール作成装置1では、利用者の男女の比率等に応じて、ゲームフローを設定し、写真シール作成の際に利用可能な色やデザイン等のコンテンツを設定可能とする。
<Game flow>
Next, the game flow set in step S43 of the flowchart of FIG. 12 will be explained. As mentioned above, women and men prefer different colors and designs, and the colors and designs used in photo stickers also differ depending on the ratio of men and women among the users. The contents are also different. Therefore, in the photo sticker creation device 1, the game flow can be set according to the male to female ratio of users, and contents such as colors and designs that can be used when creating photo stickers can be set.

例えば、ゲームフローとしては、「ゲームフロー1」を「女性のみの場合のゲームフロー」、「ゲームフロー2」を「男性のみの場合のゲームフロー」、「ゲームフロー3」を「カップル(男女それぞれ1人)の場合のゲームフロー」、「ゲームフロー4」を「男女のグループ(3人以上)の場合のゲームフロー」とする。このような利用者の構成によって、利用されるコンテンツ等が異なるため、グループの男女比率に応じて、好まれるゲームの流れとし、またゲームフローに応じて、利用者が利用可能なコンテンツが選択される。 For example, as a game flow, "game flow 1" is "game flow for only women", "game flow 2" is "game flow for men only", and "game flow 3" is "game flow for couples (both male and female)". Game flow for one player) and Game flow 4 are defined as Game flow for a group of men and women (three or more players). Since the contents used differ depending on the composition of the users, the preferred flow of the game is determined according to the gender ratio of the group, and the content available to the users is selected according to the game flow. Ru.

例えば、「ゲームフロー1」が設定された場合、女性に好まれる色やデザインを使用可能であり、メイクも可能なコンテンツを表示する。「ゲームフロー2」が設定された場合、男性に好まれる色やデザインを使用可能とし、メイクは不要でよい。「ゲームフロー3」が設定された場合、カップルに好まれる色やデザインを使用可能とし、メイクも可能なコンテンツを表示する。「ゲームフロー4」が設定された場合、グループの場合に好まれるデザインを使用可能とする。 For example, when "Game Flow 1" is set, content that allows the use of colors and designs preferred by women, and also allows for makeup is displayed. When "Game Flow 2" is set, colors and designs preferred by men can be used, and makeup is not required. When "Game Flow 3" is set, content that allows the use of colors and designs preferred by couples and allows for makeup is displayed. When "Game Flow 4" is set, a design preferred in the case of a group can be used.

〈コンテンツの一例〉
《なりきり》
各パレット409及び410で「なりきり」のタブが選択されると、利用者が「なりきり」のタブに表されるイラストに関連する動物、キャラクター等になりきる画像を生成することができる。図13では、「なりきり」のタブが選択されており、このタブは、複数の動物に関連する複数のイラストを含む。図13に示す例で、いずれかのイラストが選択されると、利用者が選択されたイラストに関連する動物になりきる画像を作成することができる。ここで、利用者は、1つの編集対象画像に対して、複数のイラストを選択してもよい。例えば、第1の利用者U01には「猫の耳」及び「猫の手」が選択されて「猫」になりきり、第2の利用者U02には「ウサギの耳」及び「ウサギの手」が選択されて「ウサギ」になりきった画像を作成することができる。なお、図16に示す「なりきり」のタブでは、動物に関連する複数のイラストを含み、動物になりきる一例であるが、なりきりの対象は動物やキャラクターに限らず、著名人、歴史上の人物を連想させる画像等であってもよい。
<Example of content>
《Narikiri》
When the "Pretend" tab is selected in each of the palettes 409 and 410, the user can create an image in which the user can impersonate an animal, character, etc. related to the illustration displayed on the "Pretend" tab. In FIG. 13, the "Pretend" tab is selected, and this tab includes multiple illustrations related to multiple animals. In the example shown in FIG. 13, when any illustration is selected, the user can create an image in which the user can impersonate an animal related to the selected illustration. Here, the user may select multiple illustrations for one image to be edited. For example, the first user U01 selects "cat ears" and "cat's paw" and becomes a "cat", and the second user U02 selects "rabbit ears" and "rabbit's paw". is selected to create an image that looks like a rabbit. The "Pretend to Become" tab shown in Figure 16 includes multiple illustrations related to animals, and is an example of how you can become an animal. However, the targets of pretense are not limited to animals or characters, but also celebrities and historical figures. It may also be an image that makes people think of.

ここで、「なりきり」のタブに含まれるイラストには、女性に好まれるが男性の使用頻度は低いもの、男性に好まれるが女性の使用頻度は低いもの、カップルに好まれるが他の利用者の利用頻度は低いもの等、様々な種類がある。したがって、編集処理部306は、ステップS43で設定されたゲームフローに応じて、表示対象とするイラストを変更する。例えば、「ゲームフロー1」が設定された場合、このタブでは、女性に好まれる動物やキャラクターのイラストを表示対象とする。また、「ゲームフロー2」が設定された場合、このタブでは、男性に好まれる動物やキャラクターのイラストを表示対象とする。同様に、「ゲームフロー3」が設定された場合、例えば、カップルに好まれる男女のペアとなる人物等のイラストを表示対象とし、「ゲームフロー4」が設定された場合、例えば、グループに好まれるにぎやかなイラストを表示対象とする。 Here, the illustrations included in the "Narikiri" tab include illustrations that are preferred by women but used less frequently by men, illustrations preferred by men but used less frequently by women, and illustrations preferred by couples but used by other users. There are various types, including those that are used less frequently. Therefore, the editing processing unit 306 changes the illustration to be displayed according to the game flow set in step S43. For example, when "Game Flow 1" is set, this tab displays illustrations of animals and characters that are popular with women. Furthermore, when "Game Flow 2" is set, this tab displays illustrations of animals and characters that are popular with men. Similarly, when "Game Flow 3" is set, for example, illustrations of people who form a pair of men and women that are liked by couples are to be displayed, and when "Game Flow 4" is set, for example, illustrations that are liked by groups are displayed. The display target is a lively illustration.

また、各ゲームフローで選択可能なイラストの数を同一にする必要はない。例えば、女性が男性よりも「なりきり」のコンテンツを使用する頻度が高い傾向にある場合、「ゲームフロー1」でなりきりタブに表示されるイラストの数は、「ゲームフロー2」でなりきりタブに表示されるイラストの数よりも多くしてもよい。また、男性の方が、女性よりも写真シール作成装置1の操作に慣れていない場合であっても、ゲームフロー2で表示されるイラストの数を少なくすることで男性の利用者にとっては選択肢が減少されるため、イラストが把握しやすくなり操作性を向上させることができる。 Further, it is not necessary to make the number of selectable illustrations the same in each game flow. For example, if women tend to use "dress-up" content more frequently than men, the number of illustrations displayed on the "dress-up" tab in "Game Flow 1" will be different from the number displayed on the "dress-up" tab in "Game Flow 2". The number may be greater than the number of illustrations. Furthermore, even if men are less accustomed to operating the photo sticker creation device 1 than women, reducing the number of illustrations displayed in Game Flow 2 will give male users more options. This makes it easier to understand the illustrations and improves operability.

《顔落書き》
各パレット409及び410で「顔落書き」のタブが選択されると、利用者の顔に落書きをした画像を作成することができる。図示を用いた説明を省略するが、例えば、「顔落書き」のタブでは、落書きをする色、ペンの太さや種別(ペン、クレヨン、筆等)を含む。また、利用者は、色やペンが選択し、タッチペン132A,132Bを利用して顔に落書きをすることができる。また、顔落書きには、顔に付することができるイラストを含んでもよい。例えば、「傷」のイラストであれば、顔に傷が落書きされたような面白みのある画像を生成することができる。また例えば、「てんとう虫」のイラストであれば、顔にてんとう虫が止まった落書きがされたような面白みのある画像を生成することができる。
《Face doodle》
When the "face doodle" tab is selected in each of the palettes 409 and 410, an image of the user's face with doodles can be created. Although a detailed explanation using illustrations will be omitted, for example, the "face doodle" tab includes the color of the doodle, the thickness and type of pen (pen, crayon, brush, etc.). Further, the user can select a color and a pen, and use the touch pens 132A and 132B to doodle on the face. Further, the face doodle may include an illustration that can be attached to the face. For example, in the case of an illustration of a "scar", it is possible to generate an interesting image that looks like a scar is scribbled on a face. For example, in the case of an illustration of a "ladybug," it is possible to generate an interesting image that looks like a graffiti of a ladybug perched on the face.

ここで、「顔落書き」のタブに含まれる色やイラストには、女性に好まれるが男性の使用頻度は低いもの、男性に好まれるが女性の使用頻度は低いもの、カップルに好まれるが他の利用者の利用頻度は低いもの等、様々な種類がある。したがって、編集処理部306は、ステップS43で設定されたゲームフローに応じて、表示対象とするイラストを変更する。例えば、「ゲームフロー1」が設定された場合、このタブでは、女性に好まれる色やイラストを多く選択として表示する。具体的にはピンクやパステルカーラーのバリエーションや、ハート、星等のイラストのバリエーションを多く含む。また、「ゲームフロー2」が設定された場合、このタブでは、男性に好まれる色やイラストを多く選択肢として表示する。同様に、「ゲームフロー3」が設定された場合、例えば、カップルに好まれる色やイラストを選択肢として表示し、「ゲームフロー4」が設定された場合、例えば、グループに好まれる色やイラストを選択肢として表示する。 Here, the colors and illustrations included in the "Face Doodle" tab include colors and illustrations that are preferred by women but used less frequently by men, colors and illustrations preferred by men but used less frequently by women, and colors and illustrations preferred by couples but used less frequently by men. There are various types, including those that are used infrequently by users. Therefore, the editing processing unit 306 changes the illustration to be displayed according to the game flow set in step S43. For example, when "Game Flow 1" is set, this tab displays many colors and illustrations that are preferred by women as selections. Specifically, it includes many variations of pink and pastel curlers, as well as variations of illustrations such as hearts and stars. Furthermore, when "Game Flow 2" is set, this tab displays many choices of colors and illustrations that are preferred by men. Similarly, when "Game Flow 3" is set, for example, colors and illustrations preferred by couples are displayed as options, and when "Game Flow 4" is set, for example, colors and illustrations preferred by groups are displayed as options. Display as an option.

また、各ゲームフローで選択可能な色やイラストの数を同一にする必要はない。例えば、女性が男性よりも「顔落書き」のコンテンツを使用する頻度が高い傾向にある場合、「ゲームフロー1」で顔落書きタブに表示されるイラストの数は、「ゲームフロー2」で顔落書きタブに表示されるイラストの数よりも多くしてもよい。また、男性の方が、女性よりも写真シール作成装置1の操作に慣れていない場合であっても、「ゲームフロー2」で表示される色やイラストの数を少なくすることで男性の利用者にとっては選択肢が減少されるため、色やイラストが把握しやすくなり操作性を向上させることができる。 Furthermore, it is not necessary to make the colors and number of illustrations selectable in each game flow the same. For example, if women tend to use "face doodle" content more frequently than men, the number of illustrations displayed on the face doodle tab in "game flow 1" will be lower than the number of illustrations displayed on the face doodle tab in "game flow 2". The number may be greater than the number of illustrations displayed on the tab. In addition, even if men are less accustomed to operating the photo sticker creation device 1 than women, by reducing the number of colors and illustrations displayed in "Game Flow 2", male users can Since the number of options is reduced, the colors and illustrations become easier to grasp, and operability can be improved.

《アイテム》
「アイテム」のタブが選択されると、画像にイラストを付した画像を作成することができる。図示を用いた説明を省略するが、例えば、「アイテム」のタブでは、画像を装飾する複数のイラストを含む。また、利用者は、複数のイラストから気に入ったイラストを選択し、選択されたイラストで画像を装飾し、個性のある画像を生成することができる。例えば、イラストとしては、利用者の周囲を飾るものであってもよいし、利用者の顔や体の上に付されるものであってもよい。例えば、「ティアラ」のイラストである場合、利用者の頭にティアラを飾ったような面白みのある画像を生成することができる。また例えば、星や葉のイラストであれば、夜空の下にいるような画像や自然の中にいるような面白みのある画像を生成することができる。
"item"
When the "Item" tab is selected, an image with an illustration added to the image can be created. Although a description using illustrations will be omitted, for example, the "Item" tab includes a plurality of illustrations that decorate the image. Additionally, users can select their favorite illustration from a plurality of illustrations, decorate the image with the selected illustration, and generate a unique image. For example, the illustration may be one that decorates the user's surroundings or may be placed on the user's face or body. For example, in the case of an illustration of a "tiara", it is possible to generate an interesting image that looks like a tiara is displayed on the user's head. For example, if the illustrations are of stars or leaves, it is possible to generate an interesting image that gives the impression of being under the night sky or being in nature.

ここで、「アイテム」のタブに含まれる色やイラストには、女性に好まれるが男性の使用頻度は低いもの、男性に好まれるが女性の使用頻度は低いもの、カップルに好まれるが他の利用者の利用頻度は低いもの等、様々な種類がある。したがって、編集処理部306は、ステップS43で設定されたゲームフローに応じて、表示対象とするイラストを変更する。例えば、「ゲームフロー1」が設定された場合、このタブでは、女性に好まれるイラストを多く選択として表示する。具体的には、女性が身に着けることの多いアクセサリ類や、ピンクやパステルカーラーのイラストのバリエーションを多く含む。また、「ゲームフロー2」が設定された場合、このタブでは、男性に好まれる色やイラストを多く選択肢として表示する。具体的には、男性が身に着けることの多いキャップや、青やモノトーンのイラストのバリエーションを多く含む。同様に、「ゲームフロー3」が設定された場合、例えば、ハートのイラスト、カップルに好まれる色違いの帽子、ティアラと王冠等の男女がペアとなるようなイラストのバリエーションを多く選択肢として表示する。また、「ゲームフロー4」が設定された場合、例えば、グループに好まれるイラストのバリエーションを多く含む。 Here, the colors and illustrations included in the "Items" tab include colors that are preferred by women but used less frequently by men, colors and illustrations that are preferred by men but used less frequently by women, and colors and illustrations that are preferred by couples but are used less frequently by men. There are various types, including those that are used infrequently by users. Therefore, the editing processing unit 306 changes the illustration to be displayed according to the game flow set in step S43. For example, when "Game Flow 1" is set, many illustrations that are popular with women are displayed as selections on this tab. Specifically, it includes many variations of accessories often worn by women and illustrations in pink and pastel colors. Furthermore, when "Game Flow 2" is set, this tab displays many choices of colors and illustrations that are preferred by men. Specifically, it includes caps that are often worn by men, as well as many variations of blue and monochrome illustrations. Similarly, if "Game Flow 3" is set, many variations of illustrations that depict male and female pairs, such as heart illustrations, hats of different colors preferred by couples, and tiaras and crowns, are displayed as options. . Furthermore, when "Game Flow 4" is set, for example, it includes many variations of illustrations that are preferred by the group.

図17に、第1パレット409において「ゲームフロー3」が設定された場合に表示される「アイテム」のタブの一例を示す。具体的には、図17は、利用者の組み合わせがカップルである場合に利用されるが、女性同士、男性同士、男女3人以上のグループ等の場合には通常は利用されないような文字やイラスト等のコンテンツが表示される例である。 FIG. 17 shows an example of the "Item" tab displayed when "Game Flow 3" is set in the first palette 409. Specifically, Figure 17 shows text and illustrations that are used when the users are a couple, but are not normally used when the users are two women, two men, or a group of three or more men and women. In this example, content such as

また、各ゲームフローで選択可能な色やイラストの数を同一にする必要はない。例えば、女性が男性よりも「アイテム」のコンテンツを使用する頻度が高い傾向にある場合、「ゲームフロー1」でアイテムタブに表示されるイラストの数は、「ゲームフロー2」でアイテムタブに表示されるイラストの数よりも多くしてもよい。また、男性の方が、女性よりも写真シール作成装置1の操作に慣れていない場合であっても、「ゲームフロー2」で表示される色やイラストの数を少なくすることで男性の利用者にとっては選択肢が減少されるため、色やイラストが把握しやすくなり操作性を向上させることができる。 Furthermore, it is not necessary to make the colors and number of illustrations selectable in each game flow the same. For example, if women tend to use "item" content more frequently than men, the number of illustrations displayed on the item tab in "game flow 1" will be the same as the number of illustrations displayed on the item tab in "game flow 2". The number may be greater than the number of illustrations. In addition, even if men are less accustomed to operating the photo sticker creation device 1 than women, by reducing the number of colors and illustrations displayed in "Game Flow 2", male users can Since the number of options is reduced, the colors and illustrations become easier to grasp, and operability can be improved.

《メイク》
「メイク」のタブが選択されると、顔にメイクを施したような画像を作成することができる。図示を用いた説明を省略するが、例えば、好みの色のリップ、チーク、アイシャドウを塗ったような画像にしたり、好みの長さのつけまつげをつけたような画像にしたりすることができる。
"make"
When the "Makeup" tab is selected, it is possible to create an image that looks like makeup has been applied to the face. Although explanations using illustrations are omitted, for example, it is possible to create an image that looks like the user has applied lip, cheek, and eye shadow in a favorite color, or an image that looks like the user is wearing false eyelashes of a favorite length.

ここで、「メイク」のタブは、女性の使用頻度は高いが、男性にはほとんど使用されない。したがって、編集処理部306は、ステップS43で設定されたゲームフローに応じて、メイクタブを表示するか否かや、メイクタブで表示する選択肢を決定する。例えば、「ゲームフロー1」が設定された場合、ゲームは女性のみで進行されるため、メイクに対するこだわりが強いと想定し、メイクとして使用可能な色のバリエーションを多く表示する。一方、「ゲームフロー2」が設定された場合、男性には使用されないと想定し、編集画面400には、このメイクタブ自体を表示しない。これにより、メイクタブの不要な男性に対してはメイクタブ自体を表示することがないため、利用者への操作性が向上する。 Here, the "Makeup" tab is frequently used by women, but rarely used by men. Therefore, the editing processing unit 306 determines whether or not to display the makeup tab and the options to display in the makeup tab, depending on the game flow set in step S43. For example, when "Game Flow 1" is set, since the game is played only by women, it is assumed that they are very particular about makeup, and many color variations that can be used as makeup are displayed. On the other hand, when "Game Flow 2" is set, this makeup tab itself is not displayed on the editing screen 400, assuming that it will not be used by men. As a result, the make-up tab itself is not displayed for men who do not need the make-up tab, improving operability for users.

また、各ゲームフローにおいて、メイクタブで選択可能なメイクに使用する色のバリエーションの数を同一にする必要はない。例えば、女性のみの場合には、完成する画像のメイクにこだわりが強く、メイクに関する操作に長い時間をかけるが、カップルやグループの場合には、女性のみの場合と比較してメイクにこだわりは強くなく、メイクに関する操作に長い時間をかけない傾向にある場合、「ゲームフロー1」でメイクタブに表示される色のバリエーションの数を、「ゲームフロー3」及び「ゲームフロー4」でメイクタブに表示される色のバリエーションの数よりも多くしてもよい。このように、メイクに関する操作時間の傾向に合わせて選択肢のバリエーションを決定することで、利用者への操作性が向上する。 Further, in each game flow, the number of color variations used for makeup selectable in the makeup tab does not need to be the same. For example, when it is only women, they are very particular about the makeup that they want to create in the final image, and they spend a lot of time doing makeup-related operations, but when they are a couple or a group, they are more particular about makeup than when it is only women. If you tend not to spend a lot of time on makeup-related operations, you can change the number of color variations displayed on the makeup tab in "Game Flow 1" to the number of color variations displayed on the makeup tab in "Game Flow 3" and "Game Flow 4". The number of color variations may be greater than the number of color variations available. In this way, by determining the variation of options according to the trend of makeup-related operation time, operability for the user is improved.

なお、上述した説明では、画像処理部304によって、自動でメイクが目立つような画像に変更された場合であっても、メイクタブによって、再度、利用者自身の希望のメイクがされたような画像に編集可能としてもよい。例えば、画像処理部304で「ピンク」のリップがつけられた場合であって、利用者が別の色に変更したいと考える場合、「ピンク」、「オレンジ」、「レッド」の選択肢が表示され、それらの色相から利用者が自由に好みの色相を選択することができる。また、色相だけでなく、明度や彩度を調整可能にしてもよい。すなわち、濃いピンクのリップを薄くつける、薄いオレンジを濃くつける等のように色相の他、明度や彩度を調整しながらつけることができる。 Note that in the above explanation, even if the image processing unit 304 automatically changes the image to one in which the makeup is more noticeable, the makeup tab allows the user to change the image to look like the user has applied the desired makeup. It may also be editable. For example, if the image processing unit 304 applies "pink" lipstick and the user wants to change it to a different color, the options "pink," "orange," and "red" are displayed. , users can freely select their favorite hue from these hues. Furthermore, not only the hue but also the brightness and saturation may be adjustable. That is, it is possible to apply the lipstick while adjusting the hue, brightness, and saturation, such as applying a thin layer of dark pink lipstick or applying a thicker layer of pale orange.

また、上述した説明では、画像処理部304で顔のサイズや目の形状やサイズ、肌色等を画像処理により変更可能な例で説明したが、これらは同時に、編集画面を利用して編集することを可能にしてもよい。この場合、画像処理部304で自動に処理された顔や目のサイズや形状、肌色等に不満であった場合でも、さらに編集することが可能となり、利用者の満足度を向上させることができる。 Furthermore, in the above explanation, the image processing unit 304 uses an example in which the size of the face, the shape and size of the eyes, the skin color, etc. can be changed by image processing, but these can also be edited using the editing screen at the same time. may be made possible. In this case, even if the user is dissatisfied with the size and shape of the face, eyes, skin color, etc. that have been automatically processed by the image processing unit 304, further editing can be performed, thereby improving user satisfaction. .

上述したように、本実施形態では、利用者の属性に応じて、画像処理のパラメータを設定して画像を処理する。また、利用者の属性に応じて、ゲームフローを変更する。これにより、利用者の属性に応じて適切に画像を処理し、また、操作性を向上させることができる。 As described above, in this embodiment, image processing parameters are set and images are processed according to the user's attributes. Also, the game flow is changed depending on the user's attributes. This makes it possible to process images appropriately according to user attributes and improve operability.

<変形例>
以上の実施形態は例示であり、この発明の範囲から離れることなく様々な変形が可能である。例えば、上述した各実施形態を適宜組み合わせてもよい。例えば、実施形態7においては、利用者の性別に応じて、9秒カウントするか7秒カウントするかを選択する態様について説明したが、実施形態7と実施形態1または実施形態2とを組み合わせてもよい。この場合には、利用者の性別が男性の場合には、撮影間隔を17秒で一定とし、女性の場合には、撮影枚数に応じて9秒カウントと7秒カウントとを選択するようにしてもよい。
<Modified example>
The above embodiments are illustrative, and various modifications can be made without departing from the scope of the invention. For example, the embodiments described above may be combined as appropriate. For example, in Embodiment 7, a mode has been described in which a mode is selected to count 9 seconds or 7 seconds depending on the gender of the user, but if Embodiment 7 and Embodiment 1 or 2 are combined Good too. In this case, if the user's gender is male, the shooting interval is fixed at 17 seconds, and if the user is female, a 9-second count or a 7-second count is selected depending on the number of shots. Good too.

また、手動で撮影間隔を切り替えるようにしてもよい。例えば、セルフシャッタボタンと、スライドバー等とを設け、セルフシャッタボタンについては、撮影間隔を切り替えるのではなく、撮影のタイミングを決定するように構成する。そして、スライドバー等を操作することにより、セルフシャッタボタンを操作した以降の撮影間隔を変更できるようにしてもよい。 Alternatively, the shooting interval may be changed manually. For example, a self-shutter button, a slide bar, etc. are provided, and the self-shutter button is configured to determine the timing of photographing rather than switching the photographing interval. Then, by operating a slide bar or the like, the shooting interval after operating the self-shutter button may be changed.

(ソフトウェアによる実現例)
写真シール作成装置1の機能ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
(Example of implementation using software)
The functional blocks of the photo sticker creation device 1 may be realized by a logic circuit (hardware) formed on an integrated circuit (IC chip) or the like, or may be realized by software using a CPU (Central Processing Unit). good.

後者の場合、写真シール作成装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、前記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、前記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the photo sticker making device 1 includes a CPU that executes instructions of a program that is software that implements each function, and a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by the computer (or CPU). ) or a storage device (these are referred to as a "recording medium"), a RAM (Random Access Memory) for expanding the program, and the like. Then, the object of the present invention is achieved by a computer (or CPU) reading the program from the recording medium and executing it. As the recording medium, a "non-temporary tangible medium" such as a tape, a disk, a card, a semiconductor memory, a programmable logic circuit, etc. can be used. Further, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) that can transmit the program. Note that the present invention can also be realized in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the embodiments described above, and various modifications can be made within the scope of the claims, and embodiments obtained by appropriately combining technical means disclosed in different embodiments. are also included within the technical scope of the present invention.

1 写真シール作成装置
301 事前選択処理部
302 撮影処理部
303 判別部
304 画像処理部
305 合成部
306 編集処理部
307 印刷処理部
1 Photo sticker creation device 301 Pre-selection processing unit 302 Photography processing unit 303 Discrimination unit 304 Image processing unit 305 Composition unit 306 Editing processing unit 307 Printing processing unit

Claims (7)

利用者を撮影し、画像データを生成する撮影部と、
前記撮影部で生成された画像データから、利用者の属性を判別する判別部と、
前記判別部の判別結果に応じた所定のパラメータにしたがって、利用者の顔領域に対して画像データを処理する画像処理部と、
前記画像処理部で処理された画像データを出力する出力部と、
を備え、
前記画像処理部が使用するパラメータは、利用者が女性の場合には、男性の場合よりも画像の変化量が大きくなる値であって、
前記判別部は、機械学習で得られた判別プログラムを用いて、利用者の属性として、男女を判別するとともに、利用者が眼鏡を着用するか否かを判別し、
前記画像処理部は、眼鏡の着用の有無に応じて設定されたパラメータにしたがって、前記画像データから前記利用者の眼鏡のフレーム内の目の領域を抽出し、当該目の領域に対して眼鏡の有無に応じて設定されたパラメータにしたがって、目のサイズ又は形状の少なくともいずれかを変更して画像データを処理する
写真シール作成装置。
a photography department that photographs users and generates image data;
a determining unit that determines attributes of the user from the image data generated by the photographing unit;
an image processing unit that processes image data for the user's face area according to predetermined parameters according to the discrimination result of the discrimination unit;
an output unit that outputs the image data processed by the image processing unit;
Equipped with
The parameter used by the image processing unit is a value that causes a larger amount of change in the image when the user is female than when the user is male, and
The discrimination unit uses a discrimination program obtained by machine learning to discriminate whether the user is male or female as an attribute of the user, and determines whether the user wears glasses,
The image processing unit extracts an eye area within the frame of the user's glasses from the image data according to a parameter set depending on whether or not the user wears glasses, and extracts an eye area in the frame of the user's glasses with respect to the eye area. A photo sticker creation device that processes image data by changing at least one of the size and shape of eyes according to parameters set according to the presence or absence of the eyes.
前記画像処理部は、
さらに、利用者の、顔、鼻又は口の少なくともいずれかのサイズ又は形状の少なくともいずれかを変更して画像データを処理する
請求項1に記載の写真シール作成装置。
The image processing unit includes:
The photo sticker creation device according to claim 1, further comprising processing the image data by changing the size or shape of at least one of the user's face, nose, and mouth.
前記画像処理部は、前記利用者の顔に口紅又は頬紅の少なくともいずれかを付加して画像データを処理する
請求項2に記載の写真シール作成装置。
The photo sticker creation device according to claim 2, wherein the image processing unit processes the image data by adding at least one of lipstick and blush to the user's face.
前記画像処理部は、前記利用者の顔の肌色を調整して画像データを処理する
請求項2又は3に記載の写真シール作成装置。
The photo sticker creation device according to claim 2 or 3, wherein the image processing unit processes the image data by adjusting the skin color of the user's face.
性別と関連付けて、複数のコンテンツを含むコンテンツデータを記憶する記憶部と、
前記判別部の判別結果に応じ、判別された性別と関連付けられるコンテンツデータを前記記憶部から選択して利用者に提示し、提示したコンテンツデータから利用者によって選択されたコンテンツを前記画像データに合成する編集処理部と、を備える
請求項1乃至4のいずれか1に記載の写真シール作成装置。
a storage unit that stores content data including a plurality of contents in association with gender;
According to the discrimination result of the discrimination section, content data associated with the discriminated gender is selected from the storage section and presented to the user, and the content selected by the user from the presented content data is synthesized with the image data. The photo sticker creation device according to any one of claims 1 to 4, further comprising: an editing processing section that performs an editing process.
写真シール作成装置において、利用者を撮影し、画像データを生成するステップと、
写真シール作成装置において、生成された前記画像データから、利用者の属性を判別するステップと、
写真シール作成装置において、前記利用者の属性の判別結果に応じた所定のパラメータにしたがって、利用者の顔領域に対して画像データを処理するステップと、
写真シール作成装置において、処理された画像データを出力するステップと、
を有し、
前記所定のパラメータは、利用者が女性の場合には、男性の場合よりも画像の変化量が大きくなる値であって、
前記判別するステップでは、機械学習で得られた判別プログラムを用いて、利用者の属性として、男女を判別するとともに、利用者が眼鏡を着用するか否かを判別し、
前記画像を処理するステップでは、眼鏡の着用着用の有無に応じて設定されたパラメータにしたがって、前記画像データから前記利用者の眼鏡のフレーム内の目の領域を抽出し、当該目の領域に対して眼鏡の有無に応じて設定されたパラメータにしたがって、目のサイズ又は形状の少なくともいずれかを変更して画像データを処理する
画像処理方法。
In the photo sticker creation device, a step of photographing a user and generating image data;
In the photo sticker creation device, determining attributes of the user from the generated image data;
In the photo sticker creation device, processing image data for a user's face area according to predetermined parameters according to the determination result of the user's attributes;
outputting processed image data in the photo sticker creation device;
has
The predetermined parameter is a value that causes a larger amount of change in the image when the user is female than when the user is male, and
In the determining step, a determination program obtained by machine learning is used to determine whether the user is male or female as an attribute of the user, and whether or not the user wears glasses;
In the step of processing the image, an eye area within the frame of the user's eyeglasses is extracted from the image data according to parameters set depending on whether or not the user is wearing eyeglasses, and the eye area is An image processing method that processes image data by changing at least one of the size and shape of the eyes according to parameters set according to the presence or absence of glasses.
写真シール作成装置に、
利用者を撮影し、画像データを生成する撮影部と、
前記撮影部で生成された画像データから、利用者の属性を判別する判別部と、
前記判別部の判別結果に応じた所定のパラメータにしたがって、利用者の顔領域に対して画像データを処理する画像処理部と、
前記画像処理部で処理された画像データを出力する出力部と、
を実現させ、
前記画像処理部が使用するパラメータは、利用者が女性の場合には、男性の場合よりも画像の変化量が大きくなる値であって、
前記判別部に、機械学習で得られた判別プログラムを用いて、利用者の属性として、男女を判別させるとともに、利用者が眼鏡を着用するか否かを判別させ、
前記画像処理部に、眼鏡の着用の有無に応じて設定されたパラメータにしたがって、前記画像データから前記利用者の眼鏡のフレーム内の目の領域を抽出し、当該目の領域に対して眼鏡の有無に応じて設定されたパラメータにしたがって、目のサイズ又は形状の少なくともいずれかを変更して画像データを処理させる
画像処理プログラム。
Photo sticker making device,
a photography department that photographs users and generates image data;
a determining unit that determines attributes of the user from the image data generated by the photographing unit;
an image processing unit that processes image data for the user's face area according to predetermined parameters according to the discrimination result of the discrimination unit;
an output unit that outputs the image data processed by the image processing unit;
Realize,
The parameter used by the image processing unit is a value that causes a larger amount of change in the image when the user is female than when the user is male, and
causing the discrimination unit to discriminate whether the user is male or female as an attribute of the user, and whether or not the user wears glasses, using a discrimination program obtained by machine learning;
The image processing unit extracts an eye area within the frame of the user's glasses from the image data according to parameters set depending on whether or not the user is wearing glasses, and An image processing program that processes image data by changing at least one of the size and shape of eyes according to parameters set according to the presence or absence of the eyes.
JP2019002840A 2019-01-10 2019-01-10 Image processing device, image processing method, and image processing program Active JP7401727B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019002840A JP7401727B2 (en) 2019-01-10 2019-01-10 Image processing device, image processing method, and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019002840A JP7401727B2 (en) 2019-01-10 2019-01-10 Image processing device, image processing method, and image processing program

Publications (2)

Publication Number Publication Date
JP2020113878A JP2020113878A (en) 2020-07-27
JP7401727B2 true JP7401727B2 (en) 2023-12-20

Family

ID=71668291

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019002840A Active JP7401727B2 (en) 2019-01-10 2019-01-10 Image processing device, image processing method, and image processing program

Country Status (1)

Country Link
JP (1) JP7401727B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7492150B2 (en) 2022-04-28 2024-05-29 フリュー株式会社 Information processing device, information processing method, and program

Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252494A (en) 2007-03-30 2008-10-16 Fujifilm Corp Photographing system for album creation, and device, method and program for photographing support, and system, method and program for album creation
JP2010220211A (en) 2010-03-12 2010-09-30 Furyu Kk Photograph seal creating apparatus, photograph seal creating method, and program
JP2015064768A (en) 2013-09-25 2015-04-09 キヤノンマーケティングジャパン株式会社 Imaging device, image modification device, and control method and program of imaging device and image modification device
JP2016092513A (en) 2014-10-31 2016-05-23 カシオ計算機株式会社 Image acquisition device, shake reduction method and program
JP2017037615A (en) 2015-08-13 2017-02-16 辰巳電子工業株式会社 Game imaging device, image processing method and program
JP2018159932A (en) 2014-07-10 2018-10-11 フリュー株式会社 Photograph seal creation device, display method, and program

Patent Citations (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008252494A (en) 2007-03-30 2008-10-16 Fujifilm Corp Photographing system for album creation, and device, method and program for photographing support, and system, method and program for album creation
JP2010220211A (en) 2010-03-12 2010-09-30 Furyu Kk Photograph seal creating apparatus, photograph seal creating method, and program
JP2015064768A (en) 2013-09-25 2015-04-09 キヤノンマーケティングジャパン株式会社 Imaging device, image modification device, and control method and program of imaging device and image modification device
JP2018159932A (en) 2014-07-10 2018-10-11 フリュー株式会社 Photograph seal creation device, display method, and program
JP2016092513A (en) 2014-10-31 2016-05-23 カシオ計算機株式会社 Image acquisition device, shake reduction method and program
JP2017037615A (en) 2015-08-13 2017-02-16 辰巳電子工業株式会社 Game imaging device, image processing method and program

Also Published As

Publication number Publication date
JP2020113878A (en) 2020-07-27

Similar Documents

Publication Publication Date Title
JP6375755B2 (en) Photo sticker creation apparatus and display method
JP4919031B2 (en) Photo sticker creation apparatus and method, and program
JP2019013013A (en) Photo sticker generation apparatus, photo sticker generation method, and program
JP6810336B2 (en) Photo creation game console and display method
JP7401727B2 (en) Image processing device, image processing method, and image processing program
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP7152687B2 (en) Display control device, display control method, program
JP7295388B2 (en) Image processing device, image processing method and image processing program
JP6769004B2 (en) Image providing device and image providing method
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP7339515B2 (en) Image processing device, image processing method, and program
JP7132492B2 (en) Image processing device, display control method, and program
JP6853475B2 (en) Photo creation game console and display method
JP7074994B2 (en) Photographing game console and image processing method
JP2021044734A (en) Image processing device, image processing method, and program
JP6982230B2 (en) Photographing game console and image processing method
JP2019192061A (en) Photograph creation game machine, control method and program
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP7280474B2 (en) Photo-making game machine, control method, and program
JP2018101106A (en) Photography creation game machine and shooting method
JP6842038B2 (en) Photographing game console and image processing method
JP2022176755A (en) Image processing device, image processing method and image processing program
JP2023016132A (en) Photo-creation game machine, image processing method, and program
JP6785428B2 (en) Photo sticker making device and photo sticker making method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220712

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20220909

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221109

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230420

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230922

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20231107

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20231120

R150 Certificate of patent or registration of utility model

Ref document number: 7401727

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150