JP2023040914A - Image processing apparatus, image processing program, and mask generation method - Google Patents

Image processing apparatus, image processing program, and mask generation method Download PDF

Info

Publication number
JP2023040914A
JP2023040914A JP2021148109A JP2021148109A JP2023040914A JP 2023040914 A JP2023040914 A JP 2023040914A JP 2021148109 A JP2021148109 A JP 2021148109A JP 2021148109 A JP2021148109 A JP 2021148109A JP 2023040914 A JP2023040914 A JP 2023040914A
Authority
JP
Japan
Prior art keywords
image data
image
unit
catchlight
person
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2021148109A
Other languages
Japanese (ja)
Inventor
悠里 溝口
Yuri Mizoguchi
威 海苔
Takeru Nori
潤一 小林
Junichi Kobayashi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2021148109A priority Critical patent/JP2023040914A/en
Publication of JP2023040914A publication Critical patent/JP2023040914A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Processing (AREA)
  • Image Analysis (AREA)

Abstract

To remove catchlight from image data.SOLUTION: An image processing apparatus comprises: an identification section that identifies positions of at least one or more specific portions from input image data including at least a part of a face of a person using a first learned model obtained by learning a relationship between a plurality of sets of image data including persons' eyes and position information on specific portions of eyes in the image data; and a mask generation section that generates a catchlight mask for discriminating a catchlight region from other regions for image data for each region identified by the identification section using a second learned model obtained by learning a relationship between the plurality of sets of image data including specific portions of the persons' eyes and the catchlight region in the image data.SELECTED DRAWING: Figure 10

Description

本発明は、撮影した画像に写る顔の特定の部位を処理する画像処理装置、画像処理プログラム及びマスク生成方法に関する。 The present invention relates to an image processing apparatus, an image processing program, and a mask generation method for processing a specific portion of a face appearing in a photographed image.

写真撮影の際に、人物の眼に白い映り込み、すなわち、キャッチライトがあると、例えば、その人物の表情が生き生きとする等の効果が得られる。例えば、少なくとも一方の目でキャッチライトがついていない場合や、理想的な形状でない場合もあり、撮影された写真から、好ましくないキャッチライトを除去したい要望がある。また、撮影された写真に理想的なキャッチライトを付けたいという要望もある。 When a person takes a picture, if there is a white reflection in the eyes of a person, that is, if there is a catch light, an effect such as making the person's expression lively can be obtained. For example, at least one eye may not have a catch light or may not have an ideal shape, and there is a desire to remove the undesirable catch light from the photograph taken. There is also a desire to add an ideal catchlight to the photographed photograph.

撮影画像中のキャッチライトを消したうえで、新たに好ましいキャッチライトを描画することが可能な技術もある(例えば、特許文献1参照)。しかしながら、特許文献1に記載される技術では、各人物に理想的なキャッチライトが付加されないおそれもあった。 There is also a technique capable of drawing a new preferable catchlight after erasing the catchlight in the captured image (see, for example, Patent Document 1). However, with the technique described in Patent Literature 1, there is a possibility that an ideal catchlight may not be added to each person.

特開2014-182672号公報JP 2014-182672 A

本発明では、画像データに含まれるキャッチライトの除去に用いるキャッチライトマスクを生成する。 In the present invention, a catchlight mask is generated for removing catchlight contained in image data.

本発明に係る画像処理装置の第1の態様は、複数組の人物の目を含む画像データと、当該画像データにおける目の特定部位の位置情報との関係を学習した第1の学習済みモデルを用いて、人物の顔の少なくとも一部を含む入力画像データから、少なくとも1以上の特定部位の位置を特定する特定部と、複数組の人物の目の特定部位を含む画像データと、当該画像データにおけるキャッチライト領域との関係を学習した第2の学習済みモデルを用いて、特定部で特定された各領域の画像データに対し、キャッチライト領域をそれ以外の領域と区別するキャッチライトマスクを生成するマスク生成部と、を備える。 A first aspect of an image processing apparatus according to the present invention is to provide a first trained model that has learned a relationship between image data including a plurality of sets of human eyes and position information of specific parts of the eyes in the image data. a specifying unit for specifying the position of at least one or more specific parts from input image data including at least a part of a person's face; a plurality of sets of image data including specific parts of eyes of a person; Generate a catchlight mask that distinguishes the catchlight area from other areas for the image data of each area identified by the identification unit using the second trained model that has learned the relationship with the catchlight area in and a mask generator.

これにより、画像データに含まれる人物のキャッチライトの除去に用いるキャッチライトマスクを生成することができる。 Thereby, it is possible to generate a catch light mask used for removing the catch light of the person included in the image data.

入力画像データに、キャッチライトマスクで特定されるキャッチライト領域を周辺領域の色に基づいて決定される色に置換してキャッチライトを除去する画像処理部をさらに備えてもよい。 The input image data may further include an image processing unit that removes the catchlight by replacing the catchlight area specified by the catchlight mask with a color determined based on the color of the surrounding area.

これにより、画像データに含まれる人物のキャッチライトを除去することができる。 Thereby, the catchlight of the person included in the image data can be removed.

キャッチライトが除去された画像データに、所定の疑似キャッチライトを付加した補正画像データを生成する画像補正部をさらに備えてもよい。 An image correction unit may be further provided for generating corrected image data by adding a predetermined pseudo catchlight to the image data from which the catchlight has been removed.

これにより、画像データに含まれる人物に対して理想的なキャッチライトを付加することができる。 This makes it possible to add an ideal catchlight to the person included in the image data.

画像補正部は、キャッチライト領域の位置情報に応じて、疑似キャッチライトの位置を設定してもよい。 The image corrector may set the position of the pseudo catchlight according to the positional information of the catchlight area.

これにより、人物に対して理想的なキャッチライトを付加することができる。 This makes it possible to add an ideal catch light to the person.

画像補正部は、入力画像データに含まれる人物の各目にキャッチライト領域が特定されず、当該入力画像データにおいて当該人物の対となる目が含まれるとき、対となる目のキャッチライト領域の位置情報に応じて、疑似キャッチライトの位置を設定してもよい。 When a catch-light region is not identified for each eye of a person included in the input image data, and the paired eyes of the person are included in the input image data, the image correction unit corrects the catch-light region for the paired eyes. The position of the pseudo catchlight may be set according to the positional information.

これにより、人物に対して理想的なキャッチライトを付加することができる。 This makes it possible to add an ideal catch light to the person.

画像補正部は、入力画像データに含まれる人物の目の特定部位の位置及びサイズに応じて、疑似キャッチライトの位置を設定してもよい。 The image correction unit may set the position of the pseudo catch light according to the position and size of the specific part of the person's eye included in the input image data.

これにより、人物に対して理想的なキャッチライトを付加することができる。 This makes it possible to add an ideal catch light to the person.

画像補正部は、前記入力画像データに含まれる人物の目の特定部位の色に応じて、疑似キャッチライトの色を設定してもよい。 The image correction unit may set the color of the pseudo catch light according to the color of the specific part of the person's eyes included in the input image data.

これにより、人物に対して理想的なキャッチライトを付加することができる。 This makes it possible to add an ideal catch light to the person.

本発明によれば、写真に含まれるキャッチライトの除去に用いるキャッチライトマスクを生成することができる。 According to the present invention, it is possible to generate a catchlight mask for use in removing catchlight contained in a photograph.

本発明の一実施形態である写真シール作成装置の斜視図である。1 is a perspective view of a photo sticker creating apparatus that is an embodiment of the present invention; FIG. 写真シール作成装置の斜視図である。1 is a perspective view of a photo sticker creating device; FIG. 写真シール作成ゲーム中の利用者の空間移動を説明するための図である。FIG. 10 is a diagram for explaining the spatial movement of the user during the photo sticker creation game; 事前選択部の正面図である。FIG. 11 is a front view of a pre-selection unit; 撮影部の正面図である。It is a front view of an imaging unit. 背景部の撮影空間側の正面図である。FIG. 3 is a front view of the background portion on the photographing space side; 編集ユニットの編集空間側の正面図である。FIG. 4 is a front view of the editing unit on the editing space side; 編集ユニットの左側面図である。It is a left side view of an editing unit. 写真シール作成装置の内部構成を示すブロック図である。1 is a block diagram showing the internal configuration of a photo sticker creating device; FIG. 写真シール作成装置の機能ブロックを示すブロック図である。FIG. 3 is a block diagram showing functional blocks of the photo sticker creating device; 第1の学習済みモデルの生成を説明する概略図である。FIG. 4 is a schematic diagram illustrating generation of a first trained model; 第1の学習済みモデルの入力と出力の一例である。It is an example of the input and output of the first trained model. 第2の学習済みモデルの生成を説明する概略図である。FIG. 11 is a schematic diagram illustrating generation of a second trained model; 第2の学習済みモデルの入力と出力の一例である。It is an example of the input and output of the second trained model. 特定部位である目の領域の画像例である。It is an example of an image of an eye region, which is a specific part. 図12Aの画像例から生成されたキャッチライトマスクの一例である。12B is an example of a catchlight mask generated from the example image of FIG. 12A; 図12Aの画像に対し、図12Bのキャッチライトマスクでキャッチライトが除去された画像の一例である。FIG. 12B is an example of an image in which the catch light is removed by the catch light mask of FIG. 12B from the image of FIG. 12A. 図12Cの画像例に付加される第1の疑似キャッチライトマスクの一例である。12D is an example of a first pseudo-catchlight mask that is added to the example image of FIG. 12C; 図12Cの画像例に付加される第2の疑似キャッチライトマスクの一例である。12D is an example of a second pseudo-catchlight mask that is added to the example image of FIG. 12C; 図12Cの画像例に付加される第3の疑似キャッチライトマスクの一例である。12D is an example of a third pseudo-catchlight mask that is added to the example image of FIG. 12C; 図12Cの画像例に図12D乃至12Fの疑似キャッチライトマスクが付加だれた一例である。FIG. 12C is an example of the pseudo catchlight mask of FIGS. 12D-12F added to the example image of FIG. 12C. 写真シール作成装置による写真シール作成ゲームに関する一連の動作を示すフローチャートである。10 is a flow chart showing a series of operations related to a photo sticker creating game by the photo sticker creating device; 合成処理の詳細を示すフローチャートである。9 is a flowchart showing details of synthesis processing; 疑似キャッチライトの付加処理の詳細を示すフローチャートである。FIG. 11 is a flowchart showing details of pseudo catchlight addition processing; FIG.

以下、本発明の具体的な実施の形態について添付の図面を参照しながら説明する。なお、同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。さらに、各図面に記載した構成の形状、また、長さ、奥行および幅などの寸法は、実際の形状および寸法を反映させたものではなく、図面の明瞭化と簡略化のために適宜変更している。 Hereinafter, specific embodiments of the present invention will be described with reference to the accompanying drawings. Note that members having the same function are denoted by the same reference numerals, and description thereof will be omitted as appropriate. Furthermore, the shape of the configuration and the dimensions such as length, depth and width shown in each drawing do not reflect the actual shape and dimension, and have been changed as appropriate for the sake of clarity and simplification of the drawing. ing.

本発明に係る画像処理装置を、一例である写真シール作成装置として説明する。本発明を適用する写真シール作成装置は、撮影や編集等を利用者にゲームとして行わせ、その撮影・編集した画像を、写真シールやデータとして利用者に提供するゲーム装置である。写真シール作成装置1は、例えば、ゲームセンタ、ショッピングモールおよび観光地の店舗等に設置される。 An image processing apparatus according to the present invention will be described as an example of a photo sticker creating apparatus. A photo sticker creation device to which the present invention is applied is a game device that allows a user to perform shooting, editing, etc. as a game, and provides the user with the shot and edited image as a photo sticker or data. The photo sticker creating apparatus 1 is installed, for example, in game arcades, shopping malls, shops in tourist spots, and the like.

写真シール作成装置が提供するゲームにおいて、利用者は、写真シール作成装置に設けられたカメラを用いて自分自身等を撮影する。利用者は、その撮影画像に対して、前景画像および/または背景画像を合成したり、また、編集用合成用画像としてのペン画像入力やスタンプ画像入力等の編集機能(落書き編集機能)を用いたりして編集を行い、撮影画像を彩り豊かなものにデザインする。そしてゲーム終了後、利用者は、編集した画像が印刷された写真シール等を成果物として受け取る。または、写真シール作成装置は編集した画像を利用者の携帯端末に提供し、利用者は携帯端末により成果物を受け取ることもできる。 In the game provided by the photo sticker creating device, the user takes a picture of himself or herself using a camera provided in the photo sticker creating device. The user synthesizes a foreground image and/or a background image with the captured image, or uses an editing function (graffiti editing function) such as a pen image input or a stamp image input as a composition image for editing. Editing and designing the shot image to make it colorful. After the game is over, the user receives a photo sticker or the like on which the edited image is printed as a product. Alternatively, the photo sticker creating device can provide the edited image to the mobile terminal of the user, and the user can receive the product by the mobile terminal.

(写真シール作成装置の構成)
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1の利用者は、主に女子中学生および女子高校生などの若い女性が中心とされる。写真シール作成装置1において、1組当たり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。
(Configuration of photo sticker creating device)
1 and 2 are perspective views showing configuration examples of the appearance of the photo sticker creating apparatus 1. FIG. The photo sticker creation device 1 is a game machine that provides photographed images and edited images. A photo sticker creating device 1 provides an image to a user by printing the image on sticker paper or transmitting the image to a server so that the image can be browsed on the user's portable terminal. Users of the photo sticker creating apparatus 1 are mainly young women such as junior high school girls and high school girls. In the photo sticker creating apparatus 1, a plurality of users, mainly two or three, can enjoy the game per group. Of course, one user can also enjoy the game in the photo sticker creating apparatus 1 .

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が華やかな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。 In the photo sticker creating apparatus 1, the user himself/herself becomes a subject and performs photographing work. Through editing work, the user combines an image for composition such as handwritten characters or a stamp image with an image selected from the photographed images obtained by photographing. As a result, the photographed image is edited into a gorgeous image. The user receives the seal paper on which the edited image, which is the edited image, is printed, and ends the series of games.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。 As shown in FIG. 1, the photo sticker creating apparatus 1 is basically configured by installing a photographing unit 11 and an editing unit 12 in contact with each other.

撮影ユニット11は、事前選択操作部20、撮影操作部21、および背景部22から構成される。事前選択操作部20は、撮影操作部21の側面に設置される。事前選択操作部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影操作部21と背景部22は所定の距離だけ離れて設置される。撮影操作部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。 The photographing unit 11 is composed of a pre-selection operation section 20 , a photographing operation section 21 and a background section 22 . The pre-selection operation section 20 is installed on the side of the photographing operation section 21 . The space in front of the pre-selection operation unit 20 becomes the pre-selection space where the pre-selection process is performed. Further, the photographing operation section 21 and the background section 22 are installed apart from each other by a predetermined distance. A space formed between the shooting operation section 21 and the background section 22 becomes a shooting space in which shooting processing is performed.

事前選択操作部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を利用者に選択させるための処理を行ったりする。事前選択操作部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択操作部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。 The pre-selection operation unit 20 performs pre-selection processing such as providing guidance to introduce games provided by the photo sticker creating apparatus 1, and allowing the user to select various settings for photographing processing performed in the photographing space. to do The preselection operation unit 20 is provided with a coin slot into which the user inserts money, a touch panel monitor used for various operations, and the like. The pre-selection operation unit 20 appropriately guides the user in the pre-selection space to the imaging space according to the availability of the imaging space.

撮影操作部21は、利用者を被写体として撮影するための装置である。撮影操作部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影操作部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影操作部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影操作部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択操作部20が設置されるものとする。なお、事前選択操作部20は、側面パネル41Bに設置されるようにしてもよいし、側面パネル41A,41Bの両方に設置されるようにしてもよい。 The photographing operation unit 21 is a device for photographing a user as a subject. The photographing operation unit 21 is positioned in front of the user entering the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the shooting operation unit 21 facing the shooting space. Assuming that the left side and the right side are the left side and the right side, respectively, as viewed from the user facing the front in the shooting space, the left side of the shooting operation unit 21 is formed by the side panel 41A, and the right side is formed by the side panel 41B. Configured. Further, a front panel 42 constitutes the front of the photographing operation unit 21 . It is assumed that the above-described pre-selection operation unit 20 is installed on the side panel 41A. Note that the preselection operation unit 20 may be installed on the side panel 41B, or may be installed on both the side panels 41A and 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。 The background portion 22 is composed of a rear panel 51, side panels 52A, and side panels 52B. The back panel 51 is a plate-like member located on the back side of the user facing the front. The side panel 52A is a plate-like member attached to the left end of the rear panel 51 and having a width narrower than that of the side panel 41A. The side panel 52B is a plate-like member attached to the right end of the rear panel 51 and having a width narrower than that of the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。 The side panel 41A and the side panel 52A are provided substantially on the same plane. Upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A, which is a plate-like member. The lower portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A' which is provided on the floor and is a member made of metal, for example. Similarly, the side panel 41B and the side panel 52B are provided substantially on the same plane. Upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B'.

なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、利用者が所望する背景画像がシートの部分に合成される。 For example, a green chromakey sheet is attached to the surface of the back panel 51 facing the imaging space. The photo sticker creating apparatus 1 performs chromakey synthesis in the shooting process and the editing process by shooting a chromakey sheet as a background. As a result, the background image desired by the user is combined with the portion of the sheet.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。 An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance to the imaging space. An opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance to the imaging space.

撮影空間の上方には、撮影操作部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。 Above the imaging space, a ceiling surrounded by the front of the imaging operation section 21, the connecting section 23A, and the connecting section 23B is formed. A ceiling strobe unit 24 is provided on a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B. The ceiling strobe unit 24 incorporates a strobe that irradiates light toward the inside of the photographing space in accordance with photographing. Inside the ceiling strobe unit 24, a fluorescent lamp is provided in addition to the strobe. As a result, the ceiling strobe unit 24 also functions as lighting for the shooting space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影操作部21の正面パネル42に接するようにして、撮影ユニット11に連結している。 The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 so that one side thereof contacts the front panel 42 of the photographing operation section 21 .

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。 If the configuration of the editing unit 12 shown in FIG. 1 is taken as the configuration on the front side, the configuration used in the editing work is provided on each of the front side and the back side of the editing unit 12 . This configuration allows two sets of users to perform editing work at the same time.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影操作部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。 The front side of the editing unit 12 is composed of a surface 61 and an inclined surface 62 formed above the surface 61 . The surface 61 is perpendicular to the floor surface and substantially parallel to the side panel 41A of the shooting operation unit 21 . A built-in tablet monitor and a touch pen are provided on the slope 62 as components used for editing work. A columnar support portion 63A that supports one end of the lighting device 64 is provided on the left side of the slope 62 . A columnar support portion 63B that supports the other end of the lighting device 64 is provided on the right side of the slope 62 . A support portion 65 for supporting the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A,26B,26Cが、組み合わせられて構成される。3本のレール26A,26B,26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。 A curtain rail 26 is attached above the editing unit 12 . The curtain rail 26 is configured by combining three rails 26A, 26B, and 26C. The three rails 26A, 26B, and 26C are combined to form a U-shape when viewed from above. One ends of rails 26A and 26B provided in parallel are fixed to connecting portions 23A and 23B, respectively, and the other ends of rails 26A and 26B are joined to both ends of rail 26C, respectively.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。 A curtain is attached to the curtain rail 26 so that the space in front of the front and the space in front of the back of the editing unit 12 are not visible from the outside. The space in front of the editing unit 12 surrounded by the curtain and the space behind the editing unit 12 become an editing space in which the user performs editing work.

また、後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。 As will be described later, the left side of the editing unit 12 is provided with a discharge port through which the printed sticker paper is discharged. A space in front of the left side of the editing unit 12 becomes a print waiting space where the user waits for the printed sticker paper to be discharged.

(利用者の移動)
ここで、画像作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成ゲーム中の利用者の空間移動を説明するための図である。
(Movement of users)
Here, the flow of the image creation game and the accompanying movement of the user will be described. FIG. 3 is a diagram for explaining the spatial movement of the user during the photo sticker creation game.

まず、利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。 First, the user inserts money into the coin slot in the preselection space A0, which is the space in front of the preselection operation unit 20. As shown in FIG. Next, the user makes various settings according to the screen displayed on the touch panel monitor. The user performs, for example, selection of a course related to photographing to be performed in the photographing space as a pre-selection work.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影操作部21と背景部22の間に形成された撮影空間A1に入る。そして利用者は、撮影操作部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。 After finishing the pre-selection work, the user can enter the shooting space formed between the shooting operation unit 21 and the background unit 22 from the entrance G1 between the side panel 41A and the side panel 52A, as indicated by the white arrow #1. Enter A1. Then, the user uses a camera, a touch panel monitor, or the like provided in the photographing operation section 21 to perform photographing work.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2-1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2-2に移動する。 The user who has completed the photographing work exits the photographing space A1 from the doorway G1 as indicated by the white arrow #2 and moves to the editing space A2-1, or enters the doorway G2 as indicated by the white arrow #3. , exits the photographing space A1 and moves to the editing space A2-2.

編集空間A2-1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2-2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2-1と編集空間A2-2のいずれの空間に移動するのかは、撮影操作部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2-1または編集空間A2-2に移動した利用者は、編集作業を開始する。編集空間A2-1の利用者と、編集空間A2-2の利用者は同時に編集作業を行うことができる。 The editing space A2-1 is an editing space on the front side of the editing unit 12. FIG. On the other hand, the editing space A2-2 is the editing space behind the editing unit 12. FIG. To which of the editing space A2-1 and editing space A2-2 the user should move is guided by the screen display of the touch panel monitor of the photographing operation unit 21 or the like. For example, the empty one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2-1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2-1から印刷待ち空間A3に移動する。また、編集空間A2-2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2-2から印刷待ち空間A3に移動する。 After the editing work is completed, printing of the edited image is started. When printing starts, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the white arrow #4. Also, the user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow #5.

印刷待ち空間A3に移動した利用者は、画像の印刷の終了を待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の画像作成ゲームを終える。 The user who has moved to the print waiting space A3 waits for the end of image printing. When the printing is finished, the user receives the sticker paper discharged from the discharge port provided on the right side of the editing unit 12, and finishes the series of image creation games.

(事前選択部の構成)
次に、各装置の構成について説明する。図4は、事前選択操作部20の正面図である。
(Configuration of pre-selection part)
Next, the configuration of each device will be described. FIG. 4 is a front view of the pre-selection operating section 20. FIG.

事前選択操作部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、撮影に関するコースの選択、編集の対象となる編集対象画像における背景となる画像の選択、作成画像のレイアウト、画像作成ゲーム中に流れるBGM(Back Ground Music)、音および音声の少なくともいずれかの選択、並びに利用者の名前の入力などを行わせる事前選択処理に用いられる画面が表示される。 A touch panel monitor 71 is provided above the preselection operation unit 20 . The touch panel monitor 71 is composed of a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and receiving user's selection operations. On the touch panel monitor 71, selection of a shooting course, selection of a background image in an editing target image to be edited, layout of created images, background music (BGM) played during the image creation game, sound and audio are displayed. A screen used for pre-selection processing is displayed, which prompts at least one of the selections and the input of the user's name.

撮影に関するコースは、利用者が2人で撮影を行う2人用コースと、3人以上で撮影を行う大人数コースとが用意されている。また、男女のカップルで撮影を行うカップルコースが用意されていてもよい。 Courses related to photography include a two-person course in which two users take pictures, and a large-group course in which three or more users take pictures. Also, a couple course in which a male and female couple take pictures may be prepared.

タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM、効果音などを出力する。また、スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。 A speaker 72 is provided below the touch panel monitor 71 . The speaker 72 outputs guidance voices, BGM, sound effects, etc. for the pre-selection process. Also, adjacent to the speaker 72, a coin insertion/return opening 73 into which the user inserts coins is provided.

(撮影部の構成)
図5は、撮影部としての撮影操作部21の正面図である。撮影操作部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
(Structure of imaging unit)
FIG. 5 is a front view of the photographing operation section 21 as the photographing section. The photographing operation unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42. As shown in FIG.

正面パネル42の中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91および表示部としてのタッチパネルモニタ92から構成される。 A camera unit 81 is provided in the center of the front panel 42 . The camera unit 81 is composed of a camera 91 and a touch panel monitor 92 as a display section.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー表示画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。 The camera 91 is, for example, a single-lens reflex camera, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 has an imaging element such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the imaging space A1. A moving image captured by the camera 91 (hereinafter also referred to as a live view display image) is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing, such as when an instruction to shoot is given, is saved as a shot image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。当該選択操作の具体例としては、撮影コースの選択、撮影開始および終了の指示(撮影の制御指示)、目の変形具合および色、ならびに肌の色の補正具合の選択、作成画像における背景画像となる画像の選択、ならびに画像作成ゲーム中のBGM(音・音声)の選択などが挙げられる。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。 A touch panel monitor 92 is provided below the camera 91 . The touch panel monitor 92 is composed of a monitor such as an LCD and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays moving images captured by the camera 91, and a function that displays various GUIs and receives selection operations from the user. Specific examples of the selection operations include selection of the shooting course, instructions to start and end shooting (shooting control instructions), selection of the degree of deformation and color of the eyes and the degree of correction of the skin color, selection of the background image and the selection of an image, selection of BGM (sound/audio) during an image creation game, and the like. A moving image (live view image) and a still image (captured image) captured by the camera 91 are displayed on the touch panel monitor 92 .

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、正面上方から利用者の顔および上半身に光を照射する。 Above the camera unit 81, an upper strobe 82 is installed with its curved light-emitting surface facing the user. The upper strobe 82 irradiates the user's face and upper body with light from above the front.

また、カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボ85が設けられる。なお、上ストロボ82と足元ストロボ85には、ストロボと蛍光灯が含まれている。 A foot strobe 85 is provided below the camera unit 81 to irradiate the user's lower body and feet with light. The upper strobe 82 and the foot strobe 85 include strobes and fluorescent lamps.

なお、図1および図5においては図示を省略するが、正面パネル42の例えば天井付近には、スピーカ93が設けられる。スピーカ93は、制御部201から出力される音声信号により、撮影処理の案内音声、BGM、効果音などを出力する。 Although not shown in FIGS. 1 and 5, a speaker 93 is provided near the ceiling of the front panel 42, for example. The speaker 93 outputs a guidance voice, BGM, effect sound, etc. for the shooting process based on the audio signal output from the control unit 201 .

(背景部の構成)
図6は、背景部22の撮影空間A1側の正面図である。
(Composition of the background part)
FIG. 6 is a front view of the background portion 22 on the photographing space A1 side.

背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。 A rear upper strobe 101 is installed above the rear panel 51 . The upper back strobe 101 irradiates the user with light from above the back.

図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。 In the drawing, a rear left strobe 102 is installed on the left side of the rear panel 51 . The back left strobe 102 irradiates the user from the right side of the back. In the drawing, a rear right strobe 103 is installed on the right side of the rear panel 51 . The back-right strobe 103 irradiates the user from the back-left side.

また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられていてもよい。クロマキーシート121の色は、例えば緑色とされる。 Also, a chromakey sheet 121 may be attached to the surface of the rear panel 51 facing the shooting space A1 (the front side in the figure). The color of the chromakey sheet 121 is, for example, green.

なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面にも、クロマキーシート121と同様に、クロマキーシートが貼り付けられていてもよい。 Although not shown, a chromakey sheet may be attached to the side panels 52A and 52B on the imaging space A1 side in the same manner as the chromakey sheet 121. FIG.

(編集ユニットの構成)
図7は、編集ユニット12の編集空間A2-1側の正面図である。
(Composition of editing unit)
FIG. 7 is a front view of the editing unit 12 on the editing space A2-1 side.

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。例えば、2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。 A tablet built-in monitor 131 is provided approximately in the center of the slope 62 . A touch pen 132A is provided on the left side of the tablet built-in monitor 131 . A touch pen 132B is provided on the right side of the tablet built-in monitor 131 . The tablet built-in monitor 131 is configured by the tablet being provided so as to expose the display. The tablet enables operation input using touch pen 132A or touch pen 132B. The tablet built-in monitor 131 displays, for example, an editing screen used for editing work. For example, when two users are editing at the same time, the touch pen 132A is used by the user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by the user on the right side of the tablet built-in monitor 131. Used.

図8は、編集ユニット12の左側面図である。 8 is a left side view of the editing unit 12. FIG.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部には出力部としてのプリンタが設けられている。そのプリンタにより、編集空間A2-1の利用者が写る画像、または、編集空間A2-2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。 A seal paper discharge port 161 is provided on the lower side of the left side of the editing unit 12 . A printer is provided inside the editing unit 12 as an output unit. The printer prints an image of the user of the editing space A2-1 or an image of the user of the editing space A2-2 in a predetermined layout on a sticker sheet, which is discharged from the sticker paper outlet 161. FIG.

(写真シール作成装置の内部構成)
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
(Internal configuration of photo sticker creating device)
FIG. 9 is a block diagram showing an example of the internal configuration of the photo sticker creating apparatus 1. As shown in FIG. In FIG. 9, the same reference numerals are given to the same configurations as those described above. Duplicate explanations will be omitted as appropriate.

制御部201はCPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前選択操作部20、撮影操作部21、背景部22、編集操作部27A,27B、および印刷操作部28の各構成も接続される。 The control unit 201 is configured by a CPU (Central Processing Unit) or the like. A control unit 201 executes programs stored in a ROM (Read Only Memory) 206 and a storage unit 202 to control the overall operation of the photo sticker creating apparatus 1 . A storage unit 202 , a communication unit 203 , a drive 204 , a ROM 206 and a RAM (Random Access Memory) 207 are connected to the control unit 201 . Also connected to the control unit 201 are the pre-selection operation unit 20, the shooting operation unit 21, the background unit 22, the editing operation units 27A and 27B, and the print operation unit .

記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。 The storage unit 202 is a nonvolatile storage medium such as a hard disk or flash memory. The storage unit 202 stores various setting information and the like supplied from the control unit 201 . Information stored in the storage unit 202 is appropriately read by the control unit 201 .

通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。 A communication unit 203 is an interface of a network such as the Internet. A communication unit 203 communicates with an external device under the control of the control unit 201 . The communication unit 203 transmits, for example, a captured image or an edited image selected by the user to the server. The image transmitted from the communication unit 203 is stored in a predetermined storage area allocated in the server, and displayed or downloaded to a mobile terminal accessing the server.

ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。 A removable medium 205 such as an optical disk or a semiconductor memory is appropriately mounted in the drive 204 . Programs and data read from the removable medium 205 by the drive 204 are supplied to the control unit 201 and stored in the storage unit 202 or installed.

ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。 The ROM 206 stores programs and data executed by the control unit 201 . A RAM 207 temporarily stores data and programs processed by the control unit 201 .

事前選択操作部20は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択操作部20は、タッチパネルモニタ71、スピーカ72、および硬貨処理部74から構成される。 The pre-selection operation unit 20 implements pre-selection processing for users in the pre-selection space A0. The preselection operation unit 20 is composed of a touch panel monitor 71 , a speaker 72 and a coin processing unit 74 .

タッチパネルモニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。 The touch panel monitor 71 displays various selection screens under the control of the control unit 201 and accepts user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the control unit 201, and various settings are performed.

硬貨処理部74は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部74は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。 The coin processing unit 74 detects insertion of coins into the coin insertion/return port 73 . When coin processing unit 74 detects that a predetermined amount of coins has been inserted, coin processing unit 74 outputs an activation signal instructing the start of the game to control unit 201 .

撮影操作部21は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部220は、上ストロボ82、左ストロボ83、右ストロボ84、足元ストロボ85、カメラ91、タッチパネルモニタ92、およびスピーカ93から構成される。 The photographing operation unit 21 implements photographing processing for users in the photographing space A1. The photographing unit 220 includes an upper strobe 82 , a left strobe 83 , a right strobe 84 , a foot strobe 85 , a camera 91 , a touch panel monitor 92 and a speaker 93 .

上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85は、撮影空間A1内に配置され、制御部201から供給される照明制御信号に従って発光する。 The upper strobe 82 , the left strobe 83 , the right strobe 84 , and the foot strobe 85 are arranged in the photographing space A<b>1 and emit light according to the illumination control signal supplied from the controller 201 .

カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。 Camera 91 performs photographing according to shutter control by control unit 201 and outputs a photographed image (image data) obtained by photographing to control unit 201 .

編集操作部27Aは、編集空間A2-1にいる利用者を対象とした編集処理を実現する。編集操作部27Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ133から構成される。編集操作部27Bは、編集空間A2-2にいる利用者を対象とした編集処理を実現し、編集操作部27Aと同一の構成を有する。なお、以下、編集操作部27A,27Bを特に区別しない場合には、単に、編集操作部27という。 The editing operation unit 27A implements editing processing for users in the editing space A2-1. The editing operation unit 27A is composed of a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 133. FIG. The editing operation section 27B implements editing processing for users in the editing space A2-2, and has the same configuration as the editing operation section 27A. In the following description, the edit operation units 27A and 27B will simply be referred to as the edit operation unit 27 when they are not distinguished from each other.

タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。 The tablet built-in monitor 131 displays an edit screen under the control of the control unit 201 and accepts a user's operation on the edit screen. An input signal representing the content of the user's operation is supplied to the control unit 201, and the captured image to be edited is edited.

印刷操作部28は、印刷待ち空間A3にいる利用者に、作成画像を印刷済みのシール紙を提供する印刷処理を実現する。印刷操作部28は、プリンタ140を含むように構成される。プリンタ140にはシール紙ユニット141が装着される。 The print operation unit 28 implements a print process of providing the user in the print waiting space A3 with a seal sheet on which the created image has been printed. The print operation section 28 is configured to include a printer 140 . A sticker paper unit 141 is attached to the printer 140 .

プリンタ140は、制御部201から供給された印刷データに基づいて、編集画像をシール紙ユニット141に収納されているシール紙142に印刷し、シール紙排出口161に排出する。 Based on the print data supplied from the control unit 201 , the printer 140 prints the edited image on the sticker paper 142 stored in the sticker paper unit 141 and discharges it to the sticker paper outlet 161 .

(写真シール作成装置の機能ブロック)
図10は写真シール作成装置1の機能ブロックを示すブロック図である。写真シール作成装置1は、事前選択部210、撮影部220、編集部230、および印刷部240として機能する。また、制御部201は、本発明の写真シール作成プログラムを実行することにより、事前選択処理部301、撮影処理部302、受付部303、特定部304、マスク生成部305、画像補正部306、合成部307、編集処理部308、および印刷処理部309として機能する。
(Functional block of photo sticker creating device)
FIG. 10 is a block diagram showing functional blocks of the photo sticker creating apparatus 1. As shown in FIG. The photo sticker creating apparatus 1 functions as a pre-selection section 210 , a photographing section 220 , an editing section 230 and a printing section 240 . Further, by executing the photo sticker creation program of the present invention, the control unit 201 performs a pre-selection processing unit 301, a photographing processing unit 302, a reception unit 303, a specification unit 304, a mask generation unit 305, an image correction unit 306, a composition It functions as a unit 307 , an edit processing unit 308 and a print processing unit 309 .

事前選択部210は、上述した事前選択操作部20と、事前選択処理部301とを備える。事前選択処理部301は、事前選択操作部20におけるタッチパネルモニタ71、スピーカ72、および硬貨処理部74を制御することで、事前選択処理を行う。事前選択処理部301は、撮影空間A1において行われる撮影に関するコースの選択のための選択画面等をタッチパネルモニタ71に表示させる。また事前選択処理部301は、タッチパネルモニタ71に対する、利用者の操作入力を受け付ける。具体的には、事前選択処理部301は、タッチパネルモニタ71に表示された選択画面に対する選択の操作入力、および利用者の名前の入力等を受け付ける。また事前選択処理部301は、各種の選択操作を説明するガイダンスの出力を制御する。事前選択処理部301は、各種の選択操作を説明する画面をタッチパネルモニタ71に表示させたり、各種の選択操作を説明する音声をスピーカ72から出力させたりする。 The preselection unit 210 includes the preselection operation unit 20 and the preselection processing unit 301 described above. The pre-selection processing unit 301 performs pre-selection processing by controlling the touch panel monitor 71 , the speaker 72 and the coin processing unit 74 in the pre-selection operation unit 20 . The pre-selection processing unit 301 causes the touch panel monitor 71 to display a selection screen or the like for selecting a course related to photography performed in the photography space A1. The pre-selection processing unit 301 also accepts user's operation input to the touch panel monitor 71 . Specifically, pre-selection processing unit 301 accepts operation input for selection on the selection screen displayed on touch panel monitor 71, input of the user's name, and the like. The pre-selection processing unit 301 also controls the output of guidance explaining various selection operations. The pre-selection processing unit 301 causes the touch panel monitor 71 to display a screen explaining various selection operations, and causes the speaker 72 to output sounds explaining various selection operations.

撮影部220は、上述した撮影操作部21と、撮影処理部302とを備える。撮影処理部302は、撮影操作部21におけるカメラ91、タッチパネルモニタ92、およびスピーカ93を制御することで、撮影処理を行う。 The imaging unit 220 includes the above-described imaging operation unit 21 and imaging processing unit 302 . The shooting processing unit 302 performs shooting processing by controlling the camera 91 , the touch panel monitor 92 , and the speaker 93 in the shooting operation unit 21 .

撮影処理部302は、タッチパネルモニタ92に対する、利用者の操作入力を受け付ける。例えば、撮影空間A1における撮影処理は、撮影処理部302が、利用者によるタッチパネルモニタ92への接触操作を入力として受け付けることにより開始される。 The imaging processing unit 302 receives user's operation input to the touch panel monitor 92 . For example, the photographing process in the photographing space A1 is started when the photographing processing unit 302 receives a touch operation on the touch panel monitor 92 by the user as an input.

撮影処理部302は、カメラ91を制御し、利用者を被写体として撮影する。撮影には、動画像と静止画像とがある。撮影処理部302は、タッチパネルモニタ92の表示を制御することにより、カメラ91に取り込まれた動画像をタッチパネルモニタ92にライブビュー表示させたり、撮影結果である静止画像を撮影画像として表示させたりする。 The photographing processing unit 302 controls the camera 91 to photograph the user as a subject. Shooting includes moving images and still images. The shooting processing unit 302 controls the display of the touch panel monitor 92 to display a moving image captured by the camera 91 as a live view on the touch panel monitor 92, or to display a still image as a shooting result as a shot image. .

また、撮影処理部302は、撮影枚数、利用者の立ち位置、サンプルポーズ、目線についてのメッセージ、および撮影タイミング等を説明するインストラクション画面をタッチパネルモニタ92に表示させる。さらに、それぞれのインストラクション画面に対応するナレーションの音声、およびBGMをスピーカ93から出力させる。 The photographing processing unit 302 also causes the touch panel monitor 92 to display an instruction screen for explaining the number of images to be photographed, the user's standing position, a sample pose, a message regarding line of sight, the photographing timing, and the like. Further, the speaker 93 outputs narration sounds and BGM corresponding to each instruction screen.

受付部303は、撮影部220で利用者を撮影した画像データを受け付ける。 The reception unit 303 receives image data of the user photographed by the photographing unit 220 .

特定部304は、複数組の人物の目を含む画像データと、当該画像データにおける目の特定部位の位置情報との関係を学習した第1の学習済みモデルを用いて、人物の顔の少なくとも一部を含む入力画像データから、少なくとも1以上の特定部位の位置を特定する。 The identification unit 304 uses a first trained model that has learned a relationship between image data including a plurality of sets of human eyes and position information of specific parts of the eyes in the image data, and identifies at least one of the human faces. The positions of at least one or more specific parts are specified from the input image data including the part.

ここで、「入力画像データ」は、人物の顔の少なくとも一部を含む画像データであればよい。例えば、人物の顔の全体を含む画像であっても、人物の顔の全体を含む画像から一部がトリミングされた画像、換言すると、一部が切り抜きされた画像であってもよい。したがって、特定部304で対象とする入力画像データは、受付部303で受け付けた画像データの全体であることに限定されず、受付部303が受け付けた画像データから特定部位を含む範囲がトリミングされた画像データであってもよい。 Here, the "input image data" may be image data including at least part of a person's face. For example, it may be an image including the entire face of a person, or an image obtained by trimming a portion of an image including the entire face of a person, in other words, an image obtained by clipping a portion of the image. Therefore, the input image data targeted by the identifying unit 304 is not limited to the entire image data received by the receiving unit 303, but the range including the specific part is trimmed from the image data received by the receiving unit 303. It may be image data.

「目の特定部位」は、例えば、虹彩又は瞳孔の少なくともいずれかにより特定される部位としてもよい。具体的には、目の特定部位は、虹彩又は瞳孔の中心座標としてもよい。また、目の特定部位は、1点である必要はなく、例えば、目尻の座標及び目頭の座標の2点等の複数の部位を特定部位としてもよい。 The "specific part of the eye" may be, for example, a part specified by at least one of the iris and the pupil. Specifically, the specific part of the eye may be the central coordinates of the iris or pupil. Moreover, the specific part of the eye does not have to be one point. For example, a plurality of parts such as the coordinates of the outer corner of the eye and the coordinates of the inner corner of the eye may be used as the specific part.

第1の学習済みモデルM1は、図11Aに示すように、学習データセットである複数組の入力データである人物の顔の少なくとも一部を含む「画像データ」と、正解データである「目の特定部位の位置」との関係を学習器によって学習されることで得られたモデルである。また、目の特定部位の位置とともに、目の特定部位のサイズや形状を用いて学習してもよい。例えば、黒目の位置及びサイズ(半径)等の組み合わせを正解データとしてもよい。このように生成された第1の学習済みモデルM1は、図11Bに示すように、新たに人物の顔の少なくとも一部を含む画像データが入力されると、この画像データの顔から人物の目を含む特定部位の位置を特定する。ここで、第1の学習済みモデルM1は、各人物の両目について、それぞれ片方ずつの特定部位の位置を学習する。特定部304は、複数の人物の顔の少なくとも一部を含む画像データが入力されると、この画像データから、各人物の目の特定部位の位置を特定するとともに、各人物の両目の特定部位の位置を一組として記憶部202に一時記憶することが好ましい。 As shown in FIG. 11A, the first trained model M1 includes "image data" including at least a part of a person's face, which is a plurality of sets of input data, which is a learning data set, and "eyes", which is correct data. It is a model obtained by learning the relationship with the "position of a specific part" by a learner. Also, the size and shape of the specific part of the eye may be used for learning as well as the position of the specific part of the eye. For example, the correct data may be a combination of the position and size (radius) of the iris. As shown in FIG. 11B, the first trained model M1 generated in this way can, as shown in FIG. Identify the location of a specific site containing Here, the first trained model M1 learns the positions of the specific parts for each eye of each person. When image data including at least part of the faces of a plurality of persons is input, the identifying unit 304 identifies the positions of the specific parts of the eyes of each person and the specific parts of both eyes of each person from the image data. is preferably temporarily stored in the storage unit 202 as a set of positions.

マスク生成部305は、複数組の人物の目の特定部位を含む画像データと、当該画像データにおけるキャッチライト領域との関係を学習した第2の学習済みモデルを用いて、特定部304で特定された各領域の画像データに対し、キャッチライト領域を抽出する。これにより、マスク生成部305は、抽出したキャッチライト領域と、それ以外の領域とを区別するキャッチライトマスクを生成する。図12Bに一例を示すキャッチライトマスクは、キャッチライト領域を白色とし、それ以外の領域を黒色として区別する。 The mask generation unit 305 uses a second trained model that has learned the relationship between image data including a plurality of sets of specific parts of a person's eyes and the catchlight region in the image data, and uses the second trained model to generate the mask identified by the identification unit 304 . A catch light area is extracted from the image data of each area. Thereby, the mask generation unit 305 generates a catch-light mask that distinguishes between the extracted catch-light area and other areas. The catch-light mask shown as an example in FIG. 12B distinguishes the catch-light region as white and the other region as black.

第2の学習済みモデルM2は、図11Cに示すように、入力データである少なくとも人物の目の特定部位を含む領域の「画像データ」及び特定部位の「位置情報」と、正解データである「キャッチライト領域」との関係を学習器によって学習されることで得られたモデルである。図12Aに示すように、目の特定部位を含む領域の画像データは、例えば、目の特定領域を含む矩形の領域である。また、図12Aでは示していないが、画像データには、画像データにおける特定部位の位置情報として、例えば、画像データにおける特定部位の座標が関連付けられる。第2の学習済みモデルの生成に用いる学習データセットには、例えば、図12Aに示すような特定部位を含む画像データ及び特定部位の位置情報と、当該画像データに含まれる人物の目のキャッチライトの領域とを複数組含む。これにより、図11Dに示すように、第2の学習済みモデルは、人物の目の特定部位を含む領域の画像データ及び特定部位の位置情報が入力されると、この画像データからキャッチライト領域を抽出する。なお、特定部位を含む画像データにおいて、特定部位の位置が固定されているような場合、その位置情報は全ての画像データにおいて共通となる。例えば、特定部位が画像中心となるように、画像データが形成されてもよい。全てで特定部位の位置情報が共通するため、学習データセットで位置情報を含む必要はない。また、各目に表れるキャッチライトの数は限定されないため、画像データから抽出されるキャッチライト領域の数も限定されない。 As shown in FIG. 11C , the second trained model M2 includes input data such as “image data” of a region including at least a specific part of a person’s eyes, “positional information” of the specific part, and correct data “ This is a model obtained by learning the relationship with the "catchlight area" by a learner. As shown in FIG. 12A, the image data of the area including the specific part of the eye is, for example, a rectangular area including the specific eye area. Although not shown in FIG. 12A, the image data is associated with, for example, the coordinates of the specific part in the image data as the position information of the specific part in the image data. The learning data set used to generate the second trained model includes, for example, image data including a specific part as shown in FIG. region and multiple sets. As a result, as shown in FIG. 11D , when image data of a region including a specific part of a person's eye and position information of the specific part are input, the second trained model determines a catch light region from this image data. Extract. In addition, in the image data including the specific part, when the position of the specific part is fixed, the position information is common to all the image data. For example, the image data may be formed such that the specific site is the center of the image. Since the position information of the specific part is common to all, it is not necessary to include the position information in the learning data set. Moreover, since the number of catchlights appearing in each eye is not limited, the number of catchlight regions extracted from the image data is also not limited.

画像補正部306は、キャッチライトが除去された画像データに、所定の疑似キャッチライトを付加した補正画像データを生成する。具体的には、対象の画像データ(図12A)に対して、キャッチライトマスク(図12B)を用いて、図12Cに示すように、キャッチライトを除去する。その後、図12D乃至図12Fに示すような疑似キャッチライトを生成し、図12Cに示すようなキャッチライトが除去された画像に付加し、図12Gに示すような補正画像データを生成する。画像補正部306は、予め定められるキャッチライトの位置及び形状の設定手順と、キャッチライトの色の設定手順とに応じて、疑似キャッチライトを付加することができる。 The image correction unit 306 generates corrected image data by adding a predetermined pseudo catchlight to the image data from which the catchlight has been removed. Specifically, catch light is removed from the target image data (FIG. 12A) using a catch light mask (FIG. 12B) as shown in FIG. 12C. 12D to 12F are generated, and added to the catchlight-removed image as shown in FIG. 12C to generate corrected image data as shown in FIG. 12G. The image correction unit 306 can add a pseudo catch light according to a predetermined procedure for setting the position and shape of the catch light and a procedure for setting the color of the catch light.

《キャッチライトの除去》
画像補正部306は、入力画像データに、マスク生成部305で生成されたキャッチライトマスクで特定されるキャッチライト領域内を周辺領域の色及び/又はテクスチャに基づいて決定される色及び/又はテクスチャに置換することでキャッチライトを除去する。
《Catchlight Removal》
The image correction unit 306 applies color and/or texture to the input image data based on the color and/or texture of the surrounding area within the catchlight area specified by the catchlight mask generated by the mask generation unit 305. Remove the catchlight by replacing with .

例えば、画像補正部306は、キャッチライト部分の所定の周辺領域の色の平均値を、キャッチライト部分の新たな色として用いてもよい。具体的には、キャッチライト領域から所定の画素外側の範囲内の平均値を基準とすることができる。このとき、周辺領域は、必ずしもキャッチライト部分から規定の範囲内とする必要はなく、目の特定の部位毎に設定される領域とすることができる。例えば、キャッチライトが虹彩内にある場合、虹彩の色の平均値をキャッチライト部分の色としキャッチライトを除去することができる。また例えば、キャッチライトが瞳孔内にある場合、瞳孔の色の平均値をキャッチライト部分の色としキャッチライトを除去することができる。 For example, the image correction unit 306 may use an average value of colors in a predetermined surrounding area of the catch light portion as the new color of the catch light portion. Specifically, the average value within a range outside a predetermined pixel from the catch light area can be used as a reference. At this time, the peripheral area does not necessarily have to be within a specified range from the catch light portion, and can be an area set for each specific part of the eye. For example, if the catchlight is in the iris, the catchlight can be removed by taking the average of the iris colors as the color of the catchlight portion. Also, for example, when the catchlight is in the pupil, the catchlight can be removed by taking the average value of the pupil color as the color of the catchlight portion.

《キャッチライトの位置及び形状の決定》
画像補正部306は、キャッチライト領域の位置情報に応じて、疑似キャッチライトの位置を設定することができる。具体的には、キャッチライトマスクで特定されるキャッチライトの位置に基づいて疑似キャッチライトを付加する位置を決定することができる。例えば、元の画像データにキャッチライトが含まれるとき、その元のキャッチライトの位置を基準にし、元のキャッチライトの中心位置を疑似キャッチライトの中心位置として決定してもよい。
《Determining the position and shape of the catchlight》
The image correction unit 306 can set the position of the pseudo catchlight according to the position information of the catchlight area. Specifically, it is possible to determine the position at which the pseudo catchlight is added based on the position of the catchlight specified by the catchlight mask. For example, when catchlight is included in the original image data, the position of the original catchlight may be used as a reference, and the center position of the original catchlight may be determined as the center position of the pseudo catchlight.

また、画像補正部306は、人物の目の特定部位の位置及びサイズに応じて、キャッチライトの位置とともに、形状や数を設定することができる。例えば、画像データにおける目のサイズが大きい場合、キャッチライトの形状をより複雑にすることができる。一方、画像データにおける目のサイズが小さい場合、目のサイズが大きい場合と比較して、キャッチライトの形状を単純にしたり、キャッチライトの数を少なくすることができる。より具体的には、理想的なキャッチライトの形状に基づいて、疑似キャッチライトのパターンが複数設定されており、元のキャッチライトのサイズに応じて、複数のパターンから対応する疑似キャッチライトが選択されるようにすることもできる。1つの目(片方の目)に複数のキャッチライトを含むとき、これら複数のキャッチライトを一組のキャッチライトとすることができる。例えば、図12D乃至図12Fに示す疑似キャッチライトは、一組である。また、元のキャッチライトのサイズに応じて、キャッチライトの数を決定できるため、複数のパターンの疑似キャッチライトがある場合において、それぞれ一組のキャッチライトの数は同一である必要はない。画像中の目のサイズが大きい場合は4つであるが、目のサイズが小さい場合は2つである等のように設定されていてもよい。 In addition, the image correction unit 306 can set the positions, shapes, and numbers of catch lights according to the positions and sizes of specific parts of the person's eyes. For example, if the eye size in the image data is large, the shape of the catchlight can be made more complex. On the other hand, when the eye size in the image data is small, the shape of the catch light can be simplified or the number of catch lights can be reduced compared to when the eye size is large. More specifically, multiple pseudo catchlight patterns are set based on the ideal catchlight shape, and corresponding pseudo catchlight patterns are selected according to the size of the original catchlight. You can also make it so that When one eye (one eye) includes multiple catchlights, these multiple catchlights can be a set of catchlights. For example, the pseudo catchlights shown in Figures 12D-12F are a set. In addition, since the number of catch lights can be determined according to the size of the original catch lights, the number of catch lights in each set need not be the same when there are a plurality of patterns of pseudo catch lights. If the size of the eye in the image is large, the number is four, but if the size of the eye is small, the number may be set to two.

画像補正部306は、入力画像データに含まれる人物のいずれかの目でキャッチライト領域が特定されず、当該入力画像データにおいて当該人物の対となる目が含まれるとき、対となる目のキャッチライト領域の位置情報に応じて、疑似キャッチライトの位置を設定することができる。仮に、元の画像データにおいて、ある人物の右目にキャッチライトがないが、左目にキャッチライトがある場合、左目のキャッチライトの位置を基準にして、右目の疑似キャッチライトの位置を決定する。この場合、キャッチライトマスクで特定される左目のキャッチライトの位置を基準にして右目の疑似キャッチライトの位置を決定してもよいし、先に左目の疑似キャッチライトの位置を決定し、決定された左目の疑似キャッチライトの位置を基準にして右目の疑似キャッチライトの位置を決定してもよい。 When the input image data does not specify a catch-light region for any of the eyes of the person included in the input image data, and the paired eyes of the person are included in the input image data, the image correction unit 306 performs the catch light for the paired eyes. The position of the pseudo catch light can be set according to the position information of the light area. If there is no catchlight in the right eye of a certain person in the original image data but there is catchlight in the left eye, the position of the pseudo catchlight for the right eye is determined based on the position of the catchlight for the left eye. In this case, the position of the pseudo catchlight for the right eye may be determined based on the position of the catchlight for the left eye specified by the catchlight mask, or the position of the pseudo catchlight for the left eye may be determined first and then determined. The position of the pseudo catchlight for the right eye may be determined based on the position of the pseudo catchlight for the left eye.

画像補正部306は、入力画像データに含まれる一の人物の両方の目でキャッチライト領域が特定できないとき、入力画像データに含まれる当該人物の目の特定部位の位置及びサイズに応じて、疑似キャッチライトの位置を設定することができる。例えば、入力された画像データにおける、人物の瞳孔から所定の位置を、疑似キャッチライトの位置としてもよい。 When the catchlight region cannot be identified by both eyes of one person included in the input image data, the image correction unit 306 corrects the false image according to the position and size of the specific part of the eyes of the person included in the input image data. You can set the position of the catchlight. For example, a predetermined position from the pupil of the person in the input image data may be set as the position of the pseudo catch light.

《疑似キャッチライトの色の決定》
画像補正部306は、入力画像データに含まれる人物の目の特定部位の色に応じて、疑似キャッチライトの色を設定する。疑似キャッチライトの色は、キャッチライトの除去の場合と同様に、画像における人物の目の特定部位の色、及び/又は、特定部位の周辺の色に応じて設定することができる。例えば、複数の人物が画像データに含まれ、人物毎に目の色、より具体的には瞳孔や虹彩の色が異なる場合、人物毎に疑似キャッチライトの色を異なる色とすることができる。また、同一の人物においても、瞳孔と虹彩とでは色が異なることが一般的であるため、瞳孔と虹彩にそれぞれ付加するキャッチライトを異なる色とすることができる。
《Determination of pseudo catchlight color》
The image correction unit 306 sets the color of the pseudo catch light according to the color of the specific part of the person's eyes included in the input image data. The color of the pseudo catch light can be set according to the color of a specific part of the person's eyes in the image and/or the color around the specific part, as in the case of removing the catch light. For example, if multiple people are included in the image data and each person has a different eye color, more specifically, a different pupil or iris color, the pseudo catchlight can be a different color for each person. Also, even in the same person, the pupil and the iris generally have different colors, so the catch lights added to the pupil and the iris can be of different colors.

なお、画像補正部306は、キャッチライトに関する補正に加え、人物の肌の色を調整する補正、メイクを施すような補正、目のサイズ自体を調整する補正等、人物の顔や体等に関し様々な補正処理を実行することができる。 In addition to the correction related to the catch light, the image correction unit 306 performs various corrections related to the face and body of the person, such as correction for adjusting the skin color of the person, correction for applying makeup, correction for adjusting the size of the eyes themselves, and the like. correction processing can be executed.

合成部307は、画像補正部306で処理した画像を合成用画像とし、カメラ91に取り込まれた動画像に合成用画像を合成し、合成した画像をタッチパネルモニタ92にライブビュー表示画像としてさせる。したがって、利用者は、仕上がりイメージをリアルタイムで確認しながら撮影を行うことができる。 The synthesizing unit 307 uses the image processed by the image correcting unit 306 as an image for synthesis, synthesizes the image for synthesis with the moving image captured by the camera 91, and causes the touch panel monitor 92 to display the synthesized image as a live view display image. Therefore, the user can shoot while confirming the finished image in real time.

編集部230は、上述した編集操作部27A,27Bと、編集処理部308とを備える。編集処理部308は、編集操作部27A,27Bにおけるタブレット内蔵モニタ131、およびスピーカ133を制御することで、編集処理を行う。編集処理部308は、タブレット内蔵モニタ131に対する、タッチペン132A,132Bを用いた利用者の操作入力を受け付ける。 The editing unit 230 includes the editing operation units 27A and 27B and the editing processing unit 308 described above. The editing processing unit 308 performs editing processing by controlling the tablet built-in monitor 131 and the speaker 133 in the editing operation units 27A and 27B. The edit processing unit 308 accepts user's operation input on the tablet built-in monitor 131 using the touch pens 132A and 132B.

また、編集処理部308は、タブレット内蔵モニタ131に表示させた選択画面に対する選択操作に応じて、編集対象画像としての撮影画像に所定の画像処理を施し、タブレット内蔵モニタ131に表示させる。あるいは、編集処理部308は、タブレット内蔵モニタ131に表示させた編集画面に対する入力操作に応じて、合成用画像に所定の画像処理を施し、あるいは、入力操作に応じて新たな合成用画像を生成して、撮影画像に合成し、タブレット内蔵モニタ131に表示させる。 In addition, the edit processing unit 308 performs predetermined image processing on the captured image as an image to be edited in response to a selection operation on the selection screen displayed on the tablet built-in monitor 131 , and displays it on the tablet built-in monitor 131 . Alternatively, the editing processing unit 308 performs predetermined image processing on the composition image in response to an input operation on the editing screen displayed on the tablet built-in monitor 131, or generates a new composition image in response to the input operation. Then, it is combined with the photographed image and displayed on the tablet built-in monitor 131 .

また、編集処理部308は、編集の進め方などを説明するガイダンスの出力を制御する。例えば、編集処理部308は、編集の進め方などを説明するガイダンスの画面をタブレット内蔵モニタ131に表示させたり、編集の進め方などを説明するガイダンスの音声をスピーカ133から出力させたりする。また、編集処理部308は通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。また、編集処理部308は、印刷操作部28のプリンタ140を制御することで、印刷処理を行ってもよい。 The editing processing unit 308 also controls the output of guidance explaining how to proceed with editing. For example, the editing processing unit 308 causes the tablet built-in monitor 131 to display a screen of guidance explaining how to proceed with editing, etc., or causes the speaker 133 to output voice guidance explaining how to proceed with editing. Also, the edit processing unit 308 controls the communication unit 203 and performs processing related to communication via a network such as the Internet. Also, the editing processing unit 308 may perform print processing by controlling the printer 140 of the print operation unit 28 .

印刷部240は、上述した印刷操作部28と、印刷処理部309とを備える。印刷処理部309は、編集処理部308から印刷データを受け取り、印刷操作部28のプリンタ140を制御することで、印刷処理を行う。なお、ここでは、画像データを出力する出力部の一例として印刷データである写真シールを出力する印刷部240を用いて説明したが、画像データの出力方法は、これに限定されない。例えば、ネットワーク等を用いて画像データ自体を外部の通信端末に送信する送信手段を出力部としてもよい。 The print unit 240 includes the above-described print operation unit 28 and print processing unit 309 . A print processing unit 309 receives print data from the edit processing unit 308 and performs print processing by controlling the printer 140 of the print operation unit 28 . Although the printing unit 240 that outputs a photo sticker, which is print data, has been described as an example of an output unit that outputs image data, the method of outputting image data is not limited to this. For example, the output unit may be a transmission unit that transmits the image data itself to an external communication terminal using a network or the like.

このように、写真シール作成装置1は課金と引き換えに、利用者の気持ちが盛り上がるような仕掛け(撮影ポーズの選択、BGM、ナレーションなど)が種々施された写真シール作成ゲームを提供する。そのため、写真シール作成装置1での作成画像は、利用者の楽しい表情が引き出された画像や、趣向を凝らした、華やかな画像となる。 In this way, the photo sticker creating apparatus 1 provides a photo sticker creating game in which various tricks (picture pose selection, BGM, narration, etc.) are applied to make the user feel excited in exchange for a charge. Therefore, the image created by the photo sticker creating apparatus 1 is an image that brings out the user's happy expression, or an elaborate and gorgeous image.

また、写真シール作成装置1ではライティングなどの設備が充実しており、そして画像の変形処理(例えば被写体の目の大きさや脚の長さなど)および色の補正(被写体の肌の美白処理など)などを高度な技術で行えるため、写真シール作成装置1で作成した画像は、利用者の写りが良い画像となる。 In addition, the photo sticker creating apparatus 1 is fully equipped with facilities such as lighting, and image deformation processing (for example, subject's eye size, leg length, etc.) and color correction (subject's skin whitening processing, etc.). etc. can be performed with advanced technology, the image created by the photo sticker creating apparatus 1 is an image that looks good to the user.

また、写真シール作成装置1以外での画像処理(例えば写真加工のためのアプリケーションなどでの処理)に比べて容易に編集(画像への落書き)ができ、当該編集のバリエーションも豊かである。この点からも、写真シール作成装置1での作成画像は写真シール作成装置1以外で撮影および画像処理された画像に比べ、比較的華やかに仕上がるといえる。 Editing (scribbling on an image) is easier than image processing (for example, processing with an application for photo processing) other than the photo sticker creating apparatus 1, and there are many variations of editing. Also from this point, it can be said that an image created by the photo sticker creating apparatus 1 is finished more gorgeously than an image photographed and image-processed by a device other than the photo sticker creating apparatus 1 .

(写真シール作成ゲームの流れ)
次に、利用者が写真シール作成装置1において写真シール作成ゲームを行う処理の流れについて、図13を用いて説明する。図13は、写真シール作成装置1におけるゲームの開始から当該ゲームで写真シールを作成するまでの処理の流れを示すフローチャートである。
(Flow of photo sticker creation game)
Next, the flow of processing for the user to play the photo sticker creating game on the photo sticker creating apparatus 1 will be described with reference to FIG. FIG. 13 is a flow chart showing the flow of processing from the start of a game to the creation of a photo sticker in the photo sticker creating apparatus 1. As shown in FIG.

ゲーム開始前の状態においては、写真シール作成装置1の事前選択処理部301として機能する制御部201は、事前選択操作部20のタッチパネルモニタ71に、硬貨の投入を促すメッセージを表示させる。また、制御部201は、図13に示すように、硬貨処理部74からの起動信号の有無に基づいて、硬貨投入返却口73に硬貨が投入されたか否かを判定する(S1)。制御部201は、硬貨投入返却口73に硬貨が投入されていないと判定した場合には(S1:NO)、硬貨が投入されたか否かの判定処理を継続する。 Before the game starts, the control section 201 functioning as the pre-selection processing section 301 of the photo sticker creating apparatus 1 causes the touch panel monitor 71 of the pre-selection operation section 20 to display a message prompting the player to insert a coin. Further, as shown in FIG. 13, the control unit 201 determines whether or not a coin has been inserted into the coin return opening 73 based on the presence or absence of the activation signal from the coin processing unit 74 (S1). If the control unit 201 determines that no coin has been inserted into the coin insertion/return port 73 (S1: NO), it continues the process of determining whether or not a coin has been inserted.

ゲームを開始しようとする利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入返却口73に硬貨を投入する。硬貨投入返却口73へ硬貨が投入されると、硬貨処理部74からゲームの開始を指示する起動信号が出力される。制御部201は、硬貨処理部74から起動信号を入力すると、硬貨投入返却口73に硬貨が投入されたと判定し(S1:YES)、利用者に対して事前接客処理を実行する(S2)。 A user who intends to start the game inserts a coin into the coin insertion/return opening 73 in the preselection space A<b>0 that is the space in front of the preselection operation unit 20 . When a coin is inserted into the coin insertion/return port 73, the coin processing unit 74 outputs an activation signal instructing the start of the game. When the activation signal is input from the coin processing unit 74, the control unit 201 determines that a coin has been inserted into the coin insertion/return port 73 (S1: YES), and performs preliminary customer service processing for the user (S2).

事前接客処理においては、制御部201は、タッチパネルモニタ71に、コースの選択、名前の入力、およびデザインの選択等を促すメッセージ等を表示させる。利用者が、タッチパネルモニタ71に表示されるメッセージ等に従って各種の選択または入力を行うと、制御部201は、撮影コース、名前、デザイン、および印刷レイアウト等の設定を行う。制御部201は、複数種類の合成用背景画像を選択可能にタッチパネルモニタ92に表示させ、合成用背景画像を利用者に選択させる。 In the preliminary customer service process, the control unit 201 causes the touch panel monitor 71 to display a message or the like prompting the user to select a course, enter a name, select a design, or the like. When the user makes various selections or inputs according to messages displayed on the touch panel monitor 71, the control unit 201 sets the shooting course, name, design, print layout, and the like. The control unit 201 causes the touch panel monitor 92 to selectably display a plurality of types of background images for synthesis, and allows the user to select a background image for synthesis.

事前接客処理が終了すると、制御部201は、利用者に対して撮影空間A1に移動して撮影を行うことを促すメッセージ等をタッチパネルモニタ71に表示させる。撮影処理部302として機能する制御部201は、撮影操作部21のタッチパネルモニタ92に、画面にタッチするように促すメッセージを表示させる。なお、このメッセージと共に、あるいはこのメッセージに代えて、スタートボタンを表示させてもよい。また、制御部201は、BGMと共に、画面にタッチするように促すナレーションを、スピーカ93から出力させる。撮影空間A1に移動した利用者が、タッチパネルモニタ92にタッチすると、制御部201は、タッチパネルモニタ92がタッチされたことを読み取り、撮影処理を開始する(S3)。 When the preliminary customer service processing is finished, the control unit 201 causes the touch panel monitor 71 to display a message or the like prompting the user to move to the imaging space A1 and perform imaging. The control unit 201 functioning as the imaging processing unit 302 causes the touch panel monitor 92 of the imaging operation unit 21 to display a message prompting the user to touch the screen. A start button may be displayed along with this message or instead of this message. In addition, the control unit 201 causes the speaker 93 to output a narration prompting the user to touch the screen along with BGM. When the user who has moved to the shooting space A1 touches the touch panel monitor 92, the control section 201 reads that the touch panel monitor 92 has been touched, and starts shooting processing (S3).

撮影処理においては、制御部201は、タッチパネルモニタ92に、例えばライティングに関するガイダンスを表示させ、利用者にライティングのレベルの選択を促す。利用者がライティングのレベルを選択すると、制御部201は、ライティングのレベルを、選択されたレベルに設定する。 In the shooting process, the control unit 201 causes the touch panel monitor 92 to display guidance regarding lighting, for example, and prompts the user to select a lighting level. When the user selects a lighting level, the control unit 201 sets the lighting level to the selected level.

また、制御部201は、撮影枚数を説明するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。本実施形態では、一例として、撮影枚数は7枚に設定されている。 Further, the control unit 201 causes the touch panel monitor 92 to display an instruction screen for explaining the number of shots, and causes the speaker 93 to output the corresponding narration. In this embodiment, as an example, the number of shots is set to seven.

次に、制御部201は、利用者を立ち位置に誘導するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。 Next, the control unit 201 causes the touch panel monitor 92 to display an instruction screen for guiding the user to a standing position, and causes the speaker 93 to output corresponding narration.

以上のようなインストラクション画面を表示させた後、制御部201は、利用者に選択させた撮影コースに応じて、合成用背景画像と、カメラ91で取得している動画像とを合成したライブビュー表示画像を、ライブビュー表示としてタッチパネルモニタ92に表示させる(S4)。これにより、利用者は、仕上がりイメージを確認しながらポーズを取ることができる。 After displaying the instruction screen as described above, the control unit 201 displays a live view obtained by synthesizing the background image for synthesis and the moving image acquired by the camera 91 according to the shooting course selected by the user. The display image is displayed on the touch panel monitor 92 as a live view display (S4). This allows the user to pose while confirming the finished image.

制御部201は、ライブビュー表示を、撮影のためのカウントダウンの終了直前まで行い、その間、制御部201は、ライブビュー表示と共に、あるいはライブビュー表示に代えて、サンプルポーズをタッチパネルモニタ92に表示させる。制御部201は、サンプルポーズに合わせたナレーションをスピーカ93から出力させる。 The control unit 201 performs live view display until just before the end of the countdown for shooting, and during this time, the control unit 201 causes the touch panel monitor 92 to display sample poses along with the live view display or instead of the live view display. . The control unit 201 causes the speaker 93 to output a narration that matches the sample pose.

制御部201は、ライブビュー表示の開始から終了までの時間を管理しており、予め設定した所定の時間が経過すると、タッチパネルモニタ92の表示とスピーカ93の音声とでカウントダウンを行う。 The control unit 201 manages the time from the start to the end of the live view display, and counts down with the display of the touch panel monitor 92 and the sound of the speaker 93 after a predetermined time has passed.

制御部201は、カウントダウンの終了タイミングで、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85に照明制御信号を送信すると共にカメラ91にシャッタ信号を送信する。 The control unit 201 transmits illumination control signals to the upper strobe 82 , left strobe 83 , right strobe 84 , and foot strobe 85 and also transmits a shutter signal to the camera 91 at the end timing of the countdown.

これにより、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85から閃光を照射し、照明された利用者が背景とともに写っている撮影画像をカメラ91により取得する。本実施形態では、一例として、ステップS3からステップS4までの処理を複数回繰り返して7枚の撮影画像を取得する。また、制御部201は、撮影画像に合成用背景画像を合成させた編集対象画像を記憶部202に記憶させる。 As a result, the upper strobe 82, the left strobe 83, the right strobe 84, and the foot strobe 85 emit flashes, and the camera 91 acquires a photographed image of the illuminated user together with the background. In this embodiment, as an example, the processing from step S3 to step S4 is repeated a plurality of times to obtain seven captured images. Further, the control unit 201 causes the storage unit 202 to store an image to be edited in which the background image for synthesis is synthesized with the captured image.

なお、ここでは、予め設定した時間毎に撮影画像が取得される例で説明したが、撮影画像の取得タイミングはこれに限定されない。例えば、撮影のための操作ボタンを撮影操作部21が有する場合、この操作ボタンを操作したタイミングで撮影画像を取得するようにしてもよい。 Here, an example in which a captured image is acquired at each preset time has been described, but the acquisition timing of the captured image is not limited to this. For example, if the shooting operation unit 21 has an operation button for shooting, the shot image may be acquired at the timing when this operation button is operated.

撮影終了後、制御部201は、利用者に対して、編集空間A2-1、または編集空間A2-2のいずれか一方への移動を促す案内画面をタッチパネルモニタ92に表示するとともに、音声による移動案内をスピーカ93に出力する。 After the end of the shooting, the control unit 201 displays on the touch panel monitor 92 a guide screen prompting the user to move to either the editing space A2-1 or the editing space A2-2, and also displays the voice movement. The guidance is output to the speaker 93.

そして、制御部201は、利用者による編集対象画像の編集を許容する編集処理を実行する(S5)。詳述すると、制御部201は、編集対象画像を、タブレット内蔵モニタ131に表示し、この編集対象画像に対して利用者がタッチペン132A,132Bでスタンプ画像やペン画像などを描くことを許容し、編集画像を作成する。 Then, the control unit 201 executes an editing process that allows the user to edit the image to be edited (S5). Specifically, the control unit 201 displays the image to be edited on the tablet built-in monitor 131, allows the user to draw a stamp image, pen image, or the like on the image to be edited with the touch pens 132A and 132B, Create an edited image.

その後、制御部201は、利用者に対してシール紙排出口161が設けられた印刷待ち空間A3への移動を促す案内画面をタブレット内蔵モニタ131に表示するとともに、音声による移動案内をスピーカ133に出力する。 After that, the control unit 201 displays on the tablet built-in monitor 131 a guidance screen prompting the user to move to the print waiting space A3 provided with the sticker paper discharge port 161, and also transmits audio guidance to the speaker 133. Output.

さらに、制御部201は、事前選択操作部20において選択された印刷レイアウトに編集画像を配置して印刷用画像を作成し、この印刷用画像をシール紙142に印刷する印刷処理を実行する(S6)。 Furthermore, the control unit 201 arranges the edited image in the print layout selected by the pre-selection operation unit 20 to create a print image, and executes print processing for printing this print image on the sticker paper 142 (S6 ).

印刷処理が終了すると、制御部201は、シール紙142の排出処理を実行し(S7)、印刷完了したシール紙142をシール紙排出口161から排出し、利用者に写真シールとして提供してゲームを終了する。このようにして、写真シール作成装置1により作成した利用者の撮影画像を、写真シールとして出力することができる。なお、詳細な説明は省略するが、本実施形態の写真シール作成装置1は、通信により、撮影画像を携帯端末等に出力することも可能である。 When the printing process is completed, the control unit 201 executes the process of ejecting the sticker paper 142 (S7), ejects the printed sticker paper 142 from the sticker paper ejection port 161, and provides it to the user as a photo sticker to play the game. exit. In this way, the photographed image of the user created by the photo sticker creating apparatus 1 can be output as a photo sticker. Although detailed description is omitted, the photo sticker creating apparatus 1 of the present embodiment can also output a captured image to a mobile terminal or the like through communication.

(合成処理の詳細)
次に、図14に示すフローチャートを参照して、図13のフローチャートのステップS4の合成処理について説明する。図14に示すように、ステップS4の合成処理では、制御部201は、撮影部220で撮影した画像データを受け付ける(S41)。
(Details of synthesis processing)
Next, with reference to the flowchart shown in FIG. 14, the synthesizing process in step S4 of the flowchart of FIG. 13 will be described. As shown in FIG. 14, in the synthesizing process in step S4, the control unit 201 receives image data captured by the imaging unit 220 (S41).

制御部201は、第1の学習済みモデルM1を用いて、ステップS41で受け付けた画像データに含まれる人物の顔の特定部位の位置を特定する(S42)。撮影画像に複数の利用者を含む場合、制御部201は、全ての利用者の特定部位の位置を特定する。 Using the first trained model M1, the control unit 201 identifies the position of the specific part of the person's face included in the image data received in step S41 (S42). When the photographed image includes a plurality of users, the control unit 201 identifies the positions of the specific parts of all the users.

制御部201は、第2の学習済みモデルM2を用いて、画像データから、ステップS42で特定した一の特定部位に関連するキャッチライト領域を抽出して、キャッチライトマスクを生成する(S43)。 Using the second trained model M2, the control unit 201 extracts a catchlight area related to the one specific part identified in step S42 from the image data, and generates a catchlight mask (S43).

さらに、制御部201は、ステップS43で生成したキャッチライトマスクを用いて、画像データからキャッチライト領域を除去する(S44)。 Furthermore, the control unit 201 removes the catch light area from the image data using the catch light mask generated in step S43 (S44).

制御部201は、S44でキャッチライトが除去された画像データに対し、疑似キャッチライトの付加処理を実行する(S45)。この疑似キャッチライトの付加処理については、図15のフローチャートを用いて後述する。 The control unit 201 executes processing for adding a pseudo catch light to the image data from which the catch light has been removed in S44 (S45). This pseudo catch light adding process will be described later with reference to the flowchart of FIG.

制御部201は、S42で特定した全ての特定に対して、疑似キャッチライトの付加が終了したか否かを判定する(S46)。全ての特定部位について疑似キャッチライトの付加が終了していない場合(S46でNO)、制御部201は、ステップS43に戻り、ステップS43~S46の処理を繰り返し、疑似キャッチライトが付加されていない特定部位に対して疑似キャッチライトを付加する。 The control unit 201 determines whether or not addition of pseudo catchlights has been completed for all of the identifications identified in S42 (S46). If addition of the pseudo catchlight has not been completed for all of the specific parts (NO in S46), the control unit 201 returns to step S43, repeats the processes of steps S43 to S46, and specifies areas to which the pseudo catchlight is not added. Adds a pseudo-catchlight to the part.

全ての特定部位について疑似キャッチライトの付加が終了すると(S46でYES)、制御部201は、他の部位の画像処理を実行する(S47)。 When the pseudo catchlight has been added to all the specific parts (YES in S46), the control unit 201 executes image processing for other parts (S47).

その後、ステップS45で疑似キャッチライトが付加された画像データと、ステップS48で得られた画像データとを合成する(S48)。 After that, the image data added with the pseudo catch light in step S45 and the image data obtained in step S48 are synthesized (S48).

(疑似キャッチライトの付加処理の詳細)
図15に示すフローチャートを参照して、図14のフローチャートのステップS46の疑似キャッチライトの付加処理について説明する。この疑似キャッチライトの付加に関する一連の処理は、対象とする特定の部位毎に実行される。換言すると、制御部201は、目の片方ずつに疑似キャッチライトを付加する。
(Details of pseudo catchlight addition processing)
With reference to the flowchart shown in FIG. 15, the pseudo catch light adding process in step S46 of the flowchart of FIG. 14 will be described. A series of processing relating to the addition of this pseudo catch light is executed for each specific target portion. In other words, the control unit 201 adds a pseudo catch light to each eye.

制御部201は、画像データにおいて対象とする特定部位である目に元のキャッチライトがあるか否かを判定する(S101)。元のキャッチライトがあるとき(S101でYES)、制御部201は、元のキャッチライトの位置を基準にして、疑似キャッチライトの位置を決定する(S102)。 The control unit 201 determines whether or not there is an original catch light in the eye, which is the target specific part in the image data (S101). When the original catchlight exists (YES in S101), the control unit 201 determines the position of the pseudo catchlight based on the position of the original catchlight (S102).

元のキャッチライトが無いとき(S101でNO)、制御部201は、対となる目に元のキャッチライトがあるか否かを判定する(S103)。対となる目に元のキャッチライトがあるとき(S103でYES)、制御部201は、対となる目の元のキャッチライトの位置を基準にして、疑似キャッチライトの位置を決定する(S104)。 When there is no original catch light (NO in S101), the control unit 201 determines whether or not there is the original catch light in the paired eye (S103). When the original catchlight is present in the paired eye (YES in S103), the control unit 201 determines the position of the pseudo catchlight based on the position of the original catchlight of the paired eye (S104). .

一方、対となる目に元のキャッチライトがないとき(S103でNO)、制御部201は、所定の位置、例えば、目の特定部位の位置を基準にして、疑似キャッチライトの位置を決定する(S105)。 On the other hand, when there is no original catch light for the paired eye (NO in S103), the control unit 201 determines the position of the pseudo catch light with reference to a predetermined position, for example, the position of a specific part of the eye. (S105).

ステップS102,S104又はS105で疑似キャッチライトの位置を決定すると、制御部201は、疑似キャッチライトの色を決定する(S106)。 After determining the position of the pseudo catch light in step S102, S104 or S105, the control unit 201 determines the color of the pseudo catch light (S106).

続いて、制御部201は、画像データにおいて、ステップS106で決定した色の疑似キャッチライトを付加する(S107)。 Subsequently, the control unit 201 adds the pseudo catch light of the color determined in step S106 to the image data (S107).

本開示の画像処理装置では、画像データにおける特定部位の位置を利用してキャッチライトマスクを生成することで、画像データからキャッチライトを除去することができる。また、本開示の画像処理装置では、画像データからキャッチライトを除去することで、理想的なキャッチライトを付加することができる。これにより、本開示の画像処理装置では、利用者にとって好ましいキャッチライトを付加した画像データを提供することができる。 In the image processing apparatus of the present disclosure, catchlight can be removed from image data by generating a catchlight mask using the position of a specific portion in image data. Further, in the image processing apparatus of the present disclosure, ideal catchlight can be added by removing catchlight from image data. Thereby, the image processing apparatus of the present disclosure can provide image data to which a catch light that is preferable for the user is added.

(ソフトウェアによる実現例)
写真シール作成装置1の機能ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
(Example of realization by software)
The functional blocks of the photo sticker creating apparatus 1 may be implemented by a logic circuit (hardware) formed in an integrated circuit (IC chip) or the like, or may be implemented by software using a CPU (Central Processing Unit). good.

後者の場合、写真シール作成装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、前記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、前記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。 In the latter case, the photo sticker creating apparatus 1 includes a CPU for executing program instructions, which are software for realizing each function, and a ROM (Read Only Memory) in which the program and various data are recorded so as to be readable by a computer (or CPU). ) or a storage device (these are referred to as a “recording medium”), a RAM (Random Access Memory) for expanding the program, or the like. The object of the present invention is achieved by a computer (or CPU) reading and executing the program from the recording medium. As the recording medium, a "non-temporary tangible medium" such as a tape, disk, card, semiconductor memory, programmable logic circuit, or the like can be used. Also, the program may be supplied to the computer via any transmission medium (communication network, broadcast wave, etc.) capable of transmitting the program. The invention can also be embodied in the form of a data signal embedded in a carrier wave, in which the program is embodied by electronic transmission.

本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.

1 写真シール作成装置(画像処理装置)
301 事前選択処理部
302 撮影処理部
303 受付部
304 特定部
305 マスク生成部
306 画像補正部
307 合成部
308 編集処理部
309 印刷処理部(出力部)
1 Photo sticker creation device (image processing device)
301 Pre-selection processing unit 302 Shooting processing unit 303 Receiving unit 304 Identification unit 305 Mask generation unit 306 Image correction unit 307 Synthesis unit 308 Editing processing unit 309 Print processing unit (output unit)

Claims (9)

人物の顔の少なくとも一部を含む画像データの処理に用いる画像処理装置であって、
複数組の人物の目を含む画像データと、当該画像データにおける目の特定部位の位置情報との関係を学習した第1の学習済みモデルを用いて、人物の顔の少なくとも一部を含む入力画像データから、少なくとも1以上の前記特定部位の位置を特定する特定部と、
複数組の人物の目の特定部位を含む画像データと、当該画像データにおけるキャッチライト領域との関係を学習した第2の学習済みモデルを用いて、前記特定部で特定された各領域の画像データに対し、キャッチライト領域をそれ以外の領域と区別するキャッチライトマスクを生成するマスク生成部と、
を備える画像処理装置。
An image processing device used for processing image data including at least part of a person's face,
An input image including at least part of a person's face using a first trained model that has learned the relationship between image data including a plurality of sets of person's eyes and position information of specific parts of the eyes in the image data. an identifying unit that identifies the position of at least one or more of the specific parts from the data;
Image data of each area specified by the specifying unit using a second trained model that has learned the relationship between image data including a plurality of sets of specific parts of a person's eyes and the catch light area in the image data. , a mask generation unit that generates a catch light mask that distinguishes the catch light area from other areas;
An image processing device comprising:
前記入力画像データに、前記キャッチライトマスクで特定される前記キャッチライト領域を周辺領域の色に基づいて決定される色に置換してキャッチライトを除去する画像処理部をさらに備える請求項1記載の画像処理装置。 2. The input image data according to claim 1, further comprising an image processing unit that removes catchlight by replacing the catchlight area specified by the catchlight mask with a color determined based on the color of the surrounding area. Image processing device. キャッチライトが除去された前記画像データに、所定の疑似キャッチライトを付加した補正画像データを生成する画像補正部をさらに備える請求項2に記載の画像処理装置。 3. The image processing apparatus according to claim 2, further comprising an image correcting unit that generates corrected image data by adding a predetermined pseudo catch light to the image data from which the catch light has been removed. 前記画像補正部は、前記キャッチライト領域の位置情報に応じて、前記疑似キャッチライトの位置を設定する
請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the image correction section sets the position of the pseudo catchlight according to the positional information of the catchlight area.
前記画像補正部は、前記入力画像データに含まれる人物の各目にキャッチライト領域が特定されず、当該入力画像データにおいて当該人物の対となる目が含まれるとき、対となる目のキャッチライト領域の位置情報に応じて、前記疑似キャッチライトの位置を設定する
請求項4に記載の画像処理装置。
When the input image data does not specify a catch-light region for each eye of a person and the input image data includes a pair of eyes of the person, the image correction unit adjusts the catch-light of the pair of eyes. 5. The image processing apparatus according to claim 4, wherein the position of said pseudo catch light is set according to the position information of the area.
前記画像補正部は、前記入力画像データに含まれる前記人物の前記目の特定部位の位置及びサイズに応じて、前記疑似キャッチライトの位置を設定する
請求項3に記載の画像処理装置。
The image processing apparatus according to claim 3, wherein the image correction section sets the position of the pseudo catch light according to the position and size of the specific part of the eye of the person included in the input image data.
前記画像補正部は、前記入力画像データに含まれる前記人物の前記目の特定部位の色に応じて、前記疑似キャッチライトの色を設定する
請求項3乃至6のいずれかに1記載の画像処理装置。
7. The image processing according to any one of claims 3 to 6, wherein the image correction unit sets the color of the pseudo catchlight according to the color of the specific part of the eye of the person included in the input image data. Device.
コンピュータを、請求項1乃至7のいずれか1に記載の画像処理装置として機能させる画像処理プログラム。 An image processing program that causes a computer to function as the image processing apparatus according to any one of claims 1 to 7. 複数組の人物の目を含む画像データと、当該画像データにおける目の特定部位の位置情報との関係を学習した第1の学習済みモデルを用いて、人物の顔の少なくとも一部を含む入力画像データから、少なくとも1以上の前記特定部位の位置を特定するステップと、
複数組の人物の目の特定部位を含む画像データと、当該画像データにおけるキャッチライト領域との関係を学習した第2の学習済みモデルを用いて、特定された各領域の画像データに対し、キャッチライト領域をそれ以外の領域と区別するキャッチライトマスクを生成するステップと、
を含むマスク生成方法。
An input image including at least part of a person's face using a first trained model that has learned the relationship between image data including a plurality of sets of person's eyes and position information of specific parts of the eyes in the image data. identifying the position of at least one or more of the specific parts from the data;
Using a second trained model that has learned the relationship between image data including a plurality of sets of specific parts of a person's eyes and a catch light area in the image data, catch light is applied to image data of each identified area. generating a catch light mask that distinguishes light areas from other areas;
mask generation method, including
JP2021148109A 2021-09-10 2021-09-10 Image processing apparatus, image processing program, and mask generation method Pending JP2023040914A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021148109A JP2023040914A (en) 2021-09-10 2021-09-10 Image processing apparatus, image processing program, and mask generation method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021148109A JP2023040914A (en) 2021-09-10 2021-09-10 Image processing apparatus, image processing program, and mask generation method

Publications (1)

Publication Number Publication Date
JP2023040914A true JP2023040914A (en) 2023-03-23

Family

ID=85632385

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021148109A Pending JP2023040914A (en) 2021-09-10 2021-09-10 Image processing apparatus, image processing program, and mask generation method

Country Status (1)

Country Link
JP (1) JP2023040914A (en)

Similar Documents

Publication Publication Date Title
JP5488526B2 (en) Image processing apparatus and image processing method
JP2017229013A (en) Game machine for forming photograph and display method
JP6880394B2 (en) Photographing game console and shooting method
JP7152687B2 (en) Display control device, display control method, program
JP5120508B1 (en) Photo sticker creation apparatus and method, and program
JP6712047B2 (en) Photo creation game machine and image generation method
JP7074994B2 (en) Photographing game console and image processing method
JP7132492B2 (en) Image processing device, display control method, and program
JP2023040914A (en) Image processing apparatus, image processing program, and mask generation method
JP2018195881A (en) Photo seal creation device, photo seal manufacturing method, and photo seal manufacturing processing program
JP7401727B2 (en) Image processing device, image processing method, and image processing program
JP6853475B2 (en) Photo creation game console and display method
JP6687839B2 (en) Photo creation game machine and display method
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP2019032374A (en) Image imaging device
JP7406065B2 (en) Photography equipment, photography method, and program
JP7319534B2 (en) camera
JP7364866B2 (en) Image processing device, editing device
JP2020144780A (en) Image processing device, image processing method, and image processing program
JP6933799B2 (en) Photographing game console and shooting method
JP5482948B2 (en) Image processing apparatus and image processing method
JP6455550B2 (en) Photo sticker creation apparatus and display control method
JP7121256B2 (en) PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM
JP6414276B2 (en) Photo sticker creation apparatus and method, and program
JP6982230B2 (en) Photographing game console and image processing method