JP2023040914A - Image processing apparatus, image processing program, and mask generation method - Google Patents
Image processing apparatus, image processing program, and mask generation method Download PDFInfo
- Publication number
- JP2023040914A JP2023040914A JP2021148109A JP2021148109A JP2023040914A JP 2023040914 A JP2023040914 A JP 2023040914A JP 2021148109 A JP2021148109 A JP 2021148109A JP 2021148109 A JP2021148109 A JP 2021148109A JP 2023040914 A JP2023040914 A JP 2023040914A
- Authority
- JP
- Japan
- Prior art keywords
- image data
- image
- unit
- catchlight
- person
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Image Processing (AREA)
- Image Analysis (AREA)
Abstract
Description
本発明は、撮影した画像に写る顔の特定の部位を処理する画像処理装置、画像処理プログラム及びマスク生成方法に関する。 The present invention relates to an image processing apparatus, an image processing program, and a mask generation method for processing a specific portion of a face appearing in a photographed image.
写真撮影の際に、人物の眼に白い映り込み、すなわち、キャッチライトがあると、例えば、その人物の表情が生き生きとする等の効果が得られる。例えば、少なくとも一方の目でキャッチライトがついていない場合や、理想的な形状でない場合もあり、撮影された写真から、好ましくないキャッチライトを除去したい要望がある。また、撮影された写真に理想的なキャッチライトを付けたいという要望もある。 When a person takes a picture, if there is a white reflection in the eyes of a person, that is, if there is a catch light, an effect such as making the person's expression lively can be obtained. For example, at least one eye may not have a catch light or may not have an ideal shape, and there is a desire to remove the undesirable catch light from the photograph taken. There is also a desire to add an ideal catchlight to the photographed photograph.
撮影画像中のキャッチライトを消したうえで、新たに好ましいキャッチライトを描画することが可能な技術もある(例えば、特許文献1参照)。しかしながら、特許文献1に記載される技術では、各人物に理想的なキャッチライトが付加されないおそれもあった。
There is also a technique capable of drawing a new preferable catchlight after erasing the catchlight in the captured image (see, for example, Patent Document 1). However, with the technique described in
本発明では、画像データに含まれるキャッチライトの除去に用いるキャッチライトマスクを生成する。 In the present invention, a catchlight mask is generated for removing catchlight contained in image data.
本発明に係る画像処理装置の第1の態様は、複数組の人物の目を含む画像データと、当該画像データにおける目の特定部位の位置情報との関係を学習した第1の学習済みモデルを用いて、人物の顔の少なくとも一部を含む入力画像データから、少なくとも1以上の特定部位の位置を特定する特定部と、複数組の人物の目の特定部位を含む画像データと、当該画像データにおけるキャッチライト領域との関係を学習した第2の学習済みモデルを用いて、特定部で特定された各領域の画像データに対し、キャッチライト領域をそれ以外の領域と区別するキャッチライトマスクを生成するマスク生成部と、を備える。 A first aspect of an image processing apparatus according to the present invention is to provide a first trained model that has learned a relationship between image data including a plurality of sets of human eyes and position information of specific parts of the eyes in the image data. a specifying unit for specifying the position of at least one or more specific parts from input image data including at least a part of a person's face; a plurality of sets of image data including specific parts of eyes of a person; Generate a catchlight mask that distinguishes the catchlight area from other areas for the image data of each area identified by the identification unit using the second trained model that has learned the relationship with the catchlight area in and a mask generator.
これにより、画像データに含まれる人物のキャッチライトの除去に用いるキャッチライトマスクを生成することができる。 Thereby, it is possible to generate a catch light mask used for removing the catch light of the person included in the image data.
入力画像データに、キャッチライトマスクで特定されるキャッチライト領域を周辺領域の色に基づいて決定される色に置換してキャッチライトを除去する画像処理部をさらに備えてもよい。 The input image data may further include an image processing unit that removes the catchlight by replacing the catchlight area specified by the catchlight mask with a color determined based on the color of the surrounding area.
これにより、画像データに含まれる人物のキャッチライトを除去することができる。 Thereby, the catchlight of the person included in the image data can be removed.
キャッチライトが除去された画像データに、所定の疑似キャッチライトを付加した補正画像データを生成する画像補正部をさらに備えてもよい。 An image correction unit may be further provided for generating corrected image data by adding a predetermined pseudo catchlight to the image data from which the catchlight has been removed.
これにより、画像データに含まれる人物に対して理想的なキャッチライトを付加することができる。 This makes it possible to add an ideal catchlight to the person included in the image data.
画像補正部は、キャッチライト領域の位置情報に応じて、疑似キャッチライトの位置を設定してもよい。 The image corrector may set the position of the pseudo catchlight according to the positional information of the catchlight area.
これにより、人物に対して理想的なキャッチライトを付加することができる。 This makes it possible to add an ideal catch light to the person.
画像補正部は、入力画像データに含まれる人物の各目にキャッチライト領域が特定されず、当該入力画像データにおいて当該人物の対となる目が含まれるとき、対となる目のキャッチライト領域の位置情報に応じて、疑似キャッチライトの位置を設定してもよい。 When a catch-light region is not identified for each eye of a person included in the input image data, and the paired eyes of the person are included in the input image data, the image correction unit corrects the catch-light region for the paired eyes. The position of the pseudo catchlight may be set according to the positional information.
これにより、人物に対して理想的なキャッチライトを付加することができる。 This makes it possible to add an ideal catch light to the person.
画像補正部は、入力画像データに含まれる人物の目の特定部位の位置及びサイズに応じて、疑似キャッチライトの位置を設定してもよい。 The image correction unit may set the position of the pseudo catch light according to the position and size of the specific part of the person's eye included in the input image data.
これにより、人物に対して理想的なキャッチライトを付加することができる。 This makes it possible to add an ideal catch light to the person.
画像補正部は、前記入力画像データに含まれる人物の目の特定部位の色に応じて、疑似キャッチライトの色を設定してもよい。 The image correction unit may set the color of the pseudo catch light according to the color of the specific part of the person's eyes included in the input image data.
これにより、人物に対して理想的なキャッチライトを付加することができる。 This makes it possible to add an ideal catch light to the person.
本発明によれば、写真に含まれるキャッチライトの除去に用いるキャッチライトマスクを生成することができる。 According to the present invention, it is possible to generate a catchlight mask for use in removing catchlight contained in a photograph.
以下、本発明の具体的な実施の形態について添付の図面を参照しながら説明する。なお、同一の機能を有する部材については、同一の符号を付し、適宜その説明を省略する。さらに、各図面に記載した構成の形状、また、長さ、奥行および幅などの寸法は、実際の形状および寸法を反映させたものではなく、図面の明瞭化と簡略化のために適宜変更している。 Hereinafter, specific embodiments of the present invention will be described with reference to the accompanying drawings. Note that members having the same function are denoted by the same reference numerals, and description thereof will be omitted as appropriate. Furthermore, the shape of the configuration and the dimensions such as length, depth and width shown in each drawing do not reflect the actual shape and dimension, and have been changed as appropriate for the sake of clarity and simplification of the drawing. ing.
本発明に係る画像処理装置を、一例である写真シール作成装置として説明する。本発明を適用する写真シール作成装置は、撮影や編集等を利用者にゲームとして行わせ、その撮影・編集した画像を、写真シールやデータとして利用者に提供するゲーム装置である。写真シール作成装置1は、例えば、ゲームセンタ、ショッピングモールおよび観光地の店舗等に設置される。
An image processing apparatus according to the present invention will be described as an example of a photo sticker creating apparatus. A photo sticker creation device to which the present invention is applied is a game device that allows a user to perform shooting, editing, etc. as a game, and provides the user with the shot and edited image as a photo sticker or data. The photo
写真シール作成装置が提供するゲームにおいて、利用者は、写真シール作成装置に設けられたカメラを用いて自分自身等を撮影する。利用者は、その撮影画像に対して、前景画像および/または背景画像を合成したり、また、編集用合成用画像としてのペン画像入力やスタンプ画像入力等の編集機能(落書き編集機能)を用いたりして編集を行い、撮影画像を彩り豊かなものにデザインする。そしてゲーム終了後、利用者は、編集した画像が印刷された写真シール等を成果物として受け取る。または、写真シール作成装置は編集した画像を利用者の携帯端末に提供し、利用者は携帯端末により成果物を受け取ることもできる。 In the game provided by the photo sticker creating device, the user takes a picture of himself or herself using a camera provided in the photo sticker creating device. The user synthesizes a foreground image and/or a background image with the captured image, or uses an editing function (graffiti editing function) such as a pen image input or a stamp image input as a composition image for editing. Editing and designing the shot image to make it colorful. After the game is over, the user receives a photo sticker or the like on which the edited image is printed as a product. Alternatively, the photo sticker creating device can provide the edited image to the mobile terminal of the user, and the user can receive the product by the mobile terminal.
(写真シール作成装置の構成)
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりするためにその画像をサーバに送信することで、利用者に画像を提供する。写真シール作成装置1の利用者は、主に女子中学生および女子高校生などの若い女性が中心とされる。写真シール作成装置1において、1組当たり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。
(Configuration of photo sticker creating device)
1 and 2 are perspective views showing configuration examples of the appearance of the photo
写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が華やかな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。
In the photo
図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。
As shown in FIG. 1, the photo
撮影ユニット11は、事前選択操作部20、撮影操作部21、および背景部22から構成される。事前選択操作部20は、撮影操作部21の側面に設置される。事前選択操作部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影操作部21と背景部22は所定の距離だけ離れて設置される。撮影操作部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。
The photographing
事前選択操作部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を利用者に選択させるための処理を行ったりする。事前選択操作部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択操作部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。
The
撮影操作部21は、利用者を被写体として撮影するための装置である。撮影操作部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影操作部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影操作部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影操作部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択操作部20が設置されるものとする。なお、事前選択操作部20は、側面パネル41Bに設置されるようにしてもよいし、側面パネル41A,41Bの両方に設置されるようにしてもよい。
The photographing
背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。
The
側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。
The
なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、利用者が所望する背景画像がシートの部分に合成される。
For example, a green chromakey sheet is attached to the surface of the
側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。
An opening formed by being surrounded by the
撮影空間の上方には、撮影操作部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。
Above the imaging space, a ceiling surrounded by the front of the
編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影操作部21の正面パネル42に接するようにして、撮影ユニット11に連結している。
The
図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。
If the configuration of the
編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影操作部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。
The front side of the
編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A,26B,26Cが、組み合わせられて構成される。3本のレール26A,26B,26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。
A
カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。
A curtain is attached to the
また、後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。
As will be described later, the left side of the
(利用者の移動)
ここで、画像作成ゲームの流れと、それに伴う利用者の移動について説明する。図3は、写真シール作成ゲーム中の利用者の空間移動を説明するための図である。
(Movement of users)
Here, the flow of the image creation game and the accompanying movement of the user will be described. FIG. 3 is a diagram for explaining the spatial movement of the user during the photo sticker creation game.
まず、利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。
First, the user inserts money into the coin slot in the preselection space A0, which is the space in front of the
事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影操作部21と背景部22の間に形成された撮影空間A1に入る。そして利用者は、撮影操作部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。
After finishing the pre-selection work, the user can enter the shooting space formed between the shooting
撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2-1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2-2に移動する。
The user who has completed the photographing work exits the photographing space A1 from the doorway G1 as indicated by the
編集空間A2-1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2-2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2-1と編集空間A2-2のいずれの空間に移動するのかは、撮影操作部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2-1または編集空間A2-2に移動した利用者は、編集作業を開始する。編集空間A2-1の利用者と、編集空間A2-2の利用者は同時に編集作業を行うことができる。
The editing space A2-1 is an editing space on the front side of the
編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2-1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2-1から印刷待ち空間A3に移動する。また、編集空間A2-2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2-2から印刷待ち空間A3に移動する。
After the editing work is completed, printing of the edited image is started. When printing starts, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by the
印刷待ち空間A3に移動した利用者は、画像の印刷の終了を待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の画像作成ゲームを終える。
The user who has moved to the print waiting space A3 waits for the end of image printing. When the printing is finished, the user receives the sticker paper discharged from the discharge port provided on the right side of the
(事前選択部の構成)
次に、各装置の構成について説明する。図4は、事前選択操作部20の正面図である。
(Configuration of pre-selection part)
Next, the configuration of each device will be described. FIG. 4 is a front view of the
事前選択操作部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択操作を受け付ける機能を備えている。タッチパネルモニタ71には、撮影に関するコースの選択、編集の対象となる編集対象画像における背景となる画像の選択、作成画像のレイアウト、画像作成ゲーム中に流れるBGM(Back Ground Music)、音および音声の少なくともいずれかの選択、並びに利用者の名前の入力などを行わせる事前選択処理に用いられる画面が表示される。
A touch panel monitor 71 is provided above the
撮影に関するコースは、利用者が2人で撮影を行う2人用コースと、3人以上で撮影を行う大人数コースとが用意されている。また、男女のカップルで撮影を行うカップルコースが用意されていてもよい。 Courses related to photography include a two-person course in which two users take pictures, and a large-group course in which three or more users take pictures. Also, a couple course in which a male and female couple take pictures may be prepared.
タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM、効果音などを出力する。また、スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。
A
(撮影部の構成)
図5は、撮影部としての撮影操作部21の正面図である。撮影操作部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
(Structure of imaging unit)
FIG. 5 is a front view of the photographing
正面パネル42の中央には、カメラユニット81が設けられる。カメラユニット81は、カメラ91および表示部としてのタッチパネルモニタ92から構成される。
A
カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91により取り込まれた動画像(以下、ライブビュー表示画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。
The
タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択操作を受け付ける機能を備えている。当該選択操作の具体例としては、撮影コースの選択、撮影開始および終了の指示(撮影の制御指示)、目の変形具合および色、ならびに肌の色の補正具合の選択、作成画像における背景画像となる画像の選択、ならびに画像作成ゲーム中のBGM(音・音声)の選択などが挙げられる。タッチパネルモニタ92には、カメラ91により取り込まれた動画像(ライブビュー画像)や静止画像(撮影画像)が表示される。
A touch panel monitor 92 is provided below the
カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボ82が設置される。上ストロボ82は、正面上方から利用者の顔および上半身に光を照射する。
Above the
また、カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボ85が設けられる。なお、上ストロボ82と足元ストロボ85には、ストロボと蛍光灯が含まれている。
A
なお、図1および図5においては図示を省略するが、正面パネル42の例えば天井付近には、スピーカ93が設けられる。スピーカ93は、制御部201から出力される音声信号により、撮影処理の案内音声、BGM、効果音などを出力する。
Although not shown in FIGS. 1 and 5, a
(背景部の構成)
図6は、背景部22の撮影空間A1側の正面図である。
(Composition of the background part)
FIG. 6 is a front view of the
背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。
A rear
図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。
In the drawing, a rear
また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられていてもよい。クロマキーシート121の色は、例えば緑色とされる。
Also, a
なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面にも、クロマキーシート121と同様に、クロマキーシートが貼り付けられていてもよい。
Although not shown, a chromakey sheet may be attached to the
(編集ユニットの構成)
図7は、編集ユニット12の編集空間A2-1側の正面図である。
(Composition of editing unit)
FIG. 7 is a front view of the
斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。タブレット内蔵モニタ131は、タブレットがディスプレイを露出するように設けられることによって構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。例えば、2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。
A tablet built-in
図8は、編集ユニット12の左側面図である。
8 is a left side view of the
編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部には出力部としてのプリンタが設けられている。そのプリンタにより、編集空間A2-1の利用者が写る画像、または、編集空間A2-2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。
A seal
(写真シール作成装置の内部構成)
図9は、写真シール作成装置1の内部の構成例を示すブロック図である。図9において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
(Internal configuration of photo sticker creating device)
FIG. 9 is a block diagram showing an example of the internal configuration of the photo
制御部201はCPU(Central Processing Unit)などにより構成される。制御部201は、ROM(Read Only Memory)206や記憶部202に記憶されているプログラムを実行し、写真シール作成装置1の全体の動作を制御する。制御部201には、記憶部202、通信部203、ドライブ204、ROM206、RAM(Random Access Memory)207が接続される。制御部201には、事前選択操作部20、撮影操作部21、背景部22、編集操作部27A,27B、および印刷操作部28の各構成も接続される。
The
記憶部202は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部202は、制御部201から供給された各種の設定情報などを記憶する。記憶部202に記憶されている情報は制御部201により適宜読み出される。
The
通信部203は、インターネットなどのネットワークのインタフェースである。通信部203は、制御部201による制御に従って外部の装置と通信を行う。通信部203は、例えば、利用者に選択された撮影画像や編集画像をサーバに送信する。通信部203から送信された画像は、サーバにおいて所定の記憶領域が割り当てられて保存され、サーバにアクセスしてきた携帯端末に表示されたり、ダウンロードされたりする。
A
ドライブ204には、光ディスクや半導体メモリなどよりなるリムーバブルメディア205が適宜装着される。ドライブ204によりリムーバブルメディア205から読み出されたプログラムやデータは、制御部201に供給され、記憶部202に記憶されたり、インストールされたりする。
A
ROM206は、制御部201において実行されるプログラムやデータを記憶する。RAM207は、制御部201が処理するデータやプログラムを一時的に記憶する。
The
事前選択操作部20は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択操作部20は、タッチパネルモニタ71、スピーカ72、および硬貨処理部74から構成される。
The
タッチパネルモニタ71は、制御部201による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、各種の設定が行われる。
The touch panel monitor 71 displays various selection screens under the control of the
硬貨処理部74は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部74は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号を制御部201に出力する。
The
撮影操作部21は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部220は、上ストロボ82、左ストロボ83、右ストロボ84、足元ストロボ85、カメラ91、タッチパネルモニタ92、およびスピーカ93から構成される。
The photographing
上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85は、撮影空間A1内に配置され、制御部201から供給される照明制御信号に従って発光する。
The
カメラ91は、制御部201によるシャッタ制御に従って撮影を行い、撮影によって得られた撮影画像(画像データ)を制御部201に出力する。
編集操作部27Aは、編集空間A2-1にいる利用者を対象とした編集処理を実現する。編集操作部27Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ133から構成される。編集操作部27Bは、編集空間A2-2にいる利用者を対象とした編集処理を実現し、編集操作部27Aと同一の構成を有する。なお、以下、編集操作部27A,27Bを特に区別しない場合には、単に、編集操作部27という。
The
タブレット内蔵モニタ131は、制御部201による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号は制御部201に供給され、編集対象となる撮影画像が編集される。
The tablet built-in
印刷操作部28は、印刷待ち空間A3にいる利用者に、作成画像を印刷済みのシール紙を提供する印刷処理を実現する。印刷操作部28は、プリンタ140を含むように構成される。プリンタ140にはシール紙ユニット141が装着される。
The
プリンタ140は、制御部201から供給された印刷データに基づいて、編集画像をシール紙ユニット141に収納されているシール紙142に印刷し、シール紙排出口161に排出する。
Based on the print data supplied from the
(写真シール作成装置の機能ブロック)
図10は写真シール作成装置1の機能ブロックを示すブロック図である。写真シール作成装置1は、事前選択部210、撮影部220、編集部230、および印刷部240として機能する。また、制御部201は、本発明の写真シール作成プログラムを実行することにより、事前選択処理部301、撮影処理部302、受付部303、特定部304、マスク生成部305、画像補正部306、合成部307、編集処理部308、および印刷処理部309として機能する。
(Functional block of photo sticker creating device)
FIG. 10 is a block diagram showing functional blocks of the photo
事前選択部210は、上述した事前選択操作部20と、事前選択処理部301とを備える。事前選択処理部301は、事前選択操作部20におけるタッチパネルモニタ71、スピーカ72、および硬貨処理部74を制御することで、事前選択処理を行う。事前選択処理部301は、撮影空間A1において行われる撮影に関するコースの選択のための選択画面等をタッチパネルモニタ71に表示させる。また事前選択処理部301は、タッチパネルモニタ71に対する、利用者の操作入力を受け付ける。具体的には、事前選択処理部301は、タッチパネルモニタ71に表示された選択画面に対する選択の操作入力、および利用者の名前の入力等を受け付ける。また事前選択処理部301は、各種の選択操作を説明するガイダンスの出力を制御する。事前選択処理部301は、各種の選択操作を説明する画面をタッチパネルモニタ71に表示させたり、各種の選択操作を説明する音声をスピーカ72から出力させたりする。
The
撮影部220は、上述した撮影操作部21と、撮影処理部302とを備える。撮影処理部302は、撮影操作部21におけるカメラ91、タッチパネルモニタ92、およびスピーカ93を制御することで、撮影処理を行う。
The
撮影処理部302は、タッチパネルモニタ92に対する、利用者の操作入力を受け付ける。例えば、撮影空間A1における撮影処理は、撮影処理部302が、利用者によるタッチパネルモニタ92への接触操作を入力として受け付けることにより開始される。
The
撮影処理部302は、カメラ91を制御し、利用者を被写体として撮影する。撮影には、動画像と静止画像とがある。撮影処理部302は、タッチパネルモニタ92の表示を制御することにより、カメラ91に取り込まれた動画像をタッチパネルモニタ92にライブビュー表示させたり、撮影結果である静止画像を撮影画像として表示させたりする。
The photographing
また、撮影処理部302は、撮影枚数、利用者の立ち位置、サンプルポーズ、目線についてのメッセージ、および撮影タイミング等を説明するインストラクション画面をタッチパネルモニタ92に表示させる。さらに、それぞれのインストラクション画面に対応するナレーションの音声、およびBGMをスピーカ93から出力させる。
The photographing
受付部303は、撮影部220で利用者を撮影した画像データを受け付ける。
The reception unit 303 receives image data of the user photographed by the photographing
特定部304は、複数組の人物の目を含む画像データと、当該画像データにおける目の特定部位の位置情報との関係を学習した第1の学習済みモデルを用いて、人物の顔の少なくとも一部を含む入力画像データから、少なくとも1以上の特定部位の位置を特定する。
The
ここで、「入力画像データ」は、人物の顔の少なくとも一部を含む画像データであればよい。例えば、人物の顔の全体を含む画像であっても、人物の顔の全体を含む画像から一部がトリミングされた画像、換言すると、一部が切り抜きされた画像であってもよい。したがって、特定部304で対象とする入力画像データは、受付部303で受け付けた画像データの全体であることに限定されず、受付部303が受け付けた画像データから特定部位を含む範囲がトリミングされた画像データであってもよい。
Here, the "input image data" may be image data including at least part of a person's face. For example, it may be an image including the entire face of a person, or an image obtained by trimming a portion of an image including the entire face of a person, in other words, an image obtained by clipping a portion of the image. Therefore, the input image data targeted by the identifying
「目の特定部位」は、例えば、虹彩又は瞳孔の少なくともいずれかにより特定される部位としてもよい。具体的には、目の特定部位は、虹彩又は瞳孔の中心座標としてもよい。また、目の特定部位は、1点である必要はなく、例えば、目尻の座標及び目頭の座標の2点等の複数の部位を特定部位としてもよい。 The "specific part of the eye" may be, for example, a part specified by at least one of the iris and the pupil. Specifically, the specific part of the eye may be the central coordinates of the iris or pupil. Moreover, the specific part of the eye does not have to be one point. For example, a plurality of parts such as the coordinates of the outer corner of the eye and the coordinates of the inner corner of the eye may be used as the specific part.
第1の学習済みモデルM1は、図11Aに示すように、学習データセットである複数組の入力データである人物の顔の少なくとも一部を含む「画像データ」と、正解データである「目の特定部位の位置」との関係を学習器によって学習されることで得られたモデルである。また、目の特定部位の位置とともに、目の特定部位のサイズや形状を用いて学習してもよい。例えば、黒目の位置及びサイズ(半径)等の組み合わせを正解データとしてもよい。このように生成された第1の学習済みモデルM1は、図11Bに示すように、新たに人物の顔の少なくとも一部を含む画像データが入力されると、この画像データの顔から人物の目を含む特定部位の位置を特定する。ここで、第1の学習済みモデルM1は、各人物の両目について、それぞれ片方ずつの特定部位の位置を学習する。特定部304は、複数の人物の顔の少なくとも一部を含む画像データが入力されると、この画像データから、各人物の目の特定部位の位置を特定するとともに、各人物の両目の特定部位の位置を一組として記憶部202に一時記憶することが好ましい。
As shown in FIG. 11A, the first trained model M1 includes "image data" including at least a part of a person's face, which is a plurality of sets of input data, which is a learning data set, and "eyes", which is correct data. It is a model obtained by learning the relationship with the "position of a specific part" by a learner. Also, the size and shape of the specific part of the eye may be used for learning as well as the position of the specific part of the eye. For example, the correct data may be a combination of the position and size (radius) of the iris. As shown in FIG. 11B, the first trained model M1 generated in this way can, as shown in FIG. Identify the location of a specific site containing Here, the first trained model M1 learns the positions of the specific parts for each eye of each person. When image data including at least part of the faces of a plurality of persons is input, the identifying
マスク生成部305は、複数組の人物の目の特定部位を含む画像データと、当該画像データにおけるキャッチライト領域との関係を学習した第2の学習済みモデルを用いて、特定部304で特定された各領域の画像データに対し、キャッチライト領域を抽出する。これにより、マスク生成部305は、抽出したキャッチライト領域と、それ以外の領域とを区別するキャッチライトマスクを生成する。図12Bに一例を示すキャッチライトマスクは、キャッチライト領域を白色とし、それ以外の領域を黒色として区別する。
The
第2の学習済みモデルM2は、図11Cに示すように、入力データである少なくとも人物の目の特定部位を含む領域の「画像データ」及び特定部位の「位置情報」と、正解データである「キャッチライト領域」との関係を学習器によって学習されることで得られたモデルである。図12Aに示すように、目の特定部位を含む領域の画像データは、例えば、目の特定領域を含む矩形の領域である。また、図12Aでは示していないが、画像データには、画像データにおける特定部位の位置情報として、例えば、画像データにおける特定部位の座標が関連付けられる。第2の学習済みモデルの生成に用いる学習データセットには、例えば、図12Aに示すような特定部位を含む画像データ及び特定部位の位置情報と、当該画像データに含まれる人物の目のキャッチライトの領域とを複数組含む。これにより、図11Dに示すように、第2の学習済みモデルは、人物の目の特定部位を含む領域の画像データ及び特定部位の位置情報が入力されると、この画像データからキャッチライト領域を抽出する。なお、特定部位を含む画像データにおいて、特定部位の位置が固定されているような場合、その位置情報は全ての画像データにおいて共通となる。例えば、特定部位が画像中心となるように、画像データが形成されてもよい。全てで特定部位の位置情報が共通するため、学習データセットで位置情報を含む必要はない。また、各目に表れるキャッチライトの数は限定されないため、画像データから抽出されるキャッチライト領域の数も限定されない。 As shown in FIG. 11C , the second trained model M2 includes input data such as “image data” of a region including at least a specific part of a person’s eyes, “positional information” of the specific part, and correct data “ This is a model obtained by learning the relationship with the "catchlight area" by a learner. As shown in FIG. 12A, the image data of the area including the specific part of the eye is, for example, a rectangular area including the specific eye area. Although not shown in FIG. 12A, the image data is associated with, for example, the coordinates of the specific part in the image data as the position information of the specific part in the image data. The learning data set used to generate the second trained model includes, for example, image data including a specific part as shown in FIG. region and multiple sets. As a result, as shown in FIG. 11D , when image data of a region including a specific part of a person's eye and position information of the specific part are input, the second trained model determines a catch light region from this image data. Extract. In addition, in the image data including the specific part, when the position of the specific part is fixed, the position information is common to all the image data. For example, the image data may be formed such that the specific site is the center of the image. Since the position information of the specific part is common to all, it is not necessary to include the position information in the learning data set. Moreover, since the number of catchlights appearing in each eye is not limited, the number of catchlight regions extracted from the image data is also not limited.
画像補正部306は、キャッチライトが除去された画像データに、所定の疑似キャッチライトを付加した補正画像データを生成する。具体的には、対象の画像データ(図12A)に対して、キャッチライトマスク(図12B)を用いて、図12Cに示すように、キャッチライトを除去する。その後、図12D乃至図12Fに示すような疑似キャッチライトを生成し、図12Cに示すようなキャッチライトが除去された画像に付加し、図12Gに示すような補正画像データを生成する。画像補正部306は、予め定められるキャッチライトの位置及び形状の設定手順と、キャッチライトの色の設定手順とに応じて、疑似キャッチライトを付加することができる。
The
《キャッチライトの除去》
画像補正部306は、入力画像データに、マスク生成部305で生成されたキャッチライトマスクで特定されるキャッチライト領域内を周辺領域の色及び/又はテクスチャに基づいて決定される色及び/又はテクスチャに置換することでキャッチライトを除去する。
《Catchlight Removal》
The
例えば、画像補正部306は、キャッチライト部分の所定の周辺領域の色の平均値を、キャッチライト部分の新たな色として用いてもよい。具体的には、キャッチライト領域から所定の画素外側の範囲内の平均値を基準とすることができる。このとき、周辺領域は、必ずしもキャッチライト部分から規定の範囲内とする必要はなく、目の特定の部位毎に設定される領域とすることができる。例えば、キャッチライトが虹彩内にある場合、虹彩の色の平均値をキャッチライト部分の色としキャッチライトを除去することができる。また例えば、キャッチライトが瞳孔内にある場合、瞳孔の色の平均値をキャッチライト部分の色としキャッチライトを除去することができる。
For example, the
《キャッチライトの位置及び形状の決定》
画像補正部306は、キャッチライト領域の位置情報に応じて、疑似キャッチライトの位置を設定することができる。具体的には、キャッチライトマスクで特定されるキャッチライトの位置に基づいて疑似キャッチライトを付加する位置を決定することができる。例えば、元の画像データにキャッチライトが含まれるとき、その元のキャッチライトの位置を基準にし、元のキャッチライトの中心位置を疑似キャッチライトの中心位置として決定してもよい。
《Determining the position and shape of the catchlight》
The
また、画像補正部306は、人物の目の特定部位の位置及びサイズに応じて、キャッチライトの位置とともに、形状や数を設定することができる。例えば、画像データにおける目のサイズが大きい場合、キャッチライトの形状をより複雑にすることができる。一方、画像データにおける目のサイズが小さい場合、目のサイズが大きい場合と比較して、キャッチライトの形状を単純にしたり、キャッチライトの数を少なくすることができる。より具体的には、理想的なキャッチライトの形状に基づいて、疑似キャッチライトのパターンが複数設定されており、元のキャッチライトのサイズに応じて、複数のパターンから対応する疑似キャッチライトが選択されるようにすることもできる。1つの目(片方の目)に複数のキャッチライトを含むとき、これら複数のキャッチライトを一組のキャッチライトとすることができる。例えば、図12D乃至図12Fに示す疑似キャッチライトは、一組である。また、元のキャッチライトのサイズに応じて、キャッチライトの数を決定できるため、複数のパターンの疑似キャッチライトがある場合において、それぞれ一組のキャッチライトの数は同一である必要はない。画像中の目のサイズが大きい場合は4つであるが、目のサイズが小さい場合は2つである等のように設定されていてもよい。
In addition, the
画像補正部306は、入力画像データに含まれる人物のいずれかの目でキャッチライト領域が特定されず、当該入力画像データにおいて当該人物の対となる目が含まれるとき、対となる目のキャッチライト領域の位置情報に応じて、疑似キャッチライトの位置を設定することができる。仮に、元の画像データにおいて、ある人物の右目にキャッチライトがないが、左目にキャッチライトがある場合、左目のキャッチライトの位置を基準にして、右目の疑似キャッチライトの位置を決定する。この場合、キャッチライトマスクで特定される左目のキャッチライトの位置を基準にして右目の疑似キャッチライトの位置を決定してもよいし、先に左目の疑似キャッチライトの位置を決定し、決定された左目の疑似キャッチライトの位置を基準にして右目の疑似キャッチライトの位置を決定してもよい。
When the input image data does not specify a catch-light region for any of the eyes of the person included in the input image data, and the paired eyes of the person are included in the input image data, the
画像補正部306は、入力画像データに含まれる一の人物の両方の目でキャッチライト領域が特定できないとき、入力画像データに含まれる当該人物の目の特定部位の位置及びサイズに応じて、疑似キャッチライトの位置を設定することができる。例えば、入力された画像データにおける、人物の瞳孔から所定の位置を、疑似キャッチライトの位置としてもよい。
When the catchlight region cannot be identified by both eyes of one person included in the input image data, the
《疑似キャッチライトの色の決定》
画像補正部306は、入力画像データに含まれる人物の目の特定部位の色に応じて、疑似キャッチライトの色を設定する。疑似キャッチライトの色は、キャッチライトの除去の場合と同様に、画像における人物の目の特定部位の色、及び/又は、特定部位の周辺の色に応じて設定することができる。例えば、複数の人物が画像データに含まれ、人物毎に目の色、より具体的には瞳孔や虹彩の色が異なる場合、人物毎に疑似キャッチライトの色を異なる色とすることができる。また、同一の人物においても、瞳孔と虹彩とでは色が異なることが一般的であるため、瞳孔と虹彩にそれぞれ付加するキャッチライトを異なる色とすることができる。
《Determination of pseudo catchlight color》
The
なお、画像補正部306は、キャッチライトに関する補正に加え、人物の肌の色を調整する補正、メイクを施すような補正、目のサイズ自体を調整する補正等、人物の顔や体等に関し様々な補正処理を実行することができる。
In addition to the correction related to the catch light, the
合成部307は、画像補正部306で処理した画像を合成用画像とし、カメラ91に取り込まれた動画像に合成用画像を合成し、合成した画像をタッチパネルモニタ92にライブビュー表示画像としてさせる。したがって、利用者は、仕上がりイメージをリアルタイムで確認しながら撮影を行うことができる。
The synthesizing
編集部230は、上述した編集操作部27A,27Bと、編集処理部308とを備える。編集処理部308は、編集操作部27A,27Bにおけるタブレット内蔵モニタ131、およびスピーカ133を制御することで、編集処理を行う。編集処理部308は、タブレット内蔵モニタ131に対する、タッチペン132A,132Bを用いた利用者の操作入力を受け付ける。
The
また、編集処理部308は、タブレット内蔵モニタ131に表示させた選択画面に対する選択操作に応じて、編集対象画像としての撮影画像に所定の画像処理を施し、タブレット内蔵モニタ131に表示させる。あるいは、編集処理部308は、タブレット内蔵モニタ131に表示させた編集画面に対する入力操作に応じて、合成用画像に所定の画像処理を施し、あるいは、入力操作に応じて新たな合成用画像を生成して、撮影画像に合成し、タブレット内蔵モニタ131に表示させる。
In addition, the
また、編集処理部308は、編集の進め方などを説明するガイダンスの出力を制御する。例えば、編集処理部308は、編集の進め方などを説明するガイダンスの画面をタブレット内蔵モニタ131に表示させたり、編集の進め方などを説明するガイダンスの音声をスピーカ133から出力させたりする。また、編集処理部308は通信部203を制御し、インターネットなどのネットワークを介した通信に関する処理を行う。また、編集処理部308は、印刷操作部28のプリンタ140を制御することで、印刷処理を行ってもよい。
The
印刷部240は、上述した印刷操作部28と、印刷処理部309とを備える。印刷処理部309は、編集処理部308から印刷データを受け取り、印刷操作部28のプリンタ140を制御することで、印刷処理を行う。なお、ここでは、画像データを出力する出力部の一例として印刷データである写真シールを出力する印刷部240を用いて説明したが、画像データの出力方法は、これに限定されない。例えば、ネットワーク等を用いて画像データ自体を外部の通信端末に送信する送信手段を出力部としてもよい。
The
このように、写真シール作成装置1は課金と引き換えに、利用者の気持ちが盛り上がるような仕掛け(撮影ポーズの選択、BGM、ナレーションなど)が種々施された写真シール作成ゲームを提供する。そのため、写真シール作成装置1での作成画像は、利用者の楽しい表情が引き出された画像や、趣向を凝らした、華やかな画像となる。
In this way, the photo
また、写真シール作成装置1ではライティングなどの設備が充実しており、そして画像の変形処理(例えば被写体の目の大きさや脚の長さなど)および色の補正(被写体の肌の美白処理など)などを高度な技術で行えるため、写真シール作成装置1で作成した画像は、利用者の写りが良い画像となる。
In addition, the photo
また、写真シール作成装置1以外での画像処理(例えば写真加工のためのアプリケーションなどでの処理)に比べて容易に編集(画像への落書き)ができ、当該編集のバリエーションも豊かである。この点からも、写真シール作成装置1での作成画像は写真シール作成装置1以外で撮影および画像処理された画像に比べ、比較的華やかに仕上がるといえる。
Editing (scribbling on an image) is easier than image processing (for example, processing with an application for photo processing) other than the photo
(写真シール作成ゲームの流れ)
次に、利用者が写真シール作成装置1において写真シール作成ゲームを行う処理の流れについて、図13を用いて説明する。図13は、写真シール作成装置1におけるゲームの開始から当該ゲームで写真シールを作成するまでの処理の流れを示すフローチャートである。
(Flow of photo sticker creation game)
Next, the flow of processing for the user to play the photo sticker creating game on the photo
ゲーム開始前の状態においては、写真シール作成装置1の事前選択処理部301として機能する制御部201は、事前選択操作部20のタッチパネルモニタ71に、硬貨の投入を促すメッセージを表示させる。また、制御部201は、図13に示すように、硬貨処理部74からの起動信号の有無に基づいて、硬貨投入返却口73に硬貨が投入されたか否かを判定する(S1)。制御部201は、硬貨投入返却口73に硬貨が投入されていないと判定した場合には(S1:NO)、硬貨が投入されたか否かの判定処理を継続する。
Before the game starts, the
ゲームを開始しようとする利用者は、事前選択操作部20の前方の空間である事前選択空間A0において硬貨投入返却口73に硬貨を投入する。硬貨投入返却口73へ硬貨が投入されると、硬貨処理部74からゲームの開始を指示する起動信号が出力される。制御部201は、硬貨処理部74から起動信号を入力すると、硬貨投入返却口73に硬貨が投入されたと判定し(S1:YES)、利用者に対して事前接客処理を実行する(S2)。
A user who intends to start the game inserts a coin into the coin insertion/return opening 73 in the preselection space A<b>0 that is the space in front of the
事前接客処理においては、制御部201は、タッチパネルモニタ71に、コースの選択、名前の入力、およびデザインの選択等を促すメッセージ等を表示させる。利用者が、タッチパネルモニタ71に表示されるメッセージ等に従って各種の選択または入力を行うと、制御部201は、撮影コース、名前、デザイン、および印刷レイアウト等の設定を行う。制御部201は、複数種類の合成用背景画像を選択可能にタッチパネルモニタ92に表示させ、合成用背景画像を利用者に選択させる。
In the preliminary customer service process, the
事前接客処理が終了すると、制御部201は、利用者に対して撮影空間A1に移動して撮影を行うことを促すメッセージ等をタッチパネルモニタ71に表示させる。撮影処理部302として機能する制御部201は、撮影操作部21のタッチパネルモニタ92に、画面にタッチするように促すメッセージを表示させる。なお、このメッセージと共に、あるいはこのメッセージに代えて、スタートボタンを表示させてもよい。また、制御部201は、BGMと共に、画面にタッチするように促すナレーションを、スピーカ93から出力させる。撮影空間A1に移動した利用者が、タッチパネルモニタ92にタッチすると、制御部201は、タッチパネルモニタ92がタッチされたことを読み取り、撮影処理を開始する(S3)。
When the preliminary customer service processing is finished, the
撮影処理においては、制御部201は、タッチパネルモニタ92に、例えばライティングに関するガイダンスを表示させ、利用者にライティングのレベルの選択を促す。利用者がライティングのレベルを選択すると、制御部201は、ライティングのレベルを、選択されたレベルに設定する。
In the shooting process, the
また、制御部201は、撮影枚数を説明するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。本実施形態では、一例として、撮影枚数は7枚に設定されている。
Further, the
次に、制御部201は、利用者を立ち位置に誘導するためのインストラクション画面をタッチパネルモニタ92に表示させ、対応するナレーションをスピーカ93から出力させる。
Next, the
以上のようなインストラクション画面を表示させた後、制御部201は、利用者に選択させた撮影コースに応じて、合成用背景画像と、カメラ91で取得している動画像とを合成したライブビュー表示画像を、ライブビュー表示としてタッチパネルモニタ92に表示させる(S4)。これにより、利用者は、仕上がりイメージを確認しながらポーズを取ることができる。
After displaying the instruction screen as described above, the
制御部201は、ライブビュー表示を、撮影のためのカウントダウンの終了直前まで行い、その間、制御部201は、ライブビュー表示と共に、あるいはライブビュー表示に代えて、サンプルポーズをタッチパネルモニタ92に表示させる。制御部201は、サンプルポーズに合わせたナレーションをスピーカ93から出力させる。
The
制御部201は、ライブビュー表示の開始から終了までの時間を管理しており、予め設定した所定の時間が経過すると、タッチパネルモニタ92の表示とスピーカ93の音声とでカウントダウンを行う。
The
制御部201は、カウントダウンの終了タイミングで、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85に照明制御信号を送信すると共にカメラ91にシャッタ信号を送信する。
The
これにより、上ストロボ82、左ストロボ83、右ストロボ84、および足元ストロボ85から閃光を照射し、照明された利用者が背景とともに写っている撮影画像をカメラ91により取得する。本実施形態では、一例として、ステップS3からステップS4までの処理を複数回繰り返して7枚の撮影画像を取得する。また、制御部201は、撮影画像に合成用背景画像を合成させた編集対象画像を記憶部202に記憶させる。
As a result, the
なお、ここでは、予め設定した時間毎に撮影画像が取得される例で説明したが、撮影画像の取得タイミングはこれに限定されない。例えば、撮影のための操作ボタンを撮影操作部21が有する場合、この操作ボタンを操作したタイミングで撮影画像を取得するようにしてもよい。
Here, an example in which a captured image is acquired at each preset time has been described, but the acquisition timing of the captured image is not limited to this. For example, if the
撮影終了後、制御部201は、利用者に対して、編集空間A2-1、または編集空間A2-2のいずれか一方への移動を促す案内画面をタッチパネルモニタ92に表示するとともに、音声による移動案内をスピーカ93に出力する。
After the end of the shooting, the
そして、制御部201は、利用者による編集対象画像の編集を許容する編集処理を実行する(S5)。詳述すると、制御部201は、編集対象画像を、タブレット内蔵モニタ131に表示し、この編集対象画像に対して利用者がタッチペン132A,132Bでスタンプ画像やペン画像などを描くことを許容し、編集画像を作成する。
Then, the
その後、制御部201は、利用者に対してシール紙排出口161が設けられた印刷待ち空間A3への移動を促す案内画面をタブレット内蔵モニタ131に表示するとともに、音声による移動案内をスピーカ133に出力する。
After that, the
さらに、制御部201は、事前選択操作部20において選択された印刷レイアウトに編集画像を配置して印刷用画像を作成し、この印刷用画像をシール紙142に印刷する印刷処理を実行する(S6)。
Furthermore, the
印刷処理が終了すると、制御部201は、シール紙142の排出処理を実行し(S7)、印刷完了したシール紙142をシール紙排出口161から排出し、利用者に写真シールとして提供してゲームを終了する。このようにして、写真シール作成装置1により作成した利用者の撮影画像を、写真シールとして出力することができる。なお、詳細な説明は省略するが、本実施形態の写真シール作成装置1は、通信により、撮影画像を携帯端末等に出力することも可能である。
When the printing process is completed, the
(合成処理の詳細)
次に、図14に示すフローチャートを参照して、図13のフローチャートのステップS4の合成処理について説明する。図14に示すように、ステップS4の合成処理では、制御部201は、撮影部220で撮影した画像データを受け付ける(S41)。
(Details of synthesis processing)
Next, with reference to the flowchart shown in FIG. 14, the synthesizing process in step S4 of the flowchart of FIG. 13 will be described. As shown in FIG. 14, in the synthesizing process in step S4, the
制御部201は、第1の学習済みモデルM1を用いて、ステップS41で受け付けた画像データに含まれる人物の顔の特定部位の位置を特定する(S42)。撮影画像に複数の利用者を含む場合、制御部201は、全ての利用者の特定部位の位置を特定する。
Using the first trained model M1, the
制御部201は、第2の学習済みモデルM2を用いて、画像データから、ステップS42で特定した一の特定部位に関連するキャッチライト領域を抽出して、キャッチライトマスクを生成する(S43)。
Using the second trained model M2, the
さらに、制御部201は、ステップS43で生成したキャッチライトマスクを用いて、画像データからキャッチライト領域を除去する(S44)。
Furthermore, the
制御部201は、S44でキャッチライトが除去された画像データに対し、疑似キャッチライトの付加処理を実行する(S45)。この疑似キャッチライトの付加処理については、図15のフローチャートを用いて後述する。
The
制御部201は、S42で特定した全ての特定に対して、疑似キャッチライトの付加が終了したか否かを判定する(S46)。全ての特定部位について疑似キャッチライトの付加が終了していない場合(S46でNO)、制御部201は、ステップS43に戻り、ステップS43~S46の処理を繰り返し、疑似キャッチライトが付加されていない特定部位に対して疑似キャッチライトを付加する。
The
全ての特定部位について疑似キャッチライトの付加が終了すると(S46でYES)、制御部201は、他の部位の画像処理を実行する(S47)。
When the pseudo catchlight has been added to all the specific parts (YES in S46), the
その後、ステップS45で疑似キャッチライトが付加された画像データと、ステップS48で得られた画像データとを合成する(S48)。 After that, the image data added with the pseudo catch light in step S45 and the image data obtained in step S48 are synthesized (S48).
(疑似キャッチライトの付加処理の詳細)
図15に示すフローチャートを参照して、図14のフローチャートのステップS46の疑似キャッチライトの付加処理について説明する。この疑似キャッチライトの付加に関する一連の処理は、対象とする特定の部位毎に実行される。換言すると、制御部201は、目の片方ずつに疑似キャッチライトを付加する。
(Details of pseudo catchlight addition processing)
With reference to the flowchart shown in FIG. 15, the pseudo catch light adding process in step S46 of the flowchart of FIG. 14 will be described. A series of processing relating to the addition of this pseudo catch light is executed for each specific target portion. In other words, the
制御部201は、画像データにおいて対象とする特定部位である目に元のキャッチライトがあるか否かを判定する(S101)。元のキャッチライトがあるとき(S101でYES)、制御部201は、元のキャッチライトの位置を基準にして、疑似キャッチライトの位置を決定する(S102)。
The
元のキャッチライトが無いとき(S101でNO)、制御部201は、対となる目に元のキャッチライトがあるか否かを判定する(S103)。対となる目に元のキャッチライトがあるとき(S103でYES)、制御部201は、対となる目の元のキャッチライトの位置を基準にして、疑似キャッチライトの位置を決定する(S104)。
When there is no original catch light (NO in S101), the
一方、対となる目に元のキャッチライトがないとき(S103でNO)、制御部201は、所定の位置、例えば、目の特定部位の位置を基準にして、疑似キャッチライトの位置を決定する(S105)。
On the other hand, when there is no original catch light for the paired eye (NO in S103), the
ステップS102,S104又はS105で疑似キャッチライトの位置を決定すると、制御部201は、疑似キャッチライトの色を決定する(S106)。
After determining the position of the pseudo catch light in step S102, S104 or S105, the
続いて、制御部201は、画像データにおいて、ステップS106で決定した色の疑似キャッチライトを付加する(S107)。
Subsequently, the
本開示の画像処理装置では、画像データにおける特定部位の位置を利用してキャッチライトマスクを生成することで、画像データからキャッチライトを除去することができる。また、本開示の画像処理装置では、画像データからキャッチライトを除去することで、理想的なキャッチライトを付加することができる。これにより、本開示の画像処理装置では、利用者にとって好ましいキャッチライトを付加した画像データを提供することができる。 In the image processing apparatus of the present disclosure, catchlight can be removed from image data by generating a catchlight mask using the position of a specific portion in image data. Further, in the image processing apparatus of the present disclosure, ideal catchlight can be added by removing catchlight from image data. Thereby, the image processing apparatus of the present disclosure can provide image data to which a catch light that is preferable for the user is added.
(ソフトウェアによる実現例)
写真シール作成装置1の機能ブロックは、集積回路(ICチップ)等に形成された論理回路(ハードウェア)によって実現してもよいし、CPU(Central Processing Unit)を用いてソフトウェアによって実現してもよい。
(Example of realization by software)
The functional blocks of the photo
後者の場合、写真シール作成装置1は、各機能を実現するソフトウェアであるプログラムの命令を実行するCPU、前記プログラムおよび各種データがコンピュータ(またはCPU)で読み取り可能に記録されたROM(Read Only Memory)または記憶装置(これらを「記録媒体」と称する)、前記プログラムを展開するRAM(Random Access Memory)などを備えている。そして、コンピュータ(またはCPU)が前記プログラムを前記記録媒体から読み取って実行することにより、本発明の目的が達成される。前記記録媒体としては、「一時的でない有形の媒体」、例えば、テープ、ディスク、カード、半導体メモリ、プログラマブルな論理回路などを用いることができる。また、前記プログラムは、該プログラムを伝送可能な任意の伝送媒体(通信ネットワークや放送波等)を介して前記コンピュータに供給されてもよい。なお、本発明は、前記プログラムが電子的な伝送によって具現化された、搬送波に埋め込まれたデータ信号の形態でも実現され得る。
In the latter case, the photo
本発明は上述した各実施形態に限定されるものではなく、請求項に示した範囲で種々の変更が可能であり、異なる実施形態にそれぞれ開示された技術的手段を適宜組み合わせて得られる実施形態についても本発明の技術的範囲に含まれる。 The present invention is not limited to the above-described embodiments, but can be modified in various ways within the scope of the claims, and can be obtained by appropriately combining technical means disclosed in different embodiments. is also included in the technical scope of the present invention.
1 写真シール作成装置(画像処理装置)
301 事前選択処理部
302 撮影処理部
303 受付部
304 特定部
305 マスク生成部
306 画像補正部
307 合成部
308 編集処理部
309 印刷処理部(出力部)
1 Photo sticker creation device (image processing device)
301
Claims (9)
複数組の人物の目を含む画像データと、当該画像データにおける目の特定部位の位置情報との関係を学習した第1の学習済みモデルを用いて、人物の顔の少なくとも一部を含む入力画像データから、少なくとも1以上の前記特定部位の位置を特定する特定部と、
複数組の人物の目の特定部位を含む画像データと、当該画像データにおけるキャッチライト領域との関係を学習した第2の学習済みモデルを用いて、前記特定部で特定された各領域の画像データに対し、キャッチライト領域をそれ以外の領域と区別するキャッチライトマスクを生成するマスク生成部と、
を備える画像処理装置。 An image processing device used for processing image data including at least part of a person's face,
An input image including at least part of a person's face using a first trained model that has learned the relationship between image data including a plurality of sets of person's eyes and position information of specific parts of the eyes in the image data. an identifying unit that identifies the position of at least one or more of the specific parts from the data;
Image data of each area specified by the specifying unit using a second trained model that has learned the relationship between image data including a plurality of sets of specific parts of a person's eyes and the catch light area in the image data. , a mask generation unit that generates a catch light mask that distinguishes the catch light area from other areas;
An image processing device comprising:
請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the image correction section sets the position of the pseudo catchlight according to the positional information of the catchlight area.
請求項4に記載の画像処理装置。 When the input image data does not specify a catch-light region for each eye of a person and the input image data includes a pair of eyes of the person, the image correction unit adjusts the catch-light of the pair of eyes. 5. The image processing apparatus according to claim 4, wherein the position of said pseudo catch light is set according to the position information of the area.
請求項3に記載の画像処理装置。 The image processing apparatus according to claim 3, wherein the image correction section sets the position of the pseudo catch light according to the position and size of the specific part of the eye of the person included in the input image data.
請求項3乃至6のいずれかに1記載の画像処理装置。 7. The image processing according to any one of claims 3 to 6, wherein the image correction unit sets the color of the pseudo catchlight according to the color of the specific part of the eye of the person included in the input image data. Device.
複数組の人物の目の特定部位を含む画像データと、当該画像データにおけるキャッチライト領域との関係を学習した第2の学習済みモデルを用いて、特定された各領域の画像データに対し、キャッチライト領域をそれ以外の領域と区別するキャッチライトマスクを生成するステップと、
を含むマスク生成方法。 An input image including at least part of a person's face using a first trained model that has learned the relationship between image data including a plurality of sets of person's eyes and position information of specific parts of the eyes in the image data. identifying the position of at least one or more of the specific parts from the data;
Using a second trained model that has learned the relationship between image data including a plurality of sets of specific parts of a person's eyes and a catch light area in the image data, catch light is applied to image data of each identified area. generating a catch light mask that distinguishes light areas from other areas;
mask generation method, including
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148109A JP2023040914A (en) | 2021-09-10 | 2021-09-10 | Image processing apparatus, image processing program, and mask generation method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2021148109A JP2023040914A (en) | 2021-09-10 | 2021-09-10 | Image processing apparatus, image processing program, and mask generation method |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2023040914A true JP2023040914A (en) | 2023-03-23 |
Family
ID=85632385
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2021148109A Pending JP2023040914A (en) | 2021-09-10 | 2021-09-10 | Image processing apparatus, image processing program, and mask generation method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2023040914A (en) |
-
2021
- 2021-09-10 JP JP2021148109A patent/JP2023040914A/en active Pending
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5488526B2 (en) | Image processing apparatus and image processing method | |
JP2017229013A (en) | Game machine for forming photograph and display method | |
JP6880394B2 (en) | Photographing game console and shooting method | |
JP7152687B2 (en) | Display control device, display control method, program | |
JP5120508B1 (en) | Photo sticker creation apparatus and method, and program | |
JP6712047B2 (en) | Photo creation game machine and image generation method | |
JP7074994B2 (en) | Photographing game console and image processing method | |
JP7132492B2 (en) | Image processing device, display control method, and program | |
JP2023040914A (en) | Image processing apparatus, image processing program, and mask generation method | |
JP2018195881A (en) | Photo seal creation device, photo seal manufacturing method, and photo seal manufacturing processing program | |
JP7401727B2 (en) | Image processing device, image processing method, and image processing program | |
JP6853475B2 (en) | Photo creation game console and display method | |
JP6687839B2 (en) | Photo creation game machine and display method | |
JP2021043797A (en) | Image processing device, image processing method, and image processing program | |
JP2019032374A (en) | Image imaging device | |
JP7406065B2 (en) | Photography equipment, photography method, and program | |
JP7319534B2 (en) | camera | |
JP7364866B2 (en) | Image processing device, editing device | |
JP2020144780A (en) | Image processing device, image processing method, and image processing program | |
JP6933799B2 (en) | Photographing game console and shooting method | |
JP5482948B2 (en) | Image processing apparatus and image processing method | |
JP6455550B2 (en) | Photo sticker creation apparatus and display control method | |
JP7121256B2 (en) | PHOTO-CREATION GAME MACHINE, IMAGE PROCESSING METHOD, AND PROGRAM | |
JP6414276B2 (en) | Photo sticker creation apparatus and method, and program | |
JP6982230B2 (en) | Photographing game console and image processing method |