JP2019203996A - Photograph creation game machine, display control method, and program - Google Patents

Photograph creation game machine, display control method, and program Download PDF

Info

Publication number
JP2019203996A
JP2019203996A JP2018099302A JP2018099302A JP2019203996A JP 2019203996 A JP2019203996 A JP 2019203996A JP 2018099302 A JP2018099302 A JP 2018099302A JP 2018099302 A JP2018099302 A JP 2018099302A JP 2019203996 A JP2019203996 A JP 2019203996A
Authority
JP
Japan
Prior art keywords
image
user
content
angle
view
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2018099302A
Other languages
Japanese (ja)
Other versions
JP7132492B2 (en
Inventor
俊介 中嶋
Shunsuke Nakajima
俊介 中嶋
莉恵 北野
Rie Kitano
莉恵 北野
哲也 北
Tetsuya Kita
哲也 北
萩原理予
Riyo Hagiwara
理予 萩原
仁志 飛田
Hitoshi Hida
仁志 飛田
みな子 坂原
Minako Sakahara
みな子 坂原
佳那美 上
Kanami Ue
佳那美 上
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Furyu Corp
Original Assignee
Furyu Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Furyu Corp filed Critical Furyu Corp
Priority to JP2018099302A priority Critical patent/JP7132492B2/en
Publication of JP2019203996A publication Critical patent/JP2019203996A/en
Application granted granted Critical
Publication of JP7132492B2 publication Critical patent/JP7132492B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)

Abstract

To enable a user to easily confirm a moving image to which a selection content is reflected, while selecting the content of image processing performed to a photographed image.SOLUTION: A photograph creation game machine to which the technique is applied is a photograph creation game machine which photographs a still image for acquiring the photographed image in which the user is set as a subject and the moving image, receives the selection of the content of the image processing performed to the still image, performs processing representing the content of the image processing selected by the user to the moving image, and displays the moving image to which the processing representing the content of the image processing selected by the user is performed at a field angle wider than the field angle of the photographed image, at least while the selection of the content of the image processing is received. The technique can be applied to the photograph creation game machine for providing a series of games for printing the photographed image to a seal paper.SELECTED DRAWING: Figure 24

Description

本技術は、写真作成ゲーム機、表示制御方法、およびプログラムに関し、特に、利用者が、撮影画像に施す画像処理の内容を選択しながら、選択内容が反映された動画像を容易に確認することができる写真作成ゲーム機、表示制御方法、およびプログラムに関する。   The present technology relates to a photo creation game machine, a display control method, and a program, and in particular, a user can easily confirm a moving image that reflects the selected content while selecting the content of image processing to be performed on a captured image. The present invention relates to a photo creation game machine, a display control method, and a program.

従来、写真シール作成装置が知られている。写真シール作成装置は、利用者を撮影し、撮影画像に対して利用者に編集を行わせ、編集後の画像をシール紙に印刷して提供するものである。写真シール作成装置は遊戯施設などに設置される。   Conventionally, a photo sticker creating apparatus is known. The photo sticker creating apparatus takes a picture of a user, causes the user to edit the shot image, and provides the edited image on a sticker sheet. Photo sticker creation devices are installed in amusement facilities.

写真シール作成装置が提供する1ゲームの流れは、通常、撮影空間内にいる利用者を被写体として撮影を行った後、利用者を編集空間に移動させ、編集空間内で行われる操作に従って画像を編集して、編集済みの画像をシール紙に印刷するものとなる。   The flow of one game provided by the photo sticker creating apparatus usually involves shooting a user in the shooting space as a subject, moving the user to the editing space, and then displaying the image according to the operation performed in the editing space. The edited image is printed on the sticker sheet.

ところで、撮影時、撮影空間に設けられたモニタには、カメラにより撮影された動画像がリアルタイムで表示される。利用者は、ライブビュー画像と呼ばれるこのような動画像を見ながら、自分の立ち位置やポーズなどを確認することができる。   By the way, at the time of shooting, a moving image shot by the camera is displayed in real time on a monitor provided in the shooting space. The user can check his / her standing position and pose while watching such a moving image called a live view image.

特許文献1には、ライブビュー画像の画角を、ライブビュー画像の表示開始時と撮影時とで切り替える技術が開示されている。特許文献1に記載の技術においては、後者のタイミングの方が狭くなるように画角が調整され、これにより、画像に占める被写体の面積としては撮影時の方が広くなる。   Patent Document 1 discloses a technique for switching the angle of view of a live view image between start of live view image display and shooting. In the technique described in Patent Document 1, the angle of view is adjusted so that the latter timing becomes narrower, and as a result, the area of the subject in the image becomes wider during shooting.

特開2014−212489号公報JP 2014-212489 A

ライブビュー画像の表示画面に表示されたボタンなどを操作して、撮影によって得られる撮影画像に合成するコンテンツの種類を選択したり、レタッチの内容を選択したりすることができるようになっている写真シール作成装置がある。利用者は、自分の選択内容が反映されたライブビュー画像を見ながら、それらの選択を行うことができる。   By operating the buttons displayed on the live view image display screen, you can select the type of content to be combined with the captured image obtained by shooting, and select the retouching content. There is a photo sticker creation device. The user can make a selection while viewing the live view image in which the user's selection is reflected.

表示画面に表示されたボタンなどを操作するためには利用者はモニタに近づく必要がある。モニタに近づくことはカメラに近づくことになるから、これにより、操作を行っている利用者の顔がライブビュー画像の画角から見切れる(画角に収まらない)ことがある。ライブビュー画像の画角から見切れた場合、選択内容がどのような形で反映されるのかを確認することができなくなる。   In order to operate buttons and the like displayed on the display screen, the user needs to approach the monitor. Since approaching the monitor means approaching the camera, the face of the user who is performing the operation may be cut off from the angle of view of the live view image (does not fit within the angle of view). When the view angle of the live view image is overlooked, it becomes impossible to confirm how the selected content is reflected.

本技術はこのような状況に鑑みてなされたものであり、利用者が、撮影画像に施す画像処理の内容を選択しながら、選択内容が反映された動画像を容易に確認することができるようにするものである。   The present technology has been made in view of such a situation so that a user can easily confirm a moving image in which the selected content is reflected while selecting the content of image processing to be performed on the captured image. It is to make.

本技術の写真作成ゲーム機は、利用者を被写体とした撮影画像を取得するための静止画像の撮影と、動画像の撮影とを行う撮影部と、前記静止画像に施す画像処理の内容の選択を受け付ける選択受付部と、前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施す画像処理部と、少なくとも前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる表示制御部とを備える。   The photo creation game machine of the present technology includes a shooting unit for shooting a still image and a moving image for acquiring a shot image of a user as a subject, and selection of contents of image processing to be performed on the still image. A selection receiving unit that receives the image processing unit, an image processing unit that performs processing representing the content of the image processing selected by the user on the moving image, and at least the user while receiving selection of the content of the image processing And a display control unit that displays the moving image that has been subjected to the processing that represents the content of the image processing selected in step S1, with a wider angle of view than the angle of view of the captured image.

本技術においては、利用者を被写体とした撮影画像を取得するための静止画像の撮影と、動画像の撮影とが行われ、前記静止画像に施す画像処理の内容の選択が受け付けられる。また、前記利用者により選択された前記画像処理の内容を表す処理が前記動画像に施され、少なくとも前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像が、前記撮影画像の画角より広い画角で表示される。   In the present technology, still image shooting and moving image shooting for acquiring a shot image with a user as a subject are performed, and selection of contents of image processing to be performed on the still image is accepted. In addition, a process representing the content of the image processing selected by the user is performed on the moving image, and at least while the selection of the content of the image processing is accepted, the image processing selected by the user. The moving image that has been subjected to the processing representing the content is displayed with a wider angle of view than the angle of view of the captured image.

本技術によれば、利用者は、撮影画像に施す画像処理の内容を選択しながら、選択内容が反映された動画像を容易に確認することができる。   According to the present technology, the user can easily confirm the moving image in which the selected content is reflected while selecting the content of the image processing to be performed on the captured image.

本技術の写真シール作成装置の外観の構成例を示す斜視図である。It is a perspective view which shows the structural example of the external appearance of the photo sticker production apparatus of this technique. 写真シール作成装置の外観を他の角度からみた斜視図である。It is the perspective view which looked at the external appearance of the photograph sticker production apparatus from another angle. 利用者の移動について説明する図である。It is a figure explaining a user's movement. 事前選択部の構成例を示す図である。It is a figure which shows the structural example of a preselection part. 撮影部の構成例を示す図である。It is a figure which shows the structural example of an imaging | photography part. 背景部の構成例を示す図である。It is a figure which shows the structural example of a background part. 編集ユニットの正面の構成例を示す図である。It is a figure which shows the structural example of the front of an edit unit. 編集ユニットの側面の構成例を示す図である。It is a figure which shows the structural example of the side surface of an edit unit. 編集画像のレイヤ構成の例を示す図である。It is a figure which shows the example of a layer structure of an edit image. 写真シール作成装置の構成例を示すブロック図である。It is a block diagram which shows the structural example of a photograph sticker production apparatus. 写真シール作成装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of a photograph sticker production apparatus. 撮影処理部の構成例を示すブロック図である。It is a block diagram which shows the structural example of an imaging | photography process part. アップ画像とコーディネート画像の生成の例を示す図である。It is a figure which shows the example of a production | generation of an up image and a coordinate image. イマドキ盛り撮影時に用いられるスタンプ画像の例を示す図である。It is a figure which shows the example of the stamp image used at the time of imadoki shooting. 合成画像の例を示す図である。It is a figure which shows the example of a synthesized image. スタンプ画像の例を示す図である。It is a figure which shows the example of a stamp image. 写真シール作成装置の動作について説明するフローチャートである。It is a flowchart explaining operation | movement of a photograph sticker production apparatus. 図17のステップS3において行われる撮影処理について説明するフローチャートである。It is a flowchart explaining the imaging | photography process performed in step S3 of FIG. ライブビュー画面の表示例を示す図である。It is a figure which shows the example of a display of a live view screen. 図18のステップS15において行われるイマドキ盛り撮影処理について説明するフローチャートである。FIG. 19 is a flowchart for describing imado shooting processing performed in step S15 of FIG. 18. FIG. 画角の変更の例を示す図である。It is a figure which shows the example of a change of a view angle. 画角の変更を行わない場合のライブビュー画像の表示例を示す図である。It is a figure which shows the example of a display of the live view image when not changing an angle of view. 画角を広げた場合のライブビュー画像の表示例を示す図である。It is a figure which shows the example of a display of the live view image at the time of extending an angle of view. スタンプ画像選択画面の表示例を示す図である。It is a figure which shows the example of a display of a stamp image selection screen. スタンプ画像選択画面の他の表示例を示す図である。It is a figure which shows the other example of a display of a stamp image selection screen. ライブビュー画像の画角の変化の例を示す図である。It is a figure which shows the example of the change of the angle of view of a live view image. 利用者が1人である場合の画角調整の例を示す図である。It is a figure which shows the example of a view angle adjustment in case a user is one person. 利用者が複数人である場合の画角調整の例を示す図である。It is a figure which shows the example of a view angle adjustment in case a user is a plurality of people. 全員の顔を収める場合の画角調整の例を示す図である。It is a figure which shows the example of a view angle adjustment in case all the faces are stored. コンテンツを収める場合の画角調整の例を示す図である。It is a figure which shows the example of a view angle adjustment in the case of containing a content. コンテンツを構成する画像が回転するアニメーションの例を示す図である。It is a figure which shows the example of the animation which the image which comprises a content rotates. コンテンツを構成する画像の位置が変化するアニメーションの例を示す図である。It is a figure which shows the example of the animation which the position of the image which comprises a content changes. 回転の例を示す図である。It is a figure which shows the example of rotation. 上下の移動の例を示す図である。It is a figure which shows the example of a vertical movement. 拡縮の例を示す図である。It is a figure which shows the example of expansion / contraction. 拡縮の他の例を示す図である。It is a figure which shows the other example of expansion / contraction. 左右の移動の例を示す図である。It is a figure which shows the example of a left-right movement. 透過度変更の例を示す図である。It is a figure which shows the example of a transmittance | permeability change. 色変更の例を示す図である。It is a figure which shows the example of a color change. 色変更の他の例を示す図である。It is a figure which shows the other example of a color change. レタッチ選択画面の例を示す図である。It is a figure which shows the example of a retouch selection screen.

<<実施例>>
<写真シール作成装置の外観>
図1および図2は、写真シール作成装置1の外観の構成例を示す斜視図である。
<< Example >>
<Appearance of photo sticker creation device>
FIG. 1 and FIG. 2 are perspective views showing a configuration example of the appearance of the photographic sticker creating apparatus 1.

写真シール作成装置1は、撮影画像や編集画像を提供するゲーム機である。写真シール作成装置1は、画像をシール紙に印刷したり、画像を利用者の携帯端末上で閲覧可能にしたりすることで、利用者に画像を提供する。写真シール作成装置1は、ゲームセンターなどのアミューズメント施設や店舗に設置される。   The photo sticker creating apparatus 1 is a game machine that provides a photographed image and an edited image. The photo sticker creating apparatus 1 provides an image to the user by printing the image on a sticker sheet or making the image viewable on the user's mobile terminal. The photo sticker creating apparatus 1 is installed in an amusement facility or a store such as a game center.

写真シール作成装置1の利用者は、主に女子高生や若い女性が中心とされる。写真シール作成装置1において、1組あたり主に2人や3人などの複数人の利用者がゲームを楽しむことができる。もちろん、写真シール作成装置1において、1人の利用者がゲームを楽しむこともできる。   The users of the photo sticker creating apparatus 1 are mainly high school girls and young women. In the photo sticker creating apparatus 1, a plurality of users such as two or three people can mainly enjoy the game per group. Of course, in the photo sticker creating apparatus 1, one user can enjoy the game.

写真シール作成装置1において、利用者は、自身が被写体となって撮影作業を行う。利用者は、編集作業により、撮影によって得られた撮影画像の中から選択した画像に、手書きの文字やスタンプ画像などの合成用画像を合成させる。これにより、撮影画像が彩り豊かな画像に編集される。利用者は、編集済みの画像である編集画像が印刷されたシール紙を受け取って一連のゲームを終了させる。   In the photo sticker creating apparatus 1, the user performs photographing work with himself / herself as a subject. The user synthesizes an image for synthesis such as a handwritten character or a stamp image with an image selected from the captured images obtained by shooting through an editing operation. As a result, the captured image is edited into a rich image. The user receives a sticker sheet on which an edited image that is an edited image is printed, and ends a series of games.

写真シール作成装置1は、写真作成ゲームを提供する写真作成ゲーム機ということができる。   The photo sticker creating apparatus 1 can be said to be a photo creating game machine that provides a photo creating game.

図1に示すように、写真シール作成装置1は、基本的に、撮影ユニット11と編集ユニット12が接した状態で設置されることによって構成される。撮影ユニット11と編集ユニット12は電気的に接続される。   As shown in FIG. 1, the photo sticker creating apparatus 1 is basically configured by being installed in a state where a photographing unit 11 and an editing unit 12 are in contact with each other. The photographing unit 11 and the editing unit 12 are electrically connected.

撮影ユニット11は、人が中に入ることができる程度の大きさを有する箱形状の筐体を有し、事前選択部20、撮影部21、および背景部22から構成される。事前選択部20は、撮影部21の側面に設置される。事前選択部20の前方の空間が、事前選択処理が行われる事前選択空間となる。また、撮影部21と背景部22は所定の距離だけ離して設置される。撮影部21と背景部22の間に形成される空間が、撮影処理が行われる撮影空間となる。   The photographing unit 11 has a box-shaped housing having a size that allows a person to enter inside, and includes a pre-selection unit 20, a photographing unit 21, and a background unit 22. The pre-selection unit 20 is installed on the side surface of the imaging unit 21. The space ahead of the preselection unit 20 is a preselection space in which preselection processing is performed. In addition, the photographing unit 21 and the background unit 22 are set apart by a predetermined distance. A space formed between the imaging unit 21 and the background unit 22 is an imaging space in which imaging processing is performed.

事前選択部20は、事前選択処理として、写真シール作成装置1によって提供されるゲームを紹介するガイダンスを行ったり、撮影空間で行われる撮影処理における各種の設定を行ったりする。事前選択部20には、利用者が代金を投入する硬貨投入口や、各種の操作に用いられるタッチパネルモニタなどが設けられる。事前選択部20は、撮影空間の空き状況に応じて、適宜、事前選択空間にいる利用者を撮影空間へと案内する。   The pre-selection unit 20 performs guidance for introducing a game provided by the photo sticker creating apparatus 1 as pre-selection processing, and performs various settings in shooting processing performed in the shooting space. The pre-selection unit 20 is provided with a coin slot into which a user inserts a price, a touch panel monitor used for various operations, and the like. The pre-selection unit 20 guides the user in the pre-selection space to the shooting space as appropriate according to the availability of the shooting space.

撮影部21は、利用者を被写体として撮影するための装置である。撮影部21は、撮影空間に入った利用者の正面に位置する。撮影空間に臨む撮影部21の正面には、カメラや、各種の操作に用いられるタッチパネルモニタなどが設けられる。   The photographing unit 21 is a device for photographing a user as a subject. The photographing unit 21 is located in front of the user who has entered the photographing space. A camera, a touch panel monitor used for various operations, and the like are provided in front of the photographing unit 21 facing the photographing space.

撮影空間において正面を向いている利用者からみて左側の面を左側面、右側の面を右側面とすると、撮影部21の左側面が側面パネル41Aにより構成され、右側面が側面パネル41Bにより構成される。さらに、撮影部21の正面が正面パネル42により構成される。側面パネル41Aには、上述した事前選択部20が設置される。なお、事前選択部20が、側面パネル41Bに設置されるようにしてもよい。   If the left side is the left side and the right side is the right side as viewed from the user facing the front in the imaging space, the left side of the imaging unit 21 is configured by the side panel 41A, and the right side is configured by the side panel 41B. Is done. Further, the front surface of the photographing unit 21 is constituted by a front panel 42. The pre-selection unit 20 described above is installed on the side panel 41A. The pre-selection unit 20 may be installed on the side panel 41B.

背景部22は、背面パネル51、側面パネル52A、および側面パネル52Bから構成される。背面パネル51は、正面を向いている利用者の背面側に位置する板状の部材である。側面パネル52Aは、背面パネル51の左端に取り付けられ、側面パネル41Aより横幅の狭い板状の部材である。側面パネル52Bは、背面パネル51の右端に取り付けられ、側面パネル41Bより横幅の狭い板状の部材である。   The background portion 22 includes a back panel 51, a side panel 52A, and a side panel 52B. The back panel 51 is a plate-like member located on the back side of the user facing the front. The side panel 52A is a plate-like member attached to the left end of the back panel 51 and having a narrower width than the side panel 41A. The side panel 52B is a plate-like member that is attached to the right end of the back panel 51 and has a narrower width than the side panel 41B.

側面パネル41Aと側面パネル52Aは、ほぼ同一平面に設けられる。側面パネル41Aと側面パネル52Aの上部は、板状の部材である連結部23Aによって連結される。側面パネル41Aと側面パネル52Aの下部は、床面に設けた例えば金属製の部材である連結部23A’によって連結される。側面パネル41Bと側面パネル52Bも同様に、ほぼ同一平面に設けられる。側面パネル41Bと側面パネル52Bの上部は、連結部23Bによって連結される。側面パネル41Bと側面パネル52Bの下部は、連結部23B’によって連結される。   The side panel 41A and the side panel 52A are provided on substantially the same plane. The upper portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A that is a plate-like member. The lower portions of the side panel 41A and the side panel 52A are connected by a connecting portion 23A 'that is a metal member provided on the floor surface. Similarly, the side panel 41B and the side panel 52B are provided on substantially the same plane. The upper portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B. The lower portions of the side panel 41B and the side panel 52B are connected by a connecting portion 23B '.

撮影空間の床には、板状の部材である床材27が敷かれる。床材27には、撮影時の立ち位置を指定するときに用いられるマークが印刷されている。   A floor material 27, which is a plate-like member, is laid on the floor of the imaging space. The floor material 27 is printed with a mark used for designating a standing position at the time of photographing.

なお、背面パネル51の撮影空間側の面には、例えば緑色のクロマキー用のシートが貼り付けられる。写真シール作成装置1は、クロマキー用のシートを背景として撮影することで、撮影処理や編集処理においてクロマキー合成を行う。これにより、所望の背景画像が、シートが写っている利用者の背景の部分に合成される。   For example, a green chroma key sheet is attached to the surface of the rear panel 51 on the photographing space side. The photo sticker creating apparatus 1 performs chroma key composition in photographing processing and editing processing by photographing a chroma key sheet as a background. As a result, a desired background image is synthesized with the background portion of the user in which the sheet is reflected.

側面パネル41A、連結部23A、および側面パネル52Aに囲まれることによって形成される開口が撮影空間の出入り口となる。また、側面パネル41B、連結部23B、および側面パネル52Bに囲まれることによって形成される開口も撮影空間の出入り口となる。   An opening formed by being surrounded by the side panel 41A, the connecting portion 23A, and the side panel 52A serves as an entrance / exit of the imaging space. An opening formed by being surrounded by the side panel 41B, the connecting portion 23B, and the side panel 52B also serves as an entrance / exit of the imaging space.

撮影空間の上方には、撮影部21の正面、連結部23A、および連結部23Bに囲まれた天井が形成される。その天井の一部に、天井ストロボユニット24が設けられる。天井ストロボユニット24の一端が連結部23Aに固定され、他端が連結部23Bに固定される。   A ceiling surrounded by the front surface of the photographing unit 21, the connecting portion 23A, and the connecting portion 23B is formed above the photographing space. A ceiling strobe unit 24 is provided in a part of the ceiling. One end of the ceiling strobe unit 24 is fixed to the connecting portion 23A, and the other end is fixed to the connecting portion 23B.

天井ストロボユニット24は、撮影に合わせて撮影空間内に向けて光を照射するストロボを内蔵する。天井ストロボユニット24の内部には、ストロボの他に蛍光灯が設けられている。これにより、天井ストロボユニット24は、撮影空間の照明としても機能する。   The ceiling strobe unit 24 has a built-in strobe that emits light toward the photographing space in accordance with photographing. In addition to the strobe, a fluorescent lamp is provided inside the ceiling strobe unit 24. Thereby, the ceiling strobe unit 24 also functions as illumination of the photographing space.

編集ユニット12は、撮影画像に編集を施すための装置である。編集ユニット12は、一方の側面が撮影部21の正面パネル42に接するようにして、撮影ユニット11に連結している。   The editing unit 12 is a device for editing a captured image. The editing unit 12 is connected to the photographing unit 11 such that one side surface is in contact with the front panel 42 of the photographing unit 21.

図1に示される編集ユニット12の構成を正面側の構成とすると、編集ユニット12の正面側と背面側のそれぞれに、編集作業で用いられる構成が設けられる。この構成により、2組の利用者が同時に編集作業を行うことができる。   If the configuration of the editing unit 12 shown in FIG. 1 is a front side configuration, a configuration used for editing work is provided on each of the front side and the back side of the editing unit 12. With this configuration, two sets of users can perform editing work simultaneously.

編集ユニット12の正面側は、面61と、面61の上方に形成された斜面62から構成される。面61は、床面に対して垂直で、撮影部21の側面パネル41Aとほぼ平行な面である。斜面62には、編集作業に用いられる構成として、タブレット内蔵モニタやタッチペンが設けられる。斜面62の左側には、照明装置64の一端を支持する柱状の支持部63Aが設けられる。斜面62の右側には、照明装置64の他端を支持する柱状の支持部63Bが設けられる。支持部63Aの上面にはカーテンレール26を支持する支持部65が設けられる。   The front side of the editing unit 12 includes a surface 61 and a slope 62 formed above the surface 61. The surface 61 is a surface perpendicular to the floor surface and substantially parallel to the side panel 41A of the photographing unit 21. The slope 62 is provided with a tablet built-in monitor and a touch pen as a configuration used for editing work. On the left side of the slope 62, a columnar support portion 63A that supports one end of the lighting device 64 is provided. A columnar support portion 63B that supports the other end of the lighting device 64 is provided on the right side of the slope 62. A support portion 65 that supports the curtain rail 26 is provided on the upper surface of the support portion 63A.

編集ユニット12の上方にはカーテンレール26が取り付けられる。カーテンレール26は、3本のレール26A乃至26Cを、組み合わせて構成される。3本のレール26A乃至26Cは、上から見たときの形状がコの字状となるように組み合わせられる。平行に設けられるレール26Aとレール26Bの一端は、連結部23Aと連結部23Bにそれぞれ固定され、レール26Aとレール26Bの他端は、レール26Cの両端にそれぞれ接合される。   A curtain rail 26 is attached above the editing unit 12. The curtain rail 26 is configured by combining three rails 26A to 26C. The three rails 26A to 26C are combined so that the shape when viewed from above becomes a U-shape. One end of the rail 26A and the rail 26B provided in parallel is fixed to the connecting portion 23A and the connecting portion 23B, respectively, and the other end of the rail 26A and the rail 26B is joined to both ends of the rail 26C.

カーテンレール26には、編集ユニット12の正面前方の空間と背面前方の空間が外から見えないようにカーテンが取り付けられる。そのカーテンにより囲まれる編集ユニット12の正面前方の空間と背面後方の空間が、利用者が編集作業を行う編集空間となる。   A curtain is attached to the curtain rail 26 so that the space in front of the editing unit 12 and the space in front of the back are not visible from the outside. A space in front of the editing unit 12 surrounded by the curtain and a space in the rear rear of the editing unit 12 are editing spaces in which the user performs editing operations.

後述するが、編集ユニット12の左側面には、印刷済みのシール紙が排出される排出口が設けられる。編集ユニット12の左側面前方の空間が、利用者が印刷済みのシール紙が排出されるのを待つ印刷待ち空間となる。   As will be described later, the left side surface of the editing unit 12 is provided with a discharge port through which printed sticker paper is discharged. The space in front of the left side surface of the editing unit 12 becomes a print waiting space where the user waits for the printed sticker paper to be discharged.

<利用者の移動について>
ここで、写真シール作成ゲームの流れと、それに伴う利用者の移動について説明する。
<About user movement>
Here, the flow of the photo sticker creation game and the accompanying movement of the user will be described.

図3は、写真シール作成装置1を上から見た平面図である。   FIG. 3 is a plan view of the photo sticker creating apparatus 1 as viewed from above.

利用者は、事前選択部20の前方の空間である事前選択空間A0において硬貨投入口に代金を投入する。次に、利用者は、タッチパネルモニタに表示される画面に従って各種の設定を行う。利用者は、例えば、撮影空間で行われる撮影に関するコースの選択などを事前選択作業として行う。   The user inserts money into the coin slot in the pre-selected space A0 that is the space in front of the pre-selecting unit 20. Next, the user performs various settings according to the screen displayed on the touch panel monitor. The user performs, for example, selection of a course related to shooting performed in the shooting space as a pre-selection operation.

事前選択作業を終えた利用者は、白抜き矢印#1で示すように、側面パネル41Aと側面パネル52Aの間の出入り口G1から、撮影部21と背景部22の間に形成された撮影空間A1に入る。利用者は、撮影部21に設けられたカメラやタッチパネルモニタなど利用して撮影作業を行う。   The user who has completed the pre-selection operation, as indicated by the white arrow # 1, has a shooting space A1 formed between the shooting unit 21 and the background unit 22 from the entrance G1 between the side panel 41A and the side panel 52A. to go into. A user performs a shooting operation using a camera or a touch panel monitor provided in the shooting unit 21.

撮影作業を終えた利用者は、白抜き矢印#2で示すように出入り口G1から撮影空間A1を出て編集空間A2−1に移動するか、または、白抜き矢印#3で示すように出入り口G2から撮影空間A1を出て編集空間A2−2に移動する。   The user who has finished the shooting work exits the shooting space A1 from the doorway G1 as indicated by the white arrow # 2 and moves to the editing space A2-1, or the doorway G2 as indicated by the white arrow # 3. Exits the shooting space A1 and moves to the editing space A2-2.

編集空間A2−1は、編集ユニット12の正面側の編集空間である。一方、編集空間A2−2は、編集ユニット12の背面側の編集空間である。利用者が編集空間A2−1と編集空間A2−2のいずれの空間に移動するのかは、撮影部21のタッチパネルモニタの画面表示などによって案内される。例えば2つの編集空間のうちの空いている方が移動先として案内される。編集空間A2−1または編集空間A2−2に移動した利用者は、編集作業を開始する。編集空間A2−1の利用者と、編集空間A2−2の利用者は同時に編集作業を行うことができる。   The editing space A2-1 is an editing space on the front side of the editing unit 12. On the other hand, the editing space A2-2 is an editing space on the back side of the editing unit 12. Whether the user moves to the editing space A2-1 or the editing space A2-2 is guided by the screen display of the touch panel monitor of the photographing unit 21 or the like. For example, the free one of the two editing spaces is guided as the destination. The user who has moved to the editing space A2-1 or the editing space A2-2 starts editing work. The user of the editing space A2-1 and the user of the editing space A2-2 can perform editing work at the same time.

編集作業が終了した後、編集画像の印刷が開始される。印刷が開始されると、編集空間A2−1での編集作業を終えた利用者は、白抜き矢印#4で示すように編集空間A2−1から印刷待ち空間A3に移動する。また、編集空間A2−2での編集作業を終えた利用者は、白抜き矢印#5で示すように編集空間A2−2から印刷待ち空間A3に移動する。   After the editing operation is finished, printing of the edited image is started. When printing is started, the user who has finished the editing work in the editing space A2-1 moves from the editing space A2-1 to the print waiting space A3 as indicated by a white arrow # 4. Further, the user who has finished the editing work in the editing space A2-2 moves from the editing space A2-2 to the print waiting space A3 as indicated by the white arrow # 5.

印刷待ち空間A3に移動した利用者は、印刷が終わるのを待つ。印刷が終了すると、利用者は、編集ユニット12の右側面に設けられた排出口から排出されたシール紙を受け取り、一連の写真シール作成ゲームを終える。   The user who has moved to the print waiting space A3 waits for the printing to end. When printing is completed, the user receives the sticker paper discharged from the discharge port provided on the right side of the editing unit 12 and finishes a series of photo sticker creation games.

<事前選択部の構成>
図4は、事前選択部20の構成例を示す図である。
<Configuration of preselection unit>
FIG. 4 is a diagram illustrating a configuration example of the preselection unit 20.

事前選択部20の上側にはタッチパネルモニタ71が設けられる。タッチパネルモニタ71は、LCD(Liquid Crystal Display)などのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ71は、各種のGUI(Graphical User Interface)を表示し、利用者の選択を受け付ける機能を備えている。タッチパネルモニタ71には、利用者の人数の選択などに用いられる画面が表示される。   A touch panel monitor 71 is provided above the preselection unit 20. The touch panel monitor 71 includes a monitor such as an LCD (Liquid Crystal Display) and a touch panel laminated thereon. The touch panel monitor 71 has a function of displaying various GUIs (Graphical User Interfaces) and accepting user selections. The touch panel monitor 71 displays a screen used for selecting the number of users.

タッチパネルモニタ71の下方には、スピーカ72が設けられる。スピーカ72は、事前選択処理の案内音声、BGM(Back Ground Music)、効果音などを出力する。スピーカ72に隣接するようにして、利用者が硬貨を入れる硬貨投入返却口73が設けられる。   A speaker 72 is provided below the touch panel monitor 71. The speaker 72 outputs guidance voice, BGM (Back Ground Music), sound effects, etc. for the pre-selection process. A coin insertion / return port 73 into which a user inserts coins is provided so as to be adjacent to the speaker 72.

<撮影部の構成>
図5は、撮影部21の正面の構成例を示す図である。撮影部21は、側面パネル41A、側面パネル41B、および正面パネル42に囲まれるようにして構成される。
<Configuration of the shooting unit>
FIG. 5 is a diagram illustrating a configuration example of the front of the photographing unit 21. The photographing unit 21 is configured to be surrounded by the side panel 41A, the side panel 41B, and the front panel 42.

正面パネル42の中央よりやや上側には、カメラユニット81が設けられる。カメラユニット81の正面には、カメラ91、タッチパネルモニタ92、および正面ストロボ93が設けられる。   A camera unit 81 is provided slightly above the center of the front panel 42. In front of the camera unit 81, a camera 91, a touch panel monitor 92, and a front strobe 93 are provided.

カメラ91は、例えば一眼レフカメラであり、レンズが露出するようにカメラユニット81の内部に取り付けられる。カメラ91は、CCD(Charge Coupled Device)イメージセンサやCMOS(Complementary Metal Oxide Semiconductor)イメージセンサなどの撮像素子を有し、撮影空間A1にいる利用者を撮影する。カメラ91は、利用者を被写体として撮影を行う撮影部として機能する。   The camera 91 is a single-lens reflex camera, for example, and is attached inside the camera unit 81 so that the lens is exposed. The camera 91 has an image sensor such as a CCD (Charge Coupled Device) image sensor or a CMOS (Complementary Metal Oxide Semiconductor) image sensor, and photographs a user in the photographing space A1. The camera 91 functions as a photographing unit that performs photographing using a user as a subject.

カメラ91により取り込まれた動画像(以下、ライブビュー画像ともいう)は、タッチパネルモニタ92にリアルタイムで表示される。撮影が指示されたときなどの所定のタイミングでカメラ91により取り込まれた静止画像は、撮影画像として保存される。   A moving image (hereinafter also referred to as a live view image) captured by the camera 91 is displayed on the touch panel monitor 92 in real time. A still image captured by the camera 91 at a predetermined timing such as when shooting is instructed is saved as a captured image.

タッチパネルモニタ92は、カメラ91の下方に設けられる。タッチパネルモニタ92は、LCDなどのモニタと、それに積層されたタッチパネルにより構成される。タッチパネルモニタ92は、カメラ91により取り込まれた動画像を表示するライブビューモニタとしての機能と、各種のGUIを表示し利用者の選択を受け付ける機能を備えている。   The touch panel monitor 92 is provided below the camera 91. The touch panel monitor 92 includes a monitor such as an LCD and a touch panel laminated thereon. The touch panel monitor 92 has a function as a live view monitor that displays a moving image captured by the camera 91 and a function that displays various GUIs and accepts a user's selection.

正面ストロボ93は、カメラ91の上方に設けられる。正面ストロボ93は、乳白アクリル板よりなる、三日月状の発光面を有する。正面ストロボ93は、カメラ91による撮影に合わせて発光することで、被写体としての利用者の顔付近を正面から照射する。   The front strobe 93 is provided above the camera 91. The front strobe 93 has a crescent-shaped light emitting surface made of a milky white acrylic plate. The front strobe 93 illuminates the vicinity of the user's face as a subject from the front by emitting light in accordance with shooting by the camera 91.

カメラユニット81の上方には、曲面の発光面を利用者に向けた上ストロボユニット82が設置される。上ストロボユニット82は、利用者の正面上方から、利用者の顔および上半身に光を照射する。   Above the camera unit 81, an upper strobe unit 82 with a curved light emitting surface facing the user is installed. The upper strobe unit 82 irradiates light on the user's face and upper body from the upper front of the user.

カメラユニット81の下方には、利用者の下半身および足元に光を照射する足元ストロボユニット83が設けられる。   Below the camera unit 81, a foot strobe unit 83 that irradiates light to the lower body and feet of the user is provided.

上ストロボユニット82および足元ストロボユニット83は、蛍光灯とストロボ発光可能な照明機器とにより構成される。上ストロボユニット82および足元ストロボユニット83は、利用者の操作性や安全性を確保するために撮影空間内を常時照らすとともに、撮影画像の画質を向上させるために、撮影タイミングでストロボ発光し、被写体となる利用者に光を照射する。   The upper strobe unit 82 and the foot strobe unit 83 are configured by a fluorescent lamp and an illumination device capable of strobe light emission. The upper strobe unit 82 and the foot strobe unit 83 constantly illuminate the shooting space in order to ensure the operability and safety of the user, and in order to improve the image quality of the shot image, the strobe light is emitted at the shooting timing. Irradiate light to the user who becomes.

足元ストロボユニット83と側面パネル41Aとの間には、箱状部84が設けられる。また、足元ストロボユニット83と側面パネル41Bとの間には、箱状部85が設けられる。箱状部84,85の上面は、写真シール作成装置1の設置面と略水平な面をなし、撮影作業を行う利用者が手荷物などを置くための荷物置き場として用いられる。   A box-shaped portion 84 is provided between the foot strobe unit 83 and the side panel 41A. A box-shaped portion 85 is provided between the foot strobe unit 83 and the side panel 41B. The upper surfaces of the box-shaped portions 84 and 85 form a surface that is substantially horizontal to the installation surface of the photo sticker creating apparatus 1 and is used as a luggage storage place for a user who performs a photographing operation to place baggage.

なお、図示はしないが、正面パネル42の例えば天井付近には、スピーカが設けられる。そのスピーカは、撮影処理の案内音声、BGM、効果音などを出力する。   Although not shown, a speaker is provided near the ceiling of the front panel 42, for example. The speaker outputs shooting process guidance voice, BGM, sound effects, and the like.

<背景部の構成>
図6は、背景部22の撮影空間A1側の構成例を示す図である。
<Configuration of background part>
FIG. 6 is a diagram illustrating a configuration example of the background portion 22 on the photographing space A1 side.

背面パネル51の上方には、背面上ストロボ101が設置される。背面上ストロボ101は、背面上方から利用者に光を照射する。   Above the rear panel 51, a rear upper strobe 101 is installed. The rear upper strobe 101 irradiates the user with light from the upper rear side.

図中、背面パネル51の左方には、背面左ストロボ102が設置される。背面左ストロボ102は、背面右方から利用者を照射する。図中、背面パネル51の右方には、背面右ストロボ103が設置される。背面右ストロボ103は、背面左方から利用者を照射する。   In the drawing, a rear left strobe 102 is installed on the left side of the rear panel 51. The back left strobe 102 irradiates the user from the right side of the back. In the drawing, a rear right strobe 103 is installed on the right side of the rear panel 51. The rear right strobe 103 irradiates the user from the left rear side.

また、背面パネル51の撮影空間A1側(図中、手前側)の面には、クロマキーシート121が貼り付けられる。クロマキーシート121の色は、例えば緑色とされる。   A chroma key sheet 121 is attached to the surface of the rear panel 51 on the photographing space A1 side (the front side in the drawing). The color of the chroma key sheet 121 is, for example, green.

なお、図示はしないが、側面パネル52A,52Bの撮影空間A1側の面の下側(床面側)にも、クロマキーシート121と同様のクロマキーシートが貼り付けられる。   Although not shown, a chroma key sheet similar to the chroma key sheet 121 is also attached to the lower side (floor side) of the surface of the side panels 52A and 52B on the imaging space A1 side.

<編集ユニットの構成>
図7は、編集ユニット12の正面側(編集空間A2−1側)の構成例を示す図である。
<Configuration of editing unit>
FIG. 7 is a diagram illustrating a configuration example of the editing unit 12 on the front side (editing space A2-1 side).

斜面62のほぼ中央には、タブレット内蔵モニタ131が設けられる。タブレット内蔵モニタ131の左側にはタッチペン132Aが設けられる。タブレット内蔵モニタ131の右側にはタッチペン132Bが設けられる。   A tablet built-in monitor 131 is provided in the approximate center of the slope 62. On the left side of the tablet built-in monitor 131, a touch pen 132A is provided. On the right side of the tablet built-in monitor 131, a touch pen 132B is provided.

タブレット内蔵モニタ131は、タブレットとディスプレイを積層して構成される。タブレットは、タッチペン132Aまたはタッチペン132Bを用いた操作入力を可能とする。タブレット内蔵モニタ131には、例えば、編集作業に用いられる編集画面が表示される。2人の利用者が同時に編集作業を行う場合、タッチペン132Aはタブレット内蔵モニタ131に向かって左側にいる利用者により用いられ、タッチペン132Bはタブレット内蔵モニタ131に向かって右側にいる利用者により用いられる。   The tablet built-in monitor 131 is configured by stacking a tablet and a display. The tablet enables operation input using the touch pen 132A or the touch pen 132B. On the tablet built-in monitor 131, for example, an editing screen used for editing work is displayed. When two users perform editing work at the same time, the touch pen 132A is used by a user on the left side of the tablet built-in monitor 131, and the touch pen 132B is used by a user on the right side of the tablet built-in monitor 131. .

なお、タッチペン132Aを用いた操作とタッチペン132Bを用いた操作は識別される。適宜、タブレット内蔵モニタ131の左側の表示に対してはタッチペン132Aを用いた操作のみが可能とされ、右側の表示に対してはタッチペン132Bを用いた操作のみが可能とされる。以下、適宜、タッチペン132Aとタッチペン132Bを区別する必要がない場合、まとめてタッチペン132という。   The operation using the touch pen 132A and the operation using the touch pen 132B are distinguished. As appropriate, only the operation using the touch pen 132A is possible for the left side display of the tablet built-in monitor 131, and only the operation using the touch pen 132B is possible for the right side display. Hereinafter, when it is not necessary to distinguish the touch pen 132A and the touch pen 132B as appropriate, they are collectively referred to as the touch pen 132.

図8は、編集ユニット12の左側面の構成例を示す図である。   FIG. 8 is a diagram illustrating a configuration example of the left side surface of the editing unit 12.

編集ユニット12の左側面の下側にはシール紙排出口161が設けられる。編集ユニット12の内部にはプリンタが設けられている。そのプリンタにより、編集空間A2−1の利用者が写る画像、または、編集空間A2−2の利用者が写る画像が所定のレイアウトでシール紙に印刷され、シール紙排出口161から排出される。   A sticker paper discharge port 161 is provided below the left side surface of the editing unit 12. A printer is provided inside the editing unit 12. The printer prints an image showing the user of the editing space A2-1 or an image showing the user of the editing space A2-2 on a sticker sheet with a predetermined layout, and discharges it from the sticker paper outlet 161.

<編集画像のレイヤ構造>
図9は、編集画像のレイヤ構造の例を示す図である。
<Layer structure of edited image>
FIG. 9 is a diagram illustrating an example of a layer structure of an edited image.

左端の編集画像P1が編集によって生成される画像である。編集画像P1は、背景画像P11、人物画像P12、前景画像P13の各レイヤの画像から構成される。   The leftmost edited image P1 is an image generated by editing. The edited image P1 is composed of images of each layer of a background image P11, a person image P12, and a foreground image P13.

図9の例において、背景画像P11は、レンガを重ねた壁面の柄の画像である。前景画像P13は、「Love my friend」の手書き文字の画像とハート型の画像を含む画像である。「Love my friend」の手書き文字の画像は、ペンツールを用いて利用者によって入力されたペン画像である。また、ハート型の画像は、スタンプツールを用いて利用者によって入力されたスタンプ画像である。   In the example of FIG. 9, the background image P <b> 11 is an image of a wall pattern on which bricks are stacked. The foreground image P13 is an image including a handwritten character image of “Love my friend” and a heart-shaped image. The handwritten character image of “Love my friend” is a pen image input by the user using the pen tool. The heart-shaped image is a stamp image input by a user using a stamp tool.

このように、編集画像P1は、撮影画像からクロマキー処理によって抽出した人物の領域の画像である人物画像P12を背景画像P11に重ね、その上に前景画像P13を重ねることによって生成される。ペン画像やスタンプ画像を背景画像P11上に入力し、被写体の背景に表示させることも可能とされる。   As described above, the edited image P1 is generated by superimposing the person image P12, which is an image of the person region extracted from the captured image by the chroma key process, on the background image P11 and superimposing the foreground image P13 thereon. It is also possible to input a pen image or a stamp image on the background image P11 and display it on the background of the subject.

図9の例においては、人物画像P12として、利用者の略胸付近から上の範囲が大きく写る画像が示されている。撮影処理においては、このように顔が大きく写る撮影画像であるアップ画像が撮影される。アップ画像の撮影は例えば複数回行われる。   In the example of FIG. 9, as the person image P12, an image is shown in which the upper range from the vicinity of the user's approximate chest is greatly shown. In the photographing process, an up image, which is a photographed image in which the face is shown large, is photographed. The up image is taken a plurality of times, for example.

撮影処理においては、アップ画像の他に、頭の上から膝下付近までの広い範囲が写る画像の撮影も行われる。この画像は、例えば、洋服のコーディネートを残しておくために用いられる。以下、適宜、洋服のコーディネートを残しておくためなどに用いられる、アップ画像よりも画角(撮影範囲)の広い画像をコーディネート画像という。   In the photographing process, in addition to the up image, photographing of a wide range from the top of the head to the vicinity of the knee is also performed. This image is used, for example, to leave a coordinate of the clothes. Hereinafter, an image having a wider angle of view (photographing range) than an up image, which is used to leave the coordinates of clothes as appropriate, is referred to as a coordinated image.

コーディネート画像よりも画角が広い、利用者の全身が写る全身画像の撮影が行われるようにしてもよい。   You may make it image | photograph the whole body image which has a wider angle of view than a coordinated image and a user's whole body is reflected.

<写真シール作成装置の内部構成>
図10は、写真シール作成装置1の構成例を示すブロック図である。図10において、上述した構成と同じ構成には同じ符号を付してある。重複する説明については適宜省略する。
<Internal configuration of photo sticker creation device>
FIG. 10 is a block diagram illustrating a configuration example of the photographic sticker creating apparatus 1. In FIG. 10, the same components as those described above are denoted by the same reference numerals. The overlapping description will be omitted as appropriate.

図10に示すように、写真シール作成装置1は、PC(Personal Computer)部301に対して、事前選択部302、撮影部304、編集部305A,305B、および印刷部306が外部入出力インタフェース303を介して接続されることによって構成される。情報処理部であるPC部301は、例えば編集ユニット12の筐体内部に収納される。   As shown in FIG. 10, the photo sticker creating apparatus 1 has a PC (Personal Computer) unit 301 with a pre-selection unit 302, an imaging unit 304, editing units 305 </ b> A and 305 </ b> B, and a printing unit 306. It is configured by being connected via The PC unit 301 serving as an information processing unit is housed inside the casing of the editing unit 12, for example.

PC部301を構成するCPU(Central Processing Unit)311、ROM(Read Only Memory)312、RAM(Random Access Memory)313は、バス314により相互に接続される。   A CPU (Central Processing Unit) 311, a ROM (Read Only Memory) 312, and a RAM (Random Access Memory) 313 that constitute the PC unit 301 are connected to each other via a bus 314.

CPU311は、所定のプログラムを実行し、写真シール作成装置1の全体の動作を制御する。ROM312は、CPU311が実行するプログラムやデータを記憶する。RAM312は、CPU311が処理するデータやプログラムを一時的に記憶する。   The CPU 311 executes a predetermined program and controls the overall operation of the photo sticker creating apparatus 1. The ROM 312 stores programs and data executed by the CPU 311. The RAM 312 temporarily stores data and programs processed by the CPU 311.

バス314には、さらに、入出力インタフェース315が接続される。入出力インタフェース315には、記憶部316、通信部317、およびドライブ318が接続される。   An input / output interface 315 is further connected to the bus 314. A storage unit 316, a communication unit 317, and a drive 318 are connected to the input / output interface 315.

記憶部316は、ハードディスクやフラッシュメモリなどの不揮発性の記憶媒体である。記憶部316は、CPU311から供給された各種の設定情報などを記憶する。記憶部316に記憶されている情報はCPU311により適宜読み出される。   The storage unit 316 is a non-volatile storage medium such as a hard disk or a flash memory. The storage unit 316 stores various setting information supplied from the CPU 311. Information stored in the storage unit 316 is appropriately read out by the CPU 311.

通信部317は、インターネットなどのネットワークのインタフェースである。通信部317は、CPU311による制御に従って外部の装置と通信を行う。通信部317は、利用者により選択された画像を、例えば写真シール作成装置1の製造メーカーが管理する画像取得サイト管理サーバに送信する。通信部317から送信された画像は、所定の記憶領域が割り当てられて保存され、画像取得サイト管理サーバにアクセスしてきた携帯端末上で表示されたり、その携帯端末にダウンロードされたりする。   The communication unit 317 is a network interface such as the Internet. The communication unit 317 communicates with an external device according to control by the CPU 311. The communication unit 317 transmits the image selected by the user to, for example, an image acquisition site management server managed by the manufacturer of the photo sticker creating apparatus 1. The image transmitted from the communication unit 317 is allocated and stored with a predetermined storage area, and is displayed on a portable terminal that has accessed the image acquisition site management server or downloaded to the portable terminal.

ドライブ318には、光ディスクや半導体メモリなどよりなるリムーバブルメディア319が適宜装着される。ドライブ318によりリムーバブルメディア319から読み出されたプログラムやデータは、CPU311に供給され、記憶部316に記憶されたり、インストールされたりする。   A removable medium 319 made of an optical disk, a semiconductor memory, or the like is appropriately attached to the drive 318. Programs and data read from the removable medium 319 by the drive 318 are supplied to the CPU 311 and stored in the storage unit 316 or installed.

入出力インタフェース315には外部入出力インタフェース303が接続される。PC部301による各部の制御が、外部入出力インタフェース303を介して行われる。   An external input / output interface 303 is connected to the input / output interface 315. Control of each unit by the PC unit 301 is performed via the external input / output interface 303.

事前選択部302は、事前選択空間A0にいる利用者を対象とした事前選択処理を実現する。事前選択部302は、タッチパネルモニタ71、スピーカ72、および硬貨処理部321から構成される。   The preselection unit 302 realizes a preselection process for the user in the preselection space A0. The preselection unit 302 includes a touch panel monitor 71, a speaker 72, and a coin processing unit 321.

タッチパネルモニタ71は、PC部301による制御に従って各種の選択画面を表示し、選択画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、各種の設定が行われる。   The touch panel monitor 71 displays various selection screens according to control by the PC unit 301 and accepts user operations on the selection screens. An input signal representing the content of the user's operation is supplied to the PC unit 301 and various settings are performed.

硬貨処理部321は、硬貨投入返却口73への硬貨の投入を検出する。硬貨処理部321は、所定の金額分の硬貨が投入されたことを検出した場合、ゲームの開始を指示する起動信号をPC部301に出力する。   The coin processing unit 321 detects the insertion of coins into the coin insertion / return port 73. When the coin processing unit 321 detects that a predetermined amount of coins has been inserted, the coin processing unit 321 outputs an activation signal instructing the start of the game to the PC unit 301.

撮影部304は、撮影空間A1にいる利用者を対象とした撮影処理を実現する。撮影部304は、照明装置331、カメラ91、タッチパネルモニタ92、およびスピーカ332から構成される。   The photographing unit 304 realizes photographing processing for a user in the photographing space A1. The photographing unit 304 includes a lighting device 331, a camera 91, a touch panel monitor 92, and a speaker 332.

照明装置331は、撮影空間A1内の各ストロボユニットであり、PC部301から供給される照明制御信号に従って発光する。   The illumination device 331 is each strobe unit in the imaging space A1, and emits light according to an illumination control signal supplied from the PC unit 301.

カメラ91は、PC部301によるシャッタ制御に従って撮影を行い、撮影によって得られた画像データをPC部301に出力する。   The camera 91 shoots according to the shutter control by the PC unit 301, and outputs image data obtained by the shooting to the PC unit 301.

編集部305Aは、編集空間A2−1にいる利用者を対象とした編集処理を実現する。編集部305Aは、タブレット内蔵モニタ131、タッチペン132A,132B、およびスピーカ341から構成される。編集部305Bは、編集空間A2−2にいる利用者を対象とした編集処理を実現し、編集部305Aと同一の構成を有する。なお、以下、編集部305A,305Bを特に区別しない場合には、単に、編集部305という。   The editing unit 305A realizes editing processing for users in the editing space A2-1. The editing unit 305A includes a tablet built-in monitor 131, touch pens 132A and 132B, and a speaker 341. The editing unit 305B realizes editing processing for users in the editing space A2-2, and has the same configuration as the editing unit 305A. Hereinafter, the editing units 305A and 305B are simply referred to as the editing unit 305 unless they are particularly distinguished.

タブレット内蔵モニタ131は、PC部301による制御に従って編集画面を表示し、編集画面に対する利用者の操作を受け付ける。利用者の操作の内容を表す入力信号はPC部301に供給され、撮影画像の編集が行われる。   The tablet built-in monitor 131 displays an editing screen according to control by the PC unit 301 and accepts a user operation on the editing screen. An input signal representing the content of the user's operation is supplied to the PC unit 301, and the captured image is edited.

印刷部306は、プリンタ351を含むように構成される。プリンタ351にはシール紙ユニット352が装着される。   The printing unit 306 is configured to include a printer 351. A sticker unit 352 is attached to the printer 351.

プリンタ351は、ヘッド361を駆動し、PC部301から供給された印刷データに基づいて、シール紙ユニット352に収納されているロール状のシール紙363に画像を印刷する。また、プリンタ351は、画像を印刷したシール紙363をカッター362によってカットして、シール紙排出口161に排出する。   The printer 351 drives the head 361 and prints an image on a roll-shaped sticker paper 363 stored in the sticker paper unit 352 based on print data supplied from the PC unit 301. Further, the printer 351 cuts the sticker paper 363 on which an image is printed by the cutter 362 and discharges the sticker paper 363 to the sticker paper discharge port 161.

<写真シール作成装置の機能構成例>
図11は、写真シール作成装置1の機能構成例を示すブロック図である。図11に示す機能部のうちの少なくとも一部は、CPU311により所定のプログラムが実行されることによって実現される。
<Example of functional configuration of photo sticker creation device>
FIG. 11 is a block diagram illustrating a functional configuration example of the photo sticker creating apparatus 1. At least a part of the functional units shown in FIG. 11 is realized by the CPU 311 executing a predetermined program.

写真シール作成装置1においては、事前選択処理部401、撮影処理部402、編集処理部403、および印刷処理部404が実現される。   In the photo sticker creating apparatus 1, a pre-selection processing unit 401, a photographing processing unit 402, an editing processing unit 403, and a print processing unit 404 are realized.

事前選択処理部401は、事前選択部302の各部を制御することで、事前選択処理を実行する。事前選択処理により、利用者の人数の選択、背景画像の選択などが行われる。利用者による選択内容を表す情報は撮影処理部402に供給される。   The preselection processing unit 401 executes the preselection processing by controlling each unit of the preselection unit 302. By the pre-selection process, selection of the number of users, selection of a background image, and the like are performed. Information representing the content selected by the user is supplied to the imaging processing unit 402.

撮影処理部402は、撮影部304の各部を制御することで撮影処理を行う。撮影処理部402は、撮影処理を行うことによって得られた撮影画像のデータを編集処理部403に出力する。撮影処理部402から編集処理部403に対しては、撮影を複数回行うことによって得られた複数枚の撮影画像のデータが供給される。   The imaging processing unit 402 performs imaging processing by controlling each unit of the imaging unit 304. The imaging processing unit 402 outputs the captured image data obtained by performing the imaging process to the editing processing unit 403. Data of a plurality of photographed images obtained by performing photographing a plurality of times is supplied from the photographing processing unit 402 to the editing processing unit 403.

編集処理部403は、編集部305の各部を制御することで編集処理を行う。編集処理には、撮影画像に写る利用者の目の大きさや肌の明るさを調整する処理、撮影画像に対して編集を施す処理などが含まれる。編集処理部403は、撮影画像の編集を終えた後、編集画像を所定のレイアウトで配置することによって印刷データを生成し、印刷処理部404に出力する。   The editing processing unit 403 performs editing processing by controlling each unit of the editing unit 305. The editing process includes a process of adjusting the size of the user's eyes and the brightness of the skin appearing in the photographed image, a process of editing the photographed image, and the like. After finishing editing the captured image, the edit processing unit 403 generates print data by arranging the edited image in a predetermined layout, and outputs the print data to the print processing unit 404.

印刷処理部404は、プリンタ351に印刷データを出力し、編集画像の印刷を行う。   The print processing unit 404 outputs print data to the printer 351 and prints an edited image.

<撮影処理部の詳細構成>
図12は、撮影処理部402の構成例を示すブロック図である。
<Detailed configuration of imaging processing unit>
FIG. 12 is a block diagram illustrating a configuration example of the imaging processing unit 402.

撮影処理部402は、撮影制御部411、トリミング部412、画像処理部413、選択受付部414、表示制御部415、および撮影画像記憶部416から構成される。   The imaging processing unit 402 includes an imaging control unit 411, a trimming unit 412, an image processing unit 413, a selection receiving unit 414, a display control unit 415, and a captured image storage unit 416.

撮影制御部411は、カメラ91を制御して利用者を被写体とした撮影を行う。撮影制御部411は、静止画像の撮影前、ライブビュー画像用の動画像の撮影を行い、カメラ91により取り込まれた動画像を出力する。また、撮影制御部411は、撮影画像の撮影タイミングに合わせて静止画像の撮影を行い、カメラ91により撮影された静止画像を出力する。撮影制御部411から出力された動画像と静止画像はトリミング部412に供給される。   The shooting control unit 411 controls the camera 91 to perform shooting with a user as a subject. The shooting control unit 411 shoots a moving image for a live view image before shooting a still image, and outputs a moving image captured by the camera 91. The shooting control unit 411 also takes a still image in accordance with the shooting timing of the shot image, and outputs a still image shot by the camera 91. The moving image and the still image output from the imaging control unit 411 are supplied to the trimming unit 412.

トリミング部412は、撮影制御部411から供給された動画像の各フレームに対してトリミングを施し、所定の範囲の画像からなる動画像を出力する。トリミングにより切り出された範囲の画像からなる動画像は、画像処理部413と表示制御部415に供給される。   The trimming unit 412 performs trimming on each frame of the moving image supplied from the imaging control unit 411, and outputs a moving image composed of images in a predetermined range. A moving image including an image in a range cut out by trimming is supplied to the image processing unit 413 and the display control unit 415.

また、トリミング部412は、撮影画像の撮影タイミングで撮影制御部411から供給された静止画像に対してトリミングを施し、所定の範囲を切り出すことによって撮影画像を生成する。トリミング部412は、生成した撮影画像を撮影画像記憶部416に出力し、記憶させる。トリミング部412により生成された撮影画像は、適宜、撮影結果を表示するために表示制御部415に出力される。   The trimming unit 412 performs trimming on the still image supplied from the shooting control unit 411 at the shooting timing of the shot image, and generates a shot image by cutting out a predetermined range. The trimming unit 412 outputs the generated captured image to the captured image storage unit 416 and stores it. The captured image generated by the trimming unit 412 is appropriately output to the display control unit 415 in order to display the captured result.

撮影画像の撮影は例えば6回行われる。1回目から4回目までの撮影がアップ画像の撮影となり、6回目の撮影が例えばコーディネート画像の撮影となる。アップ画像の撮影とコーディネート画像の撮影は、カメラ91のレンズの焦点距離を例えば同じ24mmとして行われる。トリミング範囲を変えることによって、縦横比の異なるアップ画像とコーディネート画像が生成される。   The captured image is captured six times, for example. Shooting from the first time to the fourth time is shooting of an up image, and shooting of the sixth time is shooting of a coordinated image, for example. The up image and coordinated image are taken with the same focal length of the lens of the camera 91, for example, 24 mm. By changing the trimming range, an up image and a coordinated image having different aspect ratios are generated.

図13は、アップ画像とコーディネート画像の生成の例を示す図である。   FIG. 13 is a diagram illustrating an example of generation of an up image and a coordinated image.

図13に示す画像は、焦点距離を24mmとして撮影された原画像である。枠F1で示す矩形領域が、アップ画像の撮影時にトリミングによって切り出される領域である。トリミング部412は、枠F1で示す矩形領域をトリミングによって切り出し、アップ画像を生成する。   The image shown in FIG. 13 is an original image taken with a focal length of 24 mm. A rectangular area indicated by a frame F1 is an area cut out by trimming when an up image is captured. The trimming unit 412 cuts out a rectangular area indicated by the frame F1 by trimming and generates an up image.

また、枠F2で示す矩形領域が、コーディネート画像の撮影時にトリミングによって切り出される領域である。トリミング部412は、枠F2で示す矩形領域をトリミングによって切り出し、コーディネート画像を生成する。   A rectangular area indicated by a frame F2 is an area cut out by trimming when a coordinated image is captured. The trimming unit 412 cuts out a rectangular area indicated by the frame F2 by trimming to generate a coordinated image.

アップ画像とコーディネート画像の撮影前のライブビュー画像の表示も、カメラ91により撮影された動画像の各フレームから、図13において枠F1と枠F2で示す範囲を切り出して得られた画像を用いて行われる。   The display of the live view image before photographing of the up image and the coordinated image is also performed using images obtained by cutting out the ranges indicated by the frames F1 and F2 in FIG. 13 from each frame of the moving image photographed by the camera 91. Done.

6回の撮影のうちの5回目の撮影は、利用者により選択されたスタンプ画像が合成されたアップ画像の撮影となる。   The fifth shooting out of the six shootings is a shooting of an up image in which the stamp image selected by the user is synthesized.

以下、適宜、流行のスタンプ画像を合成することによっていわゆる「盛れ感」のある画像を得るための撮影という意味で、スタンプ画像が合成されたアップ画像の撮影を「イマドキ盛り撮影」という。「盛れ感」は、利用者の顔のかわいらしさの強調度合いを表す指標である。   Hereinafter, photographing of an up image in which a stamp image is combined is referred to as “imadoki shooting” in the sense of photographing to obtain a so-called “smoothed” image by appropriately combining trendy stamp images. “Feeling” is an index representing the degree of emphasis on the cuteness of the user's face.

図14は、イマドキ盛り撮影時に用いられるスタンプ画像の例を示す図である。   FIG. 14 is a diagram showing an example of a stamp image used at the time of taking a picture.

イマドキ盛り撮影時、例えば、図14に示すような動物の耳と鼻を表現したスタンプ画像431が合成に用いられる。スタンプ画像431は、ウサギの鼻を表現した鼻画像431−1と、ウサギの左右の耳を表現した耳画像431−2,431−3から構成される。   For example, a stamp image 431 representing the ears and nose of an animal as shown in FIG. 14 is used for synthesis. The stamp image 431 includes a nose image 431-1 representing the rabbit nose and ear images 431-2 and 431-3 representing the left and right ears of the rabbit.

図15は、合成画像の例を示す図である。   FIG. 15 is a diagram illustrating an example of a composite image.

アップ画像に写るそれぞれの利用者の鼻と頭の位置に図14のスタンプ画像が合成されることにより、図15に示すような合成画像が生成される。スタンプ画像の大きさは、アップ画像に写る利用者の大きさに応じて調整され、大きさを調整したスタンプ画像が合成される。   The stamp image of FIG. 14 is combined with the position of each user's nose and head that appear in the up image, thereby generating a combined image as shown in FIG. The size of the stamp image is adjusted according to the size of the user shown in the up image, and the stamp image with the adjusted size is synthesized.

図15の例においては、左側の利用者の鼻の位置には鼻画像431−1Lが合成され、頭の位置には耳画像431−2L,431−3Lが合成されている。また、右側の利用者の鼻の位置には鼻画像431−1Rが合成され、頭の位置には耳画像431−2R,431−3Rが合成されている。   In the example of FIG. 15, a nose image 431-1L is synthesized at the position of the left user's nose, and ear images 431-2L and 431-3L are synthesized at the position of the head. Also, a nose image 431-1R is synthesized at the right user's nose position, and ear images 431-2R and 431-3R are synthesized at the head position.

このように、アップ画像に対してスタンプ画像を合成して得られた合成画像が、イマドキ盛り撮影の撮影画像として生成される。   In this way, a composite image obtained by combining the stamp image with the up image is generated as a photographed image for imposing image capturing.

イマドキ盛り撮影が行われる前、合成に用いるスタンプ画像の種類の選択が行われる。写真シール作成装置1には、図16A乃至Dに示すような複数種類のスタンプ画像のデータが予め用意されている。   Prior to imado shooting, the type of stamp image used for composition is selected. In the photo sticker creating apparatus 1, data of a plurality of types of stamp images as shown in FIGS. 16A to 16D are prepared in advance.

スタンプ画像の選択は、タッチパネルモニタ92に表示されるスタンプ画像選択画面を用いて行われる。後述するように、スタンプ画像選択画面には、それぞれのスタンプ画像を選択するときに操作されるボタンとともに、選択中のスタンプ画像を表すコンテンツを合成したライブビュー画像が表示される。   The stamp image is selected using a stamp image selection screen displayed on the touch panel monitor 92. As will be described later, on the stamp image selection screen, a live view image obtained by synthesizing contents representing the selected stamp image is displayed together with a button operated when each stamp image is selected.

利用者は、自分が選択した内容が反映されたライブビュー画像を見ながら、イマドキ盛り撮影に用いるスタンプ画像を選択することができる。   The user can select a stamp image to be used for imado shooting while viewing the live view image in which the content selected by the user is reflected.

詳細については後述するが、図12のトリミング部412は、スタンプ画像の選択を利用者に行わせている間、言い換えると、利用者によるスタンプ画像の選択を受け付けている間、トリミング範囲を調整することにより、ライブビュー画像の画角を調整する。   Although the details will be described later, the trimming unit 412 in FIG. 12 adjusts the trimming range while the user selects the stamp image, in other words, while accepting the selection of the stamp image by the user. As a result, the angle of view of the live view image is adjusted.

トリミング部412は、イマドキ盛り撮影時に撮影制御部411から供給された静止画像にトリミングを施すことによってアップ画像と同じ画角の画像を切り出し、切り出したアップ画像を画像処理部413に出力する。   The trimming unit 412 crops an image having the same angle of view as the up image by performing trimming on the still image supplied from the imaging control unit 411 at the time of taking an image, and outputs the cut up image to the image processing unit 413.

画像処理部413は、イマドキ盛り撮影の前に撮影制御部411から供給された動画像の各フレームに対してコンテンツを合成する。すなわち、画像処理部413は、各フレームを対象として顔認識を行うことによって、目、鼻、頭などの各部位の位置を特定し、特定した位置に、コンテンツを構成する各画像を合成する。選択受付部414からは、利用者が選択しているスタンプ画像の種類を表す情報が供給されてくる。   The image processing unit 413 synthesizes the content with each frame of the moving image supplied from the shooting control unit 411 before the shooting. That is, the image processing unit 413 performs face recognition on each frame, identifies the position of each part such as the eyes, nose, and head, and synthesizes each image constituting the content at the identified position. Information indicating the type of stamp image selected by the user is supplied from the selection receiving unit 414.

動画像に合成されるコンテンツは、アップ画像に合成するスタンプ画像の種類を表す画像から構成される。静止画像に合成されるスタンプ画像と同じ画像が動画像の各フレームに合成されることもあるし、異なる画像が動画像の各フレームに合成されることもある。動画像に合成されるコンテンツは、静止画像であるアップ画像に施される画像処理の内容を表す画像となる。画像処理部413は、コンテンツを合成した動画像を表示制御部415に出力する。   The content combined with the moving image is composed of an image representing the type of stamp image combined with the up image. The same image as the stamp image combined with the still image may be combined with each frame of the moving image, or a different image may be combined with each frame of the moving image. The content combined with the moving image is an image representing the details of image processing performed on the up image that is a still image. The image processing unit 413 outputs a moving image obtained by combining the contents to the display control unit 415.

また、画像処理部413は、イマドキ盛り撮影時に撮影制御部411から供給されたアップ画像に対して、利用者により選択されたスタンプ画像を合成することによって合成画像を生成する。画像処理部413は、スタンプ画像を合成することによって生成した合成画像を撮影画像記憶部416に出力し、イマドキ盛り撮影の撮影画像として記憶させる。画像処理部413により生成された合成画像は、適宜、イマドキ盛り撮影の撮影結果を表示するために表示制御部415に出力される。   In addition, the image processing unit 413 generates a composite image by combining the stamp image selected by the user with the up image supplied from the imaging control unit 411 at the time of imposing image capturing. The image processing unit 413 outputs the combined image generated by combining the stamp images to the captured image storage unit 416, and stores the combined image as a captured image of the impressed shooting. The composite image generated by the image processing unit 413 is appropriately output to the display control unit 415 in order to display the shooting result of the imprinting shooting.

選択受付部414は、タッチパネルモニタ92に表示されるスタンプ画像選択画面に対する利用者の操作を受け付ける。選択受付部414は、利用者が選択しているスタンプ画像の種類を表す情報を画像処理部413に出力する。   The selection receiving unit 414 receives a user operation on the stamp image selection screen displayed on the touch panel monitor 92. The selection receiving unit 414 outputs information representing the type of stamp image selected by the user to the image processing unit 413.

表示制御部415は、タッチパネルモニタ92の表示を制御する。例えば、表示制御部415は、撮影に関するガイダンスの画面をタッチパネルモニタ92に表示させる。   The display control unit 415 controls display on the touch panel monitor 92. For example, the display control unit 415 causes the touch panel monitor 92 to display a guidance screen regarding shooting.

また、表示制御部415は、トリミング部412から供給された動画像に基づいてアップ画像とコーディネート画像の撮影前のライブビュー画像をタッチパネルモニタ92に表示させる。表示制御部415は、画像処理部413から供給された動画像に基づいて、イマドキ盛り撮影前のライブビュー画像をタッチパネルモニタ92に表示させる。   Further, the display control unit 415 causes the touch panel monitor 92 to display a live view image before photographing the up image and the coordinated image based on the moving image supplied from the trimming unit 412. Based on the moving image supplied from the image processing unit 413, the display control unit 415 causes the touch panel monitor 92 to display a live view image before taking an image.

表示制御部415は、撮影が行われた場合、適宜、撮影結果をタッチパネルモニタ92に表示させる。   When shooting is performed, the display control unit 415 displays the shooting result on the touch panel monitor 92 as appropriate.

撮影画像記憶部416は、トリミング部412から供給されたアップ画像、コーディネート画像と、画像処理部413から供給された合成画像を記憶する。撮影画像記憶部416に記憶された撮影画像は、撮影処理の終了後、編集処理部403により読み出される。   The captured image storage unit 416 stores the up image and coordinated image supplied from the trimming unit 412 and the composite image supplied from the image processing unit 413. The photographed image stored in the photographed image storage unit 416 is read out by the editing processing unit 403 after the photographing process is completed.

<写真シール作成装置の動作>
ここで、図17のフローチャートを参照して、写真シール作成ゲームを提供する写真シール作成装置1の動作について説明する。
<Operation of photo sticker creation device>
Here, with reference to the flowchart of FIG. 17, operation | movement of the photograph sticker production apparatus 1 which provides a photograph sticker creation game is demonstrated.

ステップS1において、事前選択処理部401は、所定の金額分の硬貨が投入されたか否かを、硬貨処理部321から供給される起動信号に基づいて判定し、硬貨が投入されたと判定するまで待機する。硬貨が投入されたとステップS1において判定された場合、処理はステップS2に進む。   In step S1, the preselection processing unit 401 determines whether or not a predetermined amount of coins has been inserted based on an activation signal supplied from the coin processing unit 321 and waits until it is determined that coins have been inserted. To do. If it is determined in step S1 that a coin has been inserted, the process proceeds to step S2.

ステップS2において、事前選択処理部401は、事前選択部302を制御することで、事前選択処理を行う。事前選択処理により、例えば、利用者の人数の選択、撮影画像に合成する背景画像の選択などが行われる。いずれの選択も、タッチパネルモニタ71に表示される画面を用いて行われる。   In step S <b> 2, the preselection processing unit 401 performs the preselection process by controlling the preselection unit 302. By the pre-selection process, for example, selection of the number of users, selection of a background image to be combined with a captured image, and the like are performed. Either selection is performed using a screen displayed on the touch panel monitor 71.

ステップS3において、撮影処理部402は、撮影部304を制御することで、撮影処理を行う。例えば、撮影処理部402は、カメラ91により取り込まれた動画像に基づいてライブビュー画面をタッチパネルモニタ92に表示させ、撮影空間A1にいる利用者を被写体として撮影を行う。撮影処理の詳細については図18のフローチャートを参照して後述する。   In step S <b> 3, the photographing processing unit 402 performs photographing processing by controlling the photographing unit 304. For example, the photographing processing unit 402 displays a live view screen on the touch panel monitor 92 based on a moving image captured by the camera 91, and photographs a user in the photographing space A1 as a subject. Details of the photographing process will be described later with reference to the flowchart of FIG.

ステップS4において、編集処理部403は、編集空間A2−1と編集空間A2−2のうち、撮影処理を終えた利用者の移動先とした方の編集空間に対応する編集部305を制御することで、編集処理を行う。   In step S4, the editing processing unit 403 controls the editing unit 305 corresponding to the editing space of the editing space A2-1 and the editing space A2-2 that is the destination of the user who has finished the shooting process. Then, edit processing is performed.

例えば、編集処理部403は、タブレット内蔵モニタ131に編集画面を表示させ、撮影処理により得られた撮影画像に対して利用者に編集作業を行わせる。編集画面には、編集対象の撮影画像とともに、撮影画像に合成する合成用画像を選択するときに操作されるボタンなどが表示される。編集処理部403は、利用者の操作に応じて合成用画像を合成することによって撮影画像の編集を行い、編集画像を生成する。   For example, the editing processing unit 403 displays an editing screen on the tablet built-in monitor 131 and causes the user to perform editing work on the captured image obtained by the capturing process. The editing screen displays a photographed image to be edited and buttons operated when selecting a composite image to be combined with the photographed image. The edit processing unit 403 edits the captured image by compositing the compositing image in accordance with a user operation, and generates an edited image.

例えば、アップ画像、コーディネート画像だけでなく、イマドキ盛り撮影によって得られた合成画像に対しても、編集を行うことが可能とされる。   For example, it is possible to edit not only an up image and a coordinated image, but also a composite image obtained by imposing shooting.

撮影画像の編集後、編集処理部403は、分割数の選択に用いられる画面、画像取得サイト管理サーバに送信する画像の選択に用いられる画面などの各種の画面をタブレット内蔵モニタ131に表示する。編集処理部403は、各画面に対する利用者の操作に応じて各種の処理を行う。   After editing the captured image, the editing processing unit 403 displays various screens such as a screen used for selecting the number of divisions and a screen used for selecting an image to be transmitted to the image acquisition site management server on the tablet built-in monitor 131. The edit processing unit 403 performs various processes in accordance with user operations on each screen.

ステップS5において、印刷処理部404は、プリンタ351を制御することで、印刷処理を行う。印刷処理部404は、編集処理部403により生成された印刷データをプリンタ351に出力してシール紙363に印刷させる。   In step S <b> 5, the print processing unit 404 performs print processing by controlling the printer 351. The print processing unit 404 outputs the print data generated by the edit processing unit 403 to the printer 351 and prints it on the sticker sheet 363.

印刷が終了した場合、ステップS6において、プリンタ351は、カッター362で切り離したシール紙363をシール紙排出口161に排出する。   When printing is completed, in step S <b> 6, the printer 351 discharges the sticker paper 363 separated by the cutter 362 to the sticker paper discharge port 161.

写真シール作成装置1の利用者の各グループに対しては、以上のような一連の処理からなる写真作成ゲームが提供される。あるグループの利用者に続けて他のグループの利用者が写真シール作成装置1の利用を開始した場合、写真シール作成装置1の利用を先に始めた利用者の写真シール作成ゲームと、後から始めた利用者の写真シール作成ゲームとが適宜並行して行われることになる。適宜、写真シール作成ゲームを単にゲームともいう。   For each group of users of the photo sticker creating apparatus 1, a photo creating game including the series of processes as described above is provided. When a user of another group starts using the photo sticker creating apparatus 1 following a user of a certain group, a user's photo sticker creating game that started using the photo sticker creating apparatus 1 and later The user's started photo sticker creation game will be played in parallel as appropriate. As appropriate, the photo sticker creation game is also simply referred to as a game.

<撮影処理>
次に、図18のフローチャートを参照して、図17のステップS3において行われる撮影処理について説明する。
<Shooting process>
Next, with reference to the flowchart of FIG. 18, the imaging process performed in step S3 of FIG. 17 will be described.

ステップS11において、撮影処理部402の表示制御部415(図12)は、タッチパネルモニタ92に誘導画面を表示させ、利用者毎の立ち位置を誘導する。立ち位置の誘導は、床材のマークを指定することによって行われる。   In step S11, the display control unit 415 (FIG. 12) of the imaging processing unit 402 displays a guidance screen on the touch panel monitor 92 and guides the standing position for each user. The standing position is guided by designating a floor mark.

立ち位置の誘導が行われた後、ステップS12において、表示制御部415は、ライブビュー画面の表示を開始する。すなわち、撮影制御部411によりカメラ91が制御され、動画像の取り込みが開始される。カメラ91により取り込まれた動画像は、トリミング部412に供給され、トリミングが行われる。トリミングにより切り出された画像からなる動画像は表示制御部415に出力され、ライブビュー画面の表示に用いられる。   After the standing position is guided, in step S12, the display control unit 415 starts displaying the live view screen. That is, the camera 91 is controlled by the photographing control unit 411, and moving image capturing is started. The moving image captured by the camera 91 is supplied to the trimming unit 412 and trimmed. A moving image composed of images cut out by trimming is output to the display control unit 415 and used for display of a live view screen.

図19は、ライブビュー画面の表示例を示す図である。   FIG. 19 is a diagram illustrating a display example of the live view screen.

ライブビュー画面の略中央には表示領域451が設けられる。表示領域451には、トリミング部412から供給された動画像がライブビュー画像として表示される。   A display area 451 is provided in the approximate center of the live view screen. In the display area 451, the moving image supplied from the trimming unit 412 is displayed as a live view image.

図19の例においては、2人の利用者の顔と上半身が大きく写るライブビュー画像が表示されている。アップ画像の撮影前、このようなライブビュー画像が表示される。利用者は、ライブビュー画像を見て、ポーズを確認することができる。   In the example of FIG. 19, a live view image is displayed in which the faces and upper body of two users are enlarged. Such a live view image is displayed before the up image is taken. The user can check the pose by looking at the live view image.

ライブビュー画面には、撮影までのカウントダウンを表す数字が所定のタイミングで表示される。   On the live view screen, a number representing a countdown until shooting is displayed at a predetermined timing.

撮影のタイミングになったとき、ステップS13において、撮影制御部411は、アップ画像の撮影を行う。トリミング部412は、撮影によって得られた静止画像から、図13を参照して説明したような範囲の画像を切り出し、アップ画像を生成する。   When it is time to shoot, in step S13, the shooting control unit 411 shoots an up image. The trimming unit 412 cuts out an image in a range as described with reference to FIG. 13 from a still image obtained by shooting, and generates an up image.

トリミング部412により生成されたアップ画像は、撮影画像記憶部416に記憶されるとともに、表示制御部415に供給され、撮影結果としてタッチパネルモニタ92に表示される。アップ画像に対して、背景画像の合成などが画像処理部413により行われるようにしてもよい。   The up image generated by the trimming unit 412 is stored in the captured image storage unit 416 and is also supplied to the display control unit 415 and displayed on the touch panel monitor 92 as a captured result. The background image may be synthesized by the image processing unit 413 with respect to the up image.

ステップS14において、撮影制御部411は、アップ画像の撮影を4回行ったか否かを判定する。アップ画像の撮影が4回終わったと判定されるまで、ステップS13に戻り、ライブビュー画面の表示とアップ画像の撮影が繰り返される。   In step S14, the shooting control unit 411 determines whether or not shooting of the up image has been performed four times. Until it is determined that the shooting of the up image has been completed four times, the process returns to step S13, and the display of the live view screen and the shooting of the up image are repeated.

アップ画像の撮影が4回終わったとステップS14において判定された場合、処理はステップS15に進む。   If it is determined in step S14 that the up-image shooting has been completed four times, the process proceeds to step S15.

ステップS15において、イマドキ盛り撮影処理が行われる。イマドキ盛り撮影処理により、上述したような合成画像が撮影画像として生成される。イマドキ盛り撮影処理の詳細については図20のフローチャートを参照して後述する。   In step S15, an imprinting shooting process is performed. The composite image as described above is generated as a photographed image by the imprinting photographing process. Details of the imprinting imaging process will be described later with reference to the flowchart of FIG.

ステップS16において、表示制御部415は、タッチパネルモニタ92に誘導画面を表示させ、コーディネート画像用の立ち位置に誘導する。   In step S <b> 16, the display control unit 415 displays a guidance screen on the touch panel monitor 92 and guides it to the standing position for the coordinated image.

立ち位置の誘導が行われた後、ステップS17において、表示制御部415は、ライブビュー画面の表示を開始する。ライブビュー画面の構成は、図19を参照して説明した構成と同じである。表示領域451には、利用者の頭の上から膝下付近までが写るライブビュー画像が表示される。   After the standing position is guided, in step S17, the display control unit 415 starts displaying the live view screen. The configuration of the live view screen is the same as the configuration described with reference to FIG. In the display area 451, a live view image showing from the top of the user's head to near the knee is displayed.

撮影のタイミングになったとき、ステップS18において、撮影制御部411は、コーディネート画像の撮影を行う。トリミング部412は、撮影によって得られた画像から、図13を参照して説明したような範囲の画像を切り出し、コーディネート画像を生成する。   When it is time to shoot, in step S18, the shooting control unit 411 takes a coordinated image. The trimming unit 412 cuts out an image in a range as described with reference to FIG. 13 from an image obtained by shooting, and generates a coordinated image.

トリミング部412により生成されたコーディネート画像は、撮影画像記憶部416に記憶されるとともに、表示制御部415に供給され、撮影結果としてタッチパネルモニタ92に表示される。コーディネート画像に対して、背景画像の合成などが画像処理部413により行われるようにしてもよい。   The coordinated image generated by the trimming unit 412 is stored in the captured image storage unit 416 and also supplied to the display control unit 415 and displayed on the touch panel monitor 92 as a captured result. For example, the image processing unit 413 may combine the background image with the coordinated image.

ステップS19において、表示制御部415は、案内画面をタッチパネルモニタ92に表示させることによって、撮影を終えた利用者に対して編集空間への移動を案内する。その後、図17のステップS3に戻り、それ以降の処理が行われる。   In step S19, the display control unit 415 displays a guidance screen on the touch panel monitor 92 to guide the user who has finished photographing to move to the editing space. Thereafter, the process returns to step S3 in FIG. 17, and the subsequent processing is performed.

<イマドキ盛り撮影処理>
図20のフローチャートを参照して、図18のステップS15において行われるイマドキ盛り撮影処理について説明する。
<Imadoki shooting process>
With reference to the flowchart of FIG. 20, the imprinting image capturing process performed in step S <b> 15 of FIG. 18 will be described.

図20に示す処理は、アップ画像の撮影の後に行われる。アップ画像の撮影時、タッチパネルモニタ92には、図13を参照して説明した枠F1の範囲の動画像がライブビュー画像として表示される。撮影制御部411からは動画像が供給され続ける。   The process shown in FIG. 20 is performed after the up image is captured. When the up image is taken, the moving image in the range of the frame F1 described with reference to FIG. 13 is displayed on the touch panel monitor 92 as a live view image. Moving images continue to be supplied from the imaging control unit 411.

ステップS31において、トリミング部412は、トリミングにより切り出す範囲を変更することによって、ライブビュー画像の画角を変更する。画角を変更したライブビュー画像は、イマドキ盛り撮影前の表示に用いられる画像である。   In step S31, the trimming unit 412 changes the angle of view of the live view image by changing the range to be cut out by trimming. The live view image in which the angle of view is changed is an image used for display before taking a picture.

図21は、画角の変更の例を示す図である。   FIG. 21 is a diagram illustrating an example of changing the angle of view.

図21に示すように、例えば、破線の枠F11で示す範囲がトリミングの切り出し範囲として設定され、切り出される。枠F11で示す範囲は、アップ画像の画角より広い画角の範囲である。イマドキ盛り撮影前のライブビュー画像の表示には、アップ画像の画角より広い画角の動画像が用いられることになる。枠F11で示す範囲は、イマドキ盛り撮影前のライブビュー画像用の画角の範囲として固定的に予め設定されている。   As shown in FIG. 21, for example, a range indicated by a dashed frame F11 is set as a trimming cutout range and cut out. The range indicated by the frame F11 is a range of an angle of view wider than the angle of view of the up image. A moving image having a wider angle of view than the angle of view of the up image is used to display the live view image before imado shooting. The range indicated by the frame F11 is fixedly set in advance as the range of the angle of view for the live view image before taking a picture.

上述したように、イマドキ盛り撮影前、タッチパネルモニタ92には、コンテンツが合成されたライブビュー画像とともに、スタンプ画像の選択に用いられるボタンなどが表示される。利用者は、ライブビュー画像の表示を見ながらボタンを操作し、好みのスタンプ画像を選択する。   As described above, the button used for selecting the stamp image is displayed on the touch panel monitor 92 before live shooting, along with the live view image in which the content is combined. The user operates the button while watching the display of the live view image, and selects a favorite stamp image.

ここで、タッチパネルモニタ92に表示されたボタンを操作するためには、利用者はタッチパネルモニタ92に近づく必要がある。利用者がタッチパネルモニタ92に近づいた場合、カメラ91に近づくことになるから、仮に、ライブビュー画像の画角がアップ画像の画角と同じ画角であるとすると、図22に示すように、操作を行っている利用者の顔が画角に収まらなくなることがある。   Here, in order to operate the buttons displayed on the touch panel monitor 92, the user needs to approach the touch panel monitor 92. When the user approaches the touch panel monitor 92, the user approaches the camera 91. If the angle of view of the live view image is the same as the angle of view of the up image, as shown in FIG. The face of the user performing the operation may not fit within the angle of view.

図22は、画角の変更を行わない場合のライブビュー画像の画角を示す図である。実際には、利用者が選択しているスタンプ画像を表すコンテンツが合成されたライブビュー画像が表示される。   FIG. 22 is a diagram illustrating the angle of view of the live view image when the angle of view is not changed. Actually, a live view image in which content representing a stamp image selected by the user is combined is displayed.

図22の例においては、スタンプ画像を選択するための操作を行っている左側の利用者の顔が収まっていない。この場合、顔認識が失敗するなどしてコンテンツの合成が正しく行われず、ライブビュー画像を見ながらスタンプ画像を選択するといったことができなくなる。   In the example of FIG. 22, the face of the left user who is performing an operation for selecting a stamp image does not fit. In this case, the composition of the content is not performed correctly due to face recognition failure or the like, and the stamp image cannot be selected while viewing the live view image.

スタンプ画像の選択を受け付けている間、画角を広げることにより、図23に示すように、操作を行っている利用者の顔が画角に収まっているライブビュー画像を表示させることが可能となる。右側の利用者が左側の利用者と同じようにタッチパネルモニタ92に近づいた場合、右側の利用者の顔も、左側の利用者の顔とともにライブビュー画像の画角に収まる。   While the selection of the stamp image is accepted, it is possible to display a live view image in which the face of the user performing the operation is within the angle of view as shown in FIG. 23 by widening the angle of view. Become. When the user on the right side approaches the touch panel monitor 92 in the same manner as the user on the left side, the face of the user on the right side is within the angle of view of the live view image together with the face of the user on the left side.

図20の説明に戻り、ステップS32において、トリミング部412は、撮影制御部411から供給された動画像の各フレームに対してトリミングを施し、画角を広げた動画像を生成する。トリミング部412により生成された動画像は画像処理部413に供給される。   Returning to the description of FIG. 20, in step S <b> 32, the trimming unit 412 performs trimming on each frame of the moving image supplied from the imaging control unit 411 to generate a moving image with a wide angle of view. The moving image generated by the trimming unit 412 is supplied to the image processing unit 413.

ステップS33において、画像処理部413は、デフォルトのスタンプ画像を表すコンテンツを、トリミング部412から供給された動画像に合成する。画像処理部413は、例えば動画像に映る利用者の顔を認識し、コンテンツを構成する鼻の画像を利用者の鼻の位置に合成するとともに、コンテンツを構成する耳の画像を利用者の頭の位置に合成する。   In step S <b> 33, the image processing unit 413 combines the content representing the default stamp image with the moving image supplied from the trimming unit 412. For example, the image processing unit 413 recognizes the user's face shown in the moving image, combines the nose image constituting the content with the position of the user's nose, and the ear image constituting the content to the user's head. To the position of.

デフォルトのスタンプ画像を表すコンテンツが合成された動画像が表示されることにより、イマドキ盛り撮影を行ったことのない利用者であっても、イマドキ盛り撮影がどのような撮影であるのかを容易に理解することができる。   By displaying a moving image in which content representing the default stamp image is combined, it is easy for users who have never taken a lively shot to see what kind of shot it is. I can understand.

ステップS34において、表示制御部415は、デフォルトのスタンプ画像を表すコンテンツを合成したライブビュー画像を含むスタンプ画像選択画面をタッチパネルモニタ92に表示させる。   In step S34, the display control unit 415 causes the touch panel monitor 92 to display a stamp image selection screen including a live view image in which content representing a default stamp image is combined.

図24は、スタンプ画像選択画面の表示例を示す図である。   FIG. 24 is a diagram illustrating a display example of a stamp image selection screen.

図24に示すように、スタンプ画像選択画面の表示領域451には、コンテンツが合成されたライブビュー画像が表示される。ライブビュー画像の表示に用いられている動画像は、アップ画像の画角より広い画角の動画像である。タッチパネルモニタ92(カメラ91)に近づいていることにより、利用者の顔が大きく表示されている。   As shown in FIG. 24, a live view image in which contents are combined is displayed in the display area 451 of the stamp image selection screen. The moving image used for displaying the live view image is a moving image having a wider angle of view than the angle of view of the up image. By approaching the touch panel monitor 92 (camera 91), the user's face is displayed large.

図24の例においては、左側の利用者の鼻の位置には鼻画像501−1Lが合成され、頭の位置には耳画像501−2L,501−3Lが合成されている。また、右側の利用者の鼻の位置には鼻画像501−1Rが合成され、頭の位置には耳画像501−2R,501−3Rが合成されている。   In the example of FIG. 24, a nose image 501-1L is synthesized at the left user's nose position, and ear images 501-2L and 501-3L are synthesized at the head position. Also, a nose image 501-1R is synthesized at the right user's nose position, and ear images 501-2R and 501-3R are synthesized at the head position.

鼻画像501−1Lと耳画像501−2L,501−3L、鼻画像501−1Rと耳画像501−2R,501−3Rは、デフォルトのスタンプ画像を表すコンテンツである。図24の例においては、猫の鼻と耳のスタンプ画像がデフォルトのスタンプ画像とされている。   The nose image 501-1L, the ear images 501-2L, 501-3L, the nose image 501-1R, and the ear images 501-2R, 501-3R are contents representing default stamp images. In the example of FIG. 24, the stamp image of the cat's nose and ear is the default stamp image.

このように、スタンプ画像選択画面においては、利用者の選択の内容がライブビュー画像の表示にリアルタイムで反映される。   Thus, on the stamp image selection screen, the content of the user's selection is reflected in real time on the display of the live view image.

表示領域451の下には、スタンプ画像を選択するときに操作されるボタン461−1乃至461−7が横に並べて表示されている。ボタン461−1の左側、ボタン461−7の右側にも、さらに多くのボタンが設けられる。円形のそれぞれのボタンには、それぞれのボタンを押したときに選択されるスタンプ画像を表すサンプルが表示されている。   Below the display area 451, buttons 461-1 to 461-7 operated when selecting a stamp image are displayed side by side. More buttons are provided on the left side of the button 461-1 and on the right side of the button 461-7. Each circular button displays a sample representing a stamp image selected when each button is pressed.

図24の例においては、中央のボタン461−4が選択されており、他のボタンより大きく表示されている。ボタン461−4が、デフォルトのスタンプ画像を選択するときに操作されるボタンとなる。   In the example of FIG. 24, the center button 461-4 is selected and is displayed larger than the other buttons. The button 461-4 is a button that is operated when a default stamp image is selected.

利用者は、他のボタンを操作することによりライブビュー画像に合成されるコンテンツを切り替え、そのようにコンテンツが合成されたライブビュー画像を見て、好みのスタンプ画像を選択することができる。選択したスタンプ画像の色を利用者が変更することができるようにしてもよい。この場合、色の変更に用いられるボタンなどもスタンプ画像選択画面には用意される。   The user can switch the content to be combined with the live view image by operating other buttons, and can select a favorite stamp image by looking at the live view image with the content combined as such. The user may be able to change the color of the selected stamp image. In this case, buttons used for color change are also prepared on the stamp image selection screen.

表示領域451の右隣には、スタンプ画像の選択を終えるときに操作されるOKボタン462が表示される。   On the right side of the display area 451, an OK button 462 that is operated when selection of the stamp image is finished is displayed.

図20の説明に戻り、ステップS35において、選択受付部414は、スタンプ画像が切り替えられたか否かを判定する。   Returning to the description of FIG. 20, in step S35, the selection receiving unit 414 determines whether or not the stamp image has been switched.

スタンプ画像が切り替えられたとステップS35において判定された場合、ステップS36において、画像処理部413は、利用者により選択されたスタンプ画像を表すコンテンツを動画像に合成する。   When it is determined in step S35 that the stamp image has been switched, in step S36, the image processing unit 413 combines the content representing the stamp image selected by the user with the moving image.

その後、ステップS34に戻り、利用者により新たに選択されたスタンプ画像を表すコンテンツが合成されたライブビュー画像がスタンプ画像選択画面に表示される。   Thereafter, the process returns to step S34, and the live view image in which the content representing the stamp image newly selected by the user is combined is displayed on the stamp image selection screen.

図25は、スタンプ画像選択画面の他の表示例を示す図である。   FIG. 25 is a diagram showing another display example of the stamp image selection screen.

例えばボタン461−3が操作された場合、図25に示すように、デフォルトのスタンプ画像を表すコンテンツに代えて、異なるコンテンツが合成されたライブビュー画像が表示される。   For example, when the button 461-3 is operated, as shown in FIG. 25, a live view image in which different contents are combined is displayed instead of the contents representing the default stamp image.

鼻画像502−1Lと耳画像502−2L,502−3L、鼻画像502−1Rと耳画像502−2R,502−3Rは、ボタン461−3を操作したときに選択されるスタンプ画像を表すコンテンツである。図25の例においては、犬の鼻と耳のスタンプ画像がボタン461−3を操作したときに選択されるスタンプ画像とされている。   The nose image 502-1L and the ear images 502-2L and 502-3L, and the nose image 502-1R and the ear images 502-2R and 502-3R are contents representing a stamp image selected when the button 461-3 is operated. It is. In the example of FIG. 25, the stamp image of the dog's nose and ear is selected when the button 461-3 is operated.

一方、スタンプ画像が切り替えられていないと図20のステップS35において判定された場合、ステップS37において、撮影制御部411は、スタンプ画像が決定されたか否かを判定する。   On the other hand, if it is determined in step S35 in FIG. 20 that the stamp image has not been switched, in step S37, the imaging control unit 411 determines whether the stamp image has been determined.

スタンプ画像が決定されていないとステップS37において判定された場合、ステップS34に戻り、スタンプ画像選択画面の表示が続けられる。例えば、OKボタン462が操作された場合、または制限時間が経過した場合、その時合成されているスタンプ画像が決定されたものとして判定される。   If it is determined in step S37 that the stamp image has not been determined, the process returns to step S34 and the display of the stamp image selection screen is continued. For example, when the OK button 462 is operated or when the time limit has elapsed, it is determined that the stamp image combined at that time has been determined.

スタンプ画像が決定されたとステップS37において判定された場合、ステップS38において、トリミング部412は、トリミングにより切り出す範囲を変更することによって、ライブビュー画像の画角をアップ画像の画角と同じ画角に戻す。   When it is determined in step S37 that the stamp image has been determined, in step S38, the trimming unit 412 changes the range to be cut out by trimming so that the angle of view of the live view image is the same as the angle of view of the up image. return.

タッチパネルモニタ92には、アップ画像の画角と同じ画角のライブビュー画像が表示される。ライブビュー画像には、利用者により選択されたスタンプ画像を表すコンテンツが合成される。   On the touch panel monitor 92, a live view image having the same angle of view as that of the up image is displayed. Content representing the stamp image selected by the user is combined with the live view image.

ステップS39において、撮影制御部411は静止画像の撮影を行う。撮影された静止画像はトリミング部412に供給され、トリミングが施されることにより、アップ画像と同じ画角の、枠F1で示す範囲が切り出される。トリミング部412により切り出された画像(アップ画像)は画像処理部413に供給される。   In step S39, the imaging control unit 411 performs still image shooting. The captured still image is supplied to the trimming unit 412 and trimmed to cut out a range indicated by a frame F1 having the same angle of view as that of the up image. The image (up image) cut out by the trimming unit 412 is supplied to the image processing unit 413.

ステップS40において、画像処理部413は、利用者により選択されたスタンプ画像をトリミング部412から供給されたアップ画像に合成し、イマドキ盛り撮影の合成画像を生成する。   In step S <b> 40, the image processing unit 413 combines the stamp image selected by the user with the up image supplied from the trimming unit 412, and generates a combined image of imprinting shooting.

ステップS41において、画像処理部413は、合成画像を撮影画像記憶部416に出力し、撮影画像として保存させる。合成画像が保存された後、図18のステップS15に戻り、それ以降の処理が行われる。   In step S41, the image processing unit 413 outputs the composite image to the captured image storage unit 416, and stores it as a captured image. After the composite image is stored, the process returns to step S15 in FIG. 18, and the subsequent processing is performed.

図26は、ライブビュー画像の画角の変化の例を示す図である。   FIG. 26 is a diagram illustrating an example of a change in the angle of view of the live view image.

図26の横軸は時刻を表す。図26には、アップ画像の撮影前のライブビュー画像の表示開始から、イマドキ盛り撮影までの時間が示されている。イマドキ盛り撮影の後、上述したようにコーディネート画像の撮影前のライブビュー画像の表示などが行われる。   The horizontal axis of FIG. 26 represents time. FIG. 26 shows the time from the start of displaying the live view image before shooting the up image to the time when the image is taken. After taking a picture, the live view image before the coordinated image is taken is displayed as described above.

時刻t1においてライブビュー画像の表示が開始される。アップ画像の撮影前のライブビュー画像であるから、ここで表示されるライブビュー画像の画角は、アップ画像の画角と同じ画角(図21の枠F1の画角)である。   Display of the live view image is started at time t1. Since it is a live view image before the up image is captured, the angle of view of the live view image displayed here is the same as the angle of view of the up image (the angle of view of the frame F1 in FIG. 21).

ライブビュー画像の表示が開始されてから所定の時間経過後の時刻t2乃至t5のそれぞれのタイミングにおいて、アップ画像の撮影が行われる。   An up image is taken at each timing from time t2 to time t5 after the elapse of a predetermined time since the display of the live view image is started.

アップ画像の撮影が終わり、時刻t6において、スタンプ画像選択画面の表示が開始される。スタンプ画像選択画面に表示されるライブビュー画像の画角は、アップ画像の画角より広い画角(図21の枠F11の画角)である。   Shooting of the up image is completed, and display of the stamp image selection screen is started at time t6. The angle of view of the live view image displayed on the stamp image selection screen is wider than the angle of view of the up image (the angle of view of the frame F11 in FIG. 21).

スタンプ画像が決定された後の時刻t7において、ライブビュー画像の画角は、アップ画像の画角と同じ画角に戻される。画角が戻されてから所定時間経過後の時刻t8において、イマドキ盛り撮影が行われる。   At time t7 after the stamp image is determined, the angle of view of the live view image is returned to the same angle of view as that of the up image. Immediate shooting is performed at time t8 after a predetermined time has elapsed since the return of the angle of view.

以上のように、少なくとも、タッチパネルモニタ92の表示を用いた選択を受け付けている間、ライブビュー画像の画角を広げることにより、操作を行っている利用者の顔が画角に収まっているライブビュー画像を表示させることが可能となる。   As described above, at least while the selection using the display on the touch panel monitor 92 is accepted, the live view image is expanded so that the face of the user performing the operation is within the angle of view. A view image can be displayed.

顔が画角に収まっていることにより、利用者は、自分の顔に合成されるコンテンツを見ながら、スタンプ画像を選択することができる。   Since the face is within the angle of view, the user can select the stamp image while viewing the content to be combined with his / her face.

時刻t2乃至t5の期間のライブビュー画像の画角がアップ画像の画角と同一画角であり、時刻t7以降において、ライブビュー画像の画角として、アップ画像の画角より狭い画角が設定されるようにしてもよい。撮影時、利用者は後ろに下がりがちとなるため、イマドキ盛り撮影の画角をアップ画像の画角より狭くすることにより、利用者同士がより近づいた画像を撮影することが可能となる。   The angle of view of the live view image in the period from time t2 to time t5 is the same as the angle of view of the up image, and after time t7, the angle of view narrower than the angle of view of the up image is set as the angle of view of the live view image. You may be made to do. At the time of shooting, the user tends to fall backward, so by narrowing the angle of view of the close-up shooting to the angle of view of the up image, it becomes possible to take images closer to each other.

反対に、時刻t7以降におけるライブビュー画像の画角をアップ画像の画角と同一画角とし、時刻t2乃至t5の期間のライブビュー画像の画角として、アップ画像の画角より狭い画角が設定されるようにしてもよい。   Conversely, the angle of view of the live view image after time t7 is the same as the angle of view of the up image, and the angle of view of the live view image during the period from time t2 to t5 is narrower than the angle of view of the up image. It may be set.

時刻t2乃至t5の期間のライブビュー画像の画角と、時刻t7以降のライブビュー画像の画角の双方の画角として、アップ画像の画角より狭い画角が設定されるようにしてもよい。これにより、利用者同士がより近づいた画像を撮影することが可能となる。   An angle of view narrower than the angle of view of the up image may be set as the angle of view of both the angle of view of the live view image during the period from time t2 to time t5 and the angle of view of the live view image after time t7. . As a result, it is possible to take an image in which the users are closer to each other.

時刻t2乃至t5の期間のライブビュー画像用の撮影として、アップ画像より画角が広いバストアップ画像の撮影が行われ、時刻t7以降の期間のライブビュー画像用の撮影として、アップ画像の画角と同一画角の撮影が行われるようにしてもよい。   A bust-up image having a wider angle of view than the up image is taken as a live view image during the period from time t2 to t5, and a view angle of the up image is taken as a live view image during the period after time t7. It is also possible to perform shooting at the same angle of view.

反対に、時刻t7以降の期間のライブビュー画像用の撮影として、バストアップ画像の撮影が行われ、時刻t2乃至t5の期間のライブビュー画像用の撮影として、アップ画像と同一画角の撮影が行われるようにしてもよい。   On the other hand, a bust-up image is taken as a live view image for a period after time t7, and a live view image is taken at the same angle of view as a live view image for a period from time t2 to t5. It may be performed.

<画角調整の例>
ライブビュー画像の画角を予め設定された固定の画角にまで広げるものとしたが、トリミングにより切り出す範囲の位置を調整するなどして、画角を調整するようにしてもよい。
<Example of angle of view adjustment>
Although the angle of view of the live view image is extended to a preset fixed angle of view, the angle of view may be adjusted by adjusting the position of the range to be cut out by trimming.

図27は、利用者が1人である場合の画角調整の例を示す図である。   FIG. 27 is a diagram illustrating an example of angle of view adjustment when there is one user.

図27の枠F21に示す範囲はライブビュー画像の画角の範囲である。図27の左側に示すように、利用者の顔がライブビュー画像の画角に収まっていない場合、白抜き矢印の先に示すように、利用者の顔が収まるように、ライブビュー画像の画角が調整される。   A range indicated by a frame F21 in FIG. 27 is a field angle range of the live view image. As shown on the left side of FIG. 27, when the user's face is not within the angle of view of the live view image, the live view image is displayed so that the user's face is within the range as indicated by the tip of the white arrow. The corner is adjusted.

この場合、トリミング部412は、撮影制御部411から供給された動画像の各フレームを解析することによって利用者の顔を認識し、利用者の顔が画角に収まるようにトリミング範囲の位置を調整することになる。トリミング範囲の位置だけでなく、範囲の大きさも適宜調整される。   In this case, the trimming unit 412 recognizes the user's face by analyzing each frame of the moving image supplied from the shooting control unit 411, and sets the position of the trimming range so that the user's face falls within the angle of view. Will be adjusted. Not only the position of the trimming range but also the size of the range is appropriately adjusted.

タッチパネルモニタ92の表示を用いた選択を受け付けている間、ライブビュー画像の画角をこのようにして調整することによって、少なくとも、操作を行っている利用者の顔が画角に収まっているライブビュー画像を表示させることが可能となる。   While accepting the selection using the display on the touch panel monitor 92, by adjusting the angle of view of the live view image in this way, at least the live of the user performing the operation is within the angle of view. A view image can be displayed.

図28は、利用者が複数人である場合の画角調整の例を示す図である。   FIG. 28 is a diagram illustrating an example of angle of view adjustment when there are a plurality of users.

図28に示すように、利用者が複数人である場合、カメラ91に近い利用者の顔が収まるように、ライブビュー画像の画角が調整される。それぞれの利用者の位置は、例えば、カメラ91により撮影された画像にクロマキー処理などを施して得られた、人物の領域を表すマスク画像に基づいて特定される。   As shown in FIG. 28, when there are a plurality of users, the angle of view of the live view image is adjusted so that the user's face close to the camera 91 fits. The position of each user is specified based on, for example, a mask image representing a person's area obtained by performing chroma key processing or the like on an image photographed by the camera 91.

図28の左側に示すように、カメラ91に近い利用者の顔がライブビュー画像の画角に収まっていない場合、白抜き矢印の先に示すように、カメラ91に近い利用者の顔が収まるように、ライブビュー画像の画角が調整される。   As shown on the left side of FIG. 28, when the face of the user close to the camera 91 is not within the angle of view of the live view image, the face of the user close to the camera 91 is fit as shown by the tip of the white arrow. As described above, the angle of view of the live view image is adjusted.

大きく写っている利用者はタッチパネルモニタ92の操作を行っている利用者であると考えられる。タッチパネルモニタ92の表示を用いた選択を受け付けている間、ライブビュー画像の画角をこのようにして調整することによって、操作を行っている利用者は、少なくとも、自分の顔が画角に収まっているライブビュー画像を確認することができる。   It can be considered that the user who is shown largely is a user who operates the touch panel monitor 92. While accepting the selection using the display on the touch panel monitor 92, by adjusting the angle of view of the live view image in this way, at least the user who is performing the operation has his / her face within the angle of view. The live view image can be confirmed.

利用者が複数人である場合、ライブビュー画像の画角に収める人物が以下のように設定されるようにしてもよい。   When there are a plurality of users, the person who falls within the angle of view of the live view image may be set as follows.

・カメラ91から遠い利用者(背面に近い利用者)の顔が収まるように、ライブビュー画像の画角を調整する。
・全員の顔が収まるように、ライブビュー画像の画角を調整する。
-Adjust the angle of view of the live view image so that the face of the user far from the camera 91 (the user near the back) is settled.
・ Adjust the angle of view of the Live View image so that everyone's faces fit.

カメラ91から遠い利用者の顔が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、背面に近い利用者にコンテンツが合成される様子を見てスタンプ画像を選択することができる。   By adjusting the angle of view so that the face of the user far from the camera 91 can be accommodated, the user who is operating the touch panel monitor 92 sees how the content is combined with the user near the back, and stamps An image can be selected.

全員の顔が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、全員の写りを見てスタンプ画像を選択することができる。   By adjusting the angle of view so that everyone's faces can be accommodated, the user who operates the touch panel monitor 92 can select a stamp image by looking at the reflection of everyone.

図29は、全員の顔を収める場合の画角の調整例を示す図である。   FIG. 29 is a diagram illustrating an example of adjusting the angle of view when all the faces are accommodated.

図29の枠F31に示す範囲は原画像の画角の範囲である。枠F21に示す範囲は、ライブビュー画像の画角の範囲である。原画像を対象として顔認識が行われ、正方形の枠f1と枠f2で示す範囲に顔が写っていることが検出されている。枠f1と枠f2は、鼻の位置を中点とし、眉から顎先までが入るような正方形である。   A range indicated by a frame F31 in FIG. 29 is a range of an angle of view of the original image. The range indicated by the frame F21 is the range of the angle of view of the live view image. Face recognition is performed on the original image, and it is detected that the face appears in the range indicated by the square frames f1 and f2. The frame f1 and the frame f2 are squares with the position of the nose as a midpoint and from the eyebrows to the chin.

図29の左端の例においては、カメラ91に近い利用者の顔全体がライブビュー画像の画角に収まっていない。この場合、図29の中央に示すように、2つの正方形の枠f1と枠f2の外周を含めるような四角形の枠f11が設定される。   In the example at the left end of FIG. 29, the entire face of the user close to the camera 91 is not within the angle of view of the live view image. In this case, as shown in the center of FIG. 29, a quadrangular frame f11 that includes the outer peripheries of the two square frames f1 and f2 is set.

また、図29の右側に示すように、枠f11が収まるようにライブビュー画像の画角が調整される。これにより、全員の顔が画角に収まっているライブビュー画像を表示させることが可能となる。   Also, as shown on the right side of FIG. 29, the angle of view of the live view image is adjusted so that the frame f11 fits. As a result, it is possible to display a live view image in which all the faces are within the angle of view.

また、ライブビュー画像の画角に収める範囲が以下のように設定されるようにしてもよい。   In addition, the range within the angle of view of the live view image may be set as follows.

・顔が収まるように、ライブビュー画像の画角を調整する。
・バストアップ(略胸から上の範囲)が収まるように、ライブビュー画像の画角を調整する。
・全身が収まるように、ライブビュー画像の画角を調整する。
・ Adjust the angle of view of the Live View image so that the face fits.
-Adjust the angle of view of the live view image so that the bust-up (roughly above the chest) is within the range.
・ Adjust the angle of view of the live view image so that the whole body fits.

顔が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、自分の顔の写りを見てスタンプ画像を選択することができる。   By adjusting the angle of view so that the face fits in, the user operating the touch panel monitor 92 can select a stamp image by looking at the reflection of his / her face.

また、バストアップが収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、自分の顔の写りと全体のバランスを見てスタンプ画像を選択することができる。   Further, by adjusting the angle of view so that the bust-up is settled, the user who operates the touch panel monitor 92 can select the stamp image by looking at his / her face and the overall balance. .

全身が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、全身の写りを見てスタンプ画像を選択することができる。   By adjusting the angle of view so that the whole body can be accommodated, the user who operates the touch panel monitor 92 can select the stamp image by looking at the whole body.

このように、ライブビュー画像の画角に収める対象とする人物と範囲については、適宜、組み合わせて設定することが可能である。   As described above, the target person and range to be included in the angle of view of the live view image can be set in combination as appropriate.

例えば、コンテンツ全体が画角に収まるように画角を調整するようにしてもよい。   For example, the angle of view may be adjusted so that the entire content falls within the angle of view.

図30は、コンテンツを収める場合の画角の調整例を示す図である。   FIG. 30 is a diagram illustrating an example of adjusting the angle of view when content is stored.

図30の枠F21に示す範囲は、コンテンツが合成されたライブビュー画像の画角の範囲である。図30の例においては、左側の利用者の鼻の位置には鼻画像431−1Lが合成され、頭の位置には耳画像431−2L,431−3Lが合成されている。また、右側の利用者の鼻の位置には鼻画像431−1Rが合成され、頭の位置には耳画像431−2R,431−3Rが合成されている。   A range indicated by a frame F21 in FIG. 30 is a range of an angle of view of a live view image in which content is synthesized. In the example of FIG. 30, a nose image 431-1L is synthesized at the position of the left user's nose, and ear images 431-2L and 431-3L are synthesized at the position of the head. Also, a nose image 431-1R is synthesized at the right user's nose position, and ear images 431-2R and 431-3R are synthesized at the head position.

左側の利用者の頭の位置に合成されている耳画像431−2L,431−3Lと、右側の利用者の頭の位置に合成されている耳画像431−2R,431−3Rは、ライブビュー画像の画角に収まっていない。   The ear images 431-2L and 431-3L synthesized at the left user's head position and the ear images 431-2R and 431-3R synthesized at the right user's head position are live views. It is not within the angle of view of the image.

この場合、白抜き矢印の先に示すように、耳画像431−2L,431−3Lと耳画像431−2R,431−3R全体が収まるように、ライブビュー画像の画角が調整される。   In this case, as indicated by the tip of the white arrow, the angle of view of the live view image is adjusted so that the ear images 431-2L and 431-3L and the entire ear images 431-2R and 431-3R are accommodated.

コンテンツ全体が収まるように画角が調整されることにより、タッチパネルモニタ92の操作を行っている利用者は、タッチパネルモニタ92に近づいている場合でもコンテンツ全体を見てスタンプ画像を選択することができる。なお、画角の調整は、アスペクト比を保ったまま行われる。   By adjusting the angle of view so that the entire content can be accommodated, a user who operates the touch panel monitor 92 can select a stamp image while viewing the entire content even when the user is approaching the touch panel monitor 92. . Note that the angle of view is adjusted while maintaining the aspect ratio.

<対象となる撮影画像の画角>
アップ画像と同じ画角の画像の撮影時(イマドキ盛り撮影時)に画角の調整を行うものとしたが、全身画像と同じ画角の画像の撮影時に画角の調整が行われるようにしてもよい。
<Field of view of the target image>
The angle of view is adjusted when shooting an image with the same angle of view as that of the close-up image (when taking a picture), but the angle of view is adjusted when shooting an image with the same angle of view as the whole-body image. Also good.

また、コーディネート画像と同じ画角の画像の撮影時に画角の調整が行われるようにしてもよい。   The angle of view may be adjusted when an image having the same angle of view as the coordinated image is captured.

<画角の調整方法>
画角の調整方法として、以下のような各種の調整方法を採用することが可能である。
・利用者の位置を検知して画角の大きさを調整する。
・利用者の位置を検知することにより、利用者が左右のいずれかに極端に寄っていることを検出した場合、画角の範囲を左右に移動させる。
・タッチパネルモニタ92にスタンプ画像選択画面を表示している間は、カメラ91に近い利用者が収まるように画角を調整する。
・タッチパネルモニタ92の表示を用いた選択を受け付けている間は、カメラ91に近い利用者が収まるように画角を調整する。
・タッチパネルモニタ92を押下してから所定時間内は、カメラ91に近い利用者が収まるように画角を調整する。
・利用者が動いて画角から外れた場合、利用者の動きに追従するように画角を調整する。
<How to adjust the angle of view>
As the angle of view adjustment method, the following various adjustment methods can be employed.
-Detect the user's position and adjust the angle of view.
-If it is detected that the user is extremely close to either the left or right by detecting the position of the user, the range of the view angle is moved to the left or right.
While the stamp image selection screen is displayed on the touch panel monitor 92, the angle of view is adjusted so that the user close to the camera 91 can be accommodated.
While the selection using the display on the touch panel monitor 92 is accepted, the angle of view is adjusted so that the user close to the camera 91 is accommodated.
The angle of view is adjusted so that a user close to the camera 91 fits within a predetermined time after the touch panel monitor 92 is pressed.
-When the user moves and deviates from the angle of view, the angle of view is adjusted to follow the user's movement.

<画角調整の実現方法>
トリミング範囲の変更により画角の調整が行われるものとしたが、カメラ91のレンズのズームを制御することによって、ライブビュー画像の画角を調整するようにしてもよい。
<Realization method of angle of view adjustment>
Although the angle of view is adjusted by changing the trimming range, the angle of view of the live view image may be adjusted by controlling the zoom of the lens of the camera 91.

なお、画角の調整をトリミングによって実現することにより、カメラ91のズーム機構を動作させるための処理の負担を軽減することができる。   Note that by realizing the adjustment of the angle of view by trimming, it is possible to reduce the processing burden for operating the zoom mechanism of the camera 91.

カメラ91のレンズの光軸の方向を制御することによって、ライブビュー画像の画角を調整するようにしてもよい。   The angle of view of the live view image may be adjusted by controlling the direction of the optical axis of the lens of the camera 91.

原画像上に設定したトリミング枠を動かすことによって画角を調整するのではなく、トリミング枠を固定とし、原画像を動かすことによってライブビュー画像の画角を調整するようにしてもよい。   Instead of adjusting the angle of view by moving the trimming frame set on the original image, the angle of view of the live view image may be adjusted by moving the original image with the trimming frame fixed.

<コンテンツの表示>
・利用者により選択されたスタンプ画像を表すコンテンツを合成して表示させる。
・コンテンツをアニメーションで表示し続ける。
・コンテンツをアニメーションで表示し、所定時間が経過すると、スタンプ画像を用いたコンテンツ(アニメーションではないコンテンツ)に変更してもよい。
・ライブビュー画像に合成されるコンテンツと、静止画像に合成されるコンテンツ(スタンプ画像)は同一ではない。
<Display content>
-The contents representing the stamp image selected by the user are combined and displayed.
・ Continue to display content with animation.
The content may be displayed as an animation, and after a predetermined time has elapsed, the content may be changed to a content using a stamp image (content that is not an animation).
The content combined with the live view image and the content combined with the still image (stamp image) are not the same.

<スタンプ画像の再選択>
スタンプ画像の再選択が以下のようにして行われるようにしてもよい。
<Reselect stamp image>
The re-selection of the stamp image may be performed as follows.

・事前選択空間A0においてスタンプ画像の選択が行われる場合、選択されたスタンプ画像を撮影空間A1において変更することができるようにしてもよい。
・撮影空間A1において、OKボタン462(図24)を押下することによってスタンプ画像が決定された場合でも、所定時間内はスタンプ画像を変更することができるようにしてもよい。
・スタンプ画像の選択に割り当てられた所定時間が経過し、かつOKボタン462が押下されていない場合、最後に選択されたスタンプ画像を表すコンテンツが合成されるようにしてもよい。
When the stamp image is selected in the pre-selected space A0, the selected stamp image may be changed in the shooting space A1.
In the shooting space A1, even when the stamp image is determined by pressing the OK button 462 (FIG. 24), the stamp image may be changed within a predetermined time.
If the predetermined time allotted to the selection of the stamp image has elapsed and the OK button 462 has not been pressed, the content representing the stamp image selected last may be combined.

<コンテンツの例>
ライブビュー画像の表示に用いられるコンテンツには、以下のように様々なコンテンツがある。
<Example of content>
The content used for displaying the live view image includes various contents as follows.

(1)固定スタンプ画像を表すコンテンツ
固定スタンプ画像は、画角における位置を固定して表示されるスタンプ画像である。
(2)くっつきスタンプ画像を表すコンテンツ
くっつきスタンプ画像は、利用者の所定の部位の位置に追従して表示されるスタンプ画像である。くっつきスタンプ画像を表すコンテンツが、以下のような変化のあるアニメーションとして表示されるようにしてもよい。
・回転
・上下の移動
・拡縮
・左右の移動
・透過度変更
・色変更
(3)オーラ
(4)ベール
(5)フレーム
オーラ、ベール、フレームは、利用者の体の周りに画像を合成するコンテンツである。
(1) Content Representing a Fixed Stamp Image A fixed stamp image is a stamp image that is displayed with a fixed position at an angle of view.
(2) Content Representing the Sticking Stamp Image The sticking stamp image is a stamp image displayed following the position of a predetermined part of the user. The content representing the sticking stamp image may be displayed as an animation with the following changes.
・ Rotation ・ Up and down movement ・ Enlargement and reduction ・ Left and right movement ・ Transparency change ・ Color change (3) Aura (4) Veil (5) Frame Aura, veil, and frame are contents that synthesize an image around the user's body It is.

<アニメーションの例>
ここで、コンテンツのアニメーションについて説明する。
<Example of animation>
Here, the animation of content will be described.

図31は、コンテンツを構成する画像が回転するアニメーションの例を示す図である。   FIG. 31 is a diagram illustrating an example of an animation in which an image constituting the content rotates.

図31に示すコンテンツは、図15等を参照して説明したウサギの鼻と耳を表現したスタンプ画像が選択されている場合に合成されるコンテンツである。コンテンツは、ウサギの鼻の画像と耳の画像から構成される。   The content shown in FIG. 31 is the content that is synthesized when the stamp image representing the nose and ear of the rabbit described with reference to FIG. 15 and the like is selected. The content is composed of a rabbit nose image and an ear image.

図31の左側のライブビュー画像上においては耳の画像が右に傾き、右側のライブビュー画像上においては耳の画像が左に傾いている。いずれのライブビュー画像上においても、耳の画像の例えば根元の位置は固定とされている。このように角度が異なる耳の画像が1秒間隔などで交互に表示されることにより、コンテンツが回転するアニメーションが実現される。   The ear image is tilted to the right on the left live view image in FIG. 31, and the ear image is tilted to the left on the right live view image. In any live view image, for example, the root position of the ear image is fixed. In this way, the images of the ears having different angles are alternately displayed at intervals of 1 second, thereby realizing an animation in which the content rotates.

このようなライブビュー画像が表示された後、イマドキ盛り撮影によってアップ画像が撮影され、撮影によって得られたアップ画像に対して、傾きのない耳の画像を含むスタンプ画像が合成される。   After such a live view image is displayed, an up image is taken by imposing shooting, and a stamp image including an ear image without inclination is combined with the up image obtained by the shooting.

図32は、コンテンツを構成する画像の位置が変化するアニメーションの例を示す図である。   FIG. 32 is a diagram illustrating an example of an animation in which the position of an image constituting the content changes.

図32に示すコンテンツは、図31に示すコンテンツと同じコンテンツである。図32の左側のライブビュー画像上においては耳の画像が頭の上方の位置に配置され、右側のライブビュー画像上においては耳の画像が頭の下方の位置(略額の位置)に配置されている。このように位置が異なる耳の画像が1秒間隔などで交互に表示されることにより、コンテンツが上下に動くアニメーションが実現される。   The content shown in FIG. 32 is the same content as the content shown in FIG. 32, the ear image is arranged at a position above the head on the left live view image, and the ear image is arranged at a position below the head (substantially forehead position) on the right live view image. ing. In this way, the images of the ears at different positions are alternately displayed at intervals of 1 second, thereby realizing an animation in which the content moves up and down.

このようなライブビュー画像が表示された後、イマドキ盛り撮影によってアップ画像が撮影され、撮影によって得られたアップ画像に対して、耳の画像が図32に示す位置と異なる位置に合成される。   After such a live view image is displayed, an up image is shot by imposing shooting, and an ear image is synthesized at a position different from the position shown in FIG. 32 with respect to the up image obtained by shooting.

以下、コンテンツを構成する画像の変化についてさらに説明する。   Hereinafter, the change of the image constituting the content will be further described.

(1)回転
図33は、回転の例を示す図である。
(1) Rotation FIG. 33 is a diagram illustrating an example of rotation.

図33の表示1、表示2として示す三角形は、コンテンツを構成する画像を表す。1つの三角形が、例えば上述したウサギの耳を表す1つの画像に相当する。図34乃至図40においても同様である。   The triangles shown as display 1 and display 2 in FIG. 33 represent images constituting the content. One triangle corresponds to one image representing the above-described rabbit ear, for example. The same applies to FIGS. 34 to 40.

表示1、表示2として示すように、所定の位置である位置p1を中心として角度を変える画像が、コンテンツを構成する画像として動画像に合成される。表示1においては、位置p1を中心として画像が左に傾いており、表示2においては、位置p1を中心として画像が右に傾いている。   As shown as display 1 and display 2, an image whose angle is changed around a position p1 which is a predetermined position is combined with a moving image as an image constituting the content. In the display 1, the image is tilted to the left with the position p1 as the center, and in the display 2, the image is tilted to the right with the position p1 as the center.

例えば利用者の頭部の位置に合成する画像の場合、頭部と接する、画像の下辺の中点が位置p1として設定される。チークを表す画像、動物の鼻を表す画像、サングラスを表す画像などの、顔の周辺に合成する画像の場合、顔の中心である鼻の位置が、回転の中心として設定される。   For example, in the case of an image to be combined with the position of the user's head, the midpoint of the lower side of the image that touches the head is set as the position p1. In the case of an image to be synthesized around the face, such as an image representing a cheek, an image representing an animal nose, or an image representing sunglasses, the position of the nose, which is the center of the face, is set as the center of rotation.

図33の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、位置p1を通る垂直軸L上に頂点がくる向きで配置された画像が合成される。   As shown on the left side of FIG. 33, an image arranged in such a direction that the apex comes on the vertical axis L passing through the position p1 is synthesized with the up image obtained by the imprinting.

このように、ライブビュー画像の表示を行っている場合、位置p1を中心として角度を変える画像が動画像に合成され、アニメーション表示が実現される。   As described above, when the live view image is displayed, an image whose angle is changed around the position p1 is combined with the moving image, and animation display is realized.

(2)上下の移動
図34は、上下の移動の例を示す図である。
(2) Vertical movement FIG. 34 is a diagram illustrating an example of vertical movement.

表示1、表示2として示すように、画像の高さを変える画像が、コンテンツを構成する画像として動画像に合成される。   As shown as display 1 and display 2, an image whose height is changed is combined with a moving image as an image constituting the content.

例えば利用者の頭部の位置に合成する画像の場合、頭部の所定の位置を通る水平軸L2が設定される。水平軸L2を中心として上下に所定の間隔をあけて水平軸L1,L3が設定され、表示1においては、水平軸L1の高さに下辺がくるように画像が配置され、表示2においては、水平軸L3の高さに下辺がくるように画像が配置される。チークを表す画像、動物の鼻を表す画像、サングラスを表す画像などの、顔の周辺に合成する画像の場合、顔の中心を通るように水平軸L2が設定される。   For example, in the case of an image to be combined with the position of the user's head, a horizontal axis L2 passing through a predetermined position of the head is set. Horizontal axes L1 and L3 are set with a predetermined interval in the vertical direction with the horizontal axis L2 as the center. In the display 1, an image is arranged so that the lower side is at the height of the horizontal axis L1, and in the display 2, The image is arranged so that the lower side comes to the height of the horizontal axis L3. In the case of an image to be synthesized around the face, such as an image representing a cheek, an image representing an animal nose, or an image representing sunglasses, the horizontal axis L2 is set so as to pass through the center of the face.

図34の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、下辺が水平軸L2と同じ高さに配置された画像が合成される。   As shown on the left side of FIG. 34, an image in which the lower side is arranged at the same height as the horizontal axis L2 is combined with the up image obtained by the imprinting.

このように、ライブビュー画像の表示を行っている場合、所定の等しい幅だけ上下に位置を変える画像が動画像に合成され、アニメーション表示が実現される。このようなアニメーションは、静止画像に合成されるスタンプ画像と見た目の印象の差異が少ない画像を用いたアニメーションといえる。   In this way, when a live view image is displayed, an image whose position is changed up and down by a predetermined equal width is combined with a moving image, and animation display is realized. Such an animation can be said to be an animation using an image with little difference in visual impression from a stamp image synthesized with a still image.

(3)拡縮
図35は、拡縮の例を示す図である。
(3) Enlargement / reduction FIG. 35 is a diagram illustrating an example of enlargement / reduction.

表示1、表示2として示すように、画像の所定の位置である位置p1を基準として大きさを変える画像が、コンテンツを構成する画像として動画像に合成される。表示1においては、位置p1を基準として画像が縮小し、表示2においては、位置p1を基準として画像が拡大している。   As shown as display 1 and display 2, an image whose size is changed with reference to a position p1, which is a predetermined position of the image, is combined with a moving image as an image constituting the content. In display 1, the image is reduced with reference to position p1, and in display 2, the image is enlarged with reference to position p1.

例えば利用者の頭部の位置に合成する画像の場合、頭部と接する、画像の下辺の中点が位置p1として設定される。   For example, in the case of an image to be combined with the position of the user's head, the midpoint of the lower side of the image that touches the head is set as the position p1.

図35の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、表示1、表示2に示す大きさとは異なる大きさの画像が位置p1を基準として配置され、合成される。   As shown on the left side of FIG. 35, an image having a size different from the sizes shown in display 1 and display 2 is arranged and synthesized with respect to the up image obtained by imposing shooting. .

このように、ライブビュー画像の表示を行っている場合、位置p1を基準として大きさを変える画像が動画像に合成され、アニメーション表示が実現される。   As described above, when the live view image is displayed, an image whose size is changed with the position p1 as a reference is combined with the moving image, thereby realizing an animation display.

図36は、拡縮の他の例を示す図である。   FIG. 36 is a diagram illustrating another example of enlargement / reduction.

図36に示す画像の拡縮は、拡縮の基準となる位置が異なる点で図35に示す拡縮と異なる。図36の例においては、画像の中心が拡縮の基準となる中点p2として設定されている。   The enlargement / reduction of the image shown in FIG. 36 differs from the enlargement / reduction shown in FIG. 35 in that the position serving as a reference for enlargement / reduction is different. In the example of FIG. 36, the center of the image is set as a midpoint p2 that serves as a scaling reference.

表示1、表示2として示すように、画像の中心である位置p2を中心として大きさを変える画像が、コンテンツを構成する画像として動画像に合成される。表示1においては、位置p2を中心として画像が縮小し、表示2においては、位置p2を中心として画像が拡大している。   As shown as display 1 and display 2, an image whose size is changed around the position p2, which is the center of the image, is combined with a moving image as an image constituting the content. In the display 1, the image is reduced around the position p2, and in the display 2, the image is enlarged around the position p2.

このように、拡縮の基準となる位置を任意に設定することが可能である。   In this way, it is possible to arbitrarily set a position serving as a reference for scaling.

(4)左右の移動
図37は、左右の移動の例を示す図である。
(4) Left / Right Movement FIG. 37 is a diagram illustrating an example of left / right movement.

表示1、表示2として示すように、所定の位置である位置p3を中心として左右に位置を変える画像が、コンテンツを構成する画像として動画像に合成される。   As shown as display 1 and display 2, an image that changes its position to the left and right around a position p 3, which is a predetermined position, is combined with a moving image as an image constituting the content.

例えば利用者の頭部の位置に合成する画像の場合、頭部と接する位置が位置p3として設定される。表示1においては、右端が位置p3にくるように画像が配置され、表示2においては、左端が位置p3にくるように画像が配置される。   For example, in the case of an image to be combined with the position of the user's head, the position in contact with the head is set as the position p3. In display 1, the image is arranged so that the right end is at position p3, and in display 2, the image is arranged so that the left end is at position p3.

図37の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、下辺の中心が位置p3にくるように配置された画像が合成される。   As shown on the left side of FIG. 37, an image arranged so that the center of the lower side is located at the position p3 is combined with the up image obtained by the imprinting.

このように、ライブビュー画像の表示を行っている場合、所定の等しい幅だけ左右に位置を変える画像が動画像に合成され、アニメーション表示が実現される。   In this way, when a live view image is displayed, an image whose position is shifted to the left and right by a predetermined equal width is combined with the moving image, thereby realizing an animation display.

(5)透過度変更
図38は、透過度変更の例を示す図である。
(5) Transparency Change FIG. 38 is a diagram illustrating an example of transparency change.

図38に示すように、透過度を変える画像が、コンテンツを構成する画像として動画像に合成される。図38の例においては、0%、50%、80%の3段階の透過度が設定されている。図38において、三角形の濃淡が異なることは、透過度が異なることを表している。   As shown in FIG. 38, an image whose transparency is changed is combined with a moving image as an image constituting the content. In the example of FIG. 38, three levels of transparency of 0%, 50%, and 80% are set. In FIG. 38, the fact that the shades of triangles are different means that the transmittance is different.

静止画像に合成されるスタンプ画像より透過度が高い画像からなるコンテンツが合成されるようにしてもよいし、透過度が低い画像からなるコンテンツが合成されるようにしてもよい。   Content consisting of an image with higher transparency than the stamp image combined with the still image may be synthesized, or content consisting of an image with low transparency may be synthesized.

図38の左側に示すように、イマドキ盛り撮影によって得られた静止画像に対しては、透過度が0%の画像が合成される。   As shown on the left side of FIG. 38, an image having a transparency of 0% is combined with a still image obtained by imposing imaging.

このように、ライブビュー画像の表示を行っている場合、透過度が変化する画像が動画像に合成され、アニメーション表示が実現される。   As described above, when a live view image is displayed, an image whose transparency changes is combined with a moving image, thereby realizing an animation display.

(6)色変更
図39は、色変更の例を示す図である。
(6) Color Change FIG. 39 is a diagram illustrating an example of color change.

図39に示すように、色を順次変える画像が、コンテンツを構成する画像として動画像に合成される。図39の例においては、色1乃至4として示すように4種類の色が設定されている。色1乃至4は、例えば同系色のグラデーションを構成する色である。図39において、三角形の濃淡が異なることは、色が異なることを表している。例えば、明度が高い色から低い色に色を順に変える画像が表示される。   As shown in FIG. 39, images whose colors are changed sequentially are combined with a moving image as an image constituting content. In the example of FIG. 39, four types of colors are set as shown as colors 1 to 4. Colors 1 to 4 are, for example, colors constituting a similar color gradation. In FIG. 39, different shades of triangles represent different colors. For example, an image is displayed in which the color is changed in order from a color with high brightness to a color with low brightness.

図39の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、色1乃至4と同系色であり、明度が色1より低い色の画像が合成される。   As shown on the left side of FIG. 39, an image having a color similar to colors 1 to 4 and having a lightness lower than that of color 1 is synthesized with respect to the up image obtained by imposing image capturing.

このように、ライブビュー画像の表示を行っている場合、色が変化する画像が動画像に合成され、アニメーション表示が実現される。   In this way, when a live view image is displayed, an image whose color changes is combined with a moving image, and an animation display is realized.

図40は、色変更の他の例を示す図である。   FIG. 40 is a diagram illustrating another example of color change.

図40に示す色変更は、種類が異なる色が用いられる点で図39に示す色変更と異なる。図40の例においては、色1、色2として示すように、2種類の色が設定されている。色1、色2として交互に色を変える画像が、コンテンツを構成する画像として動画像に合成される。   The color change shown in FIG. 40 is different from the color change shown in FIG. 39 in that different types of colors are used. In the example of FIG. 40, two types of colors are set as shown as color 1 and color 2. An image whose color is changed alternately as color 1 and color 2 is combined with a moving image as an image constituting the content.

図40の左側に示すように、イマドキ盛り撮影によって得られたアップ画像に対しては、色1、色2のいずれの色とも異なる色の画像が合成される。   As shown on the left side of FIG. 40, an image of a color different from both the color 1 and the color 2 is synthesized with the up image obtained by the imprinting shooting.

このように、ライブビューの画像の表示を行っている場合、色が交互に切り替わることによって点滅表示する画像が動画像に合成され、アニメーション表示が実現される。例えば、色1は緑色であり、色2は青色である。この場合、イマドキ盛り撮影によって得られたアップ画像に対しては例えば赤色のスタンプ画像が合成される。   In this way, when a live view image is displayed, an image that blinks is synthesized with a moving image by switching colors alternately, thereby realizing an animation display. For example, color 1 is green and color 2 is blue. In this case, a red stamp image, for example, is combined with the up image obtained by taking a picture.

以上のように、コンテンツのアニメーション表示は、コンテンツを構成する画像の角度、位置、大きさ、透過度、色を変化させることによって実現される。角度の変化、位置の変化、大きさの変化、透過度の変化、色の変化のうち、2種類以上の変化を組み合わせて用いられるようにしてもよい。   As described above, the animation display of content is realized by changing the angle, position, size, transparency, and color of the images constituting the content. Two or more types of changes among angle change, position change, size change, transmittance change, and color change may be used in combination.

<画角の形状>
イマドキ盛り撮影の合成画像の形状が縦長長方形であるものとしたが、他の形状であってもよい。
<Shape of angle of view>
Although the shape of the composite image for imado shooting is assumed to be a vertically long rectangle, other shapes may be used.

画角の形状として、以下のような各種の形状を採用することが可能である。
・正方形
・略正方形
・縦長の長方形
・横長の長方形
・丸形
・三角形
・各種SNSで用いられる画像に応じた形状
・角丸正方形
・縦長の角丸長方形
・横長の角丸長方形
As the shape of the angle of view, the following various shapes can be adopted.
・ Square ・ Approximate square ・ Vertical rectangle ・ Horizontal rectangle ・ Round ・ Triangle ・ Shape according to the image used on various SNS ・ Rounded square ・ Vertical rounded rectangle ・ Horizontal rounded rectangle

<レタッチ処理の内容の選択>
ライブビュー画像の表示を見ながら利用者に選択させる内容が、静止画像に合成するスタンプ画像の種類であるものとしたが、他の内容を選択させるようにしてもよい。例えば、レタッチ処理の内容を選択させるようにすることが可能である。
<Selecting the contents of retouch processing>
The content that the user selects while watching the display of the live view image is the type of stamp image to be combined with the still image, but other content may be selected. For example, the content of the retouch process can be selected.

レタッチ処理は、目の大きさの調整、目の形の調整、肌の明るさの調整などの、撮影画像に写る利用者の特定の部位に対する画像処理である。   The retouch process is an image process for a specific part of the user that appears in the photographed image, such as an eye size adjustment, an eye shape adjustment, and a skin brightness adjustment.

ライブビュー画像を見ながら利用者により選択されたレタッチ処理の内容と同じ内容のレタッチ処理が、静止画像に対して施される。レタッチ処理の内容の選択を受け付けている間、ライブビュー画像の画角が、スタンプ画像の種類の選択を受け付けている間と同様に広げられる。   The retouch process having the same content as the retouch process selected by the user while viewing the live view image is performed on the still image. While accepting the selection of the content of the retouch process, the angle of view of the live view image is expanded in the same manner as when accepting the selection of the type of stamp image.

図41は、レタッチ選択画面の例を示す図である。   FIG. 41 is a diagram illustrating an example of a retouch selection screen.

図41に示すレタッチ選択画面は、目の形の選択に用いられる画面である。図41に示すような画面が、例えば、目の形を変更するための画像処理を施す対象となる静止画像の撮影前に表示される。図24を参照して説明した表示と同じ表示については、説明を適宜省略する。   The retouch selection screen shown in FIG. 41 is a screen used for selecting an eye shape. A screen as shown in FIG. 41 is displayed, for example, before shooting a still image to be subjected to image processing for changing the shape of the eyes. Description of the same display as that described with reference to FIG. 24 will be omitted as appropriate.

図41の例においては、利用者のバストアップが入るように画角が調整されたライブビュー画像が表示領域451に表示されている。レタッチ処理の対象となる画像が全身画像である場合、利用者の全身が写るライブビュー画像が表示される。   In the example of FIG. 41, a live view image whose angle of view is adjusted so that the user's bust-up is entered is displayed in the display area 451. When the image to be retouched is a whole body image, a live view image showing the whole body of the user is displayed.

表示領域451の下には、目の形を選択するときに操作されるボタン551−1乃至551−4が横に並べて表示されている。それぞれのボタンには、それぞれのボタンを押したときに選択されるレタッチ処理を表すサンプルが表示されている。   Below the display area 451, buttons 551-1 to 551-4 operated when selecting the eye shape are displayed side by side. Each button displays a sample representing the retouching process selected when each button is pressed.

ボタン551−1は、目を丸くするレタッチ処理を行うときに操作されるボタンである。ボタン551−2は、目をネコの目のように変形するレタッチ処理を行うときに操作されるボタンである。ボタン551−3は、目をたれ目に変形するレタッチ処理を行うときに操作されるボタンである。ボタン551−4は、レタッチ処理を行わない(目のかたちを変更しない)ときに操作されるボタンである。   The button 551-1 is a button operated when performing a retouch process for rounding the eyes. The button 551-2 is a button operated when performing a retouch process for deforming the eyes like a cat's eyes. The button 551-3 is a button that is operated when performing a retouch process that transforms the eyes into eyes. The button 551-4 is a button operated when the retouch process is not performed (the shape of the eyes is not changed).

図41の例においては、ボタン551−2が選択されており、他のボタンより大きく表示されている。カメラ91により撮影された動画像の各フレームに写る利用者の目を対象として、目をネコの目のように変形するレタッチ処理が施され、レタッチ処理を施すことによって得られた動画像がライブビュー画像として表示領域451に表示される。   In the example of FIG. 41, the button 551-2 is selected and is displayed larger than the other buttons. A retouch process for deforming the eyes like a cat's eyes is performed on the user's eyes captured in each frame of the moving image captured by the camera 91, and the moving image obtained by performing the retouching process is live. It is displayed in the display area 451 as a view image.

動画像に施されるレタッチ処理は、ライブビュー画像の表示後に撮影されるアップ画像に対して施されるレタッチ処理の内容を表す処理となる。   The retouch process performed on the moving image is a process representing the content of the retouch process performed on the up image captured after the live view image is displayed.

利用者は、他のボタンを操作することにより、他のレタッチ処理が施されたライブビュー画像を表示させることができる。利用者は、ライブビュー画像を見ながら好みのレタッチ処理の内容を選択することができる。   The user can display a live view image subjected to another retouching process by operating another button. The user can select the content of the preferred retouch process while viewing the live view image.

このように、レタッチ処理などの他の画像処理の内容の選択を受け付けている間、ライブビュー画像の画角が変更されるようにしてもよい。   In this way, the angle of view of the live view image may be changed while the selection of the content of other image processing such as retouch processing is accepted.

<レタッチ処理の内容の再選択>
レタッチ処理の内容の再選択が以下のようにして行われるようにしてもよい。
<Reselecting the contents of retouch processing>
The reselection of the content of the retouch process may be performed as follows.

・事前選択空間A0においてレタッチ処理の内容の選択が行われる場合、選択された内容を撮影空間A1において変更することができるようにしてもよい。
・撮影空間A1において、OKボタン462(図41)を押下することによってレタッチ処理の内容が決定された場合でも、所定時間内はレタッチ処理の内容を変更することができるようにしてもよい。
・レタッチ処理の内容の選択に割り当てられた所定時間が経過し、かつOKボタン462が押下されていない場合、最後に選択されたレタッチ処理が施されるようにしてもよい。
When the content of the retouch process is selected in the pre-selected space A0, the selected content may be changed in the shooting space A1.
In the shooting space A1, even when the content of the retouching process is determined by pressing the OK button 462 (FIG. 41), the content of the retouching process may be changed within a predetermined time.
If the predetermined time allotted to the selection of the content of the retouch process has elapsed and the OK button 462 has not been pressed, the last selected retouch process may be performed.

<レタッチ処理の種類>
レタッチ選択画面において以下のようなレタッチ処理の内容の選択が行われるようにしてもよい。
<Types of retouch processing>
The following retouch processing content may be selected on the retouch selection screen.

レタッチには、アップ画像用のレタッチと全身画像用のレタッチがある。   The retouch includes a retouch for an up image and a retouch for a whole body image.

アップ画像用のレタッチ
・輪郭処理
・小顔処理
・目の大きさ処理
・目の形状処理
・小鼻処理
・口角を上げる処理
・口の大きさ処理
・肌の色の処理
・パーツの移動(目をこめかみの方向に動かす等)
・アイブロウ(眉の形を変える)
Retouching for up-images ・ Outline processing ・ Small face processing ・ Eye size processing ・ Eye shape processing ・ Nose processing ・ Mouth angle increase processing ・ Mouth size processing ・ Skin color processing ・ Part movement (eye Move in the direction of the temple etc.)
-Eyebrow (changes the shape of the eyebrows)

輪郭処理は、撮影画像に写る利用者の顔を認識し、輪郭を変更する処理である。小顔処理は、撮影画像に写る利用者の顔を認識し、顔を小さくする処理である。目の大きさ処理は、撮影画像に写る利用者の目を認識し、目を大きくする処理である。   The contour process is a process for recognizing the user's face in the captured image and changing the contour. The small face processing is processing for recognizing a user's face in a captured image and reducing the face. The eye size process is a process for recognizing a user's eyes in a captured image and enlarging the eyes.

目の形状処理は、撮影画像に写る利用者の目を認識し、目の形状を変更する処理である。小鼻処理は、撮影画像に写る利用者の鼻を認識し、鼻を小さくする処理である。口角を上げる処理は、撮影画像に写る利用者の口を認識し、口角を上げる処理である。   The eye shape process is a process for recognizing a user's eyes in a captured image and changing the shape of the eyes. The small nose process is a process for recognizing the user's nose in the captured image and reducing the nose. The process for raising the mouth angle is a process for recognizing the user's mouth in the captured image and raising the mouth angle.

口の大きさ処理は、撮影画像に写る利用者の口を認識し、口の大きさを変更する処理である。肌の色の処理は、撮影画像に写る利用者の肌の色を認識し、肌の色を変更する処理である。パーツの移動は、撮影画像に写る利用者の顔のパーツ(部位)を認識し、パーツを移動する処理である。例えば、目の上下方向への移動、内側への移動、口の移動などがパーツの移動に含まれる。アイブロウは、撮影画像に写る利用者の眉を認識し、眉の形を変更する処理である。   The mouth size process is a process for recognizing the user's mouth in the captured image and changing the mouth size. The skin color process is a process of recognizing the user's skin color in the captured image and changing the skin color. The movement of the part is a process of recognizing a part (part) of the user's face shown in the photographed image and moving the part. For example, the movement of the parts includes movement of the eyes in the vertical direction, movement inward, movement of the mouth, and the like. Eyebrow is a process for recognizing the user's eyebrows in the captured image and changing the shape of the eyebrows.

全身画像用のレタッチ
・脚長処理
・脚の細さ処理
・身長処理
・二の腕処理
・くびれ処理
・首の長さ処理
・ウエストの位置を上げる処理
・指を細くする処理
・爪の形を変形する処理
・爪の長さ処理
Retouch for whole body images ・ Leg length processing ・ Leg thinness processing ・ Height processing ・ Two arms processing ・ Necking processing ・ Neck length processing ・ Waist position raising processing ・ Finger thinning processing ・ Nail shape transformation processing・ Claw length processing

脚長処理は、撮影画像に写る利用者の脚を認識し、脚を長くする処理である。脚の細さ処理は、撮影画像に写る利用者の脚を認識し、脚を細くする処理である。身長処理は、撮影画像に写る利用者の全身を認識し、身長を高くする処理である。   The leg length process is a process for recognizing the user's leg in the captured image and lengthening the leg. The leg thinning process is a process for recognizing the user's leg in the captured image and narrowing the leg. The height process is a process for recognizing the whole body of the user in the captured image and increasing the height.

二の腕処理は、撮影画像に写る利用者の二の腕を認識し、二の腕を細くする処理である。くびれ処理は、撮影画像に写る利用者の腰を認識し、くびれを強調する処理である。首の長さ処理は、撮影画像に写る利用者の首を認識し、首を長くする処理である。   The second arm process is a process for recognizing the user's second arm in the captured image and narrowing the second arm. The constriction process is a process for recognizing a user's waist in a captured image and emphasizing the constriction. The neck length process is a process of recognizing the user's neck in the captured image and lengthening the neck.

ウエストの位置を上げる処理は、撮影画像に写る利用者の腰を認識し、ウエストの位置を上げる処理である。指を細くする処理は、撮影画像に写る利用者の手を認識し、指を細くする処理である。爪の形を変形する処理は、撮影画像に写る利用者の手を認識し、爪の形を変形する処理である。爪の長さ処理は、撮影画像に写る利用者の手を認識し、爪の長さを変更する処理である。   The process of raising the waist position is a process of recognizing the user's waist in the captured image and raising the waist position. The process of narrowing the finger is a process of recognizing the user's hand in the captured image and narrowing the finger. The process of deforming the nail shape is a process of recognizing the user's hand in the captured image and deforming the nail shape. The nail length process is a process of recognizing the user's hand in the captured image and changing the nail length.

なお、ここでは、アップ画像用のレタッチと全身画像用のレタッチに分けて説明しているが、アップ画像用のレタッチとして説明した各処理が全身画像のレタッチとして用いられるようにしてもよいし、反対に、全身画像用のレタッチとして説明した各処理がアップ画像のレタッチとして用いられるようにしてもよい。   In addition, here, the retouch for the up image and the retouch for the whole body image are described separately, but each process described as the retouch for the up image may be used as the retouch of the whole body image, Conversely, each process described as the retouch for the whole body image may be used as the retouch of the up image.

スタンプ画像の種類の選択、または、レタッチ処理の内容の選択ではなく、スタンプ画像の種類とレタッチ処理の内容の両方の選択を、ライブビュー画像の表示を見ながら利用者に行わせるようにしてもよい。   Instead of selecting the type of stamp image or the content of retouch processing, the user can select both the type of stamp image and the content of retouch processing while viewing the live view image display. Good.

<<変形例1>>
利用者のポーズに合わせて画角が調整されるようにしてもよい。
<< Modification 1 >>
The angle of view may be adjusted according to the user's pose.

・利用者が複数名で互いに離れて立っている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が1名で筐体の端に立っている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が手を外に向けて広げている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が脚を外に向けて広げている場合は、利用者が見切れないように画角が調整されるようにしてもよい。
・利用者が手に物を持っている場合は、物も含めて利用者が画角に収まるように調整されるようにしてもよい。
-When a plurality of users are standing apart from each other, the angle of view may be adjusted so that the users cannot see them.
-When one user is standing on the edge of the housing, the angle of view may be adjusted so that the user cannot see it.
When the user is spreading his / her hand outward, the angle of view may be adjusted so that the user cannot see it.
-When the user spreads his / her legs outward, the angle of view may be adjusted so that the user cannot see it.
-When the user has an object in his hand, the user may be adjusted so that the user will be within the angle of view.

<<変形例2>>
利用者の身長に合わせて画角が調整されるようにしてもよい。
<< Modification 2 >>
The angle of view may be adjusted according to the height of the user.

・証明写真用の画像の撮影やレタッチ処理の対象となる画像の撮影において、利用者の身長(顔の位置)に応じて画角が調整されるようにしてもよい。   The angle of view may be adjusted in accordance with the height (face position) of the user when taking an image for an ID photo or taking an image to be retouched.

<<変形例3>>
写真シール作成装置1において行われる撮影時の画角を調整する場合について説明したが、スマートフォンなどの携帯端末における操作の受け付け時の画角が同様にして調整されるようにしてもよい。利用者の携帯端末には、撮影画像の画像処理に用いられるアプリケーションがインストールされる。
<< Modification 3 >>
Although the case of adjusting the angle of view at the time of photographing performed in the photo sticker creating apparatus 1 has been described, the angle of view at the time of accepting an operation in a mobile terminal such as a smartphone may be adjusted in the same manner. An application used for image processing of a captured image is installed on the user's mobile terminal.

携帯端末における画角の調整が以下のように行われるようにしてもよい。   The angle of view adjustment in the mobile terminal may be performed as follows.

・利用者の位置を検知して画角の大きさを調整する。
・レタッチ選択画面を表示している間は、カメラに近い利用者が収まるように画角を調整する。
・タッチパネルモニタに触れている間は、カメラに近い利用者が収まるように画角を調整する。
・タッチパネルモニタを押下してから所定時間内は、カメラに近い利用者が収まるように画角を調整する。
・ライブビュー画像の表示中は画角を広めに設定して、撮影時に画角を狭める(画角を固定にする)。
-Detect the user's position and adjust the angle of view.
-While the retouch selection screen is displayed, adjust the angle of view so that users close to the camera can be accommodated.
-While touching the touch panel monitor, adjust the angle of view so that users close to the camera can be accommodated.
-Adjust the angle of view so that users close to the camera can be accommodated within a predetermined time after pressing the touch panel monitor.
・ Set the angle of view to be wider during live view image display and narrow the angle of view during shooting (fix the angle of view).

<<他の例>>
上述した一連の処理は、ハードウェアにより実行することもできるし、ソフトウェアにより実行することもできる。一連の処理をソフトウェアにより実行する場合には、そのソフトウェアを構成するプログラムが、専用のハードウェアに組み込まれているコンピュータ、または、汎用のパーソナルコンピュータなどにインストールされる。例えば、写真シール作成装置1に搭載されたコンピュータであるPC部301にプログラムがインストールされる。
<< Other examples >>
The series of processes described above can be executed by hardware or can be executed by software. When a series of processing is executed by software, a program constituting the software is installed in a computer incorporated in dedicated hardware or a general-purpose personal computer. For example, the program is installed in the PC unit 301 which is a computer mounted on the photo sticker creating apparatus 1.

インストールされるプログラムは、光ディスク(CD-ROM(Compact Disc-Read Only Memory),DVD(Digital Versatile Disc)等)や半導体メモリなどよりなる図10に示されるリムーバブルメディア319に記録して提供される。また、ローカルエリアネットワーク、インターネット、デジタル放送といった、有線または無線の伝送媒体を介して提供されるようにしてもよい。プログラムは、ROM312や記憶部316に、あらかじめインストールしておくことができる。   The program to be installed is provided by being recorded on a removable medium 319 shown in FIG. 10 made of an optical disc (CD-ROM (Compact Disc-Read Only Memory), DVD (Digital Versatile Disc), etc.), a semiconductor memory, or the like. Further, it may be provided via a wired or wireless transmission medium such as a local area network, the Internet, or digital broadcasting. The program can be installed in advance in the ROM 312 or the storage unit 316.

なお、コンピュータが実行するプログラムは、本明細書で説明する順序に沿って時系列に処理が行われるプログラムであっても良いし、並列に、あるいは呼び出しが行われたとき等の必要なタイミングで処理が行われるプログラムであっても良い。   The program executed by the computer may be a program that is processed in time series in the order described in this specification, or in parallel or at a necessary timing such as when a call is made. It may be a program for processing.

1 写真シール作成装置, 91 カメラ, 92 タッチパネルモニタ, 402 撮影処理部, 403 編集処理部, 411 撮影制御部, 412 トリミング部, 413 画像処理部, 414 選択受付部, 415 表示制御部, 416 撮影画像記憶部   DESCRIPTION OF SYMBOLS 1 Photo sticker production apparatus, 91 Cameras, 92 Touch panel monitor, 402 Shooting processing part, 403 Editing processing part, 411 Shooting control part, 412 Trimming part, 413 Image processing part, 414 Selection reception part, 415 Display control part, 416 Photographed image Memory

Claims (18)

利用者を被写体とした撮影画像を取得するための静止画像の撮影と、動画像の撮影とを行う撮影部と、
前記静止画像に施す画像処理の内容の選択を受け付ける選択受付部と、
前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施す画像処理部と、
少なくとも前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる表示制御部と
を備える写真作成ゲーム機。
A shooting unit for shooting a still image for acquiring a shot image of a user as a subject and shooting a moving image;
A selection accepting unit that accepts selection of image processing content to be applied to the still image;
An image processing unit that applies processing representing the content of the image processing selected by the user to the moving image;
While accepting selection of at least the content of the image processing, the moving image that has been subjected to processing representing the content of the image processing selected by the user is displayed with a wider angle of view than the angle of view of the captured image. A photo creation game machine comprising a display control unit.
前記表示制御部は、固定の画角で前記動画像を表示させる
請求項1に記載の写真作成ゲーム機。
The photo creation game machine according to claim 1, wherein the display control unit displays the moving image at a fixed angle of view.
前記表示制御部は、前記動画像に映る前記利用者を検出し、前記利用者の顔を含むように画角を調整した前記動画像を表示させる
請求項1に記載の写真作成ゲーム機。
The photo creation game machine according to claim 1, wherein the display control unit detects the user reflected in the moving image and displays the moving image with an angle of view adjusted to include the user's face.
前記表示制御部は、前記動画像に映る前記利用者が複数人いる場合、全ての前記利用者の顔を含むように画角を調整した前記動画像を表示させる
請求項3に記載の写真作成ゲーム機。
The photo creation according to claim 3, wherein when there are a plurality of users appearing in the moving image, the display control unit displays the moving image with the angle of view adjusted to include all the user's faces. game machine.
前記表示制御部は、前記動画像に映る前記利用者が複数人いる場合、少なくとも前記撮影部に近い位置に映る前記利用者の顔を含むように画角を調整した前記動画像を表示させる
請求項3に記載の写真作成ゲーム機。
The display control unit, when there are a plurality of users appearing in the moving image, displays the moving image having an angle of view adjusted to include at least the user's face appearing at a position close to the photographing unit. Item 4. The photo making game machine according to item 3.
前記表示制御部は、前記利用者の身長に基づいて画角を調整した前記動画像を表示させる
請求項3乃至5のいずれかに記載の写真作成ゲーム機。
The photo creation game machine according to claim 3, wherein the display control unit displays the moving image with an angle of view adjusted based on the height of the user.
前記画像処理は、前記撮影画像に写る前記利用者の所定の位置に合成用画像を合成させる処理であり、
前記表示制御部は、前記合成用画像の種類の選択を受け付けている間、前記利用者により選択された前記合成用画像を表すコンテンツが合成された前記動画像を表示させる
請求項1に記載の写真作成ゲーム機。
The image processing is a process of combining an image for synthesis at a predetermined position of the user that appears in the captured image,
The display control unit displays the moving image in which the content representing the composition image selected by the user is synthesized while accepting the selection of the type of the composition image. Photo creation game machine.
前記表示制御部は、前記動画像に映る前記利用者を検出し、前記コンテンツを含むように画角を調整した前記動画像を表示させる
請求項7に記載の写真作成ゲーム機。
The photo creation game machine according to claim 7, wherein the display control unit detects the user reflected in the moving image and displays the moving image with an angle of view adjusted to include the content.
前記表示制御部は、前記合成用画像を表す画像が変化するアニメーションを前記コンテンツとして表示させる
請求項7または8に記載の写真作成ゲーム機。
The photo creation game machine according to claim 7, wherein the display control unit displays an animation in which an image representing the composition image changes as the content.
前記表示制御部は、前記合成用画像を表す画像の角度が変化する前記アニメーションを表示させる
請求項9に記載の写真作成ゲーム機。
The photo creation game machine according to claim 9, wherein the display control unit displays the animation in which an angle of an image representing the composition image is changed.
前記表示制御部は、前記合成用画像を表す画像の位置が変化する前記アニメーションを表示させる
請求項9または10に記載の写真作成ゲーム機。
The photo creation game machine according to claim 9, wherein the display control unit displays the animation in which a position of an image representing the composition image changes.
前記表示制御部は、前記合成用画像を表す画像の色、大きさ、および透過度のうちの少なくともいずれかが変化する前記アニメーションを表示させる
請求項9乃至11のいずれかに記載の写真作成ゲーム機。
The photo creation game according to claim 9, wherein the display control unit displays the animation in which at least one of a color, a size, and a transparency of an image representing the composition image is changed. Machine.
前記画像処理は、前記静止画像に写る前記利用者の写りを調整するレタッチ処理であり、
前記表示制御部は、前記レタッチ処理の内容の選択を受け付けている間、前記利用者により選択された前記レタッチ処理の内容を表す処理が施された前記動画像を表示させる
請求項1に記載の写真作成ゲーム機。
The image processing is a retouching process for adjusting the user's reflection in the still image,
The said display control part displays the said moving image to which the process showing the content of the said retouch process selected by the said user was performed, while the selection of the content of the said retouch process is received. Photo creation game machine.
前記表示制御部は、前記画像処理の内容の選択に用いられる情報を、前記画像処理の内容を表す処理を施した前記動画像とともに同じ画面に表示させる
請求項1乃至13のいずれかに記載の写真作成ゲーム機。
The said display control part displays the information used for selection of the content of the said image process on the same screen with the said moving image which performed the process showing the content of the said image process. Photo creation game machine.
前記表示制御部は、前記撮影画像に施す前記画像処理の内容が選択された場合、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記画像処理の内容の選択を受け付けている間の画角より狭い画角で表示させる
請求項1乃至14のいずれかに記載の写真作成ゲーム機。
When the content of the image processing to be performed on the captured image is selected, the display control unit displays the moving image that has been subjected to processing representing the content of the image processing selected by the user, as the content of the image processing. The photo creation game machine according to claim 1, wherein the photo creation game machine is displayed with an angle of view narrower than an angle of view while accepting the selection.
前記画像処理部は、前記利用者により選択された前記画像処理を前記撮影部により撮影された前記静止画像に施し、前記撮影画像を生成する
請求項1乃至15のいずれかに記載の写真作成ゲーム機。
The photo creation game according to claim 1, wherein the image processing unit performs the image processing selected by the user on the still image shot by the shooting unit to generate the shot image. Machine.
写真作成ゲーム機が、
利用者を被写体とした撮影画像を取得するための静止画像の撮影と、動画像の撮影とを行い、
前記静止画像に施す画像処理の内容の選択を受け付け、
前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施し、
少なくとも前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる
表示制御方法。
A photo creation game machine
Shooting still images and moving images to capture captured images of the user,
Accepts selection of image processing content to be applied to the still image;
Performing a process on the moving image representing the content of the image processing selected by the user;
While accepting selection of at least the content of the image processing, the moving image that has been subjected to processing representing the content of the image processing selected by the user is displayed with a wider angle of view than the angle of view of the captured image. Display control method.
写真作成ゲーム機に搭載されたコンピュータに、
利用者を被写体とした撮影画像を取得するための静止画像の撮影と、動画像の撮影とを行い、
前記静止画像に施す画像処理の内容の選択を受け付け、
前記利用者により選択された前記画像処理の内容を表す処理を前記動画像に施し、
少なくとも前記画像処理の内容の選択を受け付けている間、前記利用者により選択された前記画像処理の内容を表す処理を施した前記動画像を、前記撮影画像の画角より広い画角で表示させる
処理を実行させるプログラム。
In the computer installed in the photo creation game machine,
Shooting still images and moving images to capture captured images of the user,
Accepts selection of image processing content to be applied to the still image;
Performing a process on the moving image representing the content of the image processing selected by the user;
While accepting selection of at least the content of the image processing, the moving image that has been subjected to processing representing the content of the image processing selected by the user is displayed with a wider angle of view than the angle of view of the captured image. A program that executes processing.
JP2018099302A 2018-05-24 2018-05-24 Image processing device, display control method, and program Active JP7132492B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018099302A JP7132492B2 (en) 2018-05-24 2018-05-24 Image processing device, display control method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018099302A JP7132492B2 (en) 2018-05-24 2018-05-24 Image processing device, display control method, and program

Publications (2)

Publication Number Publication Date
JP2019203996A true JP2019203996A (en) 2019-11-28
JP7132492B2 JP7132492B2 (en) 2022-09-07

Family

ID=68726914

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018099302A Active JP7132492B2 (en) 2018-05-24 2018-05-24 Image processing device, display control method, and program

Country Status (1)

Country Link
JP (1) JP7132492B2 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021132320A (en) * 2020-02-20 2021-09-09 株式会社セガ Game image capturing device and program

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277476A (en) * 2004-03-22 2005-10-06 Omron Entertainment Kk Photography printer, its control method and program, and computer readable recording medium
JP2014212489A (en) * 2013-04-19 2014-11-13 フリュー株式会社 Photograph seal creating device, method, and program
JP2016028463A (en) * 2014-07-10 2016-02-25 フリュー株式会社 Photograph seal creation device and display method
JP2016174311A (en) * 2015-03-17 2016-09-29 フリュー株式会社 Apparatus, method and program for image processing

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005277476A (en) * 2004-03-22 2005-10-06 Omron Entertainment Kk Photography printer, its control method and program, and computer readable recording medium
JP2014212489A (en) * 2013-04-19 2014-11-13 フリュー株式会社 Photograph seal creating device, method, and program
JP2016028463A (en) * 2014-07-10 2016-02-25 フリュー株式会社 Photograph seal creation device and display method
JP2016174311A (en) * 2015-03-17 2016-09-29 フリュー株式会社 Apparatus, method and program for image processing

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021132320A (en) * 2020-02-20 2021-09-09 株式会社セガ Game image capturing device and program

Also Published As

Publication number Publication date
JP7132492B2 (en) 2022-09-07

Similar Documents

Publication Publication Date Title
JP5418708B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP5488526B2 (en) Image processing apparatus and image processing method
JP5630675B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP7132492B2 (en) Image processing device, display control method, and program
JP5668885B1 (en) Photo sticker making apparatus and photo sticker making method
JP6477780B2 (en) Photo sticker creation apparatus, photo sticker creation method, and photo sticker creation processing program
JP6179655B2 (en) Photography game machine, control method, and program
JP7152687B2 (en) Display control device, display control method, program
JP6160470B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP2018107515A (en) Photograph formation game machine and image processing method
JP7074994B2 (en) Photographing game console and image processing method
JP6687855B2 (en) Photography amusement machine, control method, and program
JP6853475B2 (en) Photo creation game console and display method
JP2021044734A (en) Image processing device, image processing method, and program
JP2021043797A (en) Image processing device, image processing method, and image processing program
JP5970013B2 (en) Photo sticker making apparatus and photo sticker making method
JP5482948B2 (en) Image processing apparatus and image processing method
JP2019192061A (en) Photograph creation game machine, control method and program
JP5881183B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP6982230B2 (en) Photographing game console and image processing method
JP6436368B2 (en) Photo sticker, control method and program
JP6489396B2 (en) Photo sticker creation apparatus, display method, and program
JP6455550B2 (en) Photo sticker creation apparatus and display control method
JP6057005B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP6375740B2 (en) Photo sticker creation apparatus and display method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210427

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220217

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220222

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220726

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220808

R150 Certificate of patent or registration of utility model

Ref document number: 7132492

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150