JP2023021174A - Imaging apparatus, imaging method, and imaging processing program - Google Patents

Imaging apparatus, imaging method, and imaging processing program Download PDF

Info

Publication number
JP2023021174A
JP2023021174A JP2022192440A JP2022192440A JP2023021174A JP 2023021174 A JP2023021174 A JP 2023021174A JP 2022192440 A JP2022192440 A JP 2022192440A JP 2022192440 A JP2022192440 A JP 2022192440A JP 2023021174 A JP2023021174 A JP 2023021174A
Authority
JP
Japan
Prior art keywords
photographing
user
image
light
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Withdrawn
Application number
JP2022192440A
Other languages
Japanese (ja)
Inventor
友希 辻野
Yuki Tsujino
芳浩 宮田
Yoshihiro Miyata
宗弘 米田
Munehiro Yoneda
聡 辰巳
Satoshi Tatsumi
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Tatsumi Denshi Kogyo KK
Original Assignee
Tatsumi Denshi Kogyo KK
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Tatsumi Denshi Kogyo KK filed Critical Tatsumi Denshi Kogyo KK
Priority to JP2022192440A priority Critical patent/JP2023021174A/en
Publication of JP2023021174A publication Critical patent/JP2023021174A/en
Withdrawn legal-status Critical Current

Links

Images

Landscapes

  • Stroboscope Apparatuses (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus which can generate an image of higher quality, an imaging method, and an imaging processing program.
SOLUTION: An imaging apparatus includes: an imaging unit for imaging a user as a subject; a light-emitting unit which irradiates the subject with light at the time of imaging by the imaging unit; a physical information acquisition unit which acquires physical information on physical characteristics of the user; and a control unit which controls the light emitted from the light-emitting unit on the basis of the acquired physical information.
SELECTED DRAWING: Figure 8
COPYRIGHT: (C)2023,JPO&INPIT

Description

本発明は、撮影装置、撮影方法、及び撮影プログラムに関する。 The present invention relates to a photographing device, a photographing method, and a photographing program.

従来、利用者をカメラで撮影することで得られた撮影画像を写真印刷シートとして出力したり、ネットワークを介して外部の装置に送信したりすることができる遊戯用撮影装置が知られている。このような遊戯用撮影装置では、写真の見栄えを良くするために、種々の編集作業が行えるようになっている。例えば、特許文献1には、目の大きさの変更、明るさの変更、落書きの追加等の編集が可能な遊戯用撮影装置が提案されている。 2. Description of the Related Art Conventionally, there has been known a game photographing device capable of outputting a photographed image obtained by photographing a user with a camera as a photograph print sheet or transmitting the photographed image to an external device via a network. In such a game photography device, various editing operations can be performed in order to improve the appearance of photographs. For example, Japanese Unexamined Patent Application Publication No. 2002-101000 proposes a game photography device that allows editing such as changing the size of eyes, changing brightness, and adding graffiti.

特開2017-038344号公報JP 2017-038344 A

ところで、上記のような装置で撮影を行う場合には、全身撮影及び顔のアップ撮影が行われることがある。このとき、全身撮影やアップ撮影は撮影範囲が異なるため、最適な画像を生成するには、ライティング等の撮影環境を変更する必要がある。しかしながら、このような撮影環境の変更には改善の余地があり、さらに良質な画像を生成するための改善が要望されていた。なお、このような問題は、遊戯用撮影装置に限られず、例えば、証明写真機を含む撮影装置全般に生じ得る問題である。 By the way, when photographing with the apparatus as described above, full-body photographing and close-up photographing of the face may be performed. At this time, since the photographing range differs between whole-body photographing and close-up photographing, it is necessary to change the photographing environment such as lighting in order to generate an optimum image. However, there is room for improvement in such a change in shooting environment, and there has been a demand for an improvement for generating even better quality images. It should be noted that such a problem is not limited to amusement photography devices, but is a problem that can occur in photography devices in general, including, for example, ID photography machines.

本発明は、上記問題を解決するためになされたものであり、さらに良質な画像を生成することができる、撮影装置、撮影方法、及び撮影処理プログラムを提供することを目的とする。 SUMMARY OF THE INVENTION It is an object of the present invention to provide a photographing apparatus, a photographing method, and a photographing processing program capable of generating high-quality images.

本発明に係る撮影装置は、利用者を被写体として撮影する撮影部と、前記撮影部による撮影のタイミングにおいて、被写体に光を照射する発光部と、前記利用者の身体的特徴に関する身体情報を取得する身体情報取得部と、取得した前記身体情報に基づいて、前記発光部から照射される光の制御を行う、制御部と、を備えている。 A photographing apparatus according to the present invention includes a photographing unit that photographs a user as a subject, a light emitting unit that irradiates the subject with light at the timing of photographing by the photographing unit, and acquires physical information regarding the physical features of the user. and a control unit that controls light emitted from the light emitting unit based on the acquired physical information.

本発明に係る撮影方法は、被写体である利用者の身体的特徴に関する身体情報を取得するステップと、取得した前記身体情報に基づいて利用者に照射される光の制御を行いつつ、前記被写体の撮影を行うステップと、を備えている。 A photographing method according to the present invention comprises the steps of acquiring physical information relating to the physical characteristics of a user who is a subject; and a step of photographing.

本発明に係る撮影処理プログラムは、コンピュータに、被写体である利用者の身体的特徴に関する身体情報を取得するステップと、取得した前記身体情報に基づいて利用者に照射される光の制御を行いつつ、前記被写体の撮影を行うステップと、を実行させる。 A photographing processing program according to the present invention provides a computer with a step of acquiring physical information related to the physical characteristics of a user who is a subject, and controlling light emitted to the user based on the acquired physical information , and a step of photographing the subject.

本発明によれば、生成される画像の範囲をユーザに合わせることができる。 According to the present invention, the range of generated images can be tailored to the user.

本発明の一実施形態に係る撮影装置(カーテンなし)の外観を示す斜視図である。1 is a perspective view showing the appearance of an imaging device (without curtain) according to an embodiment of the present invention; FIG. 図1Aの撮影装置(カーテンあり)の外観を示す斜視図である。1B is a perspective view showing the appearance of the imaging device (with curtain) of FIG. 1A; FIG. 図1の撮影装置の撮影ユニットの一例を例示する。2 illustrates an example of an imaging unit of the imaging apparatus of FIG. 1; 図1の撮影装置のハードウェア構成の一例を例示する。2 illustrates an example of the hardware configuration of the imaging device of FIG. 1 ; 第1発光ユニットの内部構造を示す斜視図である。It is a perspective view which shows the internal structure of a 1st light emission unit. 第2発光ユニットの内部構造を示す斜視図である。It is a perspective view which shows the internal structure of a 2nd light emission unit. 図1の撮影装置のソフトウェア構成の一例を例示する。1 illustrates an example of a software configuration of the imaging device of FIG. 撮影の依頼を受け付けるための処理手順の一例を例示する。An example of a processing procedure for accepting a request for photographing is illustrated. ユーザの撮影する処理手順の一例を例示する。An example of a processing procedure for user's photographing will be exemplified. 全身撮影を行う画面である。This is the screen for whole-body photography. 全身撮影におけるユーザ取得画像の画像範囲を説明する図である。It is a figure explaining the image range of the user acquisition image in whole-body imaging. アップ撮影におけるユーザ取得画像の画像範囲の設定画面である。FIG. 11 is a setting screen for an image range of a user-obtained image in close-up shooting; FIG. アップ撮影におけるユーザ取得画像の画像範囲を説明する図である。FIG. 10 is a diagram illustrating an image range of a user-acquired image in close-up shooting; アップ撮影を行う画面である。This is the screen for close-up photography. 大きくする画像を選択する画面である。This is a screen for selecting an image to be enlarged. 印刷シートの位置例を示す図である。FIG. 4 is a diagram showing an example of the position of a print sheet; 印刷シートの支持部を組み立てた斜視図である。FIG. 4 is a perspective view of an assembled support for a printing sheet; 印刷シートから写真台を組み立てた状態を示す斜視図である。FIG. 4 is a perspective view showing a state in which a photo stand is assembled from printed sheets;

<1.撮影装置の概要>
以下、本実施形態に係る撮影装置について説明する。図1Aは、本実施形態に係る撮影装置100からカーテン13を取り除いた状態を示す斜視図、図1Bは、図1Aにおいてカーテン13を取り付けた状態を示す斜視図である。
<1. Overview of imaging device>
A photographing apparatus according to this embodiment will be described below. FIG. 1A is a perspective view showing a state in which the curtain 13 is removed from the photographing device 100 according to this embodiment, and FIG. 1B is a perspective view showing a state in which the curtain 13 is attached in FIG. 1A.

図1A及び図1Bに示されるとおり、撮影装置100は、直方体状の筐体1を備えており、この筐体1の側面には、内部の撮影空間10に通じる出入口11が形成されている。この出入口11の上縁にはカーテンレール12が取り付けられており、このカーテンレール12には、カーテン13が取り付けられている。これにより、利用者が撮影を行う際には、カーテン13を閉じることで、撮影空間10を外部から見えないようにすると共に、外部から余計な光が撮影空間10に入らないようにすることができる。筐体1の内装において、後述するカメラ32が配置される面とは反対側の面(背面)等の撮影範囲には、クロマキー合成処理のための単一の色(例えば、青色、緑色等)が付される。単一の色が付される範囲は、撮影範囲の一部であってもよいし、全体であってもよい。 As shown in FIGS. 1A and 1B, the imaging device 100 includes a rectangular parallelepiped housing 1, and a doorway 11 leading to an internal imaging space 10 is formed on the side surface of the housing 1. A curtain rail 12 is attached to the upper edge of the doorway 11, and a curtain 13 is attached to the curtain rail 12. - 特許庁Thus, when the user takes a photograph, the curtain 13 is closed to make the photographing space 10 invisible from the outside and to prevent unnecessary light from entering the photographing space 10 from the outside. can. In the interior of the housing 1, a single color (for example, blue, green, etc.) for chromakey synthesis processing is applied to the photographing range such as the surface (rear surface) opposite to the surface on which the camera 32 described later is arranged. is attached. The range in which a single color is applied may be part of the shooting range or the entire shooting range.

筐体1の外壁の出入口11付近には、受付ユニット2が設けられている。受付ユニット2は、撮影装置100による写真撮影の依頼を受け付けるように構成される。一方、筐体1の内部(撮影空間10)において、撮影時に利用者が存在すべき位置の前方には、撮影ユニット3が設けられている。撮影ユニット3は、撮影空間10内の利用者を撮影し、得られた画像の編集を受け付け、編集された画像をプリントするように構成される。各ユニット(2、3)の構成の詳細は後述する。 A reception unit 2 is provided near the entrance 11 on the outer wall of the housing 1 . The reception unit 2 is configured to receive a request for photographing by the photographing device 100 . On the other hand, in the interior of the housing 1 (the imaging space 10), the imaging unit 3 is provided in front of the position where the user should be present during imaging. The photographing unit 3 is configured to photograph a user in the photographing space 10, accept editing of the obtained image, and print the edited image. Details of the configuration of each unit (2, 3) will be described later.

<2.撮影装置のハードウェア構成>
次に、図2~図5を更に用いて、本実施形態に係る撮影装置100のハードウェア構成について説明する。図2は、本実施形態に係る撮影装置100の撮影ユニット3を例示する。図3は、撮影装置100のハードウェア構成の一例を模式的に例示する。また、図4及び図5は照明具を示す斜視図である。
<2. Hardware Configuration of Imaging Device>
Next, the hardware configuration of the photographing apparatus 100 according to this embodiment will be described with reference to FIGS. 2 to 5. FIG. FIG. 2 illustrates the imaging unit 3 of the imaging device 100 according to this embodiment. FIG. 3 schematically illustrates an example of the hardware configuration of the imaging device 100. As shown in FIG. Moreover, FIG.4 and FIG.5 is a perspective view which shows a lighting fixture.

図3に示すように、本実施形態に係る撮影装置100は、受付ユニット2、撮影ユニット3、制御部5、記憶部6、通信インタフェース7、及びドライブ8が電気的に接続されたコンピュータである。なお、図3では、通信インタフェースを「通信I/F」と記載している。 As shown in FIG. 3, the imaging apparatus 100 according to the present embodiment is a computer to which a reception unit 2, an imaging unit 3, a control unit 5, a storage unit 6, a communication interface 7, and a drive 8 are electrically connected. . In addition, in FIG. 3, the communication interface is described as "communication I/F."

制御部5は、CPU(Central Processing Unit)、RAM(Random Access Memory)、ROM(Read Only Memory)等を含み、情報処理に応じて各構成要素の制御を行う。記憶部6は、例えば、ハードディスクドライブ、ソリッドステートドライブ等の補助記憶装置であり、制御部5で実行されるプログラム61等の各種データを記憶する。 The control unit 5 includes a CPU (Central Processing Unit), RAM (Random Access Memory), ROM (Read Only Memory), etc., and controls each component according to information processing. The storage unit 6 is, for example, an auxiliary storage device such as a hard disk drive or solid state drive, and stores various data such as a program 61 executed by the control unit 5 .

プログラム61は、写真撮影の依頼の受け付け、受け付けた依頼に応じた写真撮影、印刷を行うための処理を撮影装置100に実行させるためのプログラムである。この他、記憶部6には、各処理過程で利用される画面データ等が記憶される。詳細は後述する。 The program 61 is a program for causing the photographing apparatus 100 to execute processing for receiving a request for photographing, photographing in response to the received request, and printing. In addition, the storage unit 6 stores screen data and the like used in each process. Details will be described later.

通信インタフェース7は、例えば、有線LAN(Local Area Network)モジュール、無線LANモジュール等であり、ネットワークを介した有線又は無線通信を行うためのインタフェースである。通信インタフェース7の種類は、撮影装置100の設置場所等に応じて適宜選択されてよい。撮影装置100は、通信インタフェース7を介して、外部サーバ等とデータ通信を行うことができる。 The communication interface 7 is, for example, a wired LAN (Local Area Network) module, a wireless LAN module, or the like, and is an interface for performing wired or wireless communication via a network. The type of communication interface 7 may be appropriately selected according to the installation location of the imaging device 100 or the like. The imaging device 100 can perform data communication with an external server or the like via the communication interface 7 .

ドライブ8は、例えば、CD(Compact Disk)ドライブ、DVD(Digital Versatile Disk)ドライブ等であり、記憶媒体(不図示)に記憶されたプログラムを読み込みための装置である。ドライブ8の種類は、記憶媒体の種類に応じて適宜選択されてよい。プログラム61は、記憶媒体に記憶されていてもよい。 The drive 8 is, for example, a CD (Compact Disk) drive, a DVD (Digital Versatile Disk) drive, or the like, and is a device for reading programs stored in a storage medium (not shown). The type of drive 8 may be appropriately selected according to the type of storage medium. The program 61 may be stored in a storage medium.

記憶媒体は、コンピュータその他装置、機械等が記録されたプログラム等の情報を読み取り可能なように、このプログラム等の情報を、電気的、磁気的、光学的、機械的又は化学的作用によって蓄積する媒体である。この記憶媒体の一例として、例えば、CD、DVD、フラッシュメモリ等を挙げることができる。 Storage media store information such as programs by electrical, magnetic, optical, mechanical or chemical action so that computers, other devices, machines, etc. can read information such as programs. is a medium. Examples of such storage media include CDs, DVDs, flash memories, and the like.

(受付ユニット)
受付ユニット2は、タッチパネルディスプレイ21、現金処理部22、カードリーダ23、及びスピーカ24を備えている。タッチパネルディスプレイ21は、筐体1の外側において、写真撮影を所望する利用者の目線範囲に入るように受付ユニット2本体のやや上方に配置される。タッチパネルディスプレイ21は、制御部5により制御されて、画面表示及び選択操作の受け付けを適宜行うことで、利用者からの撮影依頼に関する操作を受け付ける。このタッチパネルディスプレイ21の種類は、特に限定されなくてもよく、実施の形態に応じて適宜選択されてよい。例えば、タッチパネルディスプレイ21には、感圧式、赤外線式等のタイプを利用可能である。
(reception unit)
The reception unit 2 includes a touch panel display 21 , a cash processing section 22 , a card reader 23 and a speaker 24 . The touch panel display 21 is arranged outside the housing 1 slightly above the main body of the reception unit 2 so as to be within the line of sight of the user who wishes to take a photograph. The touch panel display 21 is controlled by the control unit 5 to appropriately display a screen and accept a selection operation, thereby accepting an operation related to a photographing request from the user. The type of the touch panel display 21 is not particularly limited, and may be appropriately selected according to the embodiment. For example, for the touch panel display 21, types such as a pressure sensitive type and an infrared type can be used.

現金処理部22は、紙幣検証器(Bill Validator)220、現金投入口221及び現金排出口222を備えており、各種センサにより紙幣検証器220又は現金投入口221に対する紙幣又は現金(コイン)の投入を検知する。図1A及び図1Bに示すように、現金投入口221は、タッチパネルディスプレイ21の下方近傍に配置されており、現金排出口222は、現金投入口221よりも下方に配置されている。 The cash processing unit 22 includes a bill validator 220, a cash slot 221 and a cash outlet 222. Various sensors allow bills or cash (coins) to be inserted into the bill validator 220 or the cash slot 221. to detect. As shown in FIGS. 1A and 1B , the cash slot 221 is arranged near the bottom of the touch panel display 21 , and the cash outlet 222 is arranged below the cash slot 221 .

現金処理部22は、撮影に要する金額以上の現金が投入されたことを検出した場合に、当該検知を表わす起動信号を制御部5に出力する。また、現金処理部22は、撮影のキャンセル及び撮影に要する金額分より多い金額分の現金が投入された際に、該当金額分の現金を現金排出口222に排出する。 The cash processing unit 22 outputs an activation signal indicating the detection to the control unit 5 when it detects that the amount of cash more than the amount required for photographing has been inserted. Further, the cash processing unit 22 ejects the amount of cash to the cash ejection port 222 when the amount of cash larger than the amount required for the cancellation of the photographing and the amount required for the photographing is inserted.

カードリーダ23は、ICカード、クレジットカード等のカードの情報を読取可能に構成される。このカードリーダ23には、各種カードの情報を読取可能な公知のリーダが用いられてよい。本実施形態では、カードリーダ23は、現金投入口221の近傍に配置されている。カードリーダ23は、電子マネー、クレジットカード等による料金の支払いを受け付け、当該料金の支払いを受け付けた際には、そのことを表わす起動信号を制御部5に出力する。 The card reader 23 is configured to be able to read information on cards such as IC cards and credit cards. A known reader capable of reading information on various cards may be used as the card reader 23 . In this embodiment, the card reader 23 is arranged near the cash slot 221 . The card reader 23 accepts payment of charges by electronic money, credit card, etc., and outputs an activation signal indicating the acceptance to the control unit 5 when the payment of the charges is accepted.

(撮影ユニット)
図1A、図1B、及び図3に示すとおり、撮影ユニット3は、タッチパネルディスプレイ31、カメラ32、照明具33、スピーカ34、及びプリンタ35を備えている。なお、カメラ32は、本発明の「撮影部」の一例であり、照明具33は、本発明の「発光部」の一例である。
(shooting unit)
As shown in FIGS. 1A, 1B, and 3, the photographing unit 3 includes a touch panel display 31, a camera 32, a lighting device 33, a speaker 34, and a printer 35. FIG. The camera 32 is an example of the "photographing section" of the present invention, and the lighting device 33 is an example of the "light-emitting section" of the present invention.

タッチパネルディスプレイ31は、撮影ユニット3本体の前面パネルの中央に配置されており、タッチパネルディスプレイ31の上方には、写真撮影に利用されるカメラ32が配置されている。制御部5は、カメラ32による撮影を制御する。また、制御部5は、タッチパネルディスプレイ31の表示及びタッチパネルディスプレイ31に対する入力を制御する。タッチパネルディスプレイ31及びカメラ32の種類は、実施の形態に応じて適宜選択されてよい。 The touch panel display 31 is arranged in the center of the front panel of the photographing unit 3 main body, and above the touch panel display 31 is arranged a camera 32 used for photographing. The control unit 5 controls photography by the camera 32 . The control unit 5 also controls the display on the touch panel display 31 and the input to the touch panel display 31 . The types of the touch panel display 31 and camera 32 may be appropriately selected according to the embodiment.

具体的には、カメラ32は、制御部5による制御に従って撮影を行い、撮影によって得られた画像をRAM又は記憶部6に記憶する。本実施形態では、撮影時に利用者の位置が概ね決まっているため、撮影時の利用者とカメラ32との距離が概ね決まっている。そのため、本実施形態に係るカメラ32の焦点距離は一定である。しかしながら、カメラ32の構成は、このような例に限られなくてもよく、ズームレンズを備えるカメラ32の場合は、カメラ32の焦点距離は、必要に応じて制御部5によって適切になるように制御されてもよい。なお、焦点距離の調整は、ズームレンズの外筒をカメラ32の外部から力を加えて回す機構が必要となる。制御部5は、この機構を制御することによりズームレンズの外筒を回す量を調整する。 Specifically, the camera 32 shoots according to the control by the control unit 5 and stores the image obtained by shooting in the RAM or the storage unit 6 . In this embodiment, since the position of the user is generally determined at the time of photographing, the distance between the user and the camera 32 is generally determined at the time of photographing. Therefore, the focal length of the camera 32 according to this embodiment is constant. However, the configuration of the camera 32 need not be limited to such an example, and in the case of the camera 32 having a zoom lens, the focal length of the camera 32 is set appropriately by the controller 5 as necessary. may be controlled. It should be noted that the adjustment of the focal length requires a mechanism for applying force from the outside of the camera 32 to rotate the outer cylinder of the zoom lens. The controller 5 adjusts the amount of rotation of the outer cylinder of the zoom lens by controlling this mechanism.

タッチパネルディスプレイ31には、カメラ32により撮影された画像が表示される。制御部5は、所定のタイミングで、カメラ32により被写体(利用者)の静止画像を撮影する。また、カメラ32は、リアルタイムに画像を取り込んで、当該画像を表わすライブビュー用の画像信号を出力する。カメラ32から出力された画像信号は、制御部5のRAMに一時的に記憶されると共にタッチパネルディスプレイ31に送信される。これにより、タッチパネルディスプレイ31では、カメラ32により撮影された静止画像、当該画像信号に基づくライブ映像が表示される。 An image captured by the camera 32 is displayed on the touch panel display 31 . The control unit 5 captures a still image of the subject (user) with the camera 32 at a predetermined timing. The camera 32 also captures an image in real time and outputs an image signal for live view representing the image. The image signal output from the camera 32 is temporarily stored in the RAM of the controller 5 and transmitted to the touch panel display 31 . As a result, the touch panel display 31 displays a still image captured by the camera 32 and a live image based on the image signal.

更に、タッチパネルディスプレイ31には、上記プログラム61に基づいて、撮影の案内を示す案内画面等が表示される。各画面では、選択操作等の操作入力が受け付けられる。制御部5は、各画面に対する操作入力を検知し、検知された操作入力に応じた処理を行う。 Further, on the touch panel display 31, based on the program 61, a guidance screen or the like showing guidance for photographing is displayed. Each screen accepts an operation input such as a selection operation. The control unit 5 detects an operation input for each screen, and performs processing according to the detected operation input.

本実施形態では、タッチパネルディスプレイ31の両側には、各画面に対する操作入力を行うための操作デバイスとして、一対の電子ペン40が配置されている。各電子ペン40は、例えば、デジタイザを構成するペンである。これに応じて、タッチパネルディスプレイ31には、デジタイザを構成する公知のタッチパネルが積層されたディスプレイが用いられてよい。これにより、制御部5は、各電子ペン40を識別した上で、各電子ペン40による入力を検知することができる。 In this embodiment, a pair of electronic pens 40 are arranged on both sides of the touch panel display 31 as operation devices for performing operation inputs on each screen. Each electronic pen 40 is, for example, a pen that constitutes a digitizer. Accordingly, the touch panel display 31 may be a display in which a known touch panel forming a digitizer is laminated. Thereby, the control unit 5 can detect an input by each electronic pen 40 after identifying each electronic pen 40 .

なお、各電子ペン40は、ケーブル41を介して、撮影ユニット3本体に連結されている。各ケーブル41の長さは、タッチパネルディスプレイ31の画面に各電子ペン40を接触可能に適宜決定されてよい。利用者は、各電子ペン40を利用することで、タッチパネルディスプレイ31に表示された各画面の操作を行うことができる。 In addition, each electronic pen 40 is connected to the main body of the photographing unit 3 via a cable 41 . The length of each cable 41 may be appropriately determined so that each electronic pen 40 can touch the screen of the touch panel display 31 . The user can operate each screen displayed on the touch panel display 31 by using each electronic pen 40 .

照明具33は、第1発光ユニット331及び第2発光ユニット332を備えている。図4に示すように、第1発光ユニット331は、正面パネル(図示省略)においてカメラ32の上方に取付けられ、利用者側に向く正面視円形の透光性のカバーを有している。このカバーは、半透明の乳半等で形成される。以下、この第1発光ユニット331について、図4を参照しつつ詳細に説明する。図4は、カバーを取り外した第1発光ユニットの斜視図である。 The illuminator 33 has a first light emitting unit 331 and a second light emitting unit 332 . As shown in FIG. 4, the first light emitting unit 331 is mounted above the camera 32 on the front panel (not shown) and has a circular translucent cover facing the user. This cover is formed of translucent milk half or the like. The first light emitting unit 331 will be described in detail below with reference to FIG. FIG. 4 is a perspective view of the first light emitting unit with the cover removed.

図4に示すように、第1発光ユニット331は、カバーによって覆われる円板状の基板3310と、この基板3310の中央付近に取付けられ、直方体状の一対の第1ストロボ発光管3311と、を有している。基板3310は、不透明の素材かつ光を反射する素材で構成されている。そして、これら第1ストロボ発光管3311の前方には円板状の反射板3313が配置されている。これにより、第1ストロボ発光管3311から照射されるストロボ光は、反射板3313および基板3310に反射された後、カバーを介して撮影ユニット3から間接光として被写体の顔を中心とした上部に照射される。被写体の上部とは、被写体の顔付近を想定している。このような間接光は、次に説明する直接光と比べて、影が生じにくい、柔らかい光である。 As shown in FIG. 4, the first light emitting unit 331 includes a disk-shaped substrate 3310 covered with a cover, and a pair of rectangular parallelepiped first strobe light emitting tubes 3311 attached near the center of the substrate 3310. have. The substrate 3310 is made of an opaque material that reflects light. A disk-shaped reflector 3313 is arranged in front of the first strobe arc tube 3311 . As a result, the strobe light emitted from the first strobe light emitting tube 3311 is reflected by the reflector 3313 and the substrate 3310, and then emitted from the photographing unit 3 through the cover as indirect light to the upper part centering on the subject's face. be done. The upper part of the subject is assumed to be near the face of the subject. Such indirect light is less likely to produce shadows than direct light, which will be described below, and is soft light.

さらに、反射板3313の前面には直方体状の第2ストロボ発光管3312が取付けられており、ここから照射されるストロボ光は、カバーを介して直接光として被写体の顔付近に照射される。なお、直接光とは、上述した間接光のように反射を伴う光ではないことを意味し、本実施形態においては、反射光ではなく、カバーを介して被写体に向けられた光をいう。その他、この第1発光ユニット331には、撮影空間10の明るさを調整するための、第1ストロボ発光管3311の両側に配置された一対のランプ3314および反射板3313の周囲を囲むように配置された環状の蛍光灯3316が設けられている。 In addition, a rectangular parallelepiped second strobe light emitting tube 3312 is attached to the front surface of the reflecting plate 3313, and the strobe light emitted from here is applied as direct light to the vicinity of the subject's face through the cover. Note that direct light means light that is not accompanied by reflection like the above-described indirect light, and in the present embodiment, it is not reflected light but light directed toward the subject through the cover. In addition, the first light emitting unit 331 includes a pair of lamps 3314 and a reflector 3313 arranged on both sides of the first strobe light emitting tube 3311 for adjusting the brightness of the photographing space 10. An annular fluorescent lamp 3316 is provided.

次に、第2発光ユニット332について説明する。図5は第2発光ユニットの内部を示す斜視図である。図5に示すように、第2発光ユニット332は、撮影ユニット3の下部、つまり、タッチパネルディスプレイ31の下側に配置されている。そして、写真プリントの取出口36の両側には、それぞれ開口3321が形成され、これら開口3321から下方に延びて取出口36の下側で連結される正面視U字状の内部空間が形成されている。この内部空間においては、開口3321と対向する面(開口3321よりも奥側で少なくともU字状の内部空間の全体)に反射板が配置されている。また、各開口3321には、透光性のカバー3328(図2参照)が取付けられている。これらのカバー3328は、半透明の乳半等で形成される。そして、内部空間の下部、つまり取出口36の下方の空間には、蛍光灯3323と一対の第3ストロボ発光管3324と、が配置されている。 Next, the second light emitting unit 332 will be described. FIG. 5 is a perspective view showing the inside of the second light emitting unit. As shown in FIG. 5 , the second light emitting unit 332 is arranged below the photographing unit 3 , that is, below the touch panel display 31 . Openings 3321 are formed on both sides of the photographic print outlet 36, and a U-shaped internal space extending downward from these openings 3321 and connected to the lower side of the outlet 36 is formed. there is In this internal space, a reflector is arranged on a surface facing the opening 3321 (at least the entire U-shaped internal space on the back side of the opening 3321). Each opening 3321 is attached with a translucent cover 3328 (see FIG. 2). These covers 3328 are formed of translucent milk half or the like. A fluorescent lamp 3323 and a pair of third strobe arc tubes 3324 are arranged in the lower part of the internal space, that is, in the space below the outlet 36 .

より詳細に説明すると、蛍光灯3323は、取出口36の下側の空間で左右方向に延びるように配置され、その下方の両側に直方体状の第4ストロボ発光管3324がそれぞれ配置されている。但し、各第3ストロボ発光管3324の照射面は、反射板側を向いている。そのため、照射されたストロボ光及び蛍光灯の光は、反射板で反射されながら上方に向かい、両カバー3321を介して、被写体の下半身付近へ下側から照射される。つまり、左右の第3ストロボ発光管3324から照射されるストロボ光は、それぞれ左右のカバー3328から被写体に向けて照射される。 More specifically, the fluorescent lamp 3323 is arranged so as to extend in the left-right direction in the space below the outlet 36, and rectangular parallelepiped fourth strobe light emitting tubes 3324 are arranged on both sides thereof. However, the irradiation surface of each third strobe arc tube 3324 faces the reflector side. Therefore, the irradiated strobe light and fluorescent light are directed upward while being reflected by the reflector, and are irradiated from below to near the lower half of the body of the subject through both covers 3321 . In other words, the strobe lights emitted from the left and right third strobe arc tubes 3324 are emitted from the left and right covers 3328 toward the subject.

また、この第2発光ユニット332は、次のような役割を果たす。まず、第1発光ユニット331による上方からの光によって被写体の顎の下側には、影が生じるおそれがあるが、第2発光ユニット332からの下からの光によってこの影を抑制する役割がある。また、第2発光ユニット332は、低い位置に配置されているため、被写体の足元を照らす役割を果たす。また、この第2発光ユニット332では、両カバー3321が取出口36を挟んで配置されているため、ここからの光は、被写体の左右の両側に対しても照射される。そのため、被写体の足下を含め下半身付近を明るく照らすことができる。 Also, the second light emitting unit 332 plays the following role. First, the light emitted from above by the first light emitting unit 331 may cast a shadow under the chin of the subject, but the light emitted from below by the second light emitting unit 332 has the role of suppressing this shadow. . Also, since the second light emitting unit 332 is arranged at a low position, it plays a role of illuminating the subject's feet. In addition, in the second light emitting unit 332, both covers 3321 are arranged with the outlet 36 interposed therebetween, so that the light from here is also applied to both the left and right sides of the subject. Therefore, it is possible to brightly illuminate the vicinity of the lower half of the body including the feet of the subject.

なお、各発光ユニット331,332のストロボ発光管3311,3312、3324から照射される光は、後述する発光制御部522により制御される。一方、ランプ3315、蛍光灯3323は、制御部5により制御されて、電灯の発光量を調節することで、利用者の撮影処理の段階に応じて撮影空間10内の明るさを調節する。 The light emitted from the strobe light emitting tubes 3311, 3312 and 3324 of the light emitting units 331 and 332 is controlled by a light emission control section 522 which will be described later. On the other hand, the lamp 3315 and the fluorescent lamp 3323 are controlled by the control unit 5 to adjust the brightness in the shooting space 10 according to the stage of the user's shooting process by adjusting the light emission amount of the electric light.

スピーカ34及びプリンタ35は、撮影ユニット3本体に内蔵されている。スピーカ34は、制御部5による制御に従って、写真撮影の案内等の音声出力を行う。また、プリンタ35は、制御部5による制御に従って、撮影された画像又は編集済みの画像をプリントし、プリントした画像を取出口36に排出する。 The speaker 34 and printer 35 are built in the imaging unit 3 main body. The speaker 34 performs voice output such as guidance for photographing according to control by the control unit 5 . In addition, the printer 35 prints the photographed image or the edited image under the control of the control unit 5 and discharges the printed image to the outlet 36 .

(その他)
なお、撮影装置100の具体的なハードウェア構成に関して、実施形態に応じて、適宜、構成要素の省略、置換及び追加が可能である。例えば、制御部5は、複数のプロセッサを含んでもよい。また、撮影装置100は、提供されるサービス専用に設計された情報処理装置の他、汎用のPC(Personal Computer)等であってもよい。
(others)
Regarding the specific hardware configuration of the imaging device 100, it is possible to omit, replace, and add components as appropriate according to the embodiment. For example, the controller 5 may include multiple processors. Further, the photographing device 100 may be an information processing device designed exclusively for the service provided, or may be a general-purpose PC (Personal Computer) or the like.

<3.撮影装置のソフトウェア構成>
次に、図5及び図6を用いて、本実施形態に係る撮影装置100のソフトウェア構成の一例を説明する。図6は、本実施形態に係る撮影装置100のソフトウェア構成の一例を模式的に例示する。
<3. Software Configuration of Imaging Device>
Next, an example of the software configuration of the imaging device 100 according to this embodiment will be described with reference to FIGS. 5 and 6. FIG. FIG. 6 schematically illustrates an example of the software configuration of the imaging device 100 according to this embodiment.

撮影装置100の制御部5は、記憶部6に記憶されたプログラム61をRAMに展開する。そして、制御部5は、RAMに展開されたプログラム61をCPUにより解釈及び実行して、各構成要素を制御する。これによって、図6に示すように、本実施形態に係る撮影装置100は、ソフトウェアモジュールとして、受付部51、撮影処理部52、及び出力処理部53を備えるように構成される。また、撮影処理部52には、身体情報取得部521と発光制御部522とが設けられている。 The control unit 5 of the imaging device 100 develops the program 61 stored in the storage unit 6 in RAM. Then, the control unit 5 causes the CPU to interpret and execute the program 61 developed in the RAM, and controls each component. Accordingly, as shown in FIG. 6, the imaging apparatus 100 according to the present embodiment is configured to include a reception unit 51, an imaging processing unit 52, and an output processing unit 53 as software modules. Further, the imaging processing unit 52 is provided with a physical information acquisition unit 521 and a light emission control unit 522 .

受付部51は、撮影の依頼に関する操作画面を受付ユニット2のタッチパネルディスプレイ21に表示すると共に、当該タッチパネルディスプレイ21に対するタッチ操作による利用者の入力を受け付けて、その入力に応じた処理を実行する。これにより、受付部51は、利用者からの撮影の依頼、撮影、印刷に関する設定等を受け付ける。 The reception unit 51 displays an operation screen regarding a request for photographing on the touch panel display 21 of the reception unit 2, receives user input by a touch operation on the touch panel display 21, and executes processing according to the input. Accordingly, the reception unit 51 receives a request for photographing from the user, settings regarding photographing and printing, and the like.

撮影処理部52は、撮影の案内を示す案内画面等をタッチパネルディスプレイ31に表示させると共に、カメラ32による撮影処理を実施する。これにより、撮影処理部52は、利用者(被写体)の写る画像を取得する。この撮影処理中に、身体情報取得部521は、利用者の身体的特徴に関する身体情報を取得するように構成される。また、発光制御部522は、身体情報取得部521において取得された身体情報に基づいて、撮影時に被写体に照射されるストロボ光を調整する。出力処理部53は、最終的に得られた画像を紙媒体に印刷し、印刷した画像を取出口36から出力する。また、出力処理部53は、生成された画像と共に外部サーバに送信する。 The photographing processing unit 52 causes the touch panel display 31 to display a guidance screen or the like indicating guidance for photographing, and performs photographing processing by the camera 32 . Thereby, the photographing processing unit 52 acquires an image of the user (subject). During this photographing process, the physical information acquiring unit 521 is configured to acquire physical information regarding physical features of the user. Further, the light emission control unit 522 adjusts the strobe light emitted to the subject at the time of photographing based on the physical information acquired by the physical information acquisition unit 521 . The output processing unit 53 prints the finally obtained image on a paper medium and outputs the printed image from the outlet 36 . The output processing unit 53 also transmits the generated image to the external server.

撮影装置100の各ソフトウェアモジュールに関しては後述する動作例で詳細に説明する。なお、本実施形態では、撮影装置100の各ソフトウェアモジュールがいずれも汎用のCPUにより実現される例について説明している。しかしながら、以上のソフトウェアモジュールの一部又は全部が、1又は複数の専用のハードウェアプロセッサにより実現されてもよい。また、撮影装置100のソフトウェア構成に関して、実施形態に応じて、適宜、機能の省略、置換及び追加が行われてもよい。 Each software module of the photographing apparatus 100 will be described in detail in operation examples described later. Note that the present embodiment describes an example in which each software module of the imaging device 100 is implemented by a general-purpose CPU. However, some or all of the above software modules may be implemented by one or more dedicated hardware processors. Further, with respect to the software configuration of the imaging device 100, functions may be omitted, replaced, or added as appropriate according to the embodiment.

<4.撮影装置の動作例>
<4-1.撮影依頼の受け付けの処理手順>
次に、図7を用いて、本実施形態に係る撮影装置100による撮影依頼受付の処理手順について説明する。図7は、本実施形態に係る撮影装置100による撮影依頼受付の処理手順の一例を例示する。
<4. Operation example of imaging device>
<4-1. Processing procedure for accepting a shooting request>
Next, a processing procedure for accepting a photographing request by the photographing apparatus 100 according to this embodiment will be described with reference to FIG. FIG. 7 illustrates an example of a processing procedure for accepting a photographing request by the photographing apparatus 100 according to this embodiment.

撮影装置100の制御部5は、受付部51として動作し、図7に示す処理手順に従って、撮影依頼の受付処理を行う。例えば、制御部5は、受付処理を開始するまでの間、受付ユニット2のタッチパネルディスプレイ21に広告等のデモ画面を表示し、タッチパネルディスプレイ21に対してタッチ操作されたことに応じて、以下の受付処理を開始する。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。 The control unit 5 of the photographing apparatus 100 operates as the receiving unit 51 and performs processing for receiving a photographing request according to the processing procedure shown in FIG. For example, the control unit 5 displays a demo screen such as an advertisement on the touch panel display 21 of the reception unit 2 until the reception processing is started, and responds to the touch operation on the touch panel display 21 by performing the following operations. Start reception processing. Note that the processing procedure described below is merely an example, and each processing may be changed as much as possible. Further, in the processing procedures described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS100)
ステップS100では、制御部5は、使用言語の種類を選択させる画面をタッチパネルディスプレイ21に表示する。例えば、制御部5は、日本語、英語、中国語、韓国語等の各言語に対応するボタンをタッチパネルディスプレイ21に表示し、いずれかのボタンを利用者にタッチさせる。これにより、制御部5は、使用言語の選択を受け付ける。記憶部6には、各使用言語に応じた画面データが記憶されており、制御部5は、本ステップ100及び次のステップS102以降の処理において、選択された使用言語に応じた画面を表示するとともに、選択言語に対応する音声をスピーカ24から出力する。使用言語の選択が完了すると、制御部5は、次のステップS102に処理を進める。
(Step S100)
In step S100, the control unit 5 displays a screen for selecting the type of language to be used on the touch panel display 21. FIG. For example, the control unit 5 displays buttons corresponding to each language such as Japanese, English, Chinese, and Korean on the touch panel display 21, and allows the user to touch any button. Thereby, the control unit 5 accepts the selection of the language to be used. Screen data corresponding to each used language is stored in the storage unit 6, and the control unit 5 displays a screen corresponding to the selected used language in the processing of this step 100 and the next step S102 and subsequent steps. At the same time, the speaker 24 outputs the voice corresponding to the selected language. After completing the selection of the language to be used, the control unit 5 advances the process to the next step S102.

(ステップS102)
ステップS102では、制御部5は、印刷枚数を選択させる画面をタッチパネルディスプレイ21に表示する。例えば、制御部5は、1枚、2枚等の印刷枚数に対応するボタンをタッチパネルディスプレイ21に表示し、いずれかのボタンを利用者にタッチさせる。これにより、制御部5は、印刷枚数の選択を受け付ける。印刷枚数の選択が完了すると、制御部5は、次のステップS104に処理を進める。
(Step S102)
In step S102, the control unit 5 displays on the touch panel display 21 a screen for selecting the number of prints. For example, the control unit 5 displays buttons corresponding to the number of prints, such as 1, 2, etc., on the touch panel display 21, and allows the user to touch one of the buttons. Thereby, the control unit 5 accepts the selection of the number of prints. When the selection of the number of prints is completed, the control section 5 advances the process to the next step S104.

(ステップS104)
ステップS104では、制御部5は、ステップS102の選択結果に基づく金額とともに、決済方法を選択させる画面をタッチパネルディスプレイ21に表示する。例えば、制御部5は、クレジットカード、ICカード、現金等の各決済方法に対応するボタンをタッチパネルディスプレイ21に表示し、いずれかのボタンを利用者にタッチさせる。これにより、制御部5は、決済方法の選択を受け付ける。決済方法の選択が完了すると、制御部5は、次のステップS106に処理を進める。
(Step S104)
In step S104, the control unit 5 displays on the touch panel display 21 a screen for selecting a settlement method together with the amount based on the selection result in step S102. For example, the control unit 5 displays buttons corresponding to each settlement method such as credit card, IC card, and cash on the touch panel display 21, and allows the user to touch any button. Thereby, the control unit 5 accepts the selection of the settlement method. After completing the selection of the settlement method, the control unit 5 advances the process to the next step S106.

(ステップS106)
ステップS106では、制御部5は、ステップS104で選択された決済方法に対応する決済画面をタッチパネルディスプレイ21に表示する。これにより、制御部5は、ステップS104で選択された決済方法による決済を受け付ける。
(Step S106)
At step S106, the control unit 5 displays on the touch panel display 21 a payment screen corresponding to the payment method selected at step S104. Thereby, the control unit 5 accepts payment by the payment method selected in step S104.

現金での決済を選択した場合、利用者は、決済画面に指定された料金を現金投入口221に投入する。指定の料金(ステップS104の選択結果に基づく料金)分の現金又はそれ以上の現金が投入されると、現金処理部22は、上記起動信号を制御部5に出力する。他方、クレジットカード又はICカードでの決済を選択した場合、利用者は、対応するカードをカードリーダ23に読み込ませる。対応するカードを読み取ると、カードリーダ23は、上記起動信号を制御部5に出力する。制御部5は、これらの起動信号を受信した後、次のステップS108に処理を進める。 When the user selects the payment in cash, the user inserts the fee specified on the payment screen into the cash slot 221 . When cash equivalent to or more than the designated charge (the charge based on the selection result of step S104) is inserted, the cash processing unit 22 outputs the activation signal to the control unit 5. FIG. On the other hand, when the user selects payment by credit card or IC card, the user causes the card reader 23 to read the corresponding card. After reading the corresponding card, the card reader 23 outputs the activation signal to the controller 5 . After receiving these activation signals, the control unit 5 proceeds to the next step S108.

(ステップS108)
ステップS108では、制御部5は、印刷するシールのデザインを選択させる画面をタッチパネルディスプレイ21に表示する。各デザインは、記憶部6に記憶されていてもよいし、ネットワークを介してNAS(Network Attached Storage)等の他の情報処理装置からダウンロードされてもよい。各デザインは、クロマキー合成処理により被写体に係る画像の背景として合成する背景デザイン、及びシール内に撮影画像を配置する配置デザインを規定する。
(Step S108)
In step S108, the control unit 5 displays on the touch panel display 21 a screen for selecting the design of the sticker to be printed. Each design may be stored in the storage unit 6 or may be downloaded from another information processing device such as a NAS (Network Attached Storage) via a network. Each design defines a background design to be synthesized as a background of an image related to a subject by chromakey synthesis processing, and a layout design to arrange a photographed image within a sticker.

制御部5は、例えば、各デザインのサムネイルをタッチパネルディスプレイ21に表示し、いずれかのサムネイルを利用者にタッチさせる。これにより、制御部5は、印刷するシールのデザインの選択を受け付ける。デザインの選択が完了すると、制御部5は、次のステップS112に処理を進める。 For example, the control unit 5 displays thumbnails of each design on the touch panel display 21 and allows the user to touch one of the thumbnails. Thereby, the control unit 5 accepts the selection of the design of the sticker to be printed. When the design selection is completed, the control unit 5 advances the process to the next step S112.

(ステップS110及びS112)
ステップS110では、制御部5は、撮影ユニット3が利用可能となるまでの間、撮影ユニット3による撮影の案内、広告等のデモ画面をタッチパネルディスプレイ21に表示する。
(Steps S110 and S112)
In step S110, the control section 5 displays a demonstration screen such as guides and advertisements for photographing by the photographing unit 3 on the touch panel display 21 until the photographing unit 3 becomes available.

本動作例に係る受付処理により撮影の依頼を行っている対象の利用者よりも前に、撮影装置100を利用する利用者が存在する場合、対象の利用者が本ステップS110に到達した時点で、前の利用者が未だ撮影ユニット3による撮影処理を行っている可能性がある。制御部5は、この前の利用者が撮影ユニット3を占有している間、対象の利用者を筐体1の外側で待機させるために、本ステップS112によりデモ画面を表示する。なお、前の利用者が存在せず、又は前の利用者の撮影が完了しており、撮影ユニット3が直ちに利用可能な場合には、制御部5は、本ステップS110の処理を省略してもよい。 If there is a user who uses the photographing apparatus 100 before the target user who requests photography by the receiving process according to this operation example, when the target user reaches this step S110, , there is a possibility that the previous user is still performing photographing processing with the photographing unit 3 . The control unit 5 displays the demo screen in step S112 in order to have the target user wait outside the housing 1 while the previous user occupies the photographing unit 3 . If the previous user does not exist, or if the previous user has completed shooting and the shooting unit 3 can be used immediately, the control unit 5 omits the process of step S110. good too.

次のステップS112では、制御部5は、撮影空間10への移動案内をタッチパネルディスプレイ21に表示し、撮影の依頼を行っていた利用者に対して撮影空間10内に移動するように促す。これにより、制御部5は、本動作例に係る受付処理を終了する。 In the next step S112, the control section 5 displays a movement guidance to the photographing space 10 on the touch panel display 21, and prompts the user requesting photographing to move into the photographing space 10. FIG. As a result, the control unit 5 terminates the acceptance process according to this operation example.

なお、各ステップで表示される画面には、一つ前のステップに戻ったり、最初のステップS100に戻ったりするためのボタンが設けられてもよい。これにより、利用者は、受付処理を所望のステップに戻したり、撮影の依頼をキャンセルしたりすることができる。 The screen displayed in each step may be provided with a button for returning to the previous step or returning to the first step S100. As a result, the user can return the reception processing to a desired step or cancel the photographing request.

<4-2.撮影の処理手順>
次に、図8を用いて、本実施形態に係る撮影装置100による撮影の処理手順について説明する。図8は、本実施形態に係る撮影装置100による撮影の処理手順の一例を例示する。
<4-2. Shooting processing procedure>
Next, with reference to FIG. 8, a processing procedure for photographing by the photographing apparatus 100 according to this embodiment will be described. FIG. 8 illustrates an example of an imaging processing procedure by the imaging apparatus 100 according to this embodiment.

撮影装置100の制御部5は、上記受付処理が完了したことに応じて、撮影処理部52として動作し、図8に示す撮影処理を開始する。なお、以下で説明する処理手順は一例に過ぎず、各処理は可能な限り変更されてもよい。また、以下で説明する処理手順について、実施の形態に応じて、適宜、ステップの省略、置換、及び追加が可能である。 Upon completion of the reception processing, the control unit 5 of the image capturing apparatus 100 operates as the image capturing processing unit 52 and starts the image capturing processing shown in FIG. Note that the processing procedure described below is merely an example, and each processing may be changed as much as possible. Further, in the processing procedures described below, steps can be omitted, replaced, and added as appropriate according to the embodiment.

(ステップS200)
ステップS200では、制御部5は、撮影を開始するための画面をタッチパネルディスプレイ31に表示する。例えば、制御部5は、撮影プレイの開始を利用者に容認させるためのスタートボタンを含む画面をタッチパネルディスプレイ31に表示し、利用者に対して、一対の電子ペン40のいずれかにより当該スタートボタンをタッチさせる。これにより、制御部5は、撮影の開始を受け付けて、次のステップS202に処理を進める。なお、以下の処理では特に断りのない限り、いずれかの電子ペン40により、タッチパネルディスプレイ31をタッチすることで、撮影処理を進めることとする。したがって、以下では、「タッチ」との文言は、電子ペン40によるタッチを意味する。
(Step S200)
In step S<b>200 , the control unit 5 displays a screen for starting shooting on the touch panel display 31 . For example, the control unit 5 displays on the touch panel display 31 a screen including a start button for allowing the user to start the shooting play, and instructs the user to press either of the pair of electronic pens 40 to press the start button. to touch. As a result, the control unit 5 accepts the start of photographing, and advances the process to the next step S202. It should be noted that in the following processing, unless otherwise specified, photographing processing proceeds by touching the touch panel display 31 with any of the electronic pens 40 . Therefore, hereinafter, the term “touch” means touch with the electronic pen 40 .

(ステップS202及びS204)
ステップS202において、制御部5は、全身撮影の処理を行う。この全身撮影について、図9及び図10を参照しつつ説明する。まず、制御部5は、全身撮影を行うことの案内をタッチパネルディスプレイ31に表示した後、図9に示すように、ライブビューが表示された画面をタッチパネルディスプレイ31に表示する。このライブビューは、カメラ32で撮影される撮影画像のうち、周縁部を切り取った画像である。この点について、図10を参照しつつ説明する。
(Steps S202 and S204)
In step S202, the control unit 5 performs whole-body imaging processing. This whole-body imaging will be described with reference to FIGS. 9 and 10. FIG. First, the control unit 5 displays a guide to perform whole-body photography on the touch panel display 31, and then displays a screen showing a live view on the touch panel display 31, as shown in FIG. This live view is an image obtained by cutting out the periphery of the captured image captured by the camera 32 . This point will be described with reference to FIG.

例えば、カメラ32で全身の撮影を行うと、図10に示すような撮影画像(原画)が生成される。しかしながら、撮影画像の周縁部は光学的に歪みが生じるおそれがあるため、周縁部を切り取り、ユーザが取得する画像の画像範囲を決定する。以下、この画像範囲に基づいて、ユーザが取得する画像を「ユーザ取得画像」と称することとする。なお、図10は、ユーザ取得画像を説明するための図であり、タッチパネルディスプレイ31には表示されず、図9の画面がタッチパネルディスプレイ31に表示される。 For example, when the whole body is photographed by the camera 32, a photographed image (original image) as shown in FIG. 10 is generated. However, since the periphery of the captured image may be optically distorted, the periphery is cut off to determine the image range of the image acquired by the user. Hereinafter, an image acquired by the user based on this image range will be referred to as a "user-acquired image". Note that FIG. 10 is a diagram for explaining a user-obtained image, and is not displayed on the touch panel display 31, and the screen in FIG. 9 is displayed on the touch panel display 31. FIG.

続いて、ユーザは、ライブビューを見ながら、適宜ポーズを取る。そして、カウントダウン72が行われた後、カメラ32により全身撮影が行われる。すなわち、ユーザ取得画像としての静止画が生成される。生成される静止画は、図9の画面にて表示されたライブビューの表示範囲と同一の範囲の画像としてもよいし、当該ライブビューの表示範囲に近似する範囲の画像としてもよい。ここでは、カウントダウンとともに、第1及び第2発光ユニット331,332からストロボ光が照射され、2回の撮影が行われる。 Subsequently, the user poses appropriately while watching the live view. After the countdown 72 is performed, the whole body is photographed by the camera 32 . That is, a still image is generated as a user-obtained image. The generated still image may be an image of the same range as the display range of the live view displayed on the screen of FIG. 9, or may be an image of a range similar to the display range of the live view. Here, along with the countdown, strobe light is emitted from the first and second light emitting units 331 and 332, and two shots are taken.

(ステップS206及びS208)
次に、制御部5は、アップ撮影の処理を行う。このアップ撮影について、図11~図13を参照しつつ説明する。まず、アップ撮影を行うことの案内をタッチパネルディスプレイ31に表示した後、画像範囲の設定を行う。ここでは、図11に示すような画面が表示され、ユーザ取得画像用の3つの画像範囲から1つを選択させる。図11の画面では、図12で示すように、撮影画像から、第1~第3範囲を輪郭とする各画像がトリミングされて同時に表示されている。図12に示すように、第1範囲(第2撮影モード)は、撮影画像の上部付近に配置される矩形状の範囲であり、大人の顔の位置を含むことが意図されている。第2範囲(第1撮影モード)は、第1範囲と同じ大きさであるが、第1範囲よりも下方に位置している。この第2範囲は、子供など身長の低い被写体の顔の位置を含むことが意図されている。また、第3範囲は、第2範囲と下端部の位置が同じ矩形状の範囲であり、且つ、第2範囲よりも上方及び左右に広い範囲である。したがって、第3範囲は、身長の低い被写体を含みつつ、身長の差のある多人数を被写体とすることが意図されている。
(Steps S206 and S208)
Next, the control unit 5 performs close-up photographing processing. This close-up photographing will be described with reference to FIGS. 11 to 13. FIG. First, after displaying a guide for close-up photography on the touch panel display 31, the image range is set. Here, a screen such as that shown in FIG. 11 is displayed to prompt the user to select one of three image ranges for the acquired image. On the screen of FIG. 11, as shown in FIG. 12, each image whose outline is the first to third ranges is trimmed from the photographed image and displayed at the same time. As shown in FIG. 12, the first range (second shooting mode) is a rectangular range arranged near the top of the captured image, and is intended to include the position of the adult's face. The second range (first shooting mode) has the same size as the first range, but is positioned below the first range. This second range is intended to include the face positions of short subjects such as children. The third range is a rectangular range having the same lower end position as the second range, and is wider than the second range upwardly and laterally. Therefore, the third range is intended to include a large number of subjects with different heights while including short subjects.

そして、図11の画面では、このように設定された第1~第3範囲の画像が、左から右へ並ぶように配置されている。このとき、図11の画面に示される、第1~第3範囲の画像は、カメラ32で撮影されているライブビューである。これらの第1~第3範囲の画像は、同じか略同じサイズで表示される。なお、図12は、ユーザ取得画像を説明するための図であり、タッチパネルディスプレイ31には表示されず、図11の画面がタッチパネルディスプレイ31に表示される。 On the screen of FIG. 11, the images in the first to third ranges thus set are arranged from left to right. At this time, the images in the first to third ranges shown on the screen of FIG. 11 are live views captured by the camera 32. These first to third range images are displayed in the same or substantially the same size. Note that FIG. 12 is a diagram for explaining a user-acquired image, and is not displayed on the touch panel display 31, and the screen of FIG. 11 is displayed on the touch panel display 31. FIG.

続いて、ユーザがいずれかの範囲の画像をタッチすると、図11に示すように、タッチされた画像の周りに選択枠78が表示される。そして、選択を確定する場合には、OKボタン71をタッチする。したがって、OKボタン71がタッチされるまでは、いずれの画像も選択することができる。このように選択される画像範囲の取得は、制御部5の身体情報取得部552により行われる。 Subsequently, when the user touches any range of images, a selection frame 78 is displayed around the touched image as shown in FIG. Then, to confirm the selection, the OK button 71 is touched. Therefore, any image can be selected until the OK button 71 is touched. Acquisition of the image range selected in this manner is performed by the physical information acquisition unit 552 of the control unit 5 .

こうして、アップ撮影用のユーザ取得画像の範囲が決定されると、図13に示すように、選択された範囲に対応するライブビューが表示された画面がタッチパネルディスプレイ31に表示される。図13は、第1範囲の画像が選択された例を示している。このライブビューは、図11に示された各ライブビューよりも大きいサイズで表示される。そして、カウントダウン72が行われた後、カメラ32によりアップ撮影が行われる。すなわち、ユーザ取得画像としての静止画が生成される。生成される静止画は、図13の画面にて表示されたライブビューの表示範囲と同一の範囲の画像としてもよいし、当該ライブビューの表示範囲に近似する範囲の画像としてもよい。ここでは、カウントダウンとともに、第1及び第2発光ユニット331,332からストロボ光が照射され、2回の撮影が行われる。 When the range of the user-obtained image for close-up photography is determined in this manner, a screen displaying a live view corresponding to the selected range is displayed on the touch panel display 31, as shown in FIG. FIG. 13 shows an example in which the image of the first range is selected. This live view is displayed in a larger size than each live view shown in FIG. After the countdown 72 is performed, close-up photography is performed by the camera 32 . That is, a still image is generated as a user-obtained image. The generated still image may be an image of the same range as the display range of the live view displayed on the screen of FIG. 13, or may be an image of a range similar to the display range of the live view. Here, along with the countdown, strobe light is emitted from the first and second light emitting units 331 and 332, and two shots are taken.

(ステップS210及びS212)
次に、制御部5は、ボーナス撮影の処理を行う。但し、ボーナス撮影は、撮影待ちをしているユーザがいないときに行われる。具体的には、制御部5は、受付ユニット2を操作しているユーザがいないと判断したときは(ステップS210のNO)、タッチパネルディスプレイ31に、ボーナス撮影用の画面を表示する。ボーナス撮影用の画面は、上述した図9の全身撮影用の画面が表示され、2回の撮影が行われる。但し、図13のアップ撮影用の画面を表示することもできるが、既に選択したユーザ取得画像の範囲が画面に表示される。一方、制御部5が、受付ユニット2を操作しているユーザがいると判断したときは(ステップS210のYES)、ボーナス撮影を行わない。なお、ボーナス撮影については、他の態様も可能であり、例えば、ユーザが受付ユニット2において操作している場合でも、受付ユニット2での操作が完了していない場合には、ボーナス撮影を行うこともできる。例えば、受付ユニット2での操作が始まっている場合でも、ステップS110のデモの表示が行われるまでは、ボーナス撮影を行なうことができる。
(Steps S210 and S212)
Next, the control unit 5 performs processing for bonus photography. However, bonus photography is performed when no user is waiting for photography. Specifically, when the control unit 5 determines that there is no user operating the reception unit 2 (NO in step S210), the touch panel display 31 displays a screen for bonus shooting. As the screen for bonus photography, the above-described screen for whole-body photography in FIG. 9 is displayed, and photography is performed twice. However, although the screen for close-up photography in FIG. 13 can be displayed, the range of the user-acquired image that has already been selected is displayed on the screen. On the other hand, when the control section 5 determines that there is a user operating the reception unit 2 (YES in step S210), bonus photography is not performed. Note that other aspects of the bonus photography are possible. For example, even when the user is operating the reception unit 2, if the operation on the reception unit 2 is not completed, the bonus photography may be performed. can also For example, even when an operation on the reception unit 2 has started, bonus photography can be performed until the demonstration is displayed in step S110.

(ステップS214)
続いて、制御部5は、印刷されるシートの中で大きくする画像の選択を、ユーザに行わせる。すなわち、タッチパネルディスプレイ31には、図14に示すように、既に撮影した既に撮影したすべてのユーザ取得画像が表示され、この中から、シールの中で大きくする画像を選択する。ボーナス撮影が行われた場合には、ユーザ取得画像の中に、ボーナス撮影で撮影された画像も含まれる。そして、ユーザがいずれかの画像をタッチすると、タッチされた画像に選択枠79が表示される。そして、選択を確定する場合には、OKボタン71をタッチする。したがって、OKボタン71がタッチされるまでは、いずれの画像も選択することができる。ОKボタン71がタッチされると、制御部5は、本ステップでの選択結果に基づいて、ステップS108で選択されたデザインに対応するテンプレート画像と、ユーザ取得画像とを合成した出力画像を生成する。出力画像に含まれるユーザ取得画像うち、ステップS214で選択した1枚の画像が他のものよりも大きくなっている。
(Step S214)
Subsequently, the control unit 5 allows the user to select an image to be enlarged on the printed sheet. That is, as shown in FIG. 14, the touch panel display 31 displays all the user-obtained images that have already been photographed, from which the image to be enlarged in the seal is selected. When the bonus shooting is performed, the user-acquired images also include the images shot in the bonus shooting. Then, when the user touches any image, a selection frame 79 is displayed on the touched image. Then, to confirm the selection, the OK button 71 is touched. Therefore, any image can be selected until the OK button 71 is touched. When the OK button 71 is touched, the control unit 5 generates an output image by synthesizing the template image corresponding to the design selected in step S108 and the user-obtained image based on the selection result in this step. . Among the user-obtained images included in the output image, one image selected in step S214 is larger than the others.

(ステップS216)
ステップS214では、制御部5は、出力処理部55として動作し、プリンタ35を利用して、シートのプリント処理を開始し、白紙のシートに出力画像を印刷する。そして、出力画像を、外部サーバに送信する。
(Step S216)
In step S214, the control unit 5 operates as the output processing unit 55, uses the printer 35, starts sheet print processing, and prints an output image on a blank sheet. Then, the output image is transmitted to the external server.

また、制御部5は、ステップS210で開始したプリント処理が完了したことに応じて、プリント処理が完了したことを示す案内をタッチパネルディスプレイ31に表示する。そして、制御部5は、シールを取出口36から排出する。 Further, in response to the completion of the print processing started in step S210, the control unit 5 displays on the touch panel display 31 a guide indicating that the print processing has been completed. Then, the controller 5 ejects the seal from the outlet 36 .

このとき、制御部5は、ステップS102で選択された枚数分のシートを印刷する。各画像を印刷した印刷シートを取出口36から排出した後、制御部5は、利用者に対して、シールを取り出し、撮影空間10の外へ出るように促す案内をタッチパネルディスプレイ31に表示する。利用者は、当該案内に従って、プリントされた印刷シートを取出口36から取り出し、撮影空間10から退出する。これにより、制御部5は、本動作例に係る撮影処理を終了する。 At this time, the controller 5 prints the number of sheets selected in step S102. After ejecting the print sheet on which each image is printed, the control unit 5 displays on the touch panel display 31 a guide prompting the user to take out the sticker and get out of the photographing space 10.例文帳に追加The user takes out the printed print sheet from the take-out port 36 according to the guidance and leaves the photographing space 10 . As a result, the control unit 5 terminates the imaging process according to this operation example.

<4-3.照明具におけるストロボ光の制御>
上記のように、本実施形態に係る撮影装置では、全身撮影及び3種類のアップ撮影を行うことができるようになっているが、それぞれの撮影において、最適なユーザ取得画像の生成を行えるように、ストロボ光の照射が制御されている。本実施形態では、第1~第3ストロボ発光管3311、3312,3324が設けられているため、上記各種の撮影においては、用いる発光管、及びストロボ光の強度が設定されている。以下、その設定の一例を示す。以下の表においては、ストロボ光の強度を5段階で示しており、4が最も強く、1が最も弱い。また、0はストロボ光を照射しないことを示している。但し、1~4は、各ストロボ発光管における相対的な光の強度の例を示しており、例えば、第1ストロボ発光管の「4」と、第3ストロボ発光管の「4」とは相違する。また、1~4は、おおよその強度の違いを示すものであり、絶対的な差を示すものではない。

Figure 2023021174000002
<4-3. Control of Strobe Light in Lighting Fixture>
As described above, the imaging apparatus according to the present embodiment is capable of performing full-body imaging and three types of close-up imaging. , strobe light irradiation is controlled. In the present embodiment, since the first to third strobe arc tubes 3311, 3312, and 3324 are provided, the arc tubes to be used and the intensity of the strobe light are set in the various types of photography described above. An example of the setting is shown below. In the table below, the intensity of the strobe light is indicated on a scale of 5, with 4 being the strongest and 1 being the weakest. Further, 0 indicates that strobe light is not emitted. However, 1 to 4 indicate examples of relative light intensity in each strobe arc tube. For example, "4" for the first strobe arc tube and "4" for the third strobe arc tube are different. do. Also, 1 to 4 indicate approximate differences in intensity, not absolute differences.
Figure 2023021174000002

全身撮影では、被写体の立ち位置の想定位置がすべての撮影の中で最もカメラ32及び各ストロボ発光管3311、3312,3324から遠く設定されている。被写体に十分に光を当てるために、すべてのストロボ発光管3311、3312,3324を用い、且つストロボ光の強度を最も高くしている。 In the whole-body photography, the assumed standing position of the subject is set farthest from the camera 32 and the strobe arc tubes 3311, 3312, and 3324 in all the photography. In order to illuminate the subject sufficiently, all strobe arc tubes 3311, 3312, and 3324 are used and the intensity of strobe light is maximized.

第1範囲のアップ撮影は、大人の顔付近を対象とするため、顔の位置に近い第1発光ユニット331の発光強度を強くすると被写体の顔にテカリが生じてしまう。そのため、第1発光ユニット331を構成する第1ストロボ発光管3311の光の強度を弱くしている。また、顔に強い直接光が照射されると、撮影画像の顔部分に不自然なハイライトが生じる可能性がある。そのため、第2ストロボ発光管3312は用いなくてもよい。そして、このような第1発光ユニット331の発光強度で撮影を行った場合、あごの周りにはあまり強い影は生じない。そのため、第2発光ユニット332の発光強度を強くしすぎると、あごの下が光っているようなバランスの悪い写真となってしまう。そこで、第2発光ユニット332を構成する第3ストロボ発光管3324は、ストロボ光の強度を弱くしている。 Since close-up photography in the first range targets the vicinity of an adult's face, if the light emission intensity of the first light emitting unit 331 near the face is increased, the subject's face will become shiny. Therefore, the intensity of the light emitted from the first strobe light emitting tube 3311 that constitutes the first light emitting unit 331 is reduced. Also, if the face is exposed to strong direct light, there is a possibility that unnatural highlights will appear in the face portion of the captured image. Therefore, the second strobe arc tube 3312 may not be used. When photographing is performed with such an emission intensity of the first light emitting unit 331, a strong shadow does not occur around the chin. Therefore, if the light emission intensity of the second light emitting unit 332 is increased too much, an unbalanced photograph will be obtained in which the area under the chin is illuminated. Therefore, the third strobe light emitting tube 3324 that constitutes the second light emitting unit 332 weakens the intensity of the strobe light.

第2範囲のアップ撮影では、身長の低い子供の顔付近を対象としているため、被写体である子供の顔は、大人の場合と比較して第1発光ユニット331から遠い位置となる。そのため、第1発光ユニット331の発光強度を大人の場合(第1範囲の場合)よりも強くする必要があり、第1発光ユニット331を構成する第1ストロボ発光管3311の光の強度を強めにしている。しかし、第1ストロボ発光管3311からのストロボ光は、身長の低い子供に対しては、大人よりも上方から照射される。そのため、顎などの下向きの部位に影が生じやすくなる。これを防止するため、下からストロボ光を照射する第3ストロボ発光管3324の光の強度を強めにしている。また、顔に強い直接光が照射されると、撮影画像の顔部分に不自然なハイライトが生じる可能性がある。そのため、第2ストロボ発光管3312は用いなくてもよい。 Since close-up photography in the second range targets the vicinity of the face of a short child, the face of the child, who is the subject, is positioned farther from the first light emitting unit 331 than in the case of an adult. Therefore, it is necessary to make the light intensity of the first light emitting unit 331 stronger than that for adults (in the case of the first range). ing. However, the strobe light from the first strobe light emitting tube 3311 is emitted from above for a child who is short in stature than for an adult. As a result, shadows are more likely to occur in downward-facing parts such as the chin. In order to prevent this, the intensity of the light from the third strobe arc tube 3324 that emits strobe light from below is increased. Also, if the face is exposed to strong direct light, there is a possibility that unnatural highlights will appear in the face portion of the captured image. Therefore, the second strobe arc tube 3312 may not be used.

第3範囲のアップ撮影では、身長の低い子供を含め、身長差のある多人数を対象としているため、被写体の立ち位置が、全身撮影よりも、カメラ32や各発光ユニット331,332から近く、他のアップ撮影よりも遠くなることを想定しているそのため、第1ストロボ発光管3311及び第3ストロボ発光管3324の光の強度を全身撮影よりもやや弱くし、他のアップ撮影よりもやや強くしている。また、顔に直接光が照射されるため、第2ストロボ発光管3312は用いない。 In the close-up photography in the third range, a large number of people with different heights, including short children, are targeted. It is assumed that it will be farther than other close-up shots. Therefore, the light intensity of the first strobe arc tube 3311 and the third strobe arc tube 3324 is made slightly weaker than that for full-body shooting, and slightly stronger than other close-up shots. are doing. In addition, since the face is directly irradiated with light, the second strobe arc tube 3312 is not used.

このように、本実施形態では、身体情報取得部521により、画像範囲(身体情報)が設定されると、これに基づき、発光制御部522が上記表1の設定にしたがって、ストロボ発光管3311、3312,3324のストロボ光の発光強度の設定を行う。例えば、発光制御部522は、ストロボ発光管3311、3312,3324に対して、設定された発光強度に応じた電圧を印加し、撮影時に、カメラ32のシャッターの駆動と連動するように、ストロボ光を照射する。なお、上記ストロボ光の発光強度及びその設定の説明は一例であり、他の設定も可能である。例えば、上記の例では各アップ撮影では直接光を照射する第2ストロボ発光管3312を用いていないが、弱い光を細かく制御できるような場合は適宜用いることも可能である。 As described above, in the present embodiment, when the image range (physical information) is set by the physical information acquiring unit 521, the light emission control unit 522 controls the strobe light emitting tube 3311, The emission intensity of the strobe light of 3312 and 3324 is set. For example, the light emission control unit 522 applies a voltage corresponding to the set light emission intensity to the strobe light emitting tubes 3311, 3312, and 3324, and controls the strobe light so as to interlock with the driving of the shutter of the camera 32 during photographing. to irradiate. Note that the above description of the emission intensity of the strobe light and its setting is an example, and other settings are also possible. For example, in the above example, the second strobe arc tube 3312 that directly emits light is not used in each close-up photographing, but it can be used as appropriate if weak light can be finely controlled.

また、上述したように、各ストロボ発光管3311、3312,3324からの光の発光強度を個別に設定するほか、カメラ32の上方に配置される第1発光ユニット331と、カメラ32の下方に配置される第2発光ユニット332との発光強度の関係を以下のように設定することもできる。すなわち、各発光ユニット331,332からの発光強度を調整できるのであれば、それら内部の各ストロボ発光管の個数やどれを発光させるか等は様々である。なお、以下の表の0~4の数値は、上述した表1と同じ意味で用いている。

Figure 2023021174000003
Further, as described above, in addition to individually setting the emission intensity of light from each of the strobe arc tubes 3311, 3312, and 3324, the first light emitting unit 331 arranged above the camera 32 and the first light emitting unit 331 arranged below the camera 32 The relationship of the light emission intensity with the second light emission unit 332 that is used can also be set as follows. That is, as long as the intensity of light emitted from each of the light emitting units 331 and 332 can be adjusted, the number of each strobe arc tube inside them and which one is to emit light can vary. Numerical values 0 to 4 in the following table have the same meanings as in Table 1 above.
Figure 2023021174000003

なお、上記表1及び表2の設定では、第1範囲の撮影における第2発光ユニット332からの総発光強度を、第2範囲の撮影における第2発光ユニット332からの総発光強度よりも弱くしているが、これを反対にしてもよい。例えば、顔の形状などによっては第1発光ユニット331からの光により、顎付近に影が強く生じる場合がある。その際、第1範囲の対象となる大人の顔付近は第2発光ユニット332から遠いため、第2発光ユニット332からの光の強度が弱いと、影を抑制できないことがある。そこで、このような状況の場合には、第1範囲の撮影における第2発光ユニット332からの総発光強度を、第2範囲の撮影における第2発光ユニット332からの総発光強度よりも強くすることができる。 Note that, with the settings in Tables 1 and 2 above, the total light emission intensity from the second light emitting units 332 in shooting the first range is made weaker than the total light intensity from the second light emitting units 332 in shooting the second range. However, this may be reversed. For example, depending on the shape of the face, the light from the first light emitting unit 331 may cast a strong shadow around the chin. At this time, since the vicinity of the adult's face, which is the target of the first range, is far from the second light emitting unit 332, if the intensity of the light from the second light emitting unit 332 is weak, the shadow may not be suppressed. Therefore, in such a situation, the total light emission intensity from the second light emitting units 332 in photographing the first range should be made stronger than the total light emission intensity from the second light emitting units 332 in photographing the second range. can be done.

<5.特徴>
以上のように、本実施形態によれば、アップ撮影において、被写体の身体的特徴、つまり、身長に応じた顔の位置が含まれる画像範囲を選択させている。すなわち、身体情報として顔の位置等を意味する画像範囲を取得する。そして、選択された画像範囲に応じて、第1発光ユニット331および第2発光ユニット332ボの発光強度を調整している。すなわち、被写体の身長に応じて、主として顔付近に照射されるストロボ光の強度を調整しているため、顔の位置に応じた最適なユーザ取得画像を生成することができる。
<5. Features>
As described above, according to the present embodiment, in close-up photography, an image range including the physical features of the subject, that is, the position of the face according to the height is selected. That is, an image range that means the position of the face or the like is acquired as physical information. Then, the light emission intensity of the first light emitting unit 331 and the second light emitting unit 332 is adjusted according to the selected image range. That is, since the intensity of strobe light emitted mainly to the vicinity of the face is adjusted according to the height of the subject, it is possible to generate an optimum user-acquired image according to the position of the face.

<6.変形例>
以上、本発明の一実施形態について説明したが、前述までの説明はあらゆる点において本発明の例示に過ぎない。本発明の範囲を逸脱することなく種々の改良や変形を行うことができることは言うまでもない。例えば、以下のような変更が可能である。なお、以下では、上記実施形態と同様の構成要素に関しては同様の符号を用い、上記実施形態と同様の点については、適宜説明を省略した。以下の変形例は適宜組み合わせ可能である。
<6. Variation>
Although one embodiment of the present invention has been described above, the above description is merely an example of the present invention in every respect. It goes without saying that various modifications and variations can be made without departing from the scope of the invention. For example, the following changes are possible. In addition, below, the same code|symbol is used about the component similar to the said embodiment, and description is abbreviate|omitted suitably about the point similar to the said embodiment. The following modified examples can be combined as appropriate.

<6.1>
上記実施形態では、アップ撮影用の3種類の画像範囲を設定しているが、これに限定されるものではなく、2種類、あるいは4種類以上の画像範囲を設定することもできる。すなわち、画像範囲の位置や大きさは適宜設定することができる。
<6.1>
In the above embodiment, three types of image ranges for close-up photography are set, but the present invention is not limited to this, and two types, or four or more types of image ranges may be set. That is, the position and size of the image range can be set as appropriate.

また、上記実施形態では、被写体の顔の位置に応じた画像範囲をユーザに選択させているが、これを自動で行うこともできる。すなわち、公知の顔認識技術により、撮影画像から顔の位置を検出し、これに基づいて画像範囲を設定することができる。複数の顔を検出した場合には、全ての顔が含まれるように画像範囲を設定することができる。このような顔の位置の検出及び画像範囲の設定は、制御部5の身体情報取得部521により行われる。 Further, in the above embodiment, the user is allowed to select an image range according to the position of the subject's face, but this can also be done automatically. That is, it is possible to detect the position of the face from the photographed image by a known face recognition technology, and set the image range based on this. If multiple faces are detected, the image range can be set to include all faces. Such detection of the face position and setting of the image range are performed by the physical information acquisition section 521 of the control section 5 .

また、身体情報は顔の位置(身長)のみならず、性別、年齢、皮膚の色、顔の形状、目の大きさ、人種など、種々の情報とすることができる。これらは、撮影画像から公知の画像認識技術によって、性別等を身体情報として検出し、身体情報取得部521が取得する。そして、検出された身体情報に基づいて、発光制御部522により、被写体に照射されるストロボ光を調整することができる。例えば、身体情報として、被写体の皮膚の色が濃いことを検出した場合には、ストロボ光の発光強度を強くすることができる。 Also, the physical information is not limited to face position (height), but can be various information such as sex, age, skin color, face shape, eye size, and race. The physical information acquisition unit 521 acquires the physical information such as gender by detecting the physical information from the photographed image by a known image recognition technology. Then, based on the detected physical information, the light emission control unit 522 can adjust the strobe light emitted to the subject. For example, when it is detected as physical information that the subject's skin color is dark, the emission intensity of strobe light can be increased.

<6.2>
上記実施形態では、身体情報に基づいて、(1)ストロボ光を照射するストロボ発光管の選択、及び(2)ストロボ光の発光強度の調整、の両者の制御を行っているが、いずれか一方のみを行ってもよい。また、各ストロボ発光管を個別に調整するほか、すべてのストロボ光、あるいは各発光ユニットからの総発光強度の調整を行ってもよい。
<6.2>
In the above embodiment, both (1) selection of the strobe arc tube for emitting strobe light and (2) adjustment of the emission intensity of the strobe light are controlled based on physical information. may only be performed. Further, in addition to adjusting each strobe arc tube individually, it is also possible to adjust all strobe light or the total emission intensity from each light emitting unit.

<6.3>
上述した各発光ユニット331,332の構成は、一例であり、内部に配置されるストロボ発光管の数、位置、仕様、蛍光灯、ランプなどの構成は特には限定されず、適宜変更可能である。また、上記実施形態では、撮影時に被写体に照射する光としてストロボ光を採用しているが、これに限定されるものではなく、撮影用に被写体を照らすことができる光であれば、特には限定されず、また、そのような光を照射できるものであれば、光源も特には限定されない。
<6.3>
The configuration of each of the light emitting units 331 and 332 described above is an example, and the number, position, specifications, configuration of fluorescent lamps, lamps, etc., arranged inside are not particularly limited, and can be changed as appropriate. . Further, in the above embodiment, strobe light is used as the light to irradiate the subject at the time of photographing. Also, the light source is not particularly limited as long as it can irradiate such light.

<6.4>
身体情報により、被写体が子供であることを検出した場合には、ストロボ光を照射しないようにすることもできる。これは、ストロボ光の照射に子供が驚き、カメラ側を向かないことがあることによる。このような場合には、ストロボ光の代わりに、蛍光灯やランプを明るくしたり、あるいはカメラのISO感度を上げることにより、ストロボ光を照射するのと同等の明るさの写真を撮影することができる。
<6.4>
If it is detected that the subject is a child based on the physical information, it is possible not to emit strobe light. This is because children may be surprised by the irradiation of the strobe light and may not face the camera. In such cases, instead of using strobe light, you can use a brighter fluorescent lamp or lamp, or increase the camera's ISO sensitivity to take pictures with the same brightness as when using strobe light. can.

<6.5>
上記実施形態では、取得した身体情報をストロボ光の制御に用いたが、これを画像補正に用いることもできる。画像補正としては、例えば、目の大きさ、顔の形状、顔の皮膚の色などを変更する処理を採用することができる。そして、例えば、身体情報として、子供が検出された場合には、補正を行わず、大人が検出された場合には、各種の補正を行うようにすることができる。その他、例えば、身体情報として人種を取得する場合、アジア系の黄色人種は目の大きさが小さいことがあるため、被写体がアジア系の人であることが検出されたときには、目を大きくする補正を適用することができる。一方、その他の白色人種等の総じて目が大きい人種であることが検出された場合には、目を大きくする補正を行わないようにすることできる。
<6.5>
In the above embodiment, the physical information obtained is used for strobe light control, but it can also be used for image correction. As the image correction, for example, a process of changing the size of the eyes, the shape of the face, the skin color of the face, and the like can be adopted. Then, for example, when a child is detected as physical information, no correction is performed, and when an adult is detected, various corrections can be performed. In addition, for example, when acquiring race as physical information, Asian yellow race may have small eyes, so when it is detected that the subject is Asian, corrections can be applied. On the other hand, when it is detected that the subject is generally of a race with large eyes, such as other races of Caucasian race, correction for enlarging the eyes can be avoided.

上述した補正は、ユーザ取得画像の大きさによって変更することができる。例えば、全身撮影で取得されるユーザ取得画像内の被写体の顔の大きさと、アップ撮影で取得されるユーザ取得画像内の被写体の顔の大きさとは、相違する。つまり、同じ被写体であっても、全身撮影でのユーザ取得画像内の顔の大きさは、アップ撮影でのユーザ取得画像内の顔の大きさよりも小さい。したがって、例えば、全身撮影での被写体の目の大きさの補正は、補正をわかりやすくするため、アップ撮影よりも目をやや大きくすることができる。このように、ユーザ取得画像内での補正対象の大きさに応じて、補正を変更することができる。なお、このような補正は、ライブビュー及び静止画の生成のいずれにも適用することができる。ライビューにおいて補正を行う場合には、例えば、動画を構成するフレーム毎に身体情報の検出を行った上で、補正を行うことができる。 The corrections described above may vary depending on the size of the user-acquired image. For example, the size of the subject's face in the user-acquired image acquired by whole-body shooting differs from the size of the subject's face in the user-acquired image acquired by close-up shooting. That is, even for the same subject, the size of the face in the user-acquired image in full-body shooting is smaller than the size of the face in the user-acquired image in close-up shooting. Therefore, for example, when correcting the size of the subject's eyes in full-body photography, the eyes can be made slightly larger than in close-up photography in order to make the correction easier to understand. In this manner, the correction can be changed according to the size of the correction target within the user-acquired image. Note that such correction can be applied to both live view and still image generation. When performing correction in live view, for example, body information can be detected for each frame constituting a moving image, and then correction can be performed.

<6.6>
出力画像が印刷された印刷シートは、種々の形態にすることができるが、例えば、図15に示す形態にすることができる。ここでは、説明の便宜上、図15の上下、左右方向にしたがって説明を行うこととする。また、ここでは、説明の便宜のため、図15に示すシートに1つの画像のみを表示しているが、あくまでも一例であり、その他、例えば、上述したステップS108で選択したシールデザインに、ユーザ取得画像が印刷されたものとすることができる。図15の例では、印刷シートに印刷された出力画像は、ユーザ取得画像と、切り取り線150と、切込み用線801,802,803とを含む。この印刷シートには、ユーザ取得画像が印刷された画像配置領域500と、この画像領域500のいずれかの縁部に切り取り線150を介して一体的に連結された帯状の支持部領域600とが設けられている。そして、後述するように、印刷シートから切り離された画像領域500は、画像シート700を構成し、支持部領域600は、支持部800を構成するようになっている。なお、図15では、画像領域500の下縁に支持部領域600が連結されているが、画像領域500のいずれの縁部に連結されていてもよい。
<6.6>
The print sheet on which the output image is printed can be in various forms, and for example, can be in the form shown in FIG. Here, for convenience of explanation, the explanation will be made according to the vertical and horizontal directions of FIG. 15 . Also, here, for convenience of explanation, only one image is displayed on the sheet shown in FIG. 15, but it is only an example. The image can be printed. In the example of FIG. 15, the output image printed on the print sheet includes the user-acquired image, the tear line 150, and the score lines 801,802,803. This print sheet has an image placement area 500 on which a user-obtained image is printed, and a strip-shaped support area 600 integrally connected to one of the edges of this image area 500 via a perforation line 150 . is provided. As will be described later, the image area 500 separated from the printing sheet constitutes the image sheet 700 , and the supporting portion area 600 constitutes the supporting portion 800 . 15, the support area 600 is connected to the lower edge of the image area 500, but may be connected to any edge of the image area 500. FIG.

支持部領域600は、切り取り線150を切断して、画像領域500から切り離されると、帯状の支持部800となり、図16に示すように、環状に形成されるように組み立てられる。そのため、支持部領域600の右端部の上部には、上下方向に延びる第1切込み用線801が形成され、左端部の下部には、上下方向に延びる第2切込み用線801が形成されている。そして、これら切込み用線801,802を切断して切込みを形成した後、これら切込みを係合させると、図16に示す環状の支持部800が形成される。 The support area 600 is separated from the image area 500 by cutting the tear line 150 to form a belt-like support area 800, which is assembled to form a ring as shown in FIG. Therefore, a vertically extending first cutting line 801 is formed in the upper part of the right end of the support region 600, and a second vertically extending line of cutting 801 is formed in the lower part of the left end. . After cutting the lines 801 and 802 for cutting to form cuts, the cuts are engaged to form the annular support portion 800 shown in FIG.

また、この支持部領域600の中央の上部には、所定間隔をおいて2カ所に上下方向に延びる第3切込み用線803が形成されている。そのため、第3切込み用線803を切断して第3切込みを形成し、支持部800を環状に組み立てた後、印刷シートから切り離された画像シート700を第3切込みに係合させると、図17に示すように、写真立てを構成することができる。 Further, in the upper part of the center of the support region 600, third cut lines 803 extending vertically are formed at two locations with a predetermined interval. Therefore, after the third cut line 803 is cut to form the third cut and the support portion 800 is assembled into a ring shape, the image sheet 700 separated from the printing sheet is engaged with the third cut, as shown in FIG. A photo frame can be configured as shown in FIG.

なお、支持部800の構成は、特には限定されず、上記のように環状のほか、U字状に形成することもできる。すなわち、第1及び第2切込み用線801、802を設けず、第3切込み用線803に画像シート700を係合させることで、支持部800をU字状に保持することができる。第3切込み用線803の位置、数も特には限定されない。また、印刷領域に印刷される画像は適宜変更することができる。さらに、切り取り線150及び各切込み用線801~803は、印刷によるものであるが、あらかじめミシン目を形成しておき、切断しやすくすることもできる。 Note that the configuration of the support portion 800 is not particularly limited, and may be formed in a U shape as well as in a ring shape as described above. That is, by engaging the image sheet 700 with the third line 803 for cutting without providing the first and second lines 801 and 802 for cutting, the support portion 800 can be held in a U shape. The position and number of the third cutting lines 803 are also not particularly limited. Also, the image printed in the print area can be changed as appropriate. Furthermore, although the perforation line 150 and the cut lines 801 to 803 are printed, perforations may be formed in advance to facilitate cutting.

<6.7>
上記実施形態では、電子ペンにより、タッチパネルディスプレイ31をタッチすることで、入力を行っているが、指でタッチすることで入力を行ってよく、あるいは物理的なボタン等の入力部を設けて入力を行うこともできる。また、入力は、音声により行うこともできる。すなわち、ユーザが、操作指示を声を発することで行い、これを受信することで、制御部5が操作を行うこともできる。
<6.7>
In the above embodiment, input is performed by touching the touch panel display 31 with an electronic pen, but input may be performed by touching with a finger, or by providing an input unit such as a physical button. can also be done. Input can also be performed by voice. In other words, the user can issue an operation instruction by voice, and the control unit 5 can operate by receiving the operation instruction.

<6.8>
上記実施形態では、撮影画像からユーザ取得画像のトリミングを行い、トリミング後の画像を選択画面(図9,図11,及び図13)に表示しているが、ユーザ取得画像の表示の態様はこれに限定されない。例えば、上記のようなトリミングを行うことなく、撮影画像の周囲をマスクし、ユーザ取得画像のみが表示されるように、撮影画像自体(またはその一部)を選択画面に表示することもできる。要するに、ユーザ取得画像で規定される画像範囲が画面に表示されればよい。なお、選択対象となるライブビューとしてユーザに見えている複数の画像の大きさは、すべて同じまたは略同一とすることができる。
<6.8>
In the above embodiment, the user-obtained image is trimmed from the captured image, and the trimmed image is displayed on the selection screen (FIGS. 9, 11, and 13). is not limited to For example, the captured image itself (or part thereof) can be displayed on the selection screen by masking the surroundings of the captured image without trimming as described above so that only the user-obtained image is displayed. In short, it is sufficient that the image range defined by the user-obtained image is displayed on the screen. It should be noted that the sizes of a plurality of images viewed by the user as live views to be selected may all be the same or substantially the same.

<6.9>
また、撮影画像から、トリミングやマスクによりユーザ取得画像を生成する以外に、例えば、物理的なカメラの向きの変更、あるいは光学的なズームアップ及びズームアウトにより、ユーザ取得画像の画像範囲を決めてもよい。すなわち、カメラによる撮影画像をユーザ取得画像とすることもできる。さらには、カメラの向きの変更、ズームアップ及びズームアウトと、トリミング及びマスクと、を混在してユーザ取得画像の画像範囲を設定することもできる。
<6.9>
In addition to generating a user-acquired image from a captured image by trimming or masking, for example, the image range of the user-acquired image can be determined by physically changing the orientation of the camera or by optically zooming in and out. good too. That is, an image captured by a camera can be used as the user-obtained image. Furthermore, it is also possible to set the image range of the user-acquired image by mixing camera direction change, zooming up and zooming out, and trimming and masking.

<6.10>
上記実施形態では、全身撮影とアップ撮影の2種類を行っているが、アップ撮影のみでもよい。また、アップ撮影後に、撮影待ちをしているユーザがいない場合には、ボーナス撮影を行っているが、ボーナス撮影に代えて、撮影のやり直しを行うこともできる。すなわち、全身撮影またはアップ撮影の少なくとも1つを行い、既に撮影した全身撮影及びアップ撮影に係るユーザ取得画像と入れ替えることもできる。このとき、新たに生成したユーザ取得画像と、既に生成したユーザ取得画像とを比較し、既に生成したユーザ取得画像をそのまま維持することもできる。また、このようなボーナス撮影または撮影のやり直しを、撮影待ちのユーザの有無にかかわらず行ってもよいし、あるいは、全く行わないようにしてもよい。
<6.10>
In the above-described embodiment, two types of photographing, full-body photographing and close-up photographing, are performed, but only close-up photographing is also possible. Also, after close-up photography, when there is no user waiting for photography, bonus photography is performed, but instead of bonus photography, photography can be redone. That is, at least one of full-body photography and close-up photography can be performed, and user-acquired images related to full-body photography and close-up photography that have already been photographed can be replaced. At this time, the newly generated user-acquired image and the already generated user-acquired image can be compared, and the already generated user-acquired image can be maintained as it is. In addition, such bonus shooting or redoing shooting may be performed regardless of whether or not there is a user waiting for shooting, or may not be performed at all.

<6.11>
上記実施形態に係る撮影装置では、出力処理部55が、シートの印刷を行うことで、ユーザ取得画像の出力を行っているが、シートや、ユーザ取得画像のデータを出力することもできる。この場合、電子データは、ユーザの携帯端末に直接送信したり、あるいは外部サーバに送信後、当該サーバからユーザがインターネットを介して取得することもできる。
<6.11>
In the imaging apparatus according to the above-described embodiment, the output processing unit 55 outputs the user-acquired image by printing a sheet, but it is also possible to output the sheet and the data of the user-acquired image. In this case, the electronic data can be directly transmitted to the mobile terminal of the user, or transmitted to an external server and then acquired by the user from the server via the Internet.

<6.12>
上記実施形態に係る撮影装置においては、画像の編集を行うこともできる。すなわち、ユーザ取得画像やシートに対して、画像の編集作業を行うことができるようにしてもよい。また、上述したタッチパネルディスプレイ31に表示される画面の構成は一例であり、適宜変更することができる。
<6.12>
In the photographing device according to the above embodiment, it is also possible to edit images. That is, the image editing work may be performed on the user-obtained image or sheet. Also, the configuration of the screen displayed on the touch panel display 31 described above is an example, and can be changed as appropriate.

32…カメラ(撮影部)
5…制御部
521…身体情報取得部
522…発光制御部
32 Camera (shooting unit)
5... Control unit 521... Physical information acquisition unit 522... Light emission control unit

Claims (6)

利用者を被写体として撮影する撮影部と、
前記撮影部による撮影のタイミングにおいて、被写体に光を照射する発光部と、
前記利用者の身体的特徴に関する身体情報を取得する身体情報取得部と、
取得した前記身体情報に基づいて、前記発光部から照射される光の制御を行う、発光制御部と、
を備えている、撮影装置。
a photographing unit for photographing a user as a subject;
a light emitting unit that irradiates a subject with light at the timing of photographing by the photographing unit;
a physical information acquisition unit that acquires physical information related to the physical characteristics of the user;
a light emission control unit that controls light emitted from the light emitting unit based on the acquired physical information;
A photographic device equipped with
前記発光部は、
前記撮影部よりも上方に配置されて光を照射する第1発光ユニットと、前記撮影部よりも下方に配置されて光を照射する第2発光ユニットと、を備え、
前記発光制御部は、
前記身体情報に基づいて、前記各発光ユニットから照射される光を個別に制御する、請求項1に記載の撮影装置。
The light emitting unit
A first light emitting unit that is arranged above the imaging unit and emits light, and a second light emitting unit that is arranged below the imaging unit and emits light,
The light emission control unit
2. The photographing device according to claim 1, wherein the light emitted from each of said light emitting units is individually controlled based on said physical information.
前記発光制御部は、前記身体情報に基づいて、身長が所定高さより低い利用者用の第1撮影モード、及び前記所定高さよりも高い利用者用の第2撮影モードのいずれかを判別し、
前記第1撮影モードである場合には、前記第1発光ユニットから照射される光の総発光強度が、前記第2撮影モードにおける前記総発光強度よりも強くなるように、前記第1発光ユニットを制御する、請求項2に記載の撮影装置。
The light emission control unit determines, based on the physical information, either a first shooting mode for users whose height is lower than a predetermined height or a second shooting mode for users whose height is higher than the predetermined height,
In the case of the first photographing mode, the first light emitting unit is adjusted so that the total light emission intensity of the light emitted from the first light emitting unit is stronger than the total light emission intensity in the second photographing mode. 3. The imager of claim 2, wherein the imager controls.
前記発光制御部は、前記身体情報に基づいて、身長が所定高さより低い利用者用の第1撮影モード、及び前記所定高さよりも高い利用者用の第2撮影モードのいずれかを判別し、
前記第2撮影モードである場合には、前記第2発光ユニットから照射される光の総発光強度が、前記第1撮影モードにおける前記総発光強度よりも強くなるように、前記第2発光ユニットを制御する、請求項2または3に記載の撮影装置。
The light emission control unit determines, based on the physical information, either a first shooting mode for users whose height is lower than a predetermined height or a second shooting mode for users whose height is higher than the predetermined height,
In the case of the second photographing mode, the second light emitting unit is adjusted so that the total light emission intensity of the light emitted from the second light emitting unit is stronger than the total light emission intensity in the first photographing mode. 4. The imaging device according to claim 2 or 3, which controls.
被写体である利用者の身体的特徴に関する身体情報を取得するステップと、
取得した前記身体情報に基づいて利用者に照射される光の制御を行いつつ、前記被写体の撮影を行うステップと、
を備えている、撮影方法。
a step of acquiring physical information about the physical characteristics of a user who is a subject;
a step of photographing the subject while controlling light emitted to the user based on the acquired physical information;
A shooting method.
コンピュータに、
被写体である利用者の身体的特徴に関する身体情報を取得するステップと、
取得した前記身体情報に基づいて利用者に照射される光の制御を行いつつ、前記被写体の撮影を行うステップと、
を実行させる、撮影処理プログラム。
to the computer,
a step of acquiring physical information about the physical characteristics of a user who is a subject;
a step of photographing the subject while controlling light emitted to the user based on the acquired physical information;
A shooting processing program that executes
JP2022192440A 2017-10-20 2022-11-30 Imaging apparatus, imaging method, and imaging processing program Withdrawn JP2023021174A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2022192440A JP2023021174A (en) 2017-10-20 2022-11-30 Imaging apparatus, imaging method, and imaging processing program

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017204034A JP7260730B2 (en) 2017-10-20 2017-10-20 Imaging device, imaging method, and imaging processing program
JP2022192440A JP2023021174A (en) 2017-10-20 2022-11-30 Imaging apparatus, imaging method, and imaging processing program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017204034A Division JP7260730B2 (en) 2017-10-20 2017-10-20 Imaging device, imaging method, and imaging processing program

Publications (1)

Publication Number Publication Date
JP2023021174A true JP2023021174A (en) 2023-02-09

Family

ID=66627815

Family Applications (2)

Application Number Title Priority Date Filing Date
JP2017204034A Active JP7260730B2 (en) 2017-10-20 2017-10-20 Imaging device, imaging method, and imaging processing program
JP2022192440A Withdrawn JP2023021174A (en) 2017-10-20 2022-11-30 Imaging apparatus, imaging method, and imaging processing program

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2017204034A Active JP7260730B2 (en) 2017-10-20 2017-10-20 Imaging device, imaging method, and imaging processing program

Country Status (1)

Country Link
JP (2) JP7260730B2 (en)

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7388530B2 (en) * 2020-02-18 2023-11-29 日本電気株式会社 Gate device, gate device control method and program

Family Cites Families (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003107574A (en) * 2001-09-27 2003-04-09 Dainippon Printing Co Ltd Photography system
JP3542352B1 (en) * 2003-08-21 2004-07-14 株式会社メイクソフトウェア Photo taking method in photo vending machine, photo vending machine, and control program for photo vending machine

Also Published As

Publication number Publication date
JP2019078823A (en) 2019-05-23
JP7260730B2 (en) 2023-04-19

Similar Documents

Publication Publication Date Title
JP6206707B2 (en) Imaging apparatus and display control method
JP2023021174A (en) Imaging apparatus, imaging method, and imaging processing program
JP6098879B2 (en) Image providing system, image providing method, and image providing apparatus
US20040076414A1 (en) Photography print system and method of controlling the same
JP2016133977A (en) Picture shooting game machine, image creation method and image creation program
JP7014953B2 (en) Image processing device and image processing method
JP2004159158A (en) Method and device for providing photographic print
JP2019012153A (en) Image acquisition system
JP6201397B2 (en) Photo sticker creation apparatus and method, and program
JP7021432B2 (en) Imaging equipment, image processing methods, and image processing programs
JP2017037271A (en) Game imaging device
JP6820478B2 (en) Imaging device
JP6493587B1 (en) Imaging apparatus, image processing method, and image processing program
JP6156559B2 (en) Game shooting device, game shooting method, and program
JP2016042641A (en) Photographing game device, image processing method, and image processing program
JP5967275B2 (en) Photographic game machine, its control method and control computer
JP6090369B2 (en) Game shooting device, game shooting method and program
JP2014154927A (en) Photograph shooting play machine and control program of the same
JP6455550B2 (en) Photo sticker creation apparatus and display control method
JP2019134345A (en) Photographing apparatus, image processing method, and image processing program
JP6468386B2 (en) PHOTOGRAPHIC GAME DEVICE, IMAGE PROCESSING METHOD, AND IMAGE PROCESSING PROGRAM
JP2004109642A (en) Photographic print creation device
JP2024040975A (en) Image processing apparatus and program
JP5967283B2 (en) Photo shooting game machine, its control method and control program
JP4261237B2 (en) Automatic photo creation device

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221228

A761 Written withdrawal of application

Free format text: JAPANESE INTERMEDIATE CODE: A761

Effective date: 20230313