JP2004015735A - Image printing apparatus and method, printing medium, and printing medium unit - Google Patents

Image printing apparatus and method, printing medium, and printing medium unit Download PDF

Info

Publication number
JP2004015735A
JP2004015735A JP2002170388A JP2002170388A JP2004015735A JP 2004015735 A JP2004015735 A JP 2004015735A JP 2002170388 A JP2002170388 A JP 2002170388A JP 2002170388 A JP2002170388 A JP 2002170388A JP 2004015735 A JP2004015735 A JP 2004015735A
Authority
JP
Japan
Prior art keywords
image
pose
user
unit
person image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2002170388A
Other languages
Japanese (ja)
Other versions
JP4123346B2 (en
Inventor
Tadashi Maeda
前田 匡
Yukiro Arimoto
有元 幸郎
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Omron Corp
Original Assignee
Omron Corp
Omron Tateisi Electronics Co
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Omron Corp, Omron Tateisi Electronics Co filed Critical Omron Corp
Priority to JP2002170388A priority Critical patent/JP4123346B2/en
Publication of JP2004015735A publication Critical patent/JP2004015735A/en
Application granted granted Critical
Publication of JP4123346B2 publication Critical patent/JP4123346B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)
  • Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image printing apparatus and method, a printing medium and a printing medium unit which provides a user with more interesting photographing. <P>SOLUTION: An image of the user captured by a CCD 13 is superimposed on a pose image in which a character selected by the user strikes a prescribed pose, and displayed on an image display part 14. Since the degree of matching between the pose image and the image of the user is displayed on the image display part 14, the user can correct his/her posture while confirming the pose image and his/her own image displayed on the image display part 14 so that a higher degree of matching is displayed. When the degree of matching exceeds a prescribed threshold, photographing is performed, and the image of the user which has been captured by the CCD 13 is saved. The saved image is edited, printed on seal paper and provided to the user. This invention may be applied to an image printing apparatus as an automatic photographic seal vending machine. <P>COPYRIGHT: (C)2004,JPO

Description

【0001】
【発明の属する技術分野】
本発明は、特に、ユーザに、より面白みのある撮影を提供できるようにする画像印刷装置および方法、印刷媒体、並びに印刷媒体ユニットに関する。
【0002】
【従来の技術】
従来、ユーザの画像を撮影し、これを予め用意されたフレーム画像と合成してシール紙などに印刷して提供する、いわゆる「プリント倶楽部(登録商標)」などの画像印刷装置が知られている。
【0003】
この画像印刷装置の中には、ユーザに好みのポーズを選択させ、選択したポーズを真似ているユーザの姿を撮影するものも存在する。例えば、所定の選択画面において選択したポーズ画像が、画面の隅などの所定の位置に表示されるため、ユーザは、それを確認しながら同様のポーズをとり、撮影を行うことができる。
【0004】
【発明が解決しようとする課題】
しかしながら、画面の隅などの所定の位置に表示されているポーズ画像を確認しながら撮影を行う場合、表示されているポーズを忠実に真似することが困難であるという課題があった。従って、撮影された画像に写っているポーズ(ユーザの画像)と、選択したポーズとがかけ離れたものとなっていることがある。
【0005】
例えば、有名人がとっているポーズを忠実に真似することができた場合、ユーザは、あたかも自分がその有名人になっているような感覚を得ることができ、撮影をより面白みのあるものとすることができる。
【0006】
本発明はこのような状況に鑑みてなされたものであり、ユーザに、より面白みのある撮影を提供できるようにするものである。
【0007】
【課題を解決するための手段】
本発明の画像印刷装置は、ユーザのポーズを誘導する、所定のポーズの人物画像の選択を受け付ける受付手段と、被写体を撮影する撮影手段と、選択された第1の人物画像に、撮影された被写体としての第2の人物画像を重畳して表示する表示制御手段と、所定のタイミングにおいて撮影されている第2の人物画像を保存する保存手段とを備えることを特徴とする。
【0008】
この画像印刷装置は、例えば、写真シール自販機として利用されるようにすることができる。
【0009】
本発明の画像印刷装置は、前記第1の人物画像を記憶する記憶手段をさらに備えるようにすることができる。
【0010】
また、前記第1の人物画像(ユーザのポーズを誘導する、所定のポーズの人物画像)は、本発明の画像印刷装置とネットワークを介して接続されている所定のサーバに用意しておくようにしてもよい。この場合、画像印刷装置からサーバに対して、ユーザにより選択された人物画像の送信が要求され、その要求に応じて、サーバから画像印刷装置に人物画像のデータが送信される。
【0011】
このように、サーバに人物画像を記憶させ、記憶されているデータを管理することで、容易に、そのときの流行に応じた人物画像を配信することができる。
【0012】
本発明の画像印刷装置は、表示制御手段により重畳して表示されている、第1の人物画像と第2の人物画像の重畳の度合いを算出する算出手段をさらに備えるようにすることができる。このとき、前記保存手段は、算出された重畳の度合いが所定の閾値以上であるときの第2の人物画像を保存する。
【0013】
算出手段により算出された重畳の度合いを表す情報を表示する重畳度合い表示手段をさらに備えるようにすることができる。
【0014】
表示されている重畳度合いを確認することで、ユーザは、自分が第1の人物画像により表されるポーズを忠実に真似できているか否かを確認することができる。また、ゲーム性が増し、より面白みのある撮影を提供することができる。
【0015】
この重畳の度合いを表す情報は、例えば、数字、インジケータ、キャラクタの顔の表情などとすることができる。また、度合いに応じて、音声が出力されるようにしてもよい。
【0016】
保存手段により保存された画像を、重畳の度合いを表す情報とともに所定の印刷媒体に印刷する印刷手段をさらに備えるようにすることができる。
【0017】
表示制御手段は、第1の人物画像の、第2の人物画像と重畳していない領域が、所定の色または点滅により表示されるように表示を制御するようにすることができる。
【0018】
重畳されていない領域が、所定の色や点滅により目立つように表示されるため、ユーザは、第1の人物画像と自分の画像の重なっていない領域を容易に確認でき、より迅速に、かつ忠実に第1の人物画像のポーズを真似ることができる。
【0019】
保存手段は、ユーザからの指示があることに基づいて、撮影手段により撮影されている画像を保存するようにすることができる。
【0020】
本発明の画像印刷装置の画像印刷方法は、ユーザのポーズを誘導する、所定のポーズの人物画像の選択を受け付ける受付ステップと、被写体を撮影する撮影ステップと、選択された第1の人物画像に、撮影された被写体としての第2の人物画像を重畳して表示する表示制御ステップと、撮影ステップの処理により、所定のタイミングにおいて撮影されている第2の人物画像を保存する保存ステップとを含むことを特徴とする。
【0021】
本発明の画像印刷装置および方法においては、ユーザのポーズを誘導する、所定のポーズの人物画像の選択が受け付けられ、選択が受け付けられた第1の人物画像に、撮影され、得られた第2の人物画像が重畳して表示される。また、所定のタイミングにおいて撮影されている第2の人物画像が保存される。
【0022】
これにより、より面白みのある撮影を提供することができる。
【0023】
本発明の印刷媒体は、ユーザのポーズを誘導する、所定のポーズの人物画像の選択を受け付ける受付ステップと、被写体を撮影する撮影ステップと、選択された第1の人物画像に、撮影された被写体としての第2の人物画像を重畳して表示する表示制御ステップと、撮影ステップの処理により、所定のタイミングにおいて撮影されている第2の人物画像を保存する保存ステップとを含む画像印刷方法により印刷されることを特徴とする。
【0024】
本発明の印刷媒体ユニットは、ユーザのポーズを誘導する、所定のポーズの人物画像の選択を受け付ける受付手段と、被写体を撮影する撮影手段と、選択された第1の人物画像に、撮影された被写体としての第2の人物画像を重畳して表示する表示制御手段と、所定のタイミングにおいて撮影されている第2の人物画像を保存する保存手段とを備える画像印刷装置において使用される印刷媒体ユニットであって、印刷媒体ユニットを識別するユニット識別情報を記憶する識別情報記憶手段を備え、記憶されているユニット識別情報が画像印刷装置により認証されたとき使用可能とされることを特徴とする。
【0025】
識別情報記憶手段は、例えば、ICタグ(制御タグ)、ICカード等のメモリにより構成され、ユニット識別情報としての固有のIDを記憶する。
【0026】
このように、識別情報が認証されたときにのみ印刷媒体ユニットが使用可能とされることにより、本発明の第1の画像印刷装置に対して生産されたユニットのみが使用可能となり、いわゆる純正品以外のものが使用されることを抑制することができる。また、印刷媒体ユニットにバーコードなどが付されている場合、そのバーコードにより、純正品であるか否かを判断させるようにしてもよい。
【0027】
【発明の実施の形態】
図1は、本発明を適用した、写真シール自販機としての画像印刷装置1の構成例を示す斜視図である。
【0028】
筐体11の上方の垂直な面11aには撮影装置12が設けられている。撮影装置12は、面11aに上下方向に配設されているレール(図示せず)に従って、上下方向に移動可能とされている。すなわち、被写体であるユーザは、撮影装置12を上下方向に移動させて、好みの角度で撮影することができる。
【0029】
撮影装置12は、被写体を撮影するためのCCD(Charge Coupled Device)13と、CCD13により取り込まれている画像(動画像)を表示する画像表示部14により構成されている。画像表示部14がCCD13の近傍に設けられているため、ユーザは、CCD13に視線を向けた状態で、画像表示部14に表示される自分自身の画像を確認しながら、撮影を行うことができる。
【0030】
撮影装置12の左右には、フラッシュ照射部15−1および15−2が設けられており、フラッシュ照射部15−1および15−2は、筐体11の内部に設けられている照明装置からのフラッシュ光を透過し、被写体を照射する。
【0031】
筐体11の、若干上方を向いている面11bの中央には、LCD(Liquid CrystalDisplay)またはCRT(Cathode−Ray Tude)により構成される表示部16が設けられている。表示部16には、撮影した画像の他に、撮影処理や印刷処理の行程に応じて、様々な選択ボタン、或いはメッセージなどが表示され、ユーザは、表示部16の近傍に設けられる入力ペン17−1または17−2を利用して、撮影処理や編集処理を行う。
【0032】
筐体11の左側面11dには、硬貨投入口18が設けられている。ユーザは、画像印刷装置1を利用して撮影するとき、所定の代金を硬貨投入口18に投入する。また、面11dには、シール取出口19が設けられており、そこから、編集が施された画像がそれぞれ所定の大きさで印刷されたシール紙が排出される。
【0033】
以上のような外観構成を有する画像印刷装置1においては、ユーザは、予め用意されているものの中から選択した、例えば、有名人などの人物が所定のポーズを取っている画像(ユーザのポーズを誘導する画像)を画像表示部14に表示させ、そのポーズを真似ている自分自身の画像を撮影することができる。以下、ユーザのポーズを誘導する、画像表示部14に表示される画像を、適宜、ポーズ画像と称する。
【0034】
また、画像表示部14にポーズ画像が表示されているとき、CCD13により取り込まれているユーザ(被写体)の画像と、ポーズ画像が重畳して表示されるため、ユーザは、その表示を確認しながら自分の体勢を修正することで、選択したポーズをより迅速に、かつ忠実に真似ることができる。
【0035】
画像印刷装置1の処理についてはフローチャートを参照して後に詳述する。
【0036】
図2は、図1の画像印刷装置1の内部の構成例を示すブロック図である。上述したものと同様の構成について、その詳細な説明は適宜省略する。
【0037】
制御装置31は、パーソナルコンピュータなどにより構成され、画像印刷装置1の全体の動作を制御する。具体的には、制御装置31に設けられているCPU(Central Processing Unit)61により、ROM(Read Only Memory)62や記憶部66(いずれも図3参照)に記憶されているプログラムが実行され、そのプログラムに従って、撮影処理や画像の編集処理が進行される。
【0038】
硬貨処理部32は、ユーザにより所定の代金が硬貨投入口18に投入されたとき、それを検出し、制御装置31に通知する。照明制御部33は、制御装置31からの指示に基づいて、撮影装置12が被写体を撮影するタイミングに併せてフラッシュ光を出射する。出射されたフラッシュ光は、図1のフラッシュ照射部15−1および15−2を介して被写体(ユーザ)を照射する。
【0039】
プリンタユニット34は、プリンタ部41と制御タグリーダライタ42により構成され、プリンタユニット34に装着されるシール紙ユニット35は、シール紙51と、個々のシール紙ユニット35を識別する識別情報等を管理する制御タグ52により構成される。
【0040】
プリンタ部41は、編集処理が施された画像データが制御装置31から供給されてきたとき、供給された画像データにより表される画像を、ユーザにより選択された分割数(印刷パターン)に従ってシール紙51に印刷し、画像が印刷されたシール紙51をシール取り出し口19に排出する。
【0041】
制御タグリーダライタ42は、制御タグ52に記憶されている識別情報を接触または非接触により読み出し、制御装置31に出力する。制御装置31は、制御タグリーダライタ42から供給された識別情報に基づいて、装着されているシール紙ユニット35が、画像印刷装置1において利用可能なユニットであるか否かを判定し、利用可能なユニットであると判定したときにのみ、プリンタ部41を動作可能にする。すなわち、制御装置31により、画像印刷装置1において利用可能とされるシール紙ユニットの識別情報が管理されている。
【0042】
これにより、画像印刷装置1に対応していない(純正のものでない)シール紙が利用されるのを抑制することができる。また、制御タグ52により、シール紙51の残量等も管理される。なお、シール紙ユニット35が純正のものであるか否かを、シール紙ユニット35の表面にプリントされているバーコードなどにより確認させるようにしてもよい。
【0043】
表示部16にはタッチパネル36が積層されている。タッチパネル36は、入力ペン17−1および17−2により入力されたユーザからの指示を制御装置31に出力する。
【0044】
図3は、図2の制御装置31の構成例を示すブロックである。
【0045】
CPU61は、ROM62に記憶されているプログラム、または、記憶部66からRAM(Random Access Memory)63にロードされたプログラムに従って各種の処理を実行する。RAM63にはまた、CPU61が各種の処理を実行する上において必要なデータなどが適宜記憶される。
【0046】
CPU61、ROM62、およびRAM63は、バス64を介して相互に接続されている。このバス64にはまた、入出力インタフェース65も接続されている。
【0047】
入出力インタフェース65には、撮影装置12、表示部16、硬貨処理部32、照明制御部33、プリンタユニット34、タッチパネル36、および記憶部66が接続されている。
【0048】
記憶部66には、CPU61により実行されるプログラム、および、複数のポーズ画像とともに、CCD13により撮影された画像のデータなどが適宜記憶される。なお、ポーズ画像が記憶部66に記憶されているのではなく、画像印刷装置1とネットワークを介して接続されているサーバにより管理されている場合、ユーザによりポーズ画像が選択されることに応じて、選択されたポーズ画像の、サーバに対する送信要求が、図示せぬ通信部を介して行われる。その要求に応じて送信され、通信部において受信されたポーズ画像が、画像表示部14に表示される。
【0049】
入出力インタフェース65にはまた、必要に応じてドライブ67が接続され、磁気ディスク71、光ディスク72、光磁気ディスク73、或いは半導体メモリ74などが適宜装着され、それから読み出されたコンピュータプログラムが、必要に応じて記憶部66にインストールされる。また、磁気ディスク71乃至半導体メモリ74を介して、ポーズ画像が記憶部66に適宜追加される。
【0050】
次に、以上の構成を有する画像印刷装置1により行われる各種の処理について、フローチャートを参照して説明する。
【0051】
始めに、図4のフローチャートを参照して、画像印刷装置1を利用する顧客(ユーザ)に応対する、画像印刷装置1の全体の処理について説明する。
【0052】
ステップS1において、制御装置31のCPU61は、硬貨処理部32からの出力に基づいて、代金が投入されたか否か、すなわち、撮影を開始するユーザがいるか否かを判定し、代金が投入されたと判定するまで待機する。
【0053】
CPU61は、ステップS1において、代金が投入されたと判定した場合、ステップS2に進み、撮影処理を実行する。
【0054】
例えば、CPU61は、画像表示部14に表示される画像のポーズと同じポーズをしている姿を撮影することがユーザにより指示されたとき(ポーズナビゲーションモードにより撮影を行うことが指示されたとき)、CCD13により取り込まれている画像を入出力インタフェース65およびバス64を介して取得し、取得したユーザの画像を、選択されているポーズ画像に重畳させて画像表示部14に表示させる。また、CPU61は、CCD13により取り込まれている画像とポーズ画像の重畳の度合い(一致度)をリアルタイムで算出し、算出した一致度を画像表示部14に表示させる。さらに、CPU61は、一致度が所定の閾値を越えているとき、或いは、ユーザにより指示されたときなどの、所定のタイミングのユーザの画像を保存する(撮影する)。
【0055】
例えば、所定の回数だけ撮影が繰り返されたとき、撮影処理は終了される。ステップS2において実行される撮影処理については、図5のフローチャートを参照して後に詳述する。なお、画像表示部14だけでなく、ポーズ画像およびCCD13により取り込まれている画像が表示部16にも表示されるようにしてもよい。
【0056】
ステップS3において、CPU61は、ユーザからの入力に基づいて、撮影した画像を編集する編集処理を実行する。ステップS3において実行される編集処理については、図10のフローチャートを参照して後に詳述する。
【0057】
CPU61は、ステップS4において、ステップS3の編集処理により編集された画像のデータをプリンタユニット34のプリンタ部41に転送し、編集が施された画像をシール紙51に印刷させる。そして、印刷が終了したとき、ユーザは、シール取り出し口19に排出されたシール紙を受け取り、画像印刷装置1の利用を終了させる。
【0058】
なお、ステップS4において実行される画像の印刷処理と並行して、撮影した画像を登録する登録処理がステップS5において実行される。ステップS5において実行される登録処理の詳細については図11のフローチャートを参照して後述する。
【0059】
次に、図5のフローチャートを参照して、図4のステップS2において実行される撮影処理の詳細について説明する。
【0060】
この撮影処理には所定の制限時間が予め設定されており、CPU61は、ステップS11において、撮影時間が残っているか否かを判定する。CPU61は、撮影時間がない(撮影処理を開始してからの時間が制限時間を超えた)と判定した場合、ステップS12に進み、撮影を行う。例えば、撮影するまで(画像を保存するまで)のカウントダウンが「5,4,3,2,1,0」などのようにスピーカからの音声や表示部16の表示により出力され、カウントダウンが「0」になったとき、CCD13により取り込まれている画像が記憶部66に保存される。
【0061】
一方、ステップS11において、CPU61は、撮影時間があると判定した場合、ステップS13に進み、撮影を終了するか否かを判定する。
【0062】
例えば、撮影回数が予め設定されており、既に、設定されている回数だけ撮影を行ったため、撮影回数が残っていない場合、または、撮影処理を終了することがユーザにより指示された場合、CPU61は、ステップS13において、撮影を終了すると判定し、撮影処理を終了させる。それ以降、図4のステップS3の処理が実行される。
【0063】
CPU61は、ステップS13において、撮影を終了しないと判定した場合、ステップS14に進み、ポーズナビゲートモード(ポーズ画像が画像表示部14に表示され、表示されているポーズを真似ている姿を撮影するモード)により撮影するか否かを選択する選択画面を表示部16に表示させる。例えば、ユーザは、ポーズ画像を画像表示部14に表示させ、それを真似て撮影するポーズナビゲートモード、または、好きなポーズを取って撮影する通常モードにより撮影することができる。
【0064】
図6は、ポーズナビゲートモードにより撮影するか否かを選択する選択画面の表示例を示す図である。
【0065】
図6の例においては、キャラクタ101が表示部16の中央上方に表示され、その吹き出し102に「ポーズナビゲートを利用する?」のメッセージが表示されている。
【0066】
また、表示部16のほぼ中央には、ポーズナビゲートを利用するとき操作されるイエスボタン103(「利用する」が表示されているボタン)と、ノーボタン104(「利用しない」が表示されているボタン)が表示されている。ユーザは、いずれかのボタンを入力ペン17−1または17−2により操作し、ポーズナビゲートを利用するか否か(ポーズナビゲートモードにより撮影するか、または通常モードにより撮影するか)を選択する。
【0067】
CPU61は、タッチパネル36の出力を入出力インタフェース65およびバス64を介して取得し、ステップS15において、「利用する」が選択されたか否か(イエスボタン103が押下されたか否か)を判定する。
【0068】
ステップS15において、CPU61は、イエスボタン103が押下されていないと判定した場合、ステップS16に進み、次に、「利用しない」が選択されたか否か(ノーボタン104が押下されたか否か)を判定する。ステップS16において、CPU61は、図6のノーボタン104が押下され、通常モードにより撮影することが指示された場合、後述するステップS17乃至S22の処理をスキップし、ステップS23において撮影を行う。
【0069】
一方、CPU61は、ステップS16において、ノーボタン104が押下されず、「利用しない」が選択されていないと判定した場合、ステップS11に戻り、以上の処理を繰り返し実行する。
【0070】
CPU61は、ステップS15において、タッチパネル36の出力に基づいて、図6のイエスボタン103が押下されたと判定した場合、ステップS17に進み、ポーズ画像の選択画面を表示部16に表示させる。
【0071】
図7は、ポーズ画像を選択する選択画面の例を示す図である。
【0072】
図7の例においては、キャラクタ101の吹き出し111に「ポーズを選択してね」のメッセージが表示されている。
【0073】
また、その下には、ポーズ画像112乃至115が表示され、それぞれ、異なるポーズを取った人物(例えば、有名人)の画像が表示されている。このポーズ画像112乃至115は、CPU61により、記憶部66から読み出され、表示されているものである。
【0074】
ユーザは、いずれかのポーズ画像を入力ペン17−1または17−2により押下し、画像表示部14に表示させるポーズ画像を選択する。図7に示される選択画面において選択したポーズ画像が画像表示部14に表示されるため、ユーザは、表示されている人物のポーズの真似をして、その後の撮影を行う。
【0075】
ステップS18において、CPU61は、ポーズ(ポーズ画像)が選択されたか否かを判定し、選択されたと判定するまで待機する。
【0076】
CPU61は、タッチパネル36からの出力に基づいて、いずれかのポーズ画像が選択されたと判定した場合、ステップS19に進み、選択されたポーズ画像を受け付け、受け付けたポーズ画像を画像表示部14に表示させる。例えば、図7に示される選択画面において、ポーズ画像112が選択された場合、CPU61は、図8に示されるように、ポーズ画像112を画像表示部14の中央に表示させる。
【0077】
図8の例においては、右側に男性の人物112Aが表示されており、左側に女性の人物112Bが表示されている。すなわち、この例においては、2人のユーザからなるグループが画像印刷装置1を利用しており、2人の人物が写っているポーズ画像112が選択された場合の例とされている。画像印刷装置1を利用している2人のうちの第1のユーザは、人物112Aのポーズ(左手でOKサインをしているポーズ)の真似をして撮影し、第2のユーザは、人物112Bのポーズ(右手を上方に差し出すポーズ)の真似をして撮影する。
【0078】
このように、ポーズナビゲートモードにおいて複数のユーザで撮影することにより、どのユーザが最も忠実にポーズ画像の人物の真似ができているかを競うことができ、ゲーム性のある、より面白みのある撮影を提供することができる。
【0079】
なお、図8に示される人物112Aおよび112B(ポーズ画像)は、半透明で表示されており、このポーズ画像に重畳して、CCD13により取り込まれているユーザの画像が表示される。
【0080】
CPU61は、ステップS20において、半透明で表示されているポーズ画像に、CCD13により取り込まれているユーザの画像を重畳し、得られた重畳画像を画像表示部14に表示させる。この表示に応じて、ユーザは、自分自身の画像と、ポーズ画像が一致するように自分の体勢(ポーズ)を調節する。換言すれば、表示されるポーズ画像により、ユーザのポーズが誘導(ナビゲート)されることになる。
【0081】
また、CPU61は、ステップS21において、ポーズ画像と、取り込まれているユーザの画像の一致度(重畳の度合い)を算出する。一致度は、ほぼリアルタイム(短期間の周期)で算出され、算出された一致度が画像表示部14の所定の位置に表示されるようになされている。
【0082】
従って、ユーザは、その値を確認することにより、自分がポーズ画像のポーズを忠実に真似できているか否かを確認することができる。
【0083】
なお、例えば、画像印刷装置1の前方の床面には、ユーザの立ち位置が指定されており、その位置に立つユーザの画像と、ポーズ画像として表示されている人物の画像は、ともに同様のサイズになるように設定されている。また、CCD13により取り込まれている画像に基づいて、CPU61がユーザまでの距離を算出し、ユーザの画像とポーズ画像が同様のサイズになるように、CCD13のズーム(ワイド/テレ)を制御するようにしてもよい。
【0084】
図9は、ポーズ画像とユーザの画像の重畳画像の表示例を示す図である。
【0085】
例えば、図7の選択画面においてポーズ画像112を選択し、2人のユーザが、その真似をしている場合、画像表示部14には、図8のポーズ画像112(人物112Aおよび112Bが半透明で表示されている画像)に、CCD13により取り込まれているユーザ121および122の画像が重畳され、得られた重畳画像が図9に示されるように表示される。
【0086】
図9の例においては、人物112Aの画像(ポーズ画像の人物の画像)に、多少ずれた状態でユーザ121の画像が重畳して表示され、人物112Bの画像(ポーズ画像の人物の画像)に、多少ずれた状態でユーザ122の画像が重畳して表示されている。
【0087】
また、ステップS21における処理により算出された一致度が画像表示部14の左上方に設定されている一致度表示部123に表示されている。図9の例においては、一致度が「90%」として表示されており、ポーズ画像とユーザの画像が90%の範囲にわたって一致している(90%の領域において重畳している)。
【0088】
この一致度はリアルタイムで更新され、そのときの一致度が一致度表示部123に表示される。なお、一致度のレベルが高いとき、「上手だよー」などのかけ声が図示せぬスピーカから出力されるようにしてもよい。
【0089】
また、重畳していないポーズ画像の領域が、例えば、赤色などの目立つ色で表示されたり、或いは、点滅して表示されるようにしてもよい。これにより、ユーザは、重畳していない領域を容易に確認することができ、より迅速に、かつ忠実にポーズ画像の真似をすることができる。
【0090】
ステップS22において、CPU61は、ステップS21で算出された一致度が、予め設定されている所定の閾値を超えているか否かを判定し、超えていると判定するまで待機する。CPU61は、ステップS22において、例えば、閾値が95%として設定されており、その値を、ポーズ画像とユーザの画像の一致度が超えたと判定した場合、ステップS23に進み、撮影を行う。
【0091】
一致度が所定の閾値を超えているときの姿を撮影することより、忠実に、ポーズ画像の人物の真似をしているユーザの画像が保存されることになる。なお、画像とともに、撮影されたときの一致度が保存される。後述するように、保存された一致度は、例えば、画像とともにシール紙51に印刷される。
【0092】
また、一致度が所定の閾値を超えているときに撮影されるのではなく、ユーザが好みのタイミングで撮影の開始を指示できるようにしてもよい。このとき、例えば、音声で撮影の開始を指示することができたり、或いは、立ち位置付近の床面に設けられているフットスイッチにより撮影の開始を指示することができることが好ましい。これにより、ユーザは、ポーズ画像の人物のポーズを忠実に真似できているときの体勢を崩すことなく、撮影の開始を指示することができる。
【0093】
ステップS23において撮影が行われた後、処理はステップS11に戻り、それ以降の処理が繰り返し実行される。例えば、以上のような処理が所定の回数だけ繰り返し実行されたとき、ステップS13において撮影を終了すると判定され、図5の撮影処理が終了される。
【0094】
次に、図10のフローチャートを参照して、図4のステップS3において実行される編集処理の詳細について説明する。
【0095】
ステップS31において、CPU61は、撮影処理において保存された画像データ(例えば、図5のステップS23において撮影され、保存された画像データ)を読み出し、読み出したデータに基づいて、表示部16に編集画面を表示させる。
【0096】
例えば、編集対象の画像が表示部16のほぼ中央に拡大して表示され、ユーザは、編集対象の画像の近傍に表示されている各種の編集ツールを利用して、編集対象の画像に好みの文字や図形を入力することができる。例えば、編集ツールとして、編集対象画像に所定の画像を入力する「スタンプツール」や、編集対象画像に線や文字などを入力するための「ペンツール」などが用意される。
【0097】
また、編集対象の画像を適宜切り替えることができるようになされており、ユーザは、撮影し、保存しておいたそれぞれの画像を編集することができる。
【0098】
ユーザによる編集入力は、タッチパネル36からの出力として、入出力インタフェース65およびバス64を介してCPU61に供給される。ステップS32において、CPU61は、供給されてきた編集入力に基づいて生成した画像(スタンプ画像、ペン画像)を、編集対象の画像に重畳して表示し、画像を編集する。
【0099】
CPU61は、ステップS33において、編集処理を終了するか否かを判定し、例えば、表示部16の所定の位置に表示されている終了ボタンが操作されていないため、編集処理を終了しないと判定した場合、ステップS32に戻り、以上の処理を繰り返し実行する。一方、終了ボタンが操作された場合、または、予め設定されている制限時間が終了した場合、CPU61は、ステップS33において、編集処理を終了すると判定し、編集処理を終了させる。
【0100】
その後、処理は図4のステップS4およびステップS5に進み、印刷処理および画像の登録処理が実行される。
【0101】
次に、図11のフローチャートを参照して、図4のステップS5において実行される登録処理の詳細について説明する。
【0102】
この登録処理において登録された画像は、例えば、画像印刷装置1がいずれのユーザにも利用されていないときのデモ画面において表示され、その近傍にいる人に対する宣伝として提示される。また、画像印刷装置1の近傍にいる人や画像印刷装置1を利用した人が、登録されている画像の中から好みのものを1つ選択して投票することができ、その集計結果が表示されるようになされている。投票の集計結果としてのランキングがデモ画面に表示されることにより、画像印刷装置1の周囲にいる人の参加意欲(画像印刷装置1を利用しようとする意欲)を増すことができる。
【0103】
ステップS41において、CPU61は、登録する画像の選択画面を表示部16に表示させる。
【0104】
図12は、ステップS41において表示される選択画面の表示例を示す図である。
【0105】
図12の例においては、表示部16の右側に撮影画像表示部131が設けられており、この撮影画像表示部131に、撮影処理において保存され、編集処理において編集された3種類の画像が一覧表示されている。撮影画像表示部131において表示されている画像のうち、ユーザにより選択された画像が登録画像表示部132に拡大表示される。
【0106】
表示部16の上方には、「登録する?(画像を選んで登録してね)」のメッセージが表示されており、ユーザは、画像印刷装置1において撮影された画像のランキングに、自分自身が撮影した画像を登録するとき、撮影画像表示部131に表示されているものの中から1つの画像を入力ペン17−1または17−2により選択し、登録ボタン133(「登録する」が表示されているボタン)を押下して画像を登録する。
【0107】
なお、登録ボタン133の右には、画像を登録することなく画像印刷装置1の利用を終了するとき操作される不登録ボタン134(「登録しない」が表示されているボタン)も用意されており、ユーザは、これを操作することで、画像を登録することなく、処理を終了させることができる。
【0108】
CPU61は、ステップS42において、予め設定されている登録時間がまだ残っているか否かを判定し、残っていないと判定した場合、処理を終了させる。
【0109】
ステップS42において、CPU61は、登録時間が残っていると判定した場合、ステップS43に進み、画像が登録されたか否か、すなわち、図12に示される画面においていずれかの画像が選択され、登録ボタン133が押下されたか否かを判定する。
【0110】
CPU61は、ステップS43において、登録ボタン133が押下されていないと判定した場合、ステップS41に戻り、それ以降の処理を繰り返し実行し、一方、登録ボタン133が押下されたと判定した場合、ステップS44に進み、登録ボタン133が押下されたときに登録画像表示部132に表示されていた画像を記憶部66に保存し、登録する。
【0111】
その後、登録処理は終了され、登録された画像がデモ画面において適宜表示され、ランキングの投票対象の画像とされる。
【0112】
上述したように、図11に示される登録処理と並行して、編集処理において編集された画像の印刷もプリンタ部41により実行されている。プリンタ部41により画像(編集済みの画像)が印刷されたシール紙51がシール取り出し口19に排出されるため、ユーザは、それを受け取り、画像印刷装置1の利用を終了する。
【0113】
図13は、画像印刷装置1により印刷され、シール取り出し口19に排出されたシール紙の例を示す図である。
【0114】
図13に示されるように、シール紙141には、ユーザにより設定された分割数(4分割)に従って、文字や図形などの編集(落書き)が施された画像151乃至154が印刷される。なお、印刷されているそれぞれの画像において、被写体の画像(人物の画像)の周辺に、或いは、被写体の画像に一部重畳して示されている「コノヤロ」、「スゴイ」の文字、およびハート形や星形のスタンプ画像はユーザにより入力された編集画像である。このように、ユーザは、好みの文字や画像を、撮影された画像に対して施すことができる。
【0115】
また、それぞれの画像の一致度が画像とともにシール紙141に印刷されており、図13の例においては、画像151の左側に一致度が表示され、その値は「90%」とされている。また、画像152の左側に表示されている画像152の一致度は「88%」とされ、画像153の右側に表示されている画像153の一致度は「95%」とされ、画像154の右側に表示されている画像154の一致度は「100%」とされている。
【0116】
このような画像および一致度が印刷されたシール紙が、画像印刷装置1を利用したユーザに対して提供される。
【0117】
なお、上述した画像印刷装置1において、選択できるポーズ画像が1週間毎などの所定の周期で切り替わるようにしてもよい。この場合、例えば、全てのポーズ画像が記憶部66に予め記憶されており、CPU61の制御により、提供される画像が所定の周期毎に切り替わるようにしてもよいし、画像印刷装置1の管理者が、磁気ディスク71乃至半導体メモリ74により、記憶部66に記憶されているポーズ画像を入れ替えるようにしてもよい。また、図示せぬ管理サーバからネットワークを介して送信されてきた画像により、記憶部66に記憶されている画像データが切り替えられるようにしてもよい。
【0118】
上述した一致度の算出は、例えば、ポーズ画像と、CCD13により取り込まれている画像(以下、適宜、撮影画像と称する)を格子状の範囲(ブロック)毎に分割し、それぞれのブロックに含まれる画像が、ポーズ画像のものと撮影画像のものとで一致(対応)しているか否かに基づいて判定される。
【0119】
次に、図14のフローチャートを参照して、一致度を算出する画像印刷装置1の処理について説明する。
【0120】
ステップS51において、CPU61は、ポーズ画像の垂直方向および水平方向を所定の間隔で分割し(ポーズ画像を所定の範囲のブロック毎に分割し)、分割したブロックの中から、ポーズ画像と撮影画像が一致しているか否かを判定するブロック(以下、注目ブロック)を選択する。
【0121】
ポーズ画像は、図15に示されるように、所定の範囲のブロック毎に分割され、最初に、例えば、左上のブロックが注目ブロックとされる。後述するように、図14に示される処理が繰り返し実行され、それぞれのブロックについて、ポーズ画像と撮影画像が一致しているか否かの判定が行われる。
【0122】
ステップS52において、CPU61は、ステップS51で選択した注目ブロックがポーズ画像の背景に対応するブロックか否かを判定する。すなわち、注目ブロックが、例えば、背景画像のみが含まれているブロックか否か、または、背景画像が所定の割合以上含まれているブロックか否かが判定される。
【0123】
従って、例えば、図15のブロックB3−2が注目ブロックとされている場合、そこに、被写体としての人物画像112Aまたは112Bは含まれていないため、ブロックB3−2は、ポーズ画像の背景に対応するブロックであると判定される。
【0124】
CPU61は、ステップS52において、注目ブロックがポーズ画像の背景に対応するブロックであると判定した場合、ステップS53に進み、ポーズ画像と撮影画像を重畳させた場合に、注目ブロックと対応する撮影画像の範囲には、撮影画像の背景が含まれるか否か(または、注目ブロックの範囲には、撮影画像の背景のみが含まれているか否か)を判定する。
【0125】
CPU61は、ステップS53において、注目ブロックと対応する撮影画像の範囲には、撮影画像の背景が含まれると判定した場合、ステップS54に進み、その注目ブロックに「1」の値を設定し、一方、撮影画像の背景が含まれないと判定した場合、ステップS55に進み、その注目ブロックに「0」の値を設定する。
【0126】
従って、図9に示される撮影画像の、ブロックB3−2と対応する位置には撮影画像の背景のみが含まれているため、注目ブロックB3−2には「1」が設定される。
【0127】
ステップS56において、CPU61は、全てのブロックの判定が終了したか否かを判定し、終了していないと判定した場合、ステップS51に戻り、それ以降の処理が行われる。すなわち、判定が行われていないブロックが注目ブロックとして順次選択され、それ以降の処理が繰り返し実行される。
【0128】
CPU61は、ステップS52において、注目ブロックがポーズ画像の背景に対応するブロックでないと判定した場合、ステップS57に進み、注目ブロックが、ポーズ画像として写されている人物の肌色領域(手、または顔の領域)に対応するブロックであるか否かを判定する。
【0129】
例えば、そのときの注目ブロックが図15のブロックB10−4である場合、ブロックB10−4は、人物112Aの顔の画像を含むブロックであるため、ステップS57において、注目ブロックが肌色領域に対応するブロックであると判定される。
【0130】
ステップS57において、注目ブロックがポーズ画像の肌色領域に対応するブロックであると判定した場合、CPU61は、ステップS58に進み、ポーズ画像と撮影画像を重畳させた場合に、注目ブロックと対応する撮影画像の範囲には、撮影画像に写っている人物の肌色領域が含まれるか否かを判定する。
【0131】
CPU61は、ステップS58において、注目ブロックと対応する撮影画像の範囲には、撮影画像の肌色領域が含まれると判定した場合、ステップS54に進み、その注目ブロックに「1」の値を設定し、一方、撮影画像の背景が含まれないと判定した場合、ステップS55に進み、その注目ブロックに「0」の値を設定する。
【0132】
この判定の結果、例えば、注目ブロックが図15のブロックB10−4である場合、そのブロックに対応する撮影画像(図9)の範囲には、人物121の顔の領域が含まれているため、注目ブロックに「1」の値が設定される。
【0133】
一方、ステップS57において、注目ブロックがポーズ画像の肌色領域に対応するブロックでないと判定した場合、CPU61は、注目ブロックに含まれる画像が、ポーズ画像の背景画像ではなく、かつ、肌色領域でない、すなわち、服の領域や髪の毛の領域であると判定し、ステップS59において、注目ブロックと対応する撮影画像の範囲には、人物の輪郭より内側の画像が含まれるか否かを判定する。
【0134】
ステップS59において、注目ブロックと対応する撮影画像の範囲には、人物の輪郭より内側の画像が含まれると判定された場合、ステップS54において、注目ブロックに「1」が設定され、人物の輪郭より内側の画像が含まれないと判定された場合、ステップS55において、注目ブロックに「0」が設定される。
【0135】
従って、注目ブロックが図15のブロックB9−8である場合、そのブロックに対応する撮影画像(図9)の範囲には、人物121の服の画像が含まれているため、注目ブロックに「1」の値が設定される。
【0136】
以上のような判定が各ブロックについて実行され、ステップS56において、全てのブロックの判定が終了したと判定されたとき、処理は終了される。
【0137】
例えば、図14に示される処理の結果、図9に示される撮影画像とポーズ画像が一致しているか否かを表す各ブロックの値(「1」または「0」)は、図16に示されるものとなる。
【0138】
すなわち、ポーズ画像の背景が含まれるブロックに撮影画像の背景が対応している場合、そのブロックには「1」の値が設定され、ポーズ画像の肌色領域が含まれるブロックに撮影画像の肌色領域が対応している場合、そのブロックには「1」の値が設定される。また、ポーズ画像の服や髪の毛の画像が含まれるブロックに撮影画像の服や髪の毛の画像が含まれている場合、そのブロックには「1」の値が設定され、その他の、ポーズ画像と撮影画像が一致していないブロックには「0」の値が設定される。
【0139】
なお、図16の例においては、「0」の値が設定されているブロックは斜線で示されている。
【0140】
そして、図16に示されるような判定結果に基づいて、「(1が設定されているブロックの数)/(総ブロック数)×100」により、一致度が算出される。すなわち、図16の例においては、「150/176×100」の計算の結果、一致度が「85%」として算出される。
【0141】
なお、一致度の算出方法は、適宜変更可能である。例えば、上述したように画像を所定の間隔で水平方向、垂直方向に分割したときの、各格子点の画像がポーズ画像と撮影画像のものとで一致しているか否かに基づいて、一致度を算出するようにすることができる。
【0142】
【発明の効果】
本発明によれば、画像を撮影することができる。
【0143】
また、本発明によれば、より面白みのある撮影を提供できる。
【図面の簡単な説明】
【図1】本発明を適用した画像印刷装置の外観の例を示す斜視図である。
【図2】図1の画像印刷装置の構成例を示すブロック図である。
【図3】図2の制御装置の構成例を示すブロック図である。
【図4】図1の画像印刷装置の顧客応対処理を説明するフローチャートである。
【図5】図4のステップS2において実行される撮影処理の詳細を説明するフローチャートである。
【図6】図5のステップS14において表示される画面の表示例を示す図である。
【図7】図5のステップS17において表示される画面の表示例を示す図である。
【図8】ポーズ画像の例を示す図である。
【図9】図5のステップS20において表示される画面の表示例を示す図である。
【図10】図4のステップS3において実行される編集処理の詳細を説明するフローチャートである。
【図11】図4のステップS5において実行される登録処理の詳細を説明するフローチャートである。
【図12】図11のステップS41において表示される画面の表示例を示す図である。
【図13】図1の画像印刷装置により提供されるシール紙の例を示す図である。
【図14】図1の画像印刷装置の一致度の算出処理を説明するフローチャートである。
【図15】ポーズ画像の分割の例を示す図である。
【図16】各ブロックに設定される値の例を示す図である。
【符号の説明】
1 画像印刷装置
13 CCD
16 表示部
17−1および17−2 入力ペン
31 制御装置
34 プリンタユニット
35 シール紙ユニット
41 プリンタ部
42 制御タグリーダライタ
51 シール紙
52 制御タグ
[0001]
TECHNICAL FIELD OF THE INVENTION
In particular, the present invention relates to an image printing apparatus and method, a print medium, and a print medium unit that can provide a user with more interesting shooting.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, there is known an image printing apparatus such as a so-called “Print Club (registered trademark)” that captures an image of a user, combines the image with a frame image prepared in advance, and prints the image on a sticker sheet or the like. .
[0003]
Some image printing apparatuses allow a user to select a favorite pose and photograph the user who imitates the selected pose. For example, the pose image selected on the predetermined selection screen is displayed at a predetermined position such as a corner of the screen, so that the user can take a similar pose and shoot while confirming the pose image.
[0004]
[Problems to be solved by the invention]
However, when photographing is performed while checking the pose image displayed at a predetermined position such as a corner of the screen, there is a problem that it is difficult to faithfully imitate the displayed pose. Therefore, the pose (user image) shown in the captured image may be far from the selected pose.
[0005]
For example, if a person can imitate the pose of a celebrity, the user can feel as if he / she is a celebrity and make the shooting more interesting. Can be.
[0006]
The present invention has been made in view of such a situation, and aims to provide a user with more interesting shooting.
[0007]
[Means for Solving the Problems]
The image printing apparatus according to the present invention includes a receiving unit that guides a user's pose, receives a selection of a person image having a predetermined pose, a photographing unit that photographs a subject, and a photographed image of a selected first person image. A display control means for superimposing and displaying a second person image as a subject and a storage means for storing the second person image taken at a predetermined timing are provided.
[0008]
This image printing apparatus can be used, for example, as a photo sticker vending machine.
[0009]
The image printing apparatus of the present invention may further include a storage unit that stores the first person image.
[0010]
Further, the first person image (a person image in a predetermined pose for guiding a user's pose) is prepared in a predetermined server connected to the image printing apparatus of the present invention via a network. May be. In this case, the image printing apparatus requests the server to transmit the person image selected by the user, and in response to the request, the server transmits the image data of the person image to the image printing apparatus.
[0011]
In this way, by storing the person image in the server and managing the stored data, the person image according to the fashion at that time can be easily distributed.
[0012]
The image printing apparatus according to the present invention may further include a calculating unit that calculates a degree of superposition of the first person image and the second person image, which are superimposed and displayed by the display control unit. At this time, the storage unit stores the second person image when the calculated degree of superimposition is equal to or greater than a predetermined threshold.
[0013]
It is possible to further include a superimposition degree display means for displaying information indicating the degree of superimposition calculated by the calculation means.
[0014]
By confirming the displayed superimposition degree, the user can confirm whether or not he or she can faithfully imitate the pose represented by the first person image. Further, the game characteristics are increased, and more interesting shooting can be provided.
[0015]
The information indicating the degree of superimposition may be, for example, a number, an indicator, a facial expression of a character, or the like. Further, sound may be output according to the degree.
[0016]
The image processing apparatus may further include a printing unit that prints the image stored by the storage unit on a predetermined print medium together with information indicating a degree of superimposition.
[0017]
The display control means can control the display so that an area of the first person image that is not overlapped with the second person image is displayed in a predetermined color or blinking.
[0018]
Since the non-overlapping area is displayed in a conspicuous manner by a predetermined color or blinking, the user can easily confirm the area where the first person image and the own image do not overlap, and more quickly and faithfully. The pose of the first person image can be imitated.
[0019]
The storage unit can store the image photographed by the photographing unit based on an instruction from the user.
[0020]
The image printing method of the image printing apparatus according to the present invention includes a receiving step of inducing a user's pose, receiving a selection of a person image in a predetermined pose, a shooting step of shooting a subject, and A display control step of superimposing and displaying a second human image as a photographed subject, and a storing step of storing the second human image photographed at a predetermined timing by the processing of the photographing step. It is characterized by the following.
[0021]
In the image printing apparatus and method of the present invention, selection of a person image in a predetermined pose for inducing a pose of a user is received, and the first person image whose selection has been received is photographed and the obtained second person image is obtained. Are superimposed and displayed. Further, the second person image captured at a predetermined timing is stored.
[0022]
Thereby, more interesting photographing can be provided.
[0023]
The print medium according to the present invention includes a receiving step of inducing a user's pose, receiving a selection of a person image in a predetermined pose, a photographing step of photographing a subject, and a photographed subject in the selected first person image. Printing by an image printing method that includes a display control step of superimposing and displaying a second person image as the above, and a storage step of saving the second person image captured at a predetermined timing by the processing of the imaging step It is characterized by being performed.
[0024]
The print medium unit according to the present invention includes: a receiving unit that guides a user's pose, receives a selection of a person image in a predetermined pose, a photographing unit that photographs a subject, and a photographed image of a selected first person image. A print medium unit used in an image printing apparatus including: display control means for superimposing and displaying a second person image as a subject; and storage means for storing the second person image captured at a predetermined timing. Wherein identification information storage means for storing unit identification information for identifying a print medium unit is provided, and is usable when the stored unit identification information is authenticated by the image printing apparatus.
[0025]
The identification information storage means is composed of, for example, a memory such as an IC tag (control tag) or an IC card, and stores a unique ID as unit identification information.
[0026]
As described above, since the print medium unit can be used only when the identification information is authenticated, only the unit produced for the first image printing apparatus of the present invention can be used, and a so-called genuine product It is possible to suppress the use of other than the above. Further, when a bar code or the like is attached to the print medium unit, whether or not the print medium unit is a genuine product may be determined based on the bar code.
[0027]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a perspective view showing a configuration example of an image printing apparatus 1 as a photo sticker vending machine to which the present invention is applied.
[0028]
An imaging device 12 is provided on a vertical surface 11 a above the housing 11. The photographing device 12 is movable in the vertical direction according to a rail (not shown) provided in the vertical direction on the surface 11a. That is, the user, who is the subject, can move the photographing device 12 in the vertical direction to photograph at a desired angle.
[0029]
The image capturing device 12 includes a charge coupled device (CCD) 13 for capturing an image of a subject, and an image display unit 14 that displays an image (moving image) captured by the CCD 13. Since the image display unit 14 is provided in the vicinity of the CCD 13, the user can shoot while checking his or her own image displayed on the image display unit 14 while looking at the CCD 13. .
[0030]
Flash irradiators 15-1 and 15-2 are provided on the left and right of the image capturing device 12, and the flash irradiators 15-1 and 15-2 are provided by illumination devices provided inside the housing 11. Transmits flash light and illuminates the subject.
[0031]
At the center of the surface 11b facing slightly upward of the housing 11, a display unit 16 constituted by an LCD (Liquid Crystal Display) or a CRT (Cathode-Ray Tude) is provided. The display unit 16 displays various selection buttons, messages, and the like in accordance with the shooting process and the printing process in addition to the captured image. The user can use the input pen 17 provided near the display unit 16. The photographing process and the editing process are performed using -1 or 17-2.
[0032]
A coin slot 18 is provided on the left side surface 11 d of the housing 11. The user inserts a predetermined price into the coin slot 18 when taking a picture using the image printing apparatus 1. Further, a sticker outlet 19 is provided on the surface 11d, from which sticker paper on which the edited image is printed in a predetermined size is discharged.
[0033]
In the image printing apparatus 1 having the above-described appearance configuration, the user selects an image selected from those prepared in advance, for example, an image in which a person such as a celebrity is in a predetermined pose (to guide the user's pose). Is displayed on the image display unit 14, and an image of the user himself / herself imitating the pose can be taken. Hereinafter, an image displayed on the image display unit 14 for guiding a user's pose is referred to as a pose image as appropriate.
[0034]
When the pose image is displayed on the image display unit 14, the image of the user (subject) captured by the CCD 13 and the pose image are displayed in a superimposed manner. By modifying your posture, you can more quickly and faithfully mimic the selected pose.
[0035]
The processing of the image printing apparatus 1 will be described later in detail with reference to a flowchart.
[0036]
FIG. 2 is a block diagram illustrating an example of the internal configuration of the image printing apparatus 1 in FIG. Detailed description of the same configuration as described above will be omitted as appropriate.
[0037]
The control device 31 is configured by a personal computer or the like, and controls the overall operation of the image printing device 1. More specifically, a program stored in a ROM (Read Only Memory) 62 and a storage unit 66 (both shown in FIG. 3) is executed by a CPU (Central Processing Unit) 61 provided in the control device 31, According to the program, a photographing process and an image editing process are performed.
[0038]
The coin processing unit 32 detects when a predetermined money is inserted into the coin insertion slot 18 by the user, and notifies the control device 31 of the detection. The illumination control unit 33 emits a flash light in accordance with an instruction from the control device 31 at the timing when the imaging device 12 captures an image of a subject. The emitted flash light irradiates a subject (user) via the flash irradiation units 15-1 and 15-2 in FIG.
[0039]
The printer unit 34 includes a printer unit 41 and a control tag reader / writer 42. The seal paper unit 35 mounted on the printer unit 34 manages the seal paper 51, identification information for identifying each seal paper unit 35, and the like. It is constituted by a control tag 52.
[0040]
When the image data subjected to the editing process is supplied from the control device 31, the printer unit 41 converts the image represented by the supplied image data into a sticker sheet according to the division number (print pattern) selected by the user. The sticker paper 51 having the image printed thereon and the image printed thereon is discharged to the sticker outlet 19.
[0041]
The control tag reader / writer 42 reads the identification information stored in the control tag 52 by contact or non-contact, and outputs it to the control device 31. The control device 31 determines whether the attached seal paper unit 35 is a unit that can be used in the image printing apparatus 1 based on the identification information supplied from the control tag reader / writer 42, and The printer unit 41 is made operable only when it is determined that the unit is a unit. That is, the control device 31 manages the identification information of the seal paper unit that can be used in the image printing apparatus 1.
[0042]
Accordingly, it is possible to suppress the use of the seal paper that is not compatible with the image printing apparatus 1 (not the genuine seal paper). The control tag 52 also manages the remaining amount of the seal paper 51 and the like. Whether or not the seal paper unit 35 is genuine may be confirmed by a bar code or the like printed on the surface of the seal paper unit 35.
[0043]
A touch panel 36 is stacked on the display unit 16. Touch panel 36 outputs an instruction from the user input by input pens 17-1 and 17-2 to control device 31.
[0044]
FIG. 3 is a block diagram illustrating a configuration example of the control device 31 of FIG.
[0045]
The CPU 61 executes various processes according to a program stored in the ROM 62 or a program loaded from the storage unit 66 into a RAM (Random Access Memory) 63. The RAM 63 also stores data and the like necessary for the CPU 61 to execute various processes.
[0046]
The CPU 61, the ROM 62, and the RAM 63 are mutually connected via a bus 64. The bus 64 is also connected to an input / output interface 65.
[0047]
The photographing device 12, the display unit 16, the coin processing unit 32, the illumination control unit 33, the printer unit 34, the touch panel 36, and the storage unit 66 are connected to the input / output interface 65.
[0048]
The storage unit 66 appropriately stores a program executed by the CPU 61, data of an image captured by the CCD 13, and the like, along with a plurality of pose images. If the pause image is not stored in the storage unit 66 but is managed by a server connected to the image printing apparatus 1 via a network, the pause image is selected by the user. A transmission request of the selected pause image to the server is made via a communication unit (not shown). The pause image transmitted in response to the request and received by the communication unit is displayed on the image display unit 14.
[0049]
A drive 67 is connected to the input / output interface 65 as necessary, and a magnetic disk 71, an optical disk 72, a magneto-optical disk 73, a semiconductor memory 74, or the like is appropriately mounted. Is installed in the storage unit 66 in accordance with. In addition, a pause image is added to the storage unit 66 via the magnetic disk 71 to the semiconductor memory 74 as appropriate.
[0050]
Next, various processes performed by the image printing apparatus 1 having the above configuration will be described with reference to flowcharts.
[0051]
First, with reference to the flowchart of FIG. 4, the overall processing of the image printing apparatus 1 in response to a customer (user) using the image printing apparatus 1 will be described.
[0052]
In step S1, the CPU 61 of the control device 31 determines whether or not the price has been inserted based on the output from the coin processing unit 32, that is, whether or not there is a user who starts photographing. Wait until it is determined.
[0053]
If the CPU 61 determines in step S <b> 1 that the payment has been made, the process proceeds to step S <b> 2, and executes a shooting process.
[0054]
For example, when the CPU 61 instructs the user to shoot a figure having the same pose as the pose of the image displayed on the image display unit 14 (when instructed to shoot in the pose navigation mode) Then, the image captured by the CCD 13 is acquired via the input / output interface 65 and the bus 64, and the acquired user image is displayed on the image display unit 14 while being superimposed on the selected pose image. Further, the CPU 61 calculates the degree of overlap (coincidence) between the image captured by the CCD 13 and the pose image in real time, and causes the image display unit 14 to display the calculated coincidence. Further, the CPU 61 saves (photographs) an image of the user at a predetermined timing such as when the degree of coincidence exceeds a predetermined threshold value or when instructed by the user.
[0055]
For example, when the photographing is repeated a predetermined number of times, the photographing process ends. The photographing process executed in step S2 will be described later in detail with reference to the flowchart of FIG. In addition, not only the image display unit 14 but also a pause image and an image captured by the CCD 13 may be displayed on the display unit 16.
[0056]
In step S3, the CPU 61 executes an editing process for editing a captured image based on an input from a user. The editing process executed in step S3 will be described later in detail with reference to the flowchart in FIG.
[0057]
In step S4, the CPU 61 transfers the data of the image edited by the editing process in step S3 to the printer unit 41 of the printer unit 34, and causes the edited image to be printed on the sticker paper 51. Then, when printing is completed, the user receives the sticker sheet discharged to the sticker outlet 19 and ends the use of the image printing apparatus 1.
[0058]
Note that, in parallel with the image printing process executed in step S4, a registration process for registering a captured image is executed in step S5. Details of the registration processing executed in step S5 will be described later with reference to the flowchart in FIG.
[0059]
Next, the details of the photographing processing executed in step S2 in FIG. 4 will be described with reference to the flowchart in FIG.
[0060]
A predetermined time limit is set in advance in the photographing process, and the CPU 61 determines whether or not the photographing time remains in step S11. If the CPU 61 determines that there is no photographing time (the time from the start of the photographing process has exceeded the time limit), the process proceeds to step S12 and performs photographing. For example, the countdown until shooting (until the image is saved) is output by voice from a speaker or display on the display unit 16 such as “5, 4, 3, 2, 1, 0”, and the countdown is set to “0”. Is displayed, the image captured by the CCD 13 is stored in the storage unit 66.
[0061]
On the other hand, if the CPU 61 determines in step S11 that there is a shooting time, the process proceeds to step S13, and determines whether to end shooting.
[0062]
For example, when the number of times of photography is set in advance and the number of times of photography has already been performed, and the number of times of photography is not left, or when the user instructs to end the photography process, the CPU 61 In step S13, it is determined that the photographing is to be terminated, and the photographing process is terminated. Thereafter, the process of step S3 in FIG. 4 is performed.
[0063]
If the CPU 61 determines in step S13 that the shooting is not to be ended, the process proceeds to step S14, in which a pose navigating mode is displayed (a pose image is displayed on the image display unit 14, and a pose imitating the displayed pose is shot). The display section 16 displays a selection screen for selecting whether or not to shoot according to the mode). For example, the user can display a pose image on the image display unit 14 and take a picture in a pose navigating mode for imitating and taking a pose or a normal mode for taking a picture with a favorite pose.
[0064]
FIG. 6 is a diagram showing a display example of a selection screen for selecting whether or not to shoot in the pose navigation mode.
[0065]
In the example of FIG. 6, the character 101 is displayed at the upper center of the display unit 16, and a message “Use pause navigation?” Is displayed in the balloon 102.
[0066]
In the approximate center of the display unit 16, a yes button 103 (a button displaying "use") operated when using the pause navigation and a no button 104 (a "do not use") are displayed. Button) is displayed. The user operates one of the buttons with the input pen 17-1 or 17-2 and selects whether to use the pause navigation (whether to shoot in the pause navigation mode or in the normal mode). I do.
[0067]
The CPU 61 acquires the output of the touch panel 36 via the input / output interface 65 and the bus 64, and determines in step S15 whether “use” has been selected (whether the yes button 103 has been pressed).
[0068]
If the CPU 61 determines in step S15 that the YES button 103 has not been pressed, the process proceeds to step S16, and next, determines whether or not “do not use” has been selected (whether or not the NO button 104 has been pressed). judge. In step S16, when the NO button 104 in FIG. 6 is pressed and an instruction to perform shooting in the normal mode is issued, the CPU 61 skips the processing of steps S17 to S22 described below and performs shooting in step S23.
[0069]
On the other hand, if the CPU 61 determines in step S16 that the NO button 104 has not been pressed and “do not use” has not been selected, the process returns to step S11, and the above processing is repeatedly executed.
[0070]
If the CPU 61 determines in step S15 that the YES button 103 in FIG. 6 has been pressed based on the output of the touch panel 36, the process proceeds to step S17, and the display unit 16 displays a pose image selection screen.
[0071]
FIG. 7 is a diagram illustrating an example of a selection screen for selecting a pose image.
[0072]
In the example of FIG. 7, a message “Please select a pose” is displayed in the balloon 111 of the character 101.
[0073]
Further, underneath, pose images 112 to 115 are displayed, and images of persons (for example, celebrities) who have taken different poses are displayed. The pose images 112 to 115 are read from the storage unit 66 by the CPU 61 and are displayed.
[0074]
The user presses one of the pose images with the input pen 17-1 or 17-2, and selects a pose image to be displayed on the image display unit 14. Since the pose image selected on the selection screen shown in FIG. 7 is displayed on the image display unit 14, the user imitates the pose of the displayed person and performs subsequent shooting.
[0075]
In step S18, the CPU 61 determines whether a pose (pause image) has been selected, and waits until it is determined that the pose has been selected.
[0076]
When the CPU 61 determines that any one of the pose images has been selected based on the output from the touch panel 36, the process proceeds to step S19, where the CPU 61 receives the selected pose image and causes the image display unit 14 to display the received pose image. . For example, when the pose image 112 is selected on the selection screen shown in FIG. 7, the CPU 61 displays the pose image 112 in the center of the image display unit 14, as shown in FIG.
[0077]
In the example of FIG. 8, a male person 112A is displayed on the right side, and a female person 112B is displayed on the left side. That is, this example is an example in which a group of two users uses the image printing apparatus 1 and the pose image 112 in which two people are shown is selected. The first user of the two users using the image printing apparatus 1 imitates and poses the pose of the person 112A (the pose of giving an OK sign with the left hand). The image is taken by imitating the pose of 112B (pose the right hand upward).
[0078]
In this way, by photographing with a plurality of users in the pose navigating mode, it is possible to compete for which user is most faithfully imitating the person in the pose image, and to have a more entertaining photographing with game characteristics. Can be provided.
[0079]
It should be noted that the persons 112A and 112B (pose images) shown in FIG. 8 are displayed translucently, and the image of the user captured by the CCD 13 is displayed so as to be superimposed on this pose image.
[0080]
In step S20, the CPU 61 superimposes the user image captured by the CCD 13 on the translucent pose image and causes the image display unit 14 to display the obtained superimposed image. According to this display, the user adjusts his or her posture (pose) so that the image of the user matches the pose image. In other words, the pose of the user is guided (navigated) by the displayed pose image.
[0081]
In step S21, the CPU 61 calculates the degree of coincidence (degree of superposition) between the pose image and the captured user image. The coincidence is calculated almost in real time (a short period), and the calculated coincidence is displayed at a predetermined position on the image display unit 14.
[0082]
Accordingly, the user can confirm whether or not he / she can faithfully imitate the pose of the pose image by checking the value.
[0083]
For example, a user's standing position is specified on the floor in front of the image printing apparatus 1, and the image of the user standing at that position and the image of a person displayed as a pose image are the same. It is set to be the size. The CPU 61 calculates the distance to the user based on the image captured by the CCD 13 and controls the zoom (wide / tele) of the CCD 13 so that the user image and the pose image have the same size. It may be.
[0084]
FIG. 9 is a diagram illustrating a display example of a superimposed image of a pose image and a user image.
[0085]
For example, when the pose image 112 is selected on the selection screen of FIG. 7 and two users are imitating the pose image 112, the image display unit 14 displays the pose image 112 of FIG. The image of the users 121 and 122 captured by the CCD 13 is superimposed on the image displayed by (), and the obtained superimposed image is displayed as shown in FIG. 9.
[0086]
In the example of FIG. 9, the image of the user 121 is superimposed and displayed on the image of the person 112A (the image of the person in the pose image) with a slight shift, and the image of the person 112B (the image of the person in the pose image) is displayed. The image of the user 122 is superimposed and displayed with a slight shift.
[0087]
In addition, the coincidence calculated by the processing in step S21 is displayed on the coincidence display 123 set at the upper left of the image display 14. In the example of FIG. 9, the matching degree is displayed as “90%”, and the pose image and the user's image match over a 90% range (superimposed in a 90% area).
[0088]
The coincidence is updated in real time, and the coincidence at that time is displayed on the coincidence display unit 123. When the level of the degree of coincidence is high, a shout such as "You're good" may be output from a speaker (not shown).
[0089]
Further, the area of the pose image which is not superimposed may be displayed in a conspicuous color such as red, or may be displayed in a blinking manner. Thereby, the user can easily confirm the non-overlapping area, and can more quickly and faithfully imitate the pose image.
[0090]
In step S22, the CPU 61 determines whether or not the degree of coincidence calculated in step S21 exceeds a predetermined threshold set in advance, and waits until it is determined that the degree of coincidence exceeds the predetermined threshold. In step S22, for example, when the threshold value is set to 95% in step S22, and the CPU 61 determines that the value exceeds the degree of coincidence between the pose image and the image of the user, the process proceeds to step S23 to perform photographing.
[0091]
By photographing the figure when the degree of coincidence exceeds the predetermined threshold value, the image of the user who is imitating the person in the pose image is stored faithfully. It should be noted that the matching degree at the time of shooting is stored together with the image. As will be described later, the stored coincidence is printed on the sticker paper 51 together with the image, for example.
[0092]
Alternatively, instead of shooting when the degree of coincidence exceeds a predetermined threshold, the user may be able to instruct the start of shooting at a desired timing. At this time, for example, it is preferable that the start of shooting can be instructed by voice, or the start of shooting can be instructed by a foot switch provided on the floor near the standing position. Thus, the user can instruct the start of shooting without breaking his posture when the pose of the person in the pose image can be faithfully imitated.
[0093]
After the photographing is performed in step S23, the process returns to step S11, and the subsequent processes are repeatedly executed. For example, when the above processing is repeatedly performed a predetermined number of times, it is determined in step S13 that the shooting is to be ended, and the shooting processing in FIG. 5 is ended.
[0094]
Next, details of the editing process executed in step S3 of FIG. 4 will be described with reference to the flowchart of FIG.
[0095]
In step S31, the CPU 61 reads out the image data (for example, the image data shot and stored in step S23 of FIG. 5) stored in the shooting process, and displays an editing screen on the display unit 16 based on the read data. Display.
[0096]
For example, the image to be edited is enlarged and displayed almost at the center of the display unit 16, and the user can use various editing tools displayed near the image to be edited to select a desired image for the image to be edited. You can enter characters and figures. For example, as an editing tool, a "stamp tool" for inputting a predetermined image to an image to be edited, a "pen tool" for inputting a line or a character to the image to be edited, and the like are prepared.
[0097]
Further, the image to be edited can be appropriately switched, and the user can edit each image that has been shot and stored.
[0098]
The edit input by the user is supplied as an output from the touch panel 36 to the CPU 61 via the input / output interface 65 and the bus 64. In step S32, the CPU 61 superimposes and displays the image (stamp image, pen image) generated based on the supplied edit input on the image to be edited, and edits the image.
[0099]
In step S33, the CPU 61 determines whether or not to end the editing process. For example, the CPU 61 determines that the editing process is not to be ended because the end button displayed at a predetermined position on the display unit 16 has not been operated. In this case, the process returns to step S32, and the above processing is repeatedly executed. On the other hand, if the end button has been operated or the preset time limit has expired, the CPU 61 determines in step S33 to end the editing process, and ends the editing process.
[0100]
Thereafter, the process proceeds to steps S4 and S5 in FIG. 4, and the printing process and the image registration process are performed.
[0101]
Next, details of the registration processing executed in step S5 of FIG. 4 will be described with reference to the flowchart of FIG.
[0102]
The image registered in the registration process is displayed on, for example, a demonstration screen when the image printing apparatus 1 is not used by any user, and is presented as an advertisement to a person nearby. In addition, a person near the image printing apparatus 1 or a person who uses the image printing apparatus 1 can select and vote for one of the favorite images from among the registered images, and the total result is displayed. It has been made to be. By displaying the ranking as a result of voting on the demonstration screen, it is possible to increase the willingness of persons around the image printing apparatus 1 (willingness to use the image printing apparatus 1).
[0103]
In step S41, the CPU 61 causes the display unit 16 to display a selection screen of an image to be registered.
[0104]
FIG. 12 is a diagram showing a display example of the selection screen displayed in step S41.
[0105]
In the example of FIG. 12, a photographed image display unit 131 is provided on the right side of the display unit 16. The photographed image display unit 131 displays a list of three types of images stored in the photographing process and edited in the editing process. Is displayed. The image selected by the user among the images displayed on the captured image display unit 131 is enlarged and displayed on the registered image display unit 132.
[0106]
Above the display unit 16, a message "Register? (Select and register an image)" is displayed, and the user himself / herself appears in the ranking of images taken by the image printing apparatus 1. When registering a captured image, one of the images displayed on the captured image display unit 131 is selected with the input pen 17-1 or 17-2, and a registration button 133 (“Register” is displayed. Button) to register the image.
[0107]
An unregistration button 134 (a button indicating “do not register”) that is operated when ending use of the image printing apparatus 1 without registering an image is also provided to the right of the registration button 133. By operating this, the user can end the processing without registering an image.
[0108]
In step S42, the CPU 61 determines whether or not the preset registration time still remains, and terminates the processing if it determines that there is no remaining registration time.
[0109]
In step S42, if the CPU 61 determines that the registration time remains, it proceeds to step S43, and determines whether an image has been registered, that is, one of the images is selected on the screen shown in FIG. It is determined whether 133 has been pressed.
[0110]
When determining in step S43 that the registration button 133 has not been pressed, the CPU 61 returns to step S41 and repeatedly executes the subsequent processing. On the other hand, when determining that the registration button 133 has been pressed, the CPU 61 proceeds to step S44. Then, the image displayed on the registered image display unit 132 when the registration button 133 is pressed is stored in the storage unit 66 and registered.
[0111]
Thereafter, the registration process is terminated, and the registered image is appropriately displayed on the demo screen, and is set as an image to be voted for ranking.
[0112]
As described above, the printing of the image edited in the editing process is executed by the printer unit 41 in parallel with the registration process shown in FIG. Since the seal paper 51 on which the image (edited image) is printed by the printer unit 41 is discharged to the seal outlet 19, the user receives the seal paper 51 and ends the use of the image printing apparatus 1.
[0113]
FIG. 13 is a diagram illustrating an example of the seal paper printed by the image printing apparatus 1 and discharged to the seal outlet 19.
[0114]
As shown in FIG. 13, images 151 to 154 in which characters (graphics) and the like are edited (graffiti) are printed on the sticker paper 141 in accordance with the number of divisions (four divisions) set by the user. In each of the printed images, the characters “Konoyaro” and “Sugoi”, which are shown around the subject image (person image) or partially superimposed on the subject image, and a heart The stamp image of a shape or a star is an edited image input by the user. In this way, the user can apply a desired character or image to the captured image.
[0115]
In addition, the degree of coincidence of each image is printed together with the image on the sticker paper 141. In the example of FIG. 13, the degree of coincidence is displayed on the left side of the image 151, and its value is set to “90%”. Further, the matching degree of the image 152 displayed on the left side of the image 152 is set to “88%”, the matching degree of the image 153 displayed on the right side of the image 153 is set to “95%”, and the right side of the image 154 is set. Is set to “100%”.
[0116]
The seal paper on which such an image and the degree of coincidence are printed is provided to a user using the image printing apparatus 1.
[0117]
In the image printing apparatus 1 described above, the pose images that can be selected may be switched at a predetermined cycle such as every week. In this case, for example, all pose images may be stored in the storage unit 66 in advance, and the provided image may be switched at predetermined intervals under the control of the CPU 61, or the administrator of the image printing apparatus 1 However, the pause image stored in the storage unit 66 may be replaced by the magnetic disk 71 to the semiconductor memory 74. The image data stored in the storage unit 66 may be switched according to an image transmitted from a management server (not shown) via a network.
[0118]
In the calculation of the degree of coincidence described above, for example, a pose image and an image (hereinafter, appropriately referred to as a photographed image) captured by the CCD 13 are divided into lattice-shaped ranges (blocks) and included in each block. The determination is made based on whether or not the image matches (corresponds to) the pose image and the captured image.
[0119]
Next, the processing of the image printing apparatus 1 for calculating the degree of coincidence will be described with reference to the flowchart of FIG.
[0120]
In step S51, the CPU 61 divides the pose image in the vertical direction and the horizontal direction at predetermined intervals (divides the pose image into blocks of a predetermined range), and sets the pose image and the captured image from the divided blocks. A block for determining whether or not they match (hereinafter, a target block) is selected.
[0121]
As shown in FIG. 15, the pose image is divided into blocks in a predetermined range, and for example, first, for example, an upper left block is set as a target block. As will be described later, the processing shown in FIG. 14 is repeatedly executed, and for each block, it is determined whether or not the pose image matches the captured image.
[0122]
In step S52, the CPU 61 determines whether the target block selected in step S51 is a block corresponding to the background of the pose image. That is, it is determined whether the target block is, for example, a block including only the background image or a block including the background image at a predetermined ratio or more.
[0123]
Therefore, for example, when the block B3-2 in FIG. 15 is set as the target block, the block B3-2 corresponds to the background of the pose image because the person image 112A or 112B as the subject is not included therein. Is determined to be the block to be executed.
[0124]
If the CPU 61 determines in step S52 that the block of interest is a block corresponding to the background of the pose image, the process proceeds to step S53, and in a case where the pose image and the captured image are superimposed, the captured image corresponding to the block of interest is It is determined whether or not the range includes the background of the captured image (or whether or not the range of the block of interest includes only the background of the captured image).
[0125]
When the CPU 61 determines in step S53 that the background of the captured image is included in the range of the captured image corresponding to the target block, the process proceeds to step S54, and sets a value of “1” to the target block. If it is determined that the background of the captured image is not included, the process proceeds to step S55, and a value of “0” is set to the target block.
[0126]
Therefore, since only the background of the captured image is included in the position corresponding to the block B3-2 in the captured image illustrated in FIG. 9, “1” is set to the target block B3-2.
[0127]
In step S56, the CPU 61 determines whether or not the determination of all the blocks has been completed. If it is determined that the determination has not been completed, the process returns to step S51, and the subsequent processing is performed. That is, blocks for which no determination has been made are sequentially selected as the target block, and the subsequent processing is repeatedly executed.
[0128]
If the CPU 61 determines in step S52 that the block of interest is not a block corresponding to the background of the pose image, the process proceeds to step S57, in which the block of interest is placed in the flesh-colored area of the person (hand or face of the face) captured as the pose image. It is determined whether or not the block corresponds to (area).
[0129]
For example, if the target block at that time is the block B10-4 in FIG. 15, since the block B10-4 is a block including the image of the face of the person 112A, the target block corresponds to the skin color region in step S57. The block is determined.
[0130]
If it is determined in step S57 that the block of interest is a block corresponding to the flesh-colored area of the pose image, the CPU 61 proceeds to step S58, and if the pose image and the captured image are superimposed, the captured image corresponding to the block of interest is It is determined whether or not the range includes a skin color region of a person appearing in the captured image.
[0131]
If the CPU 61 determines in step S58 that the range of the captured image corresponding to the target block includes the skin color region of the captured image, the process proceeds to step S54, and sets a value of “1” to the target block. On the other hand, when it is determined that the background of the captured image is not included, the process proceeds to step S55, and a value of “0” is set to the target block.
[0132]
As a result of this determination, for example, if the block of interest is block B10-4 in FIG. 15, the area of the face of the person 121 is included in the range of the captured image (FIG. 9) corresponding to that block. A value of “1” is set in the block of interest.
[0133]
On the other hand, when it is determined in step S57 that the block of interest is not a block corresponding to the skin color region of the pose image, the CPU 61 determines that the image included in the block of interest is not the background image of the pose image and is not a skin color region. In step S59, it is determined whether the range of the captured image corresponding to the block of interest includes an image inside the outline of the person.
[0134]
If it is determined in step S59 that the image inside the outline of the person is included in the range of the captured image corresponding to the block of interest, “1” is set to the block of interest in step S54, and If it is determined that the inner image is not included, “0” is set to the target block in step S55.
[0135]
Therefore, when the block of interest is block B9-8 in FIG. 15, since the image of the clothes of the person 121 is included in the range of the captured image (FIG. 9) corresponding to the block, "1" Is set.
[0136]
The above-described determination is performed for each block, and when it is determined in step S56 that the determination of all blocks has been completed, the processing is completed.
[0137]
For example, as a result of the processing shown in FIG. 14, the value ("1" or "0") of each block indicating whether the captured image shown in FIG. 9 matches the pose image is shown in FIG. Will be something.
[0138]
That is, when the background of the captured image corresponds to the block including the background of the pose image, a value of “1” is set for that block, and the skin color region of the captured image is assigned to the block including the skin color region of the pose image. Corresponds, a value of “1” is set in the block. If the block of the pose image containing the clothes and the hair image includes the clothes of the photographed image and the image of the hair, a value of “1” is set in the block, and the other pose images and the hair are captured. A value of “0” is set to a block where images do not match.
[0139]
In the example of FIG. 16, blocks to which a value of “0” is set are indicated by oblique lines.
[0140]
Then, based on the determination result as shown in FIG. 16, the coincidence is calculated by “(number of blocks in which 1 is set) / (total number of blocks) × 100”. That is, in the example of FIG. 16, as a result of the calculation of “150/176 × 100”, the matching degree is calculated as “85%”.
[0141]
The method of calculating the degree of coincidence can be changed as appropriate. For example, as described above, when the image is divided into horizontal and vertical directions at predetermined intervals, the degree of matching is determined based on whether or not the image at each grid point matches the pose image and the captured image. Can be calculated.
[0142]
【The invention's effect】
According to the present invention, an image can be captured.
[0143]
Further, according to the present invention, more interesting photographing can be provided.
[Brief description of the drawings]
FIG. 1 is a perspective view illustrating an example of the appearance of an image printing apparatus to which the present invention has been applied.
FIG. 2 is a block diagram illustrating a configuration example of the image printing apparatus of FIG. 1;
FIG. 3 is a block diagram illustrating a configuration example of a control device of FIG. 2;
FIG. 4 is a flowchart illustrating a customer service process of the image printing apparatus of FIG. 1;
FIG. 5 is a flowchart illustrating details of a photographing process performed in step S2 of FIG. 4;
FIG. 6 is a diagram showing a display example of a screen displayed in step S14 of FIG.
FIG. 7 is a diagram showing a display example of a screen displayed in step S17 of FIG. 5;
FIG. 8 is a diagram illustrating an example of a pose image.
9 is a diagram showing a display example of a screen displayed in step S20 of FIG.
FIG. 10 is a flowchart illustrating details of an editing process performed in step S3 of FIG. 4;
FIG. 11 is a flowchart illustrating details of a registration process performed in step S5 of FIG. 4;
FIG. 12 is a diagram illustrating a display example of a screen displayed in step S41 of FIG. 11;
FIG. 13 is a diagram illustrating an example of a seal sheet provided by the image printing apparatus of FIG. 1;
FIG. 14 is a flowchart illustrating a process of calculating a degree of coincidence of the image printing apparatus in FIG. 1;
FIG. 15 is a diagram illustrating an example of division of a pose image.
FIG. 16 is a diagram showing an example of values set in each block.
[Explanation of symbols]
1 Image printing device
13 CCD
16 Display
17-1 and 17-2 input pen
31 Control device
34 Printer Unit
35 Seal paper unit
41 Printer section
42 Control tag reader / writer
51 Sticker paper
52 control tags

Claims (10)

ユーザのポーズを誘導する、所定のポーズの人物画像の選択を受け付ける受付手段と、
被写体を撮影する撮影手段と、
前記受付手段により選択が受け付けられた第1の人物画像に、前記撮影手段により撮影された前記被写体としての第2の人物画像を重畳して表示する表示制御手段と、
前記撮影手段により、所定のタイミングにおいて撮影されている前記第2の人物画像を保存する保存手段と
を備えることを特徴とする画像印刷装置。
A receiving unit that guides a user's pose, receives a selection of a person image in a predetermined pose,
Photographing means for photographing a subject;
Display control means for superimposing and displaying a second person image as the subject photographed by the photographing means on the first person image whose selection has been accepted by the accepting means;
An image printing apparatus comprising: a storage unit configured to store the second human image captured at a predetermined timing by the imaging unit.
前記第1の人物画像を記憶する記憶手段をさらに備える
ことを特徴とする請求項1に記載の画像印刷装置。
The image printing apparatus according to claim 1, further comprising a storage unit configured to store the first person image.
前記表示制御手段により重畳して表示されている、前記第1の人物画像と前記第2の人物画像の重畳の度合いを算出する算出手段をさらに備え、
前記保存手段は、前記算出手段により算出された前記重畳の度合いが所定の閾値以上であるときの前記第2の人物画像を保存する
ことを特徴とする請求項1または2に記載の画像印刷装置。
Calculating means for calculating a degree of superimposition of the first person image and the second person image, which are superimposed and displayed by the display control means,
3. The image printing apparatus according to claim 1, wherein the storage unit stores the second person image when the degree of superimposition calculated by the calculation unit is equal to or greater than a predetermined threshold. 4. .
前記算出手段により算出された前記重畳の度合いを表す情報を表示する重畳度合い表示手段をさらに備える
ことを特徴とする請求項3に記載の画像印刷装置。
The image printing apparatus according to claim 3, further comprising a superimposition degree display unit configured to display information indicating the degree of superimposition calculated by the calculation unit.
前記保存手段により保存された画像を、前記重畳の度合いを表す情報とともに所定の印刷媒体に印刷する印刷手段をさらに備える
ことを特徴とする請求項1乃至4のいずれかに記載の画像印刷装置。
The image printing apparatus according to claim 1, further comprising a printing unit configured to print the image stored by the storage unit on a predetermined print medium together with the information indicating the degree of superimposition.
前記表示制御手段は、前記第1の人物画像の、前記第2の人物画像と重畳していない領域が、所定の色または点滅により表示されるように表示を制御する
ことを特徴とする請求項1乃至5のいずれかに記載の画像印刷装置。
The display control means controls display so that an area of the first person image that is not superimposed on the second person image is displayed in a predetermined color or blinking. An image printing apparatus according to any one of claims 1 to 5.
前記保存手段は、ユーザからの指示があることに基づいて、前記撮影手段により撮影されている前記第2の人物画像を保存する
ことを特徴とする請求項1乃至6のいずれかに記載の画像印刷装置。
The image according to any one of claims 1 to 6, wherein the storage unit stores the second person image photographed by the photographing unit based on an instruction from a user. Printing device.
ユーザのポーズを誘導する、所定のポーズの人物画像の選択を受け付ける受付ステップと、
被写体を撮影する撮影ステップと、
前記受付ステップの処理により選択が受け付けられた第1の人物画像に、前記撮影ステップの処理により撮影された前記被写体としての第2の人物画像を重畳して表示する表示制御ステップと、
前記撮影ステップの処理により、所定のタイミングにおいて撮影されている前記第2の人物画像を保存する保存ステップと
を含むことを特徴とする画像印刷方法。
A receiving step of inducing a user's pose, receiving a selection of a person image in a predetermined pose,
A shooting step for shooting the subject,
A display control step of superimposing and displaying a second person image as the subject photographed by the processing of the photographing step on the first person image selected by the processing of the accepting step;
Storing the second person image photographed at a predetermined timing by the processing of the photographing step.
ユーザのポーズを誘導する、所定のポーズの人物画像の選択を受け付ける受付ステップと、
被写体を撮影する撮影ステップと、
前記受付ステップの処理により選択が受け付けられた第1の人物画像に、前記撮影ステップの処理により撮影された前記被写体としての第2の人物画像を重畳して表示する表示制御ステップと、
前記撮影ステップの処理により、所定のタイミングにおいて撮影されている前記第2の人物画像を保存する保存ステップと
を含む画像印刷方法により印刷されることを特徴とする印刷媒体。
A receiving step of inducing a user's pose, receiving a selection of a person image in a predetermined pose,
A shooting step for shooting the subject,
A display control step of superimposing and displaying a second person image as the subject photographed by the processing of the photographing step on the first person image selected by the processing of the accepting step;
A print medium that is printed by an image printing method including a storing step of storing the second person image captured at a predetermined timing by the processing of the capturing step.
ユーザのポーズを誘導する、所定のポーズの人物画像の選択を受け付ける受付手段と、
被写体を撮影する撮影手段と、
前記受付手段により選択が受け付けられた第1の人物画像に、前記撮影手段により撮影された前記被写体としての第2の人物画像を重畳して表示する表示制御手段と、
前記撮影手段により、所定のタイミングにおいて撮影されている前記第2の人物画像を保存する保存手段と
を有する画像印刷装置において使用される印刷媒体ユニットであって、
前記印刷媒体ユニットを識別するユニット識別情報を記憶する識別情報記憶手段を備え、
前記識別情報記憶手段により記憶されている前記ユニット識別情報が前記画像印刷装置により認証されたとき使用可能とされる
ことを特徴とする印刷媒体ユニット。
A receiving unit that guides a user's pose, receives a selection of a person image in a predetermined pose,
Photographing means for photographing a subject;
Display control means for superimposing and displaying a second person image as the subject photographed by the photographing means on the first person image whose selection has been accepted by the accepting means;
A print medium unit used in an image printing apparatus including: a storage unit configured to store the second person image captured at a predetermined timing by the imaging unit;
An identification information storage unit that stores unit identification information for identifying the print medium unit,
A print medium unit, wherein the unit identification information stored in the identification information storage unit is enabled when the image printing apparatus authenticates the unit identification information.
JP2002170388A 2002-06-11 2002-06-11 Image printing apparatus and information processing method Expired - Fee Related JP4123346B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002170388A JP4123346B2 (en) 2002-06-11 2002-06-11 Image printing apparatus and information processing method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002170388A JP4123346B2 (en) 2002-06-11 2002-06-11 Image printing apparatus and information processing method

Publications (2)

Publication Number Publication Date
JP2004015735A true JP2004015735A (en) 2004-01-15
JP4123346B2 JP4123346B2 (en) 2008-07-23

Family

ID=30436672

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002170388A Expired - Fee Related JP4123346B2 (en) 2002-06-11 2002-06-11 Image printing apparatus and information processing method

Country Status (1)

Country Link
JP (1) JP4123346B2 (en)

Cited By (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005181912A (en) * 2003-12-24 2005-07-07 Ims:Kk Photographic seal delivering apparatus and its control method
JP2006101173A (en) * 2004-09-29 2006-04-13 Casio Comput Co Ltd Imaging device and program
JP2006162719A (en) * 2004-12-03 2006-06-22 Omron Entertainment Kk Photographic sticker-vending machine and its method and program
JP2008052122A (en) * 2006-08-25 2008-03-06 Furyu Kk Photographic sticker formation apparatus, method and program
JP2009163220A (en) * 2007-12-14 2009-07-23 Canon Inc Image pickup apparatus
WO2009107724A1 (en) * 2008-02-27 2009-09-03 株式会社コナミデジタルエンタテインメント Game device, game control method, data storage medium and program
JP2011232634A (en) * 2010-04-28 2011-11-17 Furyu Kk Photograph seal making device, photograph seal making method and program
JP2012034242A (en) * 2010-07-30 2012-02-16 Namco Bandai Games Inc Imaging apparatus, program, information storage medium and imaging method
JP2012034243A (en) * 2010-07-30 2012-02-16 Namco Bandai Games Inc Imaging apparatus, program, information storage medium and imaging method
JP2012074778A (en) * 2010-09-27 2012-04-12 Furyu Kk Photograph seal generation device, photograph seal generation method, and program
JP2016091426A (en) * 2014-11-07 2016-05-23 大日本印刷株式会社 Coupon distribution device and coupon distribution system

Cited By (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005181912A (en) * 2003-12-24 2005-07-07 Ims:Kk Photographic seal delivering apparatus and its control method
JP2006101173A (en) * 2004-09-29 2006-04-13 Casio Comput Co Ltd Imaging device and program
JP2006162719A (en) * 2004-12-03 2006-06-22 Omron Entertainment Kk Photographic sticker-vending machine and its method and program
JP2008052122A (en) * 2006-08-25 2008-03-06 Furyu Kk Photographic sticker formation apparatus, method and program
JP2009163220A (en) * 2007-12-14 2009-07-23 Canon Inc Image pickup apparatus
KR101066460B1 (en) 2008-02-27 2011-09-23 가부시키가이샤 코나미 데지타루 엔타테인멘토 Game device, game control method and information recording medium
WO2009107724A1 (en) * 2008-02-27 2009-09-03 株式会社コナミデジタルエンタテインメント Game device, game control method, data storage medium and program
TWI382863B (en) * 2008-02-27 2013-01-21 Konami Digital Entertainment Game device, game control method, and information recording medium
CN103285593B (en) * 2008-02-27 2016-04-20 科乐美数码娱乐株式会社 Game device and game control method
JP2011232634A (en) * 2010-04-28 2011-11-17 Furyu Kk Photograph seal making device, photograph seal making method and program
JP2012034242A (en) * 2010-07-30 2012-02-16 Namco Bandai Games Inc Imaging apparatus, program, information storage medium and imaging method
JP2012034243A (en) * 2010-07-30 2012-02-16 Namco Bandai Games Inc Imaging apparatus, program, information storage medium and imaging method
JP2012074778A (en) * 2010-09-27 2012-04-12 Furyu Kk Photograph seal generation device, photograph seal generation method, and program
JP2016091426A (en) * 2014-11-07 2016-05-23 大日本印刷株式会社 Coupon distribution device and coupon distribution system

Also Published As

Publication number Publication date
JP4123346B2 (en) 2008-07-23

Similar Documents

Publication Publication Date Title
JP5418708B2 (en) Photo sealing machine, photo sealing machine processing method and program
JP5445420B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP4123346B2 (en) Image printing apparatus and information processing method
CN109670385A (en) The method and device that expression updates in a kind of application program
JP3876985B2 (en) Photo sticker vending machine and image printing method
JP5304751B2 (en) Image creating apparatus and method, and program
JP6880394B2 (en) Photographing game console and shooting method
JP5874421B2 (en) Game shooting device, game shooting method and program
JP5569502B2 (en) Photo sticker creation apparatus, photo sticker creation method, and program
JP2017121044A (en) Photo seal producing apparatus and image processing method
JP6870274B2 (en) Image print system
US11235232B2 (en) Game machine, and storage medium
JP2004072404A (en) Automatic photograph sticker vending machine and method, printing medium, and printing medium unit
JP6776966B2 (en) Image providing system
JP2004357897A (en) Information provision system, program, information storage medium and information provision method
JP3716814B2 (en) Image printing apparatus and method
JP4386050B2 (en) Fortune-telling processing system, fortune-telling processing method, photo fortune-telling system, fortune-telling processing program, and recording medium
JP4039666B2 (en) Photo sticker vending machine, photo sticker creation method, and program
JP2012142772A (en) Image processing system and image processing method
JP4062727B2 (en) Image printing apparatus and method
JP2018097835A (en) Order reception terminal and image provision system
JP2006162719A (en) Photographic sticker-vending machine and its method and program
US11130058B2 (en) Game machine and storage medium
JPH08191956A (en) Divination device
JP3048934U (en) Self-made iron transfer paper vending machine

Legal Events

Date Code Title Description
A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050119

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20050413

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050527

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A711

Effective date: 20070403

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20070613

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20080125

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080131

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080313

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20080409

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20080422

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 4123346

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20110516

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20120516

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20130516

Year of fee payment: 5

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20140516

Year of fee payment: 6

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees