JP2004048275A - Photograph seal vending machine and method therefor printing medium, and printing medium unit - Google Patents
Photograph seal vending machine and method therefor printing medium, and printing medium unit Download PDFInfo
- Publication number
- JP2004048275A JP2004048275A JP2002201557A JP2002201557A JP2004048275A JP 2004048275 A JP2004048275 A JP 2004048275A JP 2002201557 A JP2002201557 A JP 2002201557A JP 2002201557 A JP2002201557 A JP 2002201557A JP 2004048275 A JP2004048275 A JP 2004048275A
- Authority
- JP
- Japan
- Prior art keywords
- image
- editing
- displayed
- unit
- display
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
Images
Landscapes
- Cameras Adapted For Combination With Other Photographic Or Optical Apparatuses (AREA)
- Processing Or Creating Images (AREA)
- Television Signal Processing For Recording (AREA)
Abstract
Description
【0001】
【発明の属する技術分野】
本発明は、写真シール自動販売機および方法、印刷媒体、並びに印刷媒体ユニットに関し、特に、画像編集時の操作性を改善した写真シール自動販売機および方法、印刷媒体、並びに印刷媒体ユニットに関する。
【0002】
【従来の技術】
従来、ユーザの画像を撮影し、これを予め用意されたフレーム画像と合成してシール紙などに印刷して提供する写真シール自動販売機(例えば、プリントクラブ(商標))が知られている。そして、この写真シール自動販売機の中には、ユーザが、撮影した画像上に付属のペン(以下、タッチペンと称する)で任意の文字や図形などを書き込む(編集する)ことができるようになされているものも存在する。
【0003】
ユーザは、このような写真シール自動販売機でゲームを行う場合、まず、代金を支払い、次に自らを撮影し、次に撮影した画像に落書き(編集)を施し、最後に落書きされた画像が印刷されたシール紙を受け取る。
【0004】
写真シール自動販売機は、編集処理を行う際、色、太さ、および模様等が異なる複数のペン(ブラシ)をディスプレイに表示して、これらの中から、ユーザに所望するペン(ブラシ)を選択させる。そして、ディスプレイに表示した撮影画像上に、タッチペンによる落書きの入力を受け付ける。写真シール自動販売機は、受け付けた入力の軌跡に従って、ユーザにより選択されたペン(ブラシ)に対応する線を撮影画像上に描画する。
【0005】
また、写真シール自動販売機は、編集処理を行う際、色、形、模様等が異なる複数のスタンプをディスプレイに表示して、これらの中から、ユーザに所望するスタンプを選択させる。そして、ディスプレイに表示した撮影画像上に、タッチペンによるスタンプの貼り付け位置の入力を受け付ける。写真シール自動販売機は、受け付けた入力位置に従って、ユーザにより選択されたスタンプを撮影画像上に描画する。さらに、タッチペンの軌跡上に、所定の間隔で異なるスタンプを描画する機能(コロコロスタンプ)も一般的である。
【0006】
また、写真シール自動販売機は、ディスプレイに、落書き消去用のボタンを表示しており、ユーザが描画された線やスタンプが気に入らない場合、落書き消去用のボタンにタッチペンでタッチした後、消去したい部分の落書きに触れることにより、消しゴムで絵を消すような感覚で、描画された落書きを消去することができる。
【0007】
以上のような編集操作において、ユーザが、被写体(撮影画像のうち、ユーザが位置する領域)の近傍に落書きを入力したいが、被写体の上には落書きをしたくないという場合がある。このような場合、ユーザは、被写体の上に落書きを入力しないように、細心の注意を払って、タッチペンを操作しなくてはならない。しかし、それにもかかわらず、誤って、被写体の上に落書きを入力してしまうことがある。
【0008】
このような問題を解決するために、写真シール自動販売機の中には、ユーザからの所定の操作により、被写体の上に入力された落書きを無効な入力にすることができるようになっているものが存在する。
【0009】
この機能を実現するために、写真シール自動販売機は、編集処理に際して、3つのレイヤ(層状)の画像を管理する。すなわち、写真シール自動販売機は、撮影画像、被写体の背後に入力された落書きによる画像(以下、背景画像と称する)、および被写体の前に入力された落書きによる画像(以下、前景画像と称する)を、レイヤ構造で管理している。写真シール自動販売機は、これら3つの画像を、上から順番に前景画像、撮影画像、背景画像の順番で重ねた合成画像をディスプレイに表示する。
【0010】
ユーザは、背景画像に落書きしたい場合(すなわち、被写体を落書きで塗りつぶしたくない場合)、背景画像を指定した後、ディスプレイに表示された撮影画像上に落書きを入力する。すると、入力された落書きは、被写体が表示されている領域には反映されず、それ以外の領域には落書きが反映される(落書きに対応する線やスタンプが描画される)。また、背景画像に描画された落書きを消去したい場合、ユーザは、背景画像を指定し、落書き消去用のボタンにタッチした後、背景画像に描画された落書きを消去することができる。
【0011】
また、ユーザは、前景画像に落書きしたい場合(すなわち、被写体の上にも、線やスタンプを描画させたい場合)、前景画像を指定した後、ディスプレイに表示された撮影画像上に落書きを入力する。すると、入力された落書きは、被写体が表示されている領域と、それ以外の領域を区別せず、全ての領域に反映され、落書きに対応する線やスタンプが描画される。また、前景画像に描画された落書きを消去したい場合、ユーザは、前景画像を指定し、落書き消去用のボタンにタッチした後、前景画像に描画された落書きを消去することができる。
【0012】
【発明が解決しようとする課題】
しかしながら、従来、写真シール自動販売機のディスプレイには、前景画像、撮影画像、および背景画像を区別せずに合成した合成画像のみが表示されていたため、ユーザは、描画された落書きが、背景画像に入力された落書きなのか、前景画像に入力された落書きなのかを判別することが困難であるという課題があった。
【0013】
従って、ユーザは、描画された落書きを消去しようとして、前景画像および背景画像の中から、消去しようとする落書きが描画されていないほうの画像を指定してしまうことがあった。結果的に、ユーザは、消去したくない落書きを誤って消去してしまうという課題があった。
【0014】
特に、ユーザは、落書きの入力直後には、その落書きが前景画像に対して入力されたものなのか、背景画像に対して入力されたものなのかを憶えているが、落書きを開始してから時間が経つにつれ、その記憶も定かではなくなってしまう。従って、落書きを開始した当初に入力した落書きを消去する場合、ユーザは、しばしば、消去したくない落書きを消去してしまうことがあった。
【0015】
また、写真シール自動販売機のディスプレイには、合成画像しか表示されていないため、ユーザは、前景画像(背景画像)を指定していることを忘れて、背景画像(前景画像)に落書きを入力するつもりで、前景画像(背景画像)に落書きを入力してしまうことがあるという課題があった。
【0016】
このような課題を解決するために、背景画像用のペン、スタンプ、および消去用のボタンと、前景画像用のペン、スタンプ、および消去用のボタンを、それぞれ分けてディスプレイに表示させるようにすることが考えられるが、このようにした場合、ディスプレイ上に表示させるボタン類が多くなってしまい、ユーザがそれらのボタン類の中から、所望するボタンを迅速に選択するのが困難になるという課題があった。
【0017】
本発明はこのような状況に鑑みてなされたものであり、画像編集時の操作性を改善することを目的とする。
【0018】
【課題を解決するための手段】
本発明の写真シール自動販売機は、被写体を撮影して得た第1の画像、第1の画像に対して背景として合成される第2の画像、第1の画像に対して前景として合成される第3の画像、または、第1の画像、第2の画像、および第3の画像を合成した第4の画像を選択する選択手段と、第1の画像、第2の画像、第3の画像、および第4の画像のうち、選択手段により選択された画像が選択されていない画像と識別できるように、その表示を制御する制御手段とを備えることを特徴とする。
【0019】
本発明の写真シール自動販売機においては、選択手段により、被写体を撮影して得た第1の画像、第1の画像に対して背景として合成される第2の画像、第1の画像に対して前景として合成される第3の画像、または、第1の画像、第2の画像、および第3の画像を合成した第4の画像が選択され、制御手段により、第1の画像、第2の画像、第3の画像、および第4の画像のうち、選択手段により選択された画像が選択されていない画像と識別できるように、その表示が制御される。
【0020】
従って、ユーザが編集操作を入力する際、ユーザが第2の画像(背景画像)を作成するための編集操作を入力しようとしているのか、または第3の画像(前景画像)を作成するための編集操作を入力しているのかを、ユーザに識別させることができる。また、既に編集された画像のうち、どの落書き(線、文字、スタンプなど)が、第2の画像(背景画像)に属し、どの落書きが、第3の画像(前景画像)に属しているのかを、ユーザに識別させることができる。
【0021】
この選択手段は、例えば、モニタに表示されたサムネイル、またはタグなどにより構成される。また、制御手段は、例えば、CPUにより構成される。
【0022】
前記制御手段による制御に従って、前記選択手段により選択された画像が選択されていない画像と識別できるように表示する表示手段と、ユーザからの操作の入力を受け付ける受付手段とをさらに設けるようにすることができる。
【0023】
表示手段は、例えば、CRT(Cathode−Ray Tube)により構成され、受付手段は、例えば、タッチペンとタッチパネルにより構成される。
【0024】
前記制御手段には、前記選択手段により前記第2の画像が選択された場合、前記受付手段に、前記第2の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第2の画像を編集し、前記選択手段により前記第3の画像が選択された場合、前記受付手段に、前記第3の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第3の画像を編集するようにさせることができる。
【0025】
これにより、ユーザは、背景および前景を編集することができる。
【0026】
前記制御手段には、前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像にそれぞれ対応するタブ、および前記選択手段により選択された前記画像を前記表示手段に表示させるようにさせ、前記受付手段には、前記表示手段により表示された複数の前記タブの中から、1つの前記タブの選択を受け付けるようにさせ、前記選択手段には、前記受付手段により選択が受け付けられた前記タブに対応する前記画像を選択するようにさせることができる。
【0027】
これにより、ユーザは、表示されたタブを選択することにより、タブに対応する画像を表示させることができる。
【0028】
前記制御手段には、前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像にそれぞれ対応するサムネイル、および前記選択手段により選択された前記画像を前記表示手段に表示させるようにさせ、前記受付手段には、前記表示手段により表示された複数の前記サムネイルの中から、1つの前記サムネイルの選択を受け付けるようにさせ、前記選択手段には、前記受付手段により選択が受け付けられた前記サムネイルに対応する前記画像を選択するようにさせることができる。
【0029】
これにより、ユーザは、表示されたサムネイルを選択することにより、サムネイルに対応する画像を表示させることができる。また、ユーザは、表示されている背景のサムネイルおよび前景のサムネイルを見ることにより、背景および前景の編集状況を把握することができる。
【0030】
前記第2の画像が合成される領域を、それ以外の領域と識別することができるように前記第1の画像、前記第2の画像、および前記第3の画像を合成した第5の画像、並びに前記第3の画像が合成される領域を、それ以外の領域と識別することができるように前記第1の画像、前記第2の画像、および前記第3の画像を合成した第6の画像を作成する作成手段をさらに設けるようにし、前記制御手段には、前記第1の画像、第5の画像、第6の画像、および前記第4の画像にそれぞれ対応するサムネイル、および前記選択手段により選択された前記画像を前記表示手段に表示させるようにさせ、前記受付手段には、前記表示手段により表示された複数の前記サムネイルの中から、1つの前記サムネイルの選択を受け付けるようにさせ、前記選択手段には、前記受付手段により選択が受け付けられた前記サムネイルに対応する前記画像を選択するようにさせることができる。
【0031】
これにより、ユーザは、表示されたサムネイルを選択することにより、サムネイルに対応する画像を表示させることができる。また、ユーザは、表示されているサムネイルを見ることにより、背景の、被写体および前景との位置関係、および前景の、被写体および背景との位置関係を把握することができる。
【0032】
前記制御手段には、前記選択手段により前記第5の画像が選択された場合、前記受付手段に、前記第5の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第2の画像を編集するようにさせ、前記選択手段により前記第6の画像が選択された場合、前記受付手段に、前記第6の画像に対する編集操作の入力を受け付けさせ、前記受付手段により入力が受け付けられた前記編集操作に基づいて、前記第3の画像を編集するようにさせることができる。
【0033】
これにより、ユーザは、背景の、被写体および前景との位置関係を把握しながら、背景を編集することができる。また、ユーザは、前景の、被写体および背景との位置関係を把握しながら、前傾を編集することができる。
【0034】
前記第4の画像を、所定の印刷媒体に印刷する印刷手段をさらに設けるようにすることができる。
【0035】
これにより、編集された画像が印刷された印刷媒体をユーザに提供することができる。
【0036】
前記所定の印刷媒体であって、装着された前記印刷媒体を識別するための識別情報を読み取る読み取り手段をさらに設けるようにし、前記制御手段には、読み取り手段による読み取り結果に基づいて、前記印刷媒体への印刷を制御するようにさせることができる。
【0037】
これにより、本発明の写真シール自動販売機に対して生産された印刷媒体のみが使用可能となり、いわゆる純正品以外のものが使用されることを抑制することができる。
【0038】
読み取り手段は、例えば、ICタグ(制御タグ)リーダライタにより構成される。
【0039】
本発明の印刷媒体ユニットは、前記印刷手段により画像が印刷される前記印刷媒体を格納するとともに、前記読み取り手段により読み取られる前記識別情報を保持することを特徴とする。
【0040】
識別情報は、例えば、ICタグ(制御タグ)、ICカード等のメモリにより構成され、ユニット識別情報としての固有のIDを記憶する。
【0041】
このように、識別情報が認証されたときにのみ印刷媒体ユニットが使用可能とされることにより、本発明の写真シール自動販売機に対して生産されたユニットのみが使用可能となり、いわゆる純正品以外のものが使用されることを抑制することができる。また、印刷媒体ユニットにバーコードなどが付されている場合、そのバーコードにより、純正品であるか否かを判断させるようにしてもよい。
【0042】
本発明の印刷媒体は、上述した写真シール自動販売機により画像が印刷された印刷媒体であることを特徴とする。
【0043】
本発明の写真シール販売方法は、被写体を撮影する撮影ステップと、撮影ステップの処理により被写体を撮影して得た第1の画像、第1の画像に対して背景として合成される第2の画像、第1の画像に対して前景として合成される第3の画像、または、第1の画像、第2の画像、および第3の画像を合成した第4の画像を選択する選択ステップと、第1の画像、第2の画像、第3の画像、および第4の画像のうち、選択ステップの処理により選択された画像が選択されていない画像と識別できるように、その表示を制御する制御ステップとを含むことを特徴とする。
【0044】
【発明の実施の形態】
図1は、本発明を適用した写真シール自販機1の構成例を示す斜視図である。
【0045】
写真シール自動販売機1の垂直な面1Aには、保持部材13を介して撮影装置12が面1Aから突出した状態で設けられている。撮影装置12は、面1Aに垂直方向に配設されているレール14に従って、所定の範囲内で上下方向に移動可能とされている。また、撮影装置12は、保持部材13との接合部を中心として、垂直平面内で上下方向に首振り自在に保持部材13に取り付けられている。
【0046】
従って、写真シール自動販売機1を利用するユーザは、撮影装置12をレール14に従って好みの高さに調節し、また、撮影装置12の正面(CCD(Charge Coupled Device)21および画像表示部22が設けられている面)を好みの角度に調節し、撮影を行うことができる。
【0047】
撮影装置12には、CCD21が設けられ、CCD21の下には画像表示部22が設けられている。CCD21により被写体の画像が取り込まれ、取り込まれている画像(動画像)がリアルタイムで画像表示部22に表示される。また、所定の撮影タイミングにおいて、CCD21による撮影が行われ、ユーザ(被写体)の画像が静止画像として写真シール自動販売機1に保存される。画像表示部22がCCD21の近傍に設けられているため、ユーザは、CCD21に視線を向けた状態で、画像表示部22に表示される自分自身の画像を確認しながら、撮影を行うことができる。
【0048】
撮影装置12(レール14)の左側にはフラッシュ照射部15−1が設けられており、また、右側にはフラッシュ照射部15−2が設けられている。フラッシュ照射部15−1,15−2は、撮影装置12(CCD21)により撮影されるタイミングで、写真シール自動販売機1の内部に設けられている照明装置から出射されるフラッシュ光を透過し、被写体を照射する。
【0049】
フラッシュ照射部15−2の下には、LCD(Liquid Crystal Display)、CRT(Cathode−Ray Tube)などにより構成される撮影用モニタ16が設けられている。撮影用モニタ16はまた、プロジェクタとスクリーンにより構成されるようにしても良い。
【0050】
撮影用モニタ16には、撮影処理の行程段階(進行段階)に応じて、撮影方法などを案内する各種のメッセージなどが表示される。また、撮影用モニタ16には、撮影された画像が表示されるため、ユーザは、表示される撮影画像の中から、編集(落書き)対象の画像を選択することができる。後述するように、ユーザは、撮影を終了した後、写真シール自動販売機1の裏側に移動し、撮影された画像に対して好みの文字や図形などを入力し、編集を施すことができる。
【0051】
撮影用モニタ16の下には、面1Aから突出した状態で操作部11が設けられている。操作部11の上面11Aは若干斜め上方を向いた状態で設けられており、そこに操作パネル17が設けられている。ユーザは、操作パネル17に設けられている各種のボタンにより、撮影処理を進行する。
【0052】
操作パネル17には、例えば、撮影用モニタ16に表示される各種の選択に対して、決定するときに操作される「○ボタン」、決定したものをキャンセルするときに操作される「×ボタン」、撮影用モニタ16に表示されるカーソルなどを上下左右に移動するときに操作される「矢印ボタン」などが配置される。また、そのほかにも、撮影を開始するとき操作される「撮影開始ボタン」なども適宜配置される。操作部11には、撮影用モニタ16に直接押し当てることで各種の選択を行うためのタッチペンなども適宜用意される。操作パネル17は、ユーザにより入力された操作に対応する操作信号を、制御装置91(図5)に送信する。
【0053】
面1Aの左下には、硬貨投入口18が設けられている。ユーザは、写真シール自動販売機1を利用して撮影するとき、所定の代金を硬貨投入口18に投入する。
【0054】
写真シール自動販売機1の左側面1Bの下方には、シール取り出し口31が設けられている。撮影され、編集等が施された画像が所定の数だけ、所定の大きさでシール紙に印刷され、得られたシール紙がシール取り出し口31から排出される。
【0055】
図2は、写真シール自動販売機1の面1Aの反対側に相当する、面1C側の構成例を示す斜視図である。なお、以下において、適宜、面1Aが設けられている面を写真シール自動販売機1の正面として説明し、面1Aの反対側に相当する、面1Cが設けられている面を写真シール自動販売機1の背面として説明する。
【0056】
写真シール自動販売機1の面1Cには、編集用モニタ41−1および41−2(以下の説明において、編集用モニタ41−1および41−2を個々に区別する必要がない場合、まとめて編集用モニタ41と称する)が水平方向に並置されている。編集用モニタ41−1の下には収納部42−1が設けられ、そこに、編集用モニタ41−1に直接押し当てることで画像の編集などを行うためのタッチペン43−1が収納される。同様に、編集用モニタ41−2の下には収納部42−2が設けられ、そこに、編集用モニタ41−2に直接押し当てることで画像の編集などを行うためのタッチペン43−2が収納される。なお、以下の説明において、タッチペン43−1および43−2を、個々に区別する必要がない場合、まとめてタッチペン43と称する。
【0057】
撮影装置12により撮影され、編集対象の画像として選択された画像は、ユーザが撮影処理を終了した後、編集用モニタ41−1および41−2にそれぞれ表示される。編集用モニタ41−1および41−2には、タッチパネルが積層されており、ユーザは、表示されている画像に対し、任意の文字や図形などを、タッチペン43−1および43−2を利用して書き込む(入力する)ことができる。なお、以下の説明において、タッチペン43−1(43−2)を、編集用モニタ41−1(41−2)に積層されたタッチパネル94−1(94−2)(図5)に押し当てて、操作を入力することを、「タッチペン43−1(43−2)でタッチする」とも記述する。
【0058】
編集用モニタ41−1および41−2には、編集対象の画像とともに、様々な編集ツールを選択するためのボタンが表示される。そして、そのボタンが操作され、画像の編集が行われたとき、編集用モニタ41−1および41−2には、入力に応じて生成された編集済みの画像が表示される。
【0059】
タッチペン43−1および43−2は、編集用モニタ41−1および41−2に積層されるタッチパネルの位置検出方式(例えば、抵抗膜式、超音波式など)に応じて構成される。
【0060】
図3は、写真シール自動販売機1の配置の例を示す図である。
【0061】
写真シール自動販売機1の正面(面1A)に対向する位置には、所定距離だけ離間して背景パネル61が設置され、ユーザは、写真シール自動販売機1と背景パネル61の間を撮影空間62として撮影を行う。なお、撮影空間62には、写真シール自動販売機1の上面と背景パネル61により支持される天井部材63、および、撮影空間62の内部が外側から見えないように、カーテン64−1と側面パネル65−1が設けられている。
【0062】
撮影を終了した後に移動し、画像の編集を行う空間として、面1Cに臨む位置に編集空間73が設けられている。編集空間73には、その内部が外部から覗かれるのを防止すべく、カーテンフレーム71にカーテン72−1が取り付けられている。カーテン72−1は、面1Bと略同一平面上に設けられ、カーテン72−2は、面1Cに対向して、所定の距離だけ離間して設けられる。なお、この例においては、カーテンフレーム71は、天井部材43とほぼ同一平面上に設けられている。
【0063】
図4は、写真シール自動販売機1の配置の例を、その上方から示す図である。
【0064】
図4に示されるように、写真シール自動販売機1の右側面1D側にも、面1B側と同様に、撮影空間62の内部が外側から覗かれることを防止すべく、カーテン64−2と側面パネル65−2が設けられている。撮影空間62の内部(背景パネル61、天井部材63、側面パネル65−1,65−2等の内側)は、撮影装置12により撮影された画像から、ユーザの画像のみをいわゆるクロマキ(chroma−key)処理により抽出できるように、例えば、白色や青色などの単一色の面とされる。
【0065】
図4を参照し、撮影を開始してからシール紙を受け取るまでのユーザの移動について説明する。
【0066】
ユーザは、写真シール自動販売機1を利用するとき、白抜き矢印A1で示されるように撮影空間62に入場し、撮影処理を行う。従って、撮影空間62が使用されているとき、写真シール自動販売機1を利用することを所望するユーザは、例えば、側面パネル61の前方の順番待ち空間74において、撮影空間62が空くまで待機することになる。
【0067】
所定の数の画像を編集対象の画像として選択し、撮影を終えたとき、ユーザは、例えば、白抜き矢印A2で示されるようにして撮影空間62から退場し、白抜き矢印A3で示されるようにして写真シール自動販売機1の背面側に設けられる編集空間73に移動する。
【0068】
このとき、順番待ち空間74において順番待ちをしていたユーザ(撮影空間62が空くのを待機していたユーザ)は、撮影空間62を先に使用していたユーザの組が編集空間73に移動することに応じて、撮影空間62に入場する。
【0069】
上述したように、編集空間73から確認できる編集用モニタ41−1および41−2には、撮影空間62において撮影し、選択した画像が表示されるため、ユーザは、それに対して編集を行う。ユーザは、編集を終えたとき、次に、写真シール自動販売機1の面1Bに臨む場所である印刷待ち空間75に白抜き矢印A4で示されるようにして移動し、編集した画像がシール紙121にプリントされ、排出されるまで待機する。
【0070】
そして、シール取り出し口31にシール紙121(図5)が排出されたとき、ユーザは、それを受け取り、写真シール自動販売機1の利用を終える。これらの移動の案内は、撮影用モニタ16、編集用モニタ41−1および41−2、または図示せぬスピーカなどにより行われる。
【0071】
このように、撮影を行う空間、編集を行う空間、印刷が終了するのを待機する空間を、写真シール自動販売機1の異なる面の前方にそれぞれ設けることにより、撮影処理、編集処理、印刷処理を併行して実行させることができ、これらの処理を1つの空間で実行させる場合に較べて、後続のユーザの待ち時間を減らすと共に、単位時間あたりに写真シール自動販売機1を利用するユーザの人数を増加させることができる。従って、収益を向上させることができる。また、撮影処理に要する時間、編集処理に要する時間等を長く確保することができる。
【0072】
図5は、写真シール自動販売機1の内部の構成例を示すブロック図である。上述した構成について、その詳細な説明は適宜省略する。
【0073】
制御装置91は、例えば、汎用のパーソナルコンピュータなどにより構成され、写真シール自動販売機1の全体の動作を制御する。具体的には、制御装置91に設けられているCPU(Central Processing Unit)131により、ROM(Read Only Memory)132やハードディスクなどにより構成される記憶部136(いずれも図6)に記憶されているプログラムに基づく処理が実行される。
【0074】
硬貨処理部92は、ユーザにより所定の代金が硬貨投入口18に投入されたとき、それを検出し、制御装置91に通知する。照明制御部93は、撮影装置12により被写体が撮影されるタイミングに併せて、制御装置91からの指示に基づいてフラッシュ光を出射する。出射されたフラッシュ光は、図1のフラッシュ照射部15−1および15−2を介して被写体(ユーザ)を照射する。
【0075】
写真シール自動販売機1の面1Cに設けられている編集用モニタ41−1にはタッチパネル94−1が、編集用モニタ41−2にはタッチパネル94−2がそれぞれ積層されている。タッチパネル94−1および94−2は、タッチペン43−1および43−2により入力されたユーザからの指示を制御装置91に出力する。なお、以下の説明において、タッチパネル94−1および94−2を個々に区別する必要がない場合、まとめてタッチパネル94と称する。
【0076】
電源装置95は、写真シール自動販売機1の各部に電力を供給する。
【0077】
プリンタユニット96は、プリンタ部111と制御タグリーダライタ112により構成され、プリンタユニット96に装着されるシール紙ユニット97は、シール紙121と、個々のシール紙ユニット97を識別する識別情報等を管理する制御タグ122により構成される。
【0078】
プリンタ部111は、編集処理等が施された画像データが制御装置91から供給されたとき、供給された画像データにより表される画像を、ユーザにより選択された画像のサイズおよび分割数に従って、シール紙121に印刷し、シール紙121をシール取り出し口31に排出する。
【0079】
制御タグリーダライタ112は、制御タグ122に記憶されている識別情報を接触または非接触により読み出し、制御装置91に出力する。制御装置91は、制御タグリーダライタ112から供給された識別情報に基づいて、装着されているシール紙ユニット97が、写真シール自動販売機1において利用可能なユニットであるか否かを判定し、利用可能なユニットであると判定したときにのみ、プリンタ部111を動作可能にする。すなわち、制御装置91により、写真シール自動販売機1において利用可能とされるシール紙ユニットの識別情報が管理されている。
【0080】
これにより、写真シール自動販売機1に対応していない(純正のものでない)シール紙が利用されるのを抑制することができる。また、制御タグ122により、シール紙121の残量等も管理される。なお、シール紙ユニット97が純正のものであるか否かを、シール紙ユニット97にプリントされているバーコードなどにより確認させるようにしてもよい。
【0081】
図6は、図5の制御装置91の詳細な構成例を示すブロック図である。
【0082】
CPU131は、ROM132に記憶されているプログラム、または、記憶部136からRAM(Random Access Memory)133にロードされたプログラムに従って各種の処理を実行する。RAM133にはまた、CPU131が各種の処理を実行する上において必要なデータなどが適宜記憶される。
【0083】
CPU131、ROM132、およびRAM133は、バス134を介して相互に接続されている。バス134にはまた、入出力インタフェース135も接続されている。
【0084】
入出力インタフェース135には、図5に示される、撮影装置12、撮影用モニタ16、操作パネル17、編集用モニタ41−1および41−2、硬貨処理部92、照明制御部93、タッチパネル94−1および94−2(タッチパネル94)、並びにプリンタユニット96が接続されている。
【0085】
記憶部136は、CPU131により実行されるプログラムの他、撮影装置12により取り込まれている被写体の画像と合成する編集用の画像のデータや、撮影して得られた画像のデータなどを記憶する。記憶部136は、CPU131からの要求に応じて、それらのデータを適宜読み出し、提供する。
【0086】
入出力インタフェース135にはまた、必要に応じてドライブ137が接続され、磁気ディスク151、光ディスク152、光磁気ディスク153、或いは半導体メモリ154などが適宜装着され、それらから読み出されたコンピュータプログラムや背景画像データが必要に応じて記憶部136に保存される。
【0087】
次に、図7のフローチャートを参照して、写真シール自動販売機1の顧客応対処理、すなわち、写真シール自動販売機1を利用する顧客(ユーザ)に応対する、写真シール自動販売機1の全体の処理について説明する。
【0088】
ステップS51において、制御装置91のCPU131は、硬貨処理部92からの出力に基づいて、代金が投入されたか否か、すなわち、撮影を開始するユーザがいるか否かを判定し、代金が投入されたと判定するまで待機する。
【0089】
CPU131は、ステップS51において、代金が投入されたと判定した場合、ステップS52に進み、撮影モードの選択を受け付ける。
【0090】
撮影モードについて説明する。写真シール自動販売機1は、予め設定された所定の回数、被写体(ユーザ)を撮影して、所定の枚数の被写体の撮影画像を取得するようになされている。ユーザは、1回毎の、撮影のタイミングを自らが指定して撮影する通常モード、および所定の短時間(例えば0.5秒)間隔で、所定回数、連続して被写体(ユーザ)を撮影する連写モードの2つの撮影モードから、いずれか一方の撮影モードを選択することができる。
【0091】
そこで、ステップS52において、制御装置91のCPU131は、撮影用モニタ16に、撮影モードの選択を促すメッセージを表示させる。ユーザは、操作パネル17を操作することにより、通常モードと連写モードのいずれかを選択することができる。CPU131は、操作パネル17からの操作信号に基づいて、ユーザが、通常モードと連写モードのいずれを選択したのかを判定し、いずれの撮影モードが選択されたのかを示すモード選択情報を、一時的にRAM133に記憶させる。
【0092】
ステップS52の処理の後、ステップS53において、制御装置91のCPU131は、撮影空間62における撮影処理を実行する。ここで、図7のステップS53の処理、すなわち、写真シール自動販売機1の撮影処理について、図8のフローチャートを参照して説明する。なお、以下においては、ステップS52において、通常モードが選択された場合を例にして説明する。
【0093】
ステップS101において、制御装置91のCPU131は、各種の機能や撮影方法を説明する説明画面の画像データを記憶部136より読み出し、撮影用モニタ16に表示させる。なお、画像表示部22には、CCD21が撮影している動画像が表示される。
【0094】
図9は、撮影用モニタ16に表示される説明画面の例を示す図であり、撮影する画像を縦長の画像とするか、横長の画像とするかを選択する画面とされている。なお、「+/−ボタンで選んでね」のメッセージが表示されており、ユーザは、操作パネル17の「+ボタン」を操作した場合、縦長の画像を撮影することができ、「−ボタン」を操作した場合、横長の画像を撮影することができる。また、画面の右上には、残りの撮影可能枚数が「4枚」として表示されている。
【0095】
図10は、撮影用モニタ16に表示される説明画面の他の例を示す図であり、例えば、図9において撮影する画像の方向が選択された後、表示される。この例においては、「ズームの調整を+/−ボタンでしてね。用意ができたらスタートボタンを押してね」のメッセージが表示されており、ユーザは、操作パネル17の「+ボタン」、および「−ボタン」を操作することにより、CCD21のズーム調整を行うことができる。
【0096】
ステップS102において、制御装置91のCPU131は、図9および図10に示したような説明画面に応じて、ユーザからCCD21を調整することが入力されたとき、その入力に基づいて撮影装置12を制御する。例えば、図9に示すような説明画面において「+ボタン」が選択されたとき、撮影装置12は、CPU131からの指示に基づいて、取り込む画像を縦長の画像とするようにCCD21を制御する。
【0097】
制御装置91のCPU131は、ステップS103において、操作パネル17からの操作信号に基づいて、撮影を開始するとき操作される撮影スタートボタンが操作されたか否かを判定し、まだ操作されていないと判定した場合、ステップS101に戻り、それ以降の処理を繰り返し実行する。一方、CPU131は、撮影スタートボタンが操作されたと判定した場合、ステップS104に進み、撮影用モニタ16にカウントダウンインジケータを表示させ、撮影するタイミングとなったとき、CCD21により撮影されている画像をキャプチャし、作成された撮影画像(静止画像)の画像データを、記憶部136に記憶させる。
【0098】
図11は、ステップS104において撮影用モニタ16に表示される表示画面の例を示す図である。図に示すように、カウントダウンインジケータ201が表示され、例えば、左側の信号から順に点灯が開始され、1番右側の信号が点灯されたとき、CCD21により撮影されている画像がキャプチャされ、記憶部136に記憶される。なお、この例においては、撮影するタイミングと同時に、「はい、ポーズ!」のメッセージが表示されている。
【0099】
撮影するタイミングとなったとき、CPU131は、照明制御部93に指示して、照明装置15−1および15−2を発光させ、フラッシュを被写体に照射するとともに、その瞬間にCCD21により取り込まれている画像を、静止画像としてキャプチャ(保存)し、記憶部136に記憶させる。
【0100】
ステップS105において、制御装置91のCPU131は、ステップS104で撮影した画像の確認画面を撮影用モニタ16に表示させる。
【0101】
図12は、画像確認画面の例を示す図であり、撮影用モニタ16のほぼ中央に、ステップS104で撮影した画像が表示され、その上に、「これでいいかな?○/×ボタンを押してね」のメッセージが表示されている。ユーザは、表示されている画像を、編集用の画像として保存するか否かを、操作パネル17の「○ボタン」または「×ボタン」を操作することにより選択することができる。
【0102】
そして、CPU131は、ステップS106で、操作パネル17からの操作信号に基づいて、編集用の画像として保存することが指示されたか否かを判定し、指示されていない(「×ボタン」が操作された)と判定した場合、ステップS107に進み、ステップS104で撮影し、記憶部136に記憶されている画像を消去する。そして、ステップS101に戻り、それ以降の処理が繰り返し実行される。
【0103】
一方、CPU131は、ステップS106において、編集用の画像として保存することが選択された(「○ボタン」が操作された)と判定した場合、ステップS108に進み、その画像を編集用の画像に追加する(画像は、記憶部136に保持される)。
【0104】
そして、ステップS109において、CPU131は、編集用の画像として追加した画像の明るさを調整する明るさ調整画面を撮影用モニタ16に表示させる。
【0105】
図13は、ステップS109で撮影用モニタ16に表示される明るさ調整画面の例を示す図である。この例においては、編集用の画像として保存された画像が画面のほぼ中央に表示され、その下に、明るさのレベルを指定するボタンが表示されている。また、画面の上部には、「明るさを+/−ボタンで調整してね。よければ○ボタンを押してね。」のメッセージが表示されており、ユーザは、操作パネル17の「+ボタン」または「−ボタン」を操作し、カーソル211を移動させて明るさを調整する。なお、ステップS106で編集用の画像が選択されたため、図13の右上方に示すように、残り撮影可能枚数が1だけ減算されて、例えば、「3枚」とされる。
【0106】
CPU131は、操作パネル17からの入力に応じて、編集用の画像の明るさを調整し、「○ボタン」が操作されたとき、そのレベルの明るさで編集用の画像を記憶部136に保存し、ステップS110に進む。
【0107】
ステップS110において、CPU131は、記憶部136に記憶されている編集用の画像の枚数を確認し、残り撮影可能枚数が「0枚」となったか、または操作パネル17からの操作信号に基づいて、「撮影終了ボタン」が操作されたか否かを判定し、残り撮影可能枚数が「0枚」でない、かつ、「撮影終了ボタン」が操作されていないと判定した場合、ステップS101に戻り、同様の撮影処理を繰り返し実行する。
【0108】
CPU131は、ステップS110において、残り撮影可能枚数が「0枚」となった、または「撮影終了ボタン」が操作されたと判定した場合、撮影処理を終了する。
【0109】
なお、上記においては、ステップS52で、通常モードが選択された場合の例について説明したが、ステップS52で連写モードが選択された場合について、以下に説明する。
【0110】
連写モードが選択された場合も、通常モードと同様、図8のステップS101乃至ステップS103の処理が実行される。そして、ステップS104において、カウントダウンインジケータ201を表示した後、CPU131は、所定の時間間隔(例えば、0.5秒間隔)で、所定の回数(例えば、4回)、照明制御部93に指示して、照明装置15−1および15−2を発光させるとともに、その瞬間にCCD21により取り込まれている画像を、静止画像としてキャプチャ(保存)し、記憶部136に記憶させる。結果的に、記憶部136には、所定の枚数(例えば、4枚)の静止画像が記憶される。
【0111】
その後、ステップS105において、CPU131は、撮影用モニタ16に、連続撮影された全ての画像を表示させる。そして、CPU131は、ステップS106において、編集用の画像として保存するか否かを判定し、編集用の画像として保存しない場合、ステップS107に進み、記憶部136に記憶させた、連続撮影された全ての画像を消去する。その後、処理はステップS101に戻る。
【0112】
一方、ステップS106において、CPU131が、編集用の画像として保存すると判定した場合、処理はステップS108に進み、連続撮影された全ての画像を編集用の画像に追加し、ステップS109において、連続撮影された全ての画像の明るさ調整を受け付ける。そして、ステップS110において、残り撮影可能枚数が0枚となったと判定し、処理を終了する。以上が、連写モードの場合の撮影処理である。
【0113】
以上で、写真シール自動販売機1の撮影処理の説明を終了する。
【0114】
撮影処理の終了後、処理は図7のステップS54に進む。
【0115】
ステップS54において、制御装置91のCPU131は、ユーザに、編集空間73に移動するように促すメッセージを記憶部136より読み出し、撮影用モニタ16に表示させる。ユーザは、このメッセージに従って、図4に示される、撮影空間62の出口から白抜き矢印A2で示されるようにして退場し、白抜き矢印A3で示されるようにして編集空間73に移動する。
【0116】
ステップS55において、制御装置91のCPU131は、編集空間73に移動したユーザからの入力に応じて、撮影した画像を編集する編集処理を実行する。
【0117】
本発明の写真シール自動販売機1は、撮影画像中の被写体(撮影画像のうち、ユーザが位置する領域)の近傍に落書きを入力したいが、被写体の上には落書きをしたくない場合に、ユーザが、被写体の近傍に容易に落書きを入力することができるようになっている。
【0118】
この機能を実現するために、写真シール自動販売機1は、編集処理に際して、3つのレイヤ(層状)の画像を管理する。すなわち、写真シール自動販売機1は、撮影画像、背景画像(被写体の背後に描画された落書きによる画像)、および前景画像(被写体の前面に描画された落書きによる画像)を、レイヤ構造で管理している。
【0119】
ここで、まず、図14乃至図17を参照して、図7のステップS55の編集処理における編集用モニタ41の表示例について説明する。編集処理の詳細については、図21乃至図39を参照して後述する。
【0120】
図14は、ステップS55において、編集用モニタ41−1に表示される画面の例である。なお、編集用モニタ41−2にも、同様の画面が表示される。
【0121】
なお、以下の説明においては、編集用モニタ41−1、タッチペン43−1、およびタッチパネル94−1を代表として説明するが、以下の説明は、編集用モニタ41−2、タッチペン43−2、およびタッチパネル94−2にも適用される。すなわち、写真シール自動販売機1は、編集用モニタ41−1および41−2のそれぞれにおいて、別々にユーザからの編集操作の入力を受け付ける。
【0122】
図14において、編集用モニタ41−1中央右下の画像表示領域301には、合成画像302が表示されている。ユーザは、画像選択部304に表示されている撮影画像のサムネイルの中から、合成画像302を作成するための撮影画像をタッチペン43−1により選択することができる。画像選択部304には、撮影処理において保存することが指示された編集用の画像のサムネイルが一覧表示されている。
【0123】
画面の右下端には、ユーザが、制限時間内に編集を終了するときに操作する終了ボタン303が表示されている。終了ボタン303がタッチペン43−1でタッチされた場合、CPU131は、編集用モニタ41−1における編集処理を終了する。
【0124】
画像表示領域301の左方には、編集ツールを選択するとき操作される各種のボタンが表示される。
【0125】
画像表示領域301の左方には、例えば、編集対象画像に線や文字などを入力するための「ペンツール」を選択するとき操作されるペンメニュ307、編集対象画像に所定のスタンプ画像を配置する「スタンプツール」を選択するとき操作されるスタンプメニュ308、「ペンツール」により入力される文字などの太さを選択するとき操作される太さ選択メニュ309、「ペンツール」により入力される文字などの色を選択するとき操作される色選択メニュ310が表示される。
【0126】
また、色選択メニュ310の下方には、一度入力した落書き等を消すための「消しゴムツール」を選択するとき操作される消しゴムボタン311が表示されている。消しゴムボタン311の右下には、直前に入力した操作を取り消して、落書きを、操作を入力する直前の状態に戻すためのやりなおしボタン312、および今までに入力した落書きを全て消去するためのはじめからやりなおしボタン313が表示されている。
【0127】
また、画像表示領域の上方には、サムネイル305−1乃至305−4が表示される。サムネイル305−1は、合成画像321(図15)のサムネイルである。サムネイル305−2は、撮影画像341(図17)のサムネイルである。サムネイル305−3は、合成画像331(図16)のサムネイルである。サムネイル305−4は、合成画像302のサムネイルである。
【0128】
なお、サムネイル305−1においては、背景画像が表示されている領域のみをカラーで表示し、被写体が写っている領域、および前景画像をモノクロで表示することにより、背景画像を強調している。同様に、サムネイル305−3においては、前景画像のみをカラーで表示し、被写体画像および背景画像が表示されている領域をモノクロで表示することにより、前景画像を強調している。
【0129】
また、図14においては、サムネイル305−1およびサムネイル305−3に落書きが描写されているが、編集処理を開始した当初は、まだ、ユーザにより落書きが入力されていないので、サムネイル305−1およびサムネイル305−3は、何の落書きも描かれていない。
【0130】
図14においては、合成画像のサムネイルであるサムネイル305−4にカーソル306が合わせられている。CPU131は、サムネイル305−1乃至305−4の中から、いずれかのサムネイルがタッチペン43−1によりタッチされた場合、タッチされたサムネイルの位置にカーソル306を表示させると共に、タッチされたサムネイルに対応する画像を画像表示領域301に表示させる。
【0131】
例えば、ユーザが、タッチペン43−1で、サムネイル305−1に触れた場合、編集用モニタ41−1には、図15に示される画面が表示される。図15においては、サムネイル305−1の位置にカーソル306が表示されている。図15においてはまた、画像表示領域301に、サムネイル305−1に対応する合成画像321が表示されている。合成画像321において、網がかけられた領域は、モノクロであることを意味している。合成画像321においては、サムネイル305−1と同様、背景画像が表示されている領域のみをカラーで表示し、被写体画像および前景画像が表示されている領域をモノクロで表示することにより、背景画像が強調されている。
【0132】
ユーザは、図15に示される画面において、画像表示領域301内の背景画像(カラーで表示されている範囲)に編集操作を入力する(落書きを書き込んだり、消去する)ことができる。
【0133】
また、例えば、ユーザが、タッチペン43−1で、サムネイル305−3にタッチした場合、編集用モニタ41−1には、図16に示される画面が表示される。図16においては、サムネイル305−3の位置にカーソル306が表示されている。図16においてはまた、画像表示領域301に、サムネイル305−3に対応する合成画像331が表示されている。合成画像331において、網がかけられた領域は、モノクロであることを意味している。合成画像331においては、サムネイル305−3と同様、前景画像のみをカラーで表示し、被写体画像および背景画像が表示されている領域をモノクロで表示することにより、前景画像が強調されている。
【0134】
ユーザは、図16に示される画面において、画像表示領域301内の前景画像に編集操作を入力する(落書きを書き込んだり、消去する)ことができる。
【0135】
また、例えば、ユーザが、タッチペン43−1で、サムネイル305−2にタッチした場合、編集用モニタ41−1には、図17に示される画面が表示される。図17においては、サムネイル305−2の位置にカーソル306が表示されている。図17においてはまた、画像表示領域301に、サムネイル305−2に対応する撮影画像341が表示されている。また、画像表示領域301の上方には、被写体画像加工ボタン342および343が表示されている。タッチペン43−1により被写体画像加工ボタン342がタッチされた場合、画像表示領域301に表示された被写体の髪の毛の色が着色されて表示される。また、タッチペン43−1により被写体加工ボタン343がタッチされた場合、画像表示領域301に表示されている被写体がセピア色に変色されて表示される。
【0136】
ユーザは、背景画像に落書きをしたい場合、まず、タッチペン43−1で、サムネイル305−1にタッチし、図15に示される画面を表示させる。この状態で、ユーザは、タッチペン43−1により、ペンメニュ307、またはスタンプメニュ308などの中から、所望するペンツール、またはスタンプツールを選択し、画像表示領域301内に表示されている合成画像321上に、線、文字、またはスタンプを描画することができる。
【0137】
また、ユーザは、背景画像に描画された落書きを消去したい場合、まず、タッチペン43−1で、サムネイル305−1にタッチし、図15に示される画面を表示させる。この状態で、ユーザは、タッチペン43−1により、消しゴムボタン311にタッチした後、画像表示領域301内の合成画像321から、タッチペン43−1により、背景画像として描画された線、文字、またはスタンプ上をなぞることにより、所望する線、文字、またはスタンプを消去することができる。なお、このとき、タッチペン43−1で、前景画像が表示されている領域をなぞっても、前景画像として描画された落書きは消去されない。従って、ユーザは、前景画像として描画された落書きを気にすることなく、背景画像として描画された落書きのみを消去することができる。
【0138】
なお、図15の合成画像321の網がかけられている領域(モノクロで表示されている領域)は、被写体および前景画像が占める領域である。従って、ユーザがタッチペン43−1により、網がかけられた領域に線、文字、およびスタンプなどの落書きを入力しても、網がかけられた領域への入力に対応する落書きは、被写体または前景画像の下に隠れてしまい、合成画像321に反映(描画)されない。例えば、図15に示されるように、ユーザが、タッチペン43−1により、合成画像321の左上の星型のスタンプから、合成画像321の中央下方向に、線を引いても、網がかけられた領域には、線が描画されない。
【0139】
なお、上記においては、合成画像321内の網がかけられた領域は、モノクロで表示されているようになされているが、ユーザが、被写体と前景画像から、背景画像のみを識別可能であれば、モノクロではなくても良い。例えば、被写体と前景画像で占められる領域(合成画像321の網がかけられている領域)の明度を低い値にしたり、彩度や色相を変化させたりしても良い。また、被写体と前景画像で占められる領域を、所定の色で塗りつぶしても良い。また、例えば、背景画像が占める領域と、それ以外の領域との境界に、赤い線、点線、または点滅する線などを表示させても良い。
【0140】
ユーザは、前景画像に落書きをしたい場合、まず、タッチペン43−1で、サムネイル305−3にタッチし、図16に示される画面を表示させる。この状態で、ユーザは、タッチペン43−1により、ペンメニュ307、またはスタンプメニュ308などの中から、所望するペンツール、またはスタンプツールを選択し、画像表示領域301内に表示されている合成画像331上に、線、文字、またはスタンプを描画することができる。なお、合成画像331においては、ユーザは、画像表示領域301内の所望する全ての範囲に落書きを入力することができる。すなわち、合成画像331に対して入力された落書きは、全て反映(描画)される。
【0141】
また、ユーザは、前景画像に描画された落書きを消去したい場合、まず、タッチペン43−1で、サムネイル305−3にタッチし、図16に示される画面を表示させる。この状態で、ユーザは、タッチペン43−1により、消しゴムボタン311にタッチした後、画像表示領域301内の合成画像331から、タッチペン43−1により、前景画像として描画された線、文字、またはスタンプ上をなぞることにより、所望する線、文字、またはスタンプを消去することができる。なお、このとき、タッチペン43−1で、背景画像が表示されている領域をなぞっても、背景画像として描画された落書きは消去されない。従って、ユーザは、背景画像として描画された落書きを気にすることなく、前景画像として描画された落書きのみを消去することができる。
【0142】
なお、図16の合成画像331の網がかけられている領域(モノクロで表示されている領域)は、被写体および背景画像が占める領域である。なお、上記においては、合成画像331内の網がかけられた領域は、モノクロで表示されているようになされているが、ユーザが、被写体と背景画像から、前景画像のみを識別可能であれば、モノクロではなくても良い。例えば、被写体と背景画像で占められる領域の明度を低い値にしたり、彩度や色相を変化させたりしても良い。また、被写体と背景画像で占められる領域を、所定の色で塗りつぶしても良い。また、例えば、前景画像が占める領域と、それ以外の領域との境界に、赤い線、点線、または点滅する線などを表示させても良い。
【0143】
ユーザは、撮影画像341を確認したい場合、タッチペン43−1で、サムネイル305−2にタッチすることにより、図17に示される画面を表示させる。画像表示領域301には、撮影画像341が表示されているので、ユーザは、撮影画像を確認することができる。また、ユーザは、被写体画像加工ボタン342および343を操作して、撮影画像341の被写体の髪の毛の色を変色させたり、被写体全体の色をセピア色に変色したりさせることができる。
【0144】
ユーザは、合成画像302を確認したい場合、タッチペン43−1で、サムネイル305−4にタッチすることにより、図14に示される画面を表示させる。画像表示領域301には、合成画像302が表示されているので、ユーザは、前景画像と背景画像を被写体に合成した場合のイメージを確認することができる。
【0145】
CPU131は、撮影画像、背景画像、および前景画像を、RAM133に記憶させている。
【0146】
CPU131は、以上のような画面を編集用モニタ41に表示させて、ユーザからの編集操作の入力を受け付ける。編集処理が終了した後、処理は図7のステップS56に進む。
【0147】
ステップS56において、制御装置91のCPU131は、配置選択画面の画像データを記憶部136より読み出し、編集用モニタ41−1に表示させる。編集用モニタ41−1に表示される配置選択画面の例を図18に示す。
【0148】
図18の例においては、画面の上部に、「写真の配置を選択してね。」のメッセージが表示されており、ユーザは、タッチペン43−1によりカーソル351を移動させて、好みの画像配置を選択できる。ユーザは、好みの画像配置を選択した後、タッチペン43−1で決定ボタン352にタッチすることにより、選択した画像配置を決定することができる。なお、ユーザが、配置選択画面の左右の端に表示されている三角形に、タッチペン43−1でタッチした場合、CPU131は、現在表示されている配置例とは異なる配置例を編集用モニタ41−1に表示させる。
【0149】
そして、決定ボタン352がタッチされ、画像の配置が選択されたとき、処理はステップS57に進み、CPU131は、ステップS55の編集処理で編集された画像を、ステップS56で選択された画像配置で、シール紙121に印刷させる。すなわち、CPU131は、記憶部136からRAM133に、合成画像のデータをロードし、この合成画像データを、ステップS56の処理で決定された画像配置に配列して、印刷用画像データを作成する。そして、CPU131は、作成した印刷用画像データを、プリンタ部111に供給し、シール紙121に印刷させる。印刷用画像データが印刷されたシール紙121の例を図19に示す。図19において、シール紙121の左上には、合成画像302と同一の合成画像が印刷されている。
【0150】
ステップS57の処理が終了した後、処理はステップS51に戻り、ステップS51以降の処理が繰り返し実行される。
【0151】
以上で、写真シール自動販売機1の顧客応対処理の説明を終了する。
【0152】
なお、図7に示される処理は、記載された順序に従って時系列的に行われるだけでなく、そのときの写真シール自動販売機1の利用状況に応じて並列的にも行われる。例えば、第1のユーザが撮影空間62において撮影を終了させ、編集空間73に移動した後、第1のユーザが編集空間73で画像の編集を行っている最中に、第2のユーザが撮影空間62において撮影を開始した場合、図7のステップS52およびステップS53の処理(撮影空間62における第2のユーザの処理)とステップS55およびステップS56の処理(編集空間73における第1のユーザの処理)が並列して行われることになる。同様に、撮影処理、編集処理、および、ステップS54における印刷処理のそれぞれが状況に応じて並列して行われる。
【0153】
図15および図16を参照して上記したように、本発明においては、背景画像に落書き(編集操作)を入力可能な状態の場合、背景画像のみをカラーで表示し、被写体と前景画像はモノクロで表示する。また、本発明においては、前景画像に落書き(編集操作)を入力可能な状態の場合、前景画像のみをカラーで表示し、被写体と背景画像はモノクロで表示する。このように、落書き(編集操作)を入力可能な画像を、それ以外の部分と区別して表示させることにより、ユーザは、自分が背景画像と前景画像のいずれの画像に落書き(編集操作)を入力しようとしているのかを、容易に把握することができる。
【0154】
結果的に、ユーザが、背景画像に落書き(編集操作)を入力しようとして、誤って前景画像に落書き(編集操作)を入力してしまうことを防止することができる。同様に、ユーザが、前景画像に落書き(編集操作)を入力しようとして、誤って背景画像に落書き(編集操作)を入力してしまうことを防止することができる。
【0155】
また、ユーザは、すでに描画されている落書きが、背景画像への落書きなのか、前景画像への落書きなのかを、容易に把握することができる。従って、ユーザが、背景画像に描画されている落書きを消去しようとして、誤って前景画像に描画されている落書きを消去してしまうことを防止することが可能となる。同様に、前景画像に描画されている落書きを消去しようとして、誤って背景画像に描画されている落書きを消去してしまうことを防止することが可能となる。
【0156】
また、従来の写真シール自動販売機においては、例えば、図20に示されるように、背景画像に線や文字を入力するために指定する背景用ペンボタン361、および前景画像に線や文字を入力するために指定する前景用ペンボタン362を、それぞれ表示させる必要があった。同様に、従来の写真シール自動販売機においては、例えば、図20に示されるように、背景画像に描画された落書きを消去するための背景用消しゴムボタン363、および前景画像に描画された落書きを消去するための前景用消しゴムボタン364を、それぞれ表示させる必要があった。
【0157】
それに対して、本発明においては、背景画像、または前景画像に落書きを入力(削除)したい場合、対応するサムネイル305−1またはサムネイル305−3を指定することにより、画像表示領域301に表示された画像に落書きを入力(削除)することができる。従って、背景用ペンボタン401や前景用ペンボタン402の如きボタンを設ける必要が無い。
【0158】
また、本発明においては、背景画像、または前景画像に描画された落書きを消去するために、消しゴムボタン311を1つ表示させれば良く、従来のように、前景用消しゴムボタン363と背景用消しゴムボタン364を、それぞれ表示させる必要が無い。結果的に、編集用モニタ41に表示されるボタンの数を、従来と比べて、より減少させることができる。そのため、ユーザは、所望のボタンを迅速に見つけ出すことが可能となり、操作性が改善される。
【0159】
さらに、本発明によれば、より娯楽性のある編集操作を実現することができる。
【0160】
次に、図21のフローチャートを参照して、図7のステップS55の編集処理について詳細に説明する。
【0161】
なお、以下の説明においては、編集用モニタ41−1、タッチペン43−1、およびタッチパネル94−1を代表として説明するが、以下の説明は、編集用モニタ41−2、タッチペン43−2、およびタッチパネル94−2にも適用される。すなわち、写真シール自動販売機1は、編集用モニタ41−1および41−2のそれぞれにおいて、別々にユーザからの編集操作の入力を受け付ける。
【0162】
ステップS151において、制御装置91のCPU131は、画像作成処理を実行する。ここで、図22のフローチャートを参照して、画像作成処理について詳細に説明する。
【0163】
図22のステップS181において、CPU131は、記憶部136より読み出した撮影画像341をRAM133に記憶させると共に、撮影画像341のサムネイルを作成し、RAM133に記憶させる。ステップS182において、CPU131は、画像合成処理を実行する。ここで、図23のフローチャートを参照して、画像合成処理について詳細に説明する。
【0164】
図23のステップS201において、CPU131は、RAM133に記憶させている撮影画像341から、被写体の輪郭を抽出する。図24は、撮影画像341から抽出された輪郭の例を示している。図24の撮影画像341において、背景パネルが写っている領域371と、被写体が写っている領域372の境界が、点線で示されており、この点線が、被写体の輪郭を示している。CPU131は、予め設定された背景パネル61の色をキーにして、被写体の輪郭を抽出する。
【0165】
ステップS202において、CPU131は、被写体372が写っていない領域に含まれている画素の画素値を(R,G,B)=(0,0,0)(なお、Rは赤、Gは緑、Bは青をそれぞれ示す)にした画像(以下、被写体372が写っていない領域に含まれている画素の画素値を(R,G,B)=(0,0,0)にした画像を被写体画像と称する)を作成して、RAM133に記憶させる。図25に被写体画像381の例を示す。図25の被写体画像381において、斜線で示されている領域が、被写体が写っていない領域であり、この斜線で示されている領域に含まれている画素の画素値は全て(R,G,B)=(0,0,0)とされている。被写体が写っている領域に含まれている画素の画素値は、撮影画像341と同一である。
【0166】
ステップS203において、CPU131は、被写体が写っている領域に含まれている画素の画素値を(R,G,B)=(0,0,0)にすると共に、被写体が写っていない領域に含まれている画素の画素値を(R,G,B)=(255,255,255)にしたマスク画像を作成し、RAM133に記憶させる。図26に、マスク画像391の例を示す。図26のマスク画像391において、斜線で示されている領域が、被写体が写っている領域であり、この領域の画素の画素値は(R,G,B)=(0,0,0)とされる。図26のマスク画像391において、斜線部以外の領域が、被写体が写っていない領域であり、この領域の画素の画素値は(R,G,B)=(255,255,255)とされる。
【0167】
ステップS204において、CPU131は、マスク画像391の画素の画素値が(R,G,B)=(0,0,0)の領域に対応する、背景画像を構成する画素の画素値を(R,G,B)=(0,0,0)にして、マスク処理された画像(以下、マスク処理された画像のことを被マスク画像と称する)を作成し、RAM133に記憶させる。図27は、背景画像401の例を、図28は、ステップS204で作成された被マスク画像411の例を、それぞれ示している。CPU131は、図27に示されるような背景画像401において、図26のマスク画像391の斜線で示した領域(画素値が(R,G,B)=(0,0,0)の領域)に対応する領域の画素の画素値を(R,G,B)=(0,0,0)にして、被マスク画像411を作成し、RAM133に記憶させる。
【0168】
ステップS205において、CPU131は、RAM133に記憶された被写体画像381と被マスク画像411の、対応する画素の画素値を足し算して、背景画像401と撮影画像341を合成した合成画像を作成し、RAM133に記憶させる。図29に背景画像401と撮影画像341が合成された合成画像421の例を示す。
【0169】
ステップS206において、CPU131は、前景画像のうち、落書きが描画されている領域に含まれている画素の画素値を(R,G,B)=(0,0,0)にし、それ以外の領域に含まれている画素の画素値を(R,G,B)=(255,255,255)にして、マスク画像を作成し、RAM133に記憶させる。図30に前景画像431の例を、図31に前景画像431を基に作成されたマスク画像441の例を、それぞれ示す。図30に示される前景画像431において、落書きが描画されていない領域、すなわち、斜線で示された領域に含まれている画素の画素値は、(R,G,B)=(0,0,0)である。CPU131は、図30に示される前景画像431を基に、図31に示されるマスク画像441を作成する。図31のマスク画像441において、斜線で示された領域に含まれている画素の画素値は、(R,G,B)=(0,0,0)である。また、図31のマスク画像441において、斜線部以外の領域に含まれている画素の画素値は、(R,G,B)=(255,255,255)である。
【0170】
ステップS207において、CPU131は、マスク画像441の画素の画素値が(R,G,B)=(0,0,0)の領域に対応する、合成画像421を構成する画素の画素値を(R,G,B)=(0,0,0)にしてマスク処理された被マスク画像を作成し、RAM133に記憶させる。図32は、ステップS207で作成された被マスク画像451の例を示している。図32の被マスク画像451において、斜線で示された領域に含まれている画素の画素値が、(R,G,B)=(0,0,0)とされる。CPU131は、図29の合成画像421において、図31のマスク画像441の斜線で示した領域(画素値が(R,G,B)=(0,0,0)の領域)に対応する領域の画素の画素値を(R,G,B)=(0,0,0)にして、被マスク画像451を作成し、RAM133に記憶させる。
【0171】
ステップS208において、CPU131は、RAM133に記憶された前景画像431と被マスク画像451の、対応する画素の画素値を足し算して、合成画像421と前景画像431を合成した合成画像を作成し、RAM133に記憶させる。図33に合成画像421と前景画像431が合成された合成画像302の例を示す。
【0172】
CPU131は、以上のようにして、撮影画像341と背景画像401と前景画像431を合成する。なお、以上の説明においては、まず撮影画像341と背景画像401を合成してから、前景画像431を合成しているが、合成の順番は、まず撮影画像341と前景画像431を合成してから、背景画像401を合成するようにしても良い。
【0173】
以上のようにして合成された合成画像302は、ユーザの目には、図34に示されるように見える。すなわち、ユーザは、合成画像302を見るとき、あたかも、上から前景画像431、撮影画像341、および背景画像401の順番で重ねられたかのような画像を見る。CPU131は、撮影画像341、前景画像431、および背景画像401を、このようにレイヤ構造で管理している。
【0174】
なお、今回は、図21のステップS151の処理の中のステップS182の処理である。すなわち、編集処理が開始されたところである。従って、まだ、ユーザにより編集操作が入力されていないので、前景画像431、および背景画像401には、落書きが描画されていない。従って、ステップS182の処理を実行しても、結果として作成される合成画像は、撮影画像341と同一のものとなる。
【0175】
図22に戻って、ステップS183において、CPU131は、ステップS182で作成し、RAM133に記憶させた合成画像302のサムネイルを作成し、RAM133に記憶させる。
【0176】
ステップS184において、CPU131は、RAM133に記憶された背景画像401と撮影画像341のモノクロ画像(濃淡画像)をそれぞれ作成して、RAM133に記憶させる。
【0177】
ステップS185において、CPU131は、RAM133に記憶された前景画像、並びに、ステップS184で作成された背景画像401と撮影画像341のモノクロ画像を使用して、図23に示される画像合成処理を実行する。ただし、CPU131は、撮影画像341から被写体の輪郭を抽出する処理(図23のステップS201)は実行せず、既に、ステップS182における画像合成処理において取得された輪郭情報を利用する(なぜなら、モノクロ画像にしてからでは、撮影画像341に写っている背景パネルと被写体の境界線を抽出することが困難なため)。
【0178】
ステップS185の画像合成処理の結果、背景画像401と被写体画像381の表示領域がモノクロで、前景画像431の表示領域がカラーの合成画像(図16の合成画像331)が作成されRAM133に記憶される。ステップS186において、CPU131は、ステップS184で作成した合成画像331のサムネイルを作成し、RAM133に記憶させる。
【0179】
ステップS187において、CPU131は、RAM133に記憶された前景画像431と撮影画像341のモノクロ画像(濃淡画像)をそれぞれ作成して、RAM133に記憶させる。
【0180】
ステップS188において、CPU131は、RAM133に記憶された背景画像401、並びに、ステップS187で作成された前景画像431と撮影画像341のモノクロ画像を使用して、図23に示される画像合成処理を実行する。ただし、CPU131は、撮影画像341から被写体の輪郭を抽出する処理(図23のステップS201)は実行せず、既に、ステップS182の画像合成処理において取得された輪郭情報を利用する(なぜなら、モノクロ画像にしてからでは、撮影画像341に写っている背景パネルと被写体の境界線を抽出することが困難なため)。
【0181】
ステップS188の画像合成処理の結果、前景画像431と被写体画像381の表示領域がモノクロで、背景画像401の表示領域がカラーの合成画像(図15の合成画像321)が作成されRAM133に記憶される。ステップS189において、CPU131は、ステップS188で作成した合成画像321のサムネイルを作成し、RAM133に記憶させる。
【0182】
以上で、画像作成処理が終了する。なお、今回は、画像作成処理は、図21のステップS151の処理として実行されている。すなわち、編集処理が開始されたところである。従って、まだ、前景画像431および背景画像401には落書きが描画されていない。従って、ステップS183で作成されたサムネイルは、ステップS181で作成された撮影画像341のサムネイルと同一であり、ステップS185で作成された合成画像、およびステップS188で作成された合成画像には、落書きは描画されていない。ステップS151の処理が終了すると、処理は図21のステップS152に進む。
【0183】
ステップS152において、CPU131は、記憶部136より編集画面のデータを読み出し、編集用モニタ41−1に、例えば、図14に示される編集画面を表示させると共に、編集処理のために予め設定された制限時間のカウントダウンを開始する(後述する図39のステップS301)。なお、ステップS152においては、まだ、サムネイル305−1乃至305−4、並びに合成画像302は表示されていない。
【0184】
ステップS153において、CPU131は、ステップS151で作成されRAM133に記憶されたサムネイルを、サムネイル305−1乃至205−4として編集画面上に表示させる。なお、図22のステップS181で作成されたサムネイルは、サムネイル305−2として表示され、図22のステップS183で作成されたサムネイルは、サムネイル305−4として表示され、図22のステップS186で作成されたサムネイルは、サムネイル305−3として表示され、図22のステップS189で作成されたサムネイルは、サムネイル305−1として表示される。
【0185】
ステップS153の処理の後、ステップS154において、CPU131は、合成画像表示処理を実行する。ここで、図35のフローチャートを参照して、合成画像表示処理について、詳細に説明する。
【0186】
図35のステップS221において、CPU131は、合成画像302のサムネイルであるサムネイル305−4の位置に、カーソル306を表示させる。ステップS222において、CPU131は、図22のステップS182で作成されRAM133に記憶された合成画像302を図14の画像表示領域301に表示させる。ステップS223において、CPU131は、撮影画像341の表示、または背景画像401もしくは前景画像431の編集が指示されたか否かを判定する。
【0187】
すなわち、本実施の形態においては、ユーザは、タッチペン43により、サムネイル305−1にタッチすることにより、背景画像401の編集を指示することができる。また、ユーザは、タッチペン43により、サムネイル305−2にタッチすることにより、撮影画像341の表示を指示することができる。また、ユーザは、タッチペン43により、サムネイル305−3にタッチすることにより、前景画像431の編集を指示することができる。さらにまた、ユーザは、タッチペン43により、サムネイル305−4にタッチすることにより、合成画像302の表示を指示することができる。
【0188】
なお、ステップS222の処理により、画像表示領域301には、すでに合成画像302が表示されているので、サムネイル305−4がタッチペン43−1によりタッチされても、CPU131は、その入力を無効な入力として、特に処理を実行しない。そこで、ステップS223において、CPU131は、サムネイル305−1乃至305−3のいずれかがタッチペン43−1によりタッチされるまで待機し、サムネイル305−1乃至305−3のいずれかがタッチペン43−1によりタッチされた場合、合成画像表示処理を終了し、処理は図21のステップS155に進む。
【0189】
ステップS155において、CPU131は、タッチペン43−1によりタッチされたサムネイルがサムネイル305−1であるか否かを判定することにより、指示は背景画像401の編集であるか否かを判定し、タッチペン43−1によりタッチされたサムネイルがサムネイル305−1である(指示は背景画像401の編集である)場合、処理はステップS156に進む。
【0190】
ステップS156において、CPU131は、背景画像編集処理を実行する。ここで、図36のフローチャートを参照して、背景画像編集処理について詳細に説明する。
【0191】
ステップS241において、CPU131は、図15に示されるように、合成画像321のサムネイルであるサムネイル305−1の位置に、カーソル306を表示させる。ステップS242において、CPU131は、図22のステップS188で作成され、RAM133に記憶された合成画像、すなわち背景画像の表示領域のみがカラーの合成画像321を画像表示領域301に表示させる。
【0192】
ステップS243において、CPU131は、画像表示領域301に表示された合成画像321に対して、タッチペン43−1により編集操作が入力されたか否かを判定する。この編集操作には、例えば、タッチペン43−1による、線や文字の描画、スタンプの配置、描画されている線や文字の消去、配置されているスタンプの消去などの編集操作が含まれている。CPU131が、ステップS243において、タッチペン43−1により編集操作が入力されたと判定した場合、処理はステップS244に進み、CPU131は、入力された編集操作に基づいて、背景画像401を編集する。
【0193】
ステップS244の処理の後、ステップS245において、CPU131は、ステップS244で編集された背景画像401を使用して、図22の画像作成処理を実行する。結果的に、ステップS243で入力されたと判定された編集操作が反映された合成画像302とそのサムネイル、編集操作が反映された合成画像331とそのサムネイル、および編集操作が反映された合成画像321とそのサムネイルが作成される。
【0194】
ステップS245の処理の後、ステップS246において、CPU131は、ステップS245で作成された合成画像321を画像表示領域301に表示させる。
【0195】
ステップS247において、CPU131は、ステップS245で作成された合成画像302のサムネイル、合成画像321のサムネイル、および合成画像331のサムネイルを、編集用モニタ41−1の表示に反映させる。すなわち、CPU131は、例えば、図15の画面において、合成画像302のサムネイルを、サムネイル305−4として表示させ、合成画像331のサムネイルを、サムネイル305−3として表示させ、合成画像321のサムネイルを、サムネイル305−1として表示させる。
【0196】
このように、入力された編集操作に対応した落書きを、リアルタイムでサムネイルに反映させることにより、ユーザは、サムネイル305−1乃至305−4を見ることで、編集の状況を把握することができる。
【0197】
ステップS247の処理の後、処理はステップS243に戻り、上述したステップS243以降の処理が繰り返し実行される。
【0198】
ステップS243において、CPU131が、編集操作が入力されていないと判定した場合、処理はステップS248に進む。ステップS248において、CPU131は、サムネイル305−2乃至305−4のいずれかがタッチペン43−1によりタッチされたか否かを判定することにより、撮影画像341若しくは合成画像302の表示、または前景画像431の編集が指示されたか否かを判定し、サムネイル305−2乃至305−4のいずれもタッチペン43−1によりタッチされていない場合(撮影画像341若しくは合成画像302の表示、または前景画像431の編集が指示されていない場合)、処理はステップS243に戻り、上述したステップS243以降の処理を繰り返し実行する。
【0199】
ステップS248において、CPU131が、サムネイル305−2乃至305−4のいずれかがタッチペン43−1によりタッチされたと判定した場合(撮影画像341若しくは合成画像302の表示、または前景画像431の編集が指示された場合)、CPU131は、背景画像編集処理を終了し、処理は図21のステップS155に戻り、上述したステップS155以降の処理を繰り返し実行する。
【0200】
図21に戻って、ステップS155において、CPU131が、タッチペン43−1によりタッチされたサムネイルはサムネイル305−1ではないと判定した場合(指示は背景画像401の編集ではないと判定した場合)、処理はステップS157に進む。
【0201】
ステップS157において、CPU131は、タッチペン43−1によりタッチされたサムネイルがサムネイル305−3であるか否かを判定することにより、指示は前景画像431の編集であるか否かを判定し、タッチペン43−1によりタッチされたサムネイルがサムネイル305−3である(指示は前景画像431の編集である)場合、処理はステップS158に進む。
【0202】
ステップS158において、CPU131は、前景画像編集処理を実行する。ここで、図37のフローチャートを参照して、前景画像編集処理について詳細に説明する。
【0203】
ステップS261において、CPU131は、図16に示されるように、合成画像331のサムネイルであるサムネイル305−3の位置に、カーソル306を表示させる。ステップS262において、CPU131は、図22のステップS184で作成され、RAM133に記憶された合成画像、すなわち前景画像のみがカラーの合成画像331を画像表示領域301に表示させる。
【0204】
ステップS263において、CPU131は、画像表示領域301に表示された合成画像331に対して、タッチペン43−1により編集操作が入力されたか否かを判定し、タッチペン43−1により編集操作が入力された場合、処理はステップS264に進み、CPU131は、入力された編集操作に基づいて、前景画像431を編集する。
【0205】
ステップS264の処理の後、ステップS265において、CPU131は、ステップS264で作成された前景画像431を使用して、画像作成処理を実行する。結果的に、ステップS263で入力されたと判定された編集操作が反映された合成画像302とそのサムネイル、編集操作が反映された合成画像331とそのサムネイル、および編集操作が反映された合成画像321とそのサムネイルが作成される。
【0206】
ステップS265の処理の後、ステップS266において、CPU131は、ステップS265で作成された合成画像331を画像表示領域301に表示させる。
【0207】
ステップS267において、CPU131は、ステップS265で作成された合成画像のサムネイル、合成画像331のサムネイル、および合成画像321のサムネイルを、編集用モニタ41−1の表示に反映させる。すなわち、CPU131は、例えば、図16の画面において、合成画像302のサムネイルを、サムネイル305−4として表示させ、合成画像331のサムネイルを、サムネイル305−3として表示させ、合成画像321のサムネイルを、サムネイル305−1として表示させる。
【0208】
このように、入力された編集操作に対応した落書きを、リアルタイムでサムネイルに反映させることにより、ユーザは、サムネイル305−1乃至305−4を見ることで、編集の状況を把握することができる。
【0209】
ステップS267の処理の後、処理はステップS263に戻り、上述したステップS263以降の処理が繰り返し実行される。
【0210】
ステップS263において、CPU131が、編集操作が入力されていないと判定した場合、処理はステップS268に進む。ステップS268において、CPU131は、サムネイル305−1,305−2,305−4のいずれかがタッチペン43−1によりタッチされたか否かを判定することにより、撮影画像341若しくは合成画像302の表示、または背景画像401の編集が指示されたか否かを判定し、サムネイル305−1,305−2,305−4のいずれもタッチペン43−1によりタッチされていない場合(撮影画像341若しくは合成画像302の表示、または背景画像401の編集が指示されていない場合)、処理はステップS263に戻り、上述したステップS263以降の処理を繰り返し実行する。
【0211】
ステップS268において、CPU131が、サムネイル305−1,305−2,305−4のいずれかがタッチペン43−1によりタッチされたと判定した場合(撮影画像341若しくは合成画像302の表示、または背景画像401の編集が指示された場合)、CPU131は、前景画像編集処理を終了し、処理は図21のステップS155に戻り、上述したステップS155以降の処理を繰り返し実行する。
【0212】
図21に戻って、ステップS157において、CPU131が、タッチペン43−1によりタッチされたサムネイルがサムネイル305−3ではないと判定した場合(指示は前景画像431の編集ではないと判定した場合)、処理はステップS159に進む。
【0213】
ステップS159において、CPU131は、タッチペン43−1によりタッチされたサムネイルがサムネイル305−2であるか否かを判定することにより、指示は撮影画像341の表示であるか否かを判定し、タッチペン43−1によりタッチされたサムネイルがサムネイル305−2である(指示は撮影画像341の表示である)場合、処理はステップS160に進む。
【0214】
ステップS160において、CPU131は、撮影画像表示処理を実行する。ここで、図38のフローチャートを参照して、撮影画像表示処理について詳細に説明する。
【0215】
ステップS281において、CPU131は、図17に示されるように、撮影画像341のサムネイルであるサムネイル305−2の位置に、カーソル306を表示させる。ステップS282において、CPU131は、撮影画像341を画像表示領域301に表示させる。
【0216】
ステップS283において、CPU131は、被写体画像加工ボタン342および343のいずれかがタッチペン43−1によりタッチされたか否かを判定することにより、画像表示領域301に表示された撮影画像341の加工の指示が入力されたか否かを判定し、被写体画像加工ボタン342および343のいずれかがタッチペン43−1によりタッチされた場合(画像表示領域301に表示された撮影画像341の加工の指示が入力された場合)、処理はステップS284に進む。
【0217】
ステップS284において、CPU131は、ステップS283で入力されたと判定された撮影画像341の加工の指示に基づいて、撮影画像341を加工する。例えば、タッチペン43−1により被写体画像加工ボタン342がタッチされた場合、CPU131は、図25の被写体画像381から、髪の毛の領域を抽出し、抽出した領域内の色を変更させた画像を作成する。また、例えば、タッチペン43−1により被写体画像加工ボタン342がタッチされた場合、CPU131は、図25の被写体画像381をセピア色に変色させた画像を作成する。
【0218】
ステップS284の処理の後、ステップS285において、CPU131は、ステップS284で加工された撮影画像341を使用して、画像作成処理を実行する。結果的に、ステップS283で入力されたと判定された撮影画像341の加工の指示が反映された合成画像302とそのサムネイル、撮影画像341の加工の指示が反映された合成画像331とそのサムネイル、および撮影画像の加工の指示が反映された合成画像321とそのサムネイルが作成される。
【0219】
ステップS285の処理の後、ステップS286において、CPU131は、ステップS284で加工された撮影画像341を画像表示領域301に表示させる。
【0220】
ステップS287において、CPU131は、ステップS285で作成された合成画像302のサムネイル、合成画像331のサムネイル、および合成画像321のサムネイルを、編集用モニタ41−1の表示に反映させる。すなわち、CPU131は、例えば、図17の画面において、加工された撮影画像341のサムネイルを、サムネイル305−2として表示させ、合成画像302のサムネイルを、サムネイル305−4として表示させ、合成画像331のサムネイルを、サムネイル305−3として表示させ、合成画像321のサムネイルを、サムネイル305−1として表示させる。
【0221】
このように、入力された編集操作に対応した落書きを、リアルタイムでサムネイルに反映させることにより、ユーザは、サムネイル305−1乃至305−4を見ることで、編集の状況を把握することができる。
【0222】
ステップS287の処理の後、処理はステップS283に戻り、上述したステップS283以降の処理が繰り返し実行される。
【0223】
ステップS283において、CPU131が、被写体画像加工ボタン342および343のいずれかもタッチペン43−1によりタッチされていないと判定した場合(画像表示領域301に表示された撮影画像341の加工の指示は入力されていないと判定した場合)、処理はステップS288に進む。
【0224】
ステップS288において、CPU131は、サムネイル305−1,305−3,305−4のいずれかがタッチペン43−1によりタッチされたか否かを判定することにより、合成画像302の表示、または前景画像431若しくは背景画像401の編集が指示されたか否かを判定し、サムネイル305−1,305−3,305−4のいずれもタッチペン43−1によりタッチされていない場合(合成画像302の表示、または前景画像431若しくは背景画像401の編集が指示されていない場合)、処理はステップS283に戻り、上述したステップS283以降の処理を繰り返し実行する。
【0225】
ステップS288において、CPU131が、サムネイル305−1,305−3,305−4のいずれかがタッチペン43−1によりタッチされたと判定した場合(合成画像302の表示、または前景画像431若しくは背景画像401の編集が指示された場合)、CPU131は、撮影画像表示処理を終了し、処理は図21のステップS155に戻り、上述したステップS155以降の処理を繰り返し実行する。
【0226】
図21に戻って、ステップS159において、CPU131が、タッチペン43−1によりタッチされたサムネイルがサムネイル305−2ではないと判定した場合、すなわち、タッチペン43−1によりタッチされたサムネイルはサムネイル305−4である(合成画像302の表示が指示された)と判定した場合、処理はステップS154に戻り、上述したステップS154以降の処理が繰り返し実行される。
【0227】
以上のようにして、写真シール自動販売機1の画像編集処理が実行される。
【0228】
ところで、図7のステップS52の撮影モードの選択の受付処理、ステップS53の撮影処理、ステップS55の編集処理、およびステップS56の画像配置の選択の受付処理には、それぞれ、制限時間が設定されており、CPU131は、予め設定された制限時間内で、上記した各処理を実行する。
【0229】
次に、図39のフローチャートを参照して、写真シール自動販売機1の編集時間制御処理、すなわち、図7のステップS55の編集処理の時間を制御する処理について説明する。
【0230】
図7のステップS55の編集処理が開始されて、編集用モニタ41−1および41−2に、図14に示されるような画面が表示されたとき、ステップS301において、CPU131は、予め設定された制限時間のカウントダウンを開始する。
【0231】
ステップS302において、CPU131は、ステップS301でカウントダウンを開始した制限時間が経過したか否か、または、タッチペン43−1により、編集用モニタ41−1に表示された終了ボタン303がタッチされ、かつ、タッチペン43−2により、編集用モニタ41−2に表示された終了ボタン303がタッチされるまで待機する。
【0232】
ステップS302において、CPU131が、制限時間が経過したと判定したか、または、タッチペン43−1により編集用モニタ41−1に表示された終了ボタン303がタッチされ、かつ、タッチペン43−2により編集用モニタ41−2に表示された終了ボタン303がタッチされたと判定した場合、処理はステップS303に進む。
【0233】
ステップS303において、CPU131は、図7のステップS55の編集処理を終了させる。例えば、ユーザが編集操作を入力中に、制限時間が経過した場合、CPU131は、その時点で入力された編集操作までを採用して、前景画像431または背景画像401を編集する。図7において、ステップS55の編集処理が終了した後、処理はステップS56に進む。
【0234】
ところで、写真シール自動販売機1は、図14乃至図17に示されるような画面を編集用モニタ41に表示させ、ユーザからの編集の入力を受け付けることもできるが、図14乃至図17は、編集用モニタ41に表示させる画面の一例であり、その他の画面を編集用モニタ41に表示させ、ユーザからの編集の入力を受け付けることもできる。
【0235】
編集用モニタ41に表示される画面の、図14乃至図17とは異なる例を、図40乃至図43に示す。図40乃至図43には、図7のステップS55の処理の間、編集用モニタ41−1に表示される画面の、図14乃至図17とは異なる例が示されている。
【0236】
図40において編集用モニタ41−1に表示されている終了ボタン303、画像選択部304、ペンメニュ307、スタンプメニュ308、太さ選択メニュ309、色選択メニュ310、消しゴムボタン311、やりなおしボタン312、およびはじめからやりなおしボタン313は、図14において表示されている同一符号のものと同一の機能を有している。
【0237】
また、図40においては、編集用モニタ41−1の中央、前面に画像表示領域501が設けられ、画像表示領域501に、合成画像302が表示されている。ユーザは、画像表示領域501に表示された合成画像302により、落書き結果を把握することができる。また、画像表示領域501の左方には、合成画像縮小表示領域503が設けられ、合成画像縮小表示領域503内に、合成画像302が縮小された縮小合成画像504が表示されている。ユーザは、合成画像縮小表示領域503内に表示された縮小合成画像504により、入力した落書きの結果を把握しながら、落書きを行うことができる。なお、合成画像縮小表示領域503内の縮小合成画像504の表示は、背景画像401、または前景画像431の落書きが更新されると、直ちに更新される。従って、ユーザは、入力した編集操作に対応する落書きの結果を、リアルタイムで把握しながら、落書きを行うことができる。
【0238】
また、撮影画像表示領域501の上方には、タブ502−1乃至502−4が表示されている。タブ502−1には、「背景」の文字が表示され、タブ502−2には、「撮影結果」の文字が表示され、タブ502−3には、「前景」の文字が表示され、タブ502−4には、「合成」の文字が表示されている。図40においては、タブ502−1乃至502−4が、同一の明るい色で表示されている。
【0239】
タッチペン43−1により、タブ502−1が触れられた場合、CPU131は、編集用モニタ41−1に、図41に示される画面を表示させる。図41においては、タブ502−2,502−3,502−4が、タブ502−1より、薄暗い色で表示されている。また、図41においては、前面に設けられた画像表示領域521内に、合成画像321が表示されている。ユーザは、タッチペン43−1により、画像表示領域521内の合成画像321に対して落書きを入力することができる。
【0240】
タッチペン43−1により、タブ502−3が触れられた場合、CPU131は、編集用モニタ41−1に、図42に示される画面を表示させる。図42においては、タブ502−4が、タブ502−1,502−2,502−3より、薄暗い色で表示されている。また、図42においては、前面に設けられた画像表示領域531内に、合成画像331が表示されている。ユーザは、タッチペン43−1により、画像表示領域531内の合成画像331に対して落書きを入力することができる。
【0241】
タッチペン43−1により、タブ502−1が触れられた場合、CPU131は、編集用モニタ41−1に、図43に示される画面を表示させる。タブ502−3およびタブ502−4は、図43においては点線で示されているが、実際には、タブ502−1およびタブ502−2より、若干、薄暗い色として表示されている。また、図43においては、前面に設けられた画像表示領域541内に、撮影画像341が表示されている。ユーザは、画像表示領域541内の撮影画像341により、撮影画像341を確認することができる。
【0242】
図14乃至図17の例においては、タッチペン43−1により、サムネイル305−1乃至305−4の中から、いずれかのサムネイルの指定を受け付けることにより、画像表示領域301に、指定されたサムネイルに対応する画像を表示させていた。それに対して、図40乃至図23の例においては、タッチペン43により、タブ502−1乃至502−4の中から、いずれかのタブの指定を受け付けることにより、指定されたタブに対応する画像表示領域501,521,531,541のいずれか)を編集用モニタ41−1の中央、前面に設け、画像表示領域に、指定されたタブに対応する画像を表示させる。
【0243】
ところで、本発明の写真シール自動販売機1においては、背景画像401に描画した落書きと撮影画像341との合成を自然に行うために、半透明合成処理を行う。
【0244】
半透明合成処理とは、例えば撮影画像341と背景画像401とを合成する際に、合成重みという層を設け、合成重み値を、0乃至255の間で、徐々に変化させることにより、撮影画像341が背景画像401に溶け込んだような画像を作成する処理である。この処理は、勿論、撮影画像341と前景画像431とを合成する際にも行われる。
【0245】
合成重み値の変化のさせ方に従って、例えば撮影画像341を背景画像401から際立たせたり、反対に、ぼやかしたりすることができる。同様に、前景画像431を撮影画像341から際立たせたり、反対に、ぼやかしたりすることができる。そこで、例えば、図14に示された画面において、撮影画像341と背景画像401の間の合成重み値の変化のさせ方を操作するボタンを設けるようにすることにより、ユーザは、撮影画像341を背景画像401から際立たせたり、ぼかしたり、自由に操作することができる。同様に、前景画像431と撮影画像341の間の合成重み値の変化のさせ方を操作するボタンを設けるようにすることにより、ユーザは、前景画像431を撮影画像341から際立たせたり、ぼかしたり、自由に操作することができる。
【0246】
ところで、写真シール自動販売機1の面1C側の構成は、図2においては、編集用モニタを、編集用モニタ41−1および41−2の2つ設ける構成になっているが、面1C側に設ける編集用モニタの個数は、2個ではなくても良い。写真シール自動販売機1の面1C側に設ける編集用モニタの個数は、例えば4個でも良い。写真シール自動販売機1の面1C側に設ける編集用モニタの個数が4個の場合の、面1C側の構成例を、図44に示す。
【0247】
図44においては、面1Cに、編集用モニタ41−1乃至41−4が設置され、編集用モニタ41−1乃至41−4のそれぞれの下には収納部42−1乃至42−4が設けられ、そこに、タッチペン43−1乃至43−4が収納される。
【0248】
図44のような外観構成を有する写真シール自動販売機1の内部の構成例を、図45に示す。図45に示されるように、編集用モニタ41−1乃至41−4のそれぞれが制御装置91に接続され、編集用モニタ41−1乃至41−4のそれぞれに対応するタッチパネル94−1乃至94−4が設けられている。それ以外の構成は、図5と同様である。
【0249】
このように、4つの編集用モニタを有する写真シール自動販売機1の場合、図46に示されるように、ユーザ561−1乃至561−4は、それぞれ、編集用モニタ41−1乃至41−4の前において、タッチペン43−1乃至43−4を用いて、編集を入力する。
【0250】
4つの編集用モニタを有する写真シール自動販売機1の場合、編集用モニタ41−1乃至41−4のそれぞれに、図14乃至図17、または図40乃至図43のような編集画面を表示させて、ユーザ561−1乃至561−4からの編集の入力を受け付けるようにすることが可能である。また、4つある編集用モニタのそれぞれに、合成画像321、撮影画像341、合成画像331、および合成画像302を表示するようにしても良い。4つある編集用モニタのそれぞれに、合成画像321、撮影画像341、合成画像331、および合成画像302を表示させた場合の、編集用モニタ41−1乃至41−4の表示例を、図47に示す。
【0251】
図47においては、編集用モニタ41−1に合成画像321が表示され、編集用モニタ41−2に撮影画像341が表示され、編集用モニタ41−3に合成画像331が表示され、編集用モニタ41−4に合成画像302が表示されている。また、編集用モニタ41−1および編集用モニタ41−3には、それぞれ、ボタン表示欄612−1およびボタン表示欄612−2が表示されている。ボタン表示欄612−1および612−2は、ペンメニュ、スタンプメニュ、太さ選択メニュ、色選択メニュ、消しゴムボタン、および終了ボタンなどにより構成されている。
【0252】
ユーザは、ボタン表示欄612−1および612−2の中から、所望するボタン等を選択することにより、所望する効果を有する落書きを、合成画像321、または、合成画像331に入力することができる。また、ユーザ561−1は、タッチペン43−1により、ボタン表示欄612−1を、編集用モニタ41−1内の所望の位置に移動させることができる。また、ユーザ561−3は、タッチペン43−3により、ボタン表示欄612−2を、編集用モニタ41−3内の所望の位置に移動させることができる。
【0253】
また、編集用モニタ41−2には、撮影画像加工ボタン表示欄613が表示されている。ユーザは、撮影画像加工ボタン表示欄613の中から、所望するボタンを選択して、撮影画像341自体を加工することができる。例えば、撮影画像341の一部分を引き伸ばしたり、反対に縮めたり、被写体をセピア色に変色させたりすることができる。また、ユーザ561−2は、タッチペン43−2により、撮影画像加工ボタン表示欄613を、編集用モニタ41−2内の所望の位置に移動させることができる。
【0254】
また、編集用モニタ41−1乃至41−3には、それぞれ、合成画像縮小表示領域601−1乃至601−3が設けられ、合成画像縮小表示領域601−1乃至601−3内に、縮小された合成画像302が表示されている。ユーザ561−1は、タッチペン43−1により、合成画像縮小表示領域601−1を、編集用モニタ41−1内の所望の位置に移動させることができる。また、ユーザ561−2は、タッチペン43−2により、合成画像縮小表示領域601−2を、編集用モニタ41−2内の所望の位置に移動させることができる。また、ユーザ561−3は、タッチペン43−3により、合成画像縮小表示領域601−3を、編集用モニタ41−3内の所望の位置に移動させることができる。
【0255】
ユーザ561−1乃至561−4は、編集用モニタ41−1乃至41−4に表示された画像を確認しつつ、分担して、画像への落書きの入力を行うことができる。従って、ユーザ561−1乃至561−4は、より短時間に、多くの編集を入力することができる。
【0256】
なお、図44、および図46に示される例においては、編集用モニタ41−1乃至41−4の複数のモニタが、面1Cに設置されているが、このことは、本発明が、複数の編集用モニタを設置することに限定されることを意味するものではない。
【0257】
例えば、面1Cに、編集用モニタ41−1乃至41−4の画面を合計した面積と同一、あるいはそれ以上の面積を有する大型モニタを1つ設置し、図47の編集用モニタ41−1乃至41−4に表示されている4つの画面と同一の画面を仮想画面として大型モニタに表示させるようにしても良い。
【0258】
特に、面1Cに設置する大型モニタを、鉛直方向の辺が長い大型モニタにした場合(例えば、面1Cの床からの高さが50cm乃至200cmの範囲全体をモニタとした場合)、ユーザの身長に合わせた高さに、仮想画面を表示させるようにすることができる。
【0259】
具体的には、例えば、編集処理の開始時に、図47の編集用モニタ41−1乃至41−4に表示されている4つの画面と同一の4つの仮想画面を、大型モニタの、所定の高さ位置(例えば、床からの高さが100cm位の位置)に表示させる。そして、例えば、ユーザが、タッチペン43により、所望する仮想画面の所定の位置にタッチし、仮想画面にタッチしたまま、タッチペン43を上下に移動させた場合、CPU131は、その仮想画面の表示位置(高さ)をタッチペン43の移動に合わせて移動させる。
【0260】
これにより、個々のユーザ561−1乃至561−4は、自分の身長に合った、最適な高さに仮想画面を表示させて、編集操作を入力することができる。従って、ユーザ561−1乃至561−4は、編集入力をし易くなり、結果的に、より満足の行く落書きを行うことができる。
【0261】
さらに、例えば、大型モニタに表示された仮想画面を、左右方向にも移動可能なようにしてもよい。すなわち、例えば、ユーザが、タッチペン43により、大型モニタ上の所望する仮想画面にタッチし、仮想画面にタッチしたまま、タッチペン43を上下左右に移動させた場合、CPU131は、タッチペン43の移動に合わせて、その仮想画面の表示位置を上下左右に移動させる。これにより、ユーザは、隣で編集操作を入力しているユーザと、担当する仮想画面を交換することもできる。
【0262】
また、例えば、大型モニタに表示された仮想画面の表示サイズを変更可能なようにしてもよい。すなわち、例えば、ユーザが、タッチペン43により、所望する仮想画面の枠にタッチし、仮想画面の枠にタッチしたまま、タッチペン43を上下左右に移動させた場合、CPU131は、タッチペン43の移動に合わせて、その仮想画面を拡大表示(または縮小表示)させる。これにより、ユーザは、より細部に渡って、落書きを入力することができる。また、例えば、仮想画面のうち1つを、大型モニタ全体に表示させることもできる(他の仮想画面は、大型モニタ全体に表示された仮想画面の背後に隠される)ようにすることにより、大型モニタに、ユーザの等身大、またはそれ以上の大きさの撮影画像(合成画像)を表示することができるため、より娯楽性を増大させることができる。
【0263】
ところで、写真シール自動販売機1の管理者は、写真シール自動販売機1内に装填しているシール紙121がなくなりそうになった場合、新しいシール紙ユニット97に交換することにより、シール紙121を補充する。シール紙121の補充に際し、写真シール自動販売機1のCPU131は、シール紙ユニット97に付されている制御タグ122を照合することにより、補充されたシール紙が、写真シール自動販売機1に適合したものか否かを判別することができる。次に、図48を参照して、写真シール自動販売機1のID検出処理について説明する。
【0264】
図48のステップS501において、CPU131は、写真シール自動販売機1の所定の位置に、シール紙ユニット97が装着されたか否かを監視し、シール紙ユニット97が装着された場合、ステップS502に進む。
【0265】
ステップS502において、CPU131は、制御タグリーダライタ112を制御して、シール紙ユニット97に付されている制御タグ122のIDを読み取り、供給させる。
【0266】
ステップS503において、CPU131は、ステップS502において制御タグリーダライタ112より取得したIDと、予めROM132に記憶しているシール紙IDを照合し、両IDが同一であった場合、ステップS504に進み、CPU131は、記憶部136から、写真シール自動販売機1が使用可能である旨のメッセージを含む画面の画像データをRAM133にロードし、撮影用モニタ16、並びに編集用モニタ41−1および41−2のうち、少なくともいずれか1つのモニタに、写真シール自動販売機1が使用可能である旨のメッセージを含む画面を表示させる。
【0267】
ステップS505において、CPU131は、写真シール自動販売機1を通常のゲーム可能な状態(図7のステップS51の状態)に復帰させる。
【0268】
ステップS503において、CPU131が、制御タグリーダライタ112より取得したIDと、予めROM132に記憶しているシール紙IDが一致しないと判定した場合、CPU131は、ステップS506に進み、記憶部136から、写真シール自動販売機1が使用不可能である旨のメッセージを含む画面の画像データをRAM133にロードし、撮影用モニタ16、並びに編集用モニタ41−1および41−2のうち、少なくともいずれか1つのモニタに、写真シール自動販売機1が使用不可能である旨のメッセージを含む画面を表示させる。
【0269】
そして、ステップS507において、CPU131は、写真シール自動販売機1が使用不可能(ゲーム不可能)に設定する。その方法としては、例えば、硬貨投入口18から硬貨を投入されないように、硬貨投入口18にシャッタを下ろすことなどが可能である。
【0270】
なお、本実施の形態においては、シール紙ユニット97に制御タグ122を付すようにしたが、シール紙ユニット97に装填されているシール紙121の種類を識別することが可能であれば、その他の方法により、シール紙121を識別するようにしても構わない。
【0271】
例えば、制御タグ122の代わりに、バーコード、ICカード等の方法を用いて、シール紙ユニット97を識別するようにしてもよい。また、シール紙ユニット97の写真シール自動販売機への装着部分の形状を、写真シール自動販売機の機種毎に異なるものにし、適合するシール紙ユニット97だけ、写真シール自動販売機1に装着可能なようにしても良い。
【0272】
また、シール紙121とシール紙ユニット97を分離可能に構成することも可能であり、また、一体的に構成することも可能である。
【0273】
以上において、印刷媒体はシール紙として説明したが、シール紙に限られるものではなく、例えば、所定のサイズの紙や、ポスター用の紙などに印刷するようにしてもよい。また、撮影した画像データを、ユーザが自ら用意したフロッピディスクなどの記録媒体に記録させることができるようにしてもよい。
【0274】
上述した一連の処理は、ハードウエアにより実行させることもできるが、ソフトウエアにより実行させることもできる。一連の処理をソフトウエアにより実行させる場合には、そのソフトウエアを構成するプログラムが、専用のハードウエアに組み込まれているコンピュータ、または、各種のプログラムをインストールすることで、各種の機能を実行することが可能な、例えば汎用のパーソナルコンピュータなどに、ネットワークや記録媒体からインストールされる。
【0275】
この記録媒体は、図6に示されるように、装置本体とは別に、ユーザにプログラムを提供するために配布される、プログラムが記録されている磁気ディスク151(フレキシブルディスクを含む)、光ディスク152(CD−ROM(Compact Disk−Read Only Memory),DVD(Digital Versatile Disk)を含む)、光磁気ディスク153(MD(Mini−Disk)を含む)、もしくは半導体メモリ154などよりなるパッケージメディアにより構成されるだけでなく、装置本体に予め組み込まれた状態でユーザに提供される、プログラムが記録されているROM132や、記憶部136に含まれるハードディスクなどで構成される。
【0276】
なお、以上に説明した、本実施の形態においては、背景画像401への編集操作を受け付ける場合、図15に示されるような合成画像321を画像表示領域301に表示しているが、合成画像321を表示する代わりに、背景画像401を表示するようにしても良い。その場合、サムネイル305−1として、背景画像401のサムネイルを表示するようにしても良い。
【0277】
また、本実施の形態においては、前景画像431への編集操作を受け付ける場合、図16に示されるような合成画像331を画像表示領域301に表示しているが、合成画像331を表示する代わりに、前景画像431を表示するようにしても良い。その場合、サムネイル305−3として、前景画像431のサムネイルを表示するようにしても良い。
【0278】
また、上記した実施の形態においては、図34に示されるように、CPU131は、撮影画像341、背景画像401、および前景画像431をレイヤ構造で管理している。しかしながら、このことは、本発明が、撮影画像341、背景画像401、および前景画像431をレイヤ構造で管理することに限定されることを意味するものではない。
【0279】
例えば、CPU131が、前景画像431を除いた2つの画像、すなわち撮影画像341、および背景画像401をレイヤ構造で管理するようにしても良い。例えば、ユーザが、予め、被写体の前景に落書きをしないつもりの場合、前景画像431のサムネイル305−3(または前景画像を表示させるタブ502−3)を編集用モニタ41に表示させることは、無意味なばかりではなく、ユーザの誤操作を引き起こす原因となることもある。そこで、このような場合、前景画像431のサムネイル305−3(または前景画像を表示させるタブ502−3)を編集用モニタ41に表示させないようにしても良い。
【0280】
具体的には、例えば、編集処理の開始当初に、CPU131が、編集用モニタ41に、「被写体の前景に落書きを入力する? はい いいえ」のような案内を表示させる。そして、タッチペン43により「いいえ」がタッチされた場合、CPU131は、前景画像431のサムネイル305−3(または前景画像を表示させるタブ502−3)を編集用モニタ41に表示させないようにする。これにより、編集用モニタ41には、ユーザが必要とするサムネイル(またはタブ)だけが表示されるので、誤操作を引き起こす可能性を減少させ、操作性をさらに改善することができる。その場合、CPU131は、図34において、前景画像431を除いた2つの画像、すなわち撮影画像341、および背景画像401をレイヤ構造で管理する。
【0281】
同様に、CPU131が、背景画像401を除いた2つの画像、すなわち撮影画像341、および前景画像431をレイヤ構造で管理するようにしても良い。例えば、ユーザが、予め、被写体の背景に落書きをしないつもりの場合、背景画像401のサムネイル305−1(または背景画像を表示させるタブ502−1)を編集用モニタ41に表示させることは、無意味なばかりではなく、ユーザの誤操作を引き起こす原因となることもある。そこで、このような場合、背景画像401のサムネイル305−1(または背景画像を表示させるタブ502−1)を編集用モニタ41に表示させないようにしても良い。
【0282】
具体的には、例えば、編集処理の開始当初に、CPU131が、編集用モニタ41に、「被写体の背景に落書きを入力する? はい いいえ」のような案内を表示させる。そして、タッチペン43により「いいえ」がタッチされた場合、CPU131は、背景画像401のサムネイル305−1(または背景画像を表示させるタブ502−1)を編集用モニタ41に表示させないようにする。これにより、編集用モニタ41には、ユーザが必要とするサムネイル(またはタブ)だけが表示されるので、誤操作を引き起こす可能性を減少させ、操作性をさらに改善することができる。その場合、CPU131は、図34において、背景画像401を除いた2つの画像、すなわち撮影画像341、および前景画像431をレイヤ構造で管理する。
【0283】
また、上記した実施の形態においては、図34に示されるように、前景画像431、および背景画像401は、それぞれ1枚ずつ管理されているが、図34に示されたレイヤ構造において、背景画像401の下に、さらに1枚以上の背景画像を重ねるようにしても良い。同様に、図34に示されたレイヤ構造において、前景画像431の上に、さらに1枚以上の前景画像を重ねるようにしても良い。このように、背景画像をさらに細かいレイヤ構造とし、前景画像をさらに細かいレイヤ構造とすることにより、ユーザは、より、細かい部分への編集操作の入力を行うことができる。なお、この場合、レイヤ構造を構成する全ての画像に対応するサムネイル(またはタブ)を編集用モニタ41に表示させるようにすると良い。
【0284】
なお、本明細書において、システムとは、複数の装置により構成される装置全体を表すものである。
【0285】
【発明の効果】
以上のように、本発明によれば、ユーザは、撮影された画像を編集することができる。
【0286】
また、本発明によれば、ユーザが背景画像、または前景画像に、誤って落書きを入力したり削除したりすることを防止することができる。また、画面上に表示させるボタン類を少なくすることができる。結果的に、編集時の操作性を改善することができる。
【0287】
また、本発明によれば、より娯楽性のある編集操作を実現することができる。
【図面の簡単な説明】
【図1】本発明を適用した写真シール自動販売機の外観の例を示す斜視図である。
【図2】本発明を適用した写真シール自動販売機の他の外観の例を示す斜視図である。
【図3】図1の写真シール自動販売機の配置の例を示す図である。
【図4】図1の写真シール自動販売機の配置の例を上方から示す図である。
【図5】図1の写真シール自動販売機の内部構成の例を示すブロック図である。
【図6】図5の制御装置の構成例を示すブロック図である。
【図7】写真シール自動販売機の顧客応対処理を説明するフローチャートである。
【図8】図7のステップS53の処理を詳細に説明するフローチャートである。
【図9】撮影用モニタの表示例を示す図である。
【図10】撮影用モニタの表示例を示す他の図である。
【図11】撮影用モニタの表示例を示すさらに他の図である。
【図12】撮影用モニタの表示例を示す図である。
【図13】撮影用モニタの表示例を示す他の図である。
【図14】編集用モニタの表示例を示す図である。
【図15】編集用モニタの表示例を示す他の図である。
【図16】編集用モニタの表示例を示すさらに他の図である。
【図17】編集用モニタの表示例を示す図である。
【図18】編集用モニタの表示例を示す他の図である。
【図19】シール紙の例を示す図である。
【図20】従来の写真シール自動販売機の編集用モニタの表示例を示す、図14乃至図17の例と比較するための図である。
【図21】図7のステップS55の処理を詳細に説明するフローチャートである。
【図22】図21のステップS151、図36のステップS245、図37のステップS265、および図38のステップS285の処理を詳細に説明するフローチャートである。
【図23】図22のステップS182、ステップS185、およびステップS188の処理を詳細に説明するフローチャートである。
【図24】画像合成処理を説明する図である。
【図25】画像合成処理を説明する他の図である。
【図26】画像合成処理を説明するさらに他の図である。
【図27】画像合成処理を説明する図である。
【図28】画像合成処理を説明する他の図である。
【図29】画像合成処理を説明するさらに他の図である。
【図30】画像合成処理を説明する図である。
【図31】画像合成処理を説明する他の図である。
【図32】画像合成処理を説明するさらに他の図である。
【図33】画像合成処理を説明する図である。
【図34】画像のレイヤ構造を説明する図である。
【図35】図21のステップS154の処理を詳細に説明するフローチャートである。
【図36】図21のステップS156の処理を詳細に説明するフローチャートである。
【図37】図21のステップS158の処理を詳細に説明するフローチャートである。
【図38】図21のステップS160の処理を詳細に説明するフローチャートである。
【図39】写真シール自動販売機の編集時間制御処理を説明するフローチャートである。
【図40】編集用モニタの表示例を示す図である。
【図41】編集用モニタの表示例を示す他の図である。
【図42】編集用モニタの表示例を示すさらに他の図である。
【図43】編集用モニタの表示例を示す図である。
【図44】本発明を適用した写真シール自動販売機の図2とは異なる外観の例を示す斜視図である。
【図45】図44の写真シール自動販売機の内部構成の例を示すブロック図である。
【図46】ユーザの配置を説明する図である。
【図47】編集用モニタの表示例を示す図である。
【図48】写真シール自動販売機のID検出処理を説明するフローチャートである。
【符号の説明】
1 写真シール自動販売機
12 撮影装置
16 撮影用モニタ
17 操作パネル
31 シール取り出し口
41−1,41−2 編集用モニタ
43−1,43−2 タッチペン
91 制御装置
94−1,94−2 タッチパネル
97 シール紙ユニット
131 CPU
133 RAM
136 記憶部[0001]
TECHNICAL FIELD OF THE INVENTION
The present invention relates to a photo sticker vending machine and method, a print medium, and a print medium unit, and more particularly to a photo sticker vending machine and method, a print medium, and a print medium unit with improved operability when editing an image.
[0002]
[Prior art]
2. Description of the Related Art Conventionally, a photo sticker vending machine (for example, Print Club (trademark)) which takes an image of a user, combines the image with a frame image prepared in advance, and prints the image on a sticker or the like to provide the image is provided. In the photo sticker vending machine, a user can write (edit) arbitrary characters, figures, and the like on a taken image with an attached pen (hereinafter, referred to as a touch pen). There are things that do.
[0003]
When playing a game with such a photo sticker vending machine, the user first pays for the price, then shoots himself, then applies scribble (edit) to the shot image, and finally displays the scribbled image. Receive the printed sticker.
[0004]
When performing an editing process, a photo sticker vending machine displays a plurality of pens (brushes) having different colors, thicknesses, patterns, and the like on a display, and selects a pen (brush) desired by the user from these. Let me choose. Then, an input of a graffiti with a touch pen is accepted on the captured image displayed on the display. The photo sticker vending machine draws a line corresponding to the pen (brush) selected by the user on the photographed image according to the locus of the received input.
[0005]
Also, when performing the editing process, the photo sticker vending machine displays a plurality of stamps having different colors, shapes, patterns, and the like on a display, and allows the user to select a desired stamp from these. Then, an input of the position where the stamp is to be attached by the touch pen is accepted on the captured image displayed on the display. The photo sticker vending machine draws the stamp selected by the user on the captured image according to the received input position. Further, a function of drawing different stamps at predetermined intervals on the locus of the touch pen (rolling stamp) is also common.
[0006]
In addition, the photo sticker vending machine displays a button for erasing graffiti on the display, and if the user does not like the drawn line or stamp, touch the button for erasing graffiti with the touch pen and then want to erase it By touching the part of the graffiti, the drawn graffiti can be erased as if the eraser erased the picture.
[0007]
In the above-described editing operation, the user may want to input graffiti near the subject (the area where the user is located in the captured image), but does not want to graffiti on the subject. In such a case, the user must operate the touch pen with great care so as not to input graffiti on the subject. However, in spite of that, there is a case where a graffiti is accidentally input on the subject.
[0008]
In order to solve such a problem, some photo sticker vending machines can invalidate graffiti input on a subject by a predetermined operation from a user. Things exist.
[0009]
In order to realize this function, the photo sticker vending machine manages three layers (layers) of images at the time of editing processing. That is, the photo sticker vending machine uses a photographed image, an image of graffiti input behind the subject (hereinafter referred to as a background image), and an image of graffiti input before the subject (hereinafter referred to as a foreground image). Are managed in a layer structure. The photo sticker vending machine displays a composite image in which these three images are superimposed in order from the top in the order of a foreground image, a photographed image, and a background image on a display.
[0010]
If the user wants to graffiti the background image (that is, does not want to paint the subject with graffiti), the user specifies the background image and then inputs the graffiti on the captured image displayed on the display. Then, the input graffiti is not reflected in the area where the subject is displayed, but is reflected in the other areas (lines and stamps corresponding to the graffiti are drawn). When the user wants to delete the graffiti drawn on the background image, the user can delete the graffiti drawn on the background image after designating the background image and touching a button for deleting the graffiti.
[0011]
When the user wants to draw graffiti on the foreground image (that is, when drawing a line or a stamp on the subject), the user specifies the foreground image and then inputs the graffiti on the captured image displayed on the display. . Then, the input graffiti is reflected on all the regions without distinguishing between the region where the subject is displayed and the other region, and a line or a stamp corresponding to the graffiti is drawn. When the user wants to delete the graffiti drawn on the foreground image, the user can delete the graffiti drawn on the foreground image after specifying the foreground image and touching a button for deleting the graffiti.
[0012]
[Problems to be solved by the invention]
However, conventionally, on the display of a photo sticker vending machine, only a composite image obtained by combining the foreground image, the photographed image, and the background image without distinction is displayed. There is a problem that it is difficult to determine whether the input is a graffiti input to the foreground image or a graffiti input to the foreground image.
[0013]
Therefore, the user may specify the image on which the graffiti to be deleted is not drawn from the foreground image and the background image in order to delete the drawn graffiti. As a result, there is a problem that the user accidentally erases graffiti that he does not want to erase.
[0014]
In particular, immediately after the input of the graffiti, the user remembers whether the graffiti is input for the foreground image or the background image, but after starting the doodle. As time goes on, that memory becomes uncertain. Therefore, when erasing graffiti input at the beginning of starting graffiti, the user often erases graffiti that he does not want to erase.
[0015]
In addition, since only the composite image is displayed on the display of the photo sticker vending machine, the user forgets to specify the foreground image (background image) and inputs the graffiti into the background image (foreground image). There is a problem that a graffiti may be input to the foreground image (background image).
[0016]
In order to solve such a problem, a pen, a stamp, and an erase button for a background image and a pen, a stamp, and an erase button for a foreground image are separately displayed on a display. However, in this case, the number of buttons to be displayed on the display increases, and it becomes difficult for the user to quickly select a desired button from the buttons. was there.
[0017]
The present invention has been made in view of such circumstances, and has as its object to improve operability at the time of image editing.
[0018]
[Means for Solving the Problems]
The photo sticker vending machine of the present invention is composed of a first image obtained by photographing a subject, a second image synthesized as a background with the first image, and a foreground synthesized with the first image. Selecting means for selecting a third image, or a fourth image obtained by synthesizing the first image, the second image, and the third image, and a first image, a second image, and a third image. Control means for controlling the display of the image and the fourth image so that the image selected by the selection means can be distinguished from the unselected image.
[0019]
In the photo sticker vending machine of the present invention, the first image obtained by photographing the subject, the second image synthesized as the background with the first image, and the first image A third image synthesized as a foreground, or a fourth image obtained by synthesizing the first image, the second image, and the third image is selected, and the first image and the second image are synthesized by the control unit. The display is controlled so that the image selected by the selection unit among the image, the third image, and the fourth image can be distinguished from the unselected image.
[0020]
Therefore, when the user inputs an editing operation, whether the user is going to input an editing operation for creating a second image (background image) or an editing operation for creating a third image (foreground image) The user can be identified whether the operation is being input. Which graffiti (lines, characters, stamps, etc.) among the already edited images belongs to the second image (background image) and which graffiti belongs to the third image (foreground image) Can be identified by the user.
[0021]
This selection means is constituted by, for example, a thumbnail or a tag displayed on the monitor. The control means is constituted by, for example, a CPU.
[0022]
According to the control of the control means, a display means for displaying an image selected by the selection means so as to be distinguishable from an unselected image, and a reception means for receiving an operation input from a user are further provided. Can be.
[0023]
The display means is composed of, for example, a CRT (Cathode-Ray Tube), and the reception means is composed of, for example, a touch pen and a touch panel.
[0024]
The control means, when the second image is selected by the selecting means, causes the receiving means to receive an input of an editing operation on the second image, and the input is received by the receiving means. The second image is edited based on an editing operation, and when the third image is selected by the selecting unit, the receiving unit is made to receive an input of an editing operation for the third image, and The third image can be edited based on the editing operation whose input has been received by the receiving unit.
[0025]
This allows the user to edit the background and foreground.
[0026]
The control unit includes tabs respectively corresponding to the first image, the second image, the third image, and the fourth image, and the image selected by the selection unit. The receiving means is configured to receive a selection of one of the tabs from among the plurality of tabs displayed by the display means. The image corresponding to the tab whose selection has been accepted may be selected.
[0027]
Thus, the user can display the image corresponding to the tab by selecting the displayed tab.
[0028]
The control means includes thumbnails respectively corresponding to the first image, the second image, the third image, and the fourth image, and the image selected by the selection means. And the receiving means receives a selection of one of the thumbnails from the plurality of thumbnails displayed by the display means, and the selecting means includes: The image corresponding to the thumbnail whose selection has been accepted can be selected.
[0029]
Thus, the user can display the image corresponding to the thumbnail by selecting the displayed thumbnail. Further, the user can grasp the editing status of the background and the foreground by looking at the displayed thumbnail of the background and the thumbnail of the foreground.
[0030]
A fifth image obtained by synthesizing the first image, the second image, and the third image so that an area where the second image is synthesized can be distinguished from other areas; And a sixth image obtained by synthesizing the first image, the second image, and the third image so that an area where the third image is synthesized can be distinguished from other areas. And a thumbnail corresponding to the first image, the fifth image, the sixth image, and the fourth image, respectively, and the selection unit. The selected image is displayed on the display means, and the receiving means receives one of the thumbnails selected from the plurality of thumbnails displayed by the display means, Selection The means may be adapted to select the image corresponding to the thumbnail selected by the reception unit has been accepted.
[0031]
Thus, the user can display the image corresponding to the thumbnail by selecting the displayed thumbnail. Also, the user can grasp the positional relationship between the background and the subject and the foreground, and the positional relationship between the foreground and the subject and the background by looking at the displayed thumbnail.
[0032]
The control means, when the fifth image is selected by the selection means, causes the receiving means to receive an input of an editing operation on the fifth image, and the input is received by the receiving means. The second image is edited based on the editing operation, and when the sixth image is selected by the selecting means, the input of the editing operation on the sixth image is received by the receiving means. The third image can be edited based on the editing operation whose input has been received by the receiving unit.
[0033]
This allows the user to edit the background while grasping the positional relationship between the background and the subject and the foreground. Further, the user can edit the foreground while grasping the positional relationship between the subject and the background in the foreground.
[0034]
A printing unit for printing the fourth image on a predetermined print medium may be further provided.
[0035]
Thereby, the print medium on which the edited image is printed can be provided to the user.
[0036]
Reading means for reading identification information for identifying the mounted print medium, wherein the control means is configured to read the print medium based on a result of reading by the reading means. Printing can be controlled.
[0037]
As a result, only the print medium produced for the photo sticker vending machine of the present invention can be used, and the use of non-genuine products can be suppressed.
[0038]
The reading means is constituted by, for example, an IC tag (control tag) reader / writer.
[0039]
The print medium unit according to the present invention is characterized in that the print medium on which an image is printed by the printing means is stored, and the identification information read by the reading means is held.
[0040]
The identification information is configured by a memory such as an IC tag (control tag) or an IC card, and stores a unique ID as unit identification information.
[0041]
In this way, the print medium unit can be used only when the identification information is authenticated, so that only the unit produced for the photo sticker vending machine of the present invention can be used, and other than the so-called genuine product Can be prevented from being used. Further, when a bar code or the like is attached to the print medium unit, whether or not the print medium unit is a genuine product may be determined based on the bar code.
[0042]
The print medium of the present invention is a print medium on which an image is printed by the above-described photo sticker vending machine.
[0043]
According to the photo sticker selling method of the present invention, a photographing step of photographing a subject, a first image obtained by photographing the subject by the processing of the photographing step, a second image synthesized as a background with the first image Selecting a third image synthesized as a foreground with the first image, or a fourth image obtained by synthesizing the first image, the second image, and the third image; A control step of controlling the display of the first image, the second image, the third image, and the fourth image so that the image selected by the processing of the selection step can be distinguished from an unselected image; And characterized in that:
[0044]
BEST MODE FOR CARRYING OUT THE INVENTION
FIG. 1 is a perspective view showing a configuration example of a photo
[0045]
A photographing
[0046]
Therefore, the user using the photo
[0047]
The
[0048]
A flash irradiation unit 15-1 is provided on the left side of the imaging device 12 (rail 14), and a flash irradiation unit 15-2 is provided on the right side. The flash irradiators 15-1 and 15-2 transmit the flash light emitted from the illumination device provided inside the photo
[0049]
Below the flash irradiator 15-2, there is provided a photographing
[0050]
Various messages for guiding the photographing method and the like are displayed on the photographing
[0051]
The
[0052]
The
[0053]
A
[0054]
Below the
[0055]
FIG. 2 is a perspective view showing a configuration example on the surface 1C side, which corresponds to the opposite side of the
[0056]
On the surface 1C of the photo
[0057]
The image photographed by the photographing
[0058]
On the editing monitors 41-1 and 41-2, buttons for selecting various editing tools are displayed together with the image to be edited. Then, when the button is operated and the image is edited, the edited monitor 41-1 and 41-2 display the edited image generated according to the input.
[0059]
The touch pens 43-1 and 43-2 are configured according to a position detection method (for example, a resistive film type, an ultrasonic type, or the like) of the touch panel stacked on the editing monitors 41-1 and 41-2.
[0060]
FIG. 3 is a diagram illustrating an example of the arrangement of the photo
[0061]
A
[0062]
An
[0063]
FIG. 4 is a diagram showing an example of the arrangement of the photo
[0064]
As shown in FIG. 4, similarly to the
[0065]
With reference to FIG. 4, a description will be given of the movement of the user from the start of shooting to the reception of the sticker sheet.
[0066]
When using the photo
[0067]
When a predetermined number of images are selected as images to be edited and shooting is completed, the user exits the shooting
[0068]
At this time, the user who has been waiting for a turn in the waiting space 74 (the user who has been waiting for the
[0069]
As described above, the editing monitors 41-1 and 41-2, which can be confirmed from the
[0070]
Then, when the sticker paper 121 (FIG. 5) is discharged to the
[0071]
In this way, by providing a space for photographing, a space for editing, and a space for waiting for printing to be completed in front of different surfaces of the photo
[0072]
FIG. 5 is a block diagram showing an example of the internal configuration of the photo
[0073]
The
[0074]
The
[0075]
A touch panel 94-1 is laminated on the editing monitor 41-1 provided on the surface 1C of the photo
[0076]
The power supply 95 supplies power to each part of the photo
[0077]
The
[0078]
When image data subjected to editing processing or the like is supplied from the
[0079]
The control tag reader /
[0080]
As a result, it is possible to suppress the use of a sticker sheet that is not compatible with the photo sticker vending machine 1 (not a genuine sticker). The
[0081]
FIG. 6 is a block diagram illustrating a detailed configuration example of the
[0082]
The
[0083]
The
[0084]
The input /
[0085]
The
[0086]
A
[0087]
Next, with reference to the flowchart of FIG. 7, the customer service processing of the photo
[0088]
In step S51, the
[0089]
If the
[0090]
The shooting mode will be described. The photo
[0091]
Therefore, in step S52, the
[0092]
After the process in step S52, in step S53, the
[0093]
In step S101, the
[0094]
FIG. 9 is a diagram showing an example of an explanation screen displayed on the photographing
[0095]
FIG. 10 is a diagram showing another example of the explanation screen displayed on the photographing
[0096]
In step S102, the
[0097]
In step S103, the
[0098]
FIG. 11 is a diagram illustrating an example of a display screen displayed on the photographing
[0099]
When it is time to take a picture, the
[0100]
In step S105, the
[0101]
FIG. 12 is a view showing an example of the image confirmation screen. The image photographed in step S104 is displayed almost at the center of the photographing
[0102]
Then, in step S106, the
[0103]
On the other hand, if the
[0104]
Then, in step S109, the
[0105]
FIG. 13 is a diagram illustrating an example of a brightness adjustment screen displayed on the photographing
[0106]
The
[0107]
In step S110, the
[0108]
If the
[0109]
In the above description, an example in which the normal mode is selected in step S52 has been described. However, a case in which the continuous shooting mode is selected in step S52 will be described below.
[0110]
When the continuous shooting mode is selected, the processes in steps S101 to S103 in FIG. 8 are executed as in the normal mode. Then, in step S104, after displaying the countdown indicator 201, the
[0111]
Thereafter, in step S105, the
[0112]
On the other hand, if the
[0113]
This concludes the description of the photographing process of the photo
[0114]
After the photographing process ends, the process proceeds to step S54 in FIG.
[0115]
In step S54, the
[0116]
In step S55, the
[0117]
The photo
[0118]
In order to realize this function, the photo
[0119]
Here, first, a display example of the editing monitor 41 in the editing process in step S55 of FIG. 7 will be described with reference to FIGS. Details of the editing process will be described later with reference to FIGS. 21 to 39.
[0120]
FIG. 14 is an example of a screen displayed on the editing monitor 41-1 in step S55. A similar screen is also displayed on the editing monitor 41-2.
[0121]
In the following description, the editing monitor 41-1, the touch pen 43-1 and the touch panel 94-1 will be described as representatives, but the following description is based on the editing monitor 41-2, the touch pen 43-2, and the touch pen 42-1. The same applies to the touch panel 94-2. That is, the photo
[0122]
In FIG. 14, a
[0123]
At the lower right corner of the screen, an
[0124]
Various buttons operated when selecting an editing tool are displayed on the left side of the
[0125]
On the left side of the
[0126]
Below the
[0127]
In addition, thumbnails 305-1 to 305-4 are displayed above the image display area. The thumbnail 305-1 is a thumbnail of the composite image 321 (FIG. 15). The thumbnail 305-2 is a thumbnail of the captured image 341 (FIG. 17). The thumbnail 305-3 is a thumbnail of the composite image 331 (FIG. 16). The thumbnail 305-4 is a thumbnail of the
[0128]
In the thumbnail 305-1, only the area where the background image is displayed is displayed in color, and the area in which the subject is captured and the foreground image are displayed in monochrome to emphasize the background image. Similarly, in the thumbnail 305-3, only the foreground image is displayed in color, and the area where the subject image and the background image are displayed is displayed in monochrome, thereby enhancing the foreground image.
[0129]
Also, in FIG. 14, graffiti is depicted on the thumbnails 305-1 and 305-3. However, at the beginning of the editing process, since the graffiti has not been input by the user yet, the thumbnails 305-1 and 305-3 are not displayed. Thumbnail 305-3 has no graffiti drawn.
[0130]
In FIG. 14, the
[0131]
For example, when the user touches the thumbnail 305-1 with the touch pen 43-1, the screen shown in FIG. 15 is displayed on the editing monitor 41-1. In FIG. 15, a
[0132]
The user can input an editing operation (write or delete graffiti) on the background image (range displayed in color) in the
[0133]
Also, for example, when the user touches the thumbnail 305-3 with the touch pen 43-1, the screen shown in FIG. 16 is displayed on the editing monitor 41-1. In FIG. 16, a
[0134]
The user can input an editing operation to the foreground image in the image display area 301 (write or delete graffiti) on the screen shown in FIG.
[0135]
Also, for example, when the user touches the thumbnail 305-2 with the touch pen 43-1, the screen shown in FIG. 17 is displayed on the editing monitor 41-1. In FIG. 17, a
[0136]
When the user wants to do graffiti on the background image, the user first touches the thumbnail 305-1 with the touch pen 43-1 to display the screen shown in FIG. In this state, the user selects a desired pen tool or stamp tool from the
[0137]
When the user wants to erase the graffiti drawn on the background image, the user first touches the thumbnail 305-1 with the touch pen 43-1 to display the screen shown in FIG. In this state, after touching the
[0138]
The shaded area (area displayed in monochrome) of the
[0139]
In the above description, the shaded area in the
[0140]
When the user wants to do graffiti on the foreground image, first, the user touches the thumbnail 305-3 with the touch pen 43-1 to display the screen shown in FIG. In this state, the user selects a desired pen tool or stamp tool from the
[0141]
When the user wants to erase the graffiti drawn on the foreground image, first, the user touches the thumbnail 305-3 with the touch pen 43-1 to display the screen shown in FIG. In this state, after touching the
[0142]
The shaded area (the area displayed in monochrome) of the
[0143]
When the user wants to check the captured
[0144]
When the user wants to check the
[0145]
The
[0146]
The
[0147]
In step S56, the
[0148]
In the example of FIG. 18, a message “Please select a photo layout” is displayed at the top of the screen, and the user moves the cursor 351 with the touch pen 43-1 to select a desired image layout. Can be selected. After selecting a desired image arrangement, the user can determine the selected image arrangement by touching the
[0149]
Then, when the
[0150]
After the process of step S57 ends, the process returns to step S51, and the processes after step S51 are repeatedly executed.
[0151]
This concludes the description of the customer service processing of the photo
[0152]
The processing shown in FIG. 7 is performed not only in chronological order according to the described order, but also in parallel according to the usage status of the photo
[0153]
As described above with reference to FIGS. 15 and 16, in the present invention, when a graffiti (editing operation) can be input to the background image, only the background image is displayed in color, and the subject and the foreground image are monochrome. To display. Further, in the present invention, when graffiti (editing operation) can be input to the foreground image, only the foreground image is displayed in color, and the subject and the background image are displayed in monochrome. In this way, by displaying the image in which the graffiti (editing operation) can be input and distinguishing it from the other portions, the user can input the graffiti (editing operation) in either the background image or the foreground image. You can easily understand what you are trying to do.
[0154]
As a result, it is possible to prevent the user from accidentally inputting graffiti (editing operation) to the foreground image when trying to input graffiti (editing operation) to the background image. Similarly, it is possible to prevent the user from inputting graffiti (editing operation) to the background image by mistake when trying to input graffiti (editing operation) to the foreground image.
[0155]
Further, the user can easily grasp whether the graffiti already drawn is graffiti on the background image or graffiti on the foreground image. Therefore, it is possible to prevent the user from accidentally erasing the graffiti drawn on the foreground image in an attempt to delete the graffiti drawn on the background image. Similarly, it is possible to prevent the graffiti drawn on the background image from being deleted by mistake when trying to delete the graffiti drawn on the foreground image.
[0156]
In a conventional photo sticker vending machine, for example, as shown in FIG. 20, a background pen button 361 for specifying a line or a character on a background image and a line or a character on a foreground image are input. In this case, it is necessary to display the foreground pen buttons 362 to be designated in order to perform the operations. Similarly, in a conventional photo sticker vending machine, for example, as shown in FIG. 20, a
[0157]
On the other hand, in the present invention, when it is desired to input (delete) a graffiti in the background image or the foreground image, the corresponding thumbnail 305-1 or 305-3 is designated to display the image in the
[0158]
Further, in the present invention, in order to erase the background image or the graffiti drawn on the foreground image, one
[0159]
Further, according to the present invention, a more entertaining editing operation can be realized.
[0160]
Next, the editing process in step S55 in FIG. 7 will be described in detail with reference to the flowchart in FIG.
[0161]
In the following description, the editing monitor 41-1, the touch pen 43-1 and the touch panel 94-1 will be described as representatives, but the following description is based on the editing monitor 41-2, the touch pen 43-2, and the touch pen 42-1. The same applies to the touch panel 94-2. That is, the photo
[0162]
In step S151, the
[0163]
In step S181 in FIG. 22, the
[0164]
In step S201 of FIG. 23, the
[0165]
In step S202, the
[0166]
In step S203, the
[0167]
In step S204, the
[0168]
In step S <b> 205, the
[0169]
In step S206, the
[0170]
In step S207, the
[0171]
In step S208, the
[0172]
The
[0173]
The
[0174]
This time is the process of step S182 in the process of step S151 in FIG. That is, the editing process has just started. Therefore, no scribble is drawn on the
[0175]
Returning to FIG. 22, in step S183, the
[0176]
In step S184, the
[0177]
In step S185, the
[0178]
As a result of the image combining processing in step S185, a combined image (the combined
[0179]
In step S187, the
[0180]
In step S188, the
[0181]
As a result of the image combining process in step S188, a combined image (the combined
[0182]
Thus, the image creation processing ends. This time, the image creation process is executed as the process of step S151 in FIG. That is, the editing process has just started. Therefore, graffiti has not yet been drawn on the
[0183]
In step S152, the
[0184]
In step S153, the
[0185]
After the process in step S153, in step S154, the
[0186]
In step S221 of FIG. 35, the
[0187]
That is, in the present embodiment, the user can instruct editing of the
[0188]
Since the
[0189]
In step S155, the
[0190]
In step S156, the
[0191]
In step S241, as shown in FIG. 15, the
[0192]
In step S243, the
[0193]
After the process in step S244, in step S245, the
[0194]
After the process in step S245, in step S246, the
[0195]
In step S247, the
[0196]
In this way, by reflecting the graffiti corresponding to the input editing operation on the thumbnail in real time, the user can grasp the editing status by looking at the thumbnails 305-1 to 305-4.
[0197]
After the process of step S247, the process returns to step S243, and the above-described processes after step S243 are repeatedly executed.
[0198]
If the
[0199]
In step S248, when the
[0200]
Returning to FIG. 21, in step S155, when the
[0201]
In step S157, the
[0202]
In step S158, the
[0203]
In step S261, the
[0204]
In step S263, the
[0205]
After the process in step S264, in step S265, the
[0206]
After the process in step S265, in step S266, the
[0207]
In step S267, the
[0208]
In this way, by reflecting the graffiti corresponding to the input editing operation on the thumbnail in real time, the user can grasp the editing status by looking at the thumbnails 305-1 to 305-4.
[0209]
After the process in step S267, the process returns to step S263, and the processes in step S263 and thereafter are repeatedly executed.
[0210]
If the
[0211]
In step S268, when the
[0212]
Returning to FIG. 21, in step S157, when the
[0213]
In step S159, the
[0214]
In step S160, the
[0215]
In step S281, the
[0216]
In step S283, the
[0219]
In step S284, the
[0218]
After the process in step S284, in step S285, the
[0219]
After the process in step S285, in step S286, the
[0220]
In step S287, the
[0221]
In this way, by reflecting the graffiti corresponding to the input editing operation on the thumbnail in real time, the user can grasp the editing status by looking at the thumbnails 305-1 to 305-4.
[0222]
After the process in step S287, the process returns to step S283, and the processes in step S283 and thereafter are repeatedly executed.
[0223]
In step S283, when the
[0224]
In step S288, the
[0225]
In step S288, the
[0226]
Returning to FIG. 21, in step S159, the
[0227]
As described above, the image editing process of the photo
[0228]
By the way, the time limit is set in each of the photographing mode selection receiving process in step S52 of FIG. 7, the photographing process in step S53, the editing process in step S55, and the image placement selection receiving process in step S56. The
[0229]
Next, the editing time control processing of the photo
[0230]
When the editing process of step S55 in FIG. 7 is started and a screen as shown in FIG. 14 is displayed on the editing monitors 41-1 and 41-2, in step S301, the
[0231]
In step S302, the
[0232]
In step S302, the
[0233]
In step S303, the
[0234]
By the way, the photo
[0235]
FIGS. 40 to 43 show examples of screens displayed on the
[0236]
In FIG. 40, the
[0237]
In FIG. 40, an image display area 501 is provided in the center and front of the editing monitor 41-1 and a
[0238]
Tabs 502-1 to 502-4 are displayed above the captured image display area 501. The tab 502-1 displays characters of "background", the tab 502-2 displays characters of "shooting result", the tab 502-3 displays characters of "foreground", In 502-4, the characters "composite" are displayed. In FIG. 40, the tabs 502-1 to 502-4 are displayed in the same bright color.
[0239]
When the tab 502-1 is touched by the touch pen 43-1, the
[0240]
When the tab 502-3 is touched with the touch pen 43-1, the
[0241]
When the tab 502-1 is touched by the touch pen 43-1, the
[0242]
In the examples of FIGS. 14 to 17, by accepting the designation of any one of the thumbnails 305-1 to 305-4 by the touch pen 43-1, the designated thumbnail is displayed in the
[0243]
By the way, in the photo
[0244]
The translucent composition processing is, for example, when combining the captured
[0245]
For example, the captured
[0246]
By the way, the configuration on the surface 1C side of the photo
[0247]
In FIG. 44, editing monitors 41-1 to 41-4 are provided on the surface 1C, and storage units 42-1 to 42-4 are provided below the editing monitors 41-1 to 41-4, respectively. Then, the touch pens 43-1 to 43-4 are stored therein.
[0248]
FIG. 45 shows an example of the internal configuration of the photo
[0249]
As described above, in the case of the photo
[0250]
In the case of the photo
[0251]
In FIG. 47, the
[0252]
The user can input a graffiti having a desired effect to the
[0253]
The editing monitor 41-2 displays a captured image processing button display field 613. The user can select a desired button from the captured image processing button display field 613 to process the captured
[0254]
The editing monitors 41-1 to 41-3 are provided with composite image reduced display areas 601-1 to 601-3, respectively, and are reduced in the composite image reduced display areas 601-1 to 601-3. The
[0255]
The users 561-1 to 561-4 can share the graffiti into the images while checking the images displayed on the editing monitors 41-1 to 41-4. Therefore, the users 561-1 to 561-4 can input many edits in a shorter time.
[0256]
In the examples shown in FIGS. 44 and 46, a plurality of monitors of the editing monitors 41-1 to 41-4 are provided on the surface 1C. It does not mean that it is limited to installing an editing monitor.
[0257]
For example, one large monitor having an area equal to or greater than the total area of the screens of the editing monitors 41-1 to 41-4 is installed on the surface 1C, and the editing monitors 41-1 to 41-1 of FIG. The same screen as the four screens displayed in 41-4 may be displayed on a large monitor as a virtual screen.
[0258]
In particular, when the large monitor installed on the surface 1C is a large monitor having a long vertical side (for example, when the entire height of the surface 1C from the floor is 50 cm to 200 cm), the height of the user is increased. The virtual screen can be displayed at a height that matches the height of the virtual screen.
[0259]
Specifically, for example, at the start of the editing process, the same four virtual screens as the four screens displayed on the editing monitors 41-1 to 41-4 in FIG. At a position (for example, a position at a height of about 100 cm from the floor). For example, when the user touches a predetermined position on a desired virtual screen with the
[0260]
Accordingly, each of the users 561-1 to 561-4 can display the virtual screen at an optimum height according to the user's height and input an editing operation. Therefore, the users 561-1 to 561-4 can easily perform editing input, and as a result, can perform more satisfactory graffiti.
[0261]
Further, for example, the virtual screen displayed on the large monitor may be movable in the left-right direction. That is, for example, when the user touches a desired virtual screen on a large monitor with the
[0262]
Further, for example, the display size of the virtual screen displayed on the large monitor may be changeable. That is, for example, when the user touches the desired virtual screen frame with the
[0263]
By the way, when the
[0264]
In step S501 of FIG. 48, the
[0265]
In step S502, the
[0266]
In step S503, the
[0267]
In step S505, the
[0268]
In step S503, if the
[0269]
Then, in step S507, the
[0270]
In the present embodiment, the
[0271]
For example, the seal paper unit 97 may be identified by using a method such as a barcode or an IC card instead of the
[0272]
Further, the
[0273]
In the above description, the printing medium is described as sticker paper, but is not limited to sticker paper. For example, printing may be performed on paper of a predetermined size or poster paper. The photographed image data may be recorded on a recording medium such as a floppy disk prepared by the user.
[0274]
The series of processes described above can be executed by hardware, but can also be executed by software. When a series of processing is executed by software, a program constituting the software executes various functions by installing a computer built in dedicated hardware or installing various programs. For example, it is installed in a general-purpose personal computer or the like from a network or a recording medium.
[0275]
As shown in FIG. 6, this recording medium is provided separately from the apparatus main body, and is distributed to provide a program to a user. The recording medium includes a magnetic disk 151 (including a flexible disk) and an optical disk 152 (including a flexible disk). It is configured by a package medium including a CD-ROM (Compact Disk-Read Only Memory), a DVD (including a Digital Versatile Disk), a magneto-optical disk 153 (including an MD (Mini-Disk)), or a
[0276]
Note that, in the present embodiment described above, when an editing operation on the
[0277]
Further, in the present embodiment, when accepting the editing operation on the
[0278]
Further, in the above-described embodiment, as shown in FIG. 34, the
[0279]
For example, the
[0280]
Specifically, for example, at the beginning of the editing process, the
[0281]
Similarly, the
[0282]
Specifically, for example, at the beginning of the editing process, the
[0283]
In the above-described embodiment, as shown in FIG. 34, the
[0284]
In the present specification, the system represents the entire device including a plurality of devices.
[0285]
【The invention's effect】
As described above, according to the present invention, a user can edit a captured image.
[0286]
Further, according to the present invention, it is possible to prevent a user from accidentally inputting or deleting graffiti in a background image or a foreground image. Also, the number of buttons to be displayed on the screen can be reduced. As a result, operability during editing can be improved.
[0287]
Further, according to the present invention, a more entertaining editing operation can be realized.
[Brief description of the drawings]
FIG. 1 is a perspective view showing an example of the appearance of a photo sticker vending machine to which the present invention is applied.
FIG. 2 is a perspective view showing another example of the appearance of a photo sticker vending machine to which the present invention is applied.
FIG. 3 is a diagram showing an example of the arrangement of the photo sticker vending machine in FIG. 1;
4 is a diagram showing an example of the arrangement of the photo sticker vending machine of FIG. 1 from above.
FIG. 5 is a block diagram showing an example of an internal configuration of the photo sticker vending machine of FIG. 1;
FIG. 6 is a block diagram illustrating a configuration example of a control device in FIG. 5;
FIG. 7 is a flowchart illustrating a customer response process of the photo sticker vending machine.
FIG. 8 is a flowchart illustrating a process in step S53 of FIG. 7 in detail.
FIG. 9 is a diagram showing a display example of a photographing monitor.
FIG. 10 is another view showing a display example of the photographing monitor.
FIG. 11 is yet another view showing a display example of the photographing monitor.
FIG. 12 is a diagram illustrating a display example of a photographing monitor.
FIG. 13 is another view showing a display example of the photographing monitor.
FIG. 14 is a diagram illustrating a display example of an editing monitor.
FIG. 15 is another diagram showing a display example of the editing monitor.
FIG. 16 is yet another view showing a display example of the editing monitor.
FIG. 17 is a diagram illustrating a display example of an editing monitor.
FIG. 18 is another diagram showing a display example of the editing monitor.
FIG. 19 is a diagram illustrating an example of a seal sheet.
FIG. 20 is a view showing a display example of an editing monitor of a conventional photo sticker vending machine for comparison with the examples of FIGS. 14 to 17;
FIG. 21 is a flowchart illustrating a process in step S55 of FIG. 7 in detail.
22 is a flowchart describing in detail the processing of step S151 in FIG. 21, step S245 in FIG. 36, step S265 in FIG. 37, and step S285 in FIG.
FIG. 23 is a flowchart describing in detail the processing of steps S182, S185, and S188 of FIG. 22;
FIG. 24 is a diagram illustrating an image combining process.
FIG. 25 is another diagram illustrating the image combining process.
FIG. 26 is yet another diagram illustrating the image combining process.
FIG. 27 is a diagram illustrating an image combining process.
FIG. 28 is another diagram illustrating the image synthesis processing.
FIG. 29 is yet another diagram illustrating the image synthesizing process.
FIG. 30 is a diagram illustrating an image combining process.
FIG. 31 is another diagram illustrating the image synthesis processing.
FIG. 32 is yet another diagram illustrating the image synthesizing process.
FIG. 33 is a diagram illustrating an image combining process.
FIG. 34 is a diagram illustrating a layer structure of an image.
FIG. 35 is a flowchart illustrating in detail a process of step S154 in FIG. 21;
FIG. 36 is a flowchart illustrating the processing in step S156 of FIG. 21 in detail.
FIG. 37 is a flowchart illustrating in detail a process of step S158 in FIG. 21;
FIG. 38 is a flowchart illustrating the process of step S160 in FIG. 21 in detail.
FIG. 39 is a flowchart illustrating an editing time control process of the photo sticker vending machine.
FIG. 40 is a diagram illustrating a display example of an editing monitor.
FIG. 41 is another diagram showing a display example of the editing monitor.
FIG. 42 is yet another view showing a display example of the editing monitor.
FIG. 43 is a diagram illustrating a display example of an editing monitor.
FIG. 44 is a perspective view showing an example of an appearance different from that of FIG. 2 of the photo sticker vending machine to which the present invention is applied.
FIG. 45 is a block diagram showing an example of the internal configuration of the photo sticker vending machine in FIG. 44.
FIG. 46 is a diagram illustrating the arrangement of users.
FIG. 47 is a diagram illustrating a display example of an editing monitor.
FIG. 48 is a flowchart illustrating an ID detection process of the photo sticker vending machine.
[Explanation of symbols]
1 Photo sticker vending machine
12 Imaging equipment
16 Monitor for shooting
17 Operation panel
31 Seal outlet
41-1, 41-2 Editing monitor
43-1 and 43-2 Touch pen
91 Controller
94-1 and 94-2 Touch panel
97 Seal paper unit
131 CPU
133 RAM
136 storage unit
Claims (12)
前記撮影手段により前記被写体を撮影して得た第1の画像、前記第1の画像に対して背景として合成される第2の画像、前記第1の画像に対して前景として合成される第3の画像、または、前記第1の画像、前記第2の画像、および前記第3の画像を合成した第4の画像を選択する選択手段と、
前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像のうち、前記選択手段により選択された画像が選択されていない画像と識別できるように、その表示を制御する制御手段と
を備えることを特徴とする写真シール自動販売機。Photographing means for photographing a subject;
A first image obtained by shooting the subject by the shooting means, a second image synthesized as a background with the first image, and a third image synthesized as a foreground with the first image Selecting means for selecting an image or a fourth image obtained by synthesizing the first image, the second image, and the third image;
Among the first image, the second image, the third image, and the fourth image, the display is performed so that the image selected by the selection unit can be distinguished from an unselected image. A vending machine for photo stickers, comprising: control means for controlling.
ユーザからの操作の入力を受け付ける受付手段と
をさらに備えることを特徴とする請求項1に記載の写真シール自動販売機。Display means for displaying the image selected by the selection means so as to be distinguishable from an unselected image, according to the control by the control means;
2. The photo sticker vending machine according to claim 1, further comprising a receiving unit that receives an input of an operation from a user.
ことを特徴とする請求項2に記載の写真シール自動販売機。The control unit, when the second image is selected by the selection unit, causes the reception unit to receive an input of an editing operation on the second image, and the editing unit receives the input by the reception unit. The second image is edited based on the operation, and when the third image is selected by the selecting means, the receiving means is made to receive an input of an editing operation for the third image, and The photo sticker vending machine according to claim 2, wherein the third image is edited based on the editing operation whose input has been accepted by the means.
前記受付手段は、前記表示手段により表示された複数の前記タブの中から、1つの前記タブの選択を受け付け、
前記選択手段は、前記受付手段により選択が受け付けられた前記タブに対応する前記画像を選択する
ことを特徴とする請求項2または3に記載の写真シール自動販売機。The control unit may display tabs respectively corresponding to the first image, the second image, the third image, and the fourth image, and the image selected by the selection unit on the display unit. Display,
The receiving unit receives a selection of one of the tabs from the plurality of tabs displayed by the display unit,
The photo sticker vending machine according to claim 2, wherein the selection unit selects the image corresponding to the tab selected by the reception unit.
前記受付手段は、前記表示手段により表示された複数の前記サムネイルの中から、1つの前記サムネイルの選択を受け付け、
前記選択手段は、前記受付手段により選択が受け付けられた前記サムネイルに対応する前記画像を選択する
ことを特徴とする請求項2または3に記載の写真シール自動販売機。The control means displays the thumbnails respectively corresponding to the first image, the second image, the third image, and the fourth image, and the image selected by the selection means on the display means. Display,
The receiving unit receives a selection of one of the thumbnails from the plurality of thumbnails displayed by the display unit,
The photo sticker vending machine according to claim 2, wherein the selection unit selects the image corresponding to the thumbnail selected by the reception unit.
前記制御手段は、前記第1の画像、前記第5の画像、前記第6の画像、および前記第4の画像にそれぞれ対応するサムネイル、および前記選択手段により選択された前記画像を前記表示手段に表示させ、
前記受付手段は、前記表示手段により表示された複数の前記サムネイルの中から、1つの前記サムネイルの選択を受け付け、
前記選択手段は、前記受付手段により選択が受け付けられた前記サムネイルに対応する前記画像を選択する
ことを特徴とする請求項2または3に記載の写真シール自動販売機。A fifth image obtained by synthesizing the first image, the second image, and the third image so that an area where the second image is synthesized can be distinguished from other areas; And a sixth image obtained by synthesizing the first image, the second image, and the third image so that an area where the third image is synthesized can be distinguished from other areas. Further comprising a creating means for creating an image,
The control unit displays the thumbnails respectively corresponding to the first image, the fifth image, the sixth image, and the fourth image, and the image selected by the selection unit on the display unit. Display,
The receiving unit receives a selection of one of the thumbnails from the plurality of thumbnails displayed by the display unit,
The photo sticker vending machine according to claim 2, wherein the selection unit selects the image corresponding to the thumbnail selected by the reception unit.
ことを特徴とする請求項6に記載の写真シール自動販売機。When the fifth image is selected by the selection unit, the control unit causes the reception unit to receive an input of an editing operation on the fifth image, and the editing unit receives the input by the reception unit. The second image is edited based on the operation, and when the sixth image is selected by the selection means, the receiving means is made to receive an input of an editing operation on the sixth image, and 7. The photo sticker vending machine according to claim 6, wherein the third image is edited based on the editing operation accepted by the means.
ことを特徴とする請求項1乃至7のいずれかに記載の写真シール自動販売機。The photo sticker vending machine according to claim 1, further comprising a printing unit that prints the fourth image on a predetermined print medium.
前記制御手段は、前記読み取り手段による読み取り結果に基づいて、前記印刷媒体への印刷を制御する
ことを特徴とする請求項8に記載の写真シール自動販売機。The predetermined print medium, further comprising reading means for reading identification information for identifying the mounted print medium,
The photo sticker vending machine according to claim 8, wherein the control unit controls printing on the print medium based on a result of reading by the reading unit.
ことを特徴とする請求項9に記載の写真シール自動販売機により使用される印刷媒体ユニット。The printing device according to claim 9, wherein the printing medium stores the print medium on which the image is printed by the printing unit, and holds the identification information read by the reading unit. Media unit.
請求項1乃至9のいずれかに記載の写真シール自動販売機により画像が印刷された
ことを特徴とする印刷媒体。A print medium on which an image is printed by a photo sticker vending machine,
A print medium, wherein an image is printed by the photo sticker vending machine according to any one of claims 1 to 9.
前記撮影ステップの処理により前記被写体を撮影して得た第1の画像、前記第1の画像に対して背景として合成される第2の画像、前記第1の画像に対して前景として合成される第3の画像、または、前記第1の画像、前記第2の画像、および前記第3の画像を合成した第4の画像を選択する選択ステップと、
前記第1の画像、前記第2の画像、前記第3の画像、および前記第4の画像のうち、前記選択ステップの処理により選択された画像が選択されていない画像と識別できるように、その表示を制御する制御ステップと
を含むことを特徴とする写真シール販売方法。A shooting step for shooting the subject,
A first image obtained by imaging the subject by the processing of the imaging step, a second image synthesized as a background with the first image, and synthesized as a foreground with the first image A selecting step of selecting a third image or a fourth image obtained by combining the first image, the second image, and the third image;
The first image, the second image, the third image, and the fourth image, the image selected by the process of the selection step is identified so that it can be identified as an unselected image. And a control step of controlling the display.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002201557A JP4126534B2 (en) | 2002-07-10 | 2002-07-10 | Photo sticker vending machine and method |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2002201557A JP4126534B2 (en) | 2002-07-10 | 2002-07-10 | Photo sticker vending machine and method |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2004048275A true JP2004048275A (en) | 2004-02-12 |
JP4126534B2 JP4126534B2 (en) | 2008-07-30 |
Family
ID=31708060
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2002201557A Expired - Fee Related JP4126534B2 (en) | 2002-07-10 | 2002-07-10 | Photo sticker vending machine and method |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP4126534B2 (en) |
Cited By (13)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005115011A (en) * | 2003-10-08 | 2005-04-28 | Ricoh Co Ltd | Image display apparatus, image display method, image display program and recording medium recording the program |
JP2008065112A (en) * | 2006-09-08 | 2008-03-21 | Make Softwear:Kk | Photographing amusement machine |
JP2009151698A (en) * | 2007-12-21 | 2009-07-09 | Furyu Kk | Image converter, image providing system, photographing editing device, image conversion method, image conversion program, and recording medium recorded with program |
JP2010039410A (en) * | 2008-08-08 | 2010-02-18 | Nikon Corp | Projector |
JP2012165454A (en) * | 2012-04-26 | 2012-08-30 | Furyu Kk | Image conversion apparatus, image providing system, photographing/editing device, image converting method, image conversion program, and recording medium recording the program |
JP2013083992A (en) * | 2012-11-28 | 2013-05-09 | Furyu Kk | Photographic seal creation device, photographic seal creation method, and program |
JP2016046622A (en) * | 2014-08-21 | 2016-04-04 | 株式会社メイクソフトウェア | Photographing play machine, photo sticker creation device, control method for photographing play machine, and control program for photographing play machine |
JP2018018450A (en) * | 2016-07-29 | 2018-02-01 | 辰巳電子工業株式会社 | Image edition device, image edition method, and computer program |
CN108055483A (en) * | 2017-11-30 | 2018-05-18 | 努比亚技术有限公司 | A kind of picture synthesis method, mobile terminal and computer readable storage medium |
JP2021140390A (en) * | 2020-03-04 | 2021-09-16 | 株式会社リコー | Program, composite image generation method, terminal device and information processor |
JP2022008999A (en) * | 2016-07-29 | 2022-01-14 | 辰巳電子工業株式会社 | Image editing device, image editing method and computer program |
WO2023042401A1 (en) * | 2021-09-17 | 2023-03-23 | 日本電信電話株式会社 | Image presentation device, image presentation method, and program |
WO2024088322A1 (en) * | 2022-10-28 | 2024-05-02 | 影石创新科技股份有限公司 | Video display method and apparatus, video display device, and storage medium |
-
2002
- 2002-07-10 JP JP2002201557A patent/JP4126534B2/en not_active Expired - Fee Related
Cited By (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2005115011A (en) * | 2003-10-08 | 2005-04-28 | Ricoh Co Ltd | Image display apparatus, image display method, image display program and recording medium recording the program |
JP2008065112A (en) * | 2006-09-08 | 2008-03-21 | Make Softwear:Kk | Photographing amusement machine |
JP2009151698A (en) * | 2007-12-21 | 2009-07-09 | Furyu Kk | Image converter, image providing system, photographing editing device, image conversion method, image conversion program, and recording medium recorded with program |
JP2010039410A (en) * | 2008-08-08 | 2010-02-18 | Nikon Corp | Projector |
JP2012165454A (en) * | 2012-04-26 | 2012-08-30 | Furyu Kk | Image conversion apparatus, image providing system, photographing/editing device, image converting method, image conversion program, and recording medium recording the program |
JP2013083992A (en) * | 2012-11-28 | 2013-05-09 | Furyu Kk | Photographic seal creation device, photographic seal creation method, and program |
JP2016046622A (en) * | 2014-08-21 | 2016-04-04 | 株式会社メイクソフトウェア | Photographing play machine, photo sticker creation device, control method for photographing play machine, and control program for photographing play machine |
JP2018018450A (en) * | 2016-07-29 | 2018-02-01 | 辰巳電子工業株式会社 | Image edition device, image edition method, and computer program |
JP2022008999A (en) * | 2016-07-29 | 2022-01-14 | 辰巳電子工業株式会社 | Image editing device, image editing method and computer program |
JP7017724B2 (en) | 2016-07-29 | 2022-02-09 | 辰巳電子工業株式会社 | Image editing equipment, image editing methods and computer programs |
CN108055483A (en) * | 2017-11-30 | 2018-05-18 | 努比亚技术有限公司 | A kind of picture synthesis method, mobile terminal and computer readable storage medium |
JP2021140390A (en) * | 2020-03-04 | 2021-09-16 | 株式会社リコー | Program, composite image generation method, terminal device and information processor |
WO2023042401A1 (en) * | 2021-09-17 | 2023-03-23 | 日本電信電話株式会社 | Image presentation device, image presentation method, and program |
WO2024088322A1 (en) * | 2022-10-28 | 2024-05-02 | 影石创新科技股份有限公司 | Video display method and apparatus, video display device, and storage medium |
Also Published As
Publication number | Publication date |
---|---|
JP4126534B2 (en) | 2008-07-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP5051313B2 (en) | Photo sticker creation apparatus and method, and program | |
JP3548852B2 (en) | Photo sticker vending machine, image processing method of photo sticker vending machine, and program | |
JP4126534B2 (en) | Photo sticker vending machine and method | |
JP5802911B2 (en) | Photo game machine | |
JP7011206B2 (en) | Amusement photography equipment, image processing equipment, and image processing methods | |
JP4730599B2 (en) | Photo sticker creation apparatus and method, and program | |
JP4523839B2 (en) | Image input apparatus and method, and program | |
JP2008065112A (en) | Photographing amusement machine | |
JP4607992B2 (en) | Photo print providing apparatus and method, and program | |
JP2008011305A (en) | Photograph creation apparatus and photograph creation method, and program | |
JP2006293421A (en) | Photographic sticker making device and method, and program | |
JP2006287285A (en) | Photography seal forming device, method and program | |
JP2004072404A (en) | Automatic photograph sticker vending machine and method, printing medium, and printing medium unit | |
JP2004320091A (en) | Photographic print providing apparatus, and method and program thereof | |
JP6217013B2 (en) | Photography game machine, photography game method and control program | |
JP5268080B2 (en) | Photo game machine | |
JP2013041273A (en) | Photography game device | |
JP4257129B2 (en) | Photo print providing apparatus and method, and program | |
JP2004048374A (en) | Photograph seal vending machine and method therefor photograph seal, and photograph seal unit | |
JP2009290328A (en) | Image editing apparatus and photographing game machine using the same | |
JP4318564B2 (en) | Automatic photo creation device and automatic photo creation method | |
JP2020187250A (en) | Photograph creation game machine, game providing method, and program | |
JP4655198B2 (en) | Photo sticker creation apparatus and method, and program | |
JP2006162719A (en) | Photographic sticker-vending machine and its method and program | |
JP4207429B2 (en) | Image printing device, print medium unit |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A712 Effective date: 20050119 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20050413 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20050630 |
|
A711 | Notification of change in applicant |
Free format text: JAPANESE INTERMEDIATE CODE: A711 Effective date: 20070403 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20070509 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20070605 |
|
RD02 | Notification of acceptance of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7422 Effective date: 20070613 |
|
A521 | Written amendment |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20070720 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20080416 |
|
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20080429 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20110523 Year of fee payment: 3 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 4126534 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120523 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20120523 Year of fee payment: 4 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130523 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20130523 Year of fee payment: 5 |
|
FPAY | Renewal fee payment (event date is renewal date of database) |
Free format text: PAYMENT UNTIL: 20140523 Year of fee payment: 6 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
LAPS | Cancellation because of no payment of annual fees |