JP7351165B2 - 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム - Google Patents

画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム Download PDF

Info

Publication number
JP7351165B2
JP7351165B2 JP2019173596A JP2019173596A JP7351165B2 JP 7351165 B2 JP7351165 B2 JP 7351165B2 JP 2019173596 A JP2019173596 A JP 2019173596A JP 2019173596 A JP2019173596 A JP 2019173596A JP 7351165 B2 JP7351165 B2 JP 7351165B2
Authority
JP
Japan
Prior art keywords
image
cosmetics
user
makeup
display area
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2019173596A
Other languages
English (en)
Other versions
JP2021049088A (ja
Inventor
勝也 坂牧
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2019173596A priority Critical patent/JP7351165B2/ja
Publication of JP2021049088A publication Critical patent/JP2021049088A/ja
Application granted granted Critical
Publication of JP7351165B2 publication Critical patent/JP7351165B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Processing (AREA)

Description

本発明は、画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラムに関する。
ユーザが化粧品によりメイクアップ(以下、「メイク」と呼ぶ。)した後の状態をシミュレーションするメイクシミュレーションの技術が知られている。例えば、特許文献1は、人物の顔画像にメイクパーツを重畳して表示装置に表示させるメイクシミュレーション装置を開示している。
国際公開第2018/159231号
ところで、化粧品の中にはパール剤やラメ剤が含まれている製品が市販されており、真珠のように様々な色を発する仕上がりや金属表面のように光を反射し光沢を放つ仕上がりを演出するために用いられている。しかしながら、従来のメイクシミュレーション画像においては、特許文献1のようにそもそも光るエフェクトがなかったり、光る部分が常に一定の光り方をするように表示されたり、上記パール剤やラメ剤による色合いや光沢が適切に表現されていないという課題がある。
本発明は、以上のような課題を解決するためのものであり、効果的なグリッター表現が可能な画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラムを提供することを目的とする。
上記目的を達成するため、本発明に係る画像処理装置は、
ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部と、
前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出する検出部と、
前記第1の表示領域に表示された前記撮像画像にメイク画像を表示する表示制御部と、を備え、
前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整
前記ユーザの姿勢は、目周辺に設定された特徴点の位置関係の変化に基づいて算出される、
ことを特徴とする。
本発明によれば、効果的なグリッター表現ができる。
本発明の実施形態1に係るメイクシミュレーション装置の外観模式図である。 実施形態1に係る画像処理装置のタッチパネルの表示の変化を示す図である。 実施形態1に係る画像処理装置のハードウェア構成を示すブロック図である。 実施形態1に係る画像処理装置に記憶された光反射エフェクトテーブルの例を示す図である。 実施形態1に係る指示装置のハードウェア構成を示すブロック図である。 実施形態1に係るメイクシミュレーション装置の機能的な構成を示すブロック図である。 実施形態1に係る画像処理装置をユーザが使用している状態を示す図である。 実施形態1においてユーザが指示装置を顔に接触させた例を示す図である。 実施形態1における保持データの例を示す図である。 実施形態1においてユーザが指示装置を顔に接触させた場合における撮像画像の表示例、及び、顔画像に重ねてメイク画像が表示された例を示す図である。 実施形態1に係る指示装置によって実行される処理の流れを示すフローチャートである。 実施形態1に係る画像処理装置によって実行される基本画像処理の流れを示すフローチャートである。 実施形態1に係る画像処理装置によって実行されるパレットエフェクト処理の流れを示すフローチャートである。 実施形態1に係る画像処理装置においてタッチパネルの傾きと対応するエフェクト画像が選択された例を示す図である。 実施形態2に係る画像処理装置において右目の特徴点の設定例を示す図である。 実施形態2に係る画像処理装置において右目の傾きと対応するエフェクト画像が選択された例を示す図である。 実施形態2に係る画像処理装置によって実行されるメイクグリッター表示処理の流れを示すフローチャートである。
以下、本発明の実施形態について、図面を参照して説明する。なお、図中同一又は相当する部分には同一符号を付す。
(実施形態1)
図1に、本発明の実施形態1に係るメイクシミュレーション装置1の外観を模式的に示す。メイクシミュレーション装置1は、ユーザが化粧品によりメイクした後の状態をコンピュータ上でシミュレーションする装置である。メイクシミュレーション装置1を用いることで、ユーザは、本物の化粧品を用いることなく気軽にメイクの練習をすることや、メイク後の状態を事前に確認することができる。
図1に示すように、メイクシミュレーション装置1は、画像処理装置10と、指示装置30と、を備える。画像処理装置10は、ユーザの顔が撮像された撮像画像に対して、メイク後の状態を表す画像をシミュレーションにより生成して表示する装置である。画像処理装置10は、メイク用のパレットを模擬した形状をしている。
図2に示すように、実施形態1に係るメイクシミュレーション装置1は、後述するタッチパネル16の位置や角度を変化させることにより、タッチパネル16に表示された化粧品画像のラメ感やパール感等が変化するように表示する装置である。
図3に、画像処理装置10のハードウェア構成を示す。画像処理装置10は、制御部11と、記憶部12と、操作部13と、撮像部14と、表示部15と、タッチパネル16と、通信部17と、加速度検知部(検出部)18と、を備える。
制御部11は、CPU(Central Processing Unit)、ROM(Read Only Memory)及びRAM(Random Access Memory)を備える。CPUは、例えばマイクロプロセッサ等を備え、様々な処理及び演算を実行する中央演算処理部として機能する。制御部11において、CPUは、システムバスを介して画像処理装置10の各部に接続されており、ROMに記憶されている制御プログラムを読み出して、RAMをワークメモリとして用いながら、画像処理装置10全体の動作を制御する。
また、制御部11は、DSP(Digital Signal Processor)、GPU(Graphics Processing Unit)等のような画像処理用のプロセッサと、処理される画像を一時的に保存するバッファメモリと、を備える。制御部11は、画像処理用のプロセッサにより、周知の画像処理の手法を用いて、撮像部14により得られた撮像画像を処理する。
記憶部12は、フラッシュメモリ、ハードディスク等の不揮発性メモリを備える。記憶部12は、制御部11が各種処理を行うために使用するプログラム及びデータを記憶する。記憶部12は、図4に示すような、後述する光反射エフェクトテーブルEを記憶する。光反射エフェクトテーブルEは、本実施形態では、実際に表示する化粧品を所定の角度に傾けて撮像した画像から生成されたエフェクト素材を使用する。また、記憶部12は、制御部11が各種処理を行うことにより生成又は取得するデータを記憶する。
操作部13は、入力キー、ボタン、スイッチ等を備え、ユーザから操作指示を受け付ける。
撮像部14は、いわゆるカメラであって、被写体から射出された光を集光するレンズと、集光した光を受けて被写体の画像を取得するCCD(Charge Coupled Device)、CMOS(Complementary Metal Oxide Semiconductor)等の撮像素子と、撮像素子から電気信号として送られた撮像データをデジタルデータに変換するA/D(Analog/Digital)変換器と、を備える。撮像部14は、図1に示すように、表示部15の近傍に配置されており、表示部15を見ながら画像処理装置10を使用しているユーザの顔を撮像する。
図3に戻って、表示部(第1の表示領域)15は、液晶ディスプレイ、有機EL(Electro Luminescence)ディスプレイ等の表示デバイスである。表示部15は、図1に示すように、画像処理装置10の上側の面に配置されており、撮像部14の撮像により得られた撮像画像を表示する。表示部15は、第1の表示部として機能する。
タッチパネル(第2の表示領域)16は、タッチスクリーン等とも呼ばれ、画像を表示する表示装置と位置の入力を受け付ける位置入力装置とが互いに重畳して配置されたデバイスである。タッチパネル16は、図1に示すように、画像処理装置10の下側の面に配置されており、メイクシミュレーションにおいてユーザの顔に仮想的に塗布される化粧品を表現する化粧品画像を表示する。図2に示すように、ラメ感やパール感を有する化粧品の化粧品画像は、ラメ感やパール感を有する実際の化粧品のように、タッチスクリーンの角度の変化によってグリッターが変化するように表示される。タッチパネル16は、第2の表示部として機能する。また、タッチパネル16は、表示装置に画像が表示されている時に、タッチパネル16の表面に対する接触による操作を位置入力装置により受け付ける。
通信部17は、画像処理装置10が指示装置30を含む外部の機器と通信するためのインタフェースを備える。通信部17は、例えば、無線LAN(Local Area Network)、Bluetooth(登録商標)等の無線通信、又はUSB(Universal Serial Bus)ケーブル等の有線通信を介して外部の機器と通信する。
加速度検知部18は、機械式、振動式、半導体式等の周知の方式で加速度を検知する加速度センサを備えており、画像処理装置10の全体に加えられる加速度を検知する。加速度検知部18は、例えば画像処理装置10がユーザに把持された状態で傾けられた場合のように、画像処理装置10に加速度が加えられた場合に、その加速度を検知する。
図1に戻って、指示装置30は、メイクシミュレーションにおいて化粧品を選択し、選択した化粧品を仮想的に塗布する顔の位置を指示するための装置である。指示装置30は、スティック状をしており、いわゆる化粧筆(化粧ブラシ、メイクブラシ)のような、顔に化粧品を塗布するために用いられる塗布ツールを模擬する部材である。ユーザは、指示装置30を手で把持し、画像処理装置10に表示された化粧品画像及びユーザの顔を、指示装置30の端部で指し示すようにして使用する。指示装置30は、指示体として機能する。
指示装置30は、図示を省略するが、タッチパネル16の表面やユーザの顔等に接触する側の先端部に、取り外し可能なアタッチメント(取り付け部材)を備える。アタッチメントは、仮想的に化粧品を付着させて塗布するための部品である。アタッチメントとして、ペン状、ブラシ状等の様々な形状のものを指示装置30に取り付けることができる。指示装置30に取り付けられるアタッチメントに応じて、メイクシミュレーションにおける化粧品の塗布の態様が変化する。ユーザは、指示装置30に所望の形状のアタッチメントを付け替えてメイクをシミュレーションすることができる。
図5に、指示装置30のハードウェア構成を示す。指示装置30は、制御部31と、記憶部32と、接触検知部34と、加速度検知部35と、通信部37と、を備える。
制御部31は、CPU、ROM及びRAMを備える。CPUは、例えばマイクロプロセッサ等を備え、様々な処理及び演算を実行する中央演算処理部として機能する。制御部11において、CPUは、システムバスを介して指示装置30の各部に接続されており、ROMに記憶されている制御プログラムを読み出して、RAMをワークメモリとして用いながら、指示装置30全体の動作を制御する。
記憶部32は、フラッシュメモリ、ハードディスク等の不揮発性メモリを備える。記憶部32は、制御部31が各種処理を行うために使用するプログラム及びデータを記憶する。また、記憶部32は、制御部31が各種処理を行うことにより生成又は取得するデータを記憶する。
接触検知部34は、指示装置30の端部に対する接触を検知する。接触検知部34は、静電容量式、歪みゲージ式等の周知の方式で圧力を検知する圧力センサを備える。接触検知部34は、指示装置30に取り付けられたアタッチメントに、タッチパネル16の表面やユーザの顔等の物体が接触した場合、その接触によってアタッチメントに加えられる圧力を圧力センサにより検知する。これにより、接触検知部34は、指示装置30の端部に対する接触を検知する。
加速度検知部35は、機械式、振動式、半導体式等の周知の方式で加速度を検知する加速度センサを備えており、指示装置30の全体に加えられる加速度を検知する。加速度検知部35は、例えば指示装置30がユーザに把持された状態で振り払われた場合のように、指示装置30に加速度が加えられた場合に、その加速度を検知する。
通信部37は、指示装置30が画像処理装置10と通信するためのインタフェースを備える。通信部37は、例えば、無線LAN、Bluetooth(登録商標)等の無線通信、又はUSBケーブル等の有線通信を介して画像処理装置10と通信する。
次に、図6を参照して、メイクシミュレーション装置1の機能的な構成について説明する。図6に示すように、画像処理装置10は、機能的に、画像取得部110と、表示制御部120と、顔検出部(検出部)130と、操作受付部140、情報受信部150と、保持量設定部160と、接触位置特定部170と、を備える。制御部11において、CPUがROMに記憶されたプログラムをRAMに読み出して実行することにより、これら各部として機能する。
また、指示装置30は、機能的に、情報送信部310を備える。制御部31において、CPUがROMに記憶されたプログラムをRAMに読み出して実行することにより、情報送信部310として機能する。
画像処理装置10において、画像取得部110は、撮像部14による撮像により得られた撮像画像を取得する。図7に、ユーザUがメイクシミュレーション装置1を用いてメイクのシミュレーションを行うために、画像処理装置10の表示部15に向かい合っている状態を示す。撮像部14は、図7において破線で示す視野の内側、具体的には表示部15に向かい合っているユーザUの顔を含む範囲を撮像する。
このように、撮像部14の設置位置及び光軸の向きは、ユーザUが表示部15に向かい合っている場合にユーザUの顔が撮像部14の視野に含まれるように、調整されている。そのため、ユーザUが表示部15に向かい合っている場合、画像取得部110は、ユーザUの顔が撮像された撮像画像を取得する。画像取得部110は、画像処理装置10がユーザUにより使用されている間、このような撮像部14によりユーザUの顔が撮像された撮像画像を継続的に取得する。画像取得部110は、制御部11が撮像部14等と協働することにより実現される。
表示制御部120は、画像取得部110により取得された撮像画像を、第1の表示部である表示部15に表示する。例えば図7に示したように撮像部14の視野内にユーザUの顔が含まれている場合、表示制御部120は、ユーザの顔が撮像された撮像画像を表示部15に表示する。これにより、表示制御部120は、表示部15に向かい合っているユーザUの顔の様子をリアルタイムで表示する。このように撮像されたユーザの顔画像が表示部15に表示されることで、ユーザは、表示部15に表示された自分の顔画像を鏡に映った顔のように見ながら、メイクをシミュレーションすることができる。
更に、表示制御部120は、化粧品を表現する化粧品画像を、第2の表示部であるタッチパネル16に表示する。化粧品画像は、メイクシミュレーションにおいてユーザUの顔に仮想的に塗布される化粧品を視覚的に表現する画像である。表示制御部120は、化粧品画像として、複数の化粧品を表現する画像を表示する。また、表示制御部120は、図2に示すように、ラメ感やパール感を有する化粧品には、後述するグリッターエフェクトを化粧品画像に重畳して表示する。
具体的に説明すると、表示制御部120は、例えば図7に示すように、タッチパネル16上の表示領域を縦方向及び横方向に複数に区切ることで、複数の部分領域に分割する。そして、表示制御部120は、化粧品画像として、複数の部分領域のそれぞれに異なる化粧品を表現する画像を表示する。
ここで、複数の部分領域のそれぞれに表示される化粧品は、色、光沢、質感等の少なくとも1つの特徴が異なる化粧品であって、ユーザUの顔に仮想的に塗布してメイク後の状態をシミュレーションすることが可能な化粧品である。色、光沢、質感等が異なる複数の化粧品を表現する化粧品画像がタッチパネル16に表示されることにより、ユーザUは、複数の化粧品のうちからメイクシミュレーションを望む化粧品を選択して使用することができる。
このような複数の化粧品を表現する化粧品画像は、記憶部12に予め記憶されている。表示制御部120は、画像処理装置10の使用時に化粧品画像を記憶部12から読み出してタッチパネル16に表示する。ラメ感やパール感を有する化粧品には、図4に示す光反射エフェクトテーブルEから、画像処理装置10のX軸方向(短辺方向)及びY軸方向(長辺方向)の傾きに応じたエフェクト画像を重畳して表示する。本実施形態では、X軸方向に25°ずつ5段階、Y軸方向に15°ずつ9段階の画像処理装置10の傾きに対応したエフェクト画像を有する光反射エフェクトテーブルEが記憶部12に記憶されている。画像処理装置10の傾きは、加速度検知部18によって検知され、表示制御部120は、これに応じたエフェクト画像を重畳表示する。
このようにユーザUの顔が撮像された撮像画像がリアルタイムで表示部15に表示され、且つ、化粧品画像がタッチパネル16に表示されることにより、ユーザは、画像処理装置10を、化粧用のパレットのように取り扱うことができる。また、画像処理装置10を傾けることでラメ感やパール感のある化粧品の表示の変化が生じるため、ユーザは、ラメ感やパール感のある化粧品を他の化粧品と容易に区別することができる。表示制御部120は、制御部11が表示部15、タッチパネル16等と協働することにより実現される。
図6に戻って、顔検出部130は、画像取得部110により取得された撮像画像のうちから顔画像を検出する。具体的に説明すると、顔検出部130は、画像取得部110により撮像画像が取得されると、周知の顔認識の手法を用いて、撮像画像に目、鼻、眉等の顔部位が含まれているか否かを判定する。判定の結果、撮像画像に顔部位が含まれている場合、顔検出部130は、撮像画像における顔部位の座標及びサイズを検出する。
また、顔検出部130は、検出した顔部位に基づいて顔の輪郭部分を識別し、顔全体の領域を検出する。そして、顔検出部130は、撮像画像における顔全体の領域を、仮想的に化粧品が塗布される対象となるバーチャルメイク領域として決定する。顔検出部130は、制御部11が記憶部12等と協働することにより実現される。
操作受付部140は、タッチパネル16に化粧品画像が表示されている時に、指示装置30がタッチパネル16の表面に接触することによる操作を受け付ける。図7に、指示装置30の先端部がタッチパネル16の表面に接触した例を示す。ユーザUは、メイクシミュレーション装置1を用いてメイク後の状態をシミュレーションする場合、図7に示すように、指示装置30を手で把持し、その先端部を化粧品画像が表示されているタッチパネル16の表面に接触させる。
このような指示装置30をタッチパネル16の表面に接触させる動作は、化粧用のパレットに収納されている化粧品を化粧筆の先端部に保持(付着)させる動作を模擬したものである。操作受付部140は、指示装置30によるタッチパネル16の表面に対する接触を検知することにより、ユーザからの操作を受け付ける。
より詳細には、操作受付部140は、指示装置30がタッチパネル16の表面に接触すると、タッチパネル16の位置入力装置の機能により、その接触の位置座標を検知する。そして、操作受付部140は、タッチパネル16に化粧品画像として表示されている複数の化粧品のうちの、検知された位置座標に表示されている化粧品を、ユーザUの顔に仮想的に塗布される化粧品として選択する。
このように、ユーザUは、指示装置30を化粧筆のように用いてタッチパネル16の表面に接触させることにより、複数の化粧品のうちから、ユーザUの顔に仮想的に塗布する化粧品を選択する。操作受付部140は、制御部11がタッチパネル16等と協働することにより実現される。
図6に戻って、指示装置30において、情報送信部310は、通信部37を介して画像処理装置10と通信することにより、接触情報及び加速度情報を画像処理装置10に送信する。情報送信部310は、制御部31が通信部37等と協働することにより実現される。
第1に、情報送信部310は、接触検知部34により検知された接触に関する接触情報を画像処理装置10に送信する。ここで、接触情報は、具体的には、接触検知部34により検知された接触の強さと、その接触の時間長と、その接触の位置の移動距離と、を示す情報である。接触の強さは、その接触の際に指示装置30の先端部に加えられた圧力の大きさに相当し、指示装置30の先端部に設けられている圧力センサにより検知される。接触の時間長は、指示装置30の先端部が物体に接触を開始してから、その接触が解除されるまでの時間の長さに相当する。接触の位置の移動距離は、指示装置30の先端部を物体に接触したまま滑らせるように移動させた場合における、その接触が開始された位置から接触が解除された位置までの距離に相当する。
より詳細には、接触検知部34により接触が検知される場合として、主に2つの場合が挙げられる。第1の場合は、例えば図7に示したように、ユーザUが、タッチパネル16に表示された化粧品画像から化粧品を選択するために、指示装置30の先端部をタッチパネル16の表面に接触させる場合である。第2の場合は、図8に示すように、ユーザUが、選択した化粧品を顔に仮想的に塗布するために、指示装置30の先端部をユーザUの顔に接触させる場合である。ユーザUは、指示装置30の先端部をタッチパネル16の表面に接触させた後、図8に示すように、化粧筆を顔に当てて化粧品を塗布する動作を模擬するために、指示装置30の先端部を顔に接触させる。
以下では、第1の場合における接触の強さ、接触の時間長及び接触の位置の移動距離を「第1の接触に関する第1の値」と呼ぶ。また、第2の場合における接触の強さ、接触の時間長及び接触の位置の移動距離を「第2の接触に関する第2の値」と呼ぶ。情報送信部310は、第1の接触が検知された場合、すなわち指示装置30によるタッチパネル16の表面への接触が検知された場合、検知された接触に関する第1の値を示す接触情報を画像処理装置10に送信する。これに対して、情報送信部310は、第2の接触が検知された場合、すなわち指示装置30によるユーザUの顔への接触が検知された場合、検知された接触に関する第2の値を示す接触情報を画像処理装置10に送信する。
第2に、情報送信部310は、加速度検知部35により検知された加速度を示す加速度情報を画像処理装置10に送信する。具体的に説明すると、加速度検知部35は、指示装置30の全体に対して加えられた加速度を検知する。情報送信部310は、加速度検知部35により、指示装置30の全体に対して予め定められた閾値よりも大きい加速度が加えられたか否かを判定する。
指示装置30に対して閾値よりも大きい加速度が加えられる場合とは、具体的には、ユーザUが指示装置30に仮想的に保持されている化粧品の保持量を減らすために、手で把持している指示装置30を空中で振る動作を行った場合である。このような動作は、化粧筆の先端部に付着した化粧品を空中に飛散させる動作を模擬したものである。情報送信部310は、このように指示装置30の全体に閾値よりも大きい加速度が加えられた場合、その加速度を示す加速度情報を、予め定められた一定の時間間隔で画像処理装置10に送信する。
画像処理装置10において、情報受信部150は、通信部17を介して指示装置30と通信し、情報送信部310により送信された接触情報及び加速度情報を受信する。情報受信部150は、制御部11が通信部17等と協働することにより実現される。
保持量設定部160は、指示装置30に仮想的に保持される化粧品の保持量を、第1の接触に関する第1の値に基づいて設定する。指示装置30に仮想的に保持される化粧品の保持量は、記憶部12に保持データ21として記憶されている。保持量設定部160は、制御部11が記憶部12等と協働することにより実現される。
図9に、記憶部12に記憶されている保持データ21の例を示す。図9に示すように、保持データ21は、指示装置30の先端部に保持されている化粧品の種類と、その化粧品の保持量(付着量)と、を示すデータである。
保持量設定部160は、操作受付部140により操作が受け付けられた場合、保持データ21に記憶されている化粧品の種類を更新する。例えば、操作受付部140により受け付けられた操作により、タッチパネル16に表示された複数の化粧品のうちから「化粧品A」の種類の化粧品が選択された場合、保持量設定部160は、保持データ21に記憶されている化粧品の種類を「化粧品A」に更新する。
更に、保持量設定部160は、情報受信部150が指示装置30から接触情報又は加速度情報を受信すると、受信された接触情報又は加速度情報に基づいて、保持データ21を更新する。
第1に、保持量設定部160は、情報受信部150が指示装置30から接触情報を取得すると、取得された接触情報に基づいて、保持データ21に記憶されている化粧品の保持量を設定する。具体的に説明すると、保持量設定部160は、情報受信部150がタッチパネル16の表面への接触に関する接触情報を取得した場合、取得された接触情報により示される第1の値に応じて、保持データ21に記憶されている保持量を設定する。また、保持量設定部160は、情報受信部150がユーザUの顔への接触に関する接触情報を取得した場合、取得された接触情報により示される第2の値に応じて、保持データ21に記憶されている保持量を設定する。
一般的に、ユーザUがパレットから化粧品を付着させるために化粧筆をパレットに接触させた場合、その接触が強いほど、化粧筆により多くの量の化粧品が付着される。また、接触の時間が長いほど、そして接触状態での移動距離が長いほど、化粧筆により多くの量の化粧品が付着される。このような特徴を模擬するため、保持量設定部160は、情報受信部150がタッチパネル16の表面への接触に関する接触情報を取得した場合、取得された接触情報により示される第1の値がより大きいほど、保持量をより大きく増加させる。
同様に、ユーザUが顔に化粧品を塗布するために化粧筆を顔に接触させた場合、その接触が強いほど、ユーザUの顔により多くの量の化粧品が塗布される。また、接触の時間が長いほど、そして接触状態での移動距離が長いほど、ユーザUの顔により多くの量の化粧品が塗布される。このような特徴を模擬するため、保持量設定部160は、情報受信部150がユーザUの顔への接触に関する接触情報を取得した場合、取得された接触情報に示される第2の値がより大きいほど、保持量をより大きく減少させる。
第2に、保持量設定部160は、情報受信部150が指示装置30から加速度情報を取得すると、取得された加速度情報に基づいて、保持データ21に記憶されている化粧品の保持量を更新する。具体的に説明すると、保持量設定部160は、情報受信部150により取得された加速度情報に示される加速度がより大きい場合、保持データ21に記憶されている化粧品の保持量をより大きく減少させる。このように加速度に応じて化粧品の保持量を減少させることにより、ユーザUは、指示装置30を振るという自然な動作で化粧品の保持量を調整することができる。
図6に戻って、接触位置特定部170は、図7に示したように指示装置30がタッチパネル16の表面に接触することによる操作が受け付けられた後において、図10に示したように指示装置30がユーザUの顔に接触した場合、画像取得部110により取得された撮像画像に基づいて、ユーザUの顔における指示装置30が接触した接触位置を特定する。接触位置特定部170は、制御部11が記憶部12等と協働することにより実現される。
具体的に説明すると、接触位置特定部170は、第1に、ユーザUが指示装置30を顔に近付けたか否かを、画像取得部110により取得された撮像画像に基づいて判定する。ユーザUが指示装置30を顔に近付けた場合、撮像部14の視野内に指示装置30が入るため、図10に示すように、撮像画像に指示装置30の画像が含まれる。接触位置特定部170は、撮像画像における、顔検出部130により検出されたユーザUの顔領域(すなわちバーチャルメイク領域)の内側に、指示装置30の画像が含まれているか否かを判定する。
ユーザUの顔領域の内側に指示装置30の画像が含まれている場合、第2に、接触位置特定部170は、情報受信部150が指示装置30から接触情報を受信したか否かを判定する。そして、接触位置特定部170は、情報受信部150が接触情報を受信した場合、指示装置30の先端部がユーザUの顔に接触したと判定する。このように、接触位置特定部170は、画像取得部110により取得された撮像画像と、情報受信部150により受信された接触情報と、に基づいて、指示装置30がユーザUの顔に接触したか否かを判定する。
指示装置30がユーザUの顔に接触したと判定した場合、接触位置特定部170は、撮像画像におけるその接触位置を特定する。具体的に説明すると、接触位置特定部170は、撮像画像に撮像された指示装置30の先端部の座標を接触位置として特定する。例えばユーザUが目の周囲に指示装置30の先端部を接触させた場合、接触位置特定部170は、目の周囲の位置を接触位置として特定する。これにより、接触位置特定部170は、指示装置30の先端部がユーザUの顔のどの位置に接触したかを特定し、化粧品が仮想的に塗布される位置を決定する。
表示制御部120は、表示部15に表示された撮像画像における、接触位置特定部170により特定された接触位置に対応する部分が加工されたメイク画像を表示する。ここで、メイク画像とは、ユーザUの顔のメイク後の状態をシミュレーションするための画像であって、化粧品がユーザUの顔に実際に塗布された場合にどのように塗布されるかを表現する画像である。
具体的には、メイク画像は、ユーザUの顔が撮像された撮像画像における、接触位置特定部170により特定された接触位置に、化粧品がユーザUの顔に塗布された状態を表現するメイクパーツが重ねられることにより加工された画像である。例えばユーザUが目の周囲に指示装置30の先端部を接触させた場合、表示制御部120は、図10に示すように、メイク画像として、ユーザUの目の周囲にメイクパーツ41が重ねられることにより加工された画像を表示する。なお、メイク画像におけるメイクパーツ41以外の部分は、撮像画像と同じであって、撮像画像から加工が加えられていない。このようなメイク画像により、表示制御部120は、メイク後のユーザUの顔の状態を表現する。
表示制御部120は、操作受付部140により受け付けられた操作により複数の化粧品のうちから選択された化粧品に対応するメイクパーツ41を撮像画像に重ねる。言い換えると、表示制御部120は、ユーザUにより選択された化粧品の色、光沢、質感等の特徴と同様の特徴を有するメイクパーツ41を、ユーザUの顔画像に重ねて表示する。これにより、表示制御部120は、ユーザUにより選択された化粧品が実際に塗布された状態を忠実に表現する。
更に、表示制御部120は、メイク画像として、画像取得部110により取得された撮像画像における、接触位置特定部170により特定された接触位置に対応する部分が、第1の接触に関する第1の値と第2の接触に関する第2の値とに基づいて加工された画像を表示部15に表示する。言い換えると、表示制御部120は、指示装置30によるタッチパネル16の表面及びユーザUの顔への接触の強さ、接触の時間長、及び接触の位置に基づいて、メイクパーツの濃度を変化させる。ここで、メイクパーツの濃度は、メイクパーツが表示部15に表示された際における色の濃さを意味する。
具体的に図10に、メイクパーツ41よりも高い濃度のメイクパーツ42が、ユーザUの顔が撮像された撮像画像に重ねて表示された例を示す。一般的に、ユーザUが顔に化粧品を塗布するために化粧筆を顔に接触させた場合、その接触が強いほど、ユーザUの顔により多くの量の化粧品が塗布される。また、接触の時間が長いほど、そして接触状態での移動距離が長いほど、ユーザUの顔により多くの量の化粧品が塗布される。このような特徴を模擬するため、表示制御部120は、指示装置30がユーザUの顔に接触した時に情報受信部150が指示装置30から取得した接触情報を参照し、接触情報により示される第2の値がより大きいほど、メイクパーツの濃度をより高くする。
更には、接触の強さ等が同じであっても、化粧筆に保持されている化粧品の量が大きいほど、ユーザUの顔により多くの量の化粧品が塗布される。そのため、表示制御部120は、保持データ21に記憶されている保持量を参照して、保持量がより大きいほど、メイクパーツの濃度をより高くする。
このように、表示制御部120は、指示装置30に仮想的に保持されている化粧品の保持量と、指示装置30によるユーザUの顔への接触の強さ等と、のそれぞれがより大きくなると、図10に示すように、メイクパーツ41よりも濃度が高いメイクパーツ42が撮像画像に重ねられたメイク画像を表示する。これにより、タッチパネル16の表面又はユーザUの顔に対する接触の強さ等によって実際のメイクとは異なる仕上がりになることを抑制することができる。そのため、メイク後の状態をよりリアルにシミュレーションすることができる。
以上のように構成されるメイクシミュレーション装置1において実行される処理の流れについて、図11~図13を参照して説明する。
まず、図11に示すフローチャートを参照して、指示装置30において実行される処理の流れについて説明する。図11に示す処理は、指示装置30の電源が投入されており、指示装置30が正常な処理が実行可能な状態において、随時実行される。
図11に示す処理を開始すると、指示装置30において、制御部31は、接触検知部34により検知された接触に関する接触情報の送信タイミングが到来したか否か判定する(ステップS11)。接触情報の送信タイミングは、予め定められた一定の時間間隔で繰り返し到来する。
接触情報の送信タイミングが到来した場合(ステップS11;YES)、制御部31は、情報送信部310として機能し、接触検知部34により検知された指示装置30の先端部に対する接触の強さ、接触の時間長、及び接触の位置の移動距離を示す接触情報を画像処理装置10に送信する(ステップS12)。例えば、ユーザUが化粧品を選択するために、指示装置30の先端部をタッチパネル16の表面に接触させた場合、制御部31は、その接触の強さを示す接触情報を画像処理装置10に送信する。或いは、ユーザUが化粧品を顔に仮想的に塗布するために、指示装置30の先端部をユーザUの顔に接触させた場合、制御部31は、その接触の強さを示す接触情報を画像処理装置10に送信する。なお、制御部31は、接触検知部34により検知された接触の強さの値がゼロであっても、すなわち指示装置30の先端部に何も接触していない場合であっても、送信タイミングが到来した時点における接触の強さの値を示す接触情報を画像処理装置10に送信する。一方で、接触情報の送信タイミングが到来していない場合(ステップS11;NO)、制御部31は、ステップS12の処理をスキップする。
第2に、制御部31は、加速度検知部35により検知された加速度を示す加速度情報の送信タイミングが到来したか否かを判定する(ステップS13)。加速度情報の送信タイミングは、予め定められた一定の時間間隔で繰り返し到来する。ここで、加速度情報の送信タイミングは、接触情報の送信タイミングと同じであっても良いし、異なっていても良い。
加速度情報の送信タイミングが到来した場合(ステップS13;YES)、制御部31は、情報送信部310として機能し、加速度検知部35により検知された加速度を示す加速度情報を画像処理装置10に送信する(ステップS14)。ここで、制御部31は、加速度検知部35により検知された加速度の値がゼロであっても、すなわち指示装置30に加速度が加えられていない場合であっても、送信タイミングが到来した時点における加速度の値を示す加速度情報を画像処理装置10に送信する。一方で、加速度情報の送信タイミングが到来していない場合(ステップS13;NO)、制御部31は、ステップS14の処理をスキップする。
その後、制御部31は、処理をステップS11に戻し、ステップS11からステップS14の処理を繰り返す。すなわち、制御部31は、接触を検知した場合に接触情報を送信し、加速度を検知した場合に加速度情報を送信する処理を繰り返す。
次に、図12に示すフローチャートを参照して、画像処理装置10において実行される基本画像処理について説明する。基本画像処理は、画像処理装置10の電源が投入されて正常な処理が可能な状態になると、開始する。
なお、画像処理装置10において、制御部11は、図12に示す処理を実行している間、情報受信部150として機能し、指示装置30から接触情報又は加速度情報が送信される毎に、送信された接触情報又は加速度情報を受信する。
図12に示す処理を開始すると、画像処理装置10において、制御部11は、表示制御部120として機能し、タッチパネル16に化粧品画像を表示する(ステップS101)。具体的に説明すると、制御部11は、例えば図7に示したように、タッチパネル16上に区分けされた複数の領域にそれぞれ異なる種類の化粧品を表現する化粧品画像をタッチパネル16に表示する。
図12に戻り、タッチパネル16に化粧品画像を表示すると、制御部11は、画像取得部110として機能し、撮像を開始する(ステップS102)。具体的に説明すると、制御部11は、撮像部14による撮像を開始し、表示部15の正面の空間の様子を表す撮像画像を取得する。例えば図7に示したようにユーザUが表示部15の方を向いている場合、制御部11は、ユーザUの顔が撮像された撮像画像を取得する。
撮像を開始すると、制御部11は、表示制御部120として機能し、撮像により得られた撮像画像を表示部15に表示する(ステップS103)。具体的に説明すると、制御部11は、例えば図7に示したように、表示部15に向かい合っているユーザUの顔画像を含む撮像画像を表示部15に表示する。
図12に戻り、撮像画像を表示すると、制御部11は、タッチパネル16の表面に対する接触を検知したか否かを判定する(ステップS104)。例えば図7に示したように、ユーザUは、タッチパネル16に表示された化粧品画像のうちから化粧品を選択するために、指示装置30の先端部をタッチパネル16の表面に接触させる。制御部11は、このような指示装置30によるタッチパネル16の表面に対する接触の有無を判定する。
図12に戻り、タッチパネル16の表面に対する接触を検知した場合(ステップS104;YES)、制御部11は、操作受付部140として機能し、化粧品を選択する(ステップS105)。具体的に説明すると、制御部11は、タッチパネル16に表示されている複数の化粧品のうちから、ステップS104で検知された接触の位置に表示されている化粧品を、メイクシミュレーションに用いられる化粧品として選択する。
化粧品を選択すると、制御部11は、保持量設定部160として機能し、指示装置30に仮想的に保持される化粧品の保持量を算出する(ステップS106)。具体的に説明すると、ステップS104で指示装置30によるタッチパネル16の表面に対する接触が検知された際、指示装置30でも、接触検知部34によりその接触が検知される。制御部11は、ステップS104で指示装置30によるタッチパネル16の表面に対する接触が検知された時に指示装置30から送信された接触情報により示される接触の強さに応じて、指示装置30に仮想的に保持される化粧品の保持量を算出する。
保持量を算出すると、制御部11は、保持データ21を更新する(ステップS107)。具体的に説明すると、制御部11は、保持データ21に記憶されている化粧品の種類を、ステップS105で選択された化粧品の種類に更新する。また、制御部11は、保持データ21に記憶されている化粧品の保持量を、ステップS106で算出した保持量に更新する。
これに対して、ステップS104でタッチパネル16の表面に対する接触を検知していない場合(ステップS104;NO)、制御部11は、ステップS105~S107の処理をスキップする。
次に、制御部11は、顔検出部130として機能し、撮像画像から顔領域を検出する(ステップS108)。具体的に説明すると、制御部11は、周知の顔認識の手法を用いて、撮像部14により得られた撮像画像のうちから、ユーザUの目、鼻、眉等の顔部位、及び顔全体の領域を検出する。そして、制御部11は、撮像画像における顔全体の領域をバーチャルメイク領域として決定する。
顔画像を検出すると、制御部11は、指示装置30がユーザUの顔に接触したか否かを判定する(ステップS109)。具体的に説明すると、制御部11は、ステップS108で検出された顔領域の内側に指示装置30の画像が含まれ、且つ、指示装置30から接触情報を取得した場合に、指示装置30がユーザの顔に接触したと判定する。
指示装置30がユーザUの顔に接触していない場合(ステップS109;NO)、制御部11は、処理をステップS103に戻す。すなわち、制御部11は、指示装置30によるユーザUの顔に対する接触を検知するまで、ステップS103~S108の処理を繰り返す。
これに対して、指示装置30がユーザUの顔に接触した場合(ステップS109;YES)、制御部11は、接触位置特定部170として機能し、撮像画像における接触位置を特定する(ステップS110)。具体的に説明すると、制御部11は、指示装置30においてユーザUの顔への接触が検知されたタイミングでの、撮像画像における指示装置30の先端部の座標を、接触位置として特定する。
接触位置を特定すると、制御部11は、メイクパーツの濃度を設定する(ステップS111)。具体的に説明すると、制御部11は、保持データ21に記憶されている保持量と、ステップ109において指示装置30から取得した接触情報により示される接触の強さと、のそれぞれがより大きいほど、メイクパーツの濃度をより高く設定する。
メイクパーツの濃度を設定すると、制御部11は、表示制御部120として機能し、メイク画像を表示する(ステップS112)。具体的に説明すると、制御部11は、ユーザUの顔がリアルタイムで撮像された撮像画像におけるステップS110で特定した接触位置に、ステップS111で設定した濃度のメイクパーツを重ねることにより、メイク後のユーザUの顔の状態を表現するメイク画像を生成する。そして、制御部は、生成されたメイク画像を表示部15に表示する。
メイク画像を表示すると、制御部11は、保持量設定部160として機能し、保持データ21を更新する(ステップS113)。具体的に説明すると、制御部11は、ステップ109において指示装置30から取得した接触情報により示される接触の強さに基づいて、保持データ21に記憶されている化粧品の保持量を減少させる。
保持データ21を更新すると、制御部11は、処理をステップS103に戻し、ステップS103からステップS113の処理を再び実行する。このように、制御部11は、ユーザUがメイクシミュレーション装置1を用いてメイクシミュレーションを継続している限り、ステップS103からステップS113の処理を繰り返し、ユーザUのメイク後の状態をシミュレーションする画像を生成して表示する処理を実行する。
なお、図12では省略したが、制御部11は、ステップS103からステップS113の処理を実行している間、指示装置30から加速度情報を受信したか否かを判定する。指示装置30から加速度情報を受信すると、制御部11は、受信した加速度情報により示される加速度が閾値よりも大きいか否かを判定する。そして、制御部11は、取得した加速度情報により示される加速度が閾値よりも大きい場合、加速度がより大きいほど、保持データ21に保存されている保持量をより大きく減少させる。
次に、図13に示すフローチャートを参照して、画像処理装置10のタッチパネル16において実行されるパレットエフェクト処理について説明する。パレットエフェクト処理は、画像処理装置10の電源が投入されて正常な処理が可能な状態になると、基本画像処理と平行して開始する。
パレットエフェクト処理を開始すると、画像処理装置10において、制御部11は、表示制御部120として機能し、タッチパネル16に化粧品画像を表示する(ステップS201)。制御部11は、このときのタッチパネル16の姿勢(傾き、角度)を、加速度検知部18より取得し、基準点の姿勢に設定する。本実施形態では、タッチパネル16が床面に水平である姿勢が基準点の姿勢に設定される。
タッチパネル16に化粧品画像を表示すると、制御部11は、図4に示す光反射エフェクトテーブルEの画像から基準点(0,0)のエフェクト画像を決定する。本実施形態では、図4の中央に示した画像を基準点のエフェクト画像とする(ステップS202)。
制御部11は、タッチパネル16の化粧品画像のうち、グリッター感を有する化粧品画像に、基準点(0,0)のエフェクト画像を重畳して表示する(ステップS203)。具体的に説明すると、制御部11は、例えば図2の中央に示したように、グリッター感のある化粧品画像が光を反射しているように表示する。
次に、制御部11は、タッチパネル16の化粧品画像の表示をOFFにする指示があるか否かを判定する(ステップS204)。タッチパネル16の化粧品画像の表示をOFFにする指示がある場合(ステップS204;YES)、制御部11は、タッチパネル16の表示を終了する。タッチパネル16の化粧品画像の表示をOFFにする指示がない場合(ステップS204;NO)、ステップS205に進む。
制御部11は、加速度検知部18を利用してタッチパネル16の傾き(動き)の有無を判定する(ステップS205)。加速度検知部18がタッチパネル16の傾きを検出していない場合(ステップS205;NO)、制御部11は、処理をステップS204に戻す。すなわち、制御部11は、タッチパネル16の傾きを検知するまで、光反射エフェクトテーブルEのエフェクト画像を重畳して表示する処理を繰り返す。加速度検知部18がタッチパネル16の傾きを検出した場合(ステップS205;YES)、ステップS206に進む。
ステップS206では、制御部11は、加速度検知部18を利用してタッチパネル16の基準点(0,0)に対するX軸及びY軸方向の角度を算出する。
その後、制御部11は、算出した角度をX軸方向は25°刻みで、Y軸方向は15°刻みで光反射エフェクトテーブルEに対応する座標に換算する(ステップS207)。
ステップS208に進み、制御部11は、図14に示すように、換算された座標に対応するエフェクト画像を光反射エフェクトテーブルEからセット(選択)する。
その後、制御部11は、セットしたエフェクト画像をタッチパネル16の所定の化粧品画像に重畳して表示し(ステップS209)、ステップS204に戻る。
以上説明したように、実施形態1に係るメイクシミュレーション装置1は、パレットエフェクト処理により、ラメ感やパール感を有する化粧品画像がタッチパネル16の姿勢(傾き)に応じてエフェクト画像の光り方(グリッター)を変化させる(異ならせる)ことにより、ユーザUに効果的なグリッター表現ができる。
(実施形態2)
次に、本発明の実施形態2について説明する。実施形態1と同様の構成及び機能は適宜省略する。
実施形態1では、タッチパネル16上のラメ感やパール感のある化粧品画像が、タッチパネル16の傾きに応じて光り方が変化した。これに対して、実施形態2では、タッチパネル16上のラメ感やパール感のある化粧品画像だけでなく、ユーザUの顔が撮像された撮像画像に重畳されたメイクパーツもラメ感やパール感のある化粧品についてはユーザUの顔の姿勢にあわせて光り方が変化する(異なる)。
実施形態2に係る画像処理装置10の機能的な構成を示す。実施形態2では、実施形態1同様に、画像処理装置10は、機能的に、画像取得部110と、表示制御部120と、顔検出部130と、操作受付部140、情報受信部150と、保持量設定部160と、接触位置特定部170と、を備える。
顔検出部130は、ユーザUの顔領域の検出時に、例えば図15に示す右目の周辺に設定された10ヶ所の特徴点Fの互いの位置関係の変化によって、ユーザUの顔の姿勢(回転や傾き)を検出する。また、顔検出部130は、目頭の特徴点Fと瞼の頂点の特徴点Fとの距離A、及びアイメイクの塗り幅を基準として、顔と画像処理装置10aとの距離の変化を算出する。
表示制御部120は、顔検出部130が算出した顔画像の姿勢に対応したエフェクト画像を、図16に示すように、光反射エフェクトテーブルEの画像から選択する。その後、表示制御部120は、選択したエフェクト画像を、顔と画像処理装置10aとの距離の変化に応じて拡大縮小を行った後、メイクパーツに重畳させる。
次に、図17に示すフローチャートを参照して、実施形態2において行われるメイクグリッター表示処理について説明する。この処理は、画像処理装置10の電源が投入されて正常な処理が可能な状態になると、開始する。また、説明を簡略化するため、右目についてのメイクパーツの説明のみを行う。
メイクグリッター表示処理を開始すると、画像処理装置10において、制御部11は、表示制御部120として機能し、表示部15に撮像したユーザUの顔画像を表示する(ステップS301)。制御部11は、表示ON時に映った顔画像の特徴点Fを、基準点として設定する。実施形態1同様に、図4より、基準点のエフェクト画像(0,0)を設定する(ステップS302)。本実施形態では、ユーザUの顔が表示部15に対して正対している姿勢が基準点の姿勢に設定される。
次に、制御部11は、表示部15の表示をOFFにする指示があるか否かを判定する(ステップS303)。表示部15の表示をOFFにする指示がある場合(ステップS303;YES)、制御部11は、表示部15の表示を終了する。表示部15の表示をOFFにする指示がない場合(ステップS303;NO)、ステップS304に進む。
制御部11は、撮像部14にユーザUの顔画像を撮像させる。制御部11は、顔検出部(検出部)130として機能し、撮像した画像から顔画像の右目の10ヶ所の特徴点Fを検出する(ステップS304)。
制御部11は、ステップS302での特徴点Fの位置関係と検出した顔画像の右目の10ヶ所の特徴点Fの互いの位置とを比較し、顔画像の姿勢(回転角度または傾き(実施形態1同様にX軸方向は25°刻み、Y軸方向は15°刻みの角度))を算出する(ステップS305)。また、制御部11は、ステップS302での図20に示す距離Aと検出した顔画像での目頭から瞼の頂点の特徴点Fまでの距離Aとを比較し、顔画像の拡大・縮小率を算出する(ステップS306)。
制御部11は、基本画像処理で得られた右目のメイクパーツを読み込む(ステップS307)。また、制御部11は、算出した回転角度に合わせたエフェクト画像を図4に示す光反射エフェクトテーブルEの画像から選択する(ステップS308)。
その後、制御部11は、読み込んだメイクパーツと選択したエフェクト画像とを合成する(ステップS309)。制御部11は、合成したデータを、算出した回転角度及び拡大・縮小率に合わせて変形する(ステップS310)。
制御部11は、変形した合成データを右目の撮像画像と合成する(ステップS310)。制御部11は、合成した右目の画像を表示部15に表示する(ステップS312)。その後、ステップS303に戻る。
以上説明したように、実施形態2に係るメイクシミュレーション装置1では、メイクグリッター処理により、表示制御部は、検出部が撮像画像から検出したユーザUの顔の回転や傾き(姿勢)に応じて、ラメ感やパール感を有する化粧品を塗布した状態を示すメイク画像に含まれるエフェクト画像の光り方(グリッター)を調整する。ユーザUの顔の回転や傾きが変化する場合には、表示制御部は、エフェクト画像の光り方を変化させる。これにより、メイクシミュレーション装置1は、ユーザUのメイク画像の変化が実際のラメ感やパール感を有する化粧品を塗布した場合に近い効果的なグリッター表現ができる。
(変形例)
以上に本発明の実施形態について説明したが、上記実施形態は一例であり、本発明の適用範囲はこれに限られない。すなわち、本発明の実施形態は種々の応用が可能であり、あらゆる実施の形態が本発明の範囲に含まれる。
例えば、上記実施形態2では、表示部15及びタッチパネル16がエフェクト画像を表示できたが、表示部15のみがエフェクト画像を表示できても良い。
上記実施形態では、加速度検知部18や目の特徴点Fの位置関係で角度の算出を行ったが、例えば顔部分にセンサやマーカを付けて顔の向きや距離を検出しても良い。
また、上記実施形態では、画像処理装置10は、表示部15とタッチパネル16とを備えており、表示部15に撮像画像を表示し、タッチパネル16に化粧品画像を表示した。しかしながら、本発明において、画像処理装置10は、タッチパネル16とは独立した表示部15を備えていなくても良い。言い換えると、本発明に係る画像処理装置10は、表示部として1つのタッチパネル16のみを備える一般的なスマートフォンやタブレット端末等にも適用することができる。タッチパネル16とは独立した表示部15を備えていない場合、画像処理装置10は、1つのタッチパネル16の表示領域を2つに分割し、そのうちの第1の表示領域に撮像画像を表示し、第2の表示領域に化粧品画像を表示する。この場合、第1の表示領域が第1の表示部として機能し、第2の表示領域が第2の表示部として機能する。或いは、画像処理装置10は、表示部を有さず、外部機器のディスプレイ等に撮像画像を表示しても良い。
上記実施形態では、タッチパネル16の角度や顔の角度によってエフェクト画像を変化させたが、例えば光源の位置を指やキー入力等で操作して移動させることにより、タッチパネル16の角度や顔の角度を変えずにエフェクト画像を変化させる構成としても良い。
上記実施形態1では、エフェクト画像と化粧品画像とは別の画像であったが、化粧品画像をあらかじめ合成したエフェクト画像を光反射エフェクトテーブルEに記憶していても良い。
また、上記実施形態2では、右目のメイクに限定して説明したが、左目やリップ、チーク等についても同様にエフェクト画像を変化させても良い。また、特徴点を設定する箇所は、右目だけでなく、左目、鼻、顔の輪郭や口等であっても良い。
上記実施形態では、光反射エフェクトテーブルEは、横方向9段階、縦方向5段階とした。しかしながら、本発明において、光反射エフェクトテーブルEは、より細分化してグリッター表現の変化をよりリアルにしても良い。また、回転角度が大きい場合には、複数のエフェクト画像を変化する角度にあわせて順に表示させることにより、段階的にグリッター表現を変化させるとよりリアルなグリッター表現となって良い。
上記実施形態では、グリッター表現は、エフェクト画像を化粧品画像やメイクパーツに重畳させて表現したが、例えば、化粧品画像自体やメイクパーツ自体の一部分の画素の輝度を変化させる等で表現しても良い。
上記実施形態では、表示制御部120は、複数の化粧品を表現する化粧品画像をタッチパネル16に表示した。しかしながら、本発明において、表示制御部120は、化粧品画像として1種類のみの化粧品を表現する画像を表示しても良い。また、構成をより簡略化するために、例えば指示装置30から加速度検知部35等を省略することも可能である。
上記実施形態では、制御部11において、CPUがROMに記憶されたプログラムを実行することによって、図6に示した各部として機能した。しかしながら、本発明において、制御部11は、CPUの代わりに、例えばASIC(Application Specific Integrated Circuit)、FPGA(Field-Programmable Gate Array)、各種制御回路等の専用のハードウェアを備え、専用のハードウェアが、図6に示した各部として機能しても良い。この場合、各部の機能それぞれを個別のハードウェアで実現しても良いし、各部の機能をまとめて単一のハードウェアで実現しても良い。また、各部の機能のうち、一部を専用のハードウェアによって実現し、他の一部をソフトウェア又はファームウェアによって実現しても良い。
なお、本発明に係る機能を実現するための構成を予め備えた画像処理装置として提供できることはもとより、プログラムの適用により、既存の情報処理装置等を、本発明に係る画像処理装置として機能させることもできる。すなわち、上記実施形態で例示した画像処理装置10による各機能構成を実現させるためのプログラムを、既存の情報処理装置等を制御するCPU等が実行できるように適用することで、本発明に係る塗布装置として機能させることができる。
また、このようなプログラムの適用方法は任意である。プログラムを、例えば、フレキシブルディスク、CD(Compact Disc)-ROM、DVD(Digital Versatile Disc)-ROM、メモリカード等のコンピュータ読み取り可能な記憶媒体に格納して適用できる。さらに、プログラムを搬送波に重畳し、インターネットなどの通信媒体を介して適用することもできる。例えば、通信ネットワーク上の掲示板(BBS:Bulletin Board System)にプログラムを掲示して配信してもよい。そして、このプログラムを起動し、OS(Operating System)の制御下で、他のアプリケーションプログラムと同様に実行することにより、上記の処理を実行できるように構成してもよい。
以上、本発明の好ましい実施形態について説明したが、本発明は係る特定の実施形態に限定されるものではなく、本発明には、特許請求の範囲に記載された発明とその均等の範囲とが含まれる。以下に、本願出願の当初の特許請求の範囲に記載された発明を付記する。
(付記1)
ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部と、
前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出する検出部と、
前記第1の表示領域に表示された前記撮像画像にメイク画像を表示する表示制御部と、を備え、
前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整する、
ことを特徴とする画像処理装置。
(付記2)
化粧品を表現する化粧品画像を表示する表示部と、
ユーザ及び前記表示部のうちの少なくとも一方の姿勢を検出する検出部と、
前記ユーザの顔が撮像された撮像画像にメイク画像を外部機器に表示する表示制御部と、を備え、
前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整する、
ことを特徴とする画像処理装置。
(付記3)
前記表示制御部は、前記姿勢の変化に基づいて前記グリッター表現を変化させる、
ことを特徴とする付記1又は2に記載の画像処理装置。
(付記4)
前記メイク画像は、前記第1の表示領域に表示された前記撮像画像において、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像である、
ことを特徴とする付記1に記載の画像処理装置。
(付記5)
前記ユーザの姿勢は、目周辺に設定された特徴点の位置関係の変化に基づいて算出される、
ことを特徴とする付記1から4のいずれか1つに記載の画像処理装置。
(付記6)
複数のエフェクト画像を記憶する記憶部を更に備え、
前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現の変化は、前記メイク画像及び前記化粧品画像のうちの少なくとも一方に、前記複数のエフェクト画像を順に重畳して表示することにより表現される、
ことを特徴とする付記1から5のいずれか1つに記載の画像処理装置。
(付記7)
複数のエフェクト画像を記憶する記憶部を更に備え、
前記複数のエフェクト画像は、前記化粧品画像に予め重畳され、
前記化粧品画像のグリッター表現の変化は、前記複数のエフェクト画像を順に表示することにより表現される、
ことを特徴とする付記1から5のいずれか1つに記載の画像処理装置。
(付記8)
付記1から7のいずれか1つに記載の画像処理装置と、指示体と、を有する、
ことを特徴とするメイクシミュレーション装置。
(付記9)
ユーザの顔が撮像された撮像画像を取得し、
取得された前記撮像画像を第1の表示領域に表示し、
化粧品を表現する化粧品画像を第2の表示領域に表示し、
前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出し、
前記第1の表示領域に表示された前記撮像画像にメイク画像を表示し、
検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整する、
ことを特徴とする画像処理方法。
(付記10)
コンピュータを、
ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部、
前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出する検出部、
前記第1の表示領域に表示された前記撮像画像にメイク画像を表示する表示制御部、として機能させ、
前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整する、
プログラム。
1…メイクシミュレーション装置、10…画像処理装置、11…制御部、12…記憶部、13…操作部、14…撮像部、15…表示部、16…タッチパネル、17…通信部、18…加速度検知部、21…保持データ、30…指示装置、31…制御部、32…記憶部、34…接触検知部、35…加速度検知部、37…通信部、41,42…メイクパーツ、110…画像取得部、120…表示制御部、130…顔検出部、140…操作受付部、150…情報受信部、160…保持量設定部、170…接触位置特定部、180…接触情報取得部、310…情報送信部、U…ユーザ

Claims (15)

  1. ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部と、
    前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出する検出部と、
    前記第1の表示領域に表示された前記撮像画像にメイク画像を表示する表示制御部と、を備え、
    前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整
    前記ユーザの姿勢は、目周辺に設定された特徴点の位置関係の変化に基づいて算出される、
    ことを特徴とする画像処理装置。
  2. ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部と、
    前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出する検出部と、
    前記第1の表示領域に表示された前記撮像画像にメイク画像を表示する表示制御部と、
    複数のエフェクト画像を取得する取得部と、を備え、
    前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整し、
    前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現の変化は、前記メイク画像及び前記化粧品画像のうちの少なくとも一方に、前記複数のエフェクト画像を順に重畳して表示することにより表現される、
    ことを特徴とする画像処理装置。
  3. ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部と、
    前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出する検出部と、
    前記第1の表示領域に表示された前記撮像画像にメイク画像を表示する表示制御部と、
    複数のエフェクト画像を取得する取得部と、を備え、
    前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整し、
    前記複数のエフェクト画像は、前記化粧品画像に予め重畳され、
    前記化粧品画像のグリッター表現の変化は、前記複数のエフェクト画像を順に表示することにより表現される、
    ことを特徴とする画像処理装置。
  4. 化粧品を表現する化粧品画像を表示する表示部と、
    ユーザ及び前記表示部のうちの少なくとも一方の姿勢を検出する検出部と、
    前記ユーザの顔が撮像された撮像画像にメイク画像を外部機器に表示する表示制御部と、を備え、
    前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整
    前記ユーザの姿勢は、目周辺に設定された特徴点の位置関係の変化に基づいて算出される、
    ことを特徴とする画像処理装置。
  5. 化粧品を表現する化粧品画像を表示する表示部と、
    ユーザ及び前記表示部のうちの少なくとも一方の姿勢を検出する検出部と、
    前記ユーザの顔が撮像された撮像画像にメイク画像を外部機器に表示する表示制御部と、
    複数のエフェクト画像を取得する取得部と、を備え、
    前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整し、
    前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現の変化は、前記メイク画像及び前記化粧品画像のうちの少なくとも一方に、前記複数のエフェクト画像を順に重畳して表示することにより表現される、
    ことを特徴とする画像処理装置。
  6. 化粧品を表現する化粧品画像を表示する表示部と、
    ユーザ及び前記表示部のうちの少なくとも一方の姿勢を検出する検出部と、
    前記ユーザの顔が撮像された撮像画像にメイク画像を外部機器に表示する表示制御部と
    複数のエフェクト画像を取得する取得部と、を備え、
    前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整し、
    前記複数のエフェクト画像は、前記化粧品画像に予め重畳され、
    前記化粧品画像のグリッター表現の変化は、前記複数のエフェクト画像を順に表示することにより表現される、
    ことを特徴とする画像処理装置。
  7. 前記表示制御部は、前記姿勢の変化に基づいて前記グリッター表現を変化させる、
    ことを特徴とする請求項1から6のいずれか1項に記載の画像処理装置。
  8. 前記メイク画像は、前記第1の表示領域に表示された前記撮像画像において、前記化粧品が前記ユーザの顔に塗布された状態を表現するメイクパーツが重ねられた画像である、
    ことを特徴とする請求項1から3のいずれか1項に記載の画像処理装置。
  9. 請求項1からのいずれか1項に記載の画像処理装置と、指示体と、を有する、
    ことを特徴とするメイクシミュレーション装置。
  10. ユーザの顔が撮像された撮像画像を取得し、
    取得された前記撮像画像を第1の表示領域に表示し、
    化粧品を表現する化粧品画像を第2の表示領域に表示し、
    前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出し、
    前記第1の表示領域に表示された前記撮像画像にメイク画像を表示し、
    検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整
    前記ユーザの姿勢は、目周辺に設定された特徴点の位置関係の変化に基づいて算出される、
    ことを特徴とする画像処理方法。
  11. ユーザの顔が撮像された撮像画像を取得し、
    取得された前記撮像画像を第1の表示領域に表示し、
    化粧品を表現する化粧品画像を第2の表示領域に表示し、
    前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出し、
    前記第1の表示領域に表示された前記撮像画像にメイク画像を表示し、
    複数のエフェクト画像を取得し、
    検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整し、
    前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現の変化は、前記メイク画像及び前記化粧品画像のうちの少なくとも一方に、前記複数のエフェクト画像を順に重畳して表示することにより表現される、
    ことを特徴とする画像処理方法。
  12. ユーザの顔が撮像された撮像画像を取得し、
    取得された前記撮像画像を第1の表示領域に表示し、
    化粧品を表現する化粧品画像を第2の表示領域に表示し、
    前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出し、
    前記第1の表示領域に表示された前記撮像画像にメイク画像を表示し、
    複数のエフェクト画像を取得し、
    検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整し、
    前記複数のエフェクト画像は、前記化粧品画像に予め重畳され、
    前記化粧品画像のグリッター表現の変化は、前記複数のエフェクト画像を順に表示することにより表現される、
    ことを特徴とする画像処理方法。
  13. コンピュータを、
    ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部、
    前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出する検出部、
    前記第1の表示領域に表示された前記撮像画像にメイク画像を表示する表示制御部、として機能させ、
    前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整
    前記ユーザの姿勢は、目周辺に設定された特徴点の位置関係の変化に基づいて算出される、
    プログラム。
  14. コンピュータを、
    ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部、
    前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出する検出部、
    前記第1の表示領域に表示された前記撮像画像にメイク画像を表示する表示制御部、
    複数のエフェクト画像を取得する取得部、として機能させ、
    前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整し、
    前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現の変化は、前記メイク画像及び前記化粧品画像のうちの少なくとも一方に、前記複数のエフェクト画像を順に重畳して表示することにより表現される、
    プログラム。
  15. コンピュータを、
    ユーザの顔が撮像された撮像画像を表示する第1の表示領域と、化粧品を表現する化粧品画像を表示する第2の表示領域とを有する表示部、
    前記ユーザ及び前記第2の表示領域のうちの少なくとも一方の姿勢を検出する検出部、
    前記第1の表示領域に表示された前記撮像画像にメイク画像を表示する表示制御部、
    複数のエフェクト画像を取得する取得部、として機能させ、
    前記表示制御部は、前記検出部により検出された姿勢に基づいて、前記メイク画像及び前記化粧品画像のうちの少なくとも一方のグリッター表現を調整し、
    前記複数のエフェクト画像は、前記化粧品画像に予め重畳され、
    前記化粧品画像のグリッター表現の変化は、前記複数のエフェクト画像を順に表示することにより表現される、
    プログラム。
JP2019173596A 2019-09-24 2019-09-24 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム Active JP7351165B2 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019173596A JP7351165B2 (ja) 2019-09-24 2019-09-24 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019173596A JP7351165B2 (ja) 2019-09-24 2019-09-24 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム

Publications (2)

Publication Number Publication Date
JP2021049088A JP2021049088A (ja) 2021-04-01
JP7351165B2 true JP7351165B2 (ja) 2023-09-27

Family

ID=75155106

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019173596A Active JP7351165B2 (ja) 2019-09-24 2019-09-24 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム

Country Status (1)

Country Link
JP (1) JP7351165B2 (ja)

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014134890A (ja) 2013-01-08 2014-07-24 Sharp Corp 画像データ処理装置
WO2018159231A1 (ja) 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 メイクシミュレーション装置、方法、及び、非一時的な記憶媒体

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014134890A (ja) 2013-01-08 2014-07-24 Sharp Corp 画像データ処理装置
WO2018159231A1 (ja) 2017-02-28 2018-09-07 パナソニックIpマネジメント株式会社 メイクシミュレーション装置、方法、及び、非一時的な記憶媒体

Also Published As

Publication number Publication date
JP2021049088A (ja) 2021-04-01

Similar Documents

Publication Publication Date Title
US20220164032A1 (en) Enhanced Virtual Touchpad
US9529454B1 (en) Three-dimensional user input
JP4989383B2 (ja) 情報処理装置、情報処理方法
CN109725782B (zh) 一种实现虚拟现实的方法、装置及智能设备、存储介质
EP3814876B1 (en) Placement and manipulation of objects in augmented reality environment
JP2024097787A (ja) 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム
JP6716028B2 (ja) 制御装置、情報処理システム、制御方法、及びプログラム
JP2004078977A (ja) インターフェイス装置
CN109992175B (zh) 用于模拟盲人感受的物体显示方法、装置及存储介质
JP2008302130A (ja) 画像処理プログラムおよび画像処理装置
JP2014199479A (ja) プログラム及び情報処理装置
US9153071B2 (en) Game apparatus, game program and game system
KR101719927B1 (ko) 립 모션을 이용한 실시간 메이크업 미러 시뮬레이션 장치
JP2023164494A (ja) 画像処理装置、画像処理方法及びプログラム
JP7351165B2 (ja) 画像処理装置、メイクシミュレーション装置、画像処理方法及びプログラム
WO2019244409A1 (ja) 映像表示システム,映像表示方法,及びコンピュータプログラム
JP2019046472A (ja) 画像処理装置、画像処理方法
KR20190058839A (ko) 사용자 인터페이스를 적응적으로 구성하기 위한 장치 및 방법
CN113703577A (zh) 一种绘图方法、装置、计算机设备及存储介质
KR20210108080A (ko) 전자 장치 및 이를 이용한 시각적 효과 제공 방법
WO2022201736A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2024047008A (ja) 情報処理システム
JP2024047006A (ja) 情報処理システムおよびプログラム
JPWO2008126419A1 (ja) 運動支援方法
JP2018117970A (ja) ゲームシステム、ゲーム実行方法、及び、コンピュータ装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230516

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230523

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230724

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230815

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230828

R150 Certificate of patent or registration of utility model

Ref document number: 7351165

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150