JP6373265B2 - 情報処理装置および情報処理装置の制御方法 - Google Patents

情報処理装置および情報処理装置の制御方法 Download PDF

Info

Publication number
JP6373265B2
JP6373265B2 JP2015528137A JP2015528137A JP6373265B2 JP 6373265 B2 JP6373265 B2 JP 6373265B2 JP 2015528137 A JP2015528137 A JP 2015528137A JP 2015528137 A JP2015528137 A JP 2015528137A JP 6373265 B2 JP6373265 B2 JP 6373265B2
Authority
JP
Japan
Prior art keywords
image
face
subject
distance
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2015528137A
Other languages
English (en)
Other versions
JPWO2015011898A1 (ja
Inventor
稔也 新井
稔也 新井
内田 真司
真司 内田
雅子 池田
雅子 池田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Corp of America
Original Assignee
Panasonic Intellectual Property Corp of America
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Corp of America filed Critical Panasonic Intellectual Property Corp of America
Publication of JPWO2015011898A1 publication Critical patent/JPWO2015011898A1/ja
Application granted granted Critical
Publication of JP6373265B2 publication Critical patent/JP6373265B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • H04N23/611Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/61Control of cameras or camera modules based on recognised objects
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/631Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/63Control of cameras or camera modules by using electronic viewfinders
    • H04N23/633Control of cameras or camera modules by using electronic viewfinders for displaying additional information relating to control or operation of the camera
    • H04N23/635Region indicators; Field of view indicators
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Human Computer Interaction (AREA)
  • Studio Devices (AREA)
  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Processing (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)

Description

本開示は、ユーザの顔を撮像可能な情報処理装置およびその制御方法に関する。
人間の顔の肌をカメラで撮像し、撮像した画像から肌の状態を評価する情報処理装置および情報処理装置の制御方法が検討されている。
特許第4485837号公報 特許第5206516号公報
しかし、上記情報処理装置および情報処理装置の制御方法は更なる改善が必要であった。
本開示の一態様に係る制御方法は、画像を入力するカメラ及びカメラの画像入力側と同一側に表示面を有するディスプレイを有する情報処理装置を制御する制御方法であって、カメラから被写体の顔の画像を入力し、入力画像を左右反転し、左右反転した画像をディスプレイに表示する情報処理装置のコンピュータに、情報処理装置と被写体の顔に含まれる基準部分との間の距離を検出させ、被写体の顔の画像を評価するための基準距離と検出された距離との比率に応じた倍率を決定させ、決定された倍率に基づいて、左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応した画像を、情報処理装置と被写体との間の距離を変更する方向に被写体を誘導するガイド画像として、ディスプレイに表示させる。
上記態様により、更なる改善を実現できた。
(a)は実施形態に係る情報処理装置を示す図であり、(b)は実施形態に係る制御装置の構成を示す図であり、(c)は実施形態に係るクラウドサーバの構成を示す図である。 (a)および(b)は、実施形態に係る情報処理装置の構成要素の配置例を示す図である。 (a)から(c)は、実施形態に係るガイド画像を説明する図である。 (a)から(c)は、実施形態に係るマーカー画像とガイド画像の位置関係を示す図である。 (a)は実施形態に係るガイド画像を示す図であり、(b)は実施形態に係る基本顔ガイド画像を示す図である。 実施形態に係る処理回路を示す図である。 実施形態に係る処理回路の動作を示すフローチャートである。 実施形態に係る情報処理装置とマーカーとの間の距離を計算する方法を説明する図である。 実施形態に係る情報処理装置を示す図である。 実施形態に係る処理回路を示す図である。 実施形態に係る処理回路の動作を示すフローチャートである。 実施形態に係る基本顔ガイド画像を示す図である。 実施形態に係る距離と画像サイズとの関係を示す図である。 (a)および(b)は、実施形態に係るガイド画像のサイズを計算する方法を説明する図である。 (a)から(e)は、実施形態に係る誘導画像を生成してユーザを誘導する処理を説明する図である。 実施形態に係る処理回路の動作を示すフローチャートである。 (a)から(d)は、実施形態に係る誘導画像を生成する処理を説明する図である。 (a)から(d)は、実施形態に係る表示エリアに表示される画像の例を説明する図である。 (a)および(b)は、実施形態に係る表示エリアに表示される画像の例を説明する図である。 (a)および(b)は、実施形態に係る表示エリアに表示される画像の例を説明する図である。 実施形態に係るサービスの類型1(自社データセンタ型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。 実施形態に係るサービスの類型2(IaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。 実施形態に係るサービスの類型3(PaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。 実施形態に係るサービスの類型4(SaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。
(本発明の基礎となった知見)
人間の顔の肌をカメラで撮像し、得られた肌画像に基づいて肌の状態を評価する装置がある。例えば、特許文献1は、肌表面から離れた場所に設置したカメラで撮像した肌画像に基づいて、肌の状態を評価する皮膚画像処理装置を開示している。特許文献1の皮膚画像処理装置では、カメラと肌表面との間の距離が適切な状態で撮像するために、ユーザの顎を台に乗せ、額を押さえに押し当てて顔を固定する。このユーザの顔を固定した状態で、カメラが顔との距離を一定に保ちながら移動して顔の肌表面を撮像し、得られた肌画像に基づいて、色素沈着、毛穴、しわ等の肌状態の評価を行なっている。
また、肌の状態を評価する技術分野とは異なるが、特許文献2は、車の運転者の表情を認識するために、運転者に対して顔の撮像に適した撮像位置を知らせる撮影補助装置を開示している。
ここで、ユーザの顔を撮像する場合、ユーザの顔とカメラとの間の距離を一定にして撮像することで、肌表面の評価に適した画像が取得できると考えられる。具体的には、この距離が撮像の都度変化しないことにより、同一条件でユーザの顔を撮像することができ、過去と現在の肌状態の比較が容易となる。
しかし、特許文献1の皮膚画像処理装置ではユーザの顎および額を器具で固定して撮像を行なっており、このようにユーザの顎および額を器具で固定する方法では、装置が大がかりになるとともに、自然な状態での撮像ができないという課題がある。また、顎および額を器具で固定することはユーザにとって煩わしいという課題があるとともに、固定器具と接する肌領域の画像を取得することができない。
また、特許文献2の撮影補助装置では、撮像した運転者の顔画像とともに基準点を表示装置に表示し、運転者の顔画像の目や鼻の位置をその基準点の位置に合わせるように誘導して、運転者の顔を撮像に適した位置に移動させている。そのため、ユーザに顔の移動を促すことができるのは、表示画面上における上下左右方向に対してのみであり、ユーザとカメラとを結ぶ軸方向(ユーザの顔の前後方向)における適切な位置(ユーザとカメラとの間の適切な距離)をユーザに認識させたり、ユーザとカメラとを結ぶ軸方向の移動を促したりすることはできない。
そこで、上記課題を解決するために、以下の改善策を検討した。
情報処理装置を制御する制御方法の一態様は、画像を入力するカメラ及び前記カメラの画像入力側と同一側に表示面を有するディスプレイを有する情報処理装置を制御する制御方法であって、前記カメラから被写体の顔の画像を入力し、前記入力画像を左右反転し、前記左右反転した画像を前記ディスプレイに表示する情報処理装置のコンピュータに、前記情報処理装置と前記被写体の顔に含まれる基準部分との間の距離を検出させ、前記被写体の顔の画像を評価するための基準距離と前記検出された距離との比率に応じた倍率を決定させ、前記決定された倍率に基づいて、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応した画像を、前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像として、前記ディスプレイに表示させる。
上記態様によると、前記情報処理装置と前記被写体の顔に含まれる基準部分との間の距離を検出させ、前記被写体の顔の画像を評価するための基準距離と前記検出された距離との比率に応じた倍率を決定させ、前記決定された倍率に基づいて、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応した画像を、前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像として、前記ディスプレイに表示させる。
これにより、例えば、ユーザが前記情報処理装置によって顔の画像を撮像する場合、検出された前記情報処理装置から被写体であるユーザの顔に含まれる基準部分までの距離と、顔の画像を評価するための基準距離との比率に応じて、前記情報処理装置に対する距離を変更するようにユーザの顔を誘導するガイド画像がディスプレイに表示され、例えば、ユーザは前記ガイド画像に従って自身の顔の位置を動かして前記情報処理装置に対する距離を変更する。
そのため、前記情報処理装置とユーザの顔との間の距離を一定にして顔の画像を撮像させることができる。ここでは、この距離を一定にして顔の画像を撮像するために顔の一部を器具などで固定する必要がないため、装置を簡略化することができるとともに、自然な状態で顔の画像を撮像でき、装置へ自らの顔を固定するというユーザにとっての煩わしさも生じない。
さらに、例えば、日ごとに撮像を行う場合は、それぞれの撮像を同一条件で行うことができるため、過去の肌状態と現在の肌状態との比較が容易となる。
また、例えば、撮像された顔の画像に基づいて肌状態の評価を行う場合、例えば、撮像された顔の画像において肌表面のシミまたはシワと判断された箇所の大きさを、撮像された画像における画素の数を数えることで測定することが可能となる。
上記態様において、例えば、前記基準距離と前記検出された距離との差異が所定範囲内になったと判断された場合、前記カメラを動作させて前記被写体の画像を撮像させてもよい。
上記態様では、前記基準距離と前記検出された距離との差異が所定範囲内になったと判断された場合、前記カメラを動作させて前記被写体の画像を撮像させる。
これにより、前記情報処理装置と被写体であるユーザの顔との間の距離が一定の状態で顔の画像が撮像される。そのため、被写体の画像を撮像するたびに異なる距離で画像が撮像されることを防止でき、同一条件で撮像された画像を得ることができる。
上記態様において、例えば、前記情報処理装置は前記カメラの画像入力側と同一側に光の照射口を有する照明装置を備え、前記被写体の画像を撮像するときに、前記照明装置を動作させて前記被写体に光を照射させるとしてもよい。
上記態様では、前記被写体の画像を撮像するときに、照明装置を動作させて前記被写体に光を照射させる。
これにより、撮像された画像における被写体への光の当たり方が一定となり、前記情報処理装置と被写体であるユーザの顔の基準部分との間の距離が一定となるだけでなく、被写体の顔への光の照射度合いも一定として、同一条件で撮像された画像を取得できる。
上記態様において、例えば、前記撮像させた画像は、前記被写体の顔の評価に用いられる画像であるとしてもよい。
上記態様では、前記撮像させた前記被写体の画像を前記ユーザの顔の評価に用いる。
これにより、前記情報処理装置と被写体であるユーザの顔との間の距離が一定という同一条件のもとで撮像された画像がユーザの顔の評価に用いられる。
そのため、例えば、複数の異なる時刻または日にちに撮像されたユーザの顔の画像を比較する場合に、画像のスケールまたはオーダーなどを一致させる前処理が不要となり、画像の比較が容易となる。
上記態様において、例えば、前記基準距離は、カメラの焦点距離であるとしてもよい。
上記態様では、カメラの焦点距離は固定であり、前記被写体の画像を撮像するときに、カメラの焦点距離に対して最適な距離で撮像することになる。これにより、前記被写体の画像は焦点距離にあった鮮明な画像になり、被写体の顔を解析した際の精度が向上する。
上記態様において、例えば、前記被写体の顔の評価を行う指標ごとに、専門家による官能評価の結果と最も近くなるような距離を経験的に求めておき、前記被写体の顔の評価を行う指標ごとに、評価指標に基づいて決定するとしてもよい。
上記態様では、評価を行う指標ごとに基準距離を変えて撮影する。これにより前記被写体の顔の評価が専門家による官能評価に近くなり、評価制度が向上する。
上記態様において、例えば、前記ガイド画像は、前記被写体の顔の画像に重畳して前記ディスプレイに表示されるとしてもよい。
上記態様では、前記ガイド画像は、前記被写体の顔の画像に重畳して前記ディスプレイに表示される。
これにより、ユーザは前記ディスプレイに表示される自身の顔を確認しながら、前記ガイド画像に従って自身の顔の位置を移動させる。そのため、ユーザが自分で顔の状態を確認しつつ、同一条件で撮像された画像を取得するために前記ガイドに従って前記情報処理装置とユーザの顔との間の距離を一定にできる。
上記態様において、例えば、前記左右反転した顔の画像に含まれる、前記少なくとも一部の部位に対応した画像と同じ部位の画像を、前記情報処理装置と前記被写体との間の現在の距離を提示する基本顔ガイド画像として、前記ディスプレイに表示させるとしてもよい。
上記態様では、前記基本顔ガイド画像は、前記被写体の顔の画像に重畳して前記ディスプレイに表示される。これにより、ユーザは前記ディスプレイに表示される前記基本顔ガイド画像を確認しながら、前記ガイド画像に従って自身の顔の位置を移動させる。そのため、ユーザが前記ガイド画像に従って、どのように顔を移動させれば良いかを視認しやすい。
上記態様において、例えば、前記少なくとも一部の部位に対応した画像は、前記少なくとも一部の部位の輪郭に対応した形状を有するとしてもよい。
上記態様において、例えば、前記基本顔ガイド画像は、前記少なくとも一部の部位の輪郭に対応した形状を有するとしてもよい。
上記態様では、前記少なくとも一部の部位に対応した画像および前記基本顔ガイド画像は、前記少なくとも一部の部位の輪郭に対応した形状を有する。
そのため、ユーザは前記ディスプレイに表示されたガイド画像にユーザ自身の顔の部位の輪郭または基本顔ガイド画像を合わせるように顔の位置を移動させるだけで、前記情報処理装置と被写体であるユーザの顔との間の距離を一定にできる。また、ユーザは、この距離を一定とした画像を撮像するためにどのように顔を移動させれば良いかを視認しやすい。
上記態様において、例えば、前記少なくとも一部の部位の輪郭に対応した形状は、眼、鼻、口のうちの少なくとも一つに対応した形状を含むとしてもよい。
上記態様では、前記少なくとも一部の部位の輪郭に対応した形状は、眼、鼻、口のうちの少なくとも一つに対応した形状を含む。
そのため、ユーザは前記ディスプレイに表示されたガイド画像に、ユーザ自身の眼、鼻、口のうちの少なくとも一つの部位を合わせるように顔の位置を移動させるだけで、前記情報処理装置とユーザの顔との間の距離を一定にできる。また、ユーザは、この距離を一定とした画像を撮像するためにどのように顔を移動させれば良いかを視認しやすい。
上記態様において、例えば、前記少なくとも一部の部位に対応した画像は、前記被写体の顔の輪郭、又は前記被写体の顔に含まれる眼、鼻又は口の輪郭に対応した形状を有するとしてもよい。
上記態様において、例えば、前記基本顔ガイド画像は、前記被写体の顔の輪郭、又は前記被写体の顔に含まれる眼、鼻又は口の輪郭に対応した形状を有するとしてもよい。
上記態様では、前記少なくとも一部の部位に対応した画像および前記基本顔ガイド画像は、前記被写体の顔の輪郭、又は前記被写体の顔に含まれる眼、鼻又は口の輪郭に対応した形状を有する。
そのため、ユーザは前記ディスプレイに表示されたガイド画像にユーザ自身の顔の輪郭、又は眼、鼻、若しくは口の輪郭または基本顔ガイド画像を合わせるように顔の位置を移動させるだけで、前記情報処理装置とユーザの顔との間の距離を一定にできる。また、ユーザは、この距離を一定とした画像を撮像するためにどのように顔を移動させれば良いかを視認しやすい。
上記態様において、例えば、前記基準部分は、前記被写体の顔に含まれる複数の部分であり、前記距離は、前記情報処理装置と前記被写体の顔に含まれる複数の基準部分それぞれとの間の平均距離であるとしてもよい。
上記態様では、前記基準部分は、前記被写体の顔に含まれる複数の部分であり、前記距離は、前記情報処理装置と前記被写体の顔に含まれる複数の基準部分それぞれとの間の平均距離である。
これにより、前記情報処理装置と被写体であるユーザの顔の間の距離を検出するにあたってユーザの顔の凹凸の影響を軽減できる。例えば、鼻の出っ張りまたは眼の窪みなどを基準部分とした場合に、前記情報処理装置から顔の肌の大部分を占める額および頬までの距離とは乖離した値が検出されることを防止できる。
そのため、前記情報処理装置と被写体であるユーザの顔の間の距離を、前記基準距離へ精度よく近づけるガイド画像をディスプレイへ表示可能となり、撮像した画像に基づく肌分析の精度を向上できる。
上記態様において、例えば、前記複数の部分は、前記被写体の顔の左右から同一数選択されているとしてもよい。
上記態様において、例えば、前記複数の部分は、前記被写体の顔の所定の基準点の上下から同一数選択されているとしてもよい。
上記態様において、例えば、前記拡大した画像に含まれる少なくとも一部の部位に対応した画像は、前記被写体の顔を前記情報処理装置に近づける方向に前記被写体を誘導するガイド画像であり、前記縮小した画像に含まれる少なくとも一部の部位に対応した画像は、前記被写体の顔を前記情報処理装置から遠ざける方向に前記被写体を誘導するガイド画像であるとしてもよい。
上記態様において、例えば、前記ガイド画像は、前記検出された距離を前記基準距離に近づけるように前記被写体を誘導する画像であるとしてもよい。
上記態様では、前記ガイド画像は、前記検出された距離を前記基準距離に近づけるように前記被写体を誘導する画像である。
これにより、ユーザに対して、前記情報処理装置とユーザの顔との間の距離を基準距離に近づけるよう誘導でき、ユーザが誘導に従うことで、前記情報処理装置とユーザの顔との間の距離が一定の状態で撮像された画像を取得できる。
上記態様において、例えば、前記被写体の顔の画像の評価は、前記被写体の顔の肌分析を含むとしてもよい。
上記態様において、例えば、前記検出された距離は、前記情報処理装置が有するカメラと前記ユーザの顔における前記基準部分との間の距離であるとしてもよい。
また、本開示に係る情報処理装置の一態様は、画像を入力するカメラと、前記カメラの画像入力側と同一側に表示面を有するディスプレイと、前記カメラを用いて入力した被写体の顔の画像を左右反転し、前記左右反転した画像を前記ディスプレイに表示するコントローラとを具備した情報処理装置であって、前記コントローラは、前記情報処理装置と前記被写体の顔の画像に含まれる基準部分との間の距離を検出し、前記被写体の顔の画像を評価するための基準距離と前記検出された距離との比率に応じた倍率を決定し、前記決定された倍率に基づいて、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応した画像を、前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像として、前記ディスプレイに表示させる。
上記態様によると、前記情報処理装置と前記被写体の顔に含まれる基準部分との間の距離を検出させ、前記被写体の顔の画像を評価するための基準距離と前記検出された距離との比率に応じた倍率を決定させ、前記決定された倍率に基づいて、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応した画像を、前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像として、前記ディスプレイに表示させる。
これにより、例えば、ユーザが前記情報処理装置によって顔の画像を撮像する場合、検出された前記情報処理装置から被写体であるユーザの顔に含まれる基準部分までの距離と、顔の画像を評価するための基準距離との比率に応じて、前記情報処理装置に対する距離を変更するようにユーザの顔を誘導するガイド画像がディスプレイに表示され、例えば、ユーザは前記ガイド画像に従って自身の顔の位置を動かして前記情報処理装置に対する距離を変更する。
そのため、前記情報処理装置とユーザの顔との間の距離を一定にして顔の画像を撮像させることができる。ここでは、この距離を一定にして顔の画像を撮像するために顔の一部を器具などで固定する必要がないため、装置を簡略化することができるとともに、自然な状態で顔の画像を撮像でき、装置へ自らの顔を固定するというユーザにとっての煩わしさも生じない。
さらに、例えば、日ごとに撮像を行う場合は、それぞれの撮像を同一条件で行うことができるため、過去の肌状態と現在の肌状態との比較が容易となる。
また、例えば、撮像された顔の画像に基づいて肌状態の評価を行う場合、例えば、撮像された顔の画像において肌表面のシミまたはシワと判断された箇所の大きさを、撮像された画像における画素の数を数えることで測定することが可能となる。
また、本開示に係る情報処理装置を制御するプログラムの一態様は、画像を入力するカメラ及び前記カメラの画像入力側と同一側に表示面を有するディスプレイを有する情報処理装置を制御するプログラムであって、前記カメラから被写体の顔の画像を入力し、前記入力画像を左右反転し、前記左右反転した画像を前記ディスプレイに表示する情報処理装置のコンピュータに、前記情報処理装置と前記被写体の顔に含まれる基準部分との間の距離を検出させ、前記被写体の顔の画像を評価するための基準距離と前記検出された距離との比率に応じた倍率を決定させ、前記決定された倍率に基づいて、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応した画像を、前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像として、前記ディスプレイに表示させる。
上記態様によると、前記情報処理装置と前記被写体の顔に含まれる基準部分との間の距離を検出させ、前記被写体の顔の画像を評価するための基準距離と前記検出された距離との比率に応じた倍率を決定させ、前記決定された倍率に基づいて、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応した画像を、前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像として、前記ディスプレイに表示させる。
これにより、例えば、ユーザが前記情報処理装置によって顔の画像を撮像する場合、検出された前記情報処理装置から被写体であるユーザの顔に含まれる基準部分までの距離と、顔の画像を評価するための基準距離との比率に応じて、前記情報処理装置に対する距離を変更するようにユーザの顔を誘導するガイド画像がディスプレイに表示され、例えば、ユーザは前記ガイド画像に従って自身の顔の位置を動かして前記情報処理装置に対する距離を変更する。
そのため、前記情報処理装置とユーザの顔との間の距離を一定にして顔の画像を撮像させることができる。ここでは、この距離を一定にして顔の画像を撮像するために顔の一部を器具などで固定する必要がないため、装置を簡略化することができるとともに、自然な状態で顔の画像を撮像でき、装置へ自らの顔を固定するというユーザにとっての煩わしさも生じない。
さらに、例えば、日ごとに撮像を行う場合は、それぞれの撮像を同一条件で行うことができるため、過去の肌状態と現在の肌状態との比較が容易となる。
また、例えば、撮像された顔の画像に基づいて肌状態の評価を行う場合、例えば、撮像された顔の画像において肌表面のシミまたはシワと判断された箇所の大きさを、撮像された画像における画素の数を数えることで測定することが可能となる。
また、情報処理装置を制御する制御方法の他の態様は、画像を入力するカメラ及び前記カメラの画像入力側と同一側に表示面を有するディスプレイを有する情報処理装置を制御する制御方法であって、前記カメラから被写体の顔の画像を入力し、前記入力画像を左右反転し、前記左右反転した画像を前記ディスプレイに表示する情報処理装置のコンピュータに、前記情報処理装置と前記被写体の顔との間の距離を変更する方向に前記被写体を誘導するガイド画像であって、前記顔の画像における基準部分の基準サイズに対応したガイド画像を前記ディスプレイに表示させる。
また、情報処理装置を制御する制御方法の他の態様は、画像を入力するカメラ及び前記カメラの画像入力側と同一側に表示面を有するディスプレイを有する情報処理装置を制御する制御方法であって、前記カメラから被写体の顔の画像を入力し、前記入力画像を左右反転し、前記左右反転した画像を前記ディスプレイに表示する情報処理装置のコンピュータに、前記カメラと前記被写体の顔に含まれる基準部分との間の距離を検出させ、前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像であって、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応したガイド画像を前記ディスプレイに表示させ、前記検出した距離が前記被写体の顔の画像を評価するための基準距離よりも小さいと判断した場合は、縮小した顔画像の少なくとも一部の部位に対応したガイド画像を前記ディスプレイに表示させ、前記検出した距離が前記被写体の顔の画像を評価するための基準距離よりも大きいと判断した場合は、拡大した顔画像の少なくとも一部に対応したガイド画像を前記ディスプレイに表示させる。
以下、図面を参照しながら、実施形態に係る情報処理装置およびその制御方法を説明する。
図1(a)は、実施形態に係る情報処理装置101を示す図である。情報処理装置101は、カメラ10と、光源12と、ディスプレイ14と、制御装置18とを備える。図1(b)は、制御装置18の構成を示す図である。制御装置18は、マイクロコンピュータ18Aと、メモリ18Bと、通信部18Cとを備える。マイクロコンピュータ18Aは、以下に説明する動作を含む情報処理装置101全体の動作を制御する。また、マイクロコンピュータ18Aは、画像処理等の以下に説明する各種処理を実行する。例えば、情報処理装置101の各動作を制御するためのコンピュータプログラムがメモリ18Bに記憶されており、マイクロコンピュータ18Aは、そのコンピュータプログラムに従って、情報処理装置101の各構成要素の動作を制御したり、画像処理等の各種処理を実行したりする。
カメラ10は、ユーザ21の顔を撮像し、顔の画像データを取得する。この際、本実施形態では、画像の特徴指標をより正確に算出するために、偏光光を出射する光源12(照明装置)を用いる。
図2(a)および図2(b)は、情報処理装置101のカメラ10、光源12およびディスプレイ14の配置を示す正面図および側面図である。本実施形態では、光源12は、ディスプレイ14の上に設けられており、光源12は、第1光源12Aおよび第2光源12Bを含む。ディスプレイ14は、カメラ10の画像入力側と同一側に表示面を有している。また、光源12はカメラ10の画像入力側と同一側に光の出射口を有している。
図2(b)に示すように、情報処理装置101を用いて肌の分析を行なう場合、ユーザは、ディスプレイ14から例えば距離x程度離れた位置に顔21を保持する。このとき、ユーザの顔21はカメラ10から例えば距離i程度離れた位置にある。この状態で適切な大きさおよび解像度で顔全体が撮影可能なように、カメラ10の光学系が設定されている。ディスプレイ14の大きさの一例は、幅Wが30cm程度であり、高さHは50cm程度である。また、距離xは、30cmから70cm程度であり、例えば45cm程度である。また、距離iは、30cmから70cm程度であり、例えば47cm程度である。
ディスプレイ14は、左右反転された顔画像データを表示エリア16に表示する。また、マイクロコンピュータ18Aは、得られた顔画像データに基づいてガイド画像を生成し、ディスプレイ14はガイド画像を表示する。ガイド画像は、情報処理装置101とユーザの顔21との間の距離を変更する方向にユーザを誘導するガイドの役割を果たす。なお、ディスプレイ14の表示エリア16にはタッチパネルなどのユーザーインターフェースが設けられていてもよい。
制御装置18は、通信部18Cおよび通信ネットワーク19を介して、肌の分析および評価に関するサービスを提供するサービス提供者のクラウドサーバ102と接続されてもよい。この場合、通信部18Cは、撮像された画像、画像の特徴指標、肌の評価値などをクラウドサーバ102へ送信する。図1(a)では、情報処理装置101は1つしか示されていないが、クラウドサーバ102は、複数の情報処理装置101に接続され得る。
図1(c)は、クラウドサーバ102の構成を示す図である。クラウドサーバ102は、マイクロコンピュータ102Aと、メモリ102Bと、通信部102Cと、データベース102Dとを備える。クラウドサーバ102は、通信部102Cを介して、撮像された画像、画像の特徴指標、肌の評価値などを複数の情報処理装置101から受け取る。クラウドサーバ102は、複数の情報処理装置101から受け取った各データを記憶し、統計データを生成したり、データ同士の相関関係を求めたりする。また、通信部102Cを介して、それら統計データや相関関係を各情報処理装置101に送信する。
次に、情報処理装置101とユーザの顔21との間の距離を変更する方向にユーザを誘導するガイド画像を説明する。図3は、ガイド画像の一例を説明する図である。この例では、サイズが予め分かっているマーカーをユーザの顔の一部に装着し、撮像して得られるマーカー画像32を用いて、ユーザを誘導する。例えば、ユーザは、マーカーが設けられたカチューシャを額に装着し、このマーカーが顔の基準部分となる。
カメラ10は、カチューシャを装着したユーザの顔を撮像し、顔画像31を生成する。図3(a)は、ディスプレイ14の表示エリア16に表示された顔画像31を示す。表示エリア16には、ユーザの顔画像31の一部としてマーカー画像32が表示される。マーカーの現物のサイズは予め分かっているため、情報処理装置101とユーザの顔21との間の距離が最適距離にあるときに、表示エリア16に表示されるマーカーの画像サイズも予め分かっている。そのため、撮像して表示されているマーカーの画像サイズが、最適距離における画像サイズとなるようにユーザを誘導することで、ユーザは最適距離の位置に移動することができる。
図3(b)は、最適距離にあるときのマーカーの画像サイズに対応したガイド画像33を示す図である。ガイド画像33のデータは、例えば、メモリ18Bに予め記憶されており、マイクロコンピュータ18Aはそのデータを読み取り、撮像した顔画像31とガイド画像33とを重畳した画像をディスプレイ14に表示させる。図3(c)は、撮像した顔画像31とガイド画像33とを重畳して生成した誘導用の画像を示す図である。
図4を参照して、ガイド画像33を用いてユーザを誘導する方法を説明する。図4(a)は、情報処理装置101とユーザの顔21との間の距離が最適距離よりも大きいときの、マーカー画像32とガイド画像33の関係を示している。図4(b)は、情報処理装置101とユーザの顔21との間の距離が最適距離よりも小さいときの、マーカー画像32とガイド画像33の関係を示している。図4(c)は、情報処理装置101とユーザの顔21との間の距離が最適距離であるときの、マーカー画像32とガイド画像33の関係を示している。
図4(a)に示す状態では、ガイド画像33よりもマーカー画像32は小さく表示される。ユーザは、マーカー画像32が大きくなるように情報処理装置101に顔を近づけ、図4(c)のようにマーカー画像32とガイド画像33のサイズを一致させることで、最適距離に位置することができる。また、図4(b)に示す状態では、ガイド画像33よりもマーカー画像32は大きく表示される。ユーザは、マーカー画像32が小さくなるように情報処理装置101から顔を遠ざけ、図4(c)のようにマーカー画像32とガイド画像33のサイズを一致させることで、最適距離に位置することができる。このように、ガイド画像33を用いて、ユーザを最適距離に誘導することができる。
なお、マーカー画像32とガイド画像33のサイズの比を用いて、ユーザの顔の輪郭に対応したガイドを生成してもよい。マーカーの現物のサイズは予め分かっているので、マーカーと一緒に表示されている顔の実際のサイズを推定することができる。そこから、最適距離にあるときの顔の画像サイズを推定することができる。すなわち、マーカー画像32とガイド画像33のサイズの比を用いて、顔画像31を拡大または縮小することで、図5(a)に示すような、最適距離にあるときの顔の輪郭に対応したガイド画像35を生成することができる。ガイド画像35は、例えば、ユーザの顔が撮像した画像の中心に配置されるように表示エリア16の中央部に表示する。
また、顔画像31を拡大または縮小せずに、図5(b)に示すような、顔の輪郭に対応した基本顔ガイド画像36を生成することができる。基本ガイド画像36は、例えば、ユーザの顔が撮像した画像の中心に配置されるように表示エリア16の中央部に表示する。
図6は、制御装置18が備える処理回路180を示す図である。図7は、処理回路180の動作を説明するフローチャートである。処理回路180は、顔画像取得部181と、顔検出部182と、基準特徴検出部183と、特徴分析部184と、顔ガイド生成部185と、誘導画像生成部186とを備える。マイクロコンピュータ18Aが処理回路180を兼ね、処理回路180の構成要素の処理をマイクロコンピュータ18Aが実行してもよい。
顔画像取得部181はカメラ10が撮像した画像データを取得し(ステップ301)、画像データを左右反転させる。顔検出部182は画像データ中の顔画像を検出する(ステップ302)。顔検出部182は、画像データ中の顔画像の大きさに対応した基本顔ガイド画像36を生成する(ステップ303)。
基準特徴検出部183は、画像データ中の基準特徴部分を検出する(ステップ304)。この例では、基準特徴部分はマーカーである。特徴分析部184は、画像データ中のマーカー画像32のサイズを検出する(ステップ305)。特徴分析部184は、マーカー画像32のサイズから、情報処理装置101とマーカーとの間の距離を計算してもよい。
顔ガイド生成部185は、マーカー画像32とガイド画像33のサイズの比を用いて、最適距離にあるときの顔の画像サイズを計算する。そして、最適距離にあるときの顔画像の輪郭に対応したガイド画像35を生成する(ステップ306)。このとき、ステップ303で生成した基本顔ガイド画像36を修正(拡大または縮小)することでガイド画像35を生成してもよい。
誘導画像生成部186は、ガイド画像35および基本顔ガイド画像36を顔画像31に重畳して合成した画像を生成し(ステップ307)、ディスプレイ14は合成画像を、ユーザを誘導する誘導画像として表示する(ステップ308)。
誘導画像に従ってユーザが顔の位置および傾きを調整している間、特徴分析部184は、画像データ中のマーカー画像32のサイズを分析する(ステップ309)。特徴分析部184は、マーカー画像32のサイズが肌分析に適した距離(基準距離)のときのサイズ(ガイド画像33のサイズ)と一致するか否か評価する(ステップ310)。サイズが一致しない場合は、一致するまで分析を続ける。サイズが一致した場合に、カメラ10はユーザの顔の画像を撮像する(ステップ311)。このように、誘導画像に従ってユーザが顔の位置を調整することにより、肌分析に適した距離で撮像を行うことができる。
なお、ガイド画像35の生成は撮像の毎に行なう必要は無く、一旦ガイド画像35を生成した後は、そのガイド画像35をメモリ18Bに記憶しておいてもよい。次回の使用時は、その記憶したガイド画像35を読み出して表示することで、ガイド画像35を生成する処理を省略することができる。
また、ガイド画像35および基本顔ガイド画像36として、顔の輪郭に対応したガイド画像および基本顔ガイド画像を例示したが、顔の輪郭以外でもよく、例えば、眼、鼻、口等のうちの少なくとも一つに対応した形状のガイド画像であってもよい。ガイド画像は、例えば、眼、鼻、口の少なくとも一つの部位の周りを囲った形状を有していてもよい。
また、情報処理装置101と顔21との間の距離が最適距離に完全に一致した状態でのみ肌分析用の撮像を行なう必要は無く、肌分析に適した画像が得られる距離範囲であればよく、その範囲内に顔が位置したときに肌分析用の撮像を行なってもよい。
次に、マーカーを用いて距離を計算する方法を説明する。図8は、情報処理装置101とマーカーとの間の距離を計算する方法を説明する図である。情報処理装置101とマーカーとの間の距離は、例えば、カメラ10とマーカーとの間の距離を指す。
被写体の実際の長さをaとし、その実際の長さaの被写体を撮像して得られた画像上の被写体の長さをs1とする。また、カメラ10のレンズ中心から被写体へ伸びる直線で形成される視野角をd1とし、カメラ10と被写体との間の距離をxとする。
ここでは、被写体の実際の長さaは、マーカーの上下端(または左右端)の間の実際の長さとする。マーカーの実際の長さaは既知である。また、画像上の被写体の長さs1は、マーカーを撮像して得られた画像上のマーカー画像32の長さとする。視野角d1は、カメラ10のレンズ中心からマーカーの上下端(または左右端)へ伸びる直線で形成される角度とする。
マーカーがカメラ10に近い位置にあるとき(カメラ10とマーカーとの間の距離が短いとき)、画像上のマーカーの長さs1は大きくなり、また、視野角d1も大きくなる。また、マーカーがカメラ10から遠い位置にあるとき(カメラ10とマーカーとの間の距離が長いとき)、画像上のマーカーの長さs1は小さくなり、また、視野角d1も小さくなる。すなわち、画像上のマーカーの長さs1と、視野角d1とは比例関係にある。
画像上のマーカーの長さs1と視野角d1との換算関係は予め取得して記憶しておく。例えば、換算関係を、
d1=c×s1
と表す。ここでcは比例定数である。
カメラ10とマーカーとの間の距離x、マーカーの実際の長さa、視野角d1の関係は以下のように表される。
a/x=tan d1=tan (c×s1)
また、図8中の斜辺の長さを距離xとしたとき、距離x、長さa、視野角d1の関係は、
a/x=sin d1=sin (c×s1)
と表される。
また、マーカーの大きさが小さいときは、
c×s1=d1=a/x
x=a/(c×s1)
と表すことができる。
これらの関係式から、カメラ10とマーカーとの間の距離xを計算することができる。
このように計算により求めた距離xを用いて、最適距離に対応したガイド画像35を生成することも可能である。距離に基づいてガイド画像35を生成する処理の詳細は後述する。
次に、測距装置を備えた情報処理装置を説明する。図9は、測距装置11を備えた情報処理装置101を示す図である。図9に示す情報処理装置101は、図1に示す情報処理装置101に測距装置11を追加した構成になっている。測距装置11は、情報処理装置101とユーザの顔21との間の距離を測定する。
図10は、この例における制御装置18が備える処理回路180を示す図である。図11は、処理回路180の動作を説明するフローチャートである。処理回路180は、顔画像取得部181と、顔検出部182と、撮像距離取得部187と、距離評価部188と、顔ガイド生成部185と、誘導画像生成部186とを備える。マイクロコンピュータ18Aが処理回路180を兼ね、処理回路180の構成要素の処理をマイクロコンピュータ18Aが実行してもよい。
顔画像取得部181はカメラ10が撮像した画像データを取得し(ステップ401)、画像データを左右反転させる。顔検出部182は画像データ中の顔画像を検出する(ステップ402)。顔検出部182は、画像データ中の顔画像の大きさに対応した基本顔ガイド画像36を生成する(ステップ403)。図12は、基本顔ガイド画像36を示す図であり、顔画像31の大きさに対応したガイド画像になっている。
撮像距離取得部187は、測距装置11から距離データを取得する(ステップ404)。距離評価部188は、測定された距離と最適距離との比較を行なう(ステップ405)。
顔ガイド生成部185は、測定された距離と最適距離の比を用いて、最適距離にあるときの顔の画像サイズを計算する。そして、最適距離にあるときの顔画像の輪郭に対応したガイド画像35を生成する(ステップ406)。このとき、ステップ403で生成した基本顔ガイド画像36を修正(拡大または縮小)することでガイド画像35を生成してもよい。
ここで、図13、図14(a)および(b)を参照して、ガイド画像のサイズを計算する方法を説明する。
最適距離に対応したガイドのサイズは、概ねカメラ10と顔21との間の距離に反比例する。被写体の実際の長さをaとし、その実際の長さaの被写体を撮像して得られた画像上の被写体の長さをs1およびs2とする。また、カメラのレンズ中心から被写体へ伸びる直線で形成される視野角をd1およびd2とし、カメラ10と被写体との間の距離をxおよびyとする。
ここでは、被写体の実際の長さaは、ユーザの頭部の任意の部位同士の間の長さであり、例えば、ユーザの頭頂部から顎の下端までの長さとする。なお、ユーザの頭頂部から顎の下端までの長さは一例であり、これ以外にも、被写体の長さaとしては、額から顎までの長さ、左右の眼の間の長さ、眼から口までの長さ等、任意の部位同士の間の長さを採用することができる。
また、画像上の被写体の長さs1およびs2は、採用した部位同士間の画像上の長さである。視野角d1およびd2は、カメラのレンズ中心から採用した部位へ伸びる直線で形成される角度である。距離xおよびyは、カメラと採用した部位との間の距離である。ここで、距離xをカメラと採用した部位との間の現在の距離とし、距離yは肌分析に適した顔画像を得るのに最適な距離とする。
カメラ10と採用した部位との間の現在の距離x、長さa、視野角d1の関係は、
d1=sin-1(a/x)
または、
d1=tan-1(a/x)
と、表される。
カメラ10と採用した部位との間の最適距離y、長さa、視野角d2の関係は、
d2=sin-1(a/y)
または、
d2=tan-1(a/y)
と、表される。
また、
d1=a/x
d2=a/y
と表すこともできる。
画像上の被写体の長さと視野角とは比例関係にあるので、
s2/s1=d2/d1=x/y
s2=(x/y)×s1
と表すことができる。
長さs1を長さs2に変換して得られる顔画像のサイズが、最適距離yにおいて得られる顔画像のサイズに対応している。この長さs1を長さs2に変換して得られる顔画像からガイド画像35を生成することで、ユーザを最適距離yに誘導することができる。
例えば、ユーザの顔がカメラに近すぎる場合には、縮小した顔画像からガイド画像35を生成して、顔をカメラから遠ざける方向にユーザを誘導する。また、ユーザの顔がカメラから離れすぎている場合には、拡大した顔画像からガイド画像35を生成して、顔をカメラに近づける方向にユーザを誘導する。
誘導画像生成部186は、ガイド画像35を顔画像31に重畳して合成した画像を生成する(ステップ407)。
図15は、誘導画像の生成処理を示す図である。図15(a)は顔画像31を示し、図15(b)は基本顔ガイド画像36を示し、図15(c)はガイド画像35を示している。図15(d)に示すように、誘導画像生成部186は、顔画像31にガイド画像35を重畳して合成画像を生成する。ディスプレイ14は合成画像を、ユーザを誘導する誘導画像として表示する(ステップ408)。ガイド画像35は、例えば、ユーザの顔が撮像した画像の中心に配置されるように表示エリア16の中央部に表示する。誘導画像に従ってユーザが顔の位置を移動させることにより、図15(e)に示すように、顔画像31とガイド画像35とが一致し、最適距離で撮像を行うことができる。
誘導画像に従ってユーザが顔の位置および傾きを調整している間、撮像距離取得部187は、測距装置11から距離データを取得する(ステップ409)。距離評価部188は、測定された距離が肌分析に適した距離(基準距離)と一致するか否か評価する(ステップ410)。距離が一致しない場合は、一致するまで距離データを取得し続ける。距離が一致した場合に、カメラ10はユーザの顔の画像を撮像する(ステップ411)。このように、誘導画像に従ってユーザが顔の位置を調整することにより、肌分析に適した距離で撮像を行うことができる。
なお、情報処理装置101と顔21との間の距離が最適距離yに完全に一致した状態でのみ肌分析用の撮像を行なう必要は無く、肌分析に適した画像が得られる距離範囲であればよく、その範囲内に顔が位置したときに肌分析用の撮像を行なってもよい。
また、ガイド画像35の生成は撮像の毎に行なう必要は無く、一旦ガイド画像35を生成した後は、そのガイド画像35をメモリ18Bに記憶しておいてもよい。次回の使用時は、その記憶したガイド画像35を読み出して表示することで、ガイド画像35を生成する処理を省略することができる。
次に、図16および図17を参照して、顔の部位毎に距離を測定してガイド画像を生成する処理を説明する。
図16は、この例における処理回路180(図10)の動作を説明するフローチャートである。図17は、誘導画像の生成処理を示す図である。図17(a)は顔画像31を示しており、この例では前かがみの顔の画像になっている。図17(b)は前かがみの顔の画像から得た基本顔部位ガイド画像36を示している。図17(c)は、最適距離における真正面の顔画像に対応したガイド画像35aを示している。図17(d)は、顔画像31にガイド画像35aを重畳した合成画像を示している。顔が正面を向いている方が、上下左右のバランスが取れ、肌分析の精度を向上させることができるため、この例のガイドは、斜め方向を向いている顔が正面を向くように誘導する。この例では、ユーザの顔の基準部分としてユーザの顔の複数の部分を採用する。この複数の部分は、ユーザの顔の左右からそれぞれ一以上選択されてもよい。さらに、ユーザの顔の左右から同一数選択されてもよい。また、この複数の部分は、例えばユーザの鼻を基準とした顔の上下からそれぞれ一以上選択されてもよい。さらに、ユーザの鼻突を基準とした顔の上下から同一数選択されてもよい。なお、顔の上下は鼻根または人中などを基準としていてもよく、鼻突に限らない。
顔画像取得部181はカメラ10が撮像した画像データを取得し(ステップ501)、画像データを左右反転させる。顔検出部182は画像データ中の顔画像を検出する(ステップ502)。顔検出部182は、画像データ中の顔のそれぞれの部位の画像の大きさに対応した基本顔部位ガイド画像36を生成する(ステップ503)。図17(b)は基本顔部位ガイド画像36を示している。
測距装置11は、情報処理装置101から顔のそれぞれの部位の距離を測定する。撮像距離取得部187は、測距装置11から距離データを取得する(ステップ504)。距離評価部188は、測定された距離と最適距離との比較を行なう(ステップ505)。また、顔のそれぞれの部位の距離データを分析したり、部位間の距離を分析したりして、顔の傾きの度合いを推定する。
顔ガイド生成部185は、顔のそれぞれの部位毎に、最適距離にあるときのサイズを計算する。顔が傾いている場合には、傾きの度合いを用いて、顔が傾いていないとき(真正面を向いているとき)の顔画像を推定して、サイズと位置を計算する。そして、図17(c)に示すように、最適距離において顔が真正面を向いているときの画像に対応したガイド画像35aを生成する(ステップ506)。このとき、ステップ503で生成した基本顔部位ガイド画像36を修正(移動、拡大、縮小等)することでガイド画像35aを生成してもよい。また、この処理を、対象の全ての部位について行なう(ステップ507)。
対象の全ての部位に対応したガイド画像の生成が完了すると、図17(d)に示すように、誘導画像生成部186は、ガイド画像35aを顔画像31に重畳して合成した画像を生成し(ステップ508)、ディスプレイ14は合成画像を、ユーザを誘導する誘導画像として表示する(ステップ509)。
誘導画像に従ってユーザが顔の位置および傾きを調整している間、撮像距離取得部187は、測距装置11から距離データを取得する(ステップ510)。距離評価部188は、測定された距離が肌分析に適した距離(基準距離)と一致するか否か評価する(ステップ511)。距離が一致しない場合は、一致するまで距離データを取得し続ける。距離が一致した場合に、カメラ10はユーザの顔の画像を撮像する(ステップ512)。このように、誘導画像に従ってユーザが顔の位置および傾きを調整することにより、肌分析に適した距離で撮像を行うことができる。
なお、例えば、情報処理装置101から顔の左側にある基準部分の距離と、情報処理装置101から顔の右側にある基準部分の距離とを比較して所定距離以上の差があった場合に、ユーザの顔が正面を向いておらず斜め右または斜め左を向いていると判断し、ユーザに対して顔の向きの修正を促すメッセージ等をディスプレイ14に表示しても良い。すなわち、情報処理装置101から顔の左側にある基準部分の距離が、情報処理装置101から顔の右側にある基準部分の距離より所定距離以上短い場合には、ユーザが斜め右方向を向いていると判断し、ユーザに対して顔の向きを左方向へ修正するよう促すメッセージをディスプレイ14に表示する。これとは反対に、情報処理装置101から顔の右側にある基準部分の距離が、情報処理装置101から顔の左側にある基準部分の距離より所定距離以上短い場合には、ユーザが斜め左方向を向いていると判断し、ユーザに対して顔の向きを右方向へ修正するよう促すメッセージをディスプレイ14に表示する。
また、例えば、情報処理装置101から顔の上側にある基準部分の距離と、情報処理装置101から顔の下側にある基準部分の距離とを比較して所定距離以上の差があった場合に、ユーザの顔が正面を向いておらず斜め上方向または斜め下方向を向いていると判断し、ユーザに対して顔の向きの修正を促すメッセージ等をディスプレイ14に表示しても良い。すなわち、情報処理装置101から顔の上側にある基準部分の距離が、情報処理装置101から顔の下側にある基準部分の距離より所定距離以上短い場合には、ユーザが斜め下方向を向いていると判断し、ユーザに対して顔の向きを上向きに修正するよう促すメッセージをディスプレイ14に表示する。これとは反対に、情報処理装置101から顔の下側にある基準部分の距離が、情報処理装置101から顔の上側にある基準部分の距離より所定距離以上短い場合には、ユーザが斜め上方向を向いていると判断し、ユーザに対して顔の向きを下向きに修正するよう促すメッセージをディスプレイ14に表示する。
また、基準部分としてユーザの顔21に含まれる複数の部分を採用した場合は、情報処理装置101とユーザの顔21との間の距離を、情報処理装置101とユーザの顔21に含まれる複数の基準部分それぞれとの間の距離の平均値としてもよい。これにより、情報処理装置101と被写体であるユーザの顔21の間の距離を検出するにあたって、ユーザの顔21の凹凸の影響を軽減することができる。例えば、鼻の出っ張りまたは眼の窪みなどを基準部分とした場合に、情報処理装置101から顔21の肌の大部分を占める額および頬までの距離とは乖離した値が検出されることを防止できる。そのため、情報処理装置101と被写体であるユーザの顔21の間の距離を、基準距離へ精度よく近づけるガイド画像をディスプレイ14に表示可能となり、撮像した画像に基づく肌分析の精度を向上させることができる。
次に、図18から図20を参照して、表示エリア16に表示される画像の例を説明する。
図18(a)は、表示エリア16に表示される撮像前の初期画面の一例を示している。表示エリア16は、面積が大きいメイン画面70と、面積が小さいサブ画面72とを含む。初期画面では、メイン画面70に撮像した画像がリアルタイムで表示され、デジタルミラーとして機能している。サブ画面72には、例えば、時計や天気予報などの情報が表示されてもよい。
図18(b)は、撮像開始直前の画面を示している。メイン画面70には、例えばユーザの顔の位置を誘導するためのガイド画像35が表示されている。また、撮像のタイミングを示すマークや数字74が示されていてもよい。
また、例えば、サブ画面72の右側72Rには撮像された顔の画像がリアルタイムで表示され、左側72Lにカレンダーが表示されてもよい。カレンダーでは、例えば過去に情報処理装置101を用いて撮像を行った日の位置にマークなどが示されていてもよい。図18(b)に示す表示のあと、上述したように肌分析用の撮像が行われ、肌分析が行なわれる。
図18(c)および図18(d)は、肌分析終了後にディスプレイ14に表示される画面の一例を示している。メイン画面70には、カメラ10によって撮像される画像がリアルタイムで表示されている。サブ画面の右側72Rには算出された特徴指標が、例えばレーダーチャート82で示される。図では測定した肌領域全体の平均特徴指標が表示されている。また、左側72Lには測定時に撮像された顔の画像が示される。サブ画面72の上部80には、顔の位置を指定するメニューが表示され、左側部78には表示する内容や機能を切り替えるメニューが表示される。ユーザは、例えば、サブ画面72の上部80および左側部78に触れることによって、顔の特定の肌領域を表示させたり、表示する内容を変更したりすることができる。
図18(d)は、ユーザが指定した場所および指定した特徴指標がサブ画面72の右側72Rに表示されている例である。撮像された画像の一部がユーザの指定された位置で拡大されて表示されている。また、シミおよびシワの部分が、例えば赤い領域で示される。
図19および図20は、ディスプレイ14のサブ画面72に表示される情報の例を示している。例えば、図19(a)に示すように、サブ画面にカレンダーを表示してもよい。カレンダーには過去に測定をおこなった情報が示されており、例えばユーザがサブ画面の該当する情報に触れると過去の測定結果をメイン画面70に表示させることができる。図19(b)に示すように、この場合、さらにサブ画面72に、特徴指標のレーダーチャートを表示してもよい。また、図20(a)に示すように、肌分析の結果に基づく、肌の手入れ等の美容に関するアドバイス86を表示してもよい。また、図20(b)に示すように肌状態を改善するための化粧品や美容機器の情報88を表示してもよい。
なお、上記態様において説明された技術は、例えば、クラウドサービスにおいて実現されてもよい。例えば、撮像して取得した顔画像の分析および評価をクラウドサーバ上で行ってもよい。例えば、撮像して取得した顔画像の分析および評価は、以下のサービスの類型1から4のいずれの形態において行われてもよい。しかし、上記態様において説明された技術が実現されるクラウドサービスの類型はこれらに限られるものでない。
(サービスの類型1:自社データセンタ型クラウドサービス)
図21は、サービスの類型1(自社データセンタ型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。本類型では、サービスプロバイダ120がグループ100から情報を取得し、ユーザに対してサービスを提供する。グループ100は、例えば上述した情報処理装置101を所有する家庭であり、サービスプロバイダ120は、情報処理装置101が撮像して得た顔画像データを取得する。サービスプロバイダ120は、複数のグループ100から顔画像データを取得してもよい。本類型では、サービスプロバイダ120が、データセンタ運営会社の機能を有している。すなわち、サービスプロバイダ120が、ビッグデータを管理するクラウドサーバ203を保有している。したがって、データセンタ運営会社は存在しない。
本類型では、サービスプロバイダ120は、データセンタ(クラウドサーバ)203を運営及び管理している。また、サービスプロバイダ120は、オペレーティングシステム(OS)202及びアプリケーション201を管理する。サービスプロバイダ120は、サービスプロバイダ120が管理するOS202及びアプリケーション201を用いてサービスを提供する(矢印204)。例えば、サービスプロバイダ120は、顔画像の分析および評価を行い、その分析および評価の結果をユーザに提供する。
(サービスの類型2:IaaS利用型クラウドサービス)
図22は、サービスの類型2(IaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。ここで、IaaSとは、インフラストラクチャー・アズ・ア・サービスの略であり、コンピュータシステムを構築および稼動させるための基盤そのものを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社110が、データセンタ(クラウドサーバ)203を運営及び管理している。また、サービスプロバイダ120は、OS202及びアプリケーション201を管理する。データセンタ運営会社110は、少なくとも1つのグループ100から顔画像データを取得する。サービスプロバイダ120は、サービスプロバイダ120が管理するOS202及びアプリケーション201を用いてサービスを提供する(矢印204)。例えば、サービスプロバイダ120は、顔画像の分析および評価を行い、その分析および評価の結果をユーザに提供する。
(サービスの類型3:PaaS利用型クラウドサービス)
図23は、サービスの類型3(PaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。ここで、PaaSとは、プラットフォーム・アズ・ア・サービスの略であり、ソフトウェアを構築および稼動させるための土台となるプラットフォームを、インターネット経由のサービスとして提供するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社110は、OS202を管理し、データセンタ(クラウドサーバ)203を運営及び管理している。また、サービスプロバイダ120は、アプリケーション201を管理する。データセンタ運営会社110は、少なくとも1つのグループ100から顔画像データを取得する。サービスプロバイダ120は、データセンタ運営会社110が管理するOS202及びサービスプロバイダ120が管理するアプリケーション201を用いてサービスを提供する(矢印204)。例えば、サービスプロバイダ120は、顔画像の分析および評価を行い、その分析および評価の結果をユーザに提供する。
(サービスの類型4:SaaS利用型クラウドサービス)
図24は、サービスの類型4(SaaS利用型クラウドサービス)における情報管理システムが提供するサービスの全体像を示す図である。ここで、SaaSとは、ソフトウェア・アズ・ア・サービスの略である。SaaS利用型クラウドサービスは、例えば、データセンタ(クラウドサーバ)を保有しているプラットフォーム提供者が提供するアプリケーションを、データセンタ(クラウドサーバ)を保有していない会社又は個人などの利用者がインターネットなどのネットワーク経由で使用できる機能を有するクラウドサービス提供モデルである。
本類型では、データセンタ運営会社110は、アプリケーション201を管理し、OS202を管理し、データセンタ(クラウドサーバ)203を運営及び管理している。データセンタ運営会社110は、少なくとも1つのグループ100から顔画像データを取得する。サービスプロバイダ120は、データセンタ運営会社110が管理するOS202及びアプリケーション201を用いてサービスを提供する(矢印204)。例えば、サービスプロバイダ120は、取得した顔画像の分析および評価を行い、その分析および評価の結果をユーザに提供する。
以上、いずれのクラウドサービスの類型においても、サービスプロバイダ120がサービスを提供する。また、例えば、サービスプロバイダ又はデータセンタ運営会社は、OS、アプリケーション又はビックデータのデータベース等を自ら開発してもよいし、また、第三者に外注させてもよい。
本開示の技術は、情報処理装置の分野において特に有用である。
10 カメラ
11 測距装置
12 光源
14 ディスプレイ
16 表示エリア
18 制御装置
31 顔画像
32 マーカー画像
33、35 ガイド画像
36 基本顔ガイド画像
101 情報処理装置
102 クラウドサーバ

Claims (18)

  1. 画像を入力するカメラ及び前記カメラの画像入力側と同一側に表示面を有するディスプレイを有する情報処理装置を制御する制御方法であって、
    前記カメラから被写体の顔の画像を入力し、入力された前記画像を左右反転し、前記左右反転した画像を前記ディスプレイに表示する情報処理装置のコンピュータに、
    前記情報処理装置と前記被写体の顔に含まれる基準部分との間の距離を検出させ、
    前記被写体の顔の画像を評価するための基準距離と前記検出された距離との比率に応じた倍率を決定させ、
    前記決定された倍率に基づいて、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応した画像を、前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像として、前記ディスプレイに表示させる、制御方法。
  2. 前記基準距離と前記検出された距離との差異が所定範囲内になったと判断された場合、前記カメラを動作させて前記被写体の画像を撮像させる、請求項1に記載の制御方法。
  3. 前記情報処理装置は前記カメラの画像入力側と同一側に光の照射口を有する照明装置を備え、
    前記被写体の画像を撮像するときに、前記照明装置を動作させて前記被写体に光を照射させる、請求項2に記載の制御方法。
  4. 前記撮像させた画像は、前記被写体の顔の評価に用いられる画像である、請求項2に記載の制御方法。
  5. 前記ガイド画像は、前記被写体の顔の画像に重畳して前記ディスプレイに表示される、請求項1から4のいずれかに記載の制御方法。
  6. 前記少なくとも一部の部位に対応した画像は、前記少なくとも一部の部位の輪郭に対応した形状を有する、請求項1から5のいずれかに記載の制御方法。
  7. 前記少なくとも一部の部位の輪郭に対応した形状は、眼、鼻、口のうちの少なくとも一つに対応した形状を含む、請求項6に記載の制御方法。
  8. 前記少なくとも一部の部位に対応した画像は、前記被写体の顔の輪郭、又は前記被写体の顔に含まれる眼、鼻又は口の輪郭に対応した形状を有する、請求項1から5のいずれかに記載の制御方法。
  9. 前記基準部分は、前記被写体の顔に含まれる複数の部分であり、
    前記距離は、前記情報処理装置と前記被写体の顔に含まれる複数の基準部分それぞれとの間の平均距離である、請求項1から8のいずれかに記載の制御方法。
  10. 前記複数の部分は、前記被写体の顔の左右からそれぞれ一以上選択されている、請求項9に記載の制御方法。
  11. 前記複数の部分は、前記被写体の顔の所定の基準点の上下からそれぞれ一以上選択されている、請求項9に記載の制御方法。
  12. 前記拡大した画像に含まれる少なくとも一部の部位に対応した画像は、前記被写体の顔を前記情報処理装置に近づける方向に前記被写体を誘導するガイド画像であり、
    前記縮小した画像に含まれる少なくとも一部の部位に対応した画像は、前記被写体の顔を前記情報処理装置から遠ざける方向に前記被写体を誘導するガイド画像である、請求項1から11のいずれかに記載の制御方法。
  13. 前記ガイド画像は、前記検出された距離を前記基準距離に近づけるように前記被写体を誘導する画像である、請求項1から12のいずれかに記載の制御方法。
  14. 前記被写体の顔の画像の評価は、前記被写体の顔の肌分析を含む、請求項1から13のいずれかに記載の制御方法。
  15. 前記検出された距離は、前記情報処理装置が有するカメラと前記被写体の顔における前記基準部分との間の距離である、請求項1から14のいずれかに記載の制御方法。
  16. 画像を入力するカメラと、
    前記カメラの画像入力側と同一側に表示面を有するディスプレイと、
    前記カメラを用いて入力した被写体の顔の画像を左右反転し、前記左右反転した画像を前記ディスプレイに表示するコントローラと、
    を具備した情報処理装置であって、
    前記コントローラは、
    前記情報処理装置と前記被写体の顔の画像に含まれる基準部分との間の距離を検出し、
    前記被写体の顔の画像を評価するための基準距離と前記検出された距離との比率に応じた倍率を決定し、
    前記決定された倍率に基づいて、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応した画像を、前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像として、前記ディスプレイに表示させる、情報処理装置。
  17. 画像を入力するカメラ及び前記カメラの画像入力側と同一側に表示面を有するディスプレイを有する情報処理装置を制御するプログラムであって、
    前記カメラから被写体の顔の画像を入力し、入力された前記画像を左右反転し、前記左右反転した画像を前記ディスプレイに表示する情報処理装置のコンピュータに、
    前記情報処理装置と前記被写体の顔に含まれる基準部分との間の距離を検出させ、
    前記被写体の顔の画像を評価するための基準距離と前記検出された距離との比率に応じた倍率を決定させ、
    前記決定された倍率に基づいて、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応した画像を、前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像として、前記ディスプレイに表示させる、プログラム。
  18. 画像を入力するカメラ及び前記カメラの画像入力側と同一側に表示面を有するディスプレイを有する情報処理装置を制御する制御方法であって、
    前記カメラから被写体の顔の画像を入力し、入力された前記画像を左右反転し、前記左右反転した画像を前記ディスプレイに表示する情報処理装置のコンピュータに、
    前記カメラと前記被写体の顔に含まれる基準部分との間の距離を検出させ、
    前記情報処理装置と前記被写体との間の距離を変更する方向に前記被写体を誘導するガイド画像であって、前記左右反転した顔の画像を拡大又は縮小した画像に含まれる少なくとも一部の部位に対応したガイド画像を前記ディスプレイに表示させ、
    前記検出した距離が前記被写体の顔の画像を評価するための基準距離よりも小さいと判断した場合は、縮小した顔画像の少なくとも一部の部位に対応したガイド画像を前記ディスプレイに表示させ、
    前記検出した距離が前記被写体の顔の画像を評価するための基準距離よりも大きいと判断した場合は、拡大した顔画像の少なくとも一部に対応したガイド画像を前記ディスプレイに表示させる、制御方法。
JP2015528137A 2013-07-22 2014-07-16 情報処理装置および情報処理装置の制御方法 Active JP6373265B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2013151759 2013-07-22
JP2013151759 2013-07-22
PCT/JP2014/003772 WO2015011898A1 (ja) 2013-07-22 2014-07-16 情報処理装置および情報処理装置の制御方法

Publications (2)

Publication Number Publication Date
JPWO2015011898A1 JPWO2015011898A1 (ja) 2017-03-02
JP6373265B2 true JP6373265B2 (ja) 2018-08-15

Family

ID=52392963

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015528137A Active JP6373265B2 (ja) 2013-07-22 2014-07-16 情報処理装置および情報処理装置の制御方法

Country Status (5)

Country Link
US (1) US9998654B2 (ja)
EP (1) EP3026886B1 (ja)
JP (1) JP6373265B2 (ja)
CN (1) CN105393528B (ja)
WO (1) WO2015011898A1 (ja)

Families Citing this family (15)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
USD781318S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9934222B2 (en) 2014-04-22 2018-04-03 Google Llc Providing a thumbnail image that follows a main image
USD781317S1 (en) 2014-04-22 2017-03-14 Google Inc. Display screen with graphical user interface or portion thereof
US9972121B2 (en) 2014-04-22 2018-05-15 Google Llc Selecting time-distributed panoramic images for display
USD780777S1 (en) 2014-04-22 2017-03-07 Google Inc. Display screen with graphical user interface or portion thereof
US9369625B2 (en) * 2014-08-12 2016-06-14 Kodak Alaris Inc. System for producing compliant facial images for selected identification documents
AU2016100219A4 (en) 2015-03-17 2016-04-14 Bissell Inc. Extraction cleaner and cleanout tool for the same
JP6872742B2 (ja) * 2016-06-30 2021-05-19 学校法人明治大学 顔画像処理システム、顔画像処理方法及び顔画像処理プログラム
JP7139638B2 (ja) * 2018-03-22 2022-09-21 カシオ計算機株式会社 報知装置、報知方法及び報知プログラム
KR102343251B1 (ko) * 2018-04-13 2021-12-27 샤넬 파르퓜 보트 의도된 사용자를 위한 화장품의 선택 방법
JP7218614B2 (ja) * 2019-02-27 2023-02-07 沖電気工業株式会社 画像診断システム、画像診断装置、および画像診断方法
JP7317528B2 (ja) * 2019-03-13 2023-07-31 キヤノン株式会社 画像処理装置、画像処理システムおよび制御方法
JP7023529B2 (ja) * 2019-09-30 2022-02-22 B-by-C株式会社 美容促進装置、美容促進方法、および美容促進プログラム
NL2024783B1 (en) * 2020-01-29 2021-09-10 Symae Tech Holding B V A face imaging device comprising a casing defining an opening for a face of a person to be imaged, wherein in the interior of the casing light sources and reflectors are arranged.
WO2023126772A1 (en) * 2021-12-30 2023-07-06 Gentex Corporation Authentication alignment system

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7483733B2 (en) * 1999-07-26 2009-01-27 Cardiosense, Ltd. Non-invasive method and apparatus to detect and monitor early medical shock, and related conditions
US6679830B2 (en) * 2001-02-06 2004-01-20 Hill-Rom Services, Inc. Infant incubator with non-contact sensing and monitoring
US6952488B2 (en) * 2001-08-27 2005-10-04 Carnegie Mellon University System and method for object localization
US7872670B2 (en) * 2002-04-22 2011-01-18 Sanyo Electric Co., Ltd. Camera performing photographing in accordance with photographing mode depending on object scene
US7402167B2 (en) * 2003-03-03 2008-07-22 Mikhail Nemenov Portable laser and process for producing controlled pain
US7233693B2 (en) 2003-04-29 2007-06-19 Inforward, Inc. Methods and systems for computer analysis of skin image
JP4257508B2 (ja) 2003-06-09 2009-04-22 富士フイルム株式会社 電子カメラ
JP4314567B2 (ja) * 2003-12-04 2009-08-19 カシオ計算機株式会社 撮影装置および撮影プログラム
US20050212950A1 (en) * 2004-03-26 2005-09-29 Chinon Kabushiki Kaisha Focal length detecting method, focusing device, image capturing method and image capturing apparatus
JP2005284225A (ja) 2004-03-26 2005-10-13 Ichiro Yasuhara 証明写真撮影用カメラ及びガイド
JP2005292542A (ja) * 2004-04-01 2005-10-20 Matsushita Electric Ind Co Ltd 目画像撮像装置および携帯端末装置
JP2006203841A (ja) * 2004-12-24 2006-08-03 Sharp Corp 画像処理装置、カメラ装置、画像出力装置、画像処理方法、色補正処理プログラムおよび可読記録媒体
JP4793179B2 (ja) 2005-11-14 2011-10-12 オムロン株式会社 認証装置及び携帯端末
US20070217199A1 (en) * 2006-03-17 2007-09-20 Light Dimensions, Inc. Light-based dermal enhancing apparatus and methods of use
JP4264660B2 (ja) * 2006-06-09 2009-05-20 ソニー株式会社 撮像装置、および撮像装置制御方法、並びにコンピュータ・プログラム
KR100851977B1 (ko) * 2006-11-20 2008-08-12 삼성전자주식회사 가상 평면을 이용하여 전자 기기의 사용자 인터페이스를제어하는 방법 및 장치.
US20080136958A1 (en) * 2006-12-11 2008-06-12 Pentax Corporation Camera having a focus adjusting system and a face recognition function
US20080294012A1 (en) * 2007-05-22 2008-11-27 Kurtz Andrew F Monitoring physiological conditions
US20090015702A1 (en) * 2007-07-11 2009-01-15 Sony Ericsson Communicatins Ab Enhanced image capturing functionality
KR101528895B1 (ko) * 2008-03-18 2015-06-15 톰슨 라이센싱 관심 특성 색 모델 변수의 적응성 추정을 위한 방법 및 장치
JP5206516B2 (ja) 2009-03-13 2013-06-12 株式会社デンソー 撮影補助装置、プログラムおよび撮影システム
JP2012010162A (ja) * 2010-06-25 2012-01-12 Kyocera Corp カメラ装置
CN103118647B (zh) * 2010-09-22 2016-04-06 松下知识产权经营株式会社 运动支援***
KR101231068B1 (ko) 2010-10-07 2013-03-11 (주)아이리스아이디 생체 정보 수집 장치 및 방법
CN103081455B (zh) * 2010-11-29 2017-03-08 快图有限公司 从手持设备所捕获的多个图像进行肖像图像合成
JP5822545B2 (ja) * 2011-06-09 2015-11-24 キヤノン株式会社 画像処理装置、画像処理装置の制御方法、およびプログラム
CN103105234B (zh) * 2012-01-12 2016-05-11 杭州美盛红外光电技术有限公司 热像装置和热像规范拍摄方法
US9716842B1 (en) * 2013-06-19 2017-07-25 Amazon Technologies, Inc. Augmented reality presentation
EP3108392A1 (en) * 2014-02-18 2016-12-28 Tria Beauty, Inc. Internet connected dermatological devices and systems

Also Published As

Publication number Publication date
EP3026886A1 (en) 2016-06-01
US9998654B2 (en) 2018-06-12
EP3026886B1 (en) 2021-01-06
CN105393528B (zh) 2018-11-02
CN105393528A (zh) 2016-03-09
JPWO2015011898A1 (ja) 2017-03-02
US20160156840A1 (en) 2016-06-02
WO2015011898A1 (ja) 2015-01-29
EP3026886A4 (en) 2016-07-06

Similar Documents

Publication Publication Date Title
JP6373265B2 (ja) 情報処理装置および情報処理装置の制御方法
JP6750504B2 (ja) 情報処理装置、情報処理方法、およびプログラム
US8878922B2 (en) Video image information processing apparatus and video image information processing method
JP5080492B2 (ja) コンピュータを利用したシステム
RU2636682C2 (ru) Система идентификации интерфейса пациента
CN103106401A (zh) 具有人机交互机制的移动终端虹膜识别装置和方法
JP6722878B2 (ja) 顔認証装置
EP2894851B1 (en) Image processing device, image processing method, program, and computer-readable storage medium
JP2016031761A5 (ja)
KR101500651B1 (ko) 이미지를 이용한 신장 측정 방법 및 이동 로봇 장치
KR20090124657A (ko) 얼굴 분석 서비스 제공 방법 및 장치
JP2017194301A (ja) 顔形状測定装置及び方法
JP2019126657A (ja) 検出装置、及び検出プログラム
KR20110032927A (ko) 피트니스 장치, 피트니스 시스템 및 피트니스 방법
JP6793302B2 (ja) 三次元計測装置
JPH1091325A (ja) 視線検出システム
JP4354067B2 (ja) 虹彩画像入力装置
JP5249743B2 (ja) 情報表示装置
JP2003079577A (ja) 視線測定装置及びその方法と、視線測定プログラム及びそのプログラムを記録した記録媒体
JP2007249366A (ja) 髪型選択支援装置および方法
US11927831B2 (en) Method for determining at least one geometrico-morphological parameters of a subject in a natural posture for determining a vision correction equipment
RU2618980C1 (ru) Способ контроля изменений дефектов кожи лица и устройство для его осуществления
JP2011118767A (ja) 表情モニタリング方法および表情モニタリング装置
JP7323234B2 (ja) ガイド方法
JP5299632B2 (ja) 個人認証装置、プログラム及び記録媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20170123

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180327

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180613

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180626

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180717

R150 Certificate of patent or registration of utility model

Ref document number: 6373265

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150