JP2014120005A - 肌形状生成装置、肌形状生成方法、及び肌形状生成プログラム - Google Patents

肌形状生成装置、肌形状生成方法、及び肌形状生成プログラム Download PDF

Info

Publication number
JP2014120005A
JP2014120005A JP2012275166A JP2012275166A JP2014120005A JP 2014120005 A JP2014120005 A JP 2014120005A JP 2012275166 A JP2012275166 A JP 2012275166A JP 2012275166 A JP2012275166 A JP 2012275166A JP 2014120005 A JP2014120005 A JP 2014120005A
Authority
JP
Japan
Prior art keywords
skin
shape
pore
generation
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2012275166A
Other languages
English (en)
Inventor
Naruhito Toyoda
成人 豊田
Hitomi Otaka
瞳 大▲高▼
Hiromi Teramoto
裕美 寺本
Takayuki Ito
貴之 伊藤
Mami Inomata
真美 猪股
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Shiseido Co Ltd
Ochanomizu University
Original Assignee
Shiseido Co Ltd
Ochanomizu University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shiseido Co Ltd, Ochanomizu University filed Critical Shiseido Co Ltd
Priority to JP2012275166A priority Critical patent/JP2014120005A/ja
Publication of JP2014120005A publication Critical patent/JP2014120005A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Image Generation (AREA)

Abstract

【課題】肌画像から三次元の肌形状を表示する画像を容易に生成する。
【解決手段】肌画像から肌形状に関する所定のパラメータを取得するパラメータ取得手段と、前記パラメータ取得手段により得られたパラメータを用いて、予め設定された皮膚領域に対して所定形状のポリゴンを生成するポリゴン生成手段と、前記ポリゴン生成手段により得られたポリゴン形状に基づくパラメータ情報により、三次元の肌形状を表示する画像を生成する画像生成手段とを有することにより上記課題を解決する。
【選択図】図1

Description

本願は、肌形状生成装置、肌形状生成方法、肌形状生成プログラムに関する。
従来では、CG(Computer Graphics)モデル等を用いて、例えば人の顔形状を再現する手法が知られている。この場合、肌のミクロの形状であるキメや毛穴等の形状状態は、あたかも肌の凹凸感が感じられるような二次元画像を作成し、顔形状ポリゴンに貼り付けるテクスチャマッピングによって表現されている(例えば、非特許文献1参照)。
P.S.Heckbert,Survey of Texture Mapping,IEEE Computer Graphics and Applications,Volume 6,Issue 11,pages56−67,1986.
しかしながら、上述したような従来手法では、実際の肌の立体的な凹凸までは再現されていない。このため、例えばCGモデルを使って顔の光反射シミュレーション等を行う場合には、毛穴の大きさや皮溝深さの変化の影響は考慮されないことが多い。
1つの側面では、本発明は、上記の課題に鑑みてなされたものであり、肌画像から三次元の肌形状を表示する画像を容易に生成することを目的とする。
一態様における肌形状生成装置は、肌画像から肌形状に関する所定のパラメータを取得するパラメータ取得手段と、前記パラメータ取得手段により得られたパラメータを用いて、予め設定された皮膚領域に対して所定形状のポリゴンを生成するポリゴン生成手段と、前記ポリゴン生成手段により得られたポリゴン形状に基づくパラメータ情報により、三次元の肌形状を表示する画像を生成する画像生成手段とを有することを特徴とする。
なお、本発明の構成要素、表現又は構成要素の任意の組み合わせを、方法、装置、システム、コンピュータプログラム、記録媒体、データ構造等に適用したものも本発明の態様として有効である。
肌画像から三次元の肌形状を表示する画像を容易に生成することを可能とする。
本実施形態に係る肌形状生成装置の機能構成の一例を示す図である。 肌形状生成処理が実現可能なハードウェア構成の一例を示す図である。 本実施形態に係る肌形状生成処理の一例を示すフローチャートである。 ポリゴンを構成する頂点を生成する処理について説明するための図である。 毛穴、皮溝上、及び皮丘の内部に頂点を生成する処理を説明するための図である。 本実施形態に係る毛穴形状取得処理の一例を示すフローチャートである。 本実施形態に係る皮溝形状取得処理の一例を示すフローチャートである。 マッチングにより各形状を取得する方法を説明するための図である。 マッチングにより各形状が取得された例を説明するための図である。 毛穴及び皮溝の深さに関する情報を取得する方法を説明するための図である。 三次元の肌形状を表示する画像の一例を示す図である。
<本発明について>
本発明は、例えば撮影された肌画像から、毛穴や皮溝等の肌形状に関するパラメータを取得し、取得したパラメータにより得られた毛穴や皮溝等の形状に基づき肌形状ポリゴンを生成して、肌の立体的な凹凸を表現する三次元の肌形状を表示する画像を生成する。
<肌形状生成装置:機能構成例>
図1は、本実施形態に係る肌形状生成装置の機能構成の一例を示す図である。図1に示す肌形状生成装置10は、入力手段11と、出力手段12と、記憶手段13と、画像取得手段14と、画像変換手段15と、パラメータ取得手段16と、毛穴生成手段17と、領域分割手段18と、皮丘皮溝決定手段19と、ポリゴン生成手段20と、画像生成手段21と、制御手段22とを有するように構成される。
入力手段11は、例えば肌形状生成装置10を使用するユーザ等から肌形状生成処理に関する各種指示の開始/終了、設定等の入力を受け付ける。なお、入力手段11は、例えばPC(Personal Computer)等の汎用のコンピュータであればキーボードやマウス等のポインティングデバイスである。また、入力手段11は、例えば音声等により上述した入力が可能なマイク等の音声入力デバイスであっても良い。
出力手段12は、入力手段11により入力された内容や、入力内容に基づいて実行された内容等の出力を行う。なお、出力手段12は、例えばディスプレイやスピーカ等である。出力手段12は、プリンタ等の印刷デバイスを有していても良い。
なお、上述した入力手段11と出力手段12とは、例えば肌形状生成装置10がスマートフォンやタブレット端末等のような場合には、例えばタッチパネルのように入出力一体型の構成であっても良い。
記憶手段13は、本実施形態において必要な各種情報を記憶する。具体的には、本実施形態における肌形状生成処理を実行するための各種プログラムや各種設定情報等を記憶する。また、記憶手段13は、毛穴の形状を表す半径の平均、深さの平均、毛穴の位置の乱雑度、毛穴内部のポリゴンの細かさ等のパラメータ、皮丘の形状を表す高さの平均、皮丘内部のポリゴンの細かさ等のパラメータ、及び皮溝の形状を表す幅の平均、深さの平均、幅及び深さの角度依存性(基準位置に対する向き)、皮溝周りのポリゴンの細かさ等のパラメータ等を記憶する。
また、記憶手段13は、例えばポリゴンのサイズ(例えば、三角形ポリゴンの1辺の長さの目安)等のパラメータを記憶する。なお、記憶手段13は、上述した各種情報を必要に応じて所定のタイミングで書き込んだり、読み出したりすることが可能である。
ここで、記憶手段13は、上述したような多種の情報の集合物であり、例えばキーワード等を用いて検索し、抽出可能な体系的に構成されているデータベースとしての機能も有していても良い。更に、記憶手段13に記憶される情報は、例えば通信ネットワークを介して外部装置から取得しても良い。
画像取得手段14は、例えば所定の光源により被写体の顔の所定部位に照明を当てて、カメラ等により撮影された肌画像を取得する。なお、撮影する際には、撮影する画像の内容に応じて、例えば画像サイズや、使用する光源の種類や位置、数等を設定することが可能である。
画像変換手段15は、画像取得手段14により得られた肌画像を、例えば白黒の2値画像に変換する。画像変換手段15は、画像取得手段14により得られた肌画像のRGB値(各々0以上255以下)の総計値に対する所定の閾値や、輝度分布から統計処理によって求めた値を閾値として2値画像に変換する。
パラメータ取得手段16は、画像取得手段14により得られた肌画像から肌形状に関する所定のパラメータを取得する。例えば、パラメータ取得手段16は、画像変換手段15により得られた2値画像から毛穴や皮溝部分を抽出する。
パラメータ取得手段16は、例えば想定される毛穴の領域又は形状を有する円、楕円、三角形等の複数のサイズのテンプレートを用いて2値画像上を走査することにより毛穴に対応する部分を抽出する。また、パラメータ取得手段16は、例えば皮溝の方向を特定するための線が引かれたテンプレートを用いて、上述した2値画像上を走査することにより皮溝に対応する部分を抽出する。パラメータ取得手段16は、上述した毛穴や皮溝のテンプレートマッチングにより、毛穴の半径の平均や、皮溝の基準位置に対する方向(角度依存性を含む)及び皮溝の幅の平均等の情報を取得する。
また、パラメータ取得手段16は、画像取得手段14により得られた肌画像から、上述のように抽出された毛穴及び皮溝に対応する部分の濃度等の情報を取得し、毛穴及び皮溝の深さに関する情報を取得する。なお、パラメータ取得手段16は、上述のように得られた肌形状の各パラメータを記憶手段13等に記憶させると良い。
毛穴生成手段17は、パラメータ取得手段16により得られた毛穴の半径の平均、毛穴の深さの平均等の情報を用いて、予め設定された肌領域に対して複数の毛穴を生成する。なお、毛穴生成手段17は、例えば肌領域に所定の分布(格子状等)で毛穴を配置して生成する場合、生成した各々の毛穴の中心座標値に所定の乱数を加算することで、毛穴の配置に乱雑性を加えても良い。
また、毛穴生成手段17は、生成した毛穴の半径の平均、深さの平均等に対して所定の乱数を加算することで乱雑性を加えても良い。毛穴生成手段17は、上述のように生成した毛穴の形状等の情報を記憶手段13等に記憶させると良い。
領域分割手段18は、毛穴生成手段17により生成された毛穴のうち、隣接する毛穴の中心点を連結させて肌領域を分割する。領域分割手段17は、例えばDelaunay三角メッシュアルゴリズム等を用いて、複数の毛穴のうち、隣接する3つの毛穴を連結することで得られる三角形領域により、肌領域を分割することが可能である。なお、本実施形態においては、三角形に限定されるものではなく、例えば四角形等に分割してもよい。
例えば、領域分割手段18によって形成された肌領域の三角形は、各辺を皮溝とし、各辺に囲まれた三角形の1つひとつを皮丘とする。また、皮溝は、毛穴間を結ぶ線分により形成される。
皮丘皮溝決定手段19は、パラメータ取得手段16により得られた皮溝の基準位置に対する方向、皮溝の幅の平均、皮溝の深さの平均等の情報を用いて、領域分割手段18により得られた皮丘及び皮溝の形状を具体的に決定する。皮丘皮溝決定手段19は、例えば皮溝の幅の平均、深さの平均、皮丘の高さの平均に対して所定の乱数を設定しても良い。皮丘皮溝決定手段19は、上述のように決定した皮丘や皮溝の形状等の情報を記憶手段13等に記憶させると良い。
ポリゴン生成手段20は、毛穴生成手段17により生成された毛穴、及び皮丘皮溝決定手段19により決定された皮丘、皮溝の各形状を、更に細かい三角形群であるポリゴンに分割する。例えば、ポリゴン生成手段19は、毛穴生成手段17により生成された毛穴の内部の中心位置に頂点を生成し、毛穴の外周上に所定間隔で頂点を生成する。また、ポリゴン生成手段20は、毛穴の外周よりも内側に、毛穴の深さと半径に基づいて同心円を生成し、同心円上に所定間隔で頂点を生成しても良い。
また、例えば、ポリゴン生成手段20は、皮丘皮溝決定手段19により決定された皮溝上に所定間隔で頂点を生成する。ここで、ポリゴン生成手段20は、毛穴の外周から所定間隔おいて、皮溝上に頂点を生成すると良い。
また、例えば、ポリゴン生成手段20は、皮丘皮溝決定手段16により決定された皮丘内に所定間隔で頂点を生成する。ここで、ポリゴン生成手段20は、毛穴の外周、及び皮溝から所定間隔をおいて、皮丘内に頂点を生成し、例えば皮丘の三角形の重心が一番高くなる部分に頂点を生成するとよい。
ポリゴン生成手段20は、上述のように生成された毛穴の頂点、皮溝上の頂点、皮丘上の頂点を、Delaunay三角メッシュアルゴリズム等を用いて連結し、肌領域上で毛穴、皮溝、皮丘の形状を更に細かい三角群(ポリゴン)に分割して、肌形状ポリゴンを生成する。ポリゴン生成手段20は、上述のように生成した肌形状ポリゴンの情報を記憶手段13等に記憶させると良い。
画像生成手段21は、ポリゴン生成手段20により得られた肌形状ポリゴンに基づくパラメータ情報により、三次元の肌形状をCG等により表示するための画像を生成する。これにより、出力手段12の画面上に、肌画像に対応する肌の立体的な凹凸を表現した三次元の肌形状を表示して、ユーザ等に提示することが可能となる。なお、画像生成手段21は、生成した三次元の肌形状の画像を記憶手段13に記憶させたり、通信ネットワーク等を介して送受信手段により外部装置等に送信させたりしても良い。
制御手段22は、肌形状生成装置10の各構成全体の制御を行う。例えば、制御手段22は、パラメータ取得、毛穴生成、領域分割、皮丘皮溝決定、ポリゴン生成、画像生成における処理等のうち少なくとも1つを制御する。
<肌形状生成装置10:ハードウェア構成例>
ここで、上述した肌形状生成装置10の各機能をコンピュータに実行させる実行プログラム(肌形状生成プログラム)を生成し、例えば汎用のPC、サーバ等にインストールすることにより、本実施形態における肌形状生成処理等を実現することが可能となる。
図2は、肌形状生成処理が実現可能なハードウェア構成の一例を示す図である。図2におけるコンピュータ本体は、入力装置31と、出力装置32と、ドライブ装置33と、補助記憶装置34と、メモリ装置35と、各種制御を行うCPU(Central Processing Unit)36と、ネットワーク接続装置37とを有するよう構成され、これらはシステムバスBで相互に接続されている。
入力装置31は、例えばユーザ等が操作するキーボードやマウス等のポインティングデバイス、マイク等の音声入力デバイス等を有し、ユーザ等からのプログラムの実行等、各種操作信号を入力する。
出力装置32は、本実施形態に係る処理を行うコンピュータ本体を操作するのに必要な各種ウィンドウやデータ等を表示するディスプレイを有し、CPU36が実行する制御プログラムの実行経過や結果等を表示する。
ここで、本発明においてコンピュータ本体にインストールされる実行プログラムは、例えばUSB(Universal Serial Bus)メモリやCD−ROM等の可搬型の記録媒体38等により提供される。記録媒体38は、ドライブ装置33にセット可能であり、記録媒体38に含まれる実行プログラムが、記録媒体38からドライブ装置33を介して補助記憶装置34にインストールされる。
補助記憶装置34は、ハードディスク等のストレージ手段であり、本発明における実行プログラムやコンピュータに設けられた制御プログラム等を記憶し、必要に応じて入出力を行う。
メモリ装置35は、CPU36により補助記憶装置34から読み出された実行プログラム等を格納する。なお、メモリ装置35は、ROM(Read Only Memory)やRAM(Random Access Memory)等からなる。なお、上述した補助記憶装置34やメモリ装置35は、1つの記憶装置として一体型に構成されていてもよい。
CPU36は、OS(Operating System)等の制御プログラム、及びメモリ装置35に格納されている実行プログラムに基づいて、各種演算や各ハードウェア構成部とのデータの入出力等、コンピュータ全体の処理を制御することで、本実施形態に係る肌形状生成処理を実現する。なお、プログラム実行中に必要な各種情報等は、補助記憶装置34から取得し、実行結果等を格納しても良い。
ネットワーク接続装置37は、インターネットやLAN(Local Area Network)等に代表される通信ネットワーク等と接続することにより、実行プログラムを通信ネットワークに接続されている外部装置等から取得したり、プログラムを実行することで得られた実行結果又は本実施形態における実行プログラム自体を外部装置等に提供したりする。
上述したハードウェア構成により、本実施形態に係る肌形状生成処理を実行することが可能となる。また、実行プログラムをインストールすることにより、汎用のパーソナルコンピュータ等で本実施形態における肌形状生成処理を容易に実現することが可能となる。
<肌形状生成処理手順>
図3は、本実施形態に係る肌形状生成処理の一例を示すフローチャートである。図3に示すように、肌形状生成装置10は、画像取得手段14により肌画像を取得する(S10)。ここで、画像取得手段14により取得される肌画像は、例えば被写体の顔の所定部位を撮影した画像である。
次に、肌形状生成装置10は、画像変換手段15により、S10の処理で取得した肌画像を、例えば白黒の2値画像に変換する(S11)。ここで、画像変換手段15は、例えば肌画像のRGB値の総計値に対する所定の閾値や、輝度分布から統計処理によって求めた値を閾値として2値画像に変換すると良い。
次に、肌形状生成装置10は、パラメータ取得手段16により、S10の処理で取得した肌画像、及びS11の処理で変換した2値画像から肌形状に関する所定のパラメータを取得する(S12)。なお、パラメータ取得手段16により実行される具体的な処理については後述する。
次に、肌形状生成装置10は、毛穴生成手段17により、S12の処理で取得した毛穴に関するパラメータを用いて、予め設定された肌領域に毛穴を生成する(S13)。ここで、毛穴生成手段17は、予め設定した肌領域に所定の分布で毛穴を生成すると良い。
次に、肌形状生成装置10は、領域分割手段18により、S13の処理で生成された毛穴のうち、隣接する毛穴の中心点を連結させて肌領域を分割する(S14)。
次に、肌形状生成装置10は、皮丘皮溝決定手段19により、S12の処理で取得した皮溝に関するパラメータを用いて、S14の処理に得られた皮丘及び皮溝の形状を決定する(S15)。
次に、肌形状生成装置10は、ポリゴン生成手段20により、S13〜S15の処理で形成された毛穴、皮丘、皮溝の各形状を立体的に表現するため、更に細かい三角形群(ポリゴン)に分割する三角ポリゴンを生成する(S16)。これにより、肌形状ポリゴンが生成される。
次に、肌形状生成装置10は、画像生成手段21により、S16の処理で生成された肌形状ポリゴンに基づくパラメータ情報を用いて、例えば画面上に三次元の肌形状を表示する画像を生成する(S17)。
次に、肌形状生成装置10は、S17の処理で得られた各種パラメータを記憶手段13に記憶する(S18)。
次に、肌形状生成装置10は、処理を終了するか否か判断し(S19)、処理が終了していないと判断した場合(S19において、NO)、S10の処理に戻る。また、処理が終了したと判断した場合には(S19において、YES)、処理を終了する。
<S13〜S15の処理について>
ここで、上述したS13〜S15の処理について具体的に説明する。S13〜S15の処理(パターン生成処理)は、例えば本出願人により出願された特開2011−161105号公報等に示す手法等を用いると良い。
具体的には、本実施形態において、毛穴生成処理(S13)は、予め設定した肌領域に、所定の分布(例えば、格子状)で配置された毛穴を生成し、隣接する毛穴同士を直線で結ぶことで得られる三角形の集合を構成するパターンにより、毛穴を生成する。
ここで、毛穴生成処理は、パラメータ取得処理で得られた毛穴の半径の平均、深さの平均に基づき毛穴を生成する。また、毛穴生成処理は、毛穴の半径の平均、深さの平均、及び毛穴の位置(配置)に対して所定の乱数を加算することで乱雑性を加えても良い。
例えば、毛穴生成処理は、生成した各々の毛穴の中心座標値に所定の乱数を加算することで、毛穴の配置に乱雑性を加えると良い。なお、毛穴生成処理で、毛穴の半径の平均、深さの平均、配置に対して加算する所定の乱数の値の具体例については、例えば上述した特開2011−161105号公報に記載された手法を用いることができるが、これに限定されるものではない。
次に、領域分割処理(S14)は、例えばDelaunay三角メッシュアルゴリズム等を用いて、毛穴生成処理により生成された毛穴の各中心点を、隣接する毛穴同士で直線を用いて連結するパターンを生成することにより、肌領域を三角形の集合に分割する。ここで、形成された肌領域の三角形は、各辺を皮溝とし、各辺に囲まれた三角形のそれぞれを皮丘とする。皮溝は、毛穴間を結ぶ線分により形成される。
次に、皮丘皮溝決定処理(S15)は、形成された皮丘及び皮溝の形状を決定する。皮丘皮溝決定処理は、パラメータ取得処理で得られた皮溝の幅の平均、深さの平均に基づき皮溝の形状を決定するとともに、例えば予め設定した所定の値等を用いて皮丘の形状を決定する。
また、皮丘皮溝決定処理は、皮溝の幅の平均、皮溝の深さの平均、皮丘の高さに対して所定の乱数を加算することで乱雑性を加えても良い。なお、皮丘皮溝決定処理で、皮丘の高さ、皮溝の幅、皮溝の深さに対して加算する所定の乱数の値の具体例については、例えば、上述した特開2011−161105号公報に記載された手法を用いることができるが、これに限定されるものではない。
<ポリゴン生成処理>
次に、上述したポリゴン生成手段20によるポリゴン生成処理について説明する。図4は、ポリゴンを構成する頂点を生成する処理について説明するための図である。図4に示すように、ポリゴン生成処理は、上述したS13〜S15の処理によって生成されたパターンを、更に細かい三角形群(ポリゴン)に分割することによって、毛穴、皮丘、皮溝の各形状を立体的に表現する。
まず、ポリゴン生成処理は、例えば、毛穴に関し、例えば毛穴の中心位置に頂点を生成して、毛穴の内部に毛穴の深さと半径とを用いて層となる同心円を生成し、生成した同心円の層に所定間隔の頂点を生成する。また、ポリゴン生成処理は、皮丘に関し、例えば皮丘の内部に一様に、かつ三角形の重心が一番高くなるように頂点を生成する。また、ポリゴン生成処理は、皮溝に関し、例えば皮溝上に深さに沿って所定間隔に頂点を生成する。
次に、ポリゴン生成処理は、毛穴、皮丘、皮溝上に生成した頂点を、例えばDelaunay三角メッシュアルゴリズムで連結することで、毛穴、皮丘、皮溝のパターンを更に細かい三角群(ポリゴン)に分割して、ポリゴンを生成する。
<毛穴、皮溝上、皮丘内部の頂点の生成処理>
図5は、毛穴、皮溝上、及び皮丘の内部に頂点を生成する処理を説明するための図である。ポリゴン生成処理は、毛穴、皮溝上、皮丘内部に頂点を生成し、最後に生成した頂点の連結を行う。なお、毛穴、皮溝上、皮丘内部に頂点を生成する処理は、何れの処理から行っても良い。
図5(A)に示すように、ポリゴン生成処理は、まず毛穴の中心位置に、矢印Aに示す頂点を生成し、次に毛穴外周上に、所定間隔で頂点を作成する。ここで、毛穴が三角ポリゴンの解像度に比べて大きい場合、例えば毛穴の半径の平均の値が、予め設定した三角ポリゴンの1辺の長さの値に比べて1.0倍を超える場合には、上述したように、毛穴外周よりも内側に、毛穴の深さの平均と半径の平均とに基づいて同心円を生成する。
例えば、毛穴の半径の平均をrとし、三角ポリゴンの1辺の長さの値をeとしたとき、毛穴の半径の分割数は、n=[r/e]+1(但し、[x]はxの小数点以下を切り捨てた整数)となり、半径ir/nの同心円を生成する(但し、iは1から(n−1)までの整数とする)。
次に、ポリゴン生成処理は、毛穴外周よりも内側に生成した同心円上に所定間隔で頂点を生成する。これにより、毛穴の内部に層を生成する。
また、ポリゴン生成処理は、皮溝上に深さに沿って所定間隔で頂点を作成する。例えば皮溝の最大の深さをdmaxとし、皮溝の深さの乱雑さをdrandomとしたとき、区間[0,dramdom]の間で生成された乱数をdmaxから減算した値が深さとなる。なお、ポリゴン生成手段は、図5(A)の矢印Bに示すように毛穴外周から所定間隔おいて皮溝上に頂点を生成するとよい。
また、ポリゴン生成処理は、皮丘内部に一定間隔で頂点を作成する。ここで、ポリゴン生成手段は、図5(A)の矢印Cに示すように毛穴外周、及び皮溝から所定間隔をおいて皮丘内に頂点を生成し、また、上述したように皮丘の三角形の重心が一番高くなる部分に頂点を生成する。
<三角ポリゴン生成結果>
また、図5(B)に示す三角ポリゴン生成結果の例では、ポリゴン生成処理は、S16の工程により、生成した毛穴の頂点、皮溝上の頂点、皮丘上の頂点を、Delaunay三角メッシュアルゴリズム等を用いて連結して、肌領域上で毛穴、皮溝、皮丘の形状を更に細かい三角群(ポリゴン)に分割する。これにより、毛穴、皮丘、皮溝の各形状を立体的に表現した肌形状ポリゴンを生成することが可能となる。
<毛穴形状取得処理>
図6は、本実施形態に係る毛穴形状取得処理の一例を示すフローチャートである。図6の処理は、図3のS12の処理で実行される処理に含まれる。すなわち、図6の例では、パラメータ取得手段16によるパラメータ取得の一例として、毛穴形状の取得内容を説明する。
図6に示すように、肌形状生成装置10は、画像変換手段15により得られた2値の画像領域上を、パラメータ取得手段16により、例えば毛穴を想定した円領域又は円形状の予め設定した複数のサイズのうち最も大きなサイズのテンプレートを用いて走査し(S20)、毛穴があるか否か判断する(S21)。ここで、パラメータ取得手段16は、例えば円領域テンプレートの内部に含まれる画像領域上の画素の約90%以上が黒色であれば毛穴であると判断する。なお、閾値の値は、約90%としているがこれには限定されず、適宜変更することが可能である。
パラメータ取得手段16は、毛穴なしと判断すると(S21において、NO)、例えばテンプレートのサイズを段階的に小さいサイズに変更し(S22)、S20の処理に戻る。なお、上述したS20〜S22の処理で用いるテンプレートの領域や形状は、想定される毛穴の形状に応じて楕円、三角形等を用いても良い。
パラメータ取得手段16は、毛穴ありと判断すると(S21において、YES)、抽出された毛穴ごとに番号を付け(ラベリング処理)、番号を付けた毛穴の半径の平均を判定する(S23)。ここで、パラメータ取得手段16は、例えばテンプレート面積/円周率の平方根により毛穴の半径の平均を求めると良い。また、S23の処理で求めた毛穴の半径は、記憶手段13等に記憶すると良い。
次に、パラメータ取得手段16は、番号を付けた毛穴の濃度分布を求める(S24)。ここで、毛穴の濃度分布(ヒストグラム)は、画像取得手段14により得られる肌画像から、番号をつけた毛穴部位の輝度情報を取得することにより求めると良い。次に、パラメータ取得手段16は、S25の処理で得られた毛穴の濃度分布を用いて毛穴の深さの平均を判定する(S25)。
例えば、パラメータ取得手段16は、予め肌のレプリカや、視差を用いたステレオ画像等から深さの実測値を求め、目的変数とする。また、パラメータ取得手段16は、同一部位を撮影した二次元画像から対応する領域の濃度分布により、最大値、濃度合計値(グラフ面積)、半値幅、尖度、歪度を求め、各値を説明変数とし、重回帰分析により両者の関係を回帰方程式として表す。
次に、パラメータ取得手段16は、S24の処理で得られる毛穴の濃度分布を用いて各変数を求め、上述した回帰方程式に代入することで深さの平均を判定する。
次に、パラメータ取得手段16は、処理を終了するか否か判断し(S26)、例えば番号を付けた毛穴全ての半径の平均、毛穴の深さの平均を判定したか否か判断する。
パラメータ取得手段16は、処理を終了しないと判断すると(S26において、NO)、S20の処理に戻り、処理が終了したと判断すると(S26において、YES)、処理を終了する。
<皮溝形状取得処理>
図7は、本実施形態に係る皮溝形状取得処理の一例を示すフローチャートである。図7の処理は、図3のS12の処理で実行される処理に含まれる。すなわち、図7の例は、パラメータ取得手段16によるパラメータ取得の一例として、皮溝形状の取得内容を説明する。
図7に示すように、肌形状生成装置10は、画像変換手段15により得られた2値の画像領域上を、パラメータ取得手段16により、例えば皮溝の方向を特定するための線を有するテンプレートを用いて走査し(S30)、皮溝があるか否か判断する(S31)。
ここで、パラメータ取得手段16は、例えばテンプレート上で所定方向に引かれた線に対して、その線上に含まれる画像領域上の画素の約80%以上が黒色であれば皮溝と判断する。なお、1辺に含まれる画素数の適切な値は、例えば撮影するレンズの倍率や、カメラや画像の解像度に応じて変更すると良い。また、閾値の値は、約80%としているがこれには限定されず、適宜変更することが可能である。
パラメータ取得手段16は、皮溝なしと判断すると(S31において、NO)、例えばテンプレートを変更し(S32)、S30の処理に戻る。なお、S32の処理では、予め異なる方向(例えば基準位置に対して16方向)に設定した線を有するテンプレートを複数用意しておき、テンプレートを変更することで皮溝の方向を特定する線の方向を変更すると良い。また、予め所定の方向に設定した線を有するテンプレートを順次回転させることで皮溝の方向を特定する線の方向を変更しても良い。
パラメータ取得手段16は、皮溝ありと判断すると(S31において、YES)、抽出された皮溝ごとに番号を付け(ラベリング処理)、番号を付けた皮溝の方向を判定する(S33)。ここで、パラメータ取得手段16は、S31の処理で皮溝ありと判断したときの線の方向を、番号を付けた皮溝の方向として判定する。
次に、パラメータ取得手段16は、番号を付けた皮溝の幅の平均を判定する(S34)。ここで、パラメータ取得手段16は、S33の処理で判定したしたときのテンプレートを左右上下に1画素ずつ移動させて皮溝が抽出されるか否か判定することで皮溝の幅を判定する。また、皮溝の幅の平均は、例えば幅(画素)の1〜20までの度数分布の合計(各幅×その度数の合計)を度数の合計で割ることにより求めることが可能である。
次に、パラメータ取得手段16は、番号を付けた皮溝の濃度分布を取得し(S35)、S35の処理で得られた皮溝の濃度分布を用いて皮溝の深さの平均を判定する(S36)。なお、皮溝の濃度分布からその深さを判定する方法は、毛穴の濃度分布からその深さを判定する方法と同様の方法を用いることが可能である。
次に、パラメータ取得手段16は、処理を終了するか否か判断し(S37)、例えば番号を付けた皮溝全ての方向、幅の平均、深さの平均を判定したか否か判断する。
パラメータ取得手段16は、処理を終了しないと判断すると(S37において、YES)、S30の処理に戻り、処理が終了したと判断すると(S37において、NO)、処理を終了する。
<テンプレートマッチング>
図8は、マッチングにより各形状を取得する方法を説明するための図である。図8(A)は、毛穴形状取得処理に用いる円領域(形状)テンプレートの一例を示し、図8(B)は、走査される2値画像の一例を示し、図8(C)は、皮溝形状取得処理に用いる正方領域テンプレートの一例を示す。
図8(A)に示すように、毛穴形状取得処理では、例えば撮影するカメラのレンズの倍率や、カメラや画像の解像度に応じて設定された複数の異なるサイズのテンプレート40を用いて、図8(B)に示す画像領域41上を走査することで、毛穴を抽出する。ここで、様々なサイズのテンプレート40を用いることで、様々なサイズの毛穴を抽出することが可能となる。
また、上述したテンプレート40は、円領域に限定されるものではなく、例えば想定される毛穴の形状に応じて設定された楕円、三角形等のテンプレートを用いたり、各種形状を組み合わせたりすることで様々な形状の毛穴を抽出することが可能となる。
図8(C)に示すように、皮溝形状取得処理では、皮溝の方向を特定するために各方向に線が引かれたテンプレート42を用いて、図8(C)に示す画像領域41を走査することで、皮溝を抽出する。
ここでは、例えば予め異なる方向(例えば基準位置に対して16方向)に設定した線を有するテンプレートを用いることで、様々な方向の皮溝を抽出することが可能となる。なお、予め異なる方向に設定した複数の線を有するテンプレートを用いても良い。また、上述した線の方向は16方向に限定されない。
<マッチングにより取得された毛穴及び皮溝の例>
図9は、マッチングにより各形状が取得された例を説明するための図である。図9(A)は、健康な肌から得られた各画像を示し、図9(B)は、毛穴の目立つ肌から得られた各画像を示し、図9(C)は、乾燥した肌から得られた各画像を示す図である。なお、図9(A)〜図9(C)の例において、(i)の画像は、カメラ等により撮影された肌画像(元画像)を示し、(ii)の画像は、(i)の画像を2値化した画像を示し、(iii)の画像は、(i)の画像に対して本実施形態の処理を適用した画像を示す。
図9(A)の(iii)に示す画像から得られた皮溝51の線の幅は細く、皮溝51の線の方向は各方向を向いた状態であり、毛穴52のサイズは小さく、毛穴52の形状も円形が多い。また、図9(B)の(iii)に示す画像から得られた皮溝51の幅は太く、毛穴52のサイズは、図9(A)の(iii)に示す毛穴52のサイズよりも大きくなっている。また、図9(C)の(iii)に示す画像から得られた皮溝51は特定の方向を向いた状態となっており、毛穴52の形状は楕円形に近い形が多い。
上述したテンプレートマッチングを用いることにより、肌画像から毛穴及び皮溝の形状に関するパラメータを精度良く、また容易に取得することが可能となる。
<毛穴及び皮溝の深さ>
図10は、毛穴及び皮溝の深さに関する情報を取得する方法を説明するための図である。図10の例は、肌画像から抽出された毛穴部位の濃度分布(縦軸は全抽出領域に対する各濃度の割合)を示している。
上述したように、パラメータ取得手段16は、肌画像から得られた毛穴や皮溝の1つひとつにそれぞれを識別するための識別情報(番号等)を付けて、その番号ごとにパラメータを取得していく。ここで、パラメータ取得手段16は、毛穴の深さを求める場合に、まず、その毛穴部位の輝度情報を肌画像から取得し、取得した輝度情報を用いて、図10に示す濃度分布を求める。
次に、パラメータ取得手段16は、図10に示す濃度分布から最大値、半値幅、及び濃度合計値(グラフ面積)を求め、濃度分布の尖度、歪度を求める。パラメータ取得手段16は、上述したように、予め肌のレプリカや、視差を用いてステレオ画像等から求めた深さの実測値を目的変数とする重回帰分析により回帰方程式を求め、この回帰方程式に、図10に示す濃度分布から得られた各変数を代入することで深さの平均を推定する。なお、パラメータ取得手段16は、皮溝の深さの平均も同様に求めることが可能である。
また、上述の説明では、パラメータ取得手段16は、肌画像から毛穴及び皮溝の各形状に関するパラメータを取得する例を説明したが、図9に示す2値画像の皮丘部分の高さについては、図10で説明した輝度情報を用いて推定することも可能である。
また、パラメータ取得手段16は、例えば特開2006−305184号公報に記載された手法を用いて、肌画像から毛穴、皮溝、皮丘のパラメータを取得しても良い。
<三次元の肌形状を表示する画像の一例>
図11は、三次元の肌形状を表示する画像の一例を示す図である。図11(A)は、撮影された肌画像を示し、図11(B)は、図11(A)に示す肌画像から得られた三次元の肌形状を表示する画像の一例を示している。
図11(A)に示す肌画像から、パラメータ取得手段16により肌形状のパラメータを取得し、取得したパラメータを用いて肌形状ポリゴンを生成することで、図11(B)に示すように、図11(A)に示す肌画像に対応する毛穴や皮溝の凹凸を表現した人間の肌により近い三次元の肌形状を表示する画像を生成することが可能となる。
なお、上述の例では、被写体の顔の一部を対象とする肌画像から三次元の肌形状を表示する画像を生成したが、被写体の顔の各部位を対象とする肌画像を取得し、被写体の三次元計測機器等による計測データから得られる顔ポリゴンにマッピングさせることで、被写体の三次元の顔形状ポリゴンを生成し、画像として表示することも可能となる。
上述したように、本実施形態によれば、肌画像から肌の立体的な凹凸を表現する三次元の肌形状を表示する画像を容易に生成することが可能となる。
以上、本発明の好ましい実施例について詳述したが、本発明は係る特定の実施形態に限定されるものではなく、特許請求の範囲に記載された本発明の要旨の範囲内において、種々の変形、変更が可能である。
10 肌形状生成装置
11 入力手段
12 出力手段
13 記憶手段
14 画像取得手段
15 画像変換手段
16 パラメータ取得手段
17 毛穴生成手段
18 領域分割手段
19 皮丘皮溝決定手段
20 ポリゴン生成手段
21 画像生成手段
22 制御手段
31 入力装置
32 出力装置
33 ドライブ装置
34 補助記憶装置
35 メモリ装置
36 CPU
37 ネットワーク接続装置
38 記録媒体

Claims (15)

  1. 肌画像から肌形状に関する所定のパラメータを取得するパラメータ取得手段と、
    前記パラメータ取得手段により得られたパラメータを用いて、予め設定された皮膚領域に対して所定形状のポリゴンを生成するポリゴン生成手段と、
    前記ポリゴン生成手段により得られたポリゴン形状に基づくパラメータ情報により、三次元の肌形状を表示する画像を生成する画像生成手段とを有することを特徴とする肌形状生成装置。
  2. 前記パラメータ取得手段は、
    前記肌画像から所定領域又は所定形状のテンプレートマッチングを用いて、毛穴又は皮溝に対応する部分を抽出することを特徴とする請求項1に記載の肌形状生成装置。
  3. 前記パラメータ取得手段は、
    前記抽出した毛穴の半径、皮溝の幅、又は皮溝の方向のうち少なくとも1つに関する情報を取得することを特徴とする請求項2に記載の肌形状生成装置。
  4. 前記パラメータ取得手段は、
    前記肌画像から、前記抽出した毛穴又は皮溝に対応する部分の濃度に関する情報を取得することを特徴とする請求項2又は3に記載の肌形状生成装置。
  5. 前記パラメータ取得手段は、
    前記抽出した毛穴又は皮溝に対応する部分の濃度に関する情報を用いて、前記抽出した毛穴又は皮溝に対応する部分の深さに関する情報を取得することを特徴とする請求項4に記載の肌形状生成装置。
  6. 前記パラメータ取得手段により得られた毛穴の半径又は毛穴の深さに関する情報を用いて、前記予め設定された肌領域に対して毛穴を生成する毛穴生成手段と、
    前記毛穴生成手段により生成された毛穴のうち、隣接する毛穴同士を連結させて前記肌領域を分割する領域分割手段と、
    前記領域分割手段により得られた領域に対して、前記パラメータ取得手段により得られた皮溝の方向、幅、及び皮溝の深さに関する情報を用いて、皮溝及び皮丘の形状を決定する皮丘皮溝決定手段とを有することを特徴とする請求項5に記載の肌形状生成装置。
  7. 前記ポリゴン生成手段は、
    前記毛穴生成手段により生成された毛穴の形状と、前記皮丘皮溝決定手段により得られた皮丘及び皮溝の各形状とに基づいて、前記所定形状のポリゴンを生成することを特徴とする請求項6に記載の肌形状生成装置。
  8. コンピュータにより実行される肌形状生成方法であって、
    肌画像から肌形状に関する所定のパラメータを取得するパラメータ取得手順と、
    前記パラメータ取得手順により得られたパラメータを用いて、予め設定された皮膚領域に対して所定形状のポリゴンを生成するポリゴン生成手順と、
    前記ポリゴン生成手順により得られるポリゴン形状に基づくパラメータ情報により、三次元の肌形状を表示する画像を生成する画像生成手順とを有することを特徴とする肌形状生成方法。
  9. 前記パラメータ取得手順は、
    前記肌画像から所定領域又は所定形状のテンプレートマッチングを用いて、毛穴又は皮溝に対応する部分を抽出することを特徴とする請求項8に記載の肌形状生成方法。
  10. 前記パラメータ取得手順は、
    前記抽出した毛穴の半径、皮溝の幅、又は皮溝の方向のうち少なくとも一つに関する情報を取得することを特徴とする請求項9に記載の肌形状生成方法。
  11. 前記パラメータ取得手順は、
    前記肌画像から、前記抽出した毛穴又は皮溝に対応する部分の濃度に関する情報を取得することを特徴とする請求項9又は10に記載の肌形状生成方法。
  12. 前記パラメータ取得手順は、
    前記抽出した毛穴又は皮溝に対応する部分の濃度に関する情報を用いて、前記抽出した毛穴又は皮溝に対応する部分の深さに関する情報を取得することを特徴とする請求項11に記載の肌形状生成方法。
  13. 前記パラメータ取得手順により得られた毛穴の半径又は毛穴の深さに関する情報を用いて、前記予め設定された肌領域に対して毛穴を生成する毛穴生成手順と、
    前記毛穴生成手順により生成された毛穴のうち、隣接する毛穴同士を連結させて前記肌領域を分割する領域分割手順と、
    前記領域分割手順により得られた領域に対して、前記パラメータ取得手順により得られた皮溝の方向、幅、及び皮溝の深さに関する情報を用いて、皮溝及び皮丘の形状を決定する皮丘皮溝決定手順とを有することを特徴とする請求項12に記載の肌形状生成方法。
  14. 前記ポリゴン生成手順は、
    前記毛穴生成手順により生成された毛穴の形状と、前記皮丘皮溝決定手順により得られた皮丘及び皮溝の各形状とに基づいて、前記所定形状のポリゴンを生成することを特徴とする請求項13に記載の肌形状生成方法。
  15. コンピュータを、請求項1乃至7のいずれか一項に記載の肌形状生成装置が有する各手段として機能させるための肌形状生成プログラム。
JP2012275166A 2012-12-17 2012-12-17 肌形状生成装置、肌形状生成方法、及び肌形状生成プログラム Pending JP2014120005A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2012275166A JP2014120005A (ja) 2012-12-17 2012-12-17 肌形状生成装置、肌形状生成方法、及び肌形状生成プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2012275166A JP2014120005A (ja) 2012-12-17 2012-12-17 肌形状生成装置、肌形状生成方法、及び肌形状生成プログラム

Publications (1)

Publication Number Publication Date
JP2014120005A true JP2014120005A (ja) 2014-06-30

Family

ID=51174782

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2012275166A Pending JP2014120005A (ja) 2012-12-17 2012-12-17 肌形状生成装置、肌形状生成方法、及び肌形状生成プログラム

Country Status (1)

Country Link
JP (1) JP2014120005A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2022176106A1 (ja) * 2021-02-18 2022-08-25 日本電気株式会社 生体分析システム、生体分析方法、及びコンピュータプログラム
US11501457B2 (en) 2020-05-08 2022-11-15 The Procter & Gamble Company Methods for identifying dendritic pores
US11776161B2 (en) 2018-08-21 2023-10-03 The Procter & Gamble Company Methods for identifying pore color

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793549A (ja) * 1993-09-24 1995-04-07 Shiseido Co Ltd 帰納学習を用いた物理情報分類装置及び帰納学習を用いた物理情報分類規則生成方法
JP2011161105A (ja) * 2010-02-12 2011-08-25 Shiseido Co Ltd 肌形状シミュレーション装置、肌画像生成方法、及び肌画像生成プログラム
JP2012239768A (ja) * 2011-05-23 2012-12-10 Sony Corp 画像処理装置、画像処理方法、プログラム、および、記録媒体

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0793549A (ja) * 1993-09-24 1995-04-07 Shiseido Co Ltd 帰納学習を用いた物理情報分類装置及び帰納学習を用いた物理情報分類規則生成方法
JP2011161105A (ja) * 2010-02-12 2011-08-25 Shiseido Co Ltd 肌形状シミュレーション装置、肌画像生成方法、及び肌画像生成プログラム
JP2012239768A (ja) * 2011-05-23 2012-12-10 Sony Corp 画像処理装置、画像処理方法、プログラム、および、記録媒体

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11776161B2 (en) 2018-08-21 2023-10-03 The Procter & Gamble Company Methods for identifying pore color
US11501457B2 (en) 2020-05-08 2022-11-15 The Procter & Gamble Company Methods for identifying dendritic pores
WO2022176106A1 (ja) * 2021-02-18 2022-08-25 日本電気株式会社 生体分析システム、生体分析方法、及びコンピュータプログラム

Similar Documents

Publication Publication Date Title
US10861232B2 (en) Generating a customized three-dimensional mesh from a scanned object
CN109102559B (zh) 三维模型处理方法和装置
US20170316597A1 (en) Texturing a three-dimensional scanned model with localized patch colors
JP6863596B6 (ja) データ処理装置及びデータ処理方法
US9799102B2 (en) Smoothing images using machine learning
RU2019121567A (ru) Визуализация изображения данных лазерного сканирования
US9007373B2 (en) Systems and methods for creating texture exemplars
KR20120064641A (ko) 영상 처리 장치, 조명 처리 장치 및 그 방법
US20190206109A1 (en) Method, apparatus and device for generating live wallpaper and medium
JPWO2014103065A1 (ja) 医用画像処理装置および画像処理方法
KR20060131145A (ko) 이차원 영상을 이용한 삼차원 물체의 렌더링 방법
US9959672B2 (en) Color-based dynamic sub-division to generate 3D mesh
JP2014120005A (ja) 肌形状生成装置、肌形状生成方法、及び肌形状生成プログラム
JP4714444B2 (ja) 四面体メッシュ生成方法およびプログラム
JP5691106B2 (ja) 肌形状シミュレーション装置、肌画像生成方法、及び肌画像生成プログラム
Petkov et al. Interactive visibility retargeting in vr using conformal visualization
KR102255148B1 (ko) 화상 처리장치, 화상 처리방법, 기억매체 및 프로그램
JP5950335B2 (ja) 肌形状モデル生成装置、肌形状モデル生成方法、及び肌形状モデル生成プログラム
WO2020183961A1 (ja) 画像処理装置、および画像処理方法、並びにプログラム
JP2016071733A (ja) 画像処理装置および画像処理方法
Quinn et al. Generalized anisotropic stratified surface sampling
Whitrow OpenGL graphics through applications
JP2017169970A (ja) 光学シミュレーション装置および方法並びにプログラム
JP6553987B2 (ja) ゲームプログラム及び記録媒体
JP2012039331A (ja) 視差画像作成装置、視差画像作成方法、プログラム及び記憶媒体

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20151203

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20151203

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20160921

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20160927

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20161128

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20170307

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20170501

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20170501

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20170627