JP7183005B2 - 肌解析方法及び肌解析システム - Google Patents

肌解析方法及び肌解析システム Download PDF

Info

Publication number
JP7183005B2
JP7183005B2 JP2018218557A JP2018218557A JP7183005B2 JP 7183005 B2 JP7183005 B2 JP 7183005B2 JP 2018218557 A JP2018218557 A JP 2018218557A JP 2018218557 A JP2018218557 A JP 2018218557A JP 7183005 B2 JP7183005 B2 JP 7183005B2
Authority
JP
Japan
Prior art keywords
facial
image
facial expression
skin
expression change
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018218557A
Other languages
English (en)
Other versions
JP2019098168A (ja
Inventor
賢哉 平山
興治 水越
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Pola Chemical Industries Inc
Original Assignee
Pola Chemical Industries Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Pola Chemical Industries Inc filed Critical Pola Chemical Industries Inc
Publication of JP2019098168A publication Critical patent/JP2019098168A/ja
Application granted granted Critical
Publication of JP7183005B2 publication Critical patent/JP7183005B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Measurement Of The Respiration, Hearing Ability, Form, And Blood Characteristics Of Living Organisms (AREA)
  • Measuring And Recording Apparatus For Diagnosis (AREA)
  • Image Analysis (AREA)

Description

本発明は、肌解析方法及び肌解析システムに関するものである。
近年、人の見た目の印象を客観的に推定する技術について研究が行われている。例えば、特許文献1には、少なくとも1つの音を発出する間に撮影された人の顔画像のシーケンスから、音の発出と同時に起こる1つまたは複数の画像を抽出し、臨床徴候を評価する技術が公開されている。
また、特許文献2には、被験者の目尻のような解析領域に予め複数の追跡点を配置して動画像を撮影し、表情の変化に伴う追跡点の変化量を追跡して肌の圧縮率を取得することによって、被験者の肌状態を解析する技術が公開されている。
更に、特許文献3には、動的情報を用いて顔の見た目印象と相関関係が高い因子を抽出する方法と、その因子に基づいて顔の見た目印象を鑑別する方法についての技術が公開されている。
特開2017-502732 特開2014-193197 特開2016-194901
先述の通り、人物の顔を含む動画を解析して肌を評価する技術について研究されてきた。また、出願人は、表情変化の過程を表す動画を用いて肌の運動特性を解析することにより、皮膚の構造状態を解析するための研究を行ってきた。このような解析を行う際に、被撮影者の表情変化のタイミングを正確に判定しなければ、正確な解析結果が得られない。そのため、表情動作の開始時点と終了時点を正確に特定し、入力される動画から顔の動きを解析したい部分を抽出する精度を向上させることが求められていた。
特許文献1においては、表情変化に伴って被撮影者に音声を発出させ、動画と同時に記録して、音の分析から解析対象の画像を抽出する技術が開示されている。しかし、表情変化は必ずしも音の発出と同時に起こるわけではないため、解析対象の抽出の精度については課題があった。また、音声を発することは、撮影場所によっては被撮影者にとって負担になり、更に集音器が必要になるという課題があった。
そこで、本発明は、表情変化の過程を表す複数の画像から、表情変化が開始する画像及び終了する画像を特定して解析対象を抽出し、高い精度で肌解析を行うことができる、肌解析方法及び肌解析システムを提供することを課題とする。
上記課題を解決するために、本発明は、顔の表情変化の動的情報に基づいて肌の特徴を解析する肌解析方法であって、
前記表情変化の過程を表す複数の画像を取得する画像取得工程と、
前記複数の画像について、前記顔の部品の位置を示す複数の顔部品座標を検出する顔部品座標検出工程と、
前記複数の画像について、前記顔部品座標間の距離を算出する距離算出工程と、
前記顔部品座標間の距離の時系列の変化に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出する解析対象抽出工程と、
前記解析対象抽出工程において抽出された画像を用いて、肌の特徴を解析する解析工程と、を含むことを特徴とする。
このように、表情変化の過程を表す画像から、顔部品座標間の距離の変化に基づいて表情変化の始点と終点を特定することにより、画像から直接的に表情変化のタイミングを特定することができる。これにより、音声等に基づいて表情変化のタイミングを特定する場合に比べ、より正確に解析対象の抽出を行うことが可能になる。また、集音器がない場合や、声を発出することに抵抗があるような場所でも被撮影者への負担を強いることなく、表情変化のタイミングを特定し、画像を用いた肌解析を行うことができる。
本発明の好ましい形態では、前記解析工程は、頬部分の肌の特徴を解析する工程を含むことを特徴とする。
このように、頬部分の肌の特徴を解析することで、顔全体に占める面積が大きく印象を左右しやすい部分についての解析結果が得られる。
本発明の好ましい形態では、前記複数の画像は、前記顔を通る鉛直方向の軸まわりに正面を0度として0~90度の範囲で回転させた前記顔の表情変化を表す複数の画像を含むことを特徴とする。
このように、正面から0~90度の範囲で回転させた角度から顔を撮影した画像を用いて解析を行うことで、頬部分や目尻等、顔の印象を左右しやすい部分の肌をより広く含む画像を取得することができるため、顔の印象を左右しやすい部分の肌について、肌解析をより正確に行うことができる。
本発明の好ましい形態では、前記複数の画像は、前記顔を通る鉛直方向の軸まわりに正面を0度として20~30度の範囲で回転させた前記顔の表情変化を表す複数の画像を含むことを特徴とする。
このように、正面から20~30度の範囲で回転させた角度から顔を撮影した画像を用いることで、正面から撮影した画像を用いる場合に比べて頬部分や目尻等、顔の印象を左右しやすい部分の肌を広く含む画像を取得して、顔の印象を左右しやすい部分の肌についてより正確に肌解析を行うことができる。また、30度より大きく回転させた角度から顔を撮影した画像を用いる場合に比べて高い精度で顔部品座標を検出できるため、表情変化が開始する画像及び表情変化が終了する画像の抽出を正確に行うことができる。
本発明の好ましい形態では、前記顔部品座標検出工程は、
前記顔部品座標として、前記表情変化に連動して距離が変化する2点を検出することを特徴とする。
このように、表情変化に連動して距離が変化する2点を顔部品座標として検出することにより、2点間の距離を用いて表情変化が開始する画像及び表情変化が終了する画像をより正確に特定することができる。
本発明の好ましい形態では、前記表情変化は、頬部分の肌を縦方向に伸縮させる縦方向表情変化と、頬部分の肌を横方向に伸縮させる横方向表情変化と、のうち少なくとも何れかを含むことを特徴とする。
このように、頬部分の肌を特定の方向に伸縮させる表情変化の過程を表す複数の画像を用いることにより、肌を特定の方向に伸縮させた際の皮膚の運動特性を解析することが可能になる。
本発明の好ましい形態では、前記表情変化は、前記頬部分の肌を同じ方向に伸縮させる表情変化を複数種類含み、
前記解析対象抽出工程は、各種の表情変化が開始する画像及び終了する画像を特定し、前記各種の表情変化が開始する画像及び終了する画像の間の画像を解析対象として抽出することを特徴とする。
このように、頬部分の肌を同じ方向に伸縮させる表情変化を複数種類含む画像を取得することにより、特定の方向の肌の伸縮に伴う皮膚の運動特性をより詳細に解析することができる。
本発明の好ましい形態では、前記画像取得工程、前記顔部品座標検出工程、前記距離算出工程及び前記解析対象抽出工程は、前記縦方向表情変化を含む前記複数の画像と、前記横方向表情変化を含む前記複数の画像と、のそれぞれについて実行され、
前記解析工程は、前記解析対象抽出工程においてそれぞれ抽出された、前記縦方向表情変化を含む複数の画像の中の解析対象及び前記横方向表情変化を含む複数の画像の中の解析対象を用いて、肌の特徴を解析することを特徴とする。
このように、縦方向表情変化及び横方向表情変化についてそれぞれ解析対象を抽出して解析を行うことにより、異なる方向の肌の運動特性を得ることができ、より詳細な解析を行うことが可能になる。
本発明の好ましい形態では、前記距離算出工程及び前記解析対象抽出工程の間に、前記表情変化の大きさを評価する表情動作評価工程を含み、
前記表情動作評価工程は、前記顔部品座標間の距離の変化に基づいて前記表情変化の大きさを評価し、前記表情変化の大きさが所定の値を上回った場合に解析対象抽出工程に進むことを特徴とする。
このように、表情変化の大きさを評価することで、所定の基準に満たない場合に再度撮影を指示するなどして再度画像の取得を行い、表情変化の大きさが肌解析を行う為に十分である一連の画像に対して肌解析を実行することができる。これにより、肌解析の精度を向上させることができる。
本発明の好ましい形態では、前記距離算出工程は、前記顔部品座標間の距離を複数算出する工程を含み、
前記解析対象抽出工程は、複数の前記顔部品座標間の距離に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出することを特徴とする。
このように、顔部品座標間の距離を複数用いることにより、表情変化が開始する画像及び表情変化が終了する画像の特定をより精度よく行うことができる。また、複数の種類の表情変化について、解析対象の抽出が可能になる。
本発明の好ましい形態では、前記顔部品座標は、少なくとも唇輪郭の位置を示す座標を含むことを特徴とする。
このように、唇輪郭の位置を示す座標を顔部品座標として検出することにより、個人ごとの表情動作の癖による解析対象抽出への影響を小さくする効果が期待できる。また、唇輪郭の位置を示す座標は表情動作に連動した移動が大きいため、表情変化が開始する画像及び表情変化が終了する画像をより正確に特定することができる。
本発明の好ましい形態では、前記距離算出工程は、前記顔部品座標間の距離を標準化する為の基準距離を算出する基準距離算出工程を更に含み、
前記解析対象抽出工程は、前記基準距離に基づいて前記顔部品座標間の距離を標準化した値を用いて、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定することを特徴とする。
このように、基準距離に基づいて顔部品座標間の距離を標準化することで、顔の大きさ等の個人差や撮影時の倍率、カメラとの距離等による影響を軽減することができる。これにより、更に正確に表情変化のタイミングを特定し、解析対象を抽出することができる。
本発明は、顔の表情変化の動的情報に基づいて肌の特徴を解析する肌解析システムであって、
前記表情変化の過程を表す複数の画像を取得する画像取得手段と、
前記複数の画像について、前記顔の複数の顔部品座標を検出する顔部品座標検出手段と、
前記複数の画像について、前記顔部品座標間の距離を算出する距離算出手段と、
前記顔部品座標間の距離の時系列の変化に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出する解析対象抽出手段と、
前記解析対象抽出手段において抽出された画像を用いて、肌の特徴を解析する解析手段と、を備えることを特徴とする。
表情変化の過程を表す複数の画像から、表情変化が開始する画像及び表情変化が終了する画像を特定し、解析対象となる画像の抽出を行うことができ、精度の高い肌解析を行うことができる。
本発明の実施形態1において被撮影者が再現する表情の模式図である。 本発明の実施形態1に係る肌解析システムの機能ブロック図である。 本発明の実施形態1に係る肌解析方法を示すフローチャートである。 本発明の実施形態1における画像取得から解析対象の抽出までの処理を示すフローチャートである。 本発明の実施形態1における被撮影者の撮影方向を示す図である。 本発明の実施形態1における顔部品座標間の距離を示す図である。 本発明の実施形態1における解析対象抽出工程の処理を示すフローチャートである。 本発明の実施形態2における顔部品座標間の距離の一例を示す図である。 本発明の実施形態2における基準距離の一例を示す図である。
<実施形態1>
以下、本発明の一実施形態について、図面を参照して詳細に説明する。なお、以下において顔部品座標とは、顔の動きを追跡して表情の変化を解析する為の、顔上の部品の位置を示す座標である。本発明において部品とは、目、鼻、顔の輪郭、等のような任意の特徴を示す。例えば、唇輪郭の上下端の点や左右端等の点を顔部品座標として検出し、用いることができる。
また、解析対象とは、肌解析の対象とする画像の集合である。本実施形態においては、表情変化が開始する画像と表情変化が終了する画像を特定し、その間に含まれる表情変化の最中の画像を用いて動きを解析することにより肌解析を行う。
なお、本実施形態においては、表情変化として頬部分の肌を縦方向に伸縮させる縦方向表情変化の過程を表す動画と、頬部分の肌を横方向に伸縮させる横方向表情変化の過程を表す動画と、をそれぞれ取得し、その各々について解析対象を抽出して肌解析を行う。
図1は本実施形態において被撮影者が再現する表情を示す図である。本実施形態においては、被撮影者はここに示すように、無表情(図1(a))と、口を縦に開く表情(以下「あ」の表情、図1(b))と、口を横に開く表情(以下「い」の表情、図1(c))と、口をすぼめる表情(以下「う」の表情、図1(d))と、の4つの表情をとる。
本実施形態においては、縦方向表情変化として、無表情、「あ」の表情、「う」の表情、「あ」の表情、「う」の表情、無表情、の順に被撮影者が表情を再現する。即ち、無表情から「あ」の表情への縦方向表情変化と、「あ」の表情から「う」の表情への縦方向表情変化と、「う」の表情から「あ」の表情への縦方向表情変化と、「う」の表情から無表情への縦方向表情変化と、を含む動画を取得して肌解析を行う。
また、横方向表情変化として、無表情、「い」の表情、「う」の表情、「い」の表情、「う」の表情、無表情、の順に被撮影者が表情を再現する。即ち、無表情から「い」の表情への横方向表情変化と、「い」の表情から「う」の表情への横方向表情変化と、「う」の表情から「い」の表情への横方向表情変化と、「う」の表情から無表情への横方向表情変化と、を含む動画を取得して肌解析を行う。
図2は、本実施形態に係る肌解析システムの機能ブロック図である。本実施形態に係る肌解析システムは、サーバ装置1と、端末装置2と、が通信可能に構成される。なお、図2における各手段間の矢印は、情報の流れや指示の方向を表している。
サーバ装置1は、縦方向表情変化解析対象抽出部と、横方向表情変化解析対象抽出部と、記憶手段16と、解析手段17と、を備える。また、縦方向表情変化解析対象抽出部及び横方向表情変化解析対象抽出部はそれぞれ、画像取得手段11と、顔部品座標検出手段12と、距離算出手段13と、表情動作評価手段14と、解析対象抽出手段15と、を備える。
記憶手段16は、画像取得手段11が取得した画像の情報、顔部品座標検出手段12が検出した顔部品座標、距離算出手段13が算出した顔部品座標間の距離、解析対象抽出手段15が特定した表情変化が開始する画像及び終了する画像の情報、等を記憶する。
サーバ装置1としては、CPU(Central Processing Unit)等の演算装置、RAM(Random Access Memory)等の主記憶装置、HDD(Hard Disk Drive)やSSD(Solid State Drive)、フラッシュメモリ等の補助記憶装置、端末装置2との通信手段を含む種々の入出力装置等を備えた、サーバ機器等の一般的なコンピュータ装置を利用することができる。より詳細には、補助記憶装置に予め、あるいは記録媒体からの複製等によって、後述する各手段としてサーバ装置1を動作させるためのプログラムを格納しておき、それらのプログラムを主記憶装置上に展開して演算装置による演算を行い、入出力手段の制御等を行うことで、コンピュータ装置を本実施形態に係る肌解析システムにおけるサーバ装置1として利用することができる。
端末装置2は、顔の表情変化の過程を撮影する撮像手段21と、撮影した画像や肌解析結果等を表示する表示手段22と、を備える。端末装置2としては、演算装置、主記憶装置、補助記憶装置、サーバ装置1との通信手段、デジタルカメラ等の撮像手段や、種々の入出力装置等を備えた、一般的なコンピュータ装置を利用することができる。例えば、カメラ機能を備えるタブレット端末等を用いてもよい。具体的には、例えば、後述する各手段として端末装置を動作させるための専用のアプリケーションソフトをインストールすることにより、端末装置を本実施形態に係る肌解析システムにおける端末装置2として利用することができる。
図3は、肌解析システムによる、肌解析方法を示すフローチャートである。まず、ステップS11において、縦方向表情変化解析対象抽出部が縦方向表情変化の過程を表す動画について解析対象を抽出する。次に、ステップS12において、横方向表情変化解析対象抽出部が横方向表情変化の過程を表す動画について解析対象を抽出する。なお、本実施形態においては、ステップS11の縦方向表情変化解析対象抽出工程の次にステップS12の横方向表情変化解析対象抽出工程を行う構成を示すが、縦方向表情変化解析対象抽出工程及び横方向表情変化解析対象抽出工程を行う順番に制限はなく、これらの順番を逆転させてもよい。
ステップS12が終了すると、ステップS11及びステップS12で抽出した解析対象を用いて解析手段17が解析を行い、解析結果を端末装置2に送信し、端末装置2において表示手段22が解析結果を表示して処理を終了する。ここで、ステップS13の解析工程においては、解析結果を記憶手段16が記憶してもよい。
図4は、図3のステップS11及びステップS12における縦方向表情変化解析対象抽出工程及び横方向表情変化解析対象抽出工程における処理を示すフローチャートである。なお、これらの工程は縦方向表情変化解析対象抽出部及び横方向表情変化解析対象抽出部においてそれぞれ実行される。つまり、縦方向表情変化解析対象抽出部においては縦方向表情変化を含む動画を、横方向表情変化解析対象抽出部においては横方向表情変化を含む動画をそれぞれ取得し、それぞれの動画について解析対象が抽出される。
まず、ステップS21の画像取得工程において、画像取得手段11は、動画の撮影を促す情報を表示手段22に表示させ、撮像手段21が動画の撮影を行う。画像取得手段11は撮像手段21によって撮影された動画の情報を取得し、記憶手段16に記録する。図5は、本実施形態における動画の撮影方向を示す図である。本実施形態においては、画像取得手段11は、被撮影者の顔を通る鉛直方向の軸まわりに、正面を0度として20~30度の範囲で回転した方向から撮像手段21が撮影した動画の情報を取得する。
ステップS21の画像取得工程において撮像手段21による撮影と画像取得手段11による動画の取得が完了すると、顔部品座標検出手段12が、ステップS22の顔部品座標検出工程において、ステップS21で取得した動画に含まれる顔の顔部品座標をフレームごとに複数検出する。ここで、動画に含まれる表情変化に連動して距離が変化する2点の組を少なくとも1組検出する。特に、表情変化の際の頬部分の肌の伸縮に連動して距離が変化する2点の組を少なくとも1組検出することが好ましい。これにより、頬部分の肌を伸縮させる表情変化が開始する画像及び表情変化が終了する画像をより正確に特定することができる。
本実施形態においては、縦方向表情変化解析対象抽出部では、唇の上下端の2点と、こめかみ及びあごの2点と、を、横方向表情変化解析対象抽出部では唇輪郭の上下端の2点及び唇輪郭の左右端の2点を、それぞれ組として検出する。
ここで、唇の上下端の2点と、こめかみ及びあごの2点と、は、いずれも頬部分の肌を縦方向に伸ばした時に距離が大きくなり、頬部分の肌を縦方向に縮めた時に距離が小さくなる。これにより、各種の縦方向表情変化のタイミングを特定できる。また、唇輪郭の左右端の2点は、頬部分の肌を横方向に伸ばした時に距離が小さくなり、頬部分の肌を横方向に縮めた時に距離が大きくなる。更に、唇輪郭の上下端の2点の距離を用いることで、例えば唇輪郭の左右端の2点の距離変化が小さい「う」の表情から無表情への表情変化等についても、表情変化の開始する画像及び表情変化の終了する画像を特定することができ、各種の横方向表情変化のタイミングを特定できる。
このように、顔部品座標検出工程においては、頬部分の肌の伸縮に連動して距離が変化する2点を組として検出することが好ましい。また、このような2点の組を複数検出し、その距離を用いることで、複数種類の表情変化を含む画像に対して、その各種の表情変化の開始する画像及び表情変化の終了する画像を特定することができる。
なお、顔部品座標の検出には、一般に知られている任意の方法を用いることができる。例えば、一般に販売されている開発キットを利用して開発したアプリケーションソフトを用いてもよい。開発キットとしては、例えば、Face Sensing Engine(登録商標)(https://www.oki.com/jp/fse/function/#fp,最終閲覧日:平成29年11月16日)等を利用することができる。
ステップS22の顔部品座標検出工程において動画全体について顔部品座標の検出が終了すると、ステップS23において、距離算出手段13が、顔部品座標間の距離を算出する。距離の算出は動画全体の各フレームについて行われ、その算出結果が記憶手段16に記憶される。
図6は、本実施形態において用いる、顔部品座標間の距離を示す図である。図6(a)は縦方向表情変化解析対象抽出部で用いられる顔部品座標を、図6(b)は横方向表情変化解析対象抽出部で用いられる顔部品座標をそれぞれ示す。ここに示すように、本実施形態においては、縦方向表情変化解析対象抽出部では唇の上下端の2点間の距離及びこめかみと顎の2点間の距離を、横方向表情変化解析対象抽出部では唇輪郭の上下端の2点間の距離及び唇輪郭の左右端の2点間の距離を、それぞれ算出する。このように、解析したい一連の表情変化に応じて、用いる顔部品座標を設定することにより、少ない情報で正確に表情変化の開始及び終了を特定することができる。
ステップS24の表情動作評価工程においては、ステップS23において算出された顔部品座標間の距離の変化に基づいて表情変化の大きさを評価する。具体的には、例えば、被撮影者が無表情を再現した時の顔部品座標間の距離と、無表情以外の表情(「あ」の表情、「い」の表情、「う」の表情)を再現した時の顔部品座標間の距離と、の比を表情変化の評価値として算出することができる。このように比を用いることで、顔の大きさ等の個人差の影響を小さくすることができる。
次に、ステップS25において、ステップS24で算出した評価値を基準値と比較し、基準値を上回った場合にはステップS26の解析対象抽出工程に進む。基準値に満たない場合には、ステップS21の画像取得工程に戻って再度動画の撮影を促す等の方法により再度動画を取得する。再度取得した動画については、ステップS22~ステップS25を行い、顔部品座標検出工程と、距離算出工程と、表情動作評価工程と、のそれぞれの処理が行われる。
なお、本実施形態においては、取得する動画には複数の表情変化が含まれるため、表情動作評価工程においては、動画に含まれる全ての表情変化について基準値との比較を行い、全ての表情変化の評価値が基準値を上回った場合に解析対象抽出工程に進む。
ステップS26においては、解析対象抽出手段15が解析対象の抽出を行う。ここで、図4に示す各々の工程は全て、動画全体への処理が完了してから次の工程に移る。即ち、例えば、ステップS24の表情動作評価工程は、ステップS23の距離算出工程において動画を構成する全てのフレームについて顔部品座標の距離の算出が完了してから開始する。
図7は、解析対象抽出工程における処理の一例を示すフローチャートである。なお、図7に示す処理は、組として検出された2点の顔部品座標間の距離それぞれについて行われる処理である。本実施形態においては、顔部品座標間の距離を複数用いて解析対象の抽出を行うため、組として検出された2点の顔部品座標間の距離それぞれについてこの処理を行い、その結果の組み合わせによって解析対象を抽出する。具体的には、組として検出された2点の顔部品座標間の距離を用いて解析対象を抽出し、その際に抽出できなかった表情変化に対して他の2点の顔部品座標間の距離を用いて図7に示す処理を行うことで解析対象を抽出することができる。
解析対象抽出手段15は、まず、ステップS31において、フレーム間の顔部品座標間の距離の差分(変化量)の絶対値を算出する。次に、ステップS32において、顔部品座標間の距離の差分が基準値より大きい頂点(極大点)を検出する。すなわち、動画に含まれる複数の表情変化の各々の過程において、最も大きく顔部品座標間の距離が変化した点を検出する。
ステップS33においては、ステップS32で検出した頂点の前後で顔部品座標間の距離の差分が基準値を下回るフレームを特定する。これにより、ステップS32で検出した頂点の直前に顔部品座標間の距離の差分が基準値を下回ったフレームを表情変化が開始したフレームとして特定し、同様にして頂点の直後に顔部品座標間の距離の差分が基準値を下回ったフレームを表情変化が終了したフレームとして特定し、記憶手段16に記録する。これにより、解析対象抽出手段15は、表情変化の開始したフレームと、終了したフレームと、の間に含まれるフレームを解析対象として抽出する。
なお、図7に示した処理を行う際には、適宜フィルタリング等を行ってもよい。例えば、ステップS31において、顔部品座標間の距離の時間変化(各フレームにおける顔部品座標間の距離の変化)に対して低域通過フィルタ(LPF:Low Pass Filter)を適用してノイズ除去を行った上で、フレーム間の差分を算出してもよい。この他には、ノイズ除去のために、ステップS31において算出されたフレーム間の顔部品座標間の距離の差分の絶対値について、所定の値に満たない部分を0とする処理等を行うことができる。
以上のように、複数の画像から顔の顔部品座標を検出し、顔部品座標間の距離に基づいて表情変化が開始する画像及び表情変化が終了する画像を特定して、その間に含まれる画像を解析対象として抽出することにより、所定の表情変化を含むフレームを精度よく特定できる。これにより、所定の表情変化の際の肌の運動特性をより正確に解析することができ、肌解析の精度を上げることができる。
更に、顔部品座標として頬部分の肌の収縮に連動して距離が変化する2点を2組以上検出し、各組の距離を組み合わせて用いることで、複数種類の表情変化を連続して行う様子を撮影した複数の画像について、各種の表情変化の開始する画像及び表情変化の終了する画像を特定することができる。これにより、複数種類の表情変化を含む一連の表情変化に対して、そこに含まれる各種の表情変化のタイミングを一律の処理によって特定することができる。
本実施形態においては、例えば、無表情から「あ」の表情への縦方向表情変化と、「あ」の表情から「う」の表情への縦方向表情変化と、「う」の表情から「あ」の表情への縦方向表情変化と、「う」の表情から無表情への縦方向表情変化と、を連続して行う表情変化を撮影した動画に対して、図4に示した処理を行うことができる。これにより、一律の処理で各種の表情変化のタイミングをそれぞれ特定することができる。
また、本発明によれば、音声等の画像以外の情報を必要としないため、被撮影者への負担が小さく、集音器等を用いなくても解析対象を抽出することができる。
<実施形態2>
以下、本発明の他の実施形態について説明する。なお、実施形態1と同様の構成については同一の符号を付して説明を省略する。本実施形態では、顔部品座標として他の点を用いる構成を例示する。また、本実施形態では、顔の大きさ等の個人差や撮影時の倍率、カメラとの距離等による影響を減らすために、顔部品座標間の距離を所定の基準で標準化した値を用いて解析対象の抽出を行う。
図8は、本実施形態において縦方向表情変化の解析対象抽出に用いられる顔部品座標の一例を示す図である。このように、本実施形態では、顔部品座標検出工程において、顔部品座標検出手段12が、唇輪郭の上下端の点に加え、左右の頬のそれぞれ複数の点及び顎部の点の座標を顔部品座標として検出する。そして、距離算出工程(図4のS23)において、距離算出手段13が、左右の頬の各点と顎部の点との間の距離をそれぞれ算出して、その算出結果に基づいて解析対象が抽出される。
このように、顔の左右からそれぞれ複数の点を検出し、表情変化に伴って距離が変化する2点の組を複数用いることで、より精度よく解析対象を抽出することができる。また、横方向表情変化についても同様に、顔部品座標の組を複数用いて解析対象の抽出を行ってもよい。
また、本実施形態では、距離算出工程において、顔部品座標間の距離を標準化する為の基準距離を算出する基準距離算出工程が実行される。図9は、本実施形態において用いることができる、基準距離の例を示す図である。本実施形態では、左右の目の距離(図示例における「A」の距離)を基準距離として用いて、顔部品座標間の距離を標準化する。具体的には、例えば、Aの距離を算出し、顔部品座標間の距離を全てAで除算する等の方法で、顔部品座標間の距離を標準化することができる。
この他、左右の目を結ぶ線分から顎先に降ろした垂線の長さ(図示例における「B」の距離)等、個人差等による影響を是正できると考えられる任意の距離を、基準距離として用いることが好ましい。また、基準距離を複数組み合わせて、顔部品座標間の距離を標準化する構成としてもよい。なお、基準距離としては、顔上の任意の特徴を示す点に関する距離を用いればよく、特に制限はない。
そして、表情動作評価工程(図4のS24)~解析対象抽出工程(図4のS26)においては、顔部品座標間の距離を基準距離によって標準化した値を用いて、解析対象の抽出が行われる。ここでの処理は実施形態1と同様であり、本実施形態では、顔部品座標間の距離の代わりに、基準距離によって標準化された値を用いる。
以上のようにして、本実施形態では、顔部品座標間の距離を標準化した値を用いて、解析対象を抽出する。このようにすることで、個人差の影響を低減してより精度よく解析対象を抽出することができる。
なお、上記の各実施形態において説明した構成は本発明の一例であり、本発明はこれらの実施形態に限定されない。例えば、用いる顔部品座標の内容や数は任意に決定すればよく、より効果的に距離の変化を分析できるように構成することが好ましい。また、各工程の実行順序等も任意に変更してよく、例えば一部の処理を並行して実行してもよい。この他、本発明の趣旨を変更しない範囲で任意に構成を変更することができる。
1 サーバ装置
11 画像取得手段
12 顔部品座標検出手段
13 距離算出手段
14 表情動作評価手段
15 解析対象抽出手段
16 記憶手段
17 解析手段
2 端末装置
21 撮像手段
22 表示手段

Claims (12)

  1. 顔の表情変化の動的情報に基づいて肌の特徴を解析する肌解析方法であって、
    前記表情変化の過程を表す複数の画像を取得する画像取得工程と、
    前記複数の画像について、前記顔の部品の位置を示す複数の顔部品座標を検出する顔部品座標検出工程と、
    前記複数の画像について、前記顔部品座標間の距離を算出する距離算出工程と、
    前記顔部品座標間の距離の時系列の変化に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出する解析対象抽出工程と、
    前記解析対象抽出工程において抽出された画像を用いて、肌の特徴を解析する解析工程と、を含み、
    前記顔部品座標検出工程は、前記顔部品座標として、前記表情変化に連動して距離が変化する2点を検出することを特徴とする肌解析方法。
  2. 前記解析工程は、頬部分の肌の特徴を解析する工程を含むことを特徴とする、請求項1に記載の肌解析方法。
  3. 前記複数の画像は、前記顔を通る鉛直方向の軸まわりに正面を0度として0~90度の範囲で回転させた前記顔の表情変化を表す複数の画像を含むことを特徴とする、請求項1又は請求項2に記載の肌解析方法。
  4. 前記複数の画像は、前記顔を通る鉛直方向の軸まわりに正面を0度として20~30度の範囲で回転させた前記顔の表情変化を表す複数の画像を含むことを特徴とする、請求項1又は請求項2に記載の肌解析方法。
  5. 前記表情変化は、頬部分の肌を縦方向に伸縮させる縦方向表情変化と、頬部分の肌を横方向に伸縮させる横方向表情変化と、のうち少なくとも何れかを含むことを特徴とする、請求項2~の何れかに記載の肌解析方法。
  6. 前記表情変化は、前記頬部分の肌を同じ方向に伸縮させる表情変化を複数種類含み、
    前記解析対象抽出工程は、各種の表情変化が開始する画像及び終了する画像を特定し、前記各種の表情変化が開始する画像及び終了する画像の間の画像を解析対象として抽出することを特徴とする、請求項に記載の肌解析方法。
  7. 前記画像取得工程、前記顔部品座標検出工程、前記距離算出工程及び前記解析対象抽出工程は、前記縦方向表情変化を含む前記複数の画像と、前記横方向表情変化を含む前記複数の画像と、のそれぞれについて実行され、
    前記解析工程は、前記解析対象抽出工程においてそれぞれ抽出された、前記縦方向表情変化を含む複数の画像の中の解析対象及び前記横方向表情変化を含む複数の画像の中の解析対象を用いて、肌の特徴を解析することを特徴とする、請求項又は請求項に記載の肌解析方法。
  8. 前記距離算出工程及び前記解析対象抽出工程の間に、前記表情変化の大きさを評価する表情動作評価工程を含み、
    前記表情動作評価工程は、前記顔部品座標間の距離の変化に基づいて前記表情変化の大きさを評価し、前記表情変化の大きさが所定の値を上回った場合に解析対象抽出工程に進むことを特徴とする、請求項1~の何れかに記載の肌解析方法。
  9. 前記距離算出工程は、前記顔部品座標間の距離を複数算出する工程を含み、
    前記解析対象抽出工程は、複数の前記顔部品座標間の距離に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出することを特徴とする、請求項1~の何れかに記載の肌解析方法。
  10. 前記顔部品座標は、少なくとも唇輪郭の位置を示す座標を含むことを特徴とする、請求項1~の何れかに記載の肌解析方法。
  11. 前記距離算出工程は、前記顔部品座標間の距離を標準化する為の基準距離を算出する基準距離算出工程を更に含み、
    前記解析対象抽出工程は、前記基準距離に基づいて前記顔部品座標間の距離を標準化した値を用いて、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定することを特徴とする、請求項1~10の何れかに記載の肌解析方法。
  12. 顔の表情変化の動的情報に基づいて肌の特徴を解析する肌解析システムであって、
    前記表情変化の過程を表す複数の画像を取得する画像取得手段と、
    前記複数の画像について、前記顔の部品の座標を示す複数の顔部品座標を検出する顔部品座標検出手段と、
    前記複数の画像について、前記顔部品座標間の距離を算出する距離算出手段と、
    前記顔部品座標間の距離の時系列の変化に基づいて、前記複数の画像から、前記表情変化が開始する画像及び前記表情変化が終了する画像を特定し、前記表情変化が開始する画像及び前記表情変化が終了する画像の間の画像を解析対象として抽出する解析対象抽出手段と、
    前記解析対象抽出手段において抽出された画像を用いて、肌の特徴を解析する解析手段と、を備え
    前記顔部品座標検出手段が、前記顔部品座標として、前記表情変化に連動して距離が変化する2点を検出する手段であることを特徴とする肌解析システム。
JP2018218557A 2017-12-01 2018-11-21 肌解析方法及び肌解析システム Active JP7183005B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2017231333 2017-12-01
JP2017231333 2017-12-01

Publications (2)

Publication Number Publication Date
JP2019098168A JP2019098168A (ja) 2019-06-24
JP7183005B2 true JP7183005B2 (ja) 2022-12-05

Family

ID=66974953

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018218557A Active JP7183005B2 (ja) 2017-12-01 2018-11-21 肌解析方法及び肌解析システム

Country Status (1)

Country Link
JP (1) JP7183005B2 (ja)

Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338987A (ja) 1999-05-28 2000-12-08 Mitsubishi Electric Corp 発話開始監視装置、話者同定装置、音声入力システム、および話者同定システム、並びに通信システム
JP2005242567A (ja) 2004-02-25 2005-09-08 Canon Inc 動作評価装置及び方法
JP2006081846A (ja) 2004-09-17 2006-03-30 Inforward Inc 顔面溝の評価方法及び装置
JP2009098901A (ja) 2007-10-16 2009-05-07 Nippon Telegr & Teleph Corp <Ntt> 表情検出方法及び装置及びプログラム
JP2009163422A (ja) 2007-12-28 2009-07-23 Canon Inc 画像処理装置、画像処理方法、及び画像処理プログラム
US20090196475A1 (en) 2008-02-01 2009-08-06 Canfield Scientific, Incorporated Automatic mask design and registration and feature detection for computer-aided skin analysis
JP2014193197A (ja) 2013-03-28 2014-10-09 Shiseido Co Ltd 画像解析装置、画像解析方法、及び画像解析プログラム
JP2016194901A (ja) 2015-03-31 2016-11-17 ポーラ化成工業株式会社 顔の見た目印象の決定部位の抽出方法、顔の見た目印象の決定因子の抽出方法、顔の見た目印象の鑑別方法
JP2017502732A (ja) 2013-12-12 2017-01-26 ロレアル 少なくとも1つの顔の臨床徴候を評価するためのプロセス

Patent Citations (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2000338987A (ja) 1999-05-28 2000-12-08 Mitsubishi Electric Corp 発話開始監視装置、話者同定装置、音声入力システム、および話者同定システム、並びに通信システム
JP2005242567A (ja) 2004-02-25 2005-09-08 Canon Inc 動作評価装置及び方法
JP2006081846A (ja) 2004-09-17 2006-03-30 Inforward Inc 顔面溝の評価方法及び装置
JP2009098901A (ja) 2007-10-16 2009-05-07 Nippon Telegr & Teleph Corp <Ntt> 表情検出方法及び装置及びプログラム
JP2009163422A (ja) 2007-12-28 2009-07-23 Canon Inc 画像処理装置、画像処理方法、及び画像処理プログラム
US20090196475A1 (en) 2008-02-01 2009-08-06 Canfield Scientific, Incorporated Automatic mask design and registration and feature detection for computer-aided skin analysis
JP2014193197A (ja) 2013-03-28 2014-10-09 Shiseido Co Ltd 画像解析装置、画像解析方法、及び画像解析プログラム
JP2017502732A (ja) 2013-12-12 2017-01-26 ロレアル 少なくとも1つの顔の臨床徴候を評価するためのプロセス
JP2016194901A (ja) 2015-03-31 2016-11-17 ポーラ化成工業株式会社 顔の見た目印象の決定部位の抽出方法、顔の見た目印象の決定因子の抽出方法、顔の見た目印象の鑑別方法

Also Published As

Publication number Publication date
JP2019098168A (ja) 2019-06-24

Similar Documents

Publication Publication Date Title
JP6561830B2 (ja) 情報処理システム、情報処理方法及びプログラム
JP7452016B2 (ja) 学習データ生成プログラム、及び学習データ生成方法
JP6184271B2 (ja) 撮像管理装置、撮像管理システムの制御方法およびプログラム
JP6007682B2 (ja) 画像処理装置、画像処理方法及びプログラム
KR101929077B1 (ko) 이미지 식별 방법 및 이미지 식별 장치
JP5754990B2 (ja) 情報処理装置、情報処理方法及びプログラム
JP2009089077A5 (ja)
KR20130066438A (ko) 영상 처리 장치 및 영상 처리 방법
US9721153B2 (en) Image processing apparatus, image processing method, and storage medium that recognize an image based on a designated object type
JP5087037B2 (ja) 画像処理装置、方法及びプログラム
CN111950401B (zh) 确定关键点区域位置的方法、图像处理***、设备和介质
JP2016009448A (ja) 判定装置、判定方法及び判定プログラム
JP2007074503A (ja) 動画像編集装置
CN110910449B (zh) 识别物体三维位置的方法和***
JP2018081402A (ja) 画像処理装置、画像処理方法、及びプログラム
KR20160046399A (ko) 텍스쳐 맵 생성 방법 및 장치와 데이터 베이스 생성 방법
JP6406044B2 (ja) カメラ校正ユニット、カメラ校正方法、およびカメラ校正プログラム
JP7183005B2 (ja) 肌解析方法及び肌解析システム
KR102126370B1 (ko) 동작 인식 장치 및 방법
US20230368409A1 (en) Storage medium, model training method, and model training device
US10880457B2 (en) Image processing apparatus, image capturing apparatus, image processing method, and storage medium
JP7047848B2 (ja) 顔三次元形状推定装置、顔三次元形状推定方法、及び、顔三次元形状推定プログラム
KR102468648B1 (ko) 영상에 대한 원격 광용적맥파신호를 이용하여 사람의 심박수를 산출하는 방법
JP7356927B2 (ja) 肌解析方法、肌解析システム及び肌解析プログラム
JP6548306B2 (ja) カメラの撮影画像に映る人物を追跡する画像解析装置、プログラム及び方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210910

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220725

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220726

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220809

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20221115

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20221122

R150 Certificate of patent or registration of utility model

Ref document number: 7183005

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150