JP2021111114A - 学習データ生成プログラム、学習データ生成方法及び推定装置 - Google Patents

学習データ生成プログラム、学習データ生成方法及び推定装置 Download PDF

Info

Publication number
JP2021111114A
JP2021111114A JP2020002467A JP2020002467A JP2021111114A JP 2021111114 A JP2021111114 A JP 2021111114A JP 2020002467 A JP2020002467 A JP 2020002467A JP 2020002467 A JP2020002467 A JP 2020002467A JP 2021111114 A JP2021111114 A JP 2021111114A
Authority
JP
Japan
Prior art keywords
marker
image
generated
unit
learning data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020002467A
Other languages
English (en)
Other versions
JP7452016B2 (ja
Inventor
昭嘉 内田
Akiyoshi Uchida
昭嘉 内田
淳哉 斎藤
Junya Saito
淳哉 斎藤
章人 吉井
Akihito Yoshii
章人 吉井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Fujitsu Ltd
Original Assignee
Fujitsu Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Fujitsu Ltd filed Critical Fujitsu Ltd
Priority to JP2020002467A priority Critical patent/JP7452016B2/ja
Priority to US17/119,917 priority patent/US20210216821A1/en
Publication of JP2021111114A publication Critical patent/JP2021111114A/ja
Application granted granted Critical
Publication of JP7452016B2 publication Critical patent/JP7452016B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/214Generating training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06F18/2148Generating training patterns; Bootstrap methods, e.g. bagging or boosting characterised by the process organisation or structure, e.g. boosting cascade
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N20/00Machine learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/10Image acquisition
    • G06V10/12Details of acquisition arrangements; Constructional details thereof
    • G06V10/14Optical characteristics of the device performing the acquisition or on the illumination arrangements
    • G06V10/143Sensing or illuminating at different wavelengths
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/20Image preprocessing
    • G06V10/22Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition
    • G06V10/225Image preprocessing by selection of a specific region containing or referencing a pattern; Locating or processing of specific regions to guide the detection or recognition based on a marking or identifier characterising the area
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/77Processing image or video features in feature spaces; using data integration or data reduction, e.g. principal component analysis [PCA] or independent component analysis [ICA] or self-organising maps [SOM]; Blind source separation
    • G06V10/774Generating sets of training patterns; Bootstrap methods, e.g. bagging or boosting
    • G06V10/7747Organisation of the process, e.g. bagging or boosting
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/175Static expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/047Probabilistic or stochastic networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/179Human faces, e.g. facial parts, sketches or expressions metadata assisted face recognition

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Multimedia (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Artificial Intelligence (AREA)
  • Evolutionary Computation (AREA)
  • Computing Systems (AREA)
  • Data Mining & Analysis (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Engineering & Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Medical Informatics (AREA)
  • Mathematical Physics (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biomedical Technology (AREA)
  • Biophysics (AREA)
  • Databases & Information Systems (AREA)
  • Molecular Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Image Analysis (AREA)

Abstract

【課題】AU推定のための教師データを生成すること。【解決手段】生成装置は、顔を含む撮像画像を取得する。生成装置は、撮像画像に含まれるマーカの位置を特定する。生成装置は、AUの判定基準と特定されたマーカの位置とに基づいて、複数のAUのうち第1のAUを選択する。生成装置は、撮像画像からマーカを削除する画像処理を実行することによって、画像を生成する。生成装置は、生成された画像に第1のAUに関する情報を付与することによって機械学習用の学習データを生成する。【選択図】図4

Description

本発明は、学習データ生成技術、推定技術に関する。
ノンバーバルコミュニケーションにおいて、表情は重要な役割を果たしている。人を理解し、センシングするためには、表情推定技術は必須である。表情推定のためのツールとしてAU(Action Unit:アクションユニット)と呼ばれる手法が知られている。AUは、表情を顔の部位と表情筋に基づいて分解して定量化する手法である。
AU推定エンジンは、大量の教師データに基づく機械学習がベースにあり、教師データとして、顔表情の画像データと、各AUのOccurrence(発生の有無)やIntensity(発生強度)が用いられる。また、教師データのOccurrenceやIntensityは、Coder(コーダ)と呼ばれる専門家によりAnnotation(アノテーション)される。
特開2011−237970号公報
X. Zhang, L. Yin, J. Cohn, S. Canavan, M. Reale, A. Horowitz, P. Liu, and J. M. Girard. BP4D-spontaneous: A high-resolution spontaneous 3d dynamic facial expression database. Image and Vision Computing, 32, 2014. 1
しかしながら、従来の手法には、AU推定のための教師データを生成することが困難な場合があるという問題がある。例えば、コーダによるアノテーションでは、費用及び時間のコストがかかるため、データを大量に作成することが困難である。また、顔画像の画像処理による顔の各部位の移動計測では、小さな変化を正確に捉えるのが困難であり、コンピュータが人の判断を介さずに顔画像からAUの判定を行うことは難しい。したがって、コンピュータが人の判断を介さずに顔画像にAUのラベルを付した教師データを生成することは困難である。
1つの側面では、AU推定のための教師データを生成することを目的とする。
1つの態様において、学習データ生成プログラムは、顔を含む撮像画像を取得する処理をコンピュータに実行させる。学習データ生成プログラムは、撮像画像に含まれるマーカの位置を特定する処理をコンピュータに実行させる。学習データ生成プログラムは、アクションユニットの判定基準と特定されたマーカの位置とに基づいて、複数のアクションユニットのうち第1のアクションユニットを選択する処理をコンピュータに実行させる。学習データ生成プログラムは、撮像画像からマーカを削除する画像処理を実行することによって、画像を生成する処理をコンピュータに実行させる。学習データ生成プログラムは、生成された画像に第1のアクションユニットに関する情報を付与することによって機械学習用の学習データを生成する処理をコンピュータに実行させる。
1つの側面では、AU推定のための教師データを生成することができる。
図1は、学習システムの構成を説明する図である。 図2は、カメラの配置例を示す図である。 図3は、生成装置の構成例を示すブロック図である。 図4は、マーカの移動について説明する図である。 図5は、発生強度の判定方法を説明する図である。 図6は、発生強度の判定方法の例を示す図である。 図7は、マスク画像の作成方法を説明する図である。 図8は、マーカの削除方法を説明する図である。 図9は、推定装置の構成例を示すブロック図である。 図10は、生成装置の処理の流れを示すフローチャートである。 図11は、発生強度判定処理の流れを示すフローチャートである。 図12は、学習データ生成処理の流れを示すフローチャートである。 図13は、ハードウェア構成例を説明する図である。
以下に、本発明に係る学習データ生成プログラム、学習データ生成方法及び推定装置の実施例を図面に基づいて詳細に説明する。なお、この実施例により本発明が限定されるものではない。また、各実施例は、矛盾のない範囲内で適宜組み合わせることができる。
図1を用いて、実施例に係る学習システムの構成を説明する。図1は、学習システムの構成を説明するための図である。図1に示すように、学習システム1は、RGB(Red、Green、Blue)カメラ31、IR(infrared:赤外線)カメラ32、生成装置10及び学習装置20を有する。
図1に示すように、まず、RGBカメラ31及びIRカメラ32は、マーカが付された人物の顔に向けられる。例えば、RGBカメラ31は一般的なデジタルカメラであり、可視光を受光し画像を生成する。また、例えば、IRカメラ32は、赤外線を感知する。また、マーカは、例えばIR反射(再帰性反射)マーカである。IRカメラ32は、マーカによるIR反射を利用してモーションキャプチャを行うことができる。また、以降の説明では、撮像対象の人物を被験者と呼ぶ。
生成装置10は、RGBカメラ31によって撮像された画像及びIRカメラ32によるモーションキャプチャの結果を取得する。そして、生成装置10は、AUの発生強度121及び撮像画像から画像処理によりマーカを削除した画像122を学習装置20に対し出力する。例えば、発生強度121は、各AUの発生強度をAからEの5段階評価で表現し、「AU1:2、AU2:5、AU4:1、…」のようにアノテーションが行われたデータであってもよい。発生強度は、5段階評価で表現されるものに限られるものではなく、例えば2段階評価(発生の有無)によって表現されても良い。
学習装置20は、生成装置10から出力された画像122及びAUの発生強度121を用いて機械学習を行い、画像からAUの発生強度を推定するためのモデルを生成する。学習装置20は、AUの発生強度をラベルとして用いることができる。
ここで、図2を用いて、カメラの配置について説明する。図2は、カメラの配置例を示す図である。図2に示すように、複数のIRカメラ32がマーカトラッキングシステムを構成していてもよい。その場合、マーカトラッキングシステムは、ステレオ撮影によりIR反射マーカの位置を検出することができる。また、複数のIRカメラ32のそれぞれの間の相対位置関係は、カメラキャリブレーションによりあらかじめ補正されているものとする。
また、撮像される被験者の顔には、対象とするAU(例:AU1からAU28)をカバーするように、複数のマーカが付される。マーカの位置は、被験者の表情の変化に応じて変化する。例えば、マーカ401は、眉の根元付近に配置される。また、マーカ402及びマーカ403は、豊麗線の付近に配置される。マーカは、1つ以上のAU及び表情筋の動きに対応した皮膚の上に配置されてもよい。また、マーカは、しわの寄り等により、テクスチャ変化が大きくなる皮膚の上を避けて配置されてもよい。
さらに、被験者は、基準点マーカが付された器具40を装着する。被験者の表情が変化しても、器具40に付された基準点マーカの位置は変化しないものとする。このため、生成装置10は、基準点マーカからの相対的な位置の変化により、顔に付されたマーカの位置の変化を検出することができる。また、基準マーカの数を3つ以上にすることで、生成装置10は、3次元空間におけるマーカの位置を特定することができる。
器具40は、例えばヘッドバンドであり、顔の輪郭外に基準点マーカを配置する。また、器具40は、VRヘッドセット及び固い素材のマスク等であってもよい。その場合、生成装置10は、器具40のリジッド表面を基準点マーカとして利用することができる。
図3を用いて、生成装置10の機能構成を説明する。図3は、生成装置の構成例を示すブロック図である。図3に示すように、生成装置10は、入力部11、出力部12、記憶部13及び制御部14を有する。
入力部11は、データを入力するためのインタフェースである。例えば、入力部11は、マウス及びキーボード等の入力装置を介してデータの入力を受け付ける。また、出力部12は、データを出力するためのインタフェースである。例えば、出力部12は、ディスプレイ等の出力装置にデータを出力する。
記憶部13は、データや制御部14が実行するプログラム等を記憶する記憶装置の一例であり、例えばハードディスクやメモリ等である。記憶部13は、AU情報131を記憶する。AU情報131は、マーカとAUの対応関係を表す情報である。
制御部14は、例えば、CPU(Central Processing Unit)、MPU(Micro Processing Unit)、GPU(Graphics Processing Unit)等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部14は、例えば、ASIC(Application Specific Integrated Circuit)やFPGA(Field Programmable Gate Array)等の集積回路により実現されるようにしてもよい。制御部14は、取得部141、特定部142、判定部143、画像生成部144及び学習データ生成部145を有する。
取得部141は、顔を含む撮像画像を取得する。例えば、取得部141は、複数のAUに対応する複数の位置に複数のマーカを付した顔を含む撮像画像を取得する。取得部141は、RGBカメラ31によって撮像された画像を取得する。
ここで、IRカメラ32及びRGBカメラ31による撮影が行われる際、被験者は表情を変化させていく。これにより、生成装置10は、時系列に沿って表情が変化していく様子を画像として取得することができる。また、RGBカメラ31は、動画を撮像してもよい。動画は、時系列に並べられた複数の静止画とみなすことができる。また、被験者は、自由に表情を変化させてもよいし、あらかじめ定められたシナリオに沿って表情を変化させてもよい。
特定部142は、撮像画像に含まれるマーカの位置を特定する。特定部142は、撮像画像に含まれる複数のマーカのそれぞれの位置を特定する。さらに、時系列に沿って複数の画像が取得された場合、特定部142は、各画像についてマーカの位置を特定する。また、特定部142は、器具40に付された基準マーカとの位置関係を基に、各マーカの平面上又は空間上の座標を特定することができる。なお、特定部142は、マーカの位置を、基準座標系から定めてもよいし、基準面の投影位置から定めてもよい。
判定部143は、AUの判定基準と複数のマーカの位置とに基づいて、複数のAUのそれぞれの発生の有無を判定する。判定部143は、複数のAUのうち発生している1以上のAUについて、発生強度を判定する。このとき、判定部143は、複数のAUのうちマーカに対応するAUが、判定基準とマーカの位置とに基づいて発生していると判定された場合に、当該マーカに対応するAUを選択することができる。
例えば、判定部143は、判定基準に含まれる第1のAUに対応付けられた第1のマーカの基準位置と、特定部142によって特定された第1のマーカの位置との距離に基づいて算出した第1のマーカの移動量を基に、第1のAUの発生強度を判定する。なお、第1のマーカは、特定のAUに対応する1つ、あるいは複数マーカということができる。
AUの判定基準は、例えば、複数のマーカのうち、AU毎にAUの発生強度を判定するために使用される1又は複数のマーカを示す。AUの判定基準は、複数のマーカの基準位置を含んでもよい。AUの判定基準は、複数のAUのそれぞれについて、発生強度の判定に使用されるマーカの移動量と発生強度との関係(換算ルール)を含んでもよい。なお、マーカの基準位置は、被験者が無表情な状態(いずれのAUも発生していない)の撮像画像における複数のマーカの各位置に応じて定められてもよい。
ここで、図4を用いて、マーカの移動について説明する。図4は、マーカの移動について説明する説明図である。図4の(a)、(b)、(c)は、RGBカメラ31によって撮像された画像である。また、画像は、(a)、(b)、(c)の順で撮像されたものとする。例えば、(a)は、被験者が無表情であるときの画像である。生成装置10は、(a)の画像のマーカの位置を、移動量が0の基準位置とみなすことができる。
図4に示すように、被験者は、眉を寄せるような表情を取っている。このとき、表情の変化に従い、マーカ401の位置は下方向に移動している。その際、マーカ401の位置と、器具40に付された基準マーカとの間の距離は大きくなっている。
また、マーカ401の基準マーカからのX方向及びY方向の距離の変動値は、図5のように表される。図5は、発生強度の判定方法を説明する説明図である。図5に示すように、判定部143は、変動値を発生強度に換算することができる。なお、発生強度は、FACS(Facial Action Coding System)に準じて5段階に量子化されたものであってもよいし、変動量に基づく連続量として定義されたものであってもよい。
判定部143が変動量を発生強度に換算するルールとしては、様々なものが考えられる。判定部143は、あらかじめ定められた1つのルールに従って換算を行ってもよいし、複数のルールで換算を行い、最も発生強度が大きいものを採用するようにしてもよい。
例えば、判定部143は、被験者が最大限表情を変化させたときの変動量である最大変動量をあらかじめ取得しておき、変動量の最大変動量に対する割合に基づいて発生強度を換算してもよい。また、判定部143は、従来手法によりコーダがタグ付けしたデータを用いて最大変動量を定めておいてもよい。また、判定部143は、変動量を発生強度にリニアに換算してもよい。また、判定部143は、複数の被験者の事前測定から作成された近似式を用いて換算を行ってもよい。
また、例えば、判定部143は、判定基準としてあらかじめ設定された位置と、特定部142によって特定された第1のマーカの位置とに基づいて算出した第1のマーカの移動ベクトルを基に発生強度を判定することができる。この場合、判定部143は、第1のマーカの移動ベクトルと、第1のAUに対してあらかじめ対応付けられたベクトルとの合致度合いを基に、第1のAUの発生強度を判定する。また、判定部143は、既存のAU推定エンジンを使って、ベクトルの大きさと発生強度の対応を補正してもよい。
図6は、発生強度の判定方法の例を示す図である。例えば、AU4に対応するAU4ベクトルが(−2mm,−6mm)のようにあらかじめ定められているものとする。このとき、判定部143は、マーカ401の移動ベクトルとAU4ベクトルの内積を計算し、AU4ベクトルの大きさで規格化する。ここで、内積がAU4ベクトルの大きさと一致すれば、判定部143は、AU4の発生強度を5段階中の5と判定する。一方、内積がAU4ベクトルの半分であれば、例えば、前述のリニアな換算ルールの場合は、判定部143は、AU4の発生強度を5段階中の3と判定する。
また、例えば、図6に示すように、AU11に対応するAU11ベクトルの大きさが3mmのようにあらかじめ定められているものとする。このとき、判定部143は、マーカ402とマーカ403の間の距離の変動量がAU11ベクトルの大きさと一致すれば、判定部143は、AU11の発生強度を5段階中の5と判定する。一方、距離の変動量がAU4ベクトルの半分であれば、例えば、前述のリニアな換算ルールの場合は、判定部143は、AU11の発生強度を5段階中の3と判定する。このように、判定部143は、特定部142によって特定された第1のマーカの位置及び第2のマーカの位置との間の距離の変化を基に、発生強度を判定することができる。
さらに、生成装置10は、画像処理を行った画像と発生強度を関連付けて出力してもよい。その場合、画像生成部144は、撮像画像からマーカを削除する画像処理を実行することによって、画像を生成する。
画像生成部144は、マスク画像を用いてマーカを削除することができる。図7は、マスク画像の作成方法を説明する説明図である。図7の(a)は、RGBカメラ31によって撮像された画像である。まず、画像生成部144は、あらかじめ意図的に付けられたマーカの色を抽出して代表色として定義する。そして、図7の(b)のように、画像生成部144は、代表色近傍の色の領域画像を生成する。さらに、図7の(c)のように、画像生成部144は、代表色近傍の色の領域に対し収縮、膨張等の処理を行い、マーカ削除用のマスク画像を生成する。また、マーカの色を顔の色としては存在しにくい色に設定しておくことで、マーカの色の抽出精度を向上させてもよい。
図8は、マーカの削除方法を説明する説明図である。図8に示すように、まず、画像生成部144は、動画から取得した静止画に対し、マスク画像を適用する。さらに、画像生成部144は、マスク画像を適用した画像を例えばニューラルネットワークに入力し、処理済みの画像を得る。なお、ニューラルネットワークは、被験者のマスクありの画像及びマスクなしの画像等を用いて学習済みであるものとする。なお、動画から静止画を取得することにより、表情変化の途中データが得られることや、短時間で大量のデータが得られることがメリットとして生じる。また、画像生成部144は、ニューラルネットワークとして、GMCNN(Generative Multi-column Convolutional Neural Networks)やGAN(Generative Adversarial Networks)を用いてもよい。
なお、画像生成部144がマーカを削除する方法は、上記のものに限られない。例えば、画像生成部144は、あらかじめ定められたマーカの形状を基にマーカの位置を検出し、マスク画像を生成してもよい。また、IRカメラ32とRGBカメラ31の相対位置のキャリブレーションを事前に行うようにしてもよい。この場合、画像生成部144は、IRカメラ32によるマーカトラッキングの情報からマーカの位置を検出することができる。
また、画像生成部144は、マーカにより異なる検出方法を採用してもよい。例えば、鼻上のマーカは動きが少なく、形状を認識しやすいため、画像生成部144は、形状認識により位置を検出してもよい。また、口横のマーカは動きが大きく、形状を認識しにくいため、画像生成部144は、代表色を抽出する方法で位置を検出してもよい。
学習データ生成部145は、生成された画像に第1のAUに関する情報を付与することによって機械学習用の学習データを生成する。例えば、学習データ生成部145は、生成された画像に、判定部143によって判定された第1のAUの発生強度を付与することによって機械学習用の学習データを生成する。また、学習装置20は、学習データ生成部145によって生成された学習データを既存の学習データに加えて学習を行ってもよい。
例えば、学習データは、画像を入力として、発生しているAUを推定する推定モデルの学習に使用できる。また、推定モデルは各AUに特化したモデルであってもよい。推定モデルが特定のAUに特化したものである場合、生成装置10は、生成した学習データを、当該特定のAUに関する情報のみを教師ラベルとする学習データに変更してもよい。つまり、生成装置10は、特定のAUと異なる他のAUが発生している画像に関しては、他のAUに関する情報を削除して、当該特定のAUは発生していない旨の情報を教師ラベルとして付加することができる。
本実施例によれば、必要な学習データの見積もりを行うことができる。一般に、機械学習を実施するためには、膨大な計算コストがかかる。計算コストには、時間やGPU等の使用量が含まれる。
データセットの質及び量が改善すると、学習によって得られるモデルの精度は改善する。そのため、事前に目標精度に対して必要なデータセットの質及び量の大まかな見積もりができれば、計算コストが削減される。ここで、例えば、データセットの質は、マーカの削除率及び削除精度である。また、例えば、データセットの量は、データセット数及び被験者の人数である。
AUの組み合わせ中には、互いの相関が高い組み合わせがある。このため、あるAUに対して行った見積りは、当該AUと相関が高い他のAUに適用できると考えられる。例えば、AU18とAU22の相関は高いことが知られており、対応するマーカが共通する場合がある。このため、AU18の推定精度が目標に達する程度のデータセットの質及び量の見積もりができれば、AU22の推定精度が目標に達する程度のデータセットの質及び量の大まかな見積もりが可能になる。
学習装置20は、生成装置10によって生成された学習データを用いて機械学習を行い、画像から各AUの発生強度を推定するためのモデルを生成する。さらに、推定装置60は、学習装置20によって生成されたモデルを用いて、実際に推定を行う。
図9を用いて、推定装置60の機能構成を説明する。図9は、推定装置の構成例を示すブロック図である。図9に示すように、推定装置60は、入力部61、出力部62、記憶部63及び制御部64を有する。
入力部61は、データを入力するための装置又はインタフェースである。例えば、入力部61は、マウス及びキーボードである。また、出力部62は、データを出力するための装置又はインタフェースである。例えば、出力部62は、画面を表示するディスプレイ等である。
記憶部63は、データや制御部64が実行するプログラム等を記憶する記憶装置の一例であり、例えばハードディスクやメモリ等である。記憶部63は、モデル情報631を記憶する。モデル情報631は、学習装置20によって生成されたモデルを構築するためのパラメータ等である。
制御部64は、例えば、CPU、MPU、GPU等によって、内部の記憶装置に記憶されているプログラムがRAMを作業領域として実行されることにより実現される。また、制御部64は、例えば、ASICやFPGA等の集積回路により実現されるようにしてもよい。制御部64は、取得部641及び推定部642を有する。
取得部641は、顔を含む第1の撮像画像を取得する。例えば、第1の画像は、人物の顔が写った画像であって、各AUの発生強度が未知である画像を取得する。
推定部642は、AUの判定基準と撮像画像に含まれるマーカの位置とに基づいて選択された第1のAUの情報を教師ラベルとした学習データに基づいて機械学習により生成された機械学習モデルに、第1の撮像画像を入力する。そして、推定部642は、機械学習モデルの出力を、顔の表情の推定結果として取得する。
例えば、推定部642は、各AUの発生強度をAからEの5段階評価で表現した、「AU1:2、AU2:5、AU4:1、…」のようなデータを取得する。また、出力部12は、推定部642によって取得された推定結果を出力する。
図10を用いて、生成装置10の処理の流れを説明する。図10は、生成装置の処理の流れを示すフローチャートである。図10に示すように、まず、生成装置10は、被験者の顔の撮像画像を取得する(ステップS10)。次に、生成装置10は、発生強度判定処理を実行する(ステップS20)。そして、生成装置10は、学習データ生成処理を実行する(ステップS30)。そして、生成装置10は、発生強度又は学習データを出力する(ステップS40)。生成装置10は、発生強度のみを出力してもよいし、撮像画像と発生強度を関連付けた所定の形式のデータを出力してもよい。なお、ステップS20はマーカ画像があれば実行可能であるため、生成装置10は、S1とS20並列に実行してもよい。
図11を用いて、発生強度判定処理(図10のステップS20)の流れを説明する。図11は、発生強度判定処理の流れを示すフローチャートである。図11に示すように、まず、生成装置10は、撮像画像のマーカの位置を特定する(ステップS201)。
次に、生成装置10は、特定したマーカの位置と基準位置を基に、マーカの移動ベクトルを計算する(ステップS202)。そして、生成装置10は、移動ベクトルを基にAUの発生強度を判定する(ステップS203)。
図12を用いて、学習データ生成処理の流れを説明する。図12は、学習データ生成処理の流れを示すフローチャートである。図12に示すように、まず、生成装置10は、撮像画像のマーカの位置を特定する(ステップS301)。生成装置10は、画像からマーカを削除する(ステップS302)。そして、生成装置10は、AUの発生強度をマーカが削除された画像に付与する(ステップS303)。
上述したように、生成装置10の取得部141は、顔を含む撮像画像を取得する。特定部142は、撮像画像に含まれるマーカの位置を特定する。判定部143は、AUの判定基準と特定されたマーカの位置とに基づいて、複数のAUのうち第1のAUを選択する。画像生成部144は、撮像画像からマーカを削除する画像処理を実行することによって、画像を生成する。学習データ生成部145は、生成された画像に第1のAUに関する情報を付与することによって機械学習用の学習データを生成する。このように、生成装置10は、マーカが削除された高品質な学習データを自動的に得ることができる。その結果、本実施例によれば、AU推定のための教師データを生成することができる。
判定部143は、複数のAUのうちマーカに対応するAUが、判定基準とマーカの位置とに基づいて発生していると判定された場合に、当該AUを選択する。このように、判定部143は、マーカに対応するAUを判定することができる。
判定部143は、判定基準に含まれるマーカの基準位置と、特定されたマーカの位置との距離に基づいて算出したマーカの移動量を基に、AUの発生強度を判定する。このように、判定部143は、距離に基づいてAUを判定することができる。
推定装置60の取得部641は、顔を含む第1の撮像画像を取得する。推定部642は、AUの判定基準と撮像画像に含まれるマーカの位置とに基づいて選択された第1のAUの情報を教師ラベルとした学習データに基づいて機械学習により生成された機械学習モデルに、第1の撮像画像を入力する。推定部642は、機械学習モデルの出力を、顔の表情の推定結果として取得する。このように、推定装置60は、低コストで生成されたモデルを用いて、精度の良い推定を行うことができる。
上述したように、生成装置10の取得部141は、複数のAUに対応する複数の位置に複数のマーカを付した顔を含む撮像画像を取得する。特定部142は、撮像画像に含まれる複数のマーカのそれぞれの位置を特定する。判定部143は、複数のAUの中から選択した特定のAUの判定基準と複数のマーカのうち特定のAUに対応する1つ、あるいは複数マーカの位置とに基づいて、特定のAUの発生強度を判定する。出力部12は、撮像画像に関連付けて特定のAUの発生強度を出力する。このように、生成装置10は、コーダによるアノテーションを行うことなく、撮像画像から特定のAUの発生強度を判定することができる。その結果、AU推定のための教師データを生成することも可能となる。
判定部143は、判定基準としてあらかじめ設定された位置と、特定部142によって特定された1つ、あるいは複数のマーカの位置との距離に基づいて算出したマーカの移動量基に、発生強度を判定する。このように、生成装置10は、判定基準を用いることでAUの発生強度を精度良く計算することができる。
判定部143は、判定基準としてあらかじめ設定された位置と、特定部142によって特定された第1のマーカの位置とに基づいて算出した1つ、あるいは複数のマーカの移動ベクトルと、特定のAUに対してあらかじめ対応付けられたベクトルとの合致度合いを基に、特定のAUの発生強度を判定する。このように、生成装置10は、移動ベクトルを計算することで、方向を含めてマーカの移動を評価し、発生強度の判定精度を向上させることができる。
判定部143は、特定部142によって特定された第1のマーカの位置及び第2のマーカの位置との間の距離の変化を基に、発生強度を判定する。このように、生成装置10は、複数のマーカの位置を用いることで、顔表面のテクスチャ変化に起因するような複雑なマーカの動きにも対応することができる。
上記の実施例では、判定部143が、マーカの移動量を基にAUの発生強度を判定するものとして説明した。一方で、マーカが動かなかったことも、判定部143による発生強度の判定基準になり得る。
また、マーカの周囲には、検出しやすい色が配置されていてもよい。例えば、中央にIRマーカを置いた丸い緑色の粘着シールを被験者に付してもよい。この場合、画像生成部144は、撮像画像から緑色の丸い領域を検出し、当該領域をIRマーカごと削除することができる。
上記文書中や図面中で示した処理手順、制御手順、具体的名称、各種のデータやパラメータを含む情報については、特記する場合を除いて任意に変更することができる。また、実施例で説明した具体例、分布、数値等は、あくまで一例であり、任意に変更することができる。
また、図示した各装置の各構成要素は機能概念的なものであり、必ずしも物理的に図示の如く構成されていることを要しない。すなわち、各装置の分散や統合の具体的形態は図示のものに限られない。つまり、その全部又は一部を、各種の負荷や使用状況等に応じて、任意の単位で機能的又は物理的に分散・統合して構成することができる。さらに、各装置にて行われる各処理機能は、その全部又は任意の一部が、CPU及び当該CPUにて解析実行されるプログラムにて実現され、あるいは、ワイヤードロジックによるハードウェアとして実現され得る。
図13は、ハードウェア構成例を説明する図である。図11に示すように、生成装置10は、通信インタフェース10a、HDD(Hard Disk Drive)10b、メモリ10c、プロセッサ10dを有する。また、図13に示した各部は、バス等で相互に接続される。
通信インタフェース10aは、ネットワークインタフェースカード等であり、他のサーバとの通信を行う。HDD10bは、図3に示した機能を動作させるプログラムやDBを記憶する。
プロセッサ10dは、図2に示した各処理部と同様の処理を実行するプログラムをHDD10b等から読み出してメモリ10cに展開することで、図3等で説明した各機能を実行するプロセスを動作させるハードウェア回路である。すなわち、このプロセスは、生成装置10が有する各処理部と同様の機能を実行する。具体的には、プロセッサ10dは、取得部141、特定部142、判定部143、画像生成部144及び学習データ生成部145と同様の機能を有するプログラムをHDD10b等から読み出す。そして、プロセッサ10dは、取得部141、特定部142、判定部143、画像生成部144及び学習データ生成部145等と同様の処理を実行するプロセスを実行する。
このように生成装置10は、プログラムを読み出して実行することで学習類方法を実行する情報処理装置として動作する。また、生成装置10は、媒体読取装置によって記録媒体から上記プログラムを読み出し、読み出された上記プログラムを実行することで上記した実施例と同様の機能を実現することもできる。なお、この他の実施例でいうプログラムは、生成装置10によって実行されることに限定されるものではない。例えば、他のコンピュータ又はサーバがプログラムを実行する場合や、これらが協働してプログラムを実行するような場合にも、本発明を同様に適用することができる。
このプログラムは、インターネット等のネットワークを介して配布することができる。また、このプログラムは、ハードディスク、フレキシブルディスク(FD)、CD−ROM、MO(Magneto−Optical disk)、DVD(Digital Versatile Disc)等のコンピュータで読み取り可能な記録媒体に記録され、コンピュータによって記録媒体から読み出されることによって実行することができる。
1 学習システム
10 生成装置
11、61 入力部
12、62 出力部
13、63 記憶部
14、64 制御部
20 学習装置
31 RGBカメラ
32 IRカメラ
40 器具
60 推定装置
131 AU情報
141 取得部
142 特定部
143 判定部
144 画像生成部
145 学習データ生成部
401、402、403 マーカ
631 モデル情報
641 取得部
642 推定部

Claims (8)

  1. 顔を含む撮像画像を取得し、
    前記撮像画像に含まれるマーカの位置を特定し、
    アクションユニットの判定基準と特定された前記マーカの位置とに基づいて、複数のアクションユニットのうち第1のアクションユニットを選択し、
    前記撮像画像から前記マーカを削除する画像処理を実行することによって、画像を生成し、
    生成された前記画像に前記第1のアクションユニットに関する情報を付与することによって機械学習用の学習データを生成する、
    処理をコンピュータに実行させることを特徴とする学習データ生成プログラム。
  2. 前記選択する処理は、前記複数のアクションユニットのうち前記マーカに対応する前記第1のアクションユニットが、前記判定基準と前記マーカの位置とに基づいて発生していると判定された場合に、前記第1のアクションユニットを選択する処理を含む、
    ことを特徴とする請求項1に記載の学習データ生成プログラム。
  3. 前記判定基準に含まれる前記マーカの基準位置と、特定された前記マーカの位置との距離に基づいて算出した前記マーカの移動量を基に、前記第1のアクションユニットの発生強度を判定する、
    処理を前記コンピュータにさらに実行させることを特徴とする請求項2に記載の学習データ生成プログラム。
  4. 前記第1のアクションユニットに関する情報は、前記第1のアクションユニットの発生強度を含む、
    ことを特徴とする請求項3に記載の学習データ生成プログラム。
  5. 生成された前記学習データを用いて、顔を含む他の撮像画像を入力としアクションユニットの発生強度に関する情報を出力とする推定モデルの機械学習を実行する、
    処理を前記コンピュータに実行させることを特徴とする請求項1に記載の学習データ生成プログラム。
  6. 顔を含む撮像画像を取得し、
    前記撮像画像に含まれるマーカの位置を特定し、
    アクションユニットの判定基準と特定された前記マーカの位置とに基づいて、複数のアクションユニットのうち第1のアクションユニットを選択し、
    前記撮像画像から前記マーカを削除する画像処理を実行することによって、画像を生成し、
    生成された前記画像に前記第1のアクションユニットに関する情報を付与することによって機械学習用の学習データを生成する、
    処理をコンピュータが実行することを特徴とする学習データ生成方法。
  7. 顔を含む第1の撮像画像を取得し、
    アクションユニットの判定基準と撮像画像に含まれるマーカの位置とに基づいて選択された第1のアクションユニットの情報を教師ラベルとした学習データに基づいて機械学習により生成された機械学習モデルに、前記第1の撮像画像を入力し、
    前記機械学習モデルの出力を、前記顔の表情の推定結果として取得する、
    処理を実行する処理部を有することを特徴とする推定装置。
  8. 前記第1のアクションユニットの情報は、前記撮像画像における前記第1のアクションユニットの発生強度を示す情報であって、
    前記推定結果は、前記第1の撮像画像における前記第1のアクションユニットの発生強度を含む、
    ことを特徴とする請求項7に記載の推定装置。
JP2020002467A 2020-01-09 2020-01-09 学習データ生成プログラム、及び学習データ生成方法 Active JP7452016B2 (ja)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2020002467A JP7452016B2 (ja) 2020-01-09 2020-01-09 学習データ生成プログラム、及び学習データ生成方法
US17/119,917 US20210216821A1 (en) 2020-01-09 2020-12-11 Training data generating method, estimating device, and recording medium

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020002467A JP7452016B2 (ja) 2020-01-09 2020-01-09 学習データ生成プログラム、及び学習データ生成方法

Publications (2)

Publication Number Publication Date
JP2021111114A true JP2021111114A (ja) 2021-08-02
JP7452016B2 JP7452016B2 (ja) 2024-03-19

Family

ID=76763372

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020002467A Active JP7452016B2 (ja) 2020-01-09 2020-01-09 学習データ生成プログラム、及び学習データ生成方法

Country Status (2)

Country Link
US (1) US20210216821A1 (ja)
JP (1) JP7452016B2 (ja)

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4207097A1 (en) 2021-12-28 2023-07-05 Fujitsu Limited Information processing program, information processing method, and information processing apparatus
EP4207096A1 (en) 2021-12-28 2023-07-05 Fujitsu Limited Information processing program, information processing method, and information processing apparatus
EP4207107A1 (en) 2021-12-28 2023-07-05 Fujitsu Limited Information processing program, information processing method, and information processing apparatus
EP4207101A1 (en) 2021-12-28 2023-07-05 Fujitsu Limited Information processing program, information processing method, and information processing apparatus
EP4207098A1 (en) 2021-12-28 2023-07-05 Fujitsu Limited Information processing program, information processing method, and information processing apparatus
WO2023127156A1 (ja) 2021-12-28 2023-07-06 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7452015B2 (ja) * 2020-01-09 2024-03-19 富士通株式会社 判定プログラム、判定方法、判定装置
CN114917544B (zh) * 2022-05-13 2023-09-22 上海交通大学医学院附属第九人民医院 可视化的辅助口轮匝肌功能训练的方法与设备
CN115052194B (zh) * 2022-06-02 2023-05-02 北京新唐思创教育科技有限公司 学习报告生成方法、装置、电子设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002517859A (ja) * 1998-06-08 2002-06-18 マイクロソフト コーポレイション 表情の3dジオメトリ、色、およびシェーディングを取り込んで表すための方法およびシステム
JP2019517693A (ja) * 2016-06-01 2019-06-24 オハイオ・ステイト・イノベーション・ファウンデーション 表情の認識および注釈付けのためのシステムおよび方法

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US8462996B2 (en) * 2008-05-19 2013-06-11 Videomining Corporation Method and system for measuring human response to visual stimulus based on changes in facial expression
US10289898B2 (en) * 2010-06-07 2019-05-14 Affectiva, Inc. Video recommendation via affect
JP7083189B2 (ja) * 2018-03-29 2022-06-10 国立大学法人 奈良先端科学技術大学院大学 学習データセット作製方法及び装置
US10885693B1 (en) * 2019-06-21 2021-01-05 Facebook Technologies, Llc Animating avatars from headset cameras

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002517859A (ja) * 1998-06-08 2002-06-18 マイクロソフト コーポレイション 表情の3dジオメトリ、色、およびシェーディングを取り込んで表すための方法およびシステム
JP2019517693A (ja) * 2016-06-01 2019-06-24 オハイオ・ステイト・イノベーション・ファウンデーション 表情の認識および注釈付けのためのシステムおよび方法

Non-Patent Citations (4)

* Cited by examiner, † Cited by third party
Title
BEAT FASEL, 外1名: ""Recognition of asymmetric facial action unit activities and intensities"", PROCEEDINGS 15TH INTERNATIONAL CONFERENCE ON PATTERN RECOGNITION. ICPR-2000, JPN6023030671, 7 September 2000 (2000-09-07), pages 1100 - 1103, ISSN: 0005118633 *
SUSANNE KAISER, 外1名: ""Automated coding of facial behavior in humancomputer interactions with FACS."", JOURNAL OF NONVERBAL BEHAVIOR, JPN7023002870, June 1992 (1992-06-01), pages 67 - 83, ISSN: 0005118634 *
山本俊太, 外4名: ""モーションキャプチャで得られた顔特徴点位置データを用いた表情の識別"", 電子情報通信学会技術研究報告, vol. 第110巻, 第457号, JPN6023030669, 28 February 2011 (2011-02-28), JP, pages 101 - 106, ISSN: 0005118636 *
崔昌石, 外2名: ""顔の3次元モデルを用いた顔面表情の分析"", 電子情報通信学会論文誌, vol. 第J74-D-II巻, 第6号, JPN6023030670, 25 June 1991 (1991-06-25), JP, pages 766 - 777, ISSN: 0005118635 *

Cited By (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP4207097A1 (en) 2021-12-28 2023-07-05 Fujitsu Limited Information processing program, information processing method, and information processing apparatus
EP4207096A1 (en) 2021-12-28 2023-07-05 Fujitsu Limited Information processing program, information processing method, and information processing apparatus
EP4207107A1 (en) 2021-12-28 2023-07-05 Fujitsu Limited Information processing program, information processing method, and information processing apparatus
EP4207101A1 (en) 2021-12-28 2023-07-05 Fujitsu Limited Information processing program, information processing method, and information processing apparatus
EP4207098A1 (en) 2021-12-28 2023-07-05 Fujitsu Limited Information processing program, information processing method, and information processing apparatus
WO2023127156A1 (ja) 2021-12-28 2023-07-06 富士通株式会社 情報処理プログラム、情報処理方法および情報処理装置

Also Published As

Publication number Publication date
US20210216821A1 (en) 2021-07-15
JP7452016B2 (ja) 2024-03-19

Similar Documents

Publication Publication Date Title
JP7452016B2 (ja) 学習データ生成プログラム、及び学習データ生成方法
JP4950787B2 (ja) 画像処理装置及びその方法
CN110998659B (zh) 图像处理***、图像处理方法、及程序
Murtaza et al. Analysis of face recognition under varying facial expression: a survey.
KR20110013200A (ko) 인체 자세 식별 방법 및 장치
JP2007004767A (ja) 画像認識装置、方法およびプログラム
JP6207210B2 (ja) 情報処理装置およびその方法
CN105095853B (zh) 图像处理装置及图像处理方法
JP2016099982A (ja) 行動認識装置、行動学習装置、方法、及びプログラム
JP2007072620A (ja) 画像認識装置及びその方法
KR101116838B1 (ko) 개인성향을 반영한 과장표정 생성방법
US20230368409A1 (en) Storage medium, model training method, and model training device
US20230046705A1 (en) Storage medium, determination device, and determination method
JP7452015B2 (ja) 判定プログラム、判定方法、判定装置
Amamra Smooth head tracking for virtual reality applications
JP6285116B2 (ja) 動作評価装置、動作評価方法及び動作評価プログラム
US20230130397A1 (en) Determination method and information processing apparatus
US20230079478A1 (en) Face mesh deformation with detailed wrinkles
WO2022003843A1 (ja) 判定プログラム、判定装置、および判定方法
US20220398867A1 (en) Information processing apparatus and facial expression determination method
JP6282121B2 (ja) 画像認識装置、画像認識方法およびプログラム
JP4942197B2 (ja) テンプレート作成装置及び表情認識装置並びにその方法、プログラム及び記録媒体
WO2022024392A1 (ja) 算出プログラム、算出方法および情報処理装置
JPWO2022024392A5 (ja)
JP2015176586A (ja) 画像処理装置、画像処理方法及びプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220908

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230718

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230801

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231002

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20231114

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240115

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240206

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240219

R150 Certificate of patent or registration of utility model

Ref document number: 7452016

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150