JPWO2017006872A1 - Facial expression identification system, facial expression identification method, and facial expression identification program - Google Patents

Facial expression identification system, facial expression identification method, and facial expression identification program Download PDF

Info

Publication number
JPWO2017006872A1
JPWO2017006872A1 JP2017527431A JP2017527431A JPWO2017006872A1 JP WO2017006872 A1 JPWO2017006872 A1 JP WO2017006872A1 JP 2017527431 A JP2017527431 A JP 2017527431A JP 2017527431 A JP2017527431 A JP 2017527431A JP WO2017006872 A1 JPWO2017006872 A1 JP WO2017006872A1
Authority
JP
Japan
Prior art keywords
facial expression
unit
data
person
facial
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2017527431A
Other languages
Japanese (ja)
Other versions
JP6850723B2 (en
Inventor
麻樹 杉本
麻樹 杉本
克俊 正井
克俊 正井
正泰 尾形
正泰 尾形
鈴木 克洋
克洋 鈴木
中村 文彦
中村  文彦
稲見 昌彦
昌彦 稲見
裕太 杉浦
裕太 杉浦
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Keio University
Original Assignee
Keio University
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Keio University filed Critical Keio University
Publication of JPWO2017006872A1 publication Critical patent/JPWO2017006872A1/en
Application granted granted Critical
Publication of JP6850723B2 publication Critical patent/JP6850723B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Human Computer Interaction (AREA)
  • Image Analysis (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

安価且つ簡易な構成で、人物の顔表情を継続的(日常的)に識別可能な顔表情識別システムを提供する。人物の頭部に装着可能な装着装置(3)と、装着装置(3)の人物の顔面に対向する複数箇所にそれぞれ配置され、装着装置(3)を装着したときの顔面と装着装置(3)間の距離を複数箇所でそれぞれ検出する、複数の検出装置(4a〜4q)と、複数の検出装置(4a〜4q)による過去の検出結果のデータと顔表情との対応関係を機械学習して得られた学習データを記憶する記憶装置(2)と、学習データを記憶装置(2)から読み出し、複数の検出装置(4a〜4q)による検出結果を入力データとして人物の顔表情を識別する顔表情識別部(11)とを備える。Provided is a facial expression identification system capable of continuously (daily) identifying a human facial expression with an inexpensive and simple configuration. The wearing device (3) that can be worn on the person's head, and the face and the wearing device (3) that are arranged at a plurality of locations facing the person's face of the wearing device (3) and are worn on the wearing device (3). ) Machine learning of the correspondence between the facial detection and the data of the past detection results by the plurality of detection devices (4a to 4q) and the plurality of detection devices (4a to 4q), which detect the distance between each of them at a plurality of locations. Storage device (2) for storing learning data obtained in this manner, and learning data is read from storage device (2), and the facial expression of a person is identified using detection results from a plurality of detection devices (4a to 4q) as input data A facial expression identification unit (11).

Description

本発明は、人物の顔表情を識別する顔表情識別システム、顔表情識別方法及び顔表情識別プログラムに関する。   The present invention relates to a facial expression identification system, a facial expression identification method, and a facial expression identification program for identifying a facial expression of a person.

他人やコンピュータとのより豊かなコミュニケーションの実現等のため、人物の顔表情を自動的に識別する技術が重要となってきている。従来の顔表情識別システムとしては、カメラを用いて人物を撮像し、撮像画像に含まれる特徴量に基づいて顔表情を識別する手法が知られている(特許文献1参照)。   In order to realize richer communication with others and computers, a technique for automatically identifying a person's facial expression has become important. As a conventional facial expression identification system, a technique is known in which a person is imaged using a camera and a facial expression is identified based on a feature amount included in the captured image (see Patent Document 1).

特開2010−41503号公報JP 2010-41503 A

しかしながら、特許文献1に記載のカメラを用いたシステムは高価であり、計算量も膨大となる。更に、カメラで人物の顔を撮像可能な位置・方向は制限されるため、顔表情を継続的(日常的)に識別することは困難である。   However, the system using the camera described in Patent Document 1 is expensive and the calculation amount is enormous. Furthermore, since the position and direction in which a person's face can be imaged with a camera is limited, it is difficult to identify facial expressions continuously (daily).

上記問題点を鑑み、本発明は、安価且つ簡易な構成で、人物の顔表情を継続的(日常的)に識別可能な顔表情識別システム、顔表情識別方法及び顔表情識別プログラムを提供することを目的とする。   In view of the above problems, the present invention provides a facial expression identification system, a facial expression identification method, and a facial expression identification program capable of continuously (daily) identifying a human facial expression with an inexpensive and simple configuration. With the goal.

本発明の第1の態様は、(a)人物の頭部に装着可能な装着装置と、(b)装着装置の人物の顔面に対向する複数箇所にそれぞれ配置され、装着装置を装着したときの顔面と装着装置間の距離を複数箇所でそれぞれ検出する、複数の検出装置と、(c)複数の検出装置による過去の検出結果のデータと顔表情との対応関係を機械学習して得られた学習データを記憶する記憶装置と、(d)学習データを記憶装置から読み出し、複数の検出装置による検出結果を入力データとして人物の顔表情を識別する顔表情識別部とを備える顔表情識別システムであることを要旨とする。   The first aspect of the present invention includes (a) a mounting device that can be mounted on a person's head, and (b) a mounting device that is disposed at a plurality of locations facing the person's face, and the mounting device is mounted. Obtained by machine learning of a plurality of detection devices that respectively detect the distance between the face and the wearing device at a plurality of locations, and (c) correspondence between past detection result data and facial expressions by the plurality of detection devices. A facial expression identification system comprising: a storage device that stores learning data; and (d) a facial expression identification unit that reads learning data from the storage device and identifies facial expressions of a person using detection results from a plurality of detection devices as input data. It is a summary.

本発明の第2の態様は、(a)装着装置の複数箇所にそれぞれ配置された複数の検出装置が、装着装置を人物の頭部に装着したときの人物の顔面と装着装置間の距離を複数箇所で検出するステップと、(b)記憶装置に記憶された、複数の検出装置による過去の検出結果のデータと顔表情との対応関係を機械学習して得られた学習データを記憶装置から読み出し、顔表情識別部が複数の検出装置による検出結果のデータを入力データとして人物の顔表情を識別するステップとを含む顔表情識別方法であることを要旨とする。   According to a second aspect of the present invention, (a) a plurality of detection devices respectively disposed at a plurality of locations of the mounting device determine the distance between the human face and the mounting device when the mounting device is mounted on the person's head. A step of detecting at a plurality of locations; and (b) learning data obtained by machine learning of the correspondence between past detection result data by a plurality of detection devices and facial expressions stored in the storage device from the storage device The gist of the present invention is a facial expression identification method including a step of reading and identifying a facial expression of a person using data of detection results from a plurality of detection devices as input data.

本発明の第3の態様は、(a)装着装置の複数箇所にそれぞれ配置された複数の検出装置に、装着装置を人物の頭部に装着したときの人物の顔面と装着装置間の距離を複数箇所で検出させる手順と、(b)記憶装置に記憶された、複数の検出装置による過去の検出結果のデータと顔表情との対応関係を機械学習して得られた学習データを記憶装置から読み出させ、複数の検出装置による検出結果のデータを入力データとして人物の顔表情を顔表情識別部に識別させる手順とを含む一連の処理をコンピュータに実行させる顔表情識別プログラムであることを要旨とする。   According to a third aspect of the present invention, (a) the distance between the face of the person and the mounting device when the mounting device is mounted on the person's head is set to a plurality of detection devices respectively disposed at a plurality of locations of the mounting device. (B) learning data obtained by machine learning of the correspondence between the data of past detection results by the plurality of detection devices and the facial expression, stored in the storage device, from the storage device A facial expression identification program that causes a computer to execute a series of processes that include reading the data of detection results from a plurality of detection devices as input data and causing the facial expression identification unit to identify a facial expression of a person. And

本発明によれば、安価且つ簡易な構成で、人物の顔表情を継続的(日常的)に識別可能な顔表情識別システム、顔表情識別方法及び顔表情識別プログラムを提供することができる。   According to the present invention, it is possible to provide a facial expression identification system, a facial expression identification method, and a facial expression identification program capable of continuously (daily) identifying a facial expression of a person with an inexpensive and simple configuration.

本発明の第1の実施形態に係る顔表情識別システムの一例を示すブロック図である。It is a block diagram which shows an example of the facial expression identification system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る装着装置の一例を示す概略図である。It is the schematic which shows an example of the mounting apparatus which concerns on the 1st Embodiment of this invention. 図3(a)は、本発明の第1の実施形態に係る装着装置を頭部に装着した人物が無表情の様子を示す概略図であり、図3(b)は、本発明の第1の実施形態に係る装着装置を頭部に装着した人物が笑っている様子を示す概略図である。FIG. 3 (a) is a schematic view showing a state in which a person wearing the mounting device according to the first embodiment of the present invention has no expression, and FIG. 3 (b) is a first view of the present invention. It is the schematic which shows a mode that the person who mounted | worn the mounting apparatus which concerns on embodiment of this to the head is laughing. 本発明の第1の実施形態に係る顔表情識別システムが識別する顔表情の種類を示す概略図である。It is the schematic which shows the kind of facial expression which the facial expression identification system which concerns on the 1st Embodiment of this invention identifies. 本発明の第1の実施形態に係る検出装置による過去の検出結果と顔表情との対応関係を表すグラフである。It is a graph showing the correspondence of the past detection result by the detection apparatus which concerns on the 1st Embodiment of this invention, and facial expression. 本発明の第1の実施形態に係る顔表情識別システムにより作成された顔表情マップの一例を示す概略図である。It is the schematic which shows an example of the facial expression map produced by the facial expression identification system which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る顔表情識別方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the facial expression identification method which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る推薦情報表示方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the recommendation information display method which concerns on the 1st Embodiment of this invention. 本発明の第2の実施形態に係る顔表情識別システムの一例を示すブロック図である。It is a block diagram which shows an example of the facial expression identification system which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る顔表情識別システムにより算出された顔表情分布の一例を示す概略図である。It is the schematic which shows an example of the facial expression distribution calculated by the facial expression identification system which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る顔表情識別方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the facial expression identification method which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る顔表情分布表示方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the facial expression distribution display method which concerns on the 2nd Embodiment of this invention. 本発明のその他の実施形態に係る装着装置の一例を示す概略図である。It is the schematic which shows an example of the mounting apparatus which concerns on other embodiment of this invention. 本発明のその他の実施形態に係る装着装置の表示部に表示された映像の一例を示す概略図である。It is the schematic which shows an example of the image | video displayed on the display part of the mounting apparatus which concerns on other embodiment of this invention. 本発明の第3の実施形態に係る顔表情識別システムの一例を示すブロック図である。It is a block diagram which shows an example of the facial expression identification system which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る装着装置の一例を示す概略図である。It is the schematic which shows an example of the mounting apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る装着装置をユーザが装着した様子を示す概略図である。It is the schematic which shows a mode that the user mounted | wore the mounting apparatus which concerns on the 3rd Embodiment of this invention. 図18(a)及び図18(b)は、本発明の第3の実施形態に係る装着装置の表示部の表示画像の一例をそれぞれ示す概略図である。FIGS. 18A and 18B are schematic diagrams illustrating examples of display images of the display unit of the mounting device according to the third exemplary embodiment of the present invention. 本発明の第3の実施形態に係る前処理前後の距離とセンサ値の関係を示すグラフである。It is a graph which shows the relationship between the distance before and behind the pre-processing which concerns on the 3rd Embodiment of this invention, and a sensor value. 本発明の第3の実施形態に係る学習フェーズのニューラルネットワークの一例を示す概略図である。It is the schematic which shows an example of the neural network of the learning phase which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る学習フェーズの回帰ニューラルネットワークの一例を示す概略図である。It is the schematic which shows an example of the regression neural network of the learning phase which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る識別フェーズのニューラルネットワークの一例を示す概略図である。It is the schematic which shows an example of the neural network of the identification phase which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る機械学習データ生成方法を含む機械学習方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the machine learning method containing the machine learning data generation method which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る顔表情識別方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the facial expression identification method which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係るセンサ値の主成分分析結果の一例を示すグラフである。It is a graph which shows an example of the principal component analysis result of the sensor value concerning a 3rd embodiment of the present invention. 図26(a)〜図26(c)は、本発明の第3の実施形態に係る眉を動かした場合のセンサ値をそれぞれ示すグラフである。Fig.26 (a)-FIG.26 (c) are each a graph which shows the sensor value at the time of moving the eyebrows based on the 3rd Embodiment of this invention. 図27(a)〜図27(c)は、本発明の第3の実施形態に係る目を開閉した場合のセンサ値をそれぞれ示すグラフである。FIG. 27A to FIG. 27C are graphs respectively showing sensor values when the eyes are opened and closed according to the third embodiment of the present invention. 図28(a)及び図28(b)は、本発明の第3の実施形態に係る目を開閉した場合のクラスタ分類結果及び真値をそれぞれ示すグラフである。FIG. 28A and FIG. 28B are graphs respectively showing the cluster classification result and the true value when the eyes are opened and closed according to the third embodiment of the present invention. 図29(a)〜図29(c)は、本発明の第3の実施形態に係る口を動かした場合のセンサ値をそれぞれ示すグラフである。Fig.29 (a)-FIG.29 (c) are each graphs which show the sensor value at the time of moving the mouth which concerns on the 3rd Embodiment of this invention. 図30(a)及び図30(b)は、本発明の第3の実施形態に係る口を動かした場合のセンサ値をそれぞれ示すグラフである。FIG. 30A and FIG. 30B are graphs respectively showing sensor values when the mouth according to the third embodiment of the present invention is moved. 図31(a)及び図31(b)は、本発明の第3の実施形態に係る口を動かした場合のクラスタ分類結果と真値をそれぞれ示すグラフである。FIG. 31A and FIG. 31B are graphs respectively showing the cluster classification result and the true value when the mouth is moved according to the third embodiment of the present invention. 図32(a)〜図32(c)は、本発明の第3の実施形態に係る分類ネットワークのための訓練データセットを示すグラフである。32 (a) to 32 (c) are graphs showing training data sets for a classification network according to the third embodiment of the present invention. 図33(a)及び図33(b)は、本発明の第3の実施形態に係る回帰ネットワークのための訓練データセットを示すグラフである。33 (a) and 33 (b) are graphs showing a training data set for a regression network according to the third embodiment of the present invention. 図34(a)は、本発明の第3の実施形態に係るターゲットとする顔表情を示すグラフであり、図34(b)は、マルチクラス分類の結果を示すグラフである。FIG. 34 (a) is a graph showing a facial expression as a target according to the third embodiment of the present invention, and FIG. 34 (b) is a graph showing the result of multi-class classification. 図35(a)〜図35(d)は、本発明の第3の実施形態に係るマルチクラス分類器をマージした回帰の結果をそれぞれ示すグラフである。FIG. 35A to FIG. 35D are graphs showing the results of regression obtained by merging multi-class classifiers according to the third embodiment of the present invention. 本発明の第4の実施形態に係る顔表情識別システムの一例を示すブロック図である。It is a block diagram which shows an example of the facial expression identification system which concerns on the 4th Embodiment of this invention. 本発明の第4の実施形態に係る装着装置を前後方向にずらしたときの種々の顔表情に対するセンサ値の変化を示すグラフである。It is a graph which shows the change of the sensor value with respect to various facial expressions when the mounting apparatus which concerns on the 4th Embodiment of this invention is shifted to the front-back direction. 図37のセンサ値の一部から回帰により求めたずれ量を示すグラフである。It is a graph which shows the deviation | shift amount calculated | required by regression from a part of sensor value of FIG. 図39(a)は、本発明の第4の実施形態に係る装着装置を前後方向にずらしたときの顔表情が「無表情」に対するセンサ値の変化を示すグラフであり、図39(b)は、本発明の第4の実施形態に係る装着装置を前後方向にずらしたときの顔表情が「喜び」に対するセンサ値の変化を示すグラフである。FIG. 39A is a graph showing changes in the sensor value with respect to “no expression” when the facial expression is shifted in the front-rear direction of the mounting device according to the fourth embodiment of the present invention, and FIG. These are graphs which show the change of the sensor value with respect to the facial expression "joy" when the mounting apparatus according to the fourth embodiment of the present invention is shifted in the front-rear direction. 図40(a)は、本発明の第4の実施形態に係る装着装置を前後方向にずらしたときの顔表情が「嫌悪」に対するセンサ値の変化を示すグラフであり、図40(b)は、本発明の第4の実施形態に係る装着装置を前後方向にずらしたときの顔表情が「怒り」に対するセンサ値の変化を示すグラフである。FIG. 40A is a graph showing changes in the sensor value with respect to “disgust” in the facial expression when the mounting apparatus according to the fourth embodiment of the present invention is shifted in the front-rear direction, and FIG. FIG. 12 is a graph showing changes in sensor values with respect to “anger” when the facial expression when the mounting device according to the fourth embodiment of the present invention is shifted in the front-rear direction. 図41(a)は、本発明の第4の実施形態に係る装着装置を前後方向にずらしたときの顔表情が「驚き」に対するセンサ値の変化を示すグラフであり、図41(b)は、本発明の第4の実施形態に係る装着装置を前後方向にずらしたときの顔表情が「恐怖」に対するセンサ値の変化を示すグラフである。FIG. 41A is a graph showing changes in sensor values with respect to the “surprise” facial expression when the mounting apparatus according to the fourth embodiment of the present invention is shifted in the front-rear direction, and FIG. FIG. 10 is a graph showing changes in sensor value with respect to “fear” when the facial expression when the mounting device according to the fourth embodiment of the present invention is shifted in the front-rear direction. 図42(a)は、本発明の第4の実施形態に係る装着装置を前後方向にずらしたときの顔表情が「悲しみ」に対するセンサ値の変化を示すグラフであり、図42(b)は、本発明の第4の実施形態に係る装着装置を前後方向にずらしたときの顔表情が「軽蔑」に対するセンサ値の変化を示すグラフである。Fig.42 (a) is a graph which shows the change of the sensor value with respect to the sadness when the facial expression when the mounting apparatus based on the 4th Embodiment of this invention is shifted to the front-back direction, FIG.42 (b) is shown. FIG. 10 is a graph showing changes in sensor value with respect to “contempt” when the facial expression when the mounting device according to the fourth embodiment of the present invention is shifted in the front-rear direction. 本発明の第4の実施形態に係る顔表情識別方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the facial expression identification method which concerns on the 4th Embodiment of this invention. 本発明の第5の実施形態に係る顔表情識別システムの一例を示すブロック図である。It is a block diagram which shows an example of the facial expression identification system which concerns on the 5th Embodiment of this invention. 本発明の第6の実施形態に係る顔表情識別システムの一例を示すブロック図である。It is a block diagram which shows an example of the facial expression identification system which concerns on the 6th Embodiment of this invention. 本発明の第6の実施形態に係る光センサの発光強度の調整方法の一例を説明するためのフローチャートである。It is a flowchart for demonstrating an example of the adjustment method of the emitted light intensity of the optical sensor which concerns on the 6th Embodiment of this invention.

次に、図面を参照して、本発明の第1〜第6の実施形態を説明する。以下の図面の記載において、同一又は類似の部分には同一又は類似の符号を貼付している。但し、図面は模式的なものであり、厚みと平面寸法との関係、厚みの比率等は現実のものとは異なることに留意すべきである。また、図面相互間においても互いの寸法の関係や比率が異なる部分が含まれていることは勿論である。また、以下に示す実施形態は、本発明の技術的思想を具体化するための装置や方法を例示するものであって、本発明の技術的思想は、構成部品の材質、形状、構造、配置等を下記のものに特定するものではない。本発明の技術的思想は、特許請求の範囲に記載された請求項が規定する技術的範囲内において、種々の変更を加えることができる。   Next, first to sixth embodiments of the present invention will be described with reference to the drawings. In the following description of the drawings, the same or similar parts are affixed with the same or similar reference numerals. However, it should be noted that the drawings are schematic, and the relationship between the thickness and the planar dimensions, the ratio of the thickness, and the like are different from the actual ones. Moreover, it is a matter of course that portions having different dimensional relationships and ratios are included between the drawings. Further, the following embodiments exemplify apparatuses and methods for embodying the technical idea of the present invention, and the technical idea of the present invention is the material, shape, structure, and arrangement of components. Etc. are not specified as follows. The technical idea of the present invention can be variously modified within the technical scope defined by the claims described in the claims.

(第1の実施形態)
<顔表情識別システム>
本発明の第1の実施形態に係る顔表情識別システムは、図1に示すように、中央演算処理装置(CPU)1、記憶装置2、装着装置(ウェアラブルデバイス)3、複数の検出装置(光センサ)4a,4b,4c,4d,4e,4f,4g,4h,4i,4j,4k,4l,4m,4n,4o,4p,4q、入力装置5及び出力装置6を備える。CPU1と、記憶装置2、検出装置4a〜4q、入力装置5及び出力装置6とは有線又は無線で信号を送受信可能である。
(First embodiment)
<Facial expression identification system>
As shown in FIG. 1, a facial expression identification system according to a first embodiment of the present invention includes a central processing unit (CPU) 1, a storage device 2, a mounting device (wearable device) 3, and a plurality of detection devices (light). Sensor) 4a, 4b, 4c, 4d, 4e, 4f, 4g, 4h, 4i, 4j, 4k, 4l, 4m, 4n, 4o, 4p, 4q, input device 5 and output device 6 are provided. The CPU 1, the storage device 2, the detection devices 4 a to 4 q, the input device 5, and the output device 6 can transmit and receive signals by wire or wirelessly.

装着装置3としては、人物の頭部に装着可能な眼鏡型のデバイスやヘッドマウントディスプレイ(HMD)が使用可能であり、市販の眼鏡であってもよい。複数の検出装置4a〜4qは、装着装置3に設けられ、装着装置3を頭部に装着したときの人物の顔面と装着装置3間の距離を複数箇所で検出する。複数の検出装置4a〜4qとしては、反射型光センサ(フォトリフレクタ)や、焦電センサ、近接センサ、距離センサ等が使用可能である。例えば、フォトリフレクタは、装着装置3を装着した人物の顔面に赤外光を照射する発光ダイオード(LED)からなる発光部と、人物の顔面からの反射光を検出するフォトトランジスタからなる受光部とを有する。   As the mounting device 3, a spectacle-type device or a head-mounted display (HMD) that can be mounted on a person's head can be used, and commercially available spectacles may be used. The plurality of detection devices 4a to 4q are provided in the mounting device 3, and detect the distance between the face of the person and the mounting device 3 when the mounting device 3 is mounted on the head at a plurality of locations. As the plurality of detection devices 4a to 4q, a reflection type optical sensor (photo reflector), a pyroelectric sensor, a proximity sensor, a distance sensor, or the like can be used. For example, the photoreflector includes a light emitting unit made up of a light emitting diode (LED) that irradiates the face of the person wearing the wearing device 3 with infrared light, and a light receiving unit made up of a phototransistor that detects reflected light from the face of the person. Have

装着装置3は、例えば図2に示すような眼鏡型のデバイスである。検出装置4a〜4qは、装着装置3のレンズ部分の周囲であって、装着装置3を装着した時に人物の顔面と対向する位置に設けられている。検出装置4a〜4qは、例えば、人物の顔表情が変化した際に変動し易い部位である瞼や頬、眉間、目尻等と対向する位置に配置されることが好ましい。なお、検出装置4a〜4qの配置位置は特に限定されず、識別したい顔表情の種類等に応じて適宜設定可能である。   The mounting apparatus 3 is a spectacle-type device as shown in FIG. The detection devices 4a to 4q are provided around the lens portion of the mounting device 3 and at positions facing the human face when the mounting device 3 is mounted. For example, the detection devices 4a to 4q are preferably arranged at positions facing the eyelids, cheeks, eyebrows, and the corners of the eyes that are likely to change when the facial expression of a person changes. The arrangement positions of the detection devices 4a to 4q are not particularly limited, and can be set as appropriate according to the type of facial expression desired to be identified.

また、図2では17個の検出装置4a〜4qを示すが、検出装置4a〜4qの個数は特に限定されず、少なくとも2個以上あればよく、顔表情の分類の種類や数、要求される識別精度等に応じて適宜選択可能である。例えば、図2に示した16個の検出装置4a〜4qのうち、8個の検出装置4b,4h,4j,4k,4l,4o,4p,4qのみを用いて後述する7つの顔表情を識別可能である。   2 shows 17 detection devices 4a to 4q, the number of the detection devices 4a to 4q is not particularly limited, and at least two detection devices may be used, and the types and number of facial expression classifications are required. It can be appropriately selected according to the identification accuracy and the like. For example, of the 16 detection devices 4a to 4q shown in FIG. 2, only 8 detection devices 4b, 4h, 4j, 4k, 4l, 4o, 4p, and 4q are used to identify the 7 facial expressions described later. Is possible.

本発明の第1の実施形態に係る顔表情識別システムは、図3に示すように、「無表情」、「微笑み」、「笑い」、「嫌悪」、「怒り」、「驚き」、「悲しみ」の7つの顔表情を識別する。なお、顔表情の分類の種類及び個数は特に限定されず、表情による差異が検出装置4a〜4qで検出できるもので学習データ記憶部20に学習データが格納できるものであればよい。例えば顔表情としては他にも「喜び」や「恐怖」等が挙げられる。   As shown in FIG. 3, the facial expression identification system according to the first embodiment of the present invention includes “no expression”, “smile”, “laughter”, “disgust”, “anger”, “surprise”, “sadness”. 7 facial expressions are identified. The type and number of facial expression classifications are not particularly limited, as long as differences by facial expressions can be detected by the detection devices 4a to 4q and learning data can be stored in the learning data storage unit 20. For example, other examples of facial expressions include “joy” and “fear”.

本発明の第1の実施形態に係る顔表情識別システムは、人物の顔表情が変化する際の顔面筋の変動に起因する3次元的な皮膚変形を利用して顔表情を識別する。人物の顔表情が変化すると、人物の顔面の瞼や頬、眉間、目尻等の部位が変動し、個人差はあるが、人物の顔表情毎に各部位の変動量には共通した傾向が見られる。   The facial expression identification system according to the first embodiment of the present invention identifies facial expressions using three-dimensional skin deformation caused by facial muscle fluctuations when the facial expression of a person changes. When a person's facial expression changes, the parts of the person's face, such as the eyelids, cheeks, eyebrows, and eye corners, vary, and there are individual differences, but the variation in each part of the person's facial expression shows a common tendency. It is done.

例えば図3(a)及び図3(b)に、装着装置3を頭部に装着した人物が無表情の様子及び笑っている様子をそれぞれ示す。なお、図3(a)及び図3(b)では、眼鏡型である装着装置3のテンプル部分は便宜的に省略し、検出装置4a,4jを模式的に示す。図3(a)に示すように、人物が無表情の場合に人物の瞼や頬があまり膨らまず、瞼や頬と検出装置4a,4jとの距離D1,D2が相対的に遠くなり、検出装置4a,4jにより検出される反射光の照度が低下する。一方、図3(b)に示すように、人物が笑っている場合に瞼及び頬が膨らみ、瞼や頬と検出装置4a,4jとの距離D1,D2が相対的に近くなり、検出装置4a,4jにより検出される反射光の照度が増大する。このように、検出装置4a〜4qは、人物の顔面と検出装置4a〜4qとの距離に応じた検出結果(例えば電流値)をCPU1に出力する。なお、検出装置4a〜4qの対向する顔面の部位によって反射の度合いが異なるため、検出装置4a〜4qの配置位置に応じて検出装置4a〜4qによる検出結果を適宜補正してもよい。また、識別したい顔表情の種類等に応じて検出装置4a〜4qによる検出結果を適宜重み付けしてもよい。   For example, FIGS. 3 (a) and 3 (b) show a state in which a person wearing the mounting device 3 on the head has no expression and is laughing, respectively. In FIGS. 3A and 3B, the temple portions of the eyeglass-type mounting device 3 are omitted for convenience, and the detection devices 4a and 4j are schematically shown. As shown in FIG. 3 (a), when the person has no expression, the person's heels and cheeks do not swell so much, and the distances D1 and D2 between the heels and cheeks and the detection devices 4a and 4j become relatively far away. The illuminance of the reflected light detected by the devices 4a and 4j decreases. On the other hand, as shown in FIG. 3B, when the person is laughing, the heels and cheeks swell, and the distances D1 and D2 between the heels and cheeks and the detection devices 4a and 4j become relatively close, and the detection device 4a. , 4j increases the illuminance of the reflected light detected. Thus, the detection devices 4a to 4q output to the CPU 1 detection results (for example, current values) corresponding to the distance between the human face and the detection devices 4a to 4q. In addition, since the degree of reflection differs depending on the face parts of the detection devices 4a to 4q facing each other, the detection results of the detection devices 4a to 4q may be corrected as appropriate according to the arrangement positions of the detection devices 4a to 4q. Further, the detection results by the detection devices 4a to 4q may be appropriately weighted according to the type of facial expression desired to be identified.

図1に示したCPU1は、機械学習部10、顔表情識別部11、地理情報取得部12、顔表情マップ作成部13及び推薦情報抽出部14を備え、更に、顔表情識別システム全体を制御する制御回路、演算回路、データを一時記憶するレジスタ等を有する。なお、CPU1の機能の一部又は全部が、装着装置3等に内蔵されていてもよい。   1 includes a machine learning unit 10, a facial expression identification unit 11, a geographic information acquisition unit 12, a facial expression map creation unit 13, and a recommendation information extraction unit 14, and further controls the entire facial expression identification system. It has a control circuit, an arithmetic circuit, a register for temporarily storing data, and the like. Note that some or all of the functions of the CPU 1 may be built in the mounting device 3 or the like.

機械学習部10は、検出装置4a〜4qによる過去の検出結果と顔表情との対応関係を教師データとして用いて機械学習を行うことにより学習データを生成する。機械学習部10による機械学習の手法としては、公知のサポートベクターマシン(SVM)やニューラルネットワーク等が使用可能である。   The machine learning unit 10 generates learning data by performing machine learning using a correspondence relationship between past detection results by the detection devices 4a to 4q and facial expressions as teacher data. As a method of machine learning by the machine learning unit 10, a known support vector machine (SVM), a neural network, or the like can be used.

図4は、機械学習部10の機械学習に用いる検出装置4a〜4qによる過去の検出結果と顔表情との対応関係の一例を示す。各プロットは、多数の人物が装着装置3を装着し、検出装置4a〜4qによる検出結果を多数サンプリングして、各検出結果を顔表情毎に分類することで得られる。なお、ここでは多数の人物のサンプリング結果を示すが、顔表情の識別対象となるユーザ本人のサンプリング結果が含まれていてもよく、他者のみのサンプリング結果であってもよい。また、顔表情の識別対象となるユーザ本人或いは他者の単体のみのサンプリング結果を機械学習に用いてもよい。図4の縦軸は、各プロットにおいて検出装置4a〜4qの出力値の多数のサンプリングの値の範囲が0から1となるように正規化した平均正規化値を示し、横軸のセンサ番号の1番〜16番は図2に示した検出装置4a〜4qの順番に一致する。   FIG. 4 shows an example of a correspondence relationship between past detection results and facial expressions by the detection devices 4a to 4q used for machine learning of the machine learning unit 10. Each plot is obtained by a large number of persons wearing the wearing device 3, sampling a large number of detection results by the detection devices 4a to 4q, and classifying each detection result for each facial expression. Although the sampling results of a large number of persons are shown here, the sampling results of the user himself or herself who is the target of facial expression identification may be included, or the sampling results of only others may be included. In addition, a sampling result of only the user himself / herself or another person who is the target of facial expression identification may be used for machine learning. The vertical axis in FIG. 4 indicates an average normalization value that is normalized so that the range of the sampling values of the output values of the detection devices 4a to 4q in each plot is 0 to 1, and the horizontal axis indicates the sensor number. Numbers 1 to 16 correspond to the order of the detection devices 4a to 4q shown in FIG.

顔表情識別部11は、例えば図4に示した検出装置4a〜4qによる過去の検出結果と顔表情との対応関係を教師データとして用いて、SVMにより、検出装置4a〜4qによる新たな検出結果を7つの顔表情に対応する領域(クラスタ)に分類するための超平面(境界面)を含む情報を学習データとして生成する。機械学習部10により生成された学習データは、記憶装置2の学習データ記憶部20に格納される。   The facial expression identification unit 11 uses the correspondence between the past detection results by the detection devices 4a to 4q and the facial expressions shown in FIG. 4 as teacher data, for example, and new detection results by the detection devices 4a to 4q by SVM. Is generated as learning data including a hyperplane (boundary surface) for classifying a region into a region (cluster) corresponding to seven facial expressions. The learning data generated by the machine learning unit 10 is stored in the learning data storage unit 20 of the storage device 2.

図1に示した顔表情識別部11は、記憶装置2の学習データ記憶部20に予め記憶された学習データを用いて、測定対象の人物に対する検出装置4a〜4qによる検出結果に基づいて、測定対象の人物の顔表情を「無表情」、「微笑み」、「笑い」、「嫌悪」、「怒り」、「驚き」、「悲しみ」の7つの顔表情のいずれかに識別(分類)する。顔表情識別部11は、例えば、検出装置4a〜4qによる検出結果のパターンが、学習データ記憶部20に記憶された学習データの7つのクラスタのうちどのクラスタに最も近いかを判定し、最も近いクラスタに対応する顔表情に分類する。顔表情識別部11による顔表情の識別結果は、記憶装置2の顔表情記憶部21に格納される。   The facial expression identification unit 11 illustrated in FIG. 1 uses the learning data stored in advance in the learning data storage unit 20 of the storage device 2 and performs measurement based on the detection results of the detection devices 4a to 4q for the person to be measured. The facial expression of the target person is identified (classified) as one of seven facial expressions: “no expression”, “smile”, “laughter”, “disgust”, “anger”, “surprise”, and “sadness”. The facial expression identification unit 11 determines, for example, which of the seven clusters of the learning data stored in the learning data storage unit 20 is closest to the pattern of the detection result by the detection devices 4a to 4q, and is closest. Classify the facial expression corresponding to the cluster. The identification result of the facial expression by the facial expression identification unit 11 is stored in the facial expression storage unit 21 of the storage device 2.

なお、顔表情識別部11による識別結果を良好なものとするためには、顔表情の識別対象となる個人毎に学習データを記録し機械学習を行なうことが望ましいが、簡易的に他者で記録した学習データを別のユーザの顔表情の識別に用いることも可能である。また、他者で記録した学習データと比較して、計測結果が類似していた場合には、他者で記録した学習データを利用することで、個人毎のデータを学習する過程を簡便化することもできる。   In order to improve the recognition result by the facial expression identification unit 11, it is desirable to record learning data for each individual to be identified for facial expression and perform machine learning. It is also possible to use the recorded learning data for identifying the facial expression of another user. In addition, when the measurement results are similar to the learning data recorded by others, the learning data recorded by others is used to simplify the process of learning the data for each individual. You can also.

地理情報取得部12は、全地球測位システム(GPS)等から、顔表情識別部11により顔表情を識別した時点における現在位置等の地理情報及び年月日等の時刻情報を取得し、記憶装置2の地理情報記憶部22に格納する。   The geographic information acquisition unit 12 acquires, from a global positioning system (GPS) or the like, geographic information such as a current position and time information such as a date when a facial expression is identified by the facial expression identification unit 11, and a storage device. 2 in the geographic information storage unit 22.

顔表情マップ作成部13は、顔表情識別部11により識別された顔表情と、地理情報取得部12により取得された地理情報及び時刻情報とを関連付けた顔表情マップを作成する。顔表情マップは、例えば図6に示すように、時刻情報及び地理情報毎に、7つの顔表情の割合(頻度)を示す。なお、顔表情マップは図6に示した態様に特に限定されず、例えば表形式の代わりに、地理情報に対応する地図上の位置に時刻情報や顔表情情報を配置する形式でもよい。また、顔表情マップは、複数の人物についての時刻情報、地理情報及び顔表情の識別結果を一括して纏めてもよく、顔表情情報も多数の人物の累積値であってもよい。顔表情マップ作成部13により作成された顔表情マップは、顔表情マップ記憶部23に格納される。   The facial expression map creation unit 13 creates a facial expression map in which the facial expression identified by the facial expression identification unit 11 is associated with the geographic information and time information acquired by the geographic information acquisition unit 12. For example, as shown in FIG. 6, the facial expression map indicates the ratio (frequency) of seven facial expressions for each time information and geographic information. Note that the facial expression map is not particularly limited to the mode shown in FIG. 6. For example, time information and facial expression information may be arranged at positions on the map corresponding to geographic information instead of the table format. Further, the facial expression map may collect time information, geographic information, and identification results of facial expressions for a plurality of persons at once, and the facial expression information may be a cumulative value of many persons. The facial expression map created by the facial expression map creation unit 13 is stored in the facial expression map storage unit 23.

推薦情報抽出部14は、入力装置5を介して入力された顔表情、時刻情報、地理情報等の検索キーに基づいて、顔表情マップ作成部13により作成された顔表情マップを検索し、検索キーに適合する顔表情、時刻情報、地理情報等を推薦情報として抽出する。例えば、検索キーとして入力された顔表情が「笑い」や「微笑み」であった場合、図6に示した顔表情マップから、「笑い」や「微笑み」の割合が相対的に高い「場所B」を推薦情報として抽出する。   The recommendation information extraction unit 14 searches the facial expression map created by the facial expression map creation unit 13 based on a search key such as facial expression, time information, and geographic information input via the input device 5, and retrieves the facial expression map. Facial expressions, time information, geographic information, etc. that match the key are extracted as recommendation information. For example, when the facial expression input as a search key is “laughter” or “smile”, the “place B” has a relatively high ratio of “laughter” or “smile” from the facial expression map shown in FIG. "Is extracted as recommendation information.

記憶装置2としては、例えば半導体メモリや磁気ディスク、光ディスク等が使用可能である。記憶装置2は、機械学習部10により生成された学習データを記憶する学習データ記憶部20、顔表情識別部11による顔表情の識別結果を記憶する顔表情記憶部21、地理情報取得部12により取得された地理情報を記憶する地理情報記憶部22、顔表情マップ作成部13により作成された顔表情マップを記憶する顔表情マップ記憶部23を有する。記憶装置2は更に、CPU1が実行する顔表情識別プログラムやプログラムの実行に必要な各種データを記憶する。   As the storage device 2, for example, a semiconductor memory, a magnetic disk, an optical disk, or the like can be used. The storage device 2 includes a learning data storage unit 20 that stores learning data generated by the machine learning unit 10, a facial expression storage unit 21 that stores a facial expression identification result by the facial expression identification unit 11, and a geographic information acquisition unit 12. A geographic information storage unit 22 that stores the acquired geographic information and a facial expression map storage unit 23 that stores the facial expression map created by the facial expression map creation unit 13 are provided. The storage device 2 further stores a facial expression identification program executed by the CPU 1 and various data necessary for executing the program.

入力装置5としては、キーボードやマウス、タッチパネル、音声認識装置等が使用可能である。入力装置5は、ユーザからの顔表情、時刻情報、地理情報等の検索キーを受け付ける。出力装置6としては、液晶ディスプレイ(LCD)等の表示装置やタブレット端末等が使用可能である。出力装置6は、顔表情識別部11による顔表情の識別結果や、顔表情マップ作成部13により作成された顔表情マップ、推薦情報抽出部14により抽出された推薦情報を適宜出力(表示)する。   As the input device 5, a keyboard, a mouse, a touch panel, a voice recognition device, or the like can be used. The input device 5 accepts search keys such as facial expressions, time information, geographic information, and the like from the user. As the output device 6, a display device such as a liquid crystal display (LCD), a tablet terminal, or the like can be used. The output device 6 appropriately outputs (displays) the facial expression identification result by the facial expression identification unit 11, the facial expression map created by the facial expression map creation unit 13, and the recommended information extracted by the recommendation information extraction unit 14. .

<顔表情識別方法>
次に、図7のフローチャートを参照しながら、本発明の第1の実施形態に係る顔表情マップ作成方法を含む顔表情識別方法の一例を説明する。なお、以下に示す顔表情識別方法はあくまでも一例であり、この手順に限定されるものではない。
<Facial expression identification method>
Next, an example of a facial expression identification method including the facial expression map creation method according to the first embodiment of the present invention will be described with reference to the flowchart of FIG. Note that the facial expression identification method described below is merely an example, and the present invention is not limited to this procedure.

ステップS10において、機械学習部10が、図4に示したような検出装置4a〜4qによる過去の検出結果と顔表情との対応関係を用いて機械学習を行うことにより学習データを生成し、学習データ記憶部20に格納しておく。   In step S10, the machine learning unit 10 generates learning data by performing machine learning using the correspondence relationship between the past detection results and the facial expressions by the detection devices 4a to 4q as illustrated in FIG. It is stored in the data storage unit 20.

ステップS11において、複数の検出装置4a〜4qが、装着装置3を頭部に装着した測定対象となる人物の顔面と装着装置3間の距離を複数箇所で検出する。ステップS12において、顔表情識別部11が、学習データ記憶部20に予め記憶された学習データを用いて、複数の検出装置4a〜4qにより検出された現在の検出結果のパターン識別を行い、測定対象の人物の顔表情を、図4に示した7つの顔表情のいずれか(例えば「微笑み」)に識別する。   In step S <b> 11, the plurality of detection devices 4 a to 4 q detect the distance between the face of the person to be measured with the mounting device 3 mounted on the head and the mounting device 3 at a plurality of locations. In step S <b> 12, the facial expression identification unit 11 performs pattern identification of the current detection results detected by the plurality of detection devices 4 a to 4 q using the learning data stored in advance in the learning data storage unit 20, and the measurement target Is identified as one of the seven facial expressions shown in FIG. 4 (for example, “smile”).

ステップS12において、地理情報取得部12が、顔表情識別部11による識別結果が得られた時点における現在位置等の地理情報をGPS等から取得する。地理情報取得部12は更に、顔表情識別部11による識別結果が得られた時点の時刻情報を取得する。ステップS13において、顔表情マップ作成部13が、顔表情識別部11による識別結果と、地理情報取得部12により取得された地理情報及び時刻情報とを対応付けて顔表情マップを作成する。顔表情マップ作成部13により作成された顔表情マップは顔表情マップ記憶部23に格納される。   In step S12, the geographic information acquisition unit 12 acquires geographic information such as the current position at the time when the identification result by the facial expression identification unit 11 is obtained from the GPS or the like. The geographic information acquisition unit 12 further acquires time information when the identification result by the facial expression identification unit 11 is obtained. In step S <b> 13, the facial expression map creation unit 13 creates a facial expression map by associating the identification result by the facial expression identification unit 11 with the geographic information and time information acquired by the geographic information acquisition unit 12. The facial expression map created by the facial expression map creation unit 13 is stored in the facial expression map storage unit 23.

次に、図7のステップS13において顔表情マップ作成部13により作成された顔表情マップを用いた推薦情報表示方法の一例を、図8のフローチャートを参照しながら説明する。なお、図7及び図8に示した一連の処理は連続して行ってもよく、互いに並列で行ってもよい。   Next, an example of a recommendation information display method using the facial expression map created by the facial expression map creation unit 13 in step S13 of FIG. 7 will be described with reference to the flowchart of FIG. The series of processes shown in FIGS. 7 and 8 may be performed continuously or in parallel with each other.

ステップS21において、推薦情報抽出部14が、出力装置6に検索メニューを表示させる。そして、検索メニューからユーザにより選択された顔表情、地理情報及び時刻情報等の検索キーを入力装置5が受け付ける。ステップS22において、推薦情報抽出部14が、入力装置5が受け付けた検索キーに基づいて、顔表情マップ記憶部23に記憶された顔表情マップを検索し、検索キーに適合する顔表情、地理情報及び時刻情報等を推薦情報として抽出する。ステップS23において、出力装置6が、推薦情報抽出部14により抽出された推薦情報を画面に表示する。   In step S <b> 21, the recommendation information extraction unit 14 causes the output device 6 to display a search menu. Then, the input device 5 receives search keys such as a facial expression, geographic information, and time information selected by the user from the search menu. In step S22, the recommended information extraction unit 14 searches the facial expression map stored in the facial expression map storage unit 23 based on the search key received by the input device 5, and the facial expression and geographic information matching the search key. And time information etc. are extracted as recommendation information. In step S23, the output device 6 displays the recommendation information extracted by the recommendation information extraction unit 14 on the screen.

<顔表情識別プログラム>
本発明の第1の実施形態に係る顔表情識別プログラムは、図7及び図8に示した顔表情識別の手順をCPU1に実行させる。即ち、本発明の第1の実施形態に係る顔表情識別プログラムは、(a)複数の検出装置4a〜4qが、装着装置3を頭部に装着した人物の顔面と、装着装置3との距離を検出する手順、(b)記憶装置2に予め記憶された、複数の検出装置4a〜4qによる過去の検出結果と顔表情との対応関係を機械学習して得られた学習データを用いて、複数の検出装置4a〜4qによる検出結果に基づいて人物の顔表情を識別する手順、(c)複数の検出装置4a〜4qによる検出結果が得られた時点での地理情報を取得する手順、(d)顔表情の識別結果と地理情報とを対応付けた顔表情マップを作成する手順等をCPU1等のコンピュータに実行させる。本発明の第1の実施形態に係る顔表情識別プログラムは、図1に示した記憶装置2等の記憶手段に記憶される。
<Facial expression identification program>
The facial expression identification program according to the first embodiment of the present invention causes the CPU 1 to execute the facial expression identification procedure shown in FIGS. That is, in the facial expression identification program according to the first embodiment of the present invention, (a) the distance between the mounting device 3 and the face of the person wearing the mounting device 3 on the head of the plurality of detection devices 4a to 4q. (B) using learning data obtained by machine learning of correspondence relationships between past detection results and facial expressions by the plurality of detection devices 4a to 4q, which are stored in advance in the storage device 2, (C) a procedure for identifying a facial expression of a person based on detection results from the plurality of detection devices 4a to 4q, (c) a procedure for acquiring geographic information at the time when detection results from the plurality of detection devices 4a to 4q are obtained, d) Causes a computer such as the CPU 1 to execute a procedure for creating a facial expression map in which identification results of facial expressions are associated with geographic information. The facial expression identification program according to the first embodiment of the present invention is stored in storage means such as the storage device 2 shown in FIG.

以上説明したように、本発明の第1の実施形態によれば、装着型の複数の検出装置4a〜4qを用いて人物の顔表情を識別することにより、安価且つ簡潔な構成で、継続的(日常的)に低消費電力で顔表情を識別することが実現可能となる。更に、検出装置4a〜4qは眼鏡用のフレームやHMDの内部に取り付けることができるので、日常的な環境下や、HMD装着時のように人物の顔が遮蔽される場合等のカメラでの撮像が難しい条件下においても、継続的且つ容易に顔表情を識別できる。したがって、ユーザに過大な負担をかけずに継続的にユーザの顔表情を識別して、顔表情マップを作成することができる。更に、作成した顔表情マップを用いて、ユーザの検索キーに応じた推薦情報を抽出・表示することにより、顔表情に関連した推薦情報をユーザに提示できる。   As described above, according to the first embodiment of the present invention, the facial expression of a person is identified by using the plurality of wearable detection devices 4a to 4q, thereby continuously with an inexpensive and simple configuration. It becomes possible to identify facial expressions with low power consumption (on a daily basis). Furthermore, since the detection devices 4a to 4q can be attached to the inside of a frame for eyeglasses or an HMD, imaging with a camera is performed in a daily environment or when a human face is shielded when the HMD is worn. However, even under difficult conditions, facial expressions can be identified continuously and easily. Therefore, the facial expression map can be created by continuously identifying the facial expression of the user without imposing an excessive burden on the user. Furthermore, by using the created facial expression map to extract and display recommendation information corresponding to the user's search key, it is possible to present recommendation information related to the facial expression to the user.

(第2の実施形態)
本発明の第2の実施形態に係る顔表情識別システムは、図9に示すように、CPU1が機械学習部10、顔表情識別部11に加え、時刻情報取得部15及び顔表情分布算出部16を備え、図1に示した地理情報取得部12、顔表情マップ作成部13及び推薦情報抽出部14を備えない点が、図1に示したCPU1の構成と異なる。また、記憶装置2が、学習データ記憶部20、顔表情記憶部21に加え、時刻情報記憶部24及び顔表情分布記憶部25を備え、図1に示した地理情報記憶部22及び顔表情マップ記憶部23を備えない点が、図1に示した記憶装置2の構成と異なる。
(Second Embodiment)
In the facial expression identification system according to the second embodiment of the present invention, as shown in FIG. 9, the CPU 1 adds a time information acquisition unit 15 and a facial expression distribution calculation unit 16 in addition to the machine learning unit 10 and the facial expression identification unit 11. Is different from the configuration of the CPU 1 shown in FIG. 1 in that the geographic information acquisition unit 12, the facial expression map creation unit 13, and the recommendation information extraction unit 14 shown in FIG. The storage device 2 includes a time information storage unit 24 and a facial expression distribution storage unit 25 in addition to the learning data storage unit 20 and the facial expression storage unit 21, and includes the geographic information storage unit 22 and the facial expression map shown in FIG. The point which is not provided with the memory | storage part 23 differs from the structure of the memory | storage device 2 shown in FIG.

CPU1の時刻情報取得部15は、顔表情識別部11により顔表情を識別した時点での時刻情報を顔表情と対応付けて取得する。時刻情報取得部15により取得された時刻情報は時刻情報記憶部24に格納される。   The time information acquisition unit 15 of the CPU 1 acquires time information at the time when the facial expression is identified by the facial expression identification unit 11 in association with the facial expression. The time information acquired by the time information acquisition unit 15 is stored in the time information storage unit 24.

顔表情分布算出部16は、例えば図10に示すように、顔表情識別部11による識別結果と、時刻情報取得部15により取得された時刻情報とを関連付けた顔表情分布を算出する。図10では、一日単位で7つの顔表情の割合(頻度)が示されている。なお、顔表情分布は図10に示す態様に限定されず、例えば過去数日間の顔表情の割合を算出して配列してもよく、週単位又は月単位で顔表情の割合を算出してもよい。顔表情分布算出部16により算出された顔表情分布は顔表情分布記憶部25に格納される。   For example, as shown in FIG. 10, the facial expression distribution calculation unit 16 calculates a facial expression distribution in which the identification result by the facial expression identification unit 11 is associated with the time information acquired by the time information acquisition unit 15. FIG. 10 shows the ratio (frequency) of seven facial expressions per day. The facial expression distribution is not limited to the mode shown in FIG. 10. For example, the facial expression ratios for the past several days may be calculated and arranged. Alternatively, the facial expression distribution may be calculated on a weekly or monthly basis. Good. The facial expression distribution calculated by the facial expression distribution calculation unit 16 is stored in the facial expression distribution storage unit 25.

本発明の第2の実施形態に係る顔表情識別システムの他の構成は、本発明の第1の実施形態に係る顔表情識別システムの構成と同様であるので、重複した説明を省略する。   Since the other configuration of the facial expression identification system according to the second embodiment of the present invention is the same as the configuration of the facial expression identification system according to the first embodiment of the present invention, a duplicate description is omitted.

本発明の第2の実施形態に係る顔表情識別方法の一例を図11のフローチャートに示す。ステップS30〜ステップS32の手順は、図7のステップS10〜ステップS12の手順と同様であるので重複した説明を省略する。ステップS33において、時刻情報取得部15が、顔表情識別部11により顔表情を識別した時点の時刻情報を取得し、時刻情報記憶部24に格納する。   An example of the facial expression identification method according to the second embodiment of the present invention is shown in the flowchart of FIG. The procedure from step S30 to step S32 is the same as the procedure from step S10 to step S12 in FIG. In step S <b> 33, the time information acquisition unit 15 acquires time information at the time when the facial expression is identified by the facial expression identification unit 11 and stores it in the time information storage unit 24.

次に、本発明の第2の実施形態に係る顔表情分布表示方法の一例を図12のフローチャートに示す。ステップS41において、顔表情分布算出部16が、出力装置6に入力画面を表示させる。ユーザから入力装置5を介して確認したいユーザ情報が入力される。ステップS42において、顔表情分布算出部16が、顔表情識別部11にユーザ情報に適合した人物の一日当たりの顔表情分布を算出する。ステップS43において、出力装置6が、顔表情分布算出部16により算出された顔表情分布を出力する。なお、図11及び図12に示した一連の処理は連続して又は互いに並列で行ってもよい。   Next, an example of a facial expression distribution display method according to the second embodiment of the present invention is shown in the flowchart of FIG. In step S <b> 41, the facial expression distribution calculation unit 16 causes the output device 6 to display an input screen. User information to be confirmed is input from the user via the input device 5. In step S <b> 42, the facial expression distribution calculation unit 16 calculates the facial expression distribution per day of the person who matches the user information to the facial expression identification unit 11. In step S <b> 43, the output device 6 outputs the facial expression distribution calculated by the facial expression distribution calculation unit 16. Note that the series of processes shown in FIGS. 11 and 12 may be performed continuously or in parallel with each other.

本発明の第2の実施形態によれば、本発明の第1の実施形態と同様に、装着型の検出装置4a〜4qを用いて人物の顔表情を識別することにより、安価且つ簡潔な構成で、継続的(日常的)に低消費電力で顔表情を識別することが実現可能となる。更に、検出装置4a〜4qは眼鏡用のフレームやHMDの内部に取り付けることができるので、日常的な環境下や、HMD装着時のように人物の顔が遮蔽される場合等のカメラでの撮像が難しい条件下においても、継続的且つ容易に顔表情を識別できる。したがって、ユーザに過大な負担をかけずに継続的にユーザの顔表情を識別して、顔表情分布を作成することができる。   According to the second embodiment of the present invention, as in the first embodiment of the present invention, the facial expression of a person is identified using the wearable detection devices 4a to 4q, so that an inexpensive and simple configuration is possible. Thus, it is possible to identify facial expressions with low power consumption continuously (daily). Furthermore, since the detection devices 4a to 4q can be attached to the inside of a frame for eyeglasses or an HMD, imaging with a camera is performed in a daily environment or when a human face is shielded when the HMD is worn. However, even under difficult conditions, facial expressions can be identified continuously and easily. Therefore, the facial expression distribution can be created by continuously identifying the facial expression of the user without imposing an excessive burden on the user.

更に、顔表情分布算出部16が、顔表情識別部11による識別結果と時刻情報取得部15により取得された時刻情報とを関連付けた顔表情分布を算出して出力装置6に表示させることにより、ユーザは顔表情分布から遠隔地に居住又は滞在する家族等の人物の様子を推測することができ、遠隔地に居住又は滞在する家族等の人物をネットワーク経由で見守ることができる。   Further, the facial expression distribution calculation unit 16 calculates a facial expression distribution in which the identification result by the facial expression identification unit 11 and the time information acquired by the time information acquisition unit 15 are associated with each other, and displays them on the output device 6. The user can infer the state of a person such as a family who lives or stays in a remote place from the facial expression distribution, and can watch a person such as a family who lives or stays in a remote place via a network.

なお、本発明の第1及び第2の実施形態において、装着装置3が眼鏡型のデバイスである場合を主に例示したが、例えば、図13に示すように、装着装置3がバーチャルリアリティ環境において視覚情報を提示可能なHMDであってもよい。図示を省略するが、装着装置3の内側には、例えば図2に示した検出装置4a〜4qと同様の17個の検出装置と表示部とが設けられている。   In the first and second embodiments of the present invention, the case where the mounting apparatus 3 is a spectacle-type device is mainly exemplified. However, for example, as illustrated in FIG. 13, the mounting apparatus 3 is in a virtual reality environment. It may be an HMD capable of presenting visual information. Although illustration is omitted, inside the mounting device 3, for example, 17 detection devices similar to the detection devices 4a to 4q shown in FIG. 2 and a display unit are provided.

図14に示すように、装着装置3の内側の表示部40には、装着装置3を装着したユーザのバーチャルアバター41と、装着装置3と同様の装着装置を装着した他者のバーチャルアバター42とがオンラインサービス上で表示されている。顔表情識別部11は、第1及び第2の実施形態と同様にユーザ及び他者の顔表情をそれぞれ識別する。顔表情識別部11は更に、顔表情の識別結果をネットワーク上へ伝送し、伝送された顔表情の識別結果に応じて、バーチャルアバター41,42の顔表情をそれぞれ変化させることにより、ユーザ及び他者の顔表情とバーチャルアバター41,42の顔表情とをそれぞれ同期させることができる。これにより、没入型オンラインゲーム等においての表情コミュニケーションが実現可能となる。   As shown in FIG. 14, a virtual avatar 41 of a user wearing the wearing device 3 and a virtual avatar 42 of another person wearing a wearing device similar to the wearing device 3 are displayed on the display unit 40 inside the wearing device 3. Is displayed on the online service. The facial expression identifying unit 11 identifies the facial expressions of the user and others as in the first and second embodiments. The facial expression identification unit 11 further transmits the identification result of the facial expression on the network, and changes the facial expression of the virtual avatars 41 and 42 according to the transmitted identification result of the facial expression, so that the user and others The facial expression of the person and the facial expressions of the virtual avatars 41 and 42 can be synchronized. Thereby, facial expression communication in an immersive online game or the like can be realized.

なお、装着装置3が眼鏡型のデバイス等である場合にも、顔表情識別部11が顔表情の識別結果をネットワーク上へ伝送し、伝送された識別結果に応じて出力装置6の画面に表示されたオンラインサービス上のアバターの顔表情を変化させてもよい。   Even when the wearing device 3 is a glasses-type device or the like, the facial expression identification unit 11 transmits the identification result of the facial expression on the network and displays it on the screen of the output device 6 according to the transmitted identification result. The facial expression of the avatar on the online service may be changed.

(第3の実施形態)
本発明の第3の実施形態に係る顔表情識別システムは、図15に示すように、CPU1、記憶装置2、装着装置3、入力装置5及び出力装置6を備える。CPU1と、記憶装置2、装着装置3、入力装置5及び出力装置6とは、有線又は無線で信号やデータを互いに送受信可能である。
(Third embodiment)
As shown in FIG. 15, the facial expression identification system according to the third embodiment of the present invention includes a CPU 1, a storage device 2, a mounting device 3, an input device 5, and an output device 6. The CPU 1, the storage device 2, the mounting device 3, the input device 5, and the output device 6 can transmit and receive signals and data to and from each other in a wired or wireless manner.

本発明の第3の実施形態では、装着装置3がHMDである場合を例示する。HMDを用いたバーチャルリアリティ(VR)は、没入型ゲームや、遠隔地とのコミュニケーション等の幅広い用途での利用が期待されている。HMDを用いたVRでは、バーチャル環境にユーザが実際に存在するかのような没入感をユーザに与えることができる。更には、ユーザの分身としてのバーチャルアバター(以下、単に「アバター」と称する)を介してコミュニケーションを図ることにより、HMDでユーザの顔の上部が覆われている場合でも円滑なコミュニケーションを実現でき、プライバシーの観点からバーチャル環境に実際の顔が露出することを好まない人間にとっても好適である。   In the third embodiment of the present invention, a case where the mounting device 3 is an HMD is illustrated. Virtual reality (VR) using HMD is expected to be used in a wide range of applications such as immersive games and communication with remote locations. In VR using HMD, it is possible to give the user an immersive feeling as if the user actually exists in the virtual environment. Furthermore, by communicating via a virtual avatar (hereinafter simply referred to as “avatar”) as a user's alternation, smooth communication can be realized even when the upper part of the user's face is covered with the HMD, From the viewpoint of privacy, it is also suitable for humans who do not like the actual face exposed to the virtual environment.

ここで、アバターを用いた顔表情コミュニケーションを実現するために、HMDを装着しているユーザの顔表情を適切に識別し、ユーザの顔表情をアバターの顔画像に適切に反映させることが重要となる。なお、アバターとは、バーチャル環境においてユーザの分身となる2次元又は3次元のキャラクタを意味する。アバターは、人間の姿を模擬していてもよく、動物やロボットの姿を模擬していてもよいが、本明細書中ではユーザの複数種の顔表情に対応する複数種の顔表情を表現可能なキャラクタが採用可能である。   Here, in order to realize facial expression communication using an avatar, it is important to appropriately identify the facial expression of the user wearing the HMD and appropriately reflect the facial expression of the user in the facial image of the avatar. Become. An avatar means a two-dimensional or three-dimensional character that is a user's alternation in a virtual environment. An avatar may simulate a human figure or an animal or robot, but in this specification, it expresses multiple facial expressions corresponding to multiple facial expressions of the user. Possible characters can be employed.

装着装置3は、複数(16個)の検出装置(光センサ)61a,61b,61c,61d,61e,61f,61g,61h,61i,61j,61k,61l,61m,61n,61o,61p及び表示部62を備える。光センサ61a〜61pは、図1に示した検出装置4a〜4qと同様の装置が使用可能であり、例えば反射型光センサ(フォトリフレクタ)等が使用可能である。光センサ61a〜61pは、装着装置3を装着したときにユーザの顔面と対向する複数箇所にそれぞれ配置されている。光センサ61a〜61pは、装着装置3を装着したユーザの顔面と装着装置3の間の距離を複数箇所で検出する。   The mounting device 3 includes a plurality (16) of detection devices (light sensors) 61a, 61b, 61c, 61d, 61e, 61f, 61g, 61h, 61i, 61j, 61k, 61l, 61m, 61n, 61o, 61p and a display. The unit 62 is provided. As the optical sensors 61a to 61p, devices similar to the detection devices 4a to 4q shown in FIG. 1 can be used. For example, a reflective optical sensor (photo reflector) or the like can be used. The optical sensors 61a to 61p are respectively disposed at a plurality of locations facing the user's face when the mounting device 3 is mounted. The optical sensors 61a to 61p detect the distance between the face of the user wearing the mounting device 3 and the mounting device 3 at a plurality of locations.

図16は、頭部に装着する側から見た装着装置3の一例を示す。装着装置3の本体部71にはフレキシブル回路基板72が固定されている。フレキシブル回路基板72のユーザの両目と対向する位置には2つの開口部が設けられ、2つの開口部の位置には一対のレンズ73a,73bが配置されている。フレキシブル回路基板72には、16個の光センサ61a〜61pが配置されている。このうち、14個の光センサ61a〜61f,61h〜61n,61pは、一対のレンズ73a,73bの周囲に配置されている。   FIG. 16 shows an example of the mounting device 3 viewed from the side mounted on the head. A flexible circuit board 72 is fixed to the main body 71 of the mounting device 3. Two openings are provided in the position of the flexible circuit board 72 facing both eyes of the user, and a pair of lenses 73a and 73b are disposed at the positions of the two openings. On the flexible circuit board 72, 16 photosensors 61a to 61p are arranged. Among these, the 14 optical sensors 61a to 61f, 61h to 61n, and 61p are disposed around the pair of lenses 73a and 73b.

具体的には、光センサ61aは、装着装置3を装着したユーザの眉間近傍と対向する。光センサ61b〜61dは、ユーザの左眉近傍と対向する。光センサ61eは、ユーザの左目尻近傍と対向する。光センサ61f,61hは、ユーザの左目の下近傍と対向する。光センサ61iは、ユーザの眉間近傍と対向する。光センサ61j〜61lは、ユーザの右眉近傍と対向する。光センサ61mは、ユーザの右目尻近傍と対向する。光センサ61n,61pは、ユーザの右目の下近傍と対向する。   Specifically, the optical sensor 61 a faces the vicinity of the eyebrow of the user wearing the mounting device 3. The optical sensors 61b to 61d face the vicinity of the user's left eyebrow. The optical sensor 61e faces the vicinity of the user's left eye corner. The optical sensors 61f and 61h face the lower vicinity of the user's left eye. The optical sensor 61i faces the vicinity of the user's eyebrow. The optical sensors 61j to 61l face the vicinity of the user's right eyebrow. The optical sensor 61m faces the vicinity of the user's right eye corner. The optical sensors 61n and 61p face the lower vicinity of the user's right eye.

フレキシブル回路基板72は、本体部71の下部に突出した2つの部分を有し、突出した2つの部分に2個の光センサ61g,61oがそれぞれ配置されている。2個の光センサ61g,61oは、装着装置3を装着したユーザの頬近傍と対向する。頬の筋肉は口の筋肉と連結されているので、頬の動きを測定することで口周辺の状態を推定することができる。   The flexible circuit board 72 has two portions protruding below the main body portion 71, and two optical sensors 61g and 61o are arranged in the two protruding portions, respectively. The two optical sensors 61g and 61o face the cheek vicinity of the user wearing the wearing device 3. Since the cheek muscles are connected to the mouth muscles, the state around the mouth can be estimated by measuring the movement of the cheeks.

図17は、ユーザが装着装置3を装着した様子を示す。図17では模式的に、装着装置3の本体部71を透過して光センサ61a〜61pが見えるように示している。光センサ61a〜61pは、ユーザの目や頬等の顔面と、装着装置3との間の距離D(矢印で図示)を複数箇所で検出する。なお、光センサ61a〜61pの配置位置や数は特に限定されず、識別したい顔表情の種類等に応じて適宜設定可能である。   FIG. 17 shows the user wearing the mounting device 3. FIG. 17 schematically shows that the optical sensors 61a to 61p can be seen through the main body 71 of the mounting device 3. The optical sensors 61a to 61p detect the distance D (illustrated by arrows) between the face of the user's eyes and cheeks and the mounting device 3 at a plurality of locations. The arrangement positions and the number of the optical sensors 61a to 61p are not particularly limited, and can be set as appropriate according to the type of facial expression desired to be identified.

図15に示した表示部62は、図16に示した本体部71のレンズ73a,73bの奥側に配置されている。本発明の第3の実施形態では、表示部62として没入型(非透過型)の構造を例示するが、ハーフミラー等を用いて現実環境とアバターが重畳して視認可能な透過型の構造であってもよく、単眼のみに画像を投影する構造であってもよい。   The display unit 62 illustrated in FIG. 15 is disposed on the back side of the lenses 73a and 73b of the main body unit 71 illustrated in FIG. In the third embodiment of the present invention, an immersive (non-transmissive) structure is illustrated as the display unit 62. However, the display unit 62 has a transmissive structure in which a real environment and an avatar are superimposed and visible using a half mirror or the like. There may be a structure in which an image is projected only to a single eye.

図15に示したCPU1は、アバター表示制御部31、学習データ生成部32及び顔表情識別部33を備え、更に、顔表情識別システム全体を制御する制御回路、演算回路、データを一時記憶するレジスタ等を有する。なお、CPU1の機能の一部が他の装置により実現されてもよく、CPU1の機能の一部又は全部が、装着装置3に内蔵されたマイクロプロセッサ等で実現されてもよい。   The CPU 1 illustrated in FIG. 15 includes an avatar display control unit 31, a learning data generation unit 32, and a facial expression identification unit 33, and further includes a control circuit that controls the entire facial expression identification system, an arithmetic circuit, and a register that temporarily stores data. Etc. Note that a part of the function of the CPU 1 may be realized by another device, and a part or all of the function of the CPU 1 may be realized by a microprocessor or the like built in the mounting device 3.

記憶装置2は、アバターデータ記憶部50、学習データ記憶部51、光センサデータ記憶部52及び識別結果記憶部53を備える。アバターデータ記憶部50は、アバターの顔画像を含むアバターに関する情報を記憶する。学習データ記憶部51は、学習データ生成部32により生成される機械学習用のデータセットや、顔表情識別部33が機械学習して得られる学習データ(識別関数等)を記憶する。光センサデータ記憶部52は、光センサ61a〜61pにより検出された検出結果のデータ(センサ値)を記憶する。識別結果記憶部53は、顔表情識別部33による顔表情の識別結果を記憶する。記憶装置2は更に、CPU1が実行する顔表情識別プログラムやプログラムの実行に必要な各種データを記憶する。記憶装置2が記憶する全部又は一部の情報が、装着装置3に内蔵されたメモリに記憶されていてもよい。   The storage device 2 includes an avatar data storage unit 50, a learning data storage unit 51, an optical sensor data storage unit 52, and an identification result storage unit 53. The avatar data storage unit 50 stores information related to the avatar including the avatar face image. The learning data storage unit 51 stores a machine learning data set generated by the learning data generation unit 32 and learning data (such as an identification function) obtained by machine learning by the facial expression identification unit 33. The optical sensor data storage unit 52 stores detection result data (sensor values) detected by the optical sensors 61a to 61p. The identification result storage unit 53 stores the facial expression identification result by the facial expression identification unit 33. The storage device 2 further stores a facial expression identification program executed by the CPU 1 and various data necessary for executing the program. All or a part of the information stored in the storage device 2 may be stored in a memory built in the mounting device 3.

本発明の第3の実施形態においては、機械学習用のデータセットの生成方法を含む機械学習方法(学習フェーズ)と、機械学習により得られた学習データを用いた顔表情識方法(識別フェーズ)について説明するが、学習フェーズ及び識別フェーズで同一のアバターを使用してもよく、異なるアバターを使用してもよい。アバターデータ記憶部50は、学習フェーズ及び識別フェーズで使用する単数又は複数のアバターに関する情報を格納する。   In the third embodiment of the present invention, a machine learning method (learning phase) including a method for generating a data set for machine learning, and a facial expression recognition method (identification phase) using learning data obtained by machine learning. Although the same avatar may be used in the learning phase and the identification phase, different avatars may be used. The avatar data storage unit 50 stores information on one or more avatars used in the learning phase and the identification phase.

アバターデータ記憶部50は、アバターの複数種の顔表情(顔画像)のデータを記憶している。アバターの顔画像は、例えば図4に模式的に示したように、「無表情」、「微笑み」、「笑い」、「嫌悪」、「怒り」、「驚き」、「悲しみ」等の人間の顔表情を模擬している。アバターの種類にもよるが、例えば、「無表情」は口を横に結ぶことで、「微笑み」は口角を持ち上げることで、「笑い」は目を細めて口を開くことでそれぞれ表現し得る。「嫌悪」は眉間に皺を寄せて目尻を上げることで、「怒り」は「嫌悪」よりも更に眉間に皺を寄せ、眉尻を上げることでそれぞれ表現し得る。「驚き」は目を見開いて口を開くことで、「悲しみ」は眉尻を下げることでそれぞれ表現し得る。アバターデータ記憶部5は更に、眉の上下、両目又は固めの開閉、口の開閉等の部分的に変化させた顔画像のデータを記憶していてもよい。アバターデータ記憶部50に記憶されるアバターの顔画像の数及び種類は特に限定されない。   The avatar data storage unit 50 stores data of multiple types of facial expressions (face images) of avatars. For example, as schematically shown in FIG. 4, the avatar's face image is a human expression such as “no expression”, “smile”, “laughter”, “disgust”, “anger”, “surprise”, “sadness”, etc. Simulates facial expression. Depending on the type of avatar, for example, “no expression” can be expressed by tying the mouth sideways, “smiling” can be expressed by lifting the corner of the mouth, and “laughing” can be expressed by narrowing the eyes and opening the mouth. . “Aversion” can be expressed by putting a heel between the eyebrows and raising the corner of the eye, and “angry” can be expressed by putting a heel between the eyebrows and raising the butt of the eyebrows rather than “hate”. “Surprise” can be expressed by opening your eyes and your mouth open, and “Sadness” can be expressed by lowering your eyebrows. The avatar data storage unit 5 may further store data of face images that have been partially changed, such as opening / closing the eyebrows, opening / closing both eyes or firmness, opening / closing the mouth, and the like. The number and type of avatar face images stored in the avatar data storage unit 50 are not particularly limited.

アバター表示制御部31は、学習フェーズにおいて、入力装置5を介して入力された指示情報等に基づいて、アバターデータ記憶部50に格納されたアバターの複数の顔画像のデータから、機械学習によって識別したい顔表情に対応するアバターの顔画像のデータを抽出する。アバター表示制御部31は、図18(a)に示すように、抽出した顔表情のアバター100の画像を表示するように装着装置3の表示部62を制御する。図18(a)ではアバター100の顔画像が「笑い」である場合を例示する。   In the learning phase, the avatar display control unit 31 is identified by machine learning from the data of a plurality of avatar face images stored in the avatar data storage unit 50 based on the instruction information or the like input via the input device 5. The data of the avatar face image corresponding to the facial expression desired is extracted. As shown in FIG. 18A, the avatar display control unit 31 controls the display unit 62 of the mounting apparatus 3 so as to display the image of the extracted facial expression of the avatar 100. FIG. 18A illustrates a case where the face image of the avatar 100 is “laughter”.

アバター表示制御部31は、アバターデータ記憶部50に格納されたアバターの複数の顔画像のデータから、機械学習によって識別したい顔表情に対応するアバターの顔画像のデータを順次抽出し、図18(b)に示すように、表示部62に表示されるアバター100の顔画像を、抽出した顔画像に順次更新していく。図18(b)ではアバター100の顔画像が「微笑み」である場合を例示する。アバター100の顔画像を更新するタイミングは適宜設定可能である。例えば、所定の時間が経過後のタイミングや、光センサ61a〜61pにより所定のフレーム数を検出後のタイミング、ユーザから入力装置5を介して入力された指示情報に応じたタイミング等であってもよい。   The avatar display control unit 31 sequentially extracts the data of the avatar face image corresponding to the facial expression desired to be identified by machine learning from the data of the plurality of avatar face images stored in the avatar data storage unit 50, as shown in FIG. As shown in b), the face image of the avatar 100 displayed on the display unit 62 is sequentially updated to the extracted face image. FIG. 18B illustrates a case where the face image of the avatar 100 is “smile”. The timing for updating the face image of the avatar 100 can be set as appropriate. For example, timing after a predetermined time has elapsed, timing after a predetermined number of frames are detected by the optical sensors 61a to 61p, timing according to instruction information input from the user via the input device 5, and the like Good.

アバター表示制御部31は、アバター100の顔画像の表示前、表示後、又は表示と同時に、図18(a)及び図18(b)に示すように、「アバターの顔画像を真似て下さい」等の文字情報を表示部62に表示させ、ユーザにアバター100の表情を真似るように促す。表示部62に文字情報を表示する代わりに、装着装置3に取り付けられている図示を省略したヘッドフォンやスピーカ等による音声情報を使用してもよい。なお、アバター表示制御部31は、ユーザにアバター100の表情を真似るように継続的又は断続的に促してもよいが、アバター100の顔画像を最初に表示する際に、ユーザにアバター100の表情を真似るように促した後は、文字情報や音声情報の提示を停止してもよい。また、アバターの顔画像に対応する文字情報や音声情報を補助的に提示してもよい。例えば、アバターの顔画像が「笑い」の場合には、「笑って下さい」等の文字情報や音声情報を補助的に提示してもよい。   As shown in FIGS. 18A and 18B, the avatar display control unit 31 “similar the face image of the avatar” before, after, or simultaneously with the display of the face image of the avatar 100. Or the like is displayed on the display unit 62 to prompt the user to imitate the expression of the avatar 100. Instead of displaying the character information on the display unit 62, sound information by a headphone, a speaker, etc. (not shown) attached to the mounting device 3 may be used. The avatar display control unit 31 may continuously or intermittently prompt the user to imitate the expression of the avatar 100, but when the face image of the avatar 100 is first displayed, the expression of the avatar 100 is displayed to the user. After prompting the user to imitate, the presentation of text information and voice information may be stopped. Moreover, you may show the character information and audio | voice information corresponding to the face image of an avatar auxiliary. For example, when the avatar's face image is “laugh”, text information such as “Please laugh” and voice information may be presented as an auxiliary.

光センサ61a〜61pは、装着装置3を装着したユーザがアバターの顔画像を真似したときの顔面と装着装置3の間の距離を所定のフレーム数検出する。アバター表示制御部31がユーザにアバターの顔画像を真似るように促してから、或いは表示部62にアバターを表示してから、ユーザがアバターの顔画像の種類を認識し、ユーザの顔表情がアバターの顔画像に対応する顔表情に変化するまでにはタイムラグが発生する。このため、光センサ61a〜61pは、ユーザにアバターの顔画像を真似るように促してから、或いは表示部62にアバターを表示してから所定時間経過後に検出のタイミングや、入力装置5を介して入力された指示情報に応じたタイミングで検出を開始してもよい。   The optical sensors 61a to 61p detect a predetermined number of frames for the distance between the face and the wearing device 3 when the user wearing the wearing device 3 imitates the face image of the avatar. After the avatar display control unit 31 prompts the user to imitate the face image of the avatar or displays the avatar on the display unit 62, the user recognizes the type of the avatar face image, and the user's facial expression is the avatar. A time lag occurs until the facial expression corresponding to the face image changes. For this reason, the optical sensors 61a to 61p prompt the user to imitate the face image of the avatar, or display the avatar on the display unit 62 and detect the detection timing or the input device 5 after a predetermined time has elapsed. The detection may be started at a timing according to the input instruction information.

光センサ61a〜61pにより検出される検出結果のデータ(センサ値)は、同一の顔表情をした場合でも個人差があるため、個人間で平衡をとるように前処理(キャリブレーション)が行われる。例えば、顔表情が「無表情」のときに検出されたセンサ値の平均値を0.5、複数種の顔表情のときに検出されたセンサ値のうちのそれぞれにおいて最大値を1、最小値を0として正規化を行う。センサ値は、例えば図19に示すように、距離とセンサ値が線形的関係を実現するように線形補完される。   Since the detection result data (sensor values) detected by the optical sensors 61a to 61p has individual differences even when the facial expression is the same, preprocessing (calibration) is performed so as to balance the individuals. . For example, the average value of the sensor values detected when the facial expression is “no expression” is 0.5, the maximum value is 1 and the minimum value among the sensor values detected when the facial expression is a plurality of types of facial expressions. Normalization is performed with 0 being zero. For example, as shown in FIG. 19, the sensor value is linearly complemented so that the distance and the sensor value realize a linear relationship.

学習データ生成部32は、学習フェーズにおいて、光センサ61a〜61pからのセンサ値を入力データとして、機械学習用のデータセットを生成する。例えば、学習データ生成部32は、光センサ61a〜61pからのセンサ値を顔表情毎の部分集合(クラスタ)に分類するクラスタリング処理を行う。   In the learning phase, the learning data generation unit 32 generates a data set for machine learning using sensor values from the optical sensors 61a to 61p as input data. For example, the learning data generation unit 32 performs a clustering process that classifies sensor values from the optical sensors 61a to 61p into subsets (clusters) for each facial expression.

学習データ生成部32は更に、分類されたクラスタに、アバター表示制御部31により抽出され、センサ値を検出するときに表示部62に表示していたアバターの顔画像の種類(例えば「微笑み」、「悲しみ」等)に対応するラベルを付与するラベリング処理を行い、ラベルを付与されたクラスタを機械学習用のデータセット(サンプリング結果)として学習データ記憶部51に格納する。このように、機械学習用のデータセットが生成され、これを個人毎に学習データ記憶部51に格納していくことで、顔表情認識のための学習データベースを構築することができる。   The learning data generation unit 32 further extracts the classified cluster by the avatar display control unit 31 and displays the type of avatar face image (for example, “smile”) displayed on the display unit 62 when the sensor value is detected. Labeling processing for assigning a label corresponding to “sadness” or the like is performed, and the cluster to which the label is assigned is stored in the learning data storage unit 51 as a data set (sampling result) for machine learning. In this manner, a machine learning data set is generated, and stored in the learning data storage unit 51 for each individual, whereby a learning database for facial expression recognition can be constructed.

顔表情識別部33は、学習フェーズにおいて、学習データ記憶部51に格納された機械学習用のデータセットを入力データとして、ニューラルネットワークやサポートベクタマシン等により、装着装置3を装着したユーザの顔表情を識別するための機械学習を行う。顔表情識別部33は、例えば図20に模式的に示すように、入力層L11、隠れ層L12及び出力層L13を含む多層パーセプトロンで構成されたニューラルネットワークを用いて、誤差伝播法(BP)により機械学習を行う。   In the learning phase, the facial expression identifying unit 33 uses the machine learning data set stored in the learning data storage unit 51 as input data, and the facial expression of the user wearing the mounting device 3 using a neural network, a support vector machine, or the like. Machine learning to identify For example, as schematically shown in FIG. 20, the facial expression identification unit 33 uses an error propagation method (BP) by using a neural network composed of a multilayer perceptron including an input layer L11, a hidden layer L12, and an output layer L13. Perform machine learning.

図20に示したニューラルネットワークにおいて、マルチクラス分類問題であるため、例えば活性化関数には正規化線形関数を採用し、誤差関数には交差エントロピー法を採用し、出力層L3の活性化関数にはソフトマックス(softmax)関数を採用する。この場合、ニューラルネットワークは、入力層L11に入力された顔表情と、この顔表情に対応する教師信号が付与された複数の訓練した表情のそれぞれとの類似度を出力層L13から出力し、類似度が最も高い顔表情を識別結果とする。誤差逆伝播法(BP)では、出力層L13から出力される各テンプレート表情に対する類似度のうち、正解の表情に対する類似度が高くなるように(換言すれば、正解の表情に対する類似度の最大値との誤差が小さくなるように)、出力層L13から入力層L11にかけて、誤差の勾配を逆伝播させることで重みを修正する。   Since the neural network shown in FIG. 20 is a multi-class classification problem, for example, a normalized linear function is adopted as the activation function, a cross-entropy method is adopted as the error function, and the activation function of the output layer L3 is adopted. Adopts the softmax function. In this case, the neural network outputs, from the output layer L13, the similarity between the facial expression input to the input layer L11 and each of a plurality of trained facial expressions to which a teacher signal corresponding to the facial expression is assigned. The facial expression with the highest degree is taken as the identification result. In the error back propagation method (BP), among the similarities to the template facial expressions output from the output layer L13, the similarity to the correct facial expression is increased (in other words, the maximum value of the similarity to the correct facial expression). The weight is corrected by back-propagating the error gradient from the output layer L13 to the input layer L11.

また、人間の顔表情は、例えば「無表情」から「笑い」に瞬間的に変化するのではなく、「無表情」から「笑い」に遷移する途中に中間表情が存在し、徐々に連続的に(滑らかに)変化するものである。この顔表情の連続的な変化の識別と、識別結果に応じたアバターの顔表情の連続的な変化を実現するため、顔表情識別部33は、図21に示すように、入力層L21、隠れ層L22、出力層L23で構成された回帰ニューラルネットワークを実装してもよい。   In addition, for example, human facial expressions do not change instantaneously from “no expression” to “laughter”, but an intermediate expression exists during the transition from “no expression” to “laughter”, and gradually (Smoothly). In order to realize the continuous change of the facial expression and the continuous change of the facial expression of the avatar according to the identification result, the facial expression identification unit 33, as shown in FIG. A regression neural network composed of the layer L22 and the output layer L23 may be implemented.

図21に示した回帰ニューラルネットワークにおいて、例えば活性化関数には正規化線形関数を採用し、誤差関数には平均二乗関数を採用し、出力層L23の活性化関数には双曲線タンジェント(hyperbolic tangent)関数を採用する。図21に示すように、例えば顔表情が「笑い」の回帰ニューラルネットワークの場合には、「無表情」に対する類似度を最小値の0、「笑い」に対する類似度を最大値の1と設定する。図21に示した回帰ニューラルネットワークと同様の回帰ニューラルネットワークが、識別したい顔表情数だけ実装され、図20に示したニューラルネットワークのマルチクラス分類の結果に依存するように使用される。   In the regression neural network shown in FIG. 21, for example, a normalized linear function is adopted as the activation function, a mean square function is adopted as the error function, and a hyperbolic tangent is used as the activation function of the output layer L23. Adopt a function. As shown in FIG. 21, for example, in the case of a regression neural network whose facial expression is “laughter”, the similarity to “no expression” is set to 0 as the minimum value, and the similarity to “laughter” is set to 1 as the maximum value. . A regression neural network similar to the regression neural network shown in FIG. 21 is implemented for the number of facial expressions to be identified, and is used depending on the result of the multi-class classification of the neural network shown in FIG.

アバターデータ記憶部50は、「無表情」や「笑い」等の代表的な顔表情間の中間表情を記憶していてもよい。中間表情は、例えばアバターのテクスチャ・ジオメトリのモーフィングにより生成可能である。アバター表示制御部31は、学習フェーズにおいて、アバター100の顔画像のデータから、「無表情」や「笑い」等の代表的な顔表情と、その顔表情間の中間表情を抽出する。そして、アバター表示制御部31は、抽出した代表的な顔表情及びその中間表情を連続的に装着装置3の表示部62に表示する。これにより、中間表情も識別するための機械学習用のデータセットを生成可能となる。   The avatar data storage unit 50 may store intermediate facial expressions between representative facial expressions such as “no expression” and “laughter”. The intermediate facial expression can be generated, for example, by morphing the texture geometry of the avatar. In the learning phase, the avatar display control unit 31 extracts representative facial expressions such as “no expression” and “laughter” and intermediate expressions between the facial expressions from the facial image data of the avatar 100. And the avatar display control part 31 displays the extracted representative facial expression and its intermediate expression on the display part 62 of the mounting apparatus 3 continuously. This makes it possible to generate a machine learning data set for identifying intermediate facial expressions.

顔表情識別部33は、識別フェーズにおいて、図22に示すように、学習データであるマルチクラス分類器80を用いて、光センサ61a〜61pからのセンサ値を入力データとして、装着装置3を装着したユーザの顔表情を識別する。顔表情識別部33は、例えば、訓練した複数種のテンプレート表情に対する類似度を算出し、類似度が最も高い表情を顔表情として識別する。例えば、図22に示すように、訓練した表情として「微笑み」、「怒り」、「驚き」、「悲しみ」の4種類があり、「微笑み」に対する類似度が0.8、「怒り」に対する類似度が0.2、「驚き」に対する類似度が0.1、「悲しみ」に対する類似度が0.1といった類似度として識別する。   In the identification phase, as shown in FIG. 22, the facial expression identification unit 33 uses the multi-class classifier 80, which is learning data, to install the mounting device 3 using the sensor values from the optical sensors 61a to 61p as input data. Identifying the facial expression of the user. For example, the facial expression identifying unit 33 calculates the similarity to a plurality of types of trained template expressions, and identifies the facial expression having the highest similarity as the facial expression. For example, as shown in FIG. 22, there are four types of facial expressions that have been trained, such as “smile”, “anger”, “surprise”, and “sadness”, the similarity to “smile” is 0.8, and the similarity to “anger” The degree of similarity is identified as 0.2, the degree of similarity to “surprise” is 0.1, and the degree of similarity to “sadness” is 0.1.

顔表情識別部33は更に、図22に示すように、学習データである「微笑み」、「怒り」、「驚き」、「悲しみ」の回帰ネットワーク81〜84を用いて、光センサ61a〜61pからのセンサ値を入力データとして、装着装置3を装着したユーザの中間表情を識別してもよい。   Further, as shown in FIG. 22, the facial expression identification unit 33 uses the learning data “smile”, “anger”, “surprise”, and “sadness” regression networks 81 to 84 from the optical sensors 61a to 61p. The intermediate facial expression of the user wearing the wearing device 3 may be identified using the sensor value as input data.

アバター表示制御部31は、識別フェーズにおいて、顔表情識別部33による識別結果に基づいて、アバターデータ記憶部50から、ユーザの顔表情に対応するアバターの顔画像のデータを抽出する。アバター表示制御部31は更に、抽出したアバターの顔画像のデータを伝送し、装着装置3の表示部62、ディスプレイ等の出力装置6、或いは通信ネットワークを介した通信相手が装着している装着装置の表示部等に表示させる。例えば、装着装置3の表示部62に、図14に示した表示画像と同様に、ユーザ本人のアバターの顔画像と通信相手のアバターの顔画像が表示される。   In the identification phase, the avatar display control unit 31 extracts the avatar face image data corresponding to the user's facial expression from the avatar data storage unit 50 based on the identification result by the facial expression identification unit 33. The avatar display control unit 31 further transmits the extracted avatar face image data, and the display device 62 of the mounting device 3, the output device 6 such as a display, or a mounting device worn by a communication partner via a communication network. Is displayed on the display unit. For example, the face image of the user's own avatar and the face image of the communication partner's avatar are displayed on the display unit 62 of the mounting apparatus 3 in the same manner as the display image shown in FIG.

アバター表示制御部31は、コミュニケーション相手がコンピュータである場合には、ユーザの顔表情に対応したアバターの顔画像を表示する代わりに、ユーザの顔表情の識別結果に応じた他の表示をしてもよい。例えば、ユーザの顔表情が「怒り」と識別された場合に、「驚き」や「不安」を模擬した顔画像のキャラクタを装着装置3の表示部62に表示したり、「どうしましたか?」、「大丈夫ですか?」等の文字情報や音声情報を提示したりしてもよい。   When the communication partner is a computer, the avatar display control unit 31 performs other display according to the identification result of the user's facial expression instead of displaying the facial image of the avatar corresponding to the user's facial expression. Also good. For example, when the user's facial expression is identified as “anger”, a facial image character simulating “surprise” or “anxiety” is displayed on the display unit 62 of the mounting apparatus 3 or “what have you done?” Or text information such as “Are you okay?” Or voice information may be presented.

本発明の第3の実施形態に係る顔表情識別システムの他の構成は、図1に示した第1の実施形態に係る顔表情識別システムと同様であるので、重複した説明を省略する。   The other configuration of the facial expression identification system according to the third embodiment of the present invention is the same as that of the facial expression identification system according to the first embodiment shown in FIG.

<機械学習方法>
次に、図23のフローチャートを参照しながら、本発明の第3の実施形態に係る顔表情識別システムを用いた機械学習方法(学習フェーズ)の一例を説明する。
<Machine learning method>
Next, an example of a machine learning method (learning phase) using the facial expression identification system according to the third embodiment of the present invention will be described with reference to the flowchart of FIG.

ステップS51において、アバター表示制御部31は、入力装置5を介して入力された指示情報等に基づいて、アバターデータ記憶部50から、機械学習によって識別したい顔表情に対応するアバターの顔画像のデータを抽出する。そして、アバター表示制御部31は、抽出した顔表情のアバターを装着装置の表示部62に表示させるとともに、装着装置3を装着したユーザにアバターの顔画像を真似るように促す。ステップS52において、光センサ61a〜61pが、装着装置3を装着したユーザがアバターの顔画像を真似したときのセンサ値を取得する。   In step S51, the avatar display control unit 31 stores the data of the avatar face image corresponding to the facial expression to be identified by machine learning from the avatar data storage unit 50 based on the instruction information or the like input via the input device 5. To extract. And the avatar display control part 31 displays the avatar of the extracted facial expression on the display part 62 of a mounting apparatus, and urges the user wearing the mounting apparatus 3 to imitate the avatar face image. In step S52, the optical sensors 61a to 61p acquire sensor values when the user wearing the wearing device 3 imitates the avatar's face image.

ステップS53において、アバター表示制御部31は、機械学習によって識別したい所定の顔表情数についてのセンサ値を取得したか否かを判定する。所定の顔表情数のセンサ値を取得していないと判定された場合、ステップS50に戻り、残りの顔表情について同様の処理を繰り返す。例えば、5種類の顔表情について、100フレームずつ、10セットで合計5000セットのデータセットを取得する。ステップS53において所定の顔表情数のセンサ値を取得したと判定された場合、ステップS54に移行する。   In step S53, the avatar display control unit 31 determines whether or not a sensor value for a predetermined number of facial expressions desired to be identified by machine learning has been acquired. If it is determined that the sensor value for the predetermined number of facial expressions has not been acquired, the process returns to step S50 and the same processing is repeated for the remaining facial expressions. For example, for 5 types of facial expressions, a total of 5000 data sets are acquired with 10 sets of 100 frames each. If it is determined in step S53 that sensor values for a predetermined number of facial expressions have been acquired, the process proceeds to step S54.

ステップS54において、学習データ生成部32が、光センサ61a〜61pのセンサ値を顔表情毎のクラスタに分類する。ステップS55において、学習データ生成部32が、分類されたクラスタに、アバター表示制御部31により生成されたアバターの顔画像に対応するラベルを付与することにより、機械学習用のデータセットを生成する。学習データ生成部32が、生成した機械学習用のデータセットを学習データ記憶部51に格納する。ステップS55において、顔表情識別部33は、学習データ記憶部51に格納された機械学習用のデータセットを用いて、顔表情を識別するための機械学習を行う。   In step S54, the learning data generation unit 32 classifies the sensor values of the optical sensors 61a to 61p into clusters for each facial expression. In step S55, the learning data generation unit 32 generates a machine learning data set by adding a label corresponding to the avatar face image generated by the avatar display control unit 31 to the classified cluster. The learning data generation unit 32 stores the generated data set for machine learning in the learning data storage unit 51. In step S <b> 55, the facial expression identification unit 33 performs machine learning for identifying facial expressions using the machine learning data set stored in the learning data storage unit 51.

<顔表情識別方法>
次に、図24のフローチャートを参照しながら、本発明の第3の実施形態に係る顔表情識別方法(識別フェーズ)の一例を説明する。
<Facial expression identification method>
Next, an example of a facial expression identification method (identification phase) according to the third embodiment of the present invention will be described with reference to the flowchart of FIG.

ステップS61において、装着装置3がユーザの頭部に装着されている状態で、光センサ61a〜61pがセンサ値を取得する。ステップS62において、顔表情識別部33は、光センサ61a〜61pからのセンサ値を入力データとして、学習データ記憶部51に格納された学習データを読み込んで、装着装置3を装着したユーザの顔表情を識別する。   In step S61, the optical sensors 61a to 61p acquire sensor values while the mounting device 3 is mounted on the user's head. In step S62, the facial expression identification unit 33 reads the learning data stored in the learning data storage unit 51 using the sensor values from the optical sensors 61a to 61p as input data, and the facial expression of the user wearing the mounting device 3 Identify.

ステップS63において、アバター表示制御部31は、顔表情識別部33による識別結果に基づいて、装着装置3を装着したユーザの顔表情に対応するアバターの顔画像のデータをアバターデータ記憶部50から抽出する。アバター表示制御部31は、抽出したアバターの顔画像を、装着装置3の表示部62や、通信相手の装着装置の表示部等に表示させる。   In step S <b> 63, the avatar display control unit 31 extracts the avatar face image data corresponding to the facial expression of the user wearing the mounting device 3 from the avatar data storage unit 50 based on the identification result by the facial expression identification unit 33. To do. The avatar display control unit 31 displays the extracted avatar face image on the display unit 62 of the mounting device 3, the display unit of the mounting device of the communication partner, or the like.

<実験例>
学習フェーズにおいて、装着装置3の表示部62に4種類のアバターの顔画像を周期的に表示し、装着装置3を装着したユーザがアバターの顔画像を真似たときに光センサ61a〜61pがセンサ情報を100フレームずつ取得した。図25は、得られた光センサ61a〜61pのセンサ値に対して主成分分析による第1主成分の算出結果を示す。
<Experimental example>
In the learning phase, four types of avatar face images are periodically displayed on the display unit 62 of the wearing device 3, and when the user wearing the wearing device 3 imitates the avatar face image, the optical sensors 61a to 61p are sensors. Information was acquired every 100 frames. FIG. 25 shows the calculation result of the first principal component by principal component analysis with respect to the sensor values of the obtained optical sensors 61a to 61p.

図26(a)〜図26(c)は、眉を動かした場合のセンサ値の変化を示す。図26(a)〜図26(c)の左側は、眉を上げた状態、眉が通常の状態、眉を下げた状態をそれぞれ模式的に示し、図26(a)〜図26(c)の右側には、各状態のときのセンサ値を示す。図26(a)〜図26(c)の右側のグラフの縦軸はセンサ値の平均正規化値を示し、横軸のセンサ番号は、図15〜図17に示した光センサ61a〜61pに順次対応する(例えば、センサ番号の1番が光センサ61aに対応する。以降の図27(a)〜図27(c)、図29(a)〜図29(c)、図30(a)及び図30(b)も同様である。)。但し、2番のセンサ値はデータが欠落している。図26(a)〜図26(c)に示すように、3番や12番等の眉の位置に近いセンサ値は各状態で大きく変動しており、眉の動きが反映されていることが分かる。一方、6番や14番等の眉の位置と離れたセンサ値は変動が少ないことが分かる。   Fig.26 (a)-FIG.26 (c) show the change of the sensor value at the time of moving an eyebrow. The left side of FIGS. 26 (a) to 26 (c) schematically shows a state where the eyebrows are raised, a state where the eyebrows are normal, and a state where the eyebrows are lowered, and FIGS. 26 (a) to 26 (c). The sensor value in each state is shown on the right side of. The vertical axis of the graphs on the right side of FIGS. 26A to 26C indicates the average normalized value of the sensor values, and the sensor numbers on the horizontal axis are the optical sensors 61a to 61p shown in FIGS. Corresponding sequentially (for example, the sensor number 1 corresponds to the optical sensor 61a. FIGS. 27A to 27C, 29A to 29C, and 30A). The same applies to FIG. 30B). However, data for the second sensor value is missing. As shown in FIGS. 26 (a) to 26 (c), sensor values close to the position of the eyebrows such as No. 3 and No. 12 vary greatly in each state, and the movement of the eyebrows is reflected. I understand. On the other hand, it can be seen that the sensor values far from the eyebrows such as No. 6 and No. 14 have little fluctuation.

図27(a)〜図27(c)は、目を開閉した場合のセンサ値の変化を示す。図27(a)〜図27(c)の左側は、右目だけ閉じた状態、左目だけ閉じた状態、両目を閉じた(強くつぶった)状態をそれぞれ模式的に示し、図27(a)〜図27(c)の右側には、各状態のときのセンサ値を示す。図27(a)に示すように、右目だけ閉じた状態では右目部分にある12番のセンサ値が他に比べて変動していることが分かる。また、図27(b)に示すように、左目だけ閉じた状態では3,4,5番のセンサ値が他に比べて変動していることが分かる。また、図27(c)に示すように、両目を閉じた状態では、1番や9番のセンサ値が変動していることが分かる。   Fig.27 (a)-FIG.27 (c) show the change of the sensor value at the time of opening and closing eyes. 27A to 27C schematically show a state in which only the right eye is closed, a state in which only the left eye is closed, and a state in which both eyes are closed (strongly crushed), respectively. The right side of FIG. 27 (c) shows the sensor value in each state. As shown in FIG. 27A, it can be seen that the sensor value of No. 12 in the right eye portion fluctuates compared to the other when only the right eye is closed. Further, as shown in FIG. 27 (b), it can be seen that the sensor values of Nos. 3, 4, and 5 fluctuate compared to the other when only the left eye is closed. Further, as shown in FIG. 27C, it can be seen that the sensor values of No. 1 and No. 9 fluctuate when both eyes are closed.

図28(a)には、図27(a)〜図27(c)の各状態に通常状態(両目を開けた状態)を加えたクラスタの分類結果を示し、図28(b)には、図28(a)に対応する真値を示す。図28(a)及び図28(b)に示すように、目の開閉については、通常状態、右目だけ閉じた状態、左目だけ閉じた状態、両目を閉じた状態でそれぞれ、大部分のデータを正しいクラスに分類できていることが分かる。   FIG. 28A shows a cluster classification result obtained by adding a normal state (a state where both eyes are opened) to each state of FIGS. 27A to 27C, and FIG. The true value corresponding to FIG. As shown in FIG. 28 (a) and FIG. 28 (b), regarding the opening and closing of the eyes, most of the data is obtained in the normal state, the state in which only the right eye is closed, the state in which only the left eye is closed, and the state in which both eyes are closed. You can see that it is classified into the correct class.

図29(a)〜図29(c)、図30(a)及び図30(b)は、口の動きを変化させた場合のセンサ値を示す。図29(a)〜図29(c)、図30(a)及び図30(b)の左側は、ユーザの口を「ア」「イ」「ウ」「エ」「オ」を発声するときの形に変化させた状態をそれぞれ模式的に示し、図29(a)〜図29(c)、図30(a)及び図30(b)の右側には、各状態のときのセンサ値を示す。図29(a)〜図29(c)、図30(a)及び図30(b)に示すように、7番目及び15番目の頬の位置に近いセンサ値が変動していることが分かる。   29 (a) to 29 (c), 30 (a), and 30 (b) show sensor values when the movement of the mouth is changed. 29 (a) to 29 (c), FIG. 30 (a), and FIG. 30 (b) are when the user's mouth utters “a”, “b”, “c”, “e”, and “o”. FIG. 29 (a) to FIG. 29 (c), FIG. 30 (a) and FIG. 30 (b) show sensor values in each state. Show. As shown in FIGS. 29 (a) to 29 (c), 30 (a), and 30 (b), it can be seen that the sensor values near the positions of the seventh and fifteenth cheeks fluctuate.

図31(a)には、図29(a)〜図29(c)、図30(a)及び図30(b)の各状態のクラスタの分類結果を示し、図31(b)には、図31(a)に対応する真値を示す。図31(a)及び図31(b)に示すように、「エ」、「オ」等を中心に混ざってしまったが、「ウ」の口の動きだけが他の動きに比べてクラス間距離が離れており、良好に分類できていることが分かる。また、「ア」及び「イ」の状態、「エ」の状態、「ウ」及び「オ」の状態の3つのクラスタに分類可能であることが分かる。   FIG. 31 (a) shows the cluster classification results for each state of FIG. 29 (a) to FIG. 29 (c), FIG. 30 (a), and FIG. 30 (b). The true value corresponding to FIG. As shown in Fig. 31 (a) and Fig. 31 (b), "D", "O" etc. have been mixed, but only the movement of the mouth of "U" is between classes compared to other movements. It can be seen that the distance is far and it can be classified well. In addition, it can be classified into three clusters of “A” and “I”, “D”, “U” and “O”.

図32(a)は、「無表情」、「微笑み」、「怒り」、「驚き」、「悲しみ」の5種類の顔表情の分類ネットワークの訓練データを示し、図32(b)は、主成分分析による第1主成分を示し、図32(c)は、主成分分析による第2主成分を示す。図32(a)〜図32(c)から、ユーザがアバターの顔画像を真似したときに、センサ値が変化していることが分かる。   FIG. 32A shows training data of a classification network of five facial expressions of “no expression”, “smile”, “anger”, “surprise”, and “sadness”, and FIG. The first principal component by component analysis is shown, and FIG. 32C shows the second principal component by principal component analysis. It can be seen from FIGS. 32A to 32C that the sensor value changes when the user imitates the face image of the avatar.

図33(a)は、「微笑み」、「怒り」、「驚き」、「悲しみ」の4種類の顔表情を徐々に変化させたときの回帰ネットワークの訓練データを示し、図33(b)は、主成分分析による第1主成分を示す。図34(a)は、ターゲットとする顔表情を示し、図34(b)は、マルチクラス分類の結果を示す。図35(a)〜図35(d)は、図34(b)に示したマルチクラス分類をマージした、「微笑み」、「怒り」、「驚き」、「悲しみ」の回帰結果をそれぞれ示す。図35(a)〜図35(d)から、各回帰の出力が線形に変化していることが分かる。   FIG. 33A shows training data of the regression network when the four types of facial expressions of “smile”, “anger”, “surprise”, and “sadness” are gradually changed, and FIG. The first principal component by principal component analysis is shown. FIG. 34A shows the target facial expression, and FIG. 34B shows the result of multi-class classification. FIG. 35A to FIG. 35D show the regression results of “smile”, “anger”, “surprise”, and “sadness”, respectively, by merging the multi-class classifications shown in FIG. From FIG. 35A to FIG. 35D, it can be seen that the output of each regression changes linearly.

以上説明したように、本発明の第3の実施形態によれば、学習フェーズにおいて、装着装置3の表示部62にアバターを表示し、表示したアバターの表情をユーザが真似したときの光センサ61a〜61pからのセンサ値から機械学習用のデータセットを生成することにより、機械学習用のデータセットを短時間で効率的に収集することができる。この際、ユーザはアバターの顔画像を真似すればよいので、アバターの表情を直感的に把握して真似ることができ、音声情報で顔表情を指示する場合よりもユーザの負担を低減することができる。更に、表示したアバターの顔画像の時系列を考慮して記録したデータに対して、ラベリングを行ない機械学習のための訓練データとするが、提示しているアバターとユーザの顔表情の間に時間的なずれが発生することがある。これに対して、クラスタリングよる分類又は推定モデルを参照することで時間的なずれを補正してラベリングを行うことができる。   As described above, according to the third embodiment of the present invention, in the learning phase, the avatar is displayed on the display unit 62 of the wearing device 3, and the optical sensor 61a when the user imitates the displayed avatar expression. By generating a machine learning data set from the sensor values from ˜61p, the machine learning data set can be efficiently collected in a short time. At this time, since the user only has to imitate the face image of the avatar, the user can intuitively understand the facial expression of the avatar and imitate it, and the burden on the user can be reduced as compared with the case where the facial expression is indicated by voice information. it can. Furthermore, the data recorded in consideration of the time series of the displayed face image of the avatar is labeled as training data for machine learning, but the time between the presented avatar and the user's facial expression Misalignment may occur. On the other hand, it is possible to perform labeling by correcting a time lag by referring to a classification or estimation model by clustering.

更に、識別フェーズにおいて、ユーザの顔表情の識別結果に基づいてアバターの顔画像を変化させる際に、学習フェーズでユーザが真似したアバターと同一又は類似のアバターを使用すれば、例えば口の開閉の程度や、眉の上下の程度等の部位の細かい動きについてもユーザが想定するようにアバターの顔画像を適切に変化させることができ、ユーザの感情をより鮮明に表現することができる。   Further, when the avatar face image is changed based on the identification result of the facial expression of the user in the identification phase, if an avatar identical or similar to the avatar imitated by the user is used in the learning phase, for example, opening and closing of the mouth The face image of the avatar can be appropriately changed so as to assume the user's fine movement of the part such as the degree and the upper and lower parts of the eyebrows, and the emotion of the user can be expressed more clearly.

(第4の実施形態)
本発明の第4の実施形態に係る顔表情識別システムは、図36に示すように、装着装置3がずれセンサ63を更に備える点と、CPU1がずれ量算出部34及び修正提示部35を更に備える点と、記憶装置2がずれデータ記憶部55を更に備える点が、図15に示した第3の実施形態に係る顔表情識別システムと異なる。他の構成は図15に示した第3の実施形態に係る顔表情識別システムと同様であるので、重複した説明を省略する。
(Fourth embodiment)
In the facial expression identification system according to the fourth embodiment of the present invention, as shown in FIG. 36, the mounting device 3 further includes a displacement sensor 63, and the CPU 1 further includes a displacement amount calculation unit 34 and a correction presentation unit 35. It differs from the facial expression identification system according to the third embodiment shown in FIG. 15 in that the storage device 2 further includes a deviation data storage unit 55. Other configurations are the same as those of the facial expression identification system according to the third embodiment shown in FIG.

ずれセンサ63としては、変位センサや測長センサが使用可能である。ずれセンサ63は、装着装置3の光センサ61a〜61pとは異なる位置に配置されている。ずれセンサ63は1つのみ配置されていてもよく、複数個配置されていてもよい。ずれセンサ63は、装着位置3を装着したユーザの目等のランドマークに基づいて、装着位置3を正常に装着したときの位置を基準位置として、基準位置に対する前後方向、上下方向、左右方向の少なくとも1方向のずれを検出する。ずれセンサ63による検出結果はずれデータ記憶部55に格納される。なお、ずれセンサ63を個別に備えていなくても、顔表情検出のための距離検出に使用している光センサ61a〜61pのセンサ値をずれの検出に用いることもできる。   As the displacement sensor 63, a displacement sensor or a length measuring sensor can be used. The deviation sensor 63 is arranged at a position different from the optical sensors 61 a to 61 p of the mounting device 3. Only one deviation sensor 63 may be arranged, or a plurality of deviation sensors 63 may be arranged. Based on the landmarks such as the eyes of the user wearing the mounting position 3, the displacement sensor 63 uses the position when the mounting position 3 is normally mounted as a reference position, and the front-rear direction, the vertical direction, and the left-right direction with respect to the reference position. A shift in at least one direction is detected. The detection result by the deviation sensor 63 is stored in the deviation data storage unit 55. Even if the deviation sensor 63 is not provided individually, the sensor values of the optical sensors 61a to 61p used for distance detection for facial expression detection can also be used for deviation detection.

ずれ量算出部34は、ずれセンサ63による検出結果又は光センサ61a〜61pのセンサ値の分布から、基準位置に対するずれ量及びずれ方向を検出する。例えば、図37は、装着装置3を前後方向のずらしたときの種々の顔表情に対する光センサ61a〜61pのセンサ値の変化を示すグラフである。レベル1〜4でずれ量を変化させており、レベルの数値が高いほど装着装置3と人物の顔面との距離が遠くにずれている。ずれ量算出部34は、図37に示した光センサ61a〜61pのセンサ値の一部を用いて、回帰により、図38に示すように装着装置3の前後方向のずれ量を算出する。   The deviation amount calculation unit 34 detects the deviation amount and the deviation direction with respect to the reference position from the detection result by the deviation sensor 63 or the distribution of the sensor values of the optical sensors 61a to 61p. For example, FIG. 37 is a graph showing changes in sensor values of the optical sensors 61a to 61p with respect to various facial expressions when the mounting device 3 is shifted in the front-rear direction. The amount of shift is changed between levels 1 to 4, and the higher the level value, the farther the distance between the mounting device 3 and the person's face is. The deviation amount calculation unit 34 uses a part of the sensor values of the optical sensors 61a to 61p shown in FIG. 37 to calculate the deviation amount in the front-rear direction of the mounting apparatus 3 as shown in FIG. 38 by regression.

図39(a)〜図42(b)は、図37に示した種々の顔表情に対するセンサ値の変化を、顔表情毎に分けたグラフである。図39(a)は「無表情」、図39(b)は「喜び」、図40(a)は「嫌悪」、図40(b)は「怒り」、図41(a)は「驚き」、図41(b)は「恐怖」、図42(a)は「悲しみ」、図42(b)は「軽蔑」に対するセンサ値の変化をそれぞれ示す。図39(a)〜図42(b)に示すように、レベルの数値が高く装着装置3と人物の顔面との距離が遠いほど、センサ値は全体的に低下する傾向がある。   FIG. 39A to FIG. 42B are graphs in which changes in sensor values for the various facial expressions shown in FIG. 37 are divided for each facial expression. 39 (a) is “no expression”, FIG. 39 (b) is “joy”, FIG. 40 (a) is “disgust”, FIG. 40 (b) is “anger”, and FIG. 41 (a) is “surprise”. 41 (b) shows the change in sensor value for “fear”, FIG. 42 (a) shows “sadness”, and FIG. 42 (b) shows the change in sensor value for “contempt”. As shown in FIGS. 39A to 42B, the sensor value tends to decrease as the numerical value of the level is higher and the distance between the wearing apparatus 3 and the person's face is longer.

修正提示部35は、ずれ量算出部34により算出されたずれ量が所定の閾値以上の場合に、装着装置3を装着したユーザにずれの修正内容を提示し、ずれを修正するようにユーザに促す。所定の閾値は適宜設定可能であり、ずれデータ記憶部55に予め格納されていてもよい。修正提示部35は、ユーザにずれの修正内容を提示する際には、例えば「装着装置が右上方向にずれています」、「装着装置を左下方向に修正して下さい」等の修正方向を示す文字情報や、矢印等の修正方向を示す画像を表示部62に表示してもよい。また、文字情報や画像の代わりに、音声情報を出力してもよく、或いは装着装置3のずれの修正方向が直感的に分かるように振動等でユーザの触覚に対して提示してもよい。   When the deviation amount calculated by the deviation amount calculation unit 34 is equal to or greater than a predetermined threshold, the correction presentation unit 35 presents the correction content of the deviation to the user wearing the mounting apparatus 3 and prompts the user to correct the deviation. Prompt. The predetermined threshold can be set as appropriate, and may be stored in advance in the deviation data storage unit 55. When presenting the correction content of the deviation to the user, the correction presentation unit 35 indicates a correction direction such as “the mounting device is shifted in the upper right direction”, “please correct the mounting device in the lower left direction”, etc. You may display the character information and the image which shows correction directions, such as an arrow, on the display part 62. FIG. In addition, voice information may be output instead of character information or images, or may be presented to the user's tactile sense by vibration or the like so that the correction direction of the displacement of the mounting apparatus 3 can be intuitively understood.

本発明の第4の実施形態に係る顔表情識別システムを用いた機械学習方法の一例は、図23に示した本発明の第3の実施形態に係る機械学習方法と基本的には同様とし、ステップS52において、光センサ61a〜61pによる検出と同時に、ずれセンサ63がずれを検出する。また、ステップS55において、学習データ生成部32は、光センサ61a〜61pによるセンサ値に対して、顔表情及びずれに対応するラベルを付与することにより機械学習用のデータセットを生成する。ずれに対応するラベルの情報は、例えば入力装置5を介して入力されてもよい。   An example of the machine learning method using the facial expression identification system according to the fourth embodiment of the present invention is basically the same as the machine learning method according to the third embodiment of the present invention shown in FIG. In step S52, the deviation sensor 63 detects a deviation simultaneously with the detection by the optical sensors 61a to 61p. In step S55, the learning data generation unit 32 generates a machine learning data set by adding labels corresponding to facial expressions and deviations to the sensor values obtained by the optical sensors 61a to 61p. Information on the label corresponding to the shift may be input via the input device 5, for example.

次に、図43のフローチャートを参照しながら、本発明の第4の実施形態に係る顔表情識別方法の一例を説明する。   Next, an example of a facial expression identification method according to the fourth embodiment of the present invention will be described with reference to the flowchart of FIG.

ステップS71において、光センサ61a〜61pが、装着装置3を装着したユーザの顔面と装着装置3の間の距離を検出する。ステップS72において、ずれセンサ63がずれを検出する。ずれ量算出部34が、ずれセンサ63の検出結果に基づいて、ずれ量及びずれ方向を算出する。ステップS73において、修正提示部35は、ずれ量算出部34により算出されたずれ量が所定の閾値以上か否かを判定する。ずれ量が所定の閾値以上の場合に、ステップS74に移行して、修正提示部35は、ずれを修正するようにユーザに修正内容を提示する。   In step S <b> 71, the optical sensors 61 a to 61 p detect the distance between the face of the user wearing the mounting device 3 and the mounting device 3. In step S72, the deviation sensor 63 detects a deviation. The deviation amount calculation unit 34 calculates the deviation amount and the deviation direction based on the detection result of the deviation sensor 63. In step S <b> 73, the correction presentation unit 35 determines whether the deviation amount calculated by the deviation amount calculation unit 34 is greater than or equal to a predetermined threshold value. When the deviation amount is equal to or larger than the predetermined threshold value, the process proceeds to step S74, and the correction presentation unit 35 presents the correction content to the user so as to correct the deviation.

一方、ステップS73において、ずれ量が所定の閾値未満の場合には、ステップS76に移行し、顔表情識別部33は、ずれに応じたラベルが付与された学習データを選択し、選択した学習データを用いてユーザの顔表情を識別する。ステップS76において、アバター表示制御部11が、顔表情識別部33による識別結果に基づいて、アバターの顔画像を抽出し、抽出した顔表情のアバターを装着装置3の表示部62等に表示する。   On the other hand, if the amount of deviation is less than the predetermined threshold value in step S73, the process proceeds to step S76, where the facial expression identification unit 33 selects learning data to which a label corresponding to the deviation is given, and the selected learning data Is used to identify the facial expression of the user. In step S <b> 76, the avatar display control unit 11 extracts the avatar face image based on the identification result by the facial expression identification unit 33, and displays the extracted facial expression avatar on the display unit 62 of the mounting apparatus 3.

以上説明したように、本発明の第4の実施形態によれば、装着装置3を装着したときのずれを検出して、ずれに応じたラベルが付与された学習データを選択することにより、顔表情を適切に識別することができる。また、装着装置3を装着したときのずれを検出して、ユーザに対してずれを修正するように促すことにより、装着装置3のずれを適切に修正することができる。   As described above, according to the fourth embodiment of the present invention, the face is detected by detecting the shift when the mounting apparatus 3 is mounted and selecting the learning data to which the label corresponding to the shift is given. Facial expressions can be properly identified. Further, by detecting a shift when the mounting device 3 is mounted and urging the user to correct the shift, the shift of the mounting device 3 can be corrected appropriately.

(第5の実施形態)
本発明の第5の実施形態に係る顔表情識別システムは、図44に示すように、装着装置3が血流センサ64を更に備える点と、記憶装置2が血流データ記憶部56を更に備える点が、図15に示した第3の実施形態に係る顔表情識別システムと異なる。他の構成は図15に示した第3の実施形態に係る顔表情識別システムと同様であるので、重複した説明を省略する。
(Fifth embodiment)
In the facial expression identification system according to the fifth embodiment of the present invention, as shown in FIG. 44, the mounting device 3 further includes a blood flow sensor 64, and the storage device 2 further includes a blood flow data storage unit 56. This is different from the facial expression identification system according to the third embodiment shown in FIG. Other configurations are the same as those of the facial expression identification system according to the third embodiment shown in FIG.

血流センサ64は、装着装置3を装着したユーザの血流量を検出する。血流センサ64は、多波長の光を発光する光源と、多波長の反射光の光強度を検出する検出部とを備える。血流センサ64は、頬等の顔色を計測し易い位置に多波長の光を照射し、反射光の光強度に基づいて血流量を検出する。例えば、血液中の赤血球に含まれるヘモグロビンは緑色の光を吸収する性質を持っており、血流量が増大するほどヘモグロビンが増え、多波長の光を照射したときに緑色の光が吸収されやすくなることを利用し、反射光のうちの緑色の波長の光強度に基づいて血流量を検出可能である。血流センサ64により検出された血流量は、血流データ記憶部56に記憶される。   The blood flow sensor 64 detects the blood flow rate of the user wearing the mounting device 3. The blood flow sensor 64 includes a light source that emits multi-wavelength light and a detection unit that detects the light intensity of the reflected light of multi-wavelength. The blood flow sensor 64 irradiates multi-wavelength light at a position where the face color such as cheeks can be easily measured, and detects the blood flow based on the light intensity of the reflected light. For example, hemoglobin contained in red blood cells in blood has the property of absorbing green light. As blood flow increases, hemoglobin increases, and green light is easily absorbed when irradiated with light of multiple wavelengths. Thus, the blood flow rate can be detected based on the light intensity of the green wavelength of the reflected light. The blood flow detected by the blood flow sensor 64 is stored in the blood flow data storage unit 56.

顔表情識別部33は、血流センサ64により検出された血流量を所定の閾値と比較することにより、ユーザの顔色を識別する。例えば、血流センサ64により検出された血流量が第1の閾値以上の場合、顔表情識別部33は、ユーザの顔色を「赤面」と識別する。また、血流センサ64により検出された血流量が、第1の閾値未満である第2の閾値未満の場合、顔表情識別部33は、ユーザの顔色を「蒼白」と識別する。血流センサ64により検出された血流量が第1の閾値未満かつ第2の閾値以上の場合、顔表情識別部33は、ユーザの顔色を「通常」と識別する。   The facial expression identification unit 33 identifies the user's facial color by comparing the blood flow detected by the blood flow sensor 64 with a predetermined threshold. For example, when the blood flow detected by the blood flow sensor 64 is equal to or greater than the first threshold, the facial expression identification unit 33 identifies the user's facial color as “blush”. When the blood flow detected by the blood flow sensor 64 is less than the second threshold, which is less than the first threshold, the facial expression identification unit 33 identifies the user's facial color as “palm white”. When the blood flow detected by the blood flow sensor 64 is less than the first threshold and greater than or equal to the second threshold, the facial expression identification unit 33 identifies the face color of the user as “normal”.

アバター表示制御部31は、顔表情識別部33によるユーザの顔表情及び顔色の識別結果に基づいて、アバターの顔画像を変化させる。アバター表示制御部31は、例えばアバターの顔画像として、「赤面」且つ「怒り」の顔画像を表示したり、「蒼白」且つ「驚き」の顔画像を表示したりすることができる。   The avatar display control unit 31 changes the avatar face image based on the identification result of the facial expression and facial color of the user by the facial expression identification unit 33. The avatar display control unit 31 can display, for example, a “blush” and “angry” face image, or a “light white” and “surprise” face image as the avatar face image.

以上説明したように、本発明の第5の実施形態によれば、装着装置3を装着したユーザの顔表情に加えて顔色も識別することにより、ユーザの感情をより詳細に識別することができる。更に、ユーザの顔色の識別結果に応じてアバターの顔色も変化させることにより、VR環境での表情コミュニケーションの自由度を向上させることができる。   As described above, according to the fifth embodiment of the present invention, the user's emotion can be identified in more detail by identifying the facial color in addition to the facial expression of the user wearing the mounting device 3. . Furthermore, the degree of freedom of facial expression communication in the VR environment can be improved by changing the face color of the avatar according to the identification result of the face color of the user.

(第6の実施形態)
本発明の第6の実施形態に係る顔表情識別システムは、図45に示すように、CPU1が光センサ調整部37を更に備える点が、図15に示した第3の実施形態に係る顔表情識別システムと異なる。他の構成は図15に示した第3の実施形態に係る顔表情識別システムと同様であるので、重複した説明を省略する。
(Sixth embodiment)
In the facial expression identification system according to the sixth embodiment of the present invention, the facial expression according to the third embodiment shown in FIG. 15 is that the CPU 1 further includes an optical sensor adjustment unit 37, as shown in FIG. Different from the identification system. Other configurations are the same as those of the facial expression identification system according to the third embodiment shown in FIG.

光センサ調整部37は、学習フェーズ又は識別フェーズのキャリブレーション時等において、光センサ61a〜61pのセンサ値に応じて、光センサ61a〜61pの発光強度及び感度を調整する。例えば、光センサ調整部37は、光センサ61a〜61pのセンサ値のうち、最大値及び最小値を抽出する。光センサ調整部37は、抽出した最大値及び最小値を所定の閾値と比較することにより、光センサ61a〜61pの発光強度及び感度の調整が必要か否かを判定する。   The optical sensor adjustment unit 37 adjusts the light emission intensities and sensitivities of the optical sensors 61a to 61p according to the sensor values of the optical sensors 61a to 61p at the time of calibration in the learning phase or the identification phase. For example, the optical sensor adjustment unit 37 extracts the maximum value and the minimum value from the sensor values of the optical sensors 61a to 61p. The optical sensor adjustment unit 37 determines whether or not the light emission intensity and sensitivity of the optical sensors 61a to 61p need to be adjusted by comparing the extracted maximum value and minimum value with a predetermined threshold value.

光センサ61a〜61pの発光強度及び感度の調整が必要と判定された場合に、光センサ調整部37は、光センサ61a〜61pの可変抵抗の値を調整することにより、発光強度及び感度を調整する。例えば、光センサ61a〜61pのセンサ値の最大値が第1の閾値以上と判定された場合、光センサ61a〜61pの可変抵抗の値を大きくすることにより、光センサ61a〜61pの発光強度及び感度を低減する。また、光センサ61a〜61pのセンサ値の最小値が、第1の閾値よりも小さい第2の閾値未満と判定された場合、光センサ61a〜61pの可変抵抗の値を小さくすることにより、光センサ61a〜61pの発光強度及び感度を増大する。   When it is determined that the light emission intensity and sensitivity of the optical sensors 61a to 61p need to be adjusted, the optical sensor adjustment unit 37 adjusts the light emission intensity and sensitivity by adjusting the value of the variable resistance of the optical sensors 61a to 61p. To do. For example, when it is determined that the maximum value of the sensor values of the optical sensors 61a to 61p is equal to or greater than the first threshold value, the emission intensity of the optical sensors 61a to 61p and the optical sensors 61a to 61p are increased by increasing the value of the variable resistance of the optical sensors 61a to 61p. Reduce sensitivity. Further, when it is determined that the minimum value of the sensor values of the optical sensors 61a to 61p is less than the second threshold value that is smaller than the first threshold value, the value of the variable resistance of the optical sensors 61a to 61p is decreased to reduce the light The emission intensity and sensitivity of the sensors 61a to 61p are increased.

次に、図46のフローチャートを参照しながら、本発明の第6の実施形態に係る顔表情識別システムを用いた光センサの発光強度の調整方法の一例を説明する。なお、本発明の第6の実施形態に係る顔表情識別システムを用いた光センサの発光強度の調整方法は、例えば学習フェーズ又は識別フェーズのキャリブレーション時に実行される。   Next, an example of a method for adjusting the light emission intensity of the optical sensor using the facial expression identification system according to the sixth embodiment of the present invention will be described with reference to the flowchart of FIG. Note that the light intensity adjustment method of the optical sensor using the facial expression identification system according to the sixth embodiment of the present invention is executed, for example, during the calibration of the learning phase or the identification phase.

ステップS81において、光センサ61a〜61pがセンサ値(反射強度)を取得する。ステップS82において、光センサ調整部37は、光センサ61a〜61pにより取得されたセンサ値(反射強度)の最大値及び最小値を抽出する。   In step S81, the optical sensors 61a to 61p acquire sensor values (reflection intensity). In step S82, the optical sensor adjustment unit 37 extracts the maximum value and the minimum value of the sensor values (reflection intensity) acquired by the optical sensors 61a to 61p.

ステップS83において、光センサ調整部37は、抽出した最大値及び最小値を所定の閾値と比較することにより、光センサ61a〜61pの発光強度及び感度を調整する必要が有るか否かを判定する。光センサ61a〜61pの発光強度及び感度の調整が必要と判定された場合には、ステップS84に移行し、光センサ61a〜61pの可変抵抗を調整することにより、光センサ61a〜61pの発光強度及び感度を調整する。一方、ステップS83において光センサ61a〜61pの発光強度及び感度の調整が不要と判定された場合には、処理を完了する。   In step S83, the optical sensor adjustment unit 37 determines whether or not it is necessary to adjust the emission intensity and sensitivity of the optical sensors 61a to 61p by comparing the extracted maximum value and minimum value with a predetermined threshold value. . If it is determined that the light emission intensity and sensitivity of the optical sensors 61a to 61p need to be adjusted, the process proceeds to step S84, and the light emission intensity of the optical sensors 61a to 61p is adjusted by adjusting the variable resistance of the optical sensors 61a to 61p. And adjust the sensitivity. On the other hand, if it is determined in step S83 that adjustment of the light emission intensity and sensitivity of the optical sensors 61a to 61p is unnecessary, the process is completed.

以上説明したように、本発明の第6の実施形態によれば、光センサ61a〜61pの反射強度情報に基づいて光センサ61a〜61pの発光強度及び感度を調整することにより、適切なレンジでセンサ値を検出することができる。   As described above, according to the sixth embodiment of the present invention, by adjusting the light emission intensity and sensitivity of the optical sensors 61a to 61p based on the reflection intensity information of the optical sensors 61a to 61p, an appropriate range can be obtained. A sensor value can be detected.

(その他の実施形態)
上記のように、本発明は第1〜第6の実施形態によって記載したが、この開示の一部をなす論述及び図面は本発明を限定するものであると理解すべきではない。この開示から当業者には様々な代替実施の形態、実施例及び運用技術が明らかとなろう。
(Other embodiments)
As described above, the present invention has been described according to the first to sixth embodiments. However, it should not be understood that the description and drawings constituting a part of this disclosure limit the present invention. From this disclosure, various alternative embodiments, examples and operational techniques will be apparent to those skilled in the art.

例えば、本発明の第1〜第6の実施形態において、装着装置3が、装着装置3を装着したユーザの顔面の皮膚の移動量を検出する反射型イメージセンサを更に備えていてもよい。或いは、装着装置3が、光センサ61a〜61pを用いる代わりに、装着装置3を装着したユーザの顔面の皮膚の移動量を検出する反射型イメージセンサを備えていてもよい。反射型イメージセンサとしては、例えばCMOSイメージセンサやCCDイメージセンサが使用可能である。反射型イメージセンサは、例えば1次元又は2次元の顔面の皮膚の移動量を検出する。表情識別部33は、光センサ61a〜61pからのセンサ値と、反射型イメージセンサからの移動量に基づいて、装着装置3を装着したユーザの顔表情を識別する。これにより、ユーザの顔表情の識別精度を更に向上させることができる。   For example, in the first to sixth embodiments of the present invention, the mounting device 3 may further include a reflective image sensor that detects the amount of skin movement on the face of the user wearing the mounting device 3. Alternatively, the mounting device 3 may include a reflective image sensor that detects the amount of skin movement on the face of the user wearing the mounting device 3 instead of using the optical sensors 61a to 61p. As the reflective image sensor, for example, a CMOS image sensor or a CCD image sensor can be used. The reflective image sensor detects, for example, the amount of skin movement on a one-dimensional or two-dimensional face. The facial expression identification unit 33 identifies the facial expression of the user wearing the mounting device 3 based on the sensor values from the optical sensors 61a to 61p and the amount of movement from the reflective image sensor. Thereby, the identification accuracy of the user's facial expression can be further improved.

また、本発明の第1〜第6の実施形態において、装着装置3を装着しているユーザ本人の学習データが学習データ記憶部51に格納されている場合には、顔表情識別部33は、ユーザ本人の学習データを読み出して、顔表情を識別してもよい。一方、装着装置3を装着しているユーザ本人の学習データが学習データ記憶部51に格納されていない場合には、顔表情識別部33は、学習データ記憶部51に格納されている他者の学習データを用いてよい。   In the first to sixth embodiments of the present invention, when the learning data of the user who wears the mounting device 3 is stored in the learning data storage unit 51, the facial expression identification unit 33 The user's own learning data may be read to identify facial expressions. On the other hand, when the learning data of the user who wears the mounting device 3 is not stored in the learning data storage unit 51, the facial expression identification unit 33 stores the other person's stored in the learning data storage unit 51. Learning data may be used.

この場合、顔表情識別部33は、光センサ61a〜61pのセンサ値と、装着装置3を装着しているユーザの現在の顔表情に対応するラベルを入力データとして、他者の学習データ毎に、ユーザの現在の顔表情に対応するラベルと同一のラベルが付与された(同一の顔表情の)テンプレート表情に対する類似度を算出する。顔表情識別部33は更に、類似度が最も高い他者の学習データを読み込んで、ユーザの顔表情を識別する。   In this case, the facial expression identification unit 33 uses the sensor values of the optical sensors 61a to 61p and the label corresponding to the current facial expression of the user wearing the mounting device 3 as input data for each other's learning data. Then, the degree of similarity is calculated for a template facial expression (of the same facial expression) to which the same label as that corresponding to the user's current facial expression is assigned. Furthermore, the facial expression identification unit 33 reads the learning data of the other person who has the highest similarity and identifies the facial expression of the user.

これにより、装着装置3を装着しているユーザ本人の学習データが無い場合であっても、ユーザと類似する他者の学習データを利用して、適切に顔表情を識別することができる。なお、ユーザの顔表情に対応するラベルは、入力装置5を介して入力されたものを使用してもよい。また、本発明の第3の実施形態のように、アバター表示制御部31により抽出されたアバターの顔画像をユーザが真似て光センサ61a〜61pのセンサ値を検出している場合には、アバター表示制御部31により抽出されたアバターの顔画像のデータに基づいてラベルを生成してもよい。   Thereby, even if there is no learning data of the user himself / herself wearing the mounting apparatus 3, it is possible to appropriately identify the facial expression using learning data of another person similar to the user. In addition, you may use the label input via the input device 5 as a label corresponding to a user's facial expression. Further, as in the third embodiment of the present invention, when the user imitates the face image of the avatar extracted by the avatar display control unit 31 and detects the sensor values of the optical sensors 61a to 61p, the avatar A label may be generated based on the data of the avatar face image extracted by the display control unit 31.

また、第1〜第6の実施形態に係る顔表情識別システムの各構成を互いに組み合わせてもよい。例えば、図1に示したCPU1が、図9に示した時刻情報取得部15及び顔表情分布算出部16を更に備え、図1に示した記憶装置2が、図9に示した地理情報記憶部22及び顔表情マップ記憶部23を更に備えていてもよい。また、第1〜第6の実施形態に係る機械学習方法(学習フェーズ)の処理と、第1〜第6の実施形態に係る顔表情識別方法(識別方法)の処理とを、互いに異なる実施形態同士で組み合わせてもよい。   Moreover, you may mutually combine each structure of the facial expression identification system which concerns on 1st-6th embodiment. For example, the CPU 1 illustrated in FIG. 1 further includes a time information acquisition unit 15 and a facial expression distribution calculation unit 16 illustrated in FIG. 9, and the storage device 2 illustrated in FIG. 1 includes the geographic information storage unit illustrated in FIG. 9. 22 and a facial expression map storage unit 23 may be further provided. Further, the machine learning method (learning phase) processing according to the first to sixth embodiments and the facial expression identification method (identification method) processing according to the first to sixth embodiments are different from each other. You may combine with each other.

本発明は、自動的に顔表情を識別する顔表情識別システム、顔表情識別方法及び顔表情識別プログラムに利用可能である。   The present invention is applicable to a facial expression identification system, a facial expression identification method, and a facial expression identification program that automatically identify facial expressions.

1…中央演算処理装置(CPU)
2…記憶装置
3…装着装置
4a,4b,4c,4d,4e,4f,4g,4h,4i,4j,4k,4l,4m,4n,4o,4p,4q…検出装置
5…入力装置
6…出力装置
10…機械学習部
11…顔表情識別部33
12…地理情報取得部
13…顔表情マップ作成部
14…推薦情報抽出部
15…時刻情報取得部
16…顔表情分布算出部
20…学習データ記憶部
21…顔表情記憶部
22…地理情報記憶部
23…顔表情マップ記憶部
24…時刻情報記憶部
25…顔表情分布記憶部
31…アバター表示制御部
32…学習データ生成部
33…顔表情識別部
40…表示部
41,42…アバター
50…アバターデータ記憶部
51…学習データ記憶部
52…光センサデータ記憶部
53…識別結果記憶部
61a,61b,61c,61d,61e,61f,61g,61h,61i,61j,61k,61l,61m,61n,61o,61p…検出装置
62…表示部
71…本体部
72…フレキシブル回路基板
73a,73b…レンズ
80…マルチクラス分類器
81〜84…回帰ネットワーク
100…アバター
1. Central processing unit (CPU)
2 ... Storage device 3 ... Mounting device 4a, 4b, 4c, 4d, 4e, 4f, 4g, 4h, 4i, 4j, 4k, 4l, 4m, 4n, 4o, 4p, 4q ... Detection device 5 ... Input device 6 ... Output device 10 ... machine learning unit 11 ... facial expression identification unit 33
DESCRIPTION OF SYMBOLS 12 ... Geographic information acquisition part 13 ... Facial expression map preparation part 14 ... Recommended information extraction part 15 ... Time information acquisition part 16 ... Facial expression distribution calculation part 20 ... Learning data storage part 21 ... Facial expression storage part 22 ... Geographic information storage part 23 ... Facial expression map storage unit 24 ... Time information storage unit 25 ... Facial expression distribution storage unit 31 ... Avatar display control unit 32 ... Learning data generation unit 33 ... Facial expression identification unit 40 ... Display units 41, 42 ... Avatar 50 ... Avatar Data storage unit 51 ... learning data storage unit 52 ... optical sensor data storage unit 53 ... identification result storage units 61a, 61b, 61c, 61d, 61e, 61f, 61g, 61h, 61i, 61j, 61k, 61l, 61m, 61n, 61o, 61p ... detector 62 ... display 71 ... main body 72 ... flexible circuit boards 73a, 73b ... lens 80 ... multi-class classifiers 81-84 ... Null network 100 ... Avatar

Claims (15)

人物の頭部に装着可能な装着装置と、
前記装着装置の前記人物の顔面に対向する複数箇所にそれぞれ配置され、前記装着装置を装着したときの前記顔面と前記装着装置間の距離を前記複数箇所でそれぞれ検出する、複数の検出装置と、
前記複数の検出装置による過去の検出結果のデータと顔表情との対応関係を機械学習して得られた学習データを記憶する記憶装置と、
前記学習データを前記記憶装置から読み出し、前記複数の検出装置による検出結果を入力データとして前記人物の顔表情を識別する顔表情識別部と、
を備えることを特徴とする顔表情識別システム。
A mounting device that can be mounted on a person's head;
A plurality of detection devices disposed at a plurality of locations facing the face of the person of the wearing device, respectively, and detecting the distance between the face and the wearing device at the plurality of locations when the wearing device is worn;
A storage device for storing learning data obtained by machine learning of correspondence between facial detection data and past detection result data by the plurality of detection devices;
A facial expression identifying unit that reads out the learning data from the storage device and identifies facial expressions of the person using the detection results of the plurality of detection devices as input data;
A facial expression identification system comprising:
前記複数の検出装置による検出結果が得られた時点での地理情報を取得する地理情報取得部と、
前記顔表情識別部による識別結果のデータと、前記地理情報取得部により取得された地理情報とを対応付けた顔表情マップを作成する顔表情マップ作成部と、
を更に備えることを特徴とする請求項1に記載の顔表情識別システム。
A geographic information acquisition unit that acquires geographic information at the time when detection results by the plurality of detection devices are obtained;
A facial expression map creating unit that creates a facial expression map in which data of the identification result by the facial expression identifying unit and the geographic information acquired by the geographic information acquiring unit are associated with each other;
The facial expression identification system according to claim 1, further comprising:
ユーザから検索キーの入力データを受け付ける入力装置と、
前記顔表情マップ作成部により作成された顔表情マップに基づいて、前記検索キーに適合する地理情報を推薦情報として抽出する推薦情報抽出部と、
前記推薦情報抽出部により抽出された推薦情報を出力する出力装置と、
を更に備えることを特徴とする請求項2に記載の顔表情識別システム。
An input device for receiving search key input data from a user;
Based on the facial expression map created by the facial expression map creation unit, a recommended information extraction unit that extracts geographic information that matches the search key as recommendation information;
An output device for outputting the recommendation information extracted by the recommendation information extraction unit;
The facial expression identification system according to claim 2, further comprising:
前記複数の検出装置による検出結果のデータが得られた時点での時刻情報を取得する時刻情報取得部と、
前記顔表情識別部による識別結果のデータと、前記時刻情報取得部により取得された時刻情報とを対応付けた顔表情分布を算出する顔表情分布算出部と、
を更に備えることを特徴とする請求項1〜3のいずれか1項に記載の顔表情識別システム。
A time information acquisition unit for acquiring time information at a time point when data of detection results by the plurality of detection devices is obtained;
A facial expression distribution calculating unit that calculates a facial expression distribution in which the identification result data by the facial expression identifying unit and the time information acquired by the time information acquiring unit are associated with each other;
The facial expression identification system according to claim 1, further comprising:
前記装着装置が、表示部を有するヘッドマウントディスプレイであり、
前記顔表情識別部による識別結果と同期して、前記表示部に表示される前記人物のアバターの顔画像のデータを変化させることを特徴とする請求項1〜4のいずれか1項に記載の顔表情識別システム。
The mounting device is a head mounted display having a display unit,
The data of the face image of the person's avatar displayed on the display unit is changed in synchronization with the identification result by the facial expression identification unit. Facial expression identification system.
前記顔表情識別部による識別結果のデータをネットワーク上で伝送し、前記伝送された識別結果のデータに応じてオンラインサービス上の前記人物のアバターの顔画像のデータを変化させることを特徴とする請求項1〜5のいずれか1項に記載の顔表情識別システム。   The identification result data by the facial expression identification unit is transmitted over a network, and the facial image data of the person's avatar on the online service is changed according to the transmitted identification result data. Item 6. The facial expression identification system according to any one of Items 1 to 5. 前記装着装置が表示部を有し、
前記機械学習のための顔画像のアバターを表示するように前記表示部を制御するアバター表示制御部と、
前記アバターの顔画像のデータと、前記アバターの顔画像のデータを前記表示部に表示したときの前記複数の検出装置による検出結果のデータとを対応付けることにより、前記機械学習のためのデータセットを生成する学習データ生成部
とを更に備えることを特徴とする請求項1に記載の顔表情識別システム。
The mounting device has a display unit,
An avatar display control unit for controlling the display unit to display an avatar of a face image for machine learning;
By associating the data of the face image of the avatar with the data of detection results by the plurality of detection devices when the data of the face image of the avatar is displayed on the display unit, the data set for the machine learning is obtained. The facial expression identification system according to claim 1, further comprising a learning data generation unit that generates the facial expression identification system.
前記複数の検出装置による検出結果のデータを入力データとして、前記装着装置を装着したときのずれ量を算出するずれ量算出部を更に備え、
前記顔表情識別部が、前記ずれ量に対応付けられた前記学習データを用いて、前記人物の顔表情を識別する
ことを特徴とする請求項1に記載の顔表情識別システム。
Further comprising a deviation amount calculation unit for calculating a deviation amount when the attachment device is attached, using data of detection results by the plurality of detection devices as input data,
The facial expression identification system according to claim 1, wherein the facial expression identification unit identifies the facial expression of the person using the learning data associated with the shift amount.
前記複数の検出装置による検出結果のデータを入力データとして、前記装着装置を装着したときのずれ量を算出するずれ量算出部を更に備え、
前記ずれ量を入力データとして、前記装着装置を装着した人物に対して前記ずれの修正内容を提示する修正提示部
を更に備えることを特徴とする請求項1に記載の顔表情識別システム。
Further comprising a deviation amount calculation unit for calculating a deviation amount when the attachment device is attached, using data of detection results by the plurality of detection devices as input data,
The facial expression identification system according to claim 1, further comprising: a correction presentation unit that presents the correction content of the shift to a person wearing the mounting device using the shift amount as input data.
前記学習データ記憶部が、前記装着装置を装着している人物と異なる複数の他者の前記学習データを格納し、
前記顔表情識別部が、前記複数の検出装置の検出結果のデータと前記複数の他者の学習データとの類似度をそれぞれ算出し、
前記算出された類似度が最も高い前記他者の学習データを用いて、前記人物の顔表情を識別する
ことを特徴とする請求項1に記載の顔表情識別システム。
The learning data storage unit stores the learning data of a plurality of others different from the person wearing the wearing device,
The facial expression identification unit calculates the similarity between the detection result data of the plurality of detection devices and the learning data of the plurality of others,
The facial expression identification system according to claim 1, wherein the facial expression of the person is identified using learning data of the other person having the highest calculated similarity.
前記装着装置が、前記人物の血流量を検出する血流センサを備え、
前記顔表情識別部が、前記検出された血流量のデータを入力データとして、前記人物の顔色を識別することを特徴とする請求項1に記載の顔表情識別システム。
The wearing device includes a blood flow sensor for detecting the blood flow of the person,
The facial expression identification system according to claim 1, wherein the facial expression identification unit identifies the facial color of the person using the detected blood flow data as input data.
前記複数の検出装置がそれぞれ光センサであり、
前記光センサによる検出結果のデータを入力データとして、前記複数箇所における前記光センサの発光強度を調整する光センサ調整部を更に備える
ことを特徴とする請求項1に記載の顔表情識別システム。
Each of the plurality of detection devices is an optical sensor
The facial expression identification system according to claim 1, further comprising: a light sensor adjustment unit that adjusts light emission intensity of the light sensor at the plurality of locations using data of a detection result by the light sensor as input data.
前記装着装置が、前記人物の顔面の皮膚の移動量を検出するイメージセンサを備え、
前記顔表情識別部が、前記複数の検出装置による検出結果のデータ及び前記検出された移動量のデータを入力データとして、前記人物の顔表情を識別する
ことを特徴とする請求項1に記載の顔表情識別システム。
The wearing device includes an image sensor that detects a movement amount of the skin of the person's face,
2. The facial expression identification unit according to claim 1, wherein the facial expression identification unit identifies the facial expression of the person using data of detection results from the plurality of detection devices and data of the detected movement amount as input data. Facial expression identification system.
装着装置の複数箇所にそれぞれ配置された複数の検出装置が、前記装着装置を人物の頭部に装着したときの前記人物の顔面と前記装着装置間の距離を前記複数箇所で検出するステップと、
記憶装置に記憶された、前記複数の検出装置による過去の検出結果のデータと顔表情との対応関係を機械学習して得られた学習データを前記記憶装置から読み出し、顔表情識別部が前記複数の検出装置による検出結果のデータを入力データとして前記人物の顔表情を識別するステップ
とを含むことを特徴とする顔表情識別方法。
A plurality of detection devices respectively disposed at a plurality of locations of the mounting device, detecting the distance between the face of the person and the mounting device when the mounting device is mounted on a person's head at the plurality of locations;
Learning data obtained by machine learning of correspondence between the data of past detection results by the plurality of detection devices and the facial expression stored in the storage device is read from the storage device, and the facial expression identification unit And a step of identifying the facial expression of the person using the data of the detection result of the detection device as input data.
装着装置の複数箇所にそれぞれ配置された複数の検出装置に、前記装着装置を人物の頭部に装着したときの前記人物の顔面と前記装着装置間の距離を前記複数箇所で検出させる手順と、
記憶装置に記憶された、前記複数の検出装置による過去の検出結果のデータと顔表情との対応関係を機械学習して得られた学習データを前記記憶装置から読み出させ、前記複数の検出装置による検出結果のデータを入力データとして前記人物の顔表情を顔表情識別部に識別させる手順と、
を含む一連の処理をコンピュータに実行させることを特徴とする顔表情識別プログラム。
A procedure for detecting a distance between the face of the person and the mounting device at the plurality of locations when the mounting device is mounted on a person's head to a plurality of detection devices respectively disposed at a plurality of locations of the mounting device;
Learning data obtained by machine learning of a correspondence relationship between data of past detection results by the plurality of detection devices and facial expressions stored in the storage device is read from the storage device, and the plurality of detection devices A procedure for causing the facial expression identification unit to identify the facial expression of the person using the data of the detection result by the input data,
A facial expression identification program characterized by causing a computer to execute a series of processes including:
JP2017527431A 2015-07-03 2016-07-01 Facial expression identification system, facial expression identification method and facial expression identification program Active JP6850723B2 (en)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2015134460 2015-07-03
JP2015134460 2015-07-03
PCT/JP2016/069683 WO2017006872A1 (en) 2015-07-03 2016-07-01 Facial expression identification system, facial expression identification method, and facial expression identification program

Publications (2)

Publication Number Publication Date
JPWO2017006872A1 true JPWO2017006872A1 (en) 2018-04-19
JP6850723B2 JP6850723B2 (en) 2021-03-31

Family

ID=57685715

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017527431A Active JP6850723B2 (en) 2015-07-03 2016-07-01 Facial expression identification system, facial expression identification method and facial expression identification program

Country Status (2)

Country Link
JP (1) JP6850723B2 (en)
WO (1) WO2017006872A1 (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11604511B2 (en) 2020-11-14 2023-03-14 Facense Ltd. Robust photosensor-based facial expression detector

Families Citing this family (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2561537B (en) 2017-02-27 2022-10-12 Emteq Ltd Optical expression detection
JP6924128B2 (en) * 2017-11-24 2021-08-25 Kddi株式会社 Morphing image generator and morphing image generation method
CN112106066A (en) * 2018-03-16 2020-12-18 奇跃公司 Facial expression from eye tracking camera
KR102138809B1 (en) * 2018-04-13 2020-07-28 인하대학교 산학협력단 2d landmark feature synthesis and facial expression strength determination for micro-facial expression detection
CN109670393B (en) * 2018-09-26 2023-12-19 平安科技(深圳)有限公司 Face data acquisition method, equipment, device and computer readable storage medium
JP2020052793A (en) * 2018-09-27 2020-04-02 株式会社Nttドコモ system
CN113423334A (en) * 2019-02-22 2021-09-21 索尼集团公司 Information processing apparatus, information processing method, and program
KR102243040B1 (en) 2019-04-10 2021-04-21 한양대학교 산학협력단 Electronic device, avatar facial expression system and controlling method threrof
KR102108422B1 (en) * 2019-08-07 2020-05-11 (주)자이언트스텝 System and Method for Optimizing Facial Expression of Virtual Characters through AI-based Facial Expression Classification and Retargeting, and Computer Readable Storage Medium
CN111240482B (en) * 2020-01-10 2023-06-30 北京字节跳动网络技术有限公司 Special effect display method and device
JP7295045B2 (en) * 2020-01-16 2023-06-20 株式会社コロプラ Programs, computer implemented methods and computers
FR3117221B1 (en) * 2020-12-04 2023-01-06 Socialdream immersive device
WO2023287425A1 (en) * 2021-07-16 2023-01-19 Hewlett-Packard Development Company, L.P. Identification of facial expression of head-mountable display wearer
US11765115B2 (en) * 2021-07-29 2023-09-19 Snap Inc. Emoji recommendation system using user context and biosignals

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021707A (en) * 2012-07-18 2014-02-03 Nikon Corp Information input/output device and information input/output method
JP2015031996A (en) * 2013-07-31 2015-02-16 Kddi株式会社 Portable movement detection device, emotion information tabulation device, emotion information acquisition and notification system, emotion information acquisition and notification method, and computer program
JP2015092646A (en) * 2013-11-08 2015-05-14 ソニー株式会社 Information processing device, control method, and program

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014021707A (en) * 2012-07-18 2014-02-03 Nikon Corp Information input/output device and information input/output method
JP2015031996A (en) * 2013-07-31 2015-02-16 Kddi株式会社 Portable movement detection device, emotion information tabulation device, emotion information acquisition and notification system, emotion information acquisition and notification method, and computer program
JP2015092646A (en) * 2013-11-08 2015-05-14 ソニー株式会社 Information processing device, control method, and program

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
福本くらら 外2名: "ライフログにおける自動タグ付けのための笑顔認識機構の設計と実装", 研究報告モバイルコンピューティングとユビキタス通信, vol. 2013−UBI−65巻、18号, JPN6020033218, 7 March 2013 (2013-03-07), JP, pages 1 - 8, ISSN: 0004433852 *

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11604511B2 (en) 2020-11-14 2023-03-14 Facense Ltd. Robust photosensor-based facial expression detector
US11983317B2 (en) 2020-11-14 2024-05-14 Facense Ltd. Using a camera to compensate for sensor-shift in a photosensor-based facial expression detector

Also Published As

Publication number Publication date
WO2017006872A1 (en) 2017-01-12
JP6850723B2 (en) 2021-03-31

Similar Documents

Publication Publication Date Title
WO2017006872A1 (en) Facial expression identification system, facial expression identification method, and facial expression identification program
US10986270B2 (en) Augmented reality display with frame modulation functionality
US11430169B2 (en) Animating virtual avatar facial movements
KR102402467B1 (en) Periocular test for mixed reality calibration
KR102516112B1 (en) Augmented reality identity verification
US11797105B2 (en) Multi-modal hand location and orientation for avatar movement
JP2021509495A (en) Improved posture determination for display devices
CN112106066A (en) Facial expression from eye tracking camera
US20230162461A1 (en) Enhancing videos of people interacting with virtual objects in an extended reality environment
US9482622B2 (en) Methods and apparatus for surface classification
TWI829944B (en) Avatar facial expression generating system and method of avatar facial expression generation
US11720168B1 (en) Inferred body movement using wearable RF antennas
US20240028294A1 (en) Automatic Quantitative Food Intake Tracking
Ratliff Active appearance models for affect recognition using facial expressions
US11771618B2 (en) Adaptive speech and biofeedback control of sexual stimulation devices
Wahl Methods for monitoring the human circadian rhythm in free-living
US20220331196A1 (en) Biofeedback-based control of sexual stimulation devices

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20171201

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190626

RD02 Notification of acceptance of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7422

Effective date: 20190626

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20190626

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200908

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201105

RD13 Notification of appointment of power of sub attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7433

Effective date: 20201105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201210

TRDD Decision of grant or rejection written
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20201211

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210302

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210308

R150 Certificate of patent or registration of utility model

Ref document number: 6850723

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250