JP6742405B2 - Head-mounted display with facial expression detection function - Google Patents
Head-mounted display with facial expression detection function Download PDFInfo
- Publication number
- JP6742405B2 JP6742405B2 JP2018517321A JP2018517321A JP6742405B2 JP 6742405 B2 JP6742405 B2 JP 6742405B2 JP 2018517321 A JP2018517321 A JP 2018517321A JP 2018517321 A JP2018517321 A JP 2018517321A JP 6742405 B2 JP6742405 B2 JP 6742405B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- user
- face
- camera
- capturing device
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/165—Detection; Localisation; Normalisation using facial parts and geometric relationships
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/174—Facial expression recognition
- G06V40/176—Dynamic expression
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T13/00—Animation
- G06T13/20—3D [Three Dimensional] animation
- G06T13/40—3D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T17/00—Three dimensional [3D] modelling, e.g. data description of 3D objects
- G06T17/20—Finite element generation, e.g. wire-frame surface description, tesselation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/161—Detection; Localisation; Normalisation
- G06V40/166—Detection; Localisation; Normalisation using acquisition arrangements
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/10—Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
- G06V40/16—Human faces, e.g. facial parts, sketches or expressions
- G06V40/168—Feature extraction; Face representation
- G06V40/171—Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/20—Image signal generators
- H04N13/204—Image signal generators using stereoscopic image cameras
- H04N13/239—Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/332—Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N13/00—Stereoscopic video systems; Multi-view video systems; Details thereof
- H04N13/30—Image reproducers
- H04N13/366—Image reproducers using viewer tracking
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/90—Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
Landscapes
- Engineering & Computer Science (AREA)
- Physics & Mathematics (AREA)
- Oral & Maxillofacial Surgery (AREA)
- Health & Medical Sciences (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Multimedia (AREA)
- General Health & Medical Sciences (AREA)
- Human Computer Interaction (AREA)
- Geometry (AREA)
- Signal Processing (AREA)
- Computer Graphics (AREA)
- Software Systems (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Processing Or Creating Images (AREA)
- User Interface Of Digital Computer (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本開示は、仮想現実又は拡張現実の環境において使用される、ユーザの表情検出のためのヘッドマウントディスプレイユニット全般に関連する。 The present disclosure relates generally to head-mounted display units for user facial expression detection used in virtual or augmented reality environments.
仮想現実(VR)及び拡張現実(AR)は、没入型リアルライフ経験をさせることを可能にすることから、ゲーム、教育、医療、及びソーシャルネットワーキングサービス等の適用における新興分野となっている。これらの適用の一部として、ユーザが表示装置に表示された自身の3D表現(例えば、アバター)を通じて他のユーザと関わることができるようにするソーシャルプラットフォームがある。ユーザが仮想現実又は拡張現実を通じて他のユーザと交流できるようにすることにより、これらの適用におけるユーザの経験を向上させることができる。 Virtual Reality (VR) and Augmented Reality (AR) are emerging fields in applications such as gaming, education, healthcare, and social networking services, as they enable immersive real life experiences. Part of these applications are social platforms that allow users to interact with other users through their 3D representation (eg, avatar) displayed on a display device. Allowing the user to interact with other users through virtual or augmented reality can enhance the user's experience in these applications.
人同士の交流において、表情は、個人の感情状態について、他者に多くの情報を伝達する。ユーザ間の交流をより豊かなものとするために、ユーザの3D表現は、ユーザの表情を示すように開発されてもよい。このようにして、VR又はAR環境において、ユーザの心的状態についてより多くの情報を他のユーザに効果的に伝えることができる。 In human interaction, facial expressions convey a lot of information to others about their emotional state. In order to enrich the interaction between users, the user's 3D representation may be developed to show the user's facial expressions. In this way, more information about the user's mood can be effectively communicated to other users in a VR or AR environment.
本願は、2015年9月29日出願の米国仮特許出願シリアル番号62/234,478号及び2016年5月16日出願の米国仮特許出願シリアル番号62/337,261号に対する米国特許法第119条(e)に基づく優先権を主張するものであり、その内容全体を参照としてここに援用する。 This application is directed to US provisional patent application serial number 62/234,478 filed September 29, 2015 and US provisional patent application serial number 62/337,261 filed May 16, 2016. Claims priority under section (e), the entire contents of which are incorporated herein by reference.
実施形態は、ヘッドマウントディスプレイを使用した表情検出に関連する。第1画像は、ヘッドマウントディスプレイ上の第1画像撮影装置により撮影される。第1画像は、ユーザの顔の上部を含む。第2画像は、ヘッドマウントディスプレイ上の第2画像撮影装置により撮影される。第2画像は、ユーザの顔の下部を含む。第1画像及び第2画像を処理することにより、ユーザの表情を表す表情パラメータを抽出する。 Embodiments relate to facial expression detection using a head mounted display. The first image is captured by the first image capturing device on the head mounted display. The first image includes the top of the user's face. The second image is captured by the second image capturing device on the head mounted display. The second image includes the lower part of the user's face. By processing the first image and the second image, facial expression parameters representing the facial expression of the user are extracted.
一実施形態において、第1画像撮影装置は、一対の赤外線カメラを備える。第2画像撮影装置は、深度カメラ、カラーカメラ、赤外線カメラ、又は2つの立体カメラ、のうちの1つを備える。 In one embodiment, the first image capturing device includes a pair of infrared cameras. The second image capturing device includes one of a depth camera, a color camera, an infrared camera, or two stereoscopic cameras.
一実施形態において、第1画像及び第2画像を処理することにより、少なくとも、第1画像から、ユーザの目及びユーザの眉に関連付けられたランドマーク位置を検出し、第2画像から、ユーザの顔の下部に関連付けられたランドマーク位置を検出する。 In one embodiment, by processing the first image and the second image, at least the landmark positions associated with the user's eyes and the user's eyebrows are detected from the first image, and from the second image, the landmark position of the user is detected. Detect the landmark position associated with the bottom of the face.
一実施形態において、抽出された表情パラメータをユーザのデジタル表現に適用することにより、ユーザのグラフィック表現を生成する。 In one embodiment, the extracted facial expression parameters are applied to the digital representation of the user to generate a graphical representation of the user.
一実施形態において、ユーザの無表情を表すキャリブレーション画像を撮影および処理することにより、キャリブレーションを実施する。 In one embodiment, the calibration is performed by capturing and processing a calibration image that represents the user's expressionlessness.
一実施形態において、キャリブレーション画像に基づき、個人化無表情メッシュを生成し、変形転写技術を個人化無表情メッシュに適用することで、個人化追跡モデルを構築することにより、キャリブレーションを実施する。 In one embodiment, the calibration is performed by creating a personalized expressionless mesh based on the calibration image and applying deformation transfer techniques to the personalized expressionless mesh to build a personalized tracking model. ..
一実施形態において、ブレンドシェイプモデルを、個人化追跡モデルに基づき、第1画像及び第2画像におけるランドマーク位置にフィットさせることにより、表情パラメータを得る。 In one embodiment, the blend shape model is fitted to the landmark positions in the first and second images based on the personalized tracking model to obtain the facial expression parameters.
一実施形態において、第1画像及び第2画像はリアルタイムで処理され、表情を取得する。 In one embodiment, the first image and the second image are processed in real time to obtain facial expressions.
実施形態は、第1撮影装置と、第2撮影装置と、表示装置と、本体とを備えるヘッドマウントディスプレイにも関連する。第1撮影装置は、目領域を含むユーザの顔の上部を撮影する。第2撮影装置は、第1撮影装置の下方位置に設けられ、ユーザの顔の下部を撮影する。表示装置は、ユーザに画像を表示する。本体には、第1撮影装置、第2撮影装置、及び表示装置が搭載される。 The embodiment also relates to a head mounted display that includes a first photographing device, a second photographing device, a display device, and a main body. The first imaging device images the upper part of the user's face including the eye region. The second photographing device is provided below the first photographing device and photographs the lower part of the face of the user. The display device displays an image to the user. A first photographing device, a second photographing device, and a display device are mounted on the main body.
一実施形態において、第2撮影装置は、本体からユーザの顔の下部に向かって伸びる伸張部材に搭載される。 In one embodiment, the second imaging device is mounted on an extension member that extends from the body toward the bottom of the user's face.
一実施形態において、ヘッドマウントディスプレイユニットは、第2撮影装置が搭載される摺動可能なマウントをさらに備える。 In one embodiment, the head mounted display unit further comprises a slidable mount on which the second imaging device is mounted.
一実施形態において、表示装置は、第1ディスプレイ及び第2ディスプレイを備える。第1ディスプレイは、左側画像をユーザの左目の方に表示し、第2ディスプレイは、右側画像をユーザの右目の方に表示する。 In one embodiment, the display device comprises a first display and a second display. The first display displays the left image toward the left eye of the user, and the second display displays the right image toward the right eye of the user.
一実施形態において、第1撮影装置は、一対のカメラを備え、カメラは各々、本体の両側に設置される。 In one embodiment, the first imaging device comprises a pair of cameras, each camera being installed on both sides of the body.
一実施形態において、第1撮影装置は、本体の中間に設置されたカメラを備える。 In one embodiment, the first imaging device comprises a camera installed in the middle of the body.
一実施形態において、第2撮影装置は、本体に直接搭載される。 In one embodiment, the second imaging device is mounted directly on the body.
一実施形態において、本体は、目領域を包含する膨らんだ上部を有する。 In one embodiment, the body has a bulged top that includes the eye region.
一実施形態において、表示装置は、一対の別個の表示部を備え、第1撮影装置は、一対の表示部の間に2つのカメラを備える。 In one embodiment, the display device includes a pair of separate display units, and the first imaging device includes two cameras between the pair of display units.
実施形態は、ヘッドマウントディスプレイユニットと、演算装置とを備える仮想現実システムにも関連する。演算装置は、ヘッドヘッドマウントディスプレイユニットに通信可能に連結される。演算装置は、ヘッドマウントディスプレイユニットから第1画像及び第2画像を受信し、第1画像及び第2画像を処理することにより、ユーザの表情を表す表情パラメータを抽出する。 Embodiments also relate to a virtual reality system that includes a head mounted display unit and a computing device. The computing device is communicatively coupled to the head-mounted display unit. The computing device receives the first image and the second image from the head mounted display unit and processes the first image and the second image to extract a facial expression parameter representing a facial expression of the user.
図面及び以下の説明は、単なる例示としての好適な実施形態に関連する。以下を検討することにより、本明細書に開示した構造及び方法の代替実施形態は、クレームの主旨から逸脱することなく採用されてもよい実行可能な代替として容易に認識されることに留意しなければならない。
以降、添付の図面に例示したいくつかの実施形態について詳細に説明する。可及的に、図中では同様の参照符号が使用され、同様の機能を示すことがあることに留意しなければならない。図面は、例示のみを目的として開示のシステム(又は方法)の実施形態を示している。以下の説明において、本明細書に記載の主旨から逸脱しない限り、本明細書に示される構造及び方法の代替実施形態が採用されてもよい。
The drawings and the following description relate to preferred embodiments by way of example only. It should be noted that by considering the following, alternative embodiments of the structures and methods disclosed herein are readily recognized as viable alternatives that may be employed without departing from the spirit of the claims. I have to.
Hereinafter, some embodiments illustrated in the accompanying drawings will be described in detail. It should be noted that wherever possible, like reference numerals will be used in the figures to indicate similar functions. The drawings depict embodiments of the disclosed system (or method) for purposes of illustration only. In the following description, alternative embodiments of the structures and methods set forth herein may be employed without departing from the spirit described herein.
実施形態は、目領域を含むユーザの顔の上部を撮影する画像撮影装置(例えば、赤外線カメラ)と、鼻、唇、顎先、及び頬のうちの少なくとも1つを含むユーザの顔の下部特徴を撮影するもうひとつの画像撮影装置(例えば、深度カメラ)とを含むヘッドマウントディスプレイユニットを使用して、リアルタイムでユーザの表情を検出することに関連する。第1画像撮影装置及び第2画像撮影装置によって撮影された画像が処理され、表情に関連付けられたパラメータを抽出する。このパラメータは、表情を含むユーザのデジタル表現が生成可能となるように、送信又は処理可能である。 Embodiments include an image capture device (e.g., an infrared camera) that captures an upper portion of the user's face, including the eye region, and lower features of the user's face, including at least one of a nose, lips, chin, and cheeks. Relates to detecting a user's facial expression in real time using a head-mounted display unit that includes another image capturing device (e.g., a depth camera) that captures. The images captured by the first image capture device and the second image capture device are processed to extract parameters associated with the facial expression. This parameter can be transmitted or processed so that a digital representation of the user, including facial expressions, can be generated.
本明細書に記載の目領域とは、目と目の上方の眉をカバーする顔領域をいう。
表情検出システムの例としてのアーキテクチャ
The eye area described in this specification refers to a face area that covers the eyes and the eyebrows above the eyes.
Architecture as an example of facial expression detection system
図1は、一実施形態に係る、ユーザの表情を撮影及び処理するシステム100を示すブロック図である。システム100は、数ある構成要素の中でも特に、ヘッドマウントディスプレイ(HMD)102と、HMD102と通信する演算装置108とを備えてもよい。HMD102は、演算装置108と連携して使用され、ユーザの姿勢を検出し、ユーザの表情を検出し、ユーザに画像を表示する。
FIG. 1 is a block diagram illustrating a
演算装置108は、有線通信又は無線通信を介してHMD102と通信してもよい。HMD102にて再生するための画像及び音声のデータ120は、演算装置108から送信可能である。HMD102はまた、ユーザの頭部の姿勢を示し、表情に関連付けられた撮影画像を含む情報110を演算装置108に送信する。
The
HMD102は、図2Cを参照して以下に詳細に示す通り、ユーザの頭部に装着される。HMD102は、数ある構成要素の中でも特に、1つ以上の2Dカメラ104と、1つ以上の深度カメラ105と、1つ以上のディスプレイ106とを備えてもよい。ディスプレイ106とそのオペレーティングモジュールの詳細については、説明を簡潔にするために、本明細書中では省略する。各2Dカメラ104は、ユーザの顔の目領域を撮影し、赤外線カメラ又はRGBカメラ(照明ランプを備えるか、備えないかを問わず)として実現されてもよい。各目領域は、目と眉とを含む。一方、深度カメラ105は、鼻、唇、頬、及び顎先のうちの少なくとも1つを含むユーザの顔の下部特徴について深度画像を生成する。
The
演算装置108は、以降、図7を参照して詳細に説明する通り、赤外線カメラ104及び深度カメラ105によって生成された画像を処理することにより、ユーザの表情を判定する。深度カメラ105を使用する代わりに、2D RGBカメラ又は2D赤外線(IR)カメラも使用することができる。
The
演算装置108は、HMD102とは別個のものとして図1に示されているが、この演算装置108は、HMD102の一部であってもよい。
ヘッドマウントディスプレイの例
Although computing
Head mounted display example
図2Aは、一実施形態に係るHMD102の概略図である。HMD102は、主要本体202と、主要本体202から下の方へ伸びる垂直伸張部材204とを備える。主要本体202は、2Dカメラ104と、ディスプレイ106と、その他のセンサ(例えば、ジャイロスコープ)とを備えて設置される。
FIG. 2A is a schematic diagram of the
HMD102及び垂直伸張部材204は、深度カメラ105によって撮影されるユーザの顔の領域の調整を可能にする機構を介して連結されてもよい。垂直伸張部材の代わりに、水平に伸びるか、又は傾斜配向で伸びる部材も深度カメラ105を搭載するために使用されてよい。深度カメラ105は、(i)3D深度マップと、(ii)撮影領域の2Dカラー画像又は赤外線画像とを提供する。ユーザの顔の下部特徴を撮影するために深度カメラ105を使用することは、数ある理由の中でも特に、顔の下部特徴についての3Dジオメトリ情報を高精度に得ることができるという理由により、有利である。深度カメラ105を使用する代わりに、2Dカラーカメラもユーザの顔の下部特徴を撮影するために使用可能である。2Dカラーカメラで撮影されたカラー画像を演算装置108で処理することにより、顔の下部特徴について3Dジオメトリ情報を生成してもよい。
The
HMD102はまた、ユーザがHMD102をユーザの頭部に固定できるように、ストラップ212に取り付けられてもよい。
The
図2Aに示される通り、一対の2Dカメラ104が、主要本体202の正面壁部の上方隅部に配置されて、ユーザの顔のそれぞれの領域(すなわち、左目及び右目の領域)を撮影する。代替実施形態においては、一対の2DカメラをHMD102の側壁203に配置することができる。2Dカメラ104は、ディスプレイ106のすぐ隣に配置することもできる。
As shown in FIG. 2A, a pair of
ディスプレイ106は2つの別個の表示モジュールを備えてもよく、そのうちのひとつは左側画像をユーザの左目の方に表示するもの、もう一つは右側画像をユーザの右目の方に表示するものである。2つのディスプレイ106は、物理的に離間してもよい。或いは、単一の表示モジュールが、左側画像及び右側画像を別々に表示するための2つの別個の表示領域に分けられてもよい。
The
図2Bは、一実施形態に係る、目と眉を含むユーザの顔220の目領域を表す画像を撮影する2Dカメラ104を示す概略図である。2Dカメラ104は、ユーザが装着しているときにユーザの顔に対向するHMD102の本体202に設置される。具体的には、2Dカメラ104は、ユーザの顔の片目又は両目の領域を撮影する。
FIG. 2B is a schematic diagram illustrating a
赤外線カメラが、2Dカメラ104として使用されてもよい。目及び眉の周辺領域の画像を撮影するために赤外線カメラを使用することは、数ある理由の中でも特に、(i)赤外線カメラはユーザの肌に接触することなく顔の特徴を十分に撮影することができるという理由と、(ii)赤外線カメラは、HMD102がユーザによって装着されているときに外部の光が遮られることから生じ得る低照明条件の下で動作するという理由により、有利である。
An infrared camera may be used as the
一実施形態において、2Dカメラ104は、広角を撮影するために魚眼レンズを備えてもよい。2Dカメラからユーザの目及び眉までの距離が短い(通常、5センチメートル以内)ため、魚眼レンズを使用して目領域全体を撮影する。深度カメラ105も、広角を撮影するために魚眼レンズを備える。
In one embodiment, the
図2Cは、一実施形態に係る、ユーザの顔220に対するHMD102の構成要素の配置を示す概略図である。図2CのHMD102は、左目領域を撮影するものと、右目領域を撮影するものとの一対の2Dカメラ104を有する。2Dカメラの中心軸244は、垂直面254に対して角度αを成す。角度αは、目領域を撮影するために30°〜45°の範囲内であってもよい。
FIG. 2C is a schematic diagram illustrating an arrangement of components of the
図2Dは、他の実施形態に係るHMD102Bの概略図である。HMD102Bは、図2AのHMD102と同様であるが、ユーザの顔の下部の画像を撮影するためにカメラ105Bが取り付けられるマウント204Bを有する。マウント204Bは、図2Aの垂直伸張部材よりも短い。カメラ105Bは、深度カメラであってもよく、又は、RGB/グレースケールカメラであってもよい。カメラ105Bがユーザの顔の下部の画像をよりよく撮影できるように、1つ以上の赤外線又は可視光源(図示せず)もマウント204Bに取り付けられてもよい。代替実施形態では、HMD102は別個のマウント又は垂直伸張部材を備えないが、主要本体202に直接搭載されたカメラ105Bを有する。
FIG. 2D is a schematic diagram of an
図2Eは、他の実施形態に係るHMD102Cの概略図である。HMD102Cは、図2DのHMD102Bと同様であるが、マウント204Cに設置される立体カメラ105Bを有する。両方の立体カメラ105Bがユーザの顔の下部の画像を撮影する。撮影された画像は、演算装置108によって処理され、ユーザの表情を判定する。
FIG. 2E is a schematic diagram of an
図2Fは、一実施形態に係るHMD102Dの概略図である。HMD102Dは、図2EのHMD102Cと同様であるが、主要本体202に対して摺動可能なマウント222A及び222Bを有する。マウント222A及び222Bにはカメラ105Dが搭載され、それらはIRカメラ又はグレースケールカメラであってもよい。マウント222A及び222Bが主要本体202に対して摺動できるようにすることにより、マウント222A及び222Bの位置が、ユーザの顔の下部をよりよく撮影できるように調整されてもよい。いくつかの実施形態において、マウント222A及び222Bは、ユーザによって手動で移動される。他の実施形態においては、マウント222A及び222Bは、アクチュエータ(例えば、図示しないモータである)によって自動調整される。
FIG. 2F is a schematic diagram of the HMD 102D according to one embodiment. HMD 102D is similar to
図2Gは、一実施形態に係るHMD102Eの概略図である。HMD102Dは、単一の2Dカメラ104が主要本体202の中心に配置されることを除いて、図2AのHMD102と同様である。単一の2Dカメラ104は、図2Iを参照して以下に説明する通り、ユーザの顔の左目領域および右目領域を撮影する。
FIG. 2G is a schematic diagram of an
図2Hは、一実施形態に係るHMD102Fの概略図である。HMD102Fは、主要本体202が上の方へ突出した縁部233を有することを除いて、図2GのHMD102Eと同様である。上の方へ突出した縁部233は、ユーザの顔の目領域が、主要本体202の下に完全に包まれるのを可能とする。
FIG. 2H is a schematic diagram of an
図2Iは、図2GのHMD102E又は図2HのHMD102Fにおける単一の2Dカメラ104を使用して両側の目領域を撮影することを示す概略図である。2Dカメラ104で撮影される顔の領域を広げるために、2Dカメラ104において魚眼レンズが使用されてもよい。
FIG. 2I is a schematic diagram showing capturing both eye regions using a
図2Jは、一実施形態に係る、2つの別個の2Dカメラ104Jを使用して両側の目領域を撮影することを示す概略図である。図2Cの2Dカメラ104と異なり、2Dカメラ104Jは、ディスプレイ106の間に配置される。2Dカメラ104Jの中心軸247は、両方の2Dカメラ104Jが顔の目領域に対向するように、垂直面254に対して角度βをなす。2Dカメラ104Jをディスプレイ106の間に配置する多くの利点のうちの1つとして、HMDの寸法(特に、幅W)を小さくできることがあげられる。
FIG. 2J is a schematic diagram illustrating capturing two sided eye regions using two
図2Aから図2Jを参照して上述したHMDは、画像をそれぞれの目の方に表示する専用ディスプレイ106を使用するものとして説明したが、他の実施形態では、ディスプレイは、別のモバイルデバイス(例えば、スマートフォン)の表示装置として実現されてもよい。例えば、図2Kは、モバイルデバイス261を受容するスロット263を有するHMD102Gの概略図である。モバイルデバイス261が主要本体202のスロット263に挿入されて、モバイルデバイスの表示装置がHMD102Gのディスプレイとして機能してもよい。図2Kに示されるようなスロット263は、単なる例示であり、異なる構成のスロットも採用可能である。図2Kの実施形態において、ディスプレイ106は、演算装置108と同じように、モバイルデバイス261で実現される。
表情を判定する一例としての演算装置
Although the HMDs described above with reference to FIGS. 2A-2J use a
Arithmetic device as an example for determining facial expression
図3は、一実施形態に係る、表情を判定するためにHMD102と接続された演算装置108を示すブロック図である。演算装置108は、数ある構成要素の中でも特に、メモリ302と、プロセッサ304と、HMDインタフェース306と、ディスプレイ308と、ユーザインタフェース310と、これらの構成要素を接続するバス301とを備えてもよい。演算装置108は、他の演算装置(図示せず)と通信するために、ネットワークインタフェース等の他の構成要素を含んでもよい。
FIG. 3 is a block diagram illustrating a
メモリ302は、図4を参照して以下に詳細に説明する通り、ソフトウェアモジュールを記憶する非一時的コンピュータ可読記憶媒体である。メモリ302に記憶された命令は、プロセッサ304によって実行されることにより、表情検出に関連付けられたオペレーションと、検出された表情を組み込んだユーザのデジタル表現の生成とを実施する。
The
プロセッサ304は、メモリ302に記憶された種々の命令を実行し、演算装置108における他の構成要素のオペレーションを制御する。演算装置108は、1つを上回る数のプロセッサを備えてもよい。
HMDインタフェース306は、HMD102と通信するためのハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせである。HMDインタフェース306は、演算装置108がHMD102において再生するための画像及び音声のデータ120を送信できるようにし、また、ユーザの頭部の姿勢に関連付けられた情報110と、表情に関連付けられた撮影画像とをHMD102から受信することができる。HMDインタフェース306は、1つ以上の通信プロトコルに対応するものであってもよい。
The HMD interface 306 is hardware, software, firmware, or a combination thereof for communicating with the
ディスプレイ308は、画像をレンダリングしてユーザに提示するために使用される。これらの画像には、HMD102のオペレーションに関連付けられた情報が含まれてもよい。
The
ユーザインタフェース310は、ユーザが演算装置108と情報をやりとりできるようにするためのハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせである。ユーザインタフェース310は、ポインティングデバイス(例えば、マウス)及びキーボードを備えてもよい。
The user interface 310 is hardware, software, firmware, or a combination thereof that allows a user to interact with the
図4は、一実施形態に係る、演算装置108におけるソフトウェアモジュールのブロック図である。メモリ302は、数あるソフトウェア構成要素の中でも特に、オペレーティングシステム406と、表情検出モジュール410と、アプリケーションモジュール440とを記憶する。メモリ302はまた、図4には図示されない他の種々のソフトウェアモジュールも備えてもよい。
FIG. 4 is a block diagram of software modules in the
オペレーティングシステム406は、演算装置108において利用可能なリソースの管理を担うソフトウェアモジュールである。利用可能なオペレーティングシステムには、例えば、IOS、WINDOWS(登録商標)、LINUX、ANDROID(登録商標)、及びMAC OSが含まれてもよい。
The
表情検出モジュール410は、2Dカメラ104から受信した2D画像(例えば、赤外線画像)402と、深度カメラ105から受信した画像404とに基づいて、ユーザの表情を検出するソフトウェアモジュールである。画像404には、深度カメラ105によって生成された深度画像とカラー画像又はグレースケール画像との双方が含まれてもよい。表情検出モジュール410は、赤外線画像402と画像404とを処理することにより、ユーザの表情を示す表情(FE)パラメータ424を生成する。
The facial
表情検出モジュール410には、目及び眉追跡モジュール414と、顔下部追跡モジュール418と、FEパラメータ生成器422とを含むがこれに限定されないサブモジュールが含まれてもよい。目及び眉追跡モジュール414は、ランドマーク位置に基づき、2D画像402における瞳の中心と、目の輪郭と、眉の輪郭とを判定する。目及び眉追跡モジュール414は、瞳、目の輪郭、眉の輪郭のランドマークのアノテーションのついたトレーニング画像サンプルを用いて事前トレーニングされている。このようなアノテーションは、手動で実施されてもよい。図5A及び図5B中、例としてのランドマークが「X」点として示されている。
The facial
目及び眉追跡モジュール414は、追跡アルゴリズムを採用してもよい。追跡アルゴリズムは、当分野で周知である、例えば、(i)教師あり降下法(SDM)、(ii)変形可能モデルフィッティング、(iii)アクティブアピアランスモデリング、(iii)ディープラーニング技術を使用してもよい。目及び眉追跡モジュール414は、ユーザの目と眉とを追跡した結果として、目及び眉の位置及び形状を示すランドマーク位置415を生成する。魚眼レンズを使用して2D画像を撮影するとき、目及び眉追跡モジュール414は、追跡アルゴリズムの実行前に、画像を平坦化して、魚眼レンズの使用によって生じた2D画像中の歪みを除去してもよい。
The eye and eyebrow tracking module 414 may employ a tracking algorithm. Tracking algorithms are also well known in the art, for example using (i) supervised descent (SDM), (ii) deformable model fitting, (iii) active appearance modeling, (iii) deep learning techniques. Good. The eye and eyebrow tracking module 414 generates a
同様に、顔下部追跡モジュール418は、画像404に基づき、ユーザの鼻、唇、顎先、頬、及び顎先と頬の周囲の顔のシルエットのうちの少なくとも1つの姿勢を追跡する。下部追跡モジュール418は、ユーザの顔の下部のランドマークを追跡するために、当分野において周知である、例えば、(i)教師あり降下法(SDM)、(ii)変形可能モデルフィッティング、(iii)アクティブアピアランスモデリング、(iv)ディープマシンラーニングのうちの1つを使用して、追跡アルゴリズムも使用してもよい。ユーザの顔の下部におけるランドマークは、例えば、図5Cに示されている。顔下部追跡モジュール418は、ユーザの顔の下部におけるランドマークを追跡することにより、鼻、唇、顎先、及び頬のうちの少なくとも1つを含む顔の下部特徴のランドマーク位置419を生成する。顎先及び頬の周囲のシルエットを検出することの多くの利点のうちの1つとして、顎及び頬の動きを明確に撮影できることがあげられる。それはまた、カメラに対する頭部位置のロバストな追跡にも役立ち、これは唇追跡では容易なことではない。
Similarly, the lower part of
FEパラメータ生成器422は、ランドマーク位置415及び419と、深度カメラからの3D深度マップとを受信する。FEパラメータ生成器422は、図6を参照して以下に詳細に説明する通り、キャリブレーションプロセス中に得られる個人化3D表情モデルのモデルを記憶する。FEパラメータ生成器422はまた、図7を参照して以下に詳細に説明する通り、ランドマーク位置415及び419と3D深度マップを3D表情モデルのモデルにフィッティングすることにより、HMD102を装着するユーザの表情を総合的に示す表情(FE)パラメータ424を抽出する。
The
アプリケーションモジュール440は、FEパラメータ424の形式での検出表情に基づき、種々のオペレーションを実施する。アプリケーションモジュール440には、数ある要素の中でも特に、マッピングモジュール442と、グラフィック表現ストレージ446と、仮想現実(VR)/拡張現実(AR)モジュール448とが含まれてもよい。グラフィック表現ストレージ446は、ユーザの1つ以上のデジタル表現を記憶する。マッピングモジュール442は、グラフィック表現ストレージ446からユーザのデジタル表現を検索し、受信されたユーザのデジタル表現にFEパラメータ424(例えば、ブレンドシェイプウェイト値)をリアルタイムで転写することにより、VR/ARモジュール448において使用するデータを生成する。
The
VR/ARモジュール448は、FEパラメータ424(例えば、ブレンドシェイプ)に従って、又は、転写されたブレンドシェイプウェイトとユーザのデジタル表現の表現パラメータ空間との間のセマンティック・マッピング関数に基づき、ユーザの3Dグラフィック表現を生成してもよい。VR/ARモジュール448は、表情に基づく、例えば、ソーシャルネットワーキングサービス、ゲーム、オンラインショッピング、ビデオ通話、及びヒューマン・マシン・インターフェースなどの種々のサービスを実施するソフトウェアモジュールの一部であってもよく、又はこれらと連携して動作してもよい。
The VR/
表情検出モジュール410及びアプリケーションモジュール440がソフトウェアモジュールとして実現されるものとして図4に示されているが、これらのモジュールは、集積回路(IC)構成要素として実現されてもよい。
表情検出プロセス
Although facial
Facial expression detection process
図6は、一実施形態に係る、ユーザのデジタル表現における表情を使用するプロセス全体を示すフローチャートである。まず、ユーザがHMD102を装着した後、キャリブレーションが実施される(606)。一実施形態において、オンラインキャリブレーションプロセスを使用して、HMD102のユーザのための個人化追跡モデルを構築する。キャリブレーション中、2Dカメラ104及び/又は深度カメラ105が複数の深度画像及び2Dカラー画像又は赤外線画像を撮影している間の所定時間(例えば、数秒間)、ユーザは無表情の顔ポーズを保つ。
FIG. 6 is a flowchart illustrating the overall process of using facial expressions in a user's digital representation, according to one embodiment. First, after the user wears the
表情検出モジュール410は、キャリブレーションプロセスの一部として、これらの画像を受信し、3D体積測定モデル作成プロセスを適用することにより、関連付けられた顔色情報を備えた、顔の下半分についての平滑化3D体積測定顔メッシュを作成する。平滑化3D体積測定顔メッシュを作成するプロセスは、当分野において周知である(例えば、Richard A. Newcombeらによる「KinectFusion:Real−time Dense Surface Mapping and Tracking」Mixed and augmented reality(ISMAR)、2011年第10回IEEE国際シンポジウム、2011年を参照のこと。その内容全体を参照としてここに援用する)。表情検出モジュール410はまた、目領域画像と顔下部画像とに2Dランドマーク検出を実施することにより、目、目のライン、眉のライン、唇のライン、鼻のライン、及び顔のシルエット(例えば、顎先及び頬のライン)の中心及び周囲を探し出す。表情検出モジュール410は、複数の撮影画像に亘って2Dランドマークを平均化することにより、2Dランドマーク検出においてノイズとなるアーティファクトを低減する。FEパラメータ生成器422は、3D体積測定顔メッシュと2D画像における2D顔ランドマーク位置とを使用して、(i)テンプレート無表情モデルの剛性ポーズを推定した後、(ii)無表情の線形主成分分析(PCA)モデルを歪ませて、体積測定メッシュと2Dランドマークとをフィットさせることにより、個人化無表情モデルを構築する。
The facial
具体的には、FEパラメータ生成器422は、個人化無表情モデルMの線形PCAモーフィングバージョンを利用し、以下の式を使用して、ワールド座標における顔メッシュWを表す。
Specifically, the
式中、wはモーフィングモデルに対する線形重みづけベクトルを表し、Rは回転行列であり、tは変換ベクトルである。FEパラメータ生成器422は、以下のエネルギー項を最小化することにより、反復的にw及び(R、t)を求める。
In the formula, w represents a linear weighting vector for the morphing model, R is a rotation matrix, and t is a transformation vector. The
式中、α、β、γは、フィッティング項についての重みづけを表す。Cplは、式(4)に規定される通り、体積測定メッシュVと顔メッシュWとの間の点−面誤差を最小化するためのフィッティング項である。Cmは、式(5)に規定される通り、口、鼻、及びシルエットの2D顔特徴ランドマークと顔メッシュWにおいて対応する頂点との間の点−点誤差を最小化するフィッティング項である。Crは、式(6)に規定の通り、右目領域の2D顔特徴ランドマークと顔メッシュWにおいて対応する頂点との間の点−点誤差を最小化するフィッティング項である。Clは、式(7)に規定される通り、左目領域の2D顔特徴ランドマークと顔メッシュWにおいて対応する頂点との間の点−点誤差を最小化するフィッティング項である。Cplは、以下の通り、規定される。 In the formula, α, β, and γ represent weighting for the fitting term. C pl is a fitting term for minimizing the point-to-face error between the volumetric mesh V and the face mesh W, as defined by equation (4). C m is a fitting term that minimizes the point-to-point error between the 2D facial feature landmarks of the mouth, nose, and silhouette and the corresponding vertices in the face mesh W, as defined in equation (5). .. C r is a fitting term that minimizes the point-to-point error between the 2D facial feature landmark in the right eye region and the corresponding vertex in the face mesh W, as defined in equation (6). C l is a fitting term that minimizes the point-to-point error between the 2D facial feature landmark in the left eye region and the corresponding vertex in the face mesh W, as defined in equation (7). C pl is defined as follows.
式中、νiは顔メッシュWのi番目の頂点であり、は、体積測定メッシュV上のνiの最も近い点であり、niは、体積測定メッシュV上のνiにおける面法線である。Cmは、以下の通り、規定される。 Where v i is the i-th vertex of the face mesh W, is the closest point of v i on the volumetric mesh V, and n i is the surface normal at v i on the volumetric mesh V. Is. C m is defined as follows.
式中、ujは、追跡された2D顔特徴の位置であり、πm(νj)は、ユーザの口、鼻、及びシルエットの周辺のカメラ空間への対応メッシュ頂点νjの投影である。Crは、以下の通り、規定される。 Where u j is the position of the tracked 2D facial feature and π m (ν j ) is the projection of the corresponding mesh vertex ν j onto the camera space around the user's mouth, nose and silhouette. .. Cr is defined as follows.
式中、ujは、追跡された2D顔特徴の位置であり、πr(νj)は、対応するメッシュ頂点νjの右目領域のカメラ空間への投影である。Clは、以下の通り、規定される。 Where u j is the position of the tracked 2D facial feature and π r (ν j ) is the projection of the corresponding mesh vertex ν j into the camera space of the right eye region. C l is defined as follows.
式中、ujは、追跡された2D顔特徴の位置であり、πl(νj)は、対応するメッシュ頂点νjの左目領域のカメラ空間への投影である。 Where u j is the position of the tracked 2D facial feature and π l (ν j ) is the projection of the corresponding mesh vertex ν j into the camera space of the left eye region.
個人化無表情メッシュが構築された後、当分野で周知の通り、テンプレートフェイスの表現ブレンドシェイプからの変形を、変形転写を用いて転写することにより、個人化表情モデル(ブレンドシェイプモデル)が得られる。変形転写を用いて表現ブレンドシェイプからの変形を転写する一例としての方法については、例えば、Robert W.Sumnerらによる「Deformation transfer for triangle meshes」ACM Transactions on Graphics(TOG)23.3(2004年)399〜405頁に記載されている。或いは、顔のジオメトリの広がり、同一性、及び表情をマルチランクデータテンソルに符号化する双線形顔モデルを適用することにより、個人化表情モデルを得ることができる。双線形顔モデルを適用して個人化表情モデルを構築する一例としての方法は、例えば、Chen Caoらによる「Displaced dynamic expression regression for real−time facial tracking and animation」ACM Transactions on Graphics(TOG)33.4(2014年)に記載されている。この内容全体を参照としてここに援用する。 After the personalized expressionless mesh is constructed, the transformation from the template face's expression blend shape is transferred using transformation transfer to obtain a personalized expression model (blend shape model), as is well known in the art. To be For an exemplary method of transferring deformation from an expression blend shape using deformation transfer, see, eg, Robert W. Sumner et al., "Deformation transfer for triangle meshes," ACM Transactions on Graphics (TOG) 23.3 (2004), pages 399-405. Alternatively, a personalized facial expression model can be obtained by applying a bilinear facial model that encodes facial geometry spread, identity, and facial expression into a multi-rank data tensor. An example method of applying a bilinear face model to build a personalized facial expression model is described in, for example, Chen Cao et al. 4 (2014). The entire content of which is incorporated herein by reference.
右目及び左目両方にひとつのカメラだけを使用すれば、Cr及びClは、1つの式に組み合わせられる。 Using only one camera for both the right and left eyes, C r and C l can be combined into one equation.
キャリブレーションを実施した後、図7を参照して以下に詳細に説明する通り、ユーザの顔の特徴の2D画像及び深度画像を追跡及び処理することにより、ユーザの表情を検出する(610)。 After performing the calibration, the facial expression of the user is detected 610 by tracking and processing the 2D image and the depth image of the facial features of the user, as described in detail below with reference to FIG. 7.
その後、ユーザのグラフィック表現に組み込むために、検出された表情をユーザのデジタル表現に適用する(616)。生成されたグラフィック表現は、演算装置108又はネットワーク(例えば、インターネット)を通じて演算装置108と通信する遠隔演算装置により、仮想現実又は拡張現実に表示されてもよい。
The detected facial expression is then applied to the user's digital representation for incorporation into the user's graphical representation (616). The generated graphic representation may be displayed in virtual or augmented reality by the
図7は、一実施形態に係る、表情検出プロセスを示すフローチャートである。まず、図4を参照して以上に詳細に説明した通り、目領域に関連付けられたランドマーク位置422を2D画像から判定する(710)。図4を参照して以上に詳細に説明した通り、IR画像又はRGB画像及び/又は3Dカメラの深度画像を処理することにより、ユーザの顔の下部特徴に関連付けられたランドマーク位置を生成する(720)。
FIG. 7 is a flowchart illustrating a facial expression detection process according to one embodiment. First, as described in detail above with reference to FIG. 4, the
ランドマーク位置(及び任意で3D深度マップデータ)を使用することにより、ユーザの顔全体に対するFEパラメータ424を生成する(730)。一実施形態において、FEパラメータ生成器422は、ランドマーク位置415に基づき、顎の開放、笑み、及び息を吹く様子等の表現を示すように、FEパラメータ424の一部としてブレンドシェイプパラメータを生成する一方で、ランドマーク位置419に基づき、目の開閉及び眉の上下を示すように、FEパラメータ424の一部としてブレンドシェイプパラメータを生成する。
The landmark position (and optionally the 3D depth map data) is used to generate 730
FEパラメータ424を演算するために、追跡されたランドマーク位置415が入力制約として組み合わせられ、この入力制約に基づき、FE表現パラメータにフィッティングが実施される。フィッティングオペレーションは、2つの部分からなってもよい。すなわち、(i)剛性安定化と、(ii)表現パラメータ追跡とである。最適化オペレーションは、剛性ポーズ値とパラメータ値との双方が収束するまで、剛性安定化と表現パラメータ追跡の間で選択的に実施されてもよい。
The tracked
剛性安定化については、顔の剛性ポーズをカメラに対して動かすことができる。ユーザが表情を作るとき、頬の筋肉がヘッドセットを前方且つ上方に押し上げ、カメラに対する相対的な顔の剛性ポーズを経時的に変化させる。ポーズがロックされたとき、剛性的な動きにより、表現パラメータ追跡にアーティファクトを生じるため、無関係な剛性的動きの因子により、不正確なパラメータ値が得られることがある。さらに、ユーザが素早く頭部を動かすとき、ヘッドセットが顔にしっかり装着されていたとしても、顔に対して滑り落ちてしまうことがある。このような状況により、頭部ポーズが固定されているという前提が無効になり、表現追跡にアーティファクトを生じる。ヘッドセットに対する頭部の位置のずれを調整するために、剛性安定化が実施され、ヘッドセット上に剛性固定されたカメラに対する頭部の相対的ポーズを演算する。
For stiffness stabilization, the rigid pose of the face can be moved with respect to the camera. As the user makes facial expressions, the muscles of the cheeks push the headset forward and upward, changing the rigid pose of the face relative to the camera over time. When the pose is locked, stiff movements can cause artifacts in the representation parameter tracking, so unrelated stiff movement factors can result in inaccurate parameter values. Furthermore, when the user moves his head quickly, he or she may slip off the face, even if the headset is firmly attached to the face. Such a situation invalidates the assumption that the head pose is fixed, resulting in artifact tracking artifacts. Rigidity stabilization is performed to adjust the offset of the position of the head with respect to the headset and computes the relative pose of the head with respect to a camera rigidly fixed on the headset.
一実施形態において、頭部の初期剛性ポーズを判定するために、キャリブレーション段階において剛性反復最近接点(ICP)アルゴリズムが使用される。しかしながら、追跡モードへの切り替え後、初期剛性ポーズは、ヘッドセットに対する頭部の相対的な動きを調整するように限定的範囲での摂動を許容されたアンカーとして使用される。剛性ICPはまた、特に、ユーザがHMDを外し、それを再び装着した後に、HMDからの頭部ポーズのオフセットを考慮して頭部の初期剛性ポーズを判定するために、追跡モードの開始時にいくつかの画像フレームに対して実施されてもよい。その後、剛性ICPを再び実施することにより、剛性ポーズが再初期化される。初期剛性ポーズが判定された後、追跡されたランドマーク位置と入力された深度マップとを入力制約として使用しつつ、回転のヨー、ロール、ピッチと変換x、y、zの値が初期剛性ポーズの所与の限度を超えて外れることがないように、制約を追加して剛性ICPが実施されてもよい。 In one embodiment, a Rigid Iterative Closest Point (ICP) algorithm is used in the calibration phase to determine the initial rigid pose of the head. However, after switching to tracking mode, the initial rigid pose is used as an anchor that is perturbed to a limited extent to adjust the relative movement of the head with respect to the headset. The Stiffness ICP also determines how many at the beginning of the tracking mode, especially after the user has removed the HMD and put it back on, to determine the initial stiffness pose of the head considering the offset of the head pose from the HMD. It may be performed for any image frame. The rigid pose is then re-initialized by performing the rigid ICP again. After the initial stiffness pose is determined, the yaw, roll, and pitch of the rotation and the x, y, z values of the rotation are used as the input constraint while using the tracked landmark position and the input depth map. A rigid ICP may be implemented with additional constraints such that it does not exceed a given limit of
FEパラメータ424を得るために、ランドマーク位置415及び419(及び3Dカメラが使用される場合には深度マップ)に基づき、個人化追跡モデルにフィッティングが実施される。キャリブレーションプロセスのように、撮影カメラは、ヘッドセットに剛性的に固定されると想定され、それらの相対的ポーズ(すなわち、回転及び変換)におけるパラメータが既知であると想定される。FEパラメータ生成器422は、ランドマーク位置415及び419(及び3Dカメラが使用される場合には深度マップ)に基づき、FE表現パラメータを取得するために、フィッティングオペレーションを実施してもよい。
A fitting is performed on the personalized tracking model based on the landmark positions 415 and 419 (and the depth map if a 3D camera is used) to obtain the
個人化線形モデルは、個人化無表情モデルMから導き出された一組の表情形状(例えば、笑顔と顎の開放)である。一実施形態において、FEパラメータ生成器422は、フィッティング最適化を実施するためのワールド座標における式(8)に示される通り、個人化線形表現モデル(すなわち、ブレンドシェイプモデル)Bを利用して顔メッシュWを表す。
The personalized linear model is a set of facial expression shapes (for example, a smile and open jaw) derived from the personalized expressionless model M. In one embodiment, the
式中、eはブレンドシェイプモデルのための線形重みづけベクトルであり、Rは回転行列であり、tは剛性安定化ステップから演算された変換ベクトルである。FEパラメータ生成器422における追跡プロセスでは、以下のエネルギー項を最小化することにより、最適なeを反復的にみつける。
Where e is the linear weighting vector for the blend shape model, R is the rotation matrix, and t is the transformation vector calculated from the stiffness stabilization step. The tracking process in
式中、α、β、γはフィッティング項についての重みづけを表し、C* plは、式(10)で規定される通り、深度マップと顔メッシュWとの間の点−面誤差を最小化するフィッティング項である。C* mは、式(11)で規定される通り、口、鼻、シルエットの2D顔特徴ランドマークと顔のメッシュWの対応頂点との間の点−点誤差を最小化するフィッティング項である。C* rは、式(12)で規定される通り、右目領域の2D顔特徴ランドマークと顔メッシュWの対応頂点との間の点−点誤差を最小化するフィッティング項である。C* lは、式(13)で規定される通り、左目領域の2D顔特徴ランドマークと顔メッシュWの対応頂点との間の点−点誤差を最小化するフィッティング項である。C* plは、以下の通り、規定される。 Where α, β, and γ represent weighting for the fitting terms, and C * pl minimizes the point-to-face error between the depth map and the face mesh W, as defined by equation (10). Is a fitting term that C * m is a fitting term that minimizes the point-to-point error between the 2D facial feature landmarks of the mouth, nose, and silhouette and the corresponding vertices of the face mesh W, as defined by equation (11). .. C * r is a fitting term that minimizes the point-to-point error between the 2D facial feature landmark in the right eye region and the corresponding vertex of the face mesh W, as defined by equation (12). C * l is a fitting term that minimizes the point-to-point error between the 2D facial feature landmark in the left eye region and the corresponding vertex of the face mesh W, as defined by equation (13). C * pl is defined as follows.
式中、νiは顔メッシュWのi番目の頂点であり、piはνiと同一のカメラ空間座標である深度マップ上の点であり、niはpiにおける面法線である。C* mは、以下の通り、規定される。 In the formula, ν i is the i-th vertex of the face mesh W, p i is a point on the depth map that is the same camera space coordinate as ν i, and n i is the surface normal at p i . C * m is defined as follows.
式中、ujは追跡された2D顔特徴の位置であり、πm(νj)は対応メッシュ頂点νjの口カメラ空間への投影である。C* rは、以下の通り、規定される。 Where u j is the position of the tracked 2D facial feature and π m (ν j ) is the projection of the corresponding mesh vertex ν j into the mouth camera space. C * r is defined as follows.
式中、ujは追跡された2D顔特徴の位置であり、πr(νj)は対応メッシュ頂点νjの右目領域のカメラ空間への投影である。C* lは、以下の通り、規定される。 Where u j is the position of the tracked 2D facial feature and π r (ν j ) is the projection of the corresponding mesh vertex ν j into the camera space of the right eye region. C * l is defined as follows.
式中、ujは追跡された2D顔特徴の位置であり、πl(νj)は対応メッシュ頂点νjの左目領域のカメラ空間への投影である。右目及び左目の双方に対して1つのみのカメラが使用される場合、Cr及びClは、1つの式に組み合わせられる。 Where u j is the position of the tracked 2D facial feature and π l (ν j ) is the projection of the corresponding mesh vertex ν j into the camera space of the left eye region. If only one camera is used for both the right and left eyes, then C r and C l are combined into one equation.
一実施形態において、FEパラメータ生成器422は、検出されたユーザの表情を総合的に示すFEパラメータを追跡プロセスの結果として生成しながら、式(8)中、eで表されるブレンドシェイプウェイト値を出力する。
In one embodiment, the
1つ以上の実施形態において、図7のステップは、リアルタイムで実施され、カメラから受信した画像402及び404の各セットを処理してもよい。さらに、図7に示されるステップ及びステップのシーケンスは、単なる例示である。例えば、ランドマーク位置を判定するステップ710と、3D深度マップデータを判定するステップ720とは、逆の順序で実施することもでき、また並列に実施することもできる。
In one or more embodiments, the steps of Figure 7 may be performed in real time to process each set of
本明細書中、本発明の特定の実施形態及び適用について図示及び説明したが、本発明は、本明細書に開示の精密な構成及び構成要素に限定されるものでなく、本発明の方法及び装置の配置、オペレーション、及び詳細において、添付のクレームによって規定される本発明の主旨及び範囲から逸脱することなく、種々の修正、変更、及び変化が加えられてもよいことが理解されなければならない。 While particular embodiments and applications of the present invention have been illustrated and described herein, the present invention is not limited to the precise constructions and components disclosed herein, but rather the methods and methods of the present invention. It should be understood that various modifications, changes, and variations in the arrangement, operation, and details of the device may be made without departing from the spirit and scope of the invention as defined by the appended claims. ..
Claims (17)
ヘッドマウントディスプレイの主要本体上の第1画像撮影装置により、ユーザの目領域を含む前記ユーザの顔の上部の第1画像を撮影することと、
前記ヘッドマウントディスプレイの前記主要本体から前記ユーザの顔の下部に向かって下方に伸びる伸張部材上の第2画像撮影装置により、前記ユーザの顔の前記下部を含む前記ユーザの第2画像を撮影することと、
前記第1画像及び前記第2画像を処理することにより、前記ユーザの表情を表す表情パラメータを抽出することと、を備え、
前記第1画像及び前記第2画像の処理では、剛性安定化を実行し、前記第1画像撮影装置及び前記第2画像撮影装置に対する前記ユーザの顔の相対的なポーズを決定する方法。 A facial expression detection method,
Capturing a first image of the top of the user's face, including the user's eye area, with a first image capture device on the main body of the head-mounted display;
A second image capturing device on the extension member extending downward from the main body of the head mounted display toward the lower portion of the user's face captures a second image of the user including the lower portion of the user's face. That
Extracting a facial expression parameter representing the facial expression of the user by processing the first image and the second image.
A method of performing rigidity stabilization in the processing of the first image and the second image to determine a relative pose of the face of the user with respect to the first image capturing device and the second image capturing device.
前記第1画像から、前記ユーザの目及び前記ユーザの眉に関連付けられたランドマーク位置を検出することと、
前記第2画像から、前記ユーザの顔の下部に関連付けられたランドマーク位置を検出することと、を備える請求項1に記載の方法。 Processing the first image and the second image includes
Detecting landmark positions associated with the user's eyes and the user's eyebrows from the first image;
Detecting a landmark position associated with the lower portion of the user's face from the second image.
前記キャリブレーション画像に基づき、個人化無表情メッシュを生成することと、
変形転写技術を前記個人化無表情メッシュに適用することにより、個人化追跡モデルを構築することと、を備え、
前記第1画像及び前記第2画像の前記処理は、前記個人化追跡モデルに基づき、少なくとも1つのブレントシェイプモデルを前記第1画像及び前記第2画像におけるランドマーク位置にフィッティングすることにより、前記表情パラメータを得ることを備える請求項5に記載の方法。 Performing the calibration is
Generating a personalized expressionless mesh based on the calibration image;
Constructing a personalized tracking model by applying a deformation transfer technique to the personalized expressionless mesh,
The processing of the first image and the second image is performed by fitting at least one Brent shape model to a landmark position in the first image and the second image based on the personalized tracking model to obtain the facial expression. The method of claim 5, comprising obtaining a parameter.
目領域を含むユーザの顔の上部を示す第1画像を撮影するように構成された本体上の第1画像撮影装置と、
前記ユーザの顔の下部を示す第2画像を撮影するように構成され、前記本体から下方に延伸した伸張部材又は前記本体に搭載された第2画像撮影装置と、
剛性安定化を実施し、前記第1画像撮影装置及び前記第2画像撮影装置に対するユーザの顔の相対的なポーズを決定することで生成された画像を前記ユーザに表示するように構成された前記本体上の表示装置と、
前記本体と、
を備えるヘッドマウントディスプレイユニット。 A head mounted display,
A first image capture device on the body configured to capture a first image showing an upper portion of the user's face including the eye region;
Is configured to capture a second image showing the bottom of the face of the user, and the second image capturing device mounted on elongate members or the main body was stretched downwardly from said body,
Wherein the image is generated by performing stiffness stabilization and determining a relative pose of the user's face with respect to the first image capture device and the second image capture device and displaying the image to the user. A display device on the main body,
The main body,
Head mounted display unit.
目領域を含むユーザの顔の上部の第1画像を撮影するように構成された第1画像撮影装置と、
前記第1画像撮影装置の下方位置に設けられ、前記ユーザの顔の下部の第2画像を撮影するように構成された第2画像撮影装置と、
画像を前記ユーザに表示するように構成された表示装置と、
前記第1画像撮影装置、及び前記表示装置を搭載するように構成された本体と、
前記本体から前記ユーザの顔の前記下部に向かって伸びた伸張部材と、
を備え、
前記第2画像撮影装置は前記本体又は前記伸張部材に搭載されるヘッドマウントディスプレイユニットと、
前記ヘッドマウントディスプレイユニットに通信可能に連結される演算装置と、
を備え、
前記演算装置は、
前記ヘッドマウントディスプレイユニットから前記第1画像及び前記第2画像を受信し、
剛性安定化に基づき個人化無表情メッシュを生成し、前記個人化無表情メッシュに変形転写技術を適用することで個人化追跡モデルを構築することにより、キャリブレーションを実施し、
前記個人化追跡モデルに基づき、前記第1画像及び前記第2画像内のランドマーク位置に少なくともブレンドシェイプモデルをフィッティングすることにより、前記第1画像及び前記第2画像を処理して、前記ユーザの表情を表す表情パラメータを得る仮想現実又は拡張現実システム。 A virtual or augmented reality system,
A first image capture device configured to capture a first image of an upper portion of the user's face including the eye region;
A second image capturing device that is provided below the first image capturing device and is configured to capture a second image of the lower part of the user's face;
A display device configured to display an image to the user,
A main body configured to mount the first image capturing device and the display device;
An extension member extending from the body toward the lower portion of the user's face,
Equipped with
The second image capturing device includes a head mount display unit mounted on the main body or the extension member,
A computing device communicatively coupled to the head mounted display unit,
Equipped with
The arithmetic unit is
Receiving the first image and the second image from the head mounted display unit,
Calibration is performed by generating a personalized expressionless mesh based on stiffness stabilization and applying a deformation transfer technique to the personalized expressionless mesh to build a personalized tracking model,
The first image and the second image are processed by fitting at least the blend shape model to the landmark positions in the first image and the second image based on the personalized tracking model to process the first image of the user. A virtual reality or augmented reality system that obtains facial expression parameters that represent facial expressions.
前記第1画像から、前記ユーザの目及び前記ユーザの眉に関連付けられたランドマーク位置を検出し、
前記第2画像から、前記ユーザの顔の前記下部に関連付けられたランドマーク位置を検出するように構成される請求項16に記載の仮想現実又は拡張現実システム。 The arithmetic unit is
Detecting landmark positions associated with the user's eyes and the user's eyebrows from the first image;
The virtual reality or augmented reality system of claim 16, configured to detect a landmark position associated with the lower portion of the user's face from the second image.
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562234478P | 2015-09-29 | 2015-09-29 | |
US62/234,478 | 2015-09-29 | ||
US201662337261P | 2016-05-16 | 2016-05-16 | |
US62/337,261 | 2016-05-16 | ||
PCT/US2016/053821 WO2017058733A1 (en) | 2015-09-29 | 2016-09-26 | Head-mounted display with facial expression detecting capability |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018538593A JP2018538593A (en) | 2018-12-27 |
JP6742405B2 true JP6742405B2 (en) | 2020-08-19 |
Family
ID=58406374
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2018517321A Active JP6742405B2 (en) | 2015-09-29 | 2016-09-26 | Head-mounted display with facial expression detection function |
Country Status (6)
Country | Link |
---|---|
US (2) | US10089522B2 (en) |
JP (1) | JP6742405B2 (en) |
KR (1) | KR102136241B1 (en) |
CN (1) | CN108140105A (en) |
DE (1) | DE112016004437T5 (en) |
WO (1) | WO2017058733A1 (en) |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3186787A1 (en) * | 2014-08-29 | 2017-07-05 | Thomson Licensing | Method and device for registering an image to a model |
US10459232B2 (en) * | 2014-10-21 | 2019-10-29 | Koninklijke Philips N.V. | Augmented reality patient interface device fitting apparatus |
DE102016110903A1 (en) * | 2015-06-14 | 2016-12-15 | Facense Ltd. | Head-mounted devices for measuring physiological reactions |
US10276210B2 (en) | 2015-11-18 | 2019-04-30 | International Business Machines Corporation | Video enhancement |
JP2017097645A (en) * | 2015-11-25 | 2017-06-01 | ソニー株式会社 | Information processing device, information processing method, and program |
US10684674B2 (en) * | 2016-04-01 | 2020-06-16 | Facebook Technologies, Llc | Tracking portions of a user's face uncovered by a head mounted display worn by the user |
JP2017202038A (en) * | 2016-05-10 | 2017-11-16 | 富士通株式会社 | Discrimination device, discrimination method, and discrimination program |
WO2018089691A1 (en) | 2016-11-11 | 2018-05-17 | Magic Leap, Inc. | Periocular and audio synthesis of a full face image |
JP6969577B2 (en) * | 2017-01-20 | 2021-11-24 | ソニーグループ株式会社 | Information processing equipment, information processing methods, and programs |
US11042729B2 (en) * | 2017-05-01 | 2021-06-22 | Google Llc | Classifying facial expressions using eye-tracking cameras |
US10636193B1 (en) * | 2017-06-29 | 2020-04-28 | Facebook Technologies, Llc | Generating graphical representation of a user's face and body using a monitoring system included on a head mounted display |
US10636192B1 (en) | 2017-06-30 | 2020-04-28 | Facebook Technologies, Llc | Generating a graphical representation of a face of a user wearing a head mounted display |
CN107590430A (en) * | 2017-07-26 | 2018-01-16 | 百度在线网络技术(北京)有限公司 | Biopsy method, device, equipment and storage medium |
CN107886558A (en) * | 2017-11-13 | 2018-04-06 | 电子科技大学 | A kind of human face expression cartoon driving method based on RealSense |
JP2019106045A (en) * | 2017-12-13 | 2019-06-27 | キヤノン株式会社 | Image processing device, method, and program |
US10586370B2 (en) | 2018-01-08 | 2020-03-10 | Facebook Technologies, Llc | Systems and methods for rendering avatars with deep appearance models |
WO2019156651A1 (en) | 2018-02-06 | 2019-08-15 | Hewlett-Packard Development Company, L.P. | Constructing images of users' faces by stitching non-overlapping images |
CN108256505A (en) * | 2018-02-12 | 2018-07-06 | 腾讯科技(深圳)有限公司 | Image processing method and device |
WO2019162842A1 (en) * | 2018-02-20 | 2019-08-29 | Hike Private Limited | A system and a method for customizing an image based on facial expressions |
CN108446609B (en) * | 2018-03-02 | 2022-03-11 | 南京邮电大学 | Multi-angle facial expression recognition method based on generation countermeasure network |
JP7344894B2 (en) * | 2018-03-16 | 2023-09-14 | マジック リープ, インコーポレイテッド | Facial expressions from eye-tracking cameras |
US11210832B2 (en) | 2018-04-24 | 2021-12-28 | Hewlett-Packard Development Company, L.P. | Animated gazes on head mounted displays |
US10650563B2 (en) | 2018-07-26 | 2020-05-12 | BinaryVR, Inc. | Tongue position tracking for facial animation |
CN110866864A (en) | 2018-08-27 | 2020-03-06 | 阿里巴巴集团控股有限公司 | Face pose estimation/three-dimensional face reconstruction method and device and electronic equipment |
TW202014992A (en) | 2018-10-08 | 2020-04-16 | 財團法人資訊工業策進會 | System and method for simulating expression of virtual facial model |
CN111127537A (en) | 2018-10-29 | 2020-05-08 | 托比股份公司 | Method and apparatus for detecting shadows in a head mounted device |
US10529113B1 (en) * | 2019-01-04 | 2020-01-07 | Facebook Technologies, Llc | Generating graphical representation of facial expressions of a user wearing a head mounted display accounting for previously captured images of the user's facial expressions |
US20220128813A1 (en) * | 2019-06-07 | 2022-04-28 | Hewlett-Packard Development Company, L.P. | Eye movement controls in extended reality |
US11301677B2 (en) * | 2019-06-14 | 2022-04-12 | Tobil AB | Deep learning for three dimensional (3D) gaze prediction |
US10885693B1 (en) * | 2019-06-21 | 2021-01-05 | Facebook Technologies, Llc | Animating avatars from headset cameras |
EP3973697A4 (en) | 2019-07-26 | 2023-03-15 | Hewlett-Packard Development Company, L.P. | Modification of projected structured light based on identified points within captured image |
JP7295045B2 (en) * | 2020-01-16 | 2023-06-20 | 株式会社コロプラ | Programs, computer implemented methods and computers |
WO2021187647A1 (en) * | 2020-03-20 | 2021-09-23 | 라인플러스 주식회사 | Method and system for expressing avatar imitating user's motion in virtual space |
EP4150520A4 (en) * | 2020-05-15 | 2024-05-22 | Cornell University | Wearable devices for facial expression recognition |
EP3934268A4 (en) * | 2020-05-21 | 2022-01-26 | Baidu Online Network Technology (Beijing) Co., Ltd. | User interaction method and apparatus, and device and medium |
CN111709302B (en) * | 2020-05-21 | 2023-08-25 | 青岛小鸟看看科技有限公司 | Facial expression detection method and device, head-mounted display equipment and storage medium |
CN111885343B (en) * | 2020-07-31 | 2022-06-14 | 中国工商银行股份有限公司 | Feature processing method and device, electronic equipment and readable storage medium |
CN114125193A (en) * | 2020-08-31 | 2022-03-01 | 安霸国际有限合伙企业 | Timing mechanism for contaminant free video streaming using RGB-IR sensors with structured light |
US20230368574A1 (en) * | 2020-10-02 | 2023-11-16 | Hewlett-Packard Development Company, L.P. | User identification via extended reality image capture |
US20230393406A1 (en) * | 2020-10-30 | 2023-12-07 | Hewlett-Packard Development Company, L.P. | Digitising drawings |
US20230408830A1 (en) * | 2020-10-30 | 2023-12-21 | Hewlett-Packard Development Company, L.P. | Head mounted display assembly |
US11644890B2 (en) * | 2021-02-11 | 2023-05-09 | Qualcomm Incorporated | Image capturing in extended reality environments |
US11614345B2 (en) | 2021-06-16 | 2023-03-28 | Microsoft Technology Licensing, Llc | Surface sensing via resonant sensor |
WO2022271499A1 (en) * | 2021-06-25 | 2022-12-29 | Innopeak Technology, Inc. | Methods and systems for depth estimation using fisheye cameras |
US11977979B2 (en) * | 2021-07-23 | 2024-05-07 | Qualcomm Incorporated | Adaptive bounding for three-dimensional morphable models |
US11670059B2 (en) | 2021-09-01 | 2023-06-06 | Snap Inc. | Controlling interactive fashion based on body gestures |
US11673054B2 (en) | 2021-09-07 | 2023-06-13 | Snap Inc. | Controlling AR games on fashion items |
US11900506B2 (en) * | 2021-09-09 | 2024-02-13 | Snap Inc. | Controlling interactive fashion based on facial expressions |
US11734866B2 (en) | 2021-09-13 | 2023-08-22 | Snap Inc. | Controlling interactive fashion based on voice |
US11636662B2 (en) | 2021-09-30 | 2023-04-25 | Snap Inc. | Body normal network light and rendering control |
US11983826B2 (en) | 2021-09-30 | 2024-05-14 | Snap Inc. | 3D upper garment tracking |
US11651572B2 (en) | 2021-10-11 | 2023-05-16 | Snap Inc. | Light and rendering of garments |
US20230266589A1 (en) * | 2022-02-23 | 2023-08-24 | Qualcomm Incorporated | Adjustable camera system |
US20240029331A1 (en) * | 2022-07-22 | 2024-01-25 | Meta Platforms Technologies, Llc | Expression transfer to stylized avatars |
GB2621868A (en) * | 2022-08-25 | 2024-02-28 | Sony Interactive Entertainment Inc | An image processing method, device and computer program |
CN116704572B (en) * | 2022-12-30 | 2024-05-28 | 荣耀终端有限公司 | Eye movement tracking method and device based on depth camera |
Family Cites Families (29)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH01196366A (en) * | 1988-02-02 | 1989-08-08 | Mitsubishi Electric Corp | Printing head control device |
KR200145873Y1 (en) * | 1996-12-30 | 1999-06-15 | 전주범 | Headphone having a camera and microphone therein for capturing a facial expression in a 3 dimension model-based coding system |
US6121953A (en) * | 1997-02-06 | 2000-09-19 | Modern Cartoons, Ltd. | Virtual reality system for sensing facial movements |
JP3771989B2 (en) * | 1997-03-24 | 2006-05-10 | オリンパス株式会社 | Image / audio communication system and videophone transmission / reception method |
WO1999023524A1 (en) * | 1997-10-30 | 1999-05-14 | The Microoptical Corporation | Eyeglass interface system |
US6774869B2 (en) * | 2000-12-22 | 2004-08-10 | Board Of Trustees Operating Michigan State University | Teleportal face-to-face system |
US7949616B2 (en) * | 2004-06-01 | 2011-05-24 | George Samuel Levy | Telepresence by human-assisted remote controlled devices and robots |
US8488023B2 (en) * | 2009-05-20 | 2013-07-16 | DigitalOptics Corporation Europe Limited | Identifying facial expressions in acquired digital images |
JP5362357B2 (en) * | 2005-08-26 | 2013-12-11 | ソニー株式会社 | Capture and process facial movement data |
US7606392B2 (en) * | 2005-08-26 | 2009-10-20 | Sony Corporation | Capturing and processing facial motion data |
JP4756589B2 (en) * | 2005-12-07 | 2011-08-24 | ソニー株式会社 | Image processing apparatus and method, program, and recording medium |
TWI365416B (en) * | 2007-02-16 | 2012-06-01 | Ind Tech Res Inst | Method of emotion recognition and learning new identification information |
US9390516B2 (en) * | 2008-09-29 | 2016-07-12 | Two Pic Mc Llc | Asynchronous streaming of data for validation |
KR101527408B1 (en) * | 2008-11-04 | 2015-06-17 | 삼성전자주식회사 | System and method for sensing facial gesture |
JP5446572B2 (en) * | 2009-08-12 | 2014-03-19 | 学校法人近畿大学 | Image generation system, control program, and recording medium |
HU0900696D0 (en) | 2009-11-05 | 2009-12-28 | Holakovszky Laszlo | Binocular display device |
KR101708682B1 (en) * | 2010-03-03 | 2017-02-21 | 엘지전자 주식회사 | Apparatus for displaying image and and method for operationg the same |
EP2613555A3 (en) * | 2012-01-06 | 2014-04-30 | LG Electronics, Inc. | Mobile terminal with eye movement sensor and grip pattern sensor to control streaming of contents |
US9679215B2 (en) * | 2012-01-17 | 2017-06-13 | Leap Motion, Inc. | Systems and methods for machine control |
CN103093490B (en) * | 2013-02-02 | 2015-08-26 | 浙江大学 | Based on the real-time face animation method of single video camera |
US10019057B2 (en) * | 2013-06-07 | 2018-07-10 | Sony Interactive Entertainment Inc. | Switching mode of operation in a head mounted display |
US9104907B2 (en) * | 2013-07-17 | 2015-08-11 | Emotient, Inc. | Head-pose invariant recognition of facial expressions |
CN105637512B (en) * | 2013-08-22 | 2018-04-20 | 贝斯普客公司 | For creating the method and system of customed product |
US9317954B2 (en) * | 2013-09-23 | 2016-04-19 | Lucasfilm Entertainment Company Ltd. | Real-time performance capture with on-the-fly correctives |
US9477878B2 (en) * | 2014-01-28 | 2016-10-25 | Disney Enterprises, Inc. | Rigid stabilization of facial expressions |
US9672416B2 (en) * | 2014-04-29 | 2017-06-06 | Microsoft Technology Licensing, Llc | Facial expression tracking |
CN104778750B (en) * | 2015-04-13 | 2018-12-18 | 北京迪生数字娱乐科技股份有限公司 | A kind of facial expression captures system and implementation method |
US9600742B2 (en) * | 2015-05-05 | 2017-03-21 | Lucasfilm Entertainment Company Ltd. | Determining control values of an animation model using performance capture |
JP6518134B2 (en) * | 2015-05-27 | 2019-05-22 | 株式会社ソニー・インタラクティブエンタテインメント | Pre-worn display device |
-
2016
- 2016-09-26 DE DE112016004437.2T patent/DE112016004437T5/en active Pending
- 2016-09-26 JP JP2018517321A patent/JP6742405B2/en active Active
- 2016-09-26 KR KR1020187012338A patent/KR102136241B1/en active IP Right Grant
- 2016-09-26 CN CN201680054111.8A patent/CN108140105A/en active Pending
- 2016-09-26 US US15/276,674 patent/US10089522B2/en active Active
- 2016-09-26 WO PCT/US2016/053821 patent/WO2017058733A1/en active Application Filing
-
2018
- 2018-08-28 US US16/114,999 patent/US20180365484A1/en not_active Abandoned
Also Published As
Publication number | Publication date |
---|---|
CN108140105A (en) | 2018-06-08 |
KR102136241B1 (en) | 2020-07-22 |
JP2018538593A (en) | 2018-12-27 |
KR20180112756A (en) | 2018-10-12 |
US10089522B2 (en) | 2018-10-02 |
WO2017058733A1 (en) | 2017-04-06 |
DE112016004437T5 (en) | 2018-07-05 |
US20180365484A1 (en) | 2018-12-20 |
US20170091535A1 (en) | 2017-03-30 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6742405B2 (en) | Head-mounted display with facial expression detection function | |
US11796309B2 (en) | Information processing apparatus, information processing method, and recording medium | |
US9348950B2 (en) | Perceptually guided capture and stylization of 3D human figures | |
AU2015348151B2 (en) | Real-time visual feedback for user positioning with respect to a camera and a display | |
EP3274916B1 (en) | Automated three dimensional model generation | |
CN107111753B (en) | Gaze detection offset for gaze tracking models | |
WO2013077076A1 (en) | Expression output device and expression output method | |
JP4950787B2 (en) | Image processing apparatus and method | |
WO2009091029A1 (en) | Face posture estimating device, face posture estimating method, and face posture estimating program | |
CN106997618A (en) | A kind of method that virtual reality is merged with real scene | |
JP7490784B2 (en) | Augmented Reality Map Curation | |
JP2008194146A (en) | Visual line detecting apparatus and its method | |
JP2011053942A (en) | Apparatus, method and program for processing image | |
JP2019046239A (en) | Image processing apparatus, image processing method, program, and image data for synthesis | |
JP4659722B2 (en) | Human body specific area extraction / determination device, human body specific area extraction / determination method, human body specific area extraction / determination program | |
JP6098133B2 (en) | Face component extraction device, face component extraction method and program | |
JP2000268161A (en) | Real time expression detector | |
CN116547719A (en) | Sensor simulation | |
KR101844367B1 (en) | Apparatus and Method for Head pose estimation using coarse holistic initialization followed by part localization | |
JP2021022185A (en) | Image processing device, image processing program, and image processing method | |
JP2016062184A (en) | Moving image generation system, moving image generation device, moving image generation method, and computer program | |
JP2022007839A (en) | Motion measuring device | |
CN113496195A (en) | Face image processing device and face image processing program | |
JP2014099077A (en) | Face component extraction device, face component extraction method, and program |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20180426 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20180426 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20190404 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190528 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190819 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20191224 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200116 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200630 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200728 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6742405 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S111 | Request for change of ownership or part of ownership |
Free format text: JAPANESE INTERMEDIATE CODE: R313113 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |