JP6742405B2 - Head-mounted display with facial expression detection function - Google Patents

Head-mounted display with facial expression detection function Download PDF

Info

Publication number
JP6742405B2
JP6742405B2 JP2018517321A JP2018517321A JP6742405B2 JP 6742405 B2 JP6742405 B2 JP 6742405B2 JP 2018517321 A JP2018517321 A JP 2018517321A JP 2018517321 A JP2018517321 A JP 2018517321A JP 6742405 B2 JP6742405 B2 JP 6742405B2
Authority
JP
Japan
Prior art keywords
image
user
face
camera
capturing device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018517321A
Other languages
Japanese (ja)
Other versions
JP2018538593A (en
Inventor
ジフン チュ
ジフン チュ
チュンウォン パク
チュンウォン パク
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Binaryvr Inc
Original Assignee
Binaryvr Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Binaryvr Inc filed Critical Binaryvr Inc
Publication of JP2018538593A publication Critical patent/JP2018538593A/en
Application granted granted Critical
Publication of JP6742405B2 publication Critical patent/JP6742405B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/174Facial expression recognition
    • G06V40/176Dynamic expression
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/166Detection; Localisation; Normalisation using acquisition arrangements
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/20Image signal generators
    • H04N13/204Image signal generators using stereoscopic image cameras
    • H04N13/239Image signal generators using stereoscopic image cameras using two 2D image sensors having a relative position equal to or related to the interocular distance
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/332Displays for viewing with the aid of special glasses or head-mounted displays [HMD]
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N13/00Stereoscopic video systems; Multi-view video systems; Details thereof
    • H04N13/30Image reproducers
    • H04N13/366Image reproducers using viewer tracking
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • Health & Medical Sciences (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Human Computer Interaction (AREA)
  • Geometry (AREA)
  • Signal Processing (AREA)
  • Computer Graphics (AREA)
  • Software Systems (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)

Description

本開示は、仮想現実又は拡張現実の環境において使用される、ユーザの表情検出のためのヘッドマウントディスプレイユニット全般に関連する。 The present disclosure relates generally to head-mounted display units for user facial expression detection used in virtual or augmented reality environments.

仮想現実(VR)及び拡張現実(AR)は、没入型リアルライフ経験をさせることを可能にすることから、ゲーム、教育、医療、及びソーシャルネットワーキングサービス等の適用における新興分野となっている。これらの適用の一部として、ユーザが表示装置に表示された自身の3D表現(例えば、アバター)を通じて他のユーザと関わることができるようにするソーシャルプラットフォームがある。ユーザが仮想現実又は拡張現実を通じて他のユーザと交流できるようにすることにより、これらの適用におけるユーザの経験を向上させることができる。 Virtual Reality (VR) and Augmented Reality (AR) are emerging fields in applications such as gaming, education, healthcare, and social networking services, as they enable immersive real life experiences. Part of these applications are social platforms that allow users to interact with other users through their 3D representation (eg, avatar) displayed on a display device. Allowing the user to interact with other users through virtual or augmented reality can enhance the user's experience in these applications.

人同士の交流において、表情は、個人の感情状態について、他者に多くの情報を伝達する。ユーザ間の交流をより豊かなものとするために、ユーザの3D表現は、ユーザの表情を示すように開発されてもよい。このようにして、VR又はAR環境において、ユーザの心的状態についてより多くの情報を他のユーザに効果的に伝えることができる。 In human interaction, facial expressions convey a lot of information to others about their emotional state. In order to enrich the interaction between users, the user's 3D representation may be developed to show the user's facial expressions. In this way, more information about the user's mood can be effectively communicated to other users in a VR or AR environment.

本願は、2015年9月29日出願の米国仮特許出願シリアル番号62/234,478号及び2016年5月16日出願の米国仮特許出願シリアル番号62/337,261号に対する米国特許法第119条(e)に基づく優先権を主張するものであり、その内容全体を参照としてここに援用する。 This application is directed to US provisional patent application serial number 62/234,478 filed September 29, 2015 and US provisional patent application serial number 62/337,261 filed May 16, 2016. Claims priority under section (e), the entire contents of which are incorporated herein by reference.

実施形態は、ヘッドマウントディスプレイを使用した表情検出に関連する。第1画像は、ヘッドマウントディスプレイ上の第1画像撮影装置により撮影される。第1画像は、ユーザの顔の上部を含む。第2画像は、ヘッドマウントディスプレイ上の第2画像撮影装置により撮影される。第2画像は、ユーザの顔の下部を含む。第1画像及び第2画像を処理することにより、ユーザの表情を表す表情パラメータを抽出する。 Embodiments relate to facial expression detection using a head mounted display. The first image is captured by the first image capturing device on the head mounted display. The first image includes the top of the user's face. The second image is captured by the second image capturing device on the head mounted display. The second image includes the lower part of the user's face. By processing the first image and the second image, facial expression parameters representing the facial expression of the user are extracted.

一実施形態において、第1画像撮影装置は、一対の赤外線カメラを備える。第2画像撮影装置は、深度カメラ、カラーカメラ、赤外線カメラ、又は2つの立体カメラ、のうちの1つを備える。 In one embodiment, the first image capturing device includes a pair of infrared cameras. The second image capturing device includes one of a depth camera, a color camera, an infrared camera, or two stereoscopic cameras.

一実施形態において、第1画像及び第2画像を処理することにより、少なくとも、第1画像から、ユーザの目及びユーザの眉に関連付けられたランドマーク位置を検出し、第2画像から、ユーザの顔の下部に関連付けられたランドマーク位置を検出する。 In one embodiment, by processing the first image and the second image, at least the landmark positions associated with the user's eyes and the user's eyebrows are detected from the first image, and from the second image, the landmark position of the user is detected. Detect the landmark position associated with the bottom of the face.

一実施形態において、抽出された表情パラメータをユーザのデジタル表現に適用することにより、ユーザのグラフィック表現を生成する。 In one embodiment, the extracted facial expression parameters are applied to the digital representation of the user to generate a graphical representation of the user.

一実施形態において、ユーザの無表情を表すキャリブレーション画像を撮影および処理することにより、キャリブレーションを実施する。 In one embodiment, the calibration is performed by capturing and processing a calibration image that represents the user's expressionlessness.

一実施形態において、キャリブレーション画像に基づき、個人化無表情メッシュを生成し、変形転写技術を個人化無表情メッシュに適用することで、個人化追跡モデルを構築することにより、キャリブレーションを実施する。 In one embodiment, the calibration is performed by creating a personalized expressionless mesh based on the calibration image and applying deformation transfer techniques to the personalized expressionless mesh to build a personalized tracking model. ..

一実施形態において、ブレンドシェイプモデルを、個人化追跡モデルに基づき、第1画像及び第2画像におけるランドマーク位置にフィットさせることにより、表情パラメータを得る。 In one embodiment, the blend shape model is fitted to the landmark positions in the first and second images based on the personalized tracking model to obtain the facial expression parameters.

一実施形態において、第1画像及び第2画像はリアルタイムで処理され、表情を取得する。 In one embodiment, the first image and the second image are processed in real time to obtain facial expressions.

実施形態は、第1撮影装置と、第2撮影装置と、表示装置と、本体とを備えるヘッドマウントディスプレイにも関連する。第1撮影装置は、目領域を含むユーザの顔の上部を撮影する。第2撮影装置は、第1撮影装置の下方位置に設けられ、ユーザの顔の下部を撮影する。表示装置は、ユーザに画像を表示する。本体には、第1撮影装置、第2撮影装置、及び表示装置が搭載される。 The embodiment also relates to a head mounted display that includes a first photographing device, a second photographing device, a display device, and a main body. The first imaging device images the upper part of the user's face including the eye region. The second photographing device is provided below the first photographing device and photographs the lower part of the face of the user. The display device displays an image to the user. A first photographing device, a second photographing device, and a display device are mounted on the main body.

一実施形態において、第2撮影装置は、本体からユーザの顔の下部に向かって伸びる伸張部材に搭載される。 In one embodiment, the second imaging device is mounted on an extension member that extends from the body toward the bottom of the user's face.

一実施形態において、ヘッドマウントディスプレイユニットは、第2撮影装置が搭載される摺動可能なマウントをさらに備える。 In one embodiment, the head mounted display unit further comprises a slidable mount on which the second imaging device is mounted.

一実施形態において、表示装置は、第1ディスプレイ及び第2ディスプレイを備える。第1ディスプレイは、左側画像をユーザの左目の方に表示し、第2ディスプレイは、右側画像をユーザの右目の方に表示する。 In one embodiment, the display device comprises a first display and a second display. The first display displays the left image toward the left eye of the user, and the second display displays the right image toward the right eye of the user.

一実施形態において、第1撮影装置は、一対のカメラを備え、カメラは各々、本体の両側に設置される。 In one embodiment, the first imaging device comprises a pair of cameras, each camera being installed on both sides of the body.

一実施形態において、第1撮影装置は、本体の中間に設置されたカメラを備える。 In one embodiment, the first imaging device comprises a camera installed in the middle of the body.

一実施形態において、第2撮影装置は、本体に直接搭載される。 In one embodiment, the second imaging device is mounted directly on the body.

一実施形態において、本体は、目領域を包含する膨らんだ上部を有する。 In one embodiment, the body has a bulged top that includes the eye region.

一実施形態において、表示装置は、一対の別個の表示部を備え、第1撮影装置は、一対の表示部の間に2つのカメラを備える。 In one embodiment, the display device includes a pair of separate display units, and the first imaging device includes two cameras between the pair of display units.

実施形態は、ヘッドマウントディスプレイユニットと、演算装置とを備える仮想現実システムにも関連する。演算装置は、ヘッドヘッドマウントディスプレイユニットに通信可能に連結される。演算装置は、ヘッドマウントディスプレイユニットから第1画像及び第2画像を受信し、第1画像及び第2画像を処理することにより、ユーザの表情を表す表情パラメータを抽出する。 Embodiments also relate to a virtual reality system that includes a head mounted display unit and a computing device. The computing device is communicatively coupled to the head-mounted display unit. The computing device receives the first image and the second image from the head mounted display unit and processes the first image and the second image to extract a facial expression parameter representing a facial expression of the user.

図1は、一実施形態に係る、ユーザの表情を撮影および処理するシステムを示すブロック図である。FIG. 1 is a block diagram illustrating a system for capturing and processing a facial expression of a user according to an embodiment. 図2Aは、一実施形態に係る、図1のヘッドマウントディスプレイユニットの概略図である。2A is a schematic diagram of the head mounted display unit of FIG. 1 according to one embodiment. 図2Bは、一実施形態に係る、ユーザの目領域の画像を撮影する2Dカメラを示す概略図である。FIG. 2B is a schematic diagram illustrating a 2D camera that captures an image of a user's eye region, according to one embodiment. 図2Cは、一実施形態に係る、ユーザの顔に対するヘッドマウントディスプレイユニットの構成要素を示す概略図である。FIG. 2C is a schematic diagram illustrating components of a head mounted display unit for a user's face, according to one embodiment. 図2Dは、他の実施形態に係る、ヘッドマウントディスプレイユニットを示す概略図である。FIG. 2D is a schematic view showing a head mounted display unit according to another embodiment. 図2Eは、他の実施形態に係る、立体画像センサを備えたヘッドマウントディスプレイユニットを示す概略図である。FIG. 2E is a schematic diagram showing a head mounted display unit including a stereoscopic image sensor according to another embodiment. 図2Fは、他の実施形態に係る、摺動可能な立体画像センサを備えたヘッドマウントディスプレイユニットを示す概略図である。FIG. 2F is a schematic view showing a head mounted display unit including a slidable stereoscopic image sensor according to another embodiment. 図2Gは、一実施形態に係る、主要本体の中間頂上部分に2Dカメラを備えたヘッドマウントディスプレイユニットを示す概略図である。FIG. 2G is a schematic diagram illustrating a head-mounted display unit with a 2D camera on the mid-top portion of the main body, according to one embodiment. 図2Hは、一実施形態に係る、2Dカメラを包含するように膨らんだ上部を備えたヘッドマウントディスプレイユニットを示す概略図である。FIG. 2H is a schematic diagram illustrating a head-mounted display unit with an inflated top to include a 2D camera, according to one embodiment. 図2Iは、一実施形態に係る、図2G〜図2Hのヘッドマウントディスプレイユニットを使用したユーザの目領域の撮影を示す概略図である。FIG. 2I is a schematic diagram illustrating imaging of a user's eye area using the head mounted display unit of FIGS. 2G-2H, according to one embodiment. 図2Jは、一実施形態に係る、ヘッドマウントディスプレイユニットの表示装置の間に一対の2Dカメラを配置することを示す概略図である。FIG. 2J is a schematic diagram illustrating disposing a pair of 2D cameras between display devices of a head mounted display unit according to an embodiment. 図2Kは、一実施形態に係る、モバイルデバイスを受容するヘッドマウントディスプレイユニットを示す概略図である。FIG. 2K is a schematic diagram illustrating a head mounted display unit that receives a mobile device, according to one embodiment. 図3は、一実施形態に係る、表情を判定するためにヘッドマウントディスプレイユニットに接続された演算装置を示すブロック図である。FIG. 3 is a block diagram illustrating a computing device connected to a head mounted display unit for determining a facial expression according to one embodiment. 図4は、一実施形態に係る、演算装置におけるソフトウェアモジュールのブロック図である。FIG. 4 is a block diagram of software modules in a computing device according to one embodiment. 図5は、一実施形態に係る、表情を判定するために追跡される顔のランドマークを示す図である。FIG. 5 is a diagram illustrating face landmarks that are tracked to determine a facial expression, according to one embodiment. 図6は、一実施形態に係る、ユーザのデジタル表現における表情を使用するプロセス全体を示すフローチャートである。FIG. 6 is a flowchart illustrating the overall process of using facial expressions in a user's digital representation, according to one embodiment. 図7は、一実施形態に係る、ユーザの表情を検出するプロセスを示すフローチャートである。FIG. 7 is a flowchart illustrating a process of detecting a user's facial expression according to one embodiment.

図面及び以下の説明は、単なる例示としての好適な実施形態に関連する。以下を検討することにより、本明細書に開示した構造及び方法の代替実施形態は、クレームの主旨から逸脱することなく採用されてもよい実行可能な代替として容易に認識されることに留意しなければならない。
以降、添付の図面に例示したいくつかの実施形態について詳細に説明する。可及的に、図中では同様の参照符号が使用され、同様の機能を示すことがあることに留意しなければならない。図面は、例示のみを目的として開示のシステム(又は方法)の実施形態を示している。以下の説明において、本明細書に記載の主旨から逸脱しない限り、本明細書に示される構造及び方法の代替実施形態が採用されてもよい。
The drawings and the following description relate to preferred embodiments by way of example only. It should be noted that by considering the following, alternative embodiments of the structures and methods disclosed herein are readily recognized as viable alternatives that may be employed without departing from the spirit of the claims. I have to.
Hereinafter, some embodiments illustrated in the accompanying drawings will be described in detail. It should be noted that wherever possible, like reference numerals will be used in the figures to indicate similar functions. The drawings depict embodiments of the disclosed system (or method) for purposes of illustration only. In the following description, alternative embodiments of the structures and methods set forth herein may be employed without departing from the spirit described herein.

実施形態は、目領域を含むユーザの顔の上部を撮影する画像撮影装置(例えば、赤外線カメラ)と、鼻、唇、顎先、及び頬のうちの少なくとも1つを含むユーザの顔の下部特徴を撮影するもうひとつの画像撮影装置(例えば、深度カメラ)とを含むヘッドマウントディスプレイユニットを使用して、リアルタイムでユーザの表情を検出することに関連する。第1画像撮影装置及び第2画像撮影装置によって撮影された画像が処理され、表情に関連付けられたパラメータを抽出する。このパラメータは、表情を含むユーザのデジタル表現が生成可能となるように、送信又は処理可能である。 Embodiments include an image capture device (e.g., an infrared camera) that captures an upper portion of the user's face, including the eye region, and lower features of the user's face, including at least one of a nose, lips, chin, and cheeks. Relates to detecting a user's facial expression in real time using a head-mounted display unit that includes another image capturing device (e.g., a depth camera) that captures. The images captured by the first image capture device and the second image capture device are processed to extract parameters associated with the facial expression. This parameter can be transmitted or processed so that a digital representation of the user, including facial expressions, can be generated.

本明細書に記載の目領域とは、目と目の上方の眉をカバーする顔領域をいう。

表情検出システムの例としてのアーキテクチャ
The eye area described in this specification refers to a face area that covers the eyes and the eyebrows above the eyes.

Architecture as an example of facial expression detection system

図1は、一実施形態に係る、ユーザの表情を撮影及び処理するシステム100を示すブロック図である。システム100は、数ある構成要素の中でも特に、ヘッドマウントディスプレイ(HMD)102と、HMD102と通信する演算装置108とを備えてもよい。HMD102は、演算装置108と連携して使用され、ユーザの姿勢を検出し、ユーザの表情を検出し、ユーザに画像を表示する。 FIG. 1 is a block diagram illustrating a system 100 for capturing and processing a facial expression of a user according to one embodiment. The system 100 may include a head mounted display (HMD) 102 and a computing device 108 in communication with the HMD 102, among other components. The HMD 102 is used in cooperation with the arithmetic device 108, detects the posture of the user, detects the facial expression of the user, and displays an image on the user.

演算装置108は、有線通信又は無線通信を介してHMD102と通信してもよい。HMD102にて再生するための画像及び音声のデータ120は、演算装置108から送信可能である。HMD102はまた、ユーザの頭部の姿勢を示し、表情に関連付けられた撮影画像を含む情報110を演算装置108に送信する。 The arithmetic device 108 may communicate with the HMD 102 via wired communication or wireless communication. Image and audio data 120 to be reproduced on the HMD 102 can be transmitted from the arithmetic unit 108. The HMD 102 also transmits the information 110 indicating the posture of the user's head and including the captured image associated with the facial expression to the arithmetic unit 108.

HMD102は、図2Cを参照して以下に詳細に示す通り、ユーザの頭部に装着される。HMD102は、数ある構成要素の中でも特に、1つ以上の2Dカメラ104と、1つ以上の深度カメラ105と、1つ以上のディスプレイ106とを備えてもよい。ディスプレイ106とそのオペレーティングモジュールの詳細については、説明を簡潔にするために、本明細書中では省略する。各2Dカメラ104は、ユーザの顔の目領域を撮影し、赤外線カメラ又はRGBカメラ(照明ランプを備えるか、備えないかを問わず)として実現されてもよい。各目領域は、目と眉とを含む。一方、深度カメラ105は、鼻、唇、頬、及び顎先のうちの少なくとも1つを含むユーザの顔の下部特徴について深度画像を生成する。 The HMD 102 is worn on the user's head, as described in detail below with reference to FIG. 2C. The HMD 102 may include one or more 2D cameras 104, one or more depth cameras 105, and one or more displays 106, among other components. Details of display 106 and its operating module are omitted herein for the sake of brevity. Each 2D camera 104 may be implemented as an infrared camera or an RGB camera (with or without an illumination lamp) that captures the eye area of the user's face. Each eye region includes eyes and eyebrows. On the other hand, the depth camera 105 generates depth images for the lower features of the user's face including at least one of the nose, lips, cheeks, and chin.

演算装置108は、以降、図7を参照して詳細に説明する通り、赤外線カメラ104及び深度カメラ105によって生成された画像を処理することにより、ユーザの表情を判定する。深度カメラ105を使用する代わりに、2D RGBカメラ又は2D赤外線(IR)カメラも使用することができる。 The arithmetic device 108 determines the facial expression of the user by processing the images generated by the infrared camera 104 and the depth camera 105, as described in detail below with reference to FIG. 7. Instead of using the depth camera 105, a 2D RGB camera or a 2D infrared (IR) camera can also be used.

演算装置108は、HMD102とは別個のものとして図1に示されているが、この演算装置108は、HMD102の一部であってもよい。

ヘッドマウントディスプレイの例
Although computing device 108 is shown in FIG. 1 as separate from HMD 102, computing device 108 may be part of HMD 102.

Head mounted display example

図2Aは、一実施形態に係るHMD102の概略図である。HMD102は、主要本体202と、主要本体202から下の方へ伸びる垂直伸張部材204とを備える。主要本体202は、2Dカメラ104と、ディスプレイ106と、その他のセンサ(例えば、ジャイロスコープ)とを備えて設置される。 FIG. 2A is a schematic diagram of the HMD 102 according to one embodiment. The HMD 102 comprises a main body 202 and a vertical extension member 204 extending downwardly from the main body 202. The main body 202 is installed with the 2D camera 104, the display 106, and other sensors (for example, a gyroscope).

HMD102及び垂直伸張部材204は、深度カメラ105によって撮影されるユーザの顔の領域の調整を可能にする機構を介して連結されてもよい。垂直伸張部材の代わりに、水平に伸びるか、又は傾斜配向で伸びる部材も深度カメラ105を搭載するために使用されてよい。深度カメラ105は、(i)3D深度マップと、(ii)撮影領域の2Dカラー画像又は赤外線画像とを提供する。ユーザの顔の下部特徴を撮影するために深度カメラ105を使用することは、数ある理由の中でも特に、顔の下部特徴についての3Dジオメトリ情報を高精度に得ることができるという理由により、有利である。深度カメラ105を使用する代わりに、2Dカラーカメラもユーザの顔の下部特徴を撮影するために使用可能である。2Dカラーカメラで撮影されたカラー画像を演算装置108で処理することにより、顔の下部特徴について3Dジオメトリ情報を生成してもよい。 The HMD 102 and the vertical extension member 204 may be coupled via a mechanism that allows adjustment of the area of the user's face imaged by the depth camera 105. Instead of vertically extending members, members that extend horizontally or extend in a tilted orientation may also be used to mount the depth camera 105. The depth camera 105 provides (i) a 3D depth map and (ii) a 2D color image or infrared image of the captured area. Using the depth camera 105 to capture the bottom features of the user's face is advantageous, among other reasons, because of the high accuracy of the 3D geometry information about the bottom features of the face. is there. Instead of using the depth camera 105, a 2D color camera can also be used to capture the lower features of the user's face. The 3D geometry information may be generated for the lower face features by processing the color image captured by the 2D color camera with the arithmetic device 108.

HMD102はまた、ユーザがHMD102をユーザの頭部に固定できるように、ストラップ212に取り付けられてもよい。 The HMD 102 may also be attached to the strap 212 to allow the user to secure the HMD 102 to the user's head.

図2Aに示される通り、一対の2Dカメラ104が、主要本体202の正面壁部の上方隅部に配置されて、ユーザの顔のそれぞれの領域(すなわち、左目及び右目の領域)を撮影する。代替実施形態においては、一対の2DカメラをHMD102の側壁203に配置することができる。2Dカメラ104は、ディスプレイ106のすぐ隣に配置することもできる。 As shown in FIG. 2A, a pair of 2D cameras 104 are placed in the upper corners of the front wall of the main body 202 to capture respective areas of the user's face (ie, left and right eye areas). In an alternative embodiment, a pair of 2D cameras may be located on the sidewall 203 of the HMD 102. The 2D camera 104 can also be placed right next to the display 106.

ディスプレイ106は2つの別個の表示モジュールを備えてもよく、そのうちのひとつは左側画像をユーザの左目の方に表示するもの、もう一つは右側画像をユーザの右目の方に表示するものである。2つのディスプレイ106は、物理的に離間してもよい。或いは、単一の表示モジュールが、左側画像及び右側画像を別々に表示するための2つの別個の表示領域に分けられてもよい。 The display 106 may include two separate display modules, one for displaying the left image toward the left eye of the user and the other for displaying the right image toward the right eye of the user. .. The two displays 106 may be physically separated. Alternatively, a single display module may be split into two separate display areas for displaying the left and right images separately.

図2Bは、一実施形態に係る、目と眉を含むユーザの顔220の目領域を表す画像を撮影する2Dカメラ104を示す概略図である。2Dカメラ104は、ユーザが装着しているときにユーザの顔に対向するHMD102の本体202に設置される。具体的には、2Dカメラ104は、ユーザの顔の片目又は両目の領域を撮影する。 FIG. 2B is a schematic diagram illustrating a 2D camera 104 that captures an image representing an eye region of a user's face 220, including eyes and eyebrows, according to one embodiment. The 2D camera 104 is installed in the main body 202 of the HMD 102 that faces the user's face when the user wears it. Specifically, the 2D camera 104 captures an area of one or both eyes of the user's face.

赤外線カメラが、2Dカメラ104として使用されてもよい。目及び眉の周辺領域の画像を撮影するために赤外線カメラを使用することは、数ある理由の中でも特に、(i)赤外線カメラはユーザの肌に接触することなく顔の特徴を十分に撮影することができるという理由と、(ii)赤外線カメラは、HMD102がユーザによって装着されているときに外部の光が遮られることから生じ得る低照明条件の下で動作するという理由により、有利である。 An infrared camera may be used as the 2D camera 104. The use of infrared cameras to capture images of the area around the eyes and eyebrows is, among other reasons, (i) the infrared camera captures sufficient facial features without touching the user's skin. And (ii) the infrared camera is advantageous because it operates under low lighting conditions that can result from external light being blocked when the HMD 102 is worn by the user.

一実施形態において、2Dカメラ104は、広角を撮影するために魚眼レンズを備えてもよい。2Dカメラからユーザの目及び眉までの距離が短い(通常、5センチメートル以内)ため、魚眼レンズを使用して目領域全体を撮影する。深度カメラ105も、広角を撮影するために魚眼レンズを備える。 In one embodiment, the 2D camera 104 may include a fisheye lens to capture wide angles. Due to the short distance from the 2D camera to the user's eyes and eyebrows (typically within 5 cm), a fisheye lens is used to image the entire eye area. The depth camera 105 also includes a fisheye lens for wide-angle shooting.

図2Cは、一実施形態に係る、ユーザの顔220に対するHMD102の構成要素の配置を示す概略図である。図2CのHMD102は、左目領域を撮影するものと、右目領域を撮影するものとの一対の2Dカメラ104を有する。2Dカメラの中心軸244は、垂直面254に対して角度αを成す。角度αは、目領域を撮影するために30°〜45°の範囲内であってもよい。 FIG. 2C is a schematic diagram illustrating an arrangement of components of the HMD 102 with respect to a user's face 220, according to one embodiment. The HMD 102 in FIG. 2C has a pair of 2D cameras 104 that captures the left-eye region and that captures the right-eye region. The central axis 244 of the 2D camera makes an angle α with the vertical plane 254. The angle α may be in the range of 30° to 45° to capture the eye region.

図2Dは、他の実施形態に係るHMD102Bの概略図である。HMD102Bは、図2AのHMD102と同様であるが、ユーザの顔の下部の画像を撮影するためにカメラ105Bが取り付けられるマウント204Bを有する。マウント204Bは、図2Aの垂直伸張部材よりも短い。カメラ105Bは、深度カメラであってもよく、又は、RGB/グレースケールカメラであってもよい。カメラ105Bがユーザの顔の下部の画像をよりよく撮影できるように、1つ以上の赤外線又は可視光源(図示せず)もマウント204Bに取り付けられてもよい。代替実施形態では、HMD102は別個のマウント又は垂直伸張部材を備えないが、主要本体202に直接搭載されたカメラ105Bを有する。 FIG. 2D is a schematic diagram of an HMD 102B according to another embodiment. The HMD 102B is similar to the HMD 102 of FIG. 2A, but has a mount 204B to which a camera 105B is attached to capture an image of the bottom of the user's face. Mount 204B is shorter than the vertical extension member of FIG. 2A. The camera 105B may be a depth camera or an RGB/greyscale camera. One or more infrared or visible light sources (not shown) may also be attached to mount 204B to allow camera 105B to better capture an image of the bottom of the user's face. In an alternative embodiment, the HMD 102 does not include a separate mount or vertically extending member, but has the camera 105B mounted directly on the main body 202.

図2Eは、他の実施形態に係るHMD102Cの概略図である。HMD102Cは、図2DのHMD102Bと同様であるが、マウント204Cに設置される立体カメラ105Bを有する。両方の立体カメラ105Bがユーザの顔の下部の画像を撮影する。撮影された画像は、演算装置108によって処理され、ユーザの表情を判定する。 FIG. 2E is a schematic diagram of an HMD 102C according to another embodiment. The HMD 102C is similar to the HMD 102B of Figure 2D, but has a stereoscopic camera 105B installed on a mount 204C. Both stereoscopic cameras 105B take an image of the bottom of the user's face. The captured image is processed by the calculation device 108 to determine the facial expression of the user.

図2Fは、一実施形態に係るHMD102Dの概略図である。HMD102Dは、図2EのHMD102Cと同様であるが、主要本体202に対して摺動可能なマウント222A及び222Bを有する。マウント222A及び222Bにはカメラ105Dが搭載され、それらはIRカメラ又はグレースケールカメラであってもよい。マウント222A及び222Bが主要本体202に対して摺動できるようにすることにより、マウント222A及び222Bの位置が、ユーザの顔の下部をよりよく撮影できるように調整されてもよい。いくつかの実施形態において、マウント222A及び222Bは、ユーザによって手動で移動される。他の実施形態においては、マウント222A及び222Bは、アクチュエータ(例えば、図示しないモータである)によって自動調整される。 FIG. 2F is a schematic diagram of the HMD 102D according to one embodiment. HMD 102D is similar to HMD 102C of FIG. 2E, but has mounts 222A and 222B slidable relative to main body 202. Mounts 222A and 222B carry cameras 105D, which may be IR cameras or grayscale cameras. By allowing the mounts 222A and 222B to slide relative to the main body 202, the position of the mounts 222A and 222B may be adjusted to better image the lower portion of the user's face. In some embodiments, the mounts 222A and 222B are manually moved by the user. In other embodiments, mounts 222A and 222B are self-adjusting by an actuator (eg, a motor not shown).

図2Gは、一実施形態に係るHMD102Eの概略図である。HMD102Dは、単一の2Dカメラ104が主要本体202の中心に配置されることを除いて、図2AのHMD102と同様である。単一の2Dカメラ104は、図2Iを参照して以下に説明する通り、ユーザの顔の左目領域および右目領域を撮影する。 FIG. 2G is a schematic diagram of an HMD 102E according to one embodiment. The HMD 102D is similar to the HMD 102 of FIG. 2A, except that a single 2D camera 104 is centered on the main body 202. The single 2D camera 104 images the left and right eye regions of the user's face, as described below with reference to FIG. 2I.

図2Hは、一実施形態に係るHMD102Fの概略図である。HMD102Fは、主要本体202が上の方へ突出した縁部233を有することを除いて、図2GのHMD102Eと同様である。上の方へ突出した縁部233は、ユーザの顔の目領域が、主要本体202の下に完全に包まれるのを可能とする。 FIG. 2H is a schematic diagram of an HMD 102F according to one embodiment. The HMD 102F is similar to the HMD 102E of FIG. 2G, except that the main body 202 has an upwardly projecting edge 233. The upwardly projecting edge 233 allows the eye area of the user's face to be completely wrapped underneath the main body 202.

図2Iは、図2GのHMD102E又は図2HのHMD102Fにおける単一の2Dカメラ104を使用して両側の目領域を撮影することを示す概略図である。2Dカメラ104で撮影される顔の領域を広げるために、2Dカメラ104において魚眼レンズが使用されてもよい。 FIG. 2I is a schematic diagram showing capturing both eye regions using a single 2D camera 104 in the HMD 102E of FIG. 2G or the HMD 102F of FIG. 2H. A fisheye lens may be used in the 2D camera 104 to increase the area of the face captured by the 2D camera 104.

図2Jは、一実施形態に係る、2つの別個の2Dカメラ104Jを使用して両側の目領域を撮影することを示す概略図である。図2Cの2Dカメラ104と異なり、2Dカメラ104Jは、ディスプレイ106の間に配置される。2Dカメラ104Jの中心軸247は、両方の2Dカメラ104Jが顔の目領域に対向するように、垂直面254に対して角度βをなす。2Dカメラ104Jをディスプレイ106の間に配置する多くの利点のうちの1つとして、HMDの寸法(特に、幅W)を小さくできることがあげられる。 FIG. 2J is a schematic diagram illustrating capturing two sided eye regions using two separate 2D cameras 104J, according to one embodiment. Unlike the 2D camera 104 of FIG. 2C, the 2D camera 104J is located between the displays 106. The central axis 247 of the 2D camera 104J makes an angle β with respect to the vertical plane 254 so that both 2D cameras 104J face the eye area of the face. One of the many advantages of placing the 2D camera 104J between the displays 106 is that the dimensions of the HMD (particularly the width W) can be reduced.

図2Aから図2Jを参照して上述したHMDは、画像をそれぞれの目の方に表示する専用ディスプレイ106を使用するものとして説明したが、他の実施形態では、ディスプレイは、別のモバイルデバイス(例えば、スマートフォン)の表示装置として実現されてもよい。例えば、図2Kは、モバイルデバイス261を受容するスロット263を有するHMD102Gの概略図である。モバイルデバイス261が主要本体202のスロット263に挿入されて、モバイルデバイスの表示装置がHMD102Gのディスプレイとして機能してもよい。図2Kに示されるようなスロット263は、単なる例示であり、異なる構成のスロットも採用可能である。図2Kの実施形態において、ディスプレイ106は、演算装置108と同じように、モバイルデバイス261で実現される。

表情を判定する一例としての演算装置
Although the HMDs described above with reference to FIGS. 2A-2J use a dedicated display 106 that displays an image toward each eye, in other embodiments, the display may be another mobile device ( For example, it may be realized as a display device of a smartphone. For example, FIG. 2K is a schematic diagram of an HMD 102G having a slot 263 that receives a mobile device 261. The mobile device 261 may be inserted into the slot 263 of the main body 202, and the display device of the mobile device may function as the display of the HMD 102G. The slot 263 as shown in FIG. 2K is merely exemplary, and differently configured slots may be employed. In the embodiment of FIG. 2K, display 106 is implemented on mobile device 261, similar to computing device 108.

Arithmetic device as an example for determining facial expression

図3は、一実施形態に係る、表情を判定するためにHMD102と接続された演算装置108を示すブロック図である。演算装置108は、数ある構成要素の中でも特に、メモリ302と、プロセッサ304と、HMDインタフェース306と、ディスプレイ308と、ユーザインタフェース310と、これらの構成要素を接続するバス301とを備えてもよい。演算装置108は、他の演算装置(図示せず)と通信するために、ネットワークインタフェース等の他の構成要素を含んでもよい。 FIG. 3 is a block diagram illustrating a computing device 108 connected to the HMD 102 to determine a facial expression, according to one embodiment. The computing device 108 may include a memory 302, a processor 304, an HMD interface 306, a display 308, a user interface 310, and a bus 301 connecting these components, among other components. .. Computing device 108 may include other components, such as a network interface, to communicate with other computing devices (not shown).

メモリ302は、図4を参照して以下に詳細に説明する通り、ソフトウェアモジュールを記憶する非一時的コンピュータ可読記憶媒体である。メモリ302に記憶された命令は、プロセッサ304によって実行されることにより、表情検出に関連付けられたオペレーションと、検出された表情を組み込んだユーザのデジタル表現の生成とを実施する。 The memory 302 is a non-transitory computer readable storage medium that stores software modules, as described in detail below with reference to FIG. The instructions stored in memory 302 are executed by processor 304 to perform operations associated with facial expression detection and to generate a digital representation of the user incorporating the detected facial expression.

プロセッサ304は、メモリ302に記憶された種々の命令を実行し、演算装置108における他の構成要素のオペレーションを制御する。演算装置108は、1つを上回る数のプロセッサを備えてもよい。 Processor 304 executes various instructions stored in memory 302 and controls the operation of other components in computing device 108. Computing device 108 may include more than one processor.

HMDインタフェース306は、HMD102と通信するためのハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせである。HMDインタフェース306は、演算装置108がHMD102において再生するための画像及び音声のデータ120を送信できるようにし、また、ユーザの頭部の姿勢に関連付けられた情報110と、表情に関連付けられた撮影画像とをHMD102から受信することができる。HMDインタフェース306は、1つ以上の通信プロトコルに対応するものであってもよい。 The HMD interface 306 is hardware, software, firmware, or a combination thereof for communicating with the HMD 102. The HMD interface 306 enables the computing device 108 to transmit image and sound data 120 for reproduction on the HMD 102, and also information 110 associated with the posture of the user's head and captured images associated with facial expressions. And can be received from the HMD 102. The HMD interface 306 may be compatible with one or more communication protocols.

ディスプレイ308は、画像をレンダリングしてユーザに提示するために使用される。これらの画像には、HMD102のオペレーションに関連付けられた情報が含まれてもよい。 The display 308 is used to render the image and present it to the user. These images may include information associated with the operation of HMD 102.

ユーザインタフェース310は、ユーザが演算装置108と情報をやりとりできるようにするためのハードウェア、ソフトウェア、ファームウェア、又はそれらの組み合わせである。ユーザインタフェース310は、ポインティングデバイス(例えば、マウス)及びキーボードを備えてもよい。 The user interface 310 is hardware, software, firmware, or a combination thereof that allows a user to interact with the computing device 108. The user interface 310 may include a pointing device (eg, mouse) and keyboard.

図4は、一実施形態に係る、演算装置108におけるソフトウェアモジュールのブロック図である。メモリ302は、数あるソフトウェア構成要素の中でも特に、オペレーティングシステム406と、表情検出モジュール410と、アプリケーションモジュール440とを記憶する。メモリ302はまた、図4には図示されない他の種々のソフトウェアモジュールも備えてもよい。 FIG. 4 is a block diagram of software modules in the computing device 108 according to one embodiment. The memory 302 stores an operating system 406, a facial expression detection module 410, and an application module 440, among other software components. Memory 302 may also include various other software modules not shown in FIG.

オペレーティングシステム406は、演算装置108において利用可能なリソースの管理を担うソフトウェアモジュールである。利用可能なオペレーティングシステムには、例えば、IOS、WINDOWS(登録商標)、LINUX、ANDROID(登録商標)、及びMAC OSが含まれてもよい。 The operating system 406 is a software module that manages resources that can be used in the computing device 108. The available operating system, for example, IOS, WINDOWS (registered trademark), LINUX, ANDROID (TM), and may include MAC OS.

表情検出モジュール410は、2Dカメラ104から受信した2D画像(例えば、赤外線画像)402と、深度カメラ105から受信した画像404とに基づいて、ユーザの表情を検出するソフトウェアモジュールである。画像404には、深度カメラ105によって生成された深度画像とカラー画像又はグレースケール画像との双方が含まれてもよい。表情検出モジュール410は、赤外線画像402と画像404とを処理することにより、ユーザの表情を示す表情(FE)パラメータ424を生成する。 The facial expression detection module 410 is a software module that detects the facial expression of the user based on the 2D image (for example, infrared image) 402 received from the 2D camera 104 and the image 404 received from the depth camera 105. The image 404 may include both the depth image generated by the depth camera 105 and a color image or a grayscale image. The facial expression detection module 410 processes the infrared image 402 and the image 404 to generate an facial expression (FE) parameter 424 indicating the facial expression of the user.

表情検出モジュール410には、目及び眉追跡モジュール414と、顔下部追跡モジュール418と、FEパラメータ生成器422とを含むがこれに限定されないサブモジュールが含まれてもよい。目及び眉追跡モジュール414は、ランドマーク位置に基づき、2D画像402における瞳の中心と、目の輪郭と、眉の輪郭とを判定する。目及び眉追跡モジュール414は、瞳、目の輪郭、眉の輪郭のランドマークのアノテーションのついたトレーニング画像サンプルを用いて事前トレーニングされている。このようなアノテーションは、手動で実施されてもよい。図5A及び図5B中、例としてのランドマークが「X」点として示されている。 The facial expression detection module 410 may include sub-modules including, but not limited to, the eye and eyebrow tracking module 414, the lower face tracking module 418, and the FE parameter generator 422. The eye and eyebrow tracking module 414 determines the center of the pupil, the eye contour, and the eyebrow contour in the 2D image 402 based on the landmark position. The eye and eyebrow tracking module 414 has been pre-trained with training image samples annotated with landmarks for pupils, eye contours, and eyebrow contours. Such annotations may be implemented manually. An exemplary landmark is shown as an "X" point in FIGS. 5A and 5B.

目及び眉追跡モジュール414は、追跡アルゴリズムを採用してもよい。追跡アルゴリズムは、当分野で周知である、例えば、(i)教師あり降下法(SDM)、(ii)変形可能モデルフィッティング、(iii)アクティブアピアランスモデリング、(iii)ディープラーニング技術を使用してもよい。目及び眉追跡モジュール414は、ユーザの目と眉とを追跡した結果として、目及び眉の位置及び形状を示すランドマーク位置415を生成する。魚眼レンズを使用して2D画像を撮影するとき、目及び眉追跡モジュール414は、追跡アルゴリズムの実行前に、画像を平坦化して、魚眼レンズの使用によって生じた2D画像中の歪みを除去してもよい。 The eye and eyebrow tracking module 414 may employ a tracking algorithm. Tracking algorithms are also well known in the art, for example using (i) supervised descent (SDM), (ii) deformable model fitting, (iii) active appearance modeling, (iii) deep learning techniques. Good. The eye and eyebrow tracking module 414 generates a landmark position 415 indicating the position and shape of the eyes and eyebrows as a result of tracking the user's eyes and eyebrows. When using a fisheye lens to take a 2D image, the eye and eyebrow tracking module 414 may flatten the image to remove distortions in the 2D image caused by the use of the fisheye lens before executing the tracking algorithm. ..

同様に、顔下部追跡モジュール418は、画像404に基づき、ユーザの鼻、唇、顎先、頬、及び顎先と頬の周囲の顔のシルエットのうちの少なくとも1つの姿勢を追跡する。下部追跡モジュール418は、ユーザの顔の下部のランドマークを追跡するために、当分野において周知である、例えば、(i)教師あり降下法(SDM)、(ii)変形可能モデルフィッティング、(iii)アクティブアピアランスモデリング、(iv)ディープマシンラーニングのうちの1つを使用して、追跡アルゴリズムも使用してもよい。ユーザの顔の下部におけるランドマークは、例えば、図5Cに示されている。顔下部追跡モジュール418は、ユーザの顔の下部におけるランドマークを追跡することにより、鼻、唇、顎先、及び頬のうちの少なくとも1つを含む顔の下部特徴のランドマーク位置419を生成する。顎先及び頬の周囲のシルエットを検出することの多くの利点のうちの1つとして、顎及び頬の動きを明確に撮影できることがあげられる。それはまた、カメラに対する頭部位置のロバストな追跡にも役立ち、これは唇追跡では容易なことではない。 Similarly, the lower part of face tracking module 418 tracks the posture of at least one of the user's nose, lips, chin, cheeks, and silhouette of the face around the chin and cheeks based on the image 404. The bottom tracking module 418 is well known in the art for tracking landmarks on the bottom of a user's face, such as (i) supervised descent (SDM), (ii) deformable model fitting, (iii). Tracking algorithms may also be used using one of) Active Appearance Modeling, (iv) Deep Machine Learning. The landmarks at the bottom of the user's face are shown, for example, in Figure 5C. A lower face tracking module 418 generates landmark position 419 of lower face features including at least one of the nose, lips, chin, and cheeks by tracking landmarks in the lower portion of the user's face. .. One of the many advantages of detecting silhouettes around the chin and cheeks is that chin and cheek movements can be clearly imaged. It also helps with robust tracking of head position relative to the camera, which is not easy with lip tracking.

FEパラメータ生成器422は、ランドマーク位置415及び419と、深度カメラからの3D深度マップとを受信する。FEパラメータ生成器422は、図6を参照して以下に詳細に説明する通り、キャリブレーションプロセス中に得られる個人化3D表情モデルのモデルを記憶する。FEパラメータ生成器422はまた、図7を参照して以下に詳細に説明する通り、ランドマーク位置415及び419と3D深度マップを3D表情モデルのモデルにフィッティングすることにより、HMD102を装着するユーザの表情を総合的に示す表情(FE)パラメータ424を抽出する。 The FE parameter generator 422 receives the landmark positions 415 and 419 and the 3D depth map from the depth camera. The FE parameter generator 422 stores a model of the personalized 3D facial expression model obtained during the calibration process, as described in detail below with reference to FIG. The FE parameter generator 422 also fits the user wearing the HMD 102 by fitting the landmark positions 415 and 419 and the 3D depth map to the model of the 3D facial expression model, as described in detail below with reference to FIG. A facial expression (FE) parameter 424 that comprehensively indicates the facial expression is extracted.

アプリケーションモジュール440は、FEパラメータ424の形式での検出表情に基づき、種々のオペレーションを実施する。アプリケーションモジュール440には、数ある要素の中でも特に、マッピングモジュール442と、グラフィック表現ストレージ446と、仮想現実(VR)/拡張現実(AR)モジュール448とが含まれてもよい。グラフィック表現ストレージ446は、ユーザの1つ以上のデジタル表現を記憶する。マッピングモジュール442は、グラフィック表現ストレージ446からユーザのデジタル表現を検索し、受信されたユーザのデジタル表現にFEパラメータ424(例えば、ブレンドシェイプウェイト値)をリアルタイムで転写することにより、VR/ARモジュール448において使用するデータを生成する。 The application module 440 performs various operations based on the detected facial expression in the form of FE parameters 424. The application module 440 may include a mapping module 442, a graphic representation storage 446, and a virtual reality (VR)/augmented reality (AR) module 448, among other elements. Graphic representation storage 446 stores one or more digital representations of a user. The mapping module 442 retrieves the user's digital representation from the graphic representation storage 446 and transcribes the FE parameters 424 (eg, blend shape weight values) into the received user's digital representation in real time, thereby causing the VR/AR module 448. Generate the data to be used in.

VR/ARモジュール448は、FEパラメータ424(例えば、ブレンドシェイプ)に従って、又は、転写されたブレンドシェイプウェイトとユーザのデジタル表現の表現パラメータ空間との間のセマンティック・マッピング関数に基づき、ユーザの3Dグラフィック表現を生成してもよい。VR/ARモジュール448は、表情に基づく、例えば、ソーシャルネットワーキングサービス、ゲーム、オンラインショッピング、ビデオ通話、及びヒューマン・マシン・インターフェースなどの種々のサービスを実施するソフトウェアモジュールの一部であってもよく、又はこれらと連携して動作してもよい。 The VR/AR module 448 determines the user's 3D graphics according to the FE parameters 424 (eg, blend shape) or based on the semantic mapping function between the transferred blend shape weights and the expression parameter space of the user's digital representation. The representation may be generated. The VR/AR module 448 may be part of a software module that implements a variety of facial expression-based services, such as social networking services, games, online shopping, video calling, and human-machine interfaces, Alternatively, it may operate in cooperation with these.

表情検出モジュール410及びアプリケーションモジュール440がソフトウェアモジュールとして実現されるものとして図4に示されているが、これらのモジュールは、集積回路(IC)構成要素として実現されてもよい。

表情検出プロセス
Although facial expression detection module 410 and application module 440 are shown in FIG. 4 as implemented as software modules, these modules may be implemented as integrated circuit (IC) components.

Facial expression detection process

図6は、一実施形態に係る、ユーザのデジタル表現における表情を使用するプロセス全体を示すフローチャートである。まず、ユーザがHMD102を装着した後、キャリブレーションが実施される(606)。一実施形態において、オンラインキャリブレーションプロセスを使用して、HMD102のユーザのための個人化追跡モデルを構築する。キャリブレーション中、2Dカメラ104及び/又は深度カメラ105が複数の深度画像及び2Dカラー画像又は赤外線画像を撮影している間の所定時間(例えば、数秒間)、ユーザは無表情の顔ポーズを保つ。 FIG. 6 is a flowchart illustrating the overall process of using facial expressions in a user's digital representation, according to one embodiment. First, after the user wears the HMD 102, calibration is performed (606). In one embodiment, an online calibration process is used to build a personalized tracking model for users of the HMD 102. During the calibration, the user maintains a faceless face pose for a predetermined time (for example, several seconds) while the 2D camera 104 and/or the depth camera 105 captures a plurality of depth images and 2D color images or infrared images. ..

表情検出モジュール410は、キャリブレーションプロセスの一部として、これらの画像を受信し、3D体積測定モデル作成プロセスを適用することにより、関連付けられた顔色情報を備えた、顔の下半分についての平滑化3D体積測定顔メッシュを作成する。平滑化3D体積測定顔メッシュを作成するプロセスは、当分野において周知である(例えば、Richard A. Newcombeらによる「KinectFusion:Real−time Dense Surface Mapping and Tracking」Mixed and augmented reality(ISMAR)、2011年第10回IEEE国際シンポジウム、2011年を参照のこと。その内容全体を参照としてここに援用する)。表情検出モジュール410はまた、目領域画像と顔下部画像とに2Dランドマーク検出を実施することにより、目、目のライン、眉のライン、唇のライン、鼻のライン、及び顔のシルエット(例えば、顎先及び頬のライン)の中心及び周囲を探し出す。表情検出モジュール410は、複数の撮影画像に亘って2Dランドマークを平均化することにより、2Dランドマーク検出においてノイズとなるアーティファクトを低減する。FEパラメータ生成器422は、3D体積測定顔メッシュと2D画像における2D顔ランドマーク位置とを使用して、(i)テンプレート無表情モデルの剛性ポーズを推定した後、(ii)無表情の線形主成分分析(PCA)モデルを歪ませて、体積測定メッシュと2Dランドマークとをフィットさせることにより、個人化無表情モデルを構築する。 The facial expression detection module 410 receives these images as part of the calibration process and applies a 3D volumetric modeling process to smooth the lower half of the face with associated complexion information. Create a 3D volumetric face mesh. The process of creating a smoothed 3D volumetric face mesh is well known in the art (eg, Richard A. Newcombe et al., "KinectFusion: Real-time Sense Surface Mapping and Tracking", Mixed and Aligned Years, 11). See the 10th IEEE International Symposium, 2011, the entire contents of which are hereby incorporated by reference). The facial expression detection module 410 also performs 2D landmark detection on the eye area image and the lower face image to detect eyes, eye lines, eyebrow lines, lip lines, nose lines, and face silhouettes (eg, , Chin and cheek lines) center and perimeter. The facial expression detection module 410 averages the 2D landmarks over a plurality of captured images, thereby reducing noise artifacts in the 2D landmark detection. The FE parameter generator 422 uses the 3D volumetric face mesh and the 2D face landmark positions in the 2D image to (i) estimate the rigid pose of the template expressionless model and then (ii) the expressionless linear principal. A personalized expressionless model is constructed by distorting the component analysis (PCA) model and fitting the volumetric mesh with the 2D landmarks.

具体的には、FEパラメータ生成器422は、個人化無表情モデルMの線形PCAモーフィングバージョンを利用し、以下の式を使用して、ワールド座標における顔メッシュWを表す。 Specifically, the FE parameter generator 422 utilizes a linear PCA morphing version of the personalized expressionless model M and uses the following equation to represent the face mesh W in world coordinates.

Figure 0006742405
Figure 0006742405

式中、wはモーフィングモデルに対する線形重みづけベクトルを表し、Rは回転行列であり、tは変換ベクトルである。FEパラメータ生成器422は、以下のエネルギー項を最小化することにより、反復的にw及び(R、t)を求める。 In the formula, w represents a linear weighting vector for the morphing model, R is a rotation matrix, and t is a transformation vector. The FE parameter generator 422 iteratively determines w and (R,t) by minimizing the following energy terms:

Figure 0006742405
Figure 0006742405

式中、α、β、γは、フィッティング項についての重みづけを表す。Cplは、式(4)に規定される通り、体積測定メッシュVと顔メッシュWとの間の点−面誤差を最小化するためのフィッティング項である。Cは、式(5)に規定される通り、口、鼻、及びシルエットの2D顔特徴ランドマークと顔メッシュWにおいて対応する頂点との間の点−点誤差を最小化するフィッティング項である。Cは、式(6)に規定の通り、右目領域の2D顔特徴ランドマークと顔メッシュWにおいて対応する頂点との間の点−点誤差を最小化するフィッティング項である。Cは、式(7)に規定される通り、左目領域の2D顔特徴ランドマークと顔メッシュWにおいて対応する頂点との間の点−点誤差を最小化するフィッティング項である。Cplは、以下の通り、規定される。 In the formula, α, β, and γ represent weighting for the fitting term. C pl is a fitting term for minimizing the point-to-face error between the volumetric mesh V and the face mesh W, as defined by equation (4). C m is a fitting term that minimizes the point-to-point error between the 2D facial feature landmarks of the mouth, nose, and silhouette and the corresponding vertices in the face mesh W, as defined in equation (5). .. C r is a fitting term that minimizes the point-to-point error between the 2D facial feature landmark in the right eye region and the corresponding vertex in the face mesh W, as defined in equation (6). C l is a fitting term that minimizes the point-to-point error between the 2D facial feature landmark in the left eye region and the corresponding vertex in the face mesh W, as defined in equation (7). C pl is defined as follows.

Figure 0006742405
Figure 0006742405

式中、νは顔メッシュWのi番目の頂点であり、は、体積測定メッシュV上のνの最も近い点であり、nは、体積測定メッシュV上のνにおける面法線である。Cは、以下の通り、規定される。 Where v i is the i-th vertex of the face mesh W, is the closest point of v i on the volumetric mesh V, and n i is the surface normal at v i on the volumetric mesh V. Is. C m is defined as follows.

Figure 0006742405
Figure 0006742405

式中、uは、追跡された2D顔特徴の位置であり、π(ν)は、ユーザの口、鼻、及びシルエットの周辺のカメラ空間への対応メッシュ頂点νの投影である。Cは、以下の通り、規定される。 Where u j is the position of the tracked 2D facial feature and π mj ) is the projection of the corresponding mesh vertex ν j onto the camera space around the user's mouth, nose and silhouette. .. Cr is defined as follows.

Figure 0006742405
Figure 0006742405

式中、uは、追跡された2D顔特徴の位置であり、π(ν)は、対応するメッシュ頂点νの右目領域のカメラ空間への投影である。Cは、以下の通り、規定される。 Where u j is the position of the tracked 2D facial feature and π rj ) is the projection of the corresponding mesh vertex ν j into the camera space of the right eye region. C l is defined as follows.

Figure 0006742405
Figure 0006742405

式中、uは、追跡された2D顔特徴の位置であり、π(ν)は、対応するメッシュ頂点νの左目領域のカメラ空間への投影である。 Where u j is the position of the tracked 2D facial feature and π lj ) is the projection of the corresponding mesh vertex ν j into the camera space of the left eye region.

個人化無表情メッシュが構築された後、当分野で周知の通り、テンプレートフェイスの表現ブレンドシェイプからの変形を、変形転写を用いて転写することにより、個人化表情モデル(ブレンドシェイプモデル)が得られる。変形転写を用いて表現ブレンドシェイプからの変形を転写する一例としての方法については、例えば、Robert W.Sumnerらによる「Deformation transfer for triangle meshes」ACM Transactions on Graphics(TOG)23.3(2004年)399〜405頁に記載されている。或いは、顔のジオメトリの広がり、同一性、及び表情をマルチランクデータテンソルに符号化する双線形顔モデルを適用することにより、個人化表情モデルを得ることができる。双線形顔モデルを適用して個人化表情モデルを構築する一例としての方法は、例えば、Chen Caoらによる「Displaced dynamic expression regression for real−time facial tracking and animation」ACM Transactions on Graphics(TOG)33.4(2014年)に記載されている。この内容全体を参照としてここに援用する。 After the personalized expressionless mesh is constructed, the transformation from the template face's expression blend shape is transferred using transformation transfer to obtain a personalized expression model (blend shape model), as is well known in the art. To be For an exemplary method of transferring deformation from an expression blend shape using deformation transfer, see, eg, Robert W. Sumner et al., "Deformation transfer for triangle meshes," ACM Transactions on Graphics (TOG) 23.3 (2004), pages 399-405. Alternatively, a personalized facial expression model can be obtained by applying a bilinear facial model that encodes facial geometry spread, identity, and facial expression into a multi-rank data tensor. An example method of applying a bilinear face model to build a personalized facial expression model is described in, for example, Chen Cao et al. 4 (2014). The entire content of which is incorporated herein by reference.

右目及び左目両方にひとつのカメラだけを使用すれば、C及びCは、1つの式に組み合わせられる。 Using only one camera for both the right and left eyes, C r and C l can be combined into one equation.

キャリブレーションを実施した後、図7を参照して以下に詳細に説明する通り、ユーザの顔の特徴の2D画像及び深度画像を追跡及び処理することにより、ユーザの表情を検出する(610)。 After performing the calibration, the facial expression of the user is detected 610 by tracking and processing the 2D image and the depth image of the facial features of the user, as described in detail below with reference to FIG. 7.

その後、ユーザのグラフィック表現に組み込むために、検出された表情をユーザのデジタル表現に適用する(616)。生成されたグラフィック表現は、演算装置108又はネットワーク(例えば、インターネット)を通じて演算装置108と通信する遠隔演算装置により、仮想現実又は拡張現実に表示されてもよい。 The detected facial expression is then applied to the user's digital representation for incorporation into the user's graphical representation (616). The generated graphic representation may be displayed in virtual or augmented reality by the computing device 108 or a remote computing device that communicates with the computing device 108 over a network (eg, the Internet).

図7は、一実施形態に係る、表情検出プロセスを示すフローチャートである。まず、図4を参照して以上に詳細に説明した通り、目領域に関連付けられたランドマーク位置422を2D画像から判定する(710)。図4を参照して以上に詳細に説明した通り、IR画像又はRGB画像及び/又は3Dカメラの深度画像を処理することにより、ユーザの顔の下部特徴に関連付けられたランドマーク位置を生成する(720)。 FIG. 7 is a flowchart illustrating a facial expression detection process according to one embodiment. First, as described in detail above with reference to FIG. 4, the landmark position 422 associated with the eye region is determined from the 2D image (710). As described in detail above with reference to FIG. 4, processing the IR or RGB image and/or the depth image of the 3D camera to generate landmark positions associated with the lower features of the user's face ( 720).

ランドマーク位置(及び任意で3D深度マップデータ)を使用することにより、ユーザの顔全体に対するFEパラメータ424を生成する(730)。一実施形態において、FEパラメータ生成器422は、ランドマーク位置415に基づき、顎の開放、笑み、及び息を吹く様子等の表現を示すように、FEパラメータ424の一部としてブレンドシェイプパラメータを生成する一方で、ランドマーク位置419に基づき、目の開閉及び眉の上下を示すように、FEパラメータ424の一部としてブレンドシェイプパラメータを生成する。 The landmark position (and optionally the 3D depth map data) is used to generate 730 FE parameters 424 for the entire face of the user. In one embodiment, the FE parameter generator 422 generates a blend shape parameter as part of the FE parameter 424 based on the landmark position 415 to indicate expressions such as jaw open, smile, and breathing. Meanwhile, based on the landmark position 419, a blend shape parameter is generated as a part of the FE parameter 424 so as to indicate the opening/closing of the eyes and the upper and lower sides of the eyebrows.

FEパラメータ424を演算するために、追跡されたランドマーク位置415が入力制約として組み合わせられ、この入力制約に基づき、FE表現パラメータにフィッティングが実施される。フィッティングオペレーションは、2つの部分からなってもよい。すなわち、(i)剛性安定化と、(ii)表現パラメータ追跡とである。最適化オペレーションは、剛性ポーズ値とパラメータ値との双方が収束するまで、剛性安定化と表現パラメータ追跡の間で選択的に実施されてもよい。 The tracked landmark position 415 is combined as an input constraint to compute the FE parameter 424, and a fitting is performed on the FE expression parameter based on the input constraint. The fitting operation may consist of two parts. That is, (i) rigidity stabilization and (ii) expression parameter tracking. Optimization operations may be selectively performed between stiffness stabilization and representation parameter tracking until both stiffness pose values and parameter values converge.

剛性安定化については、顔の剛性ポーズをカメラに対して動かすことができる。ユーザが表情を作るとき、の筋肉がヘッドセットを前方且つ上方に押し上げ、カメラに対する相対的な顔の剛性ポーズを経時的に変化させる。ポーズがロックされたとき、剛性的な動きにより、表現パラメータ追跡にアーティファクトを生じるため、無関係な剛性的動きの因子により、不正確なパラメータ値が得られることがある。さらに、ユーザが素早く頭部を動かすとき、ヘッドセットが顔にしっかり装着されていたとしても、顔に対して滑り落ちてしまうことがある。このような状況により、頭部ポーズが固定されているという前提が無効になり、表現追跡にアーティファクトを生じる。ヘッドセットに対する頭部の位置のずれを調整するために、剛性安定化が実施され、ヘッドセット上に剛性固定されたカメラに対する頭部の相対的ポーズを演算する。

For stiffness stabilization, the rigid pose of the face can be moved with respect to the camera. As the user makes facial expressions, the muscles of the cheeks push the headset forward and upward, changing the rigid pose of the face relative to the camera over time. When the pose is locked, stiff movements can cause artifacts in the representation parameter tracking, so unrelated stiff movement factors can result in inaccurate parameter values. Furthermore, when the user moves his head quickly, he or she may slip off the face, even if the headset is firmly attached to the face. Such a situation invalidates the assumption that the head pose is fixed, resulting in artifact tracking artifacts. Rigidity stabilization is performed to adjust the offset of the position of the head with respect to the headset and computes the relative pose of the head with respect to a camera rigidly fixed on the headset.

一実施形態において、頭部の初期剛性ポーズを判定するために、キャリブレーション段階において剛性反復最近接点(ICP)アルゴリズムが使用される。しかしながら、追跡モードへの切り替え後、初期剛性ポーズは、ヘッドセットに対する頭部の相対的な動きを調整するように限定的範囲での摂動を許容されたアンカーとして使用される。剛性ICPはまた、特に、ユーザがHMDを外し、それを再び装着した後に、HMDからの頭部ポーズのオフセットを考慮して頭部の初期剛性ポーズを判定するために、追跡モードの開始時にいくつかの画像フレームに対して実施されてもよい。その後、剛性ICPを再び実施することにより、剛性ポーズが再初期化される。初期剛性ポーズが判定された後、追跡されたランドマーク位置と入力された深度マップとを入力制約として使用しつつ、回転のヨー、ロール、ピッチと変換x、y、zの値が初期剛性ポーズの所与の限度を超えて外れることがないように、制約を追加して剛性ICPが実施されてもよい。 In one embodiment, a Rigid Iterative Closest Point (ICP) algorithm is used in the calibration phase to determine the initial rigid pose of the head. However, after switching to tracking mode, the initial rigid pose is used as an anchor that is perturbed to a limited extent to adjust the relative movement of the head with respect to the headset. The Stiffness ICP also determines how many at the beginning of the tracking mode, especially after the user has removed the HMD and put it back on, to determine the initial stiffness pose of the head considering the offset of the head pose from the HMD. It may be performed for any image frame. The rigid pose is then re-initialized by performing the rigid ICP again. After the initial stiffness pose is determined, the yaw, roll, and pitch of the rotation and the x, y, z values of the rotation are used as the input constraint while using the tracked landmark position and the input depth map. A rigid ICP may be implemented with additional constraints such that it does not exceed a given limit of

FEパラメータ424を得るために、ランドマーク位置415及び419(及び3Dカメラが使用される場合には深度マップ)に基づき、個人化追跡モデルにフィッティングが実施される。キャリブレーションプロセスのように、撮影カメラは、ヘッドセットに剛性的に固定されると想定され、それらの相対的ポーズ(すなわち、回転及び変換)におけるパラメータが既知であると想定される。FEパラメータ生成器422は、ランドマーク位置415及び419(及び3Dカメラが使用される場合には深度マップ)に基づき、FE表現パラメータを取得するために、フィッティングオペレーションを実施してもよい。 A fitting is performed on the personalized tracking model based on the landmark positions 415 and 419 (and the depth map if a 3D camera is used) to obtain the FE parameter 424. As with the calibration process, the filming cameras are assumed to be rigidly fixed to the headset and the parameters in their relative poses (ie rotation and translation) are assumed to be known. The FE parameter generator 422 may perform a fitting operation to obtain FE representation parameters based on the landmark positions 415 and 419 (and the depth map if a 3D camera is used).

個人化線形モデルは、個人化無表情モデルMから導き出された一組の表情形状(例えば、笑顔と顎の開放)である。一実施形態において、FEパラメータ生成器422は、フィッティング最適化を実施するためのワールド座標における式(8)に示される通り、個人化線形表現モデル(すなわち、ブレンドシェイプモデル)Bを利用して顔メッシュWを表す。 The personalized linear model is a set of facial expression shapes (for example, a smile and open jaw) derived from the personalized expressionless model M. In one embodiment, the FE parameter generator 422 utilizes a personalized linear representation model (ie, a blend shape model) B as shown in equation (8) in world coordinates to perform the fitting optimization, using the face. The mesh W is shown.

Figure 0006742405
Figure 0006742405

式中、eはブレンドシェイプモデルのための線形重みづけベクトルであり、Rは回転行列であり、tは剛性安定化ステップから演算された変換ベクトルである。FEパラメータ生成器422における追跡プロセスでは、以下のエネルギー項を最小化することにより、最適なeを反復的にみつける。 Where e is the linear weighting vector for the blend shape model, R is the rotation matrix, and t is the transformation vector calculated from the stiffness stabilization step. The tracking process in FE parameter generator 422 iteratively finds the optimal e by minimizing the following energy terms:

Figure 0006742405
Figure 0006742405

式中、α、β、γはフィッティング項についての重みづけを表し、C plは、式(10)で規定される通り、深度マップと顔メッシュWとの間の点−面誤差を最小化するフィッティング項である。C は、式(11)で規定される通り、口、鼻、シルエットの2D顔特徴ランドマークと顔のメッシュWの対応頂点との間の点−点誤差を最小化するフィッティング項である。C は、式(12)で規定される通り、右目領域の2D顔特徴ランドマークと顔メッシュWの対応頂点との間の点−点誤差を最小化するフィッティング項である。C は、式(13)で規定される通り、左目領域の2D顔特徴ランドマークと顔メッシュWの対応頂点との間の点−点誤差を最小化するフィッティング項である。C plは、以下の通り、規定される。 Where α, β, and γ represent weighting for the fitting terms, and C * pl minimizes the point-to-face error between the depth map and the face mesh W, as defined by equation (10). Is a fitting term that C * m is a fitting term that minimizes the point-to-point error between the 2D facial feature landmarks of the mouth, nose, and silhouette and the corresponding vertices of the face mesh W, as defined by equation (11). .. C * r is a fitting term that minimizes the point-to-point error between the 2D facial feature landmark in the right eye region and the corresponding vertex of the face mesh W, as defined by equation (12). C * l is a fitting term that minimizes the point-to-point error between the 2D facial feature landmark in the left eye region and the corresponding vertex of the face mesh W, as defined by equation (13). C * pl is defined as follows.

Figure 0006742405
Figure 0006742405

式中、νは顔メッシュWのi番目の頂点であり、pはνと同一のカメラ空間座標である深度マップ上の点であり、nはpにおける面法線である。C は、以下の通り、規定される。 In the formula, ν i is the i-th vertex of the face mesh W, p i is a point on the depth map that is the same camera space coordinate as ν i, and n i is the surface normal at p i . C * m is defined as follows.

Figure 0006742405
Figure 0006742405

式中、uは追跡された2D顔特徴の位置であり、π(ν)は対応メッシュ頂点νの口カメラ空間への投影である。C は、以下の通り、規定される。 Where u j is the position of the tracked 2D facial feature and π mj ) is the projection of the corresponding mesh vertex ν j into the mouth camera space. C * r is defined as follows.

Figure 0006742405
Figure 0006742405

式中、uは追跡された2D顔特徴の位置であり、π(ν)は対応メッシュ頂点νの右目領域のカメラ空間への投影である。C は、以下の通り、規定される。 Where u j is the position of the tracked 2D facial feature and π rj ) is the projection of the corresponding mesh vertex ν j into the camera space of the right eye region. C * l is defined as follows.

Figure 0006742405
Figure 0006742405

式中、uは追跡された2D顔特徴の位置であり、π(ν)は対応メッシュ頂点νの左目領域のカメラ空間への投影である。右目及び左目の双方に対して1つのみのカメラが使用される場合、C及びCは、1つの式に組み合わせられる。 Where u j is the position of the tracked 2D facial feature and π lj ) is the projection of the corresponding mesh vertex ν j into the camera space of the left eye region. If only one camera is used for both the right and left eyes, then C r and C l are combined into one equation.

一実施形態において、FEパラメータ生成器422は、検出されたユーザの表情を総合的に示すFEパラメータを追跡プロセスの結果として生成しながら、式(8)中、eで表されるブレンドシェイプウェイト値を出力する。 In one embodiment, the FE parameter generator 422 generates a FE parameter that is generally indicative of the detected user's facial expression as a result of the tracking process, while the blend shape weight value represented by e in equation (8). Is output.

1つ以上の実施形態において、図7のステップは、リアルタイムで実施され、カメラから受信した画像402及び404の各セットを処理してもよい。さらに、図7に示されるステップ及びステップのシーケンスは、単なる例示である。例えば、ランドマーク位置を判定するステップ710と、3D深度マップデータを判定するステップ720とは、逆の順序で実施することもでき、また並列に実施することもできる。 In one or more embodiments, the steps of Figure 7 may be performed in real time to process each set of images 402 and 404 received from the camera. Moreover, the steps and sequence of steps shown in FIG. 7 are merely exemplary. For example, the step 710 of determining the landmark position and the step 720 of determining the 3D depth map data may be performed in reverse order or may be performed in parallel.

本明細書中、本発明の特定の実施形態及び適用について図示及び説明したが、本発明は、本明細書に開示の精密な構成及び構成要素に限定されるものでなく、本発明の方法及び装置の配置、オペレーション、及び詳細において、添付のクレームによって規定される本発明の主旨及び範囲から逸脱することなく、種々の修正、変更、及び変化が加えられてもよいことが理解されなければならない。 While particular embodiments and applications of the present invention have been illustrated and described herein, the present invention is not limited to the precise constructions and components disclosed herein, but rather the methods and methods of the present invention. It should be understood that various modifications, changes, and variations in the arrangement, operation, and details of the device may be made without departing from the spirit and scope of the invention as defined by the appended claims. ..

Claims (17)

表情検出方法であって、
ヘッドマウントディスプレイの主要本体上の第1画像撮影装置により、ユーザの目領域を含む前記ユーザの顔の上部の第1画像を撮影することと、
前記ヘッドマウントディスプレイの前記主要本体から前記ユーザの顔の下部に向かって下方に伸びる伸張部材上の第2画像撮影装置により、前記ユーザの顔の前記下部を含む前記ユーザの第2画像を撮影することと、
前記第1画像及び前記第2画像を処理することにより、前記ユーザの表情を表す表情パラメータを抽出することと、を備え、
前記第1画像及び前記第2画像の処理では、剛性安定化を実行し、前記第1画像撮影装置及び前記第2画像撮影装置に対する前記ユーザの顔の相対的なポーズを決定する方法。
A facial expression detection method,
Capturing a first image of the top of the user's face, including the user's eye area, with a first image capture device on the main body of the head-mounted display;
A second image capturing device on the extension member extending downward from the main body of the head mounted display toward the lower portion of the user's face captures a second image of the user including the lower portion of the user's face. That
Extracting a facial expression parameter representing the facial expression of the user by processing the first image and the second image.
A method of performing rigidity stabilization in the processing of the first image and the second image to determine a relative pose of the face of the user with respect to the first image capturing device and the second image capturing device.
前記第1画像撮影装置は、一対の赤外線カメラを備え、前記第2画像撮影装置は、深度カメラ、カラーカメラ、赤外線カメラ、又は2つの立体カメラ、のうちの1つを備える請求項1に記載の方法。 The first image capturing device comprises a pair of infrared cameras, and the second image capturing device comprises one of a depth camera, a color camera, an infrared camera, or two stereoscopic cameras. the method of. 前記第1画像及び前記第2画像を処理することは、
前記第1画像から、前記ユーザの目及び前記ユーザの眉に関連付けられたランドマーク位置を検出することと、
前記第2画像から、前記ユーザの顔の下部に関連付けられたランドマーク位置を検出することと、を備える請求項1に記載の方法。
Processing the first image and the second image includes
Detecting landmark positions associated with the user's eyes and the user's eyebrows from the first image;
Detecting a landmark position associated with the lower portion of the user's face from the second image.
前記抽出された表情パラメータを前記ユーザのデジタル表現に適用することにより、前記ユーザのグラフィック表現を生成することをさらに備える請求項1に記載の方法。 The method of claim 1, further comprising applying the extracted facial expression parameters to a digital representation of the user to generate a graphical representation of the user. 前記ユーザの無表情を表すキャリブレーション画像を撮影および処理することにより、キャリブレーションを実施することをさらに備える請求項1に記載の方法。 The method of claim 1, further comprising performing calibration by capturing and processing a calibration image that represents the user's expressionlessness. 前記キャリブレーションを実施することは、
前記キャリブレーション画像に基づき、個人化無表情メッシュを生成することと、
変形転写技術を前記個人化無表情メッシュに適用することにより、個人化追跡モデルを構築することと、を備え、
前記第1画像及び前記第2画像の前記処理は、前記個人化追跡モデルに基づき、少なくとも1つのブレントシェイプモデルを前記第1画像及び前記第2画像におけるランドマーク位置にフィッティングすることにより、前記表情パラメータを得ることを備える請求項5に記載の方法。
Performing the calibration is
Generating a personalized expressionless mesh based on the calibration image;
Constructing a personalized tracking model by applying a deformation transfer technique to the personalized expressionless mesh,
The processing of the first image and the second image is performed by fitting at least one Brent shape model to a landmark position in the first image and the second image based on the personalized tracking model to obtain the facial expression. The method of claim 5, comprising obtaining a parameter.
前記第1画像及び前記第2画像の前記処理は、リアルタイムで実施される請求項6に記載の方法。 The method of claim 6, wherein the processing of the first image and the second image is performed in real time. ヘッドマウントディスプレイであって、
目領域を含むユーザの顔の上部を示す第1画像を撮影するように構成された本体上の第1画像撮影装置と、
前記ユーザの顔の下部を示す第2画像を撮影するように構成され、前記本体から下方に延伸した伸張部材又は前記本体に搭載された第2画像撮影装置と、
剛性安定化を実施し、前記第1画像撮影装置及び前記第2画像撮影装置に対するユーザの顔の相対的なポーズを決定することで生成された画像を前記ユーザに表示するように構成された前記本体上の表示装置と、
前記本体と、
を備えるヘッドマウントディスプレイユニット。
A head mounted display,
A first image capture device on the body configured to capture a first image showing an upper portion of the user's face including the eye region;
Is configured to capture a second image showing the bottom of the face of the user, and the second image capturing device mounted on elongate members or the main body was stretched downwardly from said body,
Wherein the image is generated by performing stiffness stabilization and determining a relative pose of the user's face with respect to the first image capture device and the second image capture device and displaying the image to the user. A display device on the main body,
The main body,
Head mounted display unit.
前記第1画像撮影装置は、一対の赤外線カメラを備え、前記第2画像撮影装置は、深度カメラ、カラーカメラ、赤外線カメラ、又は2つの立体カメラのうちの1つを備える請求項8に記載のヘッドマウントディスプレイユニット。 The first image capturing device comprises a pair of infrared cameras, and the second image capturing device comprises one of a depth camera, a color camera, an infrared camera, or two stereoscopic cameras. Head mounted display unit. 摺動可能なマウントをさらに備える請求項8に記載のヘッドマウントディスプレイユニット。 The head mounted display unit according to claim 8, further comprising a slidable mount. 前記表示装置は、第1ディスプレイ及び第2ディスプレイを備え、前記第1ディスプレイは、左側画像を前記ユーザの左目の方に表示するように構成され、前記第2ディスプレイは、右側画像を前記ユーザの右目の方に表示するように構成される請求項8に記載のヘッドマウントディスプレイユニット。 The display device includes a first display and a second display, the first display is configured to display a left image toward the left eye of the user, and the second display displays a right image of the user. The head mounted display unit according to claim 8, which is configured to display on the right eye side. 前記第1画像撮影装置は、一対のカメラを備え、前記カメラは各々、前記本体の両側に設置される請求項8に記載のヘッドマウントディスプレイユニット。 The head mount display unit according to claim 8, wherein the first image capturing device includes a pair of cameras, and the cameras are installed on both sides of the main body. 前記第2画像撮影装置は、前記本体に直接搭載される請求項8に記載のヘッドマウントディスプレイユニット。 The head mounted display unit according to claim 8, wherein the second image capturing device is directly mounted on the main body. 前記本体は、前記目領域を包含する膨らんだ上部を有する請求項8に記載のヘッドマウントディスプレイユニット。 The head mounted display unit according to claim 8, wherein the main body has a bulged upper portion including the eye region. 前記表示装置は、一対の別個の表示部を備え、前記第1画像撮影装置は、前記一対の表示部の間に2つのカメラを備える請求項8に記載のヘッドマウントディスプレイユニット。 The head mounted display unit according to claim 8, wherein the display device includes a pair of separate display units, and the first image capturing device includes two cameras between the pair of display units. 仮想現実又は拡張現実システムであって、
目領域を含むユーザの顔の上部の第1画像を撮影するように構成された第1画像撮影装置と、
前記第1画像撮影装置の下方位置に設けられ、前記ユーザの顔の下部の第2画像を撮影するように構成された第2画像撮影装置と、
画像を前記ユーザに表示するように構成された表示装置と、
前記第1画像撮影装置、及び前記表示装置を搭載するように構成された本体と、
前記本体から前記ユーザの顔の前記下部に向かって伸びた伸張部材と、
を備え、
前記第2画像撮影装置は前記本体又は前記伸張部材に搭載されるヘッドマウントディスプレイユニットと、
前記ヘッドマウントディスプレイユニットに通信可能に連結される演算装置と、
を備え、
前記演算装置は、
前記ヘッドマウントディスプレイユニットから前記第1画像及び前記第2画像を受信し、
剛性安定化に基づき個人化無表情メッシュを生成し、前記個人化無表情メッシュに変形転写技術を適用することで個人化追跡モデルを構築することにより、キャリブレーションを実施し、
前記個人化追跡モデルに基づき、前記第1画像及び前記第2画像内のランドマーク位置に少なくともブレンドシェイプモデルをフィッティングすることにより、前記第1画像及び前記第2画像を処理して、前記ユーザの表情を表す表情パラメータを得る仮想現実又は拡張現実システム。
A virtual or augmented reality system,
A first image capture device configured to capture a first image of an upper portion of the user's face including the eye region;
A second image capturing device that is provided below the first image capturing device and is configured to capture a second image of the lower part of the user's face;
A display device configured to display an image to the user,
A main body configured to mount the first image capturing device and the display device;
An extension member extending from the body toward the lower portion of the user's face,
Equipped with
The second image capturing device includes a head mount display unit mounted on the main body or the extension member,
A computing device communicatively coupled to the head mounted display unit,
Equipped with
The arithmetic unit is
Receiving the first image and the second image from the head mounted display unit,
Calibration is performed by generating a personalized expressionless mesh based on stiffness stabilization and applying a deformation transfer technique to the personalized expressionless mesh to build a personalized tracking model,
The first image and the second image are processed by fitting at least the blend shape model to the landmark positions in the first image and the second image based on the personalized tracking model to process the first image of the user. A virtual reality or augmented reality system that obtains facial expression parameters that represent facial expressions.
前記演算装置は、
前記第1画像から、前記ユーザの目及び前記ユーザの眉に関連付けられたランドマーク位置を検出し、
前記第2画像から、前記ユーザの顔の前記下部に関連付けられたランドマーク位置を検出するように構成される請求項16に記載の仮想現実又は拡張現実システム。
The arithmetic unit is
Detecting landmark positions associated with the user's eyes and the user's eyebrows from the first image;
The virtual reality or augmented reality system of claim 16, configured to detect a landmark position associated with the lower portion of the user's face from the second image.
JP2018517321A 2015-09-29 2016-09-26 Head-mounted display with facial expression detection function Active JP6742405B2 (en)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201562234478P 2015-09-29 2015-09-29
US62/234,478 2015-09-29
US201662337261P 2016-05-16 2016-05-16
US62/337,261 2016-05-16
PCT/US2016/053821 WO2017058733A1 (en) 2015-09-29 2016-09-26 Head-mounted display with facial expression detecting capability

Publications (2)

Publication Number Publication Date
JP2018538593A JP2018538593A (en) 2018-12-27
JP6742405B2 true JP6742405B2 (en) 2020-08-19

Family

ID=58406374

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018517321A Active JP6742405B2 (en) 2015-09-29 2016-09-26 Head-mounted display with facial expression detection function

Country Status (6)

Country Link
US (2) US10089522B2 (en)
JP (1) JP6742405B2 (en)
KR (1) KR102136241B1 (en)
CN (1) CN108140105A (en)
DE (1) DE112016004437T5 (en)
WO (1) WO2017058733A1 (en)

Families Citing this family (56)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
EP3186787A1 (en) * 2014-08-29 2017-07-05 Thomson Licensing Method and device for registering an image to a model
US10459232B2 (en) * 2014-10-21 2019-10-29 Koninklijke Philips N.V. Augmented reality patient interface device fitting apparatus
DE102016110903A1 (en) * 2015-06-14 2016-12-15 Facense Ltd. Head-mounted devices for measuring physiological reactions
US10276210B2 (en) 2015-11-18 2019-04-30 International Business Machines Corporation Video enhancement
JP2017097645A (en) * 2015-11-25 2017-06-01 ソニー株式会社 Information processing device, information processing method, and program
US10684674B2 (en) * 2016-04-01 2020-06-16 Facebook Technologies, Llc Tracking portions of a user's face uncovered by a head mounted display worn by the user
JP2017202038A (en) * 2016-05-10 2017-11-16 富士通株式会社 Discrimination device, discrimination method, and discrimination program
WO2018089691A1 (en) 2016-11-11 2018-05-17 Magic Leap, Inc. Periocular and audio synthesis of a full face image
JP6969577B2 (en) * 2017-01-20 2021-11-24 ソニーグループ株式会社 Information processing equipment, information processing methods, and programs
US11042729B2 (en) * 2017-05-01 2021-06-22 Google Llc Classifying facial expressions using eye-tracking cameras
US10636193B1 (en) * 2017-06-29 2020-04-28 Facebook Technologies, Llc Generating graphical representation of a user's face and body using a monitoring system included on a head mounted display
US10636192B1 (en) 2017-06-30 2020-04-28 Facebook Technologies, Llc Generating a graphical representation of a face of a user wearing a head mounted display
CN107590430A (en) * 2017-07-26 2018-01-16 百度在线网络技术(北京)有限公司 Biopsy method, device, equipment and storage medium
CN107886558A (en) * 2017-11-13 2018-04-06 电子科技大学 A kind of human face expression cartoon driving method based on RealSense
JP2019106045A (en) * 2017-12-13 2019-06-27 キヤノン株式会社 Image processing device, method, and program
US10586370B2 (en) 2018-01-08 2020-03-10 Facebook Technologies, Llc Systems and methods for rendering avatars with deep appearance models
WO2019156651A1 (en) 2018-02-06 2019-08-15 Hewlett-Packard Development Company, L.P. Constructing images of users' faces by stitching non-overlapping images
CN108256505A (en) * 2018-02-12 2018-07-06 腾讯科技(深圳)有限公司 Image processing method and device
WO2019162842A1 (en) * 2018-02-20 2019-08-29 Hike Private Limited A system and a method for customizing an image based on facial expressions
CN108446609B (en) * 2018-03-02 2022-03-11 南京邮电大学 Multi-angle facial expression recognition method based on generation countermeasure network
JP7344894B2 (en) * 2018-03-16 2023-09-14 マジック リープ, インコーポレイテッド Facial expressions from eye-tracking cameras
US11210832B2 (en) 2018-04-24 2021-12-28 Hewlett-Packard Development Company, L.P. Animated gazes on head mounted displays
US10650563B2 (en) 2018-07-26 2020-05-12 BinaryVR, Inc. Tongue position tracking for facial animation
CN110866864A (en) 2018-08-27 2020-03-06 阿里巴巴集团控股有限公司 Face pose estimation/three-dimensional face reconstruction method and device and electronic equipment
TW202014992A (en) 2018-10-08 2020-04-16 財團法人資訊工業策進會 System and method for simulating expression of virtual facial model
CN111127537A (en) 2018-10-29 2020-05-08 托比股份公司 Method and apparatus for detecting shadows in a head mounted device
US10529113B1 (en) * 2019-01-04 2020-01-07 Facebook Technologies, Llc Generating graphical representation of facial expressions of a user wearing a head mounted display accounting for previously captured images of the user's facial expressions
US20220128813A1 (en) * 2019-06-07 2022-04-28 Hewlett-Packard Development Company, L.P. Eye movement controls in extended reality
US11301677B2 (en) * 2019-06-14 2022-04-12 Tobil AB Deep learning for three dimensional (3D) gaze prediction
US10885693B1 (en) * 2019-06-21 2021-01-05 Facebook Technologies, Llc Animating avatars from headset cameras
EP3973697A4 (en) 2019-07-26 2023-03-15 Hewlett-Packard Development Company, L.P. Modification of projected structured light based on identified points within captured image
JP7295045B2 (en) * 2020-01-16 2023-06-20 株式会社コロプラ Programs, computer implemented methods and computers
WO2021187647A1 (en) * 2020-03-20 2021-09-23 라인플러스 주식회사 Method and system for expressing avatar imitating user's motion in virtual space
EP4150520A4 (en) * 2020-05-15 2024-05-22 Cornell University Wearable devices for facial expression recognition
EP3934268A4 (en) * 2020-05-21 2022-01-26 Baidu Online Network Technology (Beijing) Co., Ltd. User interaction method and apparatus, and device and medium
CN111709302B (en) * 2020-05-21 2023-08-25 青岛小鸟看看科技有限公司 Facial expression detection method and device, head-mounted display equipment and storage medium
CN111885343B (en) * 2020-07-31 2022-06-14 中国工商银行股份有限公司 Feature processing method and device, electronic equipment and readable storage medium
CN114125193A (en) * 2020-08-31 2022-03-01 安霸国际有限合伙企业 Timing mechanism for contaminant free video streaming using RGB-IR sensors with structured light
US20230368574A1 (en) * 2020-10-02 2023-11-16 Hewlett-Packard Development Company, L.P. User identification via extended reality image capture
US20230393406A1 (en) * 2020-10-30 2023-12-07 Hewlett-Packard Development Company, L.P. Digitising drawings
US20230408830A1 (en) * 2020-10-30 2023-12-21 Hewlett-Packard Development Company, L.P. Head mounted display assembly
US11644890B2 (en) * 2021-02-11 2023-05-09 Qualcomm Incorporated Image capturing in extended reality environments
US11614345B2 (en) 2021-06-16 2023-03-28 Microsoft Technology Licensing, Llc Surface sensing via resonant sensor
WO2022271499A1 (en) * 2021-06-25 2022-12-29 Innopeak Technology, Inc. Methods and systems for depth estimation using fisheye cameras
US11977979B2 (en) * 2021-07-23 2024-05-07 Qualcomm Incorporated Adaptive bounding for three-dimensional morphable models
US11670059B2 (en) 2021-09-01 2023-06-06 Snap Inc. Controlling interactive fashion based on body gestures
US11673054B2 (en) 2021-09-07 2023-06-13 Snap Inc. Controlling AR games on fashion items
US11900506B2 (en) * 2021-09-09 2024-02-13 Snap Inc. Controlling interactive fashion based on facial expressions
US11734866B2 (en) 2021-09-13 2023-08-22 Snap Inc. Controlling interactive fashion based on voice
US11636662B2 (en) 2021-09-30 2023-04-25 Snap Inc. Body normal network light and rendering control
US11983826B2 (en) 2021-09-30 2024-05-14 Snap Inc. 3D upper garment tracking
US11651572B2 (en) 2021-10-11 2023-05-16 Snap Inc. Light and rendering of garments
US20230266589A1 (en) * 2022-02-23 2023-08-24 Qualcomm Incorporated Adjustable camera system
US20240029331A1 (en) * 2022-07-22 2024-01-25 Meta Platforms Technologies, Llc Expression transfer to stylized avatars
GB2621868A (en) * 2022-08-25 2024-02-28 Sony Interactive Entertainment Inc An image processing method, device and computer program
CN116704572B (en) * 2022-12-30 2024-05-28 荣耀终端有限公司 Eye movement tracking method and device based on depth camera

Family Cites Families (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH01196366A (en) * 1988-02-02 1989-08-08 Mitsubishi Electric Corp Printing head control device
KR200145873Y1 (en) * 1996-12-30 1999-06-15 전주범 Headphone having a camera and microphone therein for capturing a facial expression in a 3 dimension model-based coding system
US6121953A (en) * 1997-02-06 2000-09-19 Modern Cartoons, Ltd. Virtual reality system for sensing facial movements
JP3771989B2 (en) * 1997-03-24 2006-05-10 オリンパス株式会社 Image / audio communication system and videophone transmission / reception method
WO1999023524A1 (en) * 1997-10-30 1999-05-14 The Microoptical Corporation Eyeglass interface system
US6774869B2 (en) * 2000-12-22 2004-08-10 Board Of Trustees Operating Michigan State University Teleportal face-to-face system
US7949616B2 (en) * 2004-06-01 2011-05-24 George Samuel Levy Telepresence by human-assisted remote controlled devices and robots
US8488023B2 (en) * 2009-05-20 2013-07-16 DigitalOptics Corporation Europe Limited Identifying facial expressions in acquired digital images
JP5362357B2 (en) * 2005-08-26 2013-12-11 ソニー株式会社 Capture and process facial movement data
US7606392B2 (en) * 2005-08-26 2009-10-20 Sony Corporation Capturing and processing facial motion data
JP4756589B2 (en) * 2005-12-07 2011-08-24 ソニー株式会社 Image processing apparatus and method, program, and recording medium
TWI365416B (en) * 2007-02-16 2012-06-01 Ind Tech Res Inst Method of emotion recognition and learning new identification information
US9390516B2 (en) * 2008-09-29 2016-07-12 Two Pic Mc Llc Asynchronous streaming of data for validation
KR101527408B1 (en) * 2008-11-04 2015-06-17 삼성전자주식회사 System and method for sensing facial gesture
JP5446572B2 (en) * 2009-08-12 2014-03-19 学校法人近畿大学 Image generation system, control program, and recording medium
HU0900696D0 (en) 2009-11-05 2009-12-28 Holakovszky Laszlo Binocular display device
KR101708682B1 (en) * 2010-03-03 2017-02-21 엘지전자 주식회사 Apparatus for displaying image and and method for operationg the same
EP2613555A3 (en) * 2012-01-06 2014-04-30 LG Electronics, Inc. Mobile terminal with eye movement sensor and grip pattern sensor to control streaming of contents
US9679215B2 (en) * 2012-01-17 2017-06-13 Leap Motion, Inc. Systems and methods for machine control
CN103093490B (en) * 2013-02-02 2015-08-26 浙江大学 Based on the real-time face animation method of single video camera
US10019057B2 (en) * 2013-06-07 2018-07-10 Sony Interactive Entertainment Inc. Switching mode of operation in a head mounted display
US9104907B2 (en) * 2013-07-17 2015-08-11 Emotient, Inc. Head-pose invariant recognition of facial expressions
CN105637512B (en) * 2013-08-22 2018-04-20 贝斯普客公司 For creating the method and system of customed product
US9317954B2 (en) * 2013-09-23 2016-04-19 Lucasfilm Entertainment Company Ltd. Real-time performance capture with on-the-fly correctives
US9477878B2 (en) * 2014-01-28 2016-10-25 Disney Enterprises, Inc. Rigid stabilization of facial expressions
US9672416B2 (en) * 2014-04-29 2017-06-06 Microsoft Technology Licensing, Llc Facial expression tracking
CN104778750B (en) * 2015-04-13 2018-12-18 北京迪生数字娱乐科技股份有限公司 A kind of facial expression captures system and implementation method
US9600742B2 (en) * 2015-05-05 2017-03-21 Lucasfilm Entertainment Company Ltd. Determining control values of an animation model using performance capture
JP6518134B2 (en) * 2015-05-27 2019-05-22 株式会社ソニー・インタラクティブエンタテインメント Pre-worn display device

Also Published As

Publication number Publication date
CN108140105A (en) 2018-06-08
KR102136241B1 (en) 2020-07-22
JP2018538593A (en) 2018-12-27
KR20180112756A (en) 2018-10-12
US10089522B2 (en) 2018-10-02
WO2017058733A1 (en) 2017-04-06
DE112016004437T5 (en) 2018-07-05
US20180365484A1 (en) 2018-12-20
US20170091535A1 (en) 2017-03-30

Similar Documents

Publication Publication Date Title
JP6742405B2 (en) Head-mounted display with facial expression detection function
US11796309B2 (en) Information processing apparatus, information processing method, and recording medium
US9348950B2 (en) Perceptually guided capture and stylization of 3D human figures
AU2015348151B2 (en) Real-time visual feedback for user positioning with respect to a camera and a display
EP3274916B1 (en) Automated three dimensional model generation
CN107111753B (en) Gaze detection offset for gaze tracking models
WO2013077076A1 (en) Expression output device and expression output method
JP4950787B2 (en) Image processing apparatus and method
WO2009091029A1 (en) Face posture estimating device, face posture estimating method, and face posture estimating program
CN106997618A (en) A kind of method that virtual reality is merged with real scene
JP7490784B2 (en) Augmented Reality Map Curation
JP2008194146A (en) Visual line detecting apparatus and its method
JP2011053942A (en) Apparatus, method and program for processing image
JP2019046239A (en) Image processing apparatus, image processing method, program, and image data for synthesis
JP4659722B2 (en) Human body specific area extraction / determination device, human body specific area extraction / determination method, human body specific area extraction / determination program
JP6098133B2 (en) Face component extraction device, face component extraction method and program
JP2000268161A (en) Real time expression detector
CN116547719A (en) Sensor simulation
KR101844367B1 (en) Apparatus and Method for Head pose estimation using coarse holistic initialization followed by part localization
JP2021022185A (en) Image processing device, image processing program, and image processing method
JP2016062184A (en) Moving image generation system, moving image generation device, moving image generation method, and computer program
JP2022007839A (en) Motion measuring device
CN113496195A (en) Face image processing device and face image processing program
JP2014099077A (en) Face component extraction device, face component extraction method, and program

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20180426

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20180426

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190404

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190528

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190819

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20191224

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200116

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20200630

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20200728

R150 Certificate of patent or registration of utility model

Ref document number: 6742405

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250