JP7212741B2 - 3次元アバタ生成方法、装置、電子機器及び記憶媒体 - Google Patents

3次元アバタ生成方法、装置、電子機器及び記憶媒体 Download PDF

Info

Publication number
JP7212741B2
JP7212741B2 JP2021174058A JP2021174058A JP7212741B2 JP 7212741 B2 JP7212741 B2 JP 7212741B2 JP 2021174058 A JP2021174058 A JP 2021174058A JP 2021174058 A JP2021174058 A JP 2021174058A JP 7212741 B2 JP7212741 B2 JP 7212741B2
Authority
JP
Japan
Prior art keywords
dimensional
face
model
processed
avatar
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021174058A
Other languages
English (en)
Other versions
JP2022020054A (ja
Inventor
ペン,ジェ
バオ,ガンボ
リュウ,ユジャン
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Beijing Baidu Netcom Science and Technology Co Ltd
Original Assignee
Beijing Baidu Netcom Science and Technology Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Beijing Baidu Netcom Science and Technology Co Ltd filed Critical Beijing Baidu Netcom Science and Technology Co Ltd
Publication of JP2022020054A publication Critical patent/JP2022020054A/ja
Application granted granted Critical
Publication of JP7212741B2 publication Critical patent/JP7212741B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/20Editing of 3D images, e.g. changing shapes or colours, aligning objects or positioning parts
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/168Feature extraction; Face representation
    • G06V40/171Local features and components; Facial parts ; Occluding parts, e.g. glasses; Geometrical relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/04Texture mapping
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/10Human or animal bodies, e.g. vehicle occupants or pedestrians; Body parts, e.g. hands
    • G06V40/16Human faces, e.g. facial parts, sketches or expressions
    • G06V40/161Detection; Localisation; Normalisation
    • G06V40/165Detection; Localisation; Normalisation using facial parts and geometric relationships
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2219/00Indexing scheme for manipulating 3D models or images for computer graphics
    • G06T2219/20Indexing scheme for editing of 3D models
    • G06T2219/2021Shape modification
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • General Physics & Mathematics (AREA)
  • Health & Medical Sciences (AREA)
  • Oral & Maxillofacial Surgery (AREA)
  • General Health & Medical Sciences (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Multimedia (AREA)
  • General Engineering & Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Geometry (AREA)
  • Human Computer Interaction (AREA)
  • Molecular Biology (AREA)
  • Biomedical Technology (AREA)
  • Computing Systems (AREA)
  • Architecture (AREA)
  • Computer Hardware Design (AREA)
  • Biophysics (AREA)
  • Mathematical Physics (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Computational Linguistics (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)
  • Image Analysis (AREA)

Description

本出願は、データ処理技術の分野におけるコンピュータビジョン技術、深層学習及び拡張現実などの人工知能の分野に関し、特に、3次元アバタ生成方法、装置、電子機器及び記憶媒体に関する。
人工知能は、コンピュータに人間のある思考プロセス及び知能行為(例えば、学習、推理、思考、計画など)をシミュレートさせることを研究する学科であり、ハードウェアレベルの技術もソフトウェアレベルの技術もある。人工知能技術は、一般的に、センサ、専用の人工知能チップ、クラウドコンピューティング、分散ストレージ、ビッグデータ処理などの技術を含み、人工知能ソフトウェア技術は、主にコンピュータビジョン技術、音声認識技術、自然言語処理技術及び機械学習/深層学習、ビッグデータ処理技術、知識マップ技術などのいくつかの主要な方向を含む。
通常、アバタは、現在市場でますます広く使用されており、アバタは、実写とアニメとの2種類を含む。関連技術において、ユーザが好きなアバタを自分で編集する必要があるが、この編集プロセスが比較的煩雑であり、ユーザが満足しない場合、再編集する必要があるため、多くの時間がかかる。
本出願は、3次元アバタ生成方法、装置、電子機器及び記憶媒体を提供する。
本出願の一態様によれば、3次元アバタ生成方法を提供し、処理対象の顔画像及び3次元参照モデルを取得するステップと、前記処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデル、顔属性情報及び顔フィギュア情報を取得するステップと、前記3次元顔モデルに基づいて前記3次元参照モデルを変形処理して、3次元フィギュアモデルを取得するステップと、前記顔属性情報及び顔フィギュア情報に基づいて前記3次元フィギュアモデルを調整して、ターゲットアバタを取得するステップと、を含む。
本開示の別の態様によれば、3次元アバタ生成装置を提供し、処理対象の顔画像及び3次元参照モデルを取得するための第1の取得モジュールと、前記処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデル、顔属性情報及び顔フィギュア情報を取得するための第2の取得モジュールと、前記3次元顔モデルに基づいて前記3次元参照モデルを変形処理して、3次元フィギュアモデルを取得するための処理モジュールと、前記顔属性情報及び顔フィギュア情報に基づいて前記3次元フィギュアモデルを調整して、ターゲットアバタを取得するための調整モジュールと、を含む。
第3の態様によれば、電子機器を提供し、少なくとも1つのプロセッサと、前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが上記実施例に記載の3次元アバタ生成方法を実行できるように、前記少なくとも1つのプロセッサによって実行される。
第4の態様によれば、コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体を提出し、前記コンピュータ命令は、前記コンピュータに上記実施例に記載の3次元アバタ生成方法を実行させる。
第5の態様によれば、コンピュータプログラムを提供し、前記コンピュータプログラムは、コンピュータに上記実施例に記載の3次元アバタ生成方法を実行させる。
なお、本部分に記載された内容は、本開示の実施例の肝心または重要な特徴を限定することを意図するものではなく、本開示の範囲を限定するものでもない。本開示の他の特徴は、以下の説明によって容易に理解されやすくなる。
図面は、本技術案をよりよく理解するために使用され、本開示を限定するものではない。
本出願の第1の実施例に係る3次元アバタ生成方法の概略フローチャートである。 本出願の第2の実施例に係る3次元アバタ生成方法の概略フローチャートである。 本出願の第3の実施例に係る3次元アバタ生成方法の概略フローチャートである。 本出願の第4の実施例に係る3次元アバタ生成装置の概略構成図である。 本出願の第5の実施例に係る3次元アバタ生成装置の概略構成図である。 本出願の実施例に係る3次元アバタ生成方法を実現するための電子機器のブロック図である。
以下、図面と組み合わせて本開示の例示的な実施例を説明し、理解を容易にするためにその中には本開示の実施例の様々な詳細事項が含まれ、それらは単なる例示的なものと見なされるべきである。したがって、当業者は、本開示の範囲及び精神から逸脱することなく、ここで説明される実施例に対して様々な変更と修正を行うことができる。同様に、わかりやすくかつ簡潔にするために、以下の説明では、周知の機能及び構造の説明を省略する。
以下、図面を参照して本出願の実施例に係る3次元アバタ生成方法、装置、電子機器及び記憶媒体を説明する。
実際の応用シナリオでは、アニメ、オンラインゲームにおいて仮想キャラクターを用いてインタラクションを行うことができ、ユーザが好きなアバタを自分で編集する必要があるが、この編集プロセスが比較的煩雑であり、ユーザが満足しない場合、再編集する必要があるため、多くの時間がかかる。
上記問題に対して、本出願は、処理対象の顔画像及び3次元参照モデルを取得するステップと、処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデル、顔属性情報及び顔フィギュア情報を取得するステップと、3次元顔モデルに基づいて3次元参照モデルを変形処理して、3次元フィギュアモデルを取得するステップと、顔属性情報及び顔フィギュア情報に基づいて3次元フィギュアモデルを調整して、ターゲットアバタを取得するステップと、を含む3次元アバタ生成方法を提出する。これにより、顔画像及び3次元参照モデルを選択することにより、アバタを迅速かつ正確に生成し、操作が簡単で便利であり、3次元アバタの生成効率及び精度を向上させ、ユーザの使用ニーズを満たすことができる。
具体的には、図1は、本出願の第1の実施例に係る3次元アバタ生成方法のフローチャートであり、組織権限処理方法は、電子機器に適用され、ここで、電子機器は、計算能力を有するいずれかの機器、例えば、パーソナルコンピュータ(Personal Computer、PCと略称する)、モバイル端末などであってもよく、モバイル端末は、携帯電話、タブレット、携帯情報端末、ウェアラブルデバイス、車載デバイスなどの、様々なオペレーティングシステム、タッチスクリーン及び/又はディスプレイを有するハードウェアデバイス、例えば、スマートテレビ、スマート冷蔵庫などであってもよい。
図1に示すように、当該方法は、以下のステップ101~104を含む。
ステップ101:処理対象の顔画像及び3次元参照モデルを取得する。
本出願の実施例において、処理対象の顔画像とは、顔を含む画像のことであり、処理対象の顔画像の取得方法には、たくさんの種類があり、具体的には、応用シナリオに応じて選択して設定することができ、以下のように例を挙げて説明する。
第1の例では、撮影機器により顔を含むシナリオを撮影し、処理対象の顔画像を取得する。
第2の例では、ビデオをスクリーンショット又はサブフレーム処理して複数の画像を取得し、顔を含む画像を処理対象の顔画像として選択する。
第3の例では、顔を含む画像を処理対象の顔画像として直接取得する。
本出願の実施例において、3次元参照モデルは、3次元モデル構築ネットワーク又はモデルなどの方式で予め構築されたモデルであると理解でき、ユーザが直接選択できる3次元参照モデルは、一般的に、複数の異なるタイプの3次元参照モデル、例えば、可愛い、綺麗などの異なるタイプの3次元参照モデルである。
ステップ102:処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデル、顔属性情報及び顔フィギュア情報を取得する。
本出願の実施例において、トレーニングされたニューラルネットワークは、畳み込みニューラルネットワーク、循環ニューラルネットワークなどであってもよく、具体的には、応用シナリオの必要に応じて選択して設定することができ、分類タスクトレーニング、回帰タスクトレーニングなどのマルイチタスクニューラルネットワークを同時に実行でき、ここで、分類タスクでトレーニングされたニューラルネットワークが処理対象の顔画像の髪型カテゴリ及び装飾品などを抽出し、回帰タスクでトレーニングされたニューラルネットワークが処理対象の顔画像の髪のテクスチャの色などを抽出する。
本出願の実施例において、ニューラルネットワークを予めトレーニングし、1つの可能な実現方式として、大量の顔画像サンプルを取得し、顔画像サンプルに対して顔キーポイント(例えば、目、口、鼻及び眉など)をキャリブレーションし、キャリブレーションされた顔画像サンプルに対して3次元顔変形モデルのモデリングトレーニングを行うと理解できる。
具体的には、顔キーポイントのラベル付け情報を、3次元マッピング関係に従ってマッピングして3次元サンプル顔モデルを生成し、3次元サンプル顔モデルに対応するベクトル行列を抽出し、ベクトル行列に基づいて顔の3次元構築モデルを構築し、3次元サンプル顔モデルに基づいて顔の3次元構築モデルをトレーニングし、予め確立されたベクトル行列を含む顔の3次元構築モデルを取得する。
具体的には、トレーニングの時に3次元顔モデルと入力された顔画像との間の透視投影関係(1対1の対応関係)を確立する。つまり、トレーニングされたニューラルネットワークは、一枚の顔画像を入力することにより、対応する1つの顔の3次元モデルを取得することができる。
1つの可能な実現方式として、トレーニングされたニューラルネットワークによって処理対象の顔画像の特徴ベクトルを抽出し、特徴ベクトル及び予め確立されたベクトル行列に基づいて、3次元顔モデルを取得する。
なお、当該3次元モデルと顔画像は、固定した透視投影関係(トレーニングの時に設定された)がある。3次元顔モデルによって、予め設定された透視投影関係を取得することができ、顔画像における顔の面部領域を確認し、面部領域の1つの画素値を顔テクスチャ色として取得することができ、顔テクスチャ色は、顔属性情報、すなわち、3次元顔モデルのテクスチャ情報とすることができる。
本出願の実施例において、同様に大量のキャリブレーションされた顔画像をトレーニングし、異なる髪テクスチャ色に対して回帰タスクトレーニングを行い、損失関数によりニューラルネットワークパラメータを引き続き最適化させ、トレーニングされたニューラルネットワークを取得し、トレーニングされたニューラルネットワークにより処理対象の顔画像の髪テクスチャ色を抽出し、髪テクスチャ色は、顔属性情報とすることができる。
本出願の実施例において、同様に大量のキャリブレーションされた顔画像をトレーニングし、異なる髪型、眼鏡などの装飾品に対して分類タスクトレーニングを行い、損失関数によりニューラルネットワークパラメータを引き続き最適化させ、トレーニングされたニューラルネットワークを取得し、トレーニングされたニューラルネットワークにより処理対象の顔画像の髪型カテゴリ及び装飾品を抽出する。
ステップ103:3次元顔モデルに基づいて3次元参照モデルを変形処理して、3次元フィギュアモデルを取得する。
本出願の実施例において、3次元顔モデルに基づいて3次元参照モデルを変形処理して、3次元フィギュアモデルを取得する方法には、たくさんの種類があり、応用シナリオの必要に応じて選択して設定することができ、以下のように例を挙げて説明する。
1つの可能な実現方式として、3次元顔モデルの第1の変形領域、及び3次元参照モデルの第2の変形領域を決定し、ここで、第1の変形領域と第2の変形領域は、マッピング関係であり、第1の変形領域の第1のキーポイント及び第2の変形領域の第2のキーポイントをキャリブレーションし、第1のキーポイントが変形するように制御して、第2のキーポイントをマッピング関係に基づいて対応して変形させ、3次元フィギュアモデルを生成する。
具体的には、変形領域(例えば、頬、口、目、眉、鼻など)を決定し、3次元顔モデル及び3次元参照モデルの変形領域に対応するキーポイントをキャリブレーションし、3次元顔モデルにおけるキャリブレーションされたキーポイントの変形に基づいて、3次元参照モデルにおける対応するキーポイントを変形して、変形されたキャラクターを処理対象の顔画像に形状的に類似させる。
別の可能な実現方式として、3次元顔モデル及び3次元参照モデルにおける各キーポイントの1対1の対応関係を取得し、3次元顔モデルのキーポイント(頬、口、目、眉、鼻など)に基づいて3次元参照モデルのキーポイントを調整して3次元フィギュアモデルを生成する。
ここで、変形領域は、応用シナリオの必要に応じて、1つ又は複数の変形領域、及び変形領域内の各キーポイントを予め設定することにより、3次元顔モデルに基づいて3次元参照モデルを直接変形処理し、3次元アバタの生成効率をさらに向上させることができる。
ステップ104:顔属性情報及び顔フィギュア情報に基づいて3次元フィギュアモデルを調整して、ターゲットアバタを取得する。
本出願の実施例において、顔属性情報は、面部領域の顔テクスチャ色及び髪領域の髪テクスチャ色であってもよく、アバタの髪色、肌色が処理対象の顔画像の肌色、髪色に類似するように、面部領域の顔テクスチャ色及び髪領域の髪テクスチャ色に基づいて3次元フィギュアモデルの対応する領域を調整し、顔フィギュア情報は、ロングカール、ショートヘアなどの髪型であってもよく、装飾品は、眼鏡、イヤリングなどであってもよく、アバタの髪型、装飾品が処理対象の顔画像の髪型、装飾品に類似するように、顔フィギュア情報に基づいて3次元フィギュアモデルを引き続き調整し、ターゲットアバタを取得する。
つまり、1枚の顔画像によりアバタ(アニメであってもよく、実写であってもよく、3次元参照モデルに基づいて決定され)を生成し、先ず顔画像を3次元モデリングして顔の3次元モデルを取得する必要があり、そして当該顔の3次元モデルに基づいて、3次元参照モデルを変形して、3次元フィギュアモデルを取得し、顔画像における顔に対応するテクスチャに基づいて3次元フィギュアモデルのテクスチャ色を調整し、画像における人物の髪型及び髪色に基づいて、3次元フィギュアモデルの髪型及び髪色を調整する。
以上のようにして、本出願の3次元アバタ生成方法は、処理対象の顔画像及び3次元参照モデルを取得し、処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデル、顔属性情報及び顔フィギュア情報を取得し、3次元顔モデルに基づいて3次元参照モデルを変形処理して、3次元フィギュアモデルを取得し、顔属性情報及び顔フィギュア情報に基づいて3次元フィギュアモデルを調整して、ターゲットアバタを取得する。これにより、顔画像及び3次元参照モデルを選択することにより、アバタを迅速かつ正確に生成し、操作が簡単で便利であり、3次元アバタの生成効率及び精度を向上させ、ユーザの使用ニーズを満たすことができる。
図2は、本出願の第2の実施例に係る3次元アバタ生成方法のフローチャートであり、図2に示すように、当該方法は、以下のステップ201~207を含む。
ステップ201:処理対象の顔画像及び3次元参照モデルを取得する。
本出願の実施例において、処理対象の顔画像とは、顔を含む画像のことであり、処理対象の顔画像の取得方法には、たくさんの種類があり、具体的には、応用シナリオに応じて選択して設定することができ、以下のように例を挙げて説明する。
第1の例では、撮影機器により顔を含むシナリオを撮影し、処理対象の顔画像を取得する。
第2の例では、ビデオをスクリーンショット又はサブフレーム処理して複数の画像を取得し、顔を含む画像を処理対象の顔画像として選択する。
第3の例では、顔を含む画像を処理対象の顔画像として直接取得する。
本出願の実施例において、3次元参照モデルは、3次元モデル構築ネットワーク又はモデルなどの方式で予め構築されたモデルであると理解でき、ユーザが直接選択できる3次元参照モデルは、一般的に、複数の異なるタイプの3次元参照モデル、例えば、可愛い、綺麗などの異なるタイプの3次元参照モデルである。
ステップ202:トレーニングされたニューラルネットワークによって処理対象の顔画像の特徴ベクトルを抽出し、特徴ベクトル及び予め確立されたベクトル行列に基づいて、3次元顔モデルを取得する。
本出願の実施例において、トレーニングされたニューラルネットワークは、トレーニングされた顔の3次元構築モデルと理解でき、処理対象の顔画像を処理して1次元の特徴ベクトルを取得し、特徴ベクトルと予め確立されたベクトルマトッリクスとの積の組み合わせは3次元顔モデルを表すことができる。
ステップ203:3次元顔モデルに対応する透視投影関係を取得し、透視投影関係及び処理対象の顔画像に基づいて、3次元顔モデルのテクスチャ情報を取得する。
本出願の実施例において、当該3次元モデルと顔画像は、固定した透視投影関係があり、3次元顔モデルによって、予め設定された透視投影関係を取得することができ、顔画像における顔の面部領域を確認し、1つの画素値を顔テクスチャ色として取得することができ、顔テクスチャ色は、顔属性情報、すなわち、3次元顔モデルのテクスチャ情報とすることができる。
本出願の実施例において、同様に大量のキャリブレーションされた顔画像をトレーニングし、異なる髪テクスチャ色に対して回帰タスクを行い、損失関数によりニューラルネットワークパラメータを引き続き最適化させ、トレーニングされたニューラルネットワークを取得し、トレーニングされたニューラルネットワークにより処理対象の顔画像の髪テクスチャ色を抽出し、髪テクスチャ色は、顔属性情報とすることができる。
ステップ204:トレーニングされたニューラルネットワークによって処理対象の顔画像の髪型カテゴリ及び装飾品を抽出する。
本出願の実施例において、同様に大量のキャリブレーションされた顔画像をトレーニングし、異なる髪型、眼鏡などの装飾品に対して分類タスクを行い、損失関数によりニューラルネットワークパラメータを引き続き最適化させ、トレーニングされたニューラルネットワークを取得し、トレーニングされたニューラルネットワークにより処理対象の顔画像の髪型カテゴリ及び装飾品を抽出する。
ステップ205:3次元顔モデルの第1の変形領域、及び3次元参照モデルの第2の変形領域を決定し、ここで、第1の変形領域と第2の変形領域は、マッピング関係であり、第1の変形領域の第1のキーポイント及び第2の変形領域の第2のキーポイントをキャリブレーションする。
ステップ206:第2のキーポイントがマッピング関係に基づいて対応して変形し、3次元フィギュアモデルを生成するように、第1のキーポイントが変形するように制御する。
本出願の実施例において、第1の変形領域と第2の変形領域は、マッピング関係であり、例えば、鼻―鼻、口―口などの1対1のマッピングであり、変形領域(例えば、頬、口、目、眉、鼻など)が決定された後、3次元顔モデル及び3次元参照モデルの変形領域に対応するキーポイントをキャリブレーションし、3次元顔モデルにおけるキャリブレーションされたキーポイントの変形に基づいて、3次元参照モデルにおける対応するキーポイントを変形し、変形されたキャラクターを処理対象の顔画像に形状的に類似させる。
ステップ207:3次元顔モデルのテクスチャ情報、髪型カテゴリ及び装飾品に基づいて、3次元フィギュアモデルを調整して、ターゲットアバタを取得する。
本出願の実施例において、顔属性情報は、面部領域の顔テクスチャ色及び髪領域の髪色テクスチャ色であってもよく、アバタの髪色、肌色が処理対象の顔画像の肌色、髪色に類似するように、面部領域の顔テクスチャ色及び髪領域の髪色テクスチャ色に基づいて3次元フィギュアモデルの対応する領域を調整し、顔フィギュア情報は、髪型、及び眼鏡、イヤリングなどの装飾品であってもよく、アバタの髪型、装飾品が処理対象の顔画像の髪型、装飾品に類似するように、顔フィギュア情報に基づいて3次元フィギュアモデルを引き続き調整し、ターゲットアバタを取得する。
以上のようにして、本出願の3次元アバタ生成方法は、処理対象の顔画像及び3次元参照モデルを取得し、トレーニングされたニューラルネットワークによって前記処理対象の顔画像の特徴ベクトルを抽出し、特徴ベクトル及び予め確立されたベクトル行列に基づいて、3次元顔モデルを取得し、3次元顔モデルに対応する透視投影関係を取得し、透視投影関係及び処理対象の顔画像に基づいて、3次元顔モデルのテクスチャ情報を取得し、トレーニングされたニューラルネットワークによって処理対象の顔画像の髪型カテゴリ及び装飾品を抽出し、3次元顔モデルの第1の変形領域、及び3次元参照モデルの第2の変形領域を決定し、ここで、第1の変形領域と第2の変形領域は、マッピング関係であり、第1の変形領域の第1のキーポイント及び第2の変形領域の第2のキーポイントをキャリブレーションし、第1のキーポイントが変形するように制御して、第2のキーポイントをマッピング関係に基づいて対応して変形させ、3次元フィギュアモデルを生成し、3次元顔モデルのテクスチャ情報、髪型カテゴリ及び装飾品に基づいて、3次元フィギュアモデルを調整して、ターゲットアバタを取得する。これにより、顔画像及び3次元参照モデルを選択することにより、アバタを迅速かつ正確に生成し、操作が簡単で便利であり、3次元アバタ生成効率及び精度を向上させ、ユーザの使用ニーズを満たすことができる。
上記実施例の説明に基づいて、アバタが生成された後、ユーザのニーズをさらに満たすために、すなわち、当該アバタを駆動することによりユーザのインタラクションニーズを満たすことができるために、具体的には、図3と組み合わせて詳細に説明する。
図3は、本出願の第3の実施例に係る3次元アバタ生成方法のフローチャートであり、図3に示すように、当該方法は、以下のステップ301~302を含む。
ステップ301:ターゲットアバタの複数のターゲット動作を取得し、複数のターゲット動作に対応する複数の変形係数を取得する。
ステップ302:複数の変形係数に対して線形重ね合わせを行って、ターゲット駆動アバタを生成する。
本出願の実施例において、ターゲット動作(目閉じ、目開き、うなずきなど)が決定された後、ターゲット動作に対応する変形係数を選択し、複数の変形係数に対して線形重ね合わせを行って、ターゲット駆動アバタを生成する。
動作は、作成された一連のターゲット動作に対して線形重ね合わせを行って生成されたものであり、線形係数を制御するだけで駆動できることを理解できる。
例えば、目閉じ動作は、変形係数1に対応し、目開き動作は、変形係数2に対応し、変形係数1と変形係数2に対して線形重ね合わせを行ってターゲット駆動アバタを取得し、ターゲット駆動アバタを制御して駆動し、ターゲットアバタの目閉じから目開きへの瞬き動作を実現することができる。
以上のようにして、本出願の3次元アバタ生成方法は、ターゲットアバタの複数のターゲット動作を取得し、複数のターゲット動作に対応する複数の変形係数を決定し、複数の変形係数に対して線形重ね合わせを行ってターゲット駆動アバタを生成する。これにより、変形係数によりターゲットアバタを制御し、ユーザのインタラクションニーズを満たす。
上記実施例を実現するために、本出願は、3次元アバタ生成装置をさらに提出する。図4は、本出願の第4の実施例に係る3次元アバタ生成装置の概略構成図であり、図4に示すように、当該3次元アバタ生成装置は、第1の取得モジュール401、第2の取得モジュール402、処理モジュール403及び調整モジュール404を含む。
第1の取得モジュール401は、処理対象の顔画像及び3次元参照モデルを取得する。
第2の取得モジュール402は、処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデル、顔属性情報及び顔フィギュア情報を取得する。
処理モジュール403は、3次元顔モデルに基づいて3次元参照モデルを変形処理して、3次元フィギュアモデルを取得する。
調整モジュール404は、顔属性情報及び顔フィギュア情報に基づいて3次元フィギュアモデルを調整して、ターゲットアバタを取得する。
本出願の一実施例において、第2の取得モジュール402は、具体的には、トレーニングされたニューラルネットワークによって処理対象の顔画像の特徴ベクトルを抽出し、特徴ベクトル及び予め確立されたベクトル行列に基づいて、3次元顔モデルを取得する。
本出願の一実施例において、第2の取得モジュール402は、具体的には、3次元顔モデルに対応する透視投影関係を取得し、透視投影関係及び処理対象の顔画像に基づいて、3次元顔モデルのテクスチャ情報を取得する。
本出願の一実施例において、第2の取得モジュール402は、具体的には、トレーニングされたニューラルネットワークによって前記処理対象の顔画像の髪型カテゴリ及び装飾品を抽出する。
本出願の一実施例において、処理モジュール403は、具体的には、3次元顔モデルの第1の変形領域、及び3次元参照モデルの第2の変形領域を決定し、第1の変形領域と第2の変形領域は、マッピング関係であり、第1の変形領域の第1のキーポイント及び第2の変形領域の第2のキーポイントをキャリブレーションし、第1のキーポイントが変形するように制御して、第2のキーポイントをマッピング関係に基づいて対応して変形させ、3次元フィギュアモデルを生成する。
なお、上述した3次元アバタ生成方法に対する説明は、本発明の実施例に係る3次元アバタ生成装置にも適用可能であり、その実現原理は、同様であるため、ここでは説明を省略する。
以上のようにして、本出願の3次元アバタ生成装置は、処理対象の顔画像及び3次元参照モデルを取得し、処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデル、顔属性情報及び顔フィギュア情報を取得し、3次元顔モデルに基づいて3次元参照モデルを変形処理して、3次元フィギュアモデルを取得し、顔属性情報及び顔フィギュア情報に基づいて3次元フィギュアモデルを調整して、ターゲットアバタを取得する。これにより、顔画像及び3次元参照モデルを選択することにより、アバタを迅速かつ正確に生成し、操作が簡単で便利であり、3次元アバタ生成効率及び精度を向上させ、ユーザの使用ニーズを満たすことができる。
上記実施例の説明に基づいて、アバタが生成された後、ユーザのニーズをさらに満たすために、すなわち、当該アバタを駆動することによりユーザのインタラクションニーズを満たすことができるために、具体的には、図5と組み合わせて詳細に説明する。
図5に示すように、当該3次元アバタ生成装置は、第1の取得モジュール501、第2の取得モジュール502、処理モジュール503、調整モジュール504、第3の取得モジュール505、第4の取得モジュール506、及び生成モジュール507を含む。
ここで、第1の取得モジュール501、第2の取得モジュール502、処理モジュール503及び調整モジュール504は、上記実施例の第1の取得モジュール401、第2の取得モジュール402、処理モジュール403及び調整モジュール404に対応し、具体的には、上記装置の実施例の説明を参照し、ここでは説明を省略する。
第3の取得モジュール505は、ターゲットアバタの複数のターゲット動作を取得する。
決定モジュール506は、複数のターゲット動作に対応する複数の変形係数を取得する。
生成モジュール507は、複数の変形係数に対して線形重ね合わせを行って、ターゲット駆動アバタを生成する。
以上のようにして、本出願の3次元アバタ生成装置は、ターゲットアバタの複数のターゲット動作を取得し、複数のターゲット動作に対応する複数の変形係数を決定し、複数の変形係数に対して線形重ね合わせを行って、ターゲット駆動アバタを生成する。これにより、変形係数によりターゲットアバタを制御し、ユーザのインタラクションニーズを満たす。
本出願の実施例によれば、本出願は、電子機器及びコンピュータ読み取り可能な記憶媒体をさらに提供する。
本出願の実施例によれば、本出願は、コンピュータプログラムを提供し、コンピュータプログラムは、コンピュータに本出願によって提供される3次元アバタ生成方法を実行させる。
図6に示すように、本出願の実施例に係る3次元アバタ生成方法の電子機器のブロック図である。電子機器は、ラップトップコンピュータ、デスクトップコンピュータ、ワークステーション、パーソナルデジタルアシスタント、サーバ、ブレードサーバ、メインフレームコンピュータ、及び他の適切なコンピュータなどの様々な形態のデジタルコンピュータを表すことを目的とする。電子機器は、パーソナルデジタルプロセッサ、携帯電話、スマートフォン、ウェアラブルデバイス、他の同様のコンピューティングデバイスなどの様々な形態のモバイルデバイスを表すこともできる。本明細書で示されるコンポーネント、それらの接続と関係、及びそれらの機能は単なる例であり、本明細書の説明及び/又は要求される本出願の実現を制限するものではない。
図6に示すように、当該電子機器は、1つ又は複数のプロセッサ601と、メモリ602と、高速インターフェース及び低速インターフェースを含む各コンポーネントを接続するためのインターフェースと、を含む。各コンポーネントは、異なるバスで相互に接続され、共通のマザーボードに取り付けられるか、又は必要に応じて他の方式で取り付けることができる。プロセッサは、電子機器内に実行される命令を処理することができ、当該命令は、外部入力/出力装置(インターフェースに結合されたディスプレイデバイスなど)にGUIの図形情報をディスプレイするためにメモリ内又はメモリに記憶されている命令を含む。他の実施形態では、必要に応じて、複数のプロセッサ及び/又は複数のバスを、複数のメモリと一緒に使用することができる。同様に、複数の電子機器を接続することができ、各電子機器は、一部の必要な操作(例えば、サーバアレイ、1グループのブレードサーバ、又はマルチプロセッサシステムとする)を提供することができる。図6では、1つのプロセッサ601を例とする。
メモリ602は、本出願により提供される非一時的なコンピュータ読み取り可能な記憶媒体である。前記メモリには、少なくとも1つのプロセッサが本出願により提供される3次元アバタ生成方法を実行することができるように、少なくとも1つのプロセッサによって実行可能な命令が記憶されている。本出願の非一時的なコンピュータ読み取り可能な記憶媒体には、コンピュータに本出願により提供される3次元アバタ生成方法を実行させるためのコンピュータ命令が記憶されている。
メモリ602は、非一時的なコンピュータ読み取り可能な記憶媒体として、本出願の実施例における3次元アバタ生成方法に対応するプログラム命令/モジュール(例えば、図4に示す第1の取得モジュール401、第2の取得モジュール402、処理モジュール403及び調整モジュール404)のように、非一時的なソフトウェアプログラム、非一時的なコンピュータ実行可能なプログラム及びモジュールを記憶する。プロセッサ601は、メモリ602に記憶されている非一時的なソフトウェアプログラム、命令及びモジュールを実行することによって、サーバの様々な機能アクティベーション及びデータ処理を実行し、すなわち上記の方法の実施例における3次元アバタ生成方法を実現する。
メモリ602は、プログラムストレージエリアとデータストレージエリアとを含むことができ、プログラムストレージエリアは、オペレーティングシステム、少なくとも1つの機能に必要なアプリケーションプログラムを記憶することができ、データストレージエリアは、3次元アバタ生成の電子機器の使用によって作成されたデータなどを記憶することができる。また、メモリ602は、高速ランダムアクセスメモリを含むことができ、非一時的なメモリをさらに含むことができ、例えば、少なくとも1つの磁気ディスクストレージデバイス、フラッシュメモリデバイス、又は他の非一時的なソリッドステートストレージデバイスである。いくつかの実施例で、メモリ602は、プロセッサ601に対して遠隔に設置されたメモリを選択的に含むことができ、これらの遠隔メモリは、ネットワークを介して3次元アバタ生成の電子機器に接続されることができる。上記のネットワークの例は、インターネット、イントラネット、ローカルエリアネットワーク、モバイル通信ネットワーク、及びその組み合わせを含むが、これらに限定されない。
3次元アバタ生成方法の電子機器は、入力装置603と出力装置604とをさらに含むことができる。プロセッサ601、メモリ602、入力装置603、及び出力装置604は、バス又は他の方式を介して接続することができ、図6では、バスを介して接続することを例とする。
入力装置603は、入力された数字又は文字情報を受信し、3次元アバタ生成の電子機器のユーザ設定及び機能制御に関するキー信号入力を生成することができ、例えば、タッチスクリーン、キーパッド、マウス、トラックパッド、タッチパッド、ポインティングスティック、1つ又は複数のマウスボタン、トラックボール、ジョイスティックなどの入力装置である。出力装置604は、ディスプレイデバイス、補助照明装置(例えば、LED)、及び触覚フィードバックデバイス(例えば、振動モータ)などを含むことができる。当該ディスプレイデバイスは、液晶ディスプレイ(LCD)、発光ダイオード(LED)ディスプレイ、及びプラズマディスプレイを含むことができるが、これらに限定されない。いくつかの実施形態で、ディスプレイデバイスは、タッチスクリーンであってもよい。
本明細書で説明されるシステムと技術の様々な実施形態は、デジタル電子回路システム、集積回路システム、特定用途向けASIC(特定用途向け集積回路)、コンピュータハードウェア、ファームウェア、ソフトウェア、及び/又はそれらの組み合わせで実現することができる。これらの様々な実施形態は、1つ又は複数のコンピュータプログラムで実施されることを含むことができ、当該1つ又は複数のコンピュータプログラムは、少なくとも1つのプログラマブルプロセッサを含むプログラマブルシステムで実行及び/又は解釈することができ、当該プログラマブルプロセッサは、専用又は汎用のプログラマブルプロセッサであってもよく、ストレージシステム、少なくとも1つの入力装置、及び少なくとも1つの出力装置からデータ及び命令を受信し、データ及び命令を当該ストレージシステム、当該少なくとも1つの入力装置、及び当該少なくとも1つの出力装置に伝送することができる。これらのコンピューティングプログラム(プログラム、ソフトウェア、ソフトウェアアプリケーション、又はコードとも呼ばれる)は、プログラマブルプロセッサの機械命令を含み、高レベルのプロセス及び/又はオブジェクト指向プログラミング言語、及び/又はアセンブリ/機械言語でこれらのコンピューティングプログラムを実施する。本明細書に使用されるような、「機械読み取り可能な媒体」及び「コンピュータ読み取り可能な媒体」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意のコンピュータプログラム製品、機器、及び/又は装置(例えば、磁気ディスク、光ディスク、メモリ、プログラマブルロジックデバイス(PLD))を指し、機械読み取り可能な信号である機械命令を受信する機械読み取り可能な媒体を含む。「機械読み取り可能な信号」という用語は、機械命令及び/又はデータをプログラマブルプロセッサに提供するための任意の信号を指す。
ユーザとのインタラクションを提供するために、ここで説明されているシステム及び技術をコンピュータ上で実施することができ、当該コンピュータは、ユーザに情報を表示するためのディスプレイ装置(例えば、CRT(陰極線管)又はLCD(液晶ディスプレイ)モニタ)と、キーボード及びポインティングデバイス(例えば、マウス又はトラックボール)とを有し、ユーザは、当該キーボード及び当該ポインティングデバイスによって入力をコンピュータに提供することができる。他の種類の装置も、ユーザとのインタラクションを提供することができ、例えば、ユーザに提供されるフィードバックは、任意の形式のセンシングフィードバック(例えば、視覚フィードバック、聴覚フィードバック、又は触覚フィードバック)であってもよく、任意の形式(音響入力と、音声入力と、触覚入力とを含む)でユーザからの入力を受信することができる。
ここで説明されるシステム及び技術は、バックエンドユニットを含むコンピューティングシステム(例えば、データサーバとする)、又はミドルウェアユニットを含むコンピューティングシステム(例えば、アプリケーションサーバ)、又はフロントエンドユニットを含むコンピューティングシステム(例えば、グラフィカルユーザインタフェース又はウェブブラウザを有するユーザコンピュータであり、ユーザは、当該グラフィカルユーザインタフェース又は当該ウェブブラウザによってここで説明されるシステム及び技術の実施形態とインタラクションする)、又はこのようなバックエンドユニットと、ミドルウェアユニットと、フロントエンドユニットの任意の組み合わせを含むコンピューティングシステムで実施することができる。任意の形式又は媒体のデジタルデータ通信(例えば、通信ネットワーク)によってシステムのコンポーネントを相互に接続することができる。通信ネットワークの例は、ローカルエリアネットワーク(LAN)と、ワイドエリアネットワーク(WAN)と、インターネットとを含む。
コンピュータシステムは、クライアントとサーバとを含むことができる。クライアントとサーバは、一般に、互いに離れており、通常に通信ネットワークを介してインタラクションする。対応するコンピュータ上で実行され、且つ互いにクライアント-サーバ関係を有するコンピュータプログラムによって、クライアントとサーバとの関係が生成される。サーバは、クラウドコンピューティングサーバ又はクラウドホストとも呼ばれるクラウドサーバであってもよく、従来の物理ホスト及びVPSサービス(「Virtual Private Server」、又は「VPS」と略称する)における、管理の難しさが高く、ビジネスの拡張性が低いという欠点を解決するクラウドコンピューティングサービスシステムのホスト製品の1つである。
本出願の実施例の技術案によれば、処理対象の顔画像及び3次元参照モデルを取得し、処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデル、顔属性情報及び顔フィギュア情報を取得し、3次元顔モデルに基づいて3次元参照モデルを変形処理して、3次元フィギュアモデルを取得し、顔属性情報及び顔フィギュア情報に基づいて3次元フィギュアモデルを調整して、ターゲットアバタを取得する。これにより、顔画像及び3次元参照モデルを選択することにより、アバタを迅速かつ正確に生成し、操作が簡単で便利であり、3次元アバタ生成効率及び精度を向上させ、ユーザの使用ニーズを満たすことができる。
上記に示される様々な形式のフローを使用して、ステップを並べ替え、追加、又は削除することができる。例えば、本出願に記載されている各ステップは、並列に実行されてもよいし、順次的に実行されてもよいし、異なる順序で実行されてもよいが、本出願で開示されている技術案が所望の結果を実現することができれば、本明細書では限定されない。
上記具体的な実施形態は、本出願の保護範囲を制限するものではない。当業者は、設計要件と他の要因に応じて、様々な修正、組み合わせ、サブコンビネーション、及び代替を行うことができる。本出願の精神と原則内で行われる任意の修正、同等の置換、及び改善などは、いずれも本出願の保護範囲内に含まれるべきである。

Claims (13)

  1. 3次元アバタ生成方法であって、
    処理対象の顔画像及び3次元参照モデルを取得するステップと、
    前記処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデル、顔属性情報及び顔フィギュア情報を取得するステップと、
    前記3次元顔モデルに基づいて前記3次元参照モデルを変形処理して、3次元フィギュアモデルを取得するステップと、
    前記顔属性情報及び顔フィギュア情報に基づいて前記3次元フィギュアモデルを調整して、ターゲットアバタを取得するステップと、
    前記ターゲットアバタの複数のターゲット動作を取得するステップと、
    前記複数のターゲット動作に対応する複数の変形係数を取得するステップと、
    前記複数の変形係数に対して線形重ね合わせを行って、ターゲット駆動アバタを生成するステップと、を含む、
    ことを特徴とする3次元アバタ生成方法。
  2. 前記処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデルを取得するステップは、
    トレーニングされたニューラルネットワークによって前記処理対象の顔画像の特徴ベクトルを抽出するステップと、
    前記特徴ベクトル及び予め確立されたベクトル行列に基づいて、前記3次元顔モデルを取得するステップと、を含む、
    ことを特徴とする請求項1に記載の3次元アバタ生成方法。
  3. 前記3次元顔モデルに対応する透視投影関係を取得するステップと、
    前記透視投影関係及び前記処理対象の顔画像に基づいて、前記3次元顔モデルのテクスチャ情報を取得するステップと、をさらに含む、
    ことを特徴とする請求項2に記載の3次元アバタ生成方法。
  4. 前記処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、顔フィギュア情報を取得するステップは、
    トレーニングされたニューラルネットワークによって前記処理対象の顔画像の髪型カテゴリ及び装飾品を抽出するステップを含む、
    ことを特徴とする請求項1に記載の3次元アバタ生成方法。
  5. 前記3次元顔モデルに基づいて前記3次元参照モデルを変形処理して、3次元フィギュアモデルを取得するステップは、
    前記3次元顔モデルの第1の変形領域、及び前記3次元参照モデルの第2の変形領域を決定するステップであって、前記第1の変形領域と前記第2の変形領域は、マッピング関係であるステップと、
    前記第1の変形領域の第1のキーポイント及び前記第2の変形領域の第2のキーポイントをキャリブレーションするステップと、
    前記第1のキーポイントが変形するように制御して、前記第2のキーポイントを前記マッピング関係に基づいて対応して変形させ、3次元フィギュアモデルを生成するステップと、を含む、
    ことを特徴とする請求項1に記載の3次元アバタ生成方法。
  6. 3次元アバタ生成装置であって、
    処理対象の顔画像及び3次元参照モデルを取得するための第1の取得モジュールと、
    前記処理対象の顔画像をトレーニングされたニューラルネットワークに入力して、3次元顔モデル、顔属性情報及び顔フィギュア情報を取得するための第2の取得モジュールと、
    前記3次元顔モデルに基づいて前記3次元参照モデルを変形処理して、3次元フィギュアモデルを取得するための処理モジュールと、
    前記顔属性情報及び顔フィギュア情報に基づいて前記3次元フィギュアモデルを調整して、ターゲットアバタを取得するための調整モジュールと、
    前記ターゲットアバタの複数のターゲット動作を取得するための第3の取得モジュールと、
    前記複数のターゲット動作に対応する複数の変形係数を取得するための第4の取得モジュールと、
    前記複数の変形係数に対して線形重ね合わせを行って、ターゲット駆動アバタを生成するための生成モジュールと、を含む、
    ことを特徴とする3次元アバタ生成装置。
  7. 前記第2の取得モジュールが、
    トレーニングされたニューラルネットワークによって前記処理対象の顔画像の特徴ベクトルを抽出し、
    前記特徴ベクトル及び予め確立されたベクトル行列に基づいて、前記3次元顔モデルを取得する、
    ことを特徴とする請求項に記載の3次元アバタ生成装置。
  8. 前記第2の取得モジュールが、
    前記3次元顔モデルに対応する透視投影関係を取得し、
    前記透視投影関係及び前記処理対象の顔画像に基づいて、前記3次元顔モデルのテクスチャ情報を取得する、
    ことを特徴とする請求項に記載の3次元アバタ生成装置。
  9. 前記第2の取得モジュールが、
    トレーニングされたニューラルネットワークによって前記処理対象の顔画像の髪型カテゴリ及び装飾品を抽出する、
    ことを特徴とする請求項に記載の3次元アバタ生成装置。
  10. 前記処理モジュールが、
    前記3次元顔モデルの第1の変形領域、及び前記3次元参照モデルの第2の変形領域を決定し、前記第1の変形領域と前記第2の変形領域は、マッピング関係であり、
    前記第1の変形領域の第1のキーポイント及び前記第2の変形領域の第2のキーポイントをキャリブレーションし、
    前記第1のキーポイントが変形するように制御して、前記第2のキーポイントを前記マッピング関係に基づいて対応して変形させ、3次元フィギュアモデルを生成する、
    ことを特徴とする請求項に記載の3次元アバタ生成装置。
  11. 少なくとも1つのプロセッサと、
    前記少なくとも1つのプロセッサに通信可能に接続されるメモリと、を含み、
    前記メモリには、前記少なくとも1つのプロセッサによって実行可能な命令が記憶され、前記命令は、前記少なくとも1つのプロセッサが請求項1~のいずれかに記載の方法を実行できるように、前記少なくとも1つのプロセッサによって実行される、
    ことを特徴とする電子機器。
  12. コンピュータ命令が記憶されている非一時的なコンピュータ読み取り可能な記憶媒体であって、
    前記コンピュータ命令は、コンピュータに請求項1~のいずれかに記載の方法を実行させる、
    ことを特徴とする非一時的なコンピュータ読み取り可能な記憶媒体。
  13. コンピュータプログラムであって、
    前記コンピュータプログラムは、コンピュータに請求項1~のいずれかに記載の方法を実行させる、
    ことを特徴とするコンピュータプログラム。
JP2021174058A 2020-11-09 2021-10-25 3次元アバタ生成方法、装置、電子機器及び記憶媒体 Active JP7212741B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
CN202011240898.1A CN112541963B (zh) 2020-11-09 2020-11-09 三维虚拟形象生成方法、装置、电子设备和存储介质
CN202011240898.1 2020-11-09

Publications (2)

Publication Number Publication Date
JP2022020054A JP2022020054A (ja) 2022-01-31
JP7212741B2 true JP7212741B2 (ja) 2023-01-25

Family

ID=75014111

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021174058A Active JP7212741B2 (ja) 2020-11-09 2021-10-25 3次元アバタ生成方法、装置、電子機器及び記憶媒体

Country Status (3)

Country Link
US (1) US11587300B2 (ja)
JP (1) JP7212741B2 (ja)
CN (1) CN112541963B (ja)

Families Citing this family (29)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN113034652A (zh) * 2021-04-19 2021-06-25 广州虎牙科技有限公司 虚拟形象驱动方法、装置、设备及存储介质
CN113112580B (zh) 2021-04-20 2022-03-25 北京字跳网络技术有限公司 一种虚拟形象的生成方法、装置、设备及介质
CN113436280A (zh) * 2021-07-26 2021-09-24 韦丽珠 一种基于信息采集的形象设计***
CN113630646A (zh) * 2021-07-29 2021-11-09 北京沃东天骏信息技术有限公司 一种数据处理方法及装置、设备、存储介质
CN113674385B (zh) * 2021-08-05 2023-07-18 北京奇艺世纪科技有限公司 一种虚拟表情生成方法、装置、电子设备及存储介质
CN113808007B (zh) * 2021-09-16 2022-07-19 北京百度网讯科技有限公司 调整虚拟脸部模型的方法、装置、电子设备及存储介质
CN114049472A (zh) * 2021-11-15 2022-02-15 北京百度网讯科技有限公司 三维模型调整方法、装置、电子设备、介质
CN114239241B (zh) * 2021-11-30 2023-02-28 北京百度网讯科技有限公司 卡片的生成方法、装置及电子设备
CN114202597B (zh) * 2021-12-07 2023-02-03 北京百度网讯科技有限公司 图像处理方法及装置、设备、介质和产品
CN114327705B (zh) * 2021-12-10 2023-07-14 重庆长安汽车股份有限公司 车载助手虚拟形象自定义方法
CN114445528B (zh) * 2021-12-15 2022-11-11 北京百度网讯科技有限公司 虚拟形象生成方法、装置、电子设备及存储介质
CN114385225A (zh) * 2022-01-14 2022-04-22 重庆长安汽车股份有限公司 一种车机形象远程配置方法
CN114723888B (zh) * 2022-04-08 2023-04-07 北京百度网讯科技有限公司 三维发丝模型生成方法、装置、设备、存储介质及产品
CN115937964B (zh) * 2022-06-27 2023-12-15 北京字跳网络技术有限公司 姿态估计的方法、装置、设备和存储介质
CN115147578B (zh) * 2022-06-30 2023-10-27 北京百度网讯科技有限公司 风格化三维人脸生成方法、装置、电子设备及存储介质
CN115147508B (zh) * 2022-06-30 2023-09-22 北京百度网讯科技有限公司 服饰生成模型的训练、生成服饰图像的方法和装置
WO2024013951A1 (ja) * 2022-07-14 2024-01-18 富士通株式会社 生成プログラム、生成方法および情報処理装置
KR102486525B1 (ko) * 2022-07-20 2023-01-11 김병천 뉴럴 네트워크를 이용한 nft 발행 방법 및 장치
CN115359219B (zh) * 2022-08-16 2024-04-19 支付宝(杭州)信息技术有限公司 虚拟世界的虚拟形象处理方法及装置
CN115311403B (zh) * 2022-08-26 2023-08-08 北京百度网讯科技有限公司 深度学习网络的训练方法、虚拟形象生成方法及装置
CN115222895B (zh) * 2022-08-30 2023-06-27 北京百度网讯科技有限公司 图像生成方法、装置、设备以及存储介质
CN115345980B (zh) * 2022-10-18 2023-03-24 北京百度网讯科技有限公司 个性化纹理贴图的生成方法及装置
WO2024082180A1 (zh) * 2022-10-19 2024-04-25 云智联网络科技(北京)有限公司 一种虚拟形象塑造方法及相关设备
CN115861543B (zh) * 2022-12-20 2023-12-29 北京百度网讯科技有限公司 三维虚拟形象生成方法、装置及电子设备
CN115661375B (zh) * 2022-12-27 2023-04-07 北京百度网讯科技有限公司 三维发型生成方法、装置、电子设备和存储介质
CN116152403B (zh) * 2023-01-09 2024-06-07 支付宝(杭州)信息技术有限公司 一种形象生成方法、装置、存储介质及电子设备
CN116714251B (zh) * 2023-05-16 2024-05-31 北京盈锋科技有限公司 一种人物三维立体打印***、方法、电子设备及存储介质
CN116433812B (zh) * 2023-06-08 2023-08-25 海马云(天津)信息技术有限公司 利用2d人脸图片生成虚拟人物的方法和装置
CN117078507B (zh) * 2023-08-18 2024-05-14 上海凌立健康管理股份有限公司 一种基于ai技术的虚拟数字人动态追溯监管方法与***

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140362091A1 (en) 2013-06-07 2014-12-11 Ecole Polytechnique Federale De Lausanne Online modeling for real-time facial animation
CN108985241A (zh) 2018-07-23 2018-12-11 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质
JP2019145108A (ja) 2018-02-23 2019-08-29 三星電子株式会社Samsung Electronics Co.,Ltd. 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
JP2020177620A (ja) 2019-04-21 2020-10-29 未來市股▲ふん▼有限公司 アバター用の3d顔モデルを生成する方法及び関連デバイス

Family Cites Families (16)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6975750B2 (en) * 2000-12-01 2005-12-13 Microsoft Corp. System and method for face recognition using synthesized training images
US10095917B2 (en) * 2013-11-04 2018-10-09 Facebook, Inc. Systems and methods for facial representation
CN105118082B (zh) * 2015-07-30 2019-05-28 科大讯飞股份有限公司 个性化视频生成方法及***
KR102285376B1 (ko) * 2015-12-01 2021-08-03 삼성전자주식회사 3d 얼굴 모델링 방법 및 3d 얼굴 모델링 장치
CN108229278B (zh) * 2017-04-14 2020-11-17 深圳市商汤科技有限公司 人脸图像处理方法、装置和电子设备
CN107292865B (zh) * 2017-05-16 2021-01-26 哈尔滨医科大学 一种基于二维图像处理的立体显示方法
CN107045631B (zh) * 2017-05-25 2019-12-24 北京华捷艾米科技有限公司 人脸特征点检测方法、装置及设备
CN107844781A (zh) * 2017-11-28 2018-03-27 腾讯科技(深圳)有限公司 人脸属性识别方法及装置、电子设备及存储介质
CN108510437B (zh) * 2018-04-04 2022-05-17 科大讯飞股份有限公司 一种虚拟形象生成方法、装置、设备以及可读存储介质
CN108537881B (zh) * 2018-04-18 2020-04-03 腾讯科技(深圳)有限公司 一种人脸模型处理方法及其设备、存储介质
CN109344742B (zh) * 2018-09-14 2021-03-16 腾讯科技(深圳)有限公司 特征点定位方法、装置、存储介质和计算机设备
US10796482B2 (en) * 2018-12-05 2020-10-06 Snap Inc. 3D hand shape and pose estimation
CN110705094A (zh) * 2019-09-29 2020-01-17 深圳市商汤科技有限公司 柔性体仿真方法和装置、电子设备、计算机可读存储介质
CN110782515A (zh) * 2019-10-31 2020-02-11 北京字节跳动网络技术有限公司 虚拟形象的生成方法、装置、电子设备及存储介质
CN111368137A (zh) * 2020-02-12 2020-07-03 百度在线网络技术(北京)有限公司 视频的生成方法、装置、电子设备及可读存储介质
CN111354079B (zh) * 2020-03-11 2023-05-02 腾讯科技(深圳)有限公司 三维人脸重建网络训练及虚拟人脸形象生成方法和装置

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20140362091A1 (en) 2013-06-07 2014-12-11 Ecole Polytechnique Federale De Lausanne Online modeling for real-time facial animation
JP2019145108A (ja) 2018-02-23 2019-08-29 三星電子株式会社Samsung Electronics Co.,Ltd. 顔に対応する3次元アバターを用いて顔の動きが反映された3dアバターを含むイメージを生成する電子装置
CN108985241A (zh) 2018-07-23 2018-12-11 腾讯科技(深圳)有限公司 图像处理方法、装置、计算机设备及存储介质
JP2020177620A (ja) 2019-04-21 2020-10-29 未來市股▲ふん▼有限公司 アバター用の3d顔モデルを生成する方法及び関連デバイス

Also Published As

Publication number Publication date
CN112541963B (zh) 2023-12-26
US11587300B2 (en) 2023-02-21
US20210407216A1 (en) 2021-12-30
CN112541963A (zh) 2021-03-23
JP2022020054A (ja) 2022-01-31

Similar Documents

Publication Publication Date Title
JP7212741B2 (ja) 3次元アバタ生成方法、装置、電子機器及び記憶媒体
JP7227292B2 (ja) 仮想アバター生成方法および装置、電子機器、記憶媒体並びにコンピュータプログラム
KR102503413B1 (ko) 애니메이션 인터랙션 방법, 장치, 기기 및 저장 매체
US20210390767A1 (en) Computing images of head mounted display wearer
CN111652828B (zh) 人脸图像生成方法、装置、设备和介质
US11748934B2 (en) Three-dimensional expression base generation method and apparatus, speech interaction method and apparatus, and medium
KR20210103435A (ko) 가상 객체 이미지 합성 방법, 장치, 전자 기기 및 저장 매체
EP3872766A2 (en) Method and device for processing image, related electronic device and storage medium
CN111563855B (zh) 图像处理的方法及装置
JP7268071B2 (ja) バーチャルアバターの生成方法及び生成装置
CN111968203B (zh) 动画驱动方法、装置、电子设备及存储介质
CN113240778B (zh) 虚拟形象的生成方法、装置、电子设备和存储介质
CN111368137A (zh) 视频的生成方法、装置、电子设备及可读存储介质
CN113362263B (zh) 变换虚拟偶像的形象的方法、设备、介质及程序产品
CN111294665A (zh) 视频的生成方法、装置、电子设备及可读存储介质
CN110148191A (zh) 视频虚拟表情生成方法、装置及计算机可读存储介质
KR102488517B1 (ko) 헤어스타일 변환 방법, 장치, 기기 및 저장 매체
CN114119935B (zh) 图像处理方法和装置
CN111599002A (zh) 用于生成图像的方法和装置
CN111523467A (zh) 人脸跟踪方法和装置
JP7183414B2 (ja) 画像処理の方法及び装置
CN112562045B (zh) 生成模型和生成3d动画的方法、装置、设备和存储介质
CN112381927A (zh) 图像生成的方法、装置、设备以及存储介质
EP4152269B1 (en) Method and apparatus of training model, device, and medium
CN112116548A (zh) 人脸图像的合成方法、装置

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20211025

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20220912

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220920

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221220

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230110

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230113

R150 Certificate of patent or registration of utility model

Ref document number: 7212741

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150