JP2020021474A - モーション合成装置及びモーション合成方法 - Google Patents

モーション合成装置及びモーション合成方法 Download PDF

Info

Publication number
JP2020021474A
JP2020021474A JP2019129806A JP2019129806A JP2020021474A JP 2020021474 A JP2020021474 A JP 2020021474A JP 2019129806 A JP2019129806 A JP 2019129806A JP 2019129806 A JP2019129806 A JP 2019129806A JP 2020021474 A JP2020021474 A JP 2020021474A
Authority
JP
Japan
Prior art keywords
motion data
motion
feature value
convolutional neural
synthesized
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2019129806A
Other languages
English (en)
Other versions
JP6902071B2 (ja
Inventor
クォン,ビョンジュン
Byungjun Kwon
ユ,ムンウォン
Moonwon Yu
チャン,ハンヨン
Hanyoung Jang
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NCSoft Corp
Original Assignee
NCSoft Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NCSoft Corp filed Critical NCSoft Corp
Publication of JP2020021474A publication Critical patent/JP2020021474A/ja
Application granted granted Critical
Publication of JP6902071B2 publication Critical patent/JP6902071B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • G06V40/23Recognition of whole body movements, e.g. for sport training
    • G06V40/25Recognition of walking or running movements, e.g. gait recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T5/00Image enhancement or restoration
    • G06T5/50Image enhancement or restoration using two or more images, e.g. averaging or subtraction
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • G06T7/246Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T13/00Animation
    • G06T13/203D [Three Dimensional] animation
    • G06T13/403D [Three Dimensional] animation of characters, e.g. humans, animals or virtual beings
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V40/00Recognition of biometric, human-related or animal-related patterns in image or video data
    • G06V40/20Movements or behaviour, e.g. gesture recognition
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20081Training; Learning
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20084Artificial neural networks [ANN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/20Special algorithmic details
    • G06T2207/20212Image combination
    • G06T2207/20221Image fusion; Image merging
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30196Human being; Person

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Multimedia (AREA)
  • General Health & Medical Sciences (AREA)
  • Health & Medical Sciences (AREA)
  • Biophysics (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Molecular Biology (AREA)
  • Computing Systems (AREA)
  • General Engineering & Computer Science (AREA)
  • Computational Linguistics (AREA)
  • Mathematical Physics (AREA)
  • Software Systems (AREA)
  • Evolutionary Computation (AREA)
  • Artificial Intelligence (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Psychiatry (AREA)
  • Social Psychology (AREA)
  • Human Computer Interaction (AREA)
  • Processing Or Creating Images (AREA)
  • Image Analysis (AREA)

Abstract

【課題】コンテンツモーションデータ及びスタイルモーションデータに基づいて合成されたモーションデータをアップデートできるモーション合成方法を提供する。【解決手段】本発明のモーション合成方法は、モーション合成装置がコンテンツモーションデータ及びスタイルモーションデータによってコンテンツ特徴値及びスタイル特徴値を獲得する動作と、モーション合成装置が獲得したコンテンツ特徴値及びスタイル特徴値を用いてターゲット特徴値を生成する動作と、モーション合成装置が合成されたモーションデータを認識し、認識した合成されたモーションデータから合成されたモーション特徴値を獲得する動作と、モーション合成装置が合成されたモーション特徴値とターゲット特徴値とを用いて損失を獲得し、獲得した損失によって合成されたモーションデータをアップデートする動作と、を含む。【選択図】図5

Description

下記の実施形態は、モーション合成装置及びモーション合成方法に係り、さらに詳細には、ターゲット特徴値と合成されたモーション特徴値を用いて損失を獲得し、前記獲得した損失によって合成されたモーションデータをアップデートするモーション合成装置及びモーション合成方法に関する。
機械学習(machine learning)は人工知能の一分野であり、パターン認識及びコンピュータ学習理論の研究から進化した分野であり、コンピュータを学習可能にするアルゴリズム及び技術を開発する分野をいう。
機械学習は、経験的データに基づいて学習を行い、かつ予測を行って自体の性能を高めるシステムと、このためアルゴリズムを研究して構築する技術のことである。機械学習のアルゴリズムは、厳しく定められた静的なプログラム命令を施すものではなく、入力データに基づいて予測や決定を導き出すために特定のモデルを構築する方式を取る。
機械学習の核心は表現及び一般化にある。表現とは、データの評価であり、一般化とは、まだ分からないデータの処理である。これは電算学習理論分野でもある。
深層学習(deep learning)は、多くの非線形変換技法の組み合わせを通じて高いレベルの抽象化を試みる機械学習アルゴリズムの集合と定義され、大きな枠組みで人間の考え方をコンピュータに教える機械学習の一分野であるといえる。
あるデータをコンピュータが聞き取れる形で表現し、これを学習に適用するために多い研究が進んでおり、このような努力の結果としてdeep neural networks、convolutional deep neural networks、deep belief networksなどの多様な深層学習技法がコンピュータビジョン、音声認識、自然語処理、音声/信号処理などの分野に適用されて最尖端の結果を示している。
韓国登録特許第10−1501405号公報(2015年3月4日登録)
本発明の実施形態によれば、コンテンツモーションデータ及びスタイルモーションデータに基づいて合成されたモーションデータをアップデートできるモーション合成装置及びモーション合成方法を提供する。
また、本発明の他の実施形態によれば、学習されていない(untrained)畳み込みニューラルネットワーク(Convolutional Neural Network)を用いて特徴値を獲得できるモーション合成装置及びモーション合成方法を提供する。
本発明の一実施形態によれば、モーション合成装置がコンテンツモーションデータ及びスタイルモーションデータによってコンテンツ特徴値及びスタイル特徴値を獲得する動作と、モーション合成装置が前記獲得したコンテンツ特徴値及びスタイル特徴値を用いてターゲット特徴値を生成する動作と、モーション合成装置が合成されたモーションデータを認識し、前記認識した合成されたモーションデータから合成されたモーション特徴値を獲得する動作と、モーション合成装置が前記合成されたモーション特徴値と前記ターゲット特徴値とを用いて損失を獲得し、前記獲得した損失によって前記合成されたモーションデータをアップデートする動作とを含む。
また、前記合成されたモーションデータをアップデートする動作は、前記合成されたモーション特徴値と前記ターゲット特徴値とがマッチされるまでバック・プロパゲーションアルゴリズムを用いて行われる。
また、前記モーション合成装置は、学習されていない畳み込みニューラルネットワークを用いて特徴値を獲得する。
また、前記コンテンツモーションデータ及び前記スタイルモーションデータは、アニメーションデータである。
また、前記コンテンツモーションデータ及び前記スタイルモーションデータは、骨の情報を含む。
また、前記スタイル特徴値を用いてスタイルロスを獲得し、前記獲得したスタイルロスに加重値を付与して前記ターゲット特徴値を生成する。
本発明の他の実施形態によれば、モーション合成装置において、前記モーション合成装置はプロセッサを備え、前記プロセッサは、コンテンツモーションデータ及びスタイルモーションデータによってコンテンツ特徴値及びスタイル特徴値を獲得し、前記獲得したコンテンツ特徴値及びスタイル特徴値を用いてターゲット特徴値を生成し、合成されたモーションデータを認識し、前記認識した合成されたモーションデータから合成されたモーション特徴値を獲得し、前記合成されたモーション特徴値と前記ターゲット特徴値とを用いて損失を獲得し、前記獲得した損失によって前記合成されたモーションデータをアップデートする。
また、前記合成されたモーションデータをアップデートする動作は、前記合成されたモーション特徴値と前記ターゲット特徴値とがマッチされるまでバック・プロパゲーションアルゴリズムを用いて行われる。
また、前記プロセッサは、学習されていない畳み込みニューラルネットワークを用いて特徴値を獲得する。
また、前記コンテンツモーションデータ及び前記スタイルモーションデータは、アニメーションデータである。
また、前記コンテンツモーションデータ及び前記スタイルモーションデータは、骨の情報を含む。
前記スタイル特徴値を用いてスタイルロスを獲得し、前記獲得したスタイルロスに加重値を付与して前記ターゲット特徴値を生成する。
本発明の一実施形態によるモーション合成装置の動作を示す図面である。 本発明の一実施形態によるモーション合成装置の構成を示す図面である。 本発明の一実施形態による第1畳み込みニューラルネットワークの構成を示す図面である。 本発明の一実施形態による第2畳み込みニューラルネットワークの構成を示す図面である。 本発明の一実施形態によるモーション合成方法を示すフローチャートである。 本発明の一実施形態によってコンテンツモーション及びスタイルモーションを用いてモーションを合成する一例を示す図面である。 本発明の一実施形態を具現するための例示的なコンピュータシステムのブロック図である。
本明細書に開示されている本発明の概念による実施形態についての特定の構造的または機能的説明は、単に本発明の概念による実施形態を説明するための目的で例示されたものであり、本発明の概念による実施形態は多様な形態で施され、本明細書に説明されている実施形態に限定されるものではない。
本発明の概念による実施形態は多様な変更を加えられ、かつ様々な形態を持つことができるため、実施形態を図面に例示して本明細書で詳細に説明する。しかし、これは本発明の概念による実施形態を特定の開示形態に限定しようとするものではなく、本発明の思想及び技術範囲に含まれるすべての変更、均等物、または代替物を含む。
第1または第2などの用語は、多様な構成要素を説明するときに使われうるが、前記構成要素は前記用語によって限定されてはいけない。前記用語は、一つの構成要素を他の構成要素から区別する目的でのみ使われ、例えば、本発明の概念による権利範囲から逸脱せずに、第1構成要素は第2構成要素とも名付けられ、類似しては第2構成要素も第1構成要素と名付けられてもよい。
ある構成要素が他の構成要素に「連結されて」いるか、または「接続されて」いると言及された時には、その他の構成要素に直接的に連結されているか、または接続されていることもあるが、中間に他の構成要素が存在することもあると理解されねばならない。一方、ある構成要素が他の構成要素に「直接連結されて」いるか、または「直接接続されて」いると言及された時には、中間に他の構成要素が存在しないと理解されねばならない。構成要素との関係を説明する他の表現、すなわち、「〜との間に」と「直ぐ〜との間に」または「〜に隣り合う」と「〜に直接隣り合う」なども同様に解釈されねばならない。
本明細書で使う用語は、単に特定の実施例を説明するために使われるものであり、本発明を限定しようとする意図はない。単数の表現は文脈上明らかに表さない限り、複数の表現を含む。
本明細書で、「含む」または「持つ」などの用語は、説明された特徴、数字、段階、動作、構成要素、部分品またはこれらを組み合わせたものが存在するということを指定するためのものであり、一つまたはそれ以上の他の特徴や数字、段階、動作、構成要素、部分品またはこれらを組み合わせたものなどの存在または付加の可能性を予め排除しないと理解されねばならない。
異なって定義されない限り、技術的または科学的な用語を始めとしてここで使われるすべての用語は、当業者によって一般的に理解されるものと同じ意味がある。
一般的に使われる辞書に定義されているような用語は、関連技術の文脈上持つ意味と一致する意味を持つと解釈されねばならず、本明細書で明らかに定義しない限り、理想的または過度に形式的な意味に解釈されない。
以下の説明で同じ識別記号は同じ構成を意味し、不要な重複的な説明及び公知技術についての説明は略する。
本発明の実施例で「通信」、「通信網」及び「ネットワーク」は同じ意味で使われる。前記三つの用語は、ファイルをユーザ端末、他のユーザの端末及びダウンロードサーバの間で送受信できる有無線の近距離及び広域データ送受信網を意味する。
以下、添付した図面を参照して本発明の望ましい実施例を説明することによって本発明を詳細に説明する。
図1は、本発明の一実施形態によるモーション合成装置の動作を示す図面である。
図1を参照すれば、本発明の一実施形態によるモーション合成装置100は、コンテンツモーションデータ101とスタイルモーションデータ102とを入力されて合成されたモーションデータ105を生成する。
コンテンツモーションデータ101とスタイルモーションデータ102とは、モーション合成装置100にそれぞれ入力され、コンテンツモーションデータ101とスタイルモーションデータ102とは相異なるモーションデータであることが望ましい。
コンテンツモーションデータ101とスタイルモーションデータ102とは、サイズの同じモーションデータである。
コンテンツモーションデータ101は、アニメーションデータでありうる。
コンテンツモーションデータ101は、歩き、走り、ジャンプなどの動作であることが望ましいが、これに限定されるものではない。
コンテンツモーションデータ101は、骨の回転情報を含みうる。
コンテンツモーションデータ101は、骨の位置情報を含みうる。
コンテンツモーションデータ101は、骨の回転情報及び位置情報を含みうる。
この時、前記骨は、人体を構成する骨のうち少なくともいずれか一つに当たる。
また、前記骨は、上体または下体を構成する骨のうち少なくともいずれか一つに当たる。
また、前記骨は、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨のうち少なくともいずれか一つに当たる。
また、前記骨は、頭、脊椎、左腕、右腕、左足、及び右足の骨のうち少なくともいずれか一つに当たる。
また、前記骨は、頭、脊椎、左腕、右腕、左足、及び右足を構成するそれぞれの骨のうち少なくともいずれか一つに当たる。
コンテンツモーションデータ101は、インデックス付きデータでありうる。
コンテンツモーションデータ101は、骨の回転情報のインデックス付きデータでありうる。
コンテンツモーションデータ101は、骨の位置情報のインデックス付きデータでありうる。
コンテンツモーションデータ101は、骨の回転情報及び位置情報のインデックス付きデータでありうる。
コンテンツモーションデータ101は、骨の回転情報によって分類されたデータでありうる。
コンテンツモーションデータ101は、骨の位置情報によって分類されたデータでありうる。
コンテンツモーションデータ101は、骨の回転情報及び位置情報によって分類されたデータでありうる。
コンテンツモーションデータ101は、インデックス付き骨の回転情報によって分類されたデータでありうる。
コンテンツモーションデータ101は、インデックス付き骨の位置情報によって分類されたデータでありうる。
コンテンツモーションデータ101は、インデックス付き骨の回転情報及び位置情報によって分類されたデータでありうる。
スタイルモーションデータ102は、アニメーションデータでありうる。
スタイルモーションデータ102は、コンテンツモーションデータ101が合成されうるモーション(例えば、ゲーム内のキャラクタ、鉄砲を持っている人、2本の刀を持っている人、オーク、ゾンビなど)を表現したデータであることが望ましい。
スタイルモーションデータ102は、骨の回転情報を含みうる。
スタイルモーションデータ102は、骨の位置情報を含みうる。
スタイルモーションデータ102は、骨の回転情報及び位置情報を含みうる。
この時、前記骨は、人体を構成する骨のうち少なくともいずれか一つに当たる。
また、前記骨は、上体または下体を構成する骨のうち少なくともいずれか一つに当たる。
また、前記骨は、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨のうち少なくともいずれか一つに当たる。
また、前記骨は、頭、脊椎、左腕、右腕、左足、及び右足の骨のうち少なくともいずれか一つに当たる。
また、前記骨は、頭、脊椎、左腕、右腕、左足、及び右足を構成するそれぞれの骨のうち少なくともいずれか一つに当たる。
スタイルモーションデータ102は、インデックス付きデータでありうる。
スタイルモーションデータ102は、骨の回転情報のインデックス付きデータでありうる。
スタイルモーションデータ102は、骨の位置情報のインデックス付きデータでありうる。
スタイルモーションデータ102は、骨の回転情報及び位置情報のインデックス付きデータでありうる。
スタイルモーションデータ102は、骨の回転情報によって分類されたデータでありうる。
スタイルモーションデータ102は、骨の位置情報によって分類されたデータでありうる。
スタイルモーションデータ102は、骨の回転情報及び位置情報によって分類されたデータでありうる。
スタイルモーションデータ102は、インデックス付き骨の回転情報によって分類されたデータでありうる。
スタイルモーションデータ102は、インデックス付き骨の位置情報によって分類されたデータでありうる。
スタイルモーションデータ102は、インデックス付き骨の回転情報及び位置情報によって分類されたデータでありうる。
図2は、本発明の一実施形態によるモーション合成装置の構成を示す図面であり、図3は、本発明の一実施形態による第1畳み込みニューラルネットワークの構成を示す図面である。
図2を参照すれば、本発明の一実施形態によるモーション合成装置100は、第1畳み込みニューラルネットワーク110と、ターゲット特性値生成モジュール120と、第2畳み込みニューラルネットワーク130と、損失生成モジュール140とを備える。
図2及び図3を参照すれば、第1畳み込みニューラルネットワーク110は、6個のサブ畳み込みニューラルネットワークを含む。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって学習されていない(untrained)畳み込みニューラルネットワークでありうる。
第1畳み込みニューラルネットワーク110は、コンテンツモーションデータ101を獲得する。
この時、コンテンツモーションデータ101は、インデックス付き骨の回転情報によって人体を構成する骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の回転情報によって上体または下体を構成する骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の回転情報によって人体を構成する骨が、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の回転情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とに分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の回転情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とを構成するそれぞれの骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の位置情報によって人体を構成する骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の位置情報によって上体または下体を構成する骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の位置情報によって人体を構成する骨が、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とに分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とを構成するそれぞれの骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の回転情報及び位置情報によって人体を構成する骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の回転情報及び位置情報によって上体または下体を構成する骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の回転情報及び位置情報によって人体を構成する骨が、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨に分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の回転情報及び位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とに分類されたデータでありうる。
また、コンテンツモーションデータ101は、インデックス付き骨の回転情報及び位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とを構成するそれぞれの骨に分類されたデータでありうる。
第1畳み込みニューラルネットワーク110は、コンテンツモーションデータ101によってコンテンツ特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報によって分類されたコンテンツモーションデータ101によってコンテンツ特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の位置情報によって分類されたコンテンツモーションデータ101によってコンテンツ特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報及び位置情報によって分類されたコンテンツモーションデータ101によってコンテンツ特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、複数のサブ畳み込みニューラルネットワークを含む。
第1畳み込みニューラルネットワーク110は、人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークを含む。
第1畳み込みニューラルネットワーク110は、上体または下体に対応する2個のサブ畳み込みニューラルネットワークを含む。
第1畳み込みニューラルネットワーク110は、人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークを含む。
第1畳み込みニューラルネットワーク110は、頭と、脊椎と、左腕と、右腕と、左足と、右足とに対応する6個のサブ畳み込みニューラルネットワークを含む。
第1畳み込みニューラルネットワーク110は、コンテンツモーションデータ101と前記サブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記上体または下体に対応する2個のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の位置情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の位置情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記上体または下体に対応する2個のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の位置情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報及び位置情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報及び位置情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記上体または下体に対応する2個のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報及び位置情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記6個のサブ畳み込みニューラルネットワーク111、112、113、114、115、116とをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の位置情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記6個のサブ畳み込みニューラルネットワーク111、112、113、114、115、116とをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報及び位置情報によって分類されたコンテンツモーションデータ101と、第1畳み込みニューラルネットワーク110に含まれている前記6個のサブ畳み込みニューラルネットワーク111、112、113、114、115、116とをマッチングする。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって頭に分類されたコンテンツモーションデータ101を第1サブ畳み込みニューラルネットワーク111とマッチングする。
第1サブ畳み込みニューラルネットワーク111は、本発明の一実施形態によってマッチングされた、頭に分類されたコンテンツモーションデータ101から頭特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって脊椎に分類されたコンテンツモーションデータ101を第2サブ畳み込みニューラルネットワーク112とマッチングする。
第2サブ畳み込みニューラルネットワーク112は、本発明の一実施形態によってマッチングされた、脊椎に分類されたコンテンツモーションデータ101から脊椎特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって左腕に分類されたコンテンツモーションデータ101を第3サブ畳み込みニューラルネットワーク113とマッチングする。
第3サブ畳み込みニューラルネットワーク113は、本発明の一実施形態によってマッチングされた、左腕に分類されたコンテンツモーションデータ101から左腕特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって右腕に分類されたコンテンツモーションデータ101を第4サブ畳み込みニューラルネットワーク114とマッチングする。
第4サブ畳み込みニューラルネットワーク114は、本発明の一実施形態によってマッチングされた、右腕に分類されたコンテンツモーションデータ101から右腕特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって左足に分類されたコンテンツモーションデータ101を第5サブ畳み込みニューラルネットワーク115とマッチングする。
第5サブ畳み込みニューラルネットワーク115は、本発明の一実施形態によってマッチングされた、左足に分類されたコンテンツモーションデータ101から左足特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって右足に分類されたコンテンツモーションデータ101を第6サブ畳み込みニューラルネットワーク116とマッチングする。
第6サブ畳み込みニューラルネットワーク116は、本発明の一実施形態によってマッチングされた、右足に分類されたコンテンツモーションデータ101から右足特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、頭特徴値と、脊椎特徴値と、左腕特徴値と、右腕特徴値と、左足特徴値と、右足特徴値とを用いてコンテンツ特徴値103を獲得する。
第1畳み込みニューラルネットワーク110が獲得したコンテンツ特徴値103を、コンテンツ特徴マップといえる。
第1畳み込みニューラルネットワーク110が獲得したコンテンツ特徴値103を、コンテンツベクトルといえる。
第1畳み込みニューラルネットワーク110が獲得したコンテンツ特徴値103の配列を、コンテンツベクトルといえる。
第1畳み込みニューラルネットワーク110は、スタイルモーションデータ102を獲得する。
この時、スタイルモーションデータ102は、インデックス付き骨の回転情報によって人体を構成する骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の回転情報によって上体または下体を構成する骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の回転情報によって人体を構成する骨が、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の回転情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とに分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の回転情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とを構成するそれぞれの骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の位置情報によって人体を構成する骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の位置情報によって上体または下体を構成する骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の位置情報によって人体を構成する骨が、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とに分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とを構成するそれぞれの骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の回転情報及び位置情報によって人体を構成する骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の回転情報及び位置情報によって上体または下体を構成する骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の回転情報及び位置情報によって人体を構成する骨が、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨に分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の回転情報及び位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とに分類されたデータでありうる。
また、スタイルモーションデータ102は、インデックス付き骨の回転情報及び位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とを構成するそれぞれの骨に分類されたデータでありうる。
第1畳み込みニューラルネットワーク110は、スタイルモーションデータ102によってスタイル特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報によって分類されたスタイルモーションデータ102によってスタイル特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の位置情報によって分類されたスタイルモーションデータ102によってスタイル特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報及び位置情報によって分類されたスタイルモーションデータ102によってスタイル特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、スタイルモーションデータ102と前記サブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記上体または下体に対応する2個のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の位置情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の位置情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記上体または下体に対応する2個のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の位置情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報及び位置情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報及び位置情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記上体または下体に対応する2個のサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報及び位置情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークとをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記6個のサブ畳み込みニューラルネットワーク111、112、113、114、115、116とをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の位置情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記6個のサブ畳み込みニューラルネットワーク111、112、113、114、115、116とをマッチングする。
第1畳み込みニューラルネットワーク110は、インデックス付き骨の回転情報及び位置情報によって分類されたスタイルモーションデータ102と、第1畳み込みニューラルネットワーク110に含まれている前記6個のサブ畳み込みニューラルネットワーク111、112、113、114、115、116とをマッチングする。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって頭に分類されたスタイルモーションデータ102を第1サブ畳み込みニューラルネットワーク111とマッチングする。
第1サブ畳み込みニューラルネットワーク111は、本発明の一実施形態によってマッチングされた、頭に分類されたスタイルモーションデータ102から頭特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって脊椎に分類されたスタイルモーションデータ102を第2サブ畳み込みニューラルネットワーク112とマッチングする。
第2サブ畳み込みニューラルネットワーク112は、本発明の一実施形態によってマッチングされた、脊椎に分類されたスタイルモーションデータ102から脊椎特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって左腕に分類されたスタイルモーションデータ102を第3サブ畳み込みニューラルネットワーク113とマッチングする。
第3サブ畳み込みニューラルネットワーク113は、本発明の一実施形態によってマッチングされた、左腕に分類されたスタイルモーションデータ102から左腕特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって右腕に分類されたスタイルモーションデータ102を第4サブ畳み込みニューラルネットワーク114とマッチングする。
第4サブ畳み込みニューラルネットワーク114は、本発明の一実施形態によってマッチングされた、右腕に分類されたスタイルモーションデータ102から右腕特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって左足に分類されたスタイルモーションデータ102を第5サブ畳み込みニューラルネットワーク115とマッチングする。
第5サブ畳み込みニューラルネットワーク115は、本発明の一実施形態によってマッチングされた、左足に分類されたスタイルモーションデータ102から左足特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、本発明の一実施形態によって右足に分類されたスタイルモーションデータ102を第6サブ畳み込みニューラルネットワーク116とマッチングする。
第6サブ畳み込みニューラルネットワーク116は、本発明の一実施形態によってマッチングされた、右足に分類されたスタイルモーションデータ102から右足特徴値を獲得する。
第1畳み込みニューラルネットワーク110は、頭特徴値と、脊椎特徴値と、左腕特徴値と、右腕特徴値と、左足特徴値と、右足特徴値とを用いてスタイル特徴値104を獲得する。
第1畳み込みニューラルネットワーク110が獲得したスタイル特徴値104を、スタイル特徴マップといえる。
第1畳み込みニューラルネットワーク110が獲得したスタイル特徴値104を、スタイルベクトルといえる。
第1畳み込みニューラルネットワーク110が獲得したスタイル特徴値104の配列を、スタイルベクトルといえる。
ターゲット特性値生成モジュール120は、第1畳み込みニューラルネットワーク110が獲得した前記コンテンツ特徴値103及び前記スタイル特徴値104を用いてターゲット特徴値を生成する。
ターゲット特性値生成モジュール120は、下記の数式1を用いて前記ターゲット特徴値に当たるF(t)を生成する。
(数式1)
ここで、aはユーザ定義のウェイトベクトルであり、Gram=(FT・F)/nである。また、iはインデックスを意味し、身体部分(例えば、頭、脊椎、左腕、右腕、左足、右足)別にそれぞれ異なるi値がインデックス付きになる。
前記数式1における
の部分は、コンテンツ損失である。前記コンテンツ損失は、ターゲット特徴値とコンテンツ特徴値との差を示す。
前記コンテンツ損失は、身体部分別に変わりうる。
前記コンテンツ損失は、前記それぞれ異なるi値がインデックス付きになっている身体部分別に変わりうる。
前記コンテンツ損失におけるMSEは、平均二乗誤差(Mean Square Error)を示す。
前記数式1における
の部分は、加重されたスタイル損失である。前記加重されたスタイル損失は、ターゲット特徴値とスタイル特徴値との差を示す。
前記加重されたスタイル損失は、身体部分別に変わりうる。
前記加重されたスタイル損失は、前記それぞれ異なるi値がインデックス付きになっている身体部分別に変わりうる。
前記加重されたスタイル損失でMSEは、平均二乗誤差を示す。
加重値aは、前記それぞれ異なるi値がインデックス付きになっている身体部分別に相異なって付与される。よって、前記身体部分別に付与された加重値aを修正して前記身体部分別に加重されたスタイル損失を修正する。
前記ターゲット特徴値に前記加重されたスタイル損失の反映される程度は、前記加重値aによって調整される。
前記加重値aによって前記スタイル特徴値がターゲット特徴値に反映される程度を調整する。
前記加重値aを用いて前記スタイル特徴値がターゲット特徴値に反映される程度を調整して、合成されたモーションデータを修正できる。
すなわち、前記加重値aが修正されれば、身体部分別に加重されたスタイル損失が修正される。
そして、前記身体部分別に加重されたスタイル損失が修正されれば、前記修正された身体部分別に加重されたスタイル損失によって前記身体部分別の前記ターゲット特徴値が修正される。
そして、前記身体部分別の前記ターゲット特徴値が修正されれば、前記修正された身体部分別の前記ターゲット特徴値を用いてアップデートされる、合成されたモーションデータが前記身体部分別に修正される。
前記数式1で、前記コンテンツ損失と前記加重されたスタイル損失とを加えた値からエラーを最小化するためのベクトルを生成するために、argminが用いられる。
ターゲット特性値生成モジュール120が生成したターゲット特徴値は、ベクトルでありうる。
図4は、本発明の一実施形態による第2畳み込みニューラルネットワークの構成を示す図面である。
図2及び図4を再び参照すれば、第2畳み込みニューラルネットワーク130は、6個のサブ畳み込みニューラルネットワークを含む。
第2畳み込みニューラルネットワーク130は、本発明の一実施形態によって学習されていな畳み込みニューラルネットワークでありうる。
第2畳み込みニューラルネットワーク130は、合成されたモーションデータ105を獲得する。
合成されたモーションデータ105は、アニメーションデータでありうる。
合成されたモーションデータ105は、コンテンツモーションデータ101と同じサイズのノイズデータでありうる。
合成されたモーションデータ105は、コンテンツモーションデータ101と同じサイズのモーションデータでありうる。
合成されたモーションデータ105は、スタイルモーションデータ102と同じサイズのノイズデータでありうる。
合成されたモーションデータ105は、スタイルモーションデータ102と同じサイズのモーションデータでありうる。
合成されたモーションデータ105は、骨の回転情報を含みうる。
合成されたモーションデータ105は、骨の位置情報を含みうる。
合成されたモーションデータ105は、骨の回転情報及び位置情報を含みうる。
この時、前記骨は、人体を構成する骨のうち少なくともいずれか一つに当たる。
また、前記骨は、上体または下体を構成する骨のうち少なくともいずれか一つに当たる。
また、前記骨は、必要(例えば、合成されるモーション)に応じて任意に分類した部分の骨のうち少なくともいずれか一つに当たる。
また、前記骨は、頭、脊椎、左腕、右腕、左足、及び右足の骨のうち少なくともいずれか一つに当たる。
また、前記骨は、頭、脊椎、左腕、右腕、左足、及び右足を構成するそれぞれの骨のうち少なくともいずれか一つに当たる。
合成されたモーションデータ105は、インデックス付きデータでありうる。
合成されたモーションデータ105は、骨の回転情報のインデックス付きデータでありうる。
合成されたモーションデータ105は、骨の位置情報のインデックス付きデータでありうる。
合成されたモーションデータ105は、骨の回転情報及び位置情報のインデックス付きデータでありうる。
合成されたモーションデータ105は、骨の回転情報によって分類されたデータでありうる。
合成されたモーションデータ105は、骨の位置転情報によって分類されたデータでありうる。
合成されたモーションデータ105は、骨の回転情報及び位置情報によって分類されたデータでありうる。
合成されたモーションデータ105は、インデックス付き骨の回転情報によって分類されたデータでありうる。
合成されたモーションデータ105は、インデックス付き骨の位置情報によって分類されたデータでありうる。
合成されたモーションデータ105は、インデックス付き骨の回転情報及び位置情報によって分類されたデータでありうる。
第2畳み込みニューラルネットワーク130は、合成されたモーションデータ105を獲得する。
この時、合成されたモーションデータ105は、インデックス付き骨の回転情報によって人体を構成する骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の回転情報によって上体または下体を構成する骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の回転情報によって人体を構成する骨が、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の回転情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とに分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の回転情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とを構成するそれぞれの骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の位置情報によって人体を構成する骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の位置情報によって上体または下体を構成する骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の位置情報によって、人体を構成する骨が、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とに分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とを構成するそれぞれの骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の回転情報及び位置情報によって人体を構成する骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の回転情報及び位置情報によって上体または下体を構成する骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の回転情報及び位置情報によって、人体を構成する骨が、必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の骨に分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の回転情報及び位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とに分類されたデータでありうる。
また、合成されたモーションデータ105は、インデックス付き骨の回転情報及び位置情報によって頭と、脊椎と、左腕と、右腕と、左足と、右足とを構成するそれぞれの骨に分類されたデータでありうる。
第2畳み込みニューラルネットワーク130は、合成されたモーションデータ105によって合成されたモーション特徴値を獲得する。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の回転情報によって分類された、合成されたモーションデータ105によって合成されたモーション特徴値を獲得する。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の位置情報によって分類された、合成されたモーションデータ105によって合成されたモーション特徴値を獲得する。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の回転情報及び位置情報によって分類された、合成されたモーションデータ105によって合成されたモーション特徴値を獲得する。
第2畳み込みニューラルネットワーク130は、複数のサブ畳み込みニューラルネットワークを含む。
第2畳み込みニューラルネットワーク130は、人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークを含む。
第2畳み込みニューラルネットワーク130は、上体または下体に対応する2個のサブ畳み込みニューラルネットワークを含む。
第2畳み込みニューラルネットワーク130は、人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークを含む。
第2畳み込みニューラルネットワーク130は、頭と、脊椎と、左腕と、右腕と、左足と、右足とに対応する6個のサブ畳み込みニューラルネットワークを含む。
第2畳み込みニューラルネットワーク130は、合成されたモーションデータ105と前記サブ畳み込みニューラルネットワークとをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の回転情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークとをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の回転情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記上体または下体に対応する2個のサブ畳み込みニューラルネットワークとをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の回転情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークとをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の位置情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークとをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の位置情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記上体または下体に対応する2個のサブ畳み込みニューラルネットワークとをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の位置情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークとをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の回転情報及び位置情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記人体を構成する骨の数と同数のサブ畳み込みニューラルネットワークとをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の回転情報及び位置情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記上体または下体に対応する2個のサブ畳み込みニューラルネットワークとをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の回転情報及び位置情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記人体を必要(例えば、合成されるモーション)に応じて任意に分類した部分の数に対応するサブ畳み込みニューラルネットワークとをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の回転情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記6個のサブ畳み込みニューラルネットワーク131、132、133、134、135、136とをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の位置情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記6個のサブ畳み込みニューラルネットワーク131、132、133、134、135、136とをマッチングする。
第2畳み込みニューラルネットワーク130は、インデックス付き骨の回転情報及び位置情報によって分類された、合成されたモーションデータ105と、第2畳み込みニューラルネットワーク130に含まれている前記6個のサブ畳み込みニューラルネットワーク131、132、133、134、135、136とをマッチングする。
第2畳み込みニューラルネットワーク130は、本発明の一実施形態によって合成された頭に分類された、合成されたモーションデータ105を、第1サブ畳み込みニューラルネットワーク131とマッチングする。
第1サブ畳み込みニューラルネットワーク131は、本発明の一実施形態によってマッチングされた、合成された頭に分類された合成されたモーションデータ105から、合成された頭特徴値を獲得する。
第2畳み込みニューラルネットワーク130は、本発明の一実施形態によって合成された脊椎に分類された、合成されたモーションデータ105を、第2サブ畳み込みニューラルネットワーク132とマッチングする。
第2サブ畳み込みニューラルネットワーク132は、本発明の一実施形態によってマッチングされた、合成された脊椎に分類された合成されたモーションデータ105から、合成された脊椎特徴値を獲得する。
第2畳み込みニューラルネットワーク130は、本発明の一実施形態によって合成された左腕に分類された、合成されたモーションデータ105を、第3サブ畳み込みニューラルネットワーク133とマッチングする。
第3サブ畳み込みニューラルネットワーク133は、本発明の一実施形態によってマッチングされた、合成された左腕に分類された合成されたモーションデータ105から、合成された左腕特徴値を獲得する。
第2畳み込みニューラルネットワーク130は、本発明の一実施形態によって合成された右腕に分類された、合成されたモーションデータ105を、第4サブ畳み込みニューラルネットワーク134とマッチングする。
第4サブ畳み込みニューラルネットワーク134は、本発明の一実施形態によってマッチングされた、合成された右腕に分類された合成されたモーションデータ105から、合成された右腕特徴値を獲得する。
第2畳み込みニューラルネットワーク130は、本発明の一実施形態によって合成された左足に分類された、合成されたモーションデータ105を、第5サブ畳み込みニューラルネットワーク135とマッチングする。
第5サブ畳み込みニューラルネットワーク135は、本発明の一実施形態によってマッチングされた、合成された左足に分類された合成されたモーションデータ105から、合成された左足特徴値を獲得する。
第2畳み込みニューラルネットワーク130は、本発明の一実施形態によって合成された右足に分類された、合成されたモーションデータ105を、第6サブ畳み込みニューラルネットワーク136とマッチングする。
第6サブ畳み込みニューラルネットワーク136は、本発明の一実施形態によってマッチングされた、合成された右足に分類された合成されたモーションデータ105から、合成された右足特徴値を獲得する。
第2畳み込みニューラルネットワーク130は、合成された頭特徴値と、合成された脊椎特徴値と、合成された左腕特徴値と、合成された右腕特徴値と、合成された左足特徴値と、合成された右足特徴値とを用いて、合成されたモーション特徴値106を獲得する。
本発明の他の実施形態によって、第2畳み込みニューラルネットワーク130に含まれているサブ畳み込みニューラルネットワーク(図示せず)の数は、インデックス付き骨の回転情報によって分類された、合成されたモーションデータ105によって人体を構成する骨の数と同一でありうる。
本発明のさらに他の実施形態によって、第2畳み込みニューラルネットワーク130に含まれているサブ畳み込みニューラルネットワーク(図示せず)の数は、インデックス付き骨の回転情報によって分類された、合成されたモーションデータ105によって上体及び下体に対応する2個でありうる。
本発明のさらに他の実施形態によって、第2畳み込みニューラルネットワーク130に含まれているサブ畳み込みニューラルネットワーク(図示せず)の数は、インデックス付き骨の回転情報によって分類された、合成されたモーションデータ105によって、人体を構成する骨を必要(例えば、合成されるモーション)に応じて前記人体を任意に分類した部分の数に対応する。
第2畳み込みニューラルネットワーク130が獲得した合成されたモーション特徴値106を、合成されたモーション特徴マップといえる。
第2畳み込みニューラルネットワーク130が獲得した合成されたモーション特徴値106を、合成されたモーションベクトルといえる。
第2畳み込みニューラルネットワーク130が獲得した合成されたモーション特徴値106の配列を、合成されたモーションベクトルといえる。
本発明の他の実施形態によって、第1畳み込みニューラルネットワーク110及び第2畳み込みニューラルネットワーク130を一つの畳み込みニューラルネットワークに具現してもよい。
損失生成モジュール140は、合成されたモーション特徴値106と前記ターゲット特徴値とを用いて損失を獲得する。
損失生成モジュール140は、下記の数式2を用いて損失を獲得する。
(数式2) loss=MSE(F(syn)‐F(t))
前記の数式2を用いて損失生成モジュール140は、前記合成されたモーション特徴値と前記ターゲット特徴値との差が最小である損失を獲得する。
前記の数式2におけるMSEは、平均二乗誤差を示す。
損失生成モジュール140は、前記獲得した損失によって前記合成されたモーションデータを繰り返してアップデートする。
損失生成モジュール140は、バック・プロパゲーションアルゴリズムを用いて前記合成されたモーションデータを繰り返してアップデートする。
損失生成モジュール140は、バック・プロパゲーションアルゴリズムを用いて、前記合成されたモーション特徴値と前記ターゲット特徴値とがマッチされるまで前記合成されたモーションデータを繰り返してアップデートする。
図5は、本発明の一実施形態によるモーション合成方法を示すフローチャートである。
図5を参照すれば、モーション合成装置が、コンテンツモーションデータ及びスタイルモーションデータを認識する(ステップ500)。
この時、前記コンテンツモーションデータ及びスタイルモーションデータは、アニメーションデータでありうる。
また、前記コンテンツモーションデータ及び前記スタイルモーションデータは、インデックス付き骨の回転情報によって分類されたデータでありうる。
モーション合成装置が、コンテンツ特徴値及びスタイル特徴値を獲得する(ステップ510)。
この時、モーション合成装置は、頭特徴値と、脊椎特徴値と、左腕特徴値と、右腕特徴値と、左足特徴値と、右足特徴値とを用いて前記コンテンツ特徴値または前記スタイル特徴値を獲得する。
モーション合成装置は、ターゲット特徴値を生成する(ステップ520)。
この時、モーション合成装置は、ターゲット特徴値とコンテンツ特徴値との差と、ターゲット特徴値とスタイル特徴値との差とを用いてターゲット特徴値を生成する。
モーション合成装置が合成されたモーションデータを認識する(ステップ530)。
この時、前記合成されたモーションデータは、アニメーションデータでありうる。
また、前記合成されたモーションデータは、インデックス付き骨の回転情報によって分類されたデータでありうる。
モーション合成装置が合成されたモーション特徴値を獲得する(ステップ540)。
この時、モーション合成装置は、頭特徴値と、脊椎特徴値と、左腕特徴値と、右腕特徴値と、左足特徴値と、右足特徴値とを用いて前記合成されたモーション特徴値を獲得する。
モーション合成装置が、合成されたモーション特徴値と前記ターゲット特徴値とを用いて損失を獲得する(ステップ550)。
この時、モーション合成装置は、前記合成されたモーション特徴値と前記ターゲット特徴値との差を用いて損失を獲得する。
モーション合成装置は、獲得した損失によって前記合成されたモーションデータを繰り返してアップデートする(ステップ560)。
この時、モーション合成装置は、バック・プロパゲーションアルゴリズムを用いて、前記合成されたモーション特徴値と前記ターゲット特徴値とがマッチされるまで前記合成されたモーションデータを繰り返してアップデートする。
図6は、本発明の一実施形態によってコンテンツモーション及びスタイルモーションを用いてモーションを合成する一例を示す図面である。
図6の(a)を参照すれば、本発明の一実施形態によって、コンテンツモーションデータは、人間が走るモーションを示すアニメーションデータである。
図6の(b)を参照すれば、本発明の一実施形態によって、スタイルモーションデータは、前記コンテンツモーションデータ(図6の(a))が合成されるように創造されたキャラクタが上体を少し下げているモーションを示すアニメーションデータである。
図6の(c)を参照すれば、本発明の一実施形態によって、合成されたモーションデータは、人間が走るモーションを示す前記コンテンツモーションデータ(図6の(a))と、創造されたキャラクタが上体を少し下げているモーションを示す前記スタイルモーションデータ(図6の(b))とが合成されたモーションを示すアニメーションデータになる。
すなわち、合成されたモーションデータは、創造されたキャラクタが上体をちょっと下げて走るモーションを示すアニメーションデータになる。
図7は、本発明の一実施形態を具現するための例示的なコンピュータシステムのブロック図である。
図7を参照すれば、本発明の一実施形態を具現するための例示的なコンピュータシステムは、情報を交換するためのバスまたは他のコミュニケーションチャネル701を備え、プロセッサ702は、情報を処理するためにバス701と連結される。
コンピュータシステム700は、情報及びプロセッサ702によって処理される命令を保存するために、バス701と連結されたRAM(Random Access Memory)、または他の動的保存装置であるメインメモリ703を備える。
また、メインメモリ703は、プロセッサ702による命令の実行中に臨時変数または他の中間情報を保存するために使われる。
コンピュータシステム700は、プロセッサ702に関する静的な情報または命令を保存するために、バス701に結合されたROM(Read Only Memory)及び他の静的保存装置704を備える。
マグネチックディスク、ジップまたは光ディスクなどのデータ保存装置705及びそれに対応するドライブも、情報及び命令を保存するためにコンピュータシステム700に連結される。
コンピュータシステム700は、エンドユーザに情報をディスプレイするために、バス701を通じて陰極線管またはLCDなどのディスプレイ装置710と連結される。
キーボード720などの文字入力装置は、プロセッサ702に情報及び命令を伝達するためにバス701に連結される。
他の類型のユーザ入力装置は、方向情報及び命令選択をプロセッサ702に伝達し、ディスプレイ710上のカーソルの動きを制御するためのマウス、トラックボールまたはカーソル方向キーなどのカーソルコントロールデバイス730である。
通信装置740もバス701と連結される。
通信装置740は、地域ネットワークまたは広域網への接続をサポートするために、モデム、ネットワークインターフェースカード、イーサネット(登録商標)、トークンリングまたは他の類型の物理的結合物と連結するために使われるインターフェース装置を備える。
このような方式でコンピュータシステム700は、インターネットのような従来のネットワークインフラストラクチャを通じて複数のクライアント及びサーバと連結される。
以上、本発明の実施形態を構成するすべての構成要素が一つに結合されるか、または結合されて動作すると説明されたとしても、本発明が必ずこれらの実施形態に限定されるものではない。すなわち、本発明の目的範囲内では、そのすべての構成要素の少なくとも一つが選択的に結合して動作してもよい。
また、そのすべての構成要素がそれぞれ一つの独立的なハードウェアに具現されてもよいが、それぞれの構成要素の一部または全部が選択的に組み合わせられて、一つまたは複数のハードウェアで組み合わせられた一部または全部の機能を実行するプログラムモジュールを持つコンピュータ・プログラムとして具現されてもよい。そのコンピュータ・プログラムを構成するコード及びコードセグメントは当業者によって容易に推論される。
このようなコンピュータ・プログラムは、コンピュータで読み取り可能な記録媒体に保存されてコンピュータによって読み取られて実行されることによって、本発明の実施形態を具現できる。コンピュータ・プログラムの記録媒体としては磁気記録媒体、光記録媒体などがある。
また、以上で記載した「含む」、「構成する」、または「持つ」などの用語は、特に逆の記載がない限り、該構成要素が内在していると意味するため、他の構成要素を除くものではなく他の構成要素をさらに含むと解釈されねばならない。
技術的や科学的な用語を含むすべての用語は、異なって定義されない限り、当業者によって一般的に理解されるものと同じ意味を持つ。辞書に定義されている用語のように一般的に使われる用語は、関連技術の文脈上の意味と一致すると解釈されねばならず、本発明で明らかに定義しない限り、理想的や過度に形式的な意味と解釈されない。
以上の説明は本発明の技術思想を例示的に説明したものに過ぎず、当業者ならば本発明の本質的な特性から逸脱しない範囲で多様な修正及び変形が可能であろう。
よって、本発明に開示された実施形態は本発明の技術思想を限定するためのものではなく説明するためのものであり、これらの実施形態によって本発明の技術思想の範囲が限定されるものではない。本発明の保護範囲は下記の特許請求の範囲によって解釈されねばならず、それと同等な範囲内にあるすべての技術思想は本発明の権利範囲に含まれていると解釈されねばならない。
100 モーション合成装置
110 第1畳み込みニューラルネットワーク
120 ターゲット特徴値生成モジュール
130 第2畳み込みニューラルネットワーク
140 損失生成モジュール

Claims (12)

  1. モーション合成装置がコンテンツモーションデータ及びスタイルモーションデータによってコンテンツ特徴値及びスタイル特徴値を獲得する動作と、
    モーション合成装置が前記獲得したコンテンツ特徴値及びスタイル特徴値を用いてターゲット特徴値を生成する動作と、
    モーション合成装置が合成されたモーションデータを認識し、前記認識した合成されたモーションデータから合成されたモーション特徴値を獲得する動作と、
    モーション合成装置が前記合成されたモーション特徴値及び前記ターゲット特徴値を用いて損失を獲得し、前記獲得した損失によって前記合成されたモーションデータをアップデートする動作と、
    を含むことを特徴とするモーション合成方法。
  2. 前記合成されたモーションデータをアップデートする動作は、
    前記合成されたモーション特徴値と前記ターゲット特徴値とがマッチされるまでバック・プロパゲーションアルゴリズムを用いて行われることを特徴とする請求項1に記載のモーション合成方法。
  3. 前記モーション合成装置は、学習されていない畳み込みニューラルネットワークを用いて特徴値を獲得することを特徴とする請求項1に記載のモーション合成方法。
  4. 前記コンテンツモーションデータ及び前記スタイルモーションデータは、アニメーションデータであることを特徴とする請求項1に記載のモーション合成方法。
  5. 前記コンテンツモーションデータ及び前記スタイルモーションデータは、骨の情報を含むことを特徴とする請求項1に記載のモーション合成方法。
  6. 前記スタイル特徴値を用いてスタイル損失を獲得し、前記獲得したスタイル損失に加重値を付与して前記ターゲット特徴値を生成することを特徴とする請求項1に記載のモーション合成方法。
  7. モーション合成装置において、
    前記モーション合成装置は、プロセッサを備え、
    前記プロセッサは、
    コンテンツモーションデータ及びスタイルモーションデータによってコンテンツ特徴値及びスタイル特徴値を獲得し、
    前記獲得したコンテンツ特徴値及びスタイル特徴値を用いてターゲット特徴値を生成し、
    合成されたモーションデータを認識し、前記認識した合成されたモーションデータから合成されたモーション特徴値を獲得し、
    前記合成されたモーション特徴値及び前記ターゲット特徴値を用いて損失を獲得し、前記獲得した損失によって前記合成されたモーションデータをアップデートすることを特徴とするモーション合成装置。
  8. 前記合成されたモーションデータをアップデートする動作は、
    前記合成されたモーション特徴値と前記ターゲット特徴値とがマッチされるまでバック・プロパゲーションアルゴリズムを用いて行われることを特徴とする請求項7に記載のモーション合成装置。
  9. 前記プロセッサは、
    学習されていない畳み込みニューラルネットワークを用いて特徴値を獲得することを特徴とする請求項7に記載のモーション合成装置。
  10. 前記コンテンツモーションデータ及び前記スタイルモーションデータは、アニメーションデータであることを特徴とする請求項7に記載のモーション合成装置。
  11. 前記コンテンツモーションデータ及び前記スタイルモーションデータは、骨の情報を含むことを特徴とする請求項7に記載のモーション合成装置。
  12. 前記スタイル特徴値を用いてスタイル損失を獲得し、前記獲得したスタイル損失に加重値を付与して前記ターゲット特徴値を生成することを特徴とする請求項7に記載のモーション合成装置。
JP2019129806A 2018-07-30 2019-07-12 モーション合成装置及びモーション合成方法 Active JP6902071B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
KR1020180088621A KR102543650B1 (ko) 2018-07-30 2018-07-30 모션 합성 장치 및 모션 합성 방법
KR10-2018-0088621 2018-07-30

Publications (2)

Publication Number Publication Date
JP2020021474A true JP2020021474A (ja) 2020-02-06
JP6902071B2 JP6902071B2 (ja) 2021-07-14

Family

ID=67438993

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019129806A Active JP6902071B2 (ja) 2018-07-30 2019-07-12 モーション合成装置及びモーション合成方法

Country Status (5)

Country Link
US (1) US10957087B2 (ja)
EP (1) EP3605389A1 (ja)
JP (1) JP6902071B2 (ja)
KR (1) KR102543650B1 (ja)
CN (1) CN110782478B (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022518970A (ja) * 2019-03-15 2022-03-17 株式会社ソニー・インタラクティブエンタテインメント 異種のターゲットアニメーションデータを使用してキャラクタをトレーニングする強化学習

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015713A (ja) * 2006-07-04 2008-01-24 Kyushu Institute Of Technology 動作変形システム及びその方法
JP2012208548A (ja) * 2011-03-29 2012-10-25 Copcom Co Ltd プログラム、および、当該プログラムを記録したプログラム記録部を備えている画像処理装置
JP2015011480A (ja) * 2013-06-27 2015-01-19 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
US20180158224A1 (en) * 2015-07-31 2018-06-07 Eberhard Karls Universitaet Tuebingen Method and device for image synthesis

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
GB2486337A (en) * 2010-12-08 2012-06-13 Chao-Hua Lee Generation, recognition and extraction of movement styles
CN102638202A (zh) * 2012-05-14 2012-08-15 王世英 电磁运动能量产生装置与方法
US9436911B2 (en) * 2012-10-19 2016-09-06 Pearson Education, Inc. Neural networking system and methods
KR101501405B1 (ko) 2014-01-29 2015-03-12 김봉회 합성 이미지 전송 장치
KR102252730B1 (ko) * 2015-02-06 2021-05-18 한국전자통신연구원 애니메이션 생성 장치 및 방법
KR102097016B1 (ko) * 2015-02-09 2020-04-06 한국전자통신연구원 동작 분석 장치 및 방법
US10854104B2 (en) * 2015-08-28 2020-12-01 Icuemotion Llc System for movement skill analysis and skill augmentation and cueing
US10095957B2 (en) * 2016-03-15 2018-10-09 Tata Consultancy Services Limited Method and system for unsupervised word image clustering
JP2018038455A (ja) * 2016-09-05 2018-03-15 セイコーエプソン株式会社 情報処理システム、ウェアラブル機器及び情報処理方法
US10902343B2 (en) * 2016-09-30 2021-01-26 Disney Enterprises, Inc. Deep-learning motion priors for full-body performance capture in real-time
CN106570194A (zh) * 2016-11-16 2017-04-19 上海卓易云汇智能技术有限公司 一种数据更新方法以及装置
CN106897670B (zh) * 2017-01-19 2020-09-22 南京邮电大学 一种基于计算机视觉的快递暴力分拣识别方法
CN107767343B (zh) * 2017-11-09 2021-08-31 京东方科技集团股份有限公司 图像处理方法、处理装置和处理设备
US10719742B2 (en) * 2018-02-15 2020-07-21 Adobe Inc. Image composites using a generative adversarial neural network

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2008015713A (ja) * 2006-07-04 2008-01-24 Kyushu Institute Of Technology 動作変形システム及びその方法
JP2012208548A (ja) * 2011-03-29 2012-10-25 Copcom Co Ltd プログラム、および、当該プログラムを記録したプログラム記録部を備えている画像処理装置
JP2015011480A (ja) * 2013-06-27 2015-01-19 カシオ計算機株式会社 画像生成装置、画像生成方法及びプログラム
US20180158224A1 (en) * 2015-07-31 2018-06-07 Eberhard Karls Universitaet Tuebingen Method and device for image synthesis

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2022518970A (ja) * 2019-03-15 2022-03-17 株式会社ソニー・インタラクティブエンタテインメント 異種のターゲットアニメーションデータを使用してキャラクタをトレーニングする強化学習

Also Published As

Publication number Publication date
CN110782478B (zh) 2023-12-15
US10957087B2 (en) 2021-03-23
JP6902071B2 (ja) 2021-07-14
CN110782478A (zh) 2020-02-11
EP3605389A1 (en) 2020-02-05
US20200035008A1 (en) 2020-01-30
KR20200013430A (ko) 2020-02-07
KR102543650B1 (ko) 2023-06-15

Similar Documents

Publication Publication Date Title
US11783199B2 (en) Image description information generation method and apparatus, and electronic device
US11610130B2 (en) Knowledge sharing for machine learning systems
US11915152B2 (en) Learning coach for machine learning system
JP6612855B2 (ja) 出力分布による生徒dnnの学習
CN110795569B (zh) 知识图谱的向量表示生成方法、装置及设备
JP2019075088A (ja) 文章生成モデルのアップデート方法及び文章生成装置
KR102293791B1 (ko) 반도체 소자의 시뮬레이션을 위한 전자 장치, 방법, 및 컴퓨터 판독가능 매체
CN113939870A (zh) 为基于生成和检索的应用学习有效音乐特征的技术
KR102560754B1 (ko) 모션 리타겟팅 장치 및 모션 리타겟팅 방법
CN111695698A (zh) 用于模型蒸馏的方法、装置、电子设备及可读存储介质
JP6243072B1 (ja) 入出力システム、入出力プログラム、情報処理装置、チャットシステム
Ghosh et al. An empirical analysis of generative adversarial network training times with varying batch sizes
JP2020021474A (ja) モーション合成装置及びモーション合成方法
KR20210045217A (ko) 감정 이식 장치 및 감정 이식 방법
JP2019191635A (ja) データ分析システム、方法、及びプログラム
Zor et al. BeamECOC: A local search for the optimization of the ECOC matrix
CN112101204A (zh) 生成式对抗网络的训练方法、图像处理方法、装置和设备
Andersen et al. Increasing sample efficiency in deep reinforcement learning using generative environment modelling
CN115690267A (zh) 一种动画处理方法、装置、设备、存储介质及产品
KR102196874B1 (ko) 위성 이미지 생성 학습 장치, 위성 이미지 생성 학습 방법, 위성 이미지 생성 장치 및 위성 이미지 생성 방법
KR20210025324A (ko) 딥 뉴럴 네트워크를 이용한 애니메이션 생성 장치 및 애니메이션 생성 방법
JP7092228B1 (ja) 学習装置、学習方法およびプログラム
KR102430548B1 (ko) 구조화된 학습 데이터의 전처리 방법
KR102303626B1 (ko) 단일 이미지에 기반하여 비디오 데이터를 생성하기 위한 방법 및 컴퓨팅 장치
WO2023166576A1 (ja) 情報処理装置、情報処理方法、およびプログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20190712

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20190801

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20200918

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201006

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210105

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210224

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210525

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210618

R150 Certificate of patent or registration of utility model

Ref document number: 6902071

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250