JP7086362B1 - 情報処理システム、情報処理方法および情報処理プログラム - Google Patents

情報処理システム、情報処理方法および情報処理プログラム Download PDF

Info

Publication number
JP7086362B1
JP7086362B1 JP2021054684A JP2021054684A JP7086362B1 JP 7086362 B1 JP7086362 B1 JP 7086362B1 JP 2021054684 A JP2021054684 A JP 2021054684A JP 2021054684 A JP2021054684 A JP 2021054684A JP 7086362 B1 JP7086362 B1 JP 7086362B1
Authority
JP
Japan
Prior art keywords
image
character
animal
dimensional
information processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021054684A
Other languages
English (en)
Other versions
JP2022152058A (ja
Inventor
猛 片岡
兼太郎 山口
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Celsys Inc
Original Assignee
Celsys Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Celsys Inc filed Critical Celsys Inc
Priority to JP2021054684A priority Critical patent/JP7086362B1/ja
Application granted granted Critical
Publication of JP7086362B1 publication Critical patent/JP7086362B1/ja
Publication of JP2022152058A publication Critical patent/JP2022152058A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)

Abstract

Figure 0007086362000001
【課題】 少ないユーザ手動操作で2次元画像上の部分動物画像領域をキャラクタの3次元モデルにテクスチャマッピングすることが可能な情報処理システム、情報処理方法および情報処理プログラムを提供する。
【解決手段】 2次元画像上の部分画像領域をキャラクタの3次元モデルにテクスチャマッピングする情報処理システムであって、2次元画像から動物領域を動物画像として抽出する動物画像領域抽出手段と、2次元画像における動物のキーポイントを推定する2次元キーポイント推定手段と、2次元画像から動物の3次元ポーズを推定し、推定された3次元ポーズを表す3次元ポーズデータを取得する3次元ポーズ推定手段と、キャラクタのキーポイントを取得するキャラクタキーポイント取得手段と、キャラクタのキーポイントと、動物のキーポイントと、3次元ポーズデータと、に基づいて、動物画像をキャラクタの3次元モデルにテクスチャマッピングするテクスチャマッピング手段と、を備える情報処理システムが提供される。
【選択図】 図1

Description

本発明は、2次元画像に含まれる動物画像をキャラクタの3次元モデルにテクスチャマッピングする情報処理システム、情報処理方法および情報処理プログラムに関する。なお、本明細書における「動物」は人物を含む。また、本明細書における「動物」には、擬人化したキャラクタも含まれる。
人工知能技術を利用した画像処理技術が知られている。例えば、非特許文献1には、人工知能を利用して人物が写った写真からキーポイントを推定する技術が開示されている。ここで、キーポイントとは、関節点(肩、肘、手首、腰、膝、足首など)や特徴点(目、鼻、口、耳など)のことである。また、非特許文献2には、セマンティックセグメンテーションによって、予め学習された人物、自転車、動物といった領域を写真から推定することが開示されている。さらに、非特許文献3には、1枚の人物の顔写真から光源の方向を推定し、光源の方向を変えた写真を作り出すことが開示されている。また、非特許文献4には、2次元画像における被写体の3次元ポーズを推定する技術が開示されている。
その他、非特許文献5には、2次元形状を回転、移動、変形する技術が開示されている。
ところで、従来、コンピュータグラフィックスのキャラクタの3次元モデルを作成する手法として、例えば3次元モデルのポリゴンの頂点と、所望の2次元画像上の点とを対応付ける「テクスチャマッピング」が知られている。テクスチャマッピングの具体的な手法の1つとして、あたかも映写機で面に向かって映像を投射しているように3次元モデルに2次元画像を貼り付ける「投影マッピング」がある。
投影マッピングにおける2次元画像として、人物のスナップショット写真など既存の画像が使用され得る。この場合、人物のポーズはキャラクタの3次元モデルの初期ポーズと同じであるとは限らない。よって、キャラクタの3次元モデルのポーズを2次元画像における人物のポーズに合わせて、両者のキーポイントおよび輪郭を位置合わせする必要がある。
しかし、それぞれのキーポイントや輪郭の位置合わせをユーザが手動で行うのは非常に時間と労力が必要という問題がある。
なお、特許文献1には、修正画像を生成するためのコンピュータ実施方法が提案されているが、テクスチャマッピングを行うものではない。
特表2012-526479号公報
Zhe Cao, Tomas Simon, Shih-En Wei, Yaser Sheikh,"Realtime Multi-Person 2D Pose Estimation using Part Affinity Fields",[online],2017年4月14日,[令和3年3月25日検索],インターネット<URL:https://arxiv.org/abs/1611.08050> Evan Shelhamer, Jonathan Long, Trevor Darrell," Fully Convolutional Networks for Semantic Segmentation",[online],2016年5月20日,[令和3年3月25日検索],インターネット<URL:https://arxiv.org/abs/1605.06211> Tiancheng Sun, Jonathan T. Barron, Yun-Ta Tsai, Zexiang Xu, Xueming Yu, Graham Fyffe, Christoph Rhemann, Jay Busch, Paul Debevec, Ravi Ramamoorthi," Single Image Portrait Relighting",[online],2019年5月2日,[令和3年3月25日検索],インターネット<URL:https://arxiv.org/abs/1905.00824> Zdushyant Mehta, Srinath Sridhar, Oleksandr Sotnychenko, Helge Rhodin, Mohammad Shafiei, Hans-Peter Seidel, Weipeng Xu, Dan Casas, Christian Theobalt,"VNect: Real-time 3D Human Pose Estimation with a Single RGB Camera",[online],2017年7月,[令和3年3月25日検索],インターネット<URL:http://gvv.mpi-inf.mpg.de/projects/VNect/content/VNect_SIGGRAPH2017.pdf> Takeo Igarashi, Tomer Moscovich, John F. Hughes,"As-Rigid-As-Possible Shape Manipulation",[online],[令和3年3月25日検索],インターネット<URL:https://www-ui.is.s.u-tokyo.ac.jp/~takeo/papers/rigid.pdf>
本発明の課題は、少ないユーザ手動操作で2次元画像上の部分動物画像領域をキャラクタの3次元モデルにテクスチャマッピングすることが可能な情報処理システム、情報処理方法および情報処理プログラムを提供することである。
本発明の一態様によれば、2次元画像上の部分画像領域をキャラクタの3次元モデルにテクスチャマッピングする情報処理システムであって、前記2次元画像から動物領域を動物画像として抽出する動物画像領域抽出手段と、前記2次元画像における前記動物のキーポイントを推定する2次元キーポイント推定手段と、前記2次元画像から前記動物の3次元ポーズを推定し、推定された3次元ポーズを表す3次元ポーズデータを取得する3次元ポーズ推定手段と、前記キャラクタのキーポイントを取得するキャラクタキーポイント取得手段と、前記キャラクタのキーポイントと、前記動物のキーポイントと、前記3次元ポーズデータと、に基づいて、前記動物画像を前記キャラクタの3次元モデルにテクスチャマッピングするテクスチャマッピング手段と、を備える情報処理システムが提供される。
この構成によれば、情報処理システムが、2次元画像からの動物画像領域抽出、2次元画像における動物の2次元キーポイント推定、および2次元画像からの動物の3次元ポーズ推定による3次元ポーズデータの取得を行うため、ユーザの手動操作を減らすことができる。
前記テクスチャマッピング手段は、前記3次元ポーズデータを適用して前記キャラクタの3次元モデルを変形するポーズ適用手段と、前記変形されたキャラクタの3次元モデルから前記キャラクタの2次元画像であるキャラクタ画像を生成するキャラクタ描画手段と、前記キャラクタ画像に基づいて、前記動物画像を変形する動物画像変形手段と、前記変形された動物画像を前記変形されたキャラクタの3次元モデルに投影することにより、前記動物画像を前記キャラクタの3次元モデルにテクスチャマッピングする投影手段と、を有してもよい。
この構成によれば、キャラクタの3次元モデルの初期ポーズが2次元画像の動物のポーズと異なる場合であっても、また、生成されたキャラクタ画像の輪郭やキーポイントと動物画像の輪郭やキーポイントとが完全に一致していなくても、動物画像をキャラクタの3次元モデルにテクスチャマッピングできる。
前記3次元ポーズ推定手段は、前記動物と、この動物を撮影したカメラとの相対的な向きの情報を含むカメラ設定を推定し、前記キャラクタ描画手段は、前記カメラ設定に基づいて設定された仮想カメラを用いて、前記変形されたキャラクタの3次元モデルを描画することにより、前記キャラクタ画像を生成してもよい。
この構成によれば、キャラクタの3次元モデルを描画する際に、動物を撮影した際のカメラの向きの情報を利用することによって、キャラクタの3次元モデルに対する仮想カメラの向きの設定が可能となる。例えば、平行投影によって仮想カメラからの撮影を行う場合に、動物と、この動物を撮影したカメラとの相対的な向きを示すカメラ設定を推定すればよい。
なお、前記カメラ設定は、前記動物と、前記動物を撮影したカメラとの相対的な位置の情報をさらに含んでもよい。
この構成によれば、キャラクタの3次元モデルを描画する際に、動物を撮影した際のカメラの位置情報を利用することによって、キャラクタの3次元モデルに対する仮想カメラの位置の設定が可能となる。例えば、透視投影によって仮想カメラからの撮影を行う場合に、動物と、この動物を撮影したカメラとの相対的な向きだけでなく位置の情報をも示すカメラ設定を推定することができる。
前記キャラクタ描画手段は、前記キャラクタの3次元モデルに予め設定されているキーポイントに基づいて、前記キャラクタ画像上の前記キャラクタのキーポイントの位置を示す2次元座標を生成し、前記動物画像変形手段は、前記動物画像上の前記動物の各キーポイントの位置と、前記キャラクタ画像上の前記キャラクタの対応するキーポイントの位置と、が概略一致し、かつ、前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、が概略一致するよう、前記動物画像を変形してもよい。
この構成によれば、動物画像をより精度よくキャラクタの3次元モデルに投影できる。また、情報処理システムがキャラクタのキーポイントを推定しなくて済む。
前記テクスチャマッピング手段は、キャラクタキーポイント推定手段をさらに有し、前記キャラクタキーポイント推定手段は、前記キャラクタ画像におけるキャラクタのキーポイントの位置を示す2次元座標を推定し、前記動物画像変形手段は、前記動物画像上の前記動物の各キーポイントの位置と、前記キャラクタ画像上の前記キャラクタの対応するキーポイントの位置と、が概略一致し、かつ、前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、が概略一致するよう、前記動物画像を変形してもよい。
この構成によれば、動物画像をより精度よくキャラクタの3次元モデルに投影できる。また、キャラクタの3次元モデルに予めキーポイントが設定されていなくてもよい。
より具体的には、前記動物画像変形手段は、前記動物画像上の前記動物の各キーポイントの位置と、前記キャラクタ画像上の前記キャラクタの対応するキーポイントの位置と、が概略一致するよう前記動物画像を変形し、その後、キーポイントどうしの概略一致を維持しつつ、前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、が概略一致するよう、前記動物画像を変形してもよい。
この構成によれば、動物のキーポイントとキャラクタのキーポイントとを精度よく一致させ、かつ、動物画像の輪郭とキャラクタ画像の輪郭とを精度よく一致させることができる。
前記動物画像変形手段は、前記動物のキーポイントのうちの2つを結ぶ直線と直交する方向に前記動物画像の輪郭を伸縮することにより、前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、が概略一致するよう、前記動物画像を変形してもよい。
この構成によっても、動物のキーポイントとキャラクタのキーポイントとを精度よく一致させ、かつ、動物画像の輪郭とキャラクタ画像の輪郭とを精度よく一致させることができる。
また、前記動物画像変形手段は、前記動物のキーポイントに基づいて、前記動物画像の輪郭に複数の点を設定し、前記キャラクタのキーポイントに基づいて、前記キャラクタ画像の輪郭に複数の点を設定し、前記動物画像の輪郭に設定された各点と、前記キャラクタ画像の輪郭に設定された対応する点と、が概略一致するよう前記動物画像を変形してもよい。
ここで、前記動物画像の輪郭に設定される複数の点のうちの少なくとも1つの点は、前記動物の2つのキーポイントを結ぶ第1の直線上に追加された点を通り、前記第1の直線と直交する第2の直線と、前記動物画像の輪郭とが交わる点であり、前記キャラクタ画像の輪郭に設定される複数の点のうちの少なくとも1つの点は、前記キャラクタの2つキーポイントを結ぶ第3の直線上に追加された点を通り、前記第3の直線と直交する第4の直線と、前記キャラクタ画像の輪郭とが交わる点であってもよい。
これらの構成によれば、動物画像の輪郭とキャラクタ画像の輪郭とを精度よく一致させることができる。
前記投影手段は、仮想プロジェクタから、前記変形された動物画像を前記変形されたキャラクタの3次元モデルに投影することにより、前記動物画像を前記キャラクタの3次元モデルにテクスチャマッピングしてもよい。
ここで、前記3次元ポーズ推定手段は、前記2次元画像における動物と、この動物を撮影したカメラとの相対的な向きの情報を含むプロジェクタ設定を推定し、前記投影手段は、前記プロジェクタ設定に基づいて設定された前記仮想プロジェクタを用いて、前記変形された動物画像を前記変形されたキャラクタの3次元モデルに投影してもよい。
これらの構成によれば、変形された動物画像を変形されたキャラクタの3次元モデルに投影する際に、動物を撮影した際のカメラの向きの情報を利用することによって、変形されたキャラクタの3次元モデルに対する仮想プロジェクタの向きの設定が可能となる。例えば、平行投影によって仮想プロジェクタからの投影を行う場合に、動物と、この動物を撮影したカメラとの相対的な向きを示すプロジェクタ設定を推定すればよい。
あるいは、前記プロジェクタ設定は、前記動物と、前記動物を撮影したカメラとの相対的な位置の情報をさらに含んでもよい。
この構成によれば、変形された動物画像を変形されたキャラクタの3次元モデルに投影する際に、動物を撮影した際のカメラの位置情報を利用することによって、変形されたキャラクタの3次元モデルに対する仮想プロジェクタの位置の設定が可能となる。例えば、透視投影によって仮想プロジェクタからの投影を行う場合に、動物と、この動物を撮影したカメラとの相対的な向きだけでなく位置の情報をも示すプロジェクタ設定を推定することができる。プロジェクタ設定は、カメラ設定と同一のものであってもよい。
前記キャラクタ描画手段は、前記2次元画像を撮影した際の光源を考慮して、陰影がある前記キャラクタ画像を生成し、前記テクスチャマッピング手段は、明るさ調整手段を有し、前記明るさ調整手段は、陰影がある前記キャラクタ画像に基づいて、前記2次元画像における光源の影響が低減されるよう、前記動物画像または前記変形された動物画像の明るさを調整してもよい。
前記テクスチャマッピング手段は、前記2次元画像から前記2次元画像を撮影した際の光源の方向および/または位置を推定し、前記推定された光源の方向および/または位置を示す情報を含む光源設定を出力する光源方向推定手段を有し、前記キャラクタ描画手段は、前記光源設定に基づいて光源を配置して、前記変形された前記キャラクタの3次元モデルを仮想カメラで描画することにより、陰影がある前記キャラクタ画像を生成してもよい。
より具体的には、前記明るさ調整手段は、陰影がある前記キャラクタ画像の画素が明るいほど、前記動物画像または前記変形された動物画像における前記画素と対応する画素を暗くしてもよい。
これらの構成によれば、2次元画像を撮影した際の光源の方向および/または位置を考慮して陰影がある前記キャラクタ画像を描画し、陰影がある前記キャラクタ画像に基づいて前記変形された動物画像の明るさを調整することで、2次元画像における光源に起因する陰影の影響を低減できる。
本発明の別の態様によれば、複数の2次元画像のそれぞれの上の単数または複数の部分画像領域または、単数の2次元画像上の複数の部分画像領域を1つのキャラクタの3次元モデルにテクスチャマッピングするシステムで実行される情報処理方法であって、前記システムは、請求項1乃至16のいずれかに記載の情報処理システムをサブシステムとして含み、前記単数または複数の2次元画像は、同一の外観を有する動物を異なる方向から撮影した画像または、同一の外観を有する動物の異なるポーズを撮影した画像を含み、前記情報処理方法は、前記複数の部分画像領域のそれぞれと前記キャラクタの3次元モデルに対して前記サブシステムを適用して複数のテクスチャマッピングデータを生成するステップと、前記複数のテクスチャマッピングデータを統合したテクスチャマッピングデータを生成するステップと、を含む、情報処理方法が提供される。
この構成によれば、キャラクタの3次元モデルに対して、一方向のみならず複数の方向からテクスチャマッピングすることができる。
本発明の別の態様によれば、2次元画像上の部分画像領域をキャラクタの3次元モデルにテクスチャマッピングする情報処理方法であって、前記2次元画像から動物領域を動物画像として抽出するステップと、前記2次元画像における前記動物のキーポイントを推定するステップと、前記2次元画像から前記動物の3次元ポーズを推定し、推定された3次元ポーズを表す3次元ポーズデータを取得するステップと、前記キャラクタのキーポイントを取得するステップと、前記キャラクタのキーポイントと、前記動物のキーポイントと、前記3次元ポーズデータと、に基づいて、前記動物画像を前記キャラクタの3次元モデルにテクスチャマッピングするステップと、を含む、情報処理方法が提供される。
この構成によれば、動物画像領域を抽出するステップにおいて2次元画像からの動物画像領域抽出を行い、2次元キーポイントを推定するステップにおいて2次元画像における動物の2次元キーポイント推定を行い、3次元ポーズを推定するステップにおいて2次元画像からの動物の3次元ポーズ推定を行うため、ユーザの手動操作を減らすことができる。
本発明の別の態様によれば、2次元画像上の部分画像領域をキャラクタの3次元モデルにテクスチャマッピングする情報処理プログラムであって、コンピュータを、前記2次元画像から動物領域を動物画像として抽出する動物画像領域抽出手段と、前記2次元画像における前記動物のキーポイントを推定する2次元キーポイント推定手段と、前記2次元画像から前記動物の3次元ポーズを推定し、推定された3次元ポーズを表す3次元ポーズデータを取得する3次元ポーズ推定手段と、前記キャラクタのキーポイントを取得するキャラクタキーポイント取得手段と、前記キャラクタのキーポイントと、前記動物のキーポイントと、前記3次元ポーズデータと、に基づいて、前記動物画像を前記キャラクタの3次元モデルにテクスチャマッピングするテクスチャマッピング手段、として機能させる、情報処理プログラムが提供される。
この構成によれば、コンピュータが、2次元画像からの動物画像領域抽出、2次元画像における動物の2次元キーポイント推定および2次元画像からの動物の3次元ポーズ推定を行うため、ユーザの手動操作を減らすことができる。
少ないユーザ手動操作で2次元画像上の部分動物画像領域をキャラクタの3次元モデルにテクスチャマッピングできる。
第1実施形態に係る情報処理システムの概略構成を示すブロック図。 テクスチャマッピング部4の概略構成の一例を示すブロック。 情報処理システムの処理動作の一例を示すフローチャート。 人物画像領域抽出部1の処理動作を説明する図。 人物画像領域抽出部1の処理動作を説明する図。 2次元キーポイント推定部2の処理動作を説明する図。 3次元ポーズ適用前のキャラクタの3次元モデル13の上面図。 3次元ポーズ適用前のキャラクタの3次元モデル13の正面図。 3次元ポーズ適用前のキャラクタの3次元モデル13の右側面図。 3次元ポーズ適用前のキャラクタの3次元モデル13の斜視図。 3次元ポーズ適用後のキャラクタの3次元モデル13’の上面図。 3次元ポーズ適用後のキャラクタの3次元モデル13’の正面図。 3次元ポーズ適用後のキャラクタの3次元モデル13’の右側面図。 3次元ポーズ適用後のキャラクタの3次元モデル13’の斜視図。 キャラクタ描画部42の処理動作を説明する図。 キャラクタ画像13aの一例を模式的に示す図。 キャラクタ画像13aのキーポイントを模式的に示す図。 キャラクタ画像の別の例を模式的に示す図。 キャラクタ画像の別の例のキーポイントを模式的に示す図。 変形後の人物画像12’の一例を模式的に示す図。 人物画像変形部42の処理動作の一例を示すフローチャート。 人物画像変形部42の処理動作の一例を説明する図。 人物画像変形部42の処理動作の一例を説明する図。 人物画像変形部42の処理動作の別の例を示すフローチャート。 人物画像変形部42の処理動作の別の例を説明する図。 人物画像変形部42の処理動作の別の例を説明する図。 投影部44の処理動作を説明する図。 人物画像がテクスチャマッピングされたキャラクタの3次元モデルの顔部分を模式的に示す図。 第1実施形態の第1変形例に係る情報処理システムの概略構成を示すブロック図。 図18Aのテクスチャマッピング部4の概略構成の一例を示すブロック図。 第1実施形態の第2変形例に係る情報処理システムの概略構成を示すブロック図。 図19Aのテクスチャマッピング部4の概略構成の一例を示すブロック図。 第2実施形態に係る情報処理システムの概略構成を示すブロック図。 図20Aのテクスチャマッピング部4の概略構成を示すブロック図。 第2実施形態の第1変形例に係る情報処理システムの概略構成を示すブロック図。 図21Aのテクスチャマッピング部4の概略構成の一例を示すブロック図。 第2実施形態の第2変形例に係る情報処理システムの概略構成を示すブロック図。 図22Aのテクスチャマッピング部4の概略構成の一例を示すブロック図。
以下、本発明に係る実施形態について、図面を参照しながら具体的に説明する。
(第1実施形態)
図1は、第1実施形態に係る情報処理システムの概略構成を示すブロック図である。情報処理システムは、1台の装置から構成されてもよいし、互いに通信可能な複数の装置から構成されてもよい。後者の場合、例えば処理の一部をスマートフォンなどのユーザ端末が行い、他の一部をサーバが行ってもよい。
この情報処理システムには、ユーザからテクスチャとして利用したい2次元画像(人物が写った2次元画像)が入力される。この2次元画像はテクスチャマッピング用に用意された画像である必要はなく、人物が写っていればスナップショット写真など一般の画像であってよい。また、情報処理システムには、予めキーポイントが設定されたコンピュータグラフィックスのキャラクタの3次元モデルが入力される。キーポイントは3次元座標で表される。そして、情報処理システムは2次元画像上の部分画像領域をキャラクタの3次元モデルにテクスチャマッピングする。
具体的には、情報処理システムは、人物画像領域抽出部1、2次元キーポイント推定部2、3次元ポーズ推定部3およびテクスチャマッピング部4を備えている。これら各部の一部または全部の機能は、ハードウェアで実装されてもよいし、プロセッサが所定のプログラムを実行することによって実現されてもよい。
人物画像領域抽出部1には、2次元画像が入力される。そして、人物画像領域抽出部1は2次元画像から人物の領域を部分人物画像領域として抽出する。より具体的には、人物画像領域抽出部1は2次元画像から人物領域を検出することにより、2次元画像中の人物領域を2次元画像から画素レベルで抽出する。領域の検出には任意の公知の手法(例えば、予め人物について学習されたセマンティックセグメンテーション(非特許文献2))を適用すればよい。
2次元キーポイント推定部2には、2次元画像が入力される。そして、2次元キーポイント推定部2は2次元画像に含まれる人物のキーポイントを推定する。推定されたキーポイントは2次元座標(2次元画像上の位置座標)で表される。キーポイントの推定には任意の公知の手法(例えば非特許文献1に記載の手法)を適用すればよい。
3次元ポーズ推定部3には、2次元画像が入力される。そして、3次元ポーズ推定部3は2次元画像に含まれる人物の3次元ポーズおよびカメラ設定を推定する。3次元ポーズの推定には、任意の公知の手法(例えば、非特許文献4に記載の手法)を適用すればよい。
推定された3次元ポーズは、人型オブジェクト(人物またはキャラクタ)のポーズを表す3次元ポーズデータで表される。3次元ポーズデータは、例えば、各関節の角度と、人型オブジェクト全体の向きおよび位置の情報である。あるいは、3次元ポーズデータは、各関節の角度に代えて各関節の位置の3次元座標であってもよく、3次元ポーズデータの形式に特に制限はない。
また、カメラ設定とは、2次元画像における人物と、この人物を撮影したカメラとの相対的な向きの情報を含み、必要に応じてさらに人物とカメラとの相対的な位置情報を含んでいる。
なお、3次元ポーズデータがカメラ設定を暗黙的に含んでいる場合もある。例えば、3次元ポーズデータが人型オブジェクト全体の向きおよび位置の情報を含んでいて、さらにその向きおよび位置の情報がカメラ座標系で記述されている場合、この3次元ポーズデータは人型オブジェクトとカメラとの相対的な向きおよび位置の情報を含んでいる。このように、3次元ポーズデータがカメラ設定を暗黙的に含んでいる場合、3次元ポーズ推定部3は、カメラ設定を明示的に出力するのではなく、3次元ポーズデータのみを出力してもよい。
また、3次元ポーズ推定部3がカメラ設定を出力するのではなく、ユーザがカメラ設定を手動設定してもよい。また、カメラ設定は2次元画像から推定されてもよい。
テクスチャマッピング部4には、人物画像が人物画像領域抽出部1から入力され、人物のキーポイントの2次元座標が2次元キーポイント推定部2から入力され、3次元ポーズデータおよびカメラ設定が3次元ポーズ推定部3から入力される。なお、人物画像領域抽出部1とテクスチャマッピング部4とが接続されており、人物画像領域抽出部1から出力される人物画像が自動的にテクスチャマッピング部4に入力されてもよい。あるいは、人物画像領域抽出部1から出力される人物画像を示すデータをユーザがテクスチャマッピング部4に手動入力してもよい。この点は他の各部の入出力についても同様である。
テクスチャマッピング部4は、キャラクタの3次元モデルに予め設定されているキーポイントと、人物のキーポイントの2次元座標と、3次元ポーズデータとに基づいて、人物画像をキャラクタの3次元モデルにテクスチャマッピングする。そして、テクスチャマッピング部4はテクスチャマッピングの結果であるテクスチャマッピングデータを出力する。加えて、テクスチャマッピング部4は後述する変形済人物画像も出力する。
図2は、テクスチャマッピング部4の概略構成の一例を示すブロックである。テクスチャマッピング部4は、ポーズ適用部41と、キャラクタ描画部42と、人物画像変形部43と、投影部44とを有する。
ポーズ適用部41には、キャラクタの3次元モデルと、キャラクタのキーポイントの3次元座標と、3次元ポーズデータとが入力される。そして、ポーズ適用部41は、3次元ポーズデータが示す人物の3次元ポーズをキャラクタの3次元モデルに適用することにより、キャラクタの3次元モデルを変形する。その結果、ポーズ適用済のキャラクタの3次元モデルと、ポーズ適用済キャラクタのキーポイントの3次元座標とが生成される。
キャラクタ描画部42には、ポーズ適用済のキャラクタの3次元モデル(言い換えると、ポーズ適用部41によって変形されたキャラクタの3次元モデル)と、ポーズ適用済キャラクタのキーポイントの3次元座標と、カメラ設定とが入力される。そして、キャラクタ描画部42は入力されたカメラ設定を仮想カメラに適用する。さらに、キャラクタ描画部42は、仮想カメラを使ってポーズ適用済のキャラクタの3次元モデルからキャラクタの2次元画像(以下「キャラクタ画像」という。)を生成する。具体例として、キャラクタ描画部42は、カメラ設定が示す向きおよび位置に配置された仮想カメラからポーズ適用済のキャラクタの3次元モデルを仮想的に描画して、キャラクタ画像を生成する。また、キャラクタ描画部42は仮想カメラを使ってポーズ適用済みのキャラクタのキーポイントの3次元座標を変換し、キャラクタのキーポイントの2次元座標(キャラクタ画像上の位置座標)を生成する。
なお、キャラクタ描画部42が出力するキャラクタ画像は、キャラクタの輪郭のみであってもよい。また、その場合、キャラクタ画像のデータ形式は画像データの形式である必要はなく、例えばキャラクタの輪郭を点列とそれを順に結ぶ線分で表現するような、複数の点の2次元座標の配列であってもよい。
人物画像変形部43には、人物画像と、人物のキーポイントの2次元座標と、キャラクタ画像と、キャラクタのキーポイントの2次元座標とが入力される。そして、人物画像変形部43はキャラクタ画像に基づいて人物画像を変形する。より具体的には、人物画像変形部43は、人物のキーポイントとキャラクタのキーポイントとが概略一致し、かつ、人物画像の輪郭とキャラクタ画像の輪郭とが概略一致するよう、人物画像を変形する。この変形には、公知の手法(例えば非特許文献5に記載の手法)を利用してもよい。変形によって得られた変形済人物画像はテクスチャマッピング部4から(すなわち、情報処理システムから)出力される。
人物画像変形手法の第1例として、人物画像変形部43は、まず人物のキーポイントとキャラクタのキーポイントとが概略一致するよう人物画像を変形し、次いで、人物画像の輪郭とキャラクタ画像の輪郭とが概略一致するよう、人物画像を変形してもよい。あるいは、人物画像の輪郭とキャラクタ画像の輪郭とが概略一致するよう、人物画像を変形し、次いで、人物のキーポイントとキャラクタのキーポイントとが概略一致するよう人物画像を変形してもよい。
人物画像変形手法の第2例として、以下のようにしてもよい。人物画像変形部43は人物のキーポイントに基づいて人物画像の輪郭に複数の点を設定する。また、人物画像変形部43はキャラクタのキーポイントに基づいてキャラクタ画像の輪郭に複数の点を設定する。そして、人物画像変形部43は、人物画像の輪郭に設定された各点と、キャラクタ画像の輪郭に設定された対応する点と、が重なるよう人物画像を変形してもよい。
投影部44には、ポーズ適用済のキャラクタの3次元モデルと、人物画像変形部43によって変形された人物画像と、カメラ設定とが入力される。そして、投影部44は、カメラ設定が示す向きおよび位置に配置された仮想プロジェクタから、変形された人物画像をポーズ適用済のキャラクタの3次元モデルに投影することにより、人物画像をキャラクタの3次元モデルにテクスチャマッピングする。テクスチャマッピングの結果であるテクスチャマッピングデータはテクスチャマッピング部4から(すなわち、情報処理システムから)出力される。
図3は、情報処理システムの処理動作の一例を示すフローチャートである。なお、図3は例示であり、一部の処理(例えば、ステップS1~S3)の順序を適宜入れ替えたり、一部の処理を省略したりしてもよい。
ステップS1において、人物画像領域抽出部1は人物を含む2次元画像から人物画像を抽出する。例えば、人物画像領域抽出部1は、図4Aに示す人物11aを含む2次元画像11から、図4Bに示すような人物画像12を抽出する。
また、図3のステップS2において2次元キーポイント推定部2は2次元画像に含まれる人物のキーポイントの2次元座標を推定する。例えば、2次元キーポイント推定部2は、図4Aに示す2次元画像11に含まれる人物11aのキーポイント(図5に黒丸で示す)の位置を推定する。なお、2次元キーポイント推定部2は、肩、肘、手首、腰、膝、足首、目、鼻、口、耳といった多くのキーポイントを推定してもよいが、これらの一部のみを推定してもよいし、指、爪先、踵といったより多くのキーポイントを推定してもよい。
さらに、図3のステップS3において、3次元ポーズ推定部3は2次元画像に含まれる人物の3次元ポーズおよびカメラ設定を推定する。例えば、図4Aに示す2次元画像11において、人物11aは、右腕を前に突き出していること、左ひじを上方に曲げて左腕を上げていること、両足を前後に開いていることなどを、人物11aの3次元ポーズとして3次元ポーズ推定部3が推定し、3次元ポーズデータとして取得する。また、3次元ポーズ推定部3は、人物11aと人物11aを撮影したカメラとの相対的な向きおよび位置を推定する。
続いて、以下のステップS4~S7によってテクスチャマッピング部4は人物画像をキャラクタの3次元モデルにテクスチャマッピングする。
まず、図3のステップS4において、テクスチャマッピング部4におけるポーズ適用部41は、3次元ポーズデータをキャラクタの3次元モデルに適用することにより、キャラクタの3次元モデルを変形する。
図6A~図6Dに、3次元ポーズ適用前のキャラクタの3次元モデル13を例示する。なお、図6A~図6Dは、それぞれ、キャラクタの3次元モデル13の上面図、正面図、右側面図および斜視図である。このキャラクタの3次元モデル13の初期ポーズは、両腕を下げて直立した、いわゆる「気を付け」のポーズである。一方、3次元ポーズ推定部3によって推定される、図4Aの2次元画像11における人物11aの3次元ポーズは、右腕を前に突き出しており、左ひじを上方に曲げて左腕を上げており、また、両足を前後に開いている。このように、多くの場合、キャラクタの3次元モデル13の初期ポーズは、人物画像における人物の3次元ポーズとは異なる。
ポーズ適用部41は、図6A~図6Dに示すキャラクタの3次元モデル13を、右腕を前に突き出し、左ひじを上方に曲げて左腕を上げ、両足を前後に開くよう変形し、図7A~図7Dに示す変形されたキャラクタの3次元モデル13’を生成する。なお、図7A~図7Dは、それぞれ、変形されたキャラクタの3次元モデル13’の上面図、正面図、右側面図および斜視図である。
具体的な処理としては、ポーズ適用部41は、キャラクタの3次元モデルの関節点の位置や、腕、首、足などの角度を、ステップS3で得られたポーズデータを適用して2次元画像から推定された人物の3次元ポーズに合わせて変形する。
続いて、図3のステップS5において、キャラクタ描画部42は、カメラ設定に応じた向きおよび位置に配置された仮想カメラを使ってキャラクタ画像を生成するとともに、キャラクタ画像のキーポイントの2次元座標を生成する。
例えば、3次元ポーズ推定部3は、図4Aの人物11a撮影時のカメラ設定を推定する。よって、図8に示すように、キャラクタ描画部42は、図6A~図6Dに示す変形後のキャラクタの3次元モデル13’を、撮影時と同じように配置された仮想カメラ20から描画することにより、図9Aに示すようなキャラクタ画像13aを生成する。
なお、図8では透視投影によってキャラクタ画像を生成しているが、平行投影によってキャラクタ画像を生成してもよい。後者の場合、カメラ設定においてカメラの向きの情報があればよく、カメラの位置情報は不要である。
また、キャラクタの3次元モデルには複数のキーポイントが3次元座標として予め設定されているが、キャラクタ描画部42はそのそれぞれのキャラクタ画像上の2次元座標を算出する(図9Bに、キーポイントを黒丸で示す)。
なお、キャラクタ画像は図10Aおよび図10Bに示すように輪郭のみであってもよい。また、後述の陰影補正を行う場合には、陰影のあるキャラクタ画像を生成しておくことが望ましい。
次いで、図3のステップS6において、人物画像を変形する。これは、キャラクタ画像と人物画像とが完全に一致しない場合が多いからである。この不一致は、3次元ポーズ推定の精度が必ずしも高くない場合があることや、キャラクタの3次元モデルと2次元画像における人物の体型の違いに起因する。人物画像変形部43は、人物のキーポイントとキャラクタのキーポイントとが概略一致し、かつ、人物画像の輪郭とキャラクタ画像の輪郭とが概略一致するよう、人物画像を変形する。
例えば、人物画像変形部43は、図9Aに示すキャラクタ画像13aの輪郭およびキーポイント(図9B)と、図4Bに示す人物画像12の輪郭およびキーポイント(図5)とが、それぞれ概略一致するよう、図4Bに示す人物画像を変形し、図11に示す変形後の人物画像12’を得る。
人物画像変形手法の第1例を図12のフローチャートに示す。まず、ステップS21において、人物画像変形部43は、人物のキーポイントとキャラクタのキーポイントとが一致するよう、人物画像を変形する。これにより、変形後の人物画像における人物のキーポイントの位置は、キャラクタ画像のキーポイントの位置に概略一致する。しかし、人物の体型とキャラクタの体型とが異なるなどの理由により、両者の輪郭が一致するとは限らない。
そこで、ステップS22において、人物画像変形部43は、ステップS21で合わせたキーポイントどうしがずれないよう、人物画像の輪郭がキャラクタ画像の輪郭に一致するよう、人物画像をさらに変形する。すなわち、人物画像変形部43は人物画像およびキャラクタ画像のキーポイントどうしおよび輪郭どうしを合わせる。
例として、図13Aに、ステップS21での人物画像変形処理後、かつ、ステップS22での人物画像変形処理前の人物画像の輪郭(実線)およびキャラクタ画像の輪郭(破線)の一部を模式的に示す。両者のキーポイント(2つの黒丸)はステップS21での変形によって位置合わせされているが、輪郭は一致していない。この場合、人物画像変形部43は、2つのキーポイントを結ぶ線(図13Aに一点鎖線で示す)と直交する方向に人物画像の輪郭を伸縮することによって、人物画像の輪郭をキャラクタ画像の輪郭にできる限り近づける(図13B)。これにより、変形後の人物画像の輪郭は、キャラクタ画像の輪郭とほぼ一致する。
人物画像変形手法の第2例を図14のフローチャートに示す。まず、ステップS31において、人物画像変形部43は人物のキーポイントに基づいて人物画像の輪郭に複数の点を設定する。
例として、図15Aに、人物画像の輪郭およびその2つのキーポイント(黒丸)k1,k2を示す。例えば、キーポイントk1は右肩であり、キーポイントk2は右ひじである。人物画像変形部43はキーポイントk1,k2を結ぶ線(図15Aに一点鎖線で示す、以下「基準線」と呼ぶ)上に任意に点を追加する(同図では、2つのキーポイントk1,k2を結ぶ線分を3等分する位置に2つの点(黒四角で示す)m1,m2を追加している)。そして、人物画像変形部43は、キーポイントk1を通り基準線と直交する直線と、人物画像の輪郭と交わる位置に点p1,p2を設定する。他のキーポイントk2や、追加した点m1,m2に対しても同様にして、人物画像変形部43は人物画像の輪郭に複数の点を設定する。
図14のステップS32において、人物画像変形部43はキャラクタのキーポイントに基づいてキャラクタ画像の輪郭に複数の点を設定する。
例として、図15Bに、キャラクタ画像の輪郭およびその2つのキーポイント(白丸)k11,k12とを示す。図15Aのキーポイントk1,k2は図15Bのキーポイントk11,k12とそれぞれ対応しているものとする。例えば、図15Aのキーポイントk1が右肩であり、キーポイントk2が右ひじである場合、図15Bのキーポイントk11も右肩であり、キーポイントk12も右ひじである。図15Aで説明したのと同様に、人物画像変形部43はキャラクタ画像の輪郭に複数の点を設定する。図15Aで人物画像の輪郭に設定された各点と、図15Bでキャラクタ画像の輪郭に設定された各点との対応関係を人物画像変形部43は把握している。
図14のステップS33において、人物画像変形部43は、人物画像の輪郭に設定された各点と、キャラクタ画像の輪郭に設定された対応する点と、が重なるよう人物画像を変形する。以上により、変形後の人物画像のキーポイントおよび輪郭は、キャラクタ画像のキーポイントおよび輪郭とほぼ一致する。
なお、図3のステップS6において、人物画像変形部43は、人物画像の形状を変形するのみならず、陰影の影響が低減されるよう人物画像の明るさを調整してもよい。より具体的には、人物画像変形部43は陰影があるキャラクタ画像をキャラクタ描画部42から受け取り、キャラクタ画像の特定画素が明るい(暗い)ほど、人物画像における当該特定画素と対応する画素を暗く(明るく)する。
続いて、図3のステップS7において、投影部44は、カメラ設定に応じた位置に配置された仮想プロジェクタから、ステップS6にて変形された人物画像を、ステップS4にて変形されたキャラクタの3次元モデルに投影することにより、変形された人物画像をキャラクタの3次元モデルにテクスチャマッピングする。
例えば、3次元ポーズ推定部3によって推定されたカメラ設定によれば、図4Aの人物11aはその左側に配置されたカメラから撮影されている。よって、図16に示すように、投影部44は、変形されたキャラクタの3次元モデルの左側に仮想プロジェクタ21を配置し、図11に示す変形後の人物画像12’を、仮想プロジェクタから投影する。例えば、キャラクタの3次元モデル13’上の頂点Q1と仮想プロジェクタ21とを結ぶ直線と、人物画像12’との交点P1が、頂点Q1に対応するテクスチャ座標として得られる。
なお、図16では透視投影によってキャラクタのテクスチャマッピングを行っているが、平行投影によってテクスチャマッピングを行ってもよい。後者の場合、カメラ設定においてカメラの向きの情報があればよく、位置情報は不要である。
以上によって人物画像がキャラクタの3次元モデルにテクスチャマッピングされる。そして、ステップS8において、情報処理システムからテクスチャマッピングデータおよび変形済人物画像が出力される。
図17は、図16の投影によって人物画像がテクスチャマッピングされたキャラクタの3次元モデルの顔部分の正面から見た図を模式的に示している。上述した投影によれば、キャラクタの3次元モデルに仮想プロジェクタの方向から投影するため、キャラクタの3次元モデルの一部分のみ(より具体的には、仮想プロジェクタ側のみ)に人物画像がテクスチャマッピングされる。例えば、図16に示すように人物の左側から投影を行った場合、図17に示すようにキャラクタの3次元モデルの顔の左側には人物画像がテクスチャマッピングされるが、右側(図17における斜線部分)には何もテクスチャマッピングされない。
そこで、以上述べた処理を、同一の人物をそれぞれ異なる方向から撮影した複数の2次元画像を用いて複数回実行することにより、キャラクタの3次元モデルの全表面にテクスチャマッピングするのが望ましい。本実施形態によれば、2次元画像から3次元ポーズ推定を行い、キャラクタの3次元モデルに対してポーズ適用を行うので、複数の2次元画像における人物のポーズが互いに異なっていてもよい。
以上説明したように、本実施形態では、情報処理装置が、2次元画像からの部分人物画像領域抽出、2次元画像における人物の2次元キーポイント推定および2次元画像からの人物の3次元ポーズ推定を行う。そのため、ユーザの手動操作を減らすことができる。
なお、本実施形態では、キャラクタの3次元モデルには、3次元座標で表されるキーポイント位置が予め設定されているものとした。しかし、キャラクタには必ずしも予めキーポイントが設定されていなくてもよい。この場合、キャラクタ描画部42から出力されるキャラクタ画像から人物画像変形部43がキャラクタ画像におけるキャラクタのキーポイントの2次元座標を(例えば人工知能を使って)推定すればよい。人工知能を使う場合、キャラクタに類した人型オブジェクトを描画した画像を用いて予め学習しておけばよい。
以下、情報処理システムの出力について、いくつか変形例を説明する。
図18Aは、第1実施形態の第1変形例に係る情報処理システムの概略構成を示すブロック図である。また、図18Bは、図18Aのテクスチャマッピング部4の概略構成の一例を示すブロック図である。本第1変形例では、情報処理システムがテクスチャマッピングデータおよび人物画像を出力する。より詳細には以下のとおりである。
図18Bの人物画像変形部43は、人物画像を変形する際に、変形済人物画像の各画素と、元の(変形前の)人物画像の各画素と、の対応関係を表す画像変形時画素対応データを生成する。投影部44はキャラクタの3次元モデルの各頂点に対応する変形済人物画像上の座標を出力する。そして、投影部44は、画像変形時画素対応データを用いて、変形済人物画像上の座標を元の人物画像上の座標に変換する。これによって、キャラクタの3次元モデルの各頂点と、これに対応する人物画像上の座標のデータ、すなわち、テクスチャマッピングデータが得られる。
図19Aは、第1実施形態の第2変形例に係る情報処理システムの概略構成を示すブロック図である。また、図19Bは、図19Aのテクスチャマッピング部4の概略構成の一例を示すブロック図である。本第2変形例は第1変形例のさらなる変形例であり、情報処理システムがテクスチャマッピングデータおよび2次元画像を出力する。第1変形例での処理に加え、第2変形例では以下の処理が行われる。
図19Aの人物画像領域抽出部1は、人物画像を抽出する際、抽出された人物画像の各画素と、元の2次元画像の各画素と、の対応関係を表す画像領域抽出時画素対応データを生成する。図19Bの人物画像変形部43は、人物画像を変形する際に、変形済人物画像の各画素と、元の(変形前の)人物画像の各画素と、の対応関係を表す画像変形時画素対応データを生成する。図19Bの投影部44は、画像変形時画素対応データおよび画像領域抽出時画素対応データを用いて、変形済人物画像上の座標を元の2次元画像上の座標に変換する。これによって、キャラクタの3次元モデルの各頂点と、これに対応する2次元画像上の座標のデータ、すなわち、テクスチャマッピングデータが得られる。
(第2実施形態)
情報処理システムに入力される2次元画像において、特定の方向から光源が人物を照らしている場合、人物には陰影がついている。例えば、人物の左側に光源がある場合、仮に人物の肌の色および明るさが一定であったとしても、人物の左側は人物の右側より明るい肌色となる。一方、一般にキャラクタの3次元モデルを用いて静止画または動画の作品を制作する場合、作品の場面に応じて光源を設定して適切な陰影を生じさせることが行われる。そのため、キャラクタの3次元モデルのテクスチャ自体に、特定の光源に基づく陰影が付いていると、場面に応じた適切な陰影を生じさせる上で障害となる。そこで、人物画像から陰影の影響を取り除いた画像を、キャラクタの3次元モデルにテクスチャマッピングするのが望ましい。
そこで、次に説明する第2実施形態は、情報処理システムに入力される2次元画像における陰影の影響を低減するものである。以下、第1実施形態との違いを中心に述べる。
図20Aは、第2実施形態に係る情報処理システムの概略構成を示すブロック図である。図20Bは、図20Aのテクスチャマッピング部4の概略構成を示すブロック図である。
図20Aに示すように、2次元画像がテクスチャマッピング部4にも入力される。そして、図20Bに示すように、テクスチャマッピング部4は光源方向推定部45を有する。この光源方向推定部45には2次元画像が入力される。そして、光源方向推定部45は2次元画像を撮影した際の光源の方向および/または位置を推定し、光源の方向および/または位置を示す情報を含む光源設定を出力する。推定の手法としては、例えば非特許文献3に記載の手法を適用すればよい。あるいは、ユーザが手動で光源の方向および/または位置を設定してもよい。いずれにしても、光源設定がキャラクタ描画部42に入力される。
そこで、キャラクタ描画部42は、光源設定に基づいて光源の方向および/または位置を設定し、仮想カメラを用いてキャラクタを描画して、陰影があるキャラクタ画像を生成する。例えば、情報処理システムに入力される2次元画像において、人物の左側に光源がある場合、キャラクタ描画部42はキャラクタの3次元モデルの左側に光源を配置して仮想カメラで描画することによって、キャラクタ画像を生成する。これにより、キャラクタ画像において、キャラクタの左側は明るく、右側は暗くなる。
そして、人物画像変形部43は人物画像の形状を変形するのみならず、陰影の補正を行う。例えば、キャラクタ画像において、キャラクタが明るくなっている部分は、光源の影響を受けて本来の明度より明るくなっていると考えられる。そこで、当該部分と対応する人物画像における部分を暗く補正する。逆に、キャラクタ画像において本来の明度より暗くなっている部分と対応する人物画像における部分を明るく補正する。
より詳細には次のとおりである。陰影補正前の変形済人物画像における画素Paの明るさがCaであり、キャラクタ画像における対応する画素Pbの明るさがCbであるとする。この場合、陰影補正後の変形済人物画像における画素Paの明るさCa’を下式により得る。この明るさCa’は、明るさCaに比べて、陰影が軽減されている。
Ca’=f(Ca,Cb)
ここで、fは、Caに対して単調増加、Cbに対して単調減少する関数である。
このように人物画像変形部43が、陰影補正された変形済人物画像を出力することにより、陰影が少ない変形済の人物画像を得ることができ、情報処理システムに入力される2次元画像における光源の影響を低減できる。
以下、情報処理システムの出力について、いくつか変形例を説明する。
図21Aは、第2実施形態の第1変形例に係る情報処理システムの概略構成を示すブロック図である。また、図21Bは、図21Aのテクスチャマッピング部4の概略構成の一例を示すブロック図である。本第1変形例は第1実施形態の第1変形例と対応しており、情報処理システムがテクスチャマッピングデータおよび陰影補正された人物画像を出力する。より詳細には以下のとおりである。
図21Bの人物画像変形部43は、人物画像を変形する際に、変形済人物画像の各画素と、元の(変形前の)人物画像の各画素と、の対応関係を表す画像変形時画素対応データを生成する。人物画像変形部43は、陰影補正を行う際に、キャラクタ画像の画素に対応する変形済人物画像の画素の位置を、画像変形時画素対応データを用いて元の(変形前の)人物画像の画素の位置に変換して、元の(変形前の)人物画像に対して陰影補正を行い、陰影補正された人物画像を生成する。投影部44はキャラクタの3次元モデルの各頂点に対応する変形済人物画像上の座標を出力する。そして、投影部44は、画像変形時画素対応データを用いて、変形済人物画像上の座標を元の人物画像上の座標に変換する。陰影補正された人物画像は元の人物画像に対して変形されていないので、元の人物画像上の座標は陰影補正された人物画像上の座標として使うことができる。以上によって、キャラクタの3次元モデルの各頂点と、これに対応する陰影補正された人物画像上の座標のデータ、すなわち、テクスチャマッピングデータが得られる。
図22Aは、第2実施形態の第2変形例に係る情報処理システムの概略構成を示すブロック図である。また、図22Bは、図22Aのテクスチャマッピング部4の概略構成の一例を示すブロック図である。本第2変形例は第1変形例のさらなる変形例であり、また、第1実施形態の第2変形例と対応しており、情報処理システムがテクスチャマッピングデータおよび陰影補正された2次元画像を出力する。図21Aおよび図21Bに示す第1変形例での処理に加え、図22Aおよび図22Bの第2変形例では以下の処理が行われる。
図22Aの人物画像領域抽出部1は、人物画像を抽出する際、抽出された人物画像の各画素と、元の2次元画像の各画素と、の対応関係を表す画像領域抽出時画素対応データを生成する。人物画像変形部43は、人物画像を変形する際に、変形済人物画像の各画素と、元の(変形前の)人物画像の各画素と、の対応関係を表す画像変形時画素対応データを生成する。人物画像変形部43は、陰影補正を行う際に、キャラクタ画像の画素に対応する変形済人物画像の画素の位置を、画像変形時画素対応データおよび画像領域抽出時画素対応データを用いて元の2次元画像上の座標に変換して、元の2次元画像に対して陰影補正を行い、陰影補正された2次元画像を生成する。投影部44はキャラクタの3次元モデルの各頂点に対応する変形済人物画像上の座標を出力する。そして、投影部44は、画像変形時画素対応データおよび画像領域抽出時画素対応データを用いて、変形済人物画像上の座標を元の2次元画像上の座標に変換する。陰影補正された2次元画像は元の2次元画像に対して変形されていないので、元の2次元画像上の座標は陰影補正された2次元画像上の座標として使うことができる。以上によって、キャラクタの3次元モデルの各頂点と、これに対応する陰影補正された2次元画像上の座標のデータ、すなわち、テクスチャマッピングデータが得られる。
なお、以上述べた各実施形態では2次元画像から人物の領域を人物領域として抽出するものであったが、人物に限らず犬や猫といった任意の動物を抽出してテクスチャマッピングを行ってもよい。この点で、「人物画像」を「動物画像」と上位概念化することができる。すなわち、「動物画像」には「人物画像」が含まれる。
上述した実施形態は、本発明が属する技術分野における通常の知識を有する者が本発明を実施できることを目的として記載されたものである。上記実施形態の種々の変形例は、当業者であれば当然になしうることであり、本発明の技術的思想は他の実施形態にも適用しうることである。したがって、本発明は、記載された実施形態に限定されることはなく、特許請求の範囲によって定義される技術的思想に従った最も広い範囲とすべきである。
1 人物画像領域抽出部
2 2次元キーポイント推定部
3 3次元ポーズ推定部
4 テクスチャマッピング部
41 ポーズ適用部
42 キャラクタ描画部
43 人物画像変形部
44 投影部
45 光源方向推定部

Claims (19)

  1. 2次元画像上の部分画像領域を少なくとも腕または脚をもつキャラクタの3次元モデルにテクスチャマッピングする情報処理システムであって、
    前記2次元画像から少なくとも腕または脚を含む動物領域を動物画像として抽出する動物画像領域抽出手段と、
    前記2次元画像における前記動物の少なくとも腕または脚のキーポイントを含むキーポイントを推定する2次元キーポイント推定手段と、
    前記2次元画像から3次元ポーズ推定により、前記動物の各部位の3次元座標を生成し、前記動物の少なくとも腕または脚のポーズを含む1つの3次元ポーズを表す3次元ポーズデータを取得する3次元ポーズ推定手段と、
    前記キャラクタの少なくとも腕または脚のキーポイントを含むキーポイントを取得するキャラクタキーポイント取得手段と、
    前記キャラクタのキーポイントと、前記動物のキーポイントと、前記3次元ポーズデータと、に基づいて、前記動物画像を前記キャラクタの3次元モデルにテクスチャマッピングするテクスチャマッピング手段と、を備え、
    前記テクスチャマッピング手段は、
    前記3次元ポーズデータを適用して前記キャラクタの3次元モデルを変形するポーズ適用手段を有する、情報処理システム。
  2. 前記テクスチャマッピング手段は、更に、
    前記変形されたキャラクタの3次元モデルから前記キャラクタの2次元画像であるキャラクタ画像を生成するキャラクタ描画手段と、
    前記キャラクタ画像に基づいて、前記動物画像を変形する動物画像変形手段と、
    前記変形された動物画像を前記変形されたキャラクタの3次元モデルに投影することにより、前記動物画像を前記キャラクタの3次元モデルにテクスチャマッピングする投影手段と、
    を有する、請求項1に記載の情報処理システム。
  3. 前記3次元ポーズ推定手段は、前記動物と、この動物を撮影したカメラとの相対的な向きの情報を含むカメラ設定を推定し、
    前記キャラクタ描画手段は、前記カメラ設定に基づいて設定された仮想カメラを用いて、前記変形されたキャラクタの3次元モデルを描画することにより、前記キャラクタ画像を生成する、請求項2に記載の情報処理システム。
  4. 前記カメラ設定は、前記動物と、前記動物を撮影したカメラとの相対的な位置の情報をさらに含む、請求項3に記載の情報処理システム。
  5. 前記キャラクタ描画手段は、前記キャラクタの3次元モデルに予め設定されているキーポイントに基づいて、前記キャラクタ画像上の前記キャラクタのキーポイントの位置を示す2次元座標を生成し、
    前記動物画像変形手段は、前記動物画像上の前記動物の各キーポイントの位置と、前記キャラクタ画像上の前記キャラクタの対応するキーポイントの位置と、が概略一致し、かつ、前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、が概略一致するよう、前記動物画像を変形する、請求項2乃至4のいずれかに記載の情報処理システム。
  6. 前記テクスチャマッピング手段は、キャラクタキーポイント推定手段をさらに有し、
    前記キャラクタキーポイント推定手段は、前記キャラクタ画像におけるキャラクタのキーポイントの位置を示す2次元座標を推定し、
    前記動物画像変形手段は、前記動物画像上の前記動物の各キーポイントの位置と、前記キャラクタ画像上の前記キャラクタの対応するキーポイントの位置と、が概略一致し、かつ、前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、が概略一致するよう、前記動物画像を変形する、請求項2乃至4のいずれかに記載の情報処理システム。
  7. 前記動物画像変形手段は、
    前記動物画像上の前記動物の各キーポイントの位置と、前記キャラクタ画像上の前記キャラクタの対応するキーポイントの位置と、が概略一致するよう前記動物画像を変形し、
    その後、前記キーポイントどうしの概略一致を維持しつつ、前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、が概略一致するよう、前記動物画像を変形する、請求項5または6に記載の情報処理システム。
  8. 前記動物画像変形手段は、前記動物のキーポイントのうちの2つを結ぶ直線と直交する方向に前記動物画像の輪郭を伸縮することにより、前記動物画像の輪郭と、前記キャラクタ画像の輪郭と、が概略一致するよう、前記動物画像を変形する、請求項7に記載の情報処理システム。
  9. 前記動物画像変形手段は、
    前記動物のキーポイントに基づいて、前記動物画像の輪郭に複数の点を設定し、
    前記キャラクタのキーポイントに基づいて、前記キャラクタ画像の輪郭に複数の点を設定し、
    前記動物画像の輪郭に設定された各点と、前記キャラクタ画像の輪郭に設定された対応する点と、が概略一致するよう前記動物画像を変形する、請求項5または6に記載の情報処理システム。
  10. 前記動物画像の輪郭に設定される複数の点のうちの少なくとも1つの点は、前記動物の2つのキーポイントを結ぶ第1の直線上に追加された点を通り、前記第1の直線と直交する第2の直線と、前記動物画像の輪郭とが交わる点であり、
    前記キャラクタ画像の輪郭に設定される複数の点のうちの少なくとも1つの点は、前記キャラクタの2つキーポイントを結ぶ第3の直線上に追加された点を通り、前記第3の直線と直交する第4の直線と、前記キャラクタ画像の輪郭とが交わる点である、請求項9に記載の情報処理システム。
  11. 前記投影手段は、仮想プロジェクタから、前記変形された動物画像を前記変形されたキャラクタの3次元モデルに投影することにより、前記動物画像を前記キャラクタの3次元モデルにテクスチャマッピングする、請求項2乃至10のいずれかに記載の情報処理システム。
  12. 前記3次元ポーズ推定手段は、前記2次元画像における動物と、この動物を撮影したカメラとの相対的な向きの情報を含むプロジェクタ設定を推定し、
    前記投影手段は、前記プロジェクタ設定に基づいて設定された前記仮想プロジェクタを用いて、前記変形された動物画像を前記変形されたキャラクタの3次元モデルに投影する、請求項11に記載の情報処理システム。
  13. 前記プロジェクタ設定は、前記動物と、前記動物を撮影したカメラとの相対的な位置の情報をさらに含む、請求項12に記載の情報処理システム。
  14. 前記キャラクタ描画手段は、前記2次元画像を撮影した際の光源を考慮して、陰影がある前記キャラクタ画像を生成し、
    前記テクスチャマッピング手段は、明るさ調整手段を有し、
    前記明るさ調整手段は、陰影がある前記キャラクタ画像に基づいて、前記2次元画像における光源の影響が低減されるよう、前記動物画像または前記変形された動物画像の明るさを調整する、請求項2乃至13のいずれかに記載の情報処理システム。
  15. 前記テクスチャマッピング手段は、前記2次元画像から前記2次元画像を撮影した際の光源の方向および/または位置を推定し、前記推定された光源の方向および/または位置を示す情報を含む光源設定を出力する光源方向推定手段を有し、
    前記キャラクタ描画手段は、前記光源設定に基づいて光源を配置して、前記変形された前記キャラクタの3次元モデルを仮想カメラで描画することにより、陰影がある前記キャラクタ画像を生成する、請求項14に記載の情報処理システム。
  16. 前記明るさ調整手段は、陰影がある前記キャラクタ画像の画素が明るいほど、前記動物画像または前記変形された動物画像における前記画素と対応する画素を暗くする、請求項14または15に記載の情報処理システム。
  17. 複数の2次元画像のそれぞれの上の部分画像領域を1つのキャラクタの3次元モデルにテクスチャマッピングするシステムで実行される情報処理方法であって、
    前記システムは、請求項1乃至16のいずれかに記載の情報処理システムをサブシステムとして含み、
    前記複数の2次元画像は、同一の外観を有する動物を異なる方向から撮影した画像または、同一の外観を有する動物の異なるポーズを撮影した画像を含み、
    前記情報処理方法は、
    前記部分画像領域のそれぞれと前記キャラクタの3次元モデルに対して前記サブシステムを適用して複数のテクスチャマッピングデータを生成するステップと、
    前記複数のテクスチャマッピングデータを統合したテクスチャマッピングデータを生成するステップと、
    を含む、情報処理方法。
  18. 2次元画像上の部分画像領域を少なくとも腕または脚をもつキャラクタの3次元モデルにテクスチャマッピングする情報処理方法であって、
    前記2次元画像から少なくとも腕または脚を含む動物領域を動物画像として抽出するステップと、
    前記2次元画像における前記動物の少なくとも腕または脚のキーポイントを含むキーポイントを推定するステップと、
    前記2次元画像から3次元ポーズ推定により、前記動物の各部位の3次元座標を生成し、前記動物の少なくとも腕または脚のポーズを含む1つの3次元ポーズを表す3次元ポーズデータを取得するステップと、
    前記キャラクタの少なくとも腕または脚のキーポイントを含むキーポイントを取得するステップと、
    前記キャラクタのキーポイントと、前記動物のキーポイントと、前記3次元ポーズデータと、に基づいて、前記動物画像を前記キャラクタの3次元モデルにテクスチャマッピングするステップと、
    を含み、
    前記テクスチャマッピングするステップは、
    前記3次元ポーズデータを適用して前記キャラクタの3次元モデルを変形するステップを含む、情報処理方法。
  19. 2次元画像上の部分画像領域を少なくとも腕または脚をもつキャラクタの3次元モデルにテクスチャマッピングする情報処理プログラムであって、コンピュータを、
    前記2次元画像から少なくとも腕または脚を含む動物領域を動物画像として抽出する動物画像領域抽出手段と、
    前記2次元画像における前記動物の少なくとも腕または脚のキーポイントを含むキーポイントを推定する2次元キーポイント推定手段と、
    前記2次元画像から3次元ポーズ推定により、前記動物の各部位の3次元座標を生成し、前記動物の少なくとも腕または脚のポーズを含む1つの3次元ポーズを表す3次元ポーズデータを取得する3次元ポーズ推定手段と、
    前記キャラクタの少なくとも腕または脚のキーポイントを含むキーポイントを取得するキャラクタキーポイント取得手段と、
    前記キャラクタのキーポイントと、前記動物のキーポイントと、前記3次元ポーズデータと、に基づいて、前記動物画像を前記キャラクタの3次元モデルにテクスチャマッピングするテクスチャマッピング手段、
    として機能させ、
    前記テクスチャマッピング手段は、
    前記3次元ポーズデータを適用して前記キャラクタの3次元モデルを変形するポーズ適用手段を有する、情報処理プログラム。
JP2021054684A 2021-03-29 2021-03-29 情報処理システム、情報処理方法および情報処理プログラム Active JP7086362B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2021054684A JP7086362B1 (ja) 2021-03-29 2021-03-29 情報処理システム、情報処理方法および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2021054684A JP7086362B1 (ja) 2021-03-29 2021-03-29 情報処理システム、情報処理方法および情報処理プログラム

Publications (2)

Publication Number Publication Date
JP7086362B1 true JP7086362B1 (ja) 2022-06-20
JP2022152058A JP2022152058A (ja) 2022-10-12

Family

ID=82067837

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021054684A Active JP7086362B1 (ja) 2021-03-29 2021-03-29 情報処理システム、情報処理方法および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP7086362B1 (ja)

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014485A (ja) 1999-07-01 2001-01-19 Matsushita Electric Ind Co Ltd 画像表示装置
JP2003085588A (ja) 2001-06-28 2003-03-20 Shiyuusaku Furushima 三次元形状モデリング方法
JP2006107145A (ja) 2004-10-05 2006-04-20 Tokyo Univ Of Agriculture & Technology 顔形状モデリングシステムおよび顔形状モデリング方法
JP2006163871A (ja) 2004-12-08 2006-06-22 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2010108110A (ja) 2008-10-29 2010-05-13 Mitsubishi Electric Information Systems Corp 人物特定装置、人物特定方法及び人物特定プログラム
JP2011107877A (ja) 2009-11-16 2011-06-02 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2011186816A (ja) 2010-03-09 2011-09-22 Secom Co Ltd 顔画像合成装置
JP2012173812A (ja) 2011-02-17 2012-09-10 Secom Co Ltd 顔画像処理装置
JP2012185545A (ja) 2011-03-03 2012-09-27 Secom Co Ltd 顔画像処理装置
JP2017016439A (ja) 2015-07-01 2017-01-19 株式会社Live2D プログラム、情報処理装置、深度定義方法及び記録媒体
JP2019096113A (ja) 2017-11-24 2019-06-20 Kddi株式会社 キーポイントデータに関する加工装置、方法及びプログラム
WO2019242454A1 (zh) 2018-06-21 2019-12-26 华为技术有限公司 一种物体建模运动方法、装置与设备

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001014485A (ja) 1999-07-01 2001-01-19 Matsushita Electric Ind Co Ltd 画像表示装置
JP2003085588A (ja) 2001-06-28 2003-03-20 Shiyuusaku Furushima 三次元形状モデリング方法
JP2006107145A (ja) 2004-10-05 2006-04-20 Tokyo Univ Of Agriculture & Technology 顔形状モデリングシステムおよび顔形状モデリング方法
JP2006163871A (ja) 2004-12-08 2006-06-22 Sony Corp 画像処理装置、画像処理方法、およびプログラム
JP2010108110A (ja) 2008-10-29 2010-05-13 Mitsubishi Electric Information Systems Corp 人物特定装置、人物特定方法及び人物特定プログラム
JP2011107877A (ja) 2009-11-16 2011-06-02 Sony Corp 画像処理装置および画像処理方法、並びにプログラム
JP2011186816A (ja) 2010-03-09 2011-09-22 Secom Co Ltd 顔画像合成装置
JP2012173812A (ja) 2011-02-17 2012-09-10 Secom Co Ltd 顔画像処理装置
JP2012185545A (ja) 2011-03-03 2012-09-27 Secom Co Ltd 顔画像処理装置
JP2017016439A (ja) 2015-07-01 2017-01-19 株式会社Live2D プログラム、情報処理装置、深度定義方法及び記録媒体
JP2019096113A (ja) 2017-11-24 2019-06-20 Kddi株式会社 キーポイントデータに関する加工装置、方法及びプログラム
WO2019242454A1 (zh) 2018-06-21 2019-12-26 华为技术有限公司 一种物体建模运动方法、装置与设备

Also Published As

Publication number Publication date
JP2022152058A (ja) 2022-10-12

Similar Documents

Publication Publication Date Title
CN112150638B (zh) 虚拟对象形象合成方法、装置、电子设备和存储介质
JP6864449B2 (ja) イメージの明るさを調整する方法及び装置
CN111861872B (zh) 图像换脸方法、视频换脸方法、装置、设备和存储介质
Zhou et al. Parametric reshaping of human bodies in images
US11842437B2 (en) Marker-less augmented reality system for mammoplasty pre-visualization
KR101560508B1 (ko) 3차원 이미지 모델 조정을 위한 방법 및 장치
DE112016004437T5 (de) Head-Mounted-Display mit Gesichtsausdruck-Erkennungsfähigkeit
CN109816784B (zh) 三维重构人体的方法和***及介质
WO2021063271A1 (zh) 人体模型重建方法、重建***及存储介质
CN111652123B (zh) 图像处理和图像合成方法、装置和存储介质
US10169891B2 (en) Producing three-dimensional representation based on images of a person
US11087514B2 (en) Image object pose synchronization
WO2023066120A1 (zh) 图像处理方法、装置、电子设备及存储介质
WO2020134925A1 (zh) 人脸图像的光照检测方法、装置、设备和存储介质
US10885708B2 (en) Automated costume augmentation using shape estimation
KR20160144699A (ko) 2d 얼굴 이미지로부터 3d 모델을 자동 생성하는 방법
US20220027602A1 (en) Deep Learning-Based Three-Dimensional Facial Reconstruction System
CN116563506A (zh) 直播场景下基于xr设备的三维表情人脸还原方法、***及设备
AU2020474614B2 (en) Three-dimensional mesh generator based on two-dimensional image
WO2019033923A1 (zh) 一种图像渲染方法和***
JP7086362B1 (ja) 情報処理システム、情報処理方法および情報処理プログラム
Chen et al. Extending 3D Lucas–Kanade tracking with adaptive templates for head pose estimation
Liu et al. GEA: Reconstructing Expressive 3D Gaussian Avatar from Monocular Video
CN109360270B (zh) 基于人工智能的3d人脸姿态对齐方法及装置
JP7319637B1 (ja) 情報処理システム、情報処理方法および情報処理プログラム

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210329

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20210329

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210615

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20210806

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20211221

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220217

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220517

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220527

R150 Certificate of patent or registration of utility model

Ref document number: 7086362

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313111

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350