JP2015026186A - Method for creating three-dimensional computer graphics model and its image, system therefor, and virtual try-on method - Google Patents

Method for creating three-dimensional computer graphics model and its image, system therefor, and virtual try-on method Download PDF

Info

Publication number
JP2015026186A
JP2015026186A JP2013154600A JP2013154600A JP2015026186A JP 2015026186 A JP2015026186 A JP 2015026186A JP 2013154600 A JP2013154600 A JP 2013154600A JP 2013154600 A JP2013154600 A JP 2013154600A JP 2015026186 A JP2015026186 A JP 2015026186A
Authority
JP
Japan
Prior art keywords
user
computer
model
individual
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2013154600A
Other languages
Japanese (ja)
Inventor
勝雄 井上
Katsuo Inoue
勝雄 井上
研 青木
Ken Aoki
研 青木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Josho Gakuen Educational Foundation
Original Assignee
Josho Gakuen Educational Foundation
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Josho Gakuen Educational Foundation filed Critical Josho Gakuen Educational Foundation
Priority to JP2013154600A priority Critical patent/JP2015026186A/en
Publication of JP2015026186A publication Critical patent/JP2015026186A/en
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a method for creating a three-dimensional computer graphics model of a user and its image through an easy operation on a web browser.SOLUTION: Principal component analysis is performed on measured whole-body homologous models and physical feature amounts for many individuals acquired in advance, a plurality of individuals having characteristic body shapes are extracted from them and presented to a user, and subjective degrees of belonging of the user himself/herself to the characteristic body shapes and physical feature amounts are input, thereby obtaining a three-dimensional computer graphics model very close to the body shape of the user himself/herself and its image.

Description

本発明は、相同モデルを用い、3次元コンピュータグラフィックスモデル及びその画像を作成する方法、同システム、並びにバーチャル試着方法に関するものである。   The present invention relates to a three-dimensional computer graphics model and a method for creating an image thereof, a system thereof, and a virtual fitting method using a homologous model.

インターネットを用いた通信販売が急激に成長しているが、衣服の販売については、実際に試着を行なうことができないため、サイジングの問題がある。サイジングの問題は、ユーザが自ら寸法を測ることは手間が掛かること、また、S/M/Lといったサイズ表記や、衣服の寸法などの数値による表記が用いられているが、寸法の測り方や基準が各社異なっていることも原因として挙げられる。   Mail order sales using the Internet are growing rapidly, but there is a sizing problem with clothing sales because it is not possible to actually try on clothes. The problem of sizing is that it takes time and effort for the user to measure the size himself, and the size notation such as S / M / L and the numerical notation such as the size of clothes are used. Another reason is that different companies have different standards.

ウェブページ上でモデルの着用した写真を掲載していることもあるが、モデルとユーザとの体形の違いなどにより、サイジングの問題を解決するには十分ではない。   There are some photos on the web page worn by the model, but it is not enough to solve the sizing problem due to the difference in body shape between the model and the user.

このようなインターネットを用いた衣服販売における問題に対し、特許文献1では、ユーザの映像を撮影し、画像処理で試着イメージを表現している。また、特許文献2では、ユーザの2次元映像をもとに衣服の3次元情画像から3次元の試着イメージを表現している。   In order to deal with such problems in clothing sales using the Internet, Patent Document 1 captures a user's video and expresses a try-on image by image processing. In Patent Document 2, a three-dimensional fitting image is expressed from a three-dimensional image of clothes based on a two-dimensional image of the user.

特許文献3は、ユーザの3次元画像と衣服の3次元画像から試着イメージを作成しているが、ユーザの3次元画像の手法が示されていない。特許文献4は、撮像手段を用いたユーザの3次元画像の作成について開示している。また、特許文献5には、ユーザの3次元画像と衣服の3次元画像の具体的な3次元化の方法が開示されていない。   Patent Document 3 creates a try-on image from a three-dimensional image of a user and a three-dimensional image of clothes, but does not show a technique for the user's three-dimensional image. Patent Document 4 discloses creation of a three-dimensional image of a user using an imaging unit. Patent Document 5 does not disclose a specific three-dimensional method of a user three-dimensional image and a clothing three-dimensional image.

特開2004−86662号公報JP 2004-86662 A 特開2005−248393号公報JP 2005-248393 A 特開2003−221718号公報Japanese Patent Laid-Open No. 2003-221718 特開2003−41421号公報JP 2003-41421 A 特開平11−203347号公報JP-A-11-203347

3次元のコンピュータグラフィックスモデルを用いて衣服のバーチャル試着を行なうためには、ユーザの個々の体形を再現する3次元コンピュータグラフィックスモデルを生成する必要がある。従来、3次元コンピュータグラフィックスモデルの生成には、3次元スキャナ装置などを用いて計測する必要があったが、この場合、全身を撮像可能な大型の3次元スキャナ装置が必要となり、個々のユーザが容易に自らの3次元コンピュータグラフィックスモデルを取得できる環境にはないため、実現可能性が低い。   In order to perform virtual try-on of clothes using a three-dimensional computer graphics model, it is necessary to generate a three-dimensional computer graphics model that reproduces the individual body shape of the user. Conventionally, generation of a three-dimensional computer graphics model has required measurement using a three-dimensional scanner device or the like, but in this case, a large three-dimensional scanner device capable of imaging the whole body is required, and each user can be measured. However, it is not feasible because it is not in an environment where it is possible to easily acquire its own three-dimensional computer graphics model.

インターネット上の衣服の販売サイトにおいて、ユーザが容易にバーチャル試着システムを利用することができるようにするためには、ウェブブラウザ上の簡易な操作のみにより、実用上十分な再現性を持つユーザの体形の3次元コンピュータグラフィックスモデルを生成する技術が必要となる。   In order to make it easy for users to use the virtual fitting system at a clothing sales site on the Internet, the user's body shape is sufficiently reproducible for practical use only by simple operations on a web browser. A technique for generating a three-dimensional computer graphics model is required.

本発明の目的は、ウェブブラウザ上の簡易な操作により、ユーザの3次元コンピュータグラフィックスモデル及びその画像を作成する方法、同システム、並びにバーチャル試着方法を提供することである。   An object of the present invention is to provide a method, a system, and a virtual fitting method for creating a user's three-dimensional computer graphics model and its image by a simple operation on a web browser.

上記課題を解決するために、本発明に係る3次元コンピュータグラフィックスモデル及びその画像を作成する方法は、
体形に即した三次元コンピュータグラフィックスモデル及びその画像を作成する方法であって、
人間の全身形状の三次元実測データから全身相同モデルを作成し、作成された全身相同モデルの全頂点のユークリッド座標値と、身体特徴量とを要素とするベクトルをパラメータ空間における個体座標値とし、複数の個体に対する個体座標値を多変量解析することにより主成分ベクトルを求め、前記主成分ベクトルを直交基底とする体形空間を構成し、前記複数の個体から特徴的な複数の体形のタイプを抽出して、前記特徴的な複数の体形のタイプの身体特徴量を含む全身相同モデルのパラメータ空間上での個体座標値を前記体形空間上に写像して得られた体形別個体座標値を記憶するステップ、
ユーザの身体特徴量を入力するとともに、前記特徴的なu個の複数の体形のタイプの身体特徴量を含む全身相同モデルへの帰属度(重み係数)を入力することにより、体形空間上で前記特徴的体形タイプの個体座標値の重み付き平均による合成座標値を求め、求められた合成座標値をパラメータ空間上へ写像することで、前記ユーザの全身相同モデルにおける各頂点座標値を求め、3次元コンピュータグラフィックスモデル及び身体特徴量の少なくとも1つをコンピュータ画面上に表示することで、前記ユーザの三次元コンピュータグラフィックスモデルとその画像を得るステップと、
を含んでいる。
In order to solve the above problems, a method for creating a three-dimensional computer graphics model and an image thereof according to the present invention includes:
A three-dimensional computer graphics model conforming to a body shape and a method for creating an image thereof,
A whole body homology model is created from three-dimensional measurement data of the human whole body shape, and a vector whose elements are the Euclidean coordinate values of all the vertices of the created whole body homology model and body feature values is used as an individual coordinate value in the parameter space. A principal component vector is obtained by multivariate analysis of individual coordinate values for a plurality of individuals, a body shape space having the principal component vector as an orthogonal basis is formed, and a plurality of characteristic body shape types are extracted from the plurality of individuals. Then, the individual body coordinate values obtained by mapping the individual coordinate values on the parameter space of the whole body homology model including the body feature amounts of the plurality of characteristic body types onto the body space are stored. Step,
By inputting the body feature quantity of the user and inputting the degree of membership (weight coefficient) to the whole body homologous model including the body feature quantities of the characteristic u multiple body types, A composite coordinate value obtained by weighted average of individual coordinate values of characteristic body type is obtained, and the obtained composite coordinate value is mapped onto a parameter space to obtain each vertex coordinate value in the whole body homology model of the user. Displaying at least one of a three-dimensional computer graphics model and a body feature amount on a computer screen to obtain a three-dimensional computer graphics model of the user and an image thereof;
Is included.

より詳細には、本発明に係る3次元コンピュータグラフィックスモデル及びその画像を作成する方法は、
コンピュータを用いて、ユーザの体形に応じた3次元コンピュータグラフィックスモデル及びその画像を作成する方法であって、
(1) 第1のコンピュータが、t個の個体について、3次元スキャナ装置を用いて測定された全身形状の3次元実測データを取得し、各個体の全身相同モデルを構成するジオメトリデータと、各個体の身体特徴量からなるm個の変数を成分とする身体特徴量を含む実測全身相同モデルHを得るステップ、
(2) 前記第1のコンピュータが、得られた身体特徴量を含む実測全身相同モデルHを多変量解析し、累積寄与率が一定の閾値を越えるn個(但し、n<m)の主成分を抽出するステップ、
(3) 前記第1の抽出した主成分について、身体特徴量を含む全身相同モデル個体Hの主成分得点を成分とするn次元直交座標値である体形座標値に変換するステップ、
(4) 前記第1のコンピュータが、身体特徴量を含む実測全身相同モデルHの中から、特徴的な体形の個体を抜き出し、ステップ(3)により体形別個体座標値を求め、ネットワークを介してユーザに提供する第1のサーバに記憶するステップ、
(5) 前記ネットワークに接続された第2のコンピュータを用い、前記第1のサーバに記憶された身体特徴量を含む実測全身相同モデルHに含まれる身体特徴量のうち、ユーザが入力要素として選んだ身体特徴量の値と、ステップ(4)にて得られた体形別個体座標値へのユーザ自身の主観的帰属度を入力するステップ、
(6) 前記第1のサーバもしくは前記第2のコンピュータが、体形別個体座標値をステップ(5)の前記主観的帰属度で重み付けしたユーザの体形座標値の初期値を得るステップ、
(7) 前記第1のサーバもしくは前記第2のコンピュータが、前記ユーザの体形の初期値を、個体を定義するパラメータ空間のベクトルに変換するステップ、
(8) 前記第1のサーバもしくは前記第2のコンピュータが、前記ベクトルの要素のうち、身体特徴量に相当する部分を要素に置き換えるステップ、
(9) 前記第1のサーバもしくは前記第2のコンピュータが、前記ベクトルを直交空間の個体座標に変換するステップ、
(10) 前記第1のサーバもしくは前記第2のコンピュータが、ステップ(7)〜ステップ(9)を繰り返し、個体座標の収束解を得るステップ、
(11) 前記第1のサーバもしくは前記第2のコンピュータが、ステップ(10)で得られた個体座標の収束解をユーザの体形座標値とし、パラメータ空間のベクトルに変換して、ジオメトリデータ及び身体特徴量を得、ネットワークを介して、ユーザの3次元コンピュータグラフィックスモデルと身体特徴量を前記第2のコンピュータの画面上に表示するステップと、
を含んでいる。
More specifically, the 3D computer graphics model according to the present invention and a method for creating an image thereof are:
A method of creating a three-dimensional computer graphics model corresponding to a user's body shape and an image thereof using a computer,
(1) A first computer obtains three-dimensional actual measurement data of a whole body shape measured using a three-dimensional scanner device for t individuals, geometry data constituting a whole body homology model of each individual, Obtaining an actually measured whole body homology model H i including body feature amounts including m variables composed of individual body feature amounts;
(2) The first computer performs multivariate analysis on the measured whole body homology model H i including the obtained body feature amount, and n (where n <m) the cumulative contribution ratio exceeds a certain threshold. Extracting the components;
(3) converting the first extracted principal component into a body coordinate value that is an n-dimensional orthogonal coordinate value having a principal component score of the whole body homology model individual H i including a body feature as a component;
(4) The first computer extracts an individual with a characteristic body shape from the measured whole body homology model H i including body feature values, obtains body shape distinct body coordinate values in step (3), Storing in a first server provided to the user,
(5) Using the second computer connected to the network, among the body feature amounts included in the measured whole body homology model H i including the body feature amount stored in the first server, the user uses as an input element A step of inputting the value of the selected body feature value and the user's own subjective degree of attachment to the body shape distinct body coordinate value obtained in step (4);
(6) The first server or the second computer obtains an initial value of the user's body coordinate value obtained by weighting the body separate body coordinate value by the subjective degree of attribution in step (5);
(7) the first server or the second computer converting an initial value of the user's body shape into a parameter space vector defining an individual;
(8) The first server or the second computer replaces a part corresponding to a body feature amount among elements of the vector with an element,
(9) the first server or the second computer converting the vector into orthogonal coordinates in orthogonal space;
(10) The first server or the second computer repeats steps (7) to (9) to obtain a convergent solution of individual coordinates,
(11) The first server or the second computer converts the convergent solution of the individual coordinates obtained in step (10) into a body shape coordinate value of the user and converts it into a vector in the parameter space to obtain the geometry data and the body Obtaining a feature quantity and displaying the user's three-dimensional computer graphics model and body feature quantity on the screen of the second computer via a network;
Is included.

また、本発明に係るバーチャル試着方法は、
3次元コンピュータグラフィックスモデル及びその画像を作成する方法により得られたユーザの3次元コンピュータグラフィックスモデル及びその画像を用いて衣服をバーチャル試着する方法であって、
第2のサーバに記憶された試着する衣服を、前記第2のコンピュータを用いて、選択して入力する衣服入力ステップ、
前記第1のサーバもしくは第2のコンピュータは、前記第2のサーバに記憶され、前記衣服入力ステップにて選択された衣服を、前記ユーザの3次元コンピュータグラフィックスモデルに着衣させ、試着した3次元コンピュータグラフィックスモデル及びその画像を作成し、前記第2のコンピュータの画面に表示する試着ステップと、
を含んでいる。
Further, the virtual try-on method according to the present invention is:
A method of virtually trying on a garment using a 3D computer graphics model of a user obtained by a 3D computer graphics model and a method of creating the image and the image thereof,
A clothing input step of selecting and inputting clothing to be tried on stored in the second server using the second computer;
The first server or the second computer is stored in the second server, and the clothes selected in the clothes input step are put on the user's three-dimensional computer graphics model and tried on. A try-on step of creating a computer graphics model and its image and displaying it on the screen of the second computer;
Is included.

本発明のユーザの3次元コンピュータグラフィックスモデル及びその画像を作成する方法によれば、ユーザの身体特徴量と、複数の特徴的な体形のタイプへの帰属度(重み係数)をユーザが自ら判断した重み付けを行なうことにより、簡易且つ精度良くユーザの3次元コンピュータグラフィックスモデル及びその画像を表示することができる。ユーザの身体特徴にコンピュータグラフィックスモデルの体形を近づける方法として、主成分分析によって得られたn次元直交空間の体形座標値を直接操作する方法があるが、主成分分析は、分析した個体分布の分散が大きい方向、すなわち個人差の大きい方向に順に直交軸を配置しているに過ぎず、必ずしも各軸の意味は明確ではない。また、分析する個体の選択によっては、軸の向きは必ずしも一定しない。そのため、第1主成分は身長に相関が高い座標軸、第2主成分は肥満度に相関が高い座標軸、と決めたとしても、身長が何cmであるとか、腹囲が何cmである、といった具体的な身体特徴量を再現しようとしたとき、各軸の値をいくつにすればよいかは不明である。本発明では相同モデルに身体特徴量をデータとして付加し、ジオメトリデータとともに主成分分析をすることで、身体特徴量とジオメトリデータの相関関係を明らかにし、ターゲットとなる身体特徴量の値を持つ体形座標値に収束させることで、身体特徴量に相関するジオメトリデータを得ることができる。   According to the user's three-dimensional computer graphics model and the method of creating the image of the present invention, the user himself / herself determines the user's physical features and the degree of attribution (weighting factor) to a plurality of characteristic body types. By performing the weighting, the user's three-dimensional computer graphics model and its image can be displayed easily and accurately. As a method of bringing the body shape of a computer graphics model closer to the body feature of the user, there is a method of directly manipulating body shape coordinate values of an n-dimensional orthogonal space obtained by principal component analysis. The orthogonal axes are merely arranged in order in the direction in which the variance is large, that is, the direction in which individual differences are large, and the meaning of each axis is not necessarily clear. Moreover, the direction of the axis is not always constant depending on the selection of the individual to be analyzed. Therefore, even if it is decided that the first principal component is a coordinate axis having a high correlation with the height and the second principal component is a coordinate axis having a high correlation with the obesity degree, what is the height and how many cm the abdomen is? It is unclear how much the value of each axis should be when trying to reproduce typical body features. In the present invention, body features are added to the homologous model as data, and the principal component analysis is performed together with the geometry data, thereby clarifying the correlation between the body features and the geometry data, and the body shape having the target body feature value. By converging to the coordinate value, it is possible to obtain geometric data correlated with the body feature amount.

表示された3次元コンピュータグラフィックスモデルの画像に衣服をバーチャル試着させることで、試着した3次元コンピュータグラフィックスモデル及びその画像を表示させることができるから、ウェブサイト上における衣服の通信販売等でのサイジングの問題を解消することができる。   By trying clothes on the displayed 3D computer graphics model image, you can display the 3D computer graphics model and the image you have tried on. Sizing problem can be solved.

図1は、特徴的な体形の実測全身相同モデルの3次元コンピュータグラフィックスモデルの画像である。FIG. 1 is an image of a three-dimensional computer graphics model of a measured whole body homology model having a characteristic body shape. 図2は、身体特徴量を含む全身相同モデルHの平均Hの3次元コンピュータグラフィックスモデルの画像である。FIG. 2 is an image of a three-dimensional computer graphics model having an average H of the whole body homology model H i including body features. 図3は、特徴的な体形への帰属度と身体特徴量に基づいて構成された3次元コンピュータグラフィックスモデルの画像の一例である。FIG. 3 is an example of an image of a three-dimensional computer graphics model configured based on the characteristic degree of belonging to the body shape and the body feature amount. 図4は、特徴的な体形への帰属度と身体特徴量に基づいて構成された3次元コンピュータグラフィックスモデルの画像の一例である。FIG. 4 is an example of an image of a three-dimensional computer graphics model configured based on the characteristic degree of belonging to the body shape and the body feature amount. 図5は、本発明の一実施形態に係るシステムの全体構成図である。FIG. 5 is an overall configuration diagram of a system according to an embodiment of the present invention. 図6は、事前計算フローを示すフローチャートである。FIG. 6 is a flowchart showing a pre-calculation flow. 図7は、図6に続く事前計算フローのフローチャートである。FIG. 7 is a flowchart of the pre-calculation flow following FIG. 図8は、第2のコンピュータの画面の一例である。FIG. 8 is an example of a screen of the second computer. 図9は、第1の体形CGモデル作成フローのフローチャートである。FIG. 9 is a flowchart of the first body shape CG model creation flow. 図10は、図9に続く第1の体形CGモデル作成フローのフローチャートである。FIG. 10 is a flowchart of a first CG model creation flow following FIG. 図11は、第2の体形CGモデル作成フローのフローチャートである。FIG. 11 is a flowchart of the second body shape CG model creation flow. 図12は、図11に続く第1の体形CGモデル作成フローのフローチャートである。FIG. 12 is a flowchart of the first body shape CG model creation flow following FIG. 図13は、シャツを試着した3次元コンピュータグラフィックスモデルの画像である。FIG. 13 is an image of a three-dimensional computer graphics model in which a shirt is tried on. 図14は、シャツとズボンを試着した3次元コンピュータグラフィックスモデルの画像である。FIG. 14 is an image of a three-dimensional computer graphics model in which a shirt and trousers are tried on. 図15は、3次元パラメータ空間と2次元直交空間における、ある点の写像の原理を説明する図である。FIG. 15 is a diagram for explaining the principle of mapping a certain point in the three-dimensional parameter space and the two-dimensional orthogonal space. 図16は、3次元パラメータ空間と2次元直交空間における、収束計算の原理を説明する図である。FIG. 16 is a diagram for explaining the principle of convergence calculation in the three-dimensional parameter space and the two-dimensional orthogonal space.

本発明は、予め取得された多数の個体に対する、ジオメトリデータと別途実測した身体特徴量とに基づく実測全身相同モデルを作成し、その中から図1に示すような複数の特徴的な体形タイプの身体特徴量を含む実測全身相同モデルを抽出しておき、ユーザが、自身の身体特徴量と、複数の特徴的な体形タイプの身体特徴量を含む実測全身相同モデルへの各帰属度(重み係数)を入力することで、図2乃至図4に示すようなユーザ自身の体形に非常に近い3次元コンピュータグラフィックスモデル及びその画像を得るものである。   The present invention creates a measured whole body homology model based on geometry data and separately measured body feature amounts for a large number of individuals acquired in advance, and from among them, a plurality of characteristic body shape types as shown in FIG. Measured whole-body homologous model including body features is extracted, and each user's degree of belonging to the measured whole-body homologous model including body features and body features of multiple characteristic body types (weighting coefficient) ), A three-dimensional computer graphics model very close to the user's own body shape as shown in FIGS. 2 to 4 and its image are obtained.

得られた3次元コンピュータグラフィックスモデル及びその画像は、たとえば、バーチャル試着に用いることができる。   The obtained three-dimensional computer graphics model and its image can be used for virtual try-on, for example.

図5は、本発明の一実施形態に係るシステムの全体構成図である。システムは、3次元スキャナ装置102を用いて全身相同モデルHに関する事前データを作成する第1のコンピュータ101と、事前データを記憶する第1のサーバ103と、該第1のサーバ103のデータをユーザに提供するネットワーク105と、ネットワーク105に接続され、衣服に関する情報を記憶している第2のサーバ104と、ネットワーク105に接続され、ユーザが操作する第2のコンピュータ106とを含んでいる。 FIG. 5 is an overall configuration diagram of a system according to an embodiment of the present invention. The system uses a three-dimensional scanner apparatus 102 to create a first computer 101 that generates prior data relating to the whole body homology model H i, a first server 103 that stores the previous data, and data of the first server 103. A network 105 provided to the user, a second server 104 connected to the network 105 and storing information about clothes, and a second computer 106 connected to the network 105 and operated by the user are included.

第1のコンピュータ101、第2のコンピュータ106、第1のサーバ103、第2のサーバ104は、夫々CPUを主体に構成され、本発明を実行するために必要な各種プログラムやデータを記憶するROMや入力情報等を一時的に記憶するRAMなどを含む記憶装置などを具えている。これら機能は、ハードウェアのみ、ソフトウェアのみ又はこれらの組合せによって実現可能であることは当然理解されるべきである。   The first computer 101, the second computer 106, the first server 103, and the second server 104 are each composed mainly of a CPU, and a ROM that stores various programs and data necessary for executing the present invention. And a storage device including a RAM that temporarily stores input information and the like. It should be understood that these functions can be realized by hardware only, software only, or a combination thereof.

なお、第1のコンピュータ101と第2のコンピュータ106は同じコンピュータであってもよいし、第1のサーバ103と第2のサーバ104も同じサーバであってもよい。また、これらの台数は1台に限定されるものではない。   Note that the first computer 101 and the second computer 106 may be the same computer, and the first server 103 and the second server 104 may be the same server. Also, the number of these is not limited to one.

少なくとも、第1のコンピュータ101及び第2のコンピュータ106は、表示画面と入力装置を具える。   At least the first computer 101 and the second computer 106 include a display screen and an input device.

なお、第2のコンピュータ106は、パーソナルコンピュータであってもよいし、スマートフォンやPDA(Personal Data Assistance)などの携帯型端末であってもよい。   The second computer 106 may be a personal computer or a portable terminal such as a smartphone or a PDA (Personal Data Assistance).

上記構成のシステムによる3次元コンピュータグラフィックスモデル及びその画像の作成方法について説明する。   A three-dimensional computer graphics model and its image creation method by the system having the above configuration will be described.

本発明の3次元コンピュータグラフィックスモデル及びその画像の作成方法は、ユーザに提供される実測全身相同モデルHを作成する事前計算フロー(図6及び図7)と、ユーザの操作により3次元コンピュータグラフィックスモデル及びその画像を作成する体形CGモデル作成フロー(図9及び図10、または、図11及び図12)に大別することができる。 Creating a three-dimensional computer graphics model and the image of the present invention, the pre-calculation flow for creating a measured systemic homology model H i to be provided to the user (FIGS. 6 and 7), three-dimensional computer by a user operation It can be roughly divided into a body model CG model creation flow (FIGS. 9 and 10 or FIGS. 11 and 12) for creating a graphics model and its image.

<事前計算フロー(図6及び図7)>
図6及び図7は、ユーザの3次元コンピュータグラフィックスモデル及びその画像を作成するための基礎となる全身相同モデルを構成するための事前計算フローを示している。事前計算フローは、第1のコンピュータ101と3次元スキャナ装置102を用いて行なうことができる。
<Pre-calculation flow (Figs. 6 and 7)>
6 and 7 show a pre-computation flow for constructing a user's three-dimensional computer graphics model and a whole-body homology model that is the basis for creating the image. The pre-computation flow can be performed using the first computer 101 and the three-dimensional scanner device 102.

第1のコンピュータ101は、3次元スキャナ装置102によって、t個の個体に対し、個体の全身を走査撮像して、各個体の全身形状の3次元実測データを取得する。得られた3次元実測データから、各個体の全身相同モデルを作成する(ステップS11)。全身相同モデルは、共通する解剖学的特徴点に基づいて、人体の形状を同一点数のユークリッド座標値で表わされる同数の点と同一位相のポリゴンによって再構築したものである。   The first computer 101 scans and images the whole body of t individuals with the three-dimensional scanner device 102 and acquires three-dimensional actual measurement data of the whole body shape of each individual. A whole body homology model of each individual is created from the obtained three-dimensional measurement data (step S11). The whole-body homology model is obtained by reconstructing the shape of the human body with polygons having the same number of points and the same phase represented by the same number of Euclidean coordinate values based on common anatomical feature points.

次に、作成された全身相同モデルを構成するジオメトリデータ、すなわちユークリッド座標値と、予め設定された各個体の身体特徴量からm個(mは自然数)の変数v、v、…、vを成分とするt個のm次元ベクトルで表わされる身体特徴量を含む実測全身相同モデルH=(v1i、v2i、…、vmi)、但し、i=1、2、…、tを作成する。 Next, m variables (m is a natural number) of variables v 1 , v 2 ,..., V based on the geometric data constituting the created whole-body homology model, that is, Euclidean coordinate values, and physical feature values of each individual set in advance. Measured whole body homology model H i = (v 1i , v 2i ,..., v mi ) including body features represented by t m-dimensional vectors having m as components, where i = 1, 2,. Create

身体特徴量として、各個体に対して実測された身長、体重、股下長、袖丈、胸囲(バスト)、腹囲(ウェスト)、腰囲(ヒップ)、首周りなどを例示することができる。また、年齢を身体特徴量の1つに含めることができる。年齢に応じた体形変化に傾向が見られるためである。   Examples of the body feature amount include height, weight, inseam length, sleeve length, chest circumference (bust), waist circumference (waist), waist circumference (hip), and neck circumference measured for each individual. In addition, age can be included in one of the body feature values. This is because there is a trend in body shape change according to age.

第1のコンピュータは、得られた実測全身相同モデルHを多変量解析し、累積寄与率が一定の閾値を越える主成分をn個抽出する(但し、nは自然数であって、n<m)。 The first computer performs multivariate analysis on the obtained actually measured whole body homology model H i, and extracts n principal components whose cumulative contribution ratio exceeds a certain threshold (where n is a natural number and n <m ).

より詳細には、ステップS12に示すように、H(i=1、2、…、t)を主成分分析し、第i主成分(i=1、2、…、m)の主成分負荷量をa1i、a2i、…、amiとするときに、第1主成分から第m主成分までの主成分負荷量を列とするm行m列の行列Aを求め、第n主成分までの累積寄与率が一定の閾値を越えるようなnを求める(ステップS14)。 More specifically, as shown in step S12, H i (i = 1, 2,..., T) is subjected to principal component analysis, and the principal component load of the i-th principal component (i = 1, 2,..., M) is calculated. When the amounts are a 1i , a 2i ,..., A mi , an m-by-m matrix A having columns of principal component load amounts from the first principal component to the m-th principal component is obtained, and the n-th principal component is obtained. N is obtained so that the cumulative contribution rate up to a certain threshold value is exceeded (step S14).

累積寄与率の閾値を大きくするほど、主成分の個数であるnの値は大きくなり、作成される3次元コンピュータグラフィックスモデルの再現可能な体形のバリエーションは増すが、次元の冗長度が高くなる。一方、累積寄与率の閾値を小さくすると、次元の冗長度は低くなるが、再現可能な体形のバリエーションが少なくなる。第一主成分がもっとも寄与率が高く、第m主成分がもっとも寄与率が小さいので、次元の冗長度を減らし、パラメータ間の相関を効率よく表現するためには、バランスのよい閾値を選ぶ必要がある。   As the cumulative contribution ratio threshold increases, the value of n, which is the number of principal components, increases, and the reproducible body shape variations of the created three-dimensional computer graphics model increase, but the dimensional redundancy increases. . On the other hand, if the threshold value of the cumulative contribution rate is reduced, the dimensional redundancy is reduced, but the reproducible body shape variations are reduced. Since the first principal component has the highest contribution rate and the m-th principal component has the smallest contribution rate, it is necessary to select a well-balanced threshold value in order to reduce the dimensional redundancy and efficiently express the correlation between parameters. There is.

また、行列Aの1列からn列までの要素からなる、m行n列の部分行列X、逆行列A−1の1行からn行までの要素からなるn行m列の部分行列Pを夫々算出し、記憶する(ステップS15及びステップS16)。ここでXは、ジオメトリデータと身体特徴量を成分とするm次元パラメータ空間のベクトルを、n次元直交空間の体形座標値に写像する際に用いる変換行列である。Pは逆に、n次元直交空間の体形座標値をm次元パラメータ空間のベクトルに写像する際に用いる変換行列である。Xによる写像はm次元空間に埋め込まれたn次元空間上へのm次元ベクトルの正射影になるので、一般に写像後の位置は写像前の位置とずれを生ずる。一方、Pによる写像はm次元空間に埋め込まれたn次元空間上の位置をm次元空間上の位置に読み替えるだけなので、写像による位置のずれは生じない。図15にm=3、n=2の例を示す。(H1,H2,H3)を座標軸とする3次元パラメータ空間に(X1,X2)を座標軸とする2次元直交空間が埋め込まれている。3次元パラメータ空間上の点h(h1,h2,h3)を変換行列Xを用いて2次元直交空間上に写像した点x(x1,x2)は、hの2次元直交空間上への正射影となり、一般にxとhの位置は一致しない。一方、xを変換行列Pを用いてパラメータ空間へ写像した点h’(h1’,h2’,h3’)はxに一致し、hには一般に一致しない。 Also, an m-row, n-column submatrix X composed of elements from the first column to the n-th column of the matrix A, and an n-row, m-column submatrix P composed of elements from the first row to the n-th row of the inverse matrix A- 1. Each is calculated and stored (step S15 and step S16). Here, X is a transformation matrix used when mapping a vector in an m-dimensional parameter space having geometry data and body features as components to body shape coordinate values in an n-dimensional orthogonal space. Conversely, P is a transformation matrix used when mapping the body coordinate values of the n-dimensional orthogonal space to the vector of the m-dimensional parameter space. Since the mapping by X becomes an orthogonal projection of the m-dimensional vector onto the n-dimensional space embedded in the m-dimensional space, the position after mapping generally deviates from the position before mapping. On the other hand, since the mapping by P only reads the position in the n-dimensional space embedded in the m-dimensional space into the position in the m-dimensional space, the position shift due to the mapping does not occur. FIG. 15 shows an example where m = 3 and n = 2. A two-dimensional orthogonal space having (X1, X2) as a coordinate axis is embedded in a three-dimensional parameter space having (H1, H2, H3) as a coordinate axis. A point x (x1, x2) obtained by mapping the point h (h1, h2, h3) on the three-dimensional parameter space onto the two-dimensional orthogonal space using the transformation matrix X is an orthogonal projection of h on the two-dimensional orthogonal space. In general, the positions of x and h do not match. On the other hand, the point h ′ (h1 ′, h2 ′, h3 ′) obtained by mapping x to the parameter space using the transformation matrix P matches x and generally does not match h.

実測全身相同モデルH(i=1、2、…、t)の平均Hを求めて記憶する(ステップS17)。 The average H of the actually measured whole body homology model H i (i = 1, 2,..., T) is obtained and stored (step S17).

次に、身体特徴量を含む実測全身相同モデルHの中から、u個の特徴的な体形の個体を抜き出し、n次元の体形別個体座標値C(j=1、2、…、u)をステップS18に記載の式により算出する。 Next, u characteristic individuals are extracted from the measured whole body homology model H i including body features, and n-dimensional individual body coordinate values C j (j = 1, 2,..., U ) Is calculated by the formula described in step S18.

たとえば、図1では、特徴的な体形の個体としてu=4個の個体を例示している。洋ナシ型とは、臀部や太ももの肉付きがよく、下半身を中心に丸みのある体形である。リンゴ型とは、全体的に丸みのあるぽっちゃり体形である。筋肉型とは、筋肉が発達している逆三角形型である。非筋肉型とは、筋肉が衰退し、お腹まわりにたるみのある体形である。もちろん、これらは一例であり、また、個体数も4に限定されるものではない。   For example, in FIG. 1, u = 4 individuals are illustrated as individuals having a characteristic body shape. The pear-type is a body with a rounded shape centering on the lower half of the body, often with meat on the buttocks and thighs. The apple shape is a chubby body shape that is rounded as a whole. The muscle type is an inverted triangle type in which muscles are developed. The non-muscle type is a body shape in which muscles are weakened and the stomach is slack. Of course, these are only examples, and the number of individuals is not limited to four.

なお、性別、人種、世代(年齢)などの属性ごとに身体特徴量を含む実測全身相同モデルHを作成し、属性ごとに多変量解析、及び、特徴的な体形のタイプを作成すれば、ユーザ自身の体形をさらに精度良く効率的に作成することができる。 It should be noted, gender, race, creates a measured systemic homology model H i, including the body feature value for each attribute, such as generation (age), multivariate analysis for each attribute, and, if you create a type of characteristic body shape The user's own body shape can be created more accurately and efficiently.

求められたn次元ベクトルCを行の要素とするu行n列の行列Mを求めて記憶する。 A matrix M of u rows and n columns having the obtained n-dimensional vector C j as a row element is obtained and stored.

上記により、身体特徴量を含む実測全身相同モデルHを多変量解析することで、ユーザが入力要素として身体特徴量を1又は複数入力することで、ユーザの3次元コンピュータグラフィックスモデルを再構成することが可能となる。 As described above, the measured whole body homology model H i including the body feature amount is subjected to multivariate analysis, so that the user inputs one or more body feature amounts as input elements to reconstruct the user's three-dimensional computer graphics model It becomes possible to do.

上記得られた各データは、ネットワーク105に接続された第1のサーバ103に格納され、第1のサーバ103もしくはユーザの第2のコンピュータ106において、演算を行なうことでユーザの3次元コンピュータグラフィックスモデル及びその画像が構成される。   Each of the obtained data is stored in the first server 103 connected to the network 105, and the first server 103 or the user's second computer 106 performs an operation to perform the user's three-dimensional computer graphics. A model and its image are constructed.

<第1の体形CGモデル作成フロー(図9及び図10)>
第1のサーバ103は、ユーザの第2のコンピュータ106がウェブサイトにアクセスすることで、そのリクエストに応答し、ユーザの3次元コンピュータグラフィックスモデル及びその画像を構成し、第2のコンピュータ106の画面に表示する。
<First body shape CG model creation flow (FIGS. 9 and 10)>
The first server 103 responds to the request by the user's second computer 106 accessing the website, configures the user's three-dimensional computer graphics model and its image, and Display on the screen.

図8は、第2のコンピュータ106の画面表示の一例である。ユーザは、第2のコンピュータ106から、上記した身体特徴量を含む実測全身相同モデルHに含まれる身体特徴量のうち、s個の身体特徴量の値(b、b、…、b)を入力する。身体特徴量の値は、該当する身体特徴量のチェックボックス107aにチェックを入れることで、ダイレクト入力欄107に身体特徴量の数値を直接入力することができる。もちろん、数値をスライドバーにより入力するようにしてもよい。身体特徴量として、たとえば、身長、体重、股下等が例示される。身体特徴量として身長を入力すると、ユーザの体型を得るためにより好ましい。 FIG. 8 is an example of a screen display of the second computer 106. From the second computer 106, the user can select s body feature values (b 1 , b 2 ,..., B) among the body feature values included in the measured whole body homology model H i including the body feature values described above. s ). The value of the body feature value can be directly input to the direct input field 107 by checking the corresponding body feature value check box 107a. Of course, numerical values may be input using a slide bar. Examples of the body feature amount include height, weight, and crotch. It is more preferable to input the height as the body feature value in order to obtain the user's body shape.

また、ユーザは、u個の特徴的な体形から、自らの主観により、各体形への帰属度(主観的帰属度(重み係数):r、r、…、r)を入力する(ステップS21)。たとえば、図1に示す4つの体形に対し、自らの体形が、洋ナシ型に近いと考えれば、洋ナシ型の帰属度を高め、リンゴ型に近い場合にはリンゴ型の帰属度を高める。体形への主観的帰属度は、図8に示すようにスライドバー108により入力することができる。帰属度を変えることで、前述した図2乃至図4に示すように、ユーザの体形に近い3次元コンピュータグラフィックスモデルの画像110が作成される。なお、図示では、スライドバー108は、0〜100%までの帰属度としているが、より極端なユーザ体形を再現する場合は、マイナス或いは100%を越える帰属度を設定できるようにしてもよい。 Further, the user inputs the degree of membership (subjective degree (weighting factor): r 1 , r 2 ,..., R u ) to each body shape from the u characteristic body shapes according to his / her own subjectivity ( Step S21). For example, with respect to the four body shapes shown in FIG. 1, if it is considered that its body shape is close to the pear shape, the pear shape is increased, and if it is close to the apple shape, the apple shape is increased. The subjective degree of belonging to the body shape can be input by the slide bar 108 as shown in FIG. By changing the degree of attribution, an image 110 of a three-dimensional computer graphics model close to the user's body shape is created as shown in FIGS. In the figure, the slide bar 108 has a degree of belonging of 0 to 100%. However, when reproducing a more extreme user body shape, a degree of belonging of minus or over 100% may be set.

なお、すべての特徴的な体形への帰属度が0%の場合、図2に示すように、得られるユーザ体形は身体特徴量を含む実測全身相同モデルHの平均Hの体形となる。また、洋ナシ型を0%、リンゴ型を30%、筋肉型を0%、非筋肉型を65%とすれば、図3に示すような体形となる。さらに、洋ナシ型を60%、リンゴ型を40%、筋肉型を30%、非筋肉型を0%とすれば、図4に示すような体形となる。 Incidentally, when the degree of belonging to all the characteristic forms of 0%, as shown in FIG. 2, a user body shape resulting a body shape of the average H of the measured systemic homology model H i containing body feature amount. If the pear type is 0%, the apple type is 30%, the muscular type is 0%, and the non-muscular type is 65%, the body shape is as shown in FIG. Furthermore, if the pear type is 60%, the apple type is 40%, the muscular type is 30%, and the non-muscular type is 0%, the body shape is as shown in FIG.

入力された主観的帰属度(r、r、…、r)を要素とするu次元ベクトルRと、図7のステップS19にて求められた行列Mを用いて、ステップS22に記載の式により、主観的帰属度により重み付けされたn次元の体形座標値の初期値Tを得る(図9のステップS22)。 Using the u-dimensional vector R whose elements are the input subjective belongings (r 1 , r 2 ,..., R u ) and the matrix M obtained in step S19 in FIG. The initial value T 0 of the n-dimensional body coordinate value weighted by the subjective degree of attribution is obtained from the equation (step S22 in FIG. 9).

次に、得られた体形座標値の初期値Tを、ユーザにより入力された身体特徴量に基づいて、ユーザの体形に近づくように収束させる。収束計算の原理を図16に示す。これはm=3,n=2の例であり(H1,H2、H3)を座標軸とする3次元パラメータ空間に(X1,X2)を座標軸とする2次元直交空間が埋め込まれている。初期値Tを、ユーザが入力した身体特徴量であるH3=aに近づける収束計算の過程を以下に示す。初期値T(x1t0,x2t0)を変換行列Pによりパラメータ空間に写像した点D(h1d0,h2d0,h3d0)は、Tの位置と一致する。このDの要素のうち、H3成分をユーザが入力した身体特徴量aに置き換えて、D(h1d0,h2d0,a)を得る。これは平面(H3=a)への正射影である。つぎにDを変換行列Xを用いて写像すると、Dの2次元直交空間上への正射影である点Tを得る。この操作を繰り返すことにより、T近傍でユーザの入力した身体特徴量に一致する点にTは収束する Next, the initial value T 0 of the obtained body shape coordinate values is converged so as to approach the user's body shape based on the body feature amount input by the user. The principle of convergence calculation is shown in FIG. This is an example of m = 3 and n = 2, and a two-dimensional orthogonal space having (X1, X2) as coordinate axes is embedded in a three-dimensional parameter space having (H1, H2, H3) as coordinate axes. A process of convergence calculation for bringing the initial value T 0 closer to H3 = a which is the body feature amount input by the user will be described below. A point D 0 (h1 d0 , h2 d0 , h3 d0 ) obtained by mapping the initial value T 0 (x1 t0 , x2 t0 ) to the parameter space by the transformation matrix P coincides with the position of T 0 . Of the elements of D 0 , the H3 component is replaced with the body feature quantity a input by the user to obtain D 1 (h1 d0 , h2 d0 , a). This is an orthographic projection onto the plane (H3 = a). Next, when D 1 is mapped using the transformation matrix X, a point T 1 which is an orthogonal projection of D 1 onto the two-dimensional orthogonal space is obtained. By repeating this operation, T i converges to a point that matches the body feature input by the user in the vicinity of T 0.

より詳細には、制御変数iを0とし(ステップS23)、体形座標値Tについて、ジオメトリデータと身体特徴量を要素とするm次元ベクトルDをステップS24に記載の式により変換する(ステップS24)。なお、行列Pは、図6のステップS16にて求められた部分行列である。 More specifically, the control variable i is set to 0 (step S23), and the m-dimensional vector D i having the geometry data and the body feature amount as elements is converted from the body coordinate value T i by the formula described in step S24 (step S24). S24). Note that the matrix P is the partial matrix obtained in step S16 of FIG.

の要素のうち、ユーザにより入力されたs個の身体特徴量に対応する要素を、ユーザの入力値(b、b、…、bS)に置き換える(ステップS25)。 Among the elements of D i , elements corresponding to s body feature values input by the user are replaced with user input values (b 1 , b 2 ,..., B S ) (step S25).

要素を置き換えたDをステップS26に記載の式により変換し、Ti+1を得る(ステップS26)。 The D i by replacing the elements converted by the equation described in step S26, to obtain a T i + 1 (step S26).

i+1とTとの距離が一定の閾値よりも小さくなるまで(ステップS27)、iをインクリメントして(ステップS28)、ステップS24〜ステップS27を繰り返す。 Until the distance between T i + 1 and T i becomes smaller than a certain threshold (step S27), i is incremented (step S28), and steps S24 to S27 are repeated.

i+1とTとの距離が一定の閾値よりも小さくなると(ステップS27のYES)、得られたTi+1をステップS29に記載の式を用いて、ジオメトリデータと身体特徴量を要素とするパラメータ空間のm次元ベクトルDi+1に変換する(ステップS29)。 When the distance between T i + 1 and T i is smaller than a certain threshold value (YES in step S27), the obtained T i + 1 is a parameter having geometric data and body features as elements using the equation described in step S29. The space is converted into an m-dimensional vector D i + 1 (step S29).

なお、ユーザの入力する身体特徴量は収束計算の目標値であって、算出された身体特徴量が必ずしも入力値と一致するとは限らない。すなわち、n次元直交空間の体形座標値で表現できる範囲内で目標値への最短距離に収束させているから、入力された身体特徴量と算出された身体特徴量が不一致の場合もある。但し、不一致の場合とは、多変量解析したt個の身体特徴量を含む全身相同モデルHに比べて、身体特徴量間の比率が大きく異なる場合であり、平均的な体形の場合は、合致するか、合致しなくとも近い値となる。 Note that the body feature amount input by the user is a target value for convergence calculation, and the calculated body feature amount does not necessarily match the input value. That is, since the convergence is made to the shortest distance to the target value within the range that can be expressed by the body coordinate values of the n-dimensional orthogonal space, the input body feature quantity may not match the calculated body feature quantity. However, the case of mismatch, as compared to systemic homology model H i containing the t body feature amounts multivariate analysis, the case where the ratio between the body characteristic amount is greatly different, if the average body shape, Matches or is close even if it does not match.

得られたm次元ベクトルDi+1の各要素から3次元コンピュータグラフィックスモデルのジオメトリデータを抽出し、体形の3次元コンピュータグラフィックスモデルを第2のコンピュータ106の画面に表示すると共に、身体特徴量のデータを抽出して、その値を画面に表示する(ステップS30)。 The geometry data of the three-dimensional computer graphics model is extracted from each element of the obtained m-dimensional vector D i + 1 , the three-dimensional computer graphics model of the body shape is displayed on the screen of the second computer 106, and the body feature amount Data is extracted and the value is displayed on the screen (step S30).

ユーザは、第2のコンピュータ106の画面に表示された3次元コンピュータグラフィックスモデルの画像及び身体特徴量を参照し、自身の体形と十分に近づいたかどうかを判断し(ステップS31)、不十分であれば(ステップS31のNO)、入力情報を修正し(ステップS32)、ステップS22に戻って、3次元コンピュータグラフィックスモデルの再構築を行なう。表示された3次元コンピュータグラフィックスモデルの画像及び身体特徴量がユーザ自身の体形に十分近づいたと判断すると(ステップS31のYES)、本フローは終了する。   The user refers to the image of the three-dimensional computer graphics model and the body feature amount displayed on the screen of the second computer 106 to determine whether or not the body shape is sufficiently close (step S31). If there is (NO in step S31), the input information is corrected (step S32), and the process returns to step S22 to reconstruct the three-dimensional computer graphics model. If it is determined that the displayed image of the three-dimensional computer graphics model and the body feature amount are sufficiently close to the user's own body shape (YES in step S31), this flow ends.

上記により、ユーザは、特徴的な体形への帰属度(重み係数)と、身体特徴量を入力するだけで、自身の3次元コンピュータグラフィックスモデルの画像を得ることができる。作成されたユーザの3次元コンピュータグラフィックスモデルやジオメトリデータ、身体特徴量は、第1のサーバ103に登録したり、第2のコンピュータ106に記憶するようにして、再度ウェブサイトにアクセスしたときに、容易に3次元コンピュータグラフィックスモデルを作成できるようにすることが好適である。   As described above, the user can obtain an image of his / her three-dimensional computer graphics model only by inputting the degree of attribution (weighting coefficient) to the characteristic body shape and the body feature amount. When the created user's 3D computer graphics model, geometry data, and body features are registered in the first server 103 or stored in the second computer 106, the website is accessed again. It is preferable that a three-dimensional computer graphics model can be easily created.

作成された3次元コンピュータグラフィックスモデルの画像は、衣服のバーチャル試着に用いることができる。   The created image of the three-dimensional computer graphics model can be used for virtual fitting of clothes.

<第2の体形CGモデル作成フロー(図11及び図12)>
上記では、ユーザの身体特徴量の値と、特徴的な体形へのユーザ自身の主観的帰属度(重み係数)を入力することで3次元コンピュータグラフィックスモデルの画像を作成しているが、3次元スキャナ装置102によって、ユーザの全身を走査撮像して、ユーザの全身形状の3次元実測データを取得し、得られた3次元実測データ及び計測時の身体特徴量から作成したユーザの身体特徴量を含む全身相同モデルのデータ、及びユーザの現在の身体特徴量の値の入力によって3次元コンピュータグラフィックスモデルの画像を作成することもできる。この方法では3次元スキャナ装置102による実測時から現在に至る経時的な体形の変化がある場合でも、現在の身体特徴量をユーザが入力することにより、現在のユーザの体形を推論して再現することができる。
<Second Body CG Model Creation Flow (FIGS. 11 and 12)>
In the above description, an image of a three-dimensional computer graphics model is created by inputting the user's body feature value and the user's own subjective degree of attachment (weighting factor) to a characteristic body shape. The three-dimensional scanner device 102 scans and captures the whole body of the user, acquires three-dimensional actual measurement data of the user's whole body shape, and creates the user's body feature amount from the obtained three-dimensional actual measurement data and the body feature amount at the time of measurement. An image of a three-dimensional computer graphics model can also be created by inputting the data of the whole body homologous model including and the value of the user's current body feature value. In this method, even if there is a change in body shape over time from the actual measurement by the three-dimensional scanner device 102 to the present, the user's current body feature value is input by the user to infer and reproduce the current user's body shape. be able to.

すなわち、体形に即した三次元コンピュータグラフィックスモデル及びその画像を作成する方法であって、
ユーザの全身形状の三次元実測データ及び実測時の身体特徴量から身体特徴量を含む全身相同モデルを作成し、パラメータ空間上での個体座標値を求めて体形空間へ写像することで、体形空間上での個体座標値を得て、記憶するステップ、
前記ユーザの現在の身体特徴量を入力し、収束計算を行うことで現在のユーザの体形空間上での体形座標値を求め、求められた体形座標値をパラメータ空間上へ写像することで、前記ユーザの全身相同モデルにおける各頂点座標値を求め、3次元コンピュータグラフィックスモデルとしてコンピュータ画面上に表示することで、前記ユーザの三次元コンピュータグラフィックスモデルとその画像を得るステップ、
を含んでいる。
That is, a method of creating a three-dimensional computer graphics model conforming to a body shape and an image thereof,
Create a whole body homology model that includes body features from 3D measurement data of the user's whole body shape and body features at the time of measurement, and obtain individual coordinate values on the parameter space and map them to the body space. Obtaining and storing individual coordinate values above,
By inputting the current body feature of the user and performing convergence calculation, the body coordinate value on the body shape space of the current user is obtained, and the obtained body coordinate value is mapped onto the parameter space, Obtaining each vertex coordinate value in the user's whole body homology model and displaying it on a computer screen as a three-dimensional computer graphics model, thereby obtaining the user's three-dimensional computer graphics model and its image;
Is included.

より詳細には、フローチャート図11に示すように、ユーザは、第2のコンピュータ106から、上記した実測全身相同モデルHに含まれる身体特徴量のうち、s個の身体特徴量の値(b、b、…、b)と、実測によるユーザ体形全身相同モデルのジオメトリデータと身体特徴量を要素とするm次元ベクトルSを作成し、入力する(ステップS41)。 More specifically, as shown in the flow chart diagram 11, the user, the second computer 106, among the physical feature amount included in the actual systemic homology model H i described above, s pieces of the body characteristic amount value (b 1 , b 2 ,..., B s ), and the m-dimensional vector S having the elements of the body shape whole body homologous model of the user's body shape by actual measurement and body features are created and input (step S41).

なお、身体特徴量の値は、ユーザが第2のコンピュータ106から入力しているが、3次元スキャナ装置102で実測したデータを第1のコンピュータ101で相同モデル化し、第1のサーバ103に記憶させたものを、3次元コンピュータグラフィックスモデルの画像を作成するコンピュータ(第2のコンピュータ106もしくは第1のサーバ103)に読み込んでもよい。   The body feature value is input from the second computer 106 by the user, but the data measured by the three-dimensional scanner device 102 is converted into a homologous model by the first computer 101 and stored in the first server 103. You may read into the computer (2nd computer 106 or 1st server 103) which produces the image of a three-dimensional computer graphics model.

次に、ステップS42に記載の式によりn次元の体形座標値の初期値Tを得る(ステップS42)。 Next, the formula to obtain the initial value T 0 in form coordinate values of an n-dimensional by described in step S42 (step S42).

得られた体形座標値Tを、ユーザにより入力された身体特徴量に基づいて、ユーザの体形座標値に近づくように収束させる。なお、ステップS44〜ステップS48は、上記したステップS24〜ステップS28と同様であるため、説明を省略する。 Based on the body feature value input by the user, the obtained body coordinate value T 0 is converged so as to approach the user's body coordinate value. Steps S44 to S48 are the same as Steps S24 to S28 described above, and thus description thereof is omitted.

ステップS47にて得られたTi+1―Tのベクトルの長さ、すなわちTi+1とTとの距離が一定の閾値よりも小さくなると(ステップS47のYES)、得られたTi+1をステップS49に記載の式を用いて、m次元ジオメトリデータと身体特徴量を要素とするパラメータ空間のm次元ベクトルDi+1に変換する(ステップS49)。 When the length of the vector T i + 1 −T i obtained in step S47, that is, the distance between T i + 1 and T i becomes smaller than a certain threshold value (YES in step S47), the obtained T i + 1 is changed to step S49. Is converted into an m-dimensional vector D i + 1 in a parameter space having m-dimensional geometry data and body features as elements (step S49).

得られたm次元ベクトルDi+1の各要素から3次元コンピュータグラフィックスモデルのジオメトリデータを抽出し、体形の3次元コンピュータグラフィックスモデルを第2のコンピュータ106の画面に表示すると共に、身体特徴量のデータを抽出して、その値を画面に表示する(ステップS50)。 The geometry data of the three-dimensional computer graphics model is extracted from each element of the obtained m-dimensional vector D i + 1 , the three-dimensional computer graphics model of the body shape is displayed on the screen of the second computer 106, and the body feature amount Data is extracted and the value is displayed on the screen (step S50).

上記により、ユーザは、実測したユーザの体形データと現在の身体特徴量を入力することで、自身の3次元コンピュータグラフィックスモデルの画像を得ることができる。   As described above, the user can obtain an image of his / her three-dimensional computer graphics model by inputting the actually measured body shape data and the current body feature amount.

作成された3次元コンピュータグラフィックスモデルの画像は、衣服のバーチャル試着に用いることができる。   The created image of the three-dimensional computer graphics model can be used for virtual fitting of clothes.

たとえば、衣服を通信販売者が、ネットワーク105上の第2のサーバ104に、衣服の画像やサイズなどのデータを格納しておき、ユーザが、衣服を通信販売ウェブサイト上で衣服を選択すると、第1のサーバ103にリンクして、ユーザに対して予め作成された自身の3次元コンピュータグラフィックスモデルの画像110に、図13及び図14に示すように選択された衣服(図13はシャツ111、図14はシャツ111とズボン112)を着衣させ、試着した3次元コンピュータグラフィックスモデル及びその画像を作成して、前記第2のコンピュータ106の画面に表示すればよい。   For example, when a mail-order seller stores data such as the image and size of the clothes in the second server 104 on the network 105 and the user selects the clothes on the mail-order website, Linked to the first server 103, an image 110 of the user's own three-dimensional computer graphics model created in advance for the user is selected as shown in FIG. 13 and FIG. In FIG. 14, a shirt 111 and trousers 112) are put on, and a try-on 3D computer graphics model and an image thereof are created and displayed on the screen of the second computer 106.

これにより、ユーザは、サイジングの問題を気にすることなく、インターネットを用いた通信販売を利用することができる。   Thereby, the user can use mail order using the Internet without worrying about the problem of sizing.

上記実施例の説明は、本発明を説明するためのものであって、特許請求の範囲に記載の発明を限定し、或は範囲を減縮するように解すべきものではない。又、本発明の各部構成は上記一実施形態に限らず、特許請求の範囲に記載の技術的範囲内で種々の変形が可能であることは勿論である。   The above description of the embodiments is for explaining the present invention and should not be construed as limiting the invention described in the claims or reducing the scope thereof. Moreover, each part structure of this invention is not restricted to the said one Embodiment, Of course, a various deformation | transformation is possible within the technical scope as described in a claim.

たとえば、作成された3次元コンピュータグラフィックスモデル及びその画像は、バーチャル試着に限定されず、種々の用途に利用することができる。   For example, the created three-dimensional computer graphics model and its image are not limited to virtual fitting, and can be used for various purposes.

また、本発明は、ネットワークを接続せずに、スタンドアロンのコンピュータのみで実施することも可能であることは、上記説明より明らかである。   Further, it is apparent from the above description that the present invention can be implemented only by a stand-alone computer without connecting a network.

101 第1のコンピュータ
103 第1のサーバ
104 第2のサーバ
106 第2のコンピュータ
110 3次元コンピュータグラフィックスモデルの画像
101 First computer 103 First server 104 Second server 106 Second computer 110 Three-dimensional computer graphics model image

Claims (9)

体形に即した三次元コンピュータグラフィックスモデル及びその画像を作成する方法であって、
人間の全身形状の三次元実測データから全身相同モデルを作成し、作成された全身相同モデルの各頂点のユークリッド座標値と、身体特徴量とを要素とするベクトルをパラメータ空間における個体座標値とし、複数の個体に対する個体座標値を多変量解析することにより主成分ベクトルを求め、前記主成分ベクトルを直交基底とする体形空間を構成し、前記複数の個体から特徴的な複数の体形のタイプを抽出して、前記特徴的な複数の体形のタイプの身体特徴量を含む全身相同モデルのパラメータ空間上での個体座標値を前記体形空間上に写像して得られた体形別個体座標値を記憶するステップ、
ユーザの身体特徴量を入力するとともに、前記特徴的なu個の複数の体形のタイプの身体特徴量を含む全身相同モデルへの帰属度を入力することにより、体形空間上で前記体形別個体座標値の重み付き平均による合成座標値を求め、求められた合成座標値をパラメータ空間上へ写像することで、前記ユーザの全身相同モデルにおける各頂点座標値を求め、3次元コンピュータグラフィックスモデル及び身体特徴量の少なくとも1つをコンピュータ画面上に表示することで、前記ユーザの三次元コンピュータグラフィックスモデルとその画像を得るステップと、
を含んでいることを特徴とするユーザの3次元コンピュータグラフィックスモデル及びその画像を作成する方法。
A three-dimensional computer graphics model conforming to a body shape and a method for creating an image thereof,
Create a whole body homology model from the three-dimensional measurement data of the human whole body shape, and use the Euclidean coordinate value of each vertex of the created whole body homology model and the vector that has the body features as individual coordinate values in the parameter space, A principal component vector is obtained by multivariate analysis of individual coordinate values for a plurality of individuals, a body shape space having the principal component vector as an orthogonal basis is formed, and a plurality of characteristic body shape types are extracted from the plurality of individuals. Then, the individual body coordinate values obtained by mapping the individual coordinate values on the parameter space of the whole body homology model including the body feature amounts of the plurality of characteristic body types onto the body space are stored. Step,
By inputting the body feature of the user and the degree of belonging to the whole body homologous model including the body features of the plurality of characteristic u body types, the body separate body coordinates in the body space By obtaining a composite coordinate value by a weighted average of values and mapping the obtained composite coordinate value onto a parameter space, each vertex coordinate value in the whole body homology model of the user is obtained, and a three-dimensional computer graphics model and a body Displaying at least one of the feature quantities on a computer screen to obtain the user's three-dimensional computer graphics model and its image;
A three-dimensional computer graphics model of a user and a method of creating an image thereof.
コンピュータを用いて、ユーザの体形に応じた3次元コンピュータグラフィックスモデル及びその画像を作成する方法であって、
(1) 第1のコンピュータが、t個の個体について、全身形状の3次元実測データを取得し、各個体の全身相同モデルを構成するジオメトリデータと、各個体の身体特徴量を含むm個の要素を成分とする個人ごとの身体特徴量を含む全身相同モデルH(但し、i=1〜t)を得るステップ、
(2) 前記第1のコンピュータが、得られたt個の身体特徴量を含む全身相同モデルHを多変量解析し、累積寄与率が一定の閾値を越えるn個(但し、n<m)の主成分を抽出するステップ、
(3) 前記抽出した主成分について、身体特徴量を含む全身相同モデルHと同じ成分構成をもつ身体特徴量を含む全身相同モデル個体の主成分得点を成分とするn次元直交座標値である体形座標値に変換するステップ、
(4) 前記身体特徴量を含む全身相同モデルHから、u個の複数の特徴的な体形の個体を抜き出し、ステップ(3)により特徴的な体形別個体座標値を求め、ネットワークを介してユーザに提供する第1のサーバに特徴的な前記体形別個体座標値を記憶するステップ、
(5) 前記ネットワークに接続された第2のコンピュータを用い、前記第1のサーバに記憶された身体特徴量を含む全身相同モデルに含まれる身体特徴量のうち、ユーザが、入力要素として選んだ身体特徴量の値と、ステップ(4)にて得られた体形別個体座標値へのユーザ自身の主観的帰属度を入力するステップ、
(6) 前記第1のサーバもしくは第2のコンピュータが、体形別個体座標値をステップ(5)の前記主観的帰属度で重み付けして演算をし、ユーザの体形座標値を得るステップ、
(7) 前記第1のサーバもしくは第2のコンピュータが、前記ユーザの体形座標値を、個体を定義するパラメータ空間のベクトルに変換するステップ、
(8) 前記第1のサーバもしくは第2のコンピュータが、前記ベクトルの要素のうち、少なくとも1つの要素をユーザの身体特徴量に置き換えるステップ、
(9) 前記第1のサーバもしくは第2のコンピュータが、前記個体を定義するパラメータ空間のベクトルを直交空間の個体座標に変換するステップ、
(10) 前記第1のサーバもしくは第2のコンピュータが、ステップ(7)〜ステップ(9)を繰り返し、個体座標の収束解を得るステップ、
(11) 前記第1のサーバもしくは第2のコンピュータが、ステップ(10)で得られた個体座標の収束解をユーザの体形座標値とし、パラメータ空間のベクトルに変換して、ジオメトリデータと身体特徴量を得、ネットワークを介して、あるいは直接ユーザの3次元コンピュータグラフィックスモデルとジオメトリデータ以外の身体特徴量を前記第2のコンピュータの画面上に表示するステップと、
を含んでいることを特徴とするユーザの3次元コンピュータグラフィックスモデル及びその画像を作成する方法。
A method of creating a three-dimensional computer graphics model corresponding to a user's body shape and an image thereof using a computer,
(1) The first computer acquires three-dimensional actual measurement data of the whole body shape for t individuals, and includes m pieces of geometric data constituting a whole body homologous model of each individual, and body features of each individual Obtaining a whole-body homology model H i (where i = 1 to t) including body features for each individual whose elements are components;
(2) the first computer, and multivariate analysis of systemic homology model H i containing body feature amount of the t obtained, n pieces of cumulative contribution ratio exceeds a certain threshold (where, n <m) Extracting the principal components of
(3) The extracted principal component is an n-dimensional orthogonal coordinate value whose component is a principal component score of a whole body homologous model individual including a body feature amount having the same component configuration as the whole body homology model H i including the body feature amount. Converting to body coordinates,
(4) From the whole body homology model H i including the body feature amount, u individual individuals having a plurality of characteristic body shapes are extracted, and characteristic body shape distinct body coordinate values are obtained in step (3), via a network. Storing the distinct body coordinate values characteristic of the first server provided to the user;
(5) Using the second computer connected to the network, the user has selected as an input element among the body feature amounts included in the whole body homologous model including the body feature amount stored in the first server. A step of inputting the value of the body feature value and the user's own subjective degree of attachment to the discrete body coordinate value obtained in step (4);
(6) A step in which the first server or the second computer weights the body shape distinct body coordinate value by the subjective degree of attribution in step (5) to obtain a body shape coordinate value of the user;
(7) The first server or the second computer converts the body coordinate value of the user into a vector in a parameter space that defines an individual,
(8) The first server or the second computer replaces at least one of the elements of the vector with a user's body feature.
(9) The first server or the second computer converts a parameter space vector defining the individual into individual coordinates in an orthogonal space;
(10) The first server or the second computer repeats steps (7) to (9) to obtain a convergent solution of individual coordinates,
(11) The first server or the second computer converts the convergent solution of the individual coordinates obtained in step (10) into a body shape coordinate value of the user, converts it into a parameter space vector, and generates geometry data and body features. Obtaining a quantity and displaying body features other than the user's 3D computer graphics model and geometry data on the screen of the second computer via a network or directly;
A three-dimensional computer graphics model of a user and a method of creating an image thereof.
前記第1のサーバもしくは第2のコンピュータは、前記ステップ(11)の後、前記第2のコンピュータにより、ユーザが主観的帰属度を調整すると、前記ステップ(5)に戻る、
請求項2に記載のユーザの3次元コンピュータグラフィックスモデル及びその画像を作成する方法。
After the step (11), the first server or the second computer returns to the step (5) when the user adjusts the subjective belonging degree by the second computer.
The method of creating a three-dimensional computer graphics model of a user and an image thereof according to claim 2.
前記第1のサーバもしくは第2のコンピュータは、前記第2のコンピュータにより、ステップ(11)にて表示された身体特徴量をユーザの入力により修正すると、前記ステップ(5)に戻る、
請求項2又は請求項3に記載のユーザの3次元コンピュータグラフィックスモデル及びその画像を作成する方法。
The first server or the second computer returns to the step (5) when the body feature amount displayed in the step (11) is corrected by a user input by the second computer.
4. A method of creating a three-dimensional computer graphics model of a user and an image thereof according to claim 2 or claim 3.
前記ステップ(4)にて抜き出されるu個の特徴的な体形の個体は、洋ナシ型体形、リンゴ型体形、筋肉型体形、非筋肉型体形である、請求項2乃至請求項4の何れかに記載の3次元コンピュータグラフィックスモデル及びその画像を作成する方法。   The individual body having u characteristic shapes extracted in the step (4) is a pear shape, an apple shape, a muscle shape, or a non-muscle shape, according to any one of claims 2 to 4. A method for creating a three-dimensional computer graphics model and an image thereof. 前記第2のコンピュータを用いて、前記ステップ(5)にてユーザが入力要素として選ぶs個の身体特徴量には、身長、体重、股下長、袖丈、胸囲、腹囲、腰囲、首周り、年齢の少なくとも1を含んでいる、
請求項2乃至請求項5の何れかに記載の3次元コンピュータグラフィックスモデル及びその画像を作成する方法。
Using the second computer, the s body feature values that the user selects as input elements in the step (5) include height, weight, inseam length, sleeve length, chest circumference, waist circumference, waist circumference, neck circumference, Contains at least one of the ages,
6. The three-dimensional computer graphics model according to claim 2 and a method for creating an image thereof.
前記ステップ(5)におけるu個の体形別個体座標値へのユーザ自身の主観的帰属度は、前記第2のコンピュータの画面上に表示されるスライドバーをユーザがスライドさせることにより調整される、
請求項2乃至請求項6の何れかに記載の3次元コンピュータグラフィックスモデル及びその画像を作成する方法。
The user's own subjective degree of attachment to u body shape distinct body coordinate values in the step (5) is adjusted by the user sliding a slide bar displayed on the screen of the second computer.
The three-dimensional computer graphics model according to any one of claims 2 to 6, and a method for creating an image thereof.
請求項2乃至請求項7に記載の3次元コンピュータグラフィックスモデル及びその画像を作成する方法により得られたユーザの3次元コンピュータグラフィックスモデル及びその画像を用いて衣服をバーチャル試着する方法であって、
第2のサーバに記憶された試着する衣服を、前記第2のコンピュータを用いて、選択して入力する衣服入力ステップ、
前記第1のサーバもしくは第2のコンピュータは、前記第2のサーバに記憶され、前記衣服入力ステップにて選択された衣服を、前記ユーザの3次元コンピュータグラフィックスモデルに着衣させ、試着した3次元コンピュータグラフィックスモデル及びその画像を作成し、前記第2のコンピュータの画面に表示する試着ステップと、
を含んでいることを特徴とするバーチャル試着方法。
A method for virtually trying on a garment using a 3D computer graphics model of a user obtained by the 3D computer graphics model according to claim 2 and a method of creating the image and an image thereof. ,
A clothing input step of selecting and inputting clothing to be tried on stored in the second server using the second computer;
The first server or the second computer is stored in the second server, and the clothes selected in the clothes input step are put on the user's three-dimensional computer graphics model and tried on. A try-on step of creating a computer graphics model and its image and displaying it on the screen of the second computer;
Virtual fitting method characterized by containing.
コンピュータを用いて、ユーザの体形に応じた3次元コンピュータグラフィックスモデル及びその画像を作成するシステムであって、
t個の個体について、全身形状の3次元実測データを取得し、各個体の全身相同モデルを構成するジオメトリデータと、各個体の身体特徴量を含むm個の要素を成分とする個人ごとの身体特徴量を含む全身相同モデルH(但し、i=1〜t)を得、得られたt個の身体特徴量を含む全身相同モデルHを多変量解析し、累積寄与率が一定の閾値を越えるn個(但し、n<m)の主成分を抽出し、t個の身体特徴量を含む全身相同モデルHの中からu個の特徴的な体形の個体を抜き出し、前記抽出した主成分について、身体特徴量を含む全身相同モデルHと同じ成分構成をもつ全身相同モデル個体の主成分得点を成分とするn次元直交座標値である体形座標値に変換し、特徴的な体形別個体座標値を求める第1のコンピュータと、
前記第1のコンピュータから、ネットワークを介してユーザに提供すると共に、特徴的な前記体形別個体座標値を記憶する第1のサーバと、
前記ネットワークに接続され、前記第1のサーバに記憶された身体特徴量を含む全身相同モデルに含まれる身体特徴量のうち、ユーザが、入力要素として選んだ身体特徴量の値と、得られた体形別個体座標値へのユーザ自身の主観的帰属度を入力する第2のコンピュータと、を具え、
前記第1のサーバもしくは第2のコンピュータは、体形別個体座標値を前記主観的帰属度で重み付けして演算をし、ユーザの体形座標値を得、前記ユーザの体形座標値を、個体を定義するパラメータ空間のベクトルに変換し、前記ベクトルの要素のうち、少なくとも1つの要素をユーザの身体特徴量に置き換え、前記個体を定義するパラメータ空間のベクトルを直交空間の個体座標に変換し、個体座標の収束解を得、得られた個体座標の収束解をユーザの体形座標値とし、パラメータ空間のベクトルに変換して、ジオメトリデータと身体特徴量を得、ネットワークを介して、あるいは直接ユーザの3次元コンピュータグラフィックスモデルとジオメトリデータ以外の身体特徴量を前記第2のコンピュータの画面上に表示する、
ことを特徴とするユーザの3次元コンピュータグラフィックスモデル及びその画像を作成するシステム。
A system that uses a computer to create a three-dimensional computer graphics model corresponding to a user's body shape and an image thereof,
For t individuals, three-dimensional actual measurement data of the whole body shape is acquired, and the body of each individual whose components are m elements including the body data of each individual and the geometric data constituting the whole body homology model of each individual A whole body homology model H i including feature quantities (where i = 1 to t) is obtained, the obtained whole body homology model H i including t body feature quantities is subjected to multivariate analysis, and a threshold with a constant cumulative contribution rate is obtained. n number exceeding (where, n <m) to extract the principal components of extracts the individual u-number characteristic form from among systemic homology model H i containing the t body feature amounts, primarily with the extracted The component is converted into a body coordinate value that is an n-dimensional orthogonal coordinate value using the principal component score of the whole body homologous model individual having the same component configuration as the whole body homology model H i including the body feature amount, and classified according to the characteristic body shape. A first computer for obtaining individual coordinate values;
A first server that provides the user from the first computer via a network and stores the distinct body shape coordinate values;
Among the body feature quantities included in the whole body homology model that is connected to the network and stored in the first server, the body feature quantity value selected by the user as an input element is obtained. A second computer for inputting the user's own subjective degree of attachment to body shape distinct body coordinate values;
The first server or the second computer performs calculation by weighting the body shape separate body coordinate values by the subjective belonging degree, obtains the body shape coordinate value of the user, and defines the individual body shape coordinate value as the individual. To a parameter space vector, and at least one of the elements of the vector is replaced with a body feature of the user, the vector of the parameter space defining the individual is converted into individual coordinates in orthogonal space, and individual coordinates The convergence solution of the obtained individual coordinates is used as the body shape coordinate value of the user and converted into a parameter space vector to obtain geometry data and body features, via the network or directly by the user 3 Displaying physical features other than the three-dimensional computer graphics model and the geometry data on the screen of the second computer;
A system for creating a three-dimensional computer graphics model of a user and an image thereof.
JP2013154600A 2013-07-25 2013-07-25 Method for creating three-dimensional computer graphics model and its image, system therefor, and virtual try-on method Pending JP2015026186A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2013154600A JP2015026186A (en) 2013-07-25 2013-07-25 Method for creating three-dimensional computer graphics model and its image, system therefor, and virtual try-on method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2013154600A JP2015026186A (en) 2013-07-25 2013-07-25 Method for creating three-dimensional computer graphics model and its image, system therefor, and virtual try-on method

Publications (1)

Publication Number Publication Date
JP2015026186A true JP2015026186A (en) 2015-02-05

Family

ID=52490809

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2013154600A Pending JP2015026186A (en) 2013-07-25 2013-07-25 Method for creating three-dimensional computer graphics model and its image, system therefor, and virtual try-on method

Country Status (1)

Country Link
JP (1) JP2015026186A (en)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018190406A1 (en) * 2017-04-14 2018-10-18 Spiber株式会社 Program, recording medium, information processing method, and information processing device

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018190406A1 (en) * 2017-04-14 2018-10-18 Spiber株式会社 Program, recording medium, information processing method, and information processing device
JP2018180989A (en) * 2017-04-14 2018-11-15 Spiber株式会社 Program, recording media, information processing method, and information processing device

Similar Documents

Publication Publication Date Title
US11599937B2 (en) Digital wardrobe
KR102346320B1 (en) Fast 3d model fitting and anthropometrics
US20150134493A1 (en) Three-dimensional digital media content creation from high-fidelity simulation
KR101671649B1 (en) Method and System for 3D manipulated image combined physical data and clothing data
CN104992464A (en) Virtual garment try-on system and garment try-on method
US20160292779A1 (en) Modification of three-dimensional garments using gestures
JP6647584B1 (en) Information processing device and program
JP6215232B2 (en) Body part measurement
WO2023083183A1 (en) Fitness program information recommendation method and device
EP3925530A1 (en) Body shape data acquisition system, body shape data acquisition program, and computer-readable non-transitory storage medium
Danckaers et al. Posture normalisation of 3D body scans
CN115908701A (en) Virtual fitting method and system based on style3d
CN108509924B (en) Human body posture scoring method and device
JP2015026186A (en) Method for creating three-dimensional computer graphics model and its image, system therefor, and virtual try-on method
KR20190057516A (en) Artificial intelligence total fashion styling system and method using augmented reality
KR20190042493A (en) Systems and methods for automatically generating face correction designs and application protocols for handling identifiable facial deviations
US10083536B2 (en) System for mapping animation from a source character to a destination character while conserving angular configuration
CN114638744B (en) Human body posture migration method and device
WO2022081745A1 (en) Real-time rendering of 3d wearable articles on human bodies for camera-supported computing devices
Tejeda et al. A neural anthropometer learning from body dimensions computed on human 3D meshes
KR20210130420A (en) System for smart three dimensional garment fitting and the method for providing garment fitting service using there of
JPWO2019003429A1 (en) Human body model display system, human body model display method, communication terminal device, and computer program
JP6914569B2 (en) Information processing equipment and programs
CN103208069A (en) Internet clothing try-on system
WO2024069944A1 (en) Information processing device, information processing method, and program