WO2008152931A1 - ニットウェアのシミュレーション方法とその装置及び記憶媒体 - Google Patents

ニットウェアのシミュレーション方法とその装置及び記憶媒体 Download PDF

Info

Publication number
WO2008152931A1
WO2008152931A1 PCT/JP2008/060100 JP2008060100W WO2008152931A1 WO 2008152931 A1 WO2008152931 A1 WO 2008152931A1 JP 2008060100 W JP2008060100 W JP 2008060100W WO 2008152931 A1 WO2008152931 A1 WO 2008152931A1
Authority
WO
WIPO (PCT)
Prior art keywords
image
knitwear
human body
body model
viewpoint
Prior art date
Application number
PCT/JP2008/060100
Other languages
English (en)
French (fr)
Inventor
Shinji Yamamoto
Original Assignee
Shima Seiki Manufacturing, Ltd.
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Shima Seiki Manufacturing, Ltd. filed Critical Shima Seiki Manufacturing, Ltd.
Priority to EP08753121.6A priority Critical patent/EP2159755A4/en
Priority to JP2009519222A priority patent/JP5161213B2/ja
Priority to CN2008800197794A priority patent/CN101689307B/zh
Publication of WO2008152931A1 publication Critical patent/WO2008152931A1/ja

Links

Classifications

    • AHUMAN NECESSITIES
    • A41WEARING APPAREL
    • A41HAPPLIANCES OR METHODS FOR MAKING CLOTHES, e.g. FOR DRESS-MAKING OR FOR TAILORING, NOT OTHERWISE PROVIDED FOR
    • A41H3/00Patterns for cutting-out; Methods of drafting or marking-out such patterns, e.g. on the cloth
    • A41H3/007Methods of drafting or marking-out patterns using computers
    • DTEXTILES; PAPER
    • D04BRAIDING; LACE-MAKING; KNITTING; TRIMMINGS; NON-WOVEN FABRICS
    • D04BKNITTING
    • D04B37/00Auxiliary apparatus or devices for use with knitting machines
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F30/00Computer-aided design [CAD]
    • G06F30/20Design optimisation, verification or simulation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T15/003D [Three Dimensional] image rendering
    • G06T15/50Lighting effects
    • G06T15/60Shadow generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F2113/00Details relating to the application field
    • G06F2113/12Cloth

Definitions

  • the present invention relates to the simulation of a state in which the wear is worn on a human body model, etc., in particular, a simulation that expresses details of yarn such as fluff and the shadow that knitwear has on the human body model.
  • a simulation that expresses details of yarn such as fluff and the shadow that knitwear has on the human body model is about. Background art
  • the inventor has developed a knitwear simulation method.
  • the simulation is performed in 3D, and the human body model simulates the state where the wearer is worn from above, the realistic simulation expresses the details of the yarn such as fluff, and the shadow that the knitwear gives to the human body model etc.
  • yarn can be represented by a pipe
  • fluff can be represented by a fine pipe protruding from the yarn body.
  • this increases the time required for the simulation.
  • the knitwear casts a shadow on the human body model, but it is difficult to find this shadow by ray tracing based on the knitwear thread.
  • Patent Document 1 discloses a technique for expressing the fluff of yarn by 2D simulation of knitwear.
  • Patent Document 2 discloses a technique for expressing the fluff of yarn by 2D simulation of knitwear.
  • Patent Document 3 discloses that knitwear is virtually mounted on a human body model and the knitwear is simulated in 3D. Disclosure of the invention
  • An object of the present invention is to realistically simulate knitwear with fluffy stitches, simulate shadows of human clothing on the human body model, and perform these simulations. Is to do at high speed. Means for solving the problem
  • the present invention relates to a method for simulating a state in which a human body model is wearing a knitwear by using knitwear design data and yarn data and a three-dimensional image of the human body model.
  • the method further includes the step of preparing an image of the fabric worn by the human body model on the inside of the two-wear.
  • the power image of the human body model and the color image of the fabric are darkened with a lower position resolution than the stitches in the shadow part of the knitwear,
  • the color image of the human body model, the color image of the fabric, and the two-dimensional color image of the knitwear are synthesized using the image of the opacity of the contemplatre.
  • the fabric image is a 3D image for fabrics that are easy to simulate, and for a knitted fabric, a 2D color image similar to a knitwear and 2D opacity.
  • it is an image.
  • the viewpoint position and the light source position the two-dimensional force image of the human body model and an image showing the position in the depth direction from the viewpoint, and the two-dimensional color image of Fabric and the depth direction from the viewpoint.
  • the range where the software image overlaps the human model image is determined as the shadow part of the software
  • the image synthesis is performed by obtaining the front-rear relationship of the human body model, the fabric, and the network with respect to the viewpoint based on the three images indicating the positions in the depth direction.
  • a two-dimensional force image of the human body model and an image showing the position in the depth direction from the viewpoint and a two-dimensional color image of Fabric and the depth direction from the viewpoint.
  • the part where the knitwear blocks the light from the light source to the human body model is determined as the shadow part
  • the image composition is performed by obtaining the front-rear relationship of the human body model, the fabric, and the network with respect to the viewpoint based on the three images indicating the positions in the depth direction.
  • a step of obtaining a shadow part of the knitwear in the human body model fabric is performed by obtaining from the position of the stitches in the yarn thread data.
  • a two-dimensional force image of the human body model and an image showing the position in the depth direction from the viewpoint and a two-dimensional color image of Fabric and an image showing the position in the depth direction from the viewpoint
  • a two-dimensional color image of Fabric and an image showing the position in the depth direction from the viewpoint
  • the image synthesis is performed by obtaining the front-rear relationship of the human body model, the fabric, and the software with respect to the viewpoint based on the three images indicating the positions in the depth direction.
  • the present invention also provides an apparatus for simulating a state in which a human body model is wearing a knitwear based on knitwear design data and yarn data and a three-dimensional image of the human body model.
  • the present invention further includes a computer-readable storage for storing a program for simulating a state in which the human body model is wearing the knitwear based on the knitwear design data and yarn data, and the three-dimensional image of the human body model.
  • the computer causes the following steps to be performed:
  • a step that displays a composite image is a step that displays a composite image.
  • the description related to the simulation method applies to the simulation apparatus and the simulation program as it is, and the description related to the simulation apparatus also applies to the simulation method and the simulation program.
  • Fabrics include clothing and scarves and other fabrics and knitwear.
  • the human body model wears the cloth, and simulates the state in which the wear is put on the cloth. The invention's effect
  • the stitch of the wear is expressed not by a 3D model but by a 2D model composed of a yarn body and fluff.
  • fluff is represented by a simple two-dimensional image, not a tube and its polygon in the three-dimensional model.
  • the shadows that n's cast on the human body model are expressed not by ray tracing the shadows of individual threads but by the average shadows of knitwear.
  • the human body model image and the knitwear image are combined using the opacity of the clothing as a parameter.
  • the simulation can be similarly performed when an image of another fabric is arranged between the software and the human body model.
  • the shadow of the knitwear is dropped on the color image of the human body model and the color image of the haploic, and the color image of the human body model and the color of the haploic color are dropped.
  • a single image and a two-dimensional color image of knitwear can be combined using an image of opacity of twear.
  • images of the software, the human body model, and the fabric are each processed as a two-dimensional force image, image composition is easy.
  • an image showing the position in the depth direction is provided for each of the knitwear, the human body model, and the fabric, these front-rear relations can be easily processed.
  • the easiest way to determine the range where the shadow is cast is to determine the overlap of the 2D image such as the color image of the knitwear and the 2D image such as the color image such as the human body model.
  • a shadow is good. This is a model in which the part covered with knitwear is shaded.
  • Shadows are obtained from three images showing the position of the knitwear, the human body model, and the fabric in the depth direction.
  • Ettoware especially the contour of the knitwear, finds the area where the light from the light source is blocked, good. This is a model that uses ray tracing to determine the shadow created by a semi-transparent knitwear with a coarser position resolution than individual yarns.
  • the shadow of the knitwear may be obtained at the stage of the 3D data of the string data, the human body model, and the fabric. At this stage, shadows of individual yarns are not required, but the range of shadows of knitwear can be determined.
  • FIG. 1 is a block diagram of the simulation apparatus of the embodiment.
  • FIG. 2 is a block diagram of the simulation method of the embodiment.
  • FIG. 3 is a diagram showing the process from creation of a color image of the software to shadowing in the embodiment.
  • FIG. 4 is a diagram showing the superposition of the knit structure, the fabric, and the human body model in the example.
  • Fig. 5 is a diagram showing simulation images obtained in the examples.
  • A) to d) show examples in which the knitting data of the knit product is common and only the yarn data is transformed, and e) to! 1) is a partially enlarged view of images a) to.
  • 2 is a simulation device
  • 4 is a path
  • 6 is a stylus
  • 8 is a mouse
  • 10 is a keyboard
  • Manual input may include a trackball or joystick
  • 1 2 is a color monitor
  • 1 4 is a color printer
  • 1 6 is a communication unit, and communicates with a LAN or the Internet.
  • 8 is a disk drive, and it reads from and writes to an appropriate disk.
  • 20 is a design data editing unit, which generates knitwear design data using the stylus 6, mouse 8, keyboard 10 or the like.
  • the data conversion unit converts the design data into knitting data for driving a knitting machine such as a flat knitting machine.
  • the thread line data generator 24 converts the knitting data into thread line data, and this data is three-dimensional data.
  • the connection relation between stitches is shown.
  • the stitch position is specified by a one-dimensional 3D position representing the stitch.
  • the stitch type is added as an attribute.
  • the stitch position is specified by the coordinates of multiple points of the stitch, the stitch type can be determined from the stitch shape, so there is no need to memorize the stitch type!
  • the scene setting unit 26 sets the light source position and viewpoint position in the simulation.
  • the human body model storage unit 30 stores a three-dimensional color image of the human body model
  • the fabric data storage unit 32 stores the clothing made of the fabric that the human body model wears under the knitwear, hereinafter simply referred to as “fabric”. Store color images.
  • the yarn data storage unit 34 stores the color image and opacity of the yarn used in the toner, and the color image of the yarn includes the yarn body portion and the fluff portion.
  • Reference numeral 35 denotes a dressing processing unit for dressing a virtual knitwear on a human body model or fabric using yarn thread data in accordance with WO 2 0 0 5/0 8 2 1 8 5.
  • fabric is not considered, but for example, the fabric is first worn on the human body model, and the worn fabric collides with a rigid body or knit stitch to deform.
  • W0 2 0 0 5/0 8 2 1 8 it is possible to simulate the wearing of knitwear in the same way as W 0 2 0 0 5/0 8 2 1 8 5.
  • the knit drawing unit 3 8 prints a loop image viewed from the viewpoint position of the stitches that have not been hidden in the knitwear's yarn streak data, and connects the loop images to determine the point of view within the knitwear.
  • the two-dimensional force image of the visible part includes the image of the yarn body and the image of the fluff, and the depth direction position (Z coordinate) with respect to the viewpoint and an image indicating the opacity ⁇ of the yarn body and the fluff are added.
  • Image data is, for example, RGB, Z, and.
  • Knit drawing part 3 8 connects individual loop images according to the thread streak data, creates a two-dimensional color image (knitwear layer) of knitwear, and further creates a depth image (Z image) and an image of opacity ⁇ . Create a (mask image).
  • the shadow image creation unit 40 creates an average shadow image that the knitwear has on the human body model or fabric.
  • the ray-tracing section 41 performs ray-tracing on the human body model, fabric and knit images. However, ray tracing will not be performed on how knitwear blocks light from human body models.
  • the fabric shall be opaque, and no ray tracing will be performed to determine whether the fabric will block light to the human body model.
  • the cloth may be translucent and the shadow of the cloth on the human body model may be obtained.
  • the shadow of the cloth on the human body model may be obtained in the same manner as the shadow image creation unit 40 obtains the shadow of the knitwear.
  • the color image of the human body model is converted into a two-dimensional color image viewed from the viewpoint. These two-dimensional color images are called layers.
  • an image showing the position in the depth direction with respect to the viewpoint is added from the 3D data, and ray tracing and shadowing are performed.
  • the color image of the two-dimensional human body model and the color image of the fabric data are obtained and stored in the layer storage unit 42.
  • the human body model stores the image indicating the position in the depth direction of the fabric data in the layer storage unit 42.
  • the layers to be created are knitwear, fabric, human body model, each two-dimensional color image, opacity image (mask image) of knitwear, shadow image of knitwear, and mask image of fabric.
  • the image composition unit 4 4 synthesizes four images: knitwear, human body model, fabric and background. When synthesizing, the image of the opacity ⁇ of the knitwear is used in order to realize a human body model that can be seen through a semi-transparent knit image using the data of the depth position ⁇ ⁇ ⁇ ⁇ with respect to the viewpoint.
  • the obtained image is stored in the image memory 50, displayed on the color monitor 12, and output from the force printer 14 or the communication unit 16.
  • Figure 2 shows the data flow in the example. Convert design data into organization data, Convert to string data.
  • the thread data expresses the stitch position by specifying one to multiple 3D positions for each stitch, and has the stitch type and connection relationship as attributes.
  • Both the human body model and fabric data are 3D color images.
  • the stitches on the thread line data are arranged around the human body model and the fabric.
  • the position of the viewpoint and the light source is set, and the portion of the knitwear that is hidden by the human body model is erased, and the portion of the fabric that is hidden by the human body model is deleted. Convert a 3D color image of a human body model into a 2D color image viewed from the viewpoint.
  • the color image of the fabric is converted into a two-dimensional color image of the fabric viewed from the viewpoint, and the yarn string data of the knitwear is converted into the two-dimensional color image viewed from the viewpoint.
  • the target stitch is a stitch whose hidden surface has not been erased, and a color image of the yarn body and fluff is pasted along the stitch line, and images of these opacity levels are created at the same time. Color images of the yarn body and fluff and their opacity are stored in the yarn data storage unit 34.
  • a stitch image is created when the stitch is viewed from the front, the stitch image is rotated in the direction seen from the viewpoint, and the portion where the yarn overlaps in the depth direction due to the rotation of the stitch, The image is synthesized according to the transparency, and the opacity is increased in the overlapping area. Since the 3D position of the stitch is described in the thread data, the coordinate Z in the depth direction of the stitch with respect to the viewpoint is generated using this. Next, ray tracing is performed within the range of the knitwear so that the yarn on the side far from the light source becomes dark at the overlapping portion of the yarn.
  • ray tracing for light from the light source is performed for the human body model while ignoring the fabric knitwear, and considering the human body model for the fabric and ignoring the knitwear for the light from the light source.
  • the shadow of knitwear is added to the color image of the human body model and the color image of the fabric. This shadow does not represent the shadow of individual yarns in knitwear but is the average shadow of knitwear. After applying the shadow of the knitwear, the images of the layers of the knitwear, the human body model, and the fabric are combined.
  • this image of stitch 62 viewed from the front By rotating this image of stitch 62 viewed from the front, Alternatively, it can be obtained by allocating an image of the thread body and fluff to the string from the viewpoint from the beginning.
  • the yarn body and fluff are given opacity at the yarn data stage, and if the yarn overlaps due to rotation, the opacity is increased at that portion.
  • a two-dimensional color image for one stitch viewed from the viewpoint 65, a depth image, and an opacity image are obtained.
  • a plurality of stitches in the thread data are overlapped, and stitches are overlapped according to the value of Z and opacity ⁇ where the stitches overlap.
  • a two-dimensional color image of the software viewed from the viewpoint 65 is obtained.
  • FIG. 4 shows the shadow model.
  • 70 is the color image layer of knitwear, and the value of the image is P1.
  • 7 1 is the software mask image layer, the image value is CK, 7 2 is the software shadow image layer, and the image value is; 3.
  • 7 5 is the human body
  • the value of the image is ⁇ 3. The positional relationship of these layers with respect to the viewpoint has been processed by the hidden surface removal unit 36, the top layer is the fabric, the middle is the fabric, and the human body model is the top.
  • the shadow image is monochrome, / 3 is one-dimensional, and when the shadow image is color, is three-dimensional data with RGB components.
  • the color shadow has a color value obtained by blurring the color value of the knitwear.
  • a composite image can be easily obtained by the image composition unit 44.
  • the shadow By specifying the intensity of the shadow and the degree of blurring, the shadow can be expressed realistically, and the direction of the light source can be expressed by sliding the shadow.
  • Fig. 5 a) to h) show simulation images in the embodiment.
  • the images of the yarn used are shown in the upper left of a) to d).
  • the human body model and fabric are common, and the design data of knitwear is also common.
  • the simulation images are shown enlarged in e) to h), and the brightness of the human body model seen through the knitwear changes depending on the thickness of the thread.
  • the wearing state of the knitwear with fluff can be simulated. In the embodiment, the following effects can be obtained.
  • the knitwear layer, the human body model layer, and the fabric layer may be combined, and the composition is simple.
  • the simulation apparatus 2 is realized by installing a simulation program in a computer, and the simulation program is read into the computer via a storage medium such as a CD-ROM or a carrier wave.
  • Fig. 2 corresponds to the block diagram of the simulation program.
  • the simulation program executes each process in Fig. 2.

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Textile Engineering (AREA)
  • General Physics & Mathematics (AREA)
  • Computer Graphics (AREA)
  • Computer Hardware Design (AREA)
  • Evolutionary Computation (AREA)
  • Geometry (AREA)
  • General Engineering & Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)

Abstract

 編目の位置と編目間の接続関係、編目の種類を表現した3D糸筋データへ、編成データを変換し、人体モデルや布帛の上から仮想的に着装させる。視点と光源とを設定し、糸筋データでの編目を視点から見た毛羽付きの2D編目画像に変換し、編目画像を重ね合わせ、不透明度と奥行き方向の座標を追加し、ニットウェアのレイヤとする。ニットウェアのレイヤ内でレイトレーシングを行い、ニットウェアによる平均的な影を人体モデルや布帛のレイヤに付け、これらを合成して表示画像とする。ニットウェアの糸本体と毛羽とを表現し、ニットウェアの人体モデルなどへの影を表現したシミュレーション画像を、短時間で高品位に作成できる。

Description

明細書 ニットウエアのシミュレーション方法とその装置及ぴ記憶媒体 技術分野
この発明は、 -ットウエアを人体モデルなどに着装させた状態をシミュレーションする ことに関し、 特に毛羽などの糸の細部を表現し、 かつニットウエアが人体モデルなどに及 ぼす影を表現したシミユレーションに関する。 背景技術
発明者は、 ニットウエアのシミュレーション手法を開発している。 シミュレーションは 3Dで行い、 人体モデルゃフアブリックなどの上からュットウヱァを着装した状態をシミ ュレーシヨンし、 リアルなシミュレーションには毛羽等の糸の細部を表現し、 ニットゥェ ァが人体モデルなどに及ぼす影を表現する必要がある。 3 D画像で糸はパイプで表現でき、 毛羽は糸本体から突き出した微細なパイプで表現できる。 しかしこれはシミュレーション に要する時間を長くする。 次にニットゥヱァは人体モデルなどに影を落とすが、 この影を ニットウエアの糸を元にレイ トレーシングで求めるのは大変である。
ここで関連する先行技術を示す。 特許文献 1 (WO 2003/032203), 特許文献 2 (WO 2004/09021 3)は、 ニットウエアの 2 Dシミュレーションで、 糸の毛羽 を表現する手法を開示している。
特許文献 3 (WO 2005Z082185)は、 ニットウエアを人体モデルに仮想的に着 装させて、 ニットウエアを 3Dでシミュレーシヨンすることを開示している。 発明の開示
発明が解決しようとする課題
この発明の課題は、 毛羽の有る編目でニットウエアをリアルにシミュレーションし、 ェ ットウエアの人体モデルへの影をシミュレーションし、 さらにこれらのシミュレーション を高速で行うことにある。 課題を解決するための手段
この発明は、 ニットウエアのデザインデータ及ぴ糸のデータと、 人体モデルの 3次元画 像とにより、 人体モデルがニットウエアを着装した状態をシミュレーションする方法にお いて、
エツトウエアのデザィンデータを、 編目の 3次元位置と編目間の接続関係を示す糸筋デ ータに変換するステップと、
視点位置と光源位置を決定するステツプと、
糸のデータを用いて、 糸筋データ中の毛羽付きの糸からなる編目を前記視点から見た 2 次元力ラ一画像と不透明度の画像とに変換するステップと、
編目の 2次元カラー画像を糸筋データに従って接続し、 前記視点から見たニットウエア の 2次元力ラ一画像と不透明度の画像とに変換するステツプと、
ニットウエアが光源からの光を遮ることに応じて、 人体モデルのカラー画像を、 ニット ウェアの影の部分で編目よりも低い位置分解能で暗くするステップと、
人体モデルのカラー画像とニットウエアの 2次元カラー画像を、 ニットウエアの不透明 度の画像を用いて合成するステップと、
合成画像を表示するステップ、
とを設けたことを特徴とする。 好ましくは、 前記二ットウ アの内側に前記人体モデルが着用するファブリックの画像 を用意するステップを更に設け、
前記喑くするステツプでは、 人体モデルの力ラ一画像とファブリックのカラ一画像とを、 ニットウエアの影の部分で編目よりも低い位置分解能で暗くし、
前記合成するステップでは、 人体モデルのカラー画像とファブリックのカラー画像及び ニットウエアの 2次元カラー画像を、 エツトウエアの不透明度の画像を用いて合成する。 ファブリックの画像は、 シミュレーションが容易な布帛の場合は 3次元画像とし、 ニッ トフアプリックの場合は、 ニットウヱァと同様の 2次元カラー画像と 2次元の不透明度の 画像とする 好ましくは、 視点位置と光源位置とに従って、 人体モデルの 2次元力ラ一画像と視点か らの奥行き方向の位置を示す画像、 及びフアブリックの 2次元カラー画像と視点からの奥 行き方向の位置を示す画像を作成するステップを設け、
エツトウエアの 2次元カラー画像と不透明度の画像の他に、 ニットウエアの視点からの 奥行き方向の位置を示す画像を作成し、
ュットウエアの画像が人体モデルゃフアプリックの画像と重なる範囲を-ットウエアの 影の部分として求め、
かつ奥行き方向の位置を示す前記 3つの画像により、 人体モデルとファブリックとニッ トウヱァとの、 視点に対する前後関係を求めて前記画像合成を行う。 好ましくは、 視点位置と光源、位置とに従つて、 人体モデルの 2次元力ラ一画像と視点か らの奥行き方向の位置を示す画像、 及びフアブリックの 2次元カラー画像と視点からの奥 行き方向の位置を示す画像を作成するステップを設け、
-ットウエアの 2次元カラー画像と不透明度の画像の他に、 ニットウエアの視点からの 奥行き方向の位置を示す画像を作成し、
奥行き方向の位置を示す前記 3つの画像により、 光源から人体モデルゃフアブリックへ の光をニットウヱァが遮る部分を前記影の部分として求め、
かつ奥行き方向の位置を示す前記 3つの画像により、 人体モデルとファブリックとニッ トウエアとの、 視点に対する前後関係を求めて前記画像合成を行う。 また好ましくは、 前記糸筋データでの編目の位置から、 人体モデルゃフアブリックでの ニットウエアの影となる部分を求めるステップと、
視点位置と光源位置とに従って、 人体モデルの 2次元力ラ一画像と視点からの奥行き方 向の位置を示す画像、 及ぴフアブリックの 2次元カラー画像と視点からの奥行き方向の位 置を示す画像を作成するステップを設けると共に、
-ットウエアの 2次元カラー画像と不透明度の画像の他に、 ニットウエアの視点からの 奥行き方向の位置を示す画像を作成し、
かつ奥 f亍き方向の位置を示す前記 3つの画像により、 人体モデルとファブリックとュッ トウエアとの、 視点に対する前後関係を求めて前記画像合成を行う。 この発明はまた、 ニットウエアのデザインデータ及ぴ糸のデータと、 人体モデルの 3次 元画像とにより、 人体モデルがニットウエアを着装した状態をシミュレーションする装置 において、
ニットゥヱァのデザィンデータを、 編目の 3次元位置と編目間の接続関係を示す糸筋デ ータに変換する手段と、
視点位置と光源位置を決定する手段と、
糸のデータを用いて、 糸筋データ中の毛羽付きの糸からなる編目を前記視点から見た 2 次元カラー画像と不透明度の画像とに変換する手段と、
編目の 2次元カラー画像を糸筋データに従って接続し、 前記視点から見たニットウエア の 2次元力ラ一画像と不透明度の画像とに変換する手段と、
ニットウエアが光源からの光を遮ることに応じて、 人体モデルのカラー画像を、 ニット ウェアの影の部分で編目よりも低い位置分解能で暗くする手段と、
人体モデルのカラー画像とニットウエアの 2次元カラー画像を、 ニットウエアの不透明 度の画像を用いて合成し、 モニタに表示する手段」
とを設けたことを特徴とする。 この発明はさらに、 ニットゥヱァのデザインデータ及び糸のデータと、 人体モデルの 3 次元画像とにより、 人体モデルがニットウエアを着装した状態をシミュレーションするた めのプログラムを記憶した、 コンピュータにより読み取り自在な記憶媒体において、 前記コンピュータにより以下のステップを実行させるものにある :
ニットゥ アのデザインデータを、 編目の 3次元位置と編目間の接続関係を示す糸筋デ ータに変換するステップと、
視点位置と光源位置を決定するステツプと、
糸のデータを用いて、 糸筋データ中の毛羽付きの糸からなる編目を前記視点から見た 2 次元力ラ一画像と不透明度の画像とに変換するステツプと、
編目の 2次元カラー画像を糸筋データに従って接続し、 前記視点から見たニットウエア の 2次元力ラ一画像と不透明度の画像とに変換するステツプと、
ニットウエアが光 からの光を遮ることに応じて、 人体モデルのカラー画像を、 ニット ウェアの影の部分で編目よりも低い位置分解能で暗くするステップと、
人体モデルのカラー画像とニットウ: ァの 2次元カラー画像を、 ニットウエアの不透明 度の画像を用いて合成するステップと、
合成画像を表示するステツプ。
この明細書において、 シミュレーション方法に関する記载はそのままシミュレーション 装置やシミュレーションプログラムにも当てはまり、 逆にシミュレーション装置に関する 記載はそのままシミュレーシヨン方法ゃシミュレーシヨンプログラムにも当てはまる。 フ アブリックは、 衣類やスカーフなどの布帛ゃニットウエアなどである。 実施例では、 人体 モデルが布帛を着用し、 この上からエツトウエアを着装した状態をシミュレーションする 、 中間の布帛はなくても良い。 発明の効果
この発明では、 -ットウエアの編目は 3次元モデルではなく、 糸本体と毛羽とからなる 2次元モデルで表現する。 この結果、 毛羽は、 3次元モデルでのチューブとその表面のポ リゴンではなく、 単なる 2次元画像で表現される。 ニットウ; nァが人体モデルに落とす影 は、 個々の糸による影をレイ トレーシングするのではなく、 ニットウエアによる平均的な 影で表現する。 そして人体モデルの画像とニットウエアの画像を、 エツトウエアの不透明 度をパラメータに用いて合成する。 これらの結果、 毛羽付きのエツトウエアを高速で処理 でき、 ニットゥヱァの影を高速で処理でき、 さらにニットウエアを介して透けて見える人 体モデルを表現できる。 さらにュットウエアと人体モデルとの間に他のファブリックの画像を配置する場合も、 同様にシミュレーションできる。 この場合、 ニットウエアの影を人体モデルのカラー画像 とフアプリックのカラー画像とに落とし、 人体モデルのカラー画像とフアプリックのカラ 一画像とニットウエアの 2次元カラー画像とを、 -ットウエアの不透明度の画像を用いて 合成すれば良い。
ここでエツトウエアと人体モデルとファブリックの画像を各々 2次元力ラ一画像として 処理すると、 画像合成が簡単である。 またニットウエアと人体モデルとファブリックの各 々に対し、 奥行き方向位置を示す画像設けると、 これらの前後関係を簡単に処理できる。
-ットウ: ァが影を落とす範囲を求めるには、 最も簡単にはニットウヱァのカラー画像 などの 2次元画像と人体モデルゃフアプリックなどのカラ一画像等の 2次元画像の重なり を求め、 重なる範囲を影とす と良い。 これはニットウエアに覆われている部分が影にな るとのモデルである。
影は、 ニットウエアと人体モデルとファブリックの奥行き方向位置を示す 3つの画像か ら、 エツトウエアが、 特にニットウエアの輪郭が、 光源からの光を遮る範囲を求めて、 こ の範囲を影としても良い。 これは個々の糸よりも粗い位置分解能で、 半透明なニットウ工 ァが作り出す影をレイトレーシングにより求めるモデルである。
ニットウエアの影は、 糸筋データと人体モデルとファブリックの 3次元データの段階で 求めても良い。 この段階では個々の糸の影は求められないが、 ニットウエアの影の範囲は 求めることができる。 図面の簡単な説明
図 1は実施例のシミュレーシヨン装置のプロック図である。
図 2は実施例のシミュレーション方法のブロック図である。
図 3は実施例での-ットウエアのカラー画像の作成から影付けまでを示す図である。 図 4は実施例での、 ニット組織と布帛と人体モデルとの重ね合わせを示す図である。 図 5は実施例で得られたシミュレーション画像を示す図で、 a)〜d)はニット製品の編成デ ータが共通で糸データのみを変形した例を示し、 e)〜! 1)は a)〜 の画像の部分拡大図であ る。 符号の説明 2 シミュレーション装置 4 パス 6 スタイラス 8 マウス
1 0 キーボード 1 2 カラーモニタ 1 4 カラープリンタ
1 6 通信ュニット 1 8 ディスクドライブ 20 デザインデータ編集部
2 2 データ変換部 24 糸筋データ発生部 26 シーン設定部
3 0 人体モデル記憶部 32 布帛データ記憶部 34 糸データ記憶部
3 5 着装処理部 3 6 隠面消去部 3 8 ニット描画部 40 影画像作成部 4 1 レイ トレーシング部 42 レイヤ記憶部 44 画像合成部
5 0 画像メモリ . 6 0, 6 1 編成コース 6 2, 6 3 編目 64 光源
6 5 視点 70 ニットウエアの画像レイヤー
7 1 ニットウエアのマスク画像レイヤー 7 2 ニットウエアの影の画像レイヤー
7 3 布帛の画像レイヤー 74 布帛のマスク画像レイヤー
7 5 人体モデルの画像レイヤー 発明を実施するための最良の形態
以下にこの発明を実施するための最良の形態を示すが、 これに限るものではない。 実施例
図 1〜図 5に実施例を示す。 各図において、 2はシミュレーション装置で、 4はパスで あり、 6はスタイラス、 8はマウス、 1 0はキーボードで、 これらをマ二ユアノレ入力とし て用いる。 マニュアル入力にはトラックボールやジョイスティックなどを追加してもよい, 1 2はカラーモニタで、 1 4はカラープリンタで、 1 6は通信ユエットで、 LANやイン ターネットとの間で通信し、 1 8はディスクドライブで、 適宜のディスクとの間で読み書 きを行う 20はデザインデータ編集部で、 スタイラス 6やマウス 8, キーボード 1 0などにより ニットウエアのデザインデータを発生させる。 データ変換部は、 デザインデータを、 横編 機などの編機を駆 flするための編成データに変換する。 糸筋データ発生部 24は、 編成デ 一タを糸筋データに変換し、 このデータは 3次元のデータで、 編目の位置と編目の種類並 ぴに編目間の接続関係を示している。 編目の位置は例えば編目を代表する 1点の 3次元位 置で指定され、 この場合、 編目の種類を属性として追加する。 また編目の位置を編み目の 複数の点の座標で指定する場合、 編目の形状から編目の種類が判明するので、 編目の種類 を記憶する必要はな!/、。 シーン設定部 2 6は、 シミュレーションでの光源位置と視点位置 とを設定する。 人体モデル記憶部 3 0は人体モデルの 3次元カラー画像を記憶.し、 布帛データ記憶部 3 2は人体モデルがニットウエアの下に着用する布帛からなる衣類、 以下単に 「布帛」 、 の 3次元カラー画像を記憶する。 これらの 3次元カラー画像は、 ポリゴンとテクスチャーと カゝらなり、 人体モデルは不透明で、 布帛は不透明とするが、 半透明として布帛の不透明度 を記憶しても良い。 糸データ記憶部 3 4は-ットウヱァに用いる糸のカラー画像と不透明 度とを記憶し、 糸のカラ一画像は糸本体の部分と毛羽の部分とを含んでレヽる。
シミュレーションの対象は、 ニットウエアと人体モデル並びに布帛の 3種類、 または二 ットウヱァと人体モデル並びに布帛と背景の 4種類である。 3 5は着装処理部で、 WO 2 0 0 5 / 0 8 2 1 8 5に従い、 糸筋データを用いて仮想的なニットウエアを人体モデルや 布帛に着装させる。 なお W0 2 0 0 5 / 0 8 2 1 8 5では布帛を考慮していないが、 例え ば人体モデルに先に布帛を着装させ、 着装した布帛を剛体もしくはニットの編目と衝突し て変形する弾性体と見なすと、 W〇 2 0 0 5 / 0 8 2 1 8 5と同様に、 ニットウエアの着 装をシミュレーションできる。 3 6は隠面消去部で、 3次元のデータを用い、 ニットゥェ ァゃ布帛及び人体モデルのうちで、 視点から見えない部分を、 シミュレーション対象から 外す。 ニット描画部 3 8は、 ニットウエアの糸筋データ中で隠面消去されずに残つた編目を、 視点位置から見たループ画像を插画し、 ループ画像を接続してニットウエアの内で視点か ら見える部分の 2次元力ラ一画像とする。 この画像には糸本体の画像と毛羽の画像とが含 まれ、 かつ視点に対する奥行き方向位置(Z座標)と、 糸本体や毛羽の不透明度 αを示す画 像とが付加されている。 画像データは例えば R G Bと、 Z並びに である。 ニット描画部 3 8は、 個々のループの画像を糸筋データに従って接続し、 ニットウエアの 2次元カラー 画像(ニットウエアのレイヤ)を作成し、 さらに奥行き画像(Z画像)、 及び不透明度 αの画- 像 (マスク画像)を作成する。 影画像作成部 4 0は、 ニットゥエアが人体モデルや布帛に及ぼす平均的な影の画像を作 成する。 レイトレーシング部 4 1は人体モデルゃ布帛並びにニットの画像に対してレイト レーシングを行う。 但しニットウエアが人体モデルゃ布帛に対してどのように光を遮るか のレイトレーシングは行わない。 また布帛は不透明なものとし、 布帛が人体モデルへの光 を遮るかどうかのレイトレーシングも行わない。 なお布帛を半透明なものとして、 人体モ デルに対する布帛の影を求めても良い。 この場合、 影画像作成部 4 0で、 ニットゥヱァの 影を求めるのと同様にして、 人体モデルに対する布帛の影を求めれば良い。 人体モデルのカラー画像ゃ布帛データのカラー画像を、 視点から見た 2次元カラー画像 に変換する。 これらの 2次元カラー画像をレイヤという。 次に 3次元データから視点に対 する奥行き方向の位置を示す画像を追加し、 レイトレーシングや影付けを行う。 このよう にして 2次元の人体モデルのカラー画像ゃ布帛データのカラー画像が得られ、 これらをレ ィャ記憶部 4 2に記憶する。'同様に人体モデルゃ布帛データの奥行き方向位置を示す画像 をレイヤ記憶部 4 2に記憶する。 作成するレイヤは、 ニットゥヱァ、 布帛、 人体モデル、 各々の 2次元カラー画像、 ニットウエアの不透明度の画像(マスク画像)、 ニットウエアの 影の画像、 及び布帛のマスク画像である。 画像合成部 4 4はニットウエアと人体モデル、 布帛及ぴ背景の 4つの画像を合成する。 合成に際しては、 視点に対する奥行き方向位置 Ζのデータを用い、 半透明なニットの画像 を通して見える布帛ゃ人体モデルを実現するため、 ニットウエアの不透明度 αの画像を利 用する。 得られた画像を画像メモリ 5 0に記憶し、 カラーモニタ 1 2に表示し、 力ラープ リンタ 1 4や通信ュニット 1 6から出力する。 図 2に実施例でのデータの流れを示す。 デザィンデータを編成データに変換し、 糸筋データに変換する。 糸筋データは各編目に対して 1点〜複数点の 3次元位置を指定す ることにより編目位置を表現し、 編目の種類や接続関係を属性として持つ。 人体モデルや 布帛データは共に 3次元のカラー画像である。 そして糸筋データ上の編目を人体モデルや 布帛の周囲に配置する。 次に視点と光源の位置を設定し、 ニットウエアのうちで人体モデ ルゃ布帛により隠される部分を消去すると共に、 布帛のうちで人体モデルにより隠される 部分を消去する。 人体モデルの 3次元カラー画像を、 視点から見た 2次元カラー画像に変換する。 同様に 布帛のカラー画像を視点から見た布帛の 2次元カラー画像に変換し、 ニットウエアの糸筋 データを視点から見た 2次元カラー画像に変換する。 対象となる編目は隠面消去されなか つた編目で、 編目の糸筋に沿って糸本体と毛羽とのカラー画像を貼り付け、 同時にこれら の不透明度の画像を作成する。 糸本体や毛羽のカラー画像やこれらの不透明度は、 糸デー タ記憶部 3 4に記憶されている。 例えば一且編目を正面から見た際の編目画像を作成し、 これを視点から見た際の向きに回転させ、 編目の回転によって奥行き方向に糸と糸が重な る部分が生じると、 不透明度に従って画像を合成し、 また重なった部分で不透明度を増加 させる。 糸筋データには編目の 3次元位置が記述されているので、 これを用いて視点に対 する編目の奥行き方向の座標 Zを発生させる。 次にニットウエアの範囲内で、 糸と糸の重 なりの部分で、 光源から遠い側の糸が暗くなるようにレイトレーシングを行う。 同様に人 体モデルに対し、 布帛ゃニットウエアを無視して光源からの光に対するレイトレーシング を行い、 布帛に対して、 人体モデルを考慮し、 かつニットウエアを無視して、 光源からの 光に対するレイ トレーシングを行う。 ニットウエアによる影を、 人体モデルのカラー画像や布帛のカラー画像に付加する。 こ の影はニットウエアでの個々の糸による影を表現するのではなく、 ニットウエアの平均的 な影である。 ニットウエアの影を付けた後に、 ニットウエアと人体モデルと布帛の各レイ ヤーの画像を合成する。 合成画像をカラーモニタに表示し、 シーンを変更する場合、 視点 位置や光源位置を再設定し、 これらに伴ってニットウエアの 2次元カラー画像や人体モデ ルのレイヤ画像、 布帛のレイヤ画像を再発生する。 また糸を変更する場合、 レイヤ 3の- ットウエアの 2次元カラー画像を変更する 図 3にニットウエアのカラー画像の作成から影付けまでを示す。 6 0 , 6 1は編成コー スで、 編目 6 2, 6 3が配列されている。 図 3の破線は編成コース間での編目の接続関係 を示し、 6 4は光源で、 6 5は視点である。 視点 6 5から見た編目 6 2の画像は、 ハッチ ングを施した糸本体の部分と、 その周囲の毛羽の部分とから成り、 これを編目 6 2を正面 から見た画像を回転させて、 あるいは最初から視点から見た糸筋に糸本体や毛羽の画像を 貝占り付けることにより得る。 糸本体や毛羽には、 糸データの段階で不透明度が付与されて おり、 回転によって糸が重なる場合、 その部分で不透明度を増加させる。 このようにして 視点 6 5から見た 1つの編目分の 2次元カラー画像と、 奥行き方向の画像並びに不透明度 の画像が得られる。 糸筋データの複数の編目を重ね合わせ、 編目と編目が重なる場所では Zの値と不透明度 αとに従って編目を重ね合わせる。 これによりエツトウエアを視点 6 5 から見た 2次元カラー画像が得られる。 次にニットの糸且織内でのレイ トレーシングを行う。 図 4に、 影付けのモデルを示す。 7 0はニットウエアのカラー画像のレイヤーで、 画像 の値を P 1とする。 7 1はエツトウエアのマスク画像レイヤーで、 画像の値を CKとし、 7 2 はエツトウエアの影の画像レイヤーで、 画像の値を ;3とする。 7 3は布帛のカラー画像レ ィャ"で、 画像の値を Ρ 2とし、 7 4は布帛のマスク画像レイヤーで、 画像の値を γ ( γ = 0または 1 )とする。 7 5は人体モデルの画像レイヤーで、 画像の値を Ρ 3とする。 視点に 対するこれらのレイヤーの位置関係は、 隠面消去部 3 6で処理済みで、 ニットゥエアが最 上層、 布帛が中間、 人体モデルが最下層である。 影画像の値 /3は、 不透明度の画像を、 2次元画像の 2つの次元を X , yとして、 X, y の両方向にぼかす、 即ち平滑化することにより求める。 例えばぼかしが 0であれば、 影の 画像はマスク画像と同じ形状となり、 ぼかしを増すと影の画像はマスク画像よりも広くな る。 ぼかしの程度は、 例えば X , yの各次元に付いて、 ぼかしを行う幅を指定すると定ま る。 また影の画像をマスク画像から X , yの各方向にスライドさせ、 スライドさせる値 S X, S yをユーザが指定できる。 例えば、 S x= 5 , S y= 3であれば、 影の画像はマスク画像 に対して x方向に 5ドット、 y方向に 3ドットスライドする。 影画像がモノクロの場合、 /3は 1次元で、 影画像がカラーの場合、 は R G Bの各成分を持った 3次元データとなる。 カラーの影は、 ニットウエアのカラー値をぼかしたカラー値を持つ。 さらに影の濃さを指 定でき、 マスクの値 αをそのまま平滑ィ匕してスライドさせることも、 マスクの値 αを例え ば 1 0〜 5 0 %程度に弱めて平滑化し、 スライドさせることもできる。 布帛は不透明とし ているので、 そのマスクの値 γは 1 (布帛が有る)または 0 (布帛がなレ、)のいずれかである。 そこで合成画像 Ρを Ρ = Ρ 1 α + ( 1— ) ( Ρ 2+ Ρ 3 ( 1— γ ) ) とする。 このように して簡単に、 合成画像を画像合成部 4 4で求めることができる。 そして影の強弱やぼかし の程度を指定することにより、 影をリアルに表現でき、 また影をスライドさせることによ り、 光源の方向を表現できる。 図 5の a)〜h)に実施例でのシミュレーション画像を示す。 a)〜d)の左上に、 用いた糸の 画像を示し、 人体モデルや布帛は共通で、 ニットウエアのデザインデータも共通である。 e)〜h)にシミュレーション画像を拡大して示し、 糸の太さなどによりニットウエアを透か して見える人体モデルの明るさが変わっている。 そして毛羽付きのニットウヱァの着装状 態をシミュレーションできている。 実施例では以下の効果が得られる。
(1) -ットウエアの 3次元カラー画像を作成する代わりに、 視点から見た 2次元カラー画 像を作成する。 そして糸本体や毛羽はパイプではなく 2次元カラー画像として表現するの で、 ニットウエアの画像の作成が容易になる。
(2) ニットウエアによる人体モデルゃ布帛への影は、 個々の糸の影響などを無視して 均 的な影付けを行う。 このため簡単に影付けを行うことができる。
(3) 画像合成の段階では、 ニットウエアのレイヤと人体モデ _;レのレイヤ並びに布帛のレイ ャを合成すればよく、 合成が簡単である。
(4) またニットウエアのデザインや用いる糸を変更しても、 人体モデルや布帛のレイヤを 変更する必要がない。 これらのため高速でュットウエアの着装状態のシミュレーション画 像を作成でき、 これらはニットウエアのパーチャルなサンプルとして利用できる品質を備 えている。 この発明のシミュレーション装置 · 2は、 コンピュータにシミュレーションプログラムを インス トールすることにより実現され、 シミュレーションプログラムは C D— R OMなど の記憶媒体や搬送波などを介してコンピュータに読み込ませる。 図 2はシミュレーション プログラムのプロック図に相当し、 シミュレーションプログラムは図 2の各処理を実行す る。

Claims

請求の範囲
1 . ニットゥェァのデザィンデータ及ぴ糸のデータと、 人体モデルの 3次元画像とによ り、 人体モデルがニットウエアを着装した状態をシミュレーションする方法において、 -ットウユアのデザインデータを、 編目の 3次元位置と編目間の接続関係を示す糸筋デ ータに変換するステップと、
視点位置と光源位置を決定するステツプと、
糸のデータを用いて、 糸筋データ中の毛羽付きの糸からなる編目を前記視点から見た 2 次元力ラ一画像と不透明度の画像とに変換するステップと、
編目の 2次元カラー画像を糸筋データに従って接続し、 前記視点から見たニットウエア の 2次元力ラ一画像と不透明度の画像とに変換するステップと、
ニットウエアが光源からの光を遮ることに応じて、 人体モデルのカラー画像を、 ニット ウェアの影の部分で編目よりも低レ、位置分解能で暗くするステップと、
人体モデルのカラー画像とニットウヱァの 2次元カラー画像を、 ニットウエアの不透明 度の画像を用いて合成するステップと、
合成画像を表示するステップ、
とを設けたことを特徴とするニットゥヱァのシミュレーション方法。
2 . 前記-ットウエアの内側に前記人体モデルが着用するフアブリックの画像を用意す るステップを更に設け、
前記暗くするステツプでは、 人体モデルの力ラ一画像とファブリックのカラ一画像とを、 ニットウエアの影の部分で編目よりも低い位置分解能で暗くし、
前記合成するステツプでは、 人体モデルの力ラ一画像とファブリックのカラ一画像及び ニットウエアの 2次元カラー画像を、 ニットウエアの不透明度の画像を用いて合成する、 ことを特徴とする、 請求項 1のニットウエアのシミュレーション方法。
3 . 視点位置と光源位置とに従って、 人体モデルの 2次元力ラ一画像と視点からの奥行 き方向の位置を示す画像、 及びファブリックの 2次元カラー画像と視点からの奥行き方向 の位置を示す画像を作成するステップを設け、
-ットウエアの 2次元カラー画像と不透明度の画像の他に、 ニットウエアの視点からの 奥行き方向の位置を示す画像を作成し、
ニットウエアの画像が人体モデルゃフアプリックの画像と重なる範囲をニットウエアの 影の部分として求め、
かつ奥行き方向の位置を示す前記 3つの画像により、 人体モデルとフアブリックと-ッ トウエアとの、 視点に対する前後関係を求めて前記画像合成を行うことを特徴とする、 請 求項 2の-ットウエアのシミュレーション方法。
4 . 視点位置と光源位置とに従って、 人体モデルの 2次元力ラ一画像と視点からの奥行 き方向の位置を示す画像、 及びフアプリックの 2次元カラー画像と視点からの奥行き方向 の位置を示す画像を作成するステップを設け、
ニットウエアの 2次元カラー画像と不透明度の画像の他に、 ニットウエアの視点からの 奥行き方向の位置を示す画像を作成し、
奥行き方向の位置を示す前記 3つの画像により、 光源から人体モデルゃフアプリックへ の光をニットウエアが遮る部分を前記影の部分として求め、
かつ奥行き方向の位置を示す前記 3つの画像により、 人体モデルとファブリックと-ッ トウ アとの、 視点に対する前後関係を求めて前記画像合成を行うことを特徴とする、 請 求項 2のニットウエアのシミュレーション方法。
5 . 前記糸筋データでの編目の位置から、 人体モデルやファブリックでのニットウエア の影となる部分を求めるステップと、
視点位置と光源位置とに従って、 人体モデルの 2次元力ラ一画像と視点からの奥行き方 向の位置を示す画像、 及びファブリックの 2次元カラー画像と視点からの奥行き方向の位 置を示す画像を作成するステップを設けると共に、
ニットウエアの 2次元カラー画像と不透明度の画像の他に、 ニットウエアの視点からの 奥行き方向の位置を示す画像を作成し、
かつ奥行き方向の位置を示す前記 3つの画像により、 人体モデルとフアブリックとニッ トウエアとの、 視点に対する前後関係を求めて前記画像合成を行うことを特徴とする、 請 求項 2のニットウエアのシミュレーション方法。
6 . ニットウエアのデザィンデータ及ぴ糸のデータと、 人体モデルの 3次元画像とによ り、 人体モデルがニットウエアを着装した状態をシミュレーションする装置において、 ニットウエアのデザインデータを、 編目の 3次元位置と編目間の接続関係を示す糸筋デ ータに変換する手段と、
視点位置と光源位置を決定する手段と、
糸のデータを用いて、 糸筋データ中の毛羽付きの糸からなる編目を前記視点から見た 2 次元力ラ一画像と不透明度の画像とに変換する手段と、
編目の 2次元カラー画像を糸筋データに従って接続し、 前記視点から見たニットウエア の 2次元カラー画像と不透明度の画像とに変換する手段と、
ニットウエアが光源からの光を遮ることに応じて、 人体モデルのカラー画像を、 ニット ウェアの影の部分で編目よりも低い位置分解能で暗くする手段と、
人体モデルのカラー画像とニットウエアの 2次元カラー画像を、 ニットウエアの不透明 度の画像を用いて合成し、 モニタに表示する手段、
とを設けたことを特徴とするエツトウエアのシミュレーション装置。
7 . ニットゥヱァのデザインデータ及び糸のデータと、 人体モデルの 3次元画像とによ り、 人体モデルがニットウエアを着装した状態をシミュレーションするためのプログラム を記憶した、 コンピュータにより読み取り自在な記憶媒体において、
前記コンピュータにより以下のステップを実行させるもの:
ニットウエアのデザインデータを、 編目の 3次元位置と編目間の接続関係を示す糸筋デ ータに変換するステップと、
視点位置と光源位置を決定するステツプと、
糸のデータを用いて、 糸筋データ中の毛羽付きの糸からなる編目を前記視点から見た 2 次元力ラ一画像と不透明度の画像とに変換するステップと、
編目の 2次元カラー画像を糸筋データに従って接続し、 前記視点から見たニットウエア の 2次元力ラ一画像と不透明度の画像とに変換するステツプと、
ニットウエアが光源からの光を遮ることに応じて、 人体モデルのカラー画像を、 ニット ウェアの影の部分で編目よりも低レ、位置分解能で暗くするステップと、
人体モデルのカラー画像とニットウエアの 2次元カラー画像を、 ュットウエアの不透明 度の画像を用いて合成するステップと、
合成画像を表示するステップ。
PCT/JP2008/060100 2007-06-13 2008-05-26 ニットウェアのシミュレーション方法とその装置及び記憶媒体 WO2008152931A1 (ja)

Priority Applications (3)

Application Number Priority Date Filing Date Title
EP08753121.6A EP2159755A4 (en) 2007-06-13 2008-05-26 KNIT SIMULATION METHOD, APPARATUS FOR THE METHOD, AND STORAGE MEDIUM
JP2009519222A JP5161213B2 (ja) 2007-06-13 2008-05-26 ニットウェアのシミュレーション方法とその装置及び記憶媒体
CN2008800197794A CN101689307B (zh) 2007-06-13 2008-05-26 针织品模拟方法及其装置

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2007-155912 2007-06-13
JP2007155912 2007-06-13

Publications (1)

Publication Number Publication Date
WO2008152931A1 true WO2008152931A1 (ja) 2008-12-18

Family

ID=40129541

Family Applications (1)

Application Number Title Priority Date Filing Date
PCT/JP2008/060100 WO2008152931A1 (ja) 2007-06-13 2008-05-26 ニットウェアのシミュレーション方法とその装置及び記憶媒体

Country Status (4)

Country Link
EP (1) EP2159755A4 (ja)
JP (1) JP5161213B2 (ja)
CN (1) CN101689307B (ja)
WO (1) WO2008152931A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4792521B2 (ja) * 2009-12-15 2011-10-12 株式会社アイ.エス.テイ 布製品識別装置および布製品把持システム
DE102011106401A1 (de) * 2011-07-02 2013-01-03 H. Stoll Gmbh & Co. Kg Verfahren und Vorrichtung zur Maschendarstellung
CN106608201B (zh) 2015-10-26 2019-04-19 比亚迪股份有限公司 电动车辆及其主动安全控制***和方法
CN110644128B (zh) * 2018-09-27 2022-02-22 北京大豪科技股份有限公司 手套机机头控制方法、装置、设备及存储介质

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005082185A1 (ja) * 2004-02-26 2005-09-09 Shima Seiki Manufacturing, Ltd. 人体モデルへのニットガーメントの着装シミュレーション方法とその装置、並びにそのプログラム
JP2005258537A (ja) * 2004-03-09 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> 3次元モデル生成方法と生成装置およびプログラムと記録媒体

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5557527A (en) * 1993-08-31 1996-09-17 Shima Seiki Manufacturing Ltd. Knit design system and a method for designing knit fabrics

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005082185A1 (ja) * 2004-02-26 2005-09-09 Shima Seiki Manufacturing, Ltd. 人体モデルへのニットガーメントの着装シミュレーション方法とその装置、並びにそのプログラム
JP2005258537A (ja) * 2004-03-09 2005-09-22 Nippon Telegr & Teleph Corp <Ntt> 3次元モデル生成方法と生成装置およびプログラムと記録媒体

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
See also references of EP2159755A4 *

Also Published As

Publication number Publication date
JP5161213B2 (ja) 2013-03-13
JPWO2008152931A1 (ja) 2010-08-26
EP2159755A4 (en) 2014-05-07
CN101689307B (zh) 2012-02-29
CN101689307A (zh) 2010-03-31
EP2159755A1 (en) 2010-03-03

Similar Documents

Publication Publication Date Title
US20240193834A1 (en) Techniques and Workflows for Computer Graphics Animation System
EP3129978B1 (en) Graphics processing enhancement by tracking object and/or primitive identifiers
EP1918881B1 (en) Techniques and workflows for computer graphics animation system
EP1452985B1 (en) Knit design method and device
JP4966003B2 (ja) 布帛パターンの作成装置と作成方法、作成プログラム
KR101078215B1 (ko) 니트 디자인 방법 및 장치
JP2023553507A (ja) 特注仕様製品の合成データ表示の高品質レンダリング表示を得るためのシステムおよびその方法
CN112131724A (zh) 一种针织成形产品的三维设计仿真***与方法
JP5431173B2 (ja) 着装シミュレーション装置とシミュレーションプログラム
JP5161213B2 (ja) ニットウェアのシミュレーション方法とその装置及び記憶媒体
JP5161229B2 (ja) 着装シミュレーション装置とシミュレーション方法、シミュレーションプログラム
JP5208130B2 (ja) ニットシミュレーション装置とニットシミュレーションでの糸の捻れ修正方法
JP2003036449A (ja) 繊維製品の3次元画像生成用マップデータの自動生成方法、及び、繊維製品の3次元シミュレーション画像生成方法
JP2002056405A (ja) テクスチャマッピング処理装置
JP3749373B2 (ja) 三次元立体構造体の二次元表示方法
JP5079786B2 (ja) ニット製品のシミュレーション装置とシミュレーション方法
JPWO2008105529A1 (ja) ニット製品のシミュレーション装置とシミュレーション方法
Lazunin et al. Interactive visualization of multi-layered clothing
MacDonald 3-D Drawing

Legal Events

Date Code Title Description
WWE Wipo information: entry into national phase

Ref document number: 200880019779.4

Country of ref document: CN

121 Ep: the epo has been informed by wipo that ep was designated in this application

Ref document number: 08753121

Country of ref document: EP

Kind code of ref document: A1

ENP Entry into the national phase

Ref document number: 2009519222

Country of ref document: JP

Kind code of ref document: A

REEP Request for entry into the european phase

Ref document number: 2008753121

Country of ref document: EP

WWE Wipo information: entry into national phase

Ref document number: 2008753121

Country of ref document: EP

NENP Non-entry into the national phase

Ref country code: DE