JP4216537B2 - Image processing apparatus, image processing method, image processing program, and recording medium recording the program - Google Patents

Image processing apparatus, image processing method, image processing program, and recording medium recording the program Download PDF

Info

Publication number
JP4216537B2
JP4216537B2 JP2002226534A JP2002226534A JP4216537B2 JP 4216537 B2 JP4216537 B2 JP 4216537B2 JP 2002226534 A JP2002226534 A JP 2002226534A JP 2002226534 A JP2002226534 A JP 2002226534A JP 4216537 B2 JP4216537 B2 JP 4216537B2
Authority
JP
Japan
Prior art keywords
model
clothing
human body
straight line
operator
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2002226534A
Other languages
Japanese (ja)
Other versions
JP2004070519A (en
Inventor
嘉之 坂口
東亮 張
Original Assignee
デジタルファッション株式会社
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by デジタルファッション株式会社 filed Critical デジタルファッション株式会社
Priority to JP2002226534A priority Critical patent/JP4216537B2/en
Publication of JP2004070519A publication Critical patent/JP2004070519A/en
Application granted granted Critical
Publication of JP4216537B2 publication Critical patent/JP4216537B2/en
Anticipated expiration legal-status Critical
Expired - Fee Related legal-status Critical Current

Links

Images

Description

【0001】
【発明の属する技術分野】
本発明は、コンピュータ上で仮想的に衣服モデルを作成し、型紙展開を行う画像処理技術に関する。
【0002】
【従来の技術】
従来より、アパレル業界では、CADを用いた衣服のデザインが行われている。衣服のデザインに用いられるCADにおいては、コンピュータ上で作成された型紙モデルは、3次元データに変換され、3次元的に表示された人体モデルの表面に貼り付けられて立体的に表示される。デザイナーは、コンピュータ上に3次元的に表示された衣服モデルを参照しながら、2次元的に表示された型紙モデルを作成していく。
【0003】
このように、アパレル業界では、コンピュータ上で衣服モデルのデザインを行う際、まず、2次元的に型紙モデルを作成するという作業が前提となっており、3次元的に表示された衣服モデルは、型紙モデルを作成することを支援するために補助的に用いられるにすぎなかった。
【0004】
【発明が解決しようとする課題】
周知のように、コンピュータ上で仮想的に型紙モデルを作成するためには、現実の型紙を作成するのと同様に、被服構成学の知識が必要となる。被服構成学の専門書としては、例えば「パターンメーキングの原理、アミコファッションズ、1997、大野順之助著」や「パターンメーキングの基礎、文化出版、2000、小野喜代司著」などがあるが、型紙を作成する者は、このような専門書を熟読し、被服構成学の知識を習得する必要がある。したがって、従来のCADによる衣服の作成手法では、型紙モデルの作成が前提となっているため、被服構成学の知識を備えていない者は、容易に衣服をデザインすることができないという問題があった。
【0005】
さらに、2次元的に型紙モデルを作成する場合、その型紙モデルが3次元的にどのような形状とされるかを想像しながら型紙モデルを作成しなければならず、直感性に欠けるという問題があった。
【0006】
本発明は、上記課題を解決するためになされたものであり、被服構成学の知識を有さないような初心者であっても、容易に衣服モデルを作成することができる画像処理装置を提供することを目的とする。
【0007】
【課題を解決するための手段】
上記課題を解決するために、請求項1記載の発明は、仮想的に衣服モデルを作成する画像処理装置であって、オペレータの操作指令を受け付ける入力手段と、前記入力手段が受け付けたオペレータの操作指令に応じて、3次元的に表示された人体モデルの表面形状に適合するように3次元的に衣服モデルを作成する衣服モデル作成手段と、前記衣服モデル作成手段が作成した衣服モデルを、少なくとも1つの型紙モデルとして2次元平面へ展開する展開手段と、前記衣服モデル及び前記型紙モデルを表示装置に表示させる表示制御手段と、前記人体モデルの表面において、外側に向かって突き出した少なくとも2つの突出点を取得する取得手段とを備え、前記衣服モデル作成手段は、前記取得手段によって取得された突出点間を結ぶ直線を、オペレータの操作指令に応じて、垂直方向に移動することにより形成される軌跡を衣服モデルの形状とし、かつ、前記突出点間を結ぶ直線又はその直線の軌跡が前記人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡を前記人体モデルの表面に沿った形状に変更することを特徴とする。
【0008】
この構成によれば、オペレータによる操作指令が入力手段を介して受け付けられ、この操作指令に応じて、3次元的に表示された人体モデルに適合するような衣服モデルが作成される。そして、3次元的にデザインされた衣服モデルが展開手段により型紙モデルとして2次元平面へ自動的に展開される。したがって、専門的な知識が要求される型紙モデルの作成が自動的に行われるため、被服構成学の知識を有しない初心者であっても、容易に衣服モデルを作成することができる。さらに、3次元的に衣服モデルを作成することができるため、2次元的に表示された型紙モデルが3次元的にどのように表示されるかを想像しながら、型紙モデルの作成を行う必要がなくなり、オペレータはより直感的に衣服モデルを作成することができる。
また、この構成によれば、例えば胸の頂部のような人体モデルの表面の外側に突き出した2つの突出点を指定し、この突出点間を結ぶ直線を垂直方向に移動するという簡素な操作により衣服モデルを作成することができる。
また、この構成によれば、人体モデルの表面の突出点を結ぶ直線が人体モデルを貫通した場合、またはその直線の軌跡が人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡の形状が、人体モデルの表面の形状に沿った形に自動的に変更される。そのため、オペレータは、衣服モデルの形状を人体モデルの形状に合わせるような複雑な操作が不要となり、平易な操作により、人体モデルの形状に適合するような衣服モデルを作成することができる。
【0009】
また、前記人体モデルの表面において、外側に向かって突き出した少なくとも2つの突出点を取得する取得手段を更に備え、前記衣服モデル作成手段は、前記取得手段によって取得された突出点間を結ぶ直線を、オペレータの操作指令に応じて、垂直方向に移動することにより形成される軌跡を衣服モデルの形状とすることが好ましい。
【0010】
この構成によれば、例えば胸の頂部のような人体モデルの表面の外側に突き出した2つの突出点を指定し、この突出点間を結ぶ直線を垂直方向に移動するという簡素な操作により衣服モデルを作成することができる。
【0011】
また、前記衣服モデル作成手段は、前記突出点間を結ぶ直線又はその直線の軌跡が前記人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡を前記人体モデルの表面に沿った形状に変更することが好ましい。
【0012】
この構成によれば、人体モデルの表面の突出点を結ぶ直線が人体モデルを貫通した場合、またはその直線の軌跡が人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡の形状が、人体モデルの表面の形状に沿った形に自動的に変更される。そのため、オペレータは、衣服モデルの形状を人体モデルの形状に合わせるような複雑な操作が不要となり、平易な操作により、人体モデルの形状に適合するような衣服モデルを作成することができる。
【0013】
また、前記衣服モデル作成手段は、人体モデル表面に形成された閉曲線を移動することにより形成された軌跡を衣服モデルの形状とすることが好ましい。
【0014】
この構成によれば、人体モデル上の例えば胴体と足との付け根部分のような閉曲線を、オペレータの操作指令に応じて移動させることにより形成された閉曲線の軌跡が衣服モデルの形状とされるため、オペレータは、閉曲線を移動させるという簡素な操作によって、衣服モデルを作成することができる。
【0015】
また、前記取得手段は、前記人体モデルの表面から外側に向かって所定距離離間した位置を前記突出点として取得することが好ましい。
【0016】
この構成によれば、人体モデルの表面から外側に向かって離間した位置が突出点とされるため、人体モデルに対するゆとり量を考慮した衣服モデルを作成することができる。
【0017】
また、前記展開手段は、前記3次元的に表示された衣服モデルの曲率を基に、前記型紙モデルに対してダーツ処理またはいせ込み処理を施すことが好ましい。
【0018】
この構成によれば、オペレータが3次元的にデザインした衣服モデルの表面の曲率を基に、ダーツ位置又はいせ込み位置が決定され、決定された位置にいせ込み処理あるいはダーツ処理が自動的に施されるため、初心者にとって設定が困難なダーツ処理又はいせ込み処理が容易に行われる。
【0019】
また、前記展開手段は、前記3次元的に表示された衣服モデル上に仮想的に設定された糸目の方向に基づいて、前記型紙モデルを展開することが好ましい。
【0020】
この構成によれば、布の糸目方向を考慮した型紙展開が可能となるため、布を用いて現実の衣服を作成した場合に、その衣服の形状が仮想的に作成した衣服モデルの形状により近づくこととなる。
【0021】
本発明に係る画像処理方法は、コンピュータが、仮想的に衣服モデルを作成する画像処理方法であって、コンピュータが、オペレータの操作指令を受け付ける入力ステップと、コンピュータが、前記入力ステップで受け付けたオペレータの操作指令に応じて、3次元的に表示された人体モデルの表面形状に適合するように3次元的に衣服モデルを作成する衣服モデル作成ステップと、コンピュータが、前記衣服モデル作成ステップで作成した衣服モデルを、少なくとも1つの型紙モデルとして2次元平面へ展開する展開ステップと、コンピュータが、前記衣服モデル及び前記型紙モデルを表示装置に表示させる表示制御ステップと、コンピュータが、前記人体モデルの表面において、外側に向かって突き出した少なくとも2つの突出点を取得する取得ステップと、前記衣服モデル作成ステップは、前記取得ステップで取得された突出点間を結ぶ直線を、オペレータの操作指令に応じて、垂直方向に移動することにより形成される軌跡を衣服モデルの形状とし、かつ、前記突出点間を結ぶ直線又はその直線の軌跡が前記人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡を前記人体モデルの表面に沿った形状に変更することを特徴とする。
【0022】
この構成によれば、オペレータによる操作指令が入力手段を介して受け付けられ、この操作指令に応じて、3次元的に表示された人体モデルに適合するような衣服モデルが作成される。そして、3次元的にデザインされた衣服モデルが展開手段により型紙モデルとして2次元平面へ自動的に展開される。したがって、専門的な知識が要求される型紙の作成が自動的に行われるため、被服構成学の知識を有しない初心者であっても、容易に衣服モデルをデザインすることができる。さらに、3次元的に衣服モデルを作成することができるため、2次元的に表示された型紙モデルが3次元的にどのように表示されるかを想像しながら、型紙モデルのデザインを行う必要がなくなり、オペレータはより直感的に衣服モデルを作成することができる。
【0023】
本発明に係る画像処理プログラムは、コンピュータに仮想的に衣服モデルを作成させる画像処理プログラムであって、コンピュータをオペレータの操作指令を受け付ける入力手段、コンピュータを前記入力手段が受け付けたオペレータの操作指令に応じて、3次元的に表示された人体モデルの表面形状に適合するように3次元的に衣服モデルを作成する衣服モデル作成手段、コンピュータを前記衣服モデル作成手段が作成した衣服モデルを、少なくとも1つの型紙モデルとして2次元平面へ展開する展開手段、コンピュータを前記衣服モデル及び前記型紙モデルを表示装置に表示させる表示制御手段、コンピュータを前記人体モデルの表面において、外側に向かって突き出した少なくとも2つの突出点を取得する取得手段として機能させ、前記衣服モデル作成手段は、前記取得手段によって取得された突出点間を結ぶ直線を、オペレータの操作指令に応じて、垂直方向に移動することにより形成される軌跡を衣服モデルの形状とし、かつ、前記突出点間を結ぶ直線又はその直線の軌跡が前記人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡を前記人体モデルの表面に沿った形状に変更することを特徴とする。
【0024】
この構成によれば、オペレータによる操作指令が入力手段を介して受け付けられ、この操作指令に応じて、3次元的に表示された人体モデルに適合するような衣服モデルが作成される。そして、3次元的にデザインされた衣服モデルが展開手段により型紙モデルとして2次元平面へ自動的に展開される。したがって、専門的な知識が要求される型紙の作成が自動的に行われるため、被服構成学の知識を有さない初心者であっても、容易に衣服モデルを作成することができる。さらに、3次元的に衣服モデルを作成することができるため、2次元的に表示された型紙モデルが3次元的にどのように表示されるかを想像しながら、型紙モデルのデザインを行う必要がなくなり、オペレータはより直感的に衣服モデルを作成することができる。
【0025】
本発明に係る画像処理プログラムを記録したコンピュータ読み取り可能な記録媒体は、コンピュータに仮想的に衣服モデルを作成させる画像処理プログラムを記録するコンピュータ読み取り可能な記録媒体であって、コンピュータをオペレータの操作指令を受け付ける入力手段、コンピュータを前記入力手段が受け付けたオペレータの操作指令に応じて、3次元的に表示された人体モデルの表面形状に適合するように3次元的に衣服モデルを作成する衣服モデル作成手段、コンピュータを前記衣服モデル作成手段が作成した衣服モデルを、少なくとも1つの型紙モデルとして2次元平面へ展開する展開手段、コンピュータを前記衣服モデル及び前記型紙モデルを表示装置に表示させる表示制御手段、コンピュータを前記人体モデルの表面において、外側に向かって突き出した少なくとも2つの突出点を取得する取得手段として機能させ、前記衣服モデル作成手段は、前記取得手段によって取得された突出点間を結ぶ直線を、オペレータの操作指令に応じて、垂直方向に移動することにより形成される軌跡を衣服モデルの形状とし、かつ、前記突出点間を結ぶ直線又はその直線の軌跡が前記人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡を前記人体モデルの表面に沿った形状に変更することを特徴とする。
【0026】
この構成によれば、オペレータによる操作指令が入力手段を介して受け付けられ、この操作指令に応じて、3次元的に表示された人体モデルに適合するような衣服モデルが作成される。そして、3次元的にデザインされた衣服モデルが展開手段により型紙モデルとして2次元平面へ自動的に展開される。したがって、専門的な知識が要求される型紙の作成が自動的に行われるため、被服構成学の知識を有さない初心者であっても、容易に衣服モデルを作成することができる。さらに、3次元的に衣服モデルを作成することができるため、2次元的に表示された型紙モデルが3次元的にどのように表示されるかを想像しながら、型紙モデルのデザインを行う必要がなくなり、オペレータはより直感的に衣服モデルを作成することができる。
【0027】
【発明の実施の形態】
以下、本発明の一実施形態による画像処理装置について図面を参照しながら説明する。図1は、本発明の一実施の形態による画像処理装置の構成を示すブロック図である。
【0028】
図1に示す画像処理装置は、パーソナルコンピュータ等から構成され、オペレータの操作指令を受け付ける入力装置1と、パーソナルコンピュータを稼動させるための、例えばBIOSなどの基本プログラムを記録するROM(リードオンリーメモリ)2と、画像処理プログラムを実行するCPU(中央演算処理装置)3と、一時的にデータを記憶するRAM(ランダムアクセスメモリ)4と、画像処理プログラムや、オペレーティングングシステムなどを記憶する補助記憶装置5と、CPUの処理した画像を表示する表示装置6と、フレキシブルディスク、CD−ROM及びDVD−ROMなどの記録媒体8に記録されたデータを読み取る記録媒体駆動装置7とを備えている。
【0029】
ROM2、CPU3、RAM4、補助記憶装置5、表示装置6及び記録媒体駆動装置7は、バスライン9により相互に接続されている。入力装置1は、キーボードやマウスなどを含み、パーソナルコンピュータ本体の背後に備えられた例えばUSBポートなどに接続されている。
【0030】
本画像処理装置は、パーソナルコンピュータを画像処理装置として機能させる画像処理プログラムが記録された例えばCD−ROMなどの記録媒体8を、記録媒体駆動装置7に装填し、画像処理プログラムを補助記憶装置5にインストールすることにより、パーソナルコンピュータを画像処理装置としている。なお、画像処理プログラムを記憶するWEBサーバーからインターネット回線を介してダウンロードすることにより画像処理プログラムをインストールしてもよい。
【0031】
また、パーソナルコンピュータにより種々のデータを入力し、そのデータをインターネット上に配置されたWEBサーバー上で処理し、処理結果をパーソナルコンピュータに送信するというように、WEBサーバー及びパーソナルコンピュータ間で画像処理プログラムを分散的に実行させてもよい。
【0032】
図2は、本実施形態に係る画像処理装置のブロック構成図を示している。本画像処理装置は、機能的には、プログラム実行部100と、記憶部200と、操作部300と、表示部400とを備えている。
【0033】
記憶部200は、人体モデル記憶部201と、メッシュデータ記憶部202と、テクスチャ記憶部203と、ツール記憶部204と、型紙データ記憶部205と、型紙配置情報記憶部206とを備えている。
【0034】
人体モデル記憶部201は、3次元的に衣服モデルを作成する際に、作成する衣服モデルを貼り付けるための人体モデルの表面形状を表すポリゴンデータを予め記憶している。この人体モデルの形状及び大きさは、操作部300を介してデータを入力することにより、人体モデルの形状を特定するために人体モデル上に複数設けられた特徴点の値を設定し、変更することができる。詳細には、特徴点を含む特徴点近傍の面の法線方向にその特徴点を所定距離移動するように、特徴点の値を設定すると、移動した特徴点を結ぶように人体モデル表面の形状が補間され、人体モデルの形状が変更される。本画像処理装置では、人体モデルの特徴点として胸の頂部や、膝などの頂部などの人体モデル表面を表すにあたり代表的な複数、例えば27個の点が特徴点として設けられており、オペレータは、これら特徴点の値を設定すると、その特徴点が例えば特徴点近傍の面の法線方向に移動され、人体モデルのサイズを所望する人間(デザインされる衣服を着る人間)のサイズに一致させることができる。
【0035】
メッシュデータ記憶部202は、後述するメッシュ作成部125が3次元的に作成した衣服モデルを構成する構成面(衣服モデル構成面)に形成した複数のメッシュのそれぞれの頂点の座標を記憶する。
【0036】
テクスチャ記憶部203は、作成する衣服モデルの材質や柄などに応じて衣服表面にマッピングするためのテクスチャ及びバストラインやウエストラインを人体モデルに表示するためのテクスチャを記憶する。
【0037】
ツール記憶部204は、オペレータが衣服モデルを作成する際に使用する種々のツールを記憶する。ツールとしては、人体モデル表面の突出点を選択するための選択ツールと、ドラッグすることにより衣服モデル表面の形状を形成するための移動ツールと、人体モデルの種々のオブジェクト、例えば腕や上半身などの領域を選択するためのなげ縄ツールと、オペレータが人体モデル表面に新たな突出点を作成するための突出点作成ツールと、人体モデル表面に設定された突出点のオフセット値を設定するためのオフセットツールと、人体モデルのあるオブジェクトを半透明表示させるための非表示ツールと、非表示ツールにより半透明表示されたオブジェクトを表示するための表示ツールと、表示部400の画面上に線を描画するためのペンツールと、衣服モデルを構成する衣服モデル構成面のうち隣接する衣服モデル構成面の不連続な部分を滑らかにするための平滑化ツールと、デザインされた衣服モデルの一部を切り取るためのはさみツールと、人体表面の突出点を表示したり、その突出点の曲率などを表示するファンクションイメージツールと、作成された衣服モデルの任意の領域を選択し、選択した領域を例えば数値を入力することにより所望の大きさに拡大あるいは縮小表示させる拡大縮小ツールなどを備えている。
【0038】
型紙データ記憶部205は、後述する2次元展開部120が、3次元的に作成された衣服モデルを2次元平面に展開することにより得られた型紙モデルの輪郭線上に複数存在する特徴点の座標と、各座標間を結ぶ曲線または直線の情報などを記憶する。
【0039】
型紙配置情報記憶部206は、後述する2次元展開部120が作成した型紙モデルの人体モデル上での配置位置を記憶する。
【0040】
プログラム実行部100は、CPU3が画像処理プログラムを実行することにより実現され、オペレータの操作指令に応じて、3次元的に衣服モデルを作成するデザイン部110と、3次元的に作成された衣服モデルを2次元平面に型紙モデルとして展開する2次元展開部120と、展開された型紙モデルから、再度、3次元表示された衣服モデルを作成する3次元モデル作成部130と、表示制御部140とを備えている。
【0041】
デザイン部110は、注目突出点取得部111と、ライン作成部112と、軌跡作成部113と、軌跡変更部114と、マージ部115と、ゆとり量調整部116とを備えている。
【0042】
注目突出点取得部111は、人体モデル表面の例えば胸の頂点や肩甲骨の頂点などの複数の突出点のうち、オペレータが選択した2つの突出点を注目突出点として取得する。
【0043】
ライン作成部112は、注目突出点取得部111が取得した2つの注目突出点を結ぶ直線を作成する。また、ライン作成部112は、注目突出点間を結ぶ直線が人体モデルを貫通した場合、注目突出点間を結ぶ直線を人体モデル表面の形状に沿った曲線に変更する。
【0044】
軌跡作成部113は、オペレータの操作指令に応じて、ライン作成部112が作成した直線あるいは曲線を、垂直方向にスライドさせ、直線あるいは曲線の軌跡を衣服モデルの身頃部分の一部を構成する衣服モデル構成面とする。
【0045】
また、軌跡作成部113は、人体モデル上に形成された例えばウエストラインのような閉曲線をオペレータの操作指令に応じてスライドさせることにより形成された閉曲線の軌跡を衣服モデル構成面とする。
【0046】
軌跡変更部114は、ライン作成部113が作成した直線若しくは曲線、または、軌跡作成部113が作成した閉曲線の軌跡が、人体モデルと交差した場合、交差した部分の衣服モデルの形状を、人体モデルに沿った形状に変更する。
【0047】
マージ部115は、オペレータの操作に応じて、隣接する2つの衣服モデル構成面を併合し、1つの衣服モデル構成面とする。また、マージ部115は、オペレータの操作に応じて、一度マージした面を再度2つの面に分割する。
【0048】
ゆとり量調整部116は、オペレータが選択した衣服モデル表面の突出点を、オペレータの操作に応じて、その突出点近傍の面の法線方向に所定距離移動させて、衣服モデルの形状を所定距離移動された突出点を通るように衣服モデル構成面を変更し、衣服モデルのゆとり量を調整する。
【0049】
2次元展開部120は、歪量算出部121と、可展面抽出部122と、ダーツ設定部123と、いせ込み領域設定部124と、メッシュ作成部125と、メッシュ展開部126と、型紙修正部127とを備えている。
【0050】
歪量算出部121は、衣服モデル表面を構成する複数の点の中から所定ドット毎に抽出した複数の点における垂直方向の曲率K1と水平方向の曲率K2とを求め、H=1/[2(K1+K2)]の演算を行い平均曲率Hを算出するとともに、垂直方向の曲率K1と水平方向の曲率K2とからK=K1×K2の演算を行い、ガウス曲率Kを算出する。
【0051】
可展面抽出部122は、歪量算出部121が算出したガウス曲率Kの値が0か否かを判断し、ガウス曲率Kが0の位置の近傍の面を2次元平面へ展開可能な面(可展面)として抽出する。そして、可展面抽出部122は、抽出した可展面を衣服モデル表面に例えば赤色で表示するように表示制御部140に指示する。なお、ガウス曲率Kの値が0に近づくにつれて、2次元平面への展開が行いやすくなるため、歪量算出部121は、ガウス曲率Kを0近傍の所定の閾値と比較することにより、可展面を抽出してもよい。
【0052】
ダーツ設定部123は、歪量算出部121が算出したガウス曲率Kが0より大きいまたは0より小さく、かつ凹凸形状を有する曲面の凹凸の頂点の位置から、凹凸の頂点の位置の近傍に位置する可展面と凹凸形状を有する曲面との境界線に向かうようにダーツ線を設定し、設定したダーツ線を衣服モデル表面に表示するように表示制御部140に指示する。
【0053】
いせ込み領域設定部124は、貼り合わせ対象となる2枚の布の寸法を基に、いせ込み比率を算出する。
【0054】
メッシュ作成部125は、デザイン部110によって作成された衣服モデル構成面に所定のメッシュを作成し、作成したメッシュの各頂点の座標をメッシュデータ記憶部202に記憶させる。なお、この場合のメッシュの生成方法は特に限定されず、種々のメッシュ生成方法を用いることができ、型紙モデルを分割するメッシュの形状としては、例えば、三角形または四角形などを用いることができる。
【0055】
メッシュ展開部126は、メッシュ作成部125が作成したメッシュを2次元平面上へ展開する。また、メッシュ展開部126は、展開したメッシュ間で重なり(オーバーラップ)が生じた場合、オーバーラップを回避するように、2次元平面へ展開されたメッシュの頂点の位置を移動させる。また、メッシュ展開部126は、2次元平面に展開された型紙モデルの人体モデル上での配置位置を取得し、型紙配置情報記憶部206に記憶させる。
【0056】
型紙修正部127は、布の糸目の方向にしたがって、型紙モデルの形状を修正する。
【0057】
表示制御部140は、人体モデル記憶部201が記憶する人体モデルデータを読み出して表示部400に表示する。
【0058】
また、表示制御部140は、テクスチャ記憶部203に記憶されているテクスチャのうち、オペレータが選択したテクスチャを衣服モデル表面にマッピングする。
【0059】
また、表示制御部140は、ツール記憶部204が記憶する種々のツールを読み出し表示部400に表示するとともに、オペレータがツールを操作することにより衣服モデルの作成を行った場合、オペレータの操作に応じて、衣服モデルの形状を変更させる。
【0060】
また、表示制御部140は、2次元展開部120が3次元表示された衣服モデルを2次元平面へ展開することにより得られた衣服モデルの型紙モデルを表示部400に表示する。また、表示制御部140は、3次元モデル作成部130が、型紙モデルから作成した3次元の衣服モデルを表示部400に表示する。
【0061】
また、表示制御部140は、2次元展開部120が作成した型紙モデルをプリンタ500に出力することにより型紙モデルを紙面上にプリントさせる。
【0062】
次に、デザイン部110が行う処理について図3に示すフローチャートに従って説明する。まず、ステップS1において、表示制御部140は、人体モデル記憶部201に記憶されている人体モデルを読み出して、表示部400に表示する。
【0063】
次いで、ステップS2において、オペレータが人体モデルの身頃部分以外を半透明表示させるように指示すると、表示制御部140は、人体モデルの身頃部分以外の部分を半透明で表示する。
【0064】
次いで、ステップS3において、注目突出点取得部111は、予め人体モデル表面に表示された複数の突出点うち、オペレータが選択した2つの突出点を注目突出点として取得する。図4は、オペレータが突出点を選択する様子を説明するための図である。図4に示すように、人体モデルの表面には、胸の頂部、肩甲骨の頂部の合計4個の突出点TTが予め表示されている。オペレータは、これら複数の突出点TTの中から所望する2つの突出点TTの位置に選択ツールTAを合わせてクリックすると、注目突出点取得部111は、これら2つの突出点TTを注目突出点CTとして取得する。図4では、両胸の頂部の突出点TTを注目突出点CTとして取得している。
【0065】
また、オペレータが突出点作成ツールTBを人体モデルの表面の所定の位置に合わせてクリックすると、表示制御部140は、その位置に突出点を作成する。そして、注目突出点取得部111は、作成された突出点を注目突出点CTとして取得することも可能である。
【0066】
次いで、ステップS4において、ライン作成部112は、注目突出点間を直線で結ぶ。図4では、胸の頂部の注目突出点CT間が直線L1で結ばれている。次いで、ステップS5において、ライン作成部112は、ステップS4で作成した直線が人体モデルを貫通するか否かを判断する。作成した直線が人体モデル貫通している場合、注目突出点CT間を人体モデル表面の形状に沿った曲線で結ぶ(ステップS6)。
【0067】
次いで、ステップS7において、オペレータが注目特徴点間を結ぶ直線又は曲線をドラッグすると、図4で示すように、ドラッグ量に応じて、直線L1が垂直方向にスライドされ、直線L1の軌跡LSが形成され、衣服モデルの表面形状とされる。
【0068】
次いで、ステップS8において、注目特徴点間を結ぶ直線又は曲線の軌跡が人体モデルを貫通するか否かが判断され、直線又は曲線が人体モデルを貫通した場合(ステップS8でYES)、衣服モデルの形状は人体モデル表面の形状に沿った形状とされる(ステップS9)。再度、新たな注目特徴点を選択して注目特徴点間を結ぶ直線または曲線の軌跡を形成し身頃部分の衣服モデルを作成していく。
【0069】
次に、袖部分をデザインする際のデザイン部110の処理について図5に示すフローチャートに従って説明する。
【0070】
まず、ステップS21において、オペレータが人体モデルに対して右腕あるいは左腕部分以外を半透明表示するように指示すると、表示制御部140は、右腕あるいは左腕の部分以外を半透明表示する。
【0071】
次いで、ステップS22において、アームホールにマウスポインタを合わせ、手先方向にドラッグすると、ドラッグ量に応じて、アームホールの軌跡が成長していき衣服モデルの袖部分が形成される。
【0072】
次いで、ステップS23において、オペレータが袖部分のゆとり量を設定すると、ゆとり量調整部116は、設定されたゆとり量に応じて、袖の太さを変更する。図6は、袖の太さを調整する様子を説明するための図である。図6では、ゆとり量設定ツールをアームホール付近の袖断面S1の外周に合わせて外側に向けてドラッグすることにより、袖断面S1はS1´に拡大され、ゆとり量設定ツールを肘部分の袖断面S2の外周に合わせ外側に向けてドラッグすることにより、袖断面S2はS2´に拡大され、ゆとり量設定ツールを手先側の袖断面S3の外周にに合わせ内側に向けてドラッグすることにより、袖断面S3はS3´に縮小されており、袖断面S1´、S2´及びS3´の外周をつなぐように袖の形状が変更されている。なお、図6では、袖断面S1、S2及びS3の3箇所を選択したが、これに限定されず、2箇所以下、あるいは4箇所以上の袖断面の選択してもよい。また、調節対象となる袖断面の位置も、アームホール付近、肘付近及び手先付近に限定されず、例えば、袖上の任意の位置を選択することができる。
【0073】
次いで、ステップS24において、オペレータが袖山の位置を移動させると、表示制御部140は、ドラッグ量に応じて袖山の位置を変化させる。図7は、袖山の形状の変化の様子を説明するための図である。マウスポインタを袖山STに合わせてドラッグし、袖山STの位置をST´の位置までドラッグすると、表示制御部140は、身頃の肩の付近の形状及び袖の形状を位置ST´を通過するように変更する。これにより肩パッドを表すことが可能となる。
【0074】
次に、スカートをデザインする際のデザイン部110の処理について、図8に示すフローチャートに従って説明する。まず、ステップS31において、オペレータが人体モデルの下半身以外の部分を半透明表示するように指示すると、表示制御部140は、人体モデルの下半身以外の部分を半透明表示する。
【0075】
次いで、ステップS32において、オペレータが人体モデルのウエスト付近の位置にマウスポインタを合わせてダブルクリックすると、表示制御部140は、テクスチャ記憶部203からウエストラインを表すテクスチャを読み出し、読み出したウエストラインのテクスチャを人体モデル表面のウエスト位置にマッピングする。この場合、図9に示すように人体モデルにウエストラインWLが表示される。
【0076】
次いで、ステップS33において、オペレータがマウスポインタをウエストラインWLに合わせて垂直方向にドラッグすると、軌跡作成部113は、ドラッグ量に応じて、ウエストラインWLを垂直方向にスライドさせる。
【0077】
次いで、ステップS34において、軌跡変更部114は、ウエストラインWLの軌跡が人体モデルと交差した場合(ステップS34でYES)、それ以降に形成されるスカートの形状を人体モデルの形状に沿った形状とする(ステップS35)。一方、ウエストラインの軌跡が人体モデルと交差しない場合(ステップS34でNO)、ウエストラインWLの軌跡をスカートの形状とする。この場合、図9に示すように、ウエストラインWLは、ドラッグ後、直ぐに人体モデルと交差するため、スカートSKの形状は人体モデルの形状に沿った形状となる。
【0078】
次いで、ステップS36において、オペレータが、操作部300を介してスカートのゆとり量を入力すると、ゆとり量調整部116は、入力されたゆとり量に応じて、スカートSKの開き具合を調整する。ゆとり量の入力方法としては、例えばドレープスカートやプリーツスカートなどのスカートの種類を選択すると、その種類に応じて、スカートSKの形状が変更されるようにしてもよい。また、オペレータがマウスポインタをスカートの任意の位置に合わせて、水平方向にドラッグすると、ドラッグ量に応じてスカートの形状が変更されるようにしてもよい。この場合、図9に示すように、スカートの足側の断面SK1の外周にマウスポインタを合わせ、水平方向を外側に向けてドラッグすると、断面SK1が、ドラッグ量に応じて拡大していき、拡大した断面積SK1´の外周とウエストラインWLとを結ぶようにスカートの形状が変更される。これにより、スカートの形状の調整が可能となる。
【0079】
次いで、ステップS37において、オペレータが装飾ツールを操作すると、表示制御部140は、装飾ツール操作に応じて、スカートSKに装飾を施す。装飾ツールとしては、スカートに折りひだを付けるためのプリーツツールと、スカートにギャザーを付けるためのギャザーツールと、スカートを布が垂れたようなデザインにするドレープツールなどが存在する。オペレータは、これらの装飾ツールをスカートの所望する位置に合わせて種々の操作を行うと、その位置にプリーツ、ギャザー及びドレープが付けられる。
【0080】
次いで、ステップS38において、オペレータがナイフツールを用いてスカートの裁断操作などを行うと、表示制御部140は、オペレータの裁断操作に応じてスカートを裁断し、スカートの形状を変更する。これにより、スカートの形状が整えられる。
【0081】
次に、パンツをデザインする際のデザイン部110が行う処理について、図10及び図11のフローチャートに従って説明する。ステップS41〜S43までの処理は、図8に示すステップS31〜S33までのの処理と同一であるため、説明を省略する。
【0082】
次いで、ステップS44において、軌跡が人体モデルと交差した場合(ステップS44でYES)、軌跡変更部114は、パンツを人体モデルに沿った形状にする(ステップS45)。なお、パンツを作成する場合、オペレータは、股ぐり(両足の付け根)部分でウエストラインのドラッグを停止するものとする。
【0083】
次いで、ステップS46において、オペレータが、はさみツールにより股ぐり部分に切り込み操作を行うと、表示制御部140は、股ぐり部分に切り込みを入れる。この場合、図12に示すように、股ぐり部分に例えば股付近の足の形状に沿うように、切り込みPKが入れられる。そして、オペレータの操作に応じて、マージ部115は、股ぐり部分の前部と後部をつなぎあわせる。これにより、パンツの股ぐりが表される。
【0084】
次いで、ステップS47において、オペレータが、股ぐり付近の右足または左足の断面の外周線(レッグホール)の位置にマウスポインタを合わせ、垂直方向にドラッグすると、レッグホールの軌跡が成長していきパンツの裾が形成される。
【0085】
次いで、ステップS48において、外周線の軌跡が人体モデルと交差した場合(ステップS48でYES)、軌跡変更部114は、それ以降のパンツの形状を人体モデルの足に沿った形状とする(ステップS49)。この場合、図12に示すように、股ぐり付近の左足のレッグホールLHの軌跡がズボンの裾LTとされる。
【0086】
次いで、ステップS50において、オペレータが折り目ツールにより、パンツの折り目を付ける操作あるいはパンツの裾の折返す操作を行うと、表示制御部140は、オペレータの操作に応じて、パンツに折り目を付けるあるいはパンツの裾を折り返して表示する。この場合、図12では、オペレータの操作により表示制御部140はパンツ前部のウエスト付近に、タックTPが作成されている。
【0087】
次いで、ステップS51において、オペレータが操作部300を介してゆとり量を入力すると、入力したゆとり量に応じて、ゆとり量調整部116は、パンツのゆとり量を調整する。この場合、図13に示すように、オペレータが、断面P1の位置にマウスポインタを合わせ、断面P1が拡大されるようにマウスポインタを水平方向外側にドラッグすると断面P1が断面P1´に拡大され、断面P2、P3及びP4のそれぞれにマウスポインタを合わせ水平方向を内側に向けてドラッグすると、断面P2、P3及びP4はそれぞれ、断面P2´、P3´及びP4´に縮小される。そして、表示制御部140は、拡大された断面P1´、縮小された断面P2´、P3´及びP4´を結ぶように、パンツの形状を変更する。これにより、パンツのゆとり量が調整される。なお、パンツの断面を拡大あるいは縮小可能な箇所は、上記4箇所に限定されず、オペレータが指定する任意の箇所の断面を拡大または縮小することができる。また、オペレータが、ベルボトムや、スリムなどパンツの形状を指定すれば、表示制御部140は、パンツの形状が指定した形状となるようにパンツの形状を変更してもよい。
【0088】
次に、襟をデザインする際のデザイン部110が行う処理について、図14に示すフローチャートに従って説明する。まず、ステップS61において、オペレータが人体モデルの首以外の部分を半透明表示するように指示すると、表示制御部140は、人体モデルの首以外の部分半透明表示する。
【0089】
次いで、ステップS62において、オペレータが、人体モデルの首と胴体との付け根部分の閉曲線(ネックホール)を垂直方向と反対方向にドラッグすると、そのドラッグ量に応じて軌跡作成部113は、ネックホールの軌跡を成長させる。
【0090】
次いで、ステップS63において、オペレータがはさみツールを用いてネックホールの軌跡に切り込み操作を施すと、表示制御部140は、オペレータの操作に応じてネックホールの軌跡に切り込みを入れる。
【0091】
次いで、ステップS64において、オペレータが折り曲げツールを用いて、ネックホールの軌跡に襟を形成するための折り目を入れると、表示制御部140は、ネックホールの軌跡を折り目に沿って折り曲げることにより襟を表示する。
【0092】
次いで、ステップS65において、オペレータが種々のツールを用いて、襟の形状を整える操作を行うと、表示制御部140は、オペレータの操作に応じて、襟の形状を変更する。
【0093】
次に、衣服モデルが2次元平面へ展開される際の2次元展開部120が行う処理について、図15〜図17に示すフローチャートに従って説明する。まず、ステップS71において、歪量算出部121は、衣服モデル表面のガウス曲率K及び平均曲率Hを算出する。次いで、ステップS72において、可展面抽出部122は、ガウス曲率Kが0の面を可展面として抽出する。
【0094】
次いで、ステップS73において、いせ込み領域設定部124は、ガウス曲率Kを基に、切り込み線推奨領域を衣服モデルの表面に表示するように表示制御部140に指示する。
【0095】
次いで、オペレータによる切り込み指示があった場合(ステップS74でYES)、表示制御部140は、オペレータが指定した領域に切り込みを入れる(ステップS75)。次いで、ステップS76において、ダーツ設定部123は、歪量算出部121が算出したガウス曲率Kが0より大きい面をダーツ推奨領域として設定し、設定したダーツ推奨領域を衣服モデル表面に表示するように表示制御部140に指示する。この場合、図18に示すように、ダーツ設定部123は、ダーツ領域の輪郭線を構成するダーツ線DLをガウス曲率Kが0より大きな凸状の曲面RSの頂点TPと可展面CSとの境界とを結ぶように設定する。
【0096】
次いで、ステップS77において、歪量算出部121は、ステップS76で決定されたダーツ推奨領域にダーツを入れた場合と、ダーツを入れない場合とのそれぞれの場合における衣服モデルの曲率を算出する。
【0097】
次いで、ステップS78において、オペレータによるダーツ挿入の指示がされた場合(ステップS78でYES)、オペレータが指定した領域にダーツを挿入する(ステップS80)。次いで、歪量算出部121により、ダーツを挿入しない場合の歪量からダーツを挿入した場合の歪量を差し引かれ、ダーツを挿入した場合の歪の軽減量が算出される(ステップS81)。一方、ステップS78において、オペレータによるダーツ挿入の指示が無かった場合(ステップS78でNO)ステップS76で衣服モデル表面に表示したダーツ推奨領域を削除する(ステップS82)。
【0098】
次いで、ステップS83において、可展面抽出部122は、ガウス曲率Kが0より小さい面をいせ込み推奨領域として設定し、設定したいせ込み推奨領域を衣服モデル表面に表示するように表示制御部140に指示する。
【0099】
次いで、ステップS84において、オペレータによりペンツールを用いて、いせ込み領域に対して交差するように線が引かれ型紙モデルの糸目を揃える方向が指定される。次いで、ステップS85において、いせ込みの深さ(いせ込みで立体になる領域)が指定される。
【0100】
次いで、ステップS86において、いせ込み領域設定部124はいせ込み比率を算出し、いせ込み比率が140%以上または70%以下ならばいせ込みは困難であると判断し、いせ込みを推奨しない旨を示すために、例えばいせ込み領域を警告色表示するように表示制御部140に指示する。なお、いせ込み比率は展開後に設定する糸目方向により変化するので、ここでは、いせ込み領域設定部124は、垂直方向に縦糸が設定されているとして計算する。
【0101】
次いで、ステップS87において、メッシュ作成部125は、衣服モデル表面に三角形または四角形のメッシュを作成する。
【0102】
次いで、ステップS88において、メッシュ展開部126は、中央メッシュを2次元平面へ展開する。図19は、メッシュ展開部126が前身頃の衣服モデル構成面内に作成したメッシュを2次元平面へ展開する様子を説明するための図であり、(a)は3次元的に作成された衣服モデルを示し、(b)は(a)の衣服モデルを2次元平面に展開した状態を示している。メッシュ展開部126は、まず、垂直方向の中央部のほぼ真中の位置にある中心メッシュCMを決定し、中心メッシュCMに隣接するメッシュNMを取得し、更にメッシュNMに隣接するメッシュを取得し、・・・というようにライン状に連なったメッシュ群を中央ラインメッシュCMLとして取得する。そして、中央ラインメッシュCMLを2次元平面へ展開する。
【0103】
次いで、ステップS89において、メッシュ展開部126は、2次元平面へ展開したメッシュにオーバーラップが発生した場合、オーバーラップを修正する処理を行う。図20は、メッシュ展開部126がメッシュのオーバーラップを修正する処理を説明するための図であり、(a)はオーバーラップが生じたメッシュを示し、(b)はオーバーラップが修正されたメッシュを示している。(a)に示すように、メッシュM1〜M6が共有する頂点CPが、メッシュM1〜M6のそれぞれを構成する一辺によって形成される六角形HEの外部に位置するため、メッシュM1〜M6間でオーバーラップが生じていることが分かる。そこで、メッシュ展開部126は、オーバーラップを回避するために、六角形HEの重心GPと頂点Pとのほぼ中点の位置に頂点CPを移動させることにより、(b)に示すように、メッシュM1〜M6のオーバーラップを回避している。
【0104】
次いで、ステップS90において、図19に示すように、メッシュ展開部126は、中央ラインメッシュCMLの両隣に位置する2本のライン状に連なったメッシュ群を第1ラインメッシュFMLとして取得し、取得した第1ラインメッシュFLMを2次元平面へ展開する。
【0105】
次いで、ステップS91において、メッシュ展開部126は、ステップS89と同様の処理を2次元平面に展開された第1のメッシュラインFMLに施し、オーバーラップの修正を行う。
【0106】
次いで、ステップS92において、メッシュ展開部126は、第1ラインメッシュFMLの両隣に位置する2本のライン状に連なったメッシュ群を、第2メッシュラインSMLとして取得し、取得した第2ラインメッシュSMLを2次元平面へ展開する。
【0107】
次いで、ステップS93において、メッシュ展開部126は、ステップS92で処理した第2ラインメッシュSMLの外側に隣接するメッシュ群を新たな第2ラインメッシュSMLとして取得し、全てのメッシュが2次元平面へ展開されるまで、ステップS91〜S92の処理を繰り返し行い、メッシュの2次元平面の展開が完了した場合、ステップS94に進む。このようにメッシュ展開部126は、一度に全てのメッシュを2次元平面へ展開するのではなく、ライン状に連なったメッシュ群を1つの処理単位として、メッシュを2次元平面へ展開していくため、3次元上で作成された衣服モデル構成面に作成されたメッシュの形状を大きく変化させることなく、2次元平面へメッシュを展開することができる。
【0108】
図21は、3次元表示された衣服モデルと、3次元表示された衣服モデルを2次元平面へ展開することにより作成された型紙モデルとが表示された画面図を示している。図21において、左側のウインドウLWには、3次元的に作成された衣服モデルが表示され、右側のウインドウRWにはその衣服モデルの構成面の型紙モデルが表示されている。図21では、オペレータが、操作部300を操作して、左側のウインドウLWに表示された人体モデルMO上に衣服モデルを作成すると、右側のウインドウRWにデザインした衣服モデルに対応する型紙モデルKPが表示される。
【0109】
次いで、ステップS94において、オペレータにより型紙モデルへの糸目が設定されると、型紙修正部127は、糸目の方向に基づいて、型紙の形状を修正する。図22は、3次元的に作成された衣服モデルにほぼ半球状のバスト領域R1に糸目を設定し、領域R1を2次元平面へ展開したときの形状の変化を示した図であり、(a)は3次元的に作成された衣服を示し、(b)は糸目を設定せずに領域R1を2次元平面へ展開した場合を示し、(c)は糸目ILを正方形を構成する辺と平行に設定して領域R1を展開した場合を示し、(d)は糸目ILを正方形の対角線と平行に設定して領域R1を展開した場合を示している。
【0110】
布は糸目の方向に対してバイアス方向(45°、135°の方向)に伸びやすい性質があるため、この性質を考慮して、3次元表示された衣服モデルを2次元平面へ展開すると、例えば(c)あるいは(d)に示すようになる。(c)に示すように、正方形の各辺と平行に糸目ILを設定すると、その正方形は、対角線方向上正方形の中心方向に向かう方向Xに縮小し、角がとれた丸みを帯びた形状となる。また、(d)に示すように、正方形の対角線の方向に糸目を設定すると、正方形の各辺が正方形の中心に向かう方向Yに縮小し、正方形の各辺は窪んだ形状となる。
【0111】
次に、3次元モデル作成部130が2次元平面へ展開された型紙モデルを人体モデルに貼り付け及び型紙モデルが作成されるまでの処理について図23に示すフローチャートにしたがって説明する。まず、ステップS71において、3次元モデル作成部130は、型紙データ記憶部205から型紙データを読み出す。次いで、ステップS72において、3次元モデル作成部130は、読み出した型紙モデルの人体モデル上での着せ付け位置を示す配置情報を型紙配置情報記憶部206から読み出す。次いで、ステップS73において、3次元モデル作成部130は、読み出した配置情報に基づいて、型紙モデルを3次元画像データに変換して、人体モデルに着せつけ表示するように、表示制御部140に指示する。
【0112】
次いで、ステップS74において、オペレータにより人体モデルに着せ付けられた衣服モデルに修正が加えられると、表示制御部140は、オペレータの修正に応じて、衣服モデルの形状を変更する。
【0113】
次いで、ステップS75において、2次元展開部120は、衣服モデルの修正に合わせて型紙モデルの形状を変更し、型紙データ記憶部205に記憶されている型紙データの内容を更新する。
【0114】
次いで、ステップS76において、オペレータが型紙モデルをプリントするように指示すると、表示制御部140は、型紙データ記憶部205から型紙データを読み出し、プリンタ500に出力する。これにより、実際の型紙が作成される。
【0115】
なお、3次元モデル作成部130は、特許第2614691号公報に示すように、人体モデルの外周に沿うように垂直方向に複数配列されたリングを作成し、このリング上に型紙モデルを貼り付けることにより、型紙モデルを3次元表示させてもよい。
【0116】
【発明の効果】
以上説明したように、本発明に係る画像処理装置によれば、オペレータが3次元的に作成した衣服モデルが、2次元の型紙として自動的に展開されるため、作業が煩わしくかつ専門性が要求される型紙モデルの作成作業を省くことができる。その結果、デザイン分野の専門的知識がないような者であっても容易に衣服モデルを作成することができる。さらに、3次元的に衣服モデルを作成することができるため、2次元的に表示された型紙が3次元的にどのように状態で表示されるかを想像しながら、型紙モデルを作成する必要がなくなり、より直感的に衣服モデルを作成することができる。
【図面の簡単な説明】
【図1】 本発明の一実施の形態による画像処理装置の構成を示すブロック図である。
【図2】 本実施形態に係る画像処理装置のブロック構成図である。
【図3】 デザイン部が行う処理を示すフローチャートである。
【図4】 オペレータが突出点を選択する様子を説明するための図である。
【図5】 袖部分をデザインする際のデザイン部が行う処理を示すフローチャートである。
【図6】 袖の太さを調整する様子を説明するための図である。
【図7】 袖山の形状の変化の様子を説明するための図である。
【図8】 スカートをデザインする際のデザイン部が行う処理を示すフローチャートである。
【図9】 スカートがデザインされる様子を説明するための図である。
【図10】 パンツをデザインする際のデザイン部が行う処理を示すフローチャートである。
【図11】 パンツをデザインする際のデザイン部が行う処理を示すフローチャートである。
【図12】 パンツがデザインされる様子を説明するための図である。
【図13】 パンツの形状が変更される様子を説明するための図である。
【図14】 襟をデザインする際のデザイン部が行う処理を示したフローチャートである。
【図15】 衣服モデルが2次元平面へ展開される際の2次元展開部が行う処理を示したフローチャートである。
【図16】 衣服モデルが2次元平面へ展開される際の2次元展開部が行う処理を示したフローチャートである。
【図17】 衣服モデルが2次元平面へ展開される際の2次元展開部が行う処理を示したフローチャートである。
【図18】 ダーツ線が設定される様子を説明するための図である。
【図19】 メッシュ展開部が前身頃の衣服モデル構成面内に作成されたメッシュを2次元平面へ展開する様子を説明するための図であり、(a)は3次元的に作成された衣服モデルを示し、(b)は(a)の衣服モデルを2次元平面に展開した状態を示している。。
【図20】 メッシュ展開部がメッシュのオーバーラップを修正する処理を説明するための図であり、(a)はオーバーラップが生じたメッシュを示し、(b)はオーバーラップが修正されたメッシュを示している。
【図21】 3次元表示された衣服モデルと、3次元表示された衣服モデルを2次元平面へ展開することにより作成された型紙とが表示された画面図である。
【図22】 3次元的に作成された衣服モデルの表面の領域R1に糸目を設定し、領域R1を2次元平面へ展開したときの形状の変化を示した図であり、(a)は3次元的に作成された衣服を示し、(b)は糸目を設定せずに領域R1を2次元平面へ展開した場合を示し、(c)は糸目ILを正方形を構成する辺と平行に設定して領域R1を展開した場合を示し、(d)は糸目ILを正方形の対角線と平行に設定して領域R1を展開した場合を示している。
【図23】 3次元モデル作成部が2次元平面へ展開された型紙を人体モデルに貼り付ける処理を示したフローチャートである。
【符号の説明】
1 入力装置
2 ROM
3 CPU
4 RAM
5 補助記憶装置
6 表示装置
7 記録媒体駆動装置
8 記録媒体
9 バスライン
100 プログラム実行部
110 デザイン部
111 注目突出点取得部
112 ライン作成部
113 軌跡作成部
114 軌跡変更部
115 マージ部
116 ゆとり量調整部
120 2次元展開部
121 歪量算出部
122 可展面抽出部
123 ダーツ設定部
124 いせ込み領域設定部
125 メッシュ作成部
126 メッシュ展開部
127 型紙修正部
130 3次元モデル作成部
140 表示制御部
200 記憶部
201 人体モデル記憶部
202 メッシュデータ記憶部
203 テクスチャ記憶部
204 ツール記憶部
205 型紙データ記憶部
206 型紙配置情報記憶部
300 操作部
400 表示部
500 プリンタ
[0001]
BACKGROUND OF THE INVENTION
The present invention relates to an image processing technique for virtually creating a clothing model on a computer and developing a pattern.
[0002]
[Prior art]
Traditionally, clothing has been designed using CAD in the apparel industry. In CAD used for clothing design, a paper pattern model created on a computer is converted into three-dimensional data, pasted on the surface of a human body model displayed three-dimensionally, and displayed three-dimensionally. The designer creates a paper pattern model displayed two-dimensionally while referring to a clothing model displayed three-dimensionally on the computer.
[0003]
As described above, in the apparel industry, when designing a clothing model on a computer, it is premised that a pattern model is first created two-dimensionally. It was only used as an auxiliary to help create a paper pattern model.
[0004]
[Problems to be solved by the invention]
As is well known, in order to virtually create a pattern model on a computer, knowledge of clothing composition is required, as in the case of creating an actual pattern. Specialized books on clothing composition include, for example, “Pattern Making Principle, Amico Fashions, 1997, Junnosuke Ohno” and “Basics of Pattern Making, Culture Publishing, 2000, Kiyoji Ono”. Those who do so need to read such specialized books and acquire knowledge of clothing composition studies. Therefore, since the conventional CAD creation method is based on the premise of creating a paper pattern model, a person who does not have knowledge of clothing composition cannot easily design clothing. .
[0005]
Furthermore, when creating a paper pattern model two-dimensionally, the paper pattern model must be created while imagining the shape of the paper pattern model three-dimensionally, and there is a problem of lack of intuition. there were.
[0006]
The present invention has been made to solve the above problems, and provides an image processing apparatus capable of easily creating a clothing model even for a beginner who does not have knowledge of clothing compositionology. For the purpose.
[0007]
[Means for Solving the Problems]
  In order to solve the above-mentioned problem, the invention according to claim 1 is an image processing apparatus for virtually creating a clothing model, wherein an input means for receiving an operator's operation command and an operator's operation received by the input means A clothing model creation means for creating a clothing model three-dimensionally so as to conform to the surface shape of the human body model displayed three-dimensionally according to the command, and a clothing model created by the clothing model creation means at least Unfolding means for unfolding as a pattern model on a two-dimensional plane; display control means for displaying the clothing model and the pattern model on a display device;Acquisition means for acquiring at least two protruding points protruding outward on the surface of the human body model, and the clothing model creating means defines a straight line connecting the protruding points acquired by the acquiring means as an operator In response to the operation command, the trajectory formed by moving in the vertical direction is the shape of the clothing model, and the straight line connecting the protruding points or the trajectory of the straight line penetrates the human body model. Change the straight line of the part or the locus of the straight line to a shape along the surface of the human body modelIt is characterized by that.
[0008]
  According to this configuration, an operation command from the operator is received via the input unit, and a clothing model that fits the human body model displayed three-dimensionally is created according to the operation command. Then, the clothing model designed three-dimensionally is automatically developed on the two-dimensional plane as a pattern model by the developing means. Therefore, since a paper pattern model requiring specialized knowledge is automatically created, even a beginner who does not have knowledge of clothing composition studies can easily create a clothing model. Furthermore, since a clothing model can be created in three dimensions, it is necessary to create a pattern model while imagining how a two-dimensionally displayed pattern model is displayed in three dimensions. The operator can create a clothing model more intuitively.
  In addition, according to this configuration, for example, by specifying two protruding points protruding outside the surface of the human body model such as the top of the chest, a straight line connecting the protruding points is moved in a vertical direction. A clothing model can be created.
  Further, according to this configuration, when a straight line connecting the protrusion points on the surface of the human body model penetrates the human body model, or when the trajectory of the straight line penetrates the human body model, the shape of the straight line or the straight line trajectory of the penetrated portion Is automatically changed to a shape that conforms to the shape of the surface of the human body model. Therefore, the operator does not need a complicated operation to match the shape of the clothing model with the shape of the human body model, and can create a clothing model that matches the shape of the human body model by a simple operation.
[0009]
Further, the apparatus further includes an acquisition unit that acquires at least two protruding points protruding outward on the surface of the human body model, and the clothing model creating unit forms a straight line connecting the protruding points acquired by the acquiring unit. The trajectory formed by moving in the vertical direction according to the operator's operation command is preferably the shape of the clothing model.
[0010]
According to this configuration, for example, a clothing model is specified by a simple operation of specifying two protruding points protruding outside the surface of the human body model, for example, the top of the chest, and moving a straight line connecting the protruding points in the vertical direction. Can be created.
[0011]
Further, the clothing model creation means, when the straight line connecting the protruding points or the trajectory of the straight line penetrates the human body model, the straight line or the straight trajectory of the penetrating portion is formed into a shape along the surface of the human body model. It is preferable to change.
[0012]
According to this configuration, when the straight line connecting the protruding points on the surface of the human body model penetrates the human body model, or when the trajectory of the straight line penetrates the human body model, the shape of the straight line or the straight line trajectory of the penetrating part is The shape is automatically changed to the shape of the surface of the human body model. Therefore, the operator does not need a complicated operation to match the shape of the clothing model with the shape of the human body model, and can create a clothing model that matches the shape of the human body model by a simple operation.
[0013]
Moreover, it is preferable that the said clothing model preparation means makes the locus | trajectory formed by moving the closed curve formed on the human body model surface the shape of a clothing model.
[0014]
According to this configuration, the locus of the closed curve formed by moving a closed curve such as the base of the torso and feet on the human body model according to the operation command of the operator is the shape of the clothing model. The operator can create a clothing model by a simple operation of moving the closed curve.
[0015]
Moreover, it is preferable that the said acquisition means acquires the position spaced apart predetermined distance from the surface of the said human body model as the said protrusion point.
[0016]
According to this configuration, since the position away from the surface of the human body model toward the outside is a protruding point, it is possible to create a clothing model that takes into account the amount of room for the human body model.
[0017]
Moreover, it is preferable that the expansion means performs a dart process or a squeeze process on the pattern model based on the curvature of the clothes model displayed three-dimensionally.
[0018]
According to this configuration, the dart position or the squeeze position is determined based on the curvature of the surface of the clothing model designed three-dimensionally by the operator, and the squeeze process or the dart process is automatically performed at the determined position. Therefore, the dart process or the squeeze process that is difficult for a beginner to set is easily performed.
[0019]
Moreover, it is preferable that the said expansion | deployment means expand | deploys the said paper pattern model based on the direction of the thread line virtually set on the said clothes model displayed three-dimensionally.
[0020]
According to this configuration, it is possible to develop a pattern in consideration of the direction of the line of the cloth. Therefore, when an actual garment is created using the cloth, the shape of the garment approaches the shape of the virtually created garment model. It will be.
[0021]
  The image processing method according to the present invention is an image processing in which a computer virtually creates a clothing model.MethodThe computer accepts the operator's operation commandinputStep and the computer inputs the inputIn stepsCreate a clothing model three-dimensionally so as to conform to the surface shape of the human body model displayed three-dimensionally in accordance with the received operation command of the operatorCreate clothing modelStep and the computer creates said clothing modelIn stepsDevelop the created clothing model on a two-dimensional plane as at least one pattern modelUnfoldAnd a computer causes the display device to display the clothing model and the pattern modelDisplay controlStep and computer,An acquisition step of acquiring at least two protruding points protruding outward on the surface of the human body model, and the clothing model creation step include a straight line connecting between the protruding points acquired in the acquiring step. If the trajectory formed by moving in the vertical direction according to the command is the shape of the clothing model, and the straight line connecting the protruding points or the trajectory of the straight line penetrates the human body model, Change the line or the locus of the line to a shape along the surface of the human body modelIt is characterized by that.
[0022]
According to this configuration, an operation command from the operator is received via the input unit, and a clothing model that fits the human body model displayed three-dimensionally is created according to the operation command. Then, the clothing model designed three-dimensionally is automatically developed on the two-dimensional plane as a pattern model by the developing means. Therefore, since a pattern which requires specialized knowledge is automatically created, even a beginner who does not have knowledge of clothing composition studies can easily design a clothing model. Furthermore, since a clothing model can be created in three dimensions, it is necessary to design the pattern model while imagining how the pattern model displayed in two dimensions is displayed in three dimensions. The operator can create a clothing model more intuitively.
[0023]
  An image processing program according to the present invention is an image processing program for causing a computer to virtually create a clothing model, wherein the computer is an input unit that receives an operator operation command, and the computer is an operator operation command received by the input unit. In response, at least one clothing model creating means for creating a clothing model three-dimensionally so as to match the surface shape of the human body model displayed three-dimensionally, and a clothing model created by the clothing model creating means for a computer. Development means for developing a pattern model on a two-dimensional plane, display control means for displaying the clothing model and the pattern model on a display device, and a computerIt functions as an acquisition unit that acquires at least two protruding points protruding outward on the surface of the human body model, and the clothing model creation unit sets a straight line connecting the protruding points acquired by the acquiring unit to an operator In response to the operation command, the trajectory formed by moving in the vertical direction is the shape of the clothing model, and the straight line connecting the protruding points or the trajectory of the straight line penetrates the human body model. Change the straight line of the part or the locus of the straight line to a shape along the surface of the human body modelIt is characterized by that.
[0024]
According to this configuration, an operation command from the operator is received via the input unit, and a clothing model that fits the human body model displayed three-dimensionally is created according to the operation command. Then, the clothing model designed three-dimensionally is automatically developed on the two-dimensional plane as a pattern model by the developing means. Therefore, since a pattern for which specialized knowledge is required is automatically created, even a novice who does not have knowledge of clothing composition studies can easily create a clothing model. Furthermore, since a clothing model can be created in three dimensions, it is necessary to design the pattern model while imagining how the pattern model displayed in two dimensions is displayed in three dimensions. The operator can create a clothing model more intuitively.
[0025]
  A computer-readable recording medium on which an image processing program according to the present invention is recorded is a computer-readable recording medium for recording an image processing program for causing a computer to virtually create a clothing model. A clothing model that creates a clothing model three-dimensionally so as to conform to the surface shape of the human body model displayed three-dimensionally in response to an operator's operation command received by the input means. Means for expanding the clothes model created by the clothes model creating means on the two-dimensional plane as at least one pattern model; and display control means for causing the computer to display the clothes model and the pattern model on a display device; ComputerIt functions as an acquisition unit that acquires at least two protruding points protruding outward on the surface of the human body model, and the clothing model creation unit sets a straight line connecting the protruding points acquired by the acquiring unit to an operator In response to the operation command, the trajectory formed by moving in the vertical direction is the shape of the clothing model, and the straight line connecting the protruding points or the trajectory of the straight line penetrates the human body model. Change the straight line of the part or the locus of the straight line to a shape along the surface of the human body modelIt is characterized by that.
[0026]
According to this configuration, an operation command from the operator is received via the input unit, and a clothing model that fits the human body model displayed three-dimensionally is created according to the operation command. Then, the clothing model designed three-dimensionally is automatically developed on the two-dimensional plane as a pattern model by the developing means. Therefore, since a pattern for which specialized knowledge is required is automatically created, even a novice who does not have knowledge of clothing composition studies can easily create a clothing model. Furthermore, since a clothing model can be created in three dimensions, it is necessary to design the pattern model while imagining how the pattern model displayed in two dimensions is displayed in three dimensions. The operator can create a clothing model more intuitively.
[0027]
DETAILED DESCRIPTION OF THE INVENTION
An image processing apparatus according to an embodiment of the present invention will be described below with reference to the drawings. FIG. 1 is a block diagram showing a configuration of an image processing apparatus according to an embodiment of the present invention.
[0028]
The image processing apparatus shown in FIG. 1 is composed of a personal computer or the like, and includes an input device 1 that receives an operator's operation command, and a ROM (read only memory) that records a basic program such as BIOS for operating the personal computer. 2, a CPU (central processing unit) 3 that executes an image processing program, a RAM (random access memory) 4 that temporarily stores data, and an auxiliary storage device that stores an image processing program, an operating system, and the like 5, a display device 6 that displays an image processed by the CPU, and a recording medium driving device 7 that reads data recorded on a recording medium 8 such as a flexible disk, a CD-ROM, and a DVD-ROM.
[0029]
The ROM 2, CPU 3, RAM 4, auxiliary storage device 5, display device 6 and recording medium driving device 7 are connected to each other by a bus line 9. The input device 1 includes a keyboard, a mouse, and the like, and is connected to, for example, a USB port provided behind the personal computer main body.
[0030]
In this image processing apparatus, a recording medium 8 such as a CD-ROM in which an image processing program for causing a personal computer to function as an image processing apparatus is loaded is loaded in the recording medium driving device 7, and the image processing program is stored in the auxiliary storage device 5. By installing the personal computer, the personal computer is used as the image processing apparatus. The image processing program may be installed by downloading from a WEB server storing the image processing program via the Internet line.
[0031]
Also, an image processing program between the WEB server and the personal computer, such as inputting various data by the personal computer, processing the data on the WEB server arranged on the Internet, and transmitting the processing result to the personal computer. May be executed in a distributed manner.
[0032]
FIG. 2 is a block diagram of the image processing apparatus according to this embodiment. Functionally, the image processing apparatus includes a program execution unit 100, a storage unit 200, an operation unit 300, and a display unit 400.
[0033]
The storage unit 200 includes a human body model storage unit 201, a mesh data storage unit 202, a texture storage unit 203, a tool storage unit 204, a pattern paper data storage unit 205, and a pattern layout information storage unit 206.
[0034]
The human body model storage unit 201 stores polygon data representing a surface shape of a human body model for pasting a clothing model to be created when a clothing model is created three-dimensionally. The shape and size of the human body model is set by changing the values of feature points provided on the human body model in order to specify the shape of the human body model by inputting data via the operation unit 300. be able to. Specifically, when the feature point value is set so that the feature point is moved by a predetermined distance in the normal direction of the surface near the feature point including the feature point, the shape of the human body model surface is connected so as to connect the moved feature points. Are interpolated to change the shape of the human body model. In this image processing apparatus, representative points, for example, 27 points are provided as feature points for representing the human body model surface such as the top of the chest or the top of the knee as feature points of the human body model. When the values of these feature points are set, the feature points are moved, for example, in the normal direction of the surface in the vicinity of the feature points, so that the size of the human body model matches the size of the desired person (person who wears the designed clothes). be able to.
[0035]
The mesh data storage unit 202 stores the coordinates of the vertices of each of a plurality of meshes formed on the constituent plane (clothes model constituent plane) constituting the clothing model three-dimensionally created by the mesh creating unit 125 described later.
[0036]
The texture storage unit 203 stores a texture for mapping on the clothing surface according to the material and pattern of the clothing model to be created, and a texture for displaying the bust line and the waist line on the human body model.
[0037]
The tool storage unit 204 stores various tools used when the operator creates a clothing model. The tool includes a selection tool for selecting the protruding point of the human body model surface, a moving tool for forming the shape of the clothing model surface by dragging, and various objects of the human body model, such as arms and upper body Lasso tool for selecting area, projecting point creation tool for operator to create new projecting point on human model surface, offset for setting offset value of projecting point set on human model surface A tool, a non-display tool for semi-transparently displaying an object having a human body model, a display tool for displaying an object semi-transparently displayed by the non-display tool, and drawing a line on the screen of the display unit 400 Discontinuous part of the adjacent clothing model component surface among the pen tool and the clothing model component surface constituting the clothing model A smoothing tool for smoothing, a scissor tool for cutting out a part of the designed clothing model, a function image tool for displaying the protruding point of the human body surface, the curvature of the protruding point, etc., There is provided an enlargement / reduction tool for selecting an arbitrary region of the created clothing model and enlarging or reducing the selected region to a desired size by inputting a numerical value, for example.
[0038]
The pattern data storage unit 205 stores the coordinates of a plurality of feature points that exist on the outline of the pattern model obtained by the two-dimensional expansion unit 120 described later expanding a three-dimensionally created clothing model on a two-dimensional plane. And information on curves or straight lines connecting the coordinates are stored.
[0039]
The pattern layout information storage unit 206 stores the layout position on the human body model of the pattern model created by the two-dimensional development unit 120 described later.
[0040]
The program execution unit 100 is realized by the CPU 3 executing an image processing program, and a design unit 110 that three-dimensionally creates a clothing model in response to an operator operation command, and a three-dimensionally created clothing model A two-dimensional development unit 120 that develops a two-dimensional plane as a pattern model, a three-dimensional model creation unit 130 that creates a three-dimensionally displayed clothing model from the developed pattern model, and a display control unit 140 I have.
[0041]
The design unit 110 includes an attention protruding point acquisition unit 111, a line creation unit 112, a trajectory creation unit 113, a trajectory change unit 114, a merge unit 115, and a clearance amount adjustment unit 116.
[0042]
The notable protruding point acquisition unit 111 acquires, as the notable protruding points, two protruding points selected by the operator among a plurality of protruding points such as the apex of the chest and the apex of the scapula on the surface of the human body model.
[0043]
The line creating unit 112 creates a straight line connecting the two notable protruding points acquired by the notable protruding point acquiring unit 111. In addition, when the straight line connecting the target protruding points penetrates the human body model, the line creating unit 112 changes the straight line connecting the target protruding points to a curve along the shape of the human body model surface.
[0044]
The trajectory creation unit 113 slides the straight line or the curve created by the line creation unit 112 in the vertical direction in response to an operation command from the operator, and the trajectory of the straight line or the curve forms a part of the body part of the clothing model. Model construction surface.
[0045]
Further, the trajectory creation unit 113 sets the trajectory of the closed curve formed by sliding a closed curve such as a waist line formed on the human body model in accordance with the operation command of the operator as the clothing model constituent surface.
[0046]
When the straight line or curve created by the line creating unit 113 or the locus of the closed curve created by the trajectory creating unit 113 intersects the human body model, the trajectory changing unit 114 changes the shape of the clothing model at the intersected portion to the human body model. Change the shape to match.
[0047]
The merging unit 115 merges two adjacent garment model constituent surfaces into one garment model constituent surface in accordance with the operation of the operator. In addition, the merge unit 115 divides the merged surface into two surfaces again according to the operation of the operator.
[0048]
The clearance adjustment unit 116 moves the protruding point on the surface of the clothing model selected by the operator by a predetermined distance in the normal direction of the surface near the protruding point in accordance with the operation of the operator, thereby changing the shape of the clothing model to the predetermined distance. Change the clothing model construction surface so that it passes through the protruding point, and adjust the clearance of the clothing model.
[0049]
The two-dimensional development unit 120 includes a distortion amount calculation unit 121, a developable surface extraction unit 122, a dart setting unit 123, a squeeze area setting unit 124, a mesh creation unit 125, a mesh development unit 126, and a paper pattern correction. Part 127.
[0050]
The distortion amount calculation unit 121 calculates a vertical curvature K1 and a horizontal curvature K2 at a plurality of points extracted for each predetermined dot from a plurality of points constituting the clothing model surface, and H = 1 / [2 (K1 + K2)] is calculated to calculate the average curvature H, and K = K1 × K2 is calculated from the vertical curvature K1 and the horizontal curvature K2 to calculate the Gaussian curvature K.
[0051]
The developable surface extraction unit 122 determines whether or not the value of the Gaussian curvature K calculated by the distortion amount calculation unit 121 is 0, and can develop a surface in the vicinity of the position where the Gaussian curvature K is 0 into a two-dimensional plane. Extract as (developable surface). Then, the developable surface extraction unit 122 instructs the display control unit 140 to display the extracted developable surface on the clothing model surface, for example, in red. As the value of the Gaussian curvature K approaches 0, it becomes easier to perform development on a two-dimensional plane. Therefore, the distortion amount calculation unit 121 compares the Gaussian curvature K with a predetermined threshold value in the vicinity of 0 to develop it. A surface may be extracted.
[0052]
The dart setting unit 123 is located in the vicinity of the position of the concavo-convex vertex from the position of the concavo-convex vertex of the curved surface having the concavo-convex shape, with the Gaussian curvature K calculated by the strain amount calculation unit 121 being greater than or less than 0. The dart line is set so as to go to the boundary line between the developable surface and the curved surface having the concavo-convex shape, and the display control unit 140 is instructed to display the set dart line on the clothing model surface.
[0053]
The crease area setting unit 124 calculates the crease ratio based on the dimensions of the two cloths to be bonded.
[0054]
The mesh creation unit 125 creates a predetermined mesh on the clothing model configuration surface created by the design unit 110 and stores the coordinates of each vertex of the created mesh in the mesh data storage unit 202. Note that the mesh generation method in this case is not particularly limited, and various mesh generation methods can be used. For example, a triangle or a quadrangle can be used as the mesh shape for dividing the paper pattern model.
[0055]
The mesh expansion unit 126 expands the mesh created by the mesh creation unit 125 on a two-dimensional plane. Further, when an overlap (overlap) occurs between the developed meshes, the mesh development unit 126 moves the position of the vertex of the mesh developed on the two-dimensional plane so as to avoid the overlap. Further, the mesh developing unit 126 acquires the arrangement position on the human body model of the pattern model developed on the two-dimensional plane, and stores it in the pattern arrangement information storage unit 206.
[0056]
The paper pattern correction unit 127 corrects the shape of the paper pattern model in accordance with the direction of the threads of the fabric.
[0057]
The display control unit 140 reads out the human body model data stored in the human body model storage unit 201 and displays it on the display unit 400.
[0058]
Moreover, the display control part 140 maps the texture which the operator selected among the textures memorize | stored in the texture memory | storage part 203 on the clothing model surface.
[0059]
In addition, the display control unit 140 reads out various tools stored in the tool storage unit 204 and displays them on the display unit 400. When the operator creates a clothing model by operating the tools, the display control unit 140 responds to the operation of the operator. To change the shape of the clothing model.
[0060]
In addition, the display control unit 140 displays a pattern model of a clothing model obtained by the two-dimensional development unit 120 developing the three-dimensionally displayed clothing model on a two-dimensional plane on the display unit 400. In addition, the display control unit 140 causes the display unit 400 to display the three-dimensional clothing model created by the three-dimensional model creation unit 130 from the pattern model.
[0061]
In addition, the display control unit 140 outputs the pattern model created by the two-dimensional development unit 120 to the printer 500 to print the pattern model on the sheet.
[0062]
Next, processing performed by the design unit 110 will be described with reference to the flowchart shown in FIG. First, in step S <b> 1, the display control unit 140 reads out the human body model stored in the human body model storage unit 201 and displays it on the display unit 400.
[0063]
Next, in step S2, when the operator instructs to display other than the body part of the human body model translucently, the display control unit 140 displays the part other than the body part of the human body model translucently.
[0064]
Next, in step S <b> 3, the attention protrusion point acquisition unit 111 acquires two protrusion points selected by the operator from among a plurality of protrusion points displayed in advance on the surface of the human body model as attention protrusion points. FIG. 4 is a diagram for explaining how the operator selects a protruding point. As shown in FIG. 4, a total of four protruding points TT on the top of the chest and the top of the scapula are displayed in advance on the surface of the human body model. When the operator clicks the selection tool TA at the position of two desired projecting points TT from the plurality of projecting points TT, the focused projecting point acquisition unit 111 selects the projected projecting points CT as the projected projecting points CT. Get as. In FIG. 4, the protrusion points TT at the tops of both chests are acquired as the attention protrusion points CT.
[0065]
When the operator clicks the protruding point creation tool TB at a predetermined position on the surface of the human body model, the display control unit 140 creates a protruding point at that position. Then, the attention protrusion point acquisition unit 111 can also acquire the generated protrusion point as the attention protrusion point CT.
[0066]
Next, in step S4, the line creation unit 112 connects the target protruding points with a straight line. In FIG. 4, the protruding points CT at the top of the chest are connected by a straight line L1. Next, in step S5, the line creation unit 112 determines whether or not the straight line created in step S4 penetrates the human body model. When the created straight line penetrates the human body model, the target protruding points CT are connected by a curve along the shape of the human body model surface (step S6).
[0067]
Next, in step S7, when the operator drags a straight line or curve connecting the feature points of interest, as shown in FIG. 4, the straight line L1 is slid in the vertical direction according to the drag amount to form a locus LS of the straight line L1. And the surface shape of the clothes model.
[0068]
Next, in step S8, it is determined whether or not a straight line or curved line connecting the feature points of interest penetrates the human body model. If the straight line or curved line penetrates the human body model (YES in step S8), The shape is a shape along the shape of the human body model surface (step S9). Again, a new attention feature point is selected and a straight or curved locus connecting the attention feature points is formed to create a clothing model of the body part.
[0069]
Next, processing of the design unit 110 when designing the sleeve portion will be described with reference to the flowchart shown in FIG.
[0070]
First, in step S21, when the operator instructs the human body model to display semi-transparent parts other than the right arm or left arm part, the display control unit 140 displays semi-transparent parts other than the right arm or left arm part.
[0071]
Next, in step S22, when the mouse pointer is placed on the armhole and dragged in the direction of the hand, the armhole trajectory grows and the sleeve portion of the clothing model is formed according to the drag amount.
[0072]
Next, in step S23, when the operator sets the clearance amount of the sleeve portion, the clearance amount adjustment unit 116 changes the thickness of the sleeve according to the set clearance amount. FIG. 6 is a diagram for explaining how the thickness of the sleeve is adjusted. In FIG. 6, the sleeve cross section S1 is enlarged to S1 ′ by dragging the clear amount setting tool outwardly in accordance with the outer periphery of the sleeve cross section S1 near the armhole, and the clear amount setting tool is used as the sleeve cross section S2 of the elbow portion. The sleeve section S2 is enlarged to S2 'by dragging it toward the outer side in accordance with the outer periphery of the sleeve, and the sleeve section by dragging the sleeve amount setting tool toward the inner side in accordance with the outer periphery of the sleeve section S3 on the hand side. S3 is reduced to S3 ′, and the sleeve shape is changed so as to connect the outer peripheries of the sleeve cross sections S1 ′, S2 ′, and S3 ′. In addition, in FIG. 6, although 3 places, sleeve cross-section S1, S2, and S3, were selected, it is not limited to this, You may select the sleeve cross-section of 2 places or less, or 4 places or more. Further, the position of the cross section of the sleeve to be adjusted is not limited to the vicinity of the armhole, the vicinity of the elbow, and the vicinity of the hand, and for example, any position on the sleeve can be selected.
[0073]
Next, when the operator moves the position of the sleeve mountain in step S24, the display control unit 140 changes the position of the sleeve mountain according to the drag amount. FIG. 7 is a diagram for explaining how the shape of the sleeve mountain changes. When the mouse pointer is dragged to the sleeve mountain ST and the position of the sleeve mountain ST is dragged to the position ST ′, the display control unit 140 passes the shape near the shoulder of the body and the shape of the sleeve through the position ST ′. change. This makes it possible to represent a shoulder pad.
[0074]
Next, processing of the design unit 110 when designing a skirt will be described with reference to the flowchart shown in FIG. First, in step S31, when the operator instructs to display a portion other than the lower half of the human body model in a translucent manner, the display control unit 140 displays a portion other than the lower half of the human body model in a translucent manner.
[0075]
In step S32, when the operator moves the mouse pointer to a position near the waist of the human body model and double-clicks, the display control unit 140 reads the texture representing the waist line from the texture storage unit 203, and the texture of the read waist line. Is mapped to the waist position on the surface of the human body model. In this case, a waist line WL is displayed on the human body model as shown in FIG.
[0076]
Next, in step S33, when the operator drags the mouse pointer along the waist line WL in the vertical direction, the trajectory creation unit 113 slides the waist line WL in the vertical direction according to the drag amount.
[0077]
Next, in step S34, when the locus of the waistline WL intersects the human body model (YES in step S34), the trajectory changing unit 114 changes the shape of the skirt formed thereafter to the shape of the human body model. (Step S35). On the other hand, when the locus of the waist line does not intersect the human body model (NO in step S34), the locus of the waist line WL is set as the shape of the skirt. In this case, as shown in FIG. 9, the waistline WL intersects the human body model immediately after dragging, so the shape of the skirt SK becomes a shape that follows the shape of the human body model.
[0078]
Next, when the operator inputs a skirt clearance amount via the operation unit 300 in step S36, the clearance amount adjustment unit 116 adjusts the opening degree of the skirt SK according to the input clearance amount. As a method for inputting the clearance, for example, when a skirt type such as a drape skirt or a pleated skirt is selected, the shape of the skirt SK may be changed according to the type. Further, when the operator moves the mouse pointer to an arbitrary position of the skirt and drags it in the horizontal direction, the shape of the skirt may be changed according to the drag amount. In this case, as shown in FIG. 9, when the mouse pointer is placed on the outer periphery of the cross-section SK1 on the foot side of the skirt and dragged with the horizontal direction outward, the cross-section SK1 expands according to the drag amount. The shape of the skirt is changed so as to connect the outer periphery of the cross-sectional area SK1 ′ and the waist line WL. Thereby, the shape of the skirt can be adjusted.
[0079]
Next, when the operator operates the decoration tool in step S37, the display control unit 140 applies decoration to the skirt SK in accordance with the decoration tool operation. As decoration tools, there are a pleat tool for folding a skirt, a gather tool for gathering a skirt, and a drape tool for designing a skirt with a cloth drooping. When the operator performs various operations on these decorative tools in accordance with the desired position of the skirt, pleats, gathers, and drapes are attached to the positions.
[0080]
Next, when the operator performs a skirt cutting operation or the like using a knife tool in step S38, the display control unit 140 cuts the skirt according to the operator's cutting operation and changes the shape of the skirt. Thereby, the shape of the skirt is adjusted.
[0081]
Next, processing performed by the design unit 110 when designing the pants will be described with reference to the flowcharts of FIGS. 10 and 11. The processing from step S41 to S43 is the same as the processing from step S31 to S33 shown in FIG.
[0082]
Next, in step S44, when the trajectory intersects the human body model (YES in step S44), the trajectory changing unit 114 changes the pants into a shape along the human body model (step S45). When creating the pants, the operator stops dragging the waistline at the crotch (the base of both feet).
[0083]
Next, in step S46, when the operator performs a cutting operation on the crotch portion with the scissors tool, the display control unit 140 cuts the crotch portion. In this case, as shown in FIG. 12, incisions PK are made in the crotch portion so as to follow the shape of the legs near the crotch, for example. Then, according to the operation of the operator, the merge unit 115 connects the front part and the rear part of the crotch part. This represents the crotch of the pants.
[0084]
Next, in step S47, when the operator moves the mouse pointer to the position of the outer circumference (leg hole) of the cross section of the right foot or left foot near the crotch and drags it vertically, the leg hole trajectory grows and the pants A hem is formed.
[0085]
Next, in step S48, when the trajectory of the outer circumference intersects with the human body model (YES in step S48), the trajectory changing unit 114 changes the shape of the subsequent pants along the leg of the human body model (step S49). ). In this case, as shown in FIG. 12, the locus of the leg hole LH on the left foot near the crotch is the trouser hem LT.
[0086]
Next, in step S50, when the operator performs an operation of creasing the pants or an operation of turning back the bottom of the pants with the crease tool, the display control unit 140 creases the pants or the pants according to the operation of the operator. Wraps the hem and displays it. In this case, in FIG. 12, a tuck TP is created near the waist of the front part of the pants by the display control unit 140 by the operation of the operator.
[0087]
Next, when the operator inputs a clearance amount via the operation unit 300 in step S51, the clearance amount adjustment unit 116 adjusts the clearance amount of the pants according to the input clearance amount. In this case, as shown in FIG. 13, when the operator moves the mouse pointer to the position of the cross section P1 and drags the mouse pointer outward in the horizontal direction so that the cross section P1 is enlarged, the cross section P1 is enlarged to the cross section P1 ′. When the mouse pointer is placed on each of the cross sections P2, P3, and P4 and the horizontal direction is dragged inward, the cross sections P2, P3, and P4 are reduced to the cross sections P2 ′, P3 ′, and P4 ′, respectively. Then, the display control unit 140 changes the shape of the pants so as to connect the enlarged cross section P1 ′ and the reduced cross sections P2 ′, P3 ′, and P4 ′. Thereby, the clearance of the pants is adjusted. In addition, the place which can expand or reduce the cross section of the pants is not limited to the above four places, and the cross section of an arbitrary place designated by the operator can be enlarged or reduced. Also, if the operator specifies the shape of the pants such as bell bottom or slim, the display control unit 140 may change the shape of the pants so that the shape of the pants becomes the specified shape.
[0088]
Next, processing performed by the design unit 110 when designing a collar will be described with reference to the flowchart shown in FIG. First, in step S61, when the operator instructs to display a part other than the neck of the human body model translucently, the display control unit 140 displays the part other than the neck of the human body model translucently.
[0089]
Next, in step S62, when the operator drags the closed curve (neck hole) at the base portion of the neck and torso of the human body model in the direction opposite to the vertical direction, the trajectory creation unit 113 selects the neck hole according to the drag amount. Growing the trajectory.
[0090]
In step S63, when the operator performs a cutting operation on the locus of the neck hole using the scissors tool, the display control unit 140 cuts the locus of the neck hole according to the operation of the operator.
[0091]
Next, in step S64, when the operator uses the folding tool to put a crease for forming a collar on the locus of the neck hole, the display control unit 140 folds the collar by folding the locus of the neck hole along the crease. indicate.
[0092]
Next, in step S65, when the operator performs an operation for adjusting the shape of the collar using various tools, the display control unit 140 changes the shape of the collar according to the operation of the operator.
[0093]
Next, the processing performed by the two-dimensional developing unit 120 when the clothing model is developed on a two-dimensional plane will be described with reference to the flowcharts shown in FIGS. First, in step S71, the distortion amount calculation unit 121 calculates the Gaussian curvature K and the average curvature H of the clothing model surface. Next, in step S72, the developable surface extraction unit 122 extracts a surface having a Gaussian curvature K of 0 as a developable surface.
[0094]
Next, in step S <b> 73, the sneak area setting unit 124 instructs the display control unit 140 to display the recommended cut line area on the surface of the clothing model based on the Gaussian curvature K.
[0095]
Next, when there is a cutting instruction by the operator (YES in step S74), the display control unit 140 cuts the area specified by the operator (step S75). Next, in step S76, the dart setting unit 123 sets a surface where the Gaussian curvature K calculated by the distortion amount calculation unit 121 is greater than 0 as a dart recommended region, and displays the set dart recommended region on the surface of the clothing model. The display control unit 140 is instructed. In this case, as shown in FIG. 18, the dart setting unit 123 uses the dart line DL constituting the contour line of the dart region between the vertex TP of the convex curved surface RS having a Gaussian curvature K larger than 0 and the developable surface CS. Set to connect the boundary.
[0096]
Next, in step S77, the distortion amount calculation unit 121 calculates the curvature of the clothing model in each of the case where the dart is inserted in the dart recommended area determined in step S76 and the case where the dart is not inserted.
[0097]
Next, when an instruction to insert a dart is given by the operator in step S78 (YES in step S78), the dart is inserted into an area designated by the operator (step S80). Next, the distortion amount calculation unit 121 subtracts the distortion amount when the dart is inserted from the distortion amount when the dart is not inserted, and calculates the distortion reduction amount when the dart is inserted (step S81). On the other hand, if there is no instruction for dart insertion by the operator in step S78 (NO in step S78), the recommended dart area displayed on the clothing model surface in step S76 is deleted (step S82).
[0098]
Next, in step S83, the developable surface extraction unit 122 sets a surface having a Gaussian curvature K smaller than 0 as a recommended recommended area, and the display control unit 140 displays the set recommended recommended area on the surface of the clothing model. To instruct.
[0099]
Next, in step S84, the operator uses a pen tool to draw a line so as to intersect the crease area and specify the direction in which the stitches of the pattern model are aligned. Next, in step S85, the depth of intrusion (the region that becomes three-dimensional by intrusion) is designated.
[0100]
Next, in step S86, the wiping area setting unit 124 calculates the wiping ratio, and if the wiping ratio is 140% or more or 70% or less, it is determined that wiping is difficult and indicates that wiping is not recommended. Therefore, for example, the display control unit 140 is instructed to display a warning area with a warning color. In addition, since the squeeze ratio changes depending on the thread direction set after unfolding, the squeeze area setting unit 124 calculates here that warp threads are set in the vertical direction.
[0101]
Next, in step S87, the mesh creating unit 125 creates a triangular or quadrangular mesh on the surface of the clothing model.
[0102]
Next, in step S88, the mesh developing unit 126 develops the central mesh on a two-dimensional plane. FIG. 19 is a diagram for explaining a state in which the mesh expansion unit 126 expands a mesh created in the clothing model configuration surface of the front body to a two-dimensional plane, and (a) is a three-dimensionally created clothing. A model is shown, (b) has shown the state which expanded the clothes model of (a) on a two-dimensional plane. First, the mesh expansion unit 126 determines a center mesh CM at a substantially middle position in the central portion in the vertical direction, acquires a mesh NM adjacent to the center mesh CM, and further acquires a mesh adjacent to the mesh NM, ... A group of meshes connected in a line is acquired as a central line mesh CML. Then, the central line mesh CML is developed on a two-dimensional plane.
[0103]
Next, in step S89, when an overlap occurs in the mesh developed on the two-dimensional plane, the mesh development unit 126 performs a process of correcting the overlap. FIGS. 20A and 20B are diagrams for explaining a process in which the mesh expansion unit 126 corrects the overlap of the mesh. FIG. 20A shows a mesh in which the overlap has occurred, and FIG. 20B shows a mesh in which the overlap has been corrected. Is shown. As shown in (a), since the vertex CP shared by the meshes M1 to M6 is located outside the hexagon HE formed by one side constituting each of the meshes M1 to M6, it is over between the meshes M1 to M6. It can be seen that there is a wrap. Therefore, the mesh expansion unit 126 moves the vertex CP to the position of approximately the midpoint between the center of gravity GP of the hexagon HE and the vertex P in order to avoid overlap, as shown in FIG. The overlap of M1 to M6 is avoided.
[0104]
Next, in step S90, as shown in FIG. 19, the mesh expansion unit 126 acquires the mesh group that is connected in two lines located on both sides of the central line mesh CML as the first line mesh FML, and acquires the mesh group. The first line mesh FLM is developed on a two-dimensional plane.
[0105]
Next, in step S91, the mesh expansion unit 126 performs the same processing as in step S89 on the first mesh line FML expanded on the two-dimensional plane, and corrects the overlap.
[0106]
Next, in step S92, the mesh development unit 126 acquires a mesh group connected in two lines located on both sides of the first line mesh FML as a second mesh line SML, and acquires the acquired second line mesh SML. To a two-dimensional plane.
[0107]
Next, in step S93, the mesh expansion unit 126 acquires a mesh group adjacent to the outside of the second line mesh SML processed in step S92 as a new second line mesh SML, and all the meshes are expanded on a two-dimensional plane. Until it is done, the processing of steps S91 to S92 is repeated, and when the development of the two-dimensional plane of the mesh is completed, the process proceeds to step S94. As described above, the mesh expansion unit 126 does not expand all the meshes on the two-dimensional plane at once, but expands the meshes on the two-dimensional plane using the mesh group connected in a line as one processing unit. It is possible to develop a mesh on a two-dimensional plane without greatly changing the shape of the mesh created on the three-dimensional clothing model construction surface.
[0108]
FIG. 21 shows a screen on which a clothing model displayed three-dimensionally and a pattern model created by expanding the clothing model displayed three-dimensionally on a two-dimensional plane are displayed. In FIG. 21, the left-hand window LW displays a three-dimensionally created clothing model, and the right-hand window RW displays a pattern model of the clothing model. In FIG. 21, when an operator operates the operation unit 300 to create a clothing model on the human body model MO displayed in the left window LW, a pattern model KP corresponding to the clothing model designed in the right window RW is displayed. Is displayed.
[0109]
In step S94, when the operator sets a stitch line to the pattern model, the pattern correction unit 127 corrects the shape of the pattern pattern based on the direction of the stitch line. FIG. 22 is a diagram showing a change in shape when a stitch is set in a substantially hemispherical bust region R1 in a three-dimensionally created clothing model and the region R1 is developed on a two-dimensional plane. ) Shows clothes created three-dimensionally, (b) shows a case where the region R1 is developed on a two-dimensional plane without setting the stitches, and (c) shows the stitches IL parallel to the sides constituting the square. (D) shows a case where the region R1 is developed with the thread IL set parallel to the square diagonal line.
[0110]
Since cloth tends to stretch in the bias direction (45 °, 135 ° direction) with respect to the direction of the stitches, if this property is taken into consideration, when a three-dimensionally displayed clothing model is developed on a two-dimensional plane, for example, As shown in (c) or (d). As shown in (c), when the thread IL is set in parallel with each side of the square, the square is reduced in the direction X toward the center of the square on the diagonal direction, and a rounded shape with rounded corners. Become. Further, as shown in (d), when the stitch is set in the direction of the diagonal line of the square, each side of the square is reduced in the direction Y toward the center of the square, and each side of the square has a depressed shape.
[0111]
Next, processing until the three-dimensional model creation unit 130 pastes the paper pattern model developed on the two-dimensional plane onto the human body model and creates the paper pattern model will be described with reference to the flowchart shown in FIG. First, in step S <b> 71, the three-dimensional model creation unit 130 reads pattern paper data from the pattern data storage unit 205. Next, in step S <b> 72, the three-dimensional model creation unit 130 reads from the pattern pattern layout information storage unit 206 layout information indicating the dressing position of the read pattern model on the human body model. Next, in step S73, the three-dimensional model creation unit 130 instructs the display control unit 140 to convert the paper pattern model into three-dimensional image data based on the read arrangement information and display it on the human body model. To do.
[0112]
Next, in step S74, when the clothes model attached to the human body model is corrected by the operator, the display control unit 140 changes the shape of the clothes model in accordance with the correction of the operator.
[0113]
Next, in step S75, the two-dimensional development unit 120 changes the shape of the pattern model in accordance with the correction of the clothing model, and updates the contents of the pattern data stored in the pattern data storage unit 205.
[0114]
Next, in step S <b> 76, when the operator instructs to print the paper pattern model, the display control unit 140 reads the paper pattern data from the paper pattern data storage unit 205 and outputs it to the printer 500. As a result, an actual pattern is created.
[0115]
As shown in Japanese Patent No. 2614691, the three-dimensional model creation unit 130 creates a ring arranged in a plurality of vertical directions along the outer periphery of the human body model, and pastes the paper pattern model on the ring. Thus, the paper pattern model may be displayed three-dimensionally.
[0116]
【The invention's effect】
As described above, according to the image processing apparatus of the present invention, the clothes model created by the operator in a three-dimensional manner is automatically developed as a two-dimensional pattern. This makes it possible to omit the work of creating a pattern model. As a result, even a person who does not have specialized knowledge in the design field can easily create a clothing model. Furthermore, since a clothing model can be created three-dimensionally, it is necessary to create a pattern model while imagining how the two-dimensionally displayed pattern is displayed in three dimensions. The clothes model can be created more intuitively.
[Brief description of the drawings]
FIG. 1 is a block diagram illustrating a configuration of an image processing apparatus according to an embodiment of the present invention.
FIG. 2 is a block diagram of an image processing apparatus according to the present embodiment.
FIG. 3 is a flowchart illustrating processing performed by a design unit.
FIG. 4 is a diagram for explaining how an operator selects a protruding point.
FIG. 5 is a flowchart illustrating a process performed by a design unit when designing a sleeve portion.
FIG. 6 is a diagram for explaining how to adjust the thickness of a sleeve;
FIG. 7 is a diagram for explaining a change in the shape of a sleeve mountain;
FIG. 8 is a flowchart showing processing performed by a design unit when designing a skirt.
FIG. 9 is a diagram for explaining how a skirt is designed.
FIG. 10 is a flowchart showing processing performed by a design unit when designing pants.
FIG. 11 is a flowchart showing processing performed by a design unit when designing pants.
FIG. 12 is a diagram for explaining how pants are designed.
FIG. 13 is a diagram for explaining how the shape of the pants is changed.
FIG. 14 is a flowchart illustrating a process performed by a design unit when designing a collar.
FIG. 15 is a flowchart illustrating processing performed by a two-dimensional expansion unit when a clothing model is expanded on a two-dimensional plane.
FIG. 16 is a flowchart illustrating processing performed by a two-dimensional expansion unit when a clothing model is expanded on a two-dimensional plane.
FIG. 17 is a flowchart showing processing performed by a two-dimensional expansion unit when a clothing model is expanded on a two-dimensional plane.
FIG. 18 is a diagram for explaining how a dart line is set.
FIG. 19 is a diagram for explaining a state in which the mesh development unit develops a mesh created in the clothing model construction plane of the front body into a two-dimensional plane, and (a) is a three-dimensionally created clothing. A model is shown, (b) has shown the state which expanded the clothes model of (a) on a two-dimensional plane. .
FIGS. 20A and 20B are diagrams for explaining a process in which a mesh developing unit corrects mesh overlap, in which FIG. 20A shows a mesh in which overlap has occurred, and FIG. 20B shows a mesh in which overlap has been corrected; Show.
FIG. 21 is a screen diagram on which a three-dimensionally displayed clothing model and a pattern created by expanding the three-dimensionally displayed clothing model on a two-dimensional plane are displayed.
FIG. 22 is a diagram showing a change in shape when a stitch is set in a region R1 on the surface of a clothing model created three-dimensionally and the region R1 is developed on a two-dimensional plane; FIG. Dimensionally created clothing is shown, (b) shows the case where the region R1 is expanded to a two-dimensional plane without setting the stitches, and (c) shows the stitches IL set parallel to the sides forming the square. (D) shows the case where the region R1 is developed with the thread IL set parallel to the square diagonal.
FIG. 23 is a flowchart showing a process in which a three-dimensional model creation unit pastes a pattern developed on a two-dimensional plane onto a human body model.
[Explanation of symbols]
1 Input device
2 ROM
3 CPU
4 RAM
5 Auxiliary storage devices
6 Display device
7 Recording medium drive
8 Recording media
9 Bus line
100 Program execution part
110 Design Department
111 Remarkable point acquisition unit
112 Line creation section
113 Trajectory generator
114 Trajectory change unit
115 Merge section
116 Clearance adjustment section
120 Two-dimensional development unit
121 Distortion amount calculation unit
122 developable surface extraction part
123 dart setting section
124 Ise area setting part
125 mesh generator
126 Mesh development part
127 Pattern correction section
130 3D model generator
140 Display control unit
200 storage unit
201 Human body model storage
202 Mesh data storage unit
203 Texture storage
204 Tool storage
205 Paper pattern data storage
206 Pattern layout information storage unit
300 Operation unit
400 display
500 printer

Claims (8)

仮想的に衣服モデルを作成する画像処理装置であって、
オペレータの操作指令を受け付ける入力手段と、
前記入力手段が受け付けたオペレータの操作指令に応じて、3次元的に表示された人体モデルの表面形状に適合するように3次元的に衣服モデルを作成する衣服モデル作成手段と、
前記衣服モデル作成手段が作成した衣服モデルを、少なくとも1つの型紙モデルとして2次元平面へ展開する展開手段と、
前記衣服モデル及び前記型紙モデルを表示装置に表示させる表示制御手段と、
前記人体モデルの表面において、外側に向かって突き出した少なくとも2つの突出点を取得する取得手段とを備え、
前記衣服モデル作成手段は、前記取得手段によって取得された突出点間を結ぶ直線を、オペレータの操作指令に応じて、垂直方向に移動することにより形成される軌跡を衣服モデルの形状とし、かつ、前記突出点間を結ぶ直線又はその直線の軌跡が前記人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡を前記人体モデルの表面に沿った形状に変更することを特徴とする画像処理装置。
An image processing apparatus for virtually creating a clothing model,
An input means for receiving an operation command of the operator;
Clothing model creation means for creating a clothing model three-dimensionally so as to conform to the surface shape of the human body model displayed three-dimensionally in accordance with an operator's operation command received by the input means;
Expanding means for expanding the clothes model created by the clothes model creating means on a two-dimensional plane as at least one pattern model;
Display control means for displaying the clothes model and the pattern model on a display device;
An acquisition means for acquiring at least two protruding points protruding outward on the surface of the human body model;
The clothing model creating means sets a trajectory formed by moving a straight line connecting the protruding points acquired by the acquiring means in a vertical direction according to an operation command of the operator as the shape of the clothing model, and When the straight line connecting the protruding points or the trajectory of the straight line penetrates the human body model, the straight line or the straight line trajectory of the penetrating part is changed to a shape along the surface of the human body model. apparatus.
前記衣服モデル作成手段は、人体モデル表面に形成された閉曲線を移動することにより形成された軌跡を衣服モデルの形状とすることを特徴とする請求項記載の画像処理装置。The garment model creating means, the image processing apparatus according to claim 1, characterized in that the locus formed by moving the closed curve formed on a human body model surface and shape of the garment model. 前記取得手段は、前記人体モデルの表面から外側に向かって所定距離離間した位置を前記突出点として取得することを特徴とする請求項1又は2記載の画像処理装置。The acquisition unit, an image processing apparatus according to claim 1, wherein obtaining a position a predetermined distance outwardly from the surface of the human body model as the salient points. 前記展開手段は、前記3次元的に表示された衣服モデルの曲率を基に、前記型紙モデルに対してダーツ処理またはいせ込み処理を施すことを特徴とする請求項1〜のいずれかに記載の画像処理装置。The expansion means according to the basis of the curvature of the three-dimensionally displayed clothing model, to any one of claims 1 to 3, characterized by applying darts treatment or Ise narrowing process on the paper pattern model Image processing apparatus. 前記展開手段は、前記3次元的に表示された衣服モデル上に仮想的に設定された糸目の方向に基づいて、前記型紙モデルを展開することを特徴とする請求項1〜のいずれかに記載の画像処理装置。The expansion means, based on the direction of the fine line which is virtually set on the three-dimensionally displayed clothing model, to any one of claims 1 to 4, characterized in that deploying the paper pattern model The image processing apparatus described. コンピュータが、仮想的に衣服モデルを作成する画像処理方法であって、
コンピュータが、オペレータの操作指令を受け付ける入力ステップと、
コンピュータが、前記入力ステップで受け付けたオペレータの操作指令に応じて、3次元的に表示された人体モデルの表面形状に適合するように3次元的に衣服モデルを作成する衣服モデル作成ステップと、
コンピュータが、前記衣服モデル作成ステップで作成した衣服モデルを、少なくとも1つの型紙モデルとして2次元平面へ展開する展開ステップと、
コンピュータが、前記衣服モデル及び前記型紙モデルを表示装置に表示させる表示制御ステップと、
コンピュータが、前記人体モデルの表面において、外側に向かって突き出した少なくとも2つの突出点を取得する取得ステップと、
前記衣服モデル作成ステップは、前記取得ステップで取得された突出点間を結ぶ直線を、オペレータの操作指令に応じて、垂直方向に移動することにより形成される軌跡を衣服モデルの形状とし、かつ、前記突出点間を結ぶ直線又はその直線の軌跡が前記人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡を前記人体モデルの表面に沿った形状に変更することを特徴とする画像処理方法。
An image processing method in which a computer virtually creates a clothing model,
An input step in which the computer receives an operator's operation command;
A clothing model creation step in which the computer creates a clothing model three-dimensionally so as to conform to the surface shape of the human body model displayed three-dimensionally in accordance with the operator's operation command received in the input step ;
A development step in which the computer develops the clothing model created in the clothing model creation step on a two-dimensional plane as at least one pattern model;
A display control step in which the computer displays the clothing model and the pattern model on a display device;
An acquisition step in which a computer acquires at least two protruding points protruding outward on the surface of the human body model;
The clothing model creating step takes a trajectory formed by moving a straight line connecting the protruding points acquired in the acquiring step in the vertical direction according to an operation command of the operator as a shape of the clothing model, and When the straight line connecting the protruding points or the trajectory of the straight line penetrates the human body model, the straight line or the straight line trajectory of the penetrating part is changed to a shape along the surface of the human body model. Method.
コンピュータに仮想的に衣服モデルを作成させる画像処理プログラムであって、
コンピュータをオペレータの操作指令を受け付ける入力手段、
コンピュータを前記入力手段が受け付けたオペレータの操作指令に応じて、3次元的に表示された人体モデルの表面形状に適合するように3次元的に衣服モデルを作成する衣服モデル作成手段、
コンピュータを前記衣服モデル作成手段が作成した衣服モデルを、少なくとも1つの型紙モデルとして2次元平面へ展開する展開手段、
コンピュータを前記衣服モデル及び前記型紙モデルを表示装置に表示させる表示制御手段、
コンピュータを前記人体モデルの表面において、外側に向かって突き出した少なくとも2つの突出点を取得する取得手段として機能させ、
前記衣服モデル作成手段は、前記取得手段によって取得された突出点間を結ぶ直線を、オペレータの操作指令に応じて、垂直方向に移動することにより形成される軌跡を衣服モデルの形状とし、かつ、前記突出点間を結ぶ直線又はその直線の軌跡が前記人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡を前記人体モデルの表面に沿った形状に変更することを特徴とする画像処理プログラム。
An image processing program for virtually creating a clothing model on a computer,
An input means for receiving an operation command of an operator from a computer;
Clothing model creation means for creating a clothing model three-dimensionally so as to conform to the surface shape of the human body model displayed three-dimensionally in accordance with an operator's operation command received by the input means;
Expanding means for expanding a clothes model created by the clothes model creating means on a two-dimensional plane as at least one pattern model;
Display control means for causing the computer to display the clothing model and the pattern model on a display device;
Causing the computer to function as acquisition means for acquiring at least two protruding points protruding outward on the surface of the human body model;
The clothing model creation means has a trajectory formed by moving a straight line connecting the protruding points acquired by the acquisition means in the vertical direction in accordance with an operation command of the operator as the shape of the clothing model, and When the straight line connecting the protruding points or the trajectory of the straight line penetrates the human body model, the straight line or the straight line trajectory of the penetrating part is changed to a shape along the surface of the human body model. program.
コンピュータに仮想的に衣服モデルを作成させる画像処理プログラムを記録するコンピュータ読み取り可能な記録媒体であって、
コンピュータをオペレータの操作指令を受け付ける入力手段、
コンピュータを前記入力手段が受け付けたオペレータの操作指令に応じて、3次元的に表示された人体モデルの表面形状に適合するように3次元的に衣服モデルを作成する衣服モデル作成手段、
コンピュータを前記衣服モデル作成手段が作成した衣服モデルを、少なくとも1つの型紙モデルとして2次元平面へ展開する展開手段、
コンピュータを前記衣服モデル及び前記型紙モデルを表示装置に表示させる表示制御手段、
コンピュータを前記人体モデルの表面において、外側に向かって突き出した少なくとも2つの突出点を取得する取得手段として機能させ、
前記衣服モデル作成手段は、前記取得手段によって取得された突出点間を結ぶ直線を、オペレータの操作指令に応じて、垂直方向に移動することにより形成される軌跡を衣服モデルの形状とし、かつ、前記突出点間を結ぶ直線又はその直線の軌跡が前記人体モデルを貫通した場合、貫通した部分の直線又は直線の軌跡を前記人体モデルの表面に沿った形状に変更することを特徴とする画像処理プログラムを記録したコンピュータ読取可能な記録媒体。
A computer-readable recording medium for recording an image processing program for causing a computer to virtually create a clothing model,
An input means for receiving an operation command of an operator from a computer;
Clothing model creation means for creating a clothing model three-dimensionally so as to conform to the surface shape of the human body model displayed three-dimensionally in accordance with an operator's operation command received by the input means;
Expanding means for expanding a clothes model created by the clothes model creating means on a two-dimensional plane as at least one pattern model;
Display control means for causing the computer to display the clothing model and the pattern model on a display device;
Causing the computer to function as acquisition means for acquiring at least two protruding points protruding outward on the surface of the human body model;
The clothing model creating means sets a trajectory formed by moving a straight line connecting the protruding points acquired by the acquiring means in a vertical direction according to an operation command of the operator as the shape of the clothing model, and When the straight line connecting the protruding points or the trajectory of the straight line penetrates the human body model, the straight line or the straight line trajectory of the penetrating part is changed to a shape along the surface of the human body model. A computer-readable recording medium on which a program is recorded.
JP2002226534A 2002-08-02 2002-08-02 Image processing apparatus, image processing method, image processing program, and recording medium recording the program Expired - Fee Related JP4216537B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2002226534A JP4216537B2 (en) 2002-08-02 2002-08-02 Image processing apparatus, image processing method, image processing program, and recording medium recording the program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2002226534A JP4216537B2 (en) 2002-08-02 2002-08-02 Image processing apparatus, image processing method, image processing program, and recording medium recording the program

Publications (2)

Publication Number Publication Date
JP2004070519A JP2004070519A (en) 2004-03-04
JP4216537B2 true JP4216537B2 (en) 2009-01-28

Family

ID=32013844

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002226534A Expired - Fee Related JP4216537B2 (en) 2002-08-02 2002-08-02 Image processing apparatus, image processing method, image processing program, and recording medium recording the program

Country Status (1)

Country Link
JP (1) JP4216537B2 (en)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100353879C (en) * 2005-12-31 2007-12-12 宁波宜科科技实业股份有限公司 Method for establishing assembled chest lining profile using non-contact type three-dimensional human body automatic measuring technique
ES2282037B1 (en) * 2006-03-08 2008-09-16 Juan Carlos Garcia Aparicio MANUFACTURING PROCEDURE FOR DIGITAL REMOVABLE DENTAL PROTESIES DESIGNED AND SYSTEM REQUIRED FOR SUCH PURPOSE.
CN101785033B (en) * 2007-08-24 2012-07-18 株式会社岛精机制作所 Layering simulation apparatus, simulation method
JP6153377B2 (en) * 2013-05-02 2017-06-28 株式会社島精機製作所 Clothing design equipment
JP6352044B2 (en) * 2014-05-09 2018-07-04 セーレン株式会社 Layered image processing apparatus and method
DE102016209675A1 (en) * 2016-06-02 2017-12-07 Adidas Ag Method and system for making a garment
JP7141583B2 (en) * 2017-03-24 2022-09-26 博克 柳▲瀬▼ Garment design support device, garment design support program, garment design support system, garment design support method, and garment manufacturing method
US11398079B2 (en) * 2020-09-23 2022-07-26 Shopify Inc. Systems and methods for generating augmented reality content based on distorted three-dimensional models
CN113419485B (en) * 2021-06-25 2022-07-15 吉安砺芯半导体有限责任公司 Positioning and punching method, equipment, storage medium and device

Also Published As

Publication number Publication date
JP2004070519A (en) 2004-03-04

Similar Documents

Publication Publication Date Title
CN111291431B (en) Method for producing three-dimensional fully-formed knitted paper pattern
US7409259B2 (en) Computer-assisted method for designing garments
KR101808726B1 (en) Method and apparatus for creating 3D cloth
US8249738B2 (en) Device and method for designing a garment
US8116896B2 (en) Method for creating panels for a garment
KR101763361B1 (en) Method and apparatus for creating 3D cloth
JP4216537B2 (en) Image processing apparatus, image processing method, image processing program, and recording medium recording the program
WO2017059511A1 (en) Computerised method for creating and editing surfaces to represent garments on the body of a mannequin in a virtual three-dimensional environment
KR102332069B1 (en) Methode and apparatus of grading clothing including subsidiiary elements
KR101726397B1 (en) Method and Apparatus for generating a sewing line and a seam allowance
CN108629071B (en) Conversion method for converting cut and spread paper pattern into product web required in next process software and sweater knitting equipment
Lo Pattern cutting
KR101702069B1 (en) Method and apparatus for creating 3D cloth
KR101665653B1 (en) method and apparatus for generating digital cloth object
KR101665652B1 (en) Simulation method and apparatus for draping 3D cloth
KR101665651B1 (en) Simulation method and apparatus for draping 3D cloth
JP6501684B2 (en) Design equipment for apparel products
Abling et al. Integrating draping, drafting and drawing
Fang 3D collar design creation
JP3062622B1 (en) Dart processing drawing method using clothing prototype
JPH0423026B2 (en)
Shaw Textiles and the Body: The Geometry of Clothing
JP6260050B2 (en) T-shirt and cut-and-sew with no creases in bust darts and method for producing the same
Dalstam Better fashion for a better future: Exploring geometrical pattern-making in relation to trend based ready-to-wear garments, with a focus on no fabric waste.
Fang et al. Part II: implementations

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050616

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20080617

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20080818

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20081028

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20081106

R150 Certificate of patent or registration of utility model

Ref document number: 4216537

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20111114

Year of fee payment: 3

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 4

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 4

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20121114

Year of fee payment: 4

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20131114

Year of fee payment: 5

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

LAPS Cancellation because of no payment of annual fees