JP2003055826A - Server and method of virtual try-on data management - Google Patents

Server and method of virtual try-on data management

Info

Publication number
JP2003055826A
JP2003055826A JP2001247914A JP2001247914A JP2003055826A JP 2003055826 A JP2003055826 A JP 2003055826A JP 2001247914 A JP2001247914 A JP 2001247914A JP 2001247914 A JP2001247914 A JP 2001247914A JP 2003055826 A JP2003055826 A JP 2003055826A
Authority
JP
Japan
Prior art keywords
image
user
server
product
images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001247914A
Other languages
Japanese (ja)
Inventor
Eiji Kido
英二 城戸
Mikihiro Komatsu
幹宏 小松
Naganobu Ko
永信 黄
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Minolta Co Ltd
Original Assignee
Minolta Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Minolta Co Ltd filed Critical Minolta Co Ltd
Priority to JP2001247914A priority Critical patent/JP2003055826A/en
Publication of JP2003055826A publication Critical patent/JP2003055826A/en
Pending legal-status Critical Current

Links

Landscapes

  • Editing Of Facsimile Originals (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)
  • Processing Or Creating Images (AREA)
  • Image Processing (AREA)
  • Information Retrieval, Db Structures And Fs Structures Therefor (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a technology for comprehensively managing the information on clothing items, and to provide a technology for considering the combinations of mutual clothing items by utilizing such information. SOLUTION: A server 10 works as follows: a plurality of commodity images on clothing items (clothes) are obtained via network from relevant companies' computers 20 through attending on attribute information indicating the category of the clothing items, and concurrently, user images on the clothing items are obtained via network from relevant clients 30 through attending on the attribute information on the user images; further, commodity images adaptable to the user images are searched from among a plurality of commodity images by using the attribute information, and a commodity image further selected from the commodity images thus searched and the corresponding user image are synthesized together by using the attribute information.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、服飾品の組合せを
検討するための技術に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a technique for examining a combination of clothing accessories.

【0002】[0002]

【従来の技術】従来、衣服に関する仮想試着システムが
提案されている。この仮想試着システムは、衣服の画像
を人体の画像に重ねた合成画像を生成することにより、
仮想的に試着を行うシステムである。このようなシステ
ムは、人体と衣服との組合せ画像を生成することにより
人体と衣服との組合せを考慮するものである。
2. Description of the Related Art Conventionally, a virtual fitting system for clothes has been proposed. This virtual fitting system creates a composite image by superimposing the image of clothes on the image of the human body,
It is a system for virtually trying on clothes. Such a system considers a combination of a human body and clothes by generating a combined image of the human body and clothes.

【0003】[0003]

【発明が解決しようとする課題】しかしながら、従来の
仮想試着システムにおいては、たとえば、Tシャツとズ
ボンとの組合せなど、「衣服」と「衣服」との組合せ
(すなわち複数種類の衣服相互の組合せ)については考
慮されていない。したがって、ユーザが所有している衣
服と購入候補の衣服との組合せを検討することができな
いという問題を有している。そして、このような問題
は、服飾品に関する情報が十分に管理されいないことに
その一因を有する問題である。
However, in the conventional virtual fitting system, for example, a combination of "clothes" and "clothes" such as a combination of T-shirt and pants (that is, a combination of a plurality of kinds of clothes). Is not considered. Therefore, there is a problem that it is not possible to consider a combination of clothes owned by the user and clothes that are candidates for purchase. And such a problem is a problem which has a cause in that information regarding accessories is not managed sufficiently.

【0004】また、このような問題は、衣服相互間の組
合せについて検討する場合のみならず、服飾品全般の相
互間の組合せを検討する場合にも同様に存在する。
Further, such a problem exists not only when considering the combination between clothes but also when examining the combination between clothes in general.

【0005】そこで、本発明は前記問題点に鑑み、服飾
品に関する情報を十分に管理する技術を提供することを
第1の目的とする。また、特に、そのような服飾品の種
別に関する情報を利用して、服飾品相互の組合せを検討
するための技術を提供することを第2の目的とする。
Therefore, in view of the above problems, it is a first object of the present invention to provide a technique for adequately managing information about accessories. A second object of the present invention is to provide a technique for examining the combination of clothing items with each other by utilizing the information about the type of the clothing item.

【0006】[0006]

【課題を解決するための手段】上記課題を解決するた
め、請求項1の発明は、サーバであって、服飾品に関す
る複数の商品画像を、当該各商品画像についての服飾品
の種別を示す属性情報に付随させて取得する商品画像取
得手段と、服飾品に関するユーザ画像を、当該ユーザ画
像についての前記属性情報に付随させて取得するユーザ
画像取得手段と、を備えることを特徴とする。
In order to solve the above-mentioned problems, the invention of claim 1 is a server, wherein a plurality of product images relating to clothing items are attributed to indicate the type of the clothing item for each of the product images. It is characterized by comprising: a product image acquisition unit that is acquired in association with the information; and a user image acquisition unit that acquires a user image related to clothing accessories in association with the attribute information of the user image.

【0007】請求項2の発明は、請求項1の発明に係る
サーバにおいて、前記ユーザ画像と、前記複数の商品画
像の中から処理の対象として選択された対象商品画像と
を前記属性情報を用いて合成する合成手段、をさらに備
えることを特徴とする。
According to a second aspect of the invention, in the server according to the first aspect of the invention, the attribute information is used for the user image and a target product image selected from the plurality of product images as a processing target. It is characterized by further comprising a synthesizing means for synthesizing.

【0008】請求項3の発明は、請求項2の発明に係る
サーバにおいて、前記合成手段は、前記属性情報に基づ
く階層情報を用いて前記ユーザ画像と前記対象商品画像
との積層関係を決定し、決定された前記積層関係を用い
て前記ユーザ画像と前記対象商品画像とを合成すること
を特徴とする。
According to a third aspect of the present invention, in the server according to the second aspect of the present invention, the synthesizing means determines a layered relationship between the user image and the target product image using layer information based on the attribute information. The user image and the target product image are combined using the determined stacking relationship.

【0009】請求項4の発明は、請求項2または請求項
3の発明に係るサーバにおいて、前記ユーザ画像および
前記対象商品画像は、それぞれに設定された複数の種類
の基準点のうち前記属性情報に応じた種類の基準点の位
置を合わせることによって合成されることを特徴とす
る。
According to a fourth aspect of the invention, in the server according to the second or third aspect of the invention, the user image and the target product image are the attribute information among a plurality of types of reference points set respectively. It is characterized by being synthesized by aligning the positions of the reference points of the types according to.

【0010】請求項5の発明は、請求項4の発明に係る
サーバにおいて、前記基準点は、その位置を前記ユーザ
画像上においてユーザが指定することにより決定される
ことを特徴とする。
According to a fifth aspect of the invention, in the server according to the fourth aspect of the invention, the reference point is determined by the user designating its position on the user image.

【0011】請求項6の発明は、請求項4の発明に係る
サーバにおいて、前記基準点は、所定の大きさを有する
仮想人体画像に合わせるように変倍された前記ユーザ画
像において、前記仮想人体画像の所定位置に対応する位
置を求めることによって決定されることを特徴とする。
According to a sixth aspect of the present invention, in the server according to the fourth aspect of the invention, the virtual image is displayed in the user image in which the reference point is scaled to match a virtual human image having a predetermined size. It is characterized in that it is determined by obtaining a position corresponding to a predetermined position of the image.

【0012】請求項7の発明は、請求項2ないし請求項
6のいずれかの発明に係るサーバにおいて、前記ユーザ
画像および前記対象商品画像に対して人体の膨らみに応
じた変形処理を施す変形処理手段、をさらに備え、前記
合成手段は、前記変形処理が施された前記ユーザ画像と
前記変形処理が施された前記対象商品画像とを合成する
ことを特徴とする。
According to a seventh aspect of the present invention, in the server according to any of the second to sixth aspects of the present invention, a deformation process for subjecting the user image and the target product image to a deformation process according to a bulge of a human body. Further, means for synthesizing the user image subjected to the transformation processing and the target product image subjected to the transformation processing may be provided.

【0013】請求項8の発明は、請求項1ないし請求項
7のいずれかの発明に係るサーバにおいて、前記属性情
報を用いて、前記複数の商品画像の中から前記ユーザ画
像に適合する商品画像を検索する検索手段、をさらに備
えることを特徴とする。
According to an eighth aspect of the present invention, in the server according to any one of the first to seventh aspects of the invention, the attribute information is used to select a product image that matches the user image from the plurality of product images. And a search means for searching.

【0014】請求項9の発明は、請求項8の発明に係る
サーバにおいて、前記ユーザ画像についての特徴を抽出
する特徴抽出手段、をさらに備え、前記検索手段は、前
記ユーザ画像について抽出された特徴に応じて、当該特
徴に適合する商品画像を前記複数の商品画像の中から検
索することを特徴とする。
According to a ninth aspect of the present invention, in the server according to the eighth aspect, there is further provided a feature extracting means for extracting features of the user image, and the searching means has the features extracted for the user image. According to, the product image matching the feature is searched from the plurality of product images.

【0015】請求項10の発明は、請求項8の発明に係
るサーバにおいて、前記ユーザ画像取得手段は、複数の
ユーザ画像を取得し、前記特徴抽出手段は、前記複数の
ユーザ画像のそれぞれについての特徴を抽出し、前記検
索手段は、前記複数のユーザ画像のそれぞれについて抽
出された特徴から当該ユーザの嗜好を求め、当該嗜好に
応じた商品画像を前記複数の商品画像の中から検索する
ことを特徴とする。
According to a tenth aspect of the invention, in the server according to the eighth aspect of the invention, the user image obtaining means obtains a plurality of user images, and the feature extracting means obtains a plurality of user images. Extracting a feature, the search means obtains the preference of the user from the features extracted for each of the plurality of user images, and searches the plurality of product images for a product image according to the preference. Characterize.

【0016】請求項11の発明は、仮想試着用データ管
理方法であって、服飾品に関する複数の商品画像を、当
該各商品画像についての服飾品の種別を示す属性情報に
付随させてネットワークを介して取得するステップと、
服飾品に関するユーザ画像を、当該ユーザ画像について
の前記属性情報に付随させてネットワークを介して取得
するステップと、を含むことを特徴とする。
According to an eleventh aspect of the present invention, there is provided a virtual try-on data management method, wherein a plurality of merchandise images relating to clothing items are attached to attribute information indicating the type of clothing item for each merchandise image via a network. And the step of getting
And a step of acquiring a user image related to clothing accessories via the network along with the attribute information of the user image.

【0017】[0017]

【発明の実施の形態】以下、本発明の実施形態を図面に
基づいて説明する。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be described below with reference to the drawings.

【0018】<1.概要>図1は、本発明の実施形態に
係るシステム1、すなわち服飾品(ここでは衣服)の組
合せを検討するためのアプリケーションサービスを提供
するシステム1の概要構成を示す図である。そして、こ
のようなシステム1を用いることにより、後述する各ス
テップを有する仮想試着用データ管理方法ないし仮想試
着方法を実現することができる。
<1. Outline> FIG. 1 is a diagram showing a schematic configuration of a system 1 according to an embodiment of the present invention, that is, a system 1 that provides an application service for examining a combination of accessories (here, clothes). Then, by using such a system 1, it is possible to realize a virtual fitting data management method or a virtual fitting method having steps to be described later.

【0019】図1に示すように、このシステム1は、サ
ーバコンピュータ(以下、単に「サーバ」とも称する)
10を備えている。このサーバ10に対しては、インタ
ーネットなどのネットワークを介して、複数の会社のコ
ンピュータ20およびユーザのクライアントコンピュー
タ(以下、単に「クライアント」とも称する)30から
アクセス可能である。
As shown in FIG. 1, this system 1 is a server computer (hereinafter, also simply referred to as "server").
Equipped with 10. The server 10 can be accessed from computers 20 of a plurality of companies and user client computers (hereinafter, also simply referred to as “clients”) 30 via a network such as the Internet.

【0020】なお、「ネットワーク」とは、データ伝送
を行う通信回線網であり、具体的には、インターネッ
ト、LAN、WAN、CATVなどの、電気通信回線
(光通信回線を含む)により構成される各種の通信回線
網である。ネットワークに対する接続形態は、専用回線
などを利用した常時接続であってもよいし、アナログ回
線あるいはデジタル回線(ISDN)などの電話回線を
利用したダイアルアップ接続などの一時的な接続のいず
れであってもよい。また、その伝送方式は、無線方式お
よび有線方式のいずれであってもよい。
The "network" is a communication line network for data transmission, and is specifically composed of electric communication lines (including optical communication lines) such as the Internet, LAN, WAN, and CATV. It is various communication line networks. The connection form to the network may be a constant connection using a dedicated line or a temporary connection such as a dial-up connection using a telephone line such as an analog line or a digital line (ISDN). Good. Moreover, the transmission method may be either a wireless method or a wired method.

【0021】上記の複数の会社(A社、B社、C
社、...)は、それぞれ、各コンピュータ20を用いて
サーバ10にアクセスすることにより、衣服に関する商
品情報をサーバ10に対して提供する。
The above-mentioned plurality of companies (company A, company B, company C)
Each company provides the product information regarding clothes to the server 10 by accessing the server 10 using each computer 20.

【0022】一方、本システムのユーザは、デジタルカ
メラなどを用いて撮像した衣服に関する画像およびその
付加情報をクライアント30に入力し、そのクライアン
ト30を用いてサーバ10にアクセスすることにより、
自己が保有する衣服に関する画像等の情報をサーバ10
に対して送信する。
On the other hand, the user of the present system inputs an image of clothing taken by using a digital camera or the like and its additional information into the client 30, and accesses the server 10 by using the client 30.
The server 10 stores information such as images relating to clothes owned by the user.
Send to.

【0023】なお、この衣服についての画像データは、
デジタルカメラを用いて撮像されることにより生成され
る他、スキャナにより銀塩フィルムによる通常の写真を
画像データとして取り込むことによっても生成されても
よい。これらのデジタルカメラおよびスキャナは、クラ
イアント30に対して画像を入力する画像入力装置とし
て機能する。
The image data of this clothing is
In addition to being generated by capturing an image with a digital camera, it may be generated by capturing a normal photograph with a silver salt film as image data with a scanner. These digital cameras and scanners function as image input devices that input images to the client 30.

【0024】また、サーバ10は、CPUおよびメモリ
(RAMなど)を備えたコンピュータであり、所定のプ
ログラムを実行することによって、仮想試着システムに
おける所定の各機能(後述)を果たす。
The server 10 is a computer having a CPU and a memory (RAM or the like), and executes a predetermined program to perform predetermined functions (described later) in the virtual fitting system.

【0025】このサーバ10は、商品データベースDB
1とユーザ情報データベースDB2とを有している。
This server 10 is a product database DB
1 and a user information database DB2.

【0026】サーバ10は、各社から提供される商品と
しての衣服の画像データ(以下、「商品画像」とも称す
る)をネットワークを介して取得し、取得した商品画像
を商品データベースDB1に格納する。また、各商品画
像は、その各商品画像についての衣服の種別(Tシャ
ツ、コート、スカート、など)を示す属性情報などとと
もに取得されて格納される。この商品データベースDB
1は、このサーバ10を用いて仮想的に構築される仮想
店舗における販売対象商品の画像およびその付加情報を
記憶するデータベースである。このように、商品データ
ベースDB1は、服飾品(衣服)に関する複数の商品情
報を格納するデータベースである。
The server 10 acquires image data (hereinafter, also referred to as "product image") of clothes as a product provided by each company via a network, and stores the acquired product image in the product database DB1. Further, each product image is acquired and stored together with attribute information indicating the type of clothes (T-shirt, coat, skirt, etc.) for each product image. This product database DB
Reference numeral 1 is a database that stores images of sales target products in a virtual store virtually constructed using the server 10 and additional information thereof. As described above, the product database DB1 is a database that stores a plurality of product information related to accessories (clothes).

【0027】また、サーバ10は、ユーザの所有物等で
ある衣服についての画像データ(以下、「ユーザ画像」
とも称する)をネットワークを介して取得し、取得した
ユーザ画像をユーザ情報データベースDB2に格納す
る。また、各ユーザ画像は、その各ユーザ画像について
の衣服の種別を示す属性情報などとともに取得されて格
納される。このユーザ情報データベースDB2は、複数
の領域に分割され、ユーザごとに使用領域が割り当てら
れている(図4参照)。そして、各ユーザから送信され
てきた画像および付加情報は、各ユーザごとの割当領域
に格納される。このように、ユーザ情報データベースD
B2は、服飾品(衣服)に関するユーザ情報を格納する
データベースである。
Further, the server 10 uses image data (hereinafter referred to as "user image") about clothes belonging to the user.
(Also referred to as ") is acquired via the network, and the acquired user image is stored in the user information database DB2. Also, each user image is acquired and stored together with attribute information indicating the type of clothes for each user image. The user information database DB2 is divided into a plurality of areas, and a usage area is assigned to each user (see FIG. 4). Then, the image and the additional information transmitted from each user are stored in the allocation area for each user. In this way, the user information database D
B2 is a database that stores user information related to accessories (clothes).

【0028】このサーバ10は、このユーザ画像(例え
ばTシャツ)と商品画像(例えばジーンズ)とを合成し
て、着合わせた状態の画像を生成する合成機能を有して
いる。サーバ10は、ユーザ画像の特徴を抽出し、複数
の商品画像の中から、ユーザ画像の特徴に応じた商品画
像を検索する検索機能をさらに有している。これらの機
能については、後に詳述する。
The server 10 has a synthesizing function of synthesizing the user image (for example, T-shirt) and the product image (for example, jeans) to generate an image in a worn state. The server 10 further has a search function of extracting the feature of the user image and searching for the product image corresponding to the feature of the user image from the plurality of product images. These functions will be described in detail later.

【0029】<2.画像登録>まず、ユーザ画像をユー
ザ情報データベースDB2に登録する動作について説明
する。
<2. Image Registration> First, the operation of registering a user image in the user information database DB2 will be described.

【0030】図2は、ユーザ画像の登録動作について説
明する図である。図2に示すように、ステップS11に
おいて、対象となる衣服をデジタルカメラ等を用いて撮
影する。ユーザは、その衣服を床上などの平面に載置し
た状態で上方から撮影すること、あるいは、その衣服を
ハンガーに掛けた状態で前方から撮影することなどによ
って、衣服の正面側(前側)の撮影画像を取得する。そ
して、この撮影画像をクライアント30に取り込む(ス
テップS12)。また、その撮影画像に対して画像処理
を施し、その輪郭に沿って衣服領域を抜き出すなどの加
工処理を行うことによって、衣服領域を背景領域から分
離し、衣服に関するユーザ画像を生成する。具体的に
は、クロマキー処理などのエッジ抽出処理を用いること
ができる。なお、クロマキー処理は、対象物と色相が大
きく相違する背景を用いて対象物を撮影し、背景色と対
象物の色との色相差を利用して、対象物と背景とを分離
する処理である。
FIG. 2 is a diagram for explaining a user image registration operation. As shown in FIG. 2, in step S11, the target clothes are photographed using a digital camera or the like. The user can take an image of the front side (front side) of the clothes by taking the clothes from above with the clothes placed on a flat surface such as the floor, or taking the clothes from the front with the clothes hanging on a hanger. Get an image. Then, the photographed image is taken into the client 30 (step S12). Further, the captured image is subjected to image processing, and the clothing region is extracted along the contour thereof to thereby separate the clothing region from the background region and generate a user image relating to the clothing. Specifically, edge extraction processing such as chroma key processing can be used. Note that the chroma key processing is a process in which an object is photographed using a background whose hue is significantly different from that of the object, and the hue difference between the background color and the color of the object is used to separate the object from the background. is there.

【0031】また、このとき、簡単化のため、画像合成
において不要になる部分を衣服領域から予め除外してお
くことが好ましい。たとえば、スーツとワイシャツとを
合成する際には、スーツの奥襟部分等はワイシャツの下
側になるため不要になる。そこで、スーツの画像におい
てこのような奥襟部分等を予め除外しておくことによ
り、画像合成処理を容易に施すことが可能になる。ある
いは、この奥襟部分等を別画像として保存しておき、合
成対象となる衣服の種類に応じて(したがって合成対象
となる衣服の属性情報に応じて)、この別画像を用いる
か否かを変更するようにしても良い。たとえば、このス
ーツとズボンとを合成するときには、スーツの画像とこ
の別画像との両方を用いて合成画像を生成し、スーツと
ワイシャツとを合成するときには、この別画像を用いず
にスーツの画像のみを用いてワイシャツ画像との合成画
像を生成するようにしても良い。
Further, at this time, for simplification, it is preferable to previously exclude from the clothing region an unnecessary portion in the image composition. For example, when a suit and a shirt are combined, the back collar portion of the suit and the like are not necessary because they are below the shirt. Therefore, by excluding such a back collar portion or the like in the image of the suit in advance, it is possible to easily perform the image combining process. Alternatively, it is possible to save the back collar portion or the like as a separate image and determine whether to use the separate image depending on the type of clothes to be combined (thus according to the attribute information of the clothes to be combined). You may change it. For example, when synthesizing the suit and the pants, a synthetic image is generated using both the image of the suit and the different image, and when synthesizing the suit and the shirt, the image of the suit is obtained without using the different image. A composite image with the shirt image may be generated using only the image.

【0032】次のステップS13において、ユーザは、
クライアント30を用いてサーバ10内の所定のアドレ
スにアクセスし、ユーザ画像をクライアント30からサ
ーバ10へと送信する動作を行う。また、このとき、ユ
ーザ画像に付随する様々な付加情報がその送信要求に応
じて送信される。
In the next step S13, the user
The client 30 is used to access a predetermined address in the server 10 and the user image is transmitted from the client 30 to the server 10. At this time, various additional information associated with the user image is transmitted in response to the transmission request.

【0033】具体的には、まずクライアント30がサー
バ10に向けて撮影画像(すなわちユーザ画像)を送信
する。次に、ユーザ画像を受信したサーバ10は、その
付加情報に関する入力用の画面をクライアント30に向
けて送信する。これにより、クライアント30の液晶デ
ィスプレイなどで構成される表示部には、この入力用画
面(登録用画面)が表示される。この入力用画面は、各
種の付加情報の送信を要求する画面である。
Specifically, first, the client 30 sends a photographed image (that is, a user image) to the server 10. Next, the server 10 that has received the user image sends an input screen regarding the additional information to the client 30. As a result, the input screen (registration screen) is displayed on the display unit including the liquid crystal display of the client 30. This input screen is a screen for requesting transmission of various additional information.

【0034】図3は、この入力用画面を示す図である。
この図3の左側には、送信された撮影画像(Tシャツの
画像)が表示されており、その上側および右側には、ア
イテム名および衣服の種類をそれぞれ入力するための領
域が表示されている。この図3のような入力用画面等を
用いて、各種のデータが入力される。入力された情報
は、ユーザ情報データベースDB2に格納される。
FIG. 3 is a diagram showing this input screen.
The transmitted photographed image (T-shirt image) is displayed on the left side of FIG. 3, and the regions for inputting the item name and the type of clothes are displayed on the upper side and the right side thereof. . Various data are input using the input screen as shown in FIG. The input information is stored in the user information database DB2.

【0035】ここで、このデータ入力の説明に先立っ
て、図4を参照しながら、ユーザ情報に関して説明す
る。
Prior to the description of the data input, the user information will be described with reference to FIG.

【0036】図4の上段に示すように、サーバ10内の
ユーザ情報データベースDB2は、複数の領域に分割さ
れ、ユーザUA,UB,UC...ごとに使用領域が割り
当てられている。また、図4の中段に示すように、各ユ
ーザ領域(たとえばユーザUAに対する領域)において
は、そのユーザから送信されてきた情報(「ユーザ情
報」)が格納されており、具体的には、そのユーザを識
別するためのコード(ユーザ識別コード)と、そのユー
ザから送信されてきた画像関連情報P1,P2,P
3,...とが格納されている。さらに、図4の下段に示
すように、各画像関連情報は、ユーザ画像の画像データ
(単に「ユーザ画像」とも称する)に加えて、付加情報
をさらに有している。そして、この付加情報は、「アイ
テム名」、「属性情報」、「階層情報」、「基準点」の
各情報を有している。
As shown in the upper part of FIG. 4, the user information database DB2 in the server 10 is divided into a plurality of areas, and the use area is assigned to each of the users UA, UB, UC ... Further, as shown in the middle part of FIG. 4, in each user area (for example, an area for the user UA), information transmitted from the user (“user information”) is stored. A code for identifying a user (user identification code) and image-related information P1, P2, P transmitted from the user
3, ... And are stored. Further, as shown in the lower part of FIG. 4, each image-related information further includes additional information in addition to the image data of the user image (also simply referred to as “user image”). The additional information includes "item name", "attribute information", "tier information", and "reference point".

【0037】「アイテム名」は、このアイテムすなわち
ユーザ画像に付する名称であり、たとえば、「猫のTシ
ャツ」などの名称がユーザによって決定されて入力され
る。具体的には、図3において、名称入力欄C1に対し
て名称がユーザによって入力される。このアイテム名に
より個々のユーザ画像が識別される。
The "item name" is a name given to this item, that is, the user image, and for example, a name such as "cat T-shirt" is determined and input by the user. Specifically, in FIG. 3, the user inputs a name into the name input field C1. Each user image is identified by this item name.

【0038】「属性情報」は、画像として撮影された衣
服の種類(ないし種別)を意味する情報であり、具体的
には、コート、セーター、ワイシャツ、Tシャツ、背広
(スーツ)、ズボン、スカートなどの複数の商品種類の
いずれかであるかを類別するための情報である。具体的
には、図3において、右側の入力欄にあるラジオボタン
群C2のうちの適宜の1つをユーザが選択することによ
って、この属性情報が入力される。なお、この属性情報
は、より大まかな区分を示す種類名称を用いて類別され
てもよく、より細かな区分を示す種類名称を用いて類別
されてもよい。
The "attribute information" is information indicating the type (or type) of clothes photographed as an image, and specifically, coats, sweaters, shirts, T-shirts, suits (suits), pants, skirts. It is information for categorizing which one of a plurality of product types such as. Specifically, in FIG. 3, this attribute information is input by the user selecting an appropriate one of the radio button group C2 in the input field on the right side. The attribute information may be categorized using a type name indicating a broader division or may be categorized using a type name indicating a finer division.

【0039】「階層情報」は、その衣服が他の衣服に対
して内側に着られるものであるか、あるいは、他の衣服
に対して外側に着られるものであるかを指定する情報で
ある。この階層情報は、図5の階層決定用テーブルTB
L1と属性情報とを用いて決定される。
The "hierarchical information" is information designating whether the clothes are worn inside of other clothes or outside of the other clothes. This hierarchy information is the hierarchy determination table TB of FIG.
It is determined using L1 and the attribute information.

【0040】この階層決定用テーブルTBL1において
は、いわゆるデフォルトの階層情報が属性情報に応じて
定められている。通常はこの階層決定用テーブルTBL
1の階層情報をそのまま用いることにより、適切な積層
関係の合成画像を生成することが可能である。
In the hierarchy determination table TBL1, so-called default hierarchy information is defined according to the attribute information. Normally, this hierarchy determination table TBL
By using the layer information of 1 as it is, it is possible to generate a composite image having an appropriate stacking relationship.

【0041】たとえば、ユーザがTシャツに関する画像
を登録する場合、階層決定用テーブルTBL1(図5)
においてあらかじめ定められた情報を用いて、Tシャツ
はズボンの内側でありかつコートの内側である旨が階層
情報として自動的に定められる。階層情報をこのまま用
いてTシャツとズボンとの合成を行えば、Tシャツの下
端部(すそ)がズボンの内側に隠された状態の合成画像
が生成されることになる(図13)。
For example, when the user registers an image relating to the T-shirt, the hierarchy determination table TBL1 (FIG. 5).
The information that the T-shirt is inside the trousers and inside the coat is automatically determined as hierarchical information by using the information determined in advance. If the T-shirt and the pants are combined using the hierarchical information as they are, a combined image in which the lower end portion (skirt) of the T-shirt is hidden inside the pants is generated (FIG. 13).

【0042】ただし、ユーザは、後述するような所定の
操作を行うことによってこの積層関係を変更し、ユーザ
の嗜好等を反映させることが可能である。たとえば、T
シャツの下端部(すそ)がズボンの外側に出された状態
の合成画像(図14)を生成することも可能である。
However, the user can change the stacking relationship by performing a predetermined operation as described later to reflect the user's taste and the like. For example, T
It is also possible to generate a composite image (FIG. 14) in which the lower end (hem) of the shirt is exposed outside the pants.

【0043】なお、上記の階層決定用テーブルTBL1
は、全ユーザに対して共通に設けられていても良く、あ
るいは、各ユーザごとに設けられても良い。各ユーザご
とに設ける場合には、各ユーザの好みを反映させたデフ
ォルト値を定めることができる。
The hierarchy determination table TBL1 described above is used.
May be provided in common for all users, or may be provided for each user. When provided for each user, a default value that reflects the preference of each user can be set.

【0044】「基準点」は、衣服を正面から撮影した衣
服画像に対して、身体の特徴的な部分に相当する衣服画
像内の位置を示す点の衣服画像内におけるXY座標値と
して定められる情報であり、合成処理において2つの衣
服画像を合成する際の基準位置として用いられる情報で
ある。
The "reference point" is information defined as an XY coordinate value in the clothes image of a point indicating a position in the clothes image corresponding to a characteristic part of the body with respect to the clothes image obtained by shooting clothes from the front. Is information used as a reference position when two clothes images are combined in the combining process.

【0045】なお、後述の合成処理に際しては、複数の
基準点のうち、合成対象となる2つの画像の属性情報に
応じた適宜の基準点を用いる。具体的には、上半身に着
る衣服(たとえばTシャツ)と下半身に着る衣服(たと
えばズボン)とを合成する場合には、肩よりも腰の位置
が判っている方が好ましいので、右腰および左腰の2つ
の基準点を用いて合成画像を生成する。より詳細には、
上半身に着る衣服の右腰と下半身に着る衣服の右腰の位
置とを合わせ、上半身に着る衣服の左腰と下半身に着る
衣服の左腰の位置とを合わせる。また、上半身に着る衣
服同士を合成する場合(たとえば、ワイシャツとスーツ
とを合成する場合)には、腰よりも肩の位置が判ってい
る方が好ましいので、右肩および左肩の2つの基準点を
用いて合成画像を生成する。
In the synthesizing process, which will be described later, of the plurality of reference points, an appropriate reference point corresponding to the attribute information of the two images to be combined is used. Specifically, when combining clothes to be worn on the upper body (for example, T-shirt) and clothes to be worn on the lower body (for example, pants), it is preferable to know the position of the waist rather than the shoulders. A synthetic image is generated using the two reference points of the waist. More specifically,
The position of the right waist of the clothes worn on the upper body and the position of the right waist of the clothes worn on the lower body are matched, and the position of the left waist of the clothes worn on the upper body and the position of the left waist of the clothes worn on the lower body are matched. In addition, when combining clothes worn on the upper body (for example, when combining a shirt and a suit), it is preferable to know the position of the shoulder rather than the waist. To generate a composite image.

【0046】ここで、基準点の指定(登録)について説
明する。
The designation (registration) of the reference point will be described.

【0047】図6は、図3において「OK」ボタンを押
下した後に表示される図である。具体的には、この図6
に示すように、下側の欄C3に表示された「右腰の位置
を指定して下さい」との入力要求に対して、クライアン
ト30におけるマウスなどの入力装置を操作することに
より、図中において点滅中の×印を移動させる。これに
より、基準点Q1の位置を指定する。その後、「次へ」
と記載されたボタンを押下することによって、下側の欄
C3に今度は「左腰の位置を指定して下さい」との入力
要求が表示される。ユーザは、この入力要求に応じて、
左腰についての基準点Q2の位置を指定する。以降、同
様にして、右肩、左肩、右脇、左脇、右袖先、左袖先の
各基準点Q3〜Q8の位置を指定する。
FIG. 6 is a diagram displayed after pressing the "OK" button in FIG. Specifically, this FIG.
As shown in, by operating the input device such as the mouse in the client 30 in response to the input request "Please specify the position of the right hip" displayed in the lower column C3, Move the blinking X mark. Thereby, the position of the reference point Q1 is designated. After that, "Next"
By pressing the button described as “”, the input request “Specify the position of the left hip” is displayed in the lower field C3. The user responds to this input request by
The position of the reference point Q2 for the left waist is designated. Thereafter, similarly, the positions of the respective reference points Q3 to Q8 of the right shoulder, the left shoulder, the right side, the left side, the right sleeve tip, and the left sleeve tip are designated.

【0048】なお、ここでは、クライアント30の表示
部に表示された衣服画像を見ながら、ユーザが各基準点
Q1〜Q8の位置を前記ユーザ画像上において1つ1つ
指定していく手法(「第1の手法」とも称する)につい
て説明したが、これに限定されず様々な基準点の指定方
法を用いることができ、たとえば、次のような別手法を
用いてもよい。
Here, a method in which the user specifies the positions of the reference points Q1 to Q8 one by one on the user image while looking at the clothes image displayed on the display unit of the client 30 (" However, the present invention is not limited to this, and various reference point designation methods can be used. For example, the following different method may be used.

【0049】図7に示すように、この別手法(「第2の
手法」とも称する)は、クライアント30の表示部にお
いて所定の大きさを有する仮想人体画像(以下、単に人
体画像とも称する)PMを表示しておき、その人体が登
録対象となる衣服を着ているように、衣服画像PWを人
体画像PMに重ね合わせて表示する手法である。具体的
には、衣服画像(たとえばTシャツ画像)PWを変倍
(拡大または縮小)して、その大きさが人体画像PMと
同一となるようにし、かつ、その衣服画像PWを移動し
てその位置が人体に合うように重ね合わせる。そして、
その人体がうまく衣服を着たように見えるところで、
「OK」ボタンを押下することにより、各人体画像PM
の基準点に相当する位置の衣服画像PWにおけるXY座
標値を各基準点の位置として求めるのである。すなわ
ち、この第2の手法においては、基準点は、所定の大き
さを有する仮想人体画像に合わせるように変倍されたユ
ーザ画像において、仮想人体画像の所定位置に対応する
位置を求めることによって決定される。
As shown in FIG. 7, this different method (also referred to as "second method") is a virtual human body image (hereinafter also simply referred to as human body image) PM having a predetermined size on the display unit of the client 30. Is displayed and the clothing image PW is displayed so as to be superposed on the human body image PM so that the human body is wearing clothing to be registered. Specifically, the clothing image (for example, a T-shirt image) PW is scaled (enlarged or reduced) so that its size becomes the same as the human body image PM, and the clothing image PW is moved to be the same. Stack so that the position matches the human body. And
Where the human body looks like it's well dressed,
By pressing the "OK" button, each human body image PM
The XY coordinate values in the clothing image PW at the position corresponding to the reference point are obtained as the position of each reference point. That is, in the second method, the reference point is determined by obtaining the position corresponding to the predetermined position of the virtual human body image in the user image scaled to match the virtual human body image having the predetermined size. To be done.

【0050】この第2の手法においては、ユーザの手間
は基準点の数に依らずに一定である。そして、この第2
の手法によれば、入力すべき基準点の数が多い場合であ
っても、第1の手法に比べてユーザの手間を軽減するこ
とができる。また、ロングコートなどの衣服の画像にお
いて腰の位置を指定するときには、衣服画像だけからで
は腰の位置を想定しにくいが、このようなときでも、腰
の位置の基準点を比較的容易に指定することができると
いう利点を有している。
In the second method, the labor of the user is constant regardless of the number of reference points. And this second
According to the method (1), even when the number of reference points to be input is large, it is possible to reduce the labor of the user compared to the first method. Also, when specifying the waist position in an image of clothes such as a long coat, it is difficult to assume the waist position from only the clothes image, but even in such a case, the waist position reference point can be specified relatively easily. It has the advantage that it can be done.

【0051】以上のようにして基準点に関する情報が生
成される。この結果、ユーザ画像に付随する各種の付加
情報(アイテム名、属性情報、階層情報、基準点)を生
成することができる。
Information about the reference point is generated as described above. As a result, various kinds of additional information (item name, attribute information, layer information, reference point) associated with the user image can be generated.

【0052】そして、このようにして生成された各種の
付加情報がサーバ10からの送信要求に応じて、クライ
アント30からサーバ10へと逐次送信される。
The various additional information thus generated is sequentially transmitted from the client 30 to the server 10 in response to a transmission request from the server 10.

【0053】以上のようにして、サーバ10は、クライ
アント30からユーザ画像を、当該ユーザ画像について
の服飾品の種別を示す属性情報を含む付加情報に付随さ
せて取得し、ユーザ情報データベースDB2に格納す
る。
As described above, the server 10 acquires the user image from the client 30 in association with the additional information including the attribute information indicating the type of the clothing item for the user image, and stores it in the user information database DB2. To do.

【0054】また、上記においては、ユーザ情報の登録
動作について説明したが、商品情報の登録動作について
も同様である。サーバ10は、各社から提供される「商
品情報」をも同様にして取得し、商品データベースDB
1に登録する。なお、商品情報は、その商品画像に加え
て、ユーザ情報と同様の「付加情報」をも有している。
これらの商品画像および付加情報は、お互いに関連づけ
られて商品データベースDB1に格納される。
Further, although the user information registration operation has been described above, the same applies to the product information registration operation. The server 10 similarly obtains “product information” provided by each company, and acquires the product database DB.
Register to 1. The product information has “additional information” similar to the user information in addition to the product image.
These product images and additional information are associated with each other and stored in the product database DB1.

【0055】このようにして取得された商品画像および
ユーザ画像を用いて、着合わせ処理(画像合成処理)が
行われる。以下では、この処理について詳述する。
A matching process (image combining process) is performed using the product image and the user image acquired in this way. Hereinafter, this process will be described in detail.

【0056】<3.画像合成(着合わせ)>ここでは、
まず、ユーザ画像に対して、ユーザが指定した商品画像
を合成する場合、言い換えれば、ユーザ画像への合成対
象となる商品画像を、ユーザが指定する場合について説
明する。
<3. Image composition (dressing)> Here,
First, a case where the product image specified by the user is combined with the user image, in other words, the product image to be combined with the user image is specified by the user will be described.

【0057】図8は、仮想店舗の商品を選択する選択画
面を示す図である。ここでは、ズボン(より詳細にはジ
ーンズ)JCを選択している様子が示されている。以下
では、Tシャツの画像(ユーザ画像)とズボンの画像
(商品画像)との合成処理について説明する。
FIG. 8 is a diagram showing a selection screen for selecting a product in a virtual store. Here, it is shown that pants (more specifically jeans) JC are selected. In the following, a process of combining an image of a T-shirt (user image) and an image of pants (product image) will be described.

【0058】ここにおいて、この合成画像においては、
人が衣服を着た状態を自然に表現することが望まれる。
しかしながら、ユーザ画像は平面的な状態の衣服を撮影
した画像であることが多いため、この平面な状態のまま
合成処理を行うと、不自然な合成画像が生成されてしま
うことになる。
Here, in this composite image,
It is desirable to naturally represent a person wearing clothes.
However, since the user image is often an image of clothes in a two-dimensional state, if the combining process is performed in this two-dimensional state, an unnatural combined image will be generated.

【0059】そこで、この実施形態においては、合成処
理に先立って、人が着た状態の衣服を表現するべく、衣
服画像に丸み(ないし膨らみ)をつけるように、その衣
服画像を変形させる処理を施す。
Therefore, in this embodiment, prior to the synthesizing process, a process of transforming the clothes image so that the clothes image is rounded (or bulged) in order to represent the clothes worn by a person is executed. Give.

【0060】図9は、変形前後の衣服画像を示す図であ
る。図9(a)は変形前の画像を表し、図9(b)は変
形後の画像を表す。図9(a)および図9(b)を比較
すると判るように、図9(b)の変形後の画像において
は、図9(a)の変形前の画像に比べて、正面から見て
前後方向に膨らみが存在し、かつ、左右方向にその幅
(同幅、肩幅等)が小さくなっている。以下では、この
ような変形処理について説明する。
FIG. 9 is a diagram showing clothes images before and after deformation. FIG. 9A shows the image before deformation, and FIG. 9B shows the image after deformation. As can be seen by comparing FIGS. 9A and 9B, in the image after deformation in FIG. 9B, compared to the image before deformation in FIG. There is a bulge in the direction, and the width (same width, shoulder width, etc.) is smaller in the left-right direction. Hereinafter, such transformation processing will be described.

【0061】図10および図11は、この変形処理につ
いて説明する図である。図10は変形前の衣服画像A1
を示す図であり、図11は変形後の衣服画像B1を示す
図である。
FIG. 10 and FIG. 11 are views for explaining this transformation process. FIG. 10 shows the clothes image A1 before transformation.
FIG. 11 is a diagram showing a clothing image B1 after deformation.

【0062】まず、図10に示すように、このTシャツ
を幾つかの部分領域に分割する。具体的には、Tシャツ
の画像を1つの胴体部分A11と2つの腕部分A12,
A13とに分割する。このとき、肩の基準点(たとえば
Q3)と脇の基準点(たとえばQ5)との位置情報に基
づいて胴体部分と腕部分との境界を求めて、両部分に分
割する。なお、図10は、分離状態を示す概念図であ
る。
First, as shown in FIG. 10, this T-shirt is divided into several partial areas. Specifically, the image of the T-shirt has one body part A11 and two arm parts A12,
Divide into A13. At this time, the boundary between the body portion and the arm portion is obtained based on the positional information of the reference point on the shoulder (for example, Q3) and the reference point on the side (for example, Q5), and is divided into both parts. Note that FIG. 10 is a conceptual diagram showing the separated state.

【0063】次に、基準点の位置に基づいて胴体部分の
中心線CL1と腕部分の中心線CL2,CL3とを求め
る。たとえば、右腰および左腰に関する2つの基準点Q
1,Q2の中点と右肩および左肩に関する2つの基準点
Q3,Q4の中点とを結ぶ直線を中心線CL1として定
めることができる。また、中心線CL2については、右
肩および右脇に関する2つの基準点Q3,Q5の中点と
袖先に関する基準点Q7とを結ぶ直線として求めること
ができる。中心線CL3についても同様である。
Next, the center line CL1 of the body portion and the center lines CL2, CL3 of the arm portions are obtained based on the position of the reference point. For example, two reference points Q for the right waist and the left waist
A straight line connecting the midpoint of 1, Q2 and the midpoints of the two reference points Q3, Q4 relating to the right shoulder and the left shoulder can be defined as the center line CL1. Further, the center line CL2 can be obtained as a straight line connecting the midpoint of the two reference points Q3 and Q5 regarding the right shoulder and the right side and the reference point Q7 regarding the sleeve tip. The same applies to the center line CL3.

【0064】さらに、それぞれの中心線CL1,CL
2,CL3に向かって画像を圧縮する。この圧縮処理
は、中心線付近の圧縮比が小さく、かつ、中心線から離
れるにつれて圧縮比が大きくなるように、各位置におけ
る圧縮比を適宜に定めて圧縮変形する処理である。より
詳細には、まず人体の断面の輪郭を楕円と仮定し、その
楕円の周上の各点を楕円の中心軸(長軸)上に投影す
る。このとき、楕円の大きさは、楕円の全周の半分の長
さが衣服画像の水平方向の長さとなるように定める。圧
縮比は、楕円の周上における元の各点の間隔と楕円の中
心軸上の各投影点の間隔との比として、求められる。
Further, the respective center lines CL1, CL
2, the image is compressed toward CL3. This compression process is a process in which the compression ratio is appropriately determined at each position so that the compression ratio near the center line is small and the compression ratio increases as the distance from the center line increases. More specifically, first, the outline of the cross section of the human body is assumed to be an ellipse, and each point on the circumference of the ellipse is projected on the central axis (long axis) of the ellipse. At this time, the size of the ellipse is determined so that the half length of the entire circumference of the ellipse is the horizontal length of the clothing image. The compression ratio is obtained as the ratio of the distance between the original points on the circumference of the ellipse and the distance between the projection points on the central axis of the ellipse.

【0065】そして、このような圧縮比に基づいて、衣
服画像を変形する。図9(b)および図11は、その結
果を表す図である。図10および図11に示すように、
元の画像で同一の幅w0を有していた短冊領域は、変形
後において異なる幅w1,w2(w1>w2)を有する
ように変形される。すなわち、胴体部分B11は、中心
線CL1から大きく離れた領域が中心線CL1付近の領
域よりも大きな圧縮比となるように変形される(圧縮さ
れる)。腕部分についても同様である。
Then, the clothing image is transformed based on such a compression ratio. 9B and 11 are diagrams showing the results. As shown in FIGS. 10 and 11,
The strip areas having the same width w0 in the original image are transformed to have different widths w1 and w2 (w1> w2) after transformation. That is, the body portion B11 is deformed (compressed) such that the region largely separated from the center line CL1 has a larger compression ratio than the region near the center line CL1. The same applies to the arms.

【0066】なお、図11においては、図10との対照
のため、各部分が分離した状態で示されているが、画面
上においては図9(b)のように胴体部分と腕部分とが
一体となった状態で表示される。また、図11において
は、人体の膨らみを表現した変形後の画像であることを
明示するため、Tシャツの胴体部分の下端および腕部分
の下端においてその端部の直線を楕円の周を表現する曲
線に変更するような変形をさらに加えている。ただし、
このような変形を行わずに、その端部を直線のままで表
現しても良い。腕部分の袖口についても同様である。
Note that, in FIG. 11, each part is shown in a separated state for the purpose of contrasting with FIG. 10, but on the screen, the body part and the arm part are separated as shown in FIG. 9 (b). It is displayed in a united state. In addition, in FIG. 11, in order to clearly show that the image is a deformed image expressing the bulge of the human body, the straight lines at the lower end of the body part and the lower end of the arm part of the T-shirt represent the circumference of an ellipse. It is further modified to change it to a curve. However,
The end portion may be expressed as a straight line without performing such deformation. The same applies to the cuffs of the arms.

【0067】以上のような変形により、人が衣服を着た
ときの衣服の膨らみを表現することが可能である。ここ
において、楕円の長軸と短軸との比は、衣服の膨らみの
程度を表現する。この楕円の長軸と短軸との比(すなわ
ち衣服の膨らみの程度)は、標準的な人体データに基づ
いて適宜の値を定めればよい。あるいは、ユーザの体型
データが入力されているときには、そのユーザの体型デ
ータを用いて、膨らみの程度を変更するようにしても良
い。あるいは、ユーザがマウス等を操作することによ
り、手動で膨らみの程度を変更するようにしても良い。
With the above-described deformation, it is possible to represent the bulge of the clothes when a person wears them. Here, the ratio between the major axis and the minor axis of the ellipse represents the degree of bulging of the garment. The ratio between the major axis and the minor axis of this ellipse (that is, the degree of bulging of clothes) may be set to an appropriate value based on standard human body data. Alternatively, when the body type data of the user is input, the degree of bulge may be changed using the body type data of the user. Alternatively, the degree of bulging may be manually changed by the user operating a mouse or the like.

【0068】一方、商品データベースDB1内に格納さ
れている商品画像については、同様の変形処理が既に施
されているものとする。
On the other hand, it is assumed that the product image stored in the product database DB1 has already been subjected to the same transformation process.

【0069】次に、このようにして変形された衣服につ
いてのユーザ画像を用いて合成処理を行う。
Next, a combining process is performed using the user image of the clothes thus deformed.

【0070】図12は、合成前のTシャツTSとズボン
JCとを仮想的に表現する図である。TシャツTSおよ
びズボンJCは、上記の登録動作において定められた基
準点の情報を有している。また、いずれの衣服(Tシャ
ツ、ズボン)の画像に対しても上記の変形処理が既に施
されているものとする。
FIG. 12 is a view virtually representing the T-shirt TS and the pants JC before combining. The T-shirt TS and the pants JC have information on the reference points defined in the above registration operation. It is also assumed that the above deformation process has already been performed on the image of any clothes (T-shirt, pants).

【0071】ここで、Tシャツ(ユーザ画像)とズボン
(商品画像)とは、属性情報に応じた種類の基準点の位
置を合わせることによって合成される。具体的には、複
数の基準点のうち、腰についての基準点を用いて合成処
理を行うものとする。詳細には、Tシャツの右腰の基準
点Q1の位置とズボンの右腰の基準点Q31の位置とを
合わせ、かつ、Tシャツの左腰の基準点Q2の位置とズ
ボンの左腰の基準点Q32の位置とを合わせて、2つの
衣服画像を合成する。この際、2つの衣服画像の基準点
間の距離が等しくなるように(具体的には、Tシャツの
基準点Q1,Q2間の距離とズボンの基準点Q31,Q
32間の距離とが等しくなるように)、両衣服画像の大
きさを変倍して調整する。
Here, the T-shirt (user image) and the pants (product image) are combined by aligning the positions of the reference points of the type according to the attribute information. Specifically, the combining process is performed using the reference point for the waist among the plurality of reference points. Specifically, the position of the right waist reference point Q1 of the T-shirt is aligned with the position of the right waist reference point Q31 of the pants, and the position of the left waist reference point Q2 of the T-shirt and the left waist reference of the pants are matched. Two clothes images are combined by matching the position of the point Q32. At this time, the distance between the reference points of the two clothing images should be equal (specifically, the distance between the reference points Q1 and Q2 of the T-shirt and the reference points Q31 and Q of the pants).
The size of both clothes images is scaled and adjusted so that the distance between 32 is equal).

【0072】なお、ここでは、Tシャツとズボンとの合
成処理の場合であったので、腰に関する2種類の基準点
(右腰に関する基準点Q1,Q31、左腰に関する基準
点Q2,Q32)を用いている。しかしながら、上述し
たように、合成処理に用いる基準点としては、合成対象
となる2つの画像の属性情報に応じた適宜の種類の基準
点を用いることが好ましい。たとえば、ワイシャツとス
ーツとを合成する場合には、肩に関する2種類の基準点
(右肩に関する基準点、左肩に関する基準点)を用いる
ことが好ましい。
Since this is the case of the T-shirt and trousers synthesizing process, two types of reference points for the waist (reference points Q1, Q31 for the right waist and reference points Q2, Q32 for the left waist) are set. I am using. However, as described above, it is preferable to use, as the reference point used in the combining process, an appropriate type of reference point according to the attribute information of the two images to be combined. For example, when combining a shirt and a suit, it is preferable to use two types of reference points regarding the shoulder (a reference point regarding the right shoulder and a reference point regarding the left shoulder).

【0073】図13は、TシャツTSとズボンJCとの
合成画像を示す図である。
FIG. 13 is a diagram showing a composite image of the T-shirt TS and the pants JC.

【0074】ここにおいて、この合成画像は、上述した
階層情報を用いて合成される。具体的には、TシャツT
SとズボンJCとのうちいずれが上側(外側)であるか
についての積層関係(上下関係)は、解像情報に基づい
て決定される。ここでは、Tシャツはズボンの内側であ
る旨が階層情報として定められているものとして、Tシ
ャツの下端部(すそ)がズボンの内側に隠された状態の
合成画像が生成されている場合が示されている。すなわ
ち、ズボンの画像がTシャツの画像に対して上側に描か
れている。
Here, this composite image is composited using the above-mentioned hierarchical information. Specifically, T-shirt T
The stacking relation (upper and lower relation) of which of S and pants JC is the upper side (outer side) is determined based on the resolution information. Here, assuming that the T-shirt is inside the pants as the hierarchical information, there is a case where a composite image in which the lower end portion (skirt) of the T-shirt is hidden inside the pants is generated. It is shown. That is, the image of the pants is drawn above the image of the T-shirt.

【0075】また、ユーザがこの積層関係を変更したい
と望む場合には、図13の表示画面上において右下に表
示されている2つの選択肢「Tシャツがズボンの内
側」、「Tシャツがズボンの外側」のうち、「Tシャツ
がズボンの外側」を選択した後、図13の表示画面上の
「変更」ボタンを押下する。この押下に応じて、階層構
造が変更された合成画像が生成され、図14に示すよう
な更新された合成画像が表示画面に表示される。図14
は、TシャツTSの下端部がズボンJCの外側に出され
た状態の合成画像が生成されて表示されている場合が示
されている。このようにユーザは、所定の操作を行うこ
とによって2つの衣服の相互間の積層関係を変更し、そ
の変更後の合成画像を表示させることができる。したが
って、ユーザの嗜好等を反映させた合成画像を見ること
が可能である。
When the user desires to change this stacking relationship, the two options "T-shirt is inside pants" and "T-shirt is pants" displayed at the lower right on the display screen of FIG. After selecting "Outside of the outside of the pants", press the "Change" button on the display screen of FIG. In response to this pressing, a composite image whose hierarchical structure has been changed is generated, and the updated composite image as shown in FIG. 14 is displayed on the display screen. 14
Shows a case where a composite image in which the lower end of the T-shirt TS is exposed outside the pants JC is generated and displayed. In this way, the user can change the stacking relationship between the two clothes by performing a predetermined operation, and display the combined image after the change. Therefore, it is possible to see the composite image that reflects the user's taste and the like.

【0076】なお、ここでは、人体画像を表示していな
いが、人体画像を併せて表示するようにしても良い。具
体的には、Tシャツおよびズボンが含まれている上記の
合成画像に対して、人体の形状を示す人体画像をさらに
合成して表示するようにしても良い。すなわち、Tシャ
ツおよびズボンの下側に人体が存在するような合成画像
を生成するようにしても良い。また、そのユーザの人体
画像を用いることがより好ましい。さらに、顔画像をも
併せて合成することがより好ましい。これにより、その
ユーザがその衣服を着た状態をより的確に表現すること
ができる。
Although the human body image is not displayed here, the human body image may be displayed together. Specifically, a human body image showing the shape of the human body may be further combined and displayed with respect to the above combined image including the T-shirt and pants. That is, a composite image in which a human body is present under the T-shirt and pants may be generated. Further, it is more preferable to use the human body image of the user. Further, it is more preferable to combine the face image together. As a result, the state in which the user wears the clothes can be represented more accurately.

【0077】<4.商品検索を伴う着合わせ>上記にお
いては、ユーザ画像に対して、ユーザが指定した商品画
像を合成する場合について説明したが、以下では、ユー
ザ画像に含まれている衣服に適合する商品を自動的に検
索し、検索された商品の画像とユーザ画像とを合成する
場合について説明する。より詳細には、ユーザ画像内の
衣服の特徴を抽出し、その特徴に応じて適合する商品を
検索するのである。そして、その検索された商品の中か
ら選ばれた商品画像とユーザ画像とを合成する。なお、
商品データベースDB1に格納されている商品画像は、
既に人体の膨らみに応じた変形処理が施されているもの
とする。
<4. Dressing with product search> In the above, the case where the product image specified by the user is combined with the user image has been described. However, in the following, a product matching the clothes included in the user image is automatically selected. The case where the image of the searched product and the user image are combined with each other will be described. More specifically, the features of the clothes in the user image are extracted, and a matching product is searched according to the features. Then, the product image selected from the searched products and the user image are combined. In addition,
The product images stored in the product database DB1 are
It is assumed that the deformation process has already been performed according to the bulge of the human body.

【0078】図15は、この処理の流れを示すフローチ
ャートである。まず、ステップS21において、ユーザ
は、クライアント30を用いてサーバ10の商品検索ペ
ージにアクセスする。そして、ユーザ識別コード(ID
番号、パスワード)を入力しする(ステップS22)。
FIG. 15 is a flow chart showing the flow of this processing. First, in step S21, the user uses the client 30 to access the product search page of the server 10. Then, the user identification code (ID
Enter the number and password (step S22).

【0079】一方、このユーザ識別コードを受信したサ
ーバ10は、ユーザ識別コードが正規のものであるか否
かを判定する。正規のものであることが確認される場合
には、認識されたユーザについての既に登録されている
ユーザ画像の一覧リスト(ユーザ画像リスト)をクライ
アント30に対して送信する。なお、正規のものでない
と判定される場合には、その旨をクライアント30に返
信する。
On the other hand, the server 10 receiving this user identification code determines whether the user identification code is legitimate. If it is confirmed to be legitimate, the list of user images already registered for the recognized user (user image list) is transmitted to the client 30. If it is determined that it is not a legitimate one, the fact is returned to the client 30.

【0080】クライアント30は、受信したユーザ画像
リストを表示する(ステップS24)。ユーザは、表示
されたユーザ画像リストの中から、ユーザ画像を選択
し、検索条件を指示する。ここでは、ユーザ画像とし
て、ワイシャツの画像が選択されたものとする。
The client 30 displays the received user image list (step S24). The user selects a user image from the displayed user image list and gives a search condition instruction. Here, it is assumed that the image of the shirt is selected as the user image.

【0081】以下においては、指示された検索条件に従
って、この選択されたユーザ画像(以下、「選択画像」
とも称する)で表現される衣服に適合する服が、検索さ
れることになる。
In the following, this selected user image (hereinafter referred to as “selected image”) is displayed in accordance with the instructed search condition.
Clothes that match the clothes represented by () will be searched.

【0082】図16は、検索条件の指示を行う画面の一
例を表す図である。ユーザは、検索すべき商品画像の特
徴をこの画面を用いて入力する。図16の最上段の選択
肢は、検索すべき商品が、選択画像の衣服の色の特徴に
関して「同系統」の衣服であるのか、それとも「異系
統」の衣服であるのかを指示するものである。また、中
段の選択肢は、検索すべき商品が、「フォーマル」な衣
服であるのか、それとも「カジュアル」な衣服であるの
かを指示するものである。また、最下段の選択肢は、検
索すべき商品が、「流行的」な衣服であるのか、それと
も「伝統的」な衣服であるのかを指示するものである。
ユーザは、各所望の選択肢をマウス操作によって選択し
た後、「決定」ボタンを押下することによって、検索指
示をサーバ10に送信する。
FIG. 16 is a diagram showing an example of a screen for instructing search conditions. The user inputs the characteristics of the product image to be searched using this screen. The option at the top of FIG. 16 indicates whether the product to be searched is the “same system” or the “different system” clothes with respect to the color characteristics of the clothes in the selected image. . The option in the middle row indicates whether the product to be searched is "formal" clothes or "casual" clothes. The option at the bottom is to indicate whether the product to be searched is "fashionable" clothes or "traditional" clothes.
The user sends a search instruction to the server 10 by pressing the “OK” button after selecting each desired option by operating the mouse.

【0083】つぎに、サーバ10は、選択されたユーザ
画像および検索指示に基づいて、複数の商品画像の中か
ら適合するものを検索する(ステップS26)。
Next, the server 10 searches for a matching product image among a plurality of product images based on the selected user image and search instruction (step S26).

【0084】以下では、この検索動作について詳細に説
明する。ここでは、ユーザ画像がワイシャツに関する画
像であり、このワイシャツに着合わせる衣服を検索する
場合を想定する。
The search operation will be described in detail below. Here, it is assumed that the user image is an image related to a shirt, and that clothes to be worn on this shirt are searched.

【0085】まず、この検索動作においては、衣服に関
する複数の種類のうち着合わせが不可能な商品を検索対
象から除外する。具体的には、ワイシャツとワイシャツ
とを着合わせることはないので、ワイシャツに関する商
品画像を検索対象から除外する。すなわち、ユーザ画像
の属性情報に基づいて、検索対象を着合わせが可能な商
品に絞り込むことができる。これにより、効率的な検索
が可能になる。
First, in this search operation, out of a plurality of types of clothing, commodities that cannot be dressed together are excluded from the search target. Specifically, since the shirt and the shirt are not worn together, the product image related to the shirt is excluded from the search target. That is, the search target can be narrowed down to products that can be dressed based on the attribute information of the user image. This enables efficient search.

【0086】次に、ユーザ画像の衣服に適合する商品を
検索するため、ユーザ画像の特徴を把握する。
Next, in order to search for products that match the clothes of the user image, the characteristics of the user image are grasped.

【0087】そのため、ユーザ画像内の各画素の色を分
類する。ここでは、各画素を、「赤」、「緑」、
「青」、「白」、「黒」の5つの色成分に分類する場合
を例示する。より詳細には、色空間をこれら5つの部分
空間に分割し、各画素の色をいずれかの部分空間に分類
する。そして、ユーザ画像内の全ての画素について、こ
のような分類処理を行う。これにより、これらの5つの
色成分の分布割合を求める。
Therefore, the color of each pixel in the user image is classified. Here, each pixel is replaced with "red", "green",
A case where the color components are classified into five color components of “blue”, “white”, and “black” will be exemplified. More specifically, the color space is divided into these five subspaces, and the color of each pixel is classified into one of the subspaces. Then, such a classification process is performed for all the pixels in the user image. Thereby, the distribution ratio of these five color components is obtained.

【0088】図17(a)は、得られた分布割合の一例
を示す図である。この場合は、「赤」が100%である
ので、赤一色の単一色の衣服であることが判る。
FIG. 17A is a diagram showing an example of the obtained distribution ratio. In this case, since "red" is 100%, it can be seen that the clothing is a single color of red.

【0089】図17(b)は、得られた分布割合の他の
一例を示す図である。この場合は、「赤」、「緑」、
「青」がそれぞれ30%、40%、30%であるので、
カラフルな衣服(多数の色が用いられている衣服)であ
ることが判る。
FIG. 17B is a diagram showing another example of the obtained distribution ratio. In this case, "red", "green",
Since "blue" is 30%, 40%, and 30%,
It turns out to be colorful clothing (clothes that use many colors).

【0090】このとき、5つの各色成分のばらつき度合
いないしは偏り度合いを表す指標値として、次の式1で
表現される値D(分散の一種)を用いることができる。
たとえば、各色の分布割合Pi(%)について、値D
は、 D=Σ(Pi−100/5)2 (式1) として表現される。ここにおいて、Σは5つの色成分に
ついての総和を意味し、添え字iは各色成分に割り当て
られた数字(1〜5)を表す。
At this time, a value D (a kind of variance) expressed by the following equation 1 can be used as an index value indicating the degree of variation or bias of each of the five color components.
For example, for the distribution ratio Pi (%) of each color, the value D
Is expressed as D = Σ (Pi-100 / 5) 2 (Equation 1). Here, Σ means the total sum of five color components, and the subscript i represents the numbers (1 to 5) assigned to each color component.

【0091】値Dは、図17(a)のように、画像内の
色数が少ないときには比較的大きな値となり、一方、図
17(b)のように、画像内の色数が多いときには比較
的小さな値となる。
The value D becomes a relatively large value when the number of colors in the image is small as shown in FIG. 17A, while it is compared when the number of colors in the image is large as shown in FIG. 17B. It becomes a very small value.

【0092】このように、値Dが所定値よりも大きいと
きには、5つの色成分の値の相互間のばらつきが大き
く、5つの色成分のうち特定の色成分に分布割合が集中
していることが判る。すなわち、値Dが所定値よりも大
きいときには、特定の色成分に対する分布割合の偏り度
合いが大きく、画像内の色数が少ないことが判る。一
方、値Dが所定値よりも小さいときには、5つの色成分
の値の相互間のばらつきが小さく、5つの色成分のうち
多くの色成分に分布割合がばらついていることが判る。
すなわち、値Dが所定値よりも小さいときには、特定の
色成分に対する分布割合の偏り度合いが小さく、画像内
の色数が多いことが判る。
As described above, when the value D is larger than the predetermined value, the variation among the values of the five color components is large, and the distribution ratio is concentrated on a specific color component among the five color components. I understand. That is, when the value D is larger than the predetermined value, it can be seen that the degree of deviation of the distribution ratio with respect to the specific color component is large and the number of colors in the image is small. On the other hand, when the value D is smaller than the predetermined value, it can be seen that the variation among the values of the five color components is small and the distribution ratio varies among many of the five color components.
That is, it can be seen that when the value D is smaller than the predetermined value, the degree of deviation of the distribution ratio with respect to the specific color component is small, and the number of colors in the image is large.

【0093】また、複数の色成分のうち、最も分布割合
が大きな色成分を特定することができるので、どのよう
な色が多く含まれているかをも把握することができる。
Further, since the color component having the largest distribution ratio can be specified from the plurality of color components, it is possible to grasp what kind of color is included in large quantity.

【0094】これにより、そのユーザ画像の衣服が、色
数が少ない衣服であるのか、色数が多い衣服であるのか
を求めることができる。また、その衣服が何色の系統の
衣服であるのか、すなわちその衣服の系統色をも求める
ことができる。このようにして、各ユーザ画像の特徴を
類型化して取得することができる。
As a result, it is possible to determine whether the clothing of the user image has a small number of colors or a large number of colors. In addition, it is possible to obtain the color of the clothing, that is, the systematic color of the clothing. In this way, the characteristics of each user image can be categorized and acquired.

【0095】そして、上記の検索条件に従って、同系色
ないし異系色の衣服を検索する。たとえば、上記の色分
析の結果、ユーザ画像の衣服が白単一色のワイシャツで
あると判定され、かつ、同系色の衣服を検索すべき旨が
指示されている場合には、白系統のズボンが検索され
る。なお、同系統であるか異系統であるかについては、
ユーザ画像について取得される類型化された各特徴ごと
に所定の判断基準を設けておき、その判断基準に基づい
て、そのユーザ画像に対して各商品画像が同系統のもの
であるか異系統のものであるかを決定すれば良い。
Then, according to the above search conditions, clothes of similar or different colors are searched. For example, as a result of the color analysis described above, when it is determined that the clothes in the user image are white shirts of a single color, and it is instructed to search for clothes of a similar color, the white-colored pants are To be searched. In addition, regarding whether it is the same system or different system,
A predetermined criterion is provided for each typified feature acquired for the user image, and based on the criterion, each product image is of the same system or of a different system with respect to the user image. You just have to decide what it is.

【0096】以上のような検索の結果、選択の候補とな
る幾つかの画像がリストアップされ、商品画像リストが
生成される。
As a result of the above search, some images that are candidates for selection are listed, and a product image list is generated.

【0097】そして、サーバ10は、その検索結果とし
ての商品画像リストをクライアント30に対して送信す
る(ステップS27)。
Then, the server 10 transmits the product image list as the search result to the client 30 (step S27).

【0098】クライアント30は、受信した商品画像リ
ストを表示部に表示する(ステップS28)。そして、
ユーザは、表示された商品画像リストの中から好みの商
品画像を選択する(ステップS29)。
The client 30 displays the received product image list on the display unit (step S28). And
The user selects a desired product image from the displayed product image list (step S29).

【0099】一方、サーバ10は、ステップS25で選
択されたユーザ画像とステップS29で選択された商品
画像とを合成する処理を行う。この合成処理は、上述し
た処理である。また、この合成処理においては、ユーザ
画像に対して人体に膨らみに応じた変形処理が行われた
上で、変形処理が施されたユーザ画像と既に変形処理が
施された商品画像とが合成される。
On the other hand, the server 10 performs a process of synthesizing the user image selected in step S25 and the product image selected in step S29. This combining process is the process described above. Further, in this synthesizing process, the user image is deformed according to the bulge of the human body, and then the deformed user image is combined with the already deformed product image. It

【0100】そして、ステップS31において、サーバ
10は、合成画像をクライアント30に対して送信す
る。
Then, in step S 31, the server 10 transmits the composite image to the client 30.

【0101】クライアント30は、受信した合成画像を
その表示部において表示する。ユーザは、この表示画面
に表示された合成画像を見て、着合わせた2つの衣服の
適合度を目で確認することができる。
The client 30 displays the received composite image on its display section. The user can visually check the suitability of the two worn clothes by looking at the composite image displayed on the display screen.

【0102】以上のように、この実施形態のサーバ10
によれば、複数の商品画像がその属性情報に付随させて
取得され、かつ、ユーザ画像がその属性情報に付随させ
て取得されるので、衣服の種別を示す属性情報を商品画
像およびユーザ画像に付随させて管理することが可能に
なる。
As described above, the server 10 of this embodiment
According to the above, since a plurality of product images are acquired with the attribute information attached thereto, and the user image is acquired with the attribute information attached thereto, the attribute information indicating the type of clothes is added to the product image and the user image. It becomes possible to manage them together.

【0103】また、このサーバ10は、商品提供者であ
る複数の会社とユーザとの間で商品売買の仲介を行って
いる。そして、このサーバ10には、複数の企業から複
数の商品情報が蓄積される。したがって、ユーザは、ユ
ーザ画像に適合する商品画像をより多くの商品の中から
検索したり、画像合成による着合わせを行ったりするこ
とができる。
Further, the server 10 mediates product sales between a plurality of companies, which are product providers, and users. Then, the server 10 stores a plurality of product information from a plurality of companies. Therefore, the user can search for a product image that matches the user image from a larger number of products, or can perform dressing by combining images.

【0104】特に、ネットワークの中にインターネット
が介在しており、サーバがウエブサーバ(Webサー
バ)である場合には、任意の商品情報提供者が商品画像
をこのウエブサーバに登録することができ、任意のユー
ザがユーザ画像をこのウエブサーバに登録することがで
きる。言い換えれば、このウエブサーバは、任意の商品
情報提供者からの商品画像を取得することができ、任意
のユーザからのユーザ画像を取得することができる。
In particular, when the Internet is included in the network and the server is a web server (Web server), any product information provider can register a product image on this web server. Any user can register a user image on this web server. In other words, this web server can acquire a product image from any product information provider, and can acquire a user image from any user.

【0105】また、上述した合成処理においては、商品
画像とユーザ画像とが属性情報を用いて合成されるの
で、衣服相互の組合せを検討することが可能である。
Further, in the above-described synthesizing process, since the product image and the user image are synthesized using the attribute information, it is possible to consider the combination of clothes.

【0106】さらに、上記においては、商品画像および
ユーザ画像は、2次元の位置情報を有する場合について
説明した。この場合、2次元の位置情報を有する商品画
像と2次元の位置情報を有するユーザ画像とを用いて、
画像の合成処理を簡易に行うことができる。特に、3次
元の処理を行う必要が無いので、ハードウエアに対する
負荷を低減することができる。したがって、より高速な
処理が可能になるなどの利益を享受できる。また逆に、
このようなハードウエア上の制約等が無い場合には、商
品画像およびユーザ画像は、3次元の位置情報を有する
ものとしても良い。具体的には、人が着た状態の衣服を
複数の方向から撮影した画像を用いて各基準点を指定
し、各基準点に基づいて3次元データを求めるようにし
ても良い。これによれば、より正確な3D表現(立体表
現)が可能になる。
Furthermore, in the above, the case where the product image and the user image have two-dimensional position information has been described. In this case, using a product image having two-dimensional position information and a user image having two-dimensional position information,
The image combining process can be easily performed. In particular, since it is not necessary to perform three-dimensional processing, the load on hardware can be reduced. Therefore, it is possible to enjoy benefits such as faster processing. On the contrary,
If there are no such restrictions on the hardware, the product image and the user image may have three-dimensional position information. Specifically, each reference point may be designated using images obtained by shooting clothes worn by a person from a plurality of directions, and three-dimensional data may be obtained based on each reference point. According to this, more accurate 3D expression (stereoscopic expression) becomes possible.

【0107】また、上述したような商品検索処理におい
ては、複数の商品画像の中から、ユーザ画像に適合する
商品画像が属性情報を用いて検索されるので、衣服相互
の組合せを検討することが可能である。特に、上記実施
形態においては、属性情報を用いて、検索対象をユーザ
画像に対する着合わせが可能な種類の商品画像に絞り込
んだ上で、複数の商品画像の中からユーザ画像に適合す
る商品画像が検索されるので、所望の衣服をより効率的
に検索することができる。
Further, in the above-described product search processing, a product image matching the user image is searched from the plurality of product images by using the attribute information. Therefore, it is possible to consider a combination of clothes. It is possible. In particular, in the above-described embodiment, the attribute information is used to narrow down the search target to product images of a type that can be dressed in the user image, and then the product images that match the user image are selected from the plurality of product images. Since it is searched, the desired clothes can be searched more efficiently.

【0108】ところで、上記においては、ユーザ画像の
衣服に適合する商品を検索する場合について例示した
が、これに限定されない。たとえば、ユーザがサーバ1
0に登録した複数のユーザ画像に基づいて、ユーザの好
みを抽出し、その好みに応じた適切な衣服を検索するよ
うにしても良い。
By the way, in the above, the case where the product matching the clothes of the user image is searched has been exemplified, but the present invention is not limited to this. For example, if the user is server 1
The user's preference may be extracted based on a plurality of user images registered in 0, and an appropriate clothing item according to the preference may be searched.

【0109】具体的には、ユーザが登録した複数の衣服
について、それぞれ、上記と同様に、各衣服の特徴を抽
出する。そして、複数の衣服の特徴に基づいて、そのユ
ーザの好みを抽出するのである。
Specifically, for each of a plurality of clothes registered by the user, the characteristics of each clothes are extracted in the same manner as described above. Then, the preference of the user is extracted based on the characteristics of the plurality of clothes.

【0110】より詳細には、値Dの平均値に基づいて好
みを抽出できる。たとえば、値Dの平均値が所定値より
も小さいときには、色数が多い衣服が好みであることが
判り、値Dの平均値が所定値よりも大きいときには、色
数が少ないすっきりした衣服が好みであることが判る。
More specifically, the preference can be extracted based on the average value of the values D. For example, when the average value of the values D is smaller than a predetermined value, it is found that clothes having a large number of colors are preferred, and when the average value of the values D is larger than a predetermined value, clean clothes having a small number of colors are preferred. It turns out that

【0111】さらには、分布割合の色成分ごとの平均値
を求め、最も大きな値を有する色成分を好みの色として
把握することができる。たとえば、複数の色成分のうち
最も赤色成分が多いときには、そのユーザが赤色を好む
という傾向を有していることを把握することができる。
このようにして、そのユーザの嗜好を把握することがで
きる。
Furthermore, an average value of distribution ratios for each color component can be obtained, and the color component having the largest value can be grasped as a favorite color. For example, when the red component is the largest among the plurality of color components, it can be understood that the user tends to prefer red.
In this way, the preference of the user can be grasped.

【0112】そして、このようにして把握した嗜好に応
じて、そのユーザに適合する衣服を検索することが可能
である。
Then, it is possible to search for the clothes suitable for the user in accordance with the taste thus grasped.

【0113】これによれば、ユーザの嗜好を自動的に推
定して検索が行われるので、ユーザが逐一検索条件を入
力するなどの手間を軽減することができる。
According to this, since the user's preference is automatically estimated and the search is performed, it is possible to save the user the trouble of inputting the search condition one by one.

【0114】<5.その他>上記実施形態においては、
Tシャツ内に存在する点を基準点として選択したが、こ
れに限定されない。たとえば、図18に示すように、右
腰および左腰に関する基準点を衣服の外側に設けるよう
にしても良い。そして、図18のようなTシャツTS2
の下端よりも下側に設けられた基準点とズボンの基準点
とを合わせることにより、Tシャツとズボンとの間に隙
間を設けて合成処理を行うのである。これによれば、丈
が短いTシャツTS2をズボンと接触しないようにして
着合わせる場合にも対応することが可能である。
<5. Others> In the above embodiment,
The point present in the T-shirt was selected as the reference point, but is not limited to this. For example, as shown in FIG. 18, the reference points for the right waist and the left waist may be provided on the outside of the clothes. Then, the T-shirt TS2 as shown in FIG.
By aligning a reference point provided on the lower side of the lower end with the reference point of the pants, a synthesis process is performed with a gap provided between the T-shirt and the pants. According to this, it is possible to cope with the case where the short T-shirt TS2 is worn without contacting the pants.

【0115】また、上記実施形態においては、商品画像
は変形処理が施された状態で商品データベースDB1に
格納され、ユーザ画像は変形処理が施されていない状態
でユーザ情報データベースDB2に格納されており、合
成処理時に変形処理が施される場合を例示したが、これ
に限定されない。たとえば、合成処理時点において、ユ
ーザ画像および商品画像の双方のいずれに対しても変形
処理が既に施された状態であっても良く、あるいはいず
れに対しても変形処理が未だ施されていない状態であっ
ても良い。さらには、ユーザ画像ごと(あるいは商品画
像ごと)に変形処理の有無が異なっていても良い。な
お、このときには、変形処理前の画像であるか変形処理
後の画像であるかを示すフラグとともに各画像を格納し
ておき、合成処理時においてそのフラグを用いて、さら
に変形処理を施す必要があるか否かを判定すれば良い。
Further, in the above embodiment, the product image is stored in the product database DB1 in a modified state, and the user image is stored in the user information database DB2 in a non-modified form. Although the case where the transformation process is performed during the synthesizing process has been illustrated, the present invention is not limited to this. For example, at the time of the combining process, the deformation process may be performed on both the user image and the product image, or the deformation process may not be performed on both the user image and the product image. It may be. Further, the presence or absence of the deformation process may be different for each user image (or each product image). At this time, it is necessary to store each image together with a flag indicating whether the image is an image before the deformation process or an image after the deformation process, and further perform the deformation process by using the flag during the combining process. It may be determined whether or not there is.

【0116】さらに、上記実施形態においては、ユーザ
画像の特徴を抽出する際に5つの色成分に分類する場合
を例示したが、これに限定されない。これより小さな数
の色成分に分類しても良く、これより大きな数の色成分
に分類しても良い。
Further, in the above embodiment, the case where the features of the user image are extracted is classified into five color components, but the present invention is not limited to this. The color components may be classified into a smaller number than this, or may be classified into a larger number than this.

【0117】また、上記実施形態においては、複数の色
成分への分類結果に基づいて、系統色を求める場合を例
示したが、これに限定されない。たとえば、明るさをさ
らに考慮した上で、衣服の系統を特定することもでき
る。具体的には、各色成分の平均明度を算出することが
可能である。この場合、明るい青であるのか、暗い青で
あるのかをも区別して検索処理を行うことが可能にな
る。
Further, in the above embodiment, the case where the systematic color is obtained based on the result of classification into a plurality of color components has been illustrated, but the present invention is not limited to this. For example, it is also possible to specify the system of the clothes by further considering the brightness. Specifically, it is possible to calculate the average brightness of each color component. In this case, it is possible to perform the search processing by distinguishing whether it is light blue or dark blue.

【0118】さらに、上記実施形態においては、服飾品
の一例として「衣服」を例示したが、これに限定されな
い。「服飾品」は、衣服のみならず、各種のアクセサリ
などの装飾品をも含む概念である。なお、このとき、ア
クセサリの「基準点」としては、人体の仮想画像と対応
付けて、その装着位置を指定しておけば良い。
Further, in the above-mentioned embodiment, "clothes" are exemplified as an example of the clothing accessories, but the invention is not limited to this. “Clothing accessories” is a concept that includes not only clothes but also accessories such as various accessories. At this time, as the "reference point" of the accessory, the attachment position may be designated in association with the virtual image of the human body.

【0119】この「服飾品」は、「ヘアースタイル」な
どの広義の装飾品をも含むものとする。本発明は、この
ような「服飾品」について適用することができる。
The "clothing accessories" include decorations in a broad sense such as "hair style". The present invention can be applied to such "fashionable articles".

【0120】また、上記実施形態においては、1つのユ
ーザ画像と1つの商品画像とを合成する場合について説
明したが、これに限定されず、3つ以上の画像を合成す
るようにしても良い。たとえば、1つのユーザ画像に対
して複数の商品画像を合成しても良い。あるいは、複数
のユーザ画像に対して、1つまたは複数の商品画像を合
成しても良い。具体的には、1つのユーザ画像と1つの
商品画像とを合成した後、さらに別の商品画像(あるい
は別のユーザ画像)を選択して、さらなる合成処理を行
えば良い。
In the above embodiment, the case where one user image and one product image are combined has been described, but the present invention is not limited to this, and three or more images may be combined. For example, a plurality of product images may be combined with one user image. Alternatively, one or a plurality of product images may be combined with a plurality of user images. Specifically, after one user image and one product image are combined, another product image (or another user image) may be selected and further combination processing may be performed.

【0121】さらに、上記実施形態においては、同一の
端末(クライアント30)を用いて画像登録処理および
画像合成処理を行っているが、これに限定されず、別個
の端末を用いて行っても良い。たとえば、クライアント
30を用いて画像登録処理を行った後、携帯電話のイン
ターネット接続サービスなどを用いてサーバ10にアク
セスすることにより、画像合成処理を行うようにしても
良い。
Furthermore, in the above embodiment, the image registration processing and the image composition processing are performed using the same terminal (client 30), but the present invention is not limited to this, and may be performed using separate terminals. . For example, after performing the image registration process using the client 30, the image combining process may be performed by accessing the server 10 using the Internet connection service of a mobile phone or the like.

【0122】また、上記実施形態においては、画像登録
処理時点において、ユーザ画像と付加情報との双方を取
得しているが、これに限定されない。たとえば、所定の
時点(たとえば画像登録処理時点)で取得されていたユ
ーザ画像に対する付加情報を、それ以降の時点(たとえ
ば画像合成処理時点)においてさらに取得するようにし
ても良い。このようにして、サーバ10は、属性情報等
を含む付加情報に付随させて、ユーザ画像を取得するこ
とができる。なお、商品画像についても同様である。
In the above embodiment, both the user image and the additional information are acquired at the time of image registration processing, but the present invention is not limited to this. For example, the additional information for the user image acquired at a predetermined time point (for example, image registration processing time point) may be further acquired at a subsequent time point (for example, image synthesizing processing time point). In this way, the server 10 can acquire the user image in association with the additional information including the attribute information and the like. The same applies to the product image.

【0123】さらに、上記実施形態においては、複数の
会社からサーバ10に対して商品情報が提供される場合
について例示しているが、これに限定されず、1社のみ
からの商品情報をサーバ10に蓄積するようにしても良
い。
Further, in the above embodiment, the case where the product information is provided to the server 10 from a plurality of companies is illustrated, but the present invention is not limited to this, and the product information from only one company is supplied to the server 10. You may make it accumulate | store in.

【0124】[0124]

【発明の効果】以上のように、請求項1ないし請求項1
1に記載の発明によれば、複数の商品画像をその属性情
報に付随させて取得し、かつ、ユーザ画像をその属性情
報に付随させて取得するので、服飾品の種別を示す属性
情報を商品画像およびユーザ画像に付随させて管理する
ことが可能になる。したがって、服飾品に関する情報を
十分に管理することができる。
As described above, the claims 1 to 1 are as follows.
According to the invention described in 1, the plurality of product images are acquired in association with the attribute information, and the user image is acquired in association with the attribute information. Therefore, the attribute information indicating the type of clothing item is acquired. It becomes possible to manage the image and the user image in association with each other. Therefore, it is possible to sufficiently manage the information regarding the clothing accessories.

【0125】特に、請求項2に記載の発明によれば、対
象商品画像とユーザ画像とを属性情報を用いて合成する
ので、服飾品相互の組合せを検討することが可能であ
る。
In particular, according to the second aspect of the present invention, since the target product image and the user image are combined using the attribute information, it is possible to consider the mutual combination of fashion items.

【0126】また、請求項3に記載の発明によれば、ユ
ーザ画像と対象商品画像との積層関係が、属性情報に基
づく階層情報を用いて適宜に決定され、決定された積層
関係を用いてユーザ画像と対象商品画像とが合成される
ので、より自然な合成画像を生成することができる。
According to the third aspect of the invention, the stacking relationship between the user image and the target product image is appropriately determined using the hierarchical information based on the attribute information, and the stacking relationship determined is used. Since the user image and the target product image are combined, a more natural combined image can be generated.

【0127】さらに、請求項4に記載の発明によれば、
ユーザ画像および対象商品画像は、それぞれに設定され
た複数の種類の基準点のうち属性情報に応じた種類の基
準点の位置を合わせることによって合成されるので、複
数の基準点のうち適宜の基準点を用いて合成処理を行う
ことができる。
Further, according to the invention described in claim 4,
The user image and the target product image are combined by aligning the positions of the reference points of the types corresponding to the attribute information among the plurality of types of reference points set respectively, so that the appropriate reference point of the plurality of reference points is set. The point can be used to perform the combining process.

【0128】また、請求項7に記載の発明によれば、ユ
ーザ画像および対象商品画像に対して人体の膨らみに応
じた変形処理が施され、変形処理が施されたユーザ画像
と商品画像とが合成されるので、より自然な合成画像を
生成することができる。
According to the invention described in claim 7, the user image and the target product image are subjected to the deformation processing according to the bulge of the human body, and the user image and the product image subjected to the deformation processing are Since they are combined, a more natural combined image can be generated.

【0129】さらに、請求項8に記載の発明によれば、
複数の商品画像の中から、前記ユーザ画像に適合する商
品画像が属性情報を用いて検索されるので、服飾品相互
の組合せを検討することが可能である。
Further, according to the invention of claim 8,
Since a product image that matches the user image is retrieved from the plurality of product images by using the attribute information, it is possible to consider a combination of clothing items.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の実施形態に係るシステム1の概要構成
を示す図である。
FIG. 1 is a diagram showing a schematic configuration of a system 1 according to an embodiment of the present invention.

【図2】ユーザ画像の登録動作について説明する図であ
る。
FIG. 2 is a diagram illustrating a user image registration operation.

【図3】登録用画面を示す図である。FIG. 3 is a diagram showing a registration screen.

【図4】データ構成を表す図である。FIG. 4 is a diagram showing a data structure.

【図5】階層決定用テーブルTBL1を示す図である。FIG. 5 is a diagram showing a tier determination table TBL1.

【図6】基準点の設定に関する第1の手法を説明する図
である。
FIG. 6 is a diagram illustrating a first method for setting a reference point.

【図7】基準点の設定に関する第2の手法を説明する図
である。
FIG. 7 is a diagram illustrating a second method for setting a reference point.

【図8】仮想店舗内の商品を選択する選択画面を示す図
である。
FIG. 8 is a diagram showing a selection screen for selecting a product in a virtual store.

【図9】変形前後の衣服画像を示す図である。FIG. 9 is a diagram showing clothes images before and after deformation.

【図10】変形前の衣服画像を示す図である。FIG. 10 is a diagram showing a clothes image before deformation.

【図11】変形後の衣服画像を示す図である。FIG. 11 is a diagram showing a modified clothes image.

【図12】合成前のTシャツとズボンとを仮想的に表現
する図である。
FIG. 12 is a diagram virtually representing a T-shirt and pants before composition.

【図13】合成後の合成画像を示す図である。FIG. 13 is a diagram showing a composite image after composition.

【図14】別の合成画像を示す図である。FIG. 14 is a diagram showing another composite image.

【図15】商品検索を伴う着合わせ処理の流れを示すフ
ローチャートである。
FIG. 15 is a flowchart showing a flow of dressing process accompanied by product search.

【図16】検索条件の指示を行う画面を表す図である。FIG. 16 is a diagram showing a screen for instructing search conditions.

【図17】色成分ごとの分布割合を示す図である。FIG. 17 is a diagram showing a distribution ratio for each color component.

【図18】ユーザ画像の登録に関する変形例を示す図で
ある。
FIG. 18 is a diagram illustrating a modified example regarding registration of a user image.

【符号の説明】[Explanation of symbols]

1 システム 10 サーバ A1,B1,PW 衣服画像 DB1 商品データベース DB2 ユーザ情報データベース JC ズボン PM 人体画像 Q1〜Q8,Q31,Q32 各基準点 TBL1 階層決定用テーブル TS シャツ 1 system 10 servers A1, B1, PW Clothes image DB1 product database DB2 user information database JC trousers PM human body image Q1-Q8, Q31, Q32 Each reference point TBL1 hierarchy decision table TS shirt

フロントページの続き (51)Int.Cl.7 識別記号 FI テーマコート゛(参考) G06T 1/00 200 G06T 1/00 200A 3/00 300 3/00 300 H04N 1/387 H04N 1/387 (72)発明者 黄 永信 大阪府大阪市中央区安土町二丁目3番13号 大阪国際ビル ミノルタ株式会社内 Fターム(参考) 5B050 AA00 BA13 CA07 EA13 EA19 FA02 FA13 FA19 GA08 5B057 AA18 CE08 5B075 ND08 ND20 PQ02 PQ12 PR08 UU40 5C076 AA13 BA06 Front page continuation (51) Int.Cl. 7 Identification code FI theme code (reference) G06T 1/00 200 G06T 1/00 200A 3/00 300 3/00 300 H04N 1/387 H04N 1/387 (72) Invention Person Yongnobu Huang, E-term, 2-13-3, Azuchi-cho, Chuo-ku, Osaka-shi, Osaka Prefecture F-term (reference) in Minolta Co., Ltd. 5B050 AA00 BA13 CA07 EA13 EA19 FA02 FA13 FA19 GA08 5B057 AA18 CE08 5B075 ND08 ND20 PQ02 PQ12 PR08 UU40 5C076 AA13 BA06

Claims (11)

【特許請求の範囲】[Claims] 【請求項1】 サーバであって、 服飾品に関する複数の商品画像を、当該各商品画像につ
いての服飾品の種別を示す属性情報に付随させて取得す
る商品画像取得手段と、 服飾品に関するユーザ画像を、当該ユーザ画像について
の前記属性情報に付随させて取得するユーザ画像取得手
段と、を備えることを特徴とするサーバ。
1. A server, which is a server, and which acquires a plurality of product images related to clothing items along with attribute information indicating the type of the clothing item for each product image, and a user image related to the clothing item. And a user image acquisition means for acquiring the attribute information of the user image in association with the attribute information.
【請求項2】 請求項1に記載のサーバにおいて、 前記ユーザ画像と、前記複数の商品画像の中から処理の
対象として選択された対象商品画像とを前記属性情報を
用いて合成する合成手段、をさらに備えることを特徴と
するサーバ。
2. The server according to claim 1, wherein the user image and a target product image selected as a processing target from the plurality of product images are combined using the attribute information. A server further comprising:
【請求項3】 請求項2に記載のサーバにおいて、 前記合成手段は、前記属性情報に基づく階層情報を用い
て前記ユーザ画像と前記対象商品画像との積層関係を決
定し、決定された前記積層関係を用いて前記ユーザ画像
と前記対象商品画像とを合成することを特徴とするサー
バ。
3. The server according to claim 2, wherein the synthesizing unit determines a stacking relationship between the user image and the target product image by using layer information based on the attribute information, and the stacking is determined. A server that combines the user image and the target product image using a relationship.
【請求項4】 請求項2または請求項3に記載のサーバ
において、 前記ユーザ画像および前記対象商品画像は、それぞれに
設定された複数の種類の基準点のうち前記属性情報に応
じた種類の基準点の位置を合わせることによって合成さ
れることを特徴とするサーバ。
4. The server according to claim 2, wherein the user image and the target merchandise image are a reference of a type corresponding to the attribute information among a plurality of types of reference points set respectively. A server characterized by being synthesized by aligning the positions of points.
【請求項5】 請求項4に記載のサーバにおいて、 前記基準点は、その位置を前記ユーザ画像上においてユ
ーザが指定することにより決定されることを特徴とする
サーバ。
5. The server according to claim 4, wherein the reference point is determined by a user designating its position on the user image.
【請求項6】 請求項4に記載のサーバにおいて、 前記基準点は、所定の大きさを有する仮想人体画像に合
わせるように変倍された前記ユーザ画像において、前記
仮想人体画像の所定位置に対応する位置を求めることに
よって決定されることを特徴とするサーバ。
6. The server according to claim 4, wherein the reference point corresponds to a predetermined position of the virtual human body image in the user image scaled to match a virtual human body image having a predetermined size. A server characterized by being determined by determining a location to
【請求項7】 請求項2ないし請求項6のいずれかに記
載のサーバにおいて、 前記ユーザ画像および前記対象商品画像に対して人体の
膨らみに応じた変形処理を施す変形処理手段、をさらに
備え、 前記合成手段は、前記変形処理が施された前記ユーザ画
像と前記変形処理が施された前記対象商品画像とを合成
することを特徴とするサーバ。
7. The server according to claim 2, further comprising a deformation processing unit that performs a deformation process on the user image and the target product image according to a bulge of a human body. The server is characterized in that the synthesizing unit synthesizes the user image that has been subjected to the deformation processing and the target product image that has been subjected to the deformation processing.
【請求項8】 請求項1ないし請求項7のいずれかに記
載のサーバにおいて、 前記属性情報を用いて、前記複数の商品画像の中から前
記ユーザ画像に適合する商品画像を検索する検索手段、
をさらに備えることを特徴とするサーバ。
8. The server according to claim 1, wherein the attribute information is used to search for a product image matching the user image from the plurality of product images.
A server further comprising:
【請求項9】 請求項8に記載のサーバにおいて、 前記ユーザ画像についての特徴を抽出する特徴抽出手
段、をさらに備え、 前記検索手段は、前記ユーザ画像について抽出された特
徴に応じて、当該特徴に適合する商品画像を前記複数の
商品画像の中から検索することを特徴とするサーバ。
9. The server according to claim 8, further comprising a feature extraction unit that extracts a feature of the user image, the search unit according to the feature extracted for the user image. A server that searches for a product image conforming to the above item from among the plurality of product images.
【請求項10】 請求項8に記載のサーバにおいて、 前記ユーザ画像取得手段は、複数のユーザ画像を取得
し、 前記特徴抽出手段は、前記複数のユーザ画像のそれぞれ
についての特徴を抽出し、 前記検索手段は、前記複数のユーザ画像のそれぞれにつ
いて抽出された特徴から当該ユーザの嗜好を求め、当該
嗜好に応じた商品画像を前記複数の商品画像の中から検
索することを特徴とするサーバ。
10. The server according to claim 8, wherein the user image acquisition unit acquires a plurality of user images, and the feature extraction unit extracts a feature for each of the plurality of user images, A server, wherein the search means obtains a preference of the user from the features extracted for each of the plurality of user images, and retrieves a product image corresponding to the preference from the plurality of product images.
【請求項11】 仮想試着用データ管理方法であって、 服飾品に関する複数の商品画像を、当該各商品画像につ
いての服飾品の種別を示す属性情報に付随させてネット
ワークを介して取得するステップと、 服飾品に関するユーザ画像を、当該ユーザ画像について
の前記属性情報に付随させてネットワークを介して取得
するステップと、 を含むことを特徴とする仮想試着用データ管理方法。
11. A virtual try-on data management method, the method comprising: acquiring a plurality of product images relating to clothing items via a network, with the attribute information indicating the type of clothing item associated with each of the product images. A virtual trial fitting data management method, comprising: acquiring a user image related to clothing accessories via the network along with the attribute information of the user image.
JP2001247914A 2001-08-17 2001-08-17 Server and method of virtual try-on data management Pending JP2003055826A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001247914A JP2003055826A (en) 2001-08-17 2001-08-17 Server and method of virtual try-on data management

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001247914A JP2003055826A (en) 2001-08-17 2001-08-17 Server and method of virtual try-on data management

Publications (1)

Publication Number Publication Date
JP2003055826A true JP2003055826A (en) 2003-02-26

Family

ID=19077153

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001247914A Pending JP2003055826A (en) 2001-08-17 2001-08-17 Server and method of virtual try-on data management

Country Status (1)

Country Link
JP (1) JP2003055826A (en)

Cited By (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321986A (en) * 2004-05-07 2005-11-17 Pioneer Electronic Corp Hairstyle proposal system, hairstyle proposal method and computer program
JP2006318261A (en) * 2005-05-13 2006-11-24 Dainippon Printing Co Ltd Commodity information providing apparatus, method for providing commodity information and commodity information provision processing program
JP2007280351A (en) * 2006-03-14 2007-10-25 Dainippon Printing Co Ltd Information providing system and method, or like
WO2008081687A1 (en) * 2006-12-28 2008-07-10 Shima Seiki Manufacturing, Ltd. Wearing simulation device, simulation method, and simulation program
WO2010073432A1 (en) * 2008-12-24 2010-07-01 株式会社ソニー・コンピュータエンタテインメント Image processing device and image processing method
JP2010152556A (en) * 2008-12-24 2010-07-08 Sony Computer Entertainment Inc Image processor and image processing method
KR20110051145A (en) * 2009-11-09 2011-05-17 팔로 알토 리서치 센터 인코포레이티드 Sensor-integrated mirror for determining consumer shopping behavior
JP2012014544A (en) * 2010-07-02 2012-01-19 Nippon Telegr & Teleph Corp <Ntt> Coordinate recommendation apparatus, coordinate recommendation method and program therefor
GB2503331A (en) * 2012-04-23 2013-12-25 Clothes Network Ltd Aligning garment image with image of a person, locating an object in an image and searching for an image containing an object
WO2014034188A1 (en) * 2012-08-30 2014-03-06 楽天株式会社 Clothing image-processing device, clothing image display method and program
WO2016152483A1 (en) * 2015-03-24 2016-09-29 国立大学法人京都大学 User interest estimation system and information delivery system
WO2017098760A1 (en) * 2015-12-08 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program
JP2017117279A (en) * 2015-12-25 2017-06-29 小松 由希子 Clothing manufacturing method, clothing manufacturing device, and clothing manufacturing system
JP2019175277A (en) * 2018-03-29 2019-10-10 京セラドキュメントソリューションズ株式会社 Item management apparatus, item management method, and item management program
JP2020512649A (en) * 2017-03-30 2020-04-23 スノー コーポレーション Item recommendation information providing method and device
WO2021033285A1 (en) * 2019-08-21 2021-02-25 日本電気株式会社 Processing device, processing method, and program
CN113191843A (en) * 2021-04-28 2021-07-30 北京市商汤科技开发有限公司 Simulation clothing fitting method and device, electronic equipment and storage medium
JP2021149961A (en) * 2020-03-23 2021-09-27 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method for processing information and apparatus for processing information
WO2022137307A1 (en) * 2020-12-21 2022-06-30 株式会社データグリッド Virtual fitting method, virtual fitting system, and program
CN114969578A (en) * 2022-05-07 2022-08-30 中移互联网有限公司 Information display method and device and electronic equipment

Cited By (33)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005321986A (en) * 2004-05-07 2005-11-17 Pioneer Electronic Corp Hairstyle proposal system, hairstyle proposal method and computer program
JP2006318261A (en) * 2005-05-13 2006-11-24 Dainippon Printing Co Ltd Commodity information providing apparatus, method for providing commodity information and commodity information provision processing program
JP2007280351A (en) * 2006-03-14 2007-10-25 Dainippon Printing Co Ltd Information providing system and method, or like
WO2008081687A1 (en) * 2006-12-28 2008-07-10 Shima Seiki Manufacturing, Ltd. Wearing simulation device, simulation method, and simulation program
WO2010073432A1 (en) * 2008-12-24 2010-07-01 株式会社ソニー・コンピュータエンタテインメント Image processing device and image processing method
JP2010152556A (en) * 2008-12-24 2010-07-08 Sony Computer Entertainment Inc Image processor and image processing method
US10216987B2 (en) 2008-12-24 2019-02-26 Sony Interactive Entertainment Inc. Image processing device and image processing method
KR101629191B1 (en) 2009-11-09 2016-06-10 팔로 알토 리서치 센터 인코포레이티드 Sensor-integrated mirror for determining consumer shopping behavior
JP2011100458A (en) * 2009-11-09 2011-05-19 Palo Alto Research Center Inc Method to be carried out by computer to collect purchase preference of consumer to commodity
KR20110051145A (en) * 2009-11-09 2011-05-17 팔로 알토 리서치 센터 인코포레이티드 Sensor-integrated mirror for determining consumer shopping behavior
JP2012014544A (en) * 2010-07-02 2012-01-19 Nippon Telegr & Teleph Corp <Ntt> Coordinate recommendation apparatus, coordinate recommendation method and program therefor
GB2503331A (en) * 2012-04-23 2013-12-25 Clothes Network Ltd Aligning garment image with image of a person, locating an object in an image and searching for an image containing an object
WO2014034188A1 (en) * 2012-08-30 2014-03-06 楽天株式会社 Clothing image-processing device, clothing image display method and program
JP5791812B2 (en) * 2012-08-30 2015-10-07 楽天株式会社 Clothes image processing device, clothes image display method, and program
US9996909B2 (en) 2012-08-30 2018-06-12 Rakuten, Inc. Clothing image processing device, clothing image display method and program
JPWO2014034188A1 (en) * 2012-08-30 2016-08-08 楽天株式会社 Clothes image processing device, clothes image display method, and program
WO2016152483A1 (en) * 2015-03-24 2016-09-29 国立大学法人京都大学 User interest estimation system and information delivery system
JP2016181076A (en) * 2015-03-24 2016-10-13 国立大学法人京都大学 User interest estimation system and information distribution system
WO2017098760A1 (en) * 2015-12-08 2017-06-15 ソニー株式会社 Information processing device, information processing method, and program
US11288723B2 (en) 2015-12-08 2022-03-29 Sony Corporation Information processing device and information processing method
JPWO2017098760A1 (en) * 2015-12-08 2018-09-20 ソニー株式会社 Information processing apparatus, information processing method, and program
JP2017117279A (en) * 2015-12-25 2017-06-29 小松 由希子 Clothing manufacturing method, clothing manufacturing device, and clothing manufacturing system
JP7069210B2 (en) 2017-03-30 2022-05-17 スノー コーポレーション Item recommendation information provision method and equipment
JP2020512649A (en) * 2017-03-30 2020-04-23 スノー コーポレーション Item recommendation information providing method and device
JP2019175277A (en) * 2018-03-29 2019-10-10 京セラドキュメントソリューションズ株式会社 Item management apparatus, item management method, and item management program
WO2021033285A1 (en) * 2019-08-21 2021-02-25 日本電気株式会社 Processing device, processing method, and program
JPWO2021033285A1 (en) * 2019-08-21 2021-02-25
JP7380689B2 (en) 2019-08-21 2023-11-15 日本電気株式会社 Processing equipment, processing method and program
JP2021149961A (en) * 2020-03-23 2021-09-27 ベイジン バイドゥ ネットコム サイエンス アンド テクノロジー カンパニー リミテッド Method for processing information and apparatus for processing information
JP7311544B2 (en) 2020-03-23 2023-07-19 ベイジン バイドゥ ネットコム サイエンス テクノロジー カンパニー リミテッド Information processing method and information processing apparatus
WO2022137307A1 (en) * 2020-12-21 2022-06-30 株式会社データグリッド Virtual fitting method, virtual fitting system, and program
CN113191843A (en) * 2021-04-28 2021-07-30 北京市商汤科技开发有限公司 Simulation clothing fitting method and device, electronic equipment and storage medium
CN114969578A (en) * 2022-05-07 2022-08-30 中移互联网有限公司 Information display method and device and electronic equipment

Similar Documents

Publication Publication Date Title
JP7196885B2 (en) Search system, search method, and program
JP2003055826A (en) Server and method of virtual try-on data management
US11164240B2 (en) Virtual garment carousel
CN108886586B (en) Method for synthesizing image and electronic device thereof
CN111681070B (en) Online commodity purchasing method, purchasing device, storage device and purchasing equipment
KR20190000397A (en) Fashion preference analysis
JP2002207802A (en) Method and device for aiding sales of apparel product and fitting room
JPH10340282A (en) Device and method for virtual try-on of clothes and clothes manufacturing device
JP4935275B2 (en) Information providing system and information providing method, etc.
JP7279361B2 (en) Clothing proposal device, clothing proposal method, and program
KR20170003046A (en) System and method for coordinating clothes
US20020077922A1 (en) System, method, and article of manufacture for mass customization of products
JP2003186965A (en) Apparel selection supporting system and method
JP2003108593A (en) Squeezing retrieval device
JP2015179431A (en) Retrieval device, retrieval method, and program
CA3139404A1 (en) Coordination assisting server and coordination assisting system
JP2009266166A (en) Harmony determination apparatus, harmony determination method and harmony determination program
TW202121391A (en) Display system, generation method, display method, and computer program
WO2024043088A1 (en) Virtual try-on system, virtual try-on method, and recording medium
KR20120076671A (en) Method for provision of augmented-reality based shopping application of mobile terminal
JP2002083035A (en) Method and system for supporting color arrangement
CN113011934A (en) Intelligent fitting method and device, electronic equipment and readable storage medium
JP2022018067A (en) Cleaned article display system and server device
KR20230163818A (en) Clothes fitting and recommendation System for using 3D avatar
CN112287150A (en) Clothing management method and device, mirror equipment and storage medium

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20040225

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20040323

A711 Notification of change in applicant

Free format text: JAPANESE INTERMEDIATE CODE: A712

Effective date: 20050613

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20050621