JP2012200288A - Device and program for preparing character - Google Patents

Device and program for preparing character Download PDF

Info

Publication number
JP2012200288A
JP2012200288A JP2011064829A JP2011064829A JP2012200288A JP 2012200288 A JP2012200288 A JP 2012200288A JP 2011064829 A JP2011064829 A JP 2011064829A JP 2011064829 A JP2011064829 A JP 2011064829A JP 2012200288 A JP2012200288 A JP 2012200288A
Authority
JP
Japan
Prior art keywords
character
part object
user
candidate
input device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011064829A
Other languages
Japanese (ja)
Other versions
JP5350422B2 (en
Inventor
Ayako Hino
綾子 日野
Hiroshi Harada
浩 原田
Yuko Mizoguchi
優子 溝口
Koichi Kodama
晃一 児玉
Yukiko Handa
由紀子 半田
Ryosuke Tamura
良介 田村
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Square Enix Co Ltd
Original Assignee
Square Enix Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Square Enix Co Ltd filed Critical Square Enix Co Ltd
Priority to JP2011064829A priority Critical patent/JP5350422B2/en
Publication of JP2012200288A publication Critical patent/JP2012200288A/en
Application granted granted Critical
Publication of JP5350422B2 publication Critical patent/JP5350422B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a character preparation device and a character preparation program for preparing a character similar to a character desired by a user by a simple operation.SOLUTION: A request to draw a graphic is displayed in an instruction information display area 42 as in (a). A display screen 40 becomes a mirror and a user can draw his/her own face on a touch panel. As in (b), when drawing of a graphic indicating an eye is requested, the user performs drawing in a drawing area 41d. When the graphics of all parts are inpu, as in (c), a prepared reference character 44a and candidate characters 45a-c similar to it are displayed. When the user temporarily selects the candidate character 45a, the candidate character 45 becomes a new reference character 44b as in (d). In a stage in which a desired character is found, the user determines the character.

Description

本発明は、ユーザが、自らが希望するキャラクタを描画するという簡便な操作だけで、キャラクタを作成することができるキャラクタ作成装置及びキャラクタ作成プログラムに関する。   The present invention relates to a character creation device and a character creation program that allow a user to create a character by a simple operation of drawing a character desired by the user.

近年、インターネットを通じたコミュニケーションが、仮想3次元空間において、複数のユーザを相手に同時に行なわれるようになってきた。このとき、個々のユーザを表現する仮想的なキャラクタとしてアバターというものが用いられている。   In recent years, communication over the Internet has been performed simultaneously with a plurality of users in a virtual three-dimensional space. At this time, an avatar is used as a virtual character expressing each user.

このようなコミュニケーションの場で用いられるアバターは、主に人型のキャラクタである。通常、アバターはユーザ固有のキャラクタとして用いられるため、目、鼻、口などのパーツを組み合わせることで、ユーザ自身に似たアバターを作成すること等が行なわれている。   Avatars used in such a communication field are mainly humanoid characters. Usually, since an avatar is used as a user-specific character, an avatar similar to the user is created by combining parts such as eyes, nose, and mouth.

例えば、特許文献1では、絵心がないユーザでも、思い通りのキャラクタを手軽な操作で作成することのできるゲームプログラム及びゲーム装置が開示されている。このゲームプログラム及びゲーム装置では、各部位ごとに予め用意されているパーツオブジェクトを組み合わせて基準キャラクタと、これに類似した候補キャラクタを表示装置に表示させ、候補キャラクタの中から自ら作成したいと希望するキャラクタに最も近いものを選択させ、さらに、選択されたキャラクタに類似した新たな候補キャラクタを表示し、その新たな候補キャラクタを選択させるということを繰り返して、思い通りのキャラクタを作成することが行われている。   For example, Patent Document 1 discloses a game program and a game apparatus that allow a user who has no spirit to create a desired character with a simple operation. In this game program and game device, a reference character and a candidate character similar to this are displayed on a display device by combining part objects prepared in advance for each part, and the user desires to create himself from the candidate character. The character closest to the character is selected, a new candidate character similar to the selected character is displayed, and the new candidate character is repeatedly selected to create the desired character. ing.

特開2008−61896号公報JP 2008-61896 A

しかし、特許文献1に開示された方法では、ランダムに表示されるいくつかのキャラクタの候補の中から、ユーザ自身が基準となるキャラクタを選択しなければならないため、ユーザが希望する基準キャラクタの候補を見つけるのが煩わしく、また、希望する基準キャラクタの候補が存在しない場合もある。そのため、ユーザが希望するキャラクタを作成するまでに、時間と労力がかかるという問題があった。本発明は、このような問題を解消するためのものであり、ユーザが希望するキャラクタに近似したキャラクタを簡便な操作で作成できるキャラクタ作成装置及びキャラクタ作成プログラムを提供することを目的とする。   However, in the method disclosed in Patent Document 1, the user himself / herself has to select a reference character from among a plurality of randomly displayed character candidates. It may be troublesome to find the reference character, and there may be a case where a desired candidate for the reference character does not exist. Therefore, there is a problem that it takes time and labor to create a character desired by the user. An object of the present invention is to solve such a problem, and an object thereof is to provide a character creation device and a character creation program capable of creating a character approximate to a character desired by a user by a simple operation.

本発明は、キャラクタを構成する部位ごとにユーザが描画した図形を認識し、描画データと近似する形状を有するパーツオブジェクトを組み合わせることで、ユーザが希望するキャラクタにより近似したキャラクタを簡便な操作で作成することを可能としたものである。すなわち、本発明は、入力装置及び表示装置を備え、ユーザの入力装置への操作に従ってキャラクタを作成するためのキャラクタ作成装置であって、キャラクタを構成する部位ごとに記憶された複数種のパーツオブジェクトと、各パーツオブジェクトと関連付けて記憶された形状データを記憶するパーツオブジェクト記憶手段と、ユーザが入力装置へ描画した描画データを、部位ごとに受け付ける描画データ受付手段と、パーツオブジェクト記憶手段に記憶されたパーツオブジェクトの中から、描画データ受付手段により受け付けた描画データと近似する形状データを有するパーツオブジェクトを部位ごとに特定するパーツオブジェクト特定手段と、パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトを組み合わせることで、キャラクタを作成するキャラクタ作成手段と、作成されたキャラクタを表示装置に表示するキャラクタ表示手段とを備えることを特徴とするキャラクタ作成装置に関する。   The present invention recognizes a figure drawn by the user for each part constituting the character, and creates a character approximated by the user's desired character by a simple operation by combining a part object having a shape that approximates the drawing data. It is possible to do. That is, the present invention is a character creation device that includes an input device and a display device, and creates a character in accordance with a user's operation on the input device, and a plurality of types of part objects stored for each part constituting the character A part object storage unit that stores shape data stored in association with each part object, a drawing data reception unit that receives drawing data drawn by the user on the input device for each part, and a part object storage unit. Part object specifying means for specifying a part object having shape data approximated to the drawing data received by the drawing data receiving means for each part, and a part object specified for each part by the part object specifying means The combination It is a character creating means for creating a character, relating to a character generating apparatus, characterized in that it comprises a character display means for displaying on the display device the character that was created.

本発明においては、例えば、タッチパネル方式の入力装置が用いられる。ユーザが顔の頭、眉、目、鼻、口又は顔の輪郭などの各部位の図形をタッチパネルへ描画すると、描画された図形の形状が認識され、予め記憶された各部位のパーツオブジェクトの中から、認識された描画データと近似する形状を有するパーツオブジェクトが特定される。そして、部位ごとに得られたパーツオブジェクトを組み合わせることで、ユーザが希望するキャラクタを作成するものである。ユーザは、自らが希望するキャラクタを描画するという簡便な操作だけでキャラクタを作成することができ、また、ユーザにより描画された図形はキャラクタを構成する部位ごとに認識され、部位ごとに、予め記憶されているパーツオブジェクトの図形データとマッチングが行なわれているため、よりユーザの描画したキャラクタに近いキャラクタを作成することが可能である。   In the present invention, for example, a touch panel type input device is used. When the user draws a figure of each part such as the head of the face, eyebrows, eyes, nose, mouth or face outline on the touch panel, the shape of the drawn figure is recognized and is stored in the part objects of each part stored in advance. Thus, a part object having a shape approximating the recognized drawing data is specified. And the character which a user desires is produced by combining the part object obtained for every site | part. The user can create a character only by a simple operation of drawing a character desired by the user, and the graphic drawn by the user is recognized for each part constituting the character and stored in advance for each part. Since the matching is performed with the graphic data of the part object, it is possible to create a character closer to the character drawn by the user.

本発明では、入力装置は、ユーザからの操作に従って2次元平面上の座標位置の入力を受け付けるものであり、部位ごとに関連付けられた、2次元平面上の座標位置に応じた領域が予め設定されており、描画データ受付手段は、入力装置に入力された座標位置が属する領域を特定し、特定された領域に対応する部位ごとに描画データを受け付けることが好ましい。   In the present invention, the input device receives an input of a coordinate position on the two-dimensional plane in accordance with an operation from the user, and an area corresponding to the coordinate position on the two-dimensional plane associated with each part is set in advance. The drawing data receiving means preferably specifies a region to which the coordinate position input to the input device belongs, and receives drawing data for each part corresponding to the specified region.

例えば、キャラクタの顔を作成する際に、顔の頭、眉、目、鼻、口又は顔の輪郭などの部位について、それぞれ別々に認識してパーツオブジェクトが特定される。例えば、ユーザが、タッチパネル上で予め設定された目の領域に図形を描画すると、複数の目のパーツオブジェクトの中から、描画された描画データに近似する形状を有する図形データを有するパーツオブジェクトが特定される。同様にして、ユーザが、タッチパネル上で予め設定された頭の領域、鼻の領域、口の領域、輪郭の領域にそれぞれ図形を描画することで、頭、鼻、口、顔の輪郭についてのパーツオブジェクトが特定されることになる。ユーザが、部位ごとにタッチパネル上に図形を描画して、これに近似する形状のパーツオブジェクトが特定されるため、ユーザの描画したキャラクタに、より近いキャラクタを作成することが可能である。   For example, when creating the face of a character, parts objects such as the head, eyebrows, eyes, nose, mouth, or face contour of the face are recognized separately to identify the part object. For example, when a user draws a figure in a predetermined eye area on the touch panel, a part object having figure data having a shape that approximates the drawn drawing data is identified from among the plurality of eye part objects. Is done. Similarly, the user draws figures in the head area, nose area, mouth area, and outline area set in advance on the touch panel, so that the parts about the outline of the head, nose, mouth, and face are drawn. The object will be specified. Since the user draws a figure on the touch panel for each part and specifies a part object having a shape similar to the figure, it is possible to create a character closer to the character drawn by the user.

本発明は、入力装置及び表示装置を備え、ユーザの入力装置への操作に従ってキャラクタを作成するためのキャラクタ作成装置であって、キャラクタを構成する部位ごとに記憶された複数種のパーツオブジェクトと、各パーツオブジェクトと関連付けて記憶された形状データを記憶するパーツオブジェクト記憶手段と、ユーザが入力装置へ描画した描画データを、部位ごとに受け付ける描画データ受付手段と、パーツオブジェクト記憶手段に記憶されたパーツオブジェクトの中から、描画データ受付手段により受け付けた描画データと近似する形状データを有するパーツオブジェクトを部位ごとに特定するパーツオブジェクト特定手段と、パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトを組み合わせることで、基準キャラクタを作成する基準キャラクタ作成手段と、基準キャラクタ作成手段により作成された基準キャラクタを表示装置に表示する基準キャラクタ表示手段と、基準キャラクタに近似する候補キャラクタを作成するために、基準キャラクタを構成する複数の部位のうちの少なくとも1つの部位のパーツオブジェクトを他のパーツオブジェクトに変更する第一のパーツオブジェクト変更手段と、パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトのうち、第一のパーツオブジェクト変更手段により変更されたパーツオブジェクト以外のパーツオブジェクト、及び、第一のパーツオブジェクト変更手段により変更された他のパーツオブジェクトを組み合わせることで、第一の候補キャラクタを作成する第一の候補キャラクタ作成手段と、第一の候補キャラクタ作成手段により作成された第一の候補キャラクタを表示装置に表示する第一の候補キャラクタ表示手段と、ユーザの入力装置への操作に従って、基準キャラクタ又は第一の候補キャラクタのいずれかを、ユーザが仮想空間内で操作するキャラクタとして選択する第一の操作キャラクタ選択手段とを備えることを特徴とするキャラクタ作成装置に関する。   The present invention comprises an input device and a display device, and is a character creation device for creating a character in accordance with a user's operation on the input device, and a plurality of types of part objects stored for each part constituting the character, Part object storage means for storing shape data stored in association with each part object, drawing data reception means for receiving drawing data drawn by the user on the input device for each part, and parts stored in the part object storage means From among the objects, a part object specifying unit that specifies a part object having shape data approximate to the drawing data received by the drawing data receiving unit for each part and a part object specified for each part by the part object specifying unit are combined. With that Reference character creation means for creating a quasi-character, reference character display means for displaying the reference character created by the reference character creation means on a display device, and a reference character configured to create a candidate character that approximates the reference character A first part object changing means for changing a part object of at least one part of the plurality of parts to another part object, and the first of the part objects specified for each part by the part object specifying means A first candidate key for creating a first candidate character by combining a part object other than the part object changed by the part object changing means and another part object changed by the first part object changing means. The first candidate character display means for displaying on the display device the first candidate character created by the tractor creation means, the first candidate character creation means, and the reference character or the first The present invention relates to a character creation device comprising first operation character selection means for selecting any of the candidate characters as a character operated by a user in a virtual space.

ユーザは、自らが希望するキャラクタを描画するという簡便な操作だけで、基準キャラクタを作成することができるため、希望する基準キャラクタを見つけるのが煩わしい、或いは、希望するキャラクタ候補が存在しないといった問題を解消することができる。また、仮に、入力装置へ描画した結果、作成された基準キャラクタが、自らの希望するキャラクタと若干異なっていたとしても、その基準キャラクタに比較的近似する候補キャラクタが表示され、その候補キャラクタを選択することも可能であるため、かなりの精度で自らの希望するキャラクタを作成することが可能となる。   Since the user can create a reference character only by a simple operation of drawing the character he desires, there is a problem that it is troublesome to find the desired reference character or there is no desired character candidate. Can be resolved. Also, even if the created reference character is slightly different from the desired character as a result of drawing on the input device, a candidate character that is relatively close to the reference character is displayed, and the candidate character is selected. Therefore, it is possible to create a desired character with considerable accuracy.

本発明では、ユーザの入力装置への操作に従って、第一の候補キャラクタを仮選択するキャラクタ仮選択手段と、キャラクタ仮選択手段により仮選択された仮選択キャラクタを構成する複数の部位のうちの少なくとも1つの部位のパーツオブジェクトを他のパーツオブジェクトに変更する第二のパーツオブジェクト変更手段と、仮選択キャラクタを構成する複数の部位のパーツオブジェクトのうち、第二のパーツオブジェクト変更手段により変更されたパーツオブジェクト以外のパーツオブジェクト、及び、第二のパーツオブジェクト変更手段により変更された他のパーツオブジェクトを組み合わせることで、第二の候補キャラクタを作成する第二の候補キャラクタ作成手段と、第二の候補キャラクタ作成手段により作成された第二の候補キャラクタを表示装置に表示する第二の候補キャラクタ表示手段と、ユーザの入力装置への操作に従って、仮選択キャラクタ又は第二の候補キャラクタのいずれかを、ユーザが仮想空間内で操作するキャラクタとして選択する第二の操作キャラクタ選択手段とを備えることが好ましい。   In the present invention, in accordance with a user operation on the input device, a character temporary selection unit that temporarily selects the first candidate character, and at least one of a plurality of parts constituting the temporarily selected character temporarily selected by the character temporary selection unit A second part object changing unit that changes a part object of one part to another part object, and a part that has been changed by the second part object changing unit among a plurality of part objects constituting the temporarily selected character A second candidate character creating means for creating a second candidate character by combining a part object other than the object and another part object changed by the second part object changing means, and a second candidate character The second candidate key created by the creation means According to the operation of the second candidate character display means for displaying the tractor on the display device and the user's input device, either the temporarily selected character or the second candidate character is selected as the character operated by the user in the virtual space. It is preferable to include a second operation character selection means.

ユーザが描画した図形をもとに作成された基準キャラクタ又はその基準キャラクタに近似する候補キャラクタのいずれかを仮選択すると、仮選択されたキャラクタが新たな基準キャラクタとなり、その新たな基準キャラクタと近似したキャラクタが候補キャラクタとして表示される。このような処理を繰り返すことで、ユーザが希望するキャラクタにより近いキャラクタを作成することができる。また、ユーザが描画した図形をもとに最初の基準キャラクタが作成されるため、自らの希望するキャラクタにより近いキャラクタが最初の基準キャラクタとして作成できるため、何度も候補キャラクタを選択することなく、効率良くキャラクタを作成することが可能となる。   When either a reference character created based on a figure drawn by the user or a candidate character that approximates the reference character is temporarily selected, the temporarily selected character becomes a new reference character, and approximates the new reference character. The selected character is displayed as a candidate character. By repeating such processing, a character closer to the character desired by the user can be created. In addition, since the first reference character is created based on the figure drawn by the user, a character closer to the desired character can be created as the first reference character, so that without selecting a candidate character many times, Characters can be created efficiently.

本発明では、ユーザの入力装置への操作に従って、キャラクタを構成する複数の部位のうちの少なくとも1つの部位を選択する部位選択手段とを備え、第一のパーツオブジェクト変更手段、及び、第二のパーツオブジェクト変更手段は、部位選択手段により選択された部位に応じて、パーツオブジェクトを変更する部位を特定することが好ましい。   According to the present invention, there is provided a part selection means for selecting at least one part of a plurality of parts constituting the character in accordance with a user's operation on the input device, the first part object changing means, and the second part object changing means, It is preferable that the part object changing unit specifies a part to change the part object according to the part selected by the part selecting unit.

基準キャラクタに近似するキャラクタとして候補キャラクタが表示されるが、例えば、基準キャラクタの口や目については変更する必要がないのに、口や目のパーツオブジェクトまで変更した候補キャラクタが表示されるといったことを防止するため、目や口などの変更したくない部位を選択して、そのパーツオブジェクトは固定されたまま、それ以外のパーツオブジェクトのみが変更された候補キャラクタを作成することが可能となる。その結果、ユーザは希望するキャラクタを効率良く作成することが可能となる。   The candidate character is displayed as a character that approximates the reference character. For example, the candidate character that is changed to the mouth and eye part objects is displayed even though there is no need to change the mouth and eyes of the reference character. In order to prevent this, it is possible to select a part that the user does not want to change, such as eyes and mouth, and to create a candidate character in which only the other part objects are changed while the part objects are fixed. As a result, the user can efficiently create a desired character.

本発明は、入力装置及び表示装置を備えたコンピュータ装置に、ユーザの入力装置への操作に従ってキャラクタの作成を実行させるキャラクタ作成プログラムであって、コンピュータ装置を、キャラクタを構成する部位ごとに記憶された複数種のパーツオブジェクトと、各パーツオブジェクトと関連付けて記憶された形状データを記憶するパーツオブジェクト記憶手段と、ユーザが入力装置へ描画した描画データを、部位ごとに受け付ける描画データ受付手段と、パーツオブジェクト記憶手段に記憶されたパーツオブジェクトの中から、描画データ受付手段により受け付けた描画データと近似する形状データを有するパーツオブジェクトを部位ごとに特定するパーツオブジェクト特定手段と、パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトを組み合わせることで、キャラクタを作成するキャラクタ作成手段と、作成されたキャラクタを表示装置に表示するキャラクタ表示手段として機能させることを特徴とするキャラクタ作成プログラムに関する。   The present invention is a character creation program for causing a computer device having an input device and a display device to create a character in accordance with a user's operation on the input device, the computer device being stored for each part constituting the character. A plurality of types of part objects, a part object storage unit that stores shape data stored in association with each part object, a drawing data reception unit that receives drawing data drawn by the user on the input device for each part, and a part Among the part objects stored in the object storage means, a part object specifying means for specifying, for each part, a part object having shape data similar to the drawing data received by the drawing data receiving means, and a part object specifying means for each part Specially By combining part objects, relating to a character generation program, wherein the character generating means for generating a character, that to function as a character display means for displaying on the display device the character that was created.

本発明は、入力装置及び表示装置を備えたコンピュータ装置に、ユーザの入力装置への操作に従ってキャラクタの作成を実行させるキャラクタ作成プログラムであって、コンピュータ装置を、キャラクタを構成する部位ごとに記憶された複数種のパーツオブジェクトと、各パーツオブジェクトと関連付けて記憶された形状データを記憶するパーツオブジェクト記憶手段と、ユーザが入力装置へ描画した描画データを、部位ごとに受け付ける描画データ受付手段と、パーツオブジェクト記憶手段に記憶されたパーツオブジェクトの中から、描画データ受付手段により受け付けた描画データと近似する形状データを有するパーツオブジェクトを部位ごとに特定するパーツオブジェクト特定手段と、パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトを組み合わせることで、基準キャラクタを作成する基準キャラクタ作成手段と、基準キャラクタ作成手段により作成された基準キャラクタを表示装置に表示する基準キャラクタ表示手段と、基準キャラクタに近似する候補キャラクタを作成するために、基準キャラクタを構成する複数の部位のうちの少なくとも1つの部位のパーツオブジェクトを他のパーツオブジェクトに変更する第一のパーツオブジェクト変更手段と、パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトのうち、第一のパーツオブジェクト変更手段により変更されたパーツオブジェクト以外のパーツオブジェクト、及び、第一のパーツオブジェクト変更手段により変更された他のパーツオブジェクトを組み合わせることで、第一の候補キャラクタを作成する第一の候補キャラクタ作成手段と、第一の候補キャラクタ作成手段により作成された第一の候補キャラクタを表示装置に表示する第一の候補キャラクタ表示手段と、ユーザの入力装置への操作に従って、基準キャラクタ又は第一の候補キャラクタのいずれかを、ユーザが仮想空間内で操作するキャラクタとして選択する第一の操作キャラクタ選択手段として機能させることを特徴とするキャラクタ作成プログラムに関する。   The present invention is a character creation program for causing a computer device having an input device and a display device to create a character in accordance with a user's operation on the input device, the computer device being stored for each part constituting the character. A plurality of types of part objects, a part object storage unit that stores shape data stored in association with each part object, a drawing data reception unit that receives drawing data drawn by the user on the input device for each part, and a part Among the part objects stored in the object storage means, a part object specifying means for specifying, for each part, a part object having shape data similar to the drawing data received by the drawing data receiving means, and a part object specifying means for each part Specially A reference character creating means for creating a reference character, a reference character displaying means for displaying the reference character created by the reference character creating means on a display device, and a candidate character approximating the reference character In order to create, the first part object changing means for changing the part object of at least one part of the plurality of parts constituting the reference character to another part object and the part object specifying means are specified for each part. The part objects other than the part object changed by the first part object changing means and the other part objects changed by the first part object changing means can be combined. The first candidate character creating means for creating the first candidate character, the first candidate character displaying means for displaying the first candidate character created by the first candidate character creating means on the display device, A character that functions as a first operation character selection means for selecting either a reference character or a first candidate character as a character that the user operates in a virtual space in accordance with an operation to the input device by the user. Regarding creation program.

本発明の実施の形態にかかるキャラクタ作成装置の外観図である。It is an external view of the character production apparatus concerning embodiment of this invention. 本発明の実施の形態にかかるキャラクタ作成装置の構成を示すブロック図である。It is a block diagram which shows the structure of the character production apparatus concerning embodiment of this invention. 本発明の実施の形態にかかるキャラクタ作成装置にて設定されるパーツテーブルを表す図である。It is a figure showing the parts table set with the character production apparatus concerning embodiment of this invention. パーツオブジェクトの系統及びレベルと、パーツオブジェクトの表示態様との関係の一例を表す図である。It is a figure showing an example of the relationship between the system and level of a part object, and the display mode of a part object. 発明の実施の形態にかかるキャラクタ作成装置において基準キャラクタ作成処理を実行する際のフローチャートを表す図である。It is a figure showing the flowchart at the time of performing the reference | standard character creation process in the character creation apparatus concerning embodiment of invention. 本発明の実施の形態にかかるキャラクタ作成装置の第二表示器の表示画面の一例である。It is an example of the display screen of the 2nd indicator of the character preparation apparatus concerning embodiment of this invention. 本発明の実施の形態にかかるキャラクタ作成装置のタッチパネル上に設けられる描画領域の一例を表す図である。It is a figure showing an example of the drawing area | region provided on the touch panel of the character production apparatus concerning embodiment of this invention. 本発明の実施の形態にかかるキャラクタ作成装置において設定されるキャラクタテーブルを表す図である。It is a figure showing the character table set in the character production apparatus concerning embodiment of this invention. 本発明の実施の形態にかかるキャラクタ作成装置において候補キャラクタ作成処理を実行する際のフローチャートを表す図である。It is a figure showing the flowchart at the time of performing a candidate character creation process in the character creation apparatus concerning embodiment of this invention. 本発明の実施の形態にかかるキャラクタ作成装置においてキャラクタ決定処理を実行する際のフローチャートを表す図である。It is a figure showing the flowchart at the time of performing the character determination process in the character production apparatus concerning embodiment of this invention. 本発明の実施の形態にかかるキャラクタ作成装置の第2表示器の表示画面の変化を表す図である。It is a figure showing the change of the display screen of the 2nd display of the character production apparatus concerning embodiment of this invention.

以下、添付図面を参照して、本発明の実施の形態について説明する。図1は、この実施の形態に適用されるゲーム装置(キャラクタ作成装置)の構成を示す外観図である。携帯型のゲーム装置1は、第1表示器11を上部ハウジング17aに収納し、第2表示器12を下部ハウジング17bに収納している。上部ハウジング17aの下辺にはヒンジ部17cが設けられ、下部ハウジング17bの上辺と接続され、開閉が自在となっている。上部ハウジング17aの第1表示器11の右方には、スピーカ15の音抜き孔が形成されている。   Embodiments of the present invention will be described below with reference to the accompanying drawings. FIG. 1 is an external view showing a configuration of a game device (character creation device) applied to this embodiment. In the portable game apparatus 1, the first display 11 is stored in the upper housing 17a, and the second display 12 is stored in the lower housing 17b. A hinge portion 17c is provided on the lower side of the upper housing 17a and is connected to the upper side of the lower housing 17b so as to be freely opened and closed. A sound release hole of the speaker 15 is formed on the right side of the first display 11 of the upper housing 17a.

操作部14には、動作スイッチの○ボタン14a、△ボタン14b、□ボタン14c及び×ボタン14dと、方向指示スイッチの十字キー14eと、スタートボタン14h、セレクトボタン14j、側面スイッチのLボタン14g及びRボタン14fが含まれる。○ボタン14a、△ボタン14b、□ボタン14c及び×ボタン14dは、下部ハウジング17bにおいて第2表示器12の右方に設置されている。十字キー14eは、下部ハウジング17bにおいて第2表示器12の左方に設置されている。Lボタン14f及びRボタン14gは、下部ハウジング17bにおける上辺の左端、右端に設置されており、必要に応じて、所定の指示入力に使用される。また、図1では図示しないが、第2表示器12の上面にはタッチパネル13が設けられている。タッチパネル13は、スティック又は指等で押圧したり、スティックを移動させることで、その座標位置を検出するものである。   The operation unit 14 includes an operation switch ◯ button 14a, a △ button 14b, a □ button 14c and a x button 14d, a direction key switch cross key 14e, a start button 14h, a select button 14j, a side switch L button 14g, An R button 14f is included. The ○ button 14a, the Δ button 14b, the □ button 14c, and the x button 14d are installed on the right side of the second display 12 in the lower housing 17b. The cross key 14e is installed on the left side of the second display 12 in the lower housing 17b. The L button 14f and the R button 14g are installed at the left end and the right end of the upper side of the lower housing 17b, and are used for predetermined instruction input as necessary. Although not shown in FIG. 1, a touch panel 13 is provided on the upper surface of the second display 12. The touch panel 13 detects the coordinate position by pressing with a stick or a finger or moving the stick.

下部ハウジング17bの上辺側の側面は、ゲームプログラムを格納した記憶媒体であるカートリッジ16を挿入することが可能なカートリッジ挿入部が設けられている。カートリッジ挿入部の内部には、カートリッジ16と接続するためのコネクタ28が内蔵されている。   On the side surface on the upper side of the lower housing 17b, there is provided a cartridge insertion portion into which a cartridge 16 as a storage medium storing a game program can be inserted. A connector 28 for connecting to the cartridge 16 is built in the cartridge insertion portion.

次に、ゲーム装置1の回路構成について説明する。図2は、ゲーム装置1の構成を示すブロック図である。ハウジング17に収納される電子回路基板には、CPUコア21が実装される。CPUコア21は、ワーキングRAM(WRAM)22、第1のグラフィック処理ユニット(第1GPU)24、第2のグラフィック処理ユニット(第2GPU)26、入出力インターフェース(I/F)回路27及びコネクタ28に接続されている。CPUコア21は、コネクタ28を介してカートリッジ16との接続が可能である。CPUコア21は、システムプログラムを記憶したROMと、内部タイマを備える。I/F回路27は、タッチパネル13、操作部14、及びスピーカ15等の外部入出力装置とCPUコア21との間のデータの受け渡しを行なう回路である。   Next, the circuit configuration of the game apparatus 1 will be described. FIG. 2 is a block diagram showing the configuration of the game apparatus 1. A CPU core 21 is mounted on the electronic circuit board housed in the housing 17. The CPU core 21 includes a working RAM (WRAM) 22, a first graphic processing unit (first GPU) 24, a second graphic processing unit (second GPU) 26, an input / output interface (I / F) circuit 27, and a connector 28. It is connected. The CPU core 21 can be connected to the cartridge 16 via the connector 28. The CPU core 21 includes a ROM that stores system programs and an internal timer. The I / F circuit 27 is a circuit that exchanges data between the CPU core 21 and an external input / output device such as the touch panel 13, the operation unit 14, and the speaker 15.

カートリッジ16は、ゲームプログラムを格納した記憶媒体であり、ゲームプログラムを記憶するROM16aとバックアップデータが書き換え可能なRAM16bとを搭載している。カートリッジ16のROM16aに記憶されたゲームプログラムは、WRAM22にロードされ、ロードされたゲームプログラムがCPUコア21によって実行される。CPUコア21がゲームプログラムを実行して得られる一時的なデータや画像を生成するためのデータは、WRAM22に記憶される。   The cartridge 16 is a storage medium that stores a game program, and includes a ROM 16a that stores the game program and a RAM 16b that can rewrite backup data. The game program stored in the ROM 16 a of the cartridge 16 is loaded into the WRAM 22, and the loaded game program is executed by the CPU core 21. Temporary data obtained by the CPU core 21 executing the game program and data for generating an image are stored in the WRAM 22.

第1GPU24及び第2GPU26は、CPUコア21からの指示に応じて、フレーム単位(例えば、30分の1秒単位)で、WRAM22に記憶されているデータに基づいてキャラクタ画像を生成し、第1VRAM23、第2VRAM25に描画する。第1GPU24及び第2GPU26は、CPUコア21からの指示に応じて、第1VRAM23、第2VRAM25のそれぞれに描画されたゲーム画像を第1表示器11及び第2表示器12に表示する。   The first GPU 24 and the second GPU 26 generate character images based on data stored in the WRAM 22 in units of frames (for example, in units of 1/30 second) in accordance with instructions from the CPU core 21, and the first VRAM 23, Drawing in the second VRAM 25. The first GPU 24 and the second GPU 26 display the game images drawn on the first VRAM 23 and the second VRAM 25 on the first display 11 and the second display 12 in accordance with an instruction from the CPU core 21.

無線通信装置29は、無線通信ポートを介して通信ネットワークに接続され、他のゲーム装置やサーバ装置とインターネットを介して通信を行なうことができる。また、アンテナを有する通信ユニットを介して、他のゲーム装置やサーバ装置と無線により通信を行なうことが可能である。   The wireless communication device 29 is connected to a communication network via a wireless communication port, and can communicate with other game devices and server devices via the Internet. Further, it is possible to communicate with other game devices and server devices wirelessly via a communication unit having an antenna.

次に、パーツテーブルについて説明する。図3は、本発明の実施の形態にかかるキャラクタ作成装置にて設定されるパーツテーブルを表す図である。パーツテーブル30は、WRAM22に設定される。パーツテーブル30には、パーツID31、部位32、系統33及びレベル34が関連付けて記憶されている。   Next, the parts table will be described. FIG. 3 is a diagram showing a parts table set by the character creation device according to the embodiment of the present invention. The parts table 30 is set in the WRAM 22. In the parts table 30, a part ID 31, a part 32, a system 33, and a level 34 are stored in association with each other.

パーツID31は、パーツオブジェクトを特定するための識別子である。パーツオブジェクトのモデルデータとテクスチャデータは、パーツID31と関連付けて記憶されている。部位32は、そのパーツID31のパーツオブジェクトがいずれの部位(頭、眉、目、鼻、口又は輪郭)のものであるかを特定するものである。系統33は、同じ部位の中でその形状がどのような特徴を持っているかを分類するものである。例えば、部位32が目の場合は、上がり目、通常の目又は下がり目などのように、その形状の特徴に応じて複数のグループに分類することができる。系統33は、そのパーツオブジェクトがどの分類に属するかを特定するものである。レベル34は、同じ系統33の中でも、その系統における特徴がどの程度の強さで表れているかを示すものであり、例えば、系統33が「上がり目」の場合、レベルがあがればあがるほど、より目が上方向に吊りあがった鋭い目のデザインを有するパーツオブジェクトとなる。また、図示しないが、パーツテーブル30には、後述する特徴量もパーツID31と関連付けて記憶されている。特徴量はパーツオブジェクトの形状に関する特徴を数値化した形状に関するデータである。   The part ID 31 is an identifier for specifying a part object. Part object model data and texture data are stored in association with the part ID 31. The part 32 specifies which part (head, eyebrows, eyes, nose, mouth or contour) the part object of the part ID 31 belongs to. The system 33 classifies the characteristics of the shape in the same part. For example, when the part 32 is an eye, it can be classified into a plurality of groups according to the feature of its shape, such as an upward eye, a normal eye, or a downward eye. The system 33 specifies the classification to which the part object belongs. The level 34 indicates how strong the characteristic in the same system 33 is expressed in the same system 33. For example, when the system 33 is “upward”, the higher the level is, the more the level is increased. Becomes a part object having a sharp eye design suspended upward. Although not shown, the part table 30 also stores a feature value described later in association with the part ID 31. The feature amount is data relating to a shape obtained by digitizing a feature relating to the shape of the part object.

図4は、パーツオブジェクトの系統及びレベルと、パーツオブジェクトの表示態様との関係の一例を表す図である。図4は、目のパーツオブジェクトに関するものである。系統1に属するパーツオブジェクトはいずれも「上がり目」に分類され、系統2は「通常の目」に分類され、系統3は「下がり目」に分類されるものである。例えば、いずれの系統33の場合であっても、レベルがあがればあがるほど目が鋭くなるような構成とすることで、同じ系統33であっても、レベルが上がるほど、「上がり目」や「下がり目」の特徴がより強調される。   FIG. 4 is a diagram illustrating an example of a relationship between a part object system and level and a display mode of the part object. FIG. 4 relates to the eye part object. All the part objects belonging to the system 1 are classified as “upward eyes”, the system 2 is classified as “normal eyes”, and the system 3 is classified as “down eyes”. For example, in any system 33, the configuration is such that as the level rises, the eyes become sharper. Even in the same system 33, the “rising eyes” and “falling eyes” increase as the level increases. "Is more emphasized.

次に基準キャラクタ作成処理について説明する。図5は、本発明の実施の形態にかかるキャラクタ作成装置において基準キャラクタ作成処理を実行する際のフローチャートを表す図である。まず、ユーザに対してタッチパネル13への図形の描画を要求する(ステップS1)。図形の描画要求は、第2表示器12の表示画面上に、例えば、「目を描いてください」、「鼻を描いてください」といったように、テキスト情報を表示することで行なわれる。第2表示器12の表示画面には、点線により囲まれた複数の領域が表示され、各領域が顔の各部位に対応している。   Next, the reference character creation process will be described. FIG. 5 is a diagram illustrating a flowchart when the reference character creation process is executed in the character creation device according to the embodiment of the present invention. First, the user is requested to draw a graphic on the touch panel 13 (step S1). The graphic drawing request is made by displaying text information on the display screen of the second display 12 such as “draw your eyes” and “draw your nose”. A plurality of areas surrounded by dotted lines are displayed on the display screen of the second display 12, and each area corresponds to each part of the face.

図6は、本発明の実施の形態にかかるキャラクタ作成装置の第二表示器12の表示画面の一例である。タッチパネル13の2次元平面上には、予めユーザの顔に対応した複数の描画領域41が設定されている。タッチパネル13の左上の点線で囲まれた描画領域41aは頭に対応し、その下の左側の描画領域41bは右眉に対応し、その右側に存在する描画領域41cは左眉に対応している。描画領域41bの下側にある描画領域41dは右目に対応し、描画領域41cの下側にある描画領域41eは左目に対応している(後述するように、第二表示器12の表示画面を鏡面状としてユーザ自らの顔を表示画面上に映し出して描画を行う場合は、描画領域41bはユーザの左眉に対応し、描画領域41cはユーザの右眉に対応する。同様に目についても、描画領域41dはユーザの左目に対応し、描画領域41eはユーザの右目に対応している)。描画領域41d及び40eの中央下側の描画領域41fは鼻に対応しており、描画領域41fの下側の描画領域41gは口に対応している。また、描画領域41a〜g以外の領域は、顔の輪郭に対応する描画領域41hである。これらの領域は、第二表示器12の表示画面40上に点線で囲われることで表示されるため、ユーザは表示画面40で各描画領域41を視認することができる。   FIG. 6 is an example of a display screen of the second display 12 of the character creation device according to the embodiment of the present invention. On the two-dimensional plane of the touch panel 13, a plurality of drawing areas 41 corresponding to the user's face are set in advance. The drawing area 41a surrounded by the dotted line at the upper left of the touch panel 13 corresponds to the head, the lower left drawing area 41b corresponds to the right eyebrow, and the drawing area 41c existing on the right side corresponds to the left eyebrow. . The drawing area 41d below the drawing area 41b corresponds to the right eye, and the drawing area 41e below the drawing area 41c corresponds to the left eye (as will be described later, the display screen of the second display 12 is displayed). When drawing the user's own face on the display screen as a mirror surface, the drawing area 41b corresponds to the user's left eyebrow and the drawing area 41c corresponds to the user's right eyebrow. The drawing area 41d corresponds to the user's left eye, and the drawing area 41e corresponds to the user's right eye). A drawing area 41f at the lower center of the drawing areas 41d and 40e corresponds to the nose, and a drawing area 41g below the drawing area 41f corresponds to the mouth. The area other than the drawing areas 41a to 41g is a drawing area 41h corresponding to the contour of the face. Since these areas are displayed on the display screen 40 of the second display 12 by being surrounded by dotted lines, the user can visually recognize each drawing area 41 on the display screen 40.

ユーザが、タッチパネル13上の描画領域41a〜hのいずれかへ図形を描画すると、CPUコア21にて描画領域41ごとに描画図形の入力が受け付けられ(ステップS2)、パーツテーブル30を参照し、ステップS2にて認識された図形データと近似する形状データを有する顔パーツオブジェクトが特定される(ステップS3)。   When the user draws a figure in any of the drawing areas 41a to 41h on the touch panel 13, the CPU core 21 accepts an input of the drawing figure for each drawing area 41 (step S2), refers to the parts table 30, A face part object having shape data that approximates the graphic data recognized in step S2 is specified (step S3).

ステップS3における近似する顔パーツオブジェクトの特定は、公知の図形認識技術を用いて行なうことができる。図7は、本発明の実施の形態にかかる描画領域41d(右目の描画領域)の一例を表す図である。図7では、描画領域41dに描画された図形を上下左右の方向で4分割している。ステップS3は、この第1領域41d〜第4領域41dに描画された図形43aや43bの特徴量を抽出し、パーツテーブル30に記憶された(この場合は、目に関する)パーツオブジェクトのうち、第1領域41d〜第4領域41dの図形43a及び43bの特徴量が最も近似するパーツオブジェクトを特定することによって実行される。 The identification of the face part object to be approximated in step S3 can be performed using a known figure recognition technique. FIG. 7 is a diagram illustrating an example of a drawing area 41d (right-eye drawing area) according to the embodiment of the present invention. In FIG. 7, the figure drawn in the drawing area 41d is divided into four in the vertical and horizontal directions. Step S3 extracts a feature amount of the first region 41d 1 ~ fourth region 41d 4 in the drawn figures 43a and 43 b, have been (in this case, the eye relates) stored in the part table 30 of the part object is performed by the feature quantity of the first region 41d 1 ~ fourth region 41d 4 of figure 43a and 43b to identify the part objects most similar.

描画された図形の特徴を表すための特徴量としては、例えば、垂直線分と水平線分のそれぞれの長さの合計、描画された図形の各画素の連結数から求められる端点、分岐点、交差点の数、描画された図形を構成する線分の方位コードやベクトル、描画された図形を構成する線分の交点の位置や数等があげられる。なお、ここでは、描画領域41を4分割することとしたが、どのように分割するかについては特に制限はなく、9分割や16分割等であってもよい。描画領域41をより細かく分割する方が、描画した図形の認識をより正確に行なうことが可能となる。   For example, the feature amount for representing the feature of the drawn figure includes the sum of the lengths of the vertical and horizontal lines, the end points, branch points, and intersections obtained from the number of connected pixels of the drawn figure. , Azimuth codes and vectors of line segments constituting the drawn figure, positions and numbers of intersections of line segments constituting the drawn figure, and the like. In this example, the drawing area 41 is divided into four parts. However, there is no particular limitation on how the drawing area 41 is divided, and nine or sixteen parts may be used. If the drawing area 41 is divided more finely, the drawn figure can be recognized more accurately.

すべての部位についての図形データのタッチパネルへの入力が受け付けられ、すべての顔パーツオブジェクトが特定された場合(ステップS4にてYES)は、ユーザによる操作部14への操作に従って、各パーツオブジェクトの大きさを拡大したり、縮小したり(例えば、目を大きくする、口を小さくするなど)、各パーツオブジェクトの傾きを変更したり(例えば、眉の一方の高さを少し上げるなど)、又は、予め定められた位置から各パーツオブジェクトの位置を変更(目の位置をもう少し上にする等)するなどの詳細な調整情報が受け付けられる(ステップS5)。   When input to the touch panel of graphic data for all parts is accepted and all face part objects have been identified (YES in step S4), the size of each part object is determined according to the operation on the operation unit 14 by the user. Increase or decrease the size (for example, increase the eyes, decrease the mouth, etc.), change the inclination of each part object (for example, slightly increase the height of one eyebrow), or Detailed adjustment information such as changing the position of each part object from a predetermined position (such as raising the position of the eyes a little more) is accepted (step S5).

そして、この調整情報に従って、特定された顔パーツオブジェクトを組み合わせることで、基準キャラクタのキャラクタオブジェクトが作成される(ステップS6)。特定された複数の顔パーツオブジェクトのパーツID31は、図8に示すような、WRAM22に設定されたキャラクタテーブル35に記憶される(ステップS7)。キャラクタテーブル35には、頭のパーツオブジェクトに関する頭パーツID31a、眉に関する眉パーツID31b、目に関する目パーツID31c、鼻に関する鼻パーツID31d、口に関する口パーツID31e、及び、輪郭に関する輪郭パーツID31fがそれぞれ記憶される。また、作成された基準キャラクタは、第2表示器12の表示画面に表示される(ステップS8)。   Then, according to this adjustment information, the character object of the reference character is created by combining the specified face part objects (step S6). The part IDs 31 of the identified plurality of face part objects are stored in the character table 35 set in the WRAM 22 as shown in FIG. 8 (step S7). The character table 35 stores a head part ID 31a related to the head part object, an eyebrow part ID 31b related to the eyebrows, an eye part ID 31c related to the eyes, a nose part ID 31d related to the nose, a mouth part ID 31e related to the mouth, and a contour part ID 31f related to the outline. The The created reference character is displayed on the display screen of the second display 12 (step S8).

一方、顔パーツオブジェクトが特定されていない部位が存在する場合は(ステップS4にてNO)は、再度、ステップS1において、特定されていない部位への描画要求が行なわれる。ステップS1〜ステップS3までの処理は、キャラクタを構成する全ての部位について顔パーツオブジェクトが特定されるまで、繰り返し実行される。   On the other hand, if there is a part for which the face part object is not specified (NO in step S4), a drawing request for the part not specified is made again in step S1. The processing from step S1 to step S3 is repeatedly executed until the face part object is specified for all the parts constituting the character.

次に、基準キャラクタをもとに候補キャラクタを作成する候補キャラクタ作成処理について説明する。図9は、本発明の実施の形態にかかるキャラクタ作成装置において候補キャラクタ作成処理を実行する際のフローチャートを表す図である。まず、ユーザの操作部14への入力にしたがって、基準キャラクタを構成する部位のうち、変更しない部位の選択入力が受け付けられる(ステップS11)。ただし、すべての部位を変更しないこととすると候補キャラクタの作成ができないため、少なくとも1つの部位は変更な可能なものとして、残されることになる。なお、ステップS11において、変更しない部位の選択入力を受け付けるのではなく、逆に、変更する部位の選択入力を受け付けるような構成とすることも可能である。   Next, a candidate character creation process for creating a candidate character based on the reference character will be described. FIG. 9 is a diagram illustrating a flowchart when the candidate character creation process is executed in the character creation device according to the embodiment of the present invention. First, in accordance with an input to the operation unit 14 by the user, a selection input for a portion not changed among the portions constituting the reference character is accepted (step S11). However, if all the parts are not changed, a candidate character cannot be created, so that at least one part is left as a changeable one. Note that, in step S11, it is possible to adopt a configuration in which a selection input for a part to be changed is received instead of a selection input for a part not to be changed.

ステップS11にて、ユーザにより変更しない部位が選択された場合は、基準キャラクタを構成する顔パーツオブジェクトのうち、ユーザにより選択されていない変更が可能な部位について、基準キャラクタを構成する顔パーツオブジェクトが変更される(ステップS12)。変更後に用いられる顔パーツオブジェクトは、キャラクタテーブル35に記憶された顔パーツオブジェクトの中からランダムに選択されるようにしても良いが、変更前の基準キャラクタを構成する顔パーツオブジェクトと近似した形状を有する顔パーツオブジェクトが選択されるような構成とすることも可能である。   When a part that is not changed is selected by the user in step S11, a face part object that constitutes the reference character is selected for a part that is not selected by the user and can be changed among the facial part objects that constitute the reference character. It is changed (step S12). The face part object used after the change may be randomly selected from the face part objects stored in the character table 35, but has a shape that approximates the face part object that forms the reference character before the change. It is also possible to adopt a configuration in which a face part object is selected.

例えば、変更前のパーツオブジェクトと同じ部位32と同じ系統33ではあるが、レベル34が近いパーツオブジェクトに変更されたり(例えば、部位1・系統1・レベル1のパーツオブジェクトが、部位1・系統1・レベル2のパーツオブジェクトに変更されたり)、或いは、同じ部位32で異なる系統33ではあるが、同じレベル34のパーツオブジェクトに変更される(例えば、部位1・系統1・レベル1のパーツオブジェクトが、部位1・系統2・レベル1のパーツオブジェクトに変更される)。このように、系統又はレベルの値が近いパーツオブジェクトに変更することにより、基準キャラクタから大きく変化のない候補キャラクタを作成することになり、ユーザは、自らの希望するキャラクタにより近いキャラクタを候補キャラクタから探すことが可能となる。   For example, the same part 32 and the same system 33 as the part object before the change, but the level 34 is changed to a close part object (for example, the part object of the part 1 / system 1 / level 1 is replaced with the part 1 / system 1 Or changed to a part object of level 2) or a different system 33 in the same part 32 but changed to a part object of the same level 34 (for example, part object of part 1, system 1 and level 1 , Part 1 / system 2 / level 1 part object). In this way, by changing to a part object with a close lineage or level value, a candidate character that does not greatly change from the reference character is created, and the user can select a character that is closer to the desired character from the candidate character. It becomes possible to search.

ステップS12において、顔パーツオブジェクトが変更されると、変更された顔パーツオブジェクトと、変更されなかった基準キャラクタを構成する顔パーツオブジェクトを組み合わせることで、候補キャラクタのキャラクタオブジェクトが作成される(ステップS13)。作成された候補キャラクタを構成する顔パーツオブジェクトはWARM22のキャラクタテーブル35に記憶され(ステップS14)、作成された候補キャラクタが、基準キャラクタとともに第2表示器12の表示画面に表示される(ステップS15)。なお、1つの基準キャラクタに対して、複数の候補キャラクタを作成することも可能である。複数の候補キャラクタを一度に作成し、表示画面に表示することで、ユーザは、自らの希望するキャラクタをより効率良く探すことが可能となる。   When the face part object is changed in step S12, the character object of the candidate character is created by combining the changed face part object and the face part object constituting the reference character that has not been changed (step S13). ). The face part objects constituting the created candidate character are stored in the character table 35 of the WARM 22 (step S14), and the created candidate character is displayed on the display screen of the second display 12 together with the reference character (step S15). ). A plurality of candidate characters can be created for one reference character. By creating a plurality of candidate characters at once and displaying them on the display screen, the user can more efficiently search for the character he desires.

次に、表示画面に表示された基準キャラクタと候補キャラクタの中からユーザが希望するキャラクタを決定するキャラクタ決定処理について説明をする。図10は、本発明の実施の形態にかかるキャラクタ作成装置においてキャラクタ決定処理を実行する際のフローチャートを表す図である。ユーザから操作部14への操作に従って、候補キャラクタの仮選択の入力を受け付けると(ステップS21)、仮選択された候補キャラクタが、新たな基準キャラクタとして設定され(ステップS22)、基準キャラクタとして表示画面上に表示される。この場合、新たな基準キャラクタを構成するパーツオブジェクトをもとに、つまり、新たな基準キャラクタのキャラクタテーブル35に記憶されたパーツID31をもとに、ステップS11〜S16の処理を実行することにより、新たな候補キャラクタが作成される(ステップS23)。ユーザが、表示画面に表示された、あらたな基準キャラクタ又は候補キャラクタの中からキャラクタを決定するよう操作部14に入力を行なうと(ステップS24)、一連の処理は終了し、ユーザは選択したキャラクタを仮想世界で操作することが可能となる。   Next, a character determination process for determining a character desired by the user from among the reference character and candidate characters displayed on the display screen will be described. FIG. 10 is a diagram illustrating a flowchart when the character determination process is executed in the character creation device according to the embodiment of the present invention. When an input for temporary selection of a candidate character is received in accordance with an operation on the operation unit 14 from the user (step S21), the temporarily selected candidate character is set as a new reference character (step S22), and the display screen is displayed as the reference character. Displayed above. In this case, based on the part objects constituting the new reference character, that is, based on the part ID 31 stored in the character table 35 of the new reference character, by executing the processing of steps S11 to S16, A new candidate character is created (step S23). When the user inputs to the operation unit 14 to determine a character from the new reference character or candidate character displayed on the display screen (step S24), the series of processing ends, and the user selects the selected character. Can be operated in a virtual world.

次に、本発明において、基準キャラクタ作成処理からキャラクタ決定処理までの一連の処理を実行した際における、第2表示器の表示画面の変化について、説明する。図11は、本発明の実施の形態にかかるキャラクタ作成装置の第2表示器の表示画面の変化を表す図である。図11(a)は、ステップS1において、ユーザに対してタッチパネル13への図形の描画を要求する際の表示画面の様子を表す図である。表示画面40のうち、下部を除く略全面にわたって、タッチパネル13へ描画された図形の認識が可能な描画領域41が設けられている。描画領域41はそれぞれ点線で囲まれており、頭、眉、目、鼻、口及び顔の輪郭等の部位に対応している。   Next, in the present invention, a change in the display screen of the second display when a series of processes from the reference character creation process to the character determination process is executed will be described. FIG. 11 is a diagram illustrating a change in the display screen of the second display of the character creation device according to the embodiment of the present invention. FIG. 11A is a diagram illustrating a state of the display screen when the user is requested to draw a graphic on the touch panel 13 in step S1. A drawing area 41 capable of recognizing a figure drawn on the touch panel 13 is provided over substantially the entire surface of the display screen 40 except the lower part. The drawing areas 41 are surrounded by dotted lines, and correspond to parts such as the head, eyebrows, eyes, nose, mouth, and face outline.

表示画面40の下部には、ユーザに対する操作の指示に関する情報が表示される指示情報表示領域42が設けられている。図形の描画要求の際には、図11(a)のように、指示情報表示領域42に「顔を映してください」と表示される。ここで、描画領域41は黒色状の背景か、あるいは、鏡面状の背景とすることが可能であり、ユーザが第2表示器12を覗き込むと、表示画面40が鏡となって、ユーザの顔が映し出される。表示画面40を黒色状の背景にする方法としては、第2表示器12のバックライトを消灯する方法があげられる。また、表示画面40を鏡面状の背景にする方法としては、表示画面40の略全体にわたり、印加電圧に応じて配向を切替える液晶を透明板により封止し、液晶に印加電圧を与えることで鏡面状にすることが考えられる。ディスプレイの表示面側とは反対側に液晶を封止することで、液晶を鏡面状にした場合であっても、文字等を表示画面40に表示することが可能である。ユーザは、表示画面40に映し出された顔のうち、頭、眉、目、鼻及び口等の位置を、それぞれの部位に対応する描画領域41の位置とあわせながら、タッチパネル13上に自らの顔を描くことができる。このようにすることで、ユーザは自らの顔をもとにキャラクタを描画することになるので、自らの顔に非常に良く似たキャラクタオブジェクトを簡便な操作で作成することが可能となる。   At the bottom of the display screen 40, there is provided an instruction information display area 42 for displaying information related to operation instructions for the user. When a figure drawing request is made, “Please show your face” is displayed in the instruction information display area 42 as shown in FIG. Here, the drawing area 41 can be a black background or a mirror-like background, and when the user looks into the second display 12, the display screen 40 becomes a mirror, A face is projected. As a method of making the display screen 40 have a black background, there is a method of turning off the backlight of the second display 12. Further, as a method of making the display screen 40 a mirror-like background, the liquid crystal whose orientation is switched according to the applied voltage is sealed with a transparent plate over almost the entire display screen 40, and the applied voltage is applied to the liquid crystal to give a mirror surface Can be considered. By sealing the liquid crystal on the side opposite to the display surface side of the display, it is possible to display characters or the like on the display screen 40 even when the liquid crystal is mirror-like. The user adjusts his / her face on the touch panel 13 while matching the positions of the head, eyebrows, eyes, nose, mouth and the like with the positions of the drawing areas 41 corresponding to the respective parts. Can be drawn. In this way, the user draws a character based on his / her face, so that a character object very similar to his / her face can be created with a simple operation.

図11(b)は、目についての描画要求がされている画面を表すものである。指示情報表示領域42には「目を描いてください」と表示され、ユーザは目に対応する描画領域41dに目を表す図形を描画する。なお、右目と左目は左右対称であるため、一方の図形のみを入力すれば、他方の図形はそれと左右対称の図形が入力されたものとして、図形の入力を省くこととしても良い。   FIG. 11B shows a screen on which a drawing request for the eyes is requested. The instruction information display area 42 displays “Please draw eyes”, and the user draws a figure representing the eyes in the drawing area 41d corresponding to the eyes. Since the right eye and the left eye are symmetric, if only one figure is input, the figure may be omitted as if the other figure is a symmetric figure.

すべての部位について図形の入力が行なわれると、各部位のパーツオブジェクトが特定され、これらを組み合わせることで、キャラクタオブジェクトが作成される。図11(c)に示すように、作成されたキャラクタオブジェクトは基準キャラクタ44aとして表示画面40上に表示される。また、作成されたキャラクタオブジェクトを構成するパーツオブジェクトの少なくとも1つのパーツオブジェクトが変更された、候補キャラクタ45が表示される。複数の候補キャラクタ45a〜45cのうち、ユーザが操作部14を操作してカーソル46を移動させ、候補キャラクタ45aを仮選択すると、図11(d)に示すように、候補キャラクタ45aが新たな基準キャラクタ44bとして表示される。また、新たな基準キャラクタ44bを構成するパーツオブジェクトの少なくとも1つのパーツオブジェクトが変更された、候補キャラクタ45d〜45fが表示画面40上に表示される。ユーザは候補キャラクタ45の中から希望するキャラクタが表示されるまで、繰り返し候補キャラクタの仮選択を行い、希望するキャラクタを見つけることができた段階でキャラクタの決定を行う。   When graphics are input for all parts, the part objects of each part are specified, and a character object is created by combining these parts objects. As shown in FIG. 11C, the created character object is displayed on the display screen 40 as a reference character 44a. Further, a candidate character 45 in which at least one part object of the part objects constituting the created character object has been changed is displayed. When the user operates the operation unit 14 to move the cursor 46 and temporarily selects the candidate character 45a among the plurality of candidate characters 45a to 45c, as shown in FIG. 11D, the candidate character 45a becomes a new reference. It is displayed as the character 44b. In addition, candidate characters 45d to 45f in which at least one part object of the part objects constituting the new reference character 44b is changed are displayed on the display screen 40. The user repeatedly selects a candidate character repeatedly until the desired character is displayed from the candidate characters 45, and determines the character when the desired character is found.

また、上述した実施の形態では、顔の頭、眉、目、鼻、口又は輪郭などの部位について、それぞれ別々に描画データを認識して、それぞれの部位ごとの顔パーツオブジェクトを特定して、キャラクタの顔を作成することとしたが、例えば、キャラクタの胴体、腕、手、脚又は足などの部位について、ユーザが操作部14へ入力を行ない、それぞれの部位ごとのパーツオブジェクトを特定し、これらを組み合わせることで、キャラクタ全体のデザインを作成することも可能である。   Further, in the above-described embodiment, for parts such as the head, eyebrows, eyes, nose, mouth or contour of the face, the drawing data is recognized separately, and the face part object for each part is specified, Although it was decided to create the character's face, for example, the user inputs to the operation unit 14 about the character's body, arms, hands, legs, feet, etc., and specifies the part object for each part, By combining these, it is also possible to create a design for the entire character.

上述した実施の形態では、主に人型のキャラクタを作成することについて記載したが、人型だけでなく、犬型や猫型などの動物型のキャラクタや、ロボット型のキャラクタなど、部位ごとに描画をして、近似するパーツオブジェクトを組み合わせることで、1つのキャラクタを作成することが可能なものであれば、そのキャラクタがどのようなものであるかについては、特に限定されない。   In the above-described embodiments, description has been made mainly on creating a humanoid character. However, not only a humanoid, but also an animal type character such as a dog type or a cat type, a robot type character, or the like for each part. As long as one character can be created by drawing and combining similar part objects, there is no particular limitation on what the character is.

さらに、上述した実施の形態では、ユーザがタッチパネルへ図形を描画すること、希望するキャラクタを作成することとしたが、顔写真のデータを活用して、キャラクタを作成することも可能である。例えば、顔写真データの各画素の濃度に基づいて、画素ごとに数値化を行う。たとえば、白色の場合が255、黒色の場合が0で、その色の濃さに応じて0〜255の濃度値のいずれかで表される。そのうえで、全画素について上下方向及び左右方向に走査し、隣接する画素との濃度値の変化が所定値以上となる画素を抽出することで、顔写真中の輪郭線を抽出することができる。この顔写真データから輪郭線を抽出した図形データをキャラクタオブジェクトとして利用する。また、顔写真データから輪郭線を抽出した図形データをもとに、目、口、鼻、頭、輪郭等の部位ごとに図形認識し、部位ごとに近似するパーツオブジェクトを特定すること可能である。この場合、特定されたパーツオブジェクトを組み合わせることでキャラクタを作成することができ、また、このキャラクタを基準キャラクタとして、さらにより近いキャラクタが作成できるまで、候補キャラクタを繰り返し選択し続けることも可能である。   Furthermore, in the above-described embodiment, the user draws a figure on the touch panel and creates a desired character. However, it is also possible to create a character by using face photograph data. For example, quantification is performed for each pixel based on the density of each pixel of the face photograph data. For example, it is 255 for white and 0 for black, and is represented by one of density values from 0 to 255 depending on the color density. In addition, the contour line in the face photograph can be extracted by scanning all the pixels in the vertical direction and the horizontal direction, and extracting the pixels whose density value change with the adjacent pixels is a predetermined value or more. Graphic data obtained by extracting contour lines from the face photograph data is used as a character object. It is also possible to recognize parts for each part such as eyes, mouth, nose, head, contour, etc. based on figure data obtained by extracting outlines from face photograph data, and to specify a part object that approximates each part. . In this case, it is possible to create a character by combining the specified part objects, and it is also possible to continue selecting candidate characters repeatedly until an even closer character can be created using this character as a reference character. .

1 ゲーム装置
11 第1表示器
12 第2表示器
13 タッチパネル
14 操作部
15 スピーカ
16 カートリッジ
17 ハウジング
21 CPUコア
22 WRAM
23 第1VRAM
24 第1GPU
25 第2VRAM
26 第2GPU
27 I/F回路
28 コネクタ
29 無線通信装置
DESCRIPTION OF SYMBOLS 1 Game device 11 1st indicator 12 2nd indicator 13 Touch panel 14 Operation part 15 Speaker 16 Cartridge 17 Housing 21 CPU core 22 WRAM
23 First VRAM
24 1st GPU
25 Second VRAM
26 Second GPU
27 I / F circuit 28 Connector 29 Wireless communication device

Claims (7)

入力装置及び表示装置を備え、ユーザの入力装置への操作に従ってキャラクタを作成するためのキャラクタ作成装置であって、
キャラクタを構成する部位ごとに記憶された複数種のパーツオブジェクトと、各パーツオブジェクトと関連付けて記憶された形状データを記憶するパーツオブジェクト記憶手段と、
ユーザが入力装置へ描画した描画データを、部位ごとに受け付ける描画データ受付手段と、
パーツオブジェクト記憶手段に記憶されたパーツオブジェクトの中から、描画データ受付手段により受け付けた描画データと近似する形状データを有するパーツオブジェクトを部位ごとに特定するパーツオブジェクト特定手段と、
パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトを組み合わせることで、キャラクタを作成するキャラクタ作成手段と、
作成されたキャラクタを表示装置に表示するキャラクタ表示手段と
を備えることを特徴とするキャラクタ作成装置。
A character creation device comprising an input device and a display device, for creating a character in accordance with a user operation on the input device,
A plurality of types of part objects stored for each part constituting the character, and part object storage means for storing shape data stored in association with each part object;
Drawing data receiving means for receiving drawing data drawn by the user on the input device for each part;
A part object specifying unit for specifying, for each part, a part object having shape data that approximates the drawing data received by the drawing data receiving unit from among the part objects stored in the part object storage unit;
Character creation means for creating a character by combining the part objects identified for each part by the part object identification means;
A character creation device comprising: character display means for displaying the created character on a display device.
入力装置が、ユーザからの操作に従って2次元平面上の座標位置の入力を受け付けるものであり、
部位ごとに関連付けられた、2次元平面上の座標位置に応じた領域が予め設定されており、
描画データ受付手段が、入力装置に入力された座標位置が属する領域を特定し、特定された領域に対応する部位ごとに描画データを受け付けることを特徴とする請求項1記載のキャラクタ作成装置。
The input device receives an input of a coordinate position on a two-dimensional plane in accordance with an operation from a user;
A region corresponding to the coordinate position on the two-dimensional plane associated with each part is set in advance,
2. The character creating apparatus according to claim 1, wherein the drawing data receiving means specifies an area to which the coordinate position input to the input device belongs, and receives drawing data for each part corresponding to the specified area.
入力装置及び表示装置を備え、ユーザの入力装置への操作に従ってキャラクタを作成するためのキャラクタ作成装置であって、
キャラクタを構成する部位ごとに記憶された複数種のパーツオブジェクトと、各パーツオブジェクトと関連付けて記憶された形状データを記憶するパーツオブジェクト記憶手段と、
ユーザが入力装置へ描画した描画データを、部位ごとに受け付ける描画データ受付手段と、
パーツオブジェクト記憶手段に記憶されたパーツオブジェクトの中から、描画データ受付手段により受け付けた描画データと近似する形状データを有するパーツオブジェクトを部位ごとに特定するパーツオブジェクト特定手段と、
パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトを組み合わせることで、基準キャラクタを作成する基準キャラクタ作成手段と、
基準キャラクタ作成手段により作成された基準キャラクタを表示装置に表示する基準キャラクタ表示手段と、
基準キャラクタに近似する候補キャラクタを作成するために、基準キャラクタを構成する複数の部位のうちの少なくとも1つの部位のパーツオブジェクトを他のパーツオブジェクトに変更する第一のパーツオブジェクト変更手段と、
パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトのうち、第一のパーツオブジェクト変更手段により変更されたパーツオブジェクト以外のパーツオブジェクト、及び、第一のパーツオブジェクト変更手段により変更された他のパーツオブジェクトを組み合わせることで、第一の候補キャラクタを作成する第一の候補キャラクタ作成手段と、
第一の候補キャラクタ作成手段により作成された第一の候補キャラクタを表示装置に表示する第一の候補キャラクタ表示手段と、
ユーザの入力装置への操作に従って、基準キャラクタ又は第一の候補キャラクタのいずれかを、ユーザが仮想空間内で操作するキャラクタとして選択する第一の操作キャラクタ選択手段と
を備えることを特徴とするキャラクタ作成装置。
A character creation device comprising an input device and a display device, for creating a character in accordance with a user operation on the input device,
A plurality of types of part objects stored for each part constituting the character, and part object storage means for storing shape data stored in association with each part object;
Drawing data receiving means for receiving drawing data drawn by the user on the input device for each part;
A part object specifying unit for specifying, for each part, a part object having shape data that approximates the drawing data received by the drawing data receiving unit from among the part objects stored in the part object storage unit;
A reference character creating means for creating a reference character by combining the part objects identified for each part by the part object identifying means;
Reference character display means for displaying the reference character created by the reference character creation means on the display device;
First part object changing means for changing a part object of at least one part of a plurality of parts constituting the reference character to another part object in order to create a candidate character that approximates the reference character;
Of the part objects specified for each part by the part object specifying means, part objects other than the part object changed by the first part object changing means, and other parts changed by the first part object changing means A first candidate character creating means for creating a first candidate character by combining objects;
First candidate character display means for displaying the first candidate character created by the first candidate character creating means on a display device;
A character comprising: a first operation character selection unit that selects either the reference character or the first candidate character as a character operated by the user in the virtual space in accordance with an operation to the input device by the user. Creation device.
ユーザの入力装置への操作に従って、第一の候補キャラクタを仮選択するキャラクタ仮選択手段と、
キャラクタ仮選択手段により仮選択された仮選択キャラクタを構成する複数の部位のうちの少なくとも1つの部位のパーツオブジェクトを他のパーツオブジェクトに変更する第二のパーツオブジェクト変更手段と、
仮選択キャラクタを構成する複数の部位のパーツオブジェクトのうち、第二のパーツオブジェクト変更手段により変更されたパーツオブジェクト以外のパーツオブジェクト、及び、第二のパーツオブジェクト変更手段により変更された他のパーツオブジェクトを組み合わせることで、第二の候補キャラクタを作成する第二の候補キャラクタ作成手段と、
第二の候補キャラクタ作成手段により作成された第二の候補キャラクタを表示装置に表示する第二の候補キャラクタ表示手段と、
ユーザの入力装置への操作に従って、仮選択キャラクタ又は第二の候補キャラクタのいずれかを、ユーザが仮想空間内で操作するキャラクタとして選択する第二の操作キャラクタ選択手段と
を備えることを特徴とする請求項3記載のキャラクタ作成装置。
Character temporary selection means for temporarily selecting the first candidate character in accordance with the user's operation on the input device;
Second part object changing means for changing a part object of at least one part of a plurality of parts constituting the temporarily selected character temporarily selected by the character temporary selecting means to another part object;
Among the part objects of the plurality of parts constituting the temporarily selected character, the part object other than the part object changed by the second part object changing unit and the other part object changed by the second part object changing unit A second candidate character creating means for creating a second candidate character by combining
Second candidate character display means for displaying the second candidate character created by the second candidate character creation means on the display device;
And a second operation character selection means for selecting either the temporarily selected character or the second candidate character as a character operated by the user in the virtual space in accordance with the user's operation on the input device. The character creation device according to claim 3.
ユーザの入力装置への操作に従って、キャラクタを構成する複数の部位のうちの少なくとも1つの部位を選択する部位選択手段とを備え、
第一のパーツオブジェクト変更手段、及び、第二のパーツオブジェクト変更手段が、部位選択手段により選択された部位に応じて、パーツオブジェクトを変更する部位を特定することを特徴とする請求項4記載のキャラクタ作成装置。
Part selection means for selecting at least one part among a plurality of parts constituting the character in accordance with a user operation on the input device;
5. The part according to claim 4, wherein the first part object changing unit and the second part object changing unit specify a part to change the part object according to the part selected by the part selecting unit. Character creation device.
入力装置及び表示装置を備えたコンピュータ装置に、ユーザの入力装置への操作に従ってキャラクタの作成を実行させるキャラクタ作成プログラムであって、
コンピュータ装置を、
キャラクタを構成する部位ごとに記憶された複数種のパーツオブジェクトと、各パーツオブジェクトと関連付けて記憶された形状データを記憶するパーツオブジェクト記憶手段と、
ユーザが入力装置へ描画した描画データを、部位ごとに受け付ける描画データ受付手段と、
パーツオブジェクト記憶手段に記憶されたパーツオブジェクトの中から、描画データ受付手段により受け付けた描画データと近似する形状データを有するパーツオブジェクトを部位ごとに特定するパーツオブジェクト特定手段と、
パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトを組み合わせることで、キャラクタを作成するキャラクタ作成手段と、
作成されたキャラクタを表示装置に表示するキャラクタ表示手段
として機能させることを特徴とするキャラクタ作成プログラム。
A character creation program for causing a computer device including an input device and a display device to create a character in accordance with a user operation on the input device,
Computer equipment,
A plurality of types of part objects stored for each part constituting the character, and part object storage means for storing shape data stored in association with each part object;
Drawing data receiving means for receiving drawing data drawn by the user on the input device for each part;
A part object specifying unit for specifying, for each part, a part object having shape data that approximates the drawing data received by the drawing data receiving unit from among the part objects stored in the part object storage unit;
Character creation means for creating a character by combining the part objects identified for each part by the part object identification means;
A character creation program that functions as character display means for displaying a created character on a display device.
入力装置及び表示装置を備えたコンピュータ装置に、ユーザの入力装置への操作に従ってキャラクタの作成を実行させるキャラクタ作成プログラムであって、
コンピュータ装置を、
キャラクタを構成する部位ごとに記憶された複数種のパーツオブジェクトと、各パーツオブジェクトと関連付けて記憶された形状データを記憶するパーツオブジェクト記憶手段と、
ユーザが入力装置へ描画した描画データを、部位ごとに受け付ける描画データ受付手段と、
パーツオブジェクト記憶手段に記憶されたパーツオブジェクトの中から、描画データ受付手段により受け付けた描画データと近似する形状データを有するパーツオブジェクトを部位ごとに特定するパーツオブジェクト特定手段と、
パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトを組み合わせることで、基準キャラクタを作成する基準キャラクタ作成手段と、
基準キャラクタ作成手段により作成された基準キャラクタを表示装置に表示する基準キャラクタ表示手段と、
基準キャラクタに近似する候補キャラクタを作成するために、基準キャラクタを構成する複数の部位のうちの少なくとも1つの部位のパーツオブジェクトを他のパーツオブジェクトに変更する第一のパーツオブジェクト変更手段と、
パーツオブジェクト特定手段により部位ごとに特定されたパーツオブジェクトのうち、第一のパーツオブジェクト変更手段により変更されたパーツオブジェクト以外のパーツオブジェクト、及び、第一のパーツオブジェクト変更手段により変更された他のパーツオブジェクトを組み合わせることで、第一の候補キャラクタを作成する第一の候補キャラクタ作成手段と、
第一の候補キャラクタ作成手段により作成された第一の候補キャラクタを表示装置に表示する第一の候補キャラクタ表示手段と、
ユーザの入力装置への操作に従って、基準キャラクタ又は第一の候補キャラクタのいずれかを、ユーザが仮想空間内で操作するキャラクタとして選択する第一の操作キャラクタ選択手段
として機能させることを特徴とするキャラクタ作成プログラム。
A character creation program for causing a computer device including an input device and a display device to create a character in accordance with a user operation on the input device,
Computer equipment,
A plurality of types of part objects stored for each part constituting the character, and part object storage means for storing shape data stored in association with each part object;
Drawing data receiving means for receiving drawing data drawn by the user on the input device for each part;
A part object specifying unit for specifying, for each part, a part object having shape data that approximates the drawing data received by the drawing data receiving unit from among the part objects stored in the part object storage unit;
A reference character creating means for creating a reference character by combining the part objects identified for each part by the part object identifying means;
Reference character display means for displaying the reference character created by the reference character creation means on the display device;
First part object changing means for changing a part object of at least one part of a plurality of parts constituting the reference character to another part object in order to create a candidate character that approximates the reference character;
Of the part objects specified for each part by the part object specifying means, part objects other than the part object changed by the first part object changing means, and other parts changed by the first part object changing means A first candidate character creating means for creating a first candidate character by combining objects;
First candidate character display means for displaying the first candidate character created by the first candidate character creating means on a display device;
A character that functions as a first operation character selection means for selecting either a reference character or a first candidate character as a character that the user operates in a virtual space in accordance with an operation to the input device by the user. Creation program.
JP2011064829A 2011-03-23 2011-03-23 Character creation device and character creation program Active JP5350422B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011064829A JP5350422B2 (en) 2011-03-23 2011-03-23 Character creation device and character creation program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011064829A JP5350422B2 (en) 2011-03-23 2011-03-23 Character creation device and character creation program

Publications (2)

Publication Number Publication Date
JP2012200288A true JP2012200288A (en) 2012-10-22
JP5350422B2 JP5350422B2 (en) 2013-11-27

Family

ID=47181891

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011064829A Active JP5350422B2 (en) 2011-03-23 2011-03-23 Character creation device and character creation program

Country Status (1)

Country Link
JP (1) JP5350422B2 (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190073293A (en) * 2017-12-18 2019-06-26 김은아 Generator for characters using figure table and method of generating the characters
JP2019211820A (en) * 2018-05-31 2019-12-12 株式会社セガゲームス Program and information processing apparatus
JP2021051632A (en) * 2019-09-26 2021-04-01 株式会社Jvcケンウッド Avatar creation device, mobile terminal, accessory matching system, avatar creation method, and program
JP7273347B1 (en) 2022-03-25 2023-05-15 株式会社Mixi Information processing device, information processing method and program

Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH06187410A (en) * 1992-12-21 1994-07-08 Casio Comput Co Ltd Montage generating device
JPH06205353A (en) * 1993-01-07 1994-07-22 Casio Comput Co Ltd Picture storage device
JPH10328414A (en) * 1997-05-30 1998-12-15 Namco Ltd Game machine and computer readable medium recording game program
JP2979717B2 (en) * 1991-06-06 1999-11-15 ブラザー工業株式会社 Caricature making device
JP2001076164A (en) * 2000-08-01 2001-03-23 Casio Comput Co Ltd Device and method for preparing facial image
JP2002216146A (en) * 2000-11-15 2002-08-02 Sega Corp Display object generating method in information processor, program to execute and control the same and recording medium in which the same program is stored
JP2002306840A (en) * 2001-04-19 2002-10-22 Taito Corp Character item generation game machine capable of preparing parameter by two dimensional shape
JP2004110728A (en) * 2002-09-20 2004-04-08 Mitsubishi Heavy Ind Ltd Portrait creating system
JP2005092284A (en) * 2003-09-12 2005-04-07 Nintendo Co Ltd Pickup image synthesizer and pickup image synthesizing program
JP2008061896A (en) * 2006-09-08 2008-03-21 Nintendo Co Ltd Game program and game device
JP2010246845A (en) * 2009-04-20 2010-11-04 Taito Corp Game machine and game programs

Patent Citations (11)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2979717B2 (en) * 1991-06-06 1999-11-15 ブラザー工業株式会社 Caricature making device
JPH06187410A (en) * 1992-12-21 1994-07-08 Casio Comput Co Ltd Montage generating device
JPH06205353A (en) * 1993-01-07 1994-07-22 Casio Comput Co Ltd Picture storage device
JPH10328414A (en) * 1997-05-30 1998-12-15 Namco Ltd Game machine and computer readable medium recording game program
JP2001076164A (en) * 2000-08-01 2001-03-23 Casio Comput Co Ltd Device and method for preparing facial image
JP2002216146A (en) * 2000-11-15 2002-08-02 Sega Corp Display object generating method in information processor, program to execute and control the same and recording medium in which the same program is stored
JP2002306840A (en) * 2001-04-19 2002-10-22 Taito Corp Character item generation game machine capable of preparing parameter by two dimensional shape
JP2004110728A (en) * 2002-09-20 2004-04-08 Mitsubishi Heavy Ind Ltd Portrait creating system
JP2005092284A (en) * 2003-09-12 2005-04-07 Nintendo Co Ltd Pickup image synthesizer and pickup image synthesizing program
JP2008061896A (en) * 2006-09-08 2008-03-21 Nintendo Co Ltd Game program and game device
JP2010246845A (en) * 2009-04-20 2010-11-04 Taito Corp Game machine and game programs

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR20190073293A (en) * 2017-12-18 2019-06-26 김은아 Generator for characters using figure table and method of generating the characters
KR102181410B1 (en) * 2017-12-18 2020-11-23 김은아 Generator for characters using figure table and method of generating the characters
JP2019211820A (en) * 2018-05-31 2019-12-12 株式会社セガゲームス Program and information processing apparatus
JP7180125B2 (en) 2018-05-31 2022-11-30 株式会社セガ Program and information processing device
JP2021051632A (en) * 2019-09-26 2021-04-01 株式会社Jvcケンウッド Avatar creation device, mobile terminal, accessory matching system, avatar creation method, and program
JP7418689B2 (en) 2019-09-26 2024-01-22 株式会社Jvcケンウッド Avatar generation device, mobile terminal, clothing matching system, avatar generation method and program
JP7273347B1 (en) 2022-03-25 2023-05-15 株式会社Mixi Information processing device, information processing method and program
JP2023142818A (en) * 2022-03-25 2023-10-05 株式会社Mixi Information processor, information processing method and program

Also Published As

Publication number Publication date
JP5350422B2 (en) 2013-11-27

Similar Documents

Publication Publication Date Title
CN104102412B (en) A kind of hand-held reading device and method thereof based on augmented reality
US7876320B2 (en) Face image synthesis method and face image synthesis apparatus
CN108876881A (en) Figure self-adaptation three-dimensional virtual human model construction method and animation system based on Kinect
CN110136236B (en) Personalized face display method, device and equipment for three-dimensional character and storage medium
KR101743763B1 (en) Method for providng smart learning education based on sensitivity avatar emoticon, and smart learning education device for the same
JP5442966B2 (en) GAME DEVICE, GAME CONTROL METHOD, GAME CONTROL PROGRAM, AND RECORDING MEDIUM CONTAINING THE PROGRAM
JP5350422B2 (en) Character creation device and character creation program
CN105279795A (en) Augmented reality system based on 3D marker
CN112288665A (en) Image fusion method and device, storage medium and electronic equipment
CN204028887U (en) A kind of reading of the hand-held based on augmented reality equipment
US20140364229A1 (en) Game Apparatus, Storage Medium Storing Game Program and Game Controlling Method
US20090195539A1 (en) Method of processing three-dimensional image in mobile device
CN108563327B (en) Augmented reality method, device, storage medium and electronic equipment
CN111028318A (en) Virtual face synthesis method, system, device and storage medium
JP5920858B1 (en) Program, information processing apparatus, depth definition method, and recording medium
JP2010233672A (en) Program, information storage medium and electronic device
CN113470162A (en) Method, device and system for constructing three-dimensional head model and storage medium
CN108986228B (en) Method and device for displaying interface in virtual reality
CN116993949A (en) Virtual environment display method and device, wearable electronic equipment and storage medium
JP2011215709A (en) Apparatus, method and program for assisting cartoon creation
CN114912574A (en) Character facial expression splitting method and device, computer equipment and storage medium
CN111625102A (en) Building display method and device
CN115068940A (en) Control method of virtual object in virtual scene, computer device and storage medium
CN108525307B (en) Game implementation method and device, storage medium and electronic equipment
CN112435316A (en) Anti-threading method and device in game, electronic equipment and storage medium

Legal Events

Date Code Title Description
A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20130423

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20130624

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130806

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130821

R150 Certificate of patent or registration of utility model

Ref document number: 5350422

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250