JP2005266912A - Person animation creation system and user interface therefor - Google Patents

Person animation creation system and user interface therefor Download PDF

Info

Publication number
JP2005266912A
JP2005266912A JP2004074595A JP2004074595A JP2005266912A JP 2005266912 A JP2005266912 A JP 2005266912A JP 2004074595 A JP2004074595 A JP 2004074595A JP 2004074595 A JP2004074595 A JP 2004074595A JP 2005266912 A JP2005266912 A JP 2005266912A
Authority
JP
Japan
Prior art keywords
movement
animation
person
menu
action
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2004074595A
Other languages
Japanese (ja)
Inventor
Yoshihiro Yasumuro
喜弘 安室
Masataka Imura
誠孝 井村
Yoshitsugu Manabe
佳嗣 眞鍋
Kunihiro Chihara
國宏 千原
Shin Nakade
慎 中手
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nara Institute of Science and Technology NUC
Original Assignee
Nara Institute of Science and Technology NUC
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nara Institute of Science and Technology NUC filed Critical Nara Institute of Science and Technology NUC
Priority to JP2004074595A priority Critical patent/JP2005266912A/en
Publication of JP2005266912A publication Critical patent/JP2005266912A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide a person animation creation system enabling direct creation or editing of a person animation, and to provide a user interface therefor. <P>SOLUTION: This person animation creation system has: an input means for displaying a menu comprising words expressing movement of a person character made to be animated on a display device screen, and making a user select it; and movement generation means for creating the animation of the person character expressing the movement corresponding to a selected item in the input means. The selected items in the menu include a target portion imparted with the movement, a movement direction, a time during which the movement is performed, an amplitude of the movement, and a nuance of the movement. The items are converted into a numerical data set including a rotating joint and a rotational axis, start time of the movement, a time spent in the movement, an angle after movement of the joint, and the nuance of the movement. An interpolation method predetermined in each the nuance is used for interpolation between the numerical data sets. <P>COPYRIGHT: (C)2005,JPO&NCIPI

Description

本発明は、コンピュータグラフィックスで人物の動きを表現したアニメーションを作成する際に使用するヒューマンインタフェースに関する。   The present invention relates to a human interface used when creating an animation expressing a person's movement in computer graphics.

個人でホームページを作成し、ネットワーク上に自分独自の表現の場を作ることが珍しくなくなり、そこに掲載するビジュアルコンテンツも個人のパーソナルコンピュータ上で動作するソフトウェアで容易に作成できるようになってきている。人物キャラクタや擬人的なマスコットなどのアニメーションは、そういったコンテンツのひとつとしてインターネット上でよく目にし、またチャットやオンラインゲームなどではユーザに成り代わって画面に登場し親しまれている。   It's not uncommon to create a homepage on your own and create a place for your own expression on the network, and the visual content posted there can now be easily created with software that runs on your personal computer. . Animations such as human characters and anthropomorphic mascots are often seen on the Internet as one of such contents, and they appear on the screen on behalf of the user in chats and online games.

しかし、その作成手法は基本的に職業デザイナ用のツールで用いられているものと同様であり、誰にでも扱いやすいものではない。   However, the creation method is basically the same as that used in tools for professional designers, and it is not easy for anyone to handle.

コンピュータグラフィックス(Computer Graphics:CG)で人物の動きを表現したアニメーションを作成する際には、姿勢や動きをデザインするための関節角度やその時間変化を入力する必要がある。   When creating an animation that expresses the movement of a person using computer graphics (CG), it is necessary to input a joint angle for designing posture and movement, and its change over time.

すでに市販され広く人物アニメーション作成ツールとして知名度が高いソフトウェアとして、キュリアスラボ社のポーザー(登録商標)が挙げられる。ポーザーの提供する機能は、非常に詳細な動きの情報を入力できる代わりに、簡単な動作を付けるだけでも直感的ではない操作に慣れることを必要とする。例えば、動きにおいて1つのポーズを作成するために、非常に多くの関節箇所と回転軸を選択し、回転量を入力する必要がある。1つのポーズを生成したら、これを1つのキーフレームとして使用し、ポーズを変形させて次のキーフレームとする。このようにして、作り出したい動きを、各時刻のコマに分割し、コマごとに多くの関節を調節してポーズを作り、コマとコマの間の動きを補間するという作業の繰り返しでアニメーションが生成される。GUI(グラフィカルユーザインタフェース)では、3次元CGの人形が表示されており、直接マウスで関節や部位を選び動かすことができるが、3次元情報をマウスの2次元の動きで指定するのはなかなか難しい。結局、些細な動作を設定するためにも、角度の数値を入力して調節するという煩雑な作業を伴うことが多い。   As a software that is already on the market and is widely known as a human animation creation tool, there is Curious Lab's Poser (registered trademark). The function provided by the poser requires that you become accustomed to an operation that is not intuitive even with a simple operation, instead of being able to input very detailed movement information. For example, in order to create one pose in motion, it is necessary to select a large number of joint locations and rotation axes, and input the rotation amount. When one pose is generated, this is used as one key frame, and the pose is transformed into the next key frame. In this way, the motion you want to create is divided into frames at each time, and a number of joints are adjusted for each frame to create a pose, and animation is generated by repeating the work of interpolating the movement between frames Is done. In GUI (graphical user interface), a 3D CG doll is displayed, and you can select and move joints and parts directly with the mouse, but it is difficult to specify 3D information with 2D movement of the mouse. . In the end, in order to set a trivial operation, it is often accompanied by a complicated work of inputting and adjusting the numerical value of the angle.

一方、オーケストラのような音楽作品が楽譜で記録されるように、舞踊作品における身体表現の記録においては舞踊譜が使われている。そのなかでもLabanotationは、細かい身体の動きでも記述することができることや、時間を細かく分割することができることなどの理由から、詳細な身体運動の技術が可能であり、その利点から様々な舞踊譜の中でも最も広く用いられている。ダンスなどの身体表現をデジタル化する場合、Labanotationならば動作を符号化するため、モーションキャプチャデータなどよりデータ量を小さくすることができる。また、Labanotationには記述された内容に曖昧さがないことや、複雑ではあるがルールに従えば記述や解読ができるという特徴がある。計算機による処理を行う場合、複雑であってもルールに従って記述できる方がよい。そのため、複雑な動きが記述できるLabanotationが計算機による動作記述と再生には向いている。   On the other hand, dance music scores are used in recording physical expressions in dance works, just as music works such as orchestras are recorded as music scores. Among them, Labanonation is capable of detailed physical movement techniques because it can be described even with fine body movements, and because it can divide time finely. Most widely used. In the case of digitizing body expression such as dance, since the motion is encoded in Labanation, the amount of data can be made smaller than that of motion capture data. Labanonation has the characteristics that the described contents are not ambiguous and that it is complicated but can be described and deciphered according to the rules. When processing by a computer, it is better to be able to describe it according to rules even if it is complicated. For this reason, Laboration, which can describe complicated motions, is suitable for operation description and reproduction by a computer.

しかし、Labanotationは、系統的で自由度が高い表現が可能である反面、複雑であり、誰にでも容易に理解し、記述、編集できるものではない。そのため、紙面のLabanotationをイメージスキャナでコンピュータに取り込むソフト、編集ソフトで入力されたLabanotaionを3次元CGに可視化するソフト、、モーションキャプチャデータからLabanotaionに変換するソフトなどが研究開発されている。また、様々な情緒の身体表現をコンピュータ上で設計して、人間型ロボットに実現させるという立場から、Labanotationに基づいたコンピュータ内での身体動作記述方法を研究史、その記述方法とモーションキャプチャデータとの相互変換、CG表示などのソフトの開発がなされている。しかし、これらの研究は、汎用的な人物動作の作成、編集を行うものではない。   However, Labanation can be expressed systematically and with a high degree of freedom, but it is complicated and cannot be easily understood, described and edited by anyone. For this reason, research and development has been conducted on software for importing paper Labration into an image scanner with a computer, software for visualizing Labanation input with editing software into a three-dimensional CG, software for converting motion capture data into Labanation, and the like. In addition, from the standpoint of designing body representations of various emotions on a computer and realizing them in a humanoid robot, research history on the body motion description method in the computer based on Labanation, its description method and motion capture data Software such as mutual conversion and CG display has been developed. However, these studies do not create or edit general-purpose human actions.

上述したことを鑑み、本発明は、人物アニメーションの作成や編集を直接的に行うことができる人物アニメーション作成システム及びそのユーザインタフェースを提供することを目的とする。   In view of the above, an object of the present invention is to provide a person animation creation system and a user interface thereof that can directly create and edit a person animation.

請求項1に記載の発明は、アニメーションさせる人物キャラクタの動作を表す言葉から成るメニューを表示装置画面上に表示し、ユーザに選択させる入力手段と、
前記入力手段において選択された項目に対応する動作を表す前記人物キャラクタのアニメーションを作成する動作生成手段とを具えることを特徴とする人物アニメーション作成システムである。
According to the first aspect of the present invention, there is provided an input means for displaying on the display device screen a menu composed of words representing the motion of the person character to be animated, and allowing the user to select the menu.
A human-animation creation system comprising: a motion generation unit that creates an animation of the human character representing a motion corresponding to an item selected by the input unit.

請求項2に記載の発明は、請求項1に記載の人物アニメーション作成システムにおいて、前記メニューにおける選択項目が、動作を与える対象部位と、動作方向と、動作させる時間と、動作の大きさと、動作のニュアンスとを含むことを特徴とする人物アニメーション作成システムである。   According to a second aspect of the present invention, in the human animation creating system according to the first aspect, the selection items in the menu include a target part to which a motion is to be given, a motion direction, a time for which the motion is performed, a size of the motion, It is a human animation creation system characterized by including nuances of

請求項3に記載の発明は、請求項1又は2に記載の人物アニメーション作成システムにおいて、前記メニューにおいて選択された項目を、回転する関節及び回転軸と、動作の開始時刻と、動作に掛ける時間と、関節の移動後の角度と、動作のニュアンスとを含む数値データセットに変換し、この数値データセットに基づいてアニメーションを作成することを特徴とする人物アニメーション作成システムである。   According to a third aspect of the present invention, in the human animation creation system according to the first or second aspect, the item selected in the menu includes a rotating joint and a rotation axis, a start time of the operation, and a time required for the operation. And an angle after the movement of the joint and a nuance of motion are converted into a numerical data set, and an animation is generated based on the numerical data set.

請求項4に記載の発明は、請求項1、2又は3に記載の人物アニメーション作成システムにおいて、前記数値データセット間の補間に、前記ニュアンスごとに予め決められた補間法を用いることを特徴とする人物アニメーション作成システムである。   According to a fourth aspect of the present invention, in the human animation creating system according to the first, second, or third aspect, an interpolation method predetermined for each nuance is used for interpolation between the numerical data sets. This is a human animation creation system.

請求項5に記載の発明は、請求項1、2、3又は4に記載の人物アニメーション作成システムにおいて、前記メニューによる操作を反映するプレビュー画面を表示する手段をさらに具えることを特徴とする人物アニメーション作成システム。   The invention according to claim 5 is the person animation creating system according to claim 1, 2, 3 or 4, further comprising means for displaying a preview screen reflecting the operation by the menu. Animation creation system.

請求項6に記載の発明は、人物アニメーション作成システムのユーザインタフェースであって、アニメーションさせる人物キャラクタの動作を表す言葉から成るメニューを画面に表示させる手段と、前記メニューにおいて選択された項目を前記システムにおける人物アニメーション作成パラメータに変換する手段と、前記パラメータに基づいて前記システムにキャラクタのアニメーションを作成させる手段とを具えることを特徴とするユーザインタフェースである。   The invention according to claim 6 is a user interface of a human animation creating system, a means for displaying on a screen a menu composed of words representing actions of a human character to be animated, and an item selected in the menu as the system A user interface comprising: means for converting to human animation creation parameters; and means for causing the system to create a character animation based on the parameters.

請求項7に記載の発明は、請求項6に記載のユーザインタフェースにおいて、前記パラメータが、回転する関節及び回転軸と、動作の開始時刻と、動作に掛ける時間と、関節の移動後の角度と、動作のニュアンスとを含むことを特徴とするユーザインタフェースである。   A seventh aspect of the present invention is the user interface according to the sixth aspect, wherein the parameters include a rotating joint and a rotating shaft, an operation start time, a time required for the operation, an angle after movement of the joint, And a nuance of operation.

請求項8に記載の発明は、請求項6又は7に記載のユーザインタフェースにおいて、前記メニューが、動作を与える対象部位と、動作方向と、動作させる時間と、動作の大きさと、動作のニュアンスとを含むことを特徴とするユーザインタフェースである。   According to an eighth aspect of the present invention, in the user interface according to the sixth or seventh aspect, the menu includes a target part to which an action is given, an action direction, an action time, an action size, and an action nuance. It is a user interface characterized by including.

請求項9に記載の発明は、請求項6、7又は8に記載のユーザインタフェースにおいて、前記メニューによる操作を反映するプレビュー画面を表示することを特徴とするユーザインタフェースである。   A ninth aspect of the present invention is the user interface according to the sixth, seventh, or eighth aspect, wherein a preview screen reflecting the operation by the menu is displayed.

本発明によれば、言葉による表現で動作を指定することによって直接的に人物アニメーションの作成や編集を行うことにより、一般的なより多くのユーザに人物の3次元アニメーションを簡単に作成できる環境を与えることができる。   According to the present invention, an environment in which a person's three-dimensional animation can be easily created for a larger number of general users by directly creating and editing a person animation by specifying an action by expression in words. Can be given.

図1は、本発明による人物アニメーション作成システムの構成及び動作の一例を説明する図である。本システムは、入力部1、動作生成部2及び出力部3を具える。入力部1では、ユーザインタフェースとして、言葉によって表現された人物キャラクタの各部位の基本的な動作として、動作を与える対象部位と、動作方向、動作させる時間、動作の大きさ等を、言葉によって表したメニューによって表示し、ユーザに選択させる。時間等は例えばキーボード等から入力させてもよい。各動作のニュアンス、細かな動作の指示も同様に言葉を用いて行う。例えば、動作のニュアンスとして、「さっと」、「きびきび」といった言葉から選択させ、記号では伝えにくい細かな指示としては、「もう少し前へ」、「少し速く」といった言葉から選択させる。図2は、このようなユーザインタフェース画面の一例を示す図である。ユーザはこれらの指示をメニューにおいて選択し、逐次動きを設定することができる。その様子は、例えば図3に示すようなプレビュー画面においてアニメーションとして表示させ、確認することができる。   FIG. 1 is a diagram for explaining an example of the configuration and operation of a human animation creation system according to the present invention. The system includes an input unit 1, a motion generation unit 2, and an output unit 3. In the input unit 1, as a user interface, as a basic motion of each part of a human character expressed in words, a target part to which a motion is given, a motion direction, a motion time, a motion magnitude, and the like are represented by words. The menu is displayed and the user is allowed to select. For example, the time may be input from a keyboard or the like. The nuances of each operation and detailed operation instructions are also performed using words. For example, words such as “quickly” and “quickly” are selected as nuances of movement, and words such as “a little more forward” and “a little faster” are selected as detailed instructions that are difficult to convey with symbols. FIG. 2 is a diagram showing an example of such a user interface screen. The user can select these instructions in the menu and set the motion sequentially. The state can be confirmed by displaying it as an animation on a preview screen as shown in FIG. 3, for example.

再び図1に戻り、動作生成部2は、入力部1において入力された動作の方向やその時刻、動作時間に基づき、アニメーションを作成すべき人物キャラクタの各関節の角度を計算し、各姿勢間の補間を行う。この図に示す例のように、入力部で与えた動作の方向と動作時間のデータをLabanotation化し、このLabanotationより運動学計算によって角度データを計算し、各姿勢間の角度を補間してもよい。   Returning to FIG. 1 again, the motion generation unit 2 calculates the angle of each joint of the human character to be animated based on the direction of the motion input at the input unit 1, its time, and the motion time. Perform interpolation. As in the example shown in this figure, the motion direction and motion time data given by the input unit may be converted into a Labanation, angle data may be calculated by kinematics calculation from this Laboration, and the angle between each posture may be interpolated. .

出力部3では、動作生成部2で計算された角度データに基づく前記人物キャラクタのCGアニメーションを出力する。この図に示す例のように、Labanotationによる舞踊譜を同時に出力してもよい。   The output unit 3 outputs a CG animation of the person character based on the angle data calculated by the motion generation unit 2. As in the example shown in this figure, a dance score by Laboration may be output at the same time.

本発明による人物アニメーション作成システムのユーザインタフェースは、どの部位を、どの時間に、どのように動かすか、をユーザに設定させるものであり、従来技術のようなキーフレームではなく「断片的な動作」を逐次作成し、姿勢の時間変化を直接操作できる。しかもその操作は言葉で表現されたメニューを選ぶ直感的なものである。上述したような言語によるメニューにおいて表示する動作情報は、部位、方向、時間、ニュアンス(さっと、きびきび、のっそり等)を含む。本発明による人物アニメーション作成システムでは、これらの情報をひとつの動作セットとして骨格の関節運動に変換する。この情報の分類と記述方法は、人間の動作自由度を網羅的に表現できるデータ構造となっている。ユーザは、次々と動作セットを入力していくことにより、一連の動作を生成することができる。   The user interface of the human animation creation system according to the present invention allows the user to set which part, at what time, and how to move it. Can be created sequentially and the time change of posture can be directly manipulated. Moreover, the operation is intuitive to select a menu expressed in words. The operation information displayed in the menu in the language as described above includes a part, a direction, a time, and a nuance (such as quick, crisp, quiet). In the human animation creation system according to the present invention, these pieces of information are converted into a skeletal joint motion as one motion set. This information classification and description method has a data structure that can comprehensively express the degree of freedom of human movement. The user can generate a series of operations by inputting operation sets one after another.

例えば従来技術であるLabanotationの記述に用いられる記号には、各動作が行われた後での各部位の位置、各動作にかかる時間といった情報が含まれているが、本発明による人物アニメーション作成システムでは、これに加えて各動作のニュアンスという情報を入力する。上述した入力部1においては、初期姿勢を、例えば、各部位についてLabanotationと同様の27方向のリストの中から選択することによって入力してもよい。その後、動作の入力を行う。動作は、初期姿勢と同様にリストから、その動作で各部位がどの方向へ移動するのかを選択するようにして入力してもよい。またその他に、その動作が始まる時刻、動作にかける時間を数値で入力してもよい。そして、その動作をどのようなニュアンスで行うかを、「はやく」、「きびきび」などの言葉をリストから選択することにより入力する。これを繰り返すことによって動作を入力していく。   For example, the symbols used in the description of Labanonation, which is a prior art, include information such as the position of each part after each operation and the time required for each operation. In addition to this, information on the nuance of each operation is input. In the input unit 1 described above, the initial posture may be input, for example, by selecting from a list in 27 directions similar to Laboration for each part. Thereafter, an operation is input. Similarly to the initial posture, the motion may be input by selecting from which direction each part moves in the motion. In addition, the time when the operation starts and the time required for the operation may be input numerically. Then, the nuance of the operation is input by selecting words such as “fast” and “quickly” from the list. The operation is input by repeating this.

入力部1で与えられた動作を動作生成部2において数値データへと変化する。まず、言語により入力された動作を、例えばLabanotationの記述に基づき分割されたデータセットのように変換する。各データセットは、例えば、回転する関節及び回転軸、動作の開始時刻、動作にかける時間、関節の移動後の角度、動作のニュアンスの2つの情報を含む。この各データセット間の角度データを補間することによってアニメーションを作成する。また、各動作における補間において、はじめに入力したニュアンスごとに異なった補間法を用いることにより動作に様々な違いをつけることができる。例えば、ニュアンスを付けていない場合は、線形補間により各データ間の補間を行う。「はやく」というニュアンスを付け加えた場合は、動作の速度を2倍にし、半分の時間で動作を終え、残りの時間を静止させるようにしてもよい。「きびきび」というニュアンスは、「はやく」と同様に速度を2倍にし、「さっと」というニュアンスを付け加えた場合は、二次補間を行い、初めは速く、そして徐々に遅くなるように動作を行うようにしてもよい。このように、補間法を変えることにより、動作にニュアンスを付け加えることができる。図4は、このような角度データの補間法の一例を示すグラフである。   The motion given by the input unit 1 is changed to numerical data by the motion generation unit 2. First, the operation input by the language is converted into a data set divided based on the description of Labanonation, for example. Each data set includes, for example, two pieces of information: a rotating joint and a rotation axis, an operation start time, an operation time, an angle after movement of the joint, and an nuance of the operation. An animation is created by interpolating the angle data between the data sets. Further, in the interpolation in each operation, various differences can be made in the operation by using different interpolation methods for each nuance input first. For example, when no nuance is added, interpolation between each data is performed by linear interpolation. When the nuance of “fast” is added, the speed of the operation may be doubled, the operation may be finished in half time, and the remaining time may be stopped. The nuance of “Kibikibi” doubles the speed in the same way as “Hayaku”, and when the nuance of “quickly” is added, it performs quadratic interpolation, and operates so that it is initially fast and gradually slows down. You may do it. Thus, nuances can be added to the operation by changing the interpolation method. FIG. 4 is a graph showing an example of such an interpolation method of angle data.

本発明による人物アニメーション作成システムの構成及び動作の一例を説明する図である。It is a figure explaining an example of composition and operation of a person animation creation system by the present invention. ユーザインタフェース画面の一例を示す図である。It is a figure which shows an example of a user interface screen. プレビュー画面の一例を示す図である。It is a figure which shows an example of a preview screen. 角度データの補間法の一例を示すグラフである。It is a graph which shows an example of the interpolation method of angle data.

符号の説明Explanation of symbols

1 入力部
2 動作生成部
3 出力部
1 Input unit 2 Motion generation unit 3 Output unit

Claims (9)

アニメーションさせる人物キャラクタの動作を表す言葉から成るメニューを表示装置画面上に表示し、ユーザに選択させる入力手段と、
前記入力手段において選択された項目に対応する動作を表す前記人物キャラクタのアニメーションを作成する動作生成手段とを具えることを特徴とする人物アニメーション作成システム。
An input means for displaying on the display device screen a menu consisting of words representing the action of the person character to be animated, and allowing the user to select;
A human animation creation system comprising: motion generation means for creating an animation of the human character representing a motion corresponding to an item selected by the input means.
請求項1に記載の人物アニメーション作成システムにおいて、前記メニューにおける選択項目が、動作を与える対象部位と、動作方向と、動作させる時間と、動作の大きさと、動作のニュアンスとを含むことを特徴とする人物アニメーション作成システム。   2. The human animation creation system according to claim 1, wherein the selection items in the menu include a target part to which an action is given, an action direction, an action time, an action magnitude, and an action nuance. Person animation creation system. 請求項1又は2に記載の人物アニメーション作成システムにおいて、前記メニューにおいて選択された項目を、回転する関節及び回転軸と、動作の開始時刻と、動作に掛ける時間と、関節の移動後の角度と、動作のニュアンスとを含む数値データセットに変換し、この数値データセットに基づいてアニメーションを作成することを特徴とする人物アニメーション作成システム。   3. The human animation creation system according to claim 1, wherein the items selected in the menu are: a rotating joint and a rotating shaft, an operation start time, an operation time, an angle after movement of the joint, A human animation creation system which converts a numerical data set including nuances of motion and creates an animation based on the numerical data set. 請求項1、2又は3に記載の人物アニメーション作成システムにおいて、前記数値データセット間の補間に、前記ニュアンスごとに予め決められた補間法を用いることを特徴とする人物アニメーション作成システム。   4. The human animation creation system according to claim 1, wherein an interpolation method predetermined for each nuance is used for interpolation between the numerical data sets. 請求項1、2、3又は4に記載の人物アニメーション作成システムにおいて、前記メニューによる操作を反映するプレビュー画面を表示する手段をさらに具えることを特徴とする人物アニメーション作成システム。   5. The person animation creating system according to claim 1, further comprising means for displaying a preview screen reflecting the operation by the menu. 人物アニメーション作成システムのユーザインタフェースであって、アニメーションさせる人物キャラクタの動作を表す言葉から成るメニューを画面に表示させる手段と、前記メニューにおいて選択された項目を前記システムにおける人物アニメーション作成パラメータに変換する手段と、前記パラメータに基づいて前記システムにキャラクタのアニメーションを作成させる手段とを具えることを特徴とするユーザインタフェース。   A user interface of a person animation creation system, a means for displaying on a screen a menu composed of words representing a motion of a person character to be animated, and a means for converting an item selected in the menu into a person animation creation parameter in the system And a means for causing the system to create an animation of the character based on the parameters. 請求項6に記載のユーザインタフェースにおいて、前記パラメータが、回転する関節及び回転軸と、動作の開始時刻と、動作に掛ける時間と、関節の移動後の角度と、動作のニュアンスとを含むことを特徴とするユーザインタフェース。   The user interface according to claim 6, wherein the parameters include a rotating joint and a rotating shaft, an operation start time, an operation time, an angle after movement of the joint, and an nuance of the operation. Feature user interface. 請求項6又は7に記載のユーザインタフェースにおいて、前記メニューが、動作を与える対象部位と、動作方向と、動作させる時間と、動作の大きさと、動作のニュアンスとを含むことを特徴とするユーザインタフェース。   8. The user interface according to claim 6, wherein the menu includes a target part to which an action is given, an action direction, an operation time, an action magnitude, and an action nuance. . 請求項6、7又は8に記載のユーザインタフェースにおいて、前記メニューによる操作を反映するプレビュー画面を表示することを特徴とするユーザインタフェース。   9. The user interface according to claim 6, 7 or 8, wherein a preview screen reflecting an operation by the menu is displayed.
JP2004074595A 2004-03-16 2004-03-16 Person animation creation system and user interface therefor Pending JP2005266912A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2004074595A JP2005266912A (en) 2004-03-16 2004-03-16 Person animation creation system and user interface therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2004074595A JP2005266912A (en) 2004-03-16 2004-03-16 Person animation creation system and user interface therefor

Publications (1)

Publication Number Publication Date
JP2005266912A true JP2005266912A (en) 2005-09-29

Family

ID=35091436

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2004074595A Pending JP2005266912A (en) 2004-03-16 2004-03-16 Person animation creation system and user interface therefor

Country Status (1)

Country Link
JP (1) JP2005266912A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100414506C (en) * 2006-07-19 2008-08-27 中国科学院计算技术研究所 Virtual human movement simulation frame
US8674997B2 (en) 2011-02-16 2014-03-18 Janik Llc Systems and methods for resource planning using animation
WO2014042659A1 (en) * 2012-09-14 2014-03-20 Indelicato Enrico Iii Systems and methods for resource planning using animation
US9898850B2 (en) 2011-02-01 2018-02-20 BOND Co., Ltd. Support and complement device, support and complement method, and recording medium for specifying character motion or animation

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN100414506C (en) * 2006-07-19 2008-08-27 中国科学院计算技术研究所 Virtual human movement simulation frame
US9898850B2 (en) 2011-02-01 2018-02-20 BOND Co., Ltd. Support and complement device, support and complement method, and recording medium for specifying character motion or animation
US8674997B2 (en) 2011-02-16 2014-03-18 Janik Llc Systems and methods for resource planning using animation
WO2014042659A1 (en) * 2012-09-14 2014-03-20 Indelicato Enrico Iii Systems and methods for resource planning using animation

Similar Documents

Publication Publication Date Title
Rose III et al. Artist‐directed inverse‐kinematics using radial basis function interpolation
US7570264B2 (en) Rig baking
Ciccone et al. Tangent-space optimization for interactive animation control
JP6424050B2 (en) Articulated skeleton model processing apparatus and program
US7259764B2 (en) Defrobulated angles for character joint representation
US8237719B1 (en) Pose-structured animation interface
Feng et al. Automating the transfer of a generic set of behaviors onto a virtual character
US7057618B2 (en) Patch picking methods and apparatus
JP2005266912A (en) Person animation creation system and user interface therefor
JP2008015713A (en) Motion deformation system and method for it
US20230377268A1 (en) Method and apparatus for multiple dimension image creation
JP3212255B2 (en) Image synthesizing apparatus and image synthesizing method
KR100841925B1 (en) System andd method for making digital character motion
Fiorentino et al. Surface design in virtual reality as industrial application
Mullen INTRODUCING CHARACTER ANIMATION WITH BLENDER (With CD)
JP2008234005A (en) Component selection program, recording medium recording the program, component selection method and component selection device
Dickinson et al. Pen–tablet as a CAD interface alternative
Ismail et al. An overview on dynamic 3d character motion techniques in virtual environments
US8077183B1 (en) Stepmode animation visualization
Sharma et al. Exploring The Potential of VR Interfaces in Animation: A Comprehensive Review
JP4358752B2 (en) Statistical mechanical collision methods and equipment
Jernigan et al. Aesthetic affordances: Computer animation and Wayang Kulit puppet theatre
Pereira Information Systems and Computer Engineering
Adamo-Villani et al. A new method of hand gesture configuration and animation
Heloir et al. Towards an intuitive sign language animation authoring environment for the deaf

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20070301

A131 Notification of reasons for refusal

Effective date: 20090421

Free format text: JAPANESE INTERMEDIATE CODE: A131

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20090818