JP5464406B2 - Posture data input device - Google Patents
Posture data input device Download PDFInfo
- Publication number
- JP5464406B2 JP5464406B2 JP2009108270A JP2009108270A JP5464406B2 JP 5464406 B2 JP5464406 B2 JP 5464406B2 JP 2009108270 A JP2009108270 A JP 2009108270A JP 2009108270 A JP2009108270 A JP 2009108270A JP 5464406 B2 JP5464406 B2 JP 5464406B2
- Authority
- JP
- Japan
- Prior art keywords
- joint
- posture
- data
- user
- joints
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Manipulator (AREA)
Description
本発明は、人体や生体などの3次元モーションデータを入力するための技術に関する。 The present invention relates to a technique for inputting three-dimensional motion data such as a human body or a living body.
3次元コンピュータグラフィクスにおいて、人体の動作を表すモーションデータを生成する手法には、次のようなものがある。 In the three-dimensional computer graphics, there are the following methods for generating motion data representing the motion of the human body.
まず、マウスやキーボードなどの入力装置を用いてキーフレームの姿勢データを入力し、キーフレーム間の姿勢をInverse Kinematics(逆運動学)法などによって補間する手法がある。また、モーションキャプチャでは、人体にセンサーをつけて実際に動作を行い、それをカメラ撮影によって取り込む。さらに別の手法として、ロボット人形(多関節体)をインタフェースに使った手法がある。たとえば、ハンドパペット型のロボットを手に装着して動かすことでコンピュータの中で生成されたCGアバターを操作する研究が行われている。また、関節部にセンサーを有するロボット人形をインタフェースに用いる研究も行われている。操作者が人形の関節を動かすと、その姿勢がセンサーによって読み取られて入力として処理される(非特許文献1,2)。
First, there is a technique in which keyframe posture data is input using an input device such as a mouse or a keyboard, and the posture between keyframes is interpolated by an inverse kinematics method. In motion capture, a sensor is attached to the human body to actually perform the operation and capture it by camera shooting. As another method, there is a method using a robot doll (articulated body) as an interface. For example, research has been conducted on manipulating a CG avatar generated in a computer by attaching and moving a hand puppet robot. Research is also being conducted on the use of robot dolls having sensors at joints as interfaces. When the operator moves the joint of the doll, the posture is read by the sensor and processed as an input (
マウスやキーボードなどの2次元入力装置を用いて3次元の姿勢データを作成するのは煩雑で時間を要する。したがって、リアルタイムにモーションデータを生成することは困難である。 Creating three-dimensional posture data using a two-dimensional input device such as a mouse or a keyboard is complicated and requires time. Therefore, it is difficult to generate motion data in real time.
モーションキャプチャは、装置が大がかりになる点と、実際に人間が動作をしなければならない点で困難がある。たとえば、動作の一部を間違えた場合に、全ての動作を一から撮影し直さなければならない。モーションキャプチャはあらかじめ定められた動作を記録するには適していると言えるが、一部の動作を修正したりする目的には適していない。 Motion capture is difficult in that the device becomes large and humans must actually operate. For example, if a part of the operation is mistaken, all the operations must be re-captured from the beginning. Although motion capture is suitable for recording predetermined movements, it is not suitable for the purpose of correcting some movements.
人形型のインタフェース装置を用いる手法では、ユーザが3次元の人形を動かすことでモーションデータを入力できるため、直感的な操作が可能となる。また、実際に人間が身体を動かす必要がなく、また、装置も小規模ですむという利点もある。ただし、ハンドパペット型の装置では入力できる情報(姿勢)が限られてしまう。また、ロボット人形を用いる場合には、より自然な姿勢や動作を入力するためには全ての関節の角度を適切に設定する必要があり、この点で操作が困難である。 In the method using the doll-type interface device, since the user can input motion data by moving the three-dimensional doll, an intuitive operation is possible. In addition, there is an advantage that a human does not actually need to move the body and the apparatus is small. However, information (posture) that can be input is limited in a hand puppet type device. In addition, when using a robot doll, it is necessary to appropriately set the angles of all joints in order to input more natural postures and movements, which makes operation difficult in this respect.
本発明は上記のような従来技術の問題点を考慮してなされたものであって、その目的は、より自然な姿勢データを簡易に入力することのできる技術を提供することにある。 The present invention has been made in consideration of the above-described problems of the prior art, and an object of the present invention is to provide a technique capable of easily inputting more natural posture data.
本発明に係る姿勢データ入力装置は、ユーザが角度を変更可能な複数の関節部と、複数の関節部を駆動する制御手段と、ユーザ操作と制御手段による駆動が加えられた後の各関節部の角度データを姿勢データとして取得する取得手段と、を備える。 The posture data input device according to the present invention includes a plurality of joints that can be changed by a user, a control unit that drives the plurality of joints, and each joint unit that has been driven by a user operation and the control unit. Acquisition means for acquiring the angle data as posture data.
このように、ユーザが関節部を動かして姿勢データを入力する姿勢データ入力装置において、ユーザ操作とは別に関節部を駆動する制御手段を設けたことで、ユーザは全ての関節を操作する必要がなくなる。つまり、簡易な操作でより適切な姿勢データを入力することができる。 As described above, in the posture data input device in which the user moves the joint part and inputs the posture data, by providing the control means for driving the joint part separately from the user operation, the user needs to operate all the joints. Disappear. That is, more appropriate posture data can be input with a simple operation.
より具体的には、各関節部の可動範囲が格納された可動範囲記憶手段をさらに有し、制御手段は、各関節部が可動範囲内に収まるように制御することが好ましい。人間や動物の各関節部は、それぞれ動作可能な範囲が決まっており、通常はそれを越えて動かせない。関節部がこの可動範囲を超える角度になってしまうと、その姿勢は実際にはあり得ない不自然な姿勢となってしまう。自然な姿勢を再現するために、制御手段は可動範囲を超えて関節部が動かないように固定することが好ましい。これにより、自然な姿勢を入力することができる。 More specifically, it is preferable to further include a movable range storage unit in which the movable range of each joint portion is stored, and the control unit performs control so that each joint portion is within the movable range. Each of the joints of humans and animals has a range that can be moved, and usually cannot move beyond that range. If the joint part is at an angle exceeding this movable range, the posture becomes an unnatural posture that is not possible in practice. In order to reproduce a natural posture, the control means is preferably fixed so that the joint portion does not move beyond the movable range. As a result, a natural posture can be input.
また、複数の関節部の関係を格納する可動範囲記憶手段をさらに有し、制御手段は、一部の関節部が動かされたときに、他の関節部を可動範囲内に収まるように制御することも好ましい。人間や動物の関節においては、関節部の可動範囲はそれぞれ独立に決まるだけでなく、他の関節部の姿勢の影響も受ける。たとえば、人体においては膝関節を伸ばしたままでは股関節を上方に90度以上曲げるのは困難であり、それ以上曲げる場合には膝関節を曲げる必要がある。このように複数の関節部の可動範囲は互いに関連している。そこで、複数の関節部が可動範囲内に収まるように制御手段が制御を行うことで、ユーザは一部の関節部を動かすだけでも全体的に自然な姿勢が得られることになる。 Moreover, it has a movable range memory | storage means which stores the relationship of several joint parts, and a control means controls so that another joint part may be settled in a movable range, when some joint parts are moved. It is also preferable. In human and animal joints, the movable range of the joint is not only determined independently, but also affected by the posture of other joints. For example, in the human body, it is difficult to bend the hip joint upward by 90 degrees or more when the knee joint is stretched, and it is necessary to bend the knee joint when bending further. As described above, the movable ranges of the plurality of joint portions are related to each other. Therefore, when the control unit performs control so that the plurality of joint portions are within the movable range, the user can obtain a natural posture as a whole only by moving some of the joint portions.
また、姿勢データを記憶する姿勢データ記憶手段をさらに有し、制御手段は、一部の関節部がユーザによって動かされたときに、この関節部の姿勢と一致する姿勢データを姿勢データ記憶手段から抽出し、動かされた関節以外の関節部を抽出された姿勢データに応じて制御することも好ましい。このようにすれば、ユーザは一部の関節部を操作するだけで、自然な全体姿勢を得ることができる。また、この処理を連続的に行うことで、自然な動作の動作データ(時系列的な姿勢データ)を、一部の関節部を操作するだけで得ることができる。 Further, the apparatus further includes posture data storage means for storing posture data, and the control means receives posture data that matches the posture of the joint portion from the posture data storage means when some of the joint portions are moved by the user. It is also preferable to extract and control joints other than the moved joint according to the extracted posture data. In this way, the user can obtain a natural overall posture only by operating some joints. In addition, by performing this process continuously, motion data of natural motion (time-series posture data) can be obtained simply by operating some joints.
また、動作データを記憶する動作データ記憶手段をさらに有し、制御手段は、動作データに基づいて各関節部を駆動するとともに、動作データの再生中にユーザ操作による関節部の姿勢変化を許容し、変化された姿勢と記憶されている動作データに基づいて各関節部を駆動することも好ましい。関節部は制御手段によって駆動できるので、本発明に係る姿勢データ入力装置は既存の動作データを再生するための出力装置として利用可能である。このとき、再生中の動作において一部の関節の姿勢を変化させることで、部分的に姿勢が変化された動作が再生される。たとえば、肘関節を伸ばしたまま腕(肩関節)を揺らす動作を再生しているときに、肘関節を曲げると肘を曲げて腕を揺らす動作を得ることができる。つまり、このような構成によれば既存の動作データを容易に修正(編集)可能となる。 Further, the apparatus further includes operation data storage means for storing operation data, and the control means drives each joint portion based on the operation data and allows the posture change of the joint portion by a user operation during the reproduction of the operation data. It is also preferable to drive each joint based on the changed posture and the stored motion data. Since the joint portion can be driven by the control means, the posture data input device according to the present invention can be used as an output device for reproducing existing motion data. At this time, by changing the postures of some of the joints during the operation being reproduced, an operation with a partially changed posture is reproduced. For example, when the motion of swinging the arm (shoulder joint) is reproduced while the elbow joint is extended, when the elbow joint is bent, the motion of bending the elbow and swinging the arm can be obtained. That is, according to such a configuration, existing operation data can be easily corrected (edited).
本発明によれば、簡易な操作で自然な姿勢データを得ることが可能となる。 According to the present invention, it is possible to obtain natural posture data with a simple operation.
(第1の実施形態)
本実施形態に係る姿勢データ入力装置は、人間の形状を模擬したロボット人形1を利用する。図1A,Bに、このロボット人形1の概要を示す。図1Aは、ロボット人形1の外観を示す。ロボット人形1は、胴体部、頭部、左右の腕部、左右の脚部が設けられている。図1Bに示すように、このロボット人形1は、頭部が3自由度、胴体部が2自由度、腕部がそれぞれ6自由度(肩関節:3自由度、肘関節:1自由度、手根関節:2自由度)、脚部がそれぞれ6自由度(股関節:3自由度、膝関節:1自由度、足関節:2自由度)の合計29自由度の多関節体として構成されている。ロボット人形1の各関節部には、関節を駆動するため、および、関節の状態を取得するために、サーボモータが用いられている。なお、このロボット人形1はユーザが手に持って各関節部を操作するため、その目的にかなった大きさ・重さで作成することが好ましい。たとえば、全長40cm程度、幅20cm程度、重さ1kg程度、あるいはそれより小型に設計すると取り扱いが簡単となる。ただし、ロボット人形の関節の数やその自由度、寸法、重量などは用途に応じて適宜設計すれば良く、上記の説明は本発明を限定するものではない。
(First embodiment)
The posture data input apparatus according to the present embodiment uses a
図2は、本実施形態に係る姿勢データ入力装置の機能ブロックを示す図である。ロボット人形1はPC2に接続されている。PC2は、ロボット人形1の各関節部を構成するサーボモータ11のパラメータを取得するとともに、サーボモータ11の設定値を指定するフィードバック制御を行う。PC2がロボット人形1から取得した各関節部の角度データは、ロボット人形1を利用した姿勢データの入力値として、3次元可視化システム(プログラム)3に送られる。たとえば、3次元可視化システム3では、入力された姿勢データに基づいてCGアバターを表示したりする。また、CGアバターが3次元仮想空間内で移動したときに仮想物体と接触した場合に、力覚刺激を与えるためにPC2を介してロボット人形1にフィードバック制御を行う。
FIG. 2 is a diagram showing functional blocks of the attitude data input device according to the present embodiment. The
PC2は、ロボット人形1から各サーボモータの位置(角度)や加速度などを取得するパラメータ取得部21、各サーボモータの設定値を変更する設定値制御部22、各サーボモータの可動範囲を記憶する可動範囲記憶部23を備える。通信規格として任意のものを採用可能であるが、ここではロボット人形1内の各関節部を構成するサーボモータはRS485規格のシリアルバスに接続され、RS485/USB変換器を介してPC2と接続される。PC2はUSBポートからコマンドを送信してサーボを制御可能である。なお図示は省略しているが、PC2はさらに、ディスプレイやスピーカーなどの出力装置や、マウスやキーボードなどの入力装置などを有し、ユーザに情報を提示した入り、ユーザから指示入力を受け付けたりする。PC2内の各機能部はユーザからの指示入力によって、機能の有効無効を切り替えたり、動作設定を変更可能である。
The
サーボモータ11は、サーボ電機子11bが設定値制御部22から指定された設定値を取るようにマイクロコントローラ11aによってフィードバック制御される。このように
、サーボモータ11はハードウェアとソフトウェアの二重のフィードバック制御を受ける。ここでは、これら2つの制御系は以下のように最小限のインタラクションを有する。まず、関節部(サーボモータ)の角度が設定値から閾値を越えて変化した場合には、設定値制御部22が変化後の値を新たな設定値として設定する。また、関節部の角速度が所定値以上となった場合にはトルク抵抗を解放し、また角速度が所定値未満となった場合にトルク抵抗を回復させる。これらの機構により、関節部の大きな角度変化にも小さな角度変化にも対応可能となる。
The servo motor 11 is feedback-controlled by the
このように、ロボット人形1の各関節部をユーザが操作することで、PC2から3次元仮想化システム3に姿勢データを入力することができる。ここで、人間が自然に取ることのできる姿勢は人体の構造上限られている。自然な姿勢となるようにユーザが全ての関節部を制御することは煩雑であるため、本実施形態における姿勢データ入力装置では、PC2からのフィードバック制御によって自然な姿勢となるように各関節部を制御する。
As described above, the user can input posture data from the
・自然な姿勢を実現するための構成1
このような制御を実現するために、可動範囲記憶部23に各関節部のサーボモータが取りうる角度の範囲(可動範囲)が情報として記憶される。図3は、可動範囲記憶部23に記憶されるテーブルの例を示す図である。パラメータ設定部22は、サーボモータの設定値がこの可動範囲内に収まるように制御する。具体的には、各関節が可動範囲の限界に近くなるとトルク抵抗を大きくすることでそれ以上の関節の姿勢変化を抑制し、各関節部をテーブルに格納された可動範囲内に収めることができる。また、たとえば、関節が可動範囲の限界に近くになるにつれて、音(音声)や光などでユーザに対して報知することも好ましい。
・
In order to realize such control, the movable
このようにフィードバック制御を用いることで、各関節部が自然な姿勢を取るように制御することが可能となる。したがって、3次元可視化システム3に対して自然な姿勢を入力することができ、この際ユーザに対してそれほど負担を掛けることもない。
By using feedback control in this way, it is possible to control each joint so that it takes a natural posture. Therefore, it is possible to input a natural posture to the three-
なお、各関節部の可動範囲制御は、関節部の機械的構成を工夫することでも実現できるが、本実施形態のようにフィードバック制御を用いる実現手法には次のような利点がある。つまり、可動範囲は可動範囲記憶部23に記憶されているテーブルによって決定されるので、このテーブルを書き換えることで異なる特性を持つ人体モデルの姿勢データを得ることができる。可動範囲記憶部23に複数の人体モデルに対応する各関節部の可動範囲を複数格納しておき、設定値制御部22は指定された人体モデルに対応する可動範囲内に収まるように各関節部を制御することも好ましい。
In addition, although the movable range control of each joint part is realizable also by devising the mechanical structure of a joint part, there exists the following advantages in the realization method using feedback control like this embodiment. That is, since the movable range is determined by the table stored in the movable
・自然な姿勢を実現するための構成2
人体の関節は連動して動作するものであり、個々の関節は完全に独立して動作できるものではない。たとえば、股関節を曲げて脚部を持ち上げると、膝関節が曲がり始める。つまり、股関節の角度によって、膝関節が取りうる角度が制限されて完全に真っ直ぐにできなくなる。このような関係は、膝関節と股関節の間でだけ成り立つものではなく、その他の関節の間でも成り立つ。
・
The joints of the human body operate in conjunction with each other, and the individual joints cannot operate completely independently. For example, when the leg is lifted by bending the hip joint, the knee joint begins to bend. In other words, the angle that can be taken by the knee joint is limited by the angle of the hip joint, and cannot be completely straightened. Such a relationship does not hold only between the knee joint and the hip joint, but also holds between other joints.
このような制御を実現するために、可動範囲記憶部23に、複数の関節部が取りうる可動範囲の関係を記憶する。図4Aは、膝関節と股関節の取りうる角度の関係を示す図である。図の横軸は膝関節の角度を示し、縦軸は股関節の角度を示す。点線で示される範囲41は、それぞれの関節部に独立に可動範囲が設定された場合の、両関節が取りうる範囲を示す。これに対して、太線で示される範囲42は膝関節と股関節の取りうる角度の関係を示している。図に示すように、膝関節が伸びた状態では、股関節の取りうる角度の上限が小さく設定される。
In order to realize such control, the movable
設定値制御部22は、各関節部が可動範囲記憶部23に格納されている可動範囲の中に収まるように各関節部をフィードバック制御する。具体的には、たとえば、膝関節を伸ばしたまま股関節を曲げる動きをユーザが行った場合を考える。股関節の角度が小さい間(矢印44a)は、図4Bに示すように、ユーザの操作により股関節が曲がるだけであり、膝関節は伸びたままである。股関節の角度を大きくしていくと、そのままでは、図4Aに示される可動範囲から外れる動きとなる(矢印43)。この場合は、設定値制御部22は膝関節を屈曲させるようにサーボモータの設定値を変更する。これにより、膝関節と股関節の動きは、図4Aの矢印44aに示す動きとなり、図4Cに示すように股関節を持ち上げるにしたがって膝関節が曲がるという自然な姿勢が実現される。
The set
このように、複数の関節が適切な関係を保った自然な姿勢データの入力が可能となる。この際、ユーザは全ての関節を意識的に正しい角度に調整しなくても、PC2がフィードバック制御によって各関節部の角度を調整するため、ユーザの負担が少なくて済む。
In this way, it is possible to input natural posture data in which a plurality of joints maintain an appropriate relationship. At this time, even if the user does not consciously adjust all the joints to the correct angles, the
なお、ここでは2関節の関係を規定する場合を例に説明したが、3つ以上の関節(サーボモータ)の角度関係を規定する場合も、同様に実現できることは明らかであろう。 Here, the case where the relationship between the two joints is defined has been described as an example, but it is obvious that the same can be realized when the angular relationship between three or more joints (servo motors) is defined.
この制御もフィードバック制御によって実現しているため、可動範囲情報を変更することで、異なる人体モデルの姿勢を実現できるという利点がある。 Since this control is also realized by feedback control, there is an advantage that different postures of the human body model can be realized by changing the movable range information.
(第2の実施形態)
第2の実施形態では、ロボット人形の一部の関節を操作するだけで適切な全身の姿勢を入力可能とする。図5は、本実施形態に係る姿勢データ入力装置の機能ブロックを示す図である。ロボット人形1は第1の実施形態と同様の構成を有する。PC2は、パラメータ取得部21、設定値制御部22、可動範囲記憶部23に加えて、姿勢データ抽出部24と姿勢データ記憶部25を備える。
(Second Embodiment)
In the second embodiment, an appropriate whole body posture can be input simply by operating some joints of the robot doll. FIG. 5 is a diagram showing functional blocks of the attitude data input device according to the present embodiment. The
姿勢データ記憶部25には、ロボット人形1の全ての関節部の角度情報からなる姿勢データが複数記憶される。なお、時間的に連続する姿勢データを、動作データ(モーションデータ)として記憶しても良い。姿勢データ抽出部24は、パラメータ取得部21から得られるロボット人形1の一部の関節部の角度情報と一致する姿勢データを姿勢データ記憶部25から抽出する。設定値制御部22は、姿勢データ抽出部24によって抽出された姿勢データ(各関節部の角度)をロボット人形1に対して設定する。このようなフィードバック機構により、ユーザはロボット人形1の一部の関節部を操作するだけで、ロボット人形1の全ての関節部が適切な姿勢となる。そして、ロボット人形1の各関節部の状態はパラメータ取得部21によって取得され、ロボット人形1からの入力として3次元可視化システム3に入力される。つまり、ユーザがロボット人形1の一部の関節部を操作するだけで、適切な全身の姿勢データを入力することができる。特に、ユーザは姿勢を決定する上で重要な関節部分のみの操作を行うだけで全身の姿勢データを入力できるため、ユーザの負担が軽減される。
The posture
本実施形態における姿勢データの入力方法を図6のフローチャートを参照しつつ説明する。まず、ユーザが、これから入力する動作の種類を入力(指定)する(ステップS21)。姿勢データ記憶部25には複数種類の動作データが記憶されており、姿勢データ抽出部24は、ユーザによって操作された一部の関節と一致する姿勢データを抽出する機能を有する。ここで、一致する姿勢の抽出は既知のアルゴリズムを用いて行えるが、処理の高速化および高精度化のために、抽出の対象とする動作データを絞り込んでおくことが好ましい。そのため、ユーザにこれから入力する動作を指定させる。この指定は、具体的な動作データを指定するものであっても良いが、いくつかの動作データのグループを指定する
ようなものであっても構わない。
A method of inputting posture data in the present embodiment will be described with reference to the flowchart of FIG. First, the user inputs (specifies) the type of operation to be input (step S21). The posture
上記の指定が行われた後、ユーザはロボット人形1の一部の関節部を操作する(ステップS22)。ここで操作する関節部は、入力する動作を規定する上で重要な部位を入力することが好ましい。たとえば、ボールを右脚で蹴る動作では、右脚の姿勢が全体の姿勢を決定するための重要な要素となるため、この部分をユーザが操作することが好ましい。ユーザが一部の関節部を動かすと、姿勢データ抽出部24は動かされた関節部の姿勢に対応する姿勢データを姿勢データ記憶部25から抽出し(ステップS23)、抽出された姿勢を取るようにフィードバック制御する(ステップS24)。これによりロボット人形1の全身をユーザによって動かされた関節部に対応する自然な姿勢とすることができる。なお、この処理を時間的に継続して行えば(すなわちステップS22からS24をループ処理すれば)、自然な姿勢の動作データを簡易に入力することができる。上記のボールを蹴る動作の例では、ユーザは右脚部だけを動かしてボールを蹴る動作をロボット人形1にさせると、各時点における右脚部の姿勢に対応する全身の姿勢が再現される。これにより、ボールを蹴る動作における全身の関節部の角度データをパラメータ取得部21が取得し、3次元可視化システム3に入力することができる。
After the above designation is made, the user operates some joints of the robot doll 1 (step S22). It is preferable that the joint part operated here inputs an important part in defining the input operation. For example, in the action of kicking the ball with the right leg, since the posture of the right leg is an important element for determining the overall posture, it is preferable that the user operates this portion. When the user moves some joints, the posture
(第3の実施形態)
第3の実施形態では、ロボット人形を用いて既存の動作データの編集(変更)を可能とする。図7は、本実施形態に係る姿勢データ入力装置の機能ブロックを示す図である。本実施形態における構成は、基本的に第1の実施形態と同様である。
(Third embodiment)
In the third embodiment, it is possible to edit (change) existing motion data using a robot doll. FIG. 7 is a diagram showing functional blocks of the attitude data input device according to the present embodiment. The configuration in this embodiment is basically the same as that in the first embodiment.
ロボット人形1の関節部はPC2から制御可能であるため、ロボット人形1を入力手段だけでなく出力手段として利用することができる。つまり、動作データ記憶部31などに記憶されている動作データをPC2の設定値制御部22が受け取り、各関節部の角度情報をロボット人形1に設定することで、動作データにしたがってロボット人形1を動かすことができる。ユーザはロボット人形1の動きを実際に見て確認することができる。
Since the joint part of the
ここで、再生中の動作データの一部を変更する手法を図8のフローチャートを参照しつつ説明する。まず、設定値制御部22が編集の対象となる動作データを読み込んで、それにしたがってロボット人形1の各関節部を駆動することで、ロボット人形1上で動作データを再生する(ステップS31)。ユーザは、姿勢を変更したい時点で、編集処理を開始することを入力する(ステップS32)。この時点で、動作データの再生処理は一時停止されて、ロボット人形1の各関節部の角度は維持される。ただし、第1の実施形態で説明したように、関節部の角度が現在の値から閾値を越えて変化した場合には変化後の姿勢を関節部の設定値とするため、この状態でユーザは関節部を手で動かして姿勢変化させることができる。そこで、ユーザは変更したい関節部を手で操作して所望の姿勢に変更させる(ステップS33)。姿勢の変更が完了したら、ユーザは編集処理を終了することを入力する(ステップS34)。設定値制御部22は、ユーザによって加えられた各関節部の姿勢変化の操作量、すなわち編集処理前後での姿勢データの差分を取得する(ステップS35)。そして、これ以降に動作データを再生するときには、読み込まれた動作データとユーザによる姿勢変化とを足し合わせて得られる姿勢を、ロボット人形上で再生する(ステップS35)。たとえば、動作データ記憶部31に格納されている動作が、肘を伸ばした状態で腕を前後に動かす動作であり、ユーザが加えた姿勢変化が肘を曲げる操作である場合には、肘を曲げた状態で腕を前後に動かす動作がロボット人形1上で再生されることになる。ロボット人形1の姿勢データはパラメータ取得部21によって取得されて、3次元可視化システム3に入力される。そして3次元可視化システム3は、取得された姿勢データにしたがってCGキャラクターを表示するとともに、得られた姿勢データを記憶部に記憶する。
Here, a method of changing a part of the operation data being reproduced will be described with reference to the flowchart of FIG. First, the set
このようにして、ユーザは既存の動作データをロボット人形1を利用して編集することができる。この編集作業は、ユーザが関節部を動かすだけで可能であるため、直感的で簡単である。人形が実際に動くのを見ながら編集できるので、ユーザが望む動作データをより簡単に得ることができる。
In this way, the user can edit the existing motion data using the
(その他)
上記の説明におけるロボット人形の関節の数や自由度はあくまでも例示であり、適宜変更することができる。また、ここでは人体を模した人形を例に説明したが、人間以外の動物や多関節体などの姿勢データを入力するために利用できることは明らかである。
(Other)
The number of joints and the degree of freedom of the robot doll in the above description are merely examples, and can be changed as appropriate. Further, although a doll imitating a human body has been described here as an example, it is obvious that it can be used to input posture data of animals other than human beings and articulated bodies.
また、上記の説明では各関節部にフィードバック制御を行うPC2をロボット人形1の外部に設けているが、フィードバック制御を行うためのプロセッサをロボット人形1内部に設けても良い。また、PC2と3次元仮想化システムを一つのコンピュータで実現する構成としても構わない。
In the above description, the
上記の第1から第3の実施形態の構成は、組み合わせて利用できることは明らかであろう。また、本発明は上記の実施形態に例示した構成に限られるものではなく、その趣旨を逸脱しない範囲内で変更可能であることは言うまでもない。たとえば、PC2によって取得された姿勢データはどのように利用されても構わず、CGキャラクターを画面上で表示するために用いられたり、そのまま記憶部に格納されたりするだけでなく、さらに別の処理の対象となっても構わない。
It will be apparent that the configurations of the first to third embodiments described above can be used in combination. Further, the present invention is not limited to the configuration exemplified in the above-described embodiment, and it is needless to say that the present invention can be changed without departing from the gist thereof. For example, the posture data acquired by the
1 ロボット人形
2 PC
21 パラメータ取得部
22 設定値制御部
23 可動範囲記憶部
24 姿勢データ抽出部
25 姿勢データ記憶部
3 3次元可視化システム
1
21
Claims (4)
ユーザが角度を変更可能な複数の関節部と、
前記複数の関節部を駆動する制御手段と、
ユーザ操作と前記制御手段による駆動が加えられた後の各関節部の角度データを姿勢データとして取得する取得手段と、
を備え、
各関節部の可動範囲が格納された可動範囲記憶手段をさらに有しており、
前記制御手段は、ユーザによる関節部の操作に抗するトルク抵抗を発生させることによって、前記関節部が可動範囲に収まるように制御し、
前記可動範囲記憶手段は、複数の関節部が取り得る角度の関係を表す可動範囲の関係を格納しており、
前記制御手段は、ユーザによって一部の関節部が動かされたときに、他の関節部を可動範囲内に収まるように制御する
ことを特徴とする姿勢データ入力装置。 A posture data input device in which posture data is input by a user directly moving a joint part,
A plurality of joints by which the user can change the angle;
Control means for driving the plurality of joints;
Acquisition means for acquiring angle data of each joint part after user operation and driving by the control means are applied;
With
It further has a movable range storage means in which the movable range of each joint is stored,
The control means controls the joint part to be within a movable range by generating a torque resistance that resists the operation of the joint part by a user .
The movable range storage means stores a relationship of movable ranges representing a relationship of angles that can be taken by a plurality of joint portions,
The posture data input device characterized in that the control means performs control so that other joint portions are within a movable range when some joint portions are moved by a user .
ユーザが角度を変更可能な複数の関節部と、
前記複数の関節部を駆動する制御手段と、
ユーザ操作と前記制御手段による駆動が加えられた後の各関節部の角度データを姿勢データとして取得する取得手段と、
を備え、
姿勢データを記憶する姿勢データ記憶手段をさらに有し、
前記制御手段は、ユーザによって一部の関節部が動かされたときに、当該関節部の姿勢と一致する姿勢データを前記姿勢データ記憶手段から抽出し、その他の関節部を抽出された姿勢データに応じて制御する
ことを特徴とする姿勢データ入力装置。 A posture data input device in which posture data is input by a user directly moving a joint part,
A plurality of joints by which the user can change the angle;
Control means for driving the plurality of joints;
Acquisition means for acquiring angle data of each joint part after user operation and driving by the control means are applied;
With
It further has posture data storage means for storing posture data,
When a part of the joint is moved by the user, the control unit extracts posture data that matches the posture of the joint from the posture data storage unit, and extracts the other joints to the extracted posture data. An attitude data input device characterized by being controlled accordingly.
ユーザが角度を変更可能な複数の関節部と、
前記複数の関節部を駆動する制御手段と、
ユーザ操作と前記制御手段による駆動が加えられた後の各関節部の角度データを姿勢データとして取得する取得手段と、
を備え、
連続する姿勢データである動作データを記憶する動作データ記憶手段をさらに有し、
前記制御手段は、前記動作データに基づいて各関節部を駆動するとともに、該動作データの再生中にユーザ操作による関節部の姿勢変化を許容し、変化された姿勢と記憶されている動作データに基づいて各関節部を駆動する
ことを特徴とする姿勢データ入力装置。 A posture data input device in which posture data is input by a user directly moving a joint part,
A plurality of joints by which the user can change the angle;
Control means for driving the plurality of joints;
Acquisition means for acquiring angle data of each joint part after user operation and driving by the control means are applied;
With
It further has operation data storage means for storing operation data that is continuous posture data,
The control means drives each joint portion based on the motion data, and allows the posture change of the joint portion by a user operation during reproduction of the motion data, and changes the posture and the stored motion data. An attitude data input device characterized in that each joint portion is driven based thereon.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009108270A JP5464406B2 (en) | 2009-04-27 | 2009-04-27 | Posture data input device |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2009108270A JP5464406B2 (en) | 2009-04-27 | 2009-04-27 | Posture data input device |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2010253640A JP2010253640A (en) | 2010-11-11 |
JP5464406B2 true JP5464406B2 (en) | 2014-04-09 |
Family
ID=43315157
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2009108270A Active JP5464406B2 (en) | 2009-04-27 | 2009-04-27 | Posture data input device |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP5464406B2 (en) |
Families Citing this family (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP6671928B2 (en) * | 2015-11-05 | 2020-03-25 | 富士ソフト株式会社 | Robot motion control data generation system and motion control data generation method |
WO2017187794A1 (en) * | 2016-04-26 | 2017-11-02 | シャープ株式会社 | Robot, method for controlling robot, control program, and recording medium |
Family Cites Families (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2665001B2 (en) * | 1989-09-01 | 1997-10-22 | 三菱重工業株式会社 | Teaching playback robot |
JP4055090B2 (en) * | 1997-07-08 | 2008-03-05 | 株式会社安川電機 | Robot control device |
JP2001341092A (en) * | 2000-06-02 | 2001-12-11 | Sharp Corp | Articulated robot and position teaching method for articulated robot |
JP3731118B2 (en) * | 2002-02-18 | 2006-01-05 | 独立行政法人科学技術振興機構 | Biped walking humanoid robot |
JP4525325B2 (en) * | 2004-12-08 | 2010-08-18 | トヨタ自動車株式会社 | Motion control method for super redundant robot |
JP2008254074A (en) * | 2007-03-30 | 2008-10-23 | Sega Corp | Motion editing device, and its program |
-
2009
- 2009-04-27 JP JP2009108270A patent/JP5464406B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2010253640A (en) | 2010-11-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6227683B2 (en) | A way to develop and control a robot to get a movement that matches an animated character. | |
Yamane et al. | Animating non-humanoid characters with human motion data | |
US20110128292A1 (en) | Dynamics-based motion generation apparatus and method | |
CN102822869B (en) | Capture view and the motion of the performer performed in the scene for generating | |
WO2012111622A1 (en) | Movement modeling device, method, and program | |
Shapiro et al. | Interactive motion correction and object manipulation | |
US6628286B1 (en) | Method and apparatus for inserting external transformations into computer animations | |
Yamane | 10 controlling a marionette with human motion capture data | |
JP7035309B2 (en) | Master-slave system | |
WO2022134702A1 (en) | Action learning method and apparatus, storage medium, and electronic device | |
CN112184863B (en) | Animation data processing method and device | |
Shiratori et al. | Expressing animated performances through puppeteering | |
JP5464406B2 (en) | Posture data input device | |
CN110039546A (en) | For controlling the method and robot of robot motion | |
Balit et al. | PEAR: Prototyping Expressive Animated Robots-A framework for social robot prototyping | |
JP3837479B2 (en) | Motion signal generation method, apparatus and motion signal generation program for operating body | |
JPWO2022180801A5 (en) | ||
Muis et al. | Realistic human motion preservation-imitation development on robot with kinect | |
Jeong et al. | Effective humanoid motion generation based on programming-by-demonstration method for entertainment robotics | |
Lee et al. | Study on Performance Motion Generation of Humanoid Robot | |
KR20240057416A (en) | Methods, related systems, and related devices for controlling at least one characteristic of a controllable object | |
Balit et al. | PEAR: Prototyping Expressive Animated Robots | |
TWI301940B (en) | ||
Nebel | Keyframe animation of articulated figures using autocollision-free interpolation | |
Tsai et al. | Construction of a general motion editing system for human body and humanoid robots |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101104 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20101116 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20101129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20101129 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20110131 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20111128 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20120508 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20120626 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20121218 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130214 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20130702 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20130829 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20131210 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20131218 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20140108 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 5464406 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
S533 | Written request for registration of change of name |
Free format text: JAPANESE INTERMEDIATE CODE: R313533 |
|
R350 | Written notification of registration of transfer |
Free format text: JAPANESE INTERMEDIATE CODE: R350 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |