JP2000231638A - Method and device for motion capture - Google Patents

Method and device for motion capture

Info

Publication number
JP2000231638A
JP2000231638A JP11033470A JP3347099A JP2000231638A JP 2000231638 A JP2000231638 A JP 2000231638A JP 11033470 A JP11033470 A JP 11033470A JP 3347099 A JP3347099 A JP 3347099A JP 2000231638 A JP2000231638 A JP 2000231638A
Authority
JP
Japan
Prior art keywords
camera
human body
motion
motion capture
cameras
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP11033470A
Other languages
Japanese (ja)
Inventor
Koutarou Satou
皇太郎 佐藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Namco Ltd
Original Assignee
Namco Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Namco Ltd filed Critical Namco Ltd
Priority to JP11033470A priority Critical patent/JP2000231638A/en
Publication of JP2000231638A publication Critical patent/JP2000231638A/en
Pending legal-status Critical Current

Links

Abstract

PROBLEM TO BE SOLVED: To provide the motion capture method which can accurately capture motion data on respective parts of a human body without any blind spot. SOLUTION: Very small-sized cameras are fitted to desired parts of a human body to be motion-captured and images viewed from there are recorded. The positions of the cameras are calculated from the recorded images to capture the motion of the fitted parts of the human body as motion data. Two ways A and B of recording the images from the cameras are considered. In the way A, the images from the respective cameras 31 are transferred to an image recording device 35 equipped with a battery through a connection cable 33 and recorded. In the way B, each camera is equipped with a battery and a memory inside and the images picked up by the cameras are recorded in the memories built in the respective cameras. Then the positions and directions of the cameras are calculated from the recorded image to obtain motion data on the human fitted with the cameras.

Description

【発明の詳細な説明】DETAILED DESCRIPTION OF THE INVENTION

【0001】[0001]

【発明の属する技術分野】本発明は、人間の動作等をモ
ーション・データとして取り込むためのモーション・キ
ャプチャに関する。
[0001] 1. Field of the Invention [0002] The present invention relates to a motion capture for capturing a human motion or the like as motion data.

【0002】[0002]

【発明の背景】三次元コンピュータ・グラフィクスによ
るキャラクタ・アニメーションを製作する際に、キャラ
クタが行う動作を人間が実際に動作し、その動作をモー
ション・データとして取り込むために、モーション・キ
ャプチャ技術が用いられている。
BACKGROUND OF THE INVENTION In producing a character animation by three-dimensional computer graphics, a motion is used by a human to actually perform a motion performed by a character and to capture the motion as motion data. ing.

【0003】モーション・キャプチャには、光学式、磁
気式、機械式などの種類がある。図1を用いて光学式モ
ーション・キャプチャについて説明する。図1におい
て、人間32および34の体の動きを捉えるべき個所に
マーカーを取りつけてある。そのマーカーを複数設置し
てあるビデオカメラ12,14で撮影する。このビデオ
カメラ12,14で撮影した画像から、マーカの空間内
の位置を計算して、マーカーを付した人体各部の動きを
モーション・データとして取りこんでいる。このような
モーション・キャプチャ装置では、人間の体に付けたマ
ーカーが体の別の部分や他の人間に遮られて、ビデオカ
メラで撮影ができないと、補間作業が必要であった。そ
の作業は専用ソフトウェアや手作業で行っているが、そ
の取りこみ精度が落ちてしまっていた。
There are various types of motion capture, such as optical, magnetic, and mechanical. The optical motion capture will be described with reference to FIG. In FIG. 1, a marker is attached at a position where the body movement of the humans 32 and 34 is to be captured. Images are taken with video cameras 12 and 14 provided with a plurality of such markers. The position of the marker in the space is calculated from the images captured by the video cameras 12 and 14, and the motion of each part of the human body with the marker is captured as motion data. In such a motion capture device, if a marker attached to a human body is blocked by another part of the body or another person and cannot be photographed by a video camera, an interpolation operation is required. The work was done by dedicated software or by hand, but the accuracy of the import was reduced.

【0004】このような状況になるのを避けるために、
より多くの台数のビデオカメラを同時に使用する方法も
考えられる。しかし、図2(上から見た図)に示すよう
に、4台のビデオカメラ12,14,16,18でも、
向かい合った人間A32,人間B34の胸に付したマー
カーは、撮影することができない。このように、マーカ
ーをビデオカメラで撮影することでモーション・データ
を作成する場合、マーカーがビデオカメラの死角に入る
ために、正確なモーション・データの収集ができないこ
とがあった。
In order to avoid such a situation,
A method of using a larger number of video cameras simultaneously is also conceivable. However, as shown in FIG. 2 (view from above), even with four video cameras 12, 14, 16, and 18,
The markers attached to the chests of the facing humans A32 and B34 cannot be photographed. As described above, when motion data is created by photographing a marker with a video camera, accurate motion data cannot be collected because the marker enters a blind spot of the video camera.

【0005】[0005]

【発明が解決しようとする課題】本発明の目的は、本質
的に死角がなく、人体の各部のモーション・データを正
確に取り込むことができるモーション・キャプチャ技術
を提供することである。
SUMMARY OF THE INVENTION It is an object of the present invention to provide a motion capture technique capable of accurately capturing motion data of various parts of a human body without essentially having a blind spot.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、人体の各部の動きのデータを検出するモ
ーション・キャプチャ方法において、 動きの検出対象
である人体の各部にカメラを装着し、 前記カメラが写
す背景の壁面には、位置が予め定めてある図形が描かれ
ており、前記カメラが撮影した画像から、カメラを装着
した前記人体各部の動きを求めることを特徴とする。上
述のように、人体側=マーカー、外部=カメラという従
来のモーション・キャプチャ技術の形態を、本発明で
は、人体側=カメラ、外部=マーカーとしている。これ
により、死角がないモーション・キャプチャ技術が得ら
れる。
In order to achieve the above object, the present invention relates to a motion capture method for detecting motion data of each part of a human body, wherein a camera is mounted on each part of the human body to be detected for motion. A figure whose position is predetermined is drawn on a background wall surface captured by the camera, and a motion of each part of the human body wearing the camera is obtained from an image captured by the camera. As described above, in the present invention, the form of the conventional motion capture technology in which the human body side = marker and the external part = camera is set to the human body side = the camera and the external part = the marker. As a result, a motion capture technique having no blind spot is obtained.

【0007】前記方法では、前記カメラが撮影した画像
から、カメラを装着した前記人体各部の動きを求めるた
めに、カメラによる視点座標系からワールド座標系に変
換する過程を含むこともある。前記壁面の図形は、描か
れる壁面毎に異なるようにすることで、画像からの位置
および方向の特定を容易にする。前記壁面の図形は、壁
面に対して凹凸がある図形とすることで、少なくとも位
置の特定をより精密に行うことができる。
The method may include a step of converting a viewpoint coordinate system of the camera into a world coordinate system in order to obtain a motion of each part of the human body wearing the camera from an image captured by the camera. By making the figure of the wall surface different for each drawn wall surface, it is easy to specify the position and the direction from the image. By making the figure of the wall surface a figure having irregularities with respect to the wall surface, at least the position can be specified more precisely.

【0008】また、人体の各部に装着し、装着された人
体各部の動きを周囲の画像により記録するための複数の
カメラと、前記複数カメラが撮像したそれぞれの画像デ
ータを記憶する記憶部とを有することを特徴とするモー
ション・キャプチャ装置も本発明である。前記カメラ
は、広角レンズを用いることで、背景の壁面を広く記憶
することができる。前記記憶部は、前記人体に装着した
各カメラに内蔵されている場合と、人体に装着した各カ
メラと接続されている映像記憶装置に内蔵されている場
合とがある。また、前記記憶部に記憶されている画像デ
ータには、前記各カメラを特定する識別情報が付加され
ており、これにより、画像を撮影したカメラを特定する
ことができる。
A plurality of cameras mounted on each part of the human body for recording the movement of each part of the human body based on surrounding images, and a storage unit for storing respective image data captured by the plurality of cameras. A motion capture device characterized by having the present invention is also the present invention. The camera can store a wide background wall by using a wide-angle lens. The storage unit may be built in each camera mounted on the human body, or may be built in a video storage device connected to each camera mounted on the human body. Further, identification information for specifying each camera is added to the image data stored in the storage unit, so that the camera that captured the image can be specified.

【0009】[0009]

【発明の実施の形態】本発明の実施形態を、図面を参照
して詳細に説明する。図3は、本発明の実施形態の概略
を説明するための図である。本発明においては、人体の
動きを捉えたい部分に超小型のカメラを取りつけ、そこ
から見える画像を記録する。記録した画像からカメラの
位置および方向を計算することで、取りつけた人体の部
位の動きをモーション・データとして取り込む。各カメ
ラからの画像の記録の仕方としては、案Aおよび案Bの
2つがある。案Aは、各カメラ31からの画像を、バッ
テリを備えた画像記録装置35に、接続ケーブル33を
介して転送して記録する。案Bは、各カメラにバッテリ
とメモリを内蔵しており、各カメラで撮られた画像は、
各カメラに内蔵したメモリでそれぞれ記録する。その後
に、記録した画像から各カメラの位置および方向を計算
することで、カメラがつけられた人間のモーション・デ
ータを得ることができる。
Embodiments of the present invention will be described in detail with reference to the drawings. FIG. 3 is a diagram for explaining the outline of the embodiment of the present invention. In the present invention, an ultra-small camera is attached to a portion where the movement of a human body is desired to be captured, and an image seen from the camera is recorded. By calculating the position and direction of the camera from the recorded image, the movement of the attached human body part is captured as motion data. There are two ways of recording images from each camera: plan A and plan B. In the case A, an image from each camera 31 is transferred to an image recording device 35 having a battery via a connection cable 33 and recorded. In plan B, each camera has a built-in battery and memory, and the images taken by each camera are:
Each is recorded in the memory built into each camera. Thereafter, by calculating the position and direction of each camera from the recorded images, it is possible to obtain motion data of a human with the camera attached.

【0010】図3において、カメラに用いる光学系に
は、画角が広い広角レンズを用いることが望ましい。ま
た、カメラの感度は出来るだけ上げ、絞りは出来るだけ
絞り、パン・フォーカスとする。撮影する部屋の壁に
は、その位置等が既知である線や面で色分け等をしてお
き、あるカメラで撮影した画像の一部分を見ただけで、
部屋のどの面の壁であるか等を特定できるようにしてお
く。各カメラで撮影した画像から、そのカメラの位置お
よび方向を計算するための方法については、後で詳しく
説明する。
In FIG. 3, it is desirable to use a wide-angle lens having a wide angle of view for an optical system used for a camera. The sensitivity of the camera should be as high as possible, and the aperture should be as narrow as possible and pan / focus. On the wall of the room where the image is taken, the position and the like are color-coded with lines and planes whose positions etc. are known, just by looking at a part of the image taken with a certain camera,
It should be possible to specify which side of the room the wall is. A method for calculating the position and direction of each camera from the images captured by each camera will be described later in detail.

【0011】画像を動画として記憶する場合の分解能
は、前述の壁面に示してある線等が分別できる程度でよ
い。また、動画の記憶方式は、データ圧縮を行い、効率
よく記憶する。このように、分解能およびデータ圧縮に
より、記憶するデータ量を少なくする。上述のように、
人体側=マーカー、外部=カメラという従来のモーショ
ン・キャプチャ技術の形態を、本発明では、人体側=カ
メラ、外部=マーカーとしている。
The resolution for storing an image as a moving image may be such that the lines and the like shown on the wall surface can be distinguished. In the moving image storage method, data is compressed and stored efficiently. Thus, the amount of data to be stored is reduced by the resolution and the data compression. As mentioned above,
In the present invention, the form of the conventional motion capture technique in which the human body side is a marker and the external part is a camera is defined as the human body side = the camera and the external part = the marker.

【0012】図4は、本発明に使用するカメラの構成例
を示している。図4において、カメラは、保護ガラス4
1、光学レンズ系42、CCD等の撮像素子44、ワン
チップ・マイコンと大容量メモリで構成した電子回路を
搭載した基板、バッテリ46、コネクタ47等から構成
されている。広角のレンズ系によりCCD等の撮像素子
上に、カメラからみた画像を結像する。この画像データ
は、基板45上のワンチップ・マイコンにより制御され
て内蔵の大容量メモリに記録される(案B)か、コネク
タ47を介して、接続ケーブル33により画像記録装置
36に送られてここで記録される(案A)。バッテリ4
6は、案Aにおいて、コネクタ47を介して画像記録装
置35からカメラに対して電源が供給される場合は必要
がない。案Bの場合、コネクタ47は、カメラ内蔵の大
容量メモリから各々のカメラで撮影した画像データを読
み出すのに使用される。案Aにおいても、案Bにおいて
も、各カメラで撮影した画像データには、どのカメラで
撮影したデータであるかを識別するために、カメラ毎に
ユニークなID(識別番号等)が付加されている。
FIG. 4 shows a configuration example of a camera used in the present invention. In FIG. 4, the camera is a protective glass 4
1, an optical lens system 42, an image pickup device 44 such as a CCD, a board on which an electronic circuit composed of a one-chip microcomputer and a large-capacity memory is mounted, a battery 46, a connector 47, and the like. An image viewed from a camera is formed on an image sensor such as a CCD by a wide-angle lens system. This image data is controlled by a one-chip microcomputer on a substrate 45 and recorded in a built-in large-capacity memory (plan B), or sent to an image recording device 36 via a connector 47 via a connection cable 33. It is recorded here (plan A). Battery 4
No. 6 is not necessary when power is supplied from the image recording device 35 to the camera via the connector 47 in the case A. In the case B, the connector 47 is used to read image data captured by each camera from a large-capacity memory built in the camera. In both the plan A and the plan B, a unique ID (identification number or the like) is added to the image data photographed by each camera in order to identify which camera photographed the data. I have.

【0013】さて、この発明を用いることにより、図2
のような死角が生じ難いことを、図5および図6を用い
て説明する。図5は、図2のように、向かい合った人間
A32および人間B34の場合を示している。図2の場
合は、胸に付けたマーカーがカメラからは見えなくなっ
てしまっていた。本発明では、図5に示すように、人間
A32および人間B34それぞれの胸に、カメラ36お
よび38が取り付けられている。この人間B34のカメ
ラ38から見える画像が図6に示されている。前述で説
明した様に、各カメラは広角レンズが付けられているの
で、カメラ38からは、人間A32ばかりではなく、人
間A32の周囲も写すことができる。この周囲の画像か
らカメラの位置および方向を計算することができる。
By using the present invention, FIG.
The fact that such a blind spot is unlikely to occur will be described with reference to FIGS. FIG. 5 shows a case where the person A32 and the person B34 face each other as shown in FIG. In the case of FIG. 2, the marker attached to the chest has become invisible from the camera. In the present invention, as shown in FIG. 5, cameras 36 and 38 are attached to the breasts of a person A32 and a person B34, respectively. FIG. 6 shows an image viewed from the camera 38 of the human B34. As described above, since each camera is provided with a wide-angle lens, the camera 38 can capture not only the person A32 but also the surroundings of the person A32. From this surrounding image, the position and direction of the camera can be calculated.

【0014】カメラで撮影した画像データから、空間に
おけるカメラの位置および方向を計算する方法につい
て、図7および図8を用いて詳しく説明する。このカメ
ラの位置および方向が分かるとカメラの取り付けられて
いる部位の動きを知ることができる。図7に示すよう
に、壁に貼られた一辺の長さがlの正方形P0P1P2P3
と視点であるカメラ、そしてカメラで撮られた画像がス
クリーンに投影されたとして、その投影された正方形の
画像である四角形Q1Q2Q3Q4の関係を用いて、カメラ
(視点)の位置および方向の計算の仕方について説明す
る。なお、空間は、x、y、zのワールド座標系を用い
て表すことができ、正方形P0P1P2P3の各頂点の座標
は既知である。図8は、図7の正方形をスクリーンに映
した場合における四角形の画像から、ワールド座標系に
おける投影機(視点)の位置および方向を計算する仕方
を説明するための図である。この場合、視点(投影機)
の位置を原点とする視点座標系を考える。
A method for calculating the position and direction of a camera in space from image data captured by the camera will be described in detail with reference to FIGS. When the position and direction of the camera are known, the movement of the part where the camera is attached can be known. As shown in FIG. 7, a square P0P1P2P3 with a side length of 1 attached to the wall
And the camera as the viewpoint, and assuming that the image taken by the camera is projected on the screen, how to calculate the position and direction of the camera (viewpoint) using the relationship between the projected square images Q1, Q2, Q3, and Q4 Will be described. The space can be represented using the world coordinate system of x, y, z, and the coordinates of each vertex of the square P0P1P2P3 are known. FIG. 8 is a diagram for explaining how to calculate the position and direction of the projector (viewpoint) in the world coordinate system from a square image when the square in FIG. 7 is projected on a screen. In this case, the viewpoint (projector)
Consider a viewpoint coordinate system whose origin is the position of.

【0015】さて、視点からスクリーンまでの距離sと
スクリーン上に投影された四角形Q0Q1Q2Q3の各頂点
の視点座標系のおける座標から、視点座標系における各
頂点と視点を通る4本の直線の方程式を求めることがで
きる。正方形の各頂点P0,P1,P2,P3は、これらの
4本の直線上に存在する。正方形の各頂点P0,P1,P
2,P3は、同一平面上にあり、かつ、
From the distance s from the viewpoint to the screen and the coordinates of each vertex of the quadrangle Q0Q1Q2Q3 projected on the screen in the viewpoint coordinate system, the equation of four straight lines passing through each vertex in the viewpoint coordinate system and the viewpoint is obtained. You can ask. Each vertex P0, P1, P2, P3 of the square exists on these four straight lines. Each vertex P0, P1, P of the square
2, P3 are on the same plane, and

【数1】 により、視点から見たときの平面P0P1P2P3の傾きが
一意に決定する。しかしまだ、この時点では図8におい
て、平面の取り得る位置は定まっていない。
(Equation 1) Thus, the inclination of the plane P0P1P2P3 when viewed from the viewpoint is uniquely determined. However, at this point, the possible positions of the plane in FIG. 8 have not yet been determined.

【0016】しかし、ワールド座標系における正方形の
一辺の長さlは既知であるので、これを用いて、視点
(投影機)から、視点を通る直線上にある正方形の各頂
点(例えばP0)までの距離(例えばL)を求めること
ができる。これで、視点座標系における正方形の各頂点
の座標を計算することができた。
However, since the length l of one side of the square in the world coordinate system is known, it is used to calculate the distance from the viewpoint (projector) to each vertex (for example, P0) of the square on a straight line passing through the viewpoint. (For example, L) can be obtained. Thus, the coordinates of each vertex of the square in the viewpoint coordinate system could be calculated.

【0017】このように、視点(投影機)を原点とする
視点座標系でこれまで説明してきたが、ワールド座標系
における正方形の各頂点の位置(座標)が分かっている
ので、これを用いることにより、逆に視点座標系におけ
る正方形の各頂点の座標から、ワールド座標系のおける
視点の位置および方向を求めることができる。この視点
の位置および方向が人体に取りつけたカメラの位置およ
び方向である。このようにして、人体に取りつけたカメ
ラで撮った画像から、カメラの位置および方向を知り、
これにより、人体の動きのデータを得ることができる。
この場合、上述の説明でも分かるように、人体の動きの
データを得る場合には、カメラに写る壁面には、その位
置や大きさが既知である図形を描いておく必要がある。
As described above, the viewpoint coordinate system having the viewpoint (projector) as the origin has been described so far. However, since the positions (coordinates) of the vertices of the square in the world coordinate system are known, it is necessary to use this. Accordingly, the position and direction of the viewpoint in the world coordinate system can be obtained from the coordinates of each vertex of the square in the viewpoint coordinate system. The position and direction of this viewpoint are the position and direction of the camera attached to the human body. In this way, from the image taken by the camera attached to the human body, know the position and direction of the camera,
As a result, data on the movement of the human body can be obtained.
In this case, as can be seen from the above description, when obtaining data on the movement of the human body, it is necessary to draw a figure whose position and size are known on the wall surface to be captured by the camera.

【0018】また、図9〜図12には、より精密に位置
を計算することができるように、壁面に凹凸を設けた場
合を説明している。図9は、壁面の断面図を示してい
る。このように、壁面に対して立体的に凹凸をつけ、こ
の凹凸により壁面に障子の桟のように四角形を形成す
る。また、この凹凸の図形のほかに、壁面にも線等の模
様を描いている。この四角形と壁面の模様を用いてカメ
ラの位置を計算することにより、より精度の高い位置計
算を行うことができる。例えば、視点(カメラ)の位置
が、図9に示すように視点Iから視点IIに変化する
と、視点の移動により凹凸による壁面の不可視部分が変
化する。この不可視部分を壁面の模様により検知するこ
とにより、より精密に視点の位置の変化を知ることがで
きる。これを図10〜図12を用いて詳しく説明する。
FIGS. 9 to 12 illustrate the case where the wall surface is provided with irregularities so that the position can be calculated more precisely. FIG. 9 shows a sectional view of the wall surface. In this way, irregularities are three-dimensionally formed on the wall surface, and the irregularities form a square on the wall surface like a sash of a shoji. In addition to the uneven figure, a pattern such as a line is drawn on the wall surface. By calculating the position of the camera using the square and the pattern on the wall surface, it is possible to calculate the position with higher accuracy. For example, when the position of the viewpoint (camera) changes from viewpoint I to viewpoint II as shown in FIG. 9, the invisible portion of the wall surface due to the unevenness changes due to the movement of the viewpoint. By detecting this invisible portion by the pattern on the wall surface, it is possible to know the change in the position of the viewpoint more precisely. This will be described in detail with reference to FIGS.

【0019】図10は視点Vからの眺め(人体につけた
あるカメラから撮った画像)である。この図は、立体感
を分かりやすくするために、壁面の断面で表している。
壁面W1には、前述のように模様(直線)が描かれてい
る。壁面W2の縁である直線Laが、壁面W1上の既知の
点Paと重なると、図11に示すように、視点Vと直線
LaとPaとが平面Aを形成する。この平面Aを求め、こ
の平面Aの情報を用いることにより、視点の位置を精密
に決定することができる。
FIG. 10 is a view from a viewpoint V (an image taken from a camera attached to a human body). This figure is represented by a cross section of a wall surface for easy understanding of a three-dimensional effect.
The pattern (straight line) is drawn on the wall surface W1 as described above. When the straight line La, which is the edge of the wall surface W2, overlaps with a known point Pa on the wall surface W1, the viewpoint V and the straight lines La and Pa form a plane A as shown in FIG. By obtaining this plane A and using the information of this plane A, the position of the viewpoint can be determined precisely.

【0020】さて、この壁面の凹凸により求められる平
面を用いることにより、視点の位置も決定することもで
きる。図12でこれを説明する。図9で説明した様に、
壁面に設けた凹凸は障子の桟のように、四角形を形成し
ている。このため、凹凸により図10および図11で説
明したのと同様に計算できる平面は1つではなく複数あ
る。この複数の平面A,B,Cを示したのが図12であ
る。この平面A,B,Cが交わる交点が視点の位置であ
る。この複数の平面A,B,Cの交点を計算することに
より、視点(カメラ)の位置(座標)を求めることがで
きる。このように、壁面の平面上に格子状の模様をつけ
るだけでなく、凹凸を設けることにより、より精度が高
い位置情報を求めることができる。
The position of the viewpoint can also be determined by using a plane determined by the unevenness of the wall surface. This is illustrated in FIG. As explained in FIG.
The concavities and convexities provided on the wall form a quadrilateral, like a shoji screen. Therefore, the number of planes that can be calculated in the same manner as described with reference to FIGS. FIG. 12 shows the plurality of planes A, B, and C. The intersection of the planes A, B, and C is the position of the viewpoint. By calculating the intersection of the planes A, B, and C, the position (coordinates) of the viewpoint (camera) can be obtained. As described above, by providing not only a lattice-like pattern on the plane of the wall surface but also the unevenness, more accurate positional information can be obtained.

【0021】本発明に関するプログラムを格納した記憶
媒体から、プログラムをシステムで読み出して実行する
ことにより、本発明の位置計算をシステムにより実現す
ることができる。この記録媒体には、フロッピー・ディ
スク、CD−ROM、磁気テープ、ROMカセット等が
ある。
By reading the program from the storage medium storing the program related to the present invention by the system and executing the program, the position calculation of the present invention can be realized by the system. The recording medium includes a floppy disk, a CD-ROM, a magnetic tape, a ROM cassette, and the like.

【0022】[0022]

【発明の効果】上記の説明のように、本発明では、人体
各部の動きのモーション・データを取り込むモーション
・キャプチャ装置において、人体各部の動きに対して死
角がなくモーション・データを得ることができる。ま
た、壁面に凹凸をつけることにより、精度が高いモーシ
ョン・データを得ることができる。
As described above, according to the present invention, in a motion capture device that captures motion data of the motion of each part of the human body, motion data can be obtained without any blind spot for the motion of each part of the human body. . In addition, by providing irregularities on the wall surface, highly accurate motion data can be obtained.

【図面の簡単な説明】[Brief description of the drawings]

【図1】従来の光学式モーション・キャプチャを示す図
である。
FIG. 1 illustrates a conventional optical motion capture.

【図2】従来の光学式モーション・キャプチャの死角を
説明する図である。
FIG. 2 is a diagram illustrating a blind spot of a conventional optical motion capture.

【図3】本発明の実施形態のモーション・キャプチャを
説明する図である。
FIG. 3 is a diagram illustrating motion capture according to the embodiment of the present invention.

【図4】実施形態で用いるカメラの構成例を示す図であ
る。
FIG. 4 is a diagram illustrating a configuration example of a camera used in the embodiment.

【図5】実施形態のモーション・キャプチャを説明する
図である。
FIG. 5 is a diagram illustrating motion capture according to the embodiment;

【図6】図5のカメラで見える画像を示す図である。FIG. 6 is a diagram showing an image viewed by the camera of FIG. 5;

【図7】位置および方向を求めることを説明する図であ
る。
FIG. 7 is a diagram illustrating obtaining a position and a direction.

【図8】位置および方向を求めることを説明する図であ
る。
FIG. 8 is a diagram illustrating obtaining a position and a direction.

【図9】精度を高く位置を求めることを説明する図であ
る。
FIG. 9 is a diagram for explaining obtaining a position with high accuracy.

【図10】壁面の凹凸を用いて位置を求めることを説明
する図である。
FIG. 10 is a diagram for explaining obtaining a position using unevenness of a wall surface.

【図11】壁面の凹凸を用いて位置を求めることを説明
する図である。
FIG. 11 is a diagram for explaining obtaining a position using unevenness of a wall surface.

【図12】平面の交点を用いて位置を求めることを説明
する図である。
FIG. 12 is a diagram illustrating obtaining a position using an intersection of planes.

【符号の説明】 31 各カメラ 32 人間 33 接続ケーブル 35 画像記録装置 36 カメラ 38 カメラ 41 保護ガラス 42 光学レンズ系 44 撮像素子 45 基板 46 バッテリ 47 コネクタ[Description of Signs] 31 Each camera 32 Human 33 Connection cable 35 Image recording device 36 Camera 38 Camera 41 Protective glass 42 Optical lens system 44 Image sensor 45 Substrate 46 Battery 47 Connector

Claims (9)

【特許請求の範囲】[Claims] 【請求項1】 人体の各部の動きのデータを検出するモ
ーション・キャプチャ方法において、 動きの検出対象である人体の各部にカメラを装着し、 前記カメラが写す背景の壁面には、位置が予め定めてあ
る図形が描かれており、 前記カメラが撮影した画像から、カメラを装着した前記
人体各部の動きを求めることを特徴とするモーション・
キャプチャ方法
1. A motion capture method for detecting motion data of each part of a human body, wherein a camera is attached to each part of the human body to be detected for movement, and a position is predetermined on a wall surface of the background which the camera captures. Motion is obtained by calculating the movement of each part of the human body wearing the camera from an image taken by the camera.
Capture method
【請求項2】 請求項1記載のモーション・キャプチャ
方法において、 前記カメラが撮影した画像から、カメラを装着した前記
人体各部の動きを求めるために、カメラによる視点座標
系からワールド座標系に変換する過程を含むことを特徴
とするモーション・キャプチャ方法。
2. The motion capture method according to claim 1, wherein a viewpoint coordinate system of the camera is transformed into a world coordinate system in order to obtain a motion of each part of the human body wearing the camera from an image taken by the camera. A motion capture method comprising a step.
【請求項3】 請求項1または2記載のモーション・キ
ャプチャ方法において、前記壁面の図形は、描かれる壁
面毎に異なることを特徴とするモーション・キャプチャ
方法。
3. The motion capture method according to claim 1, wherein the figure of the wall surface is different for each wall surface to be drawn.
【請求項4】 請求項1ないし3いずれか記載のモーシ
ョン・キャプチャ方法において、前記壁面の図形は、壁
面に対して凹凸がある図形であることを特徴とするモー
ション・キャプチャ方法。
4. The motion capture method according to claim 1, wherein the figure on the wall is a figure having irregularities on the wall.
【請求項5】 人体の各部に装着し、装着された人体各
部の動きを周囲の画像により記録するための複数のカメ
ラと、 前記複数カメラが撮像したそれぞれの画像データを記憶
する記憶部とを有することを特徴とするモーション・キ
ャプチャ装置。
5. A plurality of cameras mounted on each part of a human body for recording the movement of each part of the human body based on surrounding images, and a storage unit for storing respective image data captured by the plurality of cameras. A motion capture device comprising:
【請求項6】 請求項5記載のモーション・キャプチャ
装置において、前記カメラは、広角レンズを有している
ことを特徴するモーション・キャプチャ装置。
6. The motion capture device according to claim 5, wherein the camera has a wide-angle lens.
【請求項7】 請求項5または6記載のモーション・キ
ャプチャ装置において、前記記憶部は、前記人体に装着
した各カメラに内蔵されていることを特徴とするモーシ
ョン・キャプチャ装置。
7. The motion capture device according to claim 5, wherein the storage unit is built in each camera mounted on the human body.
【請求項8】 請求項5または6記載のモーション・キ
ャプチャ装置において、前記記憶部は、前記人体に装着
した各カメラと接続されている映像記憶装置に内蔵され
ていることを特徴とするモーション・キャプチャ装置。
8. The motion capture device according to claim 5, wherein the storage unit is built in a video storage device connected to each camera mounted on the human body. Capture device.
【請求項9】 請求項5〜8いずれか記載のモーション
・キャプチャ装置において、前記記憶部に記憶されてい
る画像データには、前記各カメラを特定する識別情報が
付加されていることを特徴とするモーション・キャプチ
ャ装置。
9. The motion capture device according to claim 5, wherein identification information for identifying each camera is added to the image data stored in the storage unit. Motion capture device.
JP11033470A 1999-02-10 1999-02-10 Method and device for motion capture Pending JP2000231638A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP11033470A JP2000231638A (en) 1999-02-10 1999-02-10 Method and device for motion capture

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP11033470A JP2000231638A (en) 1999-02-10 1999-02-10 Method and device for motion capture

Publications (1)

Publication Number Publication Date
JP2000231638A true JP2000231638A (en) 2000-08-22

Family

ID=12387444

Family Applications (1)

Application Number Title Priority Date Filing Date
JP11033470A Pending JP2000231638A (en) 1999-02-10 1999-02-10 Method and device for motion capture

Country Status (1)

Country Link
JP (1) JP2000231638A (en)

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6831603B2 (en) 2002-03-12 2004-12-14 Menache, Llc Motion tracking system and method
US7009561B2 (en) 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
KR100777600B1 (en) * 2006-08-23 2007-11-21 (주)로그시스 A method and system for motion capture using relative coordinates
WO2007136181A1 (en) * 2006-05-19 2007-11-29 Moon Key Lee Motion capture device using moving camera

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6831603B2 (en) 2002-03-12 2004-12-14 Menache, Llc Motion tracking system and method
US7009561B2 (en) 2003-03-11 2006-03-07 Menache, Llp Radio frequency motion tracking system and method
US7432810B2 (en) 2003-03-11 2008-10-07 Menache Llc Radio frequency tags for use in a motion tracking system
WO2007136181A1 (en) * 2006-05-19 2007-11-29 Moon Key Lee Motion capture device using moving camera
KR100777600B1 (en) * 2006-08-23 2007-11-21 (주)로그시스 A method and system for motion capture using relative coordinates

Similar Documents

Publication Publication Date Title
JP4926817B2 (en) Index arrangement information measuring apparatus and method
US7423666B2 (en) Image pickup system employing a three-dimensional reference object
KR100869447B1 (en) Apparatus and method for indicating a target by image processing without three-dimensional modeling
US6781618B2 (en) Hand-held 3D vision system
US6937255B2 (en) Imaging apparatus and method of the same
Bouguet et al. 3D photography using shadows in dual-space geometry
JP3426459B2 (en) Photogrammetry system and photogrammetry method
JPWO2019049421A1 (en) CALIBRATION DEVICE, CALIBRATION SYSTEM, AND CALIBRATION METHOD
JP6502525B2 (en) Object measuring apparatus and object measuring method
JP2005326274A (en) Arrangement information inferring method and information processor
WO2002065786A1 (en) Method and apparatus for omni-directional image and 3-dimensional data acquisition with data annotation and dynamic range extension method
US20230419661A1 (en) Input apparatus, input method of input apparatus, and output apparatus
JP2004198212A (en) Apparatus for monitoring vicinity of mobile object
JP2002054912A (en) Shape measuring system, imaging device, shape measuring method, and recording medium
JP3690581B2 (en) POSITION DETECTION DEVICE AND METHOD THEREFOR, PLAIN POSITION DETECTION DEVICE AND METHOD THEREOF
KR102546346B1 (en) Apparatus and method for omni-directional camera calibration
CN110544278B (en) Rigid body motion capture method and device and AGV pose capture system
JP2001126051A (en) Device and method for presenting related information
JP2006098256A (en) Three-dimensional surface model preparing system, image processing system, program, and information recording medium
JP4649192B2 (en) Stereo image creation method and three-dimensional data creation apparatus
JP2019015553A (en) Information processing device, information processing method, and solid-state imaging device
JP2000028332A (en) Three-dimensional measuring device and method therefor
JP2000231638A (en) Method and device for motion capture
JP2011151459A (en) Composite display device
JPH09145318A (en) Three-dimensional measuring equipment