JPH05189541A - Image operating method - Google Patents

Image operating method

Info

Publication number
JPH05189541A
JPH05189541A JP4003673A JP367392A JPH05189541A JP H05189541 A JPH05189541 A JP H05189541A JP 4003673 A JP4003673 A JP 4003673A JP 367392 A JP367392 A JP 367392A JP H05189541 A JPH05189541 A JP H05189541A
Authority
JP
Japan
Prior art keywords
rotation
coordinate
dimensional
coordinates
image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4003673A
Other languages
Japanese (ja)
Inventor
Hideyuki Ban
伴  秀行
Ryuichi Suzuki
隆一 鈴木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Original Assignee
Hitachi Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd filed Critical Hitachi Ltd
Priority to JP4003673A priority Critical patent/JPH05189541A/en
Priority to US08/001,389 priority patent/US5644689A/en
Publication of JPH05189541A publication Critical patent/JPH05189541A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)

Abstract

PURPOSE:To rotate an object on a screen like in the case where the object is actually rotated in a real space by giving a direct operation to the displayed object from an operator. CONSTITUTION:In regard of a three-dimensional image 2 of a head part shown on a screen 1, the position of a left mouth side 3 (reference coordinates), for example, is inputted and then the position of the right side 4 of a face (target coordinates) is inputted. Thus a rotary conversion matrix is produced from the reference and target coordinates to rotate an object so that the area shown at the position 3 of the reference coordinates is moved to the position 4 of the target coordinates. Then the object is rotated and projected with use of the rotary conversion matrix, and the image 2 is rotated to a three-dimensional image 6. As 8 result, the object can be rotated when a direct operation is given to the object displayed previously. Then an object can be rotated on a screen like in the case where the object is actually rotated in a real space.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】物体の3次元画像を、画面上に表
示するときの画像操作方法に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image operating method for displaying a three-dimensional image of an object on a screen.

【0002】[0002]

【従来の技術】計算機などで構築した物体モデルから3
次元画像を生成・表示し、その特徴を認識する場合、一
般に図2に示すような手順により行われる。ここで3次
元原画像データ11は、物体の位置・形状など、物体に
関する情報で少なくとも表示に必要なものを含んでお
り、例えば3次元座標系(X,Y,Z)で表現される。
まず、所望の回転軸(一般には各座標軸)及び回転角に
従って物体を回転させる(処理12)。これを予め定め
た平面(表示面)上に投影し(処理13)、さらに陰面
消去・陰影付けの処理14を行って、画面上に表示させ
る(処理15)。
2. Description of the Related Art 3 from an object model constructed by a computer
When a three-dimensional image is generated / displayed and its characteristics are recognized, the procedure is generally as shown in FIG. Here, the three-dimensional original image data 11 includes at least information about the object such as the position and shape of the object necessary for display, and is represented by, for example, a three-dimensional coordinate system (X, Y, Z).
First, the object is rotated according to a desired rotation axis (generally each coordinate axis) and a rotation angle (process 12). This is projected on a predetermined plane (display surface) (processing 13), and further hidden surface erasing / shading processing 14 is performed and displayed on the screen (processing 15).

【0003】従来、物体の回転角の指示方法には、例え
ば、キーボードから直接数値を入力する方法や、「19
91年電子情報通信学会春季全国大会講演論文集」分冊
7(1991)pp.407〜408において述べられ
ているような専用チャート上にマークを記入して指示す
る方法などがある。
Conventionally, as a method of instructing the rotation angle of an object, for example, a method of directly inputting a numerical value from a keyboard or "19
1991 IEICE Spring National Convention Proceedings, Volume 7 (1991) pp. 407 to 408, there is a method of instructing by writing a mark on a dedicated chart as described above.

【0004】[0004]

【発明が解決しようとする課題】上記従来技術では、操
作者は回転角という数値情報を基に指示を行なうため、
指示内容と指示の結果表示される3次元画像とが直接感
覚的に結び付かず、表示される3次元画像を予め把握す
ることが困難であった。また、画面上において指示入力
の位置と3次元画像の位置とが異なるため、操作対象で
ある3次元画像に注目した状態で操作を行なうことが困
難であった。このため、実空間上で実際に物体を回転さ
せるのと類似した感覚で、画面上の物体を回転させるこ
とができるようなユーザインタフェイスを実現すること
は、非常に困難であった。
In the above-mentioned prior art, since the operator gives an instruction based on numerical information called a rotation angle,
The instruction content and the three-dimensional image displayed as a result of the instruction are not directly and intuitively connected, and it is difficult to grasp the displayed three-dimensional image in advance. Moreover, since the position of the instruction input and the position of the three-dimensional image are different on the screen, it is difficult to perform the operation while paying attention to the three-dimensional image that is the operation target. Therefore, it is very difficult to realize a user interface that can rotate an object on the screen with a feeling similar to actually rotating an object in a real space.

【0005】本発明の目的は、このような従来の問題を
解決し、物体の3次元画像を画面上に表示するとき、実
空間上で実際に物体を回転させるのと類似した感覚で、
画面上の物体を回転させることができるようなユーザイ
ンタフェイスにより、物体の回転を指示可能な画像操作
方法を提供することにある。
An object of the present invention is to solve such a conventional problem and to display a three-dimensional image of an object on a screen with a feeling similar to that of actually rotating the object in a real space.
An object of the present invention is to provide an image operation method capable of instructing rotation of an object by using a user interface capable of rotating the object on the screen.

【0006】[0006]

【課題を解決するための手段】上記目的を達成するため
に、本発明の画像操作方法は、操作者が、予め表示され
ている物体の像に対して直接操作を行なうことにより、
物体を回転可能なようにした。
In order to achieve the above object, the image operating method of the present invention is such that an operator directly operates an image of an object displayed in advance,
Made the object rotatable.

【0007】また、操作者は、画面上の座標であって操
作の基準となる基準座標と、画面上の座標であって操作
の目標となる目標座標とを入力すると、基準座標の位置
に表示していた部位を目標座標の位置に表示するよう
に、物体を回転可能なようにした。
Further, when the operator inputs the reference coordinates which are the coordinates on the screen and which are the reference of the operation, and the target coordinates which are the coordinates of the screen which are the target of the operation, they are displayed at the position of the reference coordinates. The object was made rotatable so that the part that was doing was displayed at the position of the target coordinates.

【0008】また、操作者は、先ず画面上の座標であっ
て操作の基準となる基準座標を入力した後、画面上の座
標であって操作の目標となる目標座標を逐次入力する
と、目標座標の入力に応じて、基準座標の位置に表示し
ていた部位を目標座標の位置に表示するように、物体を
逐次回転可能なようにした。
When the operator first inputs the reference coordinates which are the coordinates on the screen and which is the reference of the operation, and successively inputs the target coordinates which are the coordinates of the screen and which is the target of the operation, the target coordinates In response to the input of, the object can be sequentially rotated so that the part displayed at the reference coordinate position is displayed at the target coordinate position.

【0009】また、物体を表示している画面を、操作者
が直接指示することにより、画面上の座標を取得可能な
手段を用いるようにした。
Further, the means for acquiring the coordinates on the screen by the operator directly instructing the screen displaying the object is used.

【0010】また、物体を回転するための座標変換の行
列の生成は、基準座標を、基準座標の位置に表示してい
る部位の3次元座標である3次元基準座標に変換する基
準座標変換手段と、目標座標を、当該部位を目標座標の
位置に表示するように物体を回転したときの当該部位の
3次元座標である3次元目標座標に変換する目標座標変
換手段と、3次元基準座標を3次元目標座標に変換する
座標変換の行列を生成する回転変換行列生成手段とによ
り行うようにした。
Further, the coordinate conversion matrix for rotating the object is generated by converting the reference coordinates into the three-dimensional reference coordinates which are the three-dimensional coordinates of the part displayed at the position of the reference coordinates. And target coordinate conversion means for converting the target coordinates into three-dimensional target coordinates that are three-dimensional coordinates of the part when the object is rotated so as to display the part at the target coordinate position, and three-dimensional reference coordinates. The rotation conversion matrix generating means generates a coordinate conversion matrix for converting into three-dimensional target coordinates.

【0011】また、基準座標変換手段は、陰面消去をZ
バッファアルゴリズムにより行う場合、Zバッファに格
納されている奥行き値を利用し、基準座標と基準座標の
位置の奥行き値とから3次元基準座標を生成するように
した。
Further, the reference coordinate conversion means performs the hidden surface removal by Z.
When the buffer algorithm is used, the depth value stored in the Z buffer is used to generate the three-dimensional reference coordinate from the reference coordinate and the depth value at the position of the reference coordinate.

【0012】また、回転変換行列生成手段は、予め当該
物体を表示するとき行った回転より前での当該部位の位
置から、目標とする位置へ直接回転可能な座標変換の行
列を生成し、これを3次元基準座標を3次元目標座標に
変換する座標変換の行列とするようにした。
Further, the rotation conversion matrix generating means generates a coordinate conversion matrix capable of directly rotating from the position of the part before the rotation performed when displaying the object in advance to the target position, and Is a coordinate conversion matrix for converting the three-dimensional reference coordinates into the three-dimensional target coordinates.

【0013】また、回転変換行列生成手段は、予め当該
物体を表示するとき行った回転より後での当該物体の位
置から、目標とする位置へ回転する座標変換の行列を求
め、求めた行列と、予め物体を表示するとき行った回転
に用いた座標変換の行列との積を、3次元基準座標を3
次元目標座標に変換する座標変換の行列とするようにし
た。
Further, the rotation conversion matrix generation means obtains a matrix of coordinate transformation for rotating the object to a target position from the position of the object after the rotation performed when the object is displayed in advance. , The product of the coordinate transformation matrix used for the rotation performed when the object is displayed in advance and the three-dimensional reference coordinate
A matrix for coordinate conversion to convert to the dimensional target coordinates is used.

【0014】また、物体の回転は、物体を表現する3次
元座標の3つの座標軸のうち、予め定めた2つの座標軸
の回りに回転させるようにした。
The object is rotated about two predetermined coordinate axes among the three coordinate axes of the three-dimensional coordinate representing the object.

【0015】また、物体の回転は、3次元座標の原点
と、3次元基準座標と、3次元目標座標とが作る平面に
垂直で、且つ原点を通る線分を回転軸とし、この回りに
回転させるようにした。
Further, the rotation of the object is a line segment which is perpendicular to the plane formed by the origin of the three-dimensional coordinates, the three-dimensional reference coordinates and the three-dimensional target coordinates and which passes through the origin, and is rotated around this. I was allowed to.

【0016】また、少なくとも、過去の回転に用いた回
転変換行列の履歴を格納できる手段を設け、操作の取消
しを可能なようにした。
Further, at least means for storing the history of the rotation conversion matrix used for the past rotation is provided so that the operation can be canceled.

【0017】[0017]

【作用】本発明の画像操作方法では、操作者が、予め表
示されている3次元画像に対して直接操作を行なうこと
により、物体の回転が可能になる。これによって、ある
視点から見た物体の3次元画像を画面上に表示すると
き、実空間上で実際に物体を回転させるのと類似した感
覚で、画面上の物体を回転させることができるようなユ
ーザインタフェイスを実現できるようになる。
In the image operating method of the present invention, the operator can rotate the object by directly operating the three-dimensional image displayed in advance. Thus, when a three-dimensional image of an object viewed from a certain viewpoint is displayed on the screen, the object on the screen can be rotated with a feeling similar to that of actually rotating the object in the real space. User interface can be realized.

【0018】[0018]

【実施例】以下、本発明の第1の実施例を、図面を用い
て詳細に説明する。
DETAILED DESCRIPTION OF THE PREFERRED EMBODIMENTS A first embodiment of the present invention will be described in detail below with reference to the drawings.

【0019】本実施例は、物体の一例として人体頭部を
考え、画面上に3次元画像として表示された頭部に対し
て、直接操作を行うことにより、これを回転させるもの
である。その操作方法は、予め図1(a)のように画面
1上に表示された頭部の3次元画像2に対し、先ず例え
ば左の口元3の位置(基準座標)を入力し、次に顔の右
側4の位置(目標座標)を入力する。すると、図1
(b)のように左の口元3が顔の右側4の位置に表示さ
れるように回転した3次元画像6を表示する。図1
(b)の左の口元5の画面上の座標は、図1(a)の顔
の右側4の画面上の座標と一致する。
In this embodiment, a human head is considered as an example of an object, and the head displayed as a three-dimensional image on the screen is directly operated to rotate the head. The operation method is as follows. First, for example, the position (reference coordinate) of the left mouth 3 is input to the three-dimensional image 2 of the head displayed on the screen 1 as shown in FIG. Input the position (target coordinate) on the right side 4 of. Then, Figure 1
The three-dimensional image 6 rotated so that the left mouth 3 is displayed at the position on the right side 4 of the face as shown in (b) is displayed. Figure 1
The coordinates on the screen of the left mouth 5 in (b) match the coordinates on the screen on the right side 4 of the face in FIG. 1 (a).

【0020】本実施例では、表示する頭部と表示面と
は、図3に示すような位置関係にあるとする。頭部61
はX軸の方向が正面であるように位置し、また表示面6
2は、X=DなるYZ平面である。3次元空間の座標系
は(X,Y,Z)、表示面の座標系は(U,V)であっ
て、その原点は、それぞれ物体中心、表示面中心(X軸
上)である。
In this embodiment, it is assumed that the displayed head and the display surface have a positional relationship as shown in FIG. Head 61
Is positioned so that the direction of the X axis is front, and the display surface 6
2 is a YZ plane where X = D. The coordinate system of the three-dimensional space is (X, Y, Z), the coordinate system of the display surface is (U, V), and the origins thereof are the object center and the display surface center (on the X axis), respectively.

【0021】さらに物体の回転は、Z軸回りの回転63
と、Y軸回りの回転64とにより行うものとする。回転
の順序はZ軸回り、Y軸回りであり、Z軸回りの回転の
向きは、X軸の正の向きがY軸の正の向きに向く方向の
回転を正方向とし、Y軸回りの回転の向きは、X軸の正
の向きがZ軸の正の向きに向く方向の回転を正方向とす
る。
Further, the rotation of the object is rotation 63 about the Z axis.
And the rotation 64 about the Y axis. The order of rotation is around the Z axis and around the Y axis. Regarding the direction of rotation around the Z axis, the rotation in the direction in which the positive direction of the X axis is toward the positive direction of the Y axis is the positive direction, and the direction of rotation around the Y axis is As for the direction of rotation, the rotation in the direction in which the positive direction of the X axis is the positive direction of the Z axis is the positive direction.

【0022】図4は、本実施例の処理手順である。FIG. 4 shows the processing procedure of this embodiment.

【0023】各手段のうち、22、24、26は任意の
方向からの3次元画像を表示するためのもので、図2に
示した従来の手順と同様な働きを有する。31、32、
35は本発明を実現するのに必要な処理手段である。
Of the respective means, 22, 24 and 26 are for displaying a three-dimensional image from an arbitrary direction and have the same function as the conventional procedure shown in FIG. 31, 32,
Reference numeral 35 is a processing means necessary for realizing the present invention.

【0024】先ず、各処理手段の説明をする。回転変換
手段22は、回転変換行列36に従って物体の3次元座
標を回転させる。その結果は、回転座標データ23とし
て投影変換手段24に送られる。投影変換手段24は、
予め定めた表示面に投影するのに必要な座標変換を行
う。その結果は、投影画像データ25として陰面消去・
陰影付け手段26に送られる。陰面消去・陰影付け手段
26は、表示の妨げになる陰面の消去や、面に濃淡を加
える陰影付けなど、物体をより立体的に見せるための処
理を行う。その結果は、表示画像データ27として表示
・座標入力手段28に送られる。表示・座標入力手段2
8は、表示画像データ27の画面への表示と、表示され
た画像を観察しながらその画面上の位置を指示すると、
その位置の座標(画面上の座標)を取得できるものであ
る。これは、例えば、CRTや液晶ディスプレイなどの
表示手段と、マウスやタッチパネルなどのポインティン
グ手段との組合せにより実現できる。ここで取得した画
面上の座標は、基準座標29として基準座標変換手段3
1に、若しくは目標座標30として目標座標変換手段3
2に送られる。基準座標変換手段31は、画面上の座標
である基準座標29を3次元空間上の座標に変換する。
3次元空間上の座標とは、基準座標の位置に表示してい
る部位の3次元座標である。その結果は、3次元基準座
標33として回転変換行列生成手段35に送られる。目
標座標変換手段32は、画面上の座標である目標座標3
0を3次元空間上の座標に変換する。3次元空間上の座
標とは、基準座標の位置に表示している部位を、目標座
標の位置に表示するように物体を回転させたとき、その
部位の新たな3次元座標である。その結果は、3次元目
標座標34として回転変換行列生成手段35に送られ
る。回転変換行列生成手段35は、3次元基準座標3
3、3次元目標座標34から、基準座標29の位置に表
示している部位を、目標座標30の位置に表示するよう
に物体を回転させる変換行列を生成する。その結果は、
回転変換行列36として回転変換手段22に送られる。
First, each processing means will be described. The rotation conversion means 22 rotates the three-dimensional coordinates of the object according to the rotation conversion matrix 36. The result is sent to the projection conversion means 24 as the rotational coordinate data 23. The projection conversion means 24 is
Coordinate conversion necessary for projecting on a predetermined display surface is performed. The result is the hidden surface removal / projection image data 25.
It is sent to the shading means 26. The hidden surface erasing / shading means 26 performs processing for making an object look more three-dimensional, such as erasing a hidden surface that hinders display and shading to add shading to the surface. The result is sent to the display / coordinate input means 28 as the display image data 27. Display / coordinate input means 2
8 indicates the display image data 27 on the screen and the position on the screen while observing the displayed image,
The coordinates of the position (coordinates on the screen) can be acquired. This can be realized, for example, by a combination of a display means such as a CRT or a liquid crystal display and a pointing means such as a mouse or a touch panel. The coordinates on the screen acquired here are used as the reference coordinates 29 and the reference coordinate conversion means 3
1 or the target coordinate conversion means 3 as the target coordinate 30
Sent to 2. The reference coordinate conversion means 31 converts the reference coordinates 29, which are the coordinates on the screen, into the coordinates in the three-dimensional space.
The coordinate in the three-dimensional space is the three-dimensional coordinate of the part displayed at the position of the reference coordinate. The result is sent to the rotation conversion matrix generation means 35 as the three-dimensional reference coordinates 33. The target coordinate conversion means 32 uses the target coordinates 3 which are coordinates on the screen.
0 is converted into coordinates on a three-dimensional space. The coordinates in the three-dimensional space are new three-dimensional coordinates of the part when the part displayed at the position of the reference coordinate is rotated so that the part is displayed at the position of the target coordinate. The result is sent to the rotation conversion matrix generating means 35 as the three-dimensional target coordinates 34. The rotation conversion matrix generation means 35 uses the three-dimensional reference coordinates 3
From the three-dimensional target coordinates 34, a conversion matrix that rotates the object so that the part displayed at the position of the reference coordinates 29 is displayed at the position of the target coordinates 30 is generated. The result is
The rotation conversion matrix 36 is sent to the rotation conversion means 22.

【0025】次に、本発明による画像操作方法の手順に
ついて説明する。最初に、頭部の位置・形状に関する情
報を含む3次元原画像データから、頭部の3次元画像が
表示されるまでの手順について、簡単に説明する。
Next, the procedure of the image operating method according to the present invention will be described. First, the procedure from the 3D original image data including the information on the position / shape of the head to the display of the 3D image of the head will be briefly described.

【0026】1)先ず、回転変換手段22により、物体
をZ軸回り、Y軸回りに回転させる。これは、頭部を表
現する3次元座標(Xs,Ys,Zs)に対して、回転
のための座標変換(回転変換)を行うことにより実現さ
れる。即ち,その変換行列(回転変換行列)をRとする
と、 [Xr,Yr,Zr]=[Xs,Ys,Zs]R なる変換を行う。3次元座標(Xr,Yr,Zr)は、
回転後の座標であり、回転画像データ23に相当する。
1) First, the rotation conversion means 22 rotates the object about the Z axis and the Y axis. This is realized by performing coordinate conversion (rotation conversion) for rotation on the three-dimensional coordinates (Xs, Ys, Zs) expressing the head. That is, when the conversion matrix (rotational conversion matrix) is R, a conversion of [Xr, Yr, Zr] = [Xs, Ys, Zs] R is performed. Three-dimensional coordinates (Xr, Yr, Zr) are
The coordinates after rotation correspond to the rotated image data 23.

【0027】回転変換行列Rは、Z軸回り、Y軸回りの
回転角をそれぞれθ、φとすると、次式で与えられる。
The rotation conversion matrix R is given by the following equation, where θ and φ are rotation angles about the Z axis and the Y axis, respectively.

【0028】[0028]

【数1】 [Equation 1]

【0029】あるいは、後に説明する回転変換行列生成
手段で生成したものを用いる。
Alternatively, the one generated by the rotation conversion matrix generating means described later is used.

【0030】2)次に投影変換手段24により、回転後
の物体を表示面に投影するための座標変換(投影変換)
を行う。投影するための変換とは、例えば透視投影で用
いれる、表示面との距離に応じて物体の大きさを変化さ
せるような変換のことである。即ち、その変換行列(投
影変換行列)をPとすると、 [Xp,Yp,Zp]=[Xr,Yr,Zr]P なる変換を行う。3次元座標(Xp,Yp,Zp)は、
投影後の座標であり、投影画像データ25に相当する。
2) Next, the projection conversion means 24 performs coordinate conversion (projection conversion) for projecting the rotated object on the display surface.
I do. The conversion for projection is, for example, a conversion used in perspective projection that changes the size of the object according to the distance from the display surface. That is, when the conversion matrix (projection conversion matrix) is P, a conversion of [Xp, Yp, Zp] = [Xr, Yr, Zr] P is performed. Three-dimensional coordinates (Xp, Yp, Zp) are
These are the coordinates after projection and correspond to the projection image data 25.

【0031】ここで、投影変換行列Pは、投影方法、表
示面の位置など、投影に関するパラメータにより決定さ
れる。また本実施例では、表示面は図3に示す位置に存
在する。従って、3次元座標(Xp,Yp,Zp)のう
ちYp、Zpは表示面のU,V座標成分を表す。また、
Xpは物体の前後関係を表し、本実施例では奥行き値を
呼ぶことにする。
Here, the projection transformation matrix P is determined by parameters relating to projection such as the projection method and the position of the display surface. Further, in this embodiment, the display surface exists at the position shown in FIG. Therefore, Yp and Zp of the three-dimensional coordinates (Xp, Yp, Zp) represent U and V coordinate components of the display surface. Also,
Xp represents the front-back relation of the object, and the depth value will be called in this embodiment.

【0032】3)最後に、陰面消去・陰影付け手段26
により、陰面の消去や陰影付けなど、物体をより立体的
に見せるための処理が行われえる。
3) Finally, the hidden surface erasing / shading means 26
Thus, it is possible to perform processing for making an object look more three-dimensional, such as erasing the hidden surface and shading.

【0033】陰面消去は、例えば奥行き値を用いて行う
ことができる。これはZバッファアルゴリズムと呼ば
れ、表示面に対する2次元バッファであって、各画素に
奥行き値が格納できるバッファ(Zバッファ)を用意
し、各画素ごとに表示面に最も近い奥行き値を選択して
格納することにより、直接見ることのできない面を除去
するものである。
The hidden surface removal can be performed using, for example, the depth value. This is called a Z-buffer algorithm and is a two-dimensional buffer for the display surface. A buffer (Z buffer) that can store a depth value in each pixel is prepared, and the depth value closest to the display surface is selected for each pixel. By storing it, the surface that cannot be seen directly is removed.

【0034】さらに、光源の位置や表示面までの距離な
どから、面に濃淡を加える陰影付けを行う。その結果、
表示画像データ27が得られる。
Further, shading is performed to add shading to the surface based on the position of the light source and the distance to the display surface. as a result,
The display image data 27 is obtained.

【0035】表示画像データ27は、表示・座標入力手
段28の画面上に表示される。
The display image data 27 is displayed on the screen of the display / coordinate input means 28.

【0036】以上が、頭部の3次元画像が表示されるま
での手順である。
The above is the procedure until the three-dimensional image of the head is displayed.

【0037】次に、予め上記手順により図1(a)に示
すような頭部の3次元画像が表示されているとき、この
頭部を、図1(b)のように回転させる手順について説
明する。
Next, when the three-dimensional image of the head as shown in FIG. 1A is displayed in advance by the above procedure, the procedure for rotating the head as shown in FIG. 1B will be described. To do.

【0038】1)最初に、操作者が操作の基準となる位
置を指示し、その画面上の座標(Ua、Va)を表示・
座標入力手段28により取得する。例えば、図1(a)
の左の口元3の位置の座標を取得する。この座標を基準
座標29とする。
1) First, the operator designates a reference position for the operation, and displays the coordinates (Ua, Va) on the screen.
It is acquired by the coordinate input means 28. For example, FIG.
The coordinates of the position of the mouth 3 on the left of are acquired. These coordinates are referred to as reference coordinates 29.

【0039】2)次に、基準座標変換手段31におい
て、基準座標(Ua,Va)を3次元基準座標(Xa,
Ya,Za)に変換する。但し、3次元基準座標は、投
影変換手段24での投影変換を行なう前、即ち回転変換
手段22での回転変換を行った後の座標値に対応する形
で表現する。
2) Next, in the reference coordinate conversion means 31, the reference coordinates (Ua, Va) are converted into the three-dimensional reference coordinates (Xa,
Ya, Za). However, the three-dimensional reference coordinates are expressed in a form corresponding to the coordinate value before the projection conversion by the projection conversion unit 24, that is, after the rotation conversion by the rotation conversion unit 22.

【0040】例えば、陰面消去をZバッファアルゴリズ
ムにより行った場合、Zバッファに格納される奥行き値
(Xp)のうち、基準座標(Ua,Va)での奥行き値
をWaとすると、 [Xa,Ya,Za]=[Wa,Ua,Va]P~1 により、3次元基準座標に変換できる。ここで、P~1
投影変換行列Pの逆行列である。
For example, when hidden surface removal is performed by the Z buffer algorithm, if the depth value at the reference coordinates (Ua, Va) among the depth values (Xp) stored in the Z buffer is Wa, then [Xa, Ya , Za] = [Wa, Ua, Va] P ~ 1 can be converted into three-dimensional reference coordinates. Here, P ~ 1 is an inverse matrix of the projection transformation matrix P.

【0041】あるいは、回転・投影を行った結果、基準
座標(Ua,Va)に表示されるもののうち、画面上に
表示されるもの(表示面に最も近いもの)を選択し、そ
の基準座標の位置に対する3次元座標を算出することに
よっても変換できる。
Alternatively, as a result of rotation / projection, of those displayed at the reference coordinates (Ua, Va), the one displayed on the screen (the one closest to the display surface) is selected, and the reference coordinates It can also be converted by calculating three-dimensional coordinates for the position.

【0042】3)次に、操作者が操作の目標となる位置
を指示し、その画面上の座標(Ub、Vb)を表示・座
標入力手段28により取得する。例えば、図1(a)の
顔の右側4の位置の座標を取得する。この座標を目標座
標30とする。
3) Next, the operator designates a target position for the operation, and the display / coordinate input means 28 acquires the coordinates (Ub, Vb) on the screen. For example, the coordinates of the position on the right side 4 of the face in FIG. This coordinate is set as the target coordinate 30.

【0043】4)次に、目標座標変換手段32におい
て、目標座標(Ub,Vb)を3次元目標座標(Xb,
Yb,Zb)に変換する。但し、3次元目標座標は、投
影変換手段24での投影変換を行なう前、即ち回転変換
手段22での回転変換を行った後の座標値に対応する形
で表現する。
4) Next, in the target coordinate conversion means 32, the target coordinates (Ub, Vb) are converted into three-dimensional target coordinates (Xb,
Yb, Zb). However, the three-dimensional target coordinates are expressed in a form corresponding to the coordinate values before the projection conversion by the projection conversion unit 24, that is, after the rotation conversion by the rotation conversion unit 22.

【0044】その手順を以下に述べる。The procedure will be described below.

【0045】今、回転後の奥行き値をWbとすると、次
式が成立する。
Now, assuming that the depth value after rotation is Wb, the following equation holds.

【0046】 [Xb,Yb,Zb]=[Wb,Ub,Vb]P~1 ここで、投影変換行列Pの逆行列をP~1を、[Xb, Yb, Zb] = [Wb, Ub, Vb] P ~ 1 Here, the inverse matrix of the projection transformation matrix P is P ~ 1 ,

【0047】[0047]

【数2】 [Equation 2]

【0048】とすると、 Xb=A+aWb Yb=B+dWb Zb=C+gWd となる。但し、 A=bUb+cVb B=eUb+fVb C=hUb+iVb である。Then, Xb = A + aWb Yb = B + dWb Zb = C + gWd. However, A = bUb + cVb B = eUb + fVb C = hUb + iVb.

【0049】物体を回転させるとき、その回転軸が3次
元座標の原点を通るならば、原点から部位までの距離は
一定である。よって図5に示すように、原点から3次元
基準座標51までの距離と、原点から3次元目標座標5
2までの距離は等しい。このことから、次式が成立す
る。
When rotating an object, if the axis of rotation passes through the origin of the three-dimensional coordinates, the distance from the origin to the part is constant. Therefore, as shown in FIG. 5, the distance from the origin to the three-dimensional reference coordinates 51 and the three-dimensional target coordinates 5 from the origin.
The distance to 2 is equal. From this, the following equation is established.

【0050】 r2=Xb2+Yb2+Zb2 =(A+aWb)2+(B+dWb)2+(C+gWd)2 =LWb2+MWb+N 但し、 r2=Xa2+Ya2+Za2 L=a2+d2+g2 M=2aA+2dB+2gC N=A2+B2+C2 である。R 2 = Xb 2 + Yb 2 + Zb 2 = (A + aWb) 2 + (B + dWb) 2 + (C + gWd) 2 = LWb 2 + MWb + N However, r 2 = Xa 2 + Ya 2 + Za 2 L = a 2 + d 2 + g 2 M = 2aA + 2dB + 2gC N = A 2 + B 2 + C 2 .

【0051】よって、上記2次方程式を解き、得られる
2つの奥行き値(Wb1,Wb2)のうち、表示面に近い
ものをWbとする。そして、 [Xb,Yb,Zb]=[Wb,Ub,Vb]P~1 より、3次元目標座標に変換できる。
Therefore, of the two depth values (Wb 1 , Wb 2 ) obtained by solving the above quadratic equation, the one close to the display surface is designated as Wb. Then, from [Xb, Yb, Zb] = [Wb, Ub, Vb] P ~ 1 , it can be converted into three-dimensional target coordinates.

【0052】ここで、2次方程式の解が解なしの場合、
基準座標の位置に表示された部位を目標座標の位置まで
回転できないことを表す。この場合、再度回転可能な目
標座標の入力を促すようにするか、あるいは目標座標
(Ub,Vb)を、その比は変化させずに大きさのみを
減少させるなどにより対応できる。
Here, when the solution of the quadratic equation has no solution,
This indicates that the part displayed at the reference coordinate position cannot be rotated to the target coordinate position. In this case, it can be dealt with by urging the input of the rotatable target coordinates again or by reducing the size of the target coordinates (Ub, Vb) without changing the ratio thereof.

【0053】5)次に、回転座標行列生成手段35にお
いて、基準座標29の位置に表示している部位を、目標
座標30の位置に表示するように物体を回転させる変換
行列、即ち回転変換行列を生成する。この生成は、例え
ば図6に示す手順により行う。
5) Next, in the rotation coordinate matrix generating means 35, a transformation matrix for rotating the object so that the part displayed at the position of the reference coordinate 29 is displayed at the position of the target coordinate 30, that is, a rotation transformation matrix. To generate. This generation is performed by the procedure shown in FIG. 6, for example.

【0054】先ず、座標逆変換手段41において、3次
元基準座標33を、回転変換手段22での回転変換を行
う前、即ち3次元原画像データでの座標値に対応する形
で表現するための座標変換を行う。式で表現すると、 [Xd,Yd,Zd]=[Xa,Ya,Za]R~1 (数3) となり、3次元座標(Xd,Yd,Zd)が変換後の3
次元基準座標である。ここで、R1~1は回転変換行列R
の逆行列である。
First, in the coordinate reverse transforming means 41, the three-dimensional reference coordinates 33 are expressed before the rotation transformation in the rotation transforming means 22, that is, in the form corresponding to the coordinate values in the three-dimensional original image data. Perform coordinate conversion. When expressed by an equation, [Xd, Yd, Zd] = [Xa, Ya, Za] R ~ 1 (Equation 3), and the three-dimensional coordinate (Xd, Yd, Zd) becomes 3 after conversion.
It is a dimensional reference coordinate. Here, R1 to 1 are rotation conversion matrices R
Is the inverse matrix of.

【0055】次に、回転角決定手段42により、Z軸回
りの回転、Y軸回りの回転それぞれの回転角(θ,φ)
を導出する。その方法の一例を、図7を用いて説明す
る。
Next, the rotation angle determining means 42 rotates the respective rotation angles (θ, φ) around the Z axis and around the Y axis.
Derive. An example of the method will be described with reference to FIG.

【0056】図7において、56は3次元基準座標(X
d,Yd,Zd)、52は3次元目標座標(Xb,Y
b,Zb)である。3次元基準座標56を3次元目標座
標52まで回転させるには、先ず、3次元基準座標56
をZ軸回りに回転させる。その回転軌跡は、54のよう
な円弧になる。この回転は、Y座標値がYbとなるまで
行い、そのときの位置53でのX座標値Xcは、
In FIG. 7, 56 is a three-dimensional reference coordinate (X
d, Yd, Zd) and 52 are three-dimensional target coordinates (Xb, Y
b, Zb). To rotate the three-dimensional reference coordinates 56 to the three-dimensional target coordinates 52, first, the three-dimensional reference coordinates 56
Is rotated around the Z axis. The rotation locus becomes an arc like 54. This rotation is performed until the Y coordinate value becomes Yb, and the X coordinate value Xc at the position 53 at that time is

【0057】[0057]

【数4】 [Equation 4]

【0058】となる。It becomes

【0059】次に、Y軸回りに回転させると、3次元基
準座標56を3次元目標座標52の位置に回転させるこ
とができる。このときの回転角(θ,φ)は、次式より
導出できる。
Next, by rotating about the Y axis, the three-dimensional reference coordinates 56 can be rotated to the position of the three-dimensional target coordinates 52. The rotation angle (θ, φ) at this time can be derived from the following equation.

【0060】 θ=θb−θa φ=φb−φa (数5) 但し、 θa=tan~1(Yd/Xd) θb=tan~1(Yb/Xc) φa=tan~1(Zd/Xc) φb=tan~1(Zb/Xb) であり、 tan~1(y/x)=Tan~1(y/x) (x≧0の時) π+Tan~1(y/x) (x<0,y≧0の時) −π+Tan~1(y/x) (x<0,y<0の時)(数6) である。Θ = θb−θa φ = φb−φa (Equation 5) where θa = tan to 1 (Yd / Xd) θb = tan to 1 (Yb / Xc) φa = tan to 1 (Zd / Xc) φb = Tan to 1 (Zb / Xb), and tan to 1 (y / x) = Tan to 1 (y / x) (when x ≧ 0) π + Tan to 1 (y / x) (x <0, y ≧ a time of 0) -π + Tan ~ 1 (when y / x) (x <0 , y <0) ( 6).

【0061】最後に、行列生成手段43において、回転
角(θ,φ)より新たな回転変換行列36を生成する。
回転変換行列Rは、(数1)より生成する。
Finally, the matrix generation means 43 generates a new rotation conversion matrix 36 from the rotation angle (θ, φ).
The rotation conversion matrix R is generated from (Equation 1).

【0062】6)新たに生成した回転変換行列36を用
いて、図1(a)のような頭部の3次原画像を表示した
ときと同様な手順により、3次元原画像データから新た
な3次元画像を表示させる。すると、図1(b)のよう
に、左の口元3が顔の右側4の位置に表示されるように
頭部を回転させた3次元画像を表示することができる。
6) Using the newly generated rotation conversion matrix 36, a new procedure is performed from the three-dimensional original image data by the same procedure as when the third original image of the head as shown in FIG. 1A is displayed. Display a three-dimensional image. Then, as shown in FIG. 1B, a three-dimensional image in which the head is rotated so that the left mouth 3 is displayed at the right side 4 of the face can be displayed.

【0063】本実施例では、回転角(θ,φ)の導出を
(数5)により行うようにしたが、次式を直接解くこと
によって導出することも可能である。
In this embodiment, the rotation angle (θ, φ) is derived by (Equation 5), but it can be derived by directly solving the following equation.

【0064】 [Xb,Yb,Zb]=[Xd,Yd,Zd]R Rは、(数1)であることから、Since [Xb, Yb, Zb] = [Xd, Yd, Zd] RR is (Equation 1),

【0065】[0065]

【数7】 [Equation 7]

【0066】となる。但し、 ψ=tan~1(Yd/Xd) である。よって、It becomes However, ψ = tan to 1 (Yd / Xd). Therefore,

【0067】[0067]

【数8】 [Equation 8]

【0068】となり、θが導出できる。さらに、Then, θ can be derived. further,

【0069】[0069]

【数9】 [Equation 9]

【0070】となる。但し、 G=Xdcosθ−Ydsinθ δ=tan~1(Zd/G) である。よって、It becomes However, it is G = Xdcosθ-Ydsinθ δ = tan ~ 1 (Zd / G). Therefore,

【0071】[0071]

【数10】 [Equation 10]

【0072】となり、φが導出できる。And φ can be derived.

【0073】また、本実施例では、回転角の導出過程に
おいて、(数4)に示したようにXcは常に正の値とで
あるとした。しかし、負の値の場合も基準座標から目標
座標への回転が可能であり、両者を適当に選択して表示
することも可能である。この選択は、操作者の指示によ
り行うことも可能であり、あるいは、基準座標と目標座
標との位置関係などから、自動的に行うことも可能であ
る。
Further, in this embodiment, in the process of deriving the rotation angle, Xc is always a positive value as shown in (Equation 4). However, even in the case of a negative value, it is possible to rotate from the reference coordinates to the target coordinates, and it is also possible to appropriately select and display both. This selection can be performed by an operator's instruction, or can be automatically performed based on the positional relationship between the reference coordinates and the target coordinates.

【0074】次に、第2の実施例について説明する。Next, the second embodiment will be described.

【0075】第1の実施例では、3次元座標の座標軸を
回転軸とした回転により、物体を所望の位置まで回転さ
せるようにした。他の方法として、基準座標と目標座標
とから回転軸を決定した上で、物体を所望の位置まで回
転させることもできる。
In the first embodiment, the object is rotated to a desired position by rotation with the coordinate axis of the three-dimensional coordinate as the rotation axis. As another method, the object can be rotated to a desired position after determining the rotation axis from the reference coordinates and the target coordinates.

【0076】例えば、3次元空間上で原点を通り、且つ
3点(3次元基準座標、3次元目標座標、原点)を通る
平面に垂直な線分を回転軸とすることもできる。この場
合、回転変換行列生成手段35での回転変換行列の生成
を、例えば図8に示す手順により行うことができる。
For example, a line segment that passes through the origin in the three-dimensional space and that passes through three points (three-dimensional reference coordinates, three-dimensional target coordinates, origin) may be used as the axis of rotation. In this case, the rotation conversion matrix generation means 35 can generate the rotation conversion matrix by, for example, the procedure shown in FIG.

【0077】先ず、座標逆変換手段41において、第1
の実施例の場合と同様に、(数3)で表現される座標変
換を行う。
First, in the coordinate reverse transformation means 41, the first
Similar to the case of the embodiment of (3), the coordinate conversion represented by (Equation 3) is performed.

【0078】次に、回転軸決定手段44により、回転に
用いる回転軸を決定する。その方法の一例を、図9を用
いて説明する。
Next, the rotation axis determining means 44 determines the rotation axis used for rotation. An example of the method will be described with reference to FIG.

【0079】図9において、56は3次元基準座標(X
d,Yd,Zd)、52は3次元目標座標(Xb,Y
b,Zb)、71は原点と3次元基準座標、3次元目標
座標とが作る平面、72はこの平面に垂直なベクトルで
あり、物体を回転させるときの回転軸である。本手段で
は、この回転軸の単位ベクトル(L,M,N)を導出す
る。
In FIG. 9, 56 is a three-dimensional reference coordinate (X
d, Yd, Zd) and 52 are three-dimensional target coordinates (Xb, Y
b, Zb), 71 is a plane formed by the origin, three-dimensional reference coordinates, and three-dimensional target coordinates, and 72 is a vector perpendicular to this plane, which is a rotation axis when the object is rotated. This means derives the unit vector (L, M, N) of this rotation axis.

【0080】平面71の方程式は、次の同次連立3元1
次方程式の解として与えられる。
The equation of plane 71 is the following homogeneous simultaneous ternary 1
It is given as the solution of the following equation.

【0081】lX+mY+nZ=0 lXd+mYd+nZd=0 lXb+mYb+nZb=0 ここで、l、m、nは、平面71の方向比である。この
方程式の解は、、 X(YdZb−YbZd)+Y(ZdXb−ZbXd) +Z(XdYb−XbYd)=0 となる。よって、回転軸72の単位ベクトル(L,M,
N)は、 L=(YdZb−YbZd)/H M=(ZdXb−ZbXd)/H N=(XdYb−XbYd)/H (数11) となる。但し、
LX + mY + nZ = 0 lXd + mYd + nZd = 0 lXb + mYb + nZb = 0 where l, m and n are the direction ratios of the plane 71. The solution of this equation is: X (YdZb-YbZd) + Y (ZdXb-ZbXd) + Z (XdYb-XbYd) = 0. Therefore, the unit vector (L, M,
N) is L = (YdZb−YbZd) / HM = (ZdXb−ZbXd) / H N = (XdYb−XbYd) / H (Equation 11). However,

【0082】[0082]

【数12】 [Equation 12]

【0083】である。It is

【0084】最後に、行列生成手段45において、回転
軸の単位ベクトル(L,M,N)を用いて、新たな回転
変換行列36を生成する。これは、例えば以下の手順に
より行うことができる。
Finally, the matrix generating means 45 generates a new rotation conversion matrix 36 using the unit vector (L, M, N) of the rotation axis. This can be done, for example, by the following procedure.

【0085】先ず、回転軸がZ軸と重なるように、X軸
回り及びY軸回りに回転する。即ち、次式の変換行列R
xにより、回転軸がXZ平面に乗るまで、X軸回りに回
転させる。
First, rotation is performed around the X axis and the Y axis so that the rotation axis overlaps with the Z axis. That is, the conversion matrix R of the following equation
Rotate about the X axis by x until the rotation axis is on the XZ plane.

【0086】[0086]

【数13】 [Equation 13]

【0087】但し、However,

【0088】[0088]

【数14】 [Equation 14]

【0089】である。また、回転の向きは、Y軸の正の
向きがZ軸の正の向きに向く方向の回転が正方向であ
る。さらに、次式の変換行列Ryにより、回転軸がZ軸
と重なるまで、Y軸回りに回転させる。
It is As for the direction of rotation, the rotation in the direction in which the positive direction of the Y axis faces the positive direction of the Z axis is the positive direction. Further, by the conversion matrix Ry of the following equation, the rotation axis is rotated around the Y axis until the rotation axis overlaps with the Z axis.

【0090】[0090]

【数15】 [Equation 15]

【0091】但し、回転の向きは、X軸の正の向きがZ
軸の正の向きに向く方向の回転が正方向である。この状
態で回転軸はZ軸と重なり、回転軸回りの回転はZ軸回
りの回転になる。
However, the positive direction of the X-axis is Z
Rotation in the positive direction of the axis is the positive direction. In this state, the rotation axis overlaps with the Z axis, and rotation around the rotation axis becomes rotation around the Z axis.

【0092】次に、次式の変換行列Rzにより、Z軸回
りに回転させる。
Next, the conversion matrix Rz of the following equation is used to rotate about the Z axis.

【0093】[0093]

【数16】 [Equation 16]

【0094】但し、回転の向きは、X軸の正の向きがY
軸の正の向きに向く方向の回転が正方向である。また、
回転角ρは、次式で導出される。
However, the positive direction of the X-axis is Y
Rotation in the positive direction of the axis is the positive direction. Also,
The rotation angle ρ is derived by the following equation.

【0095】ρ=ρ2−ρ1 但し、 ρ1=tan~1(Y1/X1) ρ2=tan~1(Y2/X2) [X1,Y1,Z1]=[Xd,Yd,Zd]RxRy [X2,Y2,Z2]=[Xb,Yb,Zb]RxRy であり、tan~1 は、(数6)で定義したものと同じであ
る。
Ρ = ρ 2 −ρ 1 where ρ 1 = tan to 1 (Y 1 / X 1 ) ρ 2 = tan to 1 (Y 2 / X 2 ) [X 1 , Y 1 , Z 1 ] = [ Xd, Yd, Zd] RxRy [X 2 , Y 2 , Z 2 ] = [Xb, Yb, Zb] RxRy, and tan to 1 are the same as those defined in (Equation 6).

【0096】最後に、X軸回りの回転及びY軸回りの回
転で行った変換の逆変換を施すと、回転後の座標が得ら
れる。即ち、回転変換行列Rは、次式より生成できる。
Finally, when the inverse transformation of the transformation performed by the rotation around the X axis and the rotation around the Y axis is performed, the coordinate after the rotation is obtained. That is, the rotation conversion matrix R can be generated by the following equation.

【0097】 R=RxRyRzRy~1Rx~1 (数17) 但し、Rx~1、Ry~1は、それぞれ変換行列Rx、Ry
の逆行列である。
R = RxRyRzRy ~ 1 Rx ~ 1 (Equation 17) where Rx ~ 1 and Ry ~ 1 are conversion matrices Rx and Ry, respectively.
Is the inverse matrix of.

【0098】以上の手順により、新たに生成した回転変
換行列Rを用いて、第1の実施例の場合と同様の手順に
より、回転・投影の処理を行うと、物体を所望の位置ま
で回転させた3次元画像を表示することができる。
When the rotation / projection processing is performed by the procedure similar to that of the first embodiment using the newly generated rotation conversion matrix R by the above procedure, the object is rotated to a desired position. It is possible to display a three-dimensional image.

【0099】本実施例では、原点と3次元基準座標、3
次元目標座標とが同一直線上に存在する場合、平面71
を一意に規定できない。このようなとき、3次元基準座
標、あるいは3次元目標座標を、実用上問題無い程度移
動させる、あるいは、3次元基準座標と3次元目標座標
とを含む平面のうち、適当なもの規定するようにするな
どによって対応可能である。
In this embodiment, the origin and the three-dimensional reference coordinates, 3
If the dimensional target coordinate and the dimensional target coordinate exist on the same straight line, the plane 71
Cannot be specified uniquely. In such a case, the three-dimensional reference coordinate or the three-dimensional target coordinate is moved to such an extent that there is no practical problem, or an appropriate one of the planes including the three-dimensional reference coordinate and the three-dimensional target coordinate is defined. It is possible to respond by doing.

【0100】次に、第3の実施例について説明する。Next, a third embodiment will be described.

【0101】第1に実施例では、物体の回転は、予め物
体を表示するとき行った回転より前での物体の位置か
ら、目標とする位置へ行った。他の方法として、予め物
体を表示するとき行った回転より後での物体の位置か
ら、目標とする位置へ回転を行うようにすることもでき
る。この場合、回転変換行列生成手段35での回転変換
行列の生成を、例えば、図10に示す手順により行うこ
とができる。
In the first embodiment, the rotation of the object is performed from the position of the object before the rotation performed when the object is displayed in advance to the target position. As another method, it is possible to rotate the position of the object after the rotation performed when displaying the object in advance to the target position. In this case, the rotation conversion matrix generation means 35 can generate the rotation conversion matrix, for example, by the procedure shown in FIG. 10.

【0102】図10において、回転角決定手段42、行
列生成手段43は、第1の実施例で述べたものと全く同
じである。回転変換行列格納手段46は、現時点での回
転変換行列を格納するものである。行列乗算手段47
は、行列生成手段43で生成した回転変換行列と、回転
変換行列格納手段46で格納している回転変換行列との
積を行うものである。
In FIG. 10, the rotation angle determining means 42 and the matrix generating means 43 are exactly the same as those described in the first embodiment. The rotation conversion matrix storage means 46 stores the current rotation conversion matrix. Matrix multiplication means 47
Is a product of the rotation conversion matrix generated by the matrix generation means 43 and the rotation conversion matrix stored in the rotation conversion matrix storage means 46.

【0103】以下、図10に従い、回転変換行列の生成
手順を説明する。
The procedure for generating the rotation conversion matrix will be described below with reference to FIG.

【0104】先ず、回転角決定手段42により、Z軸回
りの回転、Y軸回りの回転それぞれの回転角(θ,φ)
を導出する。その方法は、第1の実施例の場合と全く同
様でよい。但し、座標逆変換手段41での座標変換は行
わないので、第1の実施例での3次元基準座標(Xd,
Yd,Zd)は、(Xa,Ya,Za)そのものとして
扱うものとする。
First, the rotation angle determining means 42 rotates the respective rotation angles (θ, φ) around the Z axis and around the Y axis.
Derive. The method may be exactly the same as in the first embodiment. However, since the coordinate reverse conversion means 41 does not perform the coordinate conversion, the three-dimensional reference coordinates (Xd,
Yd, Zd) is treated as (Xa, Ya, Za) itself.

【0105】次に、行列生成手段43において、導出し
た回転角(θ,φ)から(数1)に従って回転変換行列
を生成する。ここで生成した回転変換行列を、R0 とす
る。
Next, the matrix generation means 43 generates a rotation conversion matrix from the derived rotation angle (θ, φ) according to (Equation 1). The rotation conversion matrix generated here is R 0 .

【0106】最後に、行列乗算手段47において、次式
の演算を行い、最終的な回転変換行列Rを生成する。
Finally, in the matrix multiplying means 47, the following equation is calculated to generate the final rotation conversion matrix R.

【0107】 R=R10 (数18) ここで、R1は、回転変換行列格納手段46に格納され
ている、現時点での回転変換行列である。また、演算の
結果得られた回転変換行列Rは、次の生成のために、回
転変換行列格納手段46に格納する。
R = R 1 R 0 (Equation 18) Here, R 1 is the current rotation conversion matrix stored in the rotation conversion matrix storage means 46. The rotation conversion matrix R obtained as a result of the calculation is stored in the rotation conversion matrix storage means 46 for the next generation.

【0108】以上の手順により、新たに生成した回転変
換行列Rを用いて、第1の実施例の場合と同様の手順に
より、回転・投影の処理を行うと、物体を所望の位置ま
で回転させた3次元画像を表示することができる。
When the rotation / projection processing is performed by the procedure similar to that of the first embodiment using the newly generated rotation conversion matrix R by the above procedure, the object is rotated to a desired position. It is possible to display a three-dimensional image.

【0109】次に、第4の実施例について説明する。Next, a fourth embodiment will be described.

【0110】第2の実施例に対しても、第3の実施例の
場合と同様に、予め物体を表示するとき行った回転より
後での物体の位置から、目標とする位置へ回転を行うよ
うにすることもできる。この場合、回転変換行列生成手
段35での回転変換行列の生成を、例えば、図11に示
す手順により行うことができる。
Also in the second embodiment, as in the case of the third embodiment, rotation is performed from the position of the object after the rotation performed when displaying the object in advance to the target position. You can also do so. In this case, the rotation conversion matrix generation means 35 can generate the rotation conversion matrix by, for example, the procedure shown in FIG. 11.

【0111】図11において、回転軸決定手段44、行
列生成手段45は、第2の実施例で述べたものと全く同
じである。回転変換行列格納手段46、行列乗算手段4
7は、第3の実施例で述べたものと全く同じである。
In FIG. 11, the rotation axis determining means 44 and the matrix generating means 45 are exactly the same as those described in the second embodiment. Rotation conversion matrix storage means 46, matrix multiplication means 4
7 is exactly the same as that described in the third embodiment.

【0112】以下、図11に従い、回転変換行列の生成
手順を説明する。
The procedure for generating the rotation conversion matrix will be described below with reference to FIG.

【0113】先ず、回転軸決定手段44により、回転軸
の単位ベクトル(L,M,N)を導出する。その方法
は、第2の実施例の場合と全く同様でよい。但し、座標
逆変換手段41での座標変換は行わないので、第2の実
施例での3次元基準座標(Xd,Yd,Zd)は、(X
a,Ya,Za)そのものとして扱うものとする。
First, the rotation axis determining means 44 derives the unit vector (L, M, N) of the rotation axis. The method may be exactly the same as in the case of the second embodiment. However, since the coordinate reverse conversion means 41 does not perform coordinate conversion, the three-dimensional reference coordinates (Xd, Yd, Zd) in the second embodiment are (X
a, Ya, Za) itself.

【0114】次に、行列生成手段45において、導出し
た単位ベクトル(L,M,N)から(数17)に従って
回転変換行列を生成する。ここで生成した回転変換行列
を、R0 とする。
Next, the matrix generating means 45 generates a rotation conversion matrix from the derived unit vector (L, M, N) according to (Equation 17). The rotation conversion matrix generated here is R 0 .

【0115】最後に、行列乗算手段47において、(数
18)の演算を行い、最終的な回転変換行列Rを生成す
る。また、演算の結果得られた回転変換行列Rは、次の
生成のために、回転変換行列格納手段46に格納する。
Finally, the matrix multiplication means 47 performs the operation of (Equation 18) to generate the final rotation conversion matrix R. The rotation conversion matrix R obtained as a result of the calculation is stored in the rotation conversion matrix storage means 46 for the next generation.

【0116】以上の手順により、新たに生成した回転変
換行列Rを用いて、第1の実施例の場合と同様の手順に
より、回転・投影の処理を行うと、物体を所望の位置ま
で回転させた3次元画像を表示することができる。
When the rotation / projection process is performed by the procedure similar to that of the first embodiment using the newly generated rotation conversion matrix R by the above procedure, the object is rotated to a desired position. It is possible to display a three-dimensional image.

【0117】以上のように、本発明の画像操作方法にお
いては、操作者が表示されている物体を観察しながら、
操作の基準となる基準座標と、操作の目標となる目標座
標とを入力すると、基準座標と目標座標とから、基準座
標の位置に表示していた部位を目標座標の位置に表示す
るように物体を回転可能な回転変換行列を生成するよう
にした。これによって、予め表示されている物体に対し
て直接操作を行うことにより、物体を回転することがで
きるようになるので、実空間上で実際に物体を回転させ
るのと類似した感覚で、画面上の物体を回転させること
ができるような、優れたユーザインタフェイスを実現で
きるようになる。
As described above, in the image operating method of the present invention, the operator observes the displayed object while
When the reference coordinates that are the reference of the operation and the target coordinates that are the target of the operation are input, an object is displayed from the reference coordinates and the target coordinates so that the part displayed at the position of the reference coordinates is displayed at the position of the target coordinates. Is designed to generate a rotatable transformation matrix. This makes it possible to rotate the object by directly operating on the object displayed in advance, so that it is possible to rotate the object on the screen with a feeling similar to actually rotating the object in the real space. It will be possible to realize an excellent user interface that can rotate the object.

【0118】以上4つの実施例では、基準座標と目標座
標との2つ座標が入力され、基準座標の位置に表示して
いた部位を目標座標の位置に表示するようにしたが、基
準座標を一旦入力した後、目標座標を逐次入力すると、
目標座標の入力に応じて、基準座標の位置に表示してい
た部位を、目標座標の位置に表示するように、物体を逐
次回転させることも可能である。
In the above four embodiments, the two coordinates of the reference coordinate and the target coordinate are input, and the part displayed at the position of the reference coordinate is displayed at the position of the target coordinate. After inputting the target coordinates one after another,
In response to the input of the target coordinates, the object can be sequentially rotated so that the part displayed at the position of the reference coordinates is displayed at the position of the target coordinates.

【0119】例えば、図12に示すように、ディスプレ
イ84と透明タブレット85とが一体になった表示・座
標入力手段84に、頭部87が表示されているとする。
透明タブレット85は、ペン86を用いて画面上の座標
を取得するもので、ペンが画面に接触しているか否か
と、画面に接触したとき及び画面に接触した状態で移動
させたとき、その位置の座標を収集できるものである。
For example, as shown in FIG. 12, it is assumed that the head 87 is displayed on the display / coordinate input means 84 in which the display 84 and the transparent tablet 85 are integrated.
The transparent tablet 85 acquires the coordinates on the screen using the pen 86, and determines whether the pen is in contact with the screen and the position of the pen when the pen is in contact with the screen and when the pen is moved in the state of contacting the screen. The coordinates of can be collected.

【0120】そこで、例えば図13に示す手順に従っ
て、頭部の3次元画像を逐次表示するようにする。89
は、取得した基準座標と目標座標とから回転変換行列を
生成し、回転・投影の処理を行って得た3次元画像を表
示する部分で、その手順は今まで説明した通りである。
すると、操作者が、例えば81の位置にペン86を接触
させると、この位置の座標が基準座標となり、ペン86
を画面に接触した状態で例えば82の軌跡に従って移動
させると、その軌跡に従って頭部87が回転し、83の
位置でペン86を画面から離すと、その時点で回転が終
了するようにすることができる。
Therefore, the three-dimensional images of the head are sequentially displayed in accordance with the procedure shown in FIG. 13, for example. 89
Is a portion for generating a rotation transformation matrix from the acquired reference coordinates and target coordinates and displaying a three-dimensional image obtained by performing rotation / projection processing, and the procedure is as described above.
Then, when the operator brings the pen 86 into contact with the position 81, the coordinates of this position become the reference coordinates, and the pen 86
When the player touches the screen, the head 87 is rotated according to the locus of 82 when the pen is moved from the screen at the position of 83, and the rotation is ended at that point. it can.

【0121】このように、本発明の画像処理方法におい
ては、目標座標の入力に応じて、基準座標の位置に表示
していた部位を、目標座標の位置に表示するように、物
体を逐次回転できるようにした。これによって、操作者
は、指示の結果得られる3次元画像を観察しながら、所
望の回転を決定することができるようになる。
As described above, in the image processing method of the present invention, the object is sequentially rotated in response to the input of the target coordinate so that the part displayed at the position of the reference coordinate is displayed at the position of the target coordinate. I made it possible. This allows the operator to determine the desired rotation while observing the three-dimensional image obtained as a result of the instruction.

【0122】また、物体を表示している画面を、操作者
が直接指示すことにより、表示している物体を回転でき
るようにした。これによって、物体が表示されている位
置と操作者が指示する位置とをほぼ一致させることがで
き、物体により注目した状態で、操作を行うことができ
るようになる。
Further, the operator is able to rotate the displayed object by directly pointing the screen displaying the object. As a result, the position where the object is displayed and the position designated by the operator can be substantially matched, and the operation can be performed while paying attention to the object.

【0123】さらに、以上4つの実施例では、過去の回
転に用いた回転変換行列の履歴を格納できる手段を設け
ることにより、操作の取消しが可能なようにすることも
できる。
Further, in the above four embodiments, it is possible to cancel the operation by providing means for storing the history of the rotation conversion matrix used for the past rotation.

【0124】例えば、図12において頭部を81の位置
から83の位置に回転させるときに用いた回転変換行列
を、図14に示すようなスタックに格納しておく。ここ
で、一番上に格納された回転変換行列91が現在の表示
を得るのに用いたもので、2番目、3番目に格納された
もの92、93は、現時点の1つ前、2つ前に用いた回
転変換行列である。
For example, the rotation conversion matrix used when the head is rotated from the position 81 to the position 83 in FIG. 12 is stored in the stack as shown in FIG. Here, the rotation conversion matrix 91 stored at the top is used to obtain the present display, and the second and third stored 92, 93 are the one before the present time, the two This is the rotation transformation matrix used previously.

【0125】このとき、操作者が取消しを指示すると、
現時点の1つ前に用いた回転変換行列92を取り出し、
これを用いて回転・投影の処理を行う。すると、現在の
表示を得る1つ前の3次元画像を表示することができ
る。
At this time, if the operator gives an instruction to cancel,
The rotation conversion matrix 92 used immediately before the present time is taken out,
Rotation / projection processing is performed using this. Then, the immediately preceding three-dimensional image from which the current display is obtained can be displayed.

【0126】また、以上4つの実施例では、表示する物
体が頭部のみであったが、複数の物体が存在する場合、
回転変換行列を全物体に作用させ、全物体を対象に回転
させることもでき、あるいは、例えば回転変換座標を基
準座標の位置に存在した物体のみに作用させ、その物体
のみを回転させることもできる。
Further, in the above four embodiments, the object to be displayed is only the head, but when there are a plurality of objects,
The rotation transformation matrix can be applied to all the objects and all the objects can be rotated, or, for example, the rotation transformation coordinates can be applied only to the object existing at the position of the reference coordinates and only that object can be rotated. ..

【0127】また、以上4つの実施例では、回転の方法
(回転軸,回転角)を基準座標と目標座標とから決定で
きるようにしたが、従来の方法を併用若しくは付加して
もよい。例えば、新たな回転軸(例えばX軸、Y軸、Z
軸)や回転角(例えば数値入力)を指示して回転を行う
ようにすることもでき、あるいは画面上に表示された3
次元画像は2次元の画像であるので、この画像を表示面
の原点を中心に回転可能な手段を付加してもよい。
Further, in the above four embodiments, the rotation method (rotation axis, rotation angle) can be determined from the reference coordinates and the target coordinates, but a conventional method may be used together or added. For example, a new rotation axis (for example, X axis, Y axis, Z
The rotation can be performed by instructing the axis) and the rotation angle (for example, inputting a numerical value), or the 3
Since the two-dimensional image is a two-dimensional image, a unit capable of rotating the image around the origin of the display surface may be added.

【0128】あるいは、処理時間等の問題からペン86
の移動(例えば82で示す移動)に頭部87の像の回転
表示を追従させることが困難な場合、ペン86の移動に
追従して少なくとも回転の状態を表現可能な文字、記
号、図形等を逐次表示するようにしてもよい。回転の状
態を表示する文字、記号、図形等としては、例えば物体
の領域を示す立方体や、物体の概観を示すワイヤーフレ
ームモデルによる3次元像等を用いることができる。こ
れらの図形についてのみペンの移動に追従して逐次生成
する回転変換行列にしたがって表示の回転の処理を行
い、その間は3次元原画像の投影像の向きは停止させた
ままとするか、もしくは画面から消去しても良い。さら
に、ペン86が画面から離されたこと、もしくはある一
定期間移動しなかったこと検出する検出手段を用い、こ
の検出手段の検出出力をトリガとして3次元原画像の投
影像の回転のための回転変換行列の生成を行い、回転後
の像を算出する。この回転の目標座標は、ペン86が画
面から離された座標、もしくはペン86が停止した座標
である。
Alternatively, due to problems such as processing time, the pen 86
When it is difficult to follow the rotation display of the image of the head 87 with the movement of the head (for example, the movement indicated by 82), characters, symbols, figures, etc. capable of expressing at least the rotation state by following the movement of the pen 86 are displayed. You may make it display sequentially. As the characters, symbols, figures, etc. for displaying the state of rotation, for example, a cube showing the region of the object, a three-dimensional image by a wire frame model showing the appearance of the object, or the like can be used. Only for these figures, the display rotation process is performed according to the rotation conversion matrix that is sequentially generated following the movement of the pen, and during that period, the direction of the projected image of the three-dimensional original image is either stopped or the screen is rotated. It may be erased from. Further, a detection means for detecting that the pen 86 has been separated from the screen or has not moved for a certain period is used, and the detection output of this detection means is used as a trigger to rotate the projection image of the three-dimensional original image for rotation. A conversion matrix is generated and an image after rotation is calculated. The target coordinate of this rotation is the coordinate at which the pen 86 is separated from the screen, or the coordinate at which the pen 86 is stopped.

【0129】また、以上4つの実施例では、物体の位置
・形状など、物体に関するもので少なくとも表示に必要
な情報を含む3次元原画像データを基に、3次元画像を
生成、表示する場合について主に説明したが、ボリュー
ムレンダリングなど、ボクセルデータを用い、これを視
線に添って探索して3次元画像を生成、表示する場合に
も、適用可能である。この場合、視線の方向ベクトル
を、回転変換手段によって回転させることにより実現で
きる。但し、物体を回転させるのではなく、視線の方向
を回転させることから、回転変換行列そのものではな
く、その逆行列を作用させるようにする必要がある。
Further, in the above four embodiments, the case where the three-dimensional image is generated and displayed based on the three-dimensional original image data including at least the information related to the object such as the position and shape of the object and necessary for display Although mainly described, the present invention is also applicable to the case of using voxel data such as volume rendering, and searching for this along the line of sight to generate and display a three-dimensional image. In this case, it can be realized by rotating the direction vector of the line of sight by the rotation conversion means. However, since the direction of the line of sight is rotated instead of rotating the object, it is necessary to operate not the rotation conversion matrix itself but the inverse matrix.

【0130】[0130]

【発明の効果】以上のように、本発明の画像操作方法に
おいては、操作者が表示されている物体を観察しなが
ら、操作の基準となる基準座標と、操作の目標となる目
標座標とを入力すると、基準座標と目標座標とから、基
準座標の位置に表示していた部位を目標座標の位置に表
示するように物体を回転可能な回転変換行列を生成する
ようにした。これによって、予め表示されている物体に
対して直接操作を行うことにより、物体を回転すること
ができるようになるので、実空間上で実際に物体を回転
させるのと類似した感覚で、画面上の物体を回転させる
ことができるような、優れたユーザインタフェイスを実
現できるようになる。
As described above, in the image operating method of the present invention, the operator can observe the displayed object and set the reference coordinates as the operation reference and the target coordinates as the operation target. When input, a rotation conversion matrix that can rotate the object is generated from the reference coordinates and the target coordinates so that the part displayed at the reference coordinates is displayed at the target coordinates. This makes it possible to rotate the object by directly operating on the object displayed in advance, so that it is possible to rotate the object on the screen with a feeling similar to actually rotating the object in the real space. It will be possible to realize an excellent user interface that can rotate the object.

【0131】さらに、本発明の画像処理方法において
は、目標座標の入力に応じて、基準座標の位置に表示し
ていた部位を、目標座標の位置に表示するように、物体
を逐次回転できるようにした。これによって、操作者
は、指示の結果得られる3次元画像を観察しながら、所
望の回転を決定することができるようになる。
Further, in the image processing method of the present invention, the object can be sequentially rotated so that the part displayed at the reference coordinate position is displayed at the target coordinate position in response to the input of the target coordinate. I chose This allows the operator to determine the desired rotation while observing the three-dimensional image obtained as a result of the instruction.

【0132】また、物体を表示している画面を、操作者
が直接指示すことにより、表示している物体を回転でき
るようにした。これによって、物体が表示されている位
置と操作者が指示する位置とをほぼ一致させることがで
き、物体により注目した状態で、操作を行うことができ
るようになる。
The operator can directly rotate the displayed object by directly pointing the screen displaying the object. As a result, the position where the object is displayed and the position designated by the operator can be substantially matched, and the operation can be performed while paying attention to the object.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の画像操作方法の一例を説明する図であ
る。
FIG. 1 is a diagram illustrating an example of an image operation method of the present invention.

【図2】3次元画像の表示手順の一例を説明する図であ
る。
FIG. 2 is a diagram illustrating an example of a display procedure of a three-dimensional image.

【図3】頭部と表示面との位置関係を説明する図であ
る。
FIG. 3 is a diagram illustrating a positional relationship between a head and a display surface.

【図4】本発明の処理手順の一例を説明する図である。FIG. 4 is a diagram illustrating an example of a processing procedure of the present invention.

【図5】目標座標変換手段を説明する図である。FIG. 5 is a diagram illustrating target coordinate conversion means.

【図6】第1の実施例での回転変換行列生成手段を説明
する図である。
FIG. 6 is a diagram illustrating a rotation conversion matrix generation unit according to the first embodiment.

【図7】回転角決定手段を説明する図である。FIG. 7 is a diagram illustrating a rotation angle determining unit.

【図8】第2の実施例での回転変換行列生成手段を説明
する図である。
FIG. 8 is a diagram illustrating rotation conversion matrix generation means in the second embodiment.

【図9】回転軸決定手段を説明する図である。FIG. 9 is a diagram illustrating a rotation axis determining unit.

【図10】第3の実施例での回転変換行列生成手段を説
明する図である。
FIG. 10 is a diagram illustrating rotation conversion matrix generation means according to the third embodiment.

【図11】第4の実施例での回転変換行列生成手段を説
明する図である。
FIG. 11 is a diagram illustrating rotation conversion matrix generation means according to the fourth exemplary embodiment.

【図12】本発明の画像操作方法の一例を説明する図で
ある。
FIG. 12 is a diagram illustrating an example of an image operation method of the present invention.

【図13】逐次回転可能な手順の一例を説明する図であ
る。
FIG. 13 is a diagram illustrating an example of a procedure of sequentially rotating.

【図14】回転変換行列の履歴を格納する手段の一例を
説明する図である。
FIG. 14 is a diagram illustrating an example of a unit that stores a history of a rotation conversion matrix.

【符号の説明】 1 画面 2 操作前の頭部の3次元画像 3 基準座標 4〜5 目標座標 6 操作後の頭部の3次元画像 21 3次元原画像データ 22 回転変換手段 23 回転画像データ 24 投影変換手段 25 投影画像データ 26 陰面消去・陰影付け手段 27 表示画像データ 28 表示・座標入力手段 29 基準座標 30 目標座標 31 基準座標変換手段 32 目標座標変換手段 33 3次元基準座標 34 3次元目標座標 35 回転変換行列生成手段 36 回転変換行列 41 座標逆変換手段 42 回転角決定手段 43 行列生成手段 44 回転軸決定手段 45 行列生成手段 46 回転変換行列格納手段 47 行列乗算手段[Explanation of Codes] 1 screen 2 three-dimensional image of head before operation 3 reference coordinates 4 to 5 target coordinates 6 three-dimensional image of head after operation 21 three-dimensional original image data 22 rotation conversion means 23 rotation image data 24 Projection conversion means 25 Projection image data 26 Hidden surface erasing / shading means 27 Display image data 28 Display / coordinate input means 29 Reference coordinates 30 Target coordinates 31 Reference coordinate conversion means 32 Target coordinate conversion means 33 Three-dimensional reference coordinates 34 Three-dimensional target coordinates 35 rotation conversion matrix generation means 36 rotation conversion matrix 41 coordinate inverse conversion means 42 rotation angle determination means 43 matrix generation means 44 rotation axis determination means 45 matrix generation means 46 rotation conversion matrix storage means 47 matrix multiplication means

Claims (13)

【特許請求の範囲】[Claims] 【請求項1】物体の3次元画像を画面上に表示するとき
の画像操作方法であって、前記物体の3次元原画像デ−
タから所定方向の投影画像を作製して画面に表示するこ
と、前記画面上の物体に対する操作者の直接操作を検出
すること、及び前記3次元原画像デ−タから前記直接操
作にしたがう方向の投影画像を作製して前記画面に表示
することの処理過程を含み、もって画面上での前記物体
の回転を行うことを特徴とする画像操作方法。
1. A method for operating an image when displaying a three-dimensional image of an object on a screen, comprising a three-dimensional original image data of the object.
A projection image in a predetermined direction is created from the data and displayed on a screen, a direct operation of an operator on an object on the screen is detected, and a direction in which the direct operation is performed from the three-dimensional original image data is detected. An image operating method comprising a process of producing a projected image and displaying it on the screen, thereby rotating the object on the screen.
【請求項2】前記操作者の直接操作の検出の過程は、前
記操作者が前記画面上の位置を直接指示した結果を検出
することにより行なう請求項1記載の画像操作方法。
2. The image operating method according to claim 1, wherein the process of detecting the direct operation of the operator is performed by detecting a result of the operator directly instructing a position on the screen.
【請求項3】前記操作者の直接操作の検出の過程は、前
記操作者から入力された回転の基準となる基準座標を検
出する過程と、前記操作者から入力された回転の目標と
なる目標座標を検出する過程とを含み、前記画面上での
前記物体の回転は前記基準座標の物体部位が前記目標座
標の位置に移動する如く行うことを特徴とする請求項1
記載の画像操作方法。
3. The process of detecting the direct operation of the operator includes a process of detecting a reference coordinate which is a reference of rotation input by the operator, and a target which is a target of rotation input by the operator. And a step of detecting coordinates, wherein the rotation of the object on the screen is performed so that an object part of the reference coordinates moves to a position of the target coordinates.
Image manipulation method described.
【請求項4】前記操作者の直接操作の検出の過程は、前
記操作者から入力された回転の基準となる基準座標を検
出する過程、前記基準座標を前記3次元原画像デ−タの
座標系である3次元座標系上の位置に変換して3次元基
準座標とする過程、前記操作者から入力された回転の目
標となる目標座標を検出する過程、前記目標座標を前記
3次元座標系上の位置に変換して3次元目標座標とする
過程、及び前記3次元基準座標と前記3次元目標座標か
ら回転変換行列を生成する過程を含む個とを特徴とする
請求項1記載の画像操作方法。
4. The step of detecting the direct operation of the operator is a step of detecting a reference coordinate which is a reference of rotation inputted by the operator, and the reference coordinate is the coordinate of the three-dimensional original image data. Process of converting to a position on a three-dimensional coordinate system, which is a system, to obtain three-dimensional reference coordinates, a process of detecting a target coordinate that is a target of rotation input by the operator, and the target coordinate is the three-dimensional coordinate system. The image operation according to claim 1, further comprising: a step of converting the position to an upper position to obtain a three-dimensional target coordinate; and a step of generating a rotation conversion matrix from the three-dimensional reference coordinate and the three-dimensional target coordinate. Method.
【請求項5】前記目標座標の検出、前記目標画像から3
次元目標座標への変換、及び前記回転変換行列の生成の
各過程は操作者の指示座標の移動にしたがって逐次行わ
れ、もって前記画面上での前記物体の回転は操作者の指
示座標の移動を追従するごとく順次行われることを特徴
とする請求項4記載の画像操作方法。
5. Detection of the target coordinates, 3 from the target image
Each process of conversion to the dimensional target coordinates and generation of the rotation conversion matrix is sequentially performed according to the movement of the operator's designated coordinates, so that the rotation of the object on the screen causes the movement of the operator's designated coordinates. 5. The image operating method according to claim 4, wherein the operations are sequentially performed as they follow.
【請求項6】逐次生成される回転変換行列は記憶手段に
格納され、もって過去の画像の回転の履歴が記録される
ことを特徴とする請求項4記載の画像操作方法。
6. The image operating method according to claim 4, wherein the rotation conversion matrix that is sequentially generated is stored in the storage means, and a history of past rotation of the image is recorded.
【請求項7】前記操作者の指示座標の移動に追従する前
記物体の回転は、逐次生成される回転変換行列にしたが
って前記物体の概略を示す表示を順次回転する過程と、
操作者の指示座標の移動が停止したときに生成された回
転変換行列にしたがって前記物体の投影像の向きを回転
させる過程との2段階に分けて実施される請求項5記載
の画像操作方法。
7. The rotation of the object following the movement of the coordinates designated by the operator, a process of sequentially rotating a display showing an outline of the object according to a rotation conversion matrix that is sequentially generated,
The image operating method according to claim 5, wherein the image operating method is performed in two stages, that is, a process of rotating the direction of the projected image of the object according to a rotation conversion matrix generated when the movement of the coordinates designated by the operator is stopped.
【請求項8】前記回転変換行列は前記3次元原画像デ−
タの座標系の原点を通る直線を回転軸として投影像の向
きを回転させる回転変換行列である請求項4記載の画像
操作方法。
8. The rotation transformation matrix is the three-dimensional original image data.
The image manipulation method according to claim 4, wherein the rotation transformation matrix is configured to rotate the direction of the projected image with a straight line passing through the origin of the coordinate system of the data as a rotation axis.
【請求項9】前記回転変換行列は前記3次元原画像デ−
タの座標系の原点と前記3次元基準座標と前記3次元目
標座標を通る平面に垂直でかつ前記座標系の原点を通る
直線を回転軸として投影像の向きを回転させる回転変換
行列である請求項4記載の画像操作方法。
9. The rotation transformation matrix is the three-dimensional original image data.
A rotation transformation matrix that rotates the orientation of the projected image with a straight line that is perpendicular to a plane that passes through the origin of the coordinate system, the three-dimensional reference coordinates, and the three-dimensional target coordinates and that passes through the origin of the coordinate system as a rotation axis. Item 4. The image operation method according to Item 4.
【請求項10】前記回転変換行列は前記3次元原画像デ
−タの座標系の3本の座標軸のうち予め定められた2本
の座標軸を回転軸として投影像の向きを回転させる回転
変換行列である請求項4記載の画像操作方法。
10. The rotation conversion matrix is a rotation conversion matrix for rotating the direction of a projected image with two predetermined coordinate axes among three coordinate axes of the coordinate system of the three-dimensional original image data as rotation axes. The image manipulation method according to claim 4, wherein
【請求項11】前記目標座標から3次元目標座標への変
換はZバッファに格納されている奥行き値を利用して実
施することを特徴とする、請求項4記載の画像操作方
法。
11. The image operating method according to claim 4, wherein the conversion from the target coordinate to the three-dimensional target coordinate is performed by using a depth value stored in a Z buffer.
【請求項12】前記回転変換行列の生成は、予め当該物
体を表示するとき行った回転より前での当該部位の位置
から、目標とする位置へ直接回転可能な座標変換の行列
を生成し、これを3次元基準座標を3次元目標座標に変
換する座標変換の行列とすることにより行う請求項4に
記載の画像操作方法。
12. The rotation conversion matrix is generated by generating a coordinate conversion matrix that is directly rotatable from a position of the part before the rotation performed when the object is displayed in advance to a target position, The image operating method according to claim 4, wherein this is performed by using a matrix of coordinate conversion for converting the three-dimensional reference coordinates into the three-dimensional target coordinates.
【請求項13】前記回転変換行列の生成は、予め当該物
体を表示するとき行った回転より後での当該物体の位置
から、目標とする位置へ回転する座標変換の行列を求
め、求めた行列と、予め物体を表示するとき行った回転
に用いた座標変換の行列との積を求めることにより行う
請求項4に記載の画像操作方法。
13. The rotation transformation matrix is generated by obtaining a matrix of coordinate transformation for rotating a target position from the position of the object after the rotation performed when displaying the object in advance. The image operating method according to claim 4, which is performed by obtaining a product of a matrix of coordinate transformation used for rotation performed when the object is displayed in advance.
JP4003673A 1992-01-13 1992-01-13 Image operating method Pending JPH05189541A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP4003673A JPH05189541A (en) 1992-01-13 1992-01-13 Image operating method
US08/001,389 US5644689A (en) 1992-01-13 1993-01-06 Arbitrary viewpoint three-dimensional imaging method using compressed voxel data constructed by a directed search of voxel data representing an image of an object and an arbitrary viewpoint

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4003673A JPH05189541A (en) 1992-01-13 1992-01-13 Image operating method

Publications (1)

Publication Number Publication Date
JPH05189541A true JPH05189541A (en) 1993-07-30

Family

ID=11563946

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4003673A Pending JPH05189541A (en) 1992-01-13 1992-01-13 Image operating method

Country Status (1)

Country Link
JP (1) JPH05189541A (en)

Cited By (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006527056A (en) * 2003-06-11 2006-11-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ User control of 3D volume space crop
WO2011033769A1 (en) 2009-09-17 2011-03-24 富士フイルム株式会社 Medical image display device, method, and program
JP2012040285A (en) * 2010-08-23 2012-03-01 Fujifilm Corp Image display device, method, and program
JP2013021459A (en) * 2011-07-08 2013-01-31 Toshiba Corp Image processor, image processing method, image processing system and medical image diagnostic device
US8547377B2 (en) 2008-06-03 2013-10-01 Fujifilm Corporation Projection image generation apparatus, method, and program

Cited By (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006527056A (en) * 2003-06-11 2006-11-30 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ User control of 3D volume space crop
US8547377B2 (en) 2008-06-03 2013-10-01 Fujifilm Corporation Projection image generation apparatus, method, and program
WO2011033769A1 (en) 2009-09-17 2011-03-24 富士フイルム株式会社 Medical image display device, method, and program
US8625867B2 (en) 2009-09-17 2014-01-07 Fujifilm Corporation Medical image display apparatus, method, and program
JP2012040285A (en) * 2010-08-23 2012-03-01 Fujifilm Corp Image display device, method, and program
WO2012026090A1 (en) * 2010-08-23 2012-03-01 富士フイルム株式会社 Image display device, method and program
US8907949B2 (en) 2010-08-23 2014-12-09 Fujifilm Corporation Image display apparatus, method and program
JP2013021459A (en) * 2011-07-08 2013-01-31 Toshiba Corp Image processor, image processing method, image processing system and medical image diagnostic device

Similar Documents

Publication Publication Date Title
US5644689A (en) Arbitrary viewpoint three-dimensional imaging method using compressed voxel data constructed by a directed search of voxel data representing an image of an object and an arbitrary viewpoint
EP0856786B1 (en) Window Displaying apparatus and method
CN110163942B (en) Image data processing method and device
JP2559910B2 (en) Method and apparatus for designating 3D points in 2D graphic display
JP2907105B2 (en) 3D display device
JP2824454B2 (en) 3D figure input method
JP2004362218A (en) Three-dimensional object operating method
JPH05189541A (en) Image operating method
CN107481306B (en) Three-dimensional interaction method
CN116310041A (en) Rendering method and device of internal structure effect, electronic equipment and storage medium
JP5767371B1 (en) Game program for controlling display of objects placed on a virtual space plane
JP4683639B2 (en) Image processing method and image processing apparatus
JP3276949B2 (en) Three-dimensional directed object localization method and image processing apparatus
CN114089879B (en) Cursor control method of augmented reality display equipment
JP3413145B2 (en) Virtual space editing method and virtual space editing device
JPH03211686A (en) Computer control display method and apparatus
JPH08249500A (en) Method for displaying three-dimensional graphic
JP3732174B2 (en) Three-dimensional configuration editing method and three-dimensional configuration editing apparatus
WO2024042763A1 (en) Information processing device, information processing system, and program
JP2005322097A (en) Device, method and program for displaying animation of object image model
JPH06243266A (en) Perspective drawing generating device
JPH11296302A (en) Three-dimensional coordinate inputting device
JPH0762793B2 (en) 3D cursor display device
JPH06266824A (en) Picture display device
JPH11272891A (en) Method and device for controlling display state in three-dimensional space display system and record medium for control