JPH05225313A - Image display support method and device therefor - Google Patents

Image display support method and device therefor

Info

Publication number
JPH05225313A
JPH05225313A JP4026503A JP2650392A JPH05225313A JP H05225313 A JPH05225313 A JP H05225313A JP 4026503 A JP4026503 A JP 4026503A JP 2650392 A JP2650392 A JP 2650392A JP H05225313 A JPH05225313 A JP H05225313A
Authority
JP
Japan
Prior art keywords
viewpoint
user
viewpoint position
image display
display
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP4026503A
Other languages
Japanese (ja)
Inventor
Koichiro Ino
弘一郎 伊能
Toshiharu Koike
俊晴 小池
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Ltd
Hitachi Chubu Software Ltd
Original Assignee
Hitachi Ltd
Hitachi Chubu Software Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Ltd, Hitachi Chubu Software Ltd filed Critical Hitachi Ltd
Priority to JP4026503A priority Critical patent/JPH05225313A/en
Publication of JPH05225313A publication Critical patent/JPH05225313A/en
Pending legal-status Critical Current

Links

Landscapes

  • Processing Or Creating Images (AREA)
  • Digital Computer Display Output (AREA)
  • Image Generation (AREA)
  • Controls And Circuits For Display Device (AREA)

Abstract

PURPOSE:To make it possible to change the visual point of a display graphic promptly, easily and in a way with an actual feeling by utilizing an operation changing a spatial positional relation between a user and a graphic to be performed for changing the position of a support by the user as the operation for changing the visual point. CONSTITUTION:In a method changing the visual point of a three-dimensional graphic which is being displayed on a display, the visual point position of a user is detected and it is rotated so that it may face the direction of the visual point position of the user who detected the display. The three-dimensional graphic which is being displayed on the display is converted into the graphic viewed from the detected visual point position and the three-dimensional graphic which is being displayed is updated. The system constitution has a visual point position measuring part 1404 measuring the visual point position of the user, a visual point conversion part 1405 converting the visual point position and a display angle adjusting part 1406 adjusting the angle of the display, and is controlled by a control part 1401.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【産業上の利用分野】本発明は、イメージ表示方法及び
装置に係り、特に、3次元イメージの表示システムにお
いて、表示イメージの視点位置の変更を迅速,容易かつ
現実感に即して行う方法及び装置に関する。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to an image display method and device, and more particularly to a method and a device for changing a viewpoint position of a display image in a three-dimensional image display system quickly, easily and realistically. Regarding the device.

【0002】[0002]

【従来の技術】“株式会社アスキー,WINGZ”は、
表形式データの計算及び視覚化のためのソフトウェアで
あり、3次元グラフの表示機能を有している。この機能
では、例えば、“株式会社アスキー,WINGZ ユー
ザーズガイド,pp.254−255”で説明されている
ように、表示図形の視点位置の設定を、ユーザが、キー
ボード,マウスを利用して視点の角度と距離を入力する
ことにより行う。また、視点位置の設定値を変えること
により視点を変換する機能を備えている。
2. Description of the Related Art "ASCII Co., WINGZ" is
It is software for calculating and visualizing tabular data, and has a display function of a three-dimensional graph. With this function, for example, as described in "ASCII Co., WINGZ User's Guide, pp. 254-255", the user sets the viewpoint position of the display figure by using the keyboard and the mouse. And enter the distance. Further, it has a function of converting the viewpoint by changing the set value of the viewpoint position.

【0003】さらに、“横河・ヒューレット・パッカー
ド株式会社,HP 9000 シリーズ 300 コン
ピュータ HP−UX”オペレーション・システムで
は、その周辺装置として、ノブ・ダイアルを用いたグラ
フィックス位置決めデバイスのコントロール・モジュー
ルを有している。このモジュールでは、例えば、“横河
・ヒューレット・パッカード株式会社,HP 9000
シリーズ 300 コンピュータ HP−UX 周辺
装置のインストール,p.10の42.”で説明されてい
るように、3軸姿勢,3軸平行移動,尺度変更をノブ・
ダイアルの操作により行う機能を備えている。
Furthermore, the "Yokogawa Hewlett-Packard Co., HP 9000 series 300 computer HP-UX" operating system has a control module for a graphics positioning device using a knob dial as its peripheral device. is doing. In this module, for example, "Yokogawa Hewlett-Packard Co., HP 9000"
Installation of Series 300 Computer HP-UX Peripherals, 42. ”on p.10, knobs for 3-axis orientation, 3-axis translation, and scale change.
It is equipped with a function that can be operated by dialing.

【0004】[0004]

【発明が解決しようとする課題】しかし、従来の方法で
は次の問題点がある。すなわち、表示中の図形をユーザ
の望む視点に変更する場合、キーボードから視点位置を
入力するか、あるいはダイヤルなどの装置を手動により
操作することで視点位置を変更する。このため、表示図
形の視点を変える、すなわち、ユーザと図形との空間的
な位置関係を変えて今までとは違った位置あるいは方向
から見るという目的と、実際に表示図形の視点を変える
ための方法や装置とに差があるという問題点があった。
However, the conventional method has the following problems. That is, when changing the displayed figure to the viewpoint desired by the user, the viewpoint position is changed by inputting the viewpoint position from the keyboard or manually operating a device such as a dial. For this reason, the viewpoint of the display graphic is changed, that is, the spatial positional relationship between the user and the graphic is changed to view from a different position or direction, and the viewpoint of the display graphic is actually changed. There was a problem that there was a difference in method and device.

【0005】本発明の目的は、ディスプレイに表示中の
3次元図形の視点を変更する場合に、ユーザが視点の位
置を変更するために行うユーザと図形との空間的な位置
関係を変える動作を、視点を変更するための操作として
利用することにより、表示図形の視点の変更を迅速,容
易かつ現実感の伴った方法で行えるイメージ表示支援方
法及び装置を提供することにある。
An object of the present invention is to perform an operation of changing the spatial positional relationship between a user and a figure when the user changes the point of view when changing the viewpoint of the three-dimensional figure being displayed on the display. An object of the present invention is to provide an image display support method and apparatus which can be used as an operation for changing the viewpoint to change the viewpoint of a display graphic in a quick, easy and realistic manner.

【0006】[0006]

【課題を解決するための手段】上記目的は、図2に示す
ように、ユーザの視点位置を検出し(ステップ211)、
ディスプレイを検出したユーザの視点方向へ向くように
回転し(ステップ212)、ディスプレイに表示中の3次元
図形を検出したユーザの視点位置から見た図形に変換
し、表示中の3次元図形を更新する(ステップ213)
イメージ表示支援方法により達成される。
The purpose of the above is to detect the viewpoint position of the user as shown in FIG. 2 (step 211),
The display is rotated so as to face the direction of the detected user (step 212), the three-dimensional figure being displayed on the display is converted into a figure seen from the detected user's viewpoint, and the three-dimensional figure being displayed is updated. Yes (step 213)
This is achieved by the image display support method.

【0007】また、上記目的は、図15に示すように、
ユーザの視点位置を計測する手段(1404),視点位
置を変更する手段(1405),ディスプレイの角度を
調整する手段(1406)からなるイメージ表示支援装
置により達成される。
Further, the above-mentioned object is as shown in FIG.
This is achieved by the image display support device including means (1404) for measuring the viewpoint position of the user, means (1405) for changing the viewpoint position, and means (1406) for adjusting the angle of the display.

【0008】[0008]

【作用】ユーザの視点位置を検出するステップ211,
ディスプレイを検出したユーザの視点方向へ向くように
回転するステップ212,ディスプレイに表示中の3次
元図形を検出したユーザの視点位置から見た図形に変換
し、更新するステップ213の繰返し実行により、ディ
スプレイに表示中の3次元図形の視点を変更する場合
に、ユーザが視点の位置を変更するために行うユーザと
図形との空間的な位置関係を変える動作を、視点を変更
するための操作として利用することを可能とし、表示図
形の視点の変更を迅速,容易かつ現実感の伴った方法で
行えるイメージ表示支援方法を実現できる。
[Operation] Step 211 for detecting the viewpoint position of the user,
Step 212 of rotating the display so as to face the direction of the detected user's point of view, conversion of the three-dimensional figure being displayed on the display into a figure viewed from the point of view of the detected user, and updating step 213, the display is repeated. When changing the viewpoint of the three-dimensional figure being displayed on the screen, the operation of changing the spatial position between the user and the figure to change the position of the viewpoint is used as the operation for changing the viewpoint. Therefore, it is possible to realize an image display support method capable of changing the viewpoint of a display figure quickly, easily and in a realistic manner.

【0009】また、ユーザの視点位置を計測する手段
(1404),視点位置を変更する手段(1405),
ディスプレイの角度を調整する手段(1406)からな
るイメージ表示支援装置により、ディスプレイに表示中
の3次元図形の視点を変更する場合に、ユーザが視点の
位置を変更するために行うユーザと図形との空間的な位
置関係を変える動作を、視点を変更するための操作とし
て利用することを可能とし、表示図形の視点の変更を迅
速,容易かつ現実感の伴った方法で行えるイメージ表示
支援装置を実現できる。
Further, means (1404) for measuring the user's viewpoint position, means (1405) for changing the viewpoint position,
When the viewpoint of the three-dimensional graphic being displayed on the display is changed by the image display support device including the means (1406) for adjusting the angle of the display, the user and the graphic perform to change the position of the viewpoint. Realizing an image display support device that enables the operation of changing the spatial positional relationship to be used as an operation for changing the viewpoint, and can change the viewpoint of a display figure quickly, easily and with a sense of reality it can.

【0010】[0010]

【実施例】本発明の第一の実施例の概略について図1を
用いて説明する。図1の(a)〜(c)は、ディスプレ
イ装置に表示された自動車の3次元図形をユーザが観察
している最初の状態を示している。図1の(a)〜
(c)において、101はユーザである。102はディ
スプレイ装置である。103,104,105はそれぞ
れディスプレイ装置の回転中心113を原点とする、空
間に固定された直交座標系のx軸,y軸,z軸である。
106はディスプレイ装置102に表示されている自動
車の3次元図形である。図1の(d)〜(f)は、図1
の(a)〜(c)に示した状態からユーザが左に角度
θ,上方に角度φだけ移動した状態を示している。図2
の(d)〜(f)において、107は位置を移動したユ
ーザである。108は、変化するユーザの位置を追跡し
ながら方向を変えたディスプレイ装置である。112は
ディスプレイ装置108に表示されている自動車の3次
元図形である。
DESCRIPTION OF THE PREFERRED EMBODIMENTS The outline of the first embodiment of the present invention will be described with reference to FIG. 1A to 1C show a first state in which a user observes a three-dimensional figure of an automobile displayed on a display device. 1 (a)-
In (c), 101 is a user. 102 is a display device. Reference numerals 103, 104, and 105 denote the x-axis, y-axis, and z-axis of a Cartesian coordinate system fixed in space, with the center of rotation 113 of the display device as the origin.
Reference numeral 106 is a three-dimensional figure of the automobile displayed on the display device 102. (D) to (f) of FIG.
From the states shown in (a) to (c), the user has moved leftward by the angle θ and upward by the angle φ. Figure 2
In (d) to (f) of No. 107, the user 107 has moved the position. Reference numeral 108 denotes a display device which changes its direction while tracking the changing position of the user. Reference numeral 112 is a three-dimensional figure of the automobile displayed on the display device 108.

【0011】以上のように、本発明の第一の実施例であ
る情報処理システムを用いれば、ユーザの視点を移動さ
せるだけで、ディスプレイ装置に表示する3次元図形を
変化させることができ、かつ、自動車の3次元図形が、
あたかも、ディスプレイ装置の回転中心113を原点と
する、空間に固定された直交座標系(x軸103,y軸
104,z軸105)に固定されているように3次元図
形を表示することができ、表示図形の立体図形としての
現実感を高めることができる。
As described above, by using the information processing system according to the first embodiment of the present invention, it is possible to change the three-dimensional figure displayed on the display device simply by moving the user's viewpoint. , A three-dimensional figure of a car
It is possible to display a three-dimensional figure as if it were fixed to a Cartesian coordinate system (x-axis 103, y-axis 104, z-axis 105) fixed in space, with the center of rotation 113 of the display device as the origin. It is possible to enhance the sense of reality of the display figure as a three-dimensional figure.

【0012】先ず、第一の実施例である情報処理システ
ムのシステム構成を図4を用いて説明する。図におい
て、407はメモリ408に内蔵されたプログラム40
9により動作し、キーボード412,マウス413,A
/Dコンバータ401と402、およびディスプレイ装
置制御部411からの入力を受け付け、メモリ408上
のデータ410を用いて計算処理を行い、結果をディス
プレイ装置102,ディスプレイ装置角度制御部411
およびLED発光制御部414に出力するCPUであ
る。キーボード412およびマウス413は、それぞ
れ、ユーザからの文字入力およびディスプレイ装置上の
位置に関する情報を受け付け、CPU407に伝達する
機能を有する。また、ディスプレイ装置102は、CP
U407からの画面表示に関する情報を受け、画面に文
字情報や図形を表示する機能を有する。メモリ408に
は、処理の実行に必要なプログラム409およびデータ
410が格納されている。403および404は、ユー
ザの頭部に固定したLED415からの光を受容しその
位置を検出するエリアセンサ1およびエリアセンサ2で
ある。401,402はそれぞれエリアセンサ403と
エリアセンサ404からのアナログ信号出力を受け、デ
ィジタル信号に変換してCPU407に出力するA/D
コンバータである。411はCPU407からのディス
プレイ装置102の方位角と仰角の修正量についての信
号を入力し、可動台座機構406を制御し、また、ディ
スプレイ装置102の現在の方位角と仰角をCPU40
7に伝達するディスプレイ装置角度制御部である。40
6はディスプレイ装置405を支持し、ディスプレイ装
置角度制御部411からの信号によってディスプレイ装
置102の回転角と仰角を変化させる可動台座機構であ
る。414はCPU407からのLED発光についての
信号を入力し、LED415の発光を制御するLED発
光制御部である。
First, the system configuration of the information processing system according to the first embodiment will be described with reference to FIG. In the figure, 407 is a program 40 stored in the memory 408.
9 and keyboard 412, mouse 413, A
Inputs from the A / D converters 401 and 402 and the display device control unit 411 are accepted, a calculation process is performed using the data 410 on the memory 408, and the result is displayed on the display device 102 and the display device angle control unit 411.
And a CPU for outputting to the LED light emission control unit 414. The keyboard 412 and the mouse 413 each have a function of receiving character input from the user and information regarding the position on the display device, and transmitting the information to the CPU 407. In addition, the display device 102 is a CP
It has a function of receiving information about screen display from U407 and displaying character information and graphics on the screen. The memory 408 stores a program 409 and data 410 necessary for executing the processing. Reference numerals 403 and 404 denote an area sensor 1 and an area sensor 2 that receive light from the LED 415 fixed to the user's head and detect its position. A / Ds 401 and 402 receive analog signal outputs from the area sensor 403 and the area sensor 404, respectively, convert them into digital signals and output them to the CPU 407.
It is a converter. A CPU 407 inputs a signal regarding the correction amount of the azimuth angle and the elevation angle of the display device 102 from the CPU 407, controls the movable pedestal mechanism 406, and determines the current azimuth angle and elevation angle of the display device 102 by the CPU 40.
7 is a display device angle control unit transmitted to the display device 7. 40
A movable base mechanism 6 supports the display device 405 and changes the rotation angle and the elevation angle of the display device 102 in response to a signal from the display device angle control section 411. Reference numeral 414 denotes an LED light emission control unit that inputs a signal regarding the LED light emission from the CPU 407 and controls the light emission of the LED 415.

【0013】次に、第一の実施例である情報処理システ
ムのシステム構成ブロック図を図15を用いて説明す
る。図において、1401は制御部である。1411は
キャンセル距離設定部である。1402は初期視点位置
設定部である。1403は変換感度設定部である。14
04は視点位置計測部である。1405は視点変換部で
ある。1406はディスプレイ装置角度調整部である。
1408は図形データ記憶部である。1409は表示状
態指示部である。1410は透視変換部である。102
はディスプレイ装置である。
Next, a system configuration block diagram of the information processing system according to the first embodiment will be described with reference to FIG. In the figure, 1401 is a control unit. Reference numeral 1411 is a cancel distance setting unit. 1402 is an initial viewpoint position setting unit. 1403 is a conversion sensitivity setting unit. 14
Reference numeral 04 is a viewpoint position measuring unit. 1405 is a viewpoint conversion unit. 1406 is a display device angle adjusting unit.
Reference numeral 1408 is a graphic data storage unit. Reference numeral 1409 is a display state instruction unit. 1410 is a perspective conversion unit. 102
Is a display device.

【0014】制御部1401は初期視点位置設定部14
02,変換感度設定部1403,視点位置計測部140
4,視点変換部1405,ディスプレイ装置角度調整部
1406,ディスプレイ装置102,図形データ記憶部
1408,表示状態指示部1409,視点変換部141
0およびキャンセル距離設定部1411との間で情報の
授受を行い、各部間の動作タイミングを制御する。
The control unit 1401 includes an initial viewpoint position setting unit 14
02, conversion sensitivity setting unit 1403, viewpoint position measuring unit 140
4, viewpoint conversion unit 1405, display device angle adjustment unit 1406, display device 102, graphic data storage unit 1408, display state instruction unit 1409, viewpoint conversion unit 141
Information is exchanged between 0 and the cancel distance setting unit 1411 to control the operation timing between each unit.

【0015】次に、初期視点位置設定部1402につい
て図16を用いて説明する。図において、1402は初
期視点位置設定部である。1501は初期視点位置入力
部である。1502は初期視点位置記憶部である。
Next, the initial viewpoint position setting unit 1402 will be described with reference to FIG. In the figure, 1402 is an initial viewpoint position setting unit. Reference numeral 1501 is an initial viewpoint position input unit. Reference numeral 1502 is an initial viewpoint position storage unit.

【0016】次に、変換感度設定部1403について図
17を用いて説明する。図において、1403は変換感
度設定部である。1601は変換感度入力部である。16
02は変換感度記憶部である。
Next, the conversion sensitivity setting unit 1403 will be described with reference to FIG. In the figure, 1403 is a conversion sensitivity setting unit. Reference numeral 1601 is a conversion sensitivity input unit. 16
02 is a conversion sensitivity storage unit.

【0017】次に、第一の実施例に用いる視点変換部1
405について、図21を用いて説明する。図におい
て、1405は視点変換部である。2001は視点位置
計算部である。
Next, the viewpoint conversion unit 1 used in the first embodiment.
405 will be described with reference to FIG. In the figure, 1405 is a viewpoint conversion unit. 2001 is a viewpoint position calculation unit.

【0018】次に、ディスプレイ装置角度調整部140
6について、図20を用いて説明する。図において、1
406はディスプレイ装置角度調整部である。411は
ディスプレイ装置角度制御部である。406は可動台座
機構である。ただし、第一の実施例では、以上で説明し
たシステム構成ブロックの中の変換感度設定部1403は使
用しない。
Next, the display device angle adjusting section 140.
6 will be described with reference to FIG. In the figure, 1
Reference numeral 406 is a display device angle adjusting unit. Reference numeral 411 is a display device angle control unit. 406 is a movable base mechanism. However, in the first embodiment, the conversion sensitivity setting unit 1403 in the system configuration block described above is not used.

【0019】次に、第一の実施例における処理フロー
を、図2に従って説明する。ステップ201において、
第一の実施例の処理を開始する。ステップ202におい
て、処理で使用する変数を初期化する。また、センサ座
標系とワールド座標系とのスケール比Sを設定する。ス
テップ203において、初期視点位置設定部1402に
より、ユーザからのキーボード412またはマウス41
3からの入力により、3次元図形を定義しているワール
ド座標系での視点の初期位置を含めた3次元図形の投影
条件を設定する。ステップ204において、ユーザから
のキーボード412またはマウス413からの入力によ
り、ディスプレイ装置102の初期方位角と初期仰角を
設定する。ステップ205において、ディスプレイ装置
角度調整部1406により、ディスプレイ装置角度制御
部411を用いて可動台座機構406を動作させ、ディ
スプレイ装置102の角度を、ステップ204で設定し
た初期方位角と初期仰角と等しくなるようにする。
Next, the processing flow in the first embodiment will be described with reference to FIG. In step 201,
The process of the first embodiment is started. In step 202, variables used in the process are initialized. Also, a scale ratio S between the sensor coordinate system and the world coordinate system is set. In step 203, the initial viewpoint position setting unit 1402 causes the keyboard 412 or the mouse 41 from the user.
Input from 3 sets the projection condition of the three-dimensional figure including the initial position of the viewpoint in the world coordinate system that defines the three-dimensional figure. In step 204, an initial azimuth angle and an initial elevation angle of the display device 102 are set by an input from the keyboard 412 or the mouse 413 by the user. In step 205, the display device angle adjustment unit 1406 operates the movable pedestal mechanism 406 using the display device angle control unit 411, and the angle of the display device 102 becomes equal to the initial azimuth angle and the initial elevation angle set in step 204. To do so.

【0020】ステップ206において、ステップ203
で設定した視点の初期位置から見た図形、即ち、視点の
初期位置を投影の中心とする透視変換で得られた図形を
ディスプレイ装置102に表示する。ステップ207に
おいて、視点位置計測部1404により、LED発光制御部
414を用いてユーザの頭部に固定したLED415を
発光させる。ステップ208において、制御部1401
において、マウス413,キーボード412の入力バッフ
ァから、表示状態指示部1409によって入力された図
形表示終了、イメージ自動変換の各スイッチのオン,オ
フを調べ、オンならば1,オフならば0を、それぞれ変
数END,TRNSに設定し、バッファをクリアする。
ステップ209では、変数ENDについて条件判断を行
い、END=1でない場合にはステップ210に制御をわ
たし、END=1である場合には第一の実施例の処理を
終了する(ステップ214)。
In step 206, step 203
A graphic viewed from the initial position of the viewpoint set in step 2, that is, a graphic obtained by perspective transformation with the initial position of the viewpoint as the center of projection is displayed on the display device 102. In step 207, the viewpoint position measuring unit 1404 uses the LED light emission control unit 414 to cause the LED 415 fixed to the user's head to emit light. In step 208, the control unit 1401
In the input buffers of the mouse 413 and the keyboard 412, the graphic display end input by the display state instructing unit 1409 and the ON / OFF of each switch of the image automatic conversion are checked. Set the variables END and TRNS to clear the buffer.
In step 209, the condition is judged for the variable END. If END = 1 is not satisfied, control is passed to step 210, and if END = 1, the process of the first embodiment is ended (step 214).

【0021】ステップ210では、変数TRNSについ
て条件判断を行い、TRNS=1でない場合にはステッ
プ208に制御をわたし、TRNS=1である場合には
ステップ211に制御をわたす。ステップ211におい
て、視点位置計測部1404により、エリアセンサ40
3,エリアセンサ404,A/Dコンバータ401,4
02を用いてユーザの視点位置(LEDの位置)を検出
する。ステップ212において、ディスプレイ装置10
2が、ステップ211で検出したユーザの視点位置を向
くように、ディスプレイ装置102の方位角と仰角を修
正する。ステップ213において、表示図形を、ステッ
プ211で検出したユーザの視点位置から見た図形、即
ち、視点位置を投影の中心とする透視変換で得られた図
形に更新し、制御をステップ208にわたす。
In step 210, the condition is judged for the variable TRNS. If TRNS = 1 is not satisfied, the control is passed to step 208. If TRNS = 1, the control is passed to step 211. In step 211, the viewpoint position measuring unit 1404 causes the area sensor 40
3, area sensor 404, A / D converters 401, 4
02 is used to detect the viewpoint position of the user (the position of the LED). In step 212, the display device 10
2 corrects the azimuth angle and the elevation angle of the display device 102 so that the point 2 faces the user's viewpoint position detected in step 211. In step 213, the display figure is updated to the figure seen from the user's viewpoint position detected in step 211, that is, the figure obtained by perspective transformation with the viewpoint position as the center of projection, and the control is passed to step 208.

【0022】ここで、図2中のステップ203で設定す
る視点の初期位置を含めた3次元図形の投影条件につい
て説明する。3次元図形の投影条件を規定する方法は種
々あるが、ここではフォリー(Foly)らによるコンピュー
タ グラフィクス−プリンシプルズ アンド プラクテ
イス(Computer Graphics−PRINCIPLES and PRACTICE)ア
ディスン ウェズレイ(ADDISON WESLEY)社刊,pp.23
7−244による3次元図形の投影条件についての表記
方法に従う。即ち、ステップ203で設定する3次元図
形の投影条件とは、視点の位置(投影の中心)としての
PRP(projection reference point)の座標,投影面を
規定するVRP(view reference point)の座標,VP
N(view−plane normal)の成分,VUP(view up ve
ctor)の成分,投影面上での長方形の投影範囲を規定す
るwindow、および投影の種類(投影が透視投影であるか
平行投影であるか)である。本発明の実施例では、投影
の種類は透視変換であるとして説明する。また、3次元
図形の投影において、一般にウィンドウ(window)の中
心(CW : center of window)とPRPを結ぶ直線は投
影面に垂直であるとは限らないが、本発明の実施例で
は、説明の簡略化のため、windowの中心とPRPを結ぶ
直線は投影面に垂直であるものとする。
Now, the projection conditions of the three-dimensional figure including the initial position of the viewpoint set in step 203 in FIG. 2 will be described. There are various methods of defining the projection conditions for three-dimensional figures, but here, Computer Graphics-PRINCIPLES and PRACTICE by ADDison WESLEY, by Foly et al., P. 23
Follow the notation method for the projection condition of the three-dimensional figure in 7-244. That is, the projection conditions of the three-dimensional figure set in step 203 are the coordinates of the PRP (projection reference point) as the position of the viewpoint (center of the projection), the coordinates of the VRP (view reference point) that defines the projection plane, and the VP.
N (view-plane normal) component, VUP (view up ve
ctor) component, the window that defines the rectangular projection range on the projection surface, and the type of projection (whether the projection is perspective projection or parallel projection). In the embodiment of the present invention, the type of projection is described as perspective transformation. Further, in the projection of a three-dimensional figure, in general, the straight line connecting the center (CW: center of window) of the window and the PRP is not necessarily perpendicular to the projection plane, but in the embodiment of the present invention, the description will be given. For simplification, it is assumed that the straight line connecting the center of window and PRP is perpendicular to the projection plane.

【0023】次に、図6を用いて、図2中のステップ2
06の詳細な説明を行う。ステップ601において、図
2のステップ206の処理を開始する。ステップ602
において、図2のステップ203で設定した視点の初期
位置を視点位置として読み込む。ステップ603におい
て、透視変換部1410において、図形データ記憶部1
408で記憶しているワールド座標で定義された立体図
形に対し、ステップ602で読み込んだ視点位置からの
透視変換を行う。ステップ604において、ディスプレ
イ装置102に既に図形が表示されている場合は、ディ
スプレイ装置表示図形をクリアする。ステップ605に
おいて、ステップ603の透視変換により得られた立体
図形の座標を使いディスプレイ装置102に図形を表示
する。ステップ604において、図2のステップ206
の処理を終了する。
Next, referring to FIG. 6, step 2 in FIG.
06 will be described in detail. In step 601, the process of step 206 of FIG. 2 is started. Step 602
In step 2, the initial position of the viewpoint set in step 203 of FIG. 2 is read as the viewpoint position. In step 603, in the perspective conversion unit 1410, the graphic data storage unit 1
A perspective transformation from the viewpoint position read in step 602 is performed on the three-dimensional figure defined in world coordinates stored in step 408. In step 604, if the graphic is already displayed on the display device 102, the graphic displayed on the display device is cleared. In step 605, the figure is displayed on the display device 102 using the coordinates of the three-dimensional figure obtained by the perspective transformation in step 603. At step 604, step 206 of FIG.
Ends the process.

【0024】次に、図18及び図7(a),(b)を用い
て、ステップ211のユーザ視点検出方法と視点位置計
測部1404について詳細に説明する。
Next, the user viewpoint detecting method in step 211 and the viewpoint position measuring unit 1404 will be described in detail with reference to FIGS. 18 and 7A and 7B.

【0025】図18において、1404は視点位置計測
部、401,402はエリアセンサ、403,404は
A/Dコンバータ、414はLED発光制御部、415
はLED、1701はセンサ座標系視点位置計測部であ
り、以下で説明するユーザ視点位置の検出は、視点位置
計測部において処理する。
In FIG. 18, 1404 is a viewpoint position measuring unit, 401 and 402 are area sensors, 403 and 404 are A / D converters, 414 is an LED emission control unit, 415.
Is an LED, and 1701 is a sensor coordinate system viewpoint position measurement unit, and the detection of the user viewpoint position described below is processed by the viewpoint position measurement unit.

【0026】図7(a),(b)において、403はエリア
センサ1、404はエリアセンサ2、711及び712
はそれぞれのエリアセンサの集光用レンズ、415はL
ED、713はLED415からエリアセンサ403へ
の入射光、同様に714はエリアセンサ404への入射
光である。各エリアセンサ上の座標(a,b),(c,
d)は、エリアセンサ403,404により測定したL
ED光の入射位置であり、A/Dコンバータ401,4
02を介してセンサ座標系視点位置計算部1701へ出力さ
れる。また、図に示すように、各エリアセンサ上に座標
系を設け、それぞれセンサ1座標系,センサ2の座標系
とし、その上位にセンサ座標系を設ける。ここで、点P
Z・S1はセンサ1の座標系におけるLED415のz座標
であり、点PZ・S2はセンサ2座標系におけるLED41
5のz座標である。
In FIGS. 7A and 7B, 403 is the area sensor 1, 404 is the area sensors 2, 711 and 712.
Is a condensing lens of each area sensor, 415 is L
ED and 713 are incident light from the LED 415 to the area sensor 403, and similarly, 714 is incident light to the area sensor 404. Coordinates (a, b), (c, on each area sensor
d) is L measured by the area sensors 403 and 404.
The ED light is incident on the A / D converters 401 and 4
It is output to the sensor coordinate system viewpoint position calculation unit 1701 via 02. Further, as shown in the figure, a coordinate system is provided on each area sensor, which is used as the coordinate system of the sensor 1 and the coordinate system of the sensor 2, respectively, and the sensor coordinate system is provided above them. Where point P
Z · S1 is the z coordinate of the LED 415 in the coordinate system of the sensor 1, and the point P Z · S2 is the LED 41 in the coordinate system of the sensor 2.
5 is the z coordinate.

【0027】図7(b)は、センサ1の座標系を例とし
たLED光の入射角θS1,φS1の説明図であり、403
はエリアセンサ1、711は集光用レンズ、715は入
射光713のzS1S1平面への正射影成分、716は入
射光713のyS1S1平面への正射影成分である。入射
角は左回りに正をとる。したがって、図7(b)ではθ
S1は負、φS1は正の値をとる。また、入射角はセンサ座
標系視点位置計算部1701において、入射位置より求
める。
FIG. 7B is an explanatory diagram of the incident angles θ S1 and φ S1 of the LED light taking the coordinate system of the sensor 1 as an example, and 403
Is an area sensor 1, 711 is a condenser lens, 715 is an orthogonal projection component of incident light 713 on the z S1 x S1 plane, and 716 is an orthogonal projection component of incident light 713 on the y S1 z S1 plane. The incident angle is positive in the counterclockwise direction. Therefore, in FIG.
S1 has a negative value and φ S1 has a positive value. Further, the incident angle is obtained from the incident position in the sensor coordinate system viewpoint position calculation unit 1701.

【0028】ここで、入射位置(a,b),入射角
θS1,φS1、さらに媒介変数PZ・S1を用いると、センサ
1座標系におけるLEDの座標値は数1となる。
Here, if the incident position (a, b), the incident angles θ S1 , φ S1 , and the parameter P Z · S1 are used, the coordinate value of the LED in the sensor 1 coordinate system is given by Equation 1.

【0029】[0029]

【数1】PX・S1=PZ・S1tanθS1+a PY・S1=PZ・S1tanφS1+b PZ・S1=PZ・S1 そしてこの座標値を[PX・S1 Y・S1 Z・S1 1]の
転置行列PS1で表現し、センサ座標系1とセンサ座標系
との位置関係により求まるセンサ座標系1からセンサ座
標系への変換マトリックスMS←S1を用いることによ
り、数2のように、センサ座標系に変換できる。
[Formula 1] P X · S1 = P Z · S1 tan θ S1 + a P Y · S1 = P Z · S1 tanφ S1 + b P Z · S1 = P Z · S1 And this coordinate value is [P X · S1 P Y · S1 P Z · S1 1] is expressed by a transposed matrix P S1 and the conversion matrix M S ← S1 from the sensor coordinate system 1 to the sensor coordinate system 1 obtained by the positional relationship between the sensor coordinate system 1 and the sensor coordinate system is used. , Can be converted to the sensor coordinate system as shown in Equation 2.

【0030】[0030]

【数2】PS=MS←S1・PS1 また同様に、センサ2座標系におけるLEDの座標も、
センサ座標系2からセンサ座標系への変換マトリックス
S←S2を用いることにより、数3のようにセンサ座標
系に変換できる。
[Formula 2] P S = M S ← S1 · P S1 Similarly, the coordinates of the LED in the sensor 2 coordinate system are
By using the conversion matrix M S ← S2 from the sensor coordinate system 2 to the sensor coordinate system, it is possible to convert to the sensor coordinate system as shown in Formula 3.

【0031】[0031]

【数3】PS=MS←S2・PS2 両者は、同じ座標値をとるため数4の関係が成立する。[Formula 3] P S = M S ← S2 · P S2 Since both have the same coordinate value, the relation of Formula 4 is established.

【0032】[0032]

【数4】MS←S1・PS1=MS←S2・PS2 従って、x,y,zの各成分ごとに得られる方程式を連
立することで媒介変数PZ・S1およびPZ・S2の値が求めら
れ、さらにセンサ座標系におけるLEDの座標値を得ら
れる。
[Mathematical formula-see original document] M S ← S1 · P S1 = M S ← S2 · P S2 Therefore, the equations obtained for each component of x, y, and z are simultaneous, and the parametric variables P Z · S1 and P Z · S2 Is obtained, and further the coordinate value of the LED in the sensor coordinate system is obtained.

【0033】ステップ211では、以上の計算方法に基
づくLEDのセンサ座標の算出式を予め用意することに
より、センサ座標系視点位置計算部1701において、
各エリアセンサへのLED光の入射位置と入射角の計測
値から、LEDのセンサ座標を求めることができる。な
お、本実施例においては、ユーザの頭部に装着したLE
D415の位置をユーザの視点位置とする。
In step 211, the sensor coordinate system viewpoint position calculation unit 1701 is prepared in advance by preparing a formula for calculating the sensor coordinates of the LED based on the above calculation method.
The sensor coordinates of the LED can be obtained from the measured values of the incident position and the incident angle of the LED light on each area sensor. In the present embodiment, the LE mounted on the user's head
The position of D415 is set as the viewpoint position of the user.

【0034】次に、図2中のステップ212について図
8,図5を用いて詳細に説明する。先ず、可動台座機構
406について図5を用いて説明する。図5において、
可動台座機構406は502,503,504,505
から構成されている。501は可動台座機構406に支
持されているディスプレイ装置である。502は可動台
座機構406のディスプレイ装置支持部である。503
は可動台座機構406のディスプレイ装置仰角回転部で
ある。504は可動台座機構406のディスプレイ装置
方位角回転部である。505は可動台座機構406の設
置台座である。ディスプレイ装置角度制御部411から
の制御信号により、ディスプレイ仰角回転部502を動
作させることでディスプレイ装置102の仰角を変更で
き、同様にディスプレイ装置方位角回転部504を動作
させることでディスプレイ装置102の方位角を変更で
きる。
Next, step 212 in FIG. 2 will be described in detail with reference to FIGS. 8 and 5. First, the movable pedestal mechanism 406 will be described with reference to FIG. In FIG.
The movable pedestal mechanism 406 includes 502, 503, 504 and 505.
It consists of A display device 501 is supported by the movable pedestal mechanism 406. Reference numeral 502 is a display device support portion of the movable pedestal mechanism 406. 503
Is a display device elevation angle rotation unit of the movable pedestal mechanism 406. Reference numeral 504 is a display device azimuth rotation unit of the movable pedestal mechanism 406. Reference numeral 505 is an installation base of the movable base mechanism 406. By the control signal from the display device angle control unit 411, the elevation angle of the display device 102 can be changed by operating the display elevation angle rotation unit 502. Similarly, by operating the display device azimuth angle rotation unit 504, the orientation of the display device 102 can be changed. You can change the corner.

【0035】次に、図2中ステップ212の処理を図8
に従って説明する。ステップ801において、図2のス
テップ212の処理を開始する。ステップ802におい
て、図2のステップ211で検出したセンサ座標系で表
現されたユーザの視点位置を読み込む。センサ座標系と
は図7(a)のxS,yS,zS座標系であるが、本実施
例の説明においては、原点をディスプレイ装置102の
回転中心113とし、zS 軸を原点からディスプレイ装
置正面方向に向けて、画面の表面に直交する方向にと
り、yS 軸を、原点とzS 軸を含む鉛直平面内でzS
と直交する方向にとる。そして、読み込んだ視点位置の
S 成分をαに、yS 成分をβに設定する。ステップ8
03において、変数αについて条件判断を行い、α>0
である場合にはステップ804に制御をわたし、α>0
でない場合にはステップ805に制御をわたす。
Next, the process of step 212 in FIG. 2 will be described with reference to FIG.
Follow the instructions below. In step 801, the process of step 212 of FIG. 2 is started. In step 802, the viewpoint position of the user represented by the sensor coordinate system detected in step 211 of FIG. 2 is read. The sensor coordinate system is the x S , y S , z S coordinate system of FIG. 7A, but in the description of the present embodiment, the origin is the rotation center 113 of the display device 102 and the z S axis is from the origin. toward the display device front direction, taken in the direction perpendicular to the surface of the screen, taking the y S axis, a direction perpendicular to the z S axis in a vertical plane including the origin and z S axis. Then, the x S component of the read viewpoint position is set to α, and the y S component is set to β. Step 8
In 03, a conditional judgment is made for the variable α, and α> 0
If so, control is given to step 804, and α> 0.
If not, control is passed to step 805.

【0036】ステップ804において、ディスプレイ装
置角度調整部1406により、ディスプレイ装置角度制
御部411を用いて可動台座機構406を動作させ、デ
ィスプレイ装置102の方位角を0.1 度増加させるよ
うに修正する。ステップ805において、変数αについて
条件判断を行い、α<0である場合にはステップ806に
制御をわたし、α<0でない場合にはステップ807に
制御をわたす。ステップ806において、ディスプレイ
装置角度調整部1406により、ディスプレイ装置角度
制御部411を用いて可動台座機構406を動作させ、
ディスプレイ装置102の方位角を0.1 度減少させる
ように修正する。
In step 804, the display device angle adjusting unit 1406 operates the movable pedestal mechanism 406 by using the display device angle control unit 411, and corrects the azimuth angle of the display device 102 to increase by 0.1 degree. In step 805, the condition is judged for the variable α, and if α <0, the control is passed to step 806, and if α <0 is not given, the control is passed to step 807. In step 806, the display device angle adjustment unit 1406 operates the movable pedestal mechanism 406 using the display device angle control unit 411,
The azimuth of the display device 102 is corrected so as to be decreased by 0.1 degree.

【0037】ステップ807において、変数βについて
条件判断を行い、β>0である場合にはステップ808
に制御をわたし、β>0でない場合にはステップ809
に制御をわたす。ステップ808において、ディスプレ
イ装置角度調整部1406により、ディスプレイ装置角
度制御部411を用いて可動台座機構406を動作さ
せ、ディスプレイ装置102の仰角を0.1 度増加させ
るように修正する。ステップ809において、変数βに
ついて条件判断を行い、β<0である場合にはステップ
810に制御をわたし、β<0でない場合にはステップ
811に制御をわたす。ステップ810において、ディ
スプレイ装置角度調整部1406により、ディスプレイ
装置角度制御部411を用いて可動台座機構406を動
作させ、ディスプレイ装置102の仰角を0.1 度減少
させるように修正する。
In step 807, the condition judgment is made for the variable β, and if β> 0, step 808
Control, and if β> 0, step 809
Give control to. In step 808, the display device angle adjusting unit 1406 operates the movable pedestal mechanism 406 using the display device angle control unit 411, and corrects the elevation angle of the display device 102 to increase by 0.1 degree. In step 809, a conditional judgment is made on the variable β, and if β <0, control is passed to step 810, and if β <0, control is passed to step 811. In step 810, the display device angle adjusting unit 1406 operates the movable pedestal mechanism 406 using the display device angle control unit 411, and corrects the elevation angle of the display device 102 so as to decrease by 0.1 degree.

【0038】ステップ811において、変数αとβにつ
いて条件判断を行い、α=0かつβ=0である場合には
ステップ812において図2のステップ212の処理を
終了し、α=0かつβ=0でない場合にはステップ21
1に制御をわたす。ステップ211の処理は図2のステ
ップ211の処理と同じであり、視点位置計測部1404に
より、エリアセンサ403,エリアセンサ404,A/
Dコンバータ401,402を用いてユーザの視点位置
(LEDの位置)を検出し、ステップ802に制御をわ
たす。このように図8を用いて説明したステップ212
の処理により、ディスプレイ装置がユーザの視点位置を
向くように、ディスプレイ装置102の方位角と仰角を
修正することができる。
In step 811, a conditional judgment is made on the variables α and β. If α = 0 and β = 0, the processing of step 212 in FIG. 2 is terminated in step 812, and α = 0 and β = 0. If not, step 21
Pass control to 1. The processing of step 211 is the same as the processing of step 211 of FIG. 2, and the viewpoint position measuring unit 1404 causes the area sensor 403, the area sensor 404, A /
The user's viewpoint position (LED position) is detected using the D converters 401 and 402, and control is passed to step 802. In this way, step 212 described with reference to FIG.
By the processing of 1, the azimuth angle and the elevation angle of the display device 102 can be corrected so that the display device faces the user's viewpoint position.

【0039】次に、図14を用いて、図2中のステップ
213の詳細な説明を行う。ステップ1301で、図2
のステップ213の処理を開始する。ステップ1302
において、視点変換部1405により、図2のステップ
211で検出したセンサ座標で表現されたユーザの視点
位置を読み込む。ステップ1303において、視点変換
部1405により、ディスプレイ装置102の回転中心
113からステップ1302で読み込んだ視点位置まで
の距離をDに設定する。ステップ1304において、視
点変換部1405により、ディスプレイ装置角度制御部
411によって逐次記録されている現在のディスプレイ
装置102の方位角と仰角をそれぞれθP,φPとして設
定する。ステップ1305において、視点変換部140
5により、ステップ1304で設定したθP,φPの値を
用いて投影面の位置とワールド座標での視点位置(投影
の中心)についてのデータを更新する。即ち、VPNを
更新し、ワールド座標系とセンサ座標系のスケールの対
応関係と、ステップ1303で設定したDの値を用いて視点
位置(投影の中心)としてのPRPの座標を更新する。
具体的には、まず、更新後のVPNであるVPN′は次
の式で得られる。ただし、VPN,VPN′は単位ベク
トルであるとする。
Next, a detailed description of step 213 in FIG. 2 will be given with reference to FIG. In step 1301, FIG.
The processing of step 213 is started. Step 1302
In step 2, the viewpoint conversion unit 1405 reads the viewpoint position of the user represented by the sensor coordinates detected in step 211 of FIG. In step 1303, the viewpoint conversion unit 1405 sets D to the distance from the rotation center 113 of the display device 102 to the viewpoint position read in step 1302. In step 1304, the viewpoint conversion unit 1405 sets the current azimuth angle and elevation angle of the display device 102 sequentially recorded by the display device angle control unit 411 as θ P and φ P , respectively. In step 1305, the viewpoint conversion unit 140
In step 5, the data about the position of the projection plane and the viewpoint position (projection center) in world coordinates is updated using the values of θ P and φ P set in step 1304. That is, the VPN is updated, and the PRP coordinate as the viewpoint position (projection center) is updated using the correspondence between the scales of the world coordinate system and the sensor coordinate system and the value of D set in step 1303.
Specifically, first, VPN 'which is the updated VPN is obtained by the following equation. However, VPN and VPN 'are unit vectors.

【0040】[0040]

【数5】 [Equation 5]

【0041】次に、ワールド座標系での長さをS倍した
ものがセンサ座標系での長さに対応しているものとすれ
ば、更新後のPRPであるPRP′の座標、即ち、ワー
ルド座標系での視点位置は、VPN′の成分とVRPの
座標を用いて次の式で得られる。
Next, assuming that the length in the world coordinate system multiplied by S corresponds to the length in the sensor coordinate system, the coordinates of PRP 'which is the updated PRP, that is, the world. The viewpoint position in the coordinate system is obtained by the following equation using the VPN ′ component and the VRP coordinate.

【0042】[0042]

【数6】PRP′=(D/S)VPN′+VRP 次に、ステップ1306において、透視変換部1410
において、図形データ記憶部1408で記憶しているワ
ールド座標で表現された立体図形に対し、ステップ13
05で更新した視点位置からの透視変換を行う。ステッ
プ1307において、ディスプレイ装置102に既に図
形が表示されている場合は、ディスプレイ装置表示図形
をクリアする。ステップ1308において、ステップ1
306の透視変換により得られた立体図形の座標を使い
ディスプレイ装置102に図形を表示する。ステップ1
309において、図2のステップ213の処理を終了す
る。
## EQU00006 ## PRP '= (D / S) VPN' + VRP Next, in step 1306, the perspective transformation unit 1410.
In step 13, for the three-dimensional figure represented by world coordinates stored in the figure data storage unit 1408,
The perspective transformation from the viewpoint position updated in 05 is performed. In step 1307, if the graphic is already displayed on the display device 102, the graphic displayed on the display device is cleared. In Step 1308, Step 1
The figure is displayed on the display device 102 using the coordinates of the three-dimensional figure obtained by the perspective transformation of 306. Step 1
At 309, the process of step 213 in FIG. 2 is ended.

【0043】以上で説明した処理を行うことにより、第
一の実施例において、3次元図形を表示する際に、ユー
ザの視点を認識し、それにあわせてディスプレイ装置に
表示中の3次元図形の投影時の視点及び投影方向を変更
することができ、また、ユーザの視点の変化に応じてデ
ィスプレイ装置が常にユーザの頭部の方向を向くように
ディスプレイ装置の角度を変更でき、また、ユーザの初
期視点位置を予め設定することができる。
By performing the processing described above, in the first embodiment, when the three-dimensional figure is displayed, the user's viewpoint is recognized and the three-dimensional figure being displayed on the display device is projected accordingly. The viewpoint and the projection direction at the time can be changed, and the angle of the display device can be changed so that the display device always faces the direction of the user's head according to the change of the user's viewpoint. The viewpoint position can be set in advance.

【0044】さらに以下では、本発明の第二実施例とし
て、ディスプレイが不動の場合に、ユーザの視点位置の
移動に追従して表示イメージ(図形)の視点を変更する
方法及び装置の一実施例を詳細に説明する。
Further, in the following, as a second embodiment of the present invention, an embodiment of a method and apparatus for changing the viewpoint of a display image (graphic) according to the movement of the viewpoint position of the user when the display is stationary. Will be described in detail.

【0045】まず、図3のフローチャートを図15,図
16,図18のブロック図を交えて説明する。
First, the flowchart of FIG. 3 will be described with reference to the block diagrams of FIGS. 15, 16 and 18.

【0046】図3は、本発明の一実施例を示すフローチ
ャートである。まず、システムを起動する(ステップ3
01)と、システムは変数を初期化する(ステップ30
2)。次に、初期視点位置入力部1501において、ユ
ーザが、キーボード412から視点の初期位置としてワ
ールド座標系上での極座標値P0(W)を入力すると、シス
テムは、初期視点位置記憶部1502に設けられた初期
視点記憶テーブル312に、その値を記憶し(ステップ
303)、入力された視点の初期位置から見た図形をデ
ィスプレイ102に表示する(ステップ304)。さら
に、システムはLED415を発光し(ステップ30
5)、制御部1401では、キーボード412,マウス
413の入力バッファにおいて、表示状態指示部140
9からの図形表示終了スイッチ,イメージ自動変換スイ
ッチのオン・オフ指示を調べ、オンならば1,オフなら
ば0をそれぞれ変数END,TRNSに設定し、その後
バッファをクリアする(ステップ306)。そしてEN
D=1かどうかを判定し(ステップ307)、1ならば
システムを終了する(ステップ311)。また、1では
ない場合は、TRNS≧1かどうかを判定し(ステップ
308)、1ではない場合は、ステップ306に戻る。
ここで、TRNS=1(イメージ自動変換スイッチがオ
ン)ならば、システムは、視点位置計測部1404及び
視点変換部1405において、ユーザの視点位置を検出
し(ステップ309)、透視変換部1410において、
表示図形を視点の検出位置から見た図形に更新する(ス
テップ310)。そして、システムは、ステップ306
から310までの処理を図形表示終了スイッチがオン、
あるいはイメージ自動変換スイッチがオフにされるまで
繰返し行う。
FIG. 3 is a flow chart showing an embodiment of the present invention. First, start the system (step 3)
01), the system initializes variables (step 30).
2). Next, in the initial viewpoint position input unit 1501, when the user inputs the polar coordinate value P 0 (W) on the world coordinate system as the initial position of the viewpoint from the keyboard 412, the system is provided in the initial viewpoint position storage unit 1502. The value is stored in the stored initial viewpoint storage table 312 (step 303), and the figure viewed from the initial position of the input viewpoint is displayed on the display 102 (step 304). In addition, the system will light LED 415 (step 30
5) In the control unit 1401, in the input buffer of the keyboard 412 and the mouse 413, the display state instruction unit 140
The on / off instructions of the graphic display end switch and the image automatic conversion switch from 9 are checked, and if ON, 1 is set to 0 and 0 is set to the variables END and TRNS respectively, and then the buffer is cleared (step 306). And EN
It is determined whether or not D = 1 (step 307), and if it is 1, the system is terminated (step 311). If not 1, it is determined whether TRNS ≧ 1 (step 308), and if not 1, the process returns to step 306.
Here, if TRNS = 1 (the image automatic conversion switch is turned on), the system detects the viewpoint position of the user in the viewpoint position measuring unit 1404 and the viewpoint converting unit 1405 (step 309), and in the perspective converting unit 1410,
The displayed figure is updated to the figure seen from the detection position of the viewpoint (step 310). The system then proceeds to step 306.
The process from to 310 to 310 is turned on by the graphic display end switch,
Alternatively, the process is repeated until the automatic image conversion switch is turned off.

【0047】なお、本実施例では、極座標(r,α,
β)においてrを距離,αを方位角,βを仰角とする。
In this embodiment, polar coordinates (r, α,
In β), r is a distance, α is an azimuth angle, and β is an elevation angle.

【0048】次に、本フローチャートのステップ30
4,310における処理手順を図6及び図15を用い
て、さらにステップ309における処理手順を図9,図
15及び図19を用いて説明する。
Next, step 30 of this flowchart.
The processing procedure in 4, 310 will be described with reference to FIGS. 6 and 15, and the processing procedure in step 309 will be described with reference to FIGS. 9, 15 and 19.

【0049】図6では、処理を開始する(ステップ60
1)と、システムは視点位置(ワールド座標)を読み込
み(ステップ602),透視変換部1410において、
図形データ記憶部1408に保持しているワールド座標
で表現された図形にたいして、視点位置からの透視変換
を行う。なお、本処理手順では、注視点をワールド座標
系原点とする(ステップ603)。そして、システムは
ディスプレイ102に図形が表示されている場合はクリ
アし(ステップ604)、透視変換後の図形を表示し
(ステップ605)、処理を終了する(ステップ60
6)。
In FIG. 6, the process is started (step 60).
1), the system reads the viewpoint position (world coordinates) (step 602), and in the perspective transformation unit 1410,
Perspective transformation from the viewpoint position is performed on the graphic represented by the world coordinates stored in the graphic data storage unit 1408. In this processing procedure, the gazing point is the origin of the world coordinate system (step 603). Then, the system clears the graphic displayed on the display 102 (step 604), displays the graphic after perspective conversion (step 605), and ends the processing (step 60).
6).

【0050】次に、図19において1405は視点変換
部、1801は視点位置計算部、1802は初期計測視
点位置記憶部である。
Next, in FIG. 19, 1405 is a viewpoint conversion unit, 1801 is a viewpoint position calculation unit, and 1802 is an initial measurement viewpoint position storage unit.

【0051】図9では、処理を開始する(ステップ91
1)と、システムはTRNS=1かどうかを判定し(ス
テップ912)、1ならば、すなわちシステム起動後、
あるいはイメージ自動変換処理後初回の処理の場合なら
ば、次のステップ913に進み、そうでなければ、ステ
ップ915に進む。TRNS=1の場合、変数TRNSに2
を設定し(ステップ913)、視点位置計測部1404
において、ユーザの視点の初期計測位置PS0(S) を極座
標として計測し、初期計測視点記憶部1802に設けら
れた初期計測視点記憶テーブル919に値を記憶する
(ステップ914)。次にシステムは、視点位置計測部1
404において、ユーザの視点位置PS(S)を極座標とし
て計測し(ステップ915)、視点位置計算部1801
において、PS(S)と初期計測視点記憶テーブル919よ
り読み込んだ初期計測位置PS0(S)との差分を極座標の
成分ごとにとりユーザの視点移動量Pd を求める(ステ
ップ916)。さらに視点位置計算部1801におい
て、初期視点記憶テーブル312より読み込んだ初期視点
0(W)に視点移動量Pd を極座標の成分ごとに加算し
て、ワールド座標系における視点位置P(W)を求め(ス
テップ917)、処理を終了する(ステップ918)。
In FIG. 9, the process is started (step 91).
1), the system determines whether TRNS = 1 (step 912), if 1, ie after system boot,
Alternatively, if it is the first process after the automatic image conversion process, the process proceeds to the next step 913, and if not, the process proceeds to step 915. If TRNS = 1, 2 in variable TRNS
Is set (step 913), and the viewpoint position measuring unit 1404 is set.
In, the initial measurement position P S0 (S) of the user's viewpoint is measured as polar coordinates, and the value is stored in the initial measurement viewpoint storage table 919 provided in the initial measurement viewpoint storage unit 1802.
(Step 914). Next, the system is the viewpoint position measurement unit 1
In 404, the viewpoint position PS (S) of the user is measured as polar coordinates (step 915), and the viewpoint position calculation unit 1801
In obtains P S (S) and the initial measurement viewpoint user's viewpoint movement amount P d the difference is taken up by the polar component of the storage initial measuring position read from the table 919 P S0 (S) (step 916). Further, in the viewpoint position calculation unit 1801, the viewpoint movement amount P d is added to the initial viewpoint P 0 (W) read from the initial viewpoint storage table 312 for each polar coordinate component to obtain the viewpoint position P (W) in the world coordinate system. Obtaining (step 917), the process is terminated (step 918).

【0052】ここで、ステップ914,915における
ユーザ視点位置は、先に、図7(a),(b)を用いて説
明した方法により直交座標で求め、それを極座標に変換
した値を用いる。
Here, the user viewpoint position in steps 914 and 915 is obtained by orthogonal coordinates by the method described above with reference to FIGS. 7A and 7B, and a value obtained by converting it into polar coordinates is used.

【0053】なお、図6の説明では、注視点をワールド
座標系の原点としたが、注視点をワールド座標系上の任
意の点にとる場合は、注視点を原点とした極座標系上に
初期視点P0 を変換し、視点移動量Pd を加算した後に
ワールド座標系に再び変換することにより、視点位置を
求めることができる。
In the description of FIG. 6, the gazing point is the origin of the world coordinate system. However, when the gazing point is an arbitrary point on the world coordinate system, the gazing point is initially set on the polar coordinate system. The viewpoint position can be obtained by converting the viewpoint P 0 , adding the viewpoint movement amount P d , and then converting again to the world coordinate system.

【0054】以上述べたように、本実施例によれば、デ
ィスプレイに表示中の3次元図形の視点を変更する場合
に、ユーザが視点の位置を変更するために行うユーザと
図形との空間的な位置関係を変える動作を、視点を変更
するための操作として利用することが可能となり、ユー
ザの視点位置の移動に追従して表示図形の視点位置が変
わるので、表示図形の視点の変更を迅速,容易、かつ現
実感の伴った方法で行える。
As described above, according to this embodiment, when changing the viewpoint of the three-dimensional figure being displayed on the display, the user performs the spatial change between the user and the figure to change the position of the viewpoint. It is possible to use a motion that changes the physical relationship as an operation for changing the viewpoint, and the viewpoint position of the display figure changes following the movement of the user's viewpoint position. , Easy and realistic way.

【0055】また、図3のステップ308において、イ
メージ自動変換スイッチのオフ(TRNS=0すなわち
イメージ自動変換の中断)を感知した場合に、初期視点
位置記憶部1502に設けられた初期視点記憶テーブル
312の値を中断時点での表示中の図形の視点位置に更
新する処理を付加することにより、次回のイメージ自動
変換開始時には中断時点での視点位置を初期視点P0(W)
として用いることになるため、中断時の表示図形を初期
表示として引き続きイメージ自動変換を行うことが可能
となる。
Further, in step 308 of FIG. 3, when it is sensed that the image automatic conversion switch is off (TRNS = 0, that is, the automatic image conversion is interrupted), the initial viewpoint storage table 312 provided in the initial viewpoint position storage unit 1502. Is added to the viewpoint position of the figure being displayed at the time of interruption, so that the viewpoint position at the time of interruption is set to the initial viewpoint P 0 (W) at the start of the next automatic image conversion.
Therefore, it is possible to continue automatic image conversion by using the display figure at the time of interruption as the initial display.

【0056】したがって、上記処理の追加により、イメ
ージ自動変換中断時の表示図形を初期表示として、引き
続きイメージ自動変換を行えるので、ディスプレイが不
動の場合でも、すべての視点位置からの図形表示が可能
となる。
Therefore, with the addition of the above processing, the image displayed at the time of interruption of the image automatic conversion can be used as the initial display and the image automatic conversion can be continued. Therefore, even if the display is immovable, it is possible to display the graphic from all viewpoint positions. Become.

【0057】また、本実施例においては、ユーザの頭部
に装着したLED415の位置をユーザの視点位置とす
るが、LED415をユーザが手に持って任意の視点に
移動することにより、表示図形の視点を変換することも
可能である。
Further, in the present embodiment, the position of the LED 415 mounted on the user's head is set as the user's viewpoint position. However, when the user holds the LED 415 in his hand and moves it to an arbitrary viewpoint, a display graphic is displayed. It is also possible to change the viewpoint.

【0058】次に、本発明の第三の実施例について説明
する。第三の実施例は、第一,第二の実施例を改良し、
図形操作の意図とは関係のないユーザ視点の微少な動き
を無視することを目的とするものである。本実施例で
は、第一実施例の改良案として説明する。第三の実施例
である情報処理システムのシステム構成は第一の実施例
と同じである。
Next, a third embodiment of the present invention will be described. The third embodiment is an improvement of the first and second embodiments,
The purpose is to ignore minute movements of the user's viewpoint that are unrelated to the intention of figure operation. In this embodiment, an improvement plan of the first embodiment will be described. The system configuration of the information processing system of the third embodiment is the same as that of the first embodiment.

【0059】以下、第三の実施例における処理フローを
図10,図11に従って説明する。ステップ1001に
おいて、第三の実施例の処理を開始する。ステップ20
2からステップ203までの処理は、それぞれ図2のス
テップ202からステップ203までの処理と同じであ
る。ステップ1002において、キャンセル距離設定部
1411により、ユーザからのキーボード412または
マウス413からの入力により、キャンセル距離d′
(ユーザの視点位置移動量の敷居値)を設定する。ステ
ップ204からステップ207までの処理は、それぞれ
図2のステップ204からステップ207までの処理と
同じである。
The processing flow in the third embodiment will be described below with reference to FIGS. In step 1001, the process of the third embodiment is started. Step 20
The processing from 2 to step 203 is the same as the processing from step 202 to step 203 in FIG. 2, respectively. In step 1002, the cancel distance setting unit 1411 inputs the cancel distance d ′ according to the user's input from the keyboard 412 or the mouse 413.
(The threshold value of the amount of movement of the user's viewpoint position) is set. The processing from step 204 to step 207 is the same as the processing from step 204 to step 207 of FIG. 2, respectively.

【0060】ステップ1003において、視点位置計測
部1404により、エリアセンサ403,エリアセンサ
404,A/Dコンバータ401,402を用いてユー
ザの視点位置(LEDの位置)を検出し、検出した視点
位置を、視点位置記憶テーブル1010に格納する。ス
テップ1004において、表示状態指示部1409によ
り、マウス413,キーボード412の入力バッファか
ら、図形表示終了スイッチのオン,オフを調べ、オンな
らば1,オフならば0を変数ENDに設定し、バッファ
をクリアする。ステップ209では、変数ENDについ
て条件判断をおこない、END=1である場合にはステ
ップ1009において第三の実施例の処理を終了し、E
ND=1でない場合にはステップ211に制御をわた
す。ステップ211の処理は図2のステップ211の処
理と同じである。ステップ1005において、ステップ21
1で検出したユーザの視点位置と、視点位置記憶テーブ
ル1009に格納されている視点位置との距離をdに設
定する。ステップ1006において、dとキャンセル距
離d′との差(d−d′の値)をΔdに設定する。ステ
ップ1007では、変数Δdについて条件判断を行い、
Δd>0である場合にはステップ212に制御をわた
し、Δd>0でない場合にはステップ1004に制御を
わたす。ステップ212の処理は図2のステップ212
の処理と同じである。
In step 1003, the viewpoint position measuring unit 1404 detects the viewpoint position (LED position) of the user by using the area sensor 403, the area sensor 404, and the A / D converters 401 and 402, and the detected viewpoint position is determined. , The viewpoint position storage table 1010. In step 1004, the display state instructing unit 1409 checks the input buffer of the mouse 413 and keyboard 412 to see if the graphic display end switch is on or off. If it is on, set 1 to 0 in the variable END to set the buffer. clear. In step 209, a condition judgment is made on the variable END. If END = 1, the processing of the third embodiment is ended in step 1009, and E
If ND = 1 is not satisfied, control is passed to step 211. The process of step 211 is the same as the process of step 211 of FIG. In Step 1005, Step 21
The distance between the viewpoint position of the user detected in 1 and the viewpoint position stored in the viewpoint position storage table 1009 is set to d. In step 1006, the difference between d and the cancel distance d ′ (value of d−d ′) is set to Δd. In step 1007, the condition is judged for the variable Δd,
If Δd> 0, control is passed to step 212, and if not Δd> 0, control is passed to step 1004. The process of step 212 is the same as step 212 of FIG.
Is the same as the processing of.

【0061】ステップ213の処理は図2のステップ2
13の処理と同じである。ステップ1008において、
視点位置記憶テーブル1010を、ステップ211で検
出した視点位置で更新する。
The processing of step 213 is the same as step 2 of FIG.
This is the same as the processing of 13. In step 1008,
The viewpoint position storage table 1010 is updated with the viewpoint position detected in step 211.

【0062】以上に説明した処理を行うことにより、第
三の実施例において、3次元図形を表示する際に、第
一,第二の実施例で得られる効果に加えて、図形操作の
意図とは関係のないユーザ視点位置の微少な動きを無視
することができる。
By performing the processing described above, in addition to the effects obtained in the first and second embodiments when displaying a three-dimensional figure in the third embodiment, the intention of the figure operation is Can ignore small movements of the user's viewpoint position that are not relevant.

【0063】次に、本発明の第四実施例として、ディス
プレイが不動の場合に、ユーザの視点位置の移動に追従
して表示イメージ(図形)の視点を変更する方法及び装
置に、表示図形のイニシャライズ機能を付加した一実施
例を図11及び図14を用いて説明する。
Next, as a fourth embodiment of the present invention, when the display is immovable, a method and apparatus for changing the viewpoint of the display image (graphic) in accordance with the movement of the viewpoint position of the user are used to display the display graphic. An embodiment to which an initialization function is added will be described with reference to FIGS. 11 and 14.

【0064】図12において、300番台の番号を付し
たステップは、図3で示したフローチャートの同番号の
ステップと同じ処理を示す。したがって、図12におい
て、図3に付加あるいは変更する処理は、ステップ11
01,1102,1103である。ステップ1101で
は、表示状態指示部1409より入力する図形表示終了
スイッチ,イメージ自動変換スイッチのオン・オフの他
にイニシャライズスイッチのオン・オフを調べ、オンな
らば1,オフならば0を変数INIに設定する。そし
て、ステップ1102において、INI=1かどうかを
判定し、1ならばステップ1103において、INI=
0,TRNS=0を設定し、ステップ304において、初
期視点記憶テーブル312の値を用いてディスプレイ1
02の表示図形をイニシャライズし、初期視点から見た
図形を表示する。
In FIG. 12, steps numbered in the 300s indicate the same processing as the steps of the same number in the flowchart shown in FIG. Therefore, in FIG. 12, the process of adding or changing to FIG.
01, 1102, 1103. In step 1101, in addition to turning on / off the graphic display end switch and the image automatic conversion switch input from the display state instructing unit 1409, the on / off state of the initialization switch is checked. If the switch is on, 0 is set to the variable INI. Set. Then, in step 1102, it is determined whether or not INI = 1. If 1 is determined, in step 1103, INI =
0, TRNS = 0 is set, and in step 304, the display 1 using the value of the initial viewpoint storage table 312 is set.
The display figure 02 is initialized and the figure viewed from the initial viewpoint is displayed.

【0065】本実施例によれば、イメージ自動変換途中
あるいは変換後の図形表示状態から、処理開始前の初期
状態に容易に戻すことが可能となる。
According to the present embodiment, it is possible to easily return from the graphic display state during or after automatic image conversion to the initial state before the start of processing.

【0066】次に、本発明の第五実施例として、ディス
プレイが不動の場合に、ユーザの視点位置の移動に追従
して表示イメージ(図形)の視点を変更する方法及び装
置に、表示図形の変換感度の変更機能を付加した一実施
例を図13,図9及び図17を用いて説明する。
Next, as a fifth embodiment of the present invention, a method and apparatus for changing the viewpoint of a display image (graphic) by following the movement of the viewpoint position of the user when the display is immovable are used to display the display graphic. An embodiment in which a conversion sensitivity changing function is added will be described with reference to FIGS. 13, 9 and 17.

【0067】まず、図17において1403は変換感度
設定部、1601は変換感度入力部、1602は変換感
度記憶部である。
First, in FIG. 17, 1403 is a conversion sensitivity setting unit, 1601 is a conversion sensitivity input unit, and 1602 is a conversion sensitivity storage unit.

【0068】図13において、300番台の番号を付し
たステップは、図3で示したフローチャートの同番号の
ステップと同じ処理を示す。したがって、図13におい
て、図3に付加あるいは変更する処理およびテーブル
は、変換感度記憶テーブル1204,ステップ1201であ
る。ステップ1201において、ユーザは、変換感度入
力部1601から極座標(r,α,β)の各成分ごとに
変換感度(Kr,Kα,Kβ)入力し、変換感度記憶部
1602に設けられた変換感度記憶テーブル1204に
値を記憶する。
In FIG. 13, steps numbered in the 300s indicate the same processing as the steps with the same numbers in the flowchart shown in FIG. Therefore, in FIG. 13, the processing and table added or changed to FIG. 3 are the conversion sensitivity storage table 1204 and step 1201. In step 1201, the user inputs the conversion sensitivities (K r , K α , K β ) for each component of the polar coordinates (r, α, β) from the conversion sensitivity input unit 1601 and is provided in the conversion sensitivity storage unit 1602. The value is stored in the conversion sensitivity storage table 1204.

【0069】そして、図9ステップ916で求めた視点
移動量Pd と変換感度とを、成分ごとに乗じた値を用い
て視点位置を求める。
Then, the viewpoint position is obtained using a value obtained by multiplying the amount of viewpoint movement P d and the conversion sensitivity obtained in step 916 of FIG. 9 for each component.

【0070】本実施例によれば、変換感度の変更によ
り、実際のユーザ視点の移動量にたいする表示図形の視
点位置の移動量の比率を変えることができる。したがっ
て、変換感度を大きく設定することにより、ユーザの視
点の少しの移動で表示図形の視点を大きく変化させた
り、あるいは反対に、変換感度として0を設定すること
により、ユーザの視点の0を設定した極座標成分の方向
の移動を無視することが可能となる。
According to this embodiment, by changing the conversion sensitivity, it is possible to change the ratio of the movement amount of the viewpoint position of the display figure to the actual movement amount of the user viewpoint. Therefore, by setting the conversion sensitivity to a large value, the viewpoint of the display figure can be greatly changed by a slight movement of the user's viewpoint, or conversely, by setting the conversion sensitivity to 0, the user's viewpoint can be set to 0. It is possible to ignore the movement in the direction of the polar coordinate component.

【0071】[0071]

【発明の効果】本発明によれば、ディスプレイに表示中
の3次元図形の視点を変更する場合に、ユーザが視点の
位置を変更するために行うユーザと図形との空間的な位
置関係を変える動作を、視点を変更するための操作とし
て利用することが可能となり、ユーザの視点位置の移動
に追従して表示図形の視点位置およびディスプレイの角
度が変わるので、表示図形の視点の変更を迅速,容易、
かつ現実感の伴った方法で行えるイメージ表示支援方法
及び装置が実現できる。
According to the present invention, when changing the viewpoint of a three-dimensional figure being displayed on the display, the user changes the spatial positional relationship between the figure and the user to change the position of the viewpoint. The motion can be used as an operation for changing the viewpoint, and the viewpoint position of the display graphic and the angle of the display change in accordance with the movement of the viewpoint position of the user. Easy,
Further, it is possible to realize an image display support method and apparatus which can be performed by a method with a sense of reality.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明によるイメージ表示支援方法の第1実施
例概略説明図。
FIG. 1 is a schematic explanatory diagram of a first embodiment of an image display support method according to the present invention.

【図2】本発明によるイメージ表示支援方法の第1実施
例のフローチャート。
FIG. 2 is a flowchart of a first embodiment of an image display support method according to the present invention.

【図3】本発明によるイメージ表示支援方法の第2実施
例のフローチャート。
FIG. 3 is a flowchart of a second embodiment of the image display support method according to the present invention.

【図4】本発明によるイメージ表示支援装置のシステム
構成図である。
FIG. 4 is a system configuration diagram of an image display support device according to the present invention.

【図5】図4の構成図の可動台座機構を詳細に示す説明
図。
5 is an explanatory diagram showing in detail the movable pedestal mechanism of the configuration diagram of FIG. 4. FIG.

【図6】図2,3の処理のステップ206,304,3
10を詳細に示すフローチャート。
FIG. 6 shows steps 206, 304 and 3 of the processing of FIGS.
The flowchart which shows 10 in detail.

【図7】図2,3の処理のステップ211,310を詳
細に示す説明図。
FIG. 7 is an explanatory diagram showing in detail steps 211 and 310 of the processing of FIGS.

【図8】図2の処理のステップ212を詳細に示すフロ
ーチャート。
FIG. 8 is a flowchart showing in detail step 212 of the processing in FIG.

【図9】図3の処理のステップ309を詳細に示すフロ
ーチャート。
9 is a flowchart showing in detail step 309 of the processing of FIG.

【図10】本発明によるイメージ表示支援方法の第3実
施例のフローチャート。
FIG. 10 is a flowchart of a third embodiment of the image display support method according to the present invention.

【図11】本発明によるイメージ表示支援方法の第3実
施例のフローチャート。
FIG. 11 is a flowchart of a third embodiment of the image display support method according to the present invention.

【図12】本発明によるイメージ表示支援方法の第4実
施例のフローチャート。
FIG. 12 is a flowchart of a fourth embodiment of the image display support method according to the present invention.

【図13】本発明によるイメージ表示支援方法の第5実
施例のフローチャート。
FIG. 13 is a flowchart of a fifth embodiment of the image display support method according to the present invention.

【図14】図2の処理のステップ213を詳細に示すフ
ローチャート。
FIG. 14 is a flowchart showing step 213 of the processing in FIG. 2 in detail.

【図15】本発明によるイメージ表示支援装置のシステ
ム構成を示すブロック図。
FIG. 15 is a block diagram showing a system configuration of an image display support device according to the present invention.

【図16】図14のブロック1402を詳細に示すブロ
ック図。
16 is a block diagram detailing block 1402 of FIG.

【図17】図14のブロック1403を詳細に示すブロ
ック図。
FIG. 17 is a block diagram detailing block 1403 of FIG.

【図18】図14のブロック1404を詳細に示すブロ
ック図。
FIG. 18 is a block diagram detailing block 1404 of FIG.

【図19】図14のブロック1405を詳細に示すブロ
ック図。
FIG. 19 is a block diagram detailing block 1405 of FIG.

【図20】図14のブロック1406を詳細に示すブロ
ック図。
FIG. 20 is a block diagram detailing block 1406 of FIG.

【図21】図14のブロック1405を詳細に示す別の
ブロック図。
FIG. 21 is another block diagram detailing block 1405 of FIG.

【符号の説明】[Explanation of symbols]

102…ディスプレイ装置、401,402…A/Dコ
ンバータ、403…エリアセンサ1、404…エリアセ
ンサ2、406…可動台座機構、407…CPU、40
8…メモリ、411…ディスプレイ角度制御部。
102 ... Display device, 401, 402 ... A / D converter, 403 ... Area sensor 1, 404 ... Area sensor 2, 406 ... Movable pedestal mechanism, 407 ... CPU, 40
8 ... Memory, 411 ... Display angle control unit.

Claims (18)

【特許請求の範囲】[Claims] 【請求項1】ディスプレイ上に表示中の3次元図形の視
点を変更する方法において、利用者の視点位置を検出
し、前記ディスプレイを検出した利用者の視点方向へ向
くように回転し、前記表示中の3次元図形を前記検出し
た視点位置から見た図形に変換し、前記表示中の図形を
更新する一連の処理を繰返し行うことを特徴とするイメ
ージ表示支援方法。
1. A method of changing the viewpoint of a three-dimensional figure being displayed on a display, detecting the position of the viewpoint of the user, rotating the display so as to face the direction of the detected user, and displaying the display. An image display support method comprising: converting a three-dimensional figure in a figure into a figure viewed from the detected viewpoint position and repeating a series of processes for updating the figure being displayed.
【請求項2】ディスプレイ上に表示中の3次元図形の視
点を変更する方法において、利用者の視点位置を検出
し、前記表示中の3次元図形を前記検出した視点位置か
ら見た図形に変換し、前記表示中の図形を更新する一連
の処理を繰返し行うことを特徴とするイメージ表示支援
方法。
2. A method for changing a viewpoint of a three-dimensional figure being displayed on a display, detecting a viewpoint position of a user, and converting the three-dimensional figure being displayed into a figure viewed from the detected viewpoint position. Then, the image display support method is characterized in that a series of processes for updating the figure being displayed is repeatedly performed.
【請求項3】請求項1または2において、前記視点の変
更に際し、キャンセル距離を設定し、表示中図形の視点
位置と前記検出した利用者の視点位置との間隔が、前記
キャンセル距離以下の場合は、前記視点位置を変換しな
いイメージ表示支援方法。
3. The method according to claim 1 or 2, wherein a cancel distance is set when changing the viewpoint, and a distance between the viewpoint position of the displayed graphic and the detected viewpoint position of the user is equal to or smaller than the cancel distance. Is an image display support method that does not convert the viewpoint position.
【請求項4】請求項2において、前記視点の変更に際
し、前記表示中の3次元図形に関する初期視点位置を予
め設定し、利用者の指示により、前記繰返し処理を中断
して前記初期視点位置から見た図形を表示するイメージ
表示支援方法。
4. The change of the viewpoint according to claim 2, wherein an initial viewpoint position for the three-dimensional figure being displayed is preset, and the iterative process is interrupted according to a user's instruction. An image display support method that displays the viewed figure.
【請求項5】請求項2において、前記視点の変更に際
し、利用者の指示により前記繰返し処理を中断し、中断
時における前記表示中の図形の視点位置を、前記初期視
点位置として設定するイメージ表示支援方法。
5. The image display according to claim 2, wherein when the viewpoint is changed, the repeating process is interrupted by a user's instruction, and the viewpoint position of the figure being displayed at the time of interruption is set as the initial viewpoint position. How to help.
【請求項6】請求項2において、前記利用者の視点位置
の検出に際し、計測開始時の利用者の視点位置を基準と
し、その後計測した利用者の視点位置までの視点の移動
量を求め、前記視点の移動量を前記初期視点位置に加算
した値を前記利用者の視点位置とするイメージ表示支援
方法。
6. The method according to claim 2, wherein when detecting the viewpoint position of the user, the amount of movement of the viewpoint to the measured viewpoint position of the user is calculated with reference to the viewpoint position of the user at the start of measurement, An image display support method in which a value obtained by adding the amount of movement of the viewpoint to the initial viewpoint position is the viewpoint position of the user.
【請求項7】請求項2において、前記利用者の視点位置
の検出に際し、変換感度を設定し、前記視点の移動量に
該変換感度を乗じた値を求め、前記乗算値を前記初期視
点位置に加算した値を前記利用者の視点位置とするイメ
ージ表示支援方法。
7. The detection sensitivity of the user as set forth in claim 2, wherein conversion sensitivity is set, a value obtained by multiplying the conversion sensitivity by the amount of movement of the viewpoint is obtained, and the multiplication value is calculated as the initial viewpoint position. An image display support method in which the value added to the above is set as the viewpoint position of the user.
【請求項8】ディスプレイ上に表示中の3次元図形の視
点を変更する装置において、前記3次元図形を表示する
手段と、前記図形のデータを記憶する手段と、前記利用
者の視点位置を計測する手段と、前記計測値に基づきデ
ィスプレイの角度を調整する手段と、前記計測値及びデ
ィスプレイの角度に基づき視点の変更位置を求める手段
と、前記視点の変更位置から透視変換する手段とを有す
ることを特徴とするイメージ表示支援装置。
8. A device for changing the viewpoint of a three-dimensional figure being displayed on a display, means for displaying the three-dimensional figure, means for storing data of the figure, and measuring the viewpoint position of the user. Means for adjusting the angle of the display based on the measured value, means for obtaining the changed position of the viewpoint based on the measured value and the angle of the display, and means for perspective conversion from the changed position of the viewpoint. Image display support device characterized by.
【請求項9】ディスプレイ上に表示中の3次元図形の視
点を変更する装置において、前記3次元図形を表示する
手段と、前記図形のデータを記憶する手段と、利用者の
視点位置を計測する手段と、前記計測値に基づき視点の
変更位置を求める手段と、前記視点の変更位置から透視
変換する手段とを有することを特徴とするイメージ表示
支援装置。
9. A device for changing the viewpoint of a three-dimensional figure being displayed on a display, means for displaying the three-dimensional figure, means for storing data of the figure, and measuring the viewpoint position of the user. An image display support apparatus comprising: a means, a means for obtaining a change position of a viewpoint based on the measured value, and a means for performing perspective transformation from the change position of the viewpoint.
【請求項10】請求項8または9において、前記視点位
置の計測手段は、前記利用者の視点位置を明示する手段
と、前記明示された視点位置を計測する手段とを有する
イメージ表示支援装置。
10. The image display support device according to claim 8 or 9, wherein the viewpoint position measuring means includes means for clearly indicating the viewpoint position of the user and means for measuring the clearly defined viewpoint position.
【請求項11】請求項8において、前記ディスプレイの
角度を調整する手段は、前記ディスプレイの方位角と仰
角とを制御する手段と、前記ディスプレイを前記方位角
方向と前記仰角方向とに回転する手段とを有するイメー
ジ表示支援装置。
11. The means for adjusting the angle of the display according to claim 8, and means for controlling the azimuth and elevation of the display, and means for rotating the display in the azimuth and elevation directions. An image display support device having:
【請求項12】請求項8または9において、前記キャン
セル距離を設定する手段を有するイメージ表示支援装
置。
12. The image display support device according to claim 8, further comprising means for setting the cancel distance.
【請求項13】請求項8または9において、前記初期視
点の位置を設定する手段を有するイメージ表示支援装
置。
13. The image display support device according to claim 8, further comprising means for setting the position of the initial viewpoint.
【請求項14】請求項8または9において、前記変換感
度を設定する手段を有するイメージ表示支援装置。
14. The image display support device according to claim 8 or 9, further comprising means for setting the conversion sensitivity.
【請求項15】請求項8または9において、前記ディス
プレイ上に初期視点位置から見た図形を表示する指示、
あるいは前記一連の繰返し処理を中断する指示を入力す
る手段を有するイメージ表示支援装置。
15. The instruction according to claim 8 or 9, for displaying a figure viewed from the initial viewpoint on the display.
Alternatively, an image display support device having means for inputting an instruction to interrupt the series of repeated processes.
【請求項16】請求項12において、前記キャンセル距
離の設定手段は、前記キャンセル距離を入力する手段
と、前記キャンセル距離の値を記憶する手段とを有する
イメージ表示支援装置。
16. The image display support device according to claim 12, wherein the cancel distance setting means includes means for inputting the cancel distance and means for storing a value of the cancel distance.
【請求項17】請求項13において、前記初期視点位置
の設定手段は、前記初期視点位置を入力する手段と、前
記初期視点位置の値を記憶する手段とを有するイメージ
表示支援装置。
17. The image display support apparatus according to claim 13, wherein the initial viewpoint position setting means includes means for inputting the initial viewpoint position and means for storing the value of the initial viewpoint position.
【請求項18】請求項14において、前記変換感度の設
定手段は、前記変換感度を入力する手段と、前記変換感
度の値を記憶する手段とを有するイメージ表示支援装
置。
18. The image display support device according to claim 14, wherein the conversion sensitivity setting means includes means for inputting the conversion sensitivity and means for storing a value of the conversion sensitivity.
JP4026503A 1992-02-13 1992-02-13 Image display support method and device therefor Pending JPH05225313A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP4026503A JPH05225313A (en) 1992-02-13 1992-02-13 Image display support method and device therefor

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP4026503A JPH05225313A (en) 1992-02-13 1992-02-13 Image display support method and device therefor

Publications (1)

Publication Number Publication Date
JPH05225313A true JPH05225313A (en) 1993-09-03

Family

ID=12195293

Family Applications (1)

Application Number Title Priority Date Filing Date
JP4026503A Pending JPH05225313A (en) 1992-02-13 1992-02-13 Image display support method and device therefor

Country Status (1)

Country Link
JP (1) JPH05225313A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2005041167A1 (en) * 2003-10-28 2005-05-06 Matsushita Electric Industrial Co., Ltd. Image display device and image display method
JP2007507781A (en) * 2003-09-30 2007-03-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Motion control for image rendering
JP2015008394A (en) * 2013-06-25 2015-01-15 Kddi株式会社 Information terminal device

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007507781A (en) * 2003-09-30 2007-03-29 コーニンクレッカ フィリップス エレクトロニクス エヌ ヴィ Motion control for image rendering
WO2005041167A1 (en) * 2003-10-28 2005-05-06 Matsushita Electric Industrial Co., Ltd. Image display device and image display method
JP2015008394A (en) * 2013-06-25 2015-01-15 Kddi株式会社 Information terminal device

Similar Documents

Publication Publication Date Title
JP4278979B2 (en) Single camera system for gesture-based input and target indication
JP2001061121A (en) Projector
JP2008158842A (en) Map display device
JP2003280785A (en) Image display processor, image display processing method and computer program
JP2007114820A (en) Portable pointer device and display system
JP2012048393A (en) Information processing device and operation method of the same
JP4199641B2 (en) Projector device
JPH0944298A (en) Input device
JPH05225313A (en) Image display support method and device therefor
JPH08287291A (en) Image display system
US5341152A (en) Input device for CAD
JP4450569B2 (en) Pointer cursor control device and electronic apparatus equipped with the device
WO2020208974A1 (en) Reference position setting method and operation detection device
JPH10197224A (en) Picture measuring instrument
JP2937918B2 (en) Image measuring device
JPH05108263A (en) Mouse input device
JPH11201738A (en) Display magnifying power changing method of work image and image measuring device
JP2792842B2 (en) Robot work teaching method and device
JP7381718B2 (en) Offline simulation system
JP4984791B2 (en) Pointing device, pointing method and program
JPH09259294A (en) Grid display method coping with display magnification
JPH0933231A (en) Measuring method using image display
JP2009210963A (en) Planetarium device
JP2000250702A (en) Cursor position input device
JPH07271504A (en) Three-dimensional virtual instruction input device