JP2003006678A - Selection control method for object - Google Patents

Selection control method for object

Info

Publication number
JP2003006678A
JP2003006678A JP2001183544A JP2001183544A JP2003006678A JP 2003006678 A JP2003006678 A JP 2003006678A JP 2001183544 A JP2001183544 A JP 2001183544A JP 2001183544 A JP2001183544 A JP 2001183544A JP 2003006678 A JP2003006678 A JP 2003006678A
Authority
JP
Japan
Prior art keywords
selection
objects
dimensional
selection candidate
score
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2001183544A
Other languages
Japanese (ja)
Other versions
JP2003006678A5 (en
Inventor
Koichi Sakamoto
浩一 坂本
Yasushi Wakabayashi
泰 若林
Katsutoshi Horii
克敏 堀井
Yusuke Totsuka
裕介 戸塚
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Hitachi Software Engineering Co Ltd
Original Assignee
Hitachi Software Engineering Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Hitachi Software Engineering Co Ltd filed Critical Hitachi Software Engineering Co Ltd
Priority to JP2001183544A priority Critical patent/JP2003006678A/en
Publication of JP2003006678A publication Critical patent/JP2003006678A/en
Publication of JP2003006678A5 publication Critical patent/JP2003006678A5/ja
Pending legal-status Critical Current

Links

Landscapes

  • User Interface Of Digital Computer (AREA)
  • Processing Or Creating Images (AREA)
  • Position Input By Displaying (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a selection control method for object, with which a user interface can be provided for enabling a user to easily and surely select an intended object without changing the physical position and arranging state of an object group to become an object for the purpose of preparing original operation for selecting an operating target object. SOLUTION: This method is provided with a first step for extracting objects to become selection candidates in respect to the selecting operation event of the object on a picture and a second step for automatically selecting one or a plurality of specified objects out of the extracted selection candidate objects. Besides, each of objects holds a score expressing easiness in selection and in the second step, while referring to the scores held by the selection candidate objects, one or a plurality of specified objects are automatically selected.

Description

【発明の詳細な説明】Detailed Description of the Invention

【0001】[0001]

【発明の属する技術分野】本発明は、コンピュータプロ
グラムによって表示装置画面上に表示されたオブジェク
トのマウスのクリック操作などのユーザ操作イベントに
対する操作対象オブジェクトの選択操作を支援する選択
制御方法に関するものである。
BACKGROUND OF THE INVENTION 1. Field of the Invention The present invention relates to a selection control method for supporting a selection operation of an operation target object in response to a user operation event such as a mouse click operation of an object displayed on a display screen by a computer program. .

【0002】[0002]

【従来の技術】形状オブジェクトを操作するコンピュー
タグラフックスのアプリケーションにおいては、通常、
マウス操作によって操作対象のオブジェクトを指定す
る。図16は、従来における選択操作を説明するための
2次元/3次元グラフィックスアプリケーションにおけ
るオブジェクトの表示例を示す図であり、同図(a)
は、3次元グラフィックスアプリケーションにおいて、
立方体オブジェクト1601が球オブジェクト1602
を内包し、共に不透明である場合には、ユーザからは1
601しか見ることが出来ない状態を示すものである。
また、同図(b)は、2次元グラフィックスアプリケー
ションにおいて、テキストオブジェクト1604が、自
分より小さな大きさの色台紙部品オブジェクト1603
の上に重なり、色つきの背景の上に文字「ABCD」が
書かれている様に見えている様子を示すものであり、同
図(c)はこれを立体的に見た図である。
BACKGROUND OF THE INVENTION In computer graphics applications that manipulate geometric objects,
Specify the object to be operated by operating the mouse. FIG. 16 is a diagram showing a display example of objects in a 2D / 3D graphics application for explaining a selection operation in the related art, and FIG.
In 3D graphics applications,
A cube object 1601 is a sphere object 1602
If both are opaque and both are opaque, 1 from the user
This shows a state where only 601 can be seen.
Also, in FIG. 6B, in the two-dimensional graphics application, the text object 1604 has a color mount part object 1603 smaller than itself.
FIG. 3C is a three-dimensional view of the character “ABCD” that is overlaid on the colored background and appears to be written on the colored background.

【0003】このような例において、球オブジェクト1
602を操作対象に選択しようとした場合、この球オブ
ジェクト1602が立方体オブジェクト1601の中に
隠蔽されているため、立方体オブジェクト1601が不
透明である限り、球オブジェクト1602を選択するこ
とができない。また、テキストオブジェクト1604の
背景色を変えるために、色台紙部品オブジェクト160
3を選択しようとしても、色台紙部品オブジェクト16
03の上に自分より大きなサイズのテキストオブジェク
ト1604が重なっているため、色台紙部品オブジェク
ト1603を選択することができない。
In such an example, the sphere object 1
When attempting to select 602 as the operation target, the sphere object 1602 is hidden in the cube object 1601, and therefore the sphere object 1602 cannot be selected as long as the cube object 1601 is opaque. Also, in order to change the background color of the text object 1604, the color mount part object 160
Even if you try to select 3, the color mount part object 16
Since the text object 1604 having a size larger than that of 03 is overlapped on 03, the color mount part object 1603 cannot be selected.

【0004】そこで、従来においては、色台紙部品オブ
ジェクト1603の色を変える場合、まず、テキストオ
ブジェクト1604を色台紙部品オブジェクト1603
の一部が見えるような位置まで移動させた後、色台紙部
品オブジェクト1603を選択するという操作が行われ
ていた。そして、目的とするオブジェクトを選択する操
作を行った後は、選択前に可視化するために移動、もし
くは変更した重なり順序を、元の状態に回復するという
手順が必要であった。
Therefore, in the prior art, when changing the color of the color mount part object 1603, first, the text object 1604 is changed to the color mount part object 1603.
An operation of selecting the color mount part object 1603 after moving it to a position where a part of it is visible is performed. Then, after performing the operation of selecting the target object, it is necessary to restore the overlapping order moved or changed for visualization before selection to the original state.

【0005】[0005]

【発明が解決しようとする課題】上記のように従来にお
けるオブジェクトの選択操作に際しては、目的とするオ
ブジェクトを選択するまでに、他のオブジェクトの物理
的位置の移動や配置状態を一時的に変更する操作が必要
となる事態がしばしば発生し、目的とするオブジェクト
を選択するまでの操作が極めて煩雑になり、作業効率が
低下するという問題があった。
As described above, in the conventional operation of selecting an object, the movement of the physical position of another object and the arrangement state of the other object are temporarily changed until the target object is selected. There is a problem that the operation often occurs, the operation until the target object is selected becomes extremely complicated, and the work efficiency decreases.

【0006】本発明の目的は、「操作対象オブジェクト
の選択」という本来の操作の準備操作のために、対象と
なるオブジェクト群の物理的な位置、配置状態を変える
ことなく、ユーザが本意とするオブジェクトを容易かつ
確実に選択できるためのユーザインタフェースを実現可
能なオブジェクトの選択制御方法を提供することにあ
る。
An object of the present invention is to allow a user to make a main purpose without changing the physical position and arrangement state of a target object group in preparation for the original operation of "selecting an operation target object". An object is to provide an object selection control method capable of realizing a user interface for easily and surely selecting an object.

【0007】[0007]

【課題を解決するための手段】上記目的を達成するため
に、本発明は、表示装置に表示された2次元または3次
元のオブジェクトの選択操作を支援するオブジェクトの
選択制御方法であって、画面上におけるオブジェクトの
選択操作イベントに対し選択候補となるオブジェクトを
抽出する第1のステップと、抽出された選択候補オブジ
ェクトの中から特定の1つまたは複数のオブジェクトを
自動選択する第2のステップと備えることを特徴とす
る。また、各オブジェクトが選択のされ易さを表すスコ
アを保持し、前記第2のステップにおいて選択候補オブ
ジェクトが保持するスコアを参照して特定の1つまたは
複数のオブジェクトを自動選択することを特徴とする。
また、前記第2のステップにおいて、選択候補オブジェ
クトのうち選択操作位置に最も近い辺を持つオブジェク
トを自動選択することを特徴とする。また、前記第2の
ステップにおいて、選択候補オブジェクトのうち選択操
作位置を内包するものの中で当該選択操作位置に最も近
い辺を持つオブジェクトを自動選択することを特徴とす
る。
In order to achieve the above object, the present invention is an object selection control method for supporting a selection operation of a two-dimensional or three-dimensional object displayed on a display device. A first step of extracting an object that is a selection candidate for the object selection operation event above, and a second step of automatically selecting one or more specific objects from the extracted selection candidate objects It is characterized by In addition, each object holds a score indicating the ease of selection, and in the second step, one or more specific objects are automatically selected with reference to the score held by the selection candidate object. To do.
Further, in the second step, an object having a side closest to the selection operation position among the selection candidate objects is automatically selected. In the second step, an object having a side closest to the selection operation position among the selection candidate objects including the selection operation position is automatically selected.

【0008】[0008]

【発明の実施の形態】以下、本発明の実施形態について
図面を参照して具体的に説明する。図1は、本発明を適
用したシステムの一実施形態を示す全体構成図である。
この実施形態は、図16(a)に示したような3次元オ
ブジェクトを表示するシステムに対し、本発明を適用し
たものであり、2次元オブジェクトについても同様に適
用することができる。図1において、100は、本発明
に係るオブジェクトの選択制御方法を実現する処理を行
う計算機である。この計算機100は、キーボード10
1とディスプレイ102、CPU103、マウス10
4、プログラムメモリ105、データメモリ106とか
ら構成される。計算機100のプログラムメモリ105
には、計算機全体を制御するオペレーティングシステム
105aと、ユーザによるマウス操作などのイベントを
各3次元オブジェクトに配送し、その応答によって選択
対象となる3次元オブジェクトを予め定義された被選択
基準によって選択し、さらに選択対象の3次元オブジェ
クトが複数個存在する場合には、その中から地奥低の1
つまたは複数のオブジェクトを自動的に選択するイベン
トディスパッチャ105b、データメモリ106に格納
された各種3次元オブジェクト106a〜106cに対
応する3次元オブジェクト(1)プログラム105c〜
(n)105eが格納されている。
BEST MODE FOR CARRYING OUT THE INVENTION Embodiments of the present invention will be specifically described below with reference to the drawings. FIG. 1 is an overall configuration diagram showing an embodiment of a system to which the present invention is applied.
This embodiment applies the present invention to a system for displaying a three-dimensional object as shown in FIG. 16A, and can also be applied to a two-dimensional object in the same manner. In FIG. 1, reference numeral 100 is a computer that performs processing for implementing the object selection control method according to the present invention. This computer 100 has a keyboard 10
1, display 102, CPU 103, mouse 10
4, a program memory 105, and a data memory 106. Program memory 105 of computer 100
Includes an operating system 105a that controls the entire computer and an event such as a mouse operation by a user, which is delivered to each three-dimensional object, and the three-dimensional object to be selected is selected according to the response according to a predefined selection criterion. If there are multiple 3D objects to be selected, one of the 3
Event dispatcher 105b for automatically selecting one or a plurality of objects, and three-dimensional object (1) program 105c-corresponding to various three-dimensional objects 106a-106c stored in the data memory 106.
(N) 105e is stored.

【0009】3次元オブジェクトi(i=1〜n)プロ
グラム105c〜105eは、そのプログラムに対応す
る3次元オブジェクトのそれぞれに定義された関数を実
行するプログラムである。なお、視線方向を変えた場合
における3次元オブジェクト(1)〜(3)の挙動や見
え方を制御するプログラムは、3次元オブジェクトi
(i=1〜n)プログラムとは別のプログラムとして実
装されるが、本発明には直接関係しないので図示を省略
している。
The three-dimensional object i (i = 1 to n) programs 105c to 105e are programs for executing the function defined in each of the three-dimensional objects corresponding to the program. The program for controlling the behaviors and appearances of the three-dimensional objects (1) to (3) when the line-of-sight direction is changed is the three-dimensional object i.
Although it is implemented as a program different from the (i = 1 to n) program, it is not shown because it is not directly related to the present invention.

【0010】データメモリ106には、3次元オブジェ
クト(1)106a、3次元オブジェクト(2)106
b、3次元オブジェクト(n)106cといった各種3
次元オブジェクト群が格納されている。
The data memory 106 has a three-dimensional object (1) 106a and a three-dimensional object (2) 106a.
b, various 3D objects (n) 106c
A dimensional object group is stored.

【0011】これらの3次元オブジェクト群は、図2
(a)に示すように、共通の属性項目201として、
色、透明度、座標変換行列、形状の各データを備え、さ
らに、図2(b)に示すように、各オブジェクトの色デ
ータを取得するためのgetColor等のその他の関数を各オ
ブジェクト毎に保持している。このうち、色データは
R,G,B値で構成され、透明度データは0(透明)〜2
55(不透明)の段階値で構成されている。また、座標
変換行列は、ローカル座標系で表現された座標データを
ワールド座標系の座標データに変換する行列式のデータ
で構成されている。また、形状データは、3次元オブジ
ェクトの各頂点の座標データ(ローカル座標系またはワ
ールド座標系)で構成されている。なお、円筒などの曲
面部分を持つ3次元オブジェクトについては、多角形近
似によって生成する場合、その各頂点座標データで構成
される。
These three-dimensional object groups are shown in FIG.
As shown in (a), as the common attribute item 201,
Each object is provided with data of color, transparency, coordinate transformation matrix, and shape. Further, as shown in FIG. 2B, other functions such as getColor for obtaining color data of each object are held for each object. ing. Of these, the color data is composed of R, G, and B values, and the transparency data is 0 (transparent) to 2
It is composed of a step value of 55 (opaque). The coordinate conversion matrix is composed of determinant data for converting the coordinate data expressed in the local coordinate system into the coordinate data in the world coordinate system. The shape data is composed of coordinate data (local coordinate system or world coordinate system) of each vertex of the three-dimensional object. When a three-dimensional object having a curved surface such as a cylinder is generated by polygonal approximation, the three-dimensional object is composed of the vertex coordinate data.

【0012】ローカル座標系とは、図3の説明図に示す
ように3次元オブジェクト301の形状を単独で表現す
る座標系であり、ワールド座標系とは3次元オブジェク
ト301を配置する3次元空間を定義する座標系であ
る。ワールド座標系で定義された3次元空間に配置され
た3次元オブジェクト301は投影によって2次元図形
に変換されて表示装置画面に表示される。ワールド座標
系に配置された3次元オブジェクト301を投影する投
影面を定義するのが投影面座標系であり、投影面に投影
される3次元オブジェクト(2次元投影像)は注視点を
原点とし、Z軸を支軸方向とする視点座標系での支軸方
向に応じて変化する。
The local coordinate system is a coordinate system which independently expresses the shape of the three-dimensional object 301 as shown in the explanatory view of FIG. 3, and the world coordinate system is a three-dimensional space in which the three-dimensional object 301 is arranged. The coordinate system to define. The three-dimensional object 301 arranged in the three-dimensional space defined by the world coordinate system is converted into a two-dimensional figure by projection and displayed on the screen of the display device. The projection plane coordinate system defines the projection plane for projecting the three-dimensional object 301 arranged in the world coordinate system, and the three-dimensional object (two-dimensional projection image) projected on the projection plane has the gazing point as the origin, It changes according to the spindle direction in the viewpoint coordinate system with the Z axis as the spindle direction.

【0013】3次元オブジェクト301を表示装置画面
に表示する際には、視点から見える視野を設定するが、
視点から見て投影面の手前側で見える範囲を前平面の位
置で設定し、奥行き方向に見える範囲を後平面の位置で
設定する。前平面と後平面の間の四角錘形状の3次元空
間が3次元オブジェクトのビューボリュームである。本
発明に係る実施形態では、図3に示すように、視点位置
を基準として、投影面と後平面の位置D1,D2を設定
し、ローカル座標系で定義された3次元オブジェクト3
01をワールド座標系上の投影面座標系の2次元投影像
に透視変換を行って投影面に表示する。
When the three-dimensional object 301 is displayed on the screen of the display device, the visual field seen from the viewpoint is set.
The range seen from the viewpoint on the front side of the projection plane is set at the position of the front plane, and the range seen in the depth direction is set at the position of the rear plane. The quadrangular pyramid-shaped three-dimensional space between the front plane and the rear plane is the view volume of the three-dimensional object. In the embodiment according to the present invention, as shown in FIG. 3, the positions D1 and D2 of the projection plane and the rear plane are set on the basis of the viewpoint position, and the three-dimensional object 3 defined by the local coordinate system is set.
01 is perspective-transformed into a two-dimensional projection image of the projection plane coordinate system on the world coordinate system and displayed on the projection surface.

【0014】なお、本実施形態で扱う3次元オブジェク
トの生成方法と、生成された3次元オブジェクトに対し
マウスイベントが発生した場合に、いずれのオブジェク
トを選択候補として抽出するかについては、本願出願人
が先に出願した特願2001−172416号に詳しく
記載しているので、生成方法、オブジェクトの構造、選
択候補の抽出処理についての説明は省略する。
Regarding the method of generating a three-dimensional object handled in this embodiment and which object is extracted as a selection candidate when a mouse event occurs in the generated three-dimensional object, the applicant of the present application Is described in detail in Japanese Patent Application No. 2001-172416 filed earlier, the description of the generation method, the structure of the object, and the extraction processing of the selection candidate will be omitted.

【0015】図4は、本発明のオブジェクトの選択制御
方法を実現する上で主要な処理を行うイベントディスパ
ッチャ105bが実行する各種の選択操作支援用の関数
の例を示す図であり、これらの関数はシステムのグロー
バルメモリ領域401の各保持領域402、403に保
持されている。図4において、保持領域402には、選
択候補オブジェクト群取得関数が保持され、また保持領
域403にはオブジェクト選択関数が保持されている。
選択候補オブジェクト群取得関数は、マウスイベントに
対し選択候補となるオブジェクト群を取得する関数であ
り、この関数によって取得された選択候補オブジェクト
群は選択候補オブジェクト群保持領域404に格納され
る。また、オブジェクト選択関数は、複数の選択候補オ
ブジェクトがあった場合に、いずれを選択するかを決定
する関数であり、例えば、スコアテーブル保持領域40
5に保持された各オブジェクト毎のスコアを参照して決
定するようになっている。この場合、スコアテーブル保
持領域405に保持された各オブジェクト毎のスコアと
は、「選択のされ易さ」を表すものであり、本実施形態
では選択モード毎に異なるスコアが定義され、同じオブ
ジェクトであっても選択モードに応じて異なる選択のさ
れ方を実現できるように構成している。現在の選択モー
ドは、オブジェクト選択モード保持領域406に保持さ
れるようになっている。
FIG. 4 is a diagram showing an example of various selection operation support functions executed by the event dispatcher 105b, which performs the main processing for implementing the object selection control method of the present invention. Are held in holding areas 402 and 403 of the global memory area 401 of the system. In FIG. 4, the holding area 402 holds a selection candidate object group acquisition function, and the holding area 403 holds an object selection function.
The selection candidate object group acquisition function is a function for acquiring an object group that is a selection candidate for a mouse event, and the selection candidate object group acquired by this function is stored in the selection candidate object group holding area 404. The object selection function is a function that determines which one is selected when there are a plurality of selection candidate objects. For example, the score table holding area 40
The determination is made by referring to the score of each object held in 5. In this case, the score of each object held in the score table holding area 405 represents “ease of selection”. In the present embodiment, different scores are defined for each selection mode, and the same object is used. Even if there is, it is configured so that different selection modes can be realized according to the selection mode. The current selection mode is held in the object selection mode holding area 406.

【0016】図5は、オペレーティングシステム105
aから起動されるイベントディスパッチャ105bの処
理手順を示すフローチャートである。まず、マウスイベ
ントeが発生すると、特願2001−172416号で
説明しているように、視点とマウスカーソル位置とを結
ぶ直線が透過するオブジェクト(選択候補オブジェク
ト)群を選択候補オブジェクト群取得処理によって抽出
する(ステップ501)。次に、オブジェクト選択関数を
実行し、選択候補オブジェクト群の中から特定の1つの
オブジェクトまたは複数のオブジェクトを決定する(ス
テップ502)。最後に、選択オブジェクトを返却する
(ステップ503)。
FIG. 5 shows the operating system 105.
It is a flow chart which shows a processing procedure of event dispatcher 105b started from a. First, when a mouse event e occurs, as described in Japanese Patent Application No. 2001-172416, an object (selection candidate object) group through which a straight line connecting a viewpoint and a mouse cursor position is transparent is selected by the selection candidate object group acquisition process. It is extracted (step 501). Next, the object selection function is executed to determine a specific one object or a plurality of objects from the selection candidate object group (step 502). Finally, the selected object is returned (step 503).

【0017】図6は、図5におけるステップ501の選
択候補オブジェクト群取得処理の詳細を示すフローチャ
ートである。まず、図4のグローバルメモリ領域401
中に設けられた選択候補オブジェクト群保持領域404
を空にする(ステップ601)。そして、ステップ60
2と606で形成される処理すなわち、画面に表示され
ている全オブジェクトに対して視点とカーソル位置とを
結ぶ直線が自オブジェクトを透過するか否かの報告を求
める。これは、各オブジェクトに対して選択候補オブジ
ェクト取得関数の実行を指示することによって行われる
(ステップ603)。
FIG. 6 is a flow chart showing the details of the selection candidate object group acquisition process of step 501 in FIG. First, the global memory area 401 of FIG.
Selection candidate object group holding area 404 provided therein
Is emptied (step 601). And step 60
A process of 2 and 606, that is, a report as to whether or not the straight line connecting the viewpoint and the cursor position is transparent to the own object for all the objects displayed on the screen is obtained. This is done by instructing each object to execute the selection candidate object acquisition function (step 603).

【0018】イベントディスパッチャ105bは、自オ
ブジェクトに対して選択候補オブジェクト群取得関数を
実行した各オブジェクトからの応答をチェックし(ステ
ップ604)、視点とカーソル位置とを結ぶ直線が自オ
ブジェクトを透過する旨の応答をしたオブジェクトを選
択候補オブジェクト群保持領域404に追加する(ステ
ップ605)。そして、最終的に選択候補オブジェクト
群保持領域404に保持された選択候補群のオブジェク
トを視点に最も近いものから並べ替えるソート処理を行
い(ステップ607)、その結果を選択候補オブジェク
ト群とする。
The event dispatcher 105b checks the response from each object that has executed the selection candidate object group acquisition function for its own object (step 604), and indicates that the straight line connecting the viewpoint and the cursor position is transparent to the own object. The object responding to is added to the selection candidate object group holding area 404 (step 605). Then, finally, sort processing for rearranging the objects of the selection candidate group held in the selection candidate object group holding area 404 from those closest to the viewpoint is performed (step 607), and the result is set as the selection candidate object group.

【0019】図7は、オブジェクト選択関数の第1の定
義例を示すフローチャートである。ここでは、まず、現
在のオブジェクト選択モードを取得する(ステップ70
1)。次に、現在のオブジェクト選択モードに対応する
スコアテーブルを参照する(ステップ702)。次に、
変数pにオブジェクト選択候補群の先頭オブジェクト名
を代入する(ステップ703)。そして、ステップ70
4と708間で形成される下記の処理を、選択候補オブ
ジェクト群の全オブジェクトに対して実行する。まず、
変数xに選択候補オブジェクト群の次候補オブジェクト
名を代入し(ステップ705)、xのスコアがpのスコ
アより大きいかどうかの判定を行い(ステップ70
6)、大きければ変数pにxを代入する(ステップ70
7)。上記処理終了後に、変数pを返却し、処理を終了
する(ステップ709)。
FIG. 7 is a flowchart showing a first definition example of the object selection function. Here, first, the current object selection mode is acquired (step 70).
1). Next, the score table corresponding to the current object selection mode is referenced (step 702). next,
The head object name of the object selection candidate group is assigned to the variable p (step 703). And step 70
The following processing formed between Nos. 4 and 708 is executed for all the objects in the selection candidate object group. First,
The next candidate object name of the selection candidate object group is substituted for the variable x (step 705), and it is determined whether the score of x is larger than the score of p (step 70).
6) If larger, x is substituted for the variable p (step 70)
7). After the above processing is completed, the variable p is returned and the processing is completed (step 709).

【0020】これにより、選択候補オブジェクト群とし
て複数のオブジェクトが存在した場合、その中でスコア
の最も高い1つのオブジェクトが選択される。なお、ス
コアの最も高いオブジェクトが複数個あった場合には、
それらを全て選択するようにしてもよい。
As a result, when a plurality of objects exist as the selection candidate object group, one object having the highest score is selected. If there are multiple objects with the highest score,
You may make it select all of them.

【0021】図8および図9は、図7のオブジェクト選
択関数を適用してオブジェクトを選択する場合の例を示
す図であり、電子チップ801、コンデンサ802、基
板803、ボディー804といった各種のオブジェクト
が複数存在する状態を示し、コンピュータディスプレイ
装置の製造工程における部品配置、テスト、次工程への
配送といったシミュレーションを行うことを想定したも
のである。製造工程における部品配置の段階では、ボデ
ィー804内の電子チップ801、コンデンサ802、
基板803といった部品オブジェクトの配置換えをする
ことが多いため、スコアテーブル806における各部品
オブジェクトのスコアは図示するように、電子チップ=
30、コンデンサ=50、基板=10となっており、ボ
ディー804については配置換え自体が考えられないた
めにそのスコアは「0」となっている。一方、配送モー
ドでは、部品の配置換えを行うことは考えられないの
で、各部品オブジェクトのスコアは「0」に設定され、
ボディー804のスコアが「50」に設定されている。
また、テストモードでは、全てのオブジェクトが対象に
なるため、「0」以上のスコアが設定され、かつテスト
対象になる頻度が高いと考えられる順に高い数値のスコ
アが設定されている。
FIGS. 8 and 9 are diagrams showing an example in which an object is selected by applying the object selection function of FIG. 7, and various objects such as an electronic chip 801, a capacitor 802, a substrate 803, and a body 804 are displayed. It is assumed that a plurality of states are shown, and simulations such as component placement, testing, and delivery to the next process are performed in the computer display device manufacturing process. At the stage of arranging components in the manufacturing process, the electronic chip 801 in the body 804, the capacitor 802,
Since component objects such as the board 803 are often rearranged, the score of each component object in the score table 806 is electronic chip =
The number of capacitors is 30, the number of capacitors is 50, and the number of substrates is 10. Since the rearrangement itself cannot be considered for the body 804, the score is “0”. On the other hand, in the delivery mode, it is unthinkable to rearrange parts, so the score of each part object is set to "0",
The score of the body 804 is set to "50".
Further, in the test mode, all objects are targeted, so a score of "0" or more is set, and a score with a higher numerical value is set in an order of higher frequency of being tested.

【0022】図の状態では、コンデンサ802、基板8
03、ボディー804の3つの部品オブジェクト上に、
マウスカーソル805が位置していることを示している
ため、これら3つの部品オブジェクト802〜804が
選択候補オブジェクトとなっている。ここで、オブジェ
クト選択モードとして部品配置モードが選択されていた
とすると、スコアテーブル806でスコアの値が最も大
きいコンデンサ802が選択される。図8においては、
コンデンサ802が選択されたことを太実線で示してい
る。これに対し、オブジェクト選択モードが配送モード
に設定された場合、マウスカーソル805は同一位置で
あったとしても、スコアテーブル806ではボディー8
04が最も高いスコアとなっているため、図9に示すよ
うに、ボディー804が選択される。なお、図9におい
ては、ボディー804が選択されたことを太実線で示
し、内部の部品オブジェクトは破線で示している。
In the illustrated state, the capacitor 802 and the substrate 8
03, on three part objects of body 804,
Since the mouse cursor 805 is shown to be located, these three component objects 802 to 804 are selection candidate objects. Here, if the component placement mode is selected as the object selection mode, the capacitor 802 having the largest score value in the score table 806 is selected. In FIG.
The thick solid line indicates that the capacitor 802 is selected. On the other hand, when the object selection mode is set to the delivery mode, even if the mouse cursor 805 is located at the same position, the body 8 is displayed in the score table 806.
Since 04 has the highest score, the body 804 is selected as shown in FIG. In FIG. 9, the selection of the body 804 is indicated by a thick solid line, and the internal component objects are indicated by broken lines.

【0023】図10および図11は、図7のオブジェク
ト選択関数を適用してオブジェクトを選択する場合の例
を示す図であり、イス1001、テレビ1002、冷蔵
庫1003、ベッド1004、部屋1005といった各
種オブジェクトが複数存在する状態を示し、家具配置の
シミュレーションを行う場合を想定したものである。こ
こでは、オブジェクト選択モードとして、家具配置モー
ドと間取変更モードが用意され、スコアテーブル100
6には図示のように各モード毎に各オブジェクトのスコ
アが設定されている。そこで、マウスカーソル1007
が図示のようにイス1001、部屋1005の位置にあ
ったとすると、このイス1001、部屋1005のオブ
ジェクトが選択候補オブジェクトとして抽出されるが、
オブジェクト選択モードとして家具配置モードが選択さ
れていたとすると、スコアテーブル1006ではイス1
001のスコアが高く設定されているため、イス100
1が選択される。図10においては、イス1001が選
択されたことを太実線で示している。
FIGS. 10 and 11 are diagrams showing an example in which the object is selected by applying the object selection function of FIG. 7, and various objects such as a chair 1001, a television 1002, a refrigerator 1003, a bed 1004 and a room 1005. It is assumed that a case where a furniture arrangement simulation is performed is shown by showing a state in which a plurality of items exist. Here, a furniture arrangement mode and a floor plan change mode are prepared as the object selection modes, and the score table 100
6, the score of each object is set for each mode as shown in the figure. Therefore, the mouse cursor 1007
Is at the position of the chair 1001 and the room 1005 as shown in the figure, the objects of the chair 1001 and the room 1005 are extracted as selection candidate objects.
Assuming that the furniture arrangement mode is selected as the object selection mode, the chair 1 is displayed in the score table 1006.
Because the score of 001 is set high, chair 100
1 is selected. In FIG. 10, the thick solid line indicates that the chair 1001 has been selected.

【0024】一方、オブジェクト選択モードが間取変更
モードに設定された場合、マウスカーソル1007は同
一位置であったとしても、スコアテーブル1006では
部屋1005が最も高いスコアとなっているため、図1
1に示すように、部屋1005が選択される。なお、図
11においては、部屋1005が選択されたことを太実
線で示し、内部の部品オブジェクトは破線で示してい
る。
On the other hand, when the object selection mode is set to the floor plan changing mode, the room 1005 has the highest score in the score table 1006 even if the mouse cursor 1007 is at the same position.
As shown in 1, the room 1005 is selected. In FIG. 11, the selection of the room 1005 is indicated by a thick solid line, and the internal component objects are indicated by broken lines.

【0025】図12はオブジェクト選択関数の第2の定
義例を示すフローチャートであり、ここでは、変数p
に、マウスカーソル位置に最も近い辺を持つオブジェク
ト名を代入し(ステップ1201)、pを返却する(ス
テップ1202)ように定義されている。
FIG. 12 is a flow chart showing a second definition example of the object selection function, in this case, the variable p.
Is assigned to the object name having the side closest to the mouse cursor position (step 1201) and p is returned (step 1202).

【0026】図13は、図12のオブジェクト選択関数
を適用して1つのオブジェクトを選択する場合の例を示
す図であり、円柱オブジェクト1301、角柱オブジェ
クト1302、立方体オブジェクト1303、球オブジ
ェクト1304が存在し、立方体オブジェクト1303
が球オブジェクト1304を内包している状態を示して
いる。そこで、マウスカーソル1305を図示の位置に
設定すると、図12のオブジェクト関数の定義により、
マウスカーソル1305に最も近い辺を持つ球オブジェ
クト1304が選択される。図14はオブジェクト選択
関数の第3の定義例を示すフローチャートであり、ここ
では、まず、選択候補オブジェクト群のうち、マウスカ
ーソルが自身のオブジェクトの内側になるものを抽出し
(ステップ1401)、その抽出オブジェクト群のう
ち、マウスカーソルに最も近い辺を持つオブジェクトを
変数pに代入すし(ステップ1402)、pを返却する
(ステップ1403)ように定義されている。
FIG. 13 is a diagram showing an example in which one object is selected by applying the object selection function of FIG. 12, and a cylinder object 1301, a prism object 1302, a cube object 1303, and a sphere object 1304 exist. , Cube object 1303
Shows a state in which the sphere object 1304 is included. Therefore, when the mouse cursor 1305 is set to the position shown in the figure, the definition of the object function in FIG.
The sphere object 1304 having the side closest to the mouse cursor 1305 is selected. FIG. 14 is a flow chart showing a third definition example of the object selection function. Here, from the selection candidate object group, the one in which the mouse cursor is inside its own object is extracted (step 1401), It is defined that the object having the side closest to the mouse cursor in the extracted object group is assigned to the variable p (step 1402) and p is returned (step 1403).

【0027】図15は、図14のオブジェクト選択関数
を適用して1つのオブジェクトを選択する場合の例を示
す図であり、円柱オブジェクト1501、角柱オブジェ
クト1502、立方体オブジェクト1503、球オブジ
ェクト1504が存在し、立方体オブジェクト1503
が球オブジェクト1504を内包している状態を示して
いる。そこで、マウスカーソル1505を図示のように
立方体オブジェクト1503の内側になるような位置に
設定すると、図14のオブジェクト関数の定義により、
マウスカーソル1305を内包し、かつマウスカーソル
1305に最も近い辺を持つ立方体オブジェクト150
3が選択される。
FIG. 15 is a diagram showing an example in which one object is selected by applying the object selection function of FIG. 14, in which a cylinder object 1501, a prism object 1502, a cube object 1503, and a sphere object 1504 exist. , Cube object 1503
Shows the state in which the sphere object 1504 is included. Therefore, when the mouse cursor 1505 is set to a position inside the cube object 1503 as shown in the figure, the definition of the object function in FIG.
A cube object 150 containing a mouse cursor 1305 and having a side closest to the mouse cursor 1305
3 is selected.

【0028】なお、図7で説明したオブジェクト選択関
数を用いた場合に、同点スコアのオブジェクトが存在し
た場合、マウスカーソルに最も近い辺を持つオブジェク
トを選択するといった組み合わせで選択するようにして
もよい。
When the object selection function described with reference to FIG. 7 is used and there is an object having a tie score, the objects having the side closest to the mouse cursor may be selected in combination. .

【0029】[0029]

【発明の効果】以上説明したように、本発明によれば、
操作対象オブジェクトの選択という本来の操作の準備操
作のために、対象となるオブジェクト群の物理的な位
置、配置状態を変えることなく、ユーザが本意とするオ
ブジェクトを容易かつ確実に選択できるためのユーザイ
ンタフェースを実現することができる。
As described above, according to the present invention,
A user who can easily and surely select the intended object without changing the physical position and arrangement state of the target object group in order to prepare for the original operation of selecting the operation target object. Interface can be realized.

【図面の簡単な説明】[Brief description of drawings]

【図1】本発明の方法を適用したシステムの一実施の形
態を示す全体構成図である。
FIG. 1 is an overall configuration diagram showing an embodiment of a system to which a method of the present invention is applied.

【図2】本発明の実施形態で扱う3次元オブジェクトの
概念構成図である。
FIG. 2 is a conceptual configuration diagram of a three-dimensional object handled in the embodiment of the present invention.

【図3】3次元オブジェクトを表示装置画面に表示する
際に設定する投影面と後平面の位置D1,D2の説明図
である。
FIG. 3 is an explanatory diagram of positions D1 and D2 of a projection plane and a rear plane that are set when a three-dimensional object is displayed on a display device screen.

【図4】本発明の実施形態で用いられるオブジェクト選
択支援用の関数の例を示すである。
FIG. 4 is a diagram showing an example of a function for supporting object selection used in the embodiment of the present invention.

【図5】オペレーティングシステムから起動されるイベ
ントディスパッチャの処理を示すフローチャートであ
る。
FIG. 5 is a flowchart showing a process of an event dispatcher activated by the operating system.

【図6】図5におけるステップ501の選択候補オブジ
ェクト群取得関数実行処理の詳細を示すフローチャート
である。
6 is a flowchart showing details of a selection candidate object group acquisition function execution process of step 501 in FIG.

【図7】本発明の実施形態で用いられるオブジェクト選
択関数の第1の定義例を示すフローチャートである。
FIG. 7 is a flowchart showing a first definition example of an object selection function used in the embodiment of the present invention.

【図8】オブジェクト選択関数の第1の定義例を適用す
る選択候補オブジェクトの例を示し、部品配置モードが
選択された場合の説明図である。
FIG. 8 is an explanatory diagram showing an example of a selection candidate object to which the first definition example of the object selection function is applied, in the case where the component placement mode is selected.

【図9】オブジェクト選択関数の第1の定義例を適用す
る選択候補オブジェクトの例を示し、配送モードが選択
された場合の説明図である。
FIG. 9 is an explanatory diagram showing an example of selection candidate objects to which the first definition example of the object selection function is applied and a case where a delivery mode is selected.

【図10】オブジェクト選択関数の第1の定義例を適用
する選択候補オブジェクトの他の例を示し、家具配置モ
ードが選択された場合の説明図である。
FIG. 10 illustrates another example of selection candidate objects to which the first definition example of the object selection function is applied, and is an explanatory diagram when the furniture arrangement mode is selected.

【図11】オブジェクト選択関数の第1の定義例を適用
する選択候補オブジェクトの他の例を示し、間取変更モ
ードが選択された場合の説明図である。
FIG. 11 illustrates another example of selection candidate objects to which the first definition example of the object selection function is applied, and is an explanatory diagram when the floor plan changing mode is selected.

【図12】本発明の実施形態で用いられるオブジェクト
選択関数の第2の定義例を示すフローチャートである。
FIG. 12 is a flowchart showing a second definition example of an object selection function used in the embodiment of the present invention.

【図13】オブジェクト選択関数の第2の定義例を適用
する選択候補オブジェクトの例を示す説明図である。
FIG. 13 is an explanatory diagram showing an example of selection candidate objects to which the second definition example of the object selection function is applied.

【図14】本発明の実施形態で用いられるオブジェクト
選択関数の第3の定義例を示すフローチャートである。
FIG. 14 is a flowchart showing a third definition example of an object selection function used in the embodiment of the present invention.

【図15】オブジェクト選択関数の第3の定義例を適用
する選択候補オブジェクトの例を示す説明図である。
FIG. 15 is an explanatory diagram showing an example of a selection candidate object to which a third definition example of the object selection function is applied.

【図16】従来におけるオブジェクト選択操作を説明す
るための説明図である。
FIG. 16 is an explanatory diagram for explaining a conventional object selection operation.

【符号の説明】[Explanation of symbols]

100…計算機、101…キーボード、102…ディス
プレイ、103…CPU、104…マウス、105…プ
ログラムメモリ、106…データメモリ、105a…オ
ペレーティングシステム、105b…イベントディスパ
ッチャ、105c…3次元オブジェクト(1)プログラ
ム、105d…3次元オブジェクト(2)プログラム、
105e…3次元オブジェクト(n)プログラム、10
6a…3次元オブジェクト(1)、106b…3次元オ
ブジェクト(2)、106c…3次元オブジェクト
(n)、201…共通の属性項目、301…3次元オブ
ジェクト、401…グローバルメモリ領域、403…オ
ブジェクト選択関数、404…選択候補オブジェクト群
保持領域。
100 ... Calculator, 101 ... Keyboard, 102 ... Display, 103 ... CPU, 104 ... Mouse, 105 ... Program memory, 106 ... Data memory, 105a ... Operating system, 105b ... Event dispatcher, 105c ... Three-dimensional object (1) program, 105d ... 3D object (2) program,
105e ... Three-dimensional object (n) program, 10
6a ... 3D object (1), 106b ... 3D object (2), 106c ... 3D object (n), 201 ... Common attribute item, 301 ... 3D object, 401 ... Global memory area, 403 ... Object selection Function, 404 ... Selection candidate object group holding area.

───────────────────────────────────────────────────── フロントページの続き (72)発明者 若林 泰 神奈川県横浜市中区尾上町6丁目81番地 日立ソフトウエアエンジニアリング株式会 社内 (72)発明者 堀井 克敏 神奈川県横浜市中区尾上町6丁目81番地 日立ソフトウエアエンジニアリング株式会 社内 (72)発明者 戸塚 裕介 神奈川県横浜市中区尾上町6丁目90番地 日立ビジネスソリューション株式会社内 Fターム(参考) 5B050 AA10 BA09 BA18 CA07 EA07 FA02 FA09 5B087 AA09 AB02 DD06 DE03 5E501 AA02 AC37 BA05 CA03 CB09 EA13 FA02 FA14    ─────────────────────────────────────────────────── ─── Continued front page    (72) Inventor Yasushi Wakabayashi             6-81 Onoe-cho, Naka-ku, Yokohama-shi, Kanagawa             Hitachi Software Engineering Stock Association             In-house (72) Inventor Katsutoshi Horii             6-81 Onoe-cho, Naka-ku, Yokohama-shi, Kanagawa             Hitachi Software Engineering Stock Association             In-house (72) Inventor Yusuke Totsuka             6-90 Onoe-cho, Naka-ku, Yokohama-shi, Kanagawa             Within Hitachi Business Solution Co., Ltd. F term (reference) 5B050 AA10 BA09 BA18 CA07 EA07                       FA02 FA09                 5B087 AA09 AB02 DD06 DE03                 5E501 AA02 AC37 BA05 CA03 CB09                       EA13 FA02 FA14

Claims (4)

【特許請求の範囲】[Claims] 【請求項1】 表示装置に表示された2次元または3次
元のオブジェクトの選択操作を支援するオブジェクトの
選択制御方法であって、 画面上におけるオブジェクトの選択操作イベントに対し
選択候補となるオブジェクトを抽出する第1のステップ
と、 抽出された選択候補オブジェクトの中から特定の1つま
たは複数のオブジェクトを自動選択する第2のステップ
とを備えることを特徴とするオブジェクト選択制御方
法。
1. A method of controlling selection of an object that supports a selection operation of a two-dimensional or three-dimensional object displayed on a display device, wherein an object that is a selection candidate for an operation event of selecting an object on a screen is extracted. And a second step of automatically selecting a specific one or more objects from the extracted selection candidate objects.
【請求項2】 各オブジェクトが選択のされ易さを表す
スコアを保持し、前記第2のステップにおいて選択候補
オブジェクトが保持するスコアを参照して特定の1つま
たは複数のオブジェクトを自動選択することを特徴とす
る請求項1に記載のオブジェクトの選択制御方法。
2. Each object holds a score representing the ease of selection, and automatically selects one or more specific objects by referring to the score held by the selection candidate object in the second step. The object selection control method according to claim 1, wherein:
【請求項3】 前記第2のステップにおいて、選択候補
オブジェクトのうち選択操作位置に最も近い辺を持つオ
ブジェクトを自動選択することを特徴とする請求項1に
記載のオブジェクトの選択制御方法。
3. The object selection control method according to claim 1, wherein in the second step, an object having a side closest to the selection operation position is automatically selected from the selection candidate objects.
【請求項4】 前記第2のステップにおいて、選択候補
オブジェクトのうち選択操作位置を内包するものの中で
当該選択操作位置に最も近い辺を持つオブジェクトを自
動選択することを特徴とする請求項1に記載のオブジェ
クトの選択制御方法。
4. In the second step, among the selection candidate objects including the selection operation position, an object having a side closest to the selection operation position is automatically selected. Selection control method of the described object.
JP2001183544A 2001-06-18 2001-06-18 Selection control method for object Pending JP2003006678A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2001183544A JP2003006678A (en) 2001-06-18 2001-06-18 Selection control method for object

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2001183544A JP2003006678A (en) 2001-06-18 2001-06-18 Selection control method for object

Publications (2)

Publication Number Publication Date
JP2003006678A true JP2003006678A (en) 2003-01-10
JP2003006678A5 JP2003006678A5 (en) 2005-04-07

Family

ID=19023483

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2001183544A Pending JP2003006678A (en) 2001-06-18 2001-06-18 Selection control method for object

Country Status (1)

Country Link
JP (1) JP2003006678A (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012238310A (en) * 2011-05-11 2012-12-06 Dassault Systemes Selection of manipulator of object among plurality of manipulators
JP2018106715A (en) * 2016-12-22 2018-07-05 ダッソー システムズDassault Systemes Fast manipulation of objects in three-dimensional scene

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2012238310A (en) * 2011-05-11 2012-12-06 Dassault Systemes Selection of manipulator of object among plurality of manipulators
JP2018106715A (en) * 2016-12-22 2018-07-05 ダッソー システムズDassault Systemes Fast manipulation of objects in three-dimensional scene
JP7241462B2 (en) 2016-12-22 2023-03-17 ダッソー システムズ Fast manipulation of objects in 3D scenes

Similar Documents

Publication Publication Date Title
CN111803945B (en) Interface rendering method and device, electronic equipment and storage medium
JP2003016465A (en) Graphics image generating device, and its method and program
JP2011008540A (en) Information processor, information processing method, and program
Lin et al. Labeling out-of-view objects in immersive analytics to support situated visual searching
JP3981431B2 (en) Method and apparatus for controlling shadow shape on a computer display screen
JPS6336376A (en) Data display method
JP2006302035A (en) Image processing method and image processing apparatus
JP2002366974A (en) Method for selecting and controlling object
US11360639B2 (en) Media content planning system
US6392662B1 (en) Draw order preservation in a computer-implemented graphics system
JP2003006678A (en) Selection control method for object
JPH03211686A (en) Computer control display method and apparatus
JP2007249561A (en) Display system and program of screen transition diagram
JP2003005878A (en) Method for controlling selection of object
JP2004110356A (en) Method of controlling selection of object
JPH06215150A (en) Three-dimensional image display device
JP3602061B2 (en) Three-dimensional graphics display device and method
JP3350672B2 (en) Contact part drawing method, contact part drawing apparatus and storage medium therefor
JP2001291119A (en) Device and method for controlling user interface and program providing medium
JPH10333819A (en) Method for inputting three-dimensional position
JP2002352272A (en) Method for generating three-dimensional object, method for selectively controlling generated three-dimensional object, and data structure of three-dimensional object
JP2002288688A (en) Method and device for preparing data for simplified display of three-dimensional shape, and recording medium
JPH02194419A (en) Three-dimensional graphic selecting system
JP2012018514A (en) Assembly configuration file generation system and assembly generation system
JPS6023889A (en) Indication of multicursor

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20040518

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20040518

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060824

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20061013

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070323