JP4960768B2 - Information processing apparatus, information processing method, and program - Google Patents

Information processing apparatus, information processing method, and program Download PDF

Info

Publication number
JP4960768B2
JP4960768B2 JP2007142327A JP2007142327A JP4960768B2 JP 4960768 B2 JP4960768 B2 JP 4960768B2 JP 2007142327 A JP2007142327 A JP 2007142327A JP 2007142327 A JP2007142327 A JP 2007142327A JP 4960768 B2 JP4960768 B2 JP 4960768B2
Authority
JP
Japan
Prior art keywords
virtual object
user
level
orientation
change pattern
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Expired - Fee Related
Application number
JP2007142327A
Other languages
Japanese (ja)
Other versions
JP2008299429A (en
JP2008299429A5 (en
Inventor
要 冨手
真和 藤木
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2007142327A priority Critical patent/JP4960768B2/en
Publication of JP2008299429A publication Critical patent/JP2008299429A/en
Publication of JP2008299429A5 publication Critical patent/JP2008299429A5/ja
Application granted granted Critical
Publication of JP4960768B2 publication Critical patent/JP4960768B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • User Interface Of Digital Computer (AREA)

Description

本発明は、仮想物体を表示するための技術に関するものである。   The present invention relates to a technique for displaying a virtual object.

近年のCGに係る技術の進歩に伴い、設計製造等の分野において、設計者が設計したCADデータ等をモニタ上で確認しながらデータ修正を行うことで、無駄な試作を行わなくてすむようにする為の活動が活発に行われている。設計者は、設計した部品の形状及びその部品の動作を見ながら検証を行い、CADデータに修正を加えていく。このとき、設計したCADデータには当然のことながら、部品形状や可動する部品の動きに機密情報が多分に含まれている。また一方で、設計者が設計したCADデータを製品利用のトレーニングなどに流用することが考えられる。しかし、設計者が設計したデータには機密情報が含まれているため、単純に製品利用のトレーニングなどに流用することができないという問題があった。   Along with recent advances in CG technology, it is possible to avoid unnecessary trial production by correcting data while checking CAD data designed by the designer on the monitor in the field of design and manufacturing. Activities are actively underway. The designer performs verification while checking the shape of the designed part and the operation of the part, and corrects the CAD data. At this time, as a matter of course, the designed CAD data includes a lot of confidential information in the part shape and the movement of the movable part. On the other hand, it is conceivable to use CAD data designed by a designer for training of product use. However, since the data designed by the designer contains confidential information, there is a problem that it cannot be used simply for training in product use.

従来、観察者に見せる3DCGのコンテンツなどを観察者に提供する際に、観察者からのサービス要求に見合った適切な金額を設定することで、観察者にとって満足度の高い課金を行う方法が、特許文献1に開示されている。これは、仮想物体を構成するポリゴンの形状の詳細度を予め複数レベル用意しておき、観察者が選択したサービスレベルに対応する詳細度の形状のポリゴンで構成された仮想物体を表示するというものである。また、ポリゴンの形状の詳細度に合わせて観察者の視点の位置姿勢の振る舞いを制限することで、サービスレベルを設定していた。   Conventionally, when providing the viewer with 3DCG contents to be shown to the viewer, a method of charging the viewer with high satisfaction by setting an appropriate amount corresponding to the service request from the viewer, It is disclosed in Patent Document 1. This is to prepare multiple levels of detail of the shape of the polygon that makes up the virtual object in advance, and display the virtual object composed of polygons with the shape of detail corresponding to the service level selected by the observer It is. In addition, the service level is set by limiting the behavior of the position and orientation of the observer's viewpoint according to the degree of detail of the polygon shape.

このように、観察者が要求するサービスのレベルに対して、予め用意した詳細度や体験者の振る舞いを制限するような技術が提案されていた。これにより、3DCGコンテンツが機密情報を含む場合であっても、レベルに応じてポリゴンの形状の詳細度を変化させることで、機密情報を保護することができる。
特開2000-181964号公報
As described above, there has been proposed a technique for restricting the level of detail prepared in advance and the behavior of the experiencer with respect to the level of service required by the observer. Thereby, even if the 3DCG content includes confidential information, it is possible to protect the confidential information by changing the degree of detail of the polygon shape according to the level.
Japanese Unexamined Patent Publication No. 2000-181964

しかしながら、仮想物体の動きに関しては、レベルを設定して観察者に切り替えて見せることができないという問題があった。そのため、仮想物体の動きに機密情報を含んだデータを公開したくない場合であっても、制御する手段がなかった。また、動きに関してレベルを設定した後、自動的にそのレベルに合った仮想物体の動きを計算することもできなかった。   However, with regard to the movement of the virtual object, there is a problem that the level cannot be set and switched to the observer. Therefore, there is no means for controlling even when it is not desired to disclose data including confidential information in the movement of the virtual object. In addition, after setting a level for motion, it was not possible to automatically calculate the motion of a virtual object that matches that level.

本発明は以上の問題に鑑みてなされたものであり、ユーザ(設計者)から指定されたレベルに応じた仮想物体の動きをユーザ(設計者、又は、観察者)に提供する為の技術を提供することを目的とする。   The present invention has been made in view of the above problems, and provides a technique for providing a user (designer or observer) with movement of a virtual object according to a level designated by the user (designer). The purpose is to provide.

本発明の目的は、以下の装置によって達成されるThe object of the present invention is achieved by the following apparatus .

即ち、ユーザごとに対応づけられたユーザレベルと、仮想物体の動きの詳細度が異なる複数の変化パターンであって、当該動きの詳細度が高いほど高いユーザレベルに対応づけられており、該仮想物体の位置姿勢の変化を示す変化パターンとを保持する保持手段と、前記保持されたユーザレベルのうち、前記仮想物体を閲覧するユーザに対応づけられたユーザレベルを取得する取得手段と、前記保持された複数の変化パターンのうち、前記取得したユーザレベルに対応づけられた変化パターンを選択する選択手段と、前記選択された変化パターンに従って前記仮想物体の位置姿勢を変化させ、当該位置姿勢が変化している仮想物体の画像を前記閲覧するユーザに対して表示させる表示手段とを備えることを特徴とする情報処理装置That is, it is a plurality of change patterns in which the detailed level of the movement of the virtual object is different from the user level corresponding to each user, and the higher the detailed level of the movement, the higher the level of the movement is. A holding unit that holds a change pattern indicating a change in the position and orientation of an object, an acquisition unit that acquires a user level associated with a user who views the virtual object among the held user levels, and the holding Selecting means for selecting a change pattern associated with the acquired user level from among the plurality of change patterns, and changing the position and orientation of the virtual object according to the selected change pattern, and the position and orientation change An information processing apparatus comprising: display means for displaying an image of a virtual object being displayed to the browsing user .

本発明の目的は、以下の方法によって達成されるThe object of the present invention is achieved by the following method .

即ち、情報処理装置の取得手段が、ユーザごとに対応づけられた予め保持されたユーザレベルのうち、仮想物体を閲覧するユーザに対応づけられたユーザレベルを取得する取得工程と、前記情報処理装置の選択手段が、予め保持された、前記仮想物体の動きの詳細度が異なる複数の変化パターンであって、当該動きの詳細度が高いほど高いユーザレベルに対応づけられており、該仮想物体の位置姿勢の変化を示す複数の変化パターンのうち、前記取得したユーザレベルに対応づけられた変化パターンを選択する選択工程と、前記情報処理装置の表示手段が、前記選択された変化パターンに従って前記仮想物体の位置姿勢を変化させ、当該位置姿勢が変化している仮想物体の画像を前記閲覧するユーザに対して表示させる表示工程とを有することを特徴とする情報処理方法That is, the acquisition unit of the information processing apparatus acquires a user level associated with a user who views a virtual object among previously stored user levels associated with each user, and the information processing apparatus The selection means is a plurality of change patterns stored in advance, each having a different level of detail of the movement of the virtual object, and is associated with a higher user level as the level of detail of the movement is higher. A selection step of selecting a change pattern associated with the acquired user level from among a plurality of change patterns indicating a change in position and orientation, and a display unit of the information processing apparatus includes the virtual pattern according to the selected change pattern. A display step of changing the position and orientation of the object and displaying an image of the virtual object in which the position and orientation is changed to the browsing user. Information processing method according to claim.

本発明の構成によれば、ユーザ(設計者)から指定されたレベルに応じた仮想物体の動きをユーザ(設計者、又は、観察者)に提供することができる。これにより、仮想物体の動きに関する機密情報等の情報を提示することなく、仮想物体の動きを提示することが可能になる。   According to the configuration of the present invention, it is possible to provide the user (designer or observer) with the movement of the virtual object according to the level designated by the user (designer). This makes it possible to present the movement of the virtual object without presenting information such as confidential information regarding the movement of the virtual object.

以下、添付図面を参照し、本発明の好適な実施形態について詳細に説明する。   Hereinafter, preferred embodiments of the present invention will be described in detail with reference to the accompanying drawings.

[第1の実施形態]
図1は、本実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。
[First Embodiment]
FIG. 1 is a block diagram illustrating a hardware configuration of the information processing apparatus according to the present embodiment.

CPU101は、RAM102やROM103に格納されているコンピュータプログラムやデータを用いて、本装置全体の制御を行うと共に、情報処理装置が行うものとして後述する各処理を実行する。   The CPU 101 controls the entire apparatus using computer programs and data stored in the RAM 102 and the ROM 103, and executes processes described later as those performed by the information processing apparatus.

RAM102は、外部記憶装置106からロードされたコンピュータプログラムやデータを一時的に記憶するためのエリアを有すると共に、CPU101が各処理を実行する際に用いるワークエリアも有する。即ち、RAM102は、各種のエリアを適宜提供することができる。   The RAM 102 has an area for temporarily storing computer programs and data loaded from the external storage device 106, and also has a work area used when the CPU 101 executes each process. That is, the RAM 102 can provide various areas as appropriate.

ROM103には、ブートプログラムや本装置の設定データ等が格納されている。   The ROM 103 stores a boot program, setting data of the apparatus, and the like.

操作部104は、キーボードやマウスなどにより構成されており、本装置のユーザが操作することで、各種の指示をCPU101に対して入力することができる。   The operation unit 104 is configured by a keyboard, a mouse, and the like, and can input various instructions to the CPU 101 when operated by a user of the apparatus.

表示部105は、CRTや液晶画面などにより構成されており、CPU101による処理結果を画像や文字などで表示することができる。   The display unit 105 is configured by a CRT, a liquid crystal screen, or the like, and can display a processing result by the CPU 101 as an image or text.

外部記憶装置106は、ハードディスクドライブ装置に代表される大容量情報記憶装置である。外部記憶装置106には、OS(オペレーティングシステム)107、モデルデータ108、変化パターンデータ(変化パターン情報)109、ユーザデータ(ユーザ情報)110、処理プログラム111、が保存されている。   The external storage device 106 is a large-capacity information storage device represented by a hard disk drive device. The external storage device 106 stores an OS (operating system) 107, model data 108, change pattern data (change pattern information) 109, user data (user information) 110, and a processing program 111.

モデルデータ108は、仮想物体の形状情報や色情報等により構成されており、仮想物体毎に設けられるものである。例えば、仮想物体を周知のポリゴンで構成する場合、モデルデータ108には、ポリゴンの色データ、法線ベクトルデータ、ポリゴンを構成する各頂点の座標値データ等が含まれている事になる。また、仮想物体に対してテクスチャマッピングを施す場合には、モデルデータ108には、テクスチャマップデータも含まれている事になる。   The model data 108 includes virtual object shape information, color information, and the like, and is provided for each virtual object. For example, when the virtual object is formed of a known polygon, the model data 108 includes polygon color data, normal vector data, coordinate value data of each vertex constituting the polygon, and the like. When texture mapping is performed on a virtual object, the model data 108 includes texture map data.

変化パターンデータ109は、仮想物体の位置姿勢の変化パターン、即ち、動きを示すデータであり、複数種類の変化パターン毎に設けられているものである。   The change pattern data 109 is a change pattern of the position and orientation of a virtual object, that is, data indicating movement, and is provided for each of a plurality of types of change patterns.

ユーザデータ110は、ユーザを識別するための情報であり、例えば、ユーザIDである。ユーザデータ110は、ユーザ毎に設けられているものである。   The user data 110 is information for identifying a user, for example, a user ID. The user data 110 is provided for each user.

処理プログラム111は、情報処理装置が行うものとして後述する各処理をCPU101に実行させる為のコンピュータプログラムである。   The processing program 111 is a computer program for causing the CPU 101 to execute each process described later as performed by the information processing apparatus.

なお、以下の説明で既知のものとして説明する情報や、以下説明する各処理で、当業者であれば常識的に用いるであろう情報などもまた、この外部記憶装置106に保存されている。   Note that information described as known in the following description and information that would be commonly used by those skilled in the art in each processing described below are also stored in the external storage device 106.

外部記憶装置106に保存されている上記各種の情報は、CPU101による制御に従って適宜RAM102にロードされる。CPU101はRAM102にロードされたコンピュータプログラムやデータを用いて処理を実行することで、情報処理装置が行うものとして後述する各処理を実行する。   The various information stored in the external storage device 106 is appropriately loaded into the RAM 102 under the control of the CPU 101. The CPU 101 executes processes using the computer program and data loaded in the RAM 102, thereby executing each process described later as what the information processing apparatus performs.

120は上述の各部を繋ぐバスである。   A bus 120 connects the above-described units.

図2は、本実施形態に係る情報処理装置が行う処理のフローチャートである。なお、図2に示した処理をCPU101に実行させる為のコンピュータプログラム(処理プログラム111に相当)やデータは、外部記憶装置106に保存されている。上述の通り、係るコンピュータプログラムやデータはCPU101による制御に従って適宜RAM102にロードされる。CPU101は、このロードされたコンピュータプログラムやデータを用いて処理を実行するので、本実施形態に係る情報処理装置は、図2に示したフローチャートに従った処理を実行することになる。   FIG. 2 is a flowchart of processing performed by the information processing apparatus according to the present embodiment. Note that a computer program (corresponding to the processing program 111) and data for causing the CPU 101 to execute the processing shown in FIG. 2 are stored in the external storage device 106. As described above, the computer program and data are loaded into the RAM 102 as appropriate under the control of the CPU 101. Since the CPU 101 executes processing using the loaded computer program and data, the information processing apparatus according to the present embodiment executes processing according to the flowchart shown in FIG.

先ず、ステップS201では、現在情報処理装置に設定されているモードが、編集モードか、アニメーションモードであるのかを判断する。   First, in step S201, it is determined whether the mode currently set in the information processing apparatus is an edit mode or an animation mode.

ここで、編集モードとは、外部記憶装置106に保存されている様々なデータを編集したり、変化パターンデータ109やユーザデータ110に対してレベルを設定したりする為のモードである。   Here, the edit mode is a mode for editing various data stored in the external storage device 106 and setting levels for the change pattern data 109 and the user data 110.

また、アニメーションモードとは、ユーザが選択したモデルデータに従った仮想物体の位置姿勢を、ユーザが入力したユーザデータに対応する変化パターンデータに従って制御し、この仮想物体を表示部105に表示する為のモードである。   The animation mode is for controlling the position and orientation of the virtual object according to the model data selected by the user according to the change pattern data corresponding to the user data input by the user, and displaying the virtual object on the display unit 105. Mode.

ステップS201における判断の結果、編集モードである場合には処理をステップS202に進め、アニメーションモードである場合には処理をステップS203に進める。   If the result of determination in step S201 is that it is in edit mode, the process proceeds to step S202, and if it is in animation mode, the process proceeds to step S203.

先ず、ステップS202における処理の詳細について説明する。   First, details of the processing in step S202 will be described.

上述の通り、編集モードでは、外部記憶装置106に保存されている様々なデータを編集することができる。如何なるデータを編集する場合でも、例えば、表示部105には、編集するデータのファイル名を入力するための領域を有するGUI(グラフィカルユーザインターフェース)を表示させる。ここで、係る領域に、編集対象のモデルデータのファイル名を入力したとする。この場合、CPU101は係るファイル名を有するモデルデータを、外部記憶装置106から取得し、RAM102にロードする。そしてロードされたモデルデータの内容を表示部105に表示するので、ユーザは操作部104を用いて係る内容の編集を行うことができる。そして編集終了の旨を操作部104を用いて入力すると、RAM102にロードされているモデルデータに対して、係る編集の内容を反映させ、再度、外部記憶装置106に再格納する。これにより、ユーザが選択したモデルデータを編集することができる。これは、どのようなデータを編集する場合であっても同じである。   As described above, in the edit mode, various data stored in the external storage device 106 can be edited. When editing any data, for example, the display unit 105 displays a GUI (graphical user interface) having an area for inputting a file name of data to be edited. Here, it is assumed that the file name of the model data to be edited is input to the area. In this case, the CPU 101 acquires model data having the file name from the external storage device 106 and loads it into the RAM 102. Since the content of the loaded model data is displayed on the display unit 105, the user can edit the content using the operation unit 104. When the end of editing is input using the operation unit 104, the editing contents are reflected in the model data loaded in the RAM 102 and stored again in the external storage device 106. Thereby, the model data selected by the user can be edited. This is the same regardless of what data is edited.

ここで、変化パターンデータ109について説明する。図4は、変化パターンデータ109が示す位置姿勢の変化パターンを示す図である。図4において横軸はフレーム番号を表し、縦軸は位置姿勢のベクトル(位置の3成分と姿勢の3成分)を表している。そして図4には、3種類の変化パターンのそれぞれに対応する曲線(経路1〜3)が示されている。即ち、図4には、開始フレーム(S1)から終了フレーム(S2)までの間の各フレームにおける位置姿勢の変化パターンが3種類記されている。変化パターンデータ109とは、このような曲線を生成するための、「キーフレーム」における位置姿勢を示すデータである。例えば、図4の場合、S1=1,S2=100とすると、第1フレーム目の位置姿勢、第10フレーム目の位置姿勢、第20フレーム目の位置姿勢、…、第90フレーム目の位置姿勢、第100フレーム目の位置姿勢のデータが、変化パターンデータ109となる。もちろん、キーフレームの設定については適宜決めればよい。   Here, the change pattern data 109 will be described. FIG. 4 is a diagram illustrating a position / orientation change pattern indicated by the change pattern data 109. In FIG. 4, the horizontal axis represents a frame number, and the vertical axis represents a position / orientation vector (three components of position and three components of attitude). FIG. 4 shows curves (paths 1 to 3) corresponding to the three types of change patterns. That is, FIG. 4 shows three types of position and orientation change patterns in each frame from the start frame (S1) to the end frame (S2). The change pattern data 109 is data indicating a position and orientation in a “key frame” for generating such a curve. For example, in the case of FIG. 4, when S1 = 1 and S2 = 100, the position and orientation of the first frame, the position and orientation of the tenth frame, the position and orientation of the 20th frame,. The position and orientation data of the 100th frame becomes the change pattern data 109. Of course, the key frame setting may be determined as appropriate.

従って、変化パターンデータ109をステップS202において編集する場合には、次のようにすれば良い。即ち、編集対象としてユーザが選択した変化パターンデータが示す曲線を表示部105の画面上にプロットし、係る曲線の形状を操作部104を用いて適宜変形させる。これにより、係る曲線が示す変化パターンを変化させ、その結果、係る変化パターンに対応する変化パターンデータを更新することができる。また、新たに曲線を作成することで、新たな変化パターンデータを作成しても良い。このような一連の操作については、GUIなどを用いて行えばよい。   Therefore, when the change pattern data 109 is edited in step S202, the following may be performed. That is, the curve indicated by the change pattern data selected by the user as the editing target is plotted on the screen of the display unit 105, and the shape of the curve is appropriately deformed using the operation unit 104. As a result, the change pattern indicated by the curve can be changed, and as a result, the change pattern data corresponding to the change pattern can be updated. Further, new change pattern data may be created by creating a new curve. Such a series of operations may be performed using a GUI or the like.

また、ステップS202では、変化パターンデータ109やユーザデータ110に対してレベルを設定することができる。上述の通り、変化パターンデータ109は、複数種類の変化パターンのそれぞれに対応して設けられている。本実施形態では、ユーザは、この複数種類の変化パターンに対応するそれぞれの変化パターンデータに対してレベルを設定することができる。その設定方法については特に限定するものではなく、予め設定されていても良いし、GUIなどを用いて対話的に設定しても良い。何れにせよ、ユーザは、それぞれの変化パターンデータに対してレベルを設定することができる。レベルが設定された変化パターンデータには、設定されたレベルを示すレベル情報が格納されることになる。これにより、変化パターンデータとレベル情報とをセットにして(変化パターンの種類毎に)管理(保持)することができる。   In step S202, a level can be set for the change pattern data 109 and the user data 110. As described above, the change pattern data 109 is provided corresponding to each of a plurality of types of change patterns. In the present embodiment, the user can set a level for each change pattern data corresponding to the plurality of types of change patterns. The setting method is not particularly limited, and may be set in advance, or may be set interactively using a GUI or the like. In any case, the user can set a level for each change pattern data. In the change pattern data in which the level is set, level information indicating the set level is stored. Thereby, change pattern data and level information can be managed (held) as a set (for each type of change pattern).

図4の例では、例えば、経路1にはレベル1を設定し、経路2にはレベル2を設定し、経路3にはレベル3を設定する、というようにしても良い。ここで、レベル1がレベルが高く、レベル3がレベルが低いものである。即ち、レベル1は、制限がないユーザに対応し、レベル3は、制限が多いユーザに対応している。   In the example of FIG. 4, for example, level 1 may be set for route 1, level 2 may be set for route 2, and level 3 may be set for route 3. Here, level 1 is high and level 3 is low. That is, level 1 corresponds to a user with no restrictions, and level 3 corresponds to a user with many restrictions.

また、上述の通り、ユーザデータ110は、それぞれのユーザに対応して設けられている。本実施形態では、ユーザは、それぞれのユーザに対応するユーザデータに対してレベルを設定することができる。その設定方法については特に限定するものではなく、予め設定されていても良いし、GUIなどを用いて対話的に設定しても良い。何れにせよ、ユーザは、それぞれのユーザデータに対してレベルを設定することができる。レベルが設定されたユーザデータには、設定されたレベルを示すレベル情報が格納されることになる。これにより、ユーザデータとレベル情報とをセットにして管理することができる。   As described above, the user data 110 is provided corresponding to each user. In this embodiment, a user can set a level for user data corresponding to each user. The setting method is not particularly limited, and may be set in advance, or may be set interactively using a GUI or the like. In any case, the user can set a level for each user data. In the user data set with the level, level information indicating the set level is stored. Thereby, user data and level information can be managed as a set.

そして処理をステップS201に戻す。   Then, the process returns to step S201.

一方、ステップS203では、仮想物体を閲覧するためにユーザが入力すべきユーザデータの受け付けを待機する。ステップS204では、ユーザが操作部104を用いてユーザデータを入力したことを検知すると、係るユーザデータを外部記憶装置106から検索し、検索したユーザデータ内のレベル情報を参照する。そして参照したレベル情報が示すレベルと同じレベルを示すレベル情報を含む変化パターンデータを外部記憶装置106から検索する。これにより、ユーザが入力したユーザデータに対応する変化パターンデータを特定することができる。従ってCPU101は、この特定した変化パターンデータを外部記憶装置106からRAM102にロードする。   On the other hand, in step S203, it waits for reception of user data to be input by the user in order to view the virtual object. In step S204, when it is detected that the user has input user data using the operation unit 104, the user data is searched from the external storage device 106, and level information in the searched user data is referred to. Then, change pattern data including level information indicating the same level as the level indicated by the referenced level information is searched from the external storage device 106. Thereby, the change pattern data corresponding to the user data input by the user can be specified. Therefore, the CPU 101 loads the specified change pattern data from the external storage device 106 to the RAM 102.

次にステップS205では、閲覧対象の仮想物体の識別情報(ファイル名など)の入力を待機する。そして、識別情報の入力を検知すると、係る識別情報で特定される仮想物体のモデルデータを外部記憶装置106からRAM102にロードする。   In step S205, input of identification information (such as a file name) of the virtual object to be browsed is awaited. When the input of identification information is detected, model data of the virtual object specified by the identification information is loaded from the external storage device 106 to the RAM 102.

次に、ステップS206では、ステップS205でRAM102にロードしたモデルデータに基づいた仮想物体(選択仮想物体)の位置姿勢を、ステップS204でRAM102にロードした変化パターンデータ(選択変化パターンデータ)に従って制御する。   Next, in step S206, the position and orientation of the virtual object (selected virtual object) based on the model data loaded in the RAM 102 in step S205 is controlled according to the change pattern data (selected change pattern data) loaded in the RAM 102 in step S204. .

そしてステップS207では、ステップS206において位置姿勢が制御された仮想物体を、仮想空間中に予め設定した視点から見た画像を生成し、表示部105に表示させる。   In step S207, an image obtained by viewing the virtual object whose position and orientation is controlled in step S206 from a preset viewpoint in the virtual space is generated and displayed on the display unit 105.

ここで、ステップS206,S207における処理についてより詳細に説明する。   Here, the processing in steps S206 and S207 will be described in more detail.

初めてステップS206における処理を行う場合、ステップS206では、選択変化パターンデータが示す「各キーフレームにおける位置姿勢データの集合」を、周知のスプライン曲線などを用いて補間することで、図4に示したような曲線を生成する。そして、係る曲線から第1フレーム目の位置姿勢を求め、求めた位置姿勢を、仮想物体の初期位置姿勢として用いる。そしてステップS207では、係る初期位置姿勢に配置された仮想物体を、上記視点から見た画像を生成し、表示部105に表示させる。これにより、第1フレーム目における仮想物体の画像を表示部105に表示させることができる。以降、第Nフレーム目における仮想物体の画像を表示部105に表示させる場合には、ステップS206では同様にして係る曲線から第Nフレーム目における位置姿勢を求める。そして、ステップS207では、ステップS206で求めた位置姿勢に配置された仮想物体を、上記視点から見た画像を生成し、表示部105に表示させる。   When the process in step S206 is performed for the first time, in step S206, the “set of position and orientation data in each key frame” indicated by the selection change pattern data is interpolated using a known spline curve or the like, as shown in FIG. A curve like this is generated. Then, the position and orientation of the first frame are obtained from the curve, and the obtained position and orientation are used as the initial position and orientation of the virtual object. In step S207, an image obtained by viewing the virtual object placed at the initial position and orientation from the viewpoint is generated and displayed on the display unit 105. Thereby, the image of the virtual object in the first frame can be displayed on the display unit 105. Thereafter, when displaying an image of the virtual object in the Nth frame on the display unit 105, the position and orientation in the Nth frame are obtained in the same manner from the curve in step S206. In step S207, an image obtained by viewing the virtual object placed in the position and orientation obtained in step S206 from the viewpoint is generated and displayed on the display unit 105.

以上の処理により、選択変化パターンデータに基づいて位置姿勢が制御された仮想物体の画像を表示部105に表示させることができる。即ち、選択変化パターンデータが示す位置姿勢の変化パターンに従った仮想物体のアニメーションを再生することができる。なお、選択変化パターンデータに基づいた曲線がNフレーム分の各フレームにおける位置姿勢を表すものである場合には当然、アニメーションはNフレーム分再生されることになる。しかし、予めM(<N)フレームでアニメーションを再生するように設定されている場合には、曲線上をN/Mフレーム毎に参照した場合の各位置姿勢を、仮想物体の位置姿勢として用いればよい。このように、曲線からどのフレーム間隔で位置姿勢を求めるのかについては適宜ユーザが決めればよい。   Through the above processing, an image of the virtual object whose position and orientation is controlled based on the selection change pattern data can be displayed on the display unit 105. That is, the animation of the virtual object according to the position / orientation change pattern indicated by the selection change pattern data can be reproduced. If the curve based on the selected change pattern data represents the position and orientation in each frame for N frames, the animation is naturally reproduced for N frames. However, if the animation is set to be reproduced in M (<N) frames in advance, each position and orientation when the curve is referred to every N / M frame is used as the position and orientation of the virtual object. Good. In this way, the user may determine appropriately at what frame interval the position and orientation is obtained from the curve.

そして、ユーザから操作部104を用いて終了指示がない限りは、次のフレームについて仮想物体の画像を表示部105に表示させるべく、ステップS208を介して処理をステップS206に戻し、次のフレームについて以降の処理を行う。なお、選択変化パターンデータが「Nフレーム分の各フレームにおける位置姿勢を示す曲線」を生成するための各キーフレームの位置姿勢を示すデータである場合に、現在再生したフレーム番号がNであれば、本処理を終了するようにしても良い。   Then, unless there is an end instruction from the user using the operation unit 104, the process returns to step S206 via step S208 to display the virtual object image on the display unit 105 for the next frame. Perform the following processing. If the selected change pattern data is data indicating the position and orientation of each key frame for generating a “curve indicating the position and orientation in each frame for N frames” and the currently reproduced frame number is N. This process may be terminated.

以上の説明により、本実施形態によれば、ユーザが指定したユーザデータに応じたレベルの位置姿勢の変化パターンで、その位置姿勢が制御された仮想物体の画像を表示部105に表示させることができる。   As described above, according to the present embodiment, an image of a virtual object whose position and orientation is controlled can be displayed on the display unit 105 with a position and orientation change pattern at a level corresponding to user data specified by the user. it can.

[第2の実施形態]
第2の実施形態以降の各実施形態については、第1の実施形態と異なる点のみについて説明する。
[Second Embodiment]
About each embodiment after 2nd Embodiment, only a different point from 1st Embodiment is demonstrated.

第1の実施形態で説明した、1つの仮想物体について1つの変化パターンを設定する処理を、複数の仮想物体について行うようにしても良い。また、複数の仮想物体に対して同じ変化パターンを設定するようにしても良い。このように、仮想物体と、変化パターンとの関係は任意に設定しても良い。   The process of setting one change pattern for one virtual object described in the first embodiment may be performed for a plurality of virtual objects. The same change pattern may be set for a plurality of virtual objects. As described above, the relationship between the virtual object and the change pattern may be arbitrarily set.

[第3の実施形態]
第1の実施形態では、複数種類の変化パターンのそれぞれに対応する変化パターンデータが外部記憶装置106に保存されていた。本実施形態では、1種類の変化パターンに対応する変化パターンデータが外部記憶装置106に保存されているものとする。そして、係る変化パターンデータが示す各キーフレームの位置姿勢のうち、用いるキーフレームを、ユーザから入力されたユーザデータに応じて選択するようにする。
[Third Embodiment]
In the first embodiment, change pattern data corresponding to each of a plurality of types of change patterns is stored in the external storage device 106. In the present embodiment, it is assumed that change pattern data corresponding to one type of change pattern is stored in the external storage device 106. Then, the key frame to be used is selected according to the user data input from the user among the position and orientation of each key frame indicated by the change pattern data.

図3は、外部記憶装置106に保存されている変化パターンデータ109が示す曲線601を示す図である。図3において、p0は、係る曲線601の開始点、即ち、係る曲線601上において第1フレーム目における仮想物体の位置姿勢に対応する点である。p5は、係る曲線601の終了点、即ち、係る曲線601上において最終フレームにおける仮想物体の位置姿勢に対応する点である。そしてp1〜p4はそれぞれ、曲線601上において、各キーフレームにおける位置姿勢に対応する点である。本実施形態では、係るキーフレームの数を、ユーザから入力されたユーザデータに対応するレベルに応じて増減させる。より詳細には、レベルが高いとキーフレームの数を増加させ、レベルが低いとキーフレームの数を減少させる。   FIG. 3 is a diagram illustrating a curve 601 indicated by the change pattern data 109 stored in the external storage device 106. In FIG. 3, p0 is a start point of the curve 601, that is, a point corresponding to the position and orientation of the virtual object in the first frame on the curve 601. p5 is an end point of the curve 601, that is, a point corresponding to the position and orientation of the virtual object in the final frame on the curve 601. P1 to p4 are points corresponding to the position and orientation in each key frame on the curve 601. In the present embodiment, the number of key frames is increased or decreased according to a level corresponding to user data input from the user. More specifically, a high level increases the number of key frames, and a low level decreases the number of key frames.

図6は、ユーザデータに対応するレベルに応じて、キーフレームの数が変わる様子を示す図である。同図において701はユーザデータに対応するレベルを設定するためのスライダバーで、表示部105にGUIとして表示されるものである。そして係る設定は上記ステップS202において行うものである。   FIG. 6 is a diagram showing how the number of key frames changes according to the level corresponding to user data. In the figure, reference numeral 701 denotes a slider bar for setting a level corresponding to user data, which is displayed on the display unit 105 as a GUI. Such setting is performed in step S202.

図6においてスライダバー701を用いてレベル3に設定すると、キーフレームの数は702に示す如く1となっている。また、レベル5に設定すると、703から705に示す如く、キーフレームの数は3となっている。また、レベル8に設定すると、706から710に示す如く、キーフレームの数は5となっている。このように、キーフレームの数をレベルが高くなる(レベル3→レベル5→レベル8)に従って増やすことで、より高いレベルのユーザデータが入力された場合には、より多くのキーフレームによってより滑らかに補間された曲線を用いることができる。なお、キーフレームの数の上限は予め定めておき、レベルが低くなるにつれ、適宜キーフレームを間引くように設定すればよい。このように、ユーザデータに対して設定するレベルに連動して、キーフレームの数を決定する。   In FIG. 6, when the level 3 is set using the slider bar 701, the number of key frames is 1, as indicated by 702. When the level is set to 5, the number of key frames is 3, as indicated by reference numerals 703 to 705. When the level is set to 8, the number of key frames is 5, as indicated by 706 to 710. In this way, by increasing the number of key frames as the level increases (level 3 → level 5 → level 8), when higher-level user data is input, the number of key frames becomes smoother with more key frames. An interpolated curve can be used. The upper limit of the number of key frames may be determined in advance, and may be set so that key frames are thinned out as the level decreases. Thus, the number of key frames is determined in conjunction with the level set for user data.

図7は、図3に示したp0〜p5の各点間を直線で補間した結果を示す図である。図8は、図7に示したキーフレームの数よりも少ない数のキーフレーム(p2,p4に対応するキーフレーム)を用いる場合に、p0,p2,p4,p5の各点間を直線で補間した結果を示す図である。このように、キーフレームの数が少なくなると、補間結果はより荒いものとなり、係る結果を用いて仮想物体の位置姿勢を制御すると、キーフレームの数が多い場合よりもより荒い動きとなる。   FIG. 7 is a diagram illustrating a result obtained by interpolating between the points p0 to p5 illustrated in FIG. 3 with a straight line. FIG. 8 shows a linear interpolation between points p0, p2, p4, and p5 when a smaller number of key frames (key frames corresponding to p2 and p4) than the number of key frames shown in FIG. 7 is used. It is a figure which shows the result. As described above, when the number of key frames decreases, the interpolation result becomes rougher. When the position and orientation of the virtual object is controlled using the result, the movement becomes rougher than when the number of key frames is large.

また、図9に示す如く、点p1,p2を、スプラインの制御点として用いることで、p0〜p3を用いた曲線を、「p0〜p3の各点における位置姿勢のデータで構成されている変化パターンデータが示す曲線」として作成するようにしても良い。   Also, as shown in FIG. 9, by using the points p1 and p2 as spline control points, a curve using p0 to p3 can be expressed as “changes made up of position and orientation data at each point p0 to p3”. It may be created as a “curve indicated by pattern data”.

もちろん、1種類の変化パターンデータを、レベルに応じてどのように用いるのかについてはこれ以外にも考えられる。例えば、各キーフレームの位置姿勢を、レベルに応じて適宜変更するようにしても良い。   Of course, other ways of using one type of change pattern data depending on the level may be considered. For example, the position and orientation of each key frame may be changed as appropriate according to the level.

[第4の実施形態]
キーフレーム間の補間方法(補間のアルゴリズム)を、レベルに応じて異ならせても良い。例えば、低いレベルのユーザデータが入力されると、キーフレーム間をより次数の低い補間方法で補間する。最も次数の低い補間方法にした場合は、図7に示すように、キーフレーム間を単純な直線で補間したアニメーションとなる。本実施形態は、例えば、キーフレームの数をレベルに関係なく一定にし、補間方法のみをレベルに応じて変更する。
[Fourth Embodiment]
The interpolation method between key frames (interpolation algorithm) may be varied depending on the level. For example, when low-level user data is input, interpolation between key frames is performed by a lower-order interpolation method. When the interpolation method with the lowest order is used, as shown in FIG. 7, the animation is obtained by interpolating between key frames with a simple straight line. In the present embodiment, for example, the number of key frames is made constant regardless of the level, and only the interpolation method is changed according to the level.

[第5の実施形態]
仮想物体が移動したり回転したりする過程で、仮想物体の属性をも同時に制御するようにしても良い。例えば、図5に示す如く、仮想物体が直線上を移動する場合に、ある地点1102を通過するとだんだんその透明度を上げ、ある地点1103を通過すると、まただんだんと透明度を下げるように、仮想物体の可視属性を制御するとする。この場合、ユーザが入力したユーザデータのレベルが高いほど、より急激に透明になり、非透明に戻る速度もまた遅い。このように、仮想物体の属性を時間の変化と共に変化させる場合に、その変化のパターンを、ユーザから入力されたユーザデータのレベルに応じて変えても良い。
[Fifth Embodiment]
In the process of moving or rotating the virtual object, the attributes of the virtual object may be controlled simultaneously. For example, as shown in FIG. 5, when a virtual object moves on a straight line, the transparency of the virtual object increases gradually when passing a certain point 1102, and gradually decreases when passing a certain point 1103. Suppose you want to control the visibility attribute. In this case, the higher the level of user data input by the user, the more rapidly it becomes transparent and the speed at which it returns to non-transparent is also slower. As described above, when the attribute of the virtual object is changed with time, the change pattern may be changed according to the level of the user data input from the user.

[第6の実施形態]
上記各実施形態では、各仮想物体に独立して変化パターンを与えたが、複数の仮想物体が連動して動作するような場合、1つの仮想物体に対して設定した変化パターンを、係る仮想物体と連動して動作するその他の仮想物体に対して設定しても良い。また、係る仮想物体と連動して動作するその他の仮想物体は全く位置も姿勢も変更させないようにしても良い。
[Sixth Embodiment]
In each of the above embodiments, a change pattern is given to each virtual object independently. However, when a plurality of virtual objects operate in conjunction with each other, the change pattern set for one virtual object is used as the virtual object. You may set with respect to the other virtual object which operate | moves in conjunction with. Further, other virtual objects that operate in conjunction with the virtual object may not be changed in position or orientation at all.

また、上記各実施形態は適宜組み合わせて用いても良い。   The above embodiments may be used in appropriate combination.

[その他の実施形態]
また、本発明の目的は、以下のようにすることによって達成されることはいうまでもない。即ち、前述した実施形態の機能を実現するソフトウェアのプログラムコードを記録した記録媒体(または記憶媒体)を、システムあるいは装置に供給する。係る記憶媒体は言うまでもなく、コンピュータ読み取り可能な記憶媒体である。そして、そのシステムあるいは装置のコンピュータ(またはCPUやMPU)が記録媒体に格納されたプログラムコードを読み出し実行する。この場合、記録媒体から読み出されたプログラムコード自体が前述した実施形態の機能を実現することになり、そのプログラムコードを記録した記録媒体は本発明を構成することになる。
[Other Embodiments]
Needless to say, the object of the present invention can be achieved as follows. That is, a recording medium (or storage medium) in which a program code of software that realizes the functions of the above-described embodiments is recorded is supplied to the system or apparatus. Needless to say, such a storage medium is a computer-readable storage medium. Then, the computer (or CPU or MPU) of the system or apparatus reads and executes the program code stored in the recording medium. In this case, the program code itself read from the recording medium realizes the functions of the above-described embodiment, and the recording medium on which the program code is recorded constitutes the present invention.

また、コンピュータが読み出したプログラムコードを実行することにより、そのプログラムコードの指示に基づき、コンピュータ上で稼働しているオペレーティングシステム(OS)などが実際の処理の一部または全部を行う。その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Further, by executing the program code read by the computer, an operating system (OS) or the like running on the computer performs part or all of the actual processing based on the instruction of the program code. Needless to say, the process includes the case where the functions of the above-described embodiments are realized.

さらに、記録媒体から読み出されたプログラムコードが、コンピュータに挿入された機能拡張カードやコンピュータに接続された機能拡張ユニットに備わるメモリに書込まれたとする。その後、そのプログラムコードの指示に基づき、その機能拡張カードや機能拡張ユニットに備わるCPUなどが実際の処理の一部または全部を行い、その処理によって前述した実施形態の機能が実現される場合も含まれることは言うまでもない。   Furthermore, it is assumed that the program code read from the recording medium is written in a memory provided in a function expansion card inserted into the computer or a function expansion unit connected to the computer. After that, based on the instruction of the program code, the CPU included in the function expansion card or function expansion unit performs part or all of the actual processing, and the function of the above-described embodiment is realized by the processing. Needless to say.

本発明を上記記録媒体に適用する場合、その記録媒体には、先に説明したフローチャートに対応するプログラムコードが格納されることになる。   When the present invention is applied to the recording medium, program code corresponding to the flowchart described above is stored in the recording medium.

本発明の第1の実施形態に係る情報処理装置のハードウェア構成を示すブロック図である。It is a block diagram which shows the hardware constitutions of the information processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る情報処理装置が行う処理のフローチャートである。It is a flowchart of the process which the information processing apparatus which concerns on the 1st Embodiment of this invention performs. 外部記憶装置106に保存されている変化パターンデータ109が示す曲線601を示す図である。It is a figure which shows the curve 601 which the change pattern data 109 preserve | saved at the external storage device 106 shows. 変化パターンデータ109が示す位置姿勢の変化パターンを示す図である。It is a figure which shows the change pattern of the position and orientation which the change pattern data 109 shows. ユーザデータに対応するレベルに応じて、仮想物体の透明度が変わる様子を示す図である。It is a figure which shows a mode that the transparency of a virtual object changes according to the level corresponding to user data. ユーザデータに対応するレベルに応じて、キーフレームの数が変わる様子を示す図である。It is a figure which shows a mode that the number of key frames changes according to the level corresponding to user data. 図3に示したp0〜p5の各点間を直線で補間した結果を示す図である。It is a figure which shows the result of having interpolated between each point of p0-p5 shown in FIG. 3 with the straight line. 図8に示したキーフレームの数よりも少ない数のキーフレーム(p2,p4に対応するキーフレーム)を用いる場合に、p0,p2,p4,p5の各点間を直線で補間した結果を示す図である。FIG. 8 shows a result of linear interpolation between points p0, p2, p4, and p5 when using a smaller number of key frames (key frames corresponding to p2 and p4) than the number of key frames shown in FIG. FIG. 点p1,p2を、スプラインの制御点として用いることで、p0〜p3を用いた曲線を示す図である。It is a figure which shows the curve using p0-p3 by using the points p1 and p2 as a control point of a spline.

Claims (6)

ユーザごとに対応づけられたユーザレベル仮想物体の動きの詳細度が異なる複数の変化パターンであって、当該動きの詳細度が高いほど高いユーザレベルに対応づけられており、該仮想物体の位置姿勢の変化示す変化パターンとを保持する持手段と、
前記保持されたユーザレベルのうち、前記仮想物体を閲覧するユーザに対応づけられたユーザレベルを取得する取得手段と、
前記保持された複数の変化パターンのうち、前記取得したユーザレベルに対応づけられた変化パターンを選択する選択手段と、
前記選択された変化パターンに従って前記仮想物体の位置姿勢を変化させ、当該位置姿勢が変化している仮想物体の画像を前記閲覧するユーザに対して表示させる表示手段と
を備えることを特徴とする情報処理装置。
It is a plurality of change patterns in which the detailed level of the movement of the virtual object is different from the user level associated with each user , and the higher the detailed level of the movement, the higher the level of the movement is associated with the user level . a hold means for holding a change pattern indicating a change in position and orientation,
Obtaining means for obtaining a user level associated with a user viewing the virtual object among the held user levels;
Selecting means for selecting a change pattern associated with the acquired user level from among the plurality of held change patterns;
Information, characterized in that said according to the selected change pattern to change the position and orientation of the virtual object, and display means causes the display to the user that the viewing an image of the virtual object to which the position and orientation is changed Processing equipment.
前記保持手段が、表示させるフレーム数が異なる複数の変化パターンであって、前記フレーム数が多いほど高いユーザレベルに対応づけられており、該仮想物体の位置姿勢の変化を示す変化パターンを保持し、  The holding means is a plurality of change patterns having different numbers of frames to be displayed, and is associated with a higher user level as the number of frames increases, and holds a change pattern indicating a change in position and orientation of the virtual object. ,
前記表示手段が、前記選択された変化パターンに基づくフレームの数に合わせて前記仮想物体の位置姿勢を変化させ、当該仮想物体を前記閲覧するユーザに対して表示させることを特徴とする請求項1に記載の情報処理装置。  The display means changes the position and orientation of the virtual object according to the number of frames based on the selected change pattern, and displays the virtual object to the browsing user. The information processing apparatus described in 1.
前記表示手段が、前記動きの詳細度が低いほど前記画像のキーフレーム間の各フレームの補間を簡略化し、前記仮想物体の画像を表示させることを特徴とする請求項1又は2に記載の情報処理装置。  3. The information according to claim 1, wherein the display unit displays an image of the virtual object by simplifying interpolation of each frame between key frames of the image as the level of detail of the movement is lower. Processing equipment. 前記変化パターンは、仮想空間において前記仮想物体が予め定められた位置を通過したときに変化させる当該仮想物体の透明度の変化速度を示す変化パターンであることを特徴とする請求項1に記載の情報処理装置。  2. The information according to claim 1, wherein the change pattern is a change pattern indicating a change speed of transparency of the virtual object that is changed when the virtual object passes through a predetermined position in the virtual space. Processing equipment. 請求項1乃至4の何れか1項に記載の情報処理装置の各手段としてコンピュータを機能させるためのログラム。 Program for causing a computer to function as each unit of the information processing apparatus according to any one of claims 1 to 4. 情報処理装置の取得手段が、ユーザごとに対応づけられた予め保持されたユーザレベルのうち、仮想物体を閲覧するユーザに対応づけられたユーザレベルを取得する取得工程と、
前記情報処理装置の選択手段が、予め保持された、前記仮想物体の動きの詳細度が異なる複数の変化パターンであって、当該動きの詳細度が高いほど高いユーザレベルに対応づけられており、該仮想物体の位置姿勢の変化を示す複数の変化パターンのうち、前記取得したユーザレベルに対応づけられた変化パターンを選択する選択工程と、
前記情報処理装置の表示手段が、前記選択された変化パターンに従って前記仮想物体の位置姿勢を変化させ、当該位置姿勢が変化している仮想物体の画像を前記閲覧するユーザに対して表示させる表示工程と
有することを特徴とする情報処理方法。
An acquisition step in which an acquisition unit of the information processing apparatus acquires a user level associated with a user who views a virtual object among previously stored user levels associated with each user;
The selection means of the information processing apparatus is a plurality of change patterns that are stored in advance and have different degrees of detail of movement of the virtual object, and is associated with a higher user level as the degree of detail of the movement is higher, A selection step of selecting a change pattern associated with the acquired user level from among a plurality of change patterns indicating a change in position and orientation of the virtual object ;
Display means of the information processing apparatus, the changing the position and orientation of the virtual object in accordance with the selected change pattern, display step causes displaying an image of the virtual object to which the position and orientation is changed to the user that the viewing an information processing method characterized in that it comprises and.
JP2007142327A 2007-05-29 2007-05-29 Information processing apparatus, information processing method, and program Expired - Fee Related JP4960768B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2007142327A JP4960768B2 (en) 2007-05-29 2007-05-29 Information processing apparatus, information processing method, and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2007142327A JP4960768B2 (en) 2007-05-29 2007-05-29 Information processing apparatus, information processing method, and program

Publications (3)

Publication Number Publication Date
JP2008299429A JP2008299429A (en) 2008-12-11
JP2008299429A5 JP2008299429A5 (en) 2010-06-24
JP4960768B2 true JP4960768B2 (en) 2012-06-27

Family

ID=40172929

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007142327A Expired - Fee Related JP4960768B2 (en) 2007-05-29 2007-05-29 Information processing apparatus, information processing method, and program

Country Status (1)

Country Link
JP (1) JP4960768B2 (en)

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3517639B2 (en) * 2000-09-27 2004-04-12 キヤノン株式会社 Mixed reality presentation apparatus and method, and storage medium
JP2003067429A (en) * 2001-05-09 2003-03-07 Sony Corp Information disclosure system, server, client device and program
JP2005071182A (en) * 2003-08-26 2005-03-17 Matsushita Electric Works Ltd Three-dimensional animation creation support apparatus

Also Published As

Publication number Publication date
JP2008299429A (en) 2008-12-11

Similar Documents

Publication Publication Date Title
US8264488B2 (en) Information processing apparatus, information processing method, and program
JP4612902B2 (en) File display device, control method therefor, and program
US7966560B2 (en) Laying out web components using mounting and pooling functions
US20100302249A1 (en) Apparatus, systems and methods for layout of scene graphs using node bounding areas
WO1997039425A1 (en) Methods and apparatus for rendering three-dimensional images
US8576248B2 (en) Image processing method and image processing apparatus
JP5195641B2 (en) Harness verification device and harness verification program
JP2006302035A (en) Image processing method and image processing apparatus
JP4948273B2 (en) Information processing method and information processing apparatus
CN106716500B (en) Information processing device and depth definition method
US20140258921A1 (en) System and method for ergonomic placement of an object or cursor on a computer display
JP4960768B2 (en) Information processing apparatus, information processing method, and program
JP2000348207A (en) Method and device for plotting image and recording medium
JP6432059B2 (en) Information processing apparatus, control method thereof, and program
JP4501479B2 (en) Polygon model simplification method, image processing apparatus, image drawing apparatus, and program
US20040164982A1 (en) Method and apparatus for editing three-dimensional model, and computer readable medium
JP6003531B2 (en) Information processing apparatus, drawing method, and program
JP2009058991A (en) Window display system, method, and program
JPH07271998A (en) Method and device for three-dimensional display
JP3679484B2 (en) Graphic processing apparatus and method
JP4310909B2 (en) Image processing device
CN116681867A (en) Three-dimensional dynamic construction system and method for photovoltaic module
JPH11283046A (en) Image data generator
JPH0896167A (en) Method and device for three-dimensional image display
JP5919954B2 (en) Two-dimensional image sequential generation apparatus, method and program

Legal Events

Date Code Title Description
A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20100511

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100511

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20110922

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20111118

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120224

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120323

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150330

Year of fee payment: 3

LAPS Cancellation because of no payment of annual fees