JP2017033294A - 3次元描画システム及び3次元描画プログラム - Google Patents
3次元描画システム及び3次元描画プログラム Download PDFInfo
- Publication number
- JP2017033294A JP2017033294A JP2015152731A JP2015152731A JP2017033294A JP 2017033294 A JP2017033294 A JP 2017033294A JP 2015152731 A JP2015152731 A JP 2015152731A JP 2015152731 A JP2015152731 A JP 2015152731A JP 2017033294 A JP2017033294 A JP 2017033294A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- locus
- space
- virtual space
- trajectory
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Landscapes
- Processing Or Creating Images (AREA)
- Position Input By Displaying (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
【課題】 表現の自由度の高い3次元描画システムを実現する。【解決手段】 タブレット端末10の動作の軌跡をモーションキャプチャ装置20によって取得し、取得された位置情報に基づいて軌跡描画部15が軌跡画像を生成する。タブレット端末10の閲覧装置13は、描画された軌跡画像を表示することができ、表示された軌跡画像はタブレット端末10の位置に基づいて変換される。軌跡描画部15が生成した軌跡画像は表示制御部14によって仮想空間データと合成されて、タブレット端末10の画面に表示される。【選択図】 図6
Description
本発明は、3次元描画システムに関するものである。
AR(拡張現実)やVR(仮想現実)を活用した技術は日々進化をしたおり、様々なハードウェアを通じたこれらの体験が可能なシステムが提案されている。例えば、特許文献1においては、モーションキャプチャを用いた仮想試着システムが提示されており、ユーザを撮影し、ユーザが現実に着用している服を、仮想服に置き換えた画像を表示するシステムである。仮想試着システムは、認識対象のユーザに対応して操作される操作対象である人型の仮想オブジェクト画像を、モーションキャプチャに必要な情報を抽出するためのポーズで表示させる。本技術は、例えば、ARを洋服の試着に応用した画像処理を行う画像処理装置に適用できる。
また、特許文献2では、実際の空間内の壁などの表面上に仮想現実の画像を表示し、ヘッドマウントディスプレイなどを装着したユーザーが、当該画像に対して操作を実施可能なように構成したシステムが開示されている。
以上のように、拡張現実や仮想現実の技術と、モーションキャプチャの技術とを組み合わせることで、様々な表現を3次元の空間内において実現することが可能となっている。しかしながら、上記従来の技術で開示されているものは予め設定されたオブジェクトなどに対する操作が示されてはいるものの、それ以上のより自由度の高い表現の実現手段においては、未だ実現されていない状態であった。
本発明は上記課題を解決するためのものであり、3次元空間内での拡張現実や仮想現実を用いた自由な表現を可能とする技術を実現することを目的とする。
上記課題を解決するために、実施形態の3次元描画システムは、対象とする空間、及び空間内に位置する対象物を撮影する複数の撮影部と、前記撮影部によって前記対象とする空間内での位置が把握可能な第1マーカーを取り付けられた描画装置と、利用者が携帯可能であって、第2マーカーが付与されて前記対象とする空間内での絶対位置を算出可能であって、利用者が閲覧可能な画面を備える閲覧装置と、前記撮影部によって撮影されることによって、取得された前記描画装置の軌跡の位置情報、及び前記閲覧装置の位置情報をリアルタイムに前記閲覧装置へと送信する送信部と、前記撮影部によって撮影された画像から、対象とする空間の実際の大きさと同様の仮想空間データを生成する空間生成部と、受信した前記描画装置の軌跡の位置情報に基づいて前記描画装置の軌跡画像を前記仮想空間データ内において描画する軌跡描画部と、受信した前記閲覧装置の位置情報から、前記閲覧装置からの視点で閲覧が可能なように前記対象とする空間の前記仮想空間データを変換する空間変換部と、前記軌跡画像と、前記空間変換部によって変換された前記仮想空間データと合成し、前記画面に表示させる表示制御部と、を備えることを特徴とする。
更には、前記描画装置は、描画された前記仮想空間データ内における軌跡の線の太さ、種類、色、及び質感の少なくとも1つを描画前に選択可能な選択部を備え、前記軌跡描画部は、前記選択部によって選択された軌跡の線の種別に基づいて、前記軌跡を描画する。
更には、前記描画装置は、描画を行う際に操作する描画スイッチを、ハードウェア、若しくはソフトウェアとして備えており、前記軌跡描画部は、前記描画スイッチが押されている際の、前記描画装置の軌跡を描画し、前記描画スイッチが押されていない場合の、前記描画装置の軌跡は描画しない。
更には、前記描画装置、又は前記閲覧装置は、前記仮想空間データ内に描画された軌跡を消去する消去部を備えており、前記消去部は、消去の操作が利用者によってされた場合に、前記描画スイッチが前回押された以降に描画された軌跡を消去する。
更には、前記描画装置、及び前記閲覧装置は、一つのハードウェアによって実現されており、前記空間生成部は、前記仮想空間データを利用者モデルとして予め設定した身長からの視点で変換を行い、前記閲覧装置の画面に映し出された前記仮想空間データを見ながら、前記描画装置を動かすと、見ている前記画面内に前記描画装置に動きの軌跡が描画される。
更には、前記描画装置は、前記閲覧装置の前記画面がタッチパネル式のディスプレイによって構成されており、前記画面上において描画を行うと、前記画面上に表示されている前記仮想空間データ内において描画した位置に対応する空間の絶対位置において前記描画装置を動かした場合と同様の動きの軌跡が描画される。
更には、前記閲覧装置は、利用者が頭部に装着可能な構成であり、前記描画装置は、利用者が手に持って使用するペン型の装置である。
また、本実施形態のプログラムは、コンピューターを、対象とする空間、及び空間内に位置する対象物を撮影する複数の撮影部によって撮影されることによって、取得された第1マーカーが取り付けられた描画装置の軌跡の位置情報、及び第2マーカーが取り付けられて利用者が閲覧可能な画面を備える閲覧装置の位置情報をリアルタイムに受信する受信部と、前記撮影部によって撮影された画像から、対象とする空間の実際の大きさと同様の仮想空間データを生成する空間生成部と、受信した前記描画装置の軌跡の位置情報に基づいて前記描画装置の軌跡画像を前記仮想空間データ内において描画する軌跡描画部と、受信した前記閲覧装置の位置情報から、前記閲覧装置からの視点で閲覧が可能なように前記対象とする空間の前記仮想空間データを変換する空間変換部と、前記軌跡画像と、前記空間変換部によって変換された前記仮想空間データと合成し、前記画面に表示させる表示制御部と、して実行させるものである。
本発明を具体化した第1の実施形態について図面を参照して説明する。図1は、第1の実施形態の3次元描画システムを具体化したシステム構成を示す概念図である。本実施形態の3次元描画システムは、ユーザーがタブレット端末10を操作することによって空間内にイメージを描画したり、対象とする空間内において描画されたイメージをタブレット端末10の画面に表示したりといったことを可能とするものである。すなわち、本システムを利用することで、実際の空間をベースに生成された仮想空間データ上に、仮想現実的に描画されたイメージや文字などをリアルタイムで表示し、3次元の空間上に描画を行っているような体験を得ることができる。
図1に示されるように、3次元描画システム1は、タブレット端末10、モーションキャプチャ装置20、及び情報処理装置30がネットワーク回線40を介して接続されている。なお、ネットワーク回線40は、有線、及び無線を問わないが、リアルタイムで情報を送受信可能なように十分な回線速度が満たされることが望まれる。
タブレット端末10は、ディスプレイ画面を有し、備え付けられた撮影部13aによって写真や映像の撮影が可能な携帯用端末である。本実施形態では、図3に示されるように、タブレット端末10が、空間内におけるイメージの描画と、描画されたイメージの閲覧の両方の操作を行うためのデバイスとして機能する。ユーザーは、タブレット端末10の画面を覗きながら、タブレット端末10自体を動かしながら描画を行う使い方を想定している。
モーションキャプチャ装置20は、赤外線カメラ21を対象とする空間内に複数、本実施形態では6台設置し、赤外線カメラ21から取得される動きの取得対象のデバイスに取り付けられた再帰性反射マーカーの空間内での絶対位置を取得するものであり、光学式のモーションキャプチャシステムである。このようなモーションキャプチャ装置20の一例としては、例えばOptiTrack社提供のハードウェア、及びソフトウェアなどを用いることができる。本実施形態の6台の赤外線カメラ21の場合のキャプチャ可能範囲は6m×6m×高さ2m程度の範囲である。また、
一般的に、当該サービスが適用可能な空間の最大範囲としては、45ft×45ft程度の広さの空間であり、最低3台以上の赤外線カメラが必要となる。赤外線カメラの台数は、対象とする空間の広さに応じて適宜増加させる必要がある。
一般的に、当該サービスが適用可能な空間の最大範囲としては、45ft×45ft程度の広さの空間であり、最低3台以上の赤外線カメラが必要となる。赤外線カメラの台数は、対象とする空間の広さに応じて適宜増加させる必要がある。
なお、赤外線カメラ21の角度は、カメラの視野がキャプチャ対象とする空間の中心座標において重なるように調整されることが望ましい。また、再帰性反射マーカー10aは、本実施形態においては、タブレット端末10に装着されるものであり、全方向からの反射が均等であるように、円状のものが用いられる。また、タブレット端末10には、それぞれの端末を他の端末から識別可能なように最低3個以上の再帰性反射マーカー10aが取り付けられることが望ましい。本実施形態では、再帰性反射マーカー10aは、それぞれ間隔をあけて3つ設けられている。なお、タブレット端末10への反射性マーカーの取り付け位置については、少なくとも2台以上の赤外線カメラ21から見える位置に取り付ける必要があるため、端末の裏側などのように隠れてしまう位置にはできるだけ取り付けないようにすることが望ましい。なお、本実施形態では、閲覧装置と描画装置が共通のタブレット端末10として実現されているため、第1マーカー、及び第2マーカーも共通の再帰性反射マーカー10aによって実現することができる。
情報処理装置30は、図2に示されるように、モーションキャプチャ装置20によって取得された描画装置、及び閲覧装置であるタブレット端末10の対象空間内での位置情報、及び回転情報を各タブレット端末10へと送信する。すなわち、モーションキャプチャ装置20によって取得された各タブレット端末10の描画による軌跡に対応する位置情報は常時ストリーミングによって、タブレット端末10へと送信されている。
図6は、実施形態の3次元描画システム1の機能構成を示すブロック図である。図6に示されるように、タブレット端末10は、通信部11、描画装置12、閲覧装置13、撮影部13a、表示制御部14、軌跡描画部15、空間変換部17、消去部18を備えている。タブレット端末10は、描画装置、及び閲覧装置を兼用している。通信部11(受信部)は、WiFiや4G回線などを利用して、データを送受信するための機能である。通信部11を介して、タブレット端末10は情報処理装置30との間でデータの送受信を行う。
描画装置12は、タブレット端末10に対して、描画を行うためのユーザーインタフェースを提供する。本実施形態では、描画装置がタブレット端末10であることから、タブレット端末10を空間内で動かすだけで描画がされてしまうと不都合である。したがって、描画の実行する描画モードへの切り替えを行うためのインタフェースが存在することが望ましく、例えば画面上に表示された「描画ボタン」や実際のハードウェアのボタンとして実現されている。なお、各ボタンの実装方法としては、ボタンを一回押すと、描画の1ストローク分、すなわち動きが開始されてから、実質的に動きが停止されるまでの動作が軌跡されるようにしても良いし、ボタンが押されている間におけるタブレット端末10の動きの軌跡が描画さるようにしてもよい。
また、描画装置12は、他の描画の入力の方法として、タブレット端末10の画面がタッチパネルディスプレイである場合に、この画面上で画面をなぞって描画した軌跡を閲覧装置13の軌跡描画部15へと渡すインタフェースを提供する。この描画方法の場合、タブレット端末10の空間内の絶対位置ではなく、画面上に表示されている位置に対応した描画が行われる。画面上では奥行きは表現されていないため、予め設定した位置、例えばタブレット端末10の位置から30cm奥側、などに描画が行われる。
閲覧装置13は、ユーザーに対して仮想空間データ、及び描画された軌跡画像が合成されたデータを閲覧可能なように表示させる。
空間生成部16は、モーションキャプチャ装置20によって撮影された画像から切り取られた画像から、対象とする空間の実際の大きさと同様の仮想空間データを生成する。この生成された仮想空間データは、タブレット端末10内の記憶領域に保存される。なお、空間生成部16による仮想空間データの生成は、当該3次元描画システムが、対象とする空間に設置された際の初期設定として、システムの最初の起動時に行われることが望ましい。したがって、空間生成部16によって生成された仮想空間データは、一度生成されると、描画の間継続して使用されるため、実際の空間に変化があり、仮想空間データを実空間の変化に対応させたい場合は、空間生成部16による仮想空間データの生成を再度おこなう必要がある。
空間変換部17は、モーションキャプチャ装置20が取得した閲覧装置であるタブレット端末10の空間内における位置情報や、回転情報などの情報に基づき、タブレット端末10からの視点での閲覧が可能なように、すなわちタブレット端末10の撮影部13aを通じて見えている空間内の景色となるように仮想空間データを変換する。この詳細については、後述する。
軌跡描画部15は、タブレット端末10を操作して描画された軌跡画像を生成する処理を行う。具体的には、モーションキャプチャ装置20によって取得されたタブレット端末10に取り付けられた再帰性反射マーカー10aの位置情報や回転情報に対応する位置ベクトルを算出し、位置ベクトルに基づいてタブレット端末10の軌跡を仮想空間データ内において軌跡画像の生成を行う。また、軌跡描画部15は、タブレット端末10で、ユーザーの操作によって描画を行う描画モードにおいて描画がされたか否かの判定も行う。したがって、描画モードに設定されている際の描画装置12の操作のみに、軌跡描画部15は描画を行う。
また、軌跡描画部15は、描画装置12に設けられた描画を行う際の軌跡画像の線の太さ、種類(実線や破線など)、色、質感などの少なくとも一つを描画前に選択可能なインタフェース(選択部)からの入力を受け付け、入力に基づく線の種別に従った軌跡画像の生成を行う。
表示制御部14は、閲覧装置13の画面における表示画像の態様を制御するものである。具体的には、空間変換部17によって常時変換されている仮想空間データと、軌跡描画部15によって生成された軌跡画像とを合成し、閲覧装置13の画面に表示させるよう制御を行う。
消去部18は、軌跡描画部15によって生成された軌跡画像を消去する処理を行い、ユーザーインタフェースとしては閲覧装置13、描画装置12のいずれに設けてあっても良い。消去の操作がされると、消去部18は、軌跡描画部15によって描画された描画画像を消去する。この際、消去される軌跡画像の単位は、1回の描画モードによって描画された1ストローク分の描画の軌跡であっても良いし、所定の時間内に描画された軌跡であっても良い。または、画面内で消去したい軌跡画像の領域を選択した後に、この領域内に存在する軌跡画像を消去するようにしてもよい。
閲覧装置13の画面は撮影部13aが画面とは反対側の面に設けられており、表示制御部14によって合成されている仮想空間データ、及び軌跡画像が、リアルタイムに画面に表示される。また、仮想空間データを表示させるのではなく、撮影部13aによって撮影された空間画像に対して描画を行い、そのデータを表示させることも可能である。
図10は、実際に空間内に描画された軌跡画像の一例を示す図である。図10に示されるように、軌跡画像70は、対象とする空間内でタブレット端末10によって描画されている。図中に示されるように、タブレット端末10が軌跡画像70の正面側に位置する際には、タブレット端末10の画面には、軌跡画像70を正面から見た状態が表示され、側面側に位置する際には、軌跡画像70を側方から見た状態が表示される。このようなタブレット端末10の位置に応じた軌跡画像の表示態様の変換は、空間変換部17によって処理される。
モーションキャプチャ装置20は、赤外線カメラ21、プロセッサ22、記憶部23、通信部24を備える。赤外線カメラ21によって取得したタブレット端末10の位置情報は、プロセッサ22によって空間内での位置情報に変換され、通信部24を通じて情報処理装置30へと送信される。
情報処理装置30は、通信部31(送信部)、入力部32、記憶部33を備える。通信部31は、ネットワーク回線を通じてモーションキャプチャ装置20やタブレット端末10との間でデータの送受信を行う。入力部32は、受信した各データを各部に対してインプットを行う。記憶部33は、受信したデータや、受信したデータに対して各部において処理を行ったデータを記憶する。
図7は、仮想空間データを生成する処理の流れを示すフロー図である。図7の処理はモーションキャプチャ装置20を設置し、初期の描画を行う空間を設定する際に行われるものである。図7に示されるように、まずモーションキャプチャ装置20は、赤外線カメラ21によって取得されたキャプチャ対象の範囲の大きさを情報処理装置30へと入力する(ステップS101)。この対象とする空間の設定の方法としては、決めた撮影範囲を囲むように、キャリブレーションポールを垂直に設置し、2台以上の赤外線カメラ21からこのキャリブレーションポールが見えるようにカメラの設定位置を調整することによって設定する。
そして、この設置されたキャリブレーションポールを赤外線カメラ21によって撮影することで、撮影範囲の空間の大きさを示す距離や空間そのものの画像が取得され、情報処理装置30へと入力される。空間生成部16は、入力された撮影対象の空間の寸法に基づき、ヴァーチャル環境である仮想空間データを生成する(ステップS102)。空間生成部16は、更にこの生成された仮想空間データをどの位置からの視点でみたイメージとするかを設定するために、仮想空間データを基礎となる視点を設定する(ステップS103)。
そして、最後に空間生成部16は、この基礎となったユーザーの正面側における一人称視点での仮想空間データに変換する(ステップS104)。
続いて、描画装置であるタブレット端末10による描画された軌跡のイメージ処理についての流れを図8を用いて説明する。本処理は、本実施形態では描画装置であるタブレット端末10で、描画モードが設定されてから終了するまでの処理の流れである。まず軌跡描画部36は、モーションキャプチャ装置20により取得された描画装置であるタブレット端末10に取り付けられた再帰性反射マーカーの現在の位置情報、及び回転情報(4×4行列)を情報処理装置30から受信する(ステップS201)。
次いで、軌跡描画部36は、読み込んだ現在の情報、及び回転情報に基づき、3次元位置ベクトル、及び4元数回転ベクトルを計算する(ステップS202)。そして、軌跡描画部36は、3次元位置ベクトルを新しい頂点法線ベクトルとして用いて、軌跡に沿ったポリゴンを形成し、ポリゴンによる軌跡画像の描画を行う(ステップS203)。なお、本実施形態では、軌跡の描画に用いられるポリゴンは、予め設定された色、太さ、線種として設定されているが、これは描画装置側に設けたユーザーインタフェースによって変更選択されたポリゴンの描画情報を参照して、描画画像の線の種別を適宜変更する。
そして、軌跡描画部36は、新たに生成したポリゴンと、過去のポリゴンとを繋げてメッシュを形成する(ステップS204)。この際の過去のポリゴンは記憶されている以前の描画によって生成されたポリゴンである。そして、軌跡描画部36は、描画が完了したか否かの判定を行う(ステップS205)。描画の完了は、前述した描画モードの完了の操作によって判定しても良いし、一定時間経過後に自動的に描画を完了しても良いし、所定のストロークを完了した場合に描画を完了するようにしてもよい。
描画が完了したと判定されると(ステップS205:Yes)、軌跡描画部36は、オブジェクトファイルを出力し、処理を完了する(ステップS206)。一方、描画が完了されないと判定された場合(ステップS206)、ステップS201からの描画処理を再度繰り返す。
続いて、空間変換部17、及び表示制御部14による、閲覧装置における仮想空間データの変換の処理について図9を参照して説明する。図7においては、初期設定の仮想空間データの生成に係る処理を示したが、本処理は閲覧装置が空間内での位置や回転情報が変化することから、リアルタイムで行われる処理である。
まず、モーションキャプチャ装置20は、閲覧装置13であるタブレット端末10に取り付けられた再帰性反射マーカー10aから現在の位置情報、及び回転情報を取得する(ステップS301)。次いで、空間変換部17は、仮想空間データと、軌跡情報であるオブジェクトファイルを取得する(ステップS302)。そして、空間変換部17、及び表示制御部14は、仮想空間データと軌跡画像のオブジェクトファイルとを合成し、取得した閲覧装置の位置情報、及び回転情報に基づいて、仮想空間データを変換する(ステップS303)。そして、最後の表示制御部14は、変換後の仮想空間データをタブレット端末10の画面に表示させる。
以上に示した本実施形態の3次元描画システムにおいては、ユーザーは、描画装置12を操作することによって、3次元の空間上に描画をすることができ、閲覧装置13を通じて、描画された軌跡画像を仮想空間データ内で閲覧することができる。従来の3次元グラフィックは、コンピューターの画面上での描画、閲覧が可能なのみであったが、本システムでは、実際の空間内に描画装置12を動かすことによって、実際の空間内に奥行きのある軌跡画像を描画することができ、自由度の高い表現が可能となる。例えば、本システムによって描画された軌跡画像は、ユーザーが空間内で移動すれば、その位置からみた画像へと変換されるため、例えば遊園地等でのアトラクションや、仮想現実を使用したゲームなど様々な用途に活用することができる。
例えば、空間内に立体的な彫刻を描画すれば、閲覧装置13を装着しているユーザーかはら、その彫刻があたかも実際の空間内に存在するかのような視覚的効果を得ることができる。また、描画の先に、軌跡画像を生成するための線の種別を選択することができるようにすることで、更に表現の幅を広げることができるようになる。また、フリーハンドによる描画だけではなく、例えば図形やスタンプ、文字など予め定まった形象の軌跡を動かしながら空間内に配置するような表現も可能となる。
また、描画した軌跡画像の消去の操作を行うことができるようにした。この際、3次元の実際の空間内にされた描画を指定して消去を行うことは困難であることから、一つ前の動作によって描画された軌跡画像の部分を、消去対象として予め設定しておくことで、消去に係る処理を簡単に行うことができるようになる。
また、描画装置であるタブレット端末10自体を動かして描画するだけでなく、閲覧装置であるタブレット端末10の画面を触って描画を行うことができるようにしたため、例えば細かい作業などによる描画を行う際には、画面にペンタブレット等を用いて描画をすることで、表現の自由度を高めることが可能となる。なお、描画の際には、軌跡描画が生成される位置は、予めタブレット端末10から奥行き30cmの位置などのように設定するようにしたが、これは例えば、ペンタブレットなどで画面内の軌跡画像を選択すると、自動的にその選択された軌跡画像の奥行きの位置に調整して軌跡描画の生成が行われるといったようにすることも可能である。
なお、第1の実施形態では、描画装置と閲覧装置が同一のタブレット端末10として実現されている例を示したが、これは例えば図4のように、閲覧装置であるタブレット端末10と、描画装置50とに分けた構成であってもよい。この場合、描画装置50は、スマートフォンや小型のタブレット、ペンタブレット型の端末などのより、携帯しやすい大きさの端末であり、描画を片手でも行いやすくなる。この場合、描画装置50に選択部や消去部が設けられるため、描画装置50とタブレット端末10間で、これらの操作の信号の送受信が行われるようにする必要がある。
また、図5のようにヘッドマウントディスプレイ型の閲覧装置60を頭部に装着するような使用方法であっても良いこの場合、閲覧装置60を手で携帯する必要がなくなるため、より自然な描画を行う体験を得ることができるようになる。また、以上の実施形態のように、描画を行うものと閲覧を行うものが必ずしも同一である必要がなく、複数人が端末をそれぞれ所持し、それぞれが同一の空間内で描画・閲覧を行うような使用態様であってもよい。
また、タブレット端末10は、各種プログラムが記憶された記憶領域であるハードディスクと、プログラムが実行させるRAMなどの記憶領域を備えたものであり、上記実施形態で示した各部は、プログラムとして各部において機能するものである。
1…3次元描画システム、10…タブレット端末、12…描画装置12…閲覧装置、14…表示制御部、15…軌跡生成部、16…空間生成部、17…空間変換部、18…消去部、20…モーションキャプチャ装置、30…情報処理装置
Claims (8)
- 対象とする空間、及び空間内に位置する対象物を撮影する複数の撮影部と、
前記撮影部によって前記対象とする空間内での位置が把握可能な第1マーカーを取り付けられた描画装置と、
利用者が携帯可能であって、第2マーカーが付与されて前記対象とする空間内での絶対位置を算出可能であって、利用者が閲覧可能な画面を備える閲覧装置と、
前記撮影部によって撮影されることによって、取得された前記描画装置の軌跡の位置情報、及び前記閲覧装置の位置情報をリアルタイムに前記閲覧装置へと送信する送信部と、
前記撮影部によって撮影された画像から、対象とする空間の実際の大きさと同様の仮想空間データを生成する空間生成部と、
受信した前記描画装置の軌跡の位置情報に基づいて前記描画装置の軌跡画像を前記仮想空間データ内において描画する軌跡描画部と、
受信した前記閲覧装置の位置情報から、前記閲覧装置からの視点で閲覧が可能なように前記対象とする空間の前記仮想空間データを変換する空間変換部と、
前記軌跡画像と、前記空間変換部によって変換された前記仮想空間データと合成し、前記画面に表示させる表示制御部と、
を備えることを特徴とする3次元描画システム。 - 前記描画装置は、描画された前記仮想空間データ内における軌跡の線の太さ、種類、色、及び質感の少なくとも1つを描画前に選択可能な選択部を備え、
前記軌跡描画部は、前記選択部によって選択された軌跡の線の種別に基づいて、前記軌跡を描画する
ことを特徴とする請求項1に記載の3次元描画システム。 - 前記描画装置は、描画を行う際に操作する描画スイッチを、ハードウェア、若しくはソフトウェアとして備えており、
前記軌跡描画部は、前記描画スイッチが押されている際の、前記描画装置の軌跡を描画し、前記描画スイッチが押されていない場合の、前記描画装置の軌跡は描画しない
ことを特徴とする請求項1又は2に記載の3次元描画システム。 - 前記描画装置、又は前記閲覧装置は、前記仮想空間データ内に描画された軌跡を消去する消去部を備えており、
前記消去部は、消去の操作が利用者によってされた場合に、前記描画スイッチが前回押された以降に描画された軌跡を消去する
ことを特徴とする請求項3に記載の3次元描画システム。 - 前記描画装置、及び前記閲覧装置は、一つのハードウェアによって実現されており、
前記空間生成部は、前記仮想空間データを利用者モデルとして予め設定した身長からの視点で変換を行い、
前記閲覧装置の画面に映し出された前記仮想空間データを見ながら、前記描画装置を動かすと、見ている前記画面内に前記描画装置に動きの軌跡が描画される
ことを特徴とする請求項1〜4のいずれか一項に記載の3次元描画システム。 - 前記描画装置は、前記閲覧装置の前記画面がタッチパネル式のディスプレイによって構成されており、前記画面上において描画を行うと、前記画面上に表示されている前記仮想空間データ内において描画した位置に対応する空間の絶対位置において前記描画装置を動かした場合と同様の動きの軌跡が描画される
ことを特徴とする請求項5に記載の3次元描画システム。 - 前記閲覧装置は、利用者が頭部に装着可能な構成であり、
前記描画装置は、利用者が手に持って使用するペン型の装置である
戸を特徴とする請求項1〜4の何れか一項に記載の3次元描画システム。 - コンピューターを、
対象とする空間、及び空間内に位置する対象物を撮影する複数の撮影部によって撮影されることによって、取得された第1マーカーが取り付けられた描画装置の軌跡の位置情報、及び第2マーカーが取り付けられて利用者が閲覧可能な画面を備える閲覧装置の位置情報をリアルタイムに受信する受信部と、
前記撮影部によって撮影された画像から、対象とする空間の実際の大きさと同様の仮想空間データを生成する空間生成部と、
受信した前記描画装置の軌跡の位置情報に基づいて前記描画装置の軌跡画像を前記仮想空間データ内において描画する軌跡描画部と、
受信した前記閲覧装置の位置情報から、前記閲覧装置からの視点で閲覧が可能なように前記対象とする空間の前記仮想空間データを変換する空間変換部と、
前記軌跡画像と、前記空間変換部によって変換された前記仮想空間データと合成し、前記画面に表示させる表示制御部と、
して実行させるための3次元描画プログラム。
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015152731A JP2017033294A (ja) | 2015-07-31 | 2015-07-31 | 3次元描画システム及び3次元描画プログラム |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2015152731A JP2017033294A (ja) | 2015-07-31 | 2015-07-31 | 3次元描画システム及び3次元描画プログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2017033294A true JP2017033294A (ja) | 2017-02-09 |
Family
ID=57986248
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015152731A Pending JP2017033294A (ja) | 2015-07-31 | 2015-07-31 | 3次元描画システム及び3次元描画プログラム |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2017033294A (ja) |
Cited By (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN107390978A (zh) * | 2017-07-27 | 2017-11-24 | 广州视源电子科技股份有限公司 | 公式的显示方法、装置、终端及计算机可读存储介质 |
CN108961414A (zh) * | 2017-05-19 | 2018-12-07 | 中兴通讯股份有限公司 | 一种显示控制方法及装置 |
CN111176427A (zh) * | 2018-11-12 | 2020-05-19 | 舜宇光学(浙江)研究院有限公司 | 基于手持式智能设备的三维空间绘画方法和手持式智能设备 |
CN112639682A (zh) * | 2018-08-24 | 2021-04-09 | 脸谱公司 | 在增强现实环境中的多设备地图构建和协作 |
CN113747138A (zh) * | 2021-07-30 | 2021-12-03 | 杭州群核信息技术有限公司 | 虚拟场景的视频生成方法和装置、存储介质及电子设备 |
CN114489337A (zh) * | 2022-01-24 | 2022-05-13 | 深圳市慧鲤科技有限公司 | 一种ar互动方法、装置、设备及存储介质 |
-
2015
- 2015-07-31 JP JP2015152731A patent/JP2017033294A/ja active Pending
Cited By (8)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN108961414A (zh) * | 2017-05-19 | 2018-12-07 | 中兴通讯股份有限公司 | 一种显示控制方法及装置 |
CN107390978A (zh) * | 2017-07-27 | 2017-11-24 | 广州视源电子科技股份有限公司 | 公式的显示方法、装置、终端及计算机可读存储介质 |
CN107390978B (zh) * | 2017-07-27 | 2020-11-03 | 广州视源电子科技股份有限公司 | 公式的显示方法、装置、终端及计算机可读存储介质 |
CN112639682A (zh) * | 2018-08-24 | 2021-04-09 | 脸谱公司 | 在增强现实环境中的多设备地图构建和协作 |
JP2021534473A (ja) * | 2018-08-24 | 2021-12-09 | フェイスブック,インク. | 拡張現実環境におけるマルチデバイスマッピングおよび共同 |
CN111176427A (zh) * | 2018-11-12 | 2020-05-19 | 舜宇光学(浙江)研究院有限公司 | 基于手持式智能设备的三维空间绘画方法和手持式智能设备 |
CN113747138A (zh) * | 2021-07-30 | 2021-12-03 | 杭州群核信息技术有限公司 | 虚拟场景的视频生成方法和装置、存储介质及电子设备 |
CN114489337A (zh) * | 2022-01-24 | 2022-05-13 | 深圳市慧鲤科技有限公司 | 一种ar互动方法、装置、设备及存储介质 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
KR102497683B1 (ko) | 다수의 가상 캐릭터를 제어하는 방법, 기기, 장치 및 저장 매체 | |
JP2017033294A (ja) | 3次元描画システム及び3次元描画プログラム | |
JP5966510B2 (ja) | 情報処理システム | |
KR101171660B1 (ko) | 증강현실의 포인팅 장치 | |
JP6288084B2 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
JP6348741B2 (ja) | 情報処理システム、情報処理装置、情報処理プログラム、および情報処理方法 | |
JP2020024752A (ja) | 情報処理装置及びその制御方法、プログラム | |
CN104915979A (zh) | 跨移动平台实现沉浸式虚拟现实的*** | |
CN104035760A (zh) | 跨移动平台实现沉浸式虚拟现实的*** | |
JPWO2014188798A1 (ja) | 表示制御装置、表示制御方法および記録媒体 | |
JP7372061B2 (ja) | 遠隔作業支援システム | |
JP5568610B2 (ja) | 拡張現実システム、映像合成装置、映像合成方法及びプログラム | |
KR20180059765A (ko) | 정보 처리 장치, 정보 처리 방법 및 프로그램 | |
JP6559870B1 (ja) | 動画合成装置、動画合成方法及び動画合成プログラム | |
JP2020087278A (ja) | 動画合成装置、動画合成方法及び動画合成プログラム | |
KR20150040580A (ko) | 가상 공간 멀티 터치 인터랙션 장치 및 방법 | |
CN111161396A (zh) | 虚拟内容的控制方法、装置、终端设备及存储介质 | |
KR101539087B1 (ko) | 모바일 기기를 이용한 증강 현실 구현 장치 및 증강 현실 구현 방법 | |
WO2017061890A1 (en) | Wireless full body motion control sensor | |
JP6726016B2 (ja) | 情報処理装置、情報処理方法 | |
JPWO2018193509A1 (ja) | 遠隔作業支援システム、遠隔作業支援方法、及びプログラム | |
JP2020087429A (ja) | 動画合成装置、動画合成方法及び動画合成プログラム | |
JP2023065528A (ja) | ヘッドマウント情報処理装置およびヘッドマウントディスプレイシステム | |
EP3702008A1 (en) | Displaying a viewport of a virtual space | |
WO2022176450A1 (ja) | 情報処理装置、情報処理方法、およびプログラム |