JP6348623B2 - 三次元モデルの作成方法、三次元モデル作成装置、三次元モデル作成システム、及び三次元モデル作成用プログラム - Google Patents

三次元モデルの作成方法、三次元モデル作成装置、三次元モデル作成システム、及び三次元モデル作成用プログラム Download PDF

Info

Publication number
JP6348623B2
JP6348623B2 JP2017028809A JP2017028809A JP6348623B2 JP 6348623 B2 JP6348623 B2 JP 6348623B2 JP 2017028809 A JP2017028809 A JP 2017028809A JP 2017028809 A JP2017028809 A JP 2017028809A JP 6348623 B2 JP6348623 B2 JP 6348623B2
Authority
JP
Japan
Prior art keywords
polygon
dimensional
model
data
distance image
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2017028809A
Other languages
English (en)
Other versions
JP2017157208A (ja
Inventor
達也 横田
達也 横田
ハリー 北島
ハリー 北島
芳明 澤邊
芳明 澤邊
Original Assignee
株式会社ワントゥーテンイマジン
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by 株式会社ワントゥーテンイマジン filed Critical 株式会社ワントゥーテンイマジン
Publication of JP2017157208A publication Critical patent/JP2017157208A/ja
Application granted granted Critical
Publication of JP6348623B2 publication Critical patent/JP6348623B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Processing Or Creating Images (AREA)
  • Image Generation (AREA)
  • Image Analysis (AREA)

Description

本発明は、コンピュータを用いて人間の全身を表現する三次元ポリゴンモデルを作成する技術、及び、該三次元ポリゴンモデルに骨格データ及び動作データを重畳して所望の動きを付与することができる三次元モデルを作成する技術に関する。
近年、ゲームや広告において、ディスプレイ上にコンピュータを用いて作成された三次元ポリゴンモデルで表現された人物を表示したり、該三次元ポリゴンモデルに動きを付与した動画を表示したりする技術が広く用いられている(例えば特許文献1)。
三次元ポリゴンモデルは次のような手順で作成される。
まず、予め決められた位置に配置された距離画像センサを用いて、被写体の二次元画像データである撮像データと、該距離画像センサから前記被写体までの距離の二次元分布を表す深度マップを取得する。そして、撮像データの各画素位置に対応する平面座標と、深度マップの各点における距離情報から、それぞれが空間座標を持つ多数の点を生成することができる。このとき、深度マップにおいて背景(壁等)に相当する距離の点は除外され、被写体の輪郭を構成する点が抽出される。続いて、ドロネー三角形分割法(非特許文献1参照)等の手法により、これらの点群のうちの近接3点を結んでなる三角形が順次生成されポリゴンが作成される。
上記の方法では、距離画像センサが予め決められた1箇所のみに配置されるため、特定の1方向(該1箇所から被写体を見た方向)から見える三次元ポリゴンモデルしか作成することができない。任意の視点から見ることができる三次元ポリゴンモデルを作成する場合には、複数の方向から見た被写体の撮像データと深度マップを取得し、それぞれの方向で形成された三次元ポリゴンモデルを1つに統合する必要がある。以下、本明細書では、1方向から見た情報のみから作成された三次元ポリゴンモデルを部分三次元ポリゴンモデル、該部分三次元ポリゴンモデルを統合した三次元ポリゴンモデルを全体三次元ポリゴンモデル、とも呼ぶ。
特開2014−67372号公報
"MathWorks: Delaunay三角形分割",[online], Fast Facts,[平成28年2月19日検索],インターネット<URL: http://jp.mathworks.com/help/matlab/math/delaunay-triangulation.html?requestedDomain=jp.mathworks.com>
従来、複数の部分三次元ポリゴンモデルを1つの全体三次元ポリゴンモデルに統合する作業は、オペレータが画面を見ながら各部分三次元ポリゴンモデルを回転したり移動したりして該部分三次元ポリゴンモデルの結合位置を決め、さらに各部分三次元ポリゴンモデルの端部のデータを組み合わせることにより、手動で行っていた。また、このようにして部分三次元ポリゴンモデルを統合しても、その連結部が完全には一致しないことが多く、各部分三次元ポリゴンモデルの結合部分におけるズレを修正する作業も、オペレータが手動で行っていた。
また、距離画像センサにより得られる深度マップの距離情報には多少の誤差が含まれる。距離情報の誤差を含んだ点は被写体の輪郭から離れて位置し、こうした点が複数集まると被写体のポリゴンから離間し独立した別の小さなポリゴン集合体が構成される。このように被写体のポリゴンから独立に構成されたポリゴンを削除する作業も、オペレータが手動で行っていた。
このように、従来、被写体の全体三次元ポリゴンモデルを作成するのにオペレータが煩雑な作業を行わなければならず、時間と手間がかかるという問題があった。
本発明が解決しようとする課題は、任意の方向から見ることができる被写体の三次元モデルを簡便に作成する技術を提供することである。
上記課題を解決するために成された本発明に係る三次元モデルの作成方法は、
a) 被写体を取り囲むように配置した4台以上の距離画像センサのそれぞれにより、被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データを取得する工程と、
b) 前記4台以上の距離画像センサのそれぞれについて、前記撮像データと前記深度データから複数の点の空間座標を生成する工程と、
c) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する工程と、
d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する工程と、
e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除する工程と
を含むことを特徴とする。
前記ポリゴンは、典型的には1つの面を規定するために必要な最小数である3個の点を結んでなる三角形であるが、4個の点を結んでなる四角形あるいはそれ以上の点を結んでなるポリゴンであってもよい。また、複数の点から部分三次元ポリゴンモデルを作成する方法には、例えば非特許文献1に記載のドロネー三角形分割法を用いることができる。
本発明に係る三次元モデル作成方法では、被写体を取り囲むように4台以上の距離画像センサを配置する。そして、それぞれの距離画像センサにより撮像データと深度データの組を取得し、その各組から取得した複数の点を結んだポリゴンを複数組み合わせて部分三次元ポリゴンモデルを作成する。そして、座標変換により部分三次元ポリゴンモデルを1つの共通空間座標系に対応した変換部分三次元ポリゴンモデルに変換し、それらを組み合わせて全体三次元ポリゴンモデルに統合する。つまり、従来のようにオペレータが部分三次元ポリゴンモデルを回転・移動したり端部のデータを組み合わせたりする必要がなく、簡便に全体三次元ポリゴンモデルからなる三次元モデルを作成することができる。
また、本発明に係る三次元モデル作成方法では、全体三次元ポリゴンモデルから、所定数以下のポリゴンが連なって構成されたポリゴン集合体を機械的に削除する。深度マップにおける距離情報の誤差を含んだ複数の点で構成されるポリゴン集合体は、被写体を構成する多数のポリゴンから離間して位置し、また構成するポリゴンの数も少ない。本発明に係る三次元モデル作成方法では、こうしたポリゴン集合体を、その構成数に基づいて機械的に削除するため、従来のようにオペレータが距離情報の誤差を含む点からなるポリゴンを個別に確認して手作業で削除する必要がなく、簡便に全体三次元ポリゴンモデルからなる三次元モデルを作成することができる。
また、本発明に係る三次元モデルの作成方法では、さらに、
f) 前記部分三次元ポリゴンモデルのそれぞれにおいて、前記複数のポリゴンのうち、前記距離画像センサから該ポリゴンの中心点に向かう視線ベクトルと、当該ポリゴンの法線ベクトルがなす角が90度以下であるポリゴンを削除する工程
を含むことが好ましい。
市販されている距離画像センサの中には、該距離画像センサの視野に直接捉えられる点だけでなく、被写体の裏側に位置する点を推定して自動的に推定点を付加する機能を有するものがある。しかし、このようにして付加された推定点の精度は必ずしも高くない。また、本発明に係る三次元モデルの作成方法では、被写体を取り囲むように配置した4台以上の距離画像センサにより被写体の点を得ることができるため、距離画像センサにより自動的に付加される推定点は不要である。上記態様の方法では、推定点を含んで構成されるポリゴンの法線と距離画像センサから該ポリゴンの中心点に向かう視線ベクトルがなす角は90度以下になることを利用して当該ポリゴンを削除し、部分三次元ポリゴンの精度を高めることができる。
さらに、本発明に係る三次元モデルの作成方法では、
g) 前記全体三次元ポリゴンモデルに、予め用意された、直線で表される複数の骨と、点で表されそれぞれが前記骨を連結する複数の関節とを含む骨格データを組み合わせた静止三次元モデルを作成する工程と、
h) 前記静止三次元モデルの各点に、該点と前記骨の距離に応じたウエイト値を設定する工程と、
i) 所定の動作を前記骨と前記関節の動きで表現する動作データを前記静止三次元モデルのデータに重畳し、該動作データと前記ウエイト値に基づいて前記点を移動させる工程と、
を含むことができる。
上記態様の三次元モデルの作成方法では、骨格データを組み合わせた静止三次元モデルに動作データを適用して、任意の動作をさせることができる三次元モデルを作成することができる。
また、上記課題を解決するために成された本発明に係る三次元モデル作成装置は、
a) 被写体を取り囲むように配置された4台以上の距離画像センサのそれぞれにより取得された、被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データの入力を受け付けるデータ受付部と、
b) 前記撮像データと前記深度データの各組について複数の点の空間座標を生成する点座標生成部と、
c) それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
を備えることを特徴とする。
さらに、上記課題を解決するために成された本発明に係る三次元モデルの作成システムは、
a) 予め決められた被写***置を取り囲むように配置される、それぞれが被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データを取得可能である4台以上の距離画像センサと、
b) 使用者による所定の入力操作に応じて、前記4台以上の距離画像センサのそれぞれにより、前記被写体の撮像データと深度データを取得するデータ取得部と、
c) 前記4台以上の距離画像センサのそれぞれにより取得した、前記撮像データと前記深度データの各組について複数の点の空間座標を生成する頂点座標生成部と、
d) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
e) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
f) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
を備えることを特徴とする。
本発明に係る三次元モデルの作成技術を用いることにより、任意の方向から見ることができる被写体の三次元モデルを簡便に作成することができる。
本発明に係る三次元モデルの作成システム(三次元モデル作成装置を含む)の一実施例の概略構成図。 本発明に係る三次元モデルの作成方法の一実施例のフローチャート。 本発明に係る三次元モデルの作成システム(三次元モデル作成装置を含む)の別の実施例の概略構成図。 実施例2において用いるARマーカの一例。
本発明に係る三次元モデルの作成方法、作成装置、及び作成システムの実施例について、以下、図面を参照して説明する。本実施例は、人間(被写体)を距離画像センサにより撮影したデータをコンピュータ処理することにより三次元ポリゴンモデルを作成するとともに、モーションデータを重畳して該三次元ポリゴンモデルに任意の動きを与えた三次元モデルを作成する技術である。
図1は、本実施例における三次元モデルの作成システム1(以下、単に「作成システム」とも呼ぶ。)の概略構成図である。また、図2は、本実施例における三次元モデルの作成方法(以下、単に「作成方法」とも呼ぶ。)におけるフローチャートである。
本実施例の作成システム1は、撮像空間10において被写***置Pを取り囲むように配置され、撮影制御部16による制御の下で動作する4台の距離画像センサ11〜14と、三次元モデル作成装置20(本発明に係る三次元モデル作成装置の一実施例に相当。以下、単に「作成装置」とも呼ぶ。)を備えている。4台の距離画像センサ11〜14のうちの3台(11〜13)は水平方向から被写体を捉えるように、等間隔に横置きで配置され、1台(14)は被写体の鉛直上方から被写体を捉えるように配置される。水平方向から被写体を捉える3台の距離画像センサ11〜13の視野には、被写体と所定の背景11a〜13a(例えばや単色の布や壁)が捉えられる。また、鉛直上方から被写体を捉える距離画像センサ14の視野には被写体と床が捉えられる。各距離画像センサ11〜14は、その視野に他の距離画像センサが入り込まないように配置される。本実施例の距離画像センサ11〜14にはKinect(MICROSOFT CORPORATIONの登録商標、製品名)であるが、同様に撮像データと深度データを取得可能なものであれば他のセンサを用いてもよい。
作成装置20は、記憶部21のほかに、データ受付部22、点座標生成部23、部分三次元ポリゴンモデル作成部24、ポリゴンリダクション部25、背面ポリゴン削除部26、テクスチャ設定部27、全体三次元ポリゴンモデル作成部28、ノイズ削除部29、重複点整理部30、全体三次元ポリゴンモデル補正部31、ボーンデータ生成部32、ウエイト設定部33、及びモーションデータ重畳部34を機能ブロックとして備えている。作成装置20の実体は一般的なパーソナルコンピュータであり、入力部40、及び表示部50が接続されている。また、上記各機能ブロック22〜34は、コンピュータにインストールされた三次元モデル作成用プログラムをCPUに実行させることにより具現化することができる。各部の動作は後述する。記憶部21には、次に説明する手順により作成される座標変換行列、及び後述するモーションデータが保存されている。
記憶部21に保存される座標変換行列は以下のようにして作成される。
被写体の三次元モデルを作成するに先立ち、上記4台の距離画像センサ11〜14の位置と視野を固定する。そして、被写体として複数のボール(同一直線上に位置しない少なくとも3個のボール)を配置して各距離画像センサ11〜14で該複数のボールを撮影し、該複数のボールの撮像データと深度データを取得する。ここで、撮像データとは二次元のカラー画像データ(二次元に配置された各画素が色情報を持つデータ)であり、深度データとは距離画像センサからの距離の二次元分布を表すデータである。
各距離画像センサ11〜14について、それぞれ前記複数のボールの撮像データと深度データを取得すると、これらデータの組から、各距離画像センサ11〜14から見た複数のボールのそれぞれの空間座標が求められる。このとき求められる空間座標を規定する3軸は4台の距離画像センサ11〜14でそれぞれ異なる。続いて、同一のボールについて異なる距離画像センサから求められた空間座標が相互に比較され、これにより4つの距離画像センサの間の3軸の関係が求められ、各距離画像センサの空間座標系を1つの共通する空間座標系に変換するための変換行列が、距離画像センサ毎に作成される。なお、1つの共通する空間座標系として、4台の距離画像センサのうちの1つの空間座標系をそのまま用いることができる。
以下、本実施例における三次元モデルの作成方法を説明する。
使用者が所定の入力(例えば入力部を通じて画面上の「スタート」ボタンを押下する入力動作)により三次元モデルの作成を指示すると、撮影制御部16が、使用者に被写***置に所定のポーズで立つよう指示する。ここで、所定のポーズとは、撮影時に全ての距離画像センサ11〜14の死角になる領域をできるだけ少なくしたポーズであり、例えば両手を水平に広げ、足を肩幅程度に広げて立つ姿勢(Tポーズと呼ばれる姿勢)である。
撮影制御部16は、使用者に上記指示を行ってから一定時間(使用者が上記ポーズで被写***置に立つまでに要する時間)経過後、全ての距離画像センサ11〜14を同時に動作させ、それぞれについて撮像データと深度データを取得する(ステップS1)。各距離画像センサ11〜14で取得された撮像データと深度データは、それぞれ1組のデータとして三次元モデル作成装置20に送信される。本実施例で距離画像センサ11〜14として用いているKinectは、被写体の輪郭をKinect自身が有するボーンデータベースと照合し、適合するボーンデータ(人間を複数の骨と、骨を連結する関節で表現したデータ。骨格データともいう。)を出力する機能を備えているため、撮像データと深度データに加え、被写体のボーンデータも同時に得られる(ステップS2)。このボーンデータも同時に三次元モデル作成装置20に送信される。
データ受付部22は各距離画像センサ11〜14から送られる撮像データ及び深度データ、並びにボーンデータを受け取り、記憶部21に保存する。撮像データと深度データが記憶部21に保存されると、点座標生成部23は、距離画像センサ11〜14のそれぞれについて、撮像データの各画素位置に対応する平面座標及び各画素が有する色情報と、深度データの各点における距離情報から、それぞれが空間座標と色情報を持つ多数の点(ポイントクラウド)を生成する(ステップS3)。
続いて、部分三次元ポリゴンモデル作成部24は、各距離画像センサ11〜14について生成した、空間座標を持つ複数の点から所定の規則(例えばドロネー三角形分割法に基づく規則)に従って近接3点を結んでなる三角形(ポリゴン)を順次生成し、前記複数の点から部分三次元ポリゴンモデルを作成する(ステップS4)。ここで、部分三次元ポリゴンモデルとは、被写体を特定の1方向(即ち対応する距離画像センサ)から見た三次元ポリゴンモデルである。このときポリゴンの各面の色は、当該面を構成する3点の色(色情報に基づく色)の平均色となる。なお、ここでは3点を結んでなる三角形をポリゴンとしたが、4点以上を結んでポリゴンを作成してもよい。
各距離画像センサ11〜14について部分三次元ポリゴンモデルが作成されると、ポリゴンリダクション部25は、各部分三次元ポリゴンモデルをハイポリゴン(多数の点から作成されたポリゴン)からローポリゴン(ハイポリゴンよりも少ない点数で作成されたポリゴン)に変換するポリゴンリダクションを実行する。この変換は、各ポリゴンを該ポリゴンの重心に位置する1つの点に変換する操作(変換された点の色はポリゴンの色になる)を全てのポリゴンについて行い、これにより作成された新たな点を上記ドロネー三角形法等により結んで新たなポリゴンを生成し(このポリゴンの色は当該ポリゴンを構成する点の色の平均色となる)、新たに部分三次元ポリゴンモデル(ローポリゴン)を作成することにより実行される(ステップS5)。この処理によりポリゴン数が少なくなるため、後述する各工程における処理の負荷が軽減され高速処理が実現される。なお、本実施例ではパーソナルコンピュータを三次元モデル作成装置20として用いているため、処理の負荷の軽減を目的とするポリゴンリダクションを行ったが、高速処理が可能なハイエンドのコンピュータを三次元モデル作成装置20として用いる場合にはポリゴンリダクションを行うことなく(即ちハイポリゴンのまま)以下の工程を行うようにしてもよい。
次に、背面ポリゴン削除部26は、各部分三次元ポリゴンモデルについて、該部分三次元ポリゴンモデルを構成する全てのポリゴンの法線と、対応する距離画像センサ11〜14の視線ベクトルのなす角度を求め、これが90度以下であるポリゴンを不要ポリゴンと見なして削除する(ステップS6)。これは、距離画像センサの視野に直接捉えることが不可能な、被写体の背面側を構成するポリゴンの法線と、当該ポリゴンの中心に向かう距離画像センサ11〜14の視線ベクトルがなす角度が90度以下になることを利用した処理である。本実施例において用いるKinectは、直接視野に捉えることができない被写体の背面側にも推定点を生成する機能を有しているが、必ずしもその精度は高くない。また、本実施例の三次元モデル作成方法では、複数のKinectによりそれぞれ異なる方向から見た部分三次元ポリゴンモデルを作成するため、こうした推定点を結んで成るポリゴンを用いる必要もない。従って、本実施例では、上記方法で不要ポリゴンを削除する。なお、被写体の背面側に推定点を生成する機能を有しない距離画像センサを用いる場合は、このステップを行う必要はない。
この段階では、部分三次元ポリゴンモデルを構成するポリゴンのそれぞれが1色で表現されており、隣接するポリゴンとの色の差が目立つ。そこで、テクスチャ設定部27が、各部分三次元ポリゴンモデルに、対応する距離画像センサ11〜14で取得した撮像データを貼り合わせる処理(テクスチャの貼り付け処理)を行う(ステップS7)。この処理は、撮像データを各部分三次元ポリゴンモデルに投影することにより行われる。各部分三次元ポリゴンモデルは、上記ポリゴンリダクションにより点数を減らしているため、画素データを構成する画素数と一致しない。言い換えれば、画素データを投影したときに画素の位置と点の位置は一致しない。しかし、投影処理においてこれらが必ずしも一致する必要はなく、むしろ、一致しないことにより、点と点を結ぶ線分やポリゴンを複数の異なる色で表現することが可能になる。上記点数の不一致は、例えば、画素データの解像度と深度データの解像度が同一でなく(例えば深度データの方が解像度が低く)、上述のステップS3において低い解像度のデータに合わせて複数の点を生成した場合にも起こる。
部分三次元ポリゴンモデルへのテクスチャの貼り付けを終えると、全体三次元ポリゴンモデル作成部28は、記憶部21から、距離画像センサ11〜14に対応する座標変換行列をそれぞれ読み出す。そして、全ての部分三次元ポリゴンモデルを構成する各点の空間座標を、対応する座標変換行列により共通の空間座標系における空間座標に変換する。これにより、全ての部分三次元ポリゴンモデルが1つの空間座標系に配置され、自動的に部分三次元ポリゴンモデルが統合され、全体三次元ポリゴンモデルが作成される(ステップS8)。そのため、従来のように、オペレータが自ら各部分三次元ポリゴンモデルを回転、移動して結合位置を決めたり、該結合位置において端部データを連結させたりする処理を行う必要がなく、簡便かつ正確に全体三次元ポリゴンモデルを作成することができる。
次に、ノイズ削除部29は、作成された全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除(ノイズであるポリゴン集合体を削除)する(ステップS9)。距離画像センサ11〜14から得られる深度データには距離情報の多少の誤差が含まれていることが多い。こうした誤差を含んだ複数の点で構成されるポリゴン集合体は、被写体を構成する多数のポリゴンから離間して空間に浮遊しており、また該集合体を構成するポリゴンの数も少ない。本実施例の三次元モデル作成方法ではこうしたポリゴン集合体を、構成するポリゴンの数に基づいて機械的に削除するため、従来のようにオペレータが距離情報の誤差を含む点からなるポリゴンを個別に確認して手作業で削除する必要がなく、簡便に全体三次元ポリゴンモデルを作成することができる。
さらに、重複点整理部30は、全体三次元ポリゴンモデルが位置する空間の3軸方向のそれぞれにおいて所定の間隔でグリッドを配置し、空間を微小な立方体に分割する。この所定の間隔は、全体三次元ポリゴンモデルを構成する点の数に応じて適宜に決められる。そして、各立方体の内部に存在する点の数を確認し、1つの立方体内に複数の点が存在する場合にはそれらの平均座標に位置する1つの点に集約する(ステップS10)。これは、部分三次元ポリゴンモデルから全体三次元ポリゴンモデルを作成したときに、隣接する部分三次元ポリゴンモデルの結合領域に存在する重複点を削除する処理である。こうした重複点を削除することにより、ポリゴンが重複して存在する等の見た目の違和感を解消することができ、また必要以上に点数が多くなって処理の負荷が増大することを避けることができる。
次に、全体三次元ポリゴンモデル補正部31が、上記ステップにより作成された全体三次元ポリゴンモデルに穴がないかを確認し、穴が存在する場合にはそれを埋める処理を行う(ステップS11)。この処理は、穴の近傍に位置する点から、穴の内部に適宜の推測点を生成し、生成した点を用いて新たなポリゴンを作成することにより行われる。こうした穴埋め処理は、例えばフォトショップ(アドビ システムズ インコーポレイテッドの登録商標、製品名)の一機能として従来知られている。ただし、フォトショップ等のソフトウェアによりこの穴埋め処理を行うと、穴を埋めるために多数の点が新しく生成され、以降の処理の負荷が増大する場合がある。こうした場合には、上述したポリゴンリダクションにより適宜に点数を減らし、以降の処理における負荷を軽減することが好ましい。また、フォトショップ等のソフトウェアではこの穴埋め処理においてテクスチャ情報が削除されることがある。このような場合には、以降の適宜の段階で、再度、上述したテクスチャ貼り付け処理を行う必要がある(ステップS12)。
以上の各工程により、全体三次元ポリゴンモデルが作成される。
上述のとおり、本実施例の三次元ポリゴンモデル作成方法、作成システム、あるいは作成装置では、複数台の距離画像センサのそれぞれに対応する部分三次元ポリゴンモデルを作成し、座標変換により部分三次元ポリゴンモデルを1つの共通空間座標系に対応した変換部分三次元ポリゴンモデルに変換し、それらを組み合わせて全体三次元ポリゴンモデルに統合する。つまり、座標変換によって自動的に部分三次元ポリゴンモデルを統合して全体三次元ポリゴンモデルを作成することができる。従って、従来のようにオペレータが部分三次元ポリゴンモデルを回転・移動したり端部のデータを組み合わせたりする必要がなく、簡便に全体三次元ポリゴンモデルからなる三次元モデルを作成することができる。
また、全体三次元ポリゴンモデルから、所定数以下のポリゴンが連なって構成されたポリゴン集合体を機械的に削除する。そのため、従来のようにオペレータが距離情報の誤差を含む点からなるポリゴンを個別に確認して手作業で削除する必要がなく、簡便に全体三次元ポリゴンモデルを作成することができる。
次に、上記全体三次元ポリゴンモデルに動きを与えて三次元モデルを作成する手順を説明する。
まず、ボーンデータ生成部32が、ステップS2において生成され記憶部21に保存されたボーンデータを読み出し、全体三次元ポリゴンモデルに重畳する。これにより、静止三次元モデルが得られる。そして、ウエイト設定部33が、全体三次元ポリゴンモデルの各点から骨までの距離に応じたウエイト値を設定する(ステップS13)。このウエイト値は、骨の動きが各点の動きに対してどの程度影響を及ぼすかを表す値であり、骨までの距離が近いほど大きな値に、遠くなるにつれて小さな値に設定される。本実施例では、距離画像センサとしてKinectを用いたため、被写体の撮影時にボーンデータを取得し記憶部21に保存しているが、ボーンデータを生成する機能を有しない距離画像センサを用いる場合には、ボーンデータ生成部32が、全体三次元ポリゴンモデルの輪郭を人間の種々のポーズに対応するボーンデータが保存された適宜のデータベースと照合することにより、新たにボーンデータを生成することができる。
次に、モーションデータ重畳部34は、記憶部21に予め保存されているモーションデータを全て読み出し、その名称や動作例を画面表示して使用者に選択を促す。モーションデータとは、ボーンデータに含まれている骨の動きを規定したデータであり、これにより種々の動作を表現することができる。使用者が1つのモーションデータを選択すると、モーションデータ重畳部34は該モーションデータを上記静止三次元モデルに重畳する(ステップS14)。モーションデータ自体は骨を動かすデータであるが、骨を動かすことに伴って、前述のウエイト値に応じた大きさで静止三次元モデルの各点が移動するため、その結果、全体三次元ポリゴンモデルが所定の動作を行っているように画面上に表示することができる。
次に、このようにして作成される三次元モデルの利用例を説明する。
この利用例は、イベントの主催者が予め用意した、三次元コンピュータグラフィック(3DCG)で作成された仮想現実(VR:Virtual Reality)空間において参加者同士が自らの三次元モデルを介して交流することを可能にするものである。
まず、イベントの参加者は、それぞれ上記実施例の方法により自らの三次元モデルを作成する。そして、イベントの主催者が用意した仮想現実空間にそのデータを転送する。これにより仮想現実空間に各参加者の三次元モデルが取り込まれる。各参加者は、自身の身体動作を入力する入力装置、及びヘッドマウントディスプレイ(HMD)を装着する。身体動作の入力装置には、例えばトレッドミル歩行デバイスがある。これは、デバイスの各所に取り付けられた振動センサにより参加者の身体の各部の動きを検出し、これを統合してモーションデータを生成するものである。あるいは、上述したKinect等のモーションセンサを用いて参加者の身体動作を検出(骨格ジェスチャ検出)することによりモーションデータを生成してもよい。また、ヘッドマウントティスプレイは、仮想現実空間が表示される画面、該仮想現実空間の音声が流れるヘッドフォン、及び参加者の音声を認識するマイクを備えている。
参加者がヘッドマウントディスプレイから取得した仮想現実空間の視覚情報や聴覚情報に反応して身体を動かすと、モーションデータが仮想現実空間内の三次元モデルの動きとなって反映される。そして、仮想現実空間内に取り込まれた三次元モデル同士が所定の距離まで近づくと相互の間で会話が可能となり参加者間の交流が実現する。なお、こうしたイベントは、必ずしも特別にイベント会場を設けて行う必要はなく、ネットワークを介して接続された装置を介して各参加者が仮想現実空間内での交流や疑似体験を楽しむものとすることができる。
次に、実施例1の三次元モデル作成システム1を用いた三次元モデルの作成により得られた知見に基づき、該作成システム1を改良した実施例2の三次元モデル作成システム100について説明する。実施例2では、距離画像センサの台数及び配置と、座標変換行列の取得に係る処理が実施例1と異なるため、これらを中心に説明する。
図3は、実施例2の三次元モデルの作成システム100(以下、単に「作成システム」とも呼ぶ。)の概略構成図である。図1と共通する構成要素については下二桁が共通の符号を付し、適宜説明を省略する。なお、被写体の撮影(ステップS1)からモーションデータの重畳(ステップS14)の各ステップにおける処理は実施例1(図2)と同様であるため説明を省略する。
実施例1の作成システム1では被写***置Pを取り囲むように4台の距離画像センサ11〜14を用いたが、実施例2の作成システム100では12台の距離画像センサ1111〜1112を用いる。距離画像センサ1111〜1122は2台1組で、撮像空間110内で被写***置Pを取り囲む6箇所に配置する。距離画像センサ1111、1112は被写***置Pの正面に、距離画像センサ1117、1118は被写***置Pの背面に配置する。2台1組の距離画像センサのうち、図中の符号が奇数のもの(1111等)は上方から被写体を捉えるように、図中の符号が偶数のもの(1112等)は下方から被写体を捉えるように、支柱160の上下に取り付けられる(図3の右上図参照)。実施例2の距離画像センサ1111〜1122は実施例1と同じくKinectであるが、撮像データと深度データを取得可能なものであれば他のセンサを用いてもよい。
実施例2では、距離画像センサ1111(被写体正面上方に位置する距離画像センサ)及び1118(被写体背面下方に位置する距離画像センサ)により被写体のボーンデータを取得する。また、距離画像センサ1111〜1122により被写体の撮像データと深度データを取得する。実施例2では、実施例1よりも多くの距離画像センサ1111〜1122を用い、それらを実施例1の距離画像センサ11〜14よりも被写***置Pに近づけて配置し、撮像データと深度データを取得する。これにより、各距離画像センサが捉える被写体の範囲を実施例1よりも狭くして、撮像データの解像度(位置分解能)を高めている。また、実施例1よりも各距離画像センサ1111〜1122から被写体までの距離が短くなるため、深度データの精度も向上する。さらに、撮像空間110を実施例1よりもコンパクトにすることができる。
また、実施例1では被写体が両手を水平に広げ、足を肩幅程度に広げて立つ姿勢(Tポーズと呼ばれる姿勢)で撮像データ及び深度データを取得したが、実施例2では、被写体が両手を斜め下におろした姿勢(Aポーズと呼ばれる姿勢)で撮像データ及び深度データを取得する。距離画像センサの台数を増やすとともに被写体の姿勢をAポーズに変更することで、実施例1よりも死角を減らし、また深度データの精度を高めている。
作成装置120は、記憶部121のほかに、データ受付部122、点座標生成部123、部分三次元ポリゴンモデル作成部124、ポリゴンリダクション部125、背面ポリゴン削除部126、テクスチャ設定部127、全体三次元ポリゴンモデル作成部128、ノイズ削除部129、重複点整理部130、全体三次元ポリゴンモデル補正部131、ボーンデータ生成部132、ウエイト設定部133、及びモーションデータ重畳部134を機能ブロックとして備えている。作成装置120の実体は一般的なパーソナルコンピュータであり、入力部140、及び表示部150が接続されている。また、実施例1と同様に、上記各機能ブロック122〜134は、コンピュータにインストールされた三次元モデル作成用プログラムをCPUに実行させることにより具現化することができる。記憶部121には、次に説明する手順により作成される第1座標変換行列及び第2座標変換行列と、モーションデータが保存されている。
第1座標変換行列及び第2座標変換行列は以下のようにして作成する。
被写体の三次元モデルを作成するに先立ち、12台の距離画像センサ1111〜1122の位置と視野を固定する。実施例1では複数のボールを被写体として用いたが、実施例2では表裏面に異なるARマーカをプリントした薄板200を用いる。例えば、図4(a)に示すARマーカを表面に、図4(b)に示すARマーカを裏面に、それらの四隅A〜Dの位置が表裏面で一致するように貼り付けたものを用いる。
使用者は、この薄板200を立てた状態でその下方(ARマーカが貼り付けられていない位置)を持ち撮像空間110内を移動する。その間、12台の距離画像センサ1111〜1122に、所定の時間間隔(例えば5秒ごと)でARマーカの四隅を自動検知させる。例えば、ある時点では距離画像センサ1111〜1116が薄板200の表面(図4(a)のARマーカ)を捉え、一方、距離画像センサ1117〜1122が薄板200の裏面(図4(b)のARマーカ)を捉えることになる。所定回数(例えば150回)の自動検知を終えると、各時点で取得したARマーカの四隅の位置A〜Dに基づきARマーカの外枠の形状(外形)を確認する。ARマーカの四隅の位置が正しく取得されていれば、この外形は矩形(正方形)であるが、Kinectが発する赤外線が別のKinectが発する赤外線と干渉して深度データに誤差が生じたり、画像処理の精度が悪かったりすることによりARマーカの外形に歪みが生じる。そこで、ARマーカの外形の角部の角度が90度からずれているデータ(例えば±5度以上の歪みが生じているデータ)を削除し、正しい位置情報が得られているもののみを第1座標変換行列の作成に使用する。そして、12台の距離画像センサ1111〜1122のうちの複数台が同じ時点に取得したARマーカの四隅A〜Dの空間座標を照合することにより、12台の距離画像センサ1111〜1122の空間座標系を共通の空間座標系に変換する(例えば距離画像センサ1112〜1122の空間座標系を距離画像センサ1111の空間座標系に変換する)第1座標変換行列を得る。
実施例1で説明したように、この三次元モデル作成システムでは、各距離画像センサで被写体のポイントクラウドを取得し、次いでそのポイントクラウドから部分三次元ポリゴンモデルを作成し、その後に座標変換行列を用いて部分三次元ポリゴンモデルの空間座標系を共通の空間座標系に変換して全体三次元ポリゴンモデルを作成する。従って、部分三次元ポリゴンモデルの空間座標系の変換(全体三次元ポリゴンモデルの作成)には、ポリゴンモデルの空間座標系で作成された座標変換行列を用いる必要がある。
しかし、本発明者が実施例1の作成システム1を用いて確認したところ、距離画像センサとしてKinectを用いた場合、生データであるポイントクラウドと、そのポイントクラウドから生成されるポリゴンデータでは座標軸にずれがあることが分かった。そこで、この座標軸のずれを補正するために、実施例2では第2座標変換行列を用いる。
距離画像センサ1111〜1122について、1台ずつ上記ARマーカを撮影してポイントクラウドを取得し、そのポイントクラウドからポリゴンデータを作成する。そして、ポイントクラウド上でのARマーカの四隅A〜Dの空間座標と、ポリゴンデータにおけるARマーカの四隅A〜Dの空間座標を照合することにより、ポイントクラウドの座標をポリゴンデータの座標に変換する第2座標変換行列を作成する。この第2座標変換行列は距離画像センサ1111〜1122のそれぞれについて作成し、記憶部121に保存しておく。なお、第2座標変換行列を作成する際、実際にデータを取得する距離画像センサは1台のみであるが、他の距離画像センサも動作させておくことが好ましい。被写体のデータを取得する際には全ての距離画像センサを動作させるため、それらから発せられる赤外線の一部が干渉することは避けられない。従って、これと同じ状況下で取得したデータから座標変換行列を作成することにより、赤外線の一部が干渉した状況が加味された、精度の高い第2座標変換行列を得ることができる。
実施例1のステップS8では、距離画像センサ11〜14に対応する座標変換行列を記憶部21から読み出し、各距離画像センサ11〜14で作成された部分三次元ポリゴンモデルを構成する各点の空間座標を共通の空間座標系における空間座標に変換することにより全体三次元ポリゴンモデルを作成した。実施例2では、ポイントクラウドの空間座標系で作成された第1座標変換行列に、ポイントクラウドの座標軸をポリゴンデータの座標軸に変換する第2座標変換行列を演算してポリゴンデータの空間座標系のものに変換する。これにより、Kinectのように、ポイントクラウドのデータの座標軸とポリゴンデータの座標軸にずれがあるような距離画像センサを用いる場合でも、そのずれを補正することができる。従って、より正確に部分三次元ポリゴンモデルの空間座標系を共通の空間座標系に変換し、ずれのない全体三次元ポリゴンモデルを作成することができる。
上記2つの実施例はいずれも一例であって、本発明の趣旨に沿って適宜に変更することができる。
上記実施例では、三次元モデル作成システム1において被写体をその場で撮影し、撮像データ及び深度データを取得して三次元モデル作成装置20に送信する構成としたが、予め取得された撮像データ及び深度データを、該データを取得した距離画像センサの配置データとともに三次元モデル作成装置20に入力し、上記同様の各工程により三次元モデルを作成することもできる。
また、各独立請求項に記載の構成が本発明における必須の構成要件である。上記実施例において説明した各工程及び各構成要素は一例であり、必ずしも本発明を具現化するために上述した全ての工程及び構成要素を備える必要はない。
さらに、必ずしも1台のコンピュータで上記三次元モデル作成装置20を構成する必要はない。例えば、ネットワークを介して接続された複数台のコンピュータに上記三次元モデル作成装置20の機能ブロックを分散配置し、これらを協働させるようにしてもよい。
上記実施例の三次元モデル作成システム1は、例えばプリクラ(株式会社セガゲームス社の登録商標)のように、ゲームセンターや商業施設などに配置して用いることができる。この場合には、例えば利用者から所定の利用料金が投入されることにより三次元モデル作成指示が与えられ、上述の各工程を経て全体三次元ポリゴンモデル、ボーンデータ、及びモーションデータを書き込んだ記録媒体(例えばDVD−ROM)を利用者に提供したり、利用者のスマートフォンやパソコン等の可搬型端末にこれらのデータを転送したりするように構成することができる。これらの可搬型端末に、三次元モデルのデータを読み込み、利用者が自らの三次元モデルを編集してアバターを作成するアプリケーション、該三次元モデルからなる主人公を操作して他の利用者と対戦するネットワーク通信ゲームのアプリケーション、あるいは該三次元モデルに利用者が選んだ服を着せ替えてネットショッピングを楽しむアプリケーションなど、様々なアプリケーションのソフトウェアをインストールしておくことにより、利用者自身の三次元モデルを多様な形態で楽しむことができる。
1、100…三次元モデル作成システム
10、110…撮像空間
11〜14、1111〜1122…距離画像センサ
P…被写***置
16、116…撮影制御部
20、120…三次元モデル作成装置
21、121…記憶部
22、122…データ受付部
23、123…点座標生成部
24、124…部分三次元ポリゴンモデル作成部
25、125…ポリゴンリダクション部
26、126…背面ポリゴン削除部
27、127…テクスチャ設定部
28、128…全体三次元ポリゴンモデル作成部
29、129…ノイズ削除部
30、130…重複点整理部
31、131…全体三次元ポリゴンモデル補正部
32、132…ボーンデータ生成部
33、133…ウエイト設定部
34、134…モーションデータ重畳部
35、135…モーションデータ重畳部
40、140…入力部
50、150…表示部
160…支柱
200…薄板

Claims (11)

  1. a) 被写体を取り囲むように配置した4台以上の距離画像センサのそれぞれにより、被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データを取得する工程と、
    b) 前記4台以上の距離画像センサのそれぞれについて、前記撮像データと前記深度データから複数の点の空間座標を生成する工程と、
    c) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する工程と、
    d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する工程と、
    e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除する工程と
    を含むことを特徴とする三次元モデルの作成方法。
  2. 前記4台以上の距離画像センサの一部が前記被写体を上方から捉えるように配置され、前記4台以上の距離画像センサの別の一部が前記被写体を下方から捉えるように配置されていることを特徴とする請求項1に記載の三次元モデルの作成方法。
  3. f) 前記部分三次元ポリゴンモデルのそれぞれにおいて、前記複数のポリゴンのうち、前記距離画像センサから該ポリゴンの中心点に向かう視線ベクトルと、当該ポリゴンの法線ベクトルがなす角が90度以下であるポリゴンを削除する工程
    を含むことを特徴とする請求項1又は2に記載の三次元モデルの作成方法。
  4. g) 前記全体三次元ポリゴンモデルに、予め用意された、直線で表される複数の骨と、点で表されそれぞれが前記骨を連結する複数の関節とを含む骨格データを組み合わせた静止三次元モデルを作成する工程と、
    h) 前記静止三次元モデルの各点に、該点と前記骨の距離に応じたウエイト値を設定する工程と、
    i) 所定の動作を前記骨と前記関節の動きで表現する動作データを前記静止三次元モデルのデータに重畳し、該動作データと前記ウエイト値に基づいて前記点を移動させる工程と、
    を含むことを特徴とする請求項1〜3のいずれかに記載の三次元モデルの作成方法。
  5. 前記部分三次元ポリゴンモデル及び/又は前記全体三次元ポリゴンモデルのポリゴン数を減少させるポリゴンリダクションを行う工程を含むことを特徴とする請求項1〜4のいずれかに記載の三次元モデルの作成方法。
  6. 前記ポリゴンリダクションが、全てのポリゴンについて当該ポリゴンを代表する点を生成し、該生成した点を用いて新たにポリゴンを生成する処理であることを特徴とする請求項5に記載の三次元モデルの作成方法。
  7. a) 被写体を取り囲むように配置された4台以上の距離画像センサのそれぞれにより取得された、被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データの入力を受け付けるデータ受付部と、
    b) 前記撮像データと前記深度データの各組について複数の点の空間座標を生成する点座標生成部と、
    c) それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
    d) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
    e) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
    を備えることを特徴とする三次元モデル作成装置。
  8. ネットワークを介して相互に接続された、前記距離画像センサと同数のコンピュータによって具現化されていることを特徴とする請求項7に記載の三次元モデル作成装置。
  9. コンピュータを請求項7又は8に記載の三次元モデル作成装置として動作させるための三次元モデル作成用プログラム。
  10. a) 予め決められた被写***置を取り囲むように配置される、それぞれが被写体の二次元画像データである撮像データと、当該距離画像センサから前記被写体までの距離の二次元分布を表す深度データを取得可能である4台以上の距離画像センサと、
    b) 使用者による所定の入力操作に応じて、前記4台以上の距離画像センサのそれぞれにより、前記被写体の撮像データと深度データを取得するデータ取得部と、
    c) 前記4台以上の距離画像センサのそれぞれにより取得した、前記撮像データと前記深度データの各組について複数の点の空間座標を生成する頂点座標生成部と、
    d) 前記4台以上の距離画像センサのそれぞれについて、それぞれが前記複数の点のうち同一平面上に位置する所定個数の点を結ぶことにより作成される、複数のポリゴンの組み合わせからなる部分三次元ポリゴンモデルを作成する部分三次元ポリゴンモデル作成部と、
    e) 各部分三次元ポリゴンモデルを構成する複数の点の空間座標を、対応する距離画像センサと前記被写体の位置関係に基づき予め求められた座標変換によって1つの共通空間座標系に対応する空間座標に変換し、複数の前記部分三次元ポリゴンモデルを1つに統合した全体三次元ポリゴンモデルを作成する全体三次元ポリゴンモデル作成部と、
    f) 前記全体三次元ポリゴンモデルにおいて、所定数以下のポリゴンが連なって構成されたポリゴン集合体を削除するポリゴン集合体削除部と、
    を備えることを特徴とする三次元モデルの作成システム。
  11. 前記4台以上の距離画像センサの一部が前記被写体を上方から捉えるように配置され、前記4台以上の距離画像センサの別の一部が前記被写体を下方から捉えるように配置されていることを特徴とする請求項10に記載の三次元モデルの作成システム。
JP2017028809A 2016-02-26 2017-02-20 三次元モデルの作成方法、三次元モデル作成装置、三次元モデル作成システム、及び三次元モデル作成用プログラム Active JP6348623B2 (ja)

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2016035115 2016-02-26
JP2016035115 2016-02-26

Publications (2)

Publication Number Publication Date
JP2017157208A JP2017157208A (ja) 2017-09-07
JP6348623B2 true JP6348623B2 (ja) 2018-06-27

Family

ID=59809965

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017028809A Active JP6348623B2 (ja) 2016-02-26 2017-02-20 三次元モデルの作成方法、三次元モデル作成装置、三次元モデル作成システム、及び三次元モデル作成用プログラム

Country Status (1)

Country Link
JP (1) JP6348623B2 (ja)

Families Citing this family (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR102005492B1 (ko) * 2017-10-31 2019-07-30 에스케이텔레콤 주식회사 3차원 메쉬 데이터 간소화 방법 및 장치
JP7117914B2 (ja) 2018-06-29 2022-08-15 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020010146A (ja) 2018-07-05 2020-01-16 キヤノン株式会社 画像処理装置、画像処理方法、及びプログラム
JP2020067393A (ja) * 2018-10-25 2020-04-30 株式会社Vrc 三次元モデリングデータ生成装置
CN109685891B (zh) * 2018-12-28 2023-09-01 鸿视线科技(北京)有限公司 一种基于深度图像的建筑物三维建模与虚拟场景生成方法及***
CN113112608A (zh) * 2021-04-20 2021-07-13 厦门汇利伟业科技有限公司 一种从物体图形自动建立三维模型的方法
CN116188714B (zh) * 2023-04-27 2023-07-21 山东翰林科技有限公司 基于虚幻引擎的地理空间坐标处理方法

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3658038B2 (ja) * 1995-04-20 2005-06-08 キヤノン株式会社 3次元形状データ統合方法及びその装置と3次元画像処理方法
JPH10149445A (ja) * 1996-11-19 1998-06-02 Image Joho Kagaku Kenkyusho 身体動作解析可視化装置
JP2006064453A (ja) * 2004-08-25 2006-03-09 Fuji Xerox Co Ltd 3次元形状入力装置および方法
JP5120926B2 (ja) * 2007-07-27 2013-01-16 有限会社テクノドリーム二十一 画像処理装置、画像処理方法およびプログラム
JP6207210B2 (ja) * 2013-04-17 2017-10-04 キヤノン株式会社 情報処理装置およびその方法
JP3195609U (ja) * 2014-11-10 2015-01-29 株式会社イノベ−ション・アイ 3dモデル作成装置

Also Published As

Publication number Publication date
JP2017157208A (ja) 2017-09-07

Similar Documents

Publication Publication Date Title
JP6348623B2 (ja) 三次元モデルの作成方法、三次元モデル作成装置、三次元モデル作成システム、及び三次元モデル作成用プログラム
CN105354820B (zh) 调整虚拟现实图像的方法及装置
US10109113B2 (en) Pattern and method of virtual reality system based on mobile devices
JP6329343B2 (ja) 画像処理システム、画像処理装置、画像処理プログラム、および画像処理方法
JP7349793B2 (ja) 画像処理装置および画像処理方法、プログラム
JP5966256B2 (ja) 画像処理装置および方法、プログラム、並びに記録媒体
WO2019123729A1 (ja) 画像処理装置、画像処理方法、およびプログラム
JPWO2017094543A1 (ja) 情報処理装置、情報処理システム、情報処理装置の制御方法、及び、パラメーターの設定方法
JP2002058045A (ja) 現実の物体をバーチャル3次元空間に登場させるためのシステム及び方法
JP2018528509A (ja) 投影イメージ生成方法およびその装置、イメージピクセルと深度値との間のマッピング方法
JP2008033531A (ja) 情報処理方法
JP2006249618A (ja) 仮想試着装置
JP7073481B2 (ja) 画像表示システム
WO2010038693A1 (ja) 情報処理装置、情報処理方法、プログラム及び情報記憶媒体
KR20170044318A (ko) 헤드 마운트 디스플레이를 이용한 협업 방법
KR20220092998A (ko) 공유된 인공 현실 환경에서 동일 장소에 위치된 포즈 추정
JP2019145059A (ja) 情報処理装置、情報処理システム、情報処理方法及びプログラム
JP6775669B2 (ja) 情報処理装置
JP2022131777A (ja) 情報処理装置、それを含むシステム、情報処理方法およびプログラム
JP2020071718A (ja) 情報処理装置、情報処理方法及びプログラム
JP5759439B2 (ja) 映像コミュニケーションシステム及び映像コミュニケーション方法
WO2018173205A1 (ja) 情報処理システム、その制御方法、及びプログラム
US20230164304A1 (en) Communication terminal device, communication method, and software program
JP2019057070A (ja) 画像処理装置、画像処理方法、およびプログラム
WO2018173206A1 (ja) 情報処理装置

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180426

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20180522

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20180531

R150 Certificate of patent or registration of utility model

Ref document number: 6348623

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250