JP7460532B2 - システム、方法及び装置 - Google Patents

システム、方法及び装置 Download PDF

Info

Publication number
JP7460532B2
JP7460532B2 JP2020551206A JP2020551206A JP7460532B2 JP 7460532 B2 JP7460532 B2 JP 7460532B2 JP 2020551206 A JP2020551206 A JP 2020551206A JP 2020551206 A JP2020551206 A JP 2020551206A JP 7460532 B2 JP7460532 B2 JP 7460532B2
Authority
JP
Japan
Prior art keywords
marker
imaging device
dimensional
image
relative position
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020551206A
Other languages
English (en)
Other versions
JPWO2020075768A5 (ja
JPWO2020075768A1 (ja
Inventor
叡一 松元
博則 吉田
大晴 加藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Preferred Networks Inc
Original Assignee
Preferred Networks Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Preferred Networks Inc filed Critical Preferred Networks Inc
Publication of JPWO2020075768A1 publication Critical patent/JPWO2020075768A1/ja
Publication of JPWO2020075768A5 publication Critical patent/JPWO2020075768A5/ja
Application granted granted Critical
Publication of JP7460532B2 publication Critical patent/JP7460532B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • G06T17/20Finite element generation, e.g. wire-frame surface description, tesselation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T17/00Three dimensional [3D] modelling, e.g. data description of 3D objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T19/00Manipulating 3D models or images for computer graphics
    • G06T19/006Mixed reality
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/50Depth or shape recovery
    • G06T7/55Depth or shape recovery from multiple images
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2200/00Indexing scheme for image data processing or generation, in general
    • G06T2200/08Indexing scheme for image data processing or generation, in general involving all processing steps from image acquisition to 3D model generation
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10016Video; Image sequence
    • G06T2207/10021Stereoscopic video; Stereoscopic image sequence
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10024Color image
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10028Range image; Depth image; 3D point clouds
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/10Image acquisition modality
    • G06T2207/10141Special mode during image acquisition
    • G06T2207/10152Varying illumination
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30204Marker
    • G06T2207/30208Marker matrix

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Software Systems (AREA)
  • Computer Graphics (AREA)
  • Geometry (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Computer Hardware Design (AREA)
  • General Engineering & Computer Science (AREA)
  • Length Measuring Devices By Optical Means (AREA)
  • Image Input (AREA)
  • Image Analysis (AREA)

Description

本開示は、システム、方法及び装置に関する。
従来、物体を走査して、この物体の三次元モデルを生成するための三次元走査手法が知られている。例えば特許文献1には、回転テーブルに走査対象物を載置して、回転テーブルを回転させつつカメラで対象物の複数の向きの画像を撮影し、撮影した画像を合成して対象物の三次元モデルを生成する手法が開示されている。
特表2017-532695号公報
本開示は、新規な三次元走査手法を提供することを目的とする。
本発明の実施形態の一観点に係るシステムは、
複数の二次元画像から、三次元表現を生成するシステムであって、
三次元表現が生成される物体を撮影する撮像装置と、
前記物体が載置される支持部と、
前記支持部と前記撮像装置とを相対的に回転させる回転装置と、
前記物体の三次元表現を生成する際に用いられる情報である前記撮像装置の相対位置を算出するためのマーカーと、を有し、
前記撮像装置は、前記物体及び前記マーカーを前記物体及び前記マーカーの下方から撮影することで前記物体及び前記マーカーを含む二次元画像を取得し、前記撮像装置の相対位置は、少なくとも、前記二次元画像に含まれる前記マーカーの画像に基づいて算出され、前記物体の三次元表現は、少なくとも、前記二次元画像に含まれる前記物体の画像と、前記算出された相対位置と、に基づいて生成され
前記マーカーは、前記物体に対する前記撮像装置の相対位置が算出できるように前記撮像装置によって前記物体とともに撮影される位置に配置される
同様に、本発明の実施形態の一観点に係る方法は、
複数の二次元画像から、三次元表現を生成する方法であって、
三次元表現が生成される物体が載置される支持部と、前記物体を撮影する撮像装置とを回転装置によって相対的に回転させる処理と、
前記物体及びマーカーをそれぞれに含む、複数の撮影方向による二次元画像を取得するために、前記撮像装置を用いて、前記物体及び前記マーカーの下方且つ複数の異なる方向から前記物体及び前記マーカーを撮影する処理と、
少なくとも、前記複数の撮影方向による二次元画像に含まれる前記物体の複数の撮影方向による画像と、算出された前記撮像装置の相対位置であって、少なくとも、前記複数の撮影方向による二次元画像に含まれる前記マーカーのそれぞれの画像に基づいて算出された相対位置とに基づいて生成された前記物体の三次元表現を取得する処理とを有し、
前記マーカーは、前記物体に対する前記撮像装置の相対位置が算出できるように前記撮像装置によって前記物体とともに撮影される位置に配置される
本開示によれば、新規な三次元走査手法を提供することができる。
実施形態に係る三次元走査装置の概略構成を示す模式図である。 図1中の支持台の下面側を示す模式図である。 実施形態に係る三次元走査装置により実施される三次元走査処理の手順を示すフローチャートである。 三次元走査処理において生成される三次元モデルの一例を示す図である。 実施形態の変形例に係る三次元走査装置の概略構成を示す図である。
以下、添付図面を参照しながら実施形態について説明する。説明の理解を容易にするため、各図面において同一の構成要素に対しては可能な限り同一の符号を付して、重複する説明は省略する。
各図において、x方向、y方向、z方向は互いに垂直な方向である。z方向は支持台2の回転軸の方向であり、典型的には鉛直方向である。z正方向側を上側、z負方向側を下側と表記する。x方向及びy方向は支持台2の上面2Aの延在方向であり、典型的には水平方向である。なお、本実施形態で用いる「垂直方向」、「鉛直方向」、「水平方向」等の用語は、各用語が対応する一方向と、当該一方向を含む所定範囲内の方向とを含む。
図1、図2を参照して、実施形態に係る三次元走査装置1の構成を説明する。図1は、実施形態に係る三次元走査装置1の概略構成を示す模式図である。図2は、図1中の支持台2の下面2B側を示す模式図である。
三次元走査装置1は、走査対象物10を走査して、撮像した走査対象物10の複数の画像データを合成して三次元モデルを生成する装置である。走査対象物10としては、例えば図1に例示されるコップなどの器状の物体の他、支持台2のARマーカー6の内部に載置可能なサイズの任意の形状の物体を含む。また、走査対象物10の走査方向は、例えばz方向を中心軸とする周方向である。なお、走査対象物10は、支持台2のARマーカー6の内部に載置可能なサイズに限られない。
図1に示すように、三次元走査装置1は、支持台2(支持部)と、上部カメラ3A,3B(第2の画像センサ)と、下部カメラ4A,4B(第1の画像センサ)と、回転部5と、ARマーカー6(相対位置指標部)と、制御装置7と、照明8A、8Bと、を備える。
支持台2は、走査対象物10を載置し、また、載置された走査対象物10を回転させる台座である。支持台2は、例えばアクリル板などの透明板である。この透明板の上面2Aは、走査対象物10が載置される載置面である。また、支持台2は透明板であるので、図2に示すように載置面の裏側となる下面2Bからも、上面2Aに載置された走査対象物10を撮像(以下、視認とも言う)可能となっている。なお、支持台2は、下面2B側から走査対象物10が撮像または走査対象物10の情報が取得可能であればよく、半透明、または一定程度透過する材料でもよい。
上部カメラ3A,3Bは、支持台2の上面2A側に設置され、載置面2Aに対する斜め上方向から走査対象物10に向けられて走査対象物10を撮像可能となっている。上部カメラ3A,3Bは、異なる傾斜角度でそれぞれ設置される。なお、本実施形態において「載置面2Aに対する斜め上方向」とは、載置面2Aより上側、かつ、支持台2の、走査対象物10が載置される中央部における垂直な軸より外縁側の方向である。つまり、本実施形態の上部カメラ3A、3Bはそれぞれ走査対象物10の直上または真横以外の方向から情報を取得する。
下部カメラ4A,4Bは、支持台2の下面2B側に設置され、載置面2Aに対する斜め下方向から走査対象物10に向けられて走査対象物10を撮像可能となっている。下部カメラ4A,4Bは、異なる傾斜角度でそれぞれ設置される。なお、本実施形態において、「載置面2Aに対する斜め下方向」とは、支持台2の下面2Bより下側、かつ、支持台2の中央部における垂直な軸より外縁側の方向である。つまり、本実施形態の下部カメラ4A、4Bはそれぞれ走査対象物10の直下以外の方向から情報を取得する。
上部カメラ3A,3B及び下部カメラ4A,4Bは、走査対象物10を撮像する画像センサの一例である。上部カメラ3A,3B及び下部カメラ4A,4Bは、例えばRGB-Dカメラであり、走査対象物10のRGB画像と深度画像とを撮像できる。深度画像は、走査対象物10までの奥行き情報(深度)を含む。なお、以下では、上部カメラ3A,3Bを纏めて「上部カメラ3」、下部カメラ4A,4Bを纏めて「下部カメラ4」とも表記する。
本実施形態では、「画像センサ」とは、走査対象物10のRGB画像や深度画像を撮像できる要素を意味するものであり、RGB―Dカメラや深度カメラなどのカメラ装置全体や、カメラ装置に内蔵されるCMOSセンサや深度センサなどのセンサ類や、単体で用いられるセンサを包含するものである。また、「画像センサ」は、レーザスキャナによる点群情報を取得する構成でもよい。
本実施形態の回転部5は、支持台2の略中央を中心として支持台2を回転させる。回転部5の機構は既存の動力伝達系を用いることができる。例えば回転部5はモータとギヤ機構とを有し、モータの駆動力がギヤ機構を介して支持台2の回転軸に伝達されるように構成されてもよいし、または、支持台2の外縁部に駆動力を付与して支持台2を回転させる構成でもよい。
ARマーカー6は、走査対象物10と上部カメラ3A,3B及び下部カメラ4A,4Bとの相対位置を示す指標の一例である。本実施形態において、ARマーカー6は、支持台2の上面2A及び下面2Bの走査対象物10の載置位置の周囲に配置される。
ARマーカー6は、画像認識型AR(Augmented Reality:拡張現実感)システムにおいて、標識となる決まったパターンの画像をいう。ARマーカー6は、通常は矩形で、白黒2色の二次元ビットパターンになっており、単純な画像認識でマーカーIDを認識出来るものである。本実施形態においては、ARマーカー6は平面のものを使用し、カメラに写った時の歪み具合など、その形状からカメラに対する距離、角度などを計算する、また、取得した情報から、マーカーの位置に3DCGなどを表示するような使い方で用いられる。
本実施形態でも、図1に例示するように、ARマーカー6は矩形状の平面ビットパターンである。走査対象物10の周囲に配置される複数のARマーカー6は、それぞれ別のビットパターンであり、例えば回転方向の基準位置となる基準マーカー6A,6Bからの回転角度の情報が記録されている。基準マーカー6A,6Bは、それぞれ上面2A及び下面2Bに配置されるARマーカー群の基準位置のマーカーであり、それぞれの周方向の位置は略同一である。
制御装置7は、三次元走査装置1の動作を制御する。本実施形態の制御装置7は、上部カメラ3A,3B及び下部カメラ4A,4Bによる走査対象物10の走査を制御する。また、制御装置7は、走査で得られた撮像データに基づき走査対象物10の三次元モデルを生成する。制御装置7は、これらに関する機能として、撮像制御部71と、相対位置算出部72と、モデル生成部73とを有する。
本実施形態の撮像制御部71は、回転部5による回転中に上部カメラ3A,3B及び下部カメラ4A,4Bにより走査対象物10を走査して複数の画像(本実施形態ではRGB画像と深度画像)を撮像するように、回転部5、上部カメラ3A,3B及び下部カメラ4A,4Bの動作を制御する。
本実施形態の相対位置算出部72は、上部カメラ3A,3B及び下部カメラ4A,4Bにより撮像された画像内のARマーカー6の画像に基づき、撮像制御部71により撮像された複数の画像情報のそれぞれと対応する、走査対象物10と上部カメラ3A,3B及び下部カメラ4A,4Bとの相対位置の情報を算出する。ここで相対位置とは、各カメラの座標情報の他にも各カメラの光軸の傾きなどの姿勢情報も含む。
本実施形態のモデル生成部73は、撮像制御部71により撮像された複数の画像情報と、相対位置算出部72に基づき算出された相対位置の情報とに基づき、走査対象物10の三次元モデルを生成する。
制御装置7の一部又は全部は、任意のハードウェア、ソフトウェア、或いはそれらの組み合わせにより実現されてよい。制御装置7は、例えば、CPU(Central Processing Unit)などの1又は複数のプロセッサ、RAM(Random Access Memory)、ROM(Read Only Memory)、補助記憶装置、I/O(Input-Output interface)等を含むマイクロコンピュータを中心に構成されてよく、ROMや補助記憶装置等に格納される各種プログラムをプロセッサ上で実行することにより上記の各種機能が実現される。
制御装置7は、上述の構成要素のうち同じ構成要素を複数備えていてもよい。また、制御装置7は、例えば1台のコンピュータで実現されてもよいし、ソフトウェアが複数台のコンピュータにインストールされて、当該複数台のコンピュータそれぞれがソフトウェアの同一の又は異なる一部の処理を実行してもよい。この場合、コンピュータそれぞれがネットワークインタフェース等を介して通信して処理を実行する分散コンピューティングの形態であってもよい。つまり、制御装置7は、1又は複数の記憶装置に記憶された命令を1台又は複数台のコンピュータが実行することで機能を実現するシステムとして構成されてもよい。また、端末から送信された情報をクラウド上に設けられた1台又は複数台のコンピュータで処理し、この処理結果を端末に送信するような構成であってもよい。
または、制御装置7は、CPU又はGPU等が実行するソフトウェア(プログラム)の情報処理で構成されてもよい。ソフトウェアの情報処理で構成される場合には、前述した実施形態における各装置の少なくとも一部の機能を実現するソフトウェアを、フレキシブルディスク、CD-ROM(Compact Disc-Read Only Memory)、又はUSB(Universal Serial Bus)メモリ等の非一時的な記憶媒体(非一時的なコンピュータ可読媒体)に収納し、コンピュータに読み込ませることにより、ソフトウェアの情報処理を実行してもよい。また、通信ネットワークを介して当該ソフトウェアがダウンロードされてもよい。さらに、ソフトウェアがASIC(Application Specific Integrated Circuit)、又はFPGA(Field Programmable Gate Array)等の回路に実装されることにより、情報処理がハードウェアにより実行されてもよい。
ソフトウェアを収納する記憶媒体の種類は限定されるものではない。記憶媒体は、磁気ディスク、又は光ディスク等の着脱可能なものに限定されず、ハードディスク、又はメモリ等の固定型の記憶媒体であってもよい。また、記憶媒体は、コンピュータ内部に備えられてもよいし、コンピュータ外部に備えられてもよい。
本実施形態の照明8A,8Bは、それぞれ支持台2の上面2A側、下面2B側に配置され、走査対象物10に光をあてる。照明8A,8Bは、特に上部カメラ3A,3B及び下部カメラ4A,4Bにより撮像された画像内において走査対象物10の表面の陰影が無くなるように、上部カメラ3A,3B及び下部カメラ4A,4Bの設置位置に応じて配置される。
次に図3、図4を参照して実施形態に係る三次元走査方法を説明する。図3は、実施形態に係る三次元走査装置1により実施される三次元走査処理の手順を示すフローチャートである。図4は、三次元走査処理において生成される三次元モデルの一例を示す図である。図3のフローチャートの処理は制御装置7により実施される。
ステップS1では、まず走査対象物10が支持台2の上面2Aに載置される。走査対象物10の載置位置は、支持台2の回転中心を含むことが好ましい。本実施形態では、図1に示すように上面2Aは略円形状であり、複数のARマーカー6が所定の間隔で上面2Aの外縁と略同心円状に並ぶように配置されるので、走査対象物10の載置位置は上面2Aの中心位置であるのが好ましい。
ステップS2では、制御装置7の撮像制御部71により、回転部5が駆動されて支持台2の回転動作が開始される。
ステップS3(撮像ステップ)では、撮像制御部71により、上部カメラ3A,3B及び下部カメラ4A,4Bが作動されて、回転中の走査対象物10が上下両側から撮像され、上部カメラ3A,3B及び下部カメラ4A,4BからRGB画像と深度画像が取得される。撮像制御部71は、走査対象物10が回転しているときに上部カメラ3A,3B及び下部カメラ4A,4Bの撮像を同一タイミングで実行させ、これにより例えば図4の上段に示すように、走査対象物10が任意の回転角度の位置にあるときの各カメラのRGB画像I1~I4を同時に取得することができる。また、このとき撮像制御部71は、各カメラの深度画像D1~D4も併せて取得する。深度画像D1~D4は、例えば図4の中段に示すように各画素におけるカメラから走査対象物10の表面までの距離に応じて色分けされた点群で表現される。図4の例では、深度画像D1~D4は、遠距離であるほど暗く、近距離であるほど明るく表現されている。
撮像制御部71は、ステップS3では回転部5が走査対象物10を一回転させる間、撮像を継続して画像を取得する。これにより、上部カメラ3A,3B及び下部カメラ4A,4Bは、載置面2Aに対してそれぞれ別の角度で傾斜した方向から、回転方向に沿った複数の位置で走査対象物10を撮像して、各位置のRGB画像I1~I4及び深度画像D1~D4を取得できる。つまり、撮像制御部71は、走査対象物10を複数のカメラを用いて複数の方向から同時に走査することができる。撮像制御部71は、取得した画像を相対位置算出部72、モデル生成部73に出力する。
ステップS4では、撮像制御部71により、回転部5が停止されて支持台2の回転動作が停止される。
ステップS5(相対位置算出ステップ)では、制御装置7の相対位置算出部72により、RGB画像I1~I4中のARマーカー6の画像に基づき、走査対象物10に対する上部カメラ3A,3B及び下部カメラ4A,4Bの相対位置が算出される。
上部カメラ3Aを例としてステップS5の相対位置算出過程を説明すると、相対位置算出部72は、例えば、RGB画像I1に映っている指標であるARマーカー6に記録されている情報を読み取り、当該マーカーに応じた基準マーカー6Aに対する回転角度を検出する。また、ARマーカー6は本実施形態では矩形状のビットパターンであるので、このARマーカー6の画像中での歪み具合など形状の変化に応じて、このARマーカー6に対する上部カメラ3Aの距離や角度を算出する。そしてこれらの情報を統合して、走査対象物10に対する上部カメラ3Aの相対位置を算出できる。図7に示すように、RGB画像I1に複数のARマーカー6が映っている場合には、各マーカー6ごとに相対位置を算出して、例えば平均をとるなど、これらの算出された複数の相対位置の情報に基づいて最終的な上部カメラ3Aの相対位置の情報を算出してよい。なお、他の上部カメラ3B、下部カメラ4A,4Bの相対位置の算出手法も上記と同様である。相対位置算出部72は、算出した相対位置情報をモデル生成部73に出力する。
ステップS6(モデル生成ステップ)では、制御装置7のモデル生成部73により、ステップS5にて算出した、走査対象物10に対する上部カメラ3A,3B及び下部カメラ4A,4Bの相対位置の情報に基づいて、ステップS3にて取得された回転方向の各位置の走査対象物10の深度画像D1~D4が合成され、走査対象物10の三次元モデルが生成される。例えば図4の下段に示すように、深度画像D1~D4に基づき三次元のメッシュモデルを作成して、その表面にRGB画像I1~I4に基づいて作成したテクスチャを貼り付けて、模様や色のついた三次元モデルを生成することができる。モデル生成部73は、生成した三次元モデルの情報を制御装置7のROMや補助記憶装置等に格納できる。ステップS6の処理が完了すると本制御フローは終了する。
なお、ステップS5、S6の各処理は、ステップS3にて取得された回転方向の各位置の走査対象物10のRGB画像I1~I4及び深度画像D1~D4を用いて纏めて実行してもよい。つまり、制御装置7の相対位置算出部72とモデル生成部73の機能を統合してもよい。
次に本実施形態に係る三次元走査装置1の効果を説明する。
例えば特許文献1に記載される従来の三次元スキャナでは、走査対象物の三次元モデルを生成するためには、載置台にさまざまな向きに対象物を置き換えて繰り返し走査を行う必要があった。これに対して、本実施形態の三次元走査装置1は、走査対象物10が載置される支持台2の上面2A側に設置され、載置面に対する斜め方向から走査対象物10を撮像する上部カメラ3A,3Bと、支持台2の下面2B側に設置され、載置面に対する斜め方向から走査対象物10を撮像する下部カメラ4A,4Bと、を備える。そして、制御装置7の撮像制御部71により、支持台2が回転して走査対象物10が回転している間に、上部カメラ3A,3B及び下部カメラ4A,4Bを用いて走査対象物10を別の方向から纏めて走査して複数の画像を撮像する。
この構成により、走査対象物10を載置面に1回載置して、走査対象物10を1回転させるだけで、走査対象物10の上下方向、特に情報量が多く取得できる斜め方向から全周に亘る画像を一度に纏めて撮像できるので、従来の三次元スキャナのように載置台に様々な姿勢で対象物を置き直して走査する作業が不要となり、スキャン時間を大幅に短縮でき、多量の画像情報を短時間で効率良く撮像できる。したがって、本実施形態の三次元走査装置1は、モデル生成に用いる走査対象物10の画像情報をより高速に取得できるので、より高速で三次元モデルを生成できる。また、走査対象物10を支持台2の中央付近(少なくともARマーカー6より中心側)に載置するだけで走査可能であり、走査対象物10の設置位置を厳密に決める必要がなく、また、走査対象物10を固定する必要もないので、より簡易に走査とモデル生成を実施できる。この結果、本実施形態の三次元走査装置1は、より簡易かつ高速に全方向三次元モデルを生成できる。
また、本実施形態の三次元走査装置1では、上部カメラ3A,3B及び下部カメラ4A,4BはRGB-Dカメラであり、すなわち深度カメラを含み、上部カメラ3A,3B及び下部カメラ4A,4Bにより撮像される画像情報は、深度カメラにより取得された走査対象物10までの奥行き情報(深度)を含む。これにより、走査画像からモデル生成を行う際に、走査対象物10の深度を走査画像から直接取得でき、走査画像を用いて走査対象物10の表面までの深度を算出する処理が不要となるので、モデル生成処理の計算コストを軽減できる。この結果、本実施形態の三次元走査装置1は、三次元モデルの生成をより一層高速化できる。
また、本実施形態の三次元走査装置1では、支持台2の上面2A及び下面2Bの走査対象物10の載置位置の周囲に配置されるARマーカー6を相対位置指標部として用いる。相対位置算出部72は、上部カメラ3A,3B及び下部カメラ4A,4Bにより撮像されたRGB画像I1~I4内のARマーカー6の画像に基づき、走査対象物10と各カメラとの相対位置を算出する。
走査対象物10と各カメラとの相対位置は、例えばエンコーダで支持台2の回転角度を計測するなど、走査対象物10の回転角度を実測する構成要素を用いても取得可能である。ただし、エンコーダなどの何らかの角度検出用のセンサ類を別途設ける必要がある。これに対して本実施形態では上記構成により、撮像画像から走査対象物10と各カメラとの相対位置を算出できるので、角度検出用のセンサ類を別途設ける必要がなく、簡易な構成で相対位置を求めることができる。
また、本実施形態において、上面2AのARマーカー6のうち基準位置となる基準マーカー6Aと、下面2BのARマーカー6のうち基準位置となる基準マーカー6Bとが設けられ、これらが図1、図2に示すように周方向の略同一位置に配置される。これにより、上面2A側の上部カメラ3A,3Bの画像情報と、下面2B側の下部カメラ4A,4Bの画像情報で基準位置が共通化されるので、相対位置算出部72により算出される相対位置も、上部カメラ3A,3Bの画像から算出されたものと、下部カメラ4A,4Bの画像から算出されたもので共通化できる。これにより、上面2A側の画像情報と下面2B側の画像情報とを、周方向の位置合わせをすることなく、そのまま合成できる。これにより、モデル生成過程の計算コストをさらに軽減でき、三次元モデルの生成をより一層高速化できる。また、カメラ画像にARマーカー6が映っていれば、カメラの設置位置を厳密に決めなくても相対位置を算出可能なので、上部カメラ3A,3B及び下部カメラ4A,4Bのキャリブレーションが不要となり、装置の移動や設置を容易にできる。
また、本実施形態の三次元走査装置1では、支持台2はアクリル板などの透明板であるので、裏側の下面2B側からも下部カメラ4A,4Bによる走査対象物10を撮像できる。
また、本実施形態の三次元走査装置1では、上部カメラ3A,3B及び下部カメラ4A,4Bは、斜め方向の角度が異なる複数のカメラ(図1では2台ずつ)を含むので、より多量の画像情報をモデル生成に用いることができ、三次元モデルの生成精度をより一層向上できる。ここで、「斜め方向の角度が異なる」とは、上部カメラ3A,3Bの場合、支持台2の上面2Aの中央の回転中心から、斜め上方向の各カメラの位置までを結ぶ線分の上面2Aに対する角度が、上部カメラ3Aと上部カメラ3Bとで異なることを意味する。下部カメラ4A,4Bの場合、支持台2の下面2Bの中央の回転中心から、斜め下方向の各カメラの位置までを結ぶ線分の下面2Bに対する角度が、下部カメラ4Aと下部カメラ4Bとで異なることを意味する。
また、本実施形態の三次元走査装置1では、それぞれ支持台2の上面2A側、下面2B側に配置され、走査対象物10に光をあてる照明8A,8Bを備えるので、各カメラの撮像画像内において走査対象物10の表面の陰影を低減でき、また表面の色合いも均一化できる。これにより、生成された三次元モデルの表面性状をより実物に近いものにできる。
図5を参照して変形例を説明する。図5は、実施形態の変形例に係る三次元走査装置1Aの概略構成を示す図である。図5に示すように、上部カメラ3、下部カメラ4の他に、支持台2の上面2A上の走査対象物10の載置位置から載置面の法線方向の位置、すなわち鉛直上方(z軸正方向)に設置される真上カメラ13(第3の画像センサ)と、支持台2の下面2Bから法線方向と反対方向、すなわち鉛直下方(z軸負方向)の位置に設置される真下カメラ14(第4の画像センサ)を備える構成でもよい。真上カメラ13及び真下カメラ14も、上部カメラ3及び下部カメラ4と同様にRGB-Dカメラであるのが好ましい。
このように真上カメラ13及び真下カメラ14を備える構成とすることで、例えば走査対象物10がコップなど深い窪みを有する物体など、斜め方向からの画像では内側底面が見えにくい形状であっても、真上や真下からの撮像画像で確実に映すことができる。これにより、走査対象物10の表面の死角をさらに低減でき、三次元モデルの生成精度を向上できる。
上記実施形態では、走査対象物10と上部カメラ3A,3B及び下部カメラ4A,4Bとの相対位置に係る指標の一例として、走査対象物10の周囲に周方向位置に応じた複数のARマーカー6を配置する構成を例示したが、例えば二次元バーコードなどの他のパターンを用いてもよい。また、M系列などの疑似乱数系列を利用して回転角度に応じた環状のパターンを設けてもよい。
上記実施形態では、走査対象物10の周囲に全周に亘って略均等な間隔で複数のARマーカー6を配置する構成を例示したが、上部カメラ3A,3B及び下部カメラ4A,4Bの撮像画像に少なくとも1つのARマーカー6が入ればよく、複数のARマーカー6を配置する場合は異なる間隔を空けて配置してもよい。
上記実施形態では、RGB画像中のARマーカー6の画像に基づき走査対象物10と上部カメラ3A,3B及び下部カメラ4A,4Bとの相対位置を算出する構成を例示したが、例えば回転部5や支持台2の回転軸にエンコーダを設けて回転角度を計測して、計測した回転角度を相対位置指標部として利用して相対位置を算出してもよい。
上記実施形態では、回転部5が支持台2を回転させる構成を例示したが、回転部5は、支持台2と上部カメラ3A,3B及び下部カメラ4A,4Bとを相対的に回転することができればよく、実施形態とは異なり支持台2を固定し、上部カメラ3A,3B及び下部カメラ4A,4Bを支持台2のまわりで回転させる構成でもよい。その場合の回転中心、回転軸は、カメラを回転させる装置により定められる。
上記実施形態では、上部カメラ3A,3B及び下部カメラ4A,4Bが2台ずつの構成を例示したが、少なくともそれぞれ1台ずつあればよい。また、3台以上の複数台でもよい。設置台数が増えるほど三次元モデルの精度を向上できる。
上記実施形態では、上部カメラ3A,3B及び下部カメラ4A,4BがRGB-Dカメラであり、RGB画像と深度画像とを撮像できる構成を例示したが、上部カメラ3A,3B及び下部カメラ4A,4BをRGBカメラにして、RGB画像のみを撮像する構成でもよい。この場合、モデル生成部73は、例えば同一のカメラで異なる回転角度で撮像した複数のRGB画像を用いて、走査対象物の深度情報を算出することができる。
本実施形態には、さらに三次元モデルの生成を補助するレンダラーを備えるレンダリング部を備えてもよい。このようなレンダリング部を備えることで、より精密な三次元モデルを生成することができる。また、レンダラーを用いることで、三次元モデルを構成する際に利用する一部の情報(例えば深度情報)を代替とできる場合がある。また、このレンダラーを、学習済みの機械学習モデルを用いて構成することで、より三次元モデルの精度を向上できる。レンダリング部は、モデル生成部73が三次元モデルを生成した後に当該三次元モデルを修正してもよく、モデル生成部73が三次元モデルを生成完了する前にレンダリングを行ってもよい。
上記実施形態では、アクリル板などの透明板からなる支持台2の上面2Aを載置面とする構成、つまり、載置面の剛性が走査対象物10のものより高く、載置面が平板状の構成を例示したが、少なくとも載置面の裏側からも走査対象物10を撮像(視認)可能でかつ載置面がカメラに映りづらいものであればよい。つまり、部材の透明度は走査対象物10の情報の取得が適切に可能な程度であればよい。その物体を通しては走査対象物10が撮像が不可能な部材ではあるが、部材の間の隙間から走査対象物10が撮像が可能な、穴が開けられた板やネット等の部材であってもよい。また、例えばフィルム、ビニール、ネット、液体等の形状が可変な材料が入った袋状の部材など、剛性が走査対象物10より低いものを載置面としてもよい。つまり、載置された走査対象物10の形状に応じて載置面が変形可能な構成でもよい。これにより、走査対象物10が、例えばぬいぐるみなど、柔らかくアクリル板に載せると接触部分が平らに変形するような物体の場合でも、載置面への載置時の走査対象物10の変形を抑えることができるので、外力による変形が少ない状態の三次元モデルを生成できる。このような三次元モデルができると、例えば走査対象物10の三次元モデルを走査時とは異なる姿勢でも違和感なく使用することができ、三次元モデルの汎用性を向上できる。また、支持台2が透明板以外の場合には、支持台2は台座以外の他の構成(例えば載置面を有するフィルムを上から懸架する構成など)でもよい。
以上、具体例を参照しつつ本実施形態について説明した。しかし、本開示はこれらの具体例に限定されるものではない。これら具体例に、当業者が適宜設計変更を加えたものも、本開示の特徴を備えている限り、本開示の範囲に包含される。前述した各具体例が備える各要素およびその配置、条件、形状などは、例示したものに限定されるわけではなく適宜変更することができる。前述した各具体例が備える各要素は、技術的な矛盾が生じない限り、適宜組み合わせを変えることができる。
上部カメラ3、下部カメラ4、真上カメラ13、真下カメラ14は、カメラ装置以外の要素でもよく、例えばスマートフォン等であってもよい。
上記実施形態では、上部カメラ3A,3B及び下部カメラ4A,4Bを用いて、支持台2の上面2Aに載置されている走査対象物10を同時に撮像する構成を例示したが、下部カメラ4A,4Bのみを用いる構成でもよい。また、上部カメラ3A,3B及び下部カメラ4A,4Bを異なるタイミングで撮影してもよい。つまり、上部カメラ3A,3Bにて走査対象物10を撮影した後、下部カメラ4A,4Bにて走査対象物10を撮影してもよく、逆の順番で撮影してもよい。本実施形態のような指標を備えることにより、このような異なるタイミングでの撮像した画像に基づく三次元モデルの生成を容易に行うことができる。また、これにより、複数のカメラを準備することなく、1台のカメラで撮像することができる。
上記実施形態に係る三次元走査装置1,1Aを用いて、身の回りの物体をスキャンして仮想空間をつくり、この仮想空間をシミュレータとしてロボットのタスク習得などの機械学習に利用できる。つまり、上記実施形態に係る三次元走査装置1,1Aは、シミュレータ用の三次元モデルをつくるためのスキャナ装置に適用できる。言い換えると、上記実施形態に係る三次元走査方法によって得られたデータを用いて、機械学習用のデータ、または機械学習向けの訓練用データを作成することができる。またこの訓練用データを用いて機械学習モデルを生成することができる。
このようなシミュレータ用仮想空間を作るためには、膨大な数の物体を走査して三次元モデルを生成する必要があるため、スキャン時間が膨大になると考えらえる。しかし上記実施形態に係る三次元走査装置1,1Aは、上述のとおりスキャン時間を短縮化でき、三次元モデルの生成を高速化できるものであるので、シミュレータ用仮想空間を作るのに極めて有利と考えられる。
本国際出願は2018年10月10日に出願された日本国特許出願2018-191935号に基づく優先権を主張するものであり、2018-191935号の全内容をここに本国際出願に援用する。
1,1A 三次元走査装置
2 支持台(支持部)
3、3A、3B 上部カメラ(第2の画像センサ)
4、4A、4B 下部カメラ(第1の画像センサ)
5 回転部
6 ARマーカー(相対位置指標部)
7 制御装置
71 撮像制御部
72 相対位置算出部
73 モデル生成部
13 真上カメラ(第3の画像センサ)
14 真下カメラ(第4の画像センサ)
ステップS3 撮像ステップ
ステップS5 相対位置算出ステップ
ステップS6 モデル生成ステップ

Claims (21)

  1. 複数の二次元画像から、三次元表現を生成するシステムであって、
    三次元表現が生成される物体を撮影する撮像装置と、
    前記物体が載置される支持部と、
    前記支持部と前記撮像装置とを相対的に回転させる回転装置と、
    前記物体の三次元表現を生成する際に用いられる情報である前記撮像装置の相対位置を算出するためのマーカーと、を有し、
    前記撮像装置は、前記物体及び前記マーカーを前記物体及び前記マーカーの下方から撮影することで前記物体及び前記マーカーを含む二次元画像を取得し、前記撮像装置の相対位置は、少なくとも、前記二次元画像に含まれる前記マーカーの画像に基づいて算出され、前記物体の三次元表現は、少なくとも、前記二次元画像に含まれる前記物体の画像と、前記算出された相対位置と、に基づいて生成され
    前記マーカーは、前記物体に対する前記撮像装置の相対位置が算出できるように前記撮像装置によって前記物体とともに撮影される位置に配置される、
    システム。
  2. 前記撮像装置は、前記物体及び前記マーカーを前記物体及び前記マーカーの下方において異なる方向から撮影することで複数の前記二次元画像を取得し、
    前記複数の二次元画像は、それぞれ、前記物体及び前記マーカーを含み、前記複数の二次元画像それぞれに含まれる前記マーカーの画像に基づいて、前記撮像装置の前記複数の二次元画像それぞれに対応する相対位置が算出される、
    請求項1に記載のシステム。
  3. 前記物体の三次元表現は、少なくとも、前記複数の二次元画像に含まれる物体の画像それぞれと、算出された相対位置それぞれとに基づいて生成される、
    請求項2に記載のシステム。
  4. 前記回転装置は、
    前記撮像装置が、異なる方向から前記物体及び前記マーカーを撮影するように、前記撮像装置に対して、前記物体及び前記マーカーを回転させる
    請求項2又は3に記載のシステム。
  5. 前記撮像装置は固定され、前記回転装置は、前記物体及び前記マーカーを回転させる、
    請求項4に記載のシステム。
  6. 前記回転装置は、前記物体及び前記マーカーに対して、前記撮像装置を回転させる、
    請求項4に記載のシステム。
  7. 前記物体が載置される前記支持部は、透明部材であり
    前記撮像装置は、前記物体が載置されている前記透明部材の下方から前記透明部材を透過して見える前記物体を撮影することで、前記二次元画像を取得する、請求項1乃至6のいずれかに記載のシステム。
  8. 前記マーカーは、前記物体から離れて配置される、
    請求項1乃至7のいずれかに記載のシステム。
  9. 前記マーカーは、前記物体上には配置されていない、
    請求項1乃至8のいずれかに記載のシステム。
  10. 前記二次元画像内において、前記物体が前記マーカーよりも前記二次元画像の中央位置に近い位置にくるように、前記物体及び前記マーカーが配置される、
    請求項1乃至9のいずれかに記載のシステム。
  11. 前記マーカーは、所定の形状を有し、前記撮像装置の相対位置は、前記二次元画像に含まれる前記マーカーの画像内での形状変化に基づいて算出される、
    請求項1乃至10のいずれかに記載のシステム。
  12. 前記撮像装置の相対位置は、少なくとも、前記撮像装置の座標情報または前記撮像装置の姿勢情報のいずれか1つを含む、
    請求項1乃至11のいずれかに記載のシステム。
  13. 前記マーカーは、下方に向けた平面を有し、前記撮像装置は、前記物体及び前記平面を前記物体及び前記平面の下方から撮影することで前記物体及び前記平面を含む前記二次元画像を取得し、前記二次元画像に含まれる前記平面の画像の形状は、前記撮像装置の相対位置の算出に用いられる、
    請求項1乃至12のいずれかに記載のシステム。
  14. 前記マーカーは、前記マーカーの識別情報を示すパターンを有する、
    請求項1乃至13のいずれかに記載のシステム。
  15. 前記撮像装置により取得される前記二次元画像は、カラー画像を含む、
    請求項1乃至14のいずれかに記載のシステム。
  16. 前記撮像装置により取得される前記二次元画像は、深度画像を含む、
    請求項1乃至15のいずれかに記載のシステム。
  17. 前記撮像装置の相対位置を算出するための別のマーカーを更に有し、
    前記撮像装置は、前記物体及び前記マーカー及び前記別のマーカーを、前記物体、前記マーカー及び前記別のマーカーの下方から撮影することで前記物体、前記マーカー及び前記別のマーカーを含む前記二次元画像を取得し、前記撮像装置の相対位置は、少なくとも、前記二次元画像に含まれる前記マーカー及び前記別のマーカーに基づいて算出される、
    請求項1乃至16のいずれかに記載のシステム。
  18. 前記物体を撮影する第2の撮像装置と、
    前記第2の撮像装置の第2の相対位置を算出するための第2のマーカーと、を有し、
    前記第2の撮像装置は、前記物体及び前記第2のマーカーを、前記物体及び前記第2のマーカーの下方から撮影することで前記物体及び前記第2のマーカーを含む第2の二次元画像を取得し、前記第2の撮像装置の前記第2の相対位置は、少なくとも、前記第2の二次元画像に含まれる前記第2のマーカーの画像に基づいて算出され、前記物体の三次元表現は、少なくとも、前記二次元画像に含まれる前記物体の画像、前記算出された相対位置、前記第2の二次元画像に含まれる前記物体の画像、前記算出された第2の相対位置に基づいて生成される、
    請求項1乃至17のいずれかに記載のシステム。
  19. 前記二次元画像に含まれる前記マーカーの画像に基づいて前記相対位置を算出し、少なくとも前記二次元画像に含まれる前記物体の画像と前記算出された相対位置とに基づいて前記物体の三次元表現を生成する、少なくとも1つのプロセッサを更に有する、
    請求項1に記載のシステム。
  20. 複数の二次元画像から、三次元表現を生成する方法であって、
    三次元表現が生成される物体が載置される支持部と、前記物体を撮影する撮像装置とを回転装置によって相対的に回転させる処理と、
    前記物体及びマーカーをそれぞれに含む、複数の撮影方向による二次元画像を取得するために、前記撮像装置を用いて、前記物体及び前記マーカーの下方且つ複数の異なる方向から前記物体及び前記マーカーを撮影する処理と、
    少なくとも、前記複数の撮影方向による二次元画像に含まれる前記物体の複数の撮影方向による画像と、算出された前記撮像装置の相対位置であって、少なくとも、前記複数の撮影方向による二次元画像に含まれる前記マーカーのそれぞれの画像に基づいて算出された相対位置とに基づいて生成された前記物体の三次元表現を取得する処理とを有し、
    前記マーカーは、前記物体に対する前記撮像装置の相対位置が算出できるように前記撮像装置によって前記物体とともに撮影される位置に配置される、
    方法。
  21. 支持部に載置された物体を、前記支持部と撮像装置とを回転装置によって相対的に回転させて前記撮像装置によって複数の異なる方向から撮影して得られる、複数の二次元画像から、三次元表現を生成する装置であって、
    1または複数のメモリと、
    1または複数のプロセッサと、を有し、
    前記1または複数のプロセッサは、
    前記物体及びマーカーの下方且つ前記複数の異なる方向から前記物体及び前記マーカーを撮影して得られる前記複数二次元画像を取得し、
    前記複数二次元画像それぞれについて、前記物体及び前記マーカーが撮影された際の撮像装置の相対位置を、前記複数二次元画像に含まれるそれぞれの前記マーカーの画像に少なくとも基づいて算出し、
    少なくとも、前記複数二次元画像に含まれる前記物体のそれぞれの画像と、前記それぞれの相対位置とに基づいて、前記物体の三次元表現を生成し、
    前記物体の三次元表現を提供
    前記マーカーは、前記物体に対する前記撮像装置の相対位置が算出できるように前記撮像装置によって前記物体とともに撮影される位置に配置される、
    装置。
JP2020551206A 2018-10-10 2019-10-09 システム、方法及び装置 Active JP7460532B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018191935 2018-10-10
JP2018191935 2018-10-10
PCT/JP2019/039868 WO2020075768A1 (ja) 2018-10-10 2019-10-09 三次元走査装置、三次元モデルの生成方法、訓練用データ、及び機械学習モデル

Publications (3)

Publication Number Publication Date
JPWO2020075768A1 JPWO2020075768A1 (ja) 2021-09-02
JPWO2020075768A5 JPWO2020075768A5 (ja) 2023-08-07
JP7460532B2 true JP7460532B2 (ja) 2024-04-02

Family

ID=70165020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020551206A Active JP7460532B2 (ja) 2018-10-10 2019-10-09 システム、方法及び装置

Country Status (3)

Country Link
US (2) US11551419B2 (ja)
JP (1) JP7460532B2 (ja)
WO (1) WO2020075768A1 (ja)

Families Citing this family (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10565737B1 (en) * 2019-07-09 2020-02-18 Mujin, Inc. Method and system for performing automatic camera calibration for a scanning system
KR102372500B1 (ko) * 2020-11-24 2022-03-10 (주)이노시뮬레이션 비디오 영상을 이용한 3차원 객체 인식 방법 및 이를 실행하는 장치
DE102021133709A1 (de) * 2021-12-17 2023-06-22 Rooom Ag Matte zur Durchführung eines Photogrammetrieverfahrens, Verwendung der Matte und zugehöriges Verfahren
WO2023223916A1 (ja) * 2022-05-20 2023-11-23 株式会社Preferred Networks 三次元再構成システム、及び三次元再構成方法

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001503514A (ja) 1996-10-25 2001-03-13 ウェーブウォークス,インコーポレイテッド 3次元カラースキャニング方法および装置
JP2001243468A (ja) 1999-12-24 2001-09-07 Sanyo Electric Co Ltd 三次元モデリング装置、方法及び媒体並びに三次形状データ記録装置、方法及び媒体
JP2003065736A (ja) 2001-08-24 2003-03-05 Sanyo Electric Co Ltd 3次元モデリング装置
JP2005195335A (ja) 2003-12-26 2005-07-21 Fuji Xerox Co Ltd 3次元画像撮影装置および方法
US20130053702A1 (en) 2009-12-22 2013-02-28 Rene Pfeiffer Calibration-free and precise optical detection of a three-dimensional shape
CN103267491A (zh) 2012-07-17 2013-08-28 深圳大学 自动获取物体表面完整三维数据的方法及***
WO2015108071A1 (ja) 2014-01-20 2015-07-23 正実 森 3次元データ生成装置、造形物製造システム及び3次元データ生成方法

Family Cites Families (20)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP3409873B2 (ja) * 1993-03-05 2003-05-26 株式会社東芝 物体入力装置
JP5176517B2 (ja) 2007-12-07 2013-04-03 横浜ゴム株式会社 タイヤ踏面測定装置
EP2779898A4 (en) 2011-11-17 2015-08-19 Techmed 3D Inc METHOD AND SYSTEM FOR FORMING A VIRTUAL MODEL OF A PERSON
US11164394B2 (en) * 2012-02-24 2021-11-02 Matterport, Inc. Employing three-dimensional (3D) data predicted from two-dimensional (2D) images using neural networks for 3D modeling applications and other applications
US9665800B1 (en) * 2012-10-21 2017-05-30 Google Inc. Rendering virtual views of three-dimensional (3D) objects
US10262429B2 (en) 2013-09-30 2019-04-16 National Institute Of Advanced Industrial Science Marker image processing system
JP6070512B2 (ja) * 2013-11-05 2017-02-01 ソニー株式会社 情報処理装置、情報処理方法、およびプログラム
US20150138320A1 (en) * 2013-11-21 2015-05-21 Antoine El Daher High Accuracy Automated 3D Scanner With Efficient Scanning Pattern
US9807373B1 (en) * 2013-12-27 2017-10-31 Google Inc. Systems and devices for acquiring imagery and three-dimensional (3D) models of objects
WO2015102637A1 (en) 2014-01-03 2015-07-09 Intel Corporation Real-time 3d reconstruction with a depth camera
JP6483832B2 (ja) 2014-08-29 2019-03-13 トヨタ モーター ヨーロッパ Rgb−dセンサを使用して物体を走査する方法とシステム
WO2016176612A1 (en) * 2015-04-29 2016-11-03 Board Of Trustees Of Michigan State University Methods for estimating photosynthetic characteristics in plant canopies and systems and apparatus related thereto
US20170374333A1 (en) * 2016-06-27 2017-12-28 Wieden + Kennedy, Inc. Real-time motion capture and projection system
IT201600091510A1 (it) * 2016-09-12 2018-03-12 Invrsion S R L Sistema e metodo per la creazione di modelli tridimensionali.
US10248744B2 (en) * 2017-02-16 2019-04-02 The University Of North Carolina At Chapel Hill Methods, systems, and computer readable media for acoustic classification and optimization for multi-modal rendering of real-world scenes
US10565747B2 (en) 2017-09-06 2020-02-18 Nvidia Corporation Differentiable rendering pipeline for inverse graphics
US10839557B1 (en) * 2018-04-03 2020-11-17 A9.Com, Inc. Camera calibration for augmented reality
WO2019197521A1 (en) * 2018-04-11 2019-10-17 Addifab Aps Additive manufacturing device and system with automated failure recovery and/or failure avoidance unit
US10789723B1 (en) * 2018-04-18 2020-09-29 Facebook, Inc. Image object extraction and in-painting hidden surfaces for modified viewpoint rendering
US11373411B1 (en) * 2018-06-13 2022-06-28 Apple Inc. Three-dimensional object estimation using two-dimensional annotations

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001503514A (ja) 1996-10-25 2001-03-13 ウェーブウォークス,インコーポレイテッド 3次元カラースキャニング方法および装置
JP2001243468A (ja) 1999-12-24 2001-09-07 Sanyo Electric Co Ltd 三次元モデリング装置、方法及び媒体並びに三次形状データ記録装置、方法及び媒体
JP2003065736A (ja) 2001-08-24 2003-03-05 Sanyo Electric Co Ltd 3次元モデリング装置
JP2005195335A (ja) 2003-12-26 2005-07-21 Fuji Xerox Co Ltd 3次元画像撮影装置および方法
US20130053702A1 (en) 2009-12-22 2013-02-28 Rene Pfeiffer Calibration-free and precise optical detection of a three-dimensional shape
CN103267491A (zh) 2012-07-17 2013-08-28 深圳大学 自动获取物体表面完整三维数据的方法及***
WO2015108071A1 (ja) 2014-01-20 2015-07-23 正実 森 3次元データ生成装置、造形物製造システム及び3次元データ生成方法

Also Published As

Publication number Publication date
WO2020075768A1 (ja) 2020-04-16
US20230088773A1 (en) 2023-03-23
US11551419B2 (en) 2023-01-10
JPWO2020075768A1 (ja) 2021-09-02
US12020376B2 (en) 2024-06-25
US20210225078A1 (en) 2021-07-22

Similar Documents

Publication Publication Date Title
JP7460532B2 (ja) システム、方法及び装置
JP4497772B2 (ja) 画像処理装置
JP4245963B2 (ja) 較正物体を用いて複数のカメラを較正するための方法およびシステム
US7034821B2 (en) Three-dimensional computer modelling
CN107155341B (zh) 三维扫描***和框架
CN111292239B (zh) 一种三维模型拼接设备及方法
JP4419570B2 (ja) 3次元画像撮影装置および方法
KR20150101836A (ko) 인체 고속 입체 스캔 장치
CN112085650A (zh) 图像处理方法、装置、存储介质及计算机设备
CN111028341A (zh) 一种三维模型生成方法
CN113870430B (zh) 一种工件数据处理方法和装置
US20210407123A1 (en) Three-dimensional calibration target
CN111340959B (zh) 一种基于直方图匹配的三维模型无缝纹理贴图方法
CN112257537A (zh) 一种智能多点三维信息采集设备
CN112254638B (zh) 一种可俯仰调节的智能视觉3d信息采集设备
CN109506629A (zh) 一种水下核燃料组件检测装置旋转中心标定的方法
WO2020240210A1 (en) 3d model capture system
KR20230171859A (ko) 사물 식별 장치 및 이를 이용한 입체 영상 생성 방법
Harjoko et al. Low-cost 3D surface reconstruction using Stereo camera for small object
Novak-Marcincin et al. USE OF ALTERNATIVE SCANNING DEVICES FOR CREATION OF 3D MODELS OF MACHINE PARTS.
TWI480507B (zh) 三維模型重建方法及其系統
CN112254678B (zh) 一种室内3d信息采集设备及方法
Palka et al. 3D object digitization devices in manufacturing engineering applications and services
WO2023223916A1 (ja) 三次元再構成システム、及び三次元再構成方法
JP2005092549A (ja) 三次元画像処理方法および装置

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210408

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A821

Effective date: 20210412

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221007

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230727

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20240109

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20240126

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240312

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240321

R150 Certificate of patent or registration of utility model

Ref document number: 7460532

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150