JP2019035708A - 情報処理装置、情報処理方法およびプログラム - Google Patents

情報処理装置、情報処理方法およびプログラム Download PDF

Info

Publication number
JP2019035708A
JP2019035708A JP2017158509A JP2017158509A JP2019035708A JP 2019035708 A JP2019035708 A JP 2019035708A JP 2017158509 A JP2017158509 A JP 2017158509A JP 2017158509 A JP2017158509 A JP 2017158509A JP 2019035708 A JP2019035708 A JP 2019035708A
Authority
JP
Japan
Prior art keywords
dimensional model
element data
measurement
information processing
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2017158509A
Other languages
English (en)
Inventor
寛之 福島
Hiroyuki Fukushima
寛之 福島
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Oki Electric Industry Co Ltd
Original Assignee
Oki Electric Industry Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Oki Electric Industry Co Ltd filed Critical Oki Electric Industry Co Ltd
Priority to JP2017158509A priority Critical patent/JP2019035708A/ja
Publication of JP2019035708A publication Critical patent/JP2019035708A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Length Measuring Devices By Optical Means (AREA)
  • Image Analysis (AREA)

Abstract

【課題】透明物体の情報を含む3次元モデルを生成し、かつ、3次元モデルにおいて透明物体に対応する要素データを判定する情報処理装置を提供する。【解決手段】透明物体32を透過する波長帯の光を利用して測定された計測領域30の表面形状から生成された第1の3次元モデルを取得する第1の取得部と、複数の計測位置において透明物体を透過しない波長帯の光を利用して出力された複数の2次元画像から生成された第2の3次元モデルを取得する第2の取得部と、第1の3次元モデルを構成する複数の第1の要素データと第2の3次元モデルを構成する複数の第2の要素データの位置関係に基づき、複数の第2の要素データのうちで透明物体に対応する要素データを判定する判定部と、を備える、情報処理装置20。【選択図】図1

Description

本発明は、情報処理装置、情報処理方法およびプログラムに関する。
近日、空間シミュレーターおよびVR(Virtual Reality)/AR(Augmented Reality)などの技術の普及に伴い、実空間のデジタル化、すなわち、実空間の3次元計測および計測データの3次元モデル化の需要が高まっている。
実空間の3次元計測および計測データの3次元モデル化を実現する方法には、例えば特許文献1に記載されているように、LiDAR(Laser Imaging Detection and Ranging)のようにアクティブ光(近赤外光)に対する反応を検知する3次元レーザーセンサを利用する方法が挙げられる。また、非特許文献1に記載されているように、SfM(structure from motion)と呼ばれる、対象を複数の視点から撮影した2次元イメージ画像(可視光)データ群の特徴点の対応する点の位置関係から3次元モデルを構築する方法も存在する。
特表2001−524211号公報
Johannes Lutz Schonberger、Jan-Michael Frahm、Structure-from-Motion Revisited (PDF Download Available) 、平成28年8月26日、インターネット(https://www.researchgate.net/publication/301197096_Structure-from-Motion_Revisited)
しかし、3次元レーザーセンサを利用する方法では、アクティブ光がガラス体のような透明物体を透過してしまうので、透明物体が計測されない。また、イメージ画像を利用する方法では、透明物体を透過する可視光により形成されるイメージ画像から3次元モデルが生成されるので、透明物体の3次元モデルが生成されない。
そこで、本発明は、上記問題に鑑みてなされたものであり、本発明の目的とするところは、透明物体の情報を含む3次元モデルを生成し、かつ、当該3次元モデルにおいて透明物体に対応する要素データを判定することが可能な、新規かつ改良された情報処理装置、情報処理方法およびプログラムを提供することにある。
上記課題を解決するために、本発明のある観点によれば、透明物体を透過する波長帯の光を利用して測定された計測領域の表面形状から生成された第1の3次元モデルを取得する第1の取得部と、複数の計測位置において前記透明物体を透過しない波長帯の光を利用して出力された複数の2次元画像から生成された第2の3次元モデルを取得する第2の取得部と、前記第1の3次元モデルを構成する複数の第1の要素データと前記第2の3次元モデルを構成する複数の第2の要素データの位置関係に基づき、前記複数の第2の要素データのうちで前記透明物体に対応する要素データを判定する判定部と、を備える、情報処理装置が提供される。
前記判定部は、計測位置および第2の要素データを通る直線上に位置する第1の要素データ、または前記直線との距離が閾値以下である第1の要素データを探索し、探索されたいずれの第1の要素データも前記第2の要素データよりも前記計測位置から遠くに存在することに基づき、前記第2の要素データが前記透明物体に対応すると判定してもよい。
前記情報処理装置は、前記第2の3次元モデルのスケールを前記第1の3次元モデルのスケールに合わせるスケール変換を行い、スケール変換後の前記第2の3次元モデルと前記第1の3次元モデルを重ね合わせる融合部をさらに備え、前記判定部は、前記複数の第2の要素データのうちで、前記透明物体に対応すると判定されなかった第2の要素データを削除してもよい。
前記第1の3次元モデルを構成する前記複数の第1の要素データの各々には、前記計測領域を可視光カメラで撮像して得られる色付き画像から得られた色情報が設定されていてもよい。
前記情報処理装置は、前記透明物体を透過する波長帯の光を利用して前記計測領域の表面形状を測定する第1のセンサをさらに備えてもよい。
前記情報処理装置は、前記複数の計測位置において前記透明物体を透過しない波長帯の光を利用して前記複数の2次元画像を出力する第2のセンサをさらに備えてもよい。
前記第2のセンサは、赤外線サーモカメラであってもよい。
前記第2の取得部は、前記複数の2次元画像を用いたSfM(Structure from Motion)処理を行うことにより、前記第2の3次元モデルを取得してもよい。
また、上記課題を解決するために、本発明の別の観点によれば、透明物体を透過する波長帯の光を利用して測定された計測領域の表面形状から生成された第1の3次元モデルを取得することと、複数の計測位置において前記透明物体を透過しない波長帯の光を利用して出力された複数の2次元画像から生成された第2の3次元モデルを取得することと、前記第1の3次元モデルを構成する複数の第1の要素データと前記第2の3次元モデルを構成する複数の第2の要素データの位置関係に基づき、前記複数の第2の要素データのうちで前記透明物体に対応する要素データを判定することと、を含む、情報処理方法が提供される。
また、上記課題を解決するために、本発明の別の観点によれば、コンピュータを、透明物体を透過する波長帯の光を利用して測定された計測領域の表面形状から生成された第1の3次元モデルを取得する第1の取得部と、複数の計測位置において前記透明物体を透過しない波長帯の光を利用して出力された複数の2次元画像から生成された第2の3次元モデルを取得する第2の取得部と、前記第1の3次元モデルを構成する複数の第1の要素データと前記第2の3次元モデルを構成する複数の第2の要素データの位置関係に基づき、前記複数の第2の要素データのうちで前記透明物体に対応する要素データを判定する判定部と、として機能させるための、プログラムが提供される。
装置が提供される。
以上説明したように本発明によれば、透明物体の情報を含む3次元モデルを生成し、かつ、当該3次元モデルにおいて透明物体に対応する要素データを判定することが可能である。
本発明の実施形態による3次元計測装置を示す説明図である。 近赤外光を用いるレーザーセンサの特性を示す説明図である。 イメージセンサの特性を示す説明図である。 サーモセンサの特性を示す説明図である。 本発明の実施形態による3次元計測装置の構成を示す説明図である。 計測領域の上面図および正面図である。 計測領域の斜視図である。 レーザーセンサにより得られる点群データの上面図および正面図である。 レーザーセンサにより得られる点群データの斜視図である。 イメージセンサにより得られる2次元画像を示す説明図である。 サーモセンサにより得られる2次元温度分布画像を示す説明図である。 複数の計測地点の一例を示す説明図である。 3次元モデルMoLの上面図および正面図である。 3次元モデルMoLの斜視図である。 3次元モデルMoIの上面図および正面図である。 3次元モデルMoIの斜視図である。 3次元モデルMoL+MoI’の上面図および正面図である。 3次元モデルMoL+MoI’の斜視図である。 透明領域判定部が行う判定の具体例を示す説明図である。 距離LP<距離LCが満たされない第1の例を示す説明図である。 距離LP<距離LCが満たされない第2の例を示す説明図である。 本発明の実施形態による3次元計測装置20の動作を示すフローチャートである。 3次元計測装置のハードウェア構成例を示したブロック図である。
以下に添付図面を参照しながら、本発明の実施の形態について詳細に説明する。なお、本明細書及び図面において、実質的に同一の機能構成を有する構成要素については、同一の符号を付することにより重複説明を省略する。
また、本明細書及び図面において、実質的に同一の機能構成を有する複数の構成要素を、同一の符号の後に異なるアルファベットを付して区別する場合もある。ただし、実質的に同一の機能構成を有する複数の構成要素の各々を特に区別する必要がない場合、複数の構成要素の各々に同一符号のみを付する。
<A.3次元計測装置の概要>
本発明の実施形態は、計測領域の3次元モデルを生成する3次元計測装置に関する。以下、図1を参照し、本発明の実施形態による3次元計測装置の概要を説明する。
図1は、本発明の実施形態による3次元計測装置20を示す説明図である。3次元計測装置20は、幾つかのセンサおよび情報処理装置の機能を備え、センサを用いて計測領域30の表面形状を測定し、表面形状の測定結果に基づいて計測領域30の3次元モデルを生成する。図1に示した例では、計測領域30には透明物体であるガラス体32および不透明物体34が存在する。
3次元計測装置20が備えるセンサには、レーザーセンサおよびイメージセンサが含まれる。レーザーセンサは、アクティブ光(近赤外光)を放射し、アクティブ光の反射を検知することにより、計測領域30に存在する物体の表面形状を測定し得る。レーザーセンサは、放射するアクティブ光の向きを変えながら測定を行うことで、計測領域30に存在する物体の表面を示す点データの集まり(点群データ)を得ることが可能である。
イメージセンサは、可視光を検知することにより色情報付きの2次元画像を取得する可視光カメラ(RGBカメラ)である。
しかし、上述したレーザーセンサおよびイメージセンサのいずれによっても、図2を参照して説明するように、透明物体であるガラス体32の存在が反映された測定結果を得ることが困難である。
図2Aは、近赤外光を用いるレーザーセンサの特性を示す説明図である。近赤外光は、透明物体を透過する波長帯の光である。このため、図2Aに示したように、レーザーセンサから放射された近赤外光はガラス体を透過し、レーザーセンサは、ガラス体の奥側に存在する不透明物体からの反射光を検知する。すなわち、レーザーセンサの測定結果には、不透明物体の情報は含まれるものの、透明物体であるガラス体の情報は含まれない。
図2Bは、イメージセンサの特性を示す説明図である。可視光は、透明物体を透過する波長帯の光に該当する。このため、図2Bに示したように、イメージセンサはガラス体を透過する可視光を含む2次元画像を取得する。従って、仮に当該2次元画像を用いてSfM処理を行っても、透明物体の情報を含む3次元モデルを生成することは困難である。
一方、赤外線サーモグラフィと呼ばれるセンサ(以下、サーモセンサ)は、温度を持つ物体から放出される赤外光(特に中・遠赤外光)を計測し、計測された赤外光のエネルギー量から2次元温度分布画像を生成することができる。ここで、赤外光は透明物体を透過しない波長帯の光である。このため、図2Cに示したように、サーモセンサは、ガラス体の奥側に存在する不透明物体から放出される赤外光を計測せずに、ガラス体から放出される赤外光を計測できるので、得られる2次元温度分布画像にはガラス体の情報が含まれる。
本件発明者は、上記各センサの特性の相違に着目し、本発明の実施形態を創作するに至った。本発明の実施形態によれば、透明物体の情報を含む3次元モデルを生成し、かつ、当該3次元モデルにおいて透明物体に対応する要素データを判定することが可能である。以下、このような本発明の実施形態の構成および動作を順次詳細に説明する。
<B.3次元計測装置の構成>
図3は、本発明の実施形態による3次元計測装置20の構成を示す説明図である。図3に示したように、本発明の実施形態による3次元計測装置20は、計測部230および情報処理部240を備える。
計測部230は、計測領域30内の複数の計測地点において3次元モデルの生成に必要な計測を行う。計測部230は、図3に示したように、レーザーセンサ232、イメージセンサ234およびサーモセンサ236を有する。レーザーセンサ232、イメージセンサ234およびサーモセンサ236は、例えば、ある共通の台に設置され計測原点位置及び計測姿勢が固定される。この場合、各センサの相対位置情報及び相対姿勢情報は既知であるので、簡単な座標変換により計測原点および計測姿勢を一致させることができる。なお、計測部230は、複数の計測地点で計測を行うために、計測地点間を人手または自動移動車両により移動されてもよい。
情報処理部240は、計測部230により得られた計測結果に基づき、計測領域30の3次元モデルを生成する。情報処理部240は、図3に示したように、MoL生成部242、MoI生成部244、データ融合部246および透明領域判定部248を有する。以下、計測部230が有する各構成および情報処理部240が有する各構成の説明を行う。
(レーザーセンサ232)
レーザーセンサ232(第1のセンサ)は、上述したように、レーザーセンサは、放射するアクティブ光の向きを変えながら測定を行うことで、計測領域30に存在する物体の表面を示す要素データの集まりとして、点データの集まり(点群データ)を得ることが可能である。レーザーセンサ232により得られる点データは、レーザーセンサ232の座標系(レーザーセンサの計測原点を座標系の原点とする座標系)における実測値に基づいた座標値{X、Y、Z}を有し、色情報{R、G、B}および透明度情報{A}を有さないデータである。
ここで、図4および図5を参照し、レーザーセンサ232により得られる点群データの具体例を説明する。
図4Aは、計測領域30の上面図および正面図であり、図4Bは計測領域30の斜視図である。図4Aおよび図4Bに示した計測地点Pを計測原点、計測地点Pから伸びる矢印方向を計測姿勢としてレーザーセンサ232が計測を行った場合、図5の太線および格子領域で示されるような点群データが得られる。このとき、計測のために放射される赤外光はガラス体32を透過するため、不透明物体34の表面の点群データは得られるが、ガラス体32に対応する点群データは得られない。
(イメージセンサ234)
イメージセンサ234は、上述したように、可視光を検知することにより色情報付きの2次元画像を取得するRGBカメラである。例えば、図4Aおよび図4Bに示した計測地点Pを計測原点、計測地点Pから伸びる矢印方向を計測姿勢としてイメージセンサ234が撮像を行った場合、図6に示したように、実世界の各物体の色情報を含む2次元画像が得られる。このとき、イメージセンサ234が検知する可視光はガラス体32を透過するため、計測位置及び姿勢から見てガラス体32の奥側に存在する不透明物体34も2次元画像に写り込むことになる。
(サーモセンサ236)
サーモセンサ236(第2のセンサ)は、上述したように、温度を持つ物体から放出される赤外光を計測し、計測された赤外光のエネルギー量に応じて着色された2次元温度分布画像を生成する。例えば、図4Aおよび図4Bに示した計測地点Pを計測原点、計測地点Pから伸びる矢印方向を計測姿勢としてサーモセンサ236により計測を行った場合、図7に示したように、ガラス体32に対応する部分と不透明物体34に対応する部分で配色が異なる2次元温度分布画像が得られる。このとき、サーモセンサ236により計測される赤外光は、ガラス体32および不透明物体34自体から放出される赤外光であり、ガラス体32を透過しない波長帯の光であるため。このため、計測位置及び姿勢から見てガラス体32の奥側に存在する不透明物体34は2次元温度分布画像に写り込まない.
(MoL生成部242)
MoL生成部242は、レーザーセンサ232により取得された点群データに対して色情報及び透明度情報を設定する機能、および、複数の計測地点で取得された複数の点群データを1つに結合し3次元モデルMoL(第1の3次元モデル)を生成する機能を有する第1の取得部である。
具体的には、MoL生成部242は、既知であるレーザーセンサ232とイメージセンサ234の計測原点の相対位置情報を利用し、ある計測地点でレーザーセンサ232により取得された点群データと、同一地点でイメージセンサ234により取得された2次元画像の計測原点及び計測姿勢を一致させる。これにより、点群データを構成する各点データに対応する2次元画像の画素が特定される。MoL生成部242は、各点データについて特定された画素の色情報を当該点データの色情報{R、G、B}として設定し、当該点データの透明度情報{A}には不透明を示す{255}を設定する。MoL生成部242は、上述した色情報および透明度情報の設定処理を全ての点群データについて実行する。
さらに、MoL生成部242は、色情報{R、G、B}および透明度情報{A}が設定された複数の点群データに対してレジストレーション(位置合わせ)を行い、複数の点群データを1つに結合することで、計測領域30の3次元モデルMoLを生成する。
図8は、複数の計測地点の一例を示す説明図である。レーザーセンサ232による計測領域30の計測は、例えば図8に示すように、水平方向上の位置および高さ方向上の位置が異なる複数の計測地点Pで行われる。図8に示したような複数の計測地点および姿勢で取得された複数の点群データに対してレジストレーション処理が行われると、図9Aおよび図9Bにおいて太線および格子領域で示されるM個の点データPLm(第1の要素データ)からなる3次元モデルMoLが生成される。なお、図9Aは、3次元モデルMoLの上面図および正面図であり、図9Bは3次元モデルMoLの斜視図である。
各点データPLmは、実測値に基づいた座標値{X、Y、Z}、色情報{R、G、B}および透明度情報{A}を有するデータである。3次元モデルMoLに対してある点群データの位置姿勢マッチング処理を行うことで、その点群データの計測地点SLx(xは計測地点数)の位置および計測姿勢を算出することも可能である。なお、ここで生成される3次元モデルMoLには、計測領域30内のガラス体32に対応する情報は含まれない。
(MoI生成部244)
MoI生成部244は、サーモセンサ236により複数の計測地点で取得された2次元温度分布画像を用いたSfM処理により、計測領域30の点群データから成る3次元モデルMoI(第2の3次元モデル)を生成する第2の取得部である。
例えば、MoI生成部244は、図8に示した複数の計測地点Pおよび姿勢でサーモセンサ236により取得された2次元温度分布画像を用いたSfM処理を行うことにより、図10Aおよび図10Bにおいて点線および点描領域で示されるN個の点データPIn(第2の要素データ)からなる3次元モデルMoIを生成する。なお、図10Aは、3次元モデルMoIの上面図および正面図であり、図10Bは、3次元モデルMoIの斜視図である。
各点データPInは、実測値に基づかない相対値である座標値{x、y、z}を有し、色情報{R、G、B}および透明度情報{A}を有さないデータである(透明度情報{A}は未設定)。ここで生成される3次元モデルMoIには、計測領域30内のガラス体32の表面(計測地点側の表面)に対応する情報が含まれている。なお、SfM処理では、3次元モデル化だけではなく、使用した2次元温度分布画像に対応する計測地点SIx(xは計測地点数)の位置及び計測姿勢データを得ることも可能である。
(データ融合部246)
データ融合部246(融合部)は、MoL生成部242により生成された3次元モデルMoL、およびMoI生成部244により生成された3次元モデルMoIを重ね合わせる。
MoI生成部244で得られた計測地点SIxは、MoL生成部242で得られた計測地点SLxと一致することから、データ融合部246は、3次元モデルMoIのスケールを3次元モデルMoLのスケールに合わせるスケール変換を行い、スケール変換後の3次元モデルMoI’を3次元モデルMoLに重ね合わせる。これにより、実測値に基づいた座標値{X、Y、Z}、色情報{R、G、B}および透明度情報{A}を有するM個の点データPLm、および実測値に基づいた座標値{X、Y、Z}を持ち、色情報{R、G、B}および透明度情報{A}を有さないN個の点データPIn’からなる、3次元モデルMoL+MoI’が得られる。
図11Aは、3次元モデルMoL+MoI’の上面図および正面図であり、図11Bは3次元モデルMoL+MoI’の斜視図である。図11Aおよび図11Bに示したように、3次元モデルMoL+MoI’には、ガラス体32に対応する点データ52が含まれている。ただし、この時点では、点データ52が透明領域に対応するか否かは不明であり、点データ52の透明度情報{A}は未設定である。
(透明領域判定部248)
透明領域判定部248(判定部)は、データ融合部246により生成された3次元モデルMoL+MoI’に含まれる各点データPIn’が透明物体に対応するか否かを判定する機能、および当該判定の結果を3次元モデルMoL+MoI’に反映させる機能を有する。
具体的には、透明領域判定部248は、ある計測地点SLxに着目し、計測地点SLxおよびある点データPIn’を通る直線を描き、当該直線からの距離が閾値以下である点データPLmを探索する。そして、探索された全ての点データPLmが点データPIn’よりも計測位置SLxから遠くに存在することに基づき、点データPIn’が透明物体に対応すると判定する。
図12は、透明領域判定部248が行う判定の具体例を示す説明図である。図12に示した例では、ある計測地点SLxおよびある点データPIn’を通る直線との距離が閾値以下である点データPLmとして、CおよびCが探索される。ここで、探索された点データCの(p=1、2、・・・)うちで、計測地点SLxとの距離が最小である点データCを点データCminと称する。
透明領域判定部248は、計測地点SLxおよび点データPIn’間の距離LPと、計測地点SLxおよび点データCminとの距離LCを比較する。ここで、距離LP<距離LCが満たされる場合、計測地点SLxと点データCminの間には物体が存在するが、レーザーセンサ232によっては当該物体が検知されなかったことを意味する。レーザーセンサ232によって検知されない物体は透明物体であるので、透明領域判定部248は、距離LP<距離LCが満たされる場合、点データPIn’が透明物体に対応すると判定する。図12に示した例では、点データC1が点データCminに該当し、距離LP<距離LCが満たされるので、点データPIn’が透明物体に対応すると判定する。
そして、透明領域判定部248は、透明物体に対応すると判定した点データPIn’の色情報{R、G、B}に透明物体を示す値、例えば{255、255、255}を設定し、透明物体に対応すると判定した点データPIn’の透明度情報{A}に透明物体を示す値、例えば{0}を設定する。
透明領域判定部248は、上述した透明領域の判定、色情報および透明度情報の設定を、各計測地点SLxおよび各点データPIn’について行う。その後、透明領域に対応すると判定されなかった点データPIn’を3次元モデルMoL+MoI’から削除する。これにより、透明領域に対応すると判定された点データPIn’を含む3次元モデルMoLIが生成される。
ここで、図13および図14を参照し、距離LP<距離LCが満たされない例を説明する。
図13は、距離LP<距離LCが満たされない第1の例を示す説明図である。図13に示した例では、計測地点SLxおよび点データPIn’を通る直線との距離が閾値以下である点データPLmが存在しない。これは、点データPIn’は、レーザーセンサ232によっては検知されず、サーモセンサ236によっては検知された物体に対応することを意味する。また、レーザーセンサ232によっては検知されず、サーモセンサ236によって検知される物体は透明物体である。このため、透明領域判定部248は、図13に示したように計測地点SLxおよび点データPIn’を通る直線との距離が閾値以下である点データPLmが存在しない場合、当該点データPIn’が透明物体に対応すると判定してもよい。
図14は、距離LP<距離LCが満たされない第2の例を示す説明図である。図14に示した例では、点データCminが点データPIn’よりも計測地点SLx側に存在するので、距離LP<距離LCが満たされない。この場合、点データPIn’が透明領域に対応するか否かは不明であるので、透明領域判定部248は、当該点データPIn’が透明物体に対応するという判定は行わない。
<C.3次元計測装置の動作>
以上、本発明の実施形態による3次元計測装置20の構成を説明した。続いて、図15を参照し、本発明の実施形態による3次元計測装置20の動作を整理する。
図15は、本発明の実施形態による3次元計測装置20の動作を示すフローチャートである。図15に示したように、まず、3次元計測装置20が計測領域30の計測ための計測地点へ移動される(S301)。そして、計測部230が計測領域30の計測を行い、各種データを取得する(S302)。具体的には、レーザーセンサ232が計測領域30についての点群データを取得し(S302a)、イメージセンサ234が計測領域30についての色情報付きの2次元画像を取得し(S302b)、サーモセンサ236が計測領域30についての2次元温度分布画像を取得する(S302c)。これらS301およびS302の処理は、計測地点数に相当するX回に亘って繰り返される。
その後、MoL生成部242が、S302aでレーザーセンサ302により取得された各点群データに対応する、S302bでイメージセンサ234により取得された2次元画像の情報を元に、点群データに色情報{R、G、B}および透明度情報{A}を設定する(S303)。
続いて、MoL生成部242は、S303で処理された複数の点群データに対してレジストレーション(位置合わせ)を行い、M個の点データPLmからなる3次元モデルMoLを生成する(S304)。各点データPLmは、実測値に基づいた座標値{X、Y、Z}、色情報{R、G、B}および透明度情報{A}を有するデータである。
さらに、MoL生成部242は、S304で生成された3次元モデルMoLに対して、S303で処理された各点群データの位置姿勢マッチング処理を行うことで、その点群データの計測地点SLxの位置および計測姿勢を算出する(S305)。
一方、MoI生成部244は、S302cでサーモセンサ236により取得された複数の2次元温度分布画像を用いたSfM処理を行うことにより、N個の点データPInからなる3次元モデルMoIを生成する(S306)。各点データPInは、実測値に基づかない相対値である座標値{x、y、z}を有し、色情報{R、G、B}および透明度情報{A}を有さないデータである(透明度情報{A}は未設定)。
そして、MoI生成部244は、S303で処理された複数の2次元温度分布画像に対してSfM処理を行い、各2次元温度分布画像の計測地点SIxおよび計測姿勢を算出する(S307)。
その後、データ融合部246は、3次元モデルMoIのスケールを3次元モデルMoLのスケールに合わせるスケール変換を行い(S308)、スケール変換後の3次元モデルMoI’を3次元モデルMoLに重ね合わせる。これにより、M個の点データPLm、およびN個の点データPIn’からなる、3次元モデルMoL+MoI’が生成される(S309)。
そして、透明領域判定部248は、データ融合部246により生成された3次元モデルMoL+MoI’に含まれる各点データPIn’が透明物体に対応するか否かを判定する(S310)。ここで、透明領域判定部248は、透明物体に対応すると判定した点データPIn’の色情報{R、G、B}に透明物体を示す値、例えば{255、255、255}を設定し、透明物体に対応すると判定した点データPIn’の透明度情報{A}に透明物体を示す値、例えば{0}を設定する。
その後、透明領域判定部248は、S310において透明物体に対応すると判定されなかった点データPIn’を、3次元モデルMoL+MoI’から削除し、3次元モデルMOLIを生成する。3次元モデルMOLIは、透明物体に対応する点データPIn’を含む点群データからなる3次元モデルデータである。
<D.変形例>
以上、本発明の実施形態を説明した。以下では、本発明の実施形態の幾つかの変形例を説明する。なお、以下に説明する各変形例は、単独で本発明の実施形態に適用されてもよいし、組み合わせで本発明の実施形態に適用されてもよい。また、各変形例は、本発明の実施形態で説明した構成に代えて適用されてもよいし、本発明の実施形態で説明した構成に対して追加的に適用されてもよい。
例えば、3次元モデルMoLおよび3次元モデルMoI’が点データで構成される例を説明したが、点データは要素データの一例に過ぎず、3次元モデルMoLおよび3次元モデルMoI’は他の形態の要素データにより構成されてもよい。3次元モデルMoLおよび3次元モデルMoI’は、点群データに対するメッシュ処理により得られた面データから構成されてもよい。3次元モデルMoLおよび3次元モデルMoI’が面データにより構成される場合、透明領域の判定のための計算負荷を削減することが可能である。
また、透明物体であるガラス体32の情報を含まない3次元モデルMoLを生成するためにレーザーセンサ232が用いられる例を説明したが、他の方法または他のセンサによりガラス体32の情報を含まない3次元モデルMoLを生成することも可能である。例えば、MoL生成部242は、複数の計測地点でイメージセンサ234により取得された2次元画像を用いたSfM処理を行うことにより、3次元モデルMoLを生成してもよい。
また、図3においては計測部230および情報処理部240が同一の3次元計測装置20に設けられる例を説明したが、計測部230および情報処理部240は別個の装置として存在してもよい。例えば、計測部230が各センサにより取得されたデータを蓄積するデータ蓄積部を有し、計測部230による計測の完了後に、データ蓄積部から読み出されたデータが情報処理部240に供給され、情報処理部240が当該データに基づいて3次元モデルの生成および透明判定などを行ってもよい。
また、上記では3次元モデルMoLに色情報を設定するためにイメージセンサ234により取得された2次元画像がMoL生成部242において利用される例を説明したが、イメージセンサ234により取得された2次元画像の利用は必須でない。イメージセンサ234により取得された2次元画像が利用されない場合、3次元モデルMoLに色情報は設定されないが、透明領域判定部248は実施形態で説明した処理により透明領域の判定を行うことが可能である。
<E.ハードウェア構成>
以上、本発明の実施形態を説明した。上述した3次元モデルの生成や透明領域の判定などの情報処理は、ソフトウェアと、以下に説明する3次元計測装置のハードウェアとの協働により実現される。
図16は、3次元計測装置のハードウェア構成例を示したブロック図である。3次元計測装置は、CPU(Central Processing Unit)201と、ROM(Read Only Memory)202と、RAM(Random Access Memory)203と、ホストバス204と、を備える。また、3次元計測装置は、ブリッジ205と、外部バス206と、インタフェース207と、入力装置208と、出力装置209と、ストレージ装置(HDD)211と、ドライブ212と、ネットワークインタフェース215と、計測部230と、を備える。計測部230については図3などを参照して説明した通りである。
CPU201は、演算処理装置および制御装置として機能し、各種プログラムに従って3次元計測装置内の動作全般を制御する。また、CPU201は、マイクロプロセッサであってもよい。ROM202は、CPU201が使用するプログラムや演算パラメータ等を記憶する。RAM203は、CPU201の実行において使用するプログラムや、その実行において適宜変化するパラメータ等を一時記憶する。これらはCPUバスなどから構成されるホストバス204により相互に接続されている。これらCPU201、ROM202およびRAM203とソフトウェアの協働により、図3を参照して説明した情報処理部240の機能が実現され得る。
ホストバス204は、ブリッジ205を介して、PCI(Peripheral Component Interconnect/Interface)バスなどの外部バス206に接続されている。なお、必ずしもホストバス204、ブリッジ205および外部バス206を分離構成する必要はなく、1つのバスにこれらの機能を実装してもよい。
入力装置208は、マウス、キーボード、タッチパネル、ボタン、マイクロフォン、センサ、スイッチおよびレバーなどユーザが情報を入力するための入力手段と、ユーザによる入力に基づいて入力信号を生成し、CPU201に出力する入力制御回路などから構成されている。3次元計測装置のユーザは、該入力装置208を操作することにより、3次元計測装置に対して各種のデータを入力したり処理動作を指示したりすることができる。
出力装置209は、例えば、CRT(Cathode Ray Tube)ディスプレイ装置、液晶ディスプレイ(LCD)装置、プロジェクター装置、OLED(Organic Light Emitting Diode)装置およびランプなどの表示装置を含む。また、出力装置209は、スピーカおよびヘッドホンなどの音声出力装置を含む。
ストレージ装置211は、本実施形態にかかる3次元計測装置の記憶部の一例として構成されたデータ格納用の装置である。ストレージ装置211は、記憶媒体、記憶媒体にデータを記録する記録装置、記憶媒体からデータを読み出す読出し装置および記憶媒体に記録されたデータを削除する削除装置などを含んでもよい。ストレージ装置211は、例えば、HDD(Hard Disk Drive)またはSSD(Solid Strage Drive)、あるいは同等の機能を有するメモリ等で構成される。このストレージ装置211は、ストレージを駆動し、CPU201が実行するプログラムや各種データを格納する。
ドライブ212は、記憶媒体用リーダライタであり、3次元計測装置に内蔵、あるいは外付けされる。ドライブ212は、装着されている磁気ディスク、光ディスク、光磁気ディスク、または半導体メモリ等のリムーバブル記憶媒体24に記録されている情報を読み出して、RAM203またはストレージ装置211に出力する。また、ドライブ212は、リムーバブル記憶媒体24に情報を書き込むこともできる。
ネットワークインタフェース215は、例えば、専用網12に接続するための通信デバイス等で構成された通信インタフェースである。また、ネットワークインタフェース215は、無線LAN(Local Area Network)対応通信装置であっても、有線による通信を行うワイヤー通信装置であってもよい。
<F.むすび>
以上説明したように、本発明の実施形態によれば、透明物体に対応する点データを含まない3次元モデルMoLと、透明物体に対応する点データを含む3次元モデルMoIを組み合わせて用いることにより、各点データが透明物体に対応するか否かを判定することが可能である。このため、本発明の実施形態によれば、透明物体を含む3次元モデルMOLIを生成することができる。
このような3次元モデルMOLIの用途は多様である。例えば、遠隔する拠点に存在する各ユーザが他の拠点の情報を共有しながら作業を行うためのテレワークに3次元モデルMOLIは適用され得る。テレワークでは、各拠点の実際の映像が互いに配信されることで情報共有を実現することも可能であるが、実際の映像には、配信されることが好ましくない情報も含まれ得る。そこで、テレワーク用のシステムは、3次元モデルMOLIに基づいて生成した背景映像に、他の手段により検出されたユーザに対応する映像を重畳することにより、配信映像を生成してもよい。かかる構成によれば、テレワークにおけるセキュリティを向上することが可能である。
なお、添付図面を参照しながら本発明の好適な実施形態について詳細に説明したが、本発明はかかる例に限定されない。本発明の属する技術の分野における通常の知識を有する者であれば、特許請求の範囲に記載された技術的思想の範疇内において、各種の変更例または修正例に想到し得ることは明らかであり、これらについても、当然に本発明の技術的範囲に属するものと了解される。
例えば、本明細書の3次元計測装置20の処理における各ステップは、必ずしもフローチャートとして記載された順序に沿って時系列に処理する必要はない。例えば、3次元計測装置20の処理における各ステップは、フローチャートとして記載した順序と異なる順序で処理されても、並列的に処理されてもよい。
また、3次元計測装置20に内蔵されるCPU、ROMおよびRAMなどのハードウェアに、上述した3次元計測装置20の各構成と同等の機能を発揮させるためのコンピュータプログラムも作成可能である。また、該コンピュータプログラムを記憶させた記憶媒体も提供される。
20 3次元計測装置
32 ガラス体
34 不透明物体
230 計測部
232 レーザーセンサ
234 イメージセンサ
236 サーモセンサ
240 情報処理部
242 MoL生成部
244 MoI生成部
246 データ融合部
248 透明領域判定部

Claims (10)

  1. 透明物体を透過する波長帯の光を利用して測定された計測領域の表面形状から生成された第1の3次元モデルを取得する第1の取得部と、
    複数の計測位置において前記透明物体を透過しない波長帯の光を利用して出力された複数の2次元画像から生成された第2の3次元モデルを取得する第2の取得部と、
    前記第1の3次元モデルを構成する複数の第1の要素データと前記第2の3次元モデルを構成する複数の第2の要素データの位置関係に基づき、前記複数の第2の要素データのうちで前記透明物体に対応する要素データを判定する判定部と、
    を備える、情報処理装置。
  2. 前記判定部は、
    計測位置および第2の要素データを通る直線上に位置する第1の要素データ、または前記直線との距離が閾値以下である第1の要素データを探索し、
    探索されたいずれの第1の要素データも前記第2の要素データよりも前記計測位置から遠くに存在することに基づき、前記第2の要素データが前記透明物体に対応すると判定する、請求項1に記載の情報処理装置。
  3. 前記情報処理装置は、
    前記第2の3次元モデルのスケールを前記第1の3次元モデルのスケールに合わせるスケール変換を行い、スケール変換後の前記第2の3次元モデルと前記第1の3次元モデルを重ね合わせる融合部をさらに備え、
    前記判定部は、前記複数の第2の要素データのうちで、前記透明物体に対応すると判定されなかった第2の要素データを削除する、請求項1または2に記載の情報処理装置。
  4. 前記第1の3次元モデルを構成する前記複数の第1の要素データの各々には、前記計測領域を可視光カメラで撮像して得られる色付き画像から得られた色情報が設定されている、請求項1〜3のいずれか一項に記載の情報処理装置。
  5. 前記情報処理装置は、
    前記透明物体を透過する波長帯の光を利用して前記計測領域の表面形状を測定する第1のセンサをさらに備える、請求項1〜4のいずれか一項に記載の情報処理装置。
  6. 前記情報処理装置は、
    前記複数の計測位置において前記透明物体を透過しない波長帯の光を利用して前記複数の2次元画像を出力する第2のセンサをさらに備える、請求項1〜5のいずれか一項に記載の情報処理装置。
  7. 前記第2のセンサは、赤外線サーモカメラである、請求項6に記載の情報処理装置。
  8. 前記第2の取得部は、前記複数の2次元画像を用いたSfM(Structure from Motion)処理を行うことにより、前記第2の3次元モデルを取得する、請求項1〜7のいずれか一項に記載の情報処理装置。
  9. 透明物体を透過する波長帯の光を利用して測定された計測領域の表面形状から生成された第1の3次元モデルを取得することと、
    複数の計測位置において前記透明物体を透過しない波長帯の光を利用して出力された複数の2次元画像から生成された第2の3次元モデルを取得することと、
    前記第1の3次元モデルを構成する複数の第1の要素データと前記第2の3次元モデルを構成する複数の第2の要素データの位置関係に基づき、前記複数の第2の要素データのうちで前記透明物体に対応する要素データを判定することと、
    を含む、情報処理方法。
  10. コンピュータを、
    透明物体を透過する波長帯の光を利用して測定された計測領域の表面形状から生成された第1の3次元モデルを取得する第1の取得部と、
    複数の計測位置において前記透明物体を透過しない波長帯の光を利用して出力された複数の2次元画像から生成された第2の3次元モデルを取得する第2の取得部と、
    前記第1の3次元モデルを構成する複数の第1の要素データと前記第2の3次元モデルを構成する複数の第2の要素データの位置関係に基づき、前記複数の第2の要素データのうちで前記透明物体に対応する要素データを判定する判定部と、
    として機能させるための、プログラム。
JP2017158509A 2017-08-21 2017-08-21 情報処理装置、情報処理方法およびプログラム Pending JP2019035708A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2017158509A JP2019035708A (ja) 2017-08-21 2017-08-21 情報処理装置、情報処理方法およびプログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2017158509A JP2019035708A (ja) 2017-08-21 2017-08-21 情報処理装置、情報処理方法およびプログラム

Publications (1)

Publication Number Publication Date
JP2019035708A true JP2019035708A (ja) 2019-03-07

Family

ID=65637443

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2017158509A Pending JP2019035708A (ja) 2017-08-21 2017-08-21 情報処理装置、情報処理方法およびプログラム

Country Status (1)

Country Link
JP (1) JP2019035708A (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021245928A1 (ja) * 2020-06-05 2021-12-09 日本電信電話株式会社 画像処理装置、画像処理方法、および画像処理プログラム

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2021245928A1 (ja) * 2020-06-05 2021-12-09 日本電信電話株式会社 画像処理装置、画像処理方法、および画像処理プログラム

Similar Documents

Publication Publication Date Title
CN110383343B (zh) 不一致检测***、混合现实***、程序和不一致检测方法
JP6236118B2 (ja) 三次元データ処理装置、三次元データ処理システム、三次元データ処理方法およびプログラム
US10587864B2 (en) Image processing device and method
US10297074B2 (en) Three-dimensional modeling from optical capture
US9984177B2 (en) Modeling device, three-dimensional model generation device, modeling method, program and layout simulator
JP5343042B2 (ja) 点群データ処理装置および点群データ処理プログラム
US20190026400A1 (en) Three-dimensional modeling from point cloud data migration
CN102982560B (zh) 根据rgb和深度图像的表面分割
CN109076148A (zh) 日常场景重建引擎
JP2017168077A (ja) 画像処理方法、表示装置および点検システム
CN105190703A (zh) 使用光度立体来进行3d环境建模
CN107025663A (zh) 视觉***中用于3d点云匹配的杂波评分***及方法
CN107532885A (zh) 光图案中的强度变化用于体积中的物体的深度绘制
JP2009217363A (ja) 環境地図生成装置、方法及びプログラム
JP6541920B1 (ja) 情報処理装置、プログラム及び情報処理方法
da Silva Neto et al. Comparison of RGB-D sensors for 3D reconstruction
CN109615664A (zh) 一种用于光学透视增强现实显示器的标定方法与设备
JP6918648B2 (ja) 画像処理装置、画像処理方法及びプログラム
JP2016045644A (ja) 画像生成装置、画像生成方法、及びプログラム
JP2019035708A (ja) 情報処理装置、情報処理方法およびプログラム
JP7414090B2 (ja) 撮像装置および撮像装置の制御方法
JP6166631B2 (ja) 3次元形状計測システム
US11195290B2 (en) Apparatus and method for encoding in structured depth camera system
CN112487893B (zh) 一种三维目标识别方法及***
Rodríguez-Gonzálvez et al. Rgb-d sensors data quality assessment and improvement for advanced applications

Legal Events

Date Code Title Description
RD03 Notification of appointment of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7423

Effective date: 20190327

RD04 Notification of resignation of power of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7424

Effective date: 20190328