JP2018066687A - 情報処理装置、情報処理方法、および情報処理プログラム - Google Patents

情報処理装置、情報処理方法、および情報処理プログラム Download PDF

Info

Publication number
JP2018066687A
JP2018066687A JP2016206279A JP2016206279A JP2018066687A JP 2018066687 A JP2018066687 A JP 2018066687A JP 2016206279 A JP2016206279 A JP 2016206279A JP 2016206279 A JP2016206279 A JP 2016206279A JP 2018066687 A JP2018066687 A JP 2018066687A
Authority
JP
Japan
Prior art keywords
image
unit
captured image
information
motion information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2016206279A
Other languages
English (en)
Inventor
信一 住吉
Shinichi Sumiyoshi
信一 住吉
山合 敏文
Toshifumi Yamaai
敏文 山合
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ricoh Co Ltd
Original Assignee
Ricoh Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ricoh Co Ltd filed Critical Ricoh Co Ltd
Priority to JP2016206279A priority Critical patent/JP2018066687A/ja
Publication of JP2018066687A publication Critical patent/JP2018066687A/ja
Pending legal-status Critical Current

Links

Landscapes

  • Image Analysis (AREA)
  • Length Measuring Devices By Optical Means (AREA)

Abstract

【課題】複数の部材からなる構造体の部材情報を容易に得る。【解決手段】情報処理装置12の取得部30Aは、構造体に対する撮影位置の異なる、第1の撮影画像および第2の撮影画像を取得する。推定部30Bは、第1の撮影画像に含まれる特徴領域の、第2の撮影画像に含まれる対応する特徴領域に対する移動方向および移動量を示す動き情報に基づいて、第1の撮影画像における背景側の背景画像を構成する複数の画素領域の各々の動き情報を推定する。生成部30Cは、第1の撮影画像を構成する画素領域の各々を、背景画像における対応する画素領域の各々に対して推定された動き情報によって示される移動方向および移動量に応じて移動させることによって、第2の撮影画像を推定した推定画像を生成する。解析部30Dは、第2の撮影画像と推定画像との差分領域に基づいて、構造体を構成する部材の部材情報を導出する。【選択図】図7

Description

本発明は、情報処理装置、情報処理方法、および情報処理プログラムに関する。
梁や柱などからなる構造体について、鉄筋の配置状態などを検査する方法が知られている。鉄筋の配置状態の検査には、鉄筋の本数、径、位置などの検査がある。
例えば、特許文献1には、計測対象の鉄筋に円形のマーカーを付与すると共に、計測対象の鉄筋の背景に白いボードを設置することが開示されている。特許文献1では、この状態で、計測対象の鉄筋を撮影することで得られた撮影画像について、二値化処理などを行い、計測対象の鉄筋の径を計測することが開示されている。
しかしながら、従来技術では、マーカーや白いボードなどの備品を設置した上で撮影した撮影画像を用いる必要があり、これらの備品を用いずに撮影した撮影画像を用いて、構造体の部材情報を導出することは困難であった。すなわち、従来では、複数部材からなる構造体の部材情報を、容易に得る事は困難であった。
本発明は、上記に鑑みてなされたものであって、複数部材からなる構造体の部材情報を、容易に得ることを目的とする。
上述した課題を解決し、目的を達成するために、本発明は、構造体に対する撮影位置の異なる、第1の撮影画像および第2の撮影画像を取得する取得部と、前記第1の撮影画像に含まれる特徴領域の、前記第2の撮影画像に含まれる対応する前記特徴領域に対する移動方向および移動量を示す動き情報に基づいて、前記第1の撮影画像における背景側の背景画像を構成する複数の画素領域の各々の前記動き情報を推定する推定部と、前記第1の撮影画像を構成する画素領域の各々を、前記背景画像における対応する画素領域の各々に対して推定された前記動き情報によって示される移動方向および移動量に応じて移動させることによって、前記第2の撮影画像を推定した推定画像を生成する生成部と、前記第2の撮影画像と前記推定画像との差分領域に基づいて、前記構造体を構成する部材の部材情報を導出する解析部と、を備える情報処理装置である。
本発明によれば、複数部材からなる構造体の部材情報を、容易に得ることができる、という効果を奏する。
図1は、情報処理システムの概略図の一例である。 図2は、構造体を構成する柱部材および梁部材の一例を示す模式図である。 図3は、撮影部による撮影方法の一例を示す説明図である。 図4は、撮影部の外観模式図の一例である。 図5は、情報処理装置のハードウェア構成図の一例である。 図6は、撮影部の機能的構成の一例を示す、ブロック図である。 図7は、情報処理装置の機能的構成の一例を示すブロック図である。 図8は、画像処理の一例を示す説明図である。 図9は、画像処理の一例を示す説明図である。 図10は、画像処理の一例を示す説明図である。 図11は、解析処理の手順の一例を示す、フローチャートである。 図12は、簡易マーカーの一例を示す模式図である。 図13は、変形例の情報処理システムの一例を示す模式図である。 図14は、変形例の情報処理システムの一例を示す模式図である。 図15は、変形例の情報処理システムの一例を示す模式図である。 図16は、変形例の情報処理システムの一例を示す模式図である。
以下、本発明の実施形態について説明する。
図1は、本実施の形態の情報処理システム10の概略図である。
情報処理システム10は、情報処理装置12と、撮影部14と、を備える。情報処理装置12と撮影部14とは、ネットワークなどの通信部13を介して互いに通信可能に接続されている。
通信部13には、例えば、短距離無線技術、移動通信システムによる無線通信網、およびインターネットなどを用いる。短距離無線技術には、Wi−Fi(登録商標)(Wireless Fidelity)などが挙げられる。移動通信システムによる無線通信網には、LTE(Long Term Evolution)や、NFC(Near Field Communication)や、WiMAX(Worldwide Interoperability for Microwave Access)などが挙げられる。また、通信部13は、情報処理装置12と撮影部14とを直接接続するケーブルであってもよい。
情報処理システム10は、構造体20を構成する部材の部材情報を導出する。
まず、計測対象の構造体20について説明する。構造体20は、棒状の部材21を複数組み合わせて構成される。部材21は、例えば、鉄筋、柵、棒、アンカーロッドなどである。アンカーロッドは、木材や鋼材などの構造部材である。
本実施の形態では、一例として、部材21が鉄筋である場合を説明する。すなわち、本実施の形態では、構造体20が、複数の鉄筋を組み合わせて構成される場合を説明する。また、本実施の形態では、構造体20が、複数の鉄筋を組み合わせた柱部材22と、複数の鉄筋を組み合わせた梁部材24と、から構成される場合を説明する。
図2は、本実施の形態の構造体20を構成する、柱部材22および梁部材24の一例を示す模式図である。
図2(A)は、柱部材22の一例を示す模式図である。柱部材22は、鉛直方向Xに沿って長い柱状の部材である。柱部材22は、複数の主筋22Aと、複数の補助筋22Bと、から構成される。柱部材22における主筋22Aは、鉛直方向Xに沿って長い棒状の部材である。柱部材22における補助筋22Bは、主筋22Aの長軸方向である鉛直方向Xに対して交差する水平方向Yに長い、棒状の部材である。補助筋22Bは、複数の主筋22Aを、水平方向Yに沿って間隔を隔てて支持する部材である。
図2(B)は、梁部材24の一例を示す模式図である。梁部材24は、水平方向Yに沿って長い柱状の部材である。梁部材24は、複数の主筋24Aと、複数の補助筋24Bと、から構成される。主筋24Aは、水平方向Yに沿って長い棒状の部材である。補助筋24Bは、鉛直方向Xに長い、棒状の部材である。補助筋24Bは、複数の主筋24Aを、鉛直方向Xに沿って間隔を隔てて支持する部材である。
なお、鉛直方向Xおよび水平方向Yは、実空間上における鉛直方向および水平方向の各々と一致してもよいし不一致であってもよい。また、鉛直方向Xおよび水平方向Yは、互いに交差する方向であればよく、直交する方向に限定されない。
ここで、構造体20においては、主筋22Aおよび主筋24Aが、構造体20の強度に寄与する。このため、本実施の形態では、情報処理装置12は、構造体20における、主筋22Aおよび主筋24Aを計測する場合を説明する。なお、補助筋22Bおよび補助筋24Bについても、計測対象としてよい。
図1に戻り、説明を続ける。撮影部14は、構造体20を撮影し、撮影画像を得る。本実施の形態では、撮影部14は、構造体20に対する撮影位置の異なる、複数の撮影画像を得る。本実施の形態では、抽出画像41は、2枚の撮影画像(第1の撮影画像、第2の撮影画像と称する)を得る。なお、撮影部14は、3枚以上の撮影画像を得てもよい。
図3は、撮影部14による撮影方法の一例を示す説明図である。
図3(A)は、構造体20における、柱部材22の主筋22Aを計測するときの、撮影方法の一例を示す説明図である。例えば、柱部材22の主筋22Aを計測する場合、ユーザMは、撮影部14を支持する把持部材16の一端側を把持する。把持部材16は、所定方向に長い棒状の部材である。把持部材16は、撮影部14の死角を減らす観点から、可能な限り細い、棒状の部材であることが好ましい。この把持部材16の長尺方向の他端側には、撮影部14が支持されている。
ユーザMは、把持部材16の長尺方向の一端側を把持し、把持部材16を水平方向Yへ移動させる。これによって、ユーザMは、構造体20の外部から主筋22Aおよび補助筋24Bの隙間を介して構造体20の内側へ向かって、撮影部14を移動させる。そして、この移動中に、撮影部14は、複数の撮影画像を得る。このため、この場合、撮影部14は、構造体20の外部から内側へ向かって該撮影部14を水平方向Yに移動させたときの、撮影位置の異なる複数の撮影画像を得る。
図3(B)は、構造体20における、梁部材24の主筋24Aを計測するときの、撮影方法の一例を示す説明図である。例えば、梁部材24の主筋24Aを計測する場合、ユーザMは、把持部材16の長尺方向の一端側を把持し、把持部材16を鉛直方向Xへ移動させる。これによって、ユーザMは、構造体20の外部から、主筋24Aおよび補助筋24Bの隙間を介して構造体20の内側へ向かって、鉛直方向Xに撮影部14を移動させる。そして、この移動中に、撮影部14は、複数の撮影画像を得る。このため、この場合、撮影部14は、構造体20の外部から内側へ向かって該撮影部14を鉛直方向Xに移動させたときの、撮影位置の異なる複数の撮影画像を得る。
なお、撮影部14の移動方法および移動方向は、上記方法および方向に限定されない。例えば、計測対象の構造体20を中心として周方向に撮影部14を移動させることで、撮影位置の異なる複数の撮影画像を得ても良い。
撮影部14は、撮影によって撮影画像の画像データを得る、公知の撮影装置である。なお、本実施の形態では、撮影画像の画像データを、単に、撮影画像と称して説明する。撮影部14は、例えば、デジタルカメラである。
なお、撮影部14は、1度の撮影によって、より広い画角を撮影可能であることが好ましい。このため、撮影部14は、凸面鏡や円錐鏡を備えた全周囲カメラや、全天球パノラマ画像を撮影可能な全天球カメラ、であることが好ましい。これらの中でも、より広角な撮影画像が得られる観点、および、構造体20へ挿入しやすいサイズである観点から、撮影部14は、全天球パノラマ画像を撮影する全天球カメラであることが好ましい。
全天球パノラマ画像とは、全天球の範囲(360°)の撮影によって得られるパノラマ画像である。本実施の形態では、撮影部14が、全天球パノラマ画像を得る全天球カメラである場合を、一例として説明する。撮影部14に、全天球カメラを用いることで、図3に示すように、360°の撮影領域Pの撮影画像が得られる。
図4は、撮影部14の外観模式図の一例である。図4(A)は撮影部14の側面図である。図4(B)は、撮影部14の、図4(A)とは反対側の側面図である。図4(C)は、撮影部14の上面図である。
図4(A)に示すように、撮影部14は、例えば、人間が片手で持つことができる大きさである。なお、撮影部14の大きさは、このような大きさに限られない。
図4に示すように、撮影部14の上部には、正面側(一方の面側)にレンズ14A、背面側(他方の面側)にレンズ14B、が設けられている。レンズ14Aおよびレンズ14Bは、各々、180°以上の画角を有する広角レンズである。本実施の形態では、レンズ14Aおよびレンズ14Bは、広角レンズの1つである魚眼レンズであるものとして説明する。撮影部14では、レンズ14Aおよびレンズ14Bの各々を介して像が導かれ、各々に対応する撮像素子に像が形成される。なお、撮像素子としては、CCD(charge−coupled device)や、CMOS(Complementary MOS)イメージセンサ等が挙げられる。また、図4(B)に示されるように、撮影部14の正面側には、シャッターボタン等の操作部14Cが設けられていてもよい。
撮影部14は、レンズ14Aおよびレンズ14Bから導かれた像が各々の撮像素子で検出されることで、撮影部14の周りの被写体が撮像され、2つの半球画像が得られる。全天球パノラマ画像は、これらの2つの半球画像を合成することで、作成される。
以下、全天球パノラマ画像を、単に、撮影画像と称して説明する。
次に、情報処理装置12のハードウェア構成を説明する。図5は、情報処理装置12のハードウェア構成図の一例である。
情報処理装置12は、CPU(Central Processing Unit)501、ROM(Read Only Memory)502、RAM(Random Access Memory)503、HDD(Hard Disk Drive)505、メディアドライブ507、ディスプレイ508、ネットワークI/F509、キーボード511、マウス512、およびCD−ROMドライブ514を、バス510を介して接続した構成である。メディアドライブ507は、フラッシュメモリ等の記録メディア506に対してデータの読み出し又は書き込み(記憶)を行う。CD−ROMドライブ514は、着脱可能な記録媒体の一例としてのCD−ROM(Compact Disc Read Only Memory)513に対する各種データの読み出し又は書き込みを行う。
なお、情報処理装置12は、ディスプレイ508と、キーボード511と、マウス512と、を一体的に構成した、タッチパネルを備えた構成であってもよい。また、情報処理装置12は、ディスプレイ508、キーボード511、およびマウス512の少なくとも1つを、情報処理装置12とは別体として構成してもよい。
次に、撮影部14の構成を説明する。図6は、撮影部14の機能的構成の一例を示す、ブロック図である。
撮影部14は、レンズ14Aと、レンズ14Bと、イメージセンサ14Dと、イメージセンサ14Eと、制御部14と、記憶部14Jと、通信部14Kと、を備える。イメージセンサ14Dおよびイメージセンサ14Eは、CCDや、COMSイメージセンサである。レンズ14Aで導かれた像は、イメージセンサ14Dで半球画像として検出され、制御部14Fへ出力される。レンズ14Bで導かれた像は、イメージセンサ14Eで半球画像として検出され、制御部14Fへ出力される。
制御部14Fは、撮影部14を制御する。制御部14Fは、画像合成部14Gと、記録処理部14Hと、データ通信処理部14Iと、を含む。画像合成部14Gは、イメージセンサ14Dから受付けた半球画像と、イメージセンサ14Eから受付けた半球画像と、を合成する。この合成によって、画像合成部14Gは、全天球パノラマ画像としての撮影画像を得る。記録処理部14Hは、画像合成部14Gで得られた撮影画像を、記憶部14Jへ記憶する。また、データ通信処理部14Iは、画像合成部14Gで得られた撮影画像を、通信部14Kを介して、情報処理装置12へ出力する。
次に、情報処理装置12の機能的構成を説明する。図7は、情報処理装置12の機能的構成の一例を示すブロック図である。
情報処理装置12は、制御部30と、通信部32と、入力部33と、表示部34と、記憶部35と、を備える。制御部30と、通信部32と、入力部33と、表示部34と、記憶部35と、はバス36を介して接続されている。
通信部32は、外部装置と通信するための通信インターフェースである。本実施の形態では、通信部32は、撮影部14に接続されている。このため、制御部30では、通信部32を介して撮影部14から、撮影画像を得る。
入力部33は、ユーザによる操作指示を受付ける。入力部33は、キーボードやマウスなどである。表示部34は、各種画像を表示する表示装置である。記憶部35は、各種データを記憶する。
制御部30は、情報処理装置12を制御する。制御部30は、CPU501、ROM502、およびRAM503などによって実現する(図5参照)。なお、制御部30は、1または複数の回路などによって実現してもよい。
本実施の形態の情報処理装置12で実行される各種処理を実行するためのプログラムは、ROM502などに予め組み込んで提供される。
なお、本実施の形態の情報処理装置12で実行される各種処理を実行するためのプログラムは、情報処理装置12にインストール可能な形式又は実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録されて提供するように構成してもよい。
また、本実施の形態の情報処理装置12で実行されるプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供するように構成してもよい。また、本実施の形態の情報処理装置12における各処理を実行するためのプログラムを、インターネット等のネットワーク経由で提供または配布するように構成してもよい。
制御部30は、取得部30Aと、推定部30Bと、生成部30Cと、解析部30Dと、出力制御部30Eと、を含む。推定部30Bは、抽出部30Fと、算出部30Gと、分離部30Hと、動き推定部30Iと、を含む。
取得部30A、推定部30B、生成部30C、解析部30D、出力制御部30E、抽出部30F、算出部30G、分離部30H、および、動き推定部30I、の一部または全ては、例えば、CPU501(図5参照)などの処理装置にプログラムを実行させること(すなわちソフトウェア)により実現してもよい。また、IC(Integrated Circuit)などのハードウェアにより実現してもよいし、併用して実現してもよい。
取得部30Aは、構造体20に対する撮影位置の異なる、第1の撮影画像および第2の撮影画像を取得する。第1の撮影画像および第2の撮影画像は、構造体20に対する撮影位置の異なる撮影画像である。
上述したように、本実施の形態では、撮影部14は、構造体20の外部から内側へ向かって該撮影部14を移動させたときの、撮影位置の異なる複数の撮影画像を得る。なお、撮影位置が異なる、とは、上述したように、構造体20に対する撮影位置が異なる事を示す。また、被写体は、あくまでも構造体20である。
取得部30Aは、通信部32を介して撮影部14から、これらの複数の撮影画像の内の1枚の撮影画像(第1の撮影画像)と、該複数の撮影画像の内の、該第1の撮影画像とは撮影位置の異なる他の1枚の撮影画像(第2の撮影画像)と、を取得する。
第1の撮影画像と第2の撮影画像の撮影タイミングは、同じであってもよいし、異なるタイミングであってもよい。同じタイミングである場合、撮影部14を、撮影位置の異なる複数の撮影部から構成すればよい。本実施の形態では、一例として、第2の撮影画像の撮影タイミングが、第1の撮影画像の撮影タイミングより前である場合を説明する。但し、第2の撮影画像の撮影タイミングが、第1の撮影画像の撮影タイミングより後であってもよい。
なお、記憶部35に、構造体20に対する撮影位置の異なる複数の撮影画像を予め記憶してもよい。また、制御部30は、撮影部14で撮影された撮影画像を、記憶部35へ記憶してもよい。この場合、取得部30Aは、記憶部35から、第1の撮影画像および第2の撮影画像を読取ることで、これらの撮影画像を取得してもよい。
図8〜図10は、制御部30による画像処理の一例を示す説明図である。なお、以下では、撮影画像が、標準のアスペクト比の撮影画像である場合を説明する。なお、撮影画像が全天球パノラマ画像である場合、制御部30は、該全天球パノラマ画像をキューブマップに展開した後に、下記と同様の処理を行えばよい。
図8(A)および図8(B)は、撮影画像40の一例を示す模式図である。図8(A)は、第2の撮影画像40Bを示す模式図であり、図8(B)は、第1の撮影画像40Aを示す模式図である。図8(A)および図8(B)には、柱部材22の主筋22Aを計測する場合に、撮影部14が水平方向Yに沿って構造体20の外部から内側へ挿入されるときに撮影された、第2の撮影画像40Bおよび第1の撮影画像40Aを示した。
図8(B)および図8(A)に示すように、第1の撮影画像40Aおよび第2の撮影画像40Bは、同じ構造体20における柱部材22を、互いに異なる撮影位置から撮影した撮影画像40である。図8に示す例では、第2の撮影画像40Bは、第1の撮影画像40Aに比べて柱部材22からより離れた撮影位置から、該柱部材22を撮影した撮影画像40である。また、図8に示す例では、第1の撮影画像40Aは、第2の撮影画像40Bに比べて、柱部材22により近い撮影位置から該柱部材22を撮影した撮影画像40である。
図7に戻り、説明を続ける。推定部30Bは、第1の撮影画像40Aに含まれる特徴領域ごとに、動き情報を導出する。動き情報は、第1の撮影画像40Aに含まれる特徴領域の、第2の撮影画像40Bに含まれる対応する特徴領域に対する、動きを示す情報である。
そして、推定部30Bは、第1の撮影画像40Aに含まれる特徴領域の各々の動き情報に基づいて、第1の撮影画像40Aにおける背景側の背景画像を構成する、複数の画素領域の各々の、動き情報を生成する。
特徴領域とは、第1の撮影画像40Aおよび第2の撮影画像40Bの各々の、画像処理における特徴的な領域を示す。特徴領域は、特定の色、特定の形状、等を示す領域である。特定の形状には、例えば、エッジがある。本実施の形態では、特徴領域が、エッジを示すエッジ領域である場合を、一例として説明する。
動き情報は、移動方向および移動量によって表される。本実施の形態では、動き情報は、第1の撮影画像40Aに含まれる特徴領域(エッジ領域)の、第2の撮影画像40Bにおける対応する特徴領域(エッジ領域)に対する、移動方向および移動量を示す。動き情報は、エッジフローと称される場合がある。エッジフローは、撮影画像40における特徴領域(エッジ領域)の動きを、ベクトルで表したものである。
推定部30Bについて、詳細を説明する。推定部30Bは、抽出部30Fと、算出部30Gと、分離部30Hと、動き推定部30Iと、を含む。
抽出部30Fは、第1の撮影画像40Aおよび第2の撮影画像40Bの各々から、複数のエッジ領域を抽出する。
図8(C)および図8(D)は、エッジ領域Eの抽出された抽出画像41の説明図である。抽出部30Fは、第1の撮影画像40Aおよび第2の撮影画像40Bの各々のエッジ領域Eを抽出する、エッジ抽出処理を実行する。これにより、抽出部30Fは、抽出画像41(第1の抽出画像41A、第2の抽出画像41B)を導出する。
すなわち、抽出部30Fは、第1の撮影画像40A(図8(B)参照)から、第1の撮影画像40Aに含まれるエッジ領域Eaを抽出した、第1の抽出画像41Aを導出する(図8(D)参照)。同様に、抽出部30Fは、第2の撮影画像40B(図8(A)参照)から、第2の撮影画像40Bに含まれるエッジ領域Ebを抽出した、第2の抽出画像41Bを導出する(図8(C)参照)。
抽出部30Fは、公知のエッジ抽出方法を用いて、第1の撮影画像40Aおよび第2の撮影画像40Bの各々から、エッジ領域Eを抽出すればよい。
算出部30Gは、第1の撮影画像40Aに含まれる複数のエッジ領域Eaについて、第2の撮影画像40Bに含まれる対応するエッジ領域Ebに対する、動き情報を算出する。
図8(E)は、算出された動き情報Vの説明図である。算出部30Gは、第1の撮影画像40Aに含まれるエッジ領域Eaの各々について、第2の撮影画像40Bにおける、同じエッジ領域Eを示すエッジ領域Ebを特定する。このエッジ領域Ebの特定には、公知の画像処理方法を用いればよい。
そして、算出部30Gは、第1の撮影画像40Aに含まれるエッジ領域Eaの各々について、第2の撮影画像40Bにおける対応するエッジ領域Ebに対する、動き情報Vを算出する。
図8(F)は、動き情報Vを拡大して示した模式図である。動き情報Vは、本実施の形態では、第1の撮影画像40Aに含まれるエッジ領域Eaの、第2の撮影画像40Bにおける対応するエッジ領域Ebに対する、移動方向および移動量を示すベクトルで表される。
抽出部30Fは、第1の抽出画像41Aに含まれる全てのエッジ領域Eaの各々について、第2の抽出画像41Bにおける対応するエッジ領域Ebからの動き情報Vを算出する。これによって、抽出部30Fは、図8(E)に示す、動き情報付与画像42Aを得る。
動き情報付与画像42Aは、第1の撮影画像40Aに含まれるエッジ領域Eaの各々に、動き情報Vを付与したものである。
抽出部30Fは、例えば、公知のMRF(Markov Random Field:マルコフ確立場)を用いて、エッジ領域Eaの各々について動き情報Vを算出する。
具体的には、MRF式は、下記式(1)で表される。
式(1)中、NCC()は、正規化相互相関の演算結果を示す。また、式(1)中、λは、0.005である。また、式(1)中、Nは、処理対象の画素領域Gの周辺の他の画素領域Gであって、且つ、エッジ領域Eを含む、4つの画素領域Gを示す。
また、式(1)中、S、C、εは、各々、下記式(2)〜式(4)で表される。
図7に戻り、説明を続ける。分離部30Hは、第1の撮影画像40Aに含まれるエッジ領域Eaごとに算出された動き情報Vを、前景側の前景画像と、背景側の背景画像と、に分離する。
前景側とは、撮影画像40における、奥行き閾値より撮影部14に近い側を示す。一方、背景側とは、撮影画像40における、奥行き閾値より撮影部14から遠い側を示す。奥行き閾値は、予め定めればよい。
背景画像は、算出部30Gによって算出されたエッジ領域Eの動き情報Vの内、奥行き閾値より前景側に位置するエッジ領域Eの動き情報Vを、撮影画像40における該エッジ領域Eに対応する位置に配置した画像である。
前景画像は、算出部30Gによって算出されたエッジ領域Eの動き情報Vの内、奥行き閾値より背景側に位置するエッジ領域Eの動き情報Vを、撮影画像40における該エッジ領域Eに対応する位置に配置した画像である。
具体的には、分離部30Hは、図8(E)に示す動き情報付与画像42に含まれる動き情報Vを、所定の動き閾値以上の動き量を示す動き情報V1と、該動き閾値未満の動き量を示す動き情報V2と、に分類する。そして、分離部30Hは、動き情報付与画像42を、背景画像43A2と、前景画像43A1と、に分類する(図9(B)、図9(A)参照)。なお、上記動き閾値は、上記奥行き閾値に応じて、予め定めればよい。
このため、図9(B)に示すように、前景画像43A1は、動き情報付与画像42(図8(E)参照)について、第1の撮影画像40Aにおける動き情報V1の付与されたエッジ領域Eaの位置および位置関係を維持したまま、動き情報V1を抽出した画像となる。
また、図9(A)に示すように、背景画像43A2は、動き情報付与画像42(図8(E)参照)について、動き情報V2の付与されたエッジ領域Eaの位置および位置関係を維持したまま、動き情報V2を抽出した画像となる。
詳細には、分離部30Hは、第1の撮影画像40Aから生成した動き情報付与画像42(図8(E)参照)を、撮影画像40の撮影空間における奥行き方向に沿って、複数の平面を層状に配置した構成とみなす。そして、分離部30Hは、動き情報付与画像42を構成する複数の平面を、奥行きが所定の奥行き閾値より手前側(前面側)(撮影部14側)の平面群と、閾値より奥側(背景側)(撮影部14から離れる方向)の平面群と、に分離する。平面群を構成する各平面(レイヤ)には、対応する奥行きに位置するエッジ領域Eおよび動き情報Vが付与されている。
そして、分離部30Hは、奥行き閾値より前景側の平面群を、前景側の1つの面として扱う。このとき、分離部30Hは、奥行き閾値より前景側の平面群を、1つの面とするための射影変換行列を、公知のRANSAC(Random Sample Consensus)手法を用いて求める。そして、この1面に含まれるエッジ領域Eaの各々の動き情報V1の内、性能のよいエッジ領域Eaの動き情報V1の群を、RAMSAC手法により求め、前景画像43A1とする(図9(B)参照)。
同様に、分離部30Hは、奥行き閾値より背景側の平面群を、背景側の1つの面として扱う。このとき、分離部30Hは、奥行き閾値より背景側の平面群を、1つの面とするための射影変換行列を、公知のRANSAC手法を用いて求める。そして、この1面に含まれるエッジ領域Eaの各々の動き情報V2の内、性能のよいエッジ領域Eaの動き情報V2の群を、RAMSAC手法により求め、背景画像43A2とする(図9(A)参照)。
ここで、撮影部14を移動させながら撮影した場合、得られた撮影画像40に含まれる被写体は、撮影部14に対してより遠い位置にある被写体と、撮影部14に対してより近い位置にある被写体との間で、撮影画像40間における移動量が異なる。具体的には、撮影部14に対してより遠い位置にある被写体の移動量は、撮影部14に対してより近い位置にある被写体の移動量に比べて小さい。
このため、動き情報付与画像42を、背景画像43A2と前景画像43A1とに分離する時に用いる、上記動き閾値は、奥行き閾値より背景側の被写体と奥行き閾値より前景側の被写体とを分離可能となるように、予め予測した移動量に応じて、予め設定すればよい。すなわち、上記動き閾値は、第1の撮影画像40Aと第2の撮影画像40Bとの撮影位置の差の大きさ、計測対象の構造体20の種類、などに応じて、適宜調整すればよい。また、上記動き閾値は、ユーザによる入力部33の操作指示などによって、適宜変更可能としてもよい。
すなわち、本実施の形態では、分離部30Hは、第1の撮影画像40A(図8(B)参照)における、エッジ領域Eaの各々に付与した動き情報Vの内(図8(E)参照)、動き閾値より小さい動き情報Vを動き情報V2とし、動き閾値以上の動き情報Vを動き情報V1とする。そして、分離部30Hは、動き情報付与画像42を、動き閾値より小さい動き情報V2を規定した背景画像43A2と、動き閾値以上の動き情報V1を規定した前景画像43A1と、に分類する(図9(B)、図9(A)参照)。
なお、構造体20の撮影時の撮影部14の移動方向や移動方法を変更することで、撮影部14に対してより遠い位置にある被写体の移動量が、撮影部14に対してより近い位置にある被写体の移動量に比べて大きくなる場合がある。この場合、分離部30Hは、動き閾値より小さい動き情報Vを動き情報V1とし、動き閾値以上の動き情報Vを動き情報V2とすればよい。
動き推定部30Iは、背景画像43A2における、エッジ領域Eaごとの動き情報V2に基づいて、背景画像43A2を構成する複数の画素領域Gの各々の動き情報V3を推定する。
ここで、前景画像43A1の動き情報Vの大きさと、背景画像43A2の動き情報Vの大きさと、を比較すると、通常は、背景画像43A2の動き情報Vの方が小さい。このため、背景画像43A2の動き情報Vの方が、前景画像43A1より安定した情報を取得できるケースが多い。安定した情報とは、動き情報V(位置と大きさ)に関して、ノイズが少ない、という意味である。このように、背景画像43A2の動き情報Vの方が、前景画像43A1の動き用法Vより安定していることから、本実施の形態では、背景画像43A2を構成する複数の画素領域Gの各々の動き情報V3を推定し、後述する推定画像の生成に用いる(詳細後述)。
図9(C)は、背景動き画像44A2の一例を示す模式図である。背景動き画像44A2は、背景画像43A2(図9(A)参照)によってエッジ領域Eごとに規定された動き情報V2から、背景画像43A2を構成する画素領域Gの各々の動き情報V(動き情報V3と称して説明する)を推定したものである。
画素領域Gとは、予め定めた画素数の画素の占める領域である。本実施の形態では、画素領域Gは、1つの画素の占める領域であるとして説明する。
動き推定部30Iは、エッジ領域Eごとに規定された動き情報V2を用いて、画素領域Gごとの動き情報V3を補完する。この補完処理によって、動き推定部30Iは、画素領域Gの各々の動き情報V3を推定する。この補完処理には、公知の補完手法を用いればよい。公知の補完手法は、例えば、公知のobstruction−free手法に示される手法である。
これによって、動き推定部30Iは、第1の撮影画像40Aにおける、所定の奥行き閾値より背景側のエッジ領域Eの示す動き情報V2を用いて、第1の撮影画像40Aを構成する全ての画素領域Gの動き情報V(動き情報V3)を推定する。すなわち、動き推定部30Iは、背景画像43A2の動き情報V2に応じた動き情報V3を、第1の撮影画像40Aを構成する全ての画素領域Gに適用する。
第1の撮影画像40Aを構成する全ての画素領域Gに、背景画像43A2の動き情報V2に応じた動き情報V3を規定した画像を、背景動き画像44A2と称して説明する。
なお、図9(C)には、背景動き画像44A2の一部の画素領域Gについて、動き情報V3を示す矢印を示したが、実際には、背景動き画像44A2の全ての画素領域Gについて、動き情報V3が規定されている。
図1に戻り、次に、生成部30Cについて説明する。生成部30Cは、第1の撮影画像40Aを構成する画素領域Gの各々を、背景画像43A2における対応する画素領域Gの各々に対して推定された動き情報V3によって示される移動方向および移動量に応じて移動させる。
このとき、生成部30Cは、動き情報V3によって示される移動方向が、第2の撮影画像40Bに含まれるエッジ領域Ebから第1の撮影画像40Aに含まれる対応するエッジ領域Eaへの移動方向を示す場合、第1の撮影画像40Aを構成する画素領域Gの各々を、動き情報V3によって示される移動方向の逆方向に移動させる。
詳細には、生成部30Cは、第1の撮影画像40Aを構成する画素領域Gの各々と、背景動き画像44A2を構成する画素領域Gの各々と、について、同じ画素位置の対を特定する。そして、生成部30Cは、第1の撮影画像40Aにおける画素領域Gを、背景動き画像44A2における同じ画素位置の画素領域Gに付与された動き情報V3によって示される移動方向の逆方向に、該動き情報V3によって示される移動量、移動させる。
一方、生成部30Cは、動き情報V3によって示される移動方向が、第1の撮影画像40Aに含まれるエッジ領域Eから第2の撮影画像40Bに含まれる対応するエッジ領域Eへの移動方向を示す場合、第1の撮影画像40Aを構成する画素領域Gの各々を、動き情報V3によって示される移動方向へ、該動き情報V3によって示される移動量、移動させればよい。
このようにして、生成部30Cは、第1の撮影画像40A(図8(B)参照)を、背景動き画像44A2(図9(C)参照)を構成する画素領域Gの各々に付与された動き情報V3に応じて変形する。
これによって、生成部30Cは、第1の撮影画像40Aから第2の撮影画像40Bを推定した、推定画像45(図9(D)参照)を生成する。
ここで、上述したように、撮影部14を移動させながら撮影した場合、得られた撮影画像40中における被写体の位置は、撮影部14に対してより遠い位置にある被写体と、撮影部14に対してより近い位置にある被写体との間で、撮影画像40間における移動方向および移動量が異なるものとなる。また、背景動き画像44A2は、第1の撮影画像40Aの画素領域Gの各々に、背景画像43A2に示される動き情報V2に応じた動き情報V3を規定したものである。
このため、第1の撮影画像40Aを背景動き画像44A2に示される動き情報V3を用いて変形することによって生成された推定画像45は、奥行き閾値より背景側の背景領域については第2の撮影画像40Bに近いものとなるが、奥行き閾値より前景側の前景領域については、第2の撮影画像40Bとは異なり変形した画像領域となる。
図7に戻り説明を続ける。解析部30Dは、第2の撮影画像40Bと、第1の撮影画像40Aから第2の撮影画像40Bを推定した推定画像45と、の差分領域に基づいて、構造体20を構成する部材の部材情報を導出する。
図10(A)は、図8(A)の第2の撮影画像40Bと同様である。図10(B)は、図9(D)の推定画像45と同様である。
解析部30Dは、第2の撮影画像40Bと推定画像45との差分領域49を算出する。図10(C)は、差分領域49を示す差分抽出画像46の一例である。差分抽出画像46は、前景側の差分が、背景側の差分に比べて大きい事を示す、画像である。差分の大きい、すなわち移動量のより大きい前景側の部材は、部材の形状を保った状態で差分領域49として表されやすい。
そこで、解析部30Dは、差分領域49を解析することで、部材21(本実施の形態では、主筋22Aまたは主筋24A)を示す、部材情報52を導出する。
部材情報52は、部材21(主筋22Aまたは主筋24A)の数、部材21の位置、部材21の径、の少なくとも1つを含む。部材21の位置は、他の部材21に対する相対位置を示す。本実施の形態では、部材情報52は、少なくとも部材21(主筋22Aまたは主筋24A)の数を含む。
解析部30Dは、差分領域49を公知の画像処理方法により解析し、部材情報52を得ればよい。
本実施の形態では、解析部30Dは、差分領域49を解析することで、構造体20における前景側に配置された部材21の部材情報52を導出する。
例えば、解析部30Dは、差分領域49を示す差分抽出画像46(図10(C)参照)について、確率的ハフ変換を施すことで、棒状の部材21のシルエットを特定することで、部材21(主筋22A、主筋24A)を検出する。そして、解析部30Dは、検出した部材21の数を計数することで、部材情報52を算出してもよい。
本実施の形態では、解析部30Dは、部材21の数を、部材情報52として得る。図10(D)は、解析部30Dによる解析結果47の一例を示す図である。図10(D)に示す例では、解析部30Dは、柱部材22の主筋22Aの数“4本”と、これらの主筋22Aの各々の位置と、を部材情報52として得る。
なお、解析部30Dは、公知のシルエット補正処理を行った後に、確率的ハフ変換を行ってもよい。シルエット補正処理には、メディアンフィルタ、エロード・ダイロード処理などがある。
また、本実施の形態では、主筋24Aおよび梁部材24は、鉛直方向Xまたは水平方向Yに沿って延伸して配置されている状態で撮影される。このため、解析部30Dは、重力センサによる補正を行うことで、鉛直方向Xまたは水平方向Yのバイアスをかけた後に、部材情報52を導出してもよい。
また、解析部30Dは、差分抽出画像46について、白黒反転処理や、ノイズ除去処理を施した後に、部材情報52を導出してもよい。
なお、図3(B)に示すように、計測対象が梁部材24の主筋24Aである場合、制御部30は、構造体20に対して鉛直方向Xに移動させることで撮影された第1の撮影画像40Aおよび第2の撮影画像40Bを用いて、上記と同様の処理を行うことで、梁部材24の主筋24Aの数を、部材情報52として得る。
図7に戻り、説明を続ける。出力制御部30Eは、部材情報52を出力するように制御する。例えば、出力制御部30Eは、部材情報52を示す画像を表示するように、表示部34を制御する。この場合、表示部34には、部材情報52を示す画像が表示される。
また、例えば、出力制御部30Eは、部材情報52を、通信部32を介して外部装置へ送信する。この場合、外部装置は、情報処理装置12から部材情報52を受付け、各種処理に用いる。なお、出力制御部30Eは、部材情報52を、記憶部35へ記憶してもよい。
なお、取得部30A、推定部30B、生成部30C、解析部30D、出力制御部30E、抽出部30F、算出部30G、分離部30H、動き推定部30I、の少なくとも1つの機能を、サーバ装置などの外部装置に設けた構成としてもよい。
また、解析部30Dは、導出した部材情報52と、構造体20の設計情報と、を比較し、導出した部材情報52が設計情報と一致するか否かを判定してもよい。この場合、出力制御部30Eは、この判定結果を示す情報を、更に出力制御すればよい。
次に、情報処理装置12の制御部30が実行する、解析処理の手順の一例を説明する。
図11は、情報処理装置12の制御部30が実行する、解析処理の手順の一例を示す、フローチャートである。
まず、取得部30Aが、第1の撮影画像40Aおよび第2の撮影画像40Bを取得する(ステップS100)。次に、抽出部30Fが、第1の撮影画像40Aおよび第2の撮影画像40Bの各々から、エッジ領域Eを抽出する(ステップS102)。
次に、算出部30Gが、第1の撮影画像40Aに含まれる複数のエッジ領域Eaについて、第2の撮影画像40Bに含まれる対応するエッジ領域Ebに対する、動き情報Vを算出する(ステップS104)。
次に、分離部30Hが、第1の撮影画像40Aに含まれるエッジ領域Eaごとに算出された動き情報Vを、背景画像43A2と前景画像43A1とに分離する(ステップS106)。
次に、動き推定部30Iが、背景画像43A2における、エッジ領域Eaごとの動き情報V2に基づいて、背景画像43A2を構成する複数の画素領域Gの各々の動き情報V3を推定する(ステップS108)。
次に、生成部30Cが、第1の撮影画像40Aを構成する画素領域Gの各々を、背景画像43A2における対応する画素領域Gの各々に対して推定された動き情報V3に応じて移動させる(ステップS110)。ステップS110では、生成部30Cは、第1の撮影画像40A(図8(B)参照)を、背景動き画像44A2(図9(C)参照)を構成する画素領域Gの各々に付与された動き情報V3に応じて変形する。ステップS110の処理によって、生成部30Cは、第1の撮影画像40Aから第2の撮影画像40Bを推定した、推定画像45(図9(D)参照)を生成する。
次に、解析部30Dが、第2の撮影画像40Bと推定画像45との差分領域49を特定する(ステップS112)。
次に、解析部30Dは、差分領域49を解析することによって部材21(本実施の形態では、主筋22Aまたは主筋24A)を示す、部材情報52を導出する(ステップS114)。
出力制御部30Eは、ステップS114で導出された部材情報52を記憶部35へ記憶する(ステップS116)。次に、出力制御部30Eは、ステップS114で導出された部材情報52を、表示部34へ出力する(ステップS118)。そして、本ルーチンを終了する。
以上説明したように、本実施の形態の情報処理装置12は、取得部30Aと、推定部30Bと、生成部30Cと、解析部30Dと、を備える。取得部30Aは、構造体20に対する撮影位置の異なる、第1の撮影画像40Aおよび第2の撮影画像40Bを取得する。推定部30Bは、第1の撮影画像40Aに含まれる特徴領域(エッジ領域E)の、第2の撮影画像40Bに含まれる対応する特徴領域(エッジ領域E)に対する移動方向および移動量を示す動き情報Vに基づいて、第1の撮影画像40Aにおける背景側の背景画像43A2を構成する複数の画素領域Gの各々の動き情報V3を推定する。生成部30Cは、第1の撮影画像40Aを構成する画素領域Gの各々を、背景画像43A2における対応する画素領域Gの各々に対して推定された動き情報V3によって示される移動方向および移動量に応じて移動させることによって、第2の撮影画像40Bを推定した推定画像45を生成する。解析部30Dは、第2の撮影画像40Bと推定画像45との差分領域49に基づいて、構造体20を構成する部材21の部材情報52を導出する。
ここで、上述したように、撮影部14を移動させながら撮影した場合、得られた撮影画像40中における被写体の位置は、撮影部14に対してより遠い位置にある被写体と、撮影部14に対してより近い位置にある被写体との間で、撮影画像40間における移動方向および移動量が異なるものとなる。また、背景動き画像44A2は、第1の撮影画像40Aの画素領域Gの各々に、背景画像43A2に示される動き情報V2に応じた動き情報V3を付与したものである。
このため、第1の撮影画像40Aを背景動き画像44A2に示される動き情報V3を用いて変形することによって生成された推定画像45は、背景側の背景領域については第2の撮影画像40Bに近いものとなるが、前景側の前景領域については、第2の撮影画像40Bとは異なり変形したものとなる。
そして、本実施の形態では、情報処理装置12は、第2の撮影画像40Bと、推定画像45と、の差分領域49に基づいて、構造体20を構成する部材21の部材情報52を導出する。このため、本実施の形態の情報処理装置12では、部材21の部材情報52を、ホワイトボード等の備品を用いることなく、容易に導出することができる。
従って、本実施の形態の情報処理装置12は、複数の部材21からなる構造体20の部材情報52を、容易に得ることができる。
推定部30Bは、抽出部30Fと、算出部30Gと、分離部30Hと、動き推定部30Iと、を有する。抽出部30Fは、第1の撮影画像40Aおよび第2の撮影画像40Bの各々から、複数の特徴領域Eを抽出する。算出部30Gは、第1の撮影画像40Aに含まれる複数の特徴領域Eについて、第2の撮影画像40Bに含まれる対応する特徴領域Eに対する動き情報V(動き情報V1、動き情報V2)を算出する。分離部30Hは、第1の撮影画像40Aに含まれるエッジ領域Eごとに算出された動き情報Vを、前景側の前景画像43A1と、背景側の背景画像43A2と、に分離する。
動き推定部30Iは、背景画像43A2における特徴領域(エッジ領域E)ごとの動き情報V2に基づいて、背景画像43A2を構成する複数の画素領域Gの各々の動き情報V3を推定する。
また、解析部30Dは、差分領域49を解析し、構造体20における前景側に配置された部材の部材情報52を得る。
また、解析部30Dは、部材21の数、部材21の位置、部材21の径、の少なくとも1つを含む、部材情報52を得る。
また、第1の撮影画像40Aおよび第2の撮影画像40Bは、構造体20の外部か構造体20の内側に向かって撮影部14を移動させたときに撮影された、互いに撮影位置の異なる撮影画像40である。
また、第1の撮影画像40Aおよび第2の撮影画像40Bは、全天球パノラマ画像である。
また、特徴領域は、エッジを示すエッジ領域Eである。
また、本実施の形態の情報処理方法は、計測対象の構造体20に対する撮影位置の異なる、第1の撮影画像40Aおよび第2の撮影画像40Bを取得するステップと、第1の撮影画像40Aに含まれる特徴領域(エッジ領域E)の、第2の撮影画像40Bに含まれる対応する特徴領域に対する移動方向および移動量を示す動き情報Vに基づいて、第1の撮影画像40Aにおける背景側の背景画像43A2を構成する複数の画素領域Gの各々の動き情報Vを推定するステップと、第1の撮影画像40Aを構成する画素領域Gの各々を、背景画像43A2における対応する画素領域Gの各々に対して推定された動き情報Vによって示される移動方向および移動量に応じて移動させることによって、第2の撮影画像40Bを推定した推定画像45を生成するステップと、第2の撮影画像40Bと推定画像45との差分領域49に基づいて、構造体20を構成する部材21の部材情報52を導出するステップと、を含む。
また、本実施の形態の情報処理プログラムは、計測対象の構造体20に対する撮影位置の異なる、第1の撮影画像40Aおよび第2の撮影画像40Bを取得するステップと、第1の撮影画像40Aに含まれる特徴領域(エッジ領域E)の、第2の撮影画像40Bに含まれる対応する特徴領域に対する移動方向および移動量を示す動き情報Vに基づいて、第1の撮影画像40Aにおける背景側の背景画像43A2を構成する複数の画素領域Gの各々の動き情報Vを推定するステップと、第1の撮影画像40Aを構成する画素領域Gの各々を、背景画像43A2における対応する画素領域Gの各々に対して推定された動き情報Vによって示される移動方向および移動量に応じて移動させることによって、第2の撮影画像40Bを推定した推定画像45を生成するステップと、第2の撮影画像40Bと推定画像45との差分領域49に基づいて、構造体20を構成する部材21の部材情報52を導出するステップと、をコンピュータに実行させるための情報処理プログラムである。
なお、上記実施の形態では、環境光が十分にある撮影環境で撮影された撮影画像40を想定して、説明を行った。しかし、画像処理に必要な環境光の得られない環境で撮影された撮影画像40を用いて上記処理を行う場合がある。この場合、情報処理装置12は、エッジ領域Eの抽出時のパラメータを暗環境に特化したパラメータとするなどの、公知の光量補正処理を行った上で、上記と同様の処理を行えばよい。
<変形例1>
なお、上記実施の形態では、第1の撮影画像40Aおよび第2の撮影画像40Bは、構造体20を撮影した撮影画像40である場合を説明した。しかし、目印となる簡易マーカーを付与した構造体20を撮影した撮影画像40を、第1の撮影画像40Aおよび第2の撮影画像40Bとして用いてもよい。
図12は、簡易マーカー60の一例を示す模式図である。簡易マーカー60は、撮影画像40として撮影されたときに、画像処理によって位置を識別しやすい、形状、色、大きさであればよい。例えば、簡易マーカー60は、簡易マーカー60A、簡易マーカー60B、簡易マーカー60Cの何れであってもよい。
簡易マーカー60が部材21に付与された構造体20を撮影した撮影画像40を、第1の撮影画像40Aおよび第2の撮影画像40Bとして用いることで、情報処理装置12は、簡易マーカー60を特徴領域の1つとして用いることができる。なお、撮影画像40における簡易マーカー60の検出には、ハフ変換による円検出などの公知の方法を用いればよい。
また、情報処理装置12は、撮影画像40に含まれる簡易マーカー60のサイズと、実際の簡易マーカー60のサイズとの比を用いて、撮影画像40に含まれる部材21の径や大きさなどの実際のサイズを算出してもよい。また、情報処理装置12は、該比を用いて、部材21の間隔を算出してもよい。
また、撮影画像40の撮影時に、背景側に存在する部材21にのみ簡易マーカー60を付与してもよい。そして、情報処理装置12は、撮影画像40に含まれる簡易マーカー60の付与された領域を、背景側に存在する部材21と判断し、部材情報52の導出に用いてもよい。
このため、本変形例では、情報処理装置12は、上記実施の形態に比べて、更に精度の高い部材情報52を導出することができる。
<変形例2>
なお、上記実施の形態では、情報処理システム10が、情報処理装置12と撮影部14とから構成された形態を一例として説明した。しかし、情報処理システム10の構成は、上記構成に限定されない。
図13〜図16は、本変形例の情報処理システム10A〜情報処理システム10Dの一例を示す模式図である。
図13に示すように、例えば、情報処理システム10Aは、クラウドサーバ71と、撮影部14と、を、通信部13を介して接続した構成としてもよい。クラウドサーバ71は、情報処理装置12をクラウド70上に設置されたクラウドサーバ71に搭載したものである。
また、図14に示すように、情報処理システム10Bは、情報処理装置12と、携帯端末72と、を、通信部13を介して接続した構成であってもよい。携帯端末72は、携帯可能な端末装置である。携帯端末72は、例えば、スマートホン、タブレット、ゲーム機、などである。この場合、携帯端末72に、撮影部14を搭載した構成とすればよい。
また、図15に示すように、情報処理システム10Cは、携帯端末74を備えた構成としてもよい。携帯端末74は、情報処理装置12と、撮影部14と、を備えた構成であればよい。
また、図16に示すように、情報処理システム10Dは、携帯端末76と、撮影ユニット75と、を、通信部13を介して接続した構成であってもよい。携帯端末76は、情報処理装置12を搭載した構成であればよい。また、撮影ユニット75は、撮影部14を備え、全天球パノラマ画像を撮影可能な装置である。
なお、上記情報処理装置12で実行される、上記処理を実行するためのプログラムは、NV−RAMやROMやその他の不揮発性記憶媒体に予め組み込まれて提供される。また、情報処理装置12で実行される、上記処理を実行するためのプログラムは、インストール可能な形式または実行可能な形式のファイルでCD−ROM、フレキシブルディスク(FD)、CD−R、DVD(Digital Versatile Disk)等のコンピュータで読み取り可能な記録媒体に記録し提供することも可能である。
また、情報処理装置12で実行される、上記処理を実行するためのプログラムを、インターネット等のネットワークに接続されたコンピュータ上に格納し、ネットワーク経由でダウンロードさせることにより提供または配布するように構成してもよい。
また、情報処理装置12で実行される、上記処理を実行するためのプログラムを、ROM等に予め組み込んで提供するように構成してもよい。
また、情報処理装置12で実行される、上記処理を実行するためのプログラムは、上述した各部を含むモジュール構成となっており、実際のハードウェアとしてはCPU(プロセッサ)が記憶媒体から該プログラムを読み出して実行することにより上記各部が主記憶装置上にロードされ、上記各部が主記憶装置上に生成されるようになっている。
なお、情報処理装置12の記憶部35に格納されている各種情報は、外部装置に格納してもよい。この場合には、該外部装置と情報処理装置12と、を、ネットワーク等を介して接続した構成とすればよい。
なお、上記には、本実施の形態および変形例を説明したが、上記実施の形態および変形例は、例として提示したものであり、発明の範囲を限定することは意図していない。上記新規な実施の形態および変形例は、その他の様々な形態で実施されることが可能であり、発明の要旨を逸脱しない範囲で、種々の省略、置き換え、変更を行うことができる。上記実施の形態やその変形例は、発明の範囲や要旨に含まれるとともに、特許請求の範囲に記載された発明とその均等の範囲に含まれる。
12 情報処理装置
20 構造体
21 部材
30A 取得部
30B 推定部
30C 生成部
30D 解析部
30E 出力制御部
30F 抽出部
30G 算出部
30H 分離部
30I 動き推定部
特許第5412092号公報

Claims (9)

  1. 構造体に対する撮影位置の異なる、第1の撮影画像および第2の撮影画像を取得する取得部と、
    前記第1の撮影画像に含まれる特徴領域の、前記第2の撮影画像に含まれる対応する前記特徴領域に対する移動方向および移動量を示す動き情報に基づいて、前記第1の撮影画像における背景側の背景画像を構成する複数の画素領域の各々の前記動き情報を推定する推定部と、
    前記第1の撮影画像を構成する画素領域の各々を、前記背景画像における対応する画素領域の各々に対して推定された前記動き情報によって示される移動方向および移動量に応じて移動させることによって、前記第2の撮影画像を推定した推定画像を生成する生成部と、
    前記第2の撮影画像と前記推定画像との差分領域に基づいて、前記構造体を構成する部材の部材情報を導出する解析部と、
    を備える情報処理装置。
  2. 前記推定部は、
    前記第1の撮影画像および前記第2の撮影画像の各々から、複数の前記特徴領域を抽出する抽出部と、
    前記第1の撮影画像に含まれる複数の前記特徴領域について、前記第2の撮影画像に含まれる対応する前記特徴領域に対する前記動き情報を算出する算出部と、
    前記第1の撮影画像に含まれる前記特徴領域ごとに算出された前記動き情報を、前景側の(前記動き情報を対応する位置にマッピングした)前景画像と、背景側の(前記動き情報を付与した)前記背景画像と、に分離する分離部と、
    前記背景画像における前記特徴領域ごとの前記動き情報に基づいて、前記背景画像を構成する複数の画素領域の各々の前記動き情報を推定する動き推定部と、
    を有する、請求項1に記載の情報処理装置。
  3. 前記解析部は、
    前記差分領域を解析し、前記構造体における前景側に配置された前記部材の前記部材情報を導出する、請求項1または請求項2に記載の情報処理装置。
  4. 前記解析部は、前記部材の数、前記部材の位置、前記部材の径、の少なくとも1つを含む、前記部材情報を導出する、
    請求項1〜請求項3の何れか1項に記載の情報処理装置。
  5. 前記第1の撮影画像および前記第2の撮影画像は、前記構造体の外部から前記構造体の内側に向かって撮影部を移動させたときに撮影された、互いに撮影位置の異なる撮影画像である、請求項1〜請求項4の何れか1項に記載の情報処理装置。
  6. 前記第1の撮影画像および前記第2の撮影画像は、全天球パノラマ画像である、請求項1〜請求項5の何れか1項に記載の情報処理装置。
  7. 前記特徴領域は、エッジを示すエッジ領域である、請求項1〜請求項6の何れか1項に記載の情報処理装置。
  8. 構造体に対する撮影位置の異なる、第1の撮影画像および第2の撮影画像を取得するステップと、
    前記第1の撮影画像に含まれる特徴領域の、前記第2の撮影画像に含まれる対応する前記特徴領域に対する移動方向および移動量を示す動き情報に基づいて、前記第1の撮影画像における背景側の背景画像を構成する複数の画素領域の各々の前記動き情報を推定するステップと、
    前記第1の撮影画像を構成する画素領域の各々を、前記背景画像における対応する画素領域の各々に対して推定された前記動き情報によって示される移動方向および移動量に応じて移動させることによって、前記第2の撮影画像を推定した推定画像を生成するステップと、
    前記第2の撮影画像と前記推定画像との差分領域に基づいて、前記構造体を構成する部材の部材情報を導出するステップと、
    を含む情報処理方法。
  9. 構造体に対する撮影位置の異なる、第1の撮影画像および第2の撮影画像を取得するステップと、
    前記第1の撮影画像に含まれる特徴領域の、前記第2の撮影画像に含まれる対応する前記特徴領域に対する移動方向および移動量を示す動き情報に基づいて、前記第1の撮影画像における背景側の背景画像を構成する複数の画素領域の各々の前記動き情報を推定するステップと、
    前記第1の撮影画像を構成する画素領域の各々を、前記背景画像における対応する画素領域の各々に対して推定された前記動き情報によって示される移動方向および移動量に応じて移動させることによって、前記第2の撮影画像を推定した推定画像を生成するステップと、
    前記第2の撮影画像と前記推定画像との差分領域に基づいて、前記構造体を構成する部材の部材情報を導出するステップと、
    をコンピュータに実行させるための情報処理プログラム。
JP2016206279A 2016-10-20 2016-10-20 情報処理装置、情報処理方法、および情報処理プログラム Pending JP2018066687A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2016206279A JP2018066687A (ja) 2016-10-20 2016-10-20 情報処理装置、情報処理方法、および情報処理プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2016206279A JP2018066687A (ja) 2016-10-20 2016-10-20 情報処理装置、情報処理方法、および情報処理プログラム

Publications (1)

Publication Number Publication Date
JP2018066687A true JP2018066687A (ja) 2018-04-26

Family

ID=62086003

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2016206279A Pending JP2018066687A (ja) 2016-10-20 2016-10-20 情報処理装置、情報処理方法、および情報処理プログラム

Country Status (1)

Country Link
JP (1) JP2018066687A (ja)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180225839A1 (en) * 2017-02-03 2018-08-09 Olympus Corporation Information acquisition apparatus
JP2020165145A (ja) * 2019-03-29 2020-10-08 鹿島建設株式会社 配筋検査システム
US20220165066A1 (en) * 2019-03-28 2022-05-26 Sony Group Corporation Information processing apparatus, information processing method, and program

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20180225839A1 (en) * 2017-02-03 2018-08-09 Olympus Corporation Information acquisition apparatus
US20220165066A1 (en) * 2019-03-28 2022-05-26 Sony Group Corporation Information processing apparatus, information processing method, and program
JP2020165145A (ja) * 2019-03-29 2020-10-08 鹿島建設株式会社 配筋検査システム

Similar Documents

Publication Publication Date Title
US9686539B1 (en) Camera pair calibration using non-standard calibration objects
JP5158223B2 (ja) 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP5024410B2 (ja) 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
JP2017520050A (ja) 局所的適応ヒストグラム平坦化
US20130083990A1 (en) Using Videogrammetry to Fabricate Parts
JP2016521892A5 (ja)
EP3093822B1 (en) Displaying a target object imaged in a moving picture
JP6304244B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
US10404912B2 (en) Image capturing apparatus, image processing apparatus, image capturing system, image processing method, and storage medium
JP5901447B2 (ja) 画像処理装置及びそれを備えた撮像装置、画像処理方法、並びに画像処理プログラム
TW201931206A (zh) 影像物件追蹤方法及其系統與電腦可讀取儲存媒體
JP6521626B2 (ja) 被写体追跡装置、方法およびプログラム
US10482571B2 (en) Dual fisheye, hemispherical image projection and stitching method, device and computer-readable medium
WO2022160857A1 (zh) 图像处理方法及装置、计算机可读存储介质和电子设备
JP5263437B2 (ja) 三次元モデリング装置、三次元モデリング方法、ならびに、プログラム
CN107787463A (zh) 优化对焦堆栈的捕获
CN109661815A (zh) 存在相机阵列的显著强度变化的情况下的鲁棒视差估计
JP2018066687A (ja) 情報処理装置、情報処理方法、および情報処理プログラム
CN116051736A (zh) 一种三维重建方法、装置、边缘设备和存储介质
JP5900017B2 (ja) 奥行き推定装置、再構成画像生成装置、奥行き推定方法、再構成画像生成方法及びプログラム
JP6409769B2 (ja) 3次元形状計測装置、3次元形状計測方法及び3次元形状計測プログラム
JP6246441B1 (ja) 画像解析システム、画像解析方法、およびプログラム
JP2008276613A (ja) 移動体判定装置、コンピュータプログラム及び移動体判定方法
JP2013179614A (ja) 撮像装置
CN115037869A (zh) 自动对焦方法、装置、电子设备及计算机可读存储介质