JP6849256B1 - 3次元モデル構築システム、および3次元モデル構築方法 - Google Patents

3次元モデル構築システム、および3次元モデル構築方法 Download PDF

Info

Publication number
JP6849256B1
JP6849256B1 JP2020082477A JP2020082477A JP6849256B1 JP 6849256 B1 JP6849256 B1 JP 6849256B1 JP 2020082477 A JP2020082477 A JP 2020082477A JP 2020082477 A JP2020082477 A JP 2020082477A JP 6849256 B1 JP6849256 B1 JP 6849256B1
Authority
JP
Japan
Prior art keywords
dimensional model
shooting
evaluation
data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020082477A
Other languages
English (en)
Other versions
JP2021177317A (ja
Inventor
瀬古 保次
保次 瀬古
正吾 沼倉
正吾 沼倉
Original Assignee
シンメトリー・ディメンションズ・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シンメトリー・ディメンションズ・インク filed Critical シンメトリー・ディメンションズ・インク
Priority to JP2020082477A priority Critical patent/JP6849256B1/ja
Application granted granted Critical
Publication of JP6849256B1 publication Critical patent/JP6849256B1/ja
Publication of JP2021177317A publication Critical patent/JP2021177317A/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】従来よりも3次元モデルの構築を精度良く、かつ容易に広範囲に行う。【解決手段】3次元モデル構築システムであって、複数の移動体それぞれに備えられた撮影装置にて撮影された、撮影に関する付帯情報を含む撮影データを収集する収集手段と、前記収集手段にて収集された撮影データを用いて3次元モデルを生成する生成手段と、前記生成手段による前記3次元モデルの生成の際に用いられた撮影データに応じて、当該撮影データを撮影した移動体に対応付けられたユーザに対して報酬を付与する付与手段とを有し、前記生成手段は、新たな撮影データに含まれる付帯情報を用いて、前記新たな撮影データに対応する既存の3次元モデルの撮影領域を特定し、当該撮影領域における前記新たな撮影データから生成される3次元モデルと前記既存の3次元モデルとの差分に応じて、前記新たな撮影データを用いた前記既存の3次元モデルの更新を行う。【選択図】図1

Description

本願発明は、現実世界における撮影データに基づく3次元モデル構築システム、および3次元モデル構築方法に関する。
近年、バーチャルリアリティ(以下、VR)などの技術を用いて現実世界をデジタル空間に反映する試みが盛んに行われている。例えば、ドローンなどに搭載されたカメラで撮像した複数枚の画像から3次元復元により3次元点群を生成する技術が知られている。特許文献1では、移動体にて収集した画像データを用いて生成された3次元点群データを収集し、収集した3次元点群データを既存の地図情報への寄与度に応じて利用するか否かを決定することが記載されている。
特開2020−017200号公報
一方、現実世界の物体は、複雑な形状をしていることも多く、これを忠実に反映した3次元モデルを作成するためには、様々な位置から様々な角度で対象物を撮影する必要がある。しかし、例えばドローンを用いて撮影した画像だけでは、凹凸の部分など画像に映っていない箇所が発生しやすく、精度良く3次元モデルを復元することはできなかった。
本願発明は、上記課題を鑑み、従来よりも3次元モデルの構築を精度良く、かつ容易に広範囲に行うことを可能とすることを目的とする。
上記課題を解決するために本願発明は以下の構成を有する。すなわち、
3次元モデル構築システムであって、
複数の移動体それぞれと、ユーザとを対応付けて管理する管理手段と、
前記複数の移動体それぞれに備えられた撮影装置にて撮影された、撮影に関する付帯情報を含む撮影データを収集する収集手段と、
前記収集手段にて収集された撮影データを用いて3次元モデルを生成する生成手段と、
前記収集手段にて収集した新たな撮影データを用いて生成された3次元モデルを1または複数の評価基準に基づく評価値により評価する評価手段と、
前記生成手段により撮影データを用いて生成された前記3次元モデルの評価値に応じて、当該撮影データを撮影した移動体に対応付けられたユーザに対して報酬を付与する付与手段と
を有し、
前記生成手段は、新たな撮影データに含まれる付帯情報を用いて、前記新たな撮影データに対応する既存の3次元モデルの撮影領域を特定し、当該撮影領域における前記新たな撮影データから生成される3次元モデルのうちの前記評価手段による評価にて一定の評価値を与えられた3次元モデルを用いて前記既存の3次元モデルの更新を行う。
本願発明によれば、従来よりも3次元モデルの構築を精度良く、かつ容易に広範囲に行うことが可能となる。
本願発明の一実施形態に係るシステムの全体構成の例を示す概要図。 本願発明の一実施形態に係る各装置の機能構成の例を示す図。 第1の実施形態に係る各装置間の処理のシーケンス図。 第1の実施形態に係るデータ構成の例を説明するための図。 第1の実施形態に係る3次元モデル生成サーバの処理のフローチャート。 第2の実施形態に係る車両の機能構成の例を示す図。 第2の実施形態に係るデータ構成の例を説明するための図。 第3の実施形態に係る3次元モデル生成サーバの処理のフローチャート。
以下、本願発明を実施するための形態について図面などを参照して説明する。なお、以下に説明する実施形態は、本願発明を説明するための一実施形態であり、本願発明を限定して解釈されることを意図するものではなく、また、各実施形態で説明されている全ての構成が本願発明の課題を解決するために必須の構成であるとは限らない。また、各図面において、同じ構成要素については、同じ参照番号を付すことにより対応関係を示す。
<第1の実施形態>
以下、本願発明の第1の実施形態について説明を行う。
[システム構成]
図1は、本実施形態に係る3次元モデル構築システムの全体構成の例を示す概要図である。本実施形態に係る3次元モデル構築システムは、3次元モデル生成サーバ1、携帯端末2、および表示装置3を含んで構成される。各装置は、ネットワーク4を介して通信可能に接続される。ネットワーク4の通信規格や有線/無線は特に限定するものではなく、複数の通信規格が組み合わせて実現されてもよい。また、図1においては、各装置はそれぞれ1つずつが示されているが、複数の装置が含まれてよい。特に撮影装置として機能する携帯端末2は、1または複数の利用者(ユーザ)に携帯されており、複数の携帯端末2が含まれてよい。以下の説明において、携帯端末2について個別に説明を要する場合には添え字n(≧2)を付して説明するが、包括的に説明する場合には添え字を省略する。
3次元モデル生成サーバ1は、本実施形態に係る携帯端末2にて撮影された撮影画像を含む撮影データを用いて3次元モデルを生成する。また、3次元モデル生成サーバ1は、携帯端末2およびこれを所有するユーザを対応付けて管理する。さらに、3次元モデル生成サーバ1は、携帯端末2にて撮影された撮影画像を含む撮影データを用いて生成された3次元モデルの評価を行い、その評価結果に応じて携帯端末2(すなわち、ユーザ)に対してインセンティブを付与する。3次元モデルの評価およびインセンティブの付与についての詳細は後述する。3次元モデル生成サーバ1は、負荷分散の目的などに応じて、複数が備えられてよいし、一部の機能を別のサーバとして構成してもよい。携帯端末2は、例えば、モバイルPC(Personal Computer)などの情報処理装置や、スマートフォンやタブレット端末などの携帯端末であってよい。
表示装置3は、3次元モデル生成サーバ1にて生成された3次元モデルを表示する表示装置である。表示装置3は、例えば、PC(Personal Computer)などの情報処理装置、スマートフォンやタブレット端末などの携帯端末、もしくはHMD(Head Mounted Display)であってよい。なお、携帯端末2と表示装置3とが一体となった構成であってもよい。
[機能構成]
図2は、本実施形態に係る各装置の機能構成の例を示す図である。
(3次元モデル生成サーバ)
図2(a)に示すように、本実施形態に係る3次元モデル生成サーバ1は、データ収集部101、3次元モデル生成部102、3次元モデル管理部103、データ評価部104、ユーザ管理部105、インセンティブ付与部106、通信制御部107、および表示制御部108を含んで構成される。
データ収集部101は、本実施形態に係る複数の携帯端末2−1〜2−nそれぞれから3次元モデルを生成する際に用いる撮影データを収集する。収集するタイミングは、例えば、携帯端末2から送信されてきたタイミングにて受信することで取得してよい。3次元モデル生成部102は、携帯端末2から収集した撮影データを用いて、3次元モデルを生成する。例えば、3次元モデル生成部102は、撮影データに含まれる撮影画像から点群データを生成し、その点群データから3次元モデルを生成する。
3次元モデル管理部103は、3次元モデル生成部102にて生成された3次元モデルを管理する。ここでの管理は、更新されたタイミングやバージョンごとに管理してよく、また、一定の更新が行われた場合には過去の3次元モデルは削除するような構成であってもよい。データ評価部104は、収集した撮影データを用いて生成された3次元モデルの評価を行う。評価方法については後述する。
ユーザ管理部105は、携帯端末2とその携帯端末2を所有するユーザとを対応付けて管理する。また、ユーザ管理部105は、携帯端末2から提供された撮影データを対応付けて管理する。インセンティブ付与部106は、データ評価部104による評価結果に基づき、撮影データを提供したユーザに対するインセンティブを付与する。
通信制御部107は、外部装置との通信を行うための部位であり、有線/無線や通信規格などは特に限定するものではない。表示制御部108は、3次元モデル生成部102にて生成された3次元モデルの表示を制御する。ここでの表示制御は、表示装置3からの要求に応じて、3次元モデルを含む表示データを表示装置3に提供することを含む。
(携帯端末)
図2(b)に示すように、本実施形態に係る携帯端末2は、撮像部201、センサ群202、記憶部203、制御部204、および通信部205を含んで構成される。撮像部201は、携帯端末2の周辺の画像を取得するための撮像部であり、不図示のレンズや撮像素子などを備える。センサ群202は、自端末の状態などの情報(例えば、位置情報や向きなど)を検出するための検出部であり、磁気センサ、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)センサなどが含まれる。本実施形態では、撮像部201にて画像が撮影された際の情報として、センサ群202にて検出された各種情報が対応付けて保持されてよい。
記憶部203は、撮像部201を介して撮像された撮影画像を記憶する記憶部であり、例えば、フラッシュメモリなどの不揮発性の記憶領域により構成される。記憶部203は、撮影画像と、撮影時の情報(撮影時にセンサ群202にて検出された情報や、撮影日時、撮影設定など)とを対応付けて撮影データとして記憶する。制御部204は、携帯端末2の全体の制御を司る部位であり、例えば、処理部としてのCPU(Central Processing Unit)や専用回路などにより構成される。通信部205は、外部装置との通信を行うための部位であり、有線/無線や通信規格などは特に限定するものではない。
制御部204は、ユーザの操作に基づいて撮像部201を起動させ、周辺の撮影を行わせる。撮影設定や撮影対象はユーザの操作に基づくものとする。制御部204は、撮像部201にて撮影された撮影画像に対して、所定の画像処理を行う構成であってもよい。例えば、制御部204は、撮影画像に対してフィルタリングなどの画像処理を行うような構成であってもよい。また、撮像部201が動画を撮影可能な構成である場合には、制御部204は、撮影動画の中から所定のフレームを抽出して送信用の撮影画像とするような処理を行ってもよい。フレームを抽出して撮影画像として送信する際には、撮影動画を取得時の情報(撮影設定や撮影日時など)に基づき当該フレームに対応する情報を決定した上で撮影データに含めてもよい。または、撮影動画を撮影データに含めて送信してもよい。複数の携帯端末2−1〜2−nの構成は同一である必要はなく、異なる機能を備えた携帯端末2が用いられてよい。なお、携帯端末2において、本実施形態に係る機能を実現する各部位は、携帯端末2にインストールされたアプリケーションにより実現されてよい。
(表示装置)
図2(c)に示すように、本実施形態に係る表示装置3は、3次元モデル表示部301、操作受付部302、および通信制御部303を含んで構成される。3次元モデル表示部301は、3次元モデル生成サーバ1から提供された表示データを表示装置3のディスプレイ(不図示)に表示する。3次元モデルの表示は、プロジェクタなどの投影により表示されてもよいし、仮想現実(VR:Virtual Reality)として表示されてもよい。操作受付部302は、表示装置3の操作部(不図示)を介してユーザからの操作を受け付ける。ここでの操作は、ディスプレイ上に表示している3次元モデルの表示の切り替えなどの操作が挙げられる。通信制御部303は、外部装置との通信を行うための部位であり、有線/無線や通信規格などは特に限定するものではない。なお、表示装置3において、本実施形態に係る機能を実現する各部位は、表示装置3にインストールされたアプリケーションにより実現されてよい。
[処理シーケンス]
図3は、本実施形態に係る装置間の連携を示す処理シーケンスを示す。各工程は、例えば、処理主体となる各装置のCPUが記憶装置に記憶されたプログラムを読み出して実行することにより実現されてよい。また、複数の携帯端末2−1〜2−nはそれぞれが処理を行うものとするが、図3では包括的に説明を行う。
S301にて、携帯端末2は、3次元モデル生成サーバ1に対してユーザ登録の要求を行う。ユーザ登録は、3次元モデル生成サーバ1にアクセスし、3次元モデル生成サーバ1が提供する登録画面(不図示)に各種情報を入力することで行われてよい。入力された情報には、携帯端末2やユーザを一意に識別するための情報が含まれてよい。
S302にて、3次元モデル生成サーバ1は、携帯端末2からの要求に応じて、ユーザ登録処理を行う。ユーザ登録処理では、ユーザと携帯端末2とを対応付けて管理するように、後述するユーザ管理テーブル(図4(a))に各種情報が登録される。本実施形態に係る機能を携帯端末2にインストールされたアプリケーションにて構成する場合には、アプリケーションの情報をさらに対応付けて管理してもよい。
S303にて、3次元モデル生成サーバ1は、ユーザ登録処理が完了したことを携帯端末2に通知する。なお、S301〜S303の処理は、携帯端末2とユーザの対応付けに関する処理であるため、携帯端末2それぞれにおいて1度行えばよい。一方、S304以降の処理は、携帯端末2のユーザによる撮影データ提供の際の操作に起因して繰り返し行われるものとする。
S304にて、携帯端末2は、ユーザ操作に基づいて撮像部201を起動させ、携帯端末2の周辺の撮影を行う。なお、図3では示していないが、携帯端末2(ユーザ)は、撮影を行う際に、3次元モデル生成サーバ1に対して現時点で生成されている3次元モデルの問い合わせを行ってもよい。そして、ユーザは、この問い合わせの結果から得られる3次元モデルの生成情報などに応じて撮影対象や撮影範囲を決定してよい。ここで提供される生成情報としては、例えば、3次元モデルが生成されていない領域の位置情報や、更新されてから所定時間が経過した領域の位置情報などが挙げられる。
S305にて、携帯端末2は、撮影により得られた撮影画像を含む撮影データを3次元モデル生成サーバ1へ送信する。ここでの撮影データには、撮影位置や撮影条件などの付帯情報が含まれる。付帯情報の例については後述する。
S306にて、3次元モデル生成サーバ1は、携帯端末2から送信された撮影データを受信し、後述する撮影データ管理テーブル(図4(b))に登録する。
S307にて、3次元モデル生成サーバ1は、受信した撮影データを用いて3次元モデルを生成する。本実施形態に係る生成処理の詳細については後述する。
S308にて、3次元モデル生成サーバ1は、S307にて生成した3次元モデルと、既存の3次元モデルとを比較し、その差分などからS307にて生成した3次元モデルの評価を行う。
S309にて、3次元モデル生成サーバ1は、S308における評価結果に応じて、既存の3次元モデルに対してS307にて生成した3次元モデルを反映することで、3次元モデルの生成(更新)を行う。そして、3次元モデル生成サーバ1は、生成した3次元モデルを記憶する。
S310にて、3次元モデル生成サーバ1は、表示装置3に対し、S309の処理後の3次元モデルの表示データを提供する。ここでの提供は、更新に伴って3次元モデル生成サーバ1が起点となって行ってもよいし、表示装置3からの要求に応答して行ってもよい。
S311にて、3次元モデル生成サーバ1は、S308の評価結果に基づき、撮影データを送信した携帯端末2に対応するユーザに対してインセンティブを付与する。付与されたインセンティブの情報は、後述するインセンティブ管理テーブル(図4(c))に反映される。
S312にて、3次元モデル生成サーバ1は、S311にて付与したインセンティブの結果を携帯端末2に通知する。
S313にて、表示装置3は、S310にて3次元モデル生成サーバ1から提供された3次元モデルの表示データを用いて表示処理を行う。
S314にて、携帯端末2は、3次元モデル生成サーバ1から通知されたインセンティブの内容を表示する。携帯端末2のユーザは、表示内容により、S305にて送信した撮影データに対して付与されたインセンティブを確認することができる。ここでの表示には、過去に付与されたインセンティブの内容(履歴)を含めてもよい。また、ここでの表示は、インセンティブの付与の通知と併せて表示するような構成であってもよいし、通知の後、携帯端末2による3次元モデル生成サーバ1へのアクセスが行われた際に表示画面(不図示)を提供して行われてもよい。
[データ構成]
図4は、本実施形態に係る3次元モデル構築システムにおいて用いられるデータの構成例を示す図である。図4に示す各データは、例えば、3次元モデル生成サーバ1にて管理されるデータベースの各テーブルに格納される。
図4(a)は、本実施形態に係る、ユーザ情報を管理するためのユーザ管理テーブルの構成例を示す。ユーザ登録処理(図3のS302)によりユーザ管理テーブルの内容が更新される。ユーザ管理テーブルは、ユーザIDおよび携帯端末IDの項目を含んで構成される。ユーザIDは、ユーザを一意に識別するための識別情報である。携帯端末IDは、携帯端末2を一意に識別するための識別情報である。ユーザIDおよび携帯端末IDの桁数や使用文字列などの仕様は図4(a)に示すものに限定するものではなく、他の構成であってよい。また、ユーザIDおよび携帯端末IDは、3次元モデル生成サーバ1が登録要求を受け付けた際に採番して発行してもよいし、ユーザが指定する構成であってもよい。
図4(b)は、本実施形態に係る、撮影データを管理するための撮影データ管理テーブルの構成例を示す。撮影データ管理テーブルは、画像データID、送信元携帯端末ID、画像データ名、撮影日時、撮影位置、撮影方向、撮影設定、収集日時、および評価結果の項目を含んで構成される。画像データIDは、携帯端末2から収集した画像データを一意に識別するための識別情報である。画像データIDの桁数や使用文字列などの仕様は図4(b)に示すものに限定するものではなく、他の構成であってよい。送信元携帯端末IDは、画像データの送信元を示す識別情報であり、図4(a)に示す携帯端末IDに対応する。
画像データ名は、撮影画像の実ファイルのファイル名を示す。画像データ名には、実ファイルの格納先(パス)が指定されてもよい。なお、携帯端末2から提供される1の撮影データ内に複数の撮影画像が含まれてもよく、複数の撮影画像それぞれの情報が管理される。撮影日時は、撮影画像が撮影された日時(年/月/日/時/分/秒。ただし、秒は1/1000秒単位のミリ秒を含む)を示す情報である。撮影位置は、撮影画像が撮影された位置(緯度/経度/標高)を示す情報である。撮影方向は、撮影画像が撮影された際の向き(方角/仰角/俯角)を示す情報である。撮影設定は、撮影画像が撮影された際の設定情報である。撮影日時、撮影位置、撮影方向、および撮影設定などの情報が、携帯端末2から撮影データを収集する際に付帯情報として取得されるものとする。なお、撮影設定の項目は特に限定するものではなく、さらに詳細な項目が含まれていてよいし、撮影を行った携帯端末2の機能に応じて異なっていてもよい。
収集日時は、3次元モデル生成サーバ1が携帯端末2から収集した日時(年/月/日/時/分/秒)を示す情報である。評価結果は、撮影データを用いて生成された3次元モデルに対して行われた評価処理の結果に基づいて決定される値を示す。ここでは、評価値としてA〜Eの5段階(ここではAが最も高い評価とする)にて示しているが、これに限定するものではない。
図4(c)は、ユーザに対して付与されたインセンティブを管理するためのインセンティブ管理テーブルの構成例を示す。インセンティブ管理テーブルは、ユーザIDおよび付与インセンティブの項目を含んで構成される。ユーザIDは、図4(a)に対応する。付与インセンティブは、各ユーザに対して付与されたインセンティブの合計値を示す。ここでのインセンティブは、図4(b)の評価結果の値に応じて付与されるものであり、例えば、電子マネー、仮想通貨、または、ポイントサービスによるポイントなどが該当する。評価が高い撮影データほど、高いインセンティブが付与されることとなる。なお、評価結果とインセンティブの変換方法(例えば、変換式)は特に限定するものではなく、タイミングなどに応じて異なってよい。また、付与されるインセンティブの内容は、ユーザが選択可能な構成であってもよい。付与インセンティブの単位は、付与されるインセンティブの内容に応じて変化してよい。また、図4(a)のユーザID「USE00001」と携帯端末ID「MT00001」「MT00002」のように、1のユーザに対して複数の携帯端末2が対応付けられている場合がある。このような場合には、インセンティブ管理テーブルでは、複数の携帯端末2から送信された撮影データに基づくインセンティブの合計値が管理されてよい。
[3次元モデル]
以下、本実施形態に係る3次元モデル生成サーバ1(3次元モデル生成部102)にて生成する3次元モデルについて説明する。3次元モデルの生成方法は公知の方法を用いてよく、特に限定するものではない。ここでは、3次元モデルの生成方法の一例について説明する。
3次元モデルを生成する際に、同一対象物を含む可能性のある複数枚の撮影画像を収集し、各撮影画像の特徴点の候補をAKAZEなどの手法で検出し、その特徴量の値が予め設定された閾値を越えた場合にその候補を特徴点とする(特徴点抽出)。
各撮影画像にて検出された特徴点が同一対象物に起因している場合には、それらの特徴点は点群データ間で対応している。そこで、画像間における特徴点の対応付けを行う(特徴点マッチング)。特徴点マッチングができた特徴点は同一対象物のある箇所を示しているため、その対象物の3次元座標を、測定結果に含まれる各種情報に基づいて算出する。ここでの情報としては、撮像部の向きや位置情報などが挙げられる。このようにして算出した複数の3次元座標点が3次元点群を形成することとなる。
3次元点群は、単なる3次元座標点の集まりであるので、これを人が視認しやすいように、3次元モデルに変換する。その場合には、画像の近傍3点の特徴点で囲まれる領域を、その特徴点の3点で形成された3次元座標の3点に張り付ける(テキスチャーマッピング)。これにより三角ポリゴン面で構成された3次元モデルが生成できる。
[価値評価]
本実施形態に係る3次元モデルの評価について説明する。本実施形態では、既存の3次元モデルと、新たに収集した撮影データから生成される3次元モデルとの差分に基づいて、新たに生成した3次元モデルおよびその生成に用いられた撮影データの評価を行う。
3次元モデルや撮影データの評価の観点として、既存の3次元モデルを生成した際に用いた撮影データの撮影日時と新たに収集した撮影データの撮影日時との差異(経過時間)、撮影データの画質、既存の3次元モデルを生成した際に用いた撮影データから得られる点群(点の数)と新たに収集した撮影データから得られる点群との差異、3次元モデルの体積の差異、複数の撮影画像の連続性などが用いられてよい。なお、評価方法については、上記に限定するものではなく、他の評価基準が用いられてよい。
[処理フロー]
図5を用いて、本実施形態に係る3次元モデル生成サーバ1の処理フローについて説明する。以下に示す処理は、例えば、3次元モデル生成サーバ1が備えるCPU(不図示)が記憶装置に記憶されたプログラムを読み出して実行することにより実現される。以下に示す処理は、図3に示した3次元モデル生成サーバ1の処理(S306〜S309、S311〜S312)の処理に対応する。なお、3次元モデルの提供(図3のS310)は、表示装置3からの要求に応じて行われるものとし、図5では省略する。
S501にて、3次元モデル生成サーバ1は、撮影データの収集を行う。なお、本処理は、一定量の撮影データが携帯端末2から収集されたタイミングで実行されてもよい。上述したように、1の撮影データに複数の撮影画像が含まれてもよい。
S502にて、3次元モデル生成サーバ1は、撮影データに含まれる付帯情報に基づき、撮影画像による撮影領域を特定する。図4(b)に示すように、付帯情報には、撮影位置や撮影方向などが含まれており、これらの情報を用いて撮影領域が特定される。なお、撮影データにて、撮影動画が含まれている場合には、所定の時間間隔ごとにフレームを抽出して撮影動画に変換した上で処理を行ってよい。この場合の撮影画像としてのフレームの付帯情報は、撮影動画全体に対する付帯情報に基づいて各フレームに対する付帯情報を導出して補完することで決定されてよい。
S503にて、3次元モデル生成サーバ1は、S502にて特定した撮影領域に基づいて、各撮影画像を1または複数のグループにグループ化する。ここでのグループ化は、例えば、予め規定された範囲(例えば、地図上において所定のサイズに分割された各領域)に含まれるか否か基づいて行われてもよいし、同じ物体を撮影しているか否かに基づいて行われてもよい。このとき、1の撮影画像が複数のグループに属してもよいし、1のグループに1の撮影画像のみが分類されてもよい。グループ化は、撮影画像単位で行われてもよいし、撮影データ単位で行われてもよい。なお、1の撮影データに1の撮影画像が含まれている場合には、いずれの場合でも同等となる。
S504にて、3次元モデル生成サーバ1は、S503にて分類された1または複数のグループのうち、S505〜S511の処理が未処理の1のグループに着目する。
S505にて、3次元モデル生成サーバ1は、S504にて着目したグループに含まれる撮影データを用いて、3次元モデルを生成する。グループに応じて属する撮影データ(つまり、撮影画像)の数は異なるため、3次元モデルの生成にて用いられる撮影データの数も異なりうる。
S506にて、3次元モデル生成サーバ1は、既存の3次元モデルと、S505にて生成した3次元モデルとの比較を行う。
S507にて、3次元モデル生成サーバ1は、S506における比較の結果、既存の3次元モデルとS505にて生成した3次元モデルとに差分があるか否かを判定する。差分がある場合は(S507にてYES)S508へ進む。一方、差分が無い場合は(S507にてNO)S512へ進む。
S508にて、3次元モデル生成サーバ1は、S505にて生成した3次元モデルの評価を行う。言い換えると、3次元モデルの生成に用いられた撮影データの評価を行う。ここでの評価は、上述した価値評価の基準により行われるものとする。このとき、撮影データの評価は、3次元モデルの全体の評価を行い、その3次元モデルを生成する際に用いた撮影データすべてにその評価値を反映してもよい。または、3次元モデルを生成する際に用いた撮影データに対して個別に評価を行ってもよい。
S509にて、3次元モデル生成サーバ1は、生成した3次元モデルの評価値が所定の閾値以上か否かを判定する。所定の閾値は予め規定され、3次元モデル生成サーバ1が保持しているものとする。複数の評価基準が用いられる場合には、その複数の評価基準それぞれに対応して複数の値が所定の閾値として用いられてもよい。その場合、複数の評価基準における評価値のうちの少なくとも1つが閾値以上か否かを判定してもよい。評価値が所定の閾値以上である場合(S509にてYES)S510へ進む。一方、評価値が所定の閾値未満である場合(S509にてNO)S512へ進む。
S510にて、3次元モデル生成サーバ1は、S505にて生成した3次元モデルを用いて、既存の3次元モデルを更新する。ここでの更新は、生成した3次元モデルの範囲に対応する既存の3次元モデルの範囲が更新されてよい。
S511にて、3次元モデル生成サーバ1は、S508における評価の評価値に基づき、撮影データを提供した携帯端末2のユーザに対してインセンティブを付与する。上述したように、インセンティブの内容は特に限定するものではなく、例えば、ユーザが指定できるような構成であってもよい。また、評価値とインセンティブの変換率等についても特に限定するものではない。
S512にて、3次元モデル生成サーバ1は、S503にて分類された1または複数のグループすべてに対するS505〜S511の処理が完了したか否かを判定する。すべてのグループに対する処理が完了した場合(S512にてYES)S513へ進む。一方、未処理のグループがある場合(S512にてNO)、S504へ戻り、未処理のグループに対して処理を繰り返す。
S513にて、3次元モデル生成サーバ1は、S511にて付与されたインセンティブの情報を携帯端末2に対して通知する。なお、S507にてNOであった場合やS509にてNOであった場合など、提供された撮影データが3次元モデルの更新に用いられていない場合には、3次元モデル生成サーバ1は、その旨とインセンティブが付与されていない旨とを携帯端末2のユーザに通知してよい。そして、3次元モデル生成サーバ1は、本処理フローを終了する。
以上、本実施形態により、携帯端末にて撮影された撮影データを逐次収集して3次元モデルを生成、更新することで、従来よりも3次元モデルの構築を容易に広範囲に行うことが可能となる。また、3次元モデルの生成における撮影データの評価を行って、その評価値に応じてインセンティブを付与することで、撮影データの提供をユーザに促すことができる。その結果、より多くの撮影データを収集でき、従来よりも精度の高い3次元モデルの構築が可能となる。
<第2の実施形態>
以下、本願発明の第2の実施形態について説明する。第1の実施形態では、撮影データの提供元(撮影装置)は、スマートフォンなどの携帯端末を例に挙げて説明した。本実施形態では、撮影データの提供元として、撮影部を備える移動体を用いた構成について説明する。携帯端末以外の移動体としては、例えば、自動車やバイクなどの車両や小型無人航空機(ドローン)などが挙げられる。以下では、撮影データの提供元として車両を例に挙げて説明する。なお、第1の実施形態と重複する構成については説明を省略し、差分に着目して説明を行う。
[機能構成]
(車両)
図6は、本実施形態に係る車両600の機能構成の例を示す。車両600は、1または複数の利用者(ユーザ)に利用されており、複数の車両600が含まれてよい。以下の説明において、車両600について個別に説明を要する場合には添え字n(≧2)を付して説明するが、包括的に説明する場合には添え字を省略する。
本実施形態に係る車両600は、カメラ群601、センサ群602、記憶部603、制御部604、および通信部605を含んで構成される。なお、図6では、本実施形態に関する構成のみを示すが、車両600は、走行制御や報知などに用いられる部位をさらに含んでよい。
カメラ群601は、車両600の周辺の画像を取得するための撮像部であり、不図示のレンズや撮像素子などを備える。カメラ群601には、例えば、前方カメラ、側方カメラ(左右)、後方カメラが含まれてよい。カメラ群601に含まれる複数のカメラそれぞれにて撮影された撮影画像が別個の撮影画像として扱われてよい。
センサ群602は、車両600の状態などの情報(例えば、位置情報や向きなど)や、周辺の情報を取得するための検出部である。車両600は、例えば、走行支援制御を実現するために様々なセンサを備えていることがあり、その中において3次元モデルの生成に利用可能な情報を取得するセンサがある。例えば、センサ群602には、磁気センサ、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)センサなどが含まれてよい。さらに、センサ群602には、ミリ波レーダ、ソナーレーダ、ライダ(LiDAR:Light Detection and Ranging)などが含まれてよい。これらの検出結果としての情報は、3次元モデルの生成に利用してもよい。センサ群602に含まれる各種センサそれぞれは、車両600の構成に応じて1または複数が備えられてよい。
記憶部603は、カメラ群601により撮像された撮影画像や、センサ群602により検出された検出結果を記憶する記憶部であり、例えば、HDD(Hard Disk Drive)などの不揮発性の記憶領域により構成される。記憶部603は、カメラ群601にて撮影した撮影画像と、撮影時の情報(センサ群602にて検出した情報や、撮影日時、撮影設定など)とを対応付けて記憶する。制御部604は、車両600の撮影等に関する制御を司る部位であり、例えば、処理部としてのCPU(Central Processing Unit)やECU(Electronic Control Unit)、専用回路などにより構成される。通信部605は、外部装置との通信を行うための部位であり、通信規格などは特に限定するものではない。
制御部604は、所定のタイミングにてカメラ群601やセンサ群602を動作させ、周辺の情報を取得させる。取得のタイミングは、予め規定された間隔にて動作するような構成であってよい。制御部604は、カメラ群601にて撮影された撮影画像に対して、所定の画像処理を行う構成であってもよい。例えば、制御部604は、撮影画像に対してフィルタリングなどの画像処理を行うような構成であってもよい。また、カメラ群601が動画を撮影するような構成である場合には、制御部604は、撮影動画の中から所定のフレームを抽出して送信用の撮影画像とするような処理を行ってもよい。フレームを抽出して撮影画像として送信する際には、撮影動画を取得時の情報(撮影設定や撮影日時など)に基づき当該フレームに対応する情報を決定した上で撮影データに含めてもよい。または、撮影動画を撮影データに含めて送信してもよい。複数の車両600−1〜600−nの構成は同一である必要はなく、異なる機能を備えた車両600が用いられてよい。
第1の実施形態の図3のS301〜S303に示した構成と同様に、本実施形態では、車両600をユーザに対応付けて登録する。ここでの登録は、車両600が備える表示部(不図示)や通信部605を介して3次元モデル生成サーバ1にアクセスすることで行われてもよい。もしくは、ユーザが所有する携帯端末2と車両600とを通信可能に接続し、携帯端末2を介して車両600を3次元モデル生成サーバ1に登録するような構成であってもよい。
[データ構成]
図7は、本実施形態に係る3次元モデル構築システムにおいて用いられるデータの構成例を示す図である。図7に示す各データは、例えば、3次元モデル生成サーバ1にて管理されるデータベースの各テーブルに格納される。なお、インセンティブ管理テーブルの構成は、第1の実施形態にて示した図4(c)の構成と同様であるものとし、ここでの説明は省略する。
図7(a)は、本実施形態に係る、ユーザ情報を管理するためのユーザ管理テーブルの構成例を示す。第1の実施形態にて示した図4(a)の構成との差分は、携帯端末IDに代えて、移動体IDが用いられる。移動体IDは、車両600を一意に識別するための識別情報である。移動体IDの桁数や使用文字列などの仕様は図7(a)に示すものに限定するものではなく、他の構成であってよい。また、移動体IDは、3次元モデル生成サーバ1が登録要求を受け付けた際に採番して発行してもよいし、ユーザが指定する構成であってもよい。
図7(b)は、本実施形態に係る、撮影データを管理するための撮影データ管理テーブルの構成例を示す。第1の実施形態にて示した図4(b)の構成との差分は、送信元携帯端末IDに代えて、送信元移動体IDが用いられる。送信元移動体IDは、撮影データの送信元を示す識別情報であり、図7(a)に示す移動体IDに対応する。
本実施形態に係る処理シーケンスと、第1の実施形態の処理シーケンス(図3)との差異として、撮影データの提供が車両600から3次元モデル生成サーバ1に対して行われる点が異なる。また、車両600からの撮影データの送信は、ユーザがON/OFFを制御できるような構成であってよく、この設定がONの場合に、車両600は撮影データを所定の送信間隔にて3次元モデル生成サーバ1に送信するような構成であってもよい。ここでの所定の送信間隔は予め規定されていてもよいし、ユーザが設定できるような構成であってもよい。
または、他の機能における外部との通信負荷が低下した場合や通信速度の制限が行われていない場合に、車両600は、複数の撮影画像を含む撮影データを送信するような構成であってもよい。また、記憶部603に一定量の撮影画像が蓄積された際に、車両600は、複数の撮影画像を含む撮影データをまとめて送信するような構成であってもよい。
以上、本実施形態により、ユーザによる撮影動作を要することなく、移動体(例えば、車両)にて撮影された撮影画像を含む撮影データを逐次収集する。例えば、撮影画像としてドライブレコーダで撮影される画像が利用でき、付帯情報として、カーナビゲーションシステムに搭載されているGPS位置情報や進行方向情報などが利用できる。そして、このような撮影データを用いて3次元モデルを生成、更新することで、従来よりも3次元モデルの構築を容易に広範囲に行うことが可能となる。また、ユーザの操作を介することなく、車両からより多くの撮影画像を収集でき、従来よりも精度の高い3次元モデルの構築が可能となる。
なお、第1の実施形態と第2の実施形態の構成は排他的なものではなく、両方の構成を統合して3次元モデルの構築を行うような構成であってもよい。
<第3の実施形態>
本願発明の第3の実施形態として、生成された3次元モデルの表示の形態について説明する。カメラ等により撮影された撮影画像には、固定物体(例えば、建築物)と移動物体(例えば、車両)が混在して含まれていることが想定される。そこで、本実施形態では、撮影画像から3次元モデルを生成する際に、撮影画像に含まれる物体が移動物体か固定物体かを識別し、それぞれの特性に応じて3次元モデルに反映させる。また、撮影データの評価においても、移動物体か固定物体かの基準を設け、これに応じて評価を行う。
[物体の識別方法]
撮影画像から移動物体と固定物体を識別する方法は公知の方法を用いることができ、特に限定するものではない。ここでは、一例として機械学習による手法を用いた識別方法について説明する。
機械学習において、深層構造のニューラルネットワークモデルを用いた画像のセグメンテーション技術(領域抽出)が知られている。この手法において、学習用の画像データを用意する。学習用データでは、画像に含まれるオブジェクトの領域に対し、その領域が何を示しているかのラベル付けが行われている。例えば、撮影画像(写真)に写っているオブジェクトが人や車、自転車、電車、飛行機などの移動物体の場合、画素単位で抽出したその画像領域に対して「移動物体」というラベルを付与する。一方、撮影画像に映っているオブジェクトが道路や建物、橋、公園、野原などの固定物体の場合には、ピクセル単位で抽出したその画像領域に対して「固定物体」とラベルを付与する。そして、このような学習用データを複数準備し、それらを用いて学習を繰り返すことで、学習済みモデルを生成する。その後、撮影画像を入力として学習済みモデルを適用することで、当該撮影画像において移動物体と固定物体それぞれを示す画像領域に分割(抽出)が行われる。画像のセグメンテーション法としては代表的な手法であるSegNetやU−Netなどを用いることができる。
なお、撮影画像から抽出された領域のうちラベル「移動物体」として抽出された画像領域から生成された3次元点群は、移動物体を構成する3次元点群である。一方、ラベル「固定物体」として抽出された画像領域から生成された3次元点群は、固定物体を構成する3次元点群である。このようにして、撮影画像に含まれるオブジェクトそれぞれに対応する3次元点群の領域を、移動物体か固定物体かに分離させる。本実施形態においては、領域抽出のための学習済みモデルはすでに生成されているものとして説明する。
[処理フロー]
図8を用いて、本実施形態に係る3次元モデル生成サーバ1の処理フローについて説明する。以下に示す処理は、例えば、3次元モデル生成サーバ1が備えるCPU(不図示)が記憶装置に記憶されたプログラムを読み出して実行することにより実現される。第1の実施形態にて図5を用いて説明した処理フローとの差異に着目して説明し、同じ内容の処理については、図5と同じ参照番号を付す。
S504の処理の後、3次元モデル生成サーバ1の処理はS801へ進む。S801にて、3次元モデル生成サーバ1は、着目したグループに含まれる撮影データの撮影画像に対して、領域抽出処理を行う。上述したように、本実施形態では、撮影画像において、「移動物体」としての領域と、「固定物体」としての領域を抽出するための学習済みモデルを用いて領域抽出を行う。撮影画像によっては、すべての領域が移動物体の領域であるとして抽出される場合もあれば、すべての領域が固定物体として抽出される場合もある。
S802にて、3次元モデル生成サーバ1は、S801にて移動物体の領域として抽出された領域の情報を用いて3次元オブジェクトを生成する。ここでの3次元オブジェクトとは、物体認識された3次元モデルを示す。ここでの3次元オブジェクトの生成方法は特に限定されるものではない。例えば、移動物体の領域として抽出された領域の情報から3次元点群を求め、オブジェクトの3次元モデルを生成することで、移動物体を示す3次元オブジェクトを生成してもよい。または、移動物体の領域として抽出された領域の情報からその領域が示す移動体の種類を特定し、予め生成されている表示用の3次元オブジェクトとの対応付けを行うことで生成してもよい。
S803にて、3次元モデル生成サーバ1は、S801にて固定物体の領域として抽出された領域の情報を用いて3次元モデルを生成する。ここでの3次元モデルの生成方法は、第1の実施形態の図5のS505の処理と同様であってよい。
S804にて、3次元モデル生成サーバ1は、S802にて生成した移動物体の3次元オブジェクトと、S803にて生成した3次元モデルとを対応付けて記憶部(不図示)に記憶する。その後、S506の処理へ進む。
なお、S508の評価処理では、固定物体として抽出された領域の情報に基づいて評価が行われることなる。そのため、第1の実施形態にて用いられた評価基準とは異なる評価基準が用いられてもよい。例えば、撮影画像の全体に対して、固定物体として抽出された領域の割合に基づいて評価が行われてもよい。
以上、本実施形態では、撮影画像に対し、3次元モデルを生成するための領域(固定物体の領域)を抽出し、その領域の情報に基づいて3次元モデルの生成および評価を行う。
[表示]
本実施形態では、図8に示すような処理により、3次元モデルが生成される。また、図8のS804にて示したように、3次元モデルと、その3次元モデルが示す領域に移動物体を示す3次元オブジェクトとが対応付けられている。そのため、本実施形態では、3次元モデル生成サーバ1は、表示装置3に3次元モデルを提供する場合(図3のS310)、その3次元モデルに対応付けられた3次元オブジェクトの情報を併せて提供する。
そして、表示装置3は、3次元モデル生成サーバ1から提供された3次元モデルとそれに対応する3次元オブジェクトを表示させる。なお、3次元オブジェクトは、ユーザの操作に応じて、表示/非表示が切り替えられるような構成であってもよい。
上記の例では、移動物体に対応して3次元オブジェクトを表示する例を示したが、移動物体を2次元オブジェクトとして示してもよい。または、複数の3次元オブジェクトが存在する場合には、その一部のみを表示するような構成であってもよい。
本実施形態では、第1の実施形態の構成を基礎として説明したが、第2の実施形態の構成に適用してもよい。つまり、車両などの移動体から取得した撮影画像から固定物体の領域を抽出し、3次元モデルの生成に用いてよい。
以上、本実施形態により、撮影画像から固定物体の領域を抽出して3次元モデルを生成、更新することで、第1の実施形態よりもより精度の高い3次元モデルの構築が可能となる。
1 3次元モデル生成サーバ
2 携帯端末
3 表示装置
4 ネットワーク
101 データ収集部
102 3次元モデル生成部
103 3次元モデル管理部
104 データ評価部
105 ユーザ管理部
106 インセンティブ付与部
107 通信制御部
108 表示制御部
201 撮像部
202 センサ群
203 記憶部
204 制御部
205 通信部
301 3次元モデル表示部
302 操作受付部
303 通信制御部

Claims (12)

  1. 複数の移動体それぞれと、ユーザとを対応付けて管理する管理手段と、
    前記複数の移動体それぞれに備えられた撮影装置にて撮影された、撮影に関する付帯情報を含む撮影データを収集する収集手段と、
    前記収集手段にて収集された撮影データを用いて3次元モデルを生成する生成手段と、
    前記収集手段にて収集した新たな撮影データを用いて生成された3次元モデルを1または複数の評価基準に基づく評価値により評価する評価手段と、
    前記生成手段により撮影データを用いて生成された前記3次元モデルの評価値に応じて、当該撮影データを撮影した移動体に対応付けられたユーザに対して報酬を付与する付与手段と
    を有し、
    前記生成手段は、新たな撮影データに含まれる付帯情報を用いて、前記新たな撮影データに対応する既存の3次元モデルの撮影領域を特定し、当該撮影領域における前記新たな撮影データから生成される3次元モデルのうちの前記評価手段による評価にて一定の評価値を与えられた3次元モデルを用いて前記既存の3次元モデルの更新を行うことを特徴とする3次元モデル構築システム。
  2. 複数の撮影データに含まれる複数の撮影画像を前記付帯情報に基づいて1または複数のグループに分類する分類手段をさらに有し、
    前記生成手段は、前記1または複数のグループそれぞれに対応する1または複数の3次元モデルを生成し、当該1または複数の3次元モデルそれぞれと前記既存の3次元モデルとの差分に応じて、前記既存の3次元モデルの更新を行うことを特徴とする請求項1に記載の3次元モデル構築システム。
  3. 前記評価手段は、前記新たな撮影データの画質、前記新たな撮影データに対応する前記3次元モデルの領域の更新履歴、および、前記新たな撮影データから生成される3次元モデルと前記既存の3次元モデルとの差分の少なくともいずれかの評価基準に基づいて、前記新たな撮影データを用いて生成された3次元モデルの評価を行うことを特徴とする請求項1または2に記載の3次元モデル構築システム。
  4. 前記報酬は、前記評価手段による前記1または複数の評価基準に基づく評価値に応じて決定されることを特徴とする請求項3に記載の3次元モデル構築システム。
  5. 前記報酬は、電子マネー、仮想通貨、または、ポイントサービスにおけるポイントであることを特徴とする請求項1乃至4のいずれか一項に記載の3次元モデル構築システム。
  6. 前記撮影データに含まれる撮影画像から所定の領域を抽出する抽出手段をさらに有し、
    前記生成手段は、前記抽出手段にて抽出した所定の領域の情報を用いて3次元モデルを生成することを特徴とする請求項1乃至5のいずれか一項に記載の3次元モデル構築システム。
  7. 前記所定の領域は、固定物体を示す領域であり、
    前記抽出手段は、撮影画像から固定物体を示す領域を抽出するための学習が行われることで生成された学習済みモデルを用いて、撮影画像から前記所定の領域を抽出することを特徴とする請求項6に記載の3次元モデル構築システム。
  8. 前記抽出手段は更に、撮影画像から移動物体を示す領域を抽出するための学習が行われることで生成された学習済みモデルを用いて、撮影画像から移動物体を示す領域を抽出し、
    前記生成手段は更に、前記移動物体を示す領域の情報を用いて、3次元モデルを表示する際に表示可能な3次元オブジェクトを生成することを特徴とする請求項6または7に記載の3次元モデル構築システム。
  9. 前記撮影データは、撮影動画を含み、
    前記撮影動画を構成する複数のフレームそれぞれの付帯情報は、前記撮影動画に対して付与された付帯情報から導出される情報により補完されることを特徴とする請求項1乃至のいずれか一項に記載の3次元モデル構築システム。
  10. 前記複数の移動体は、携帯端末、車両、および無人航空機の少なくともいずれかを含むことを特徴とする請求項1乃至のいずれか一項に記載の3次元モデル構築システム。
  11. 前記付帯情報は、撮影時の緯度、経度、高度、方角、仰角、俯角、および日時の少なくともいずれかを含むことを特徴とする請求項1乃至10のいずれか一項に記載の3次元モデル構築システム。
  12. 複数の移動体それぞれに備えられた撮影装置にて撮影された、撮影に関する付帯情報を含む撮影データを収集する収集工程と、
    前記収集工程にて収集された撮影データを用いて3次元モデルを生成する生成工程と、
    前記収集工程にて収集した新たな撮影データを用いて生成された3次元モデルを1または複数の評価基準に基づく評価値により評価する評価工程と、
    前記生成工程にて撮影データを用いて生成された前記3次元モデルの評価値に応じて、当該撮影データを撮影した移動体に対応付けられたユーザに対して報酬を付与する付与工程と
    を有し、
    前記生成工程において、新たな撮影データに含まれる付帯情報を用いて、前記新たな撮影データに対応する既存の3次元モデルの撮影領域を特定し、当該撮影領域における前記新たな撮影データから生成される3次元モデルのうちの前記評価工程における評価にて一定の評価値が与えられた3次元モデルを用いて前記既存の3次元モデルの更新を行うことを特徴とする3次元モデル構築方法。
JP2020082477A 2020-05-08 2020-05-08 3次元モデル構築システム、および3次元モデル構築方法 Active JP6849256B1 (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020082477A JP6849256B1 (ja) 2020-05-08 2020-05-08 3次元モデル構築システム、および3次元モデル構築方法

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082477A JP6849256B1 (ja) 2020-05-08 2020-05-08 3次元モデル構築システム、および3次元モデル構築方法

Publications (2)

Publication Number Publication Date
JP6849256B1 true JP6849256B1 (ja) 2021-03-24
JP2021177317A JP2021177317A (ja) 2021-11-11

Family

ID=74879307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082477A Active JP6849256B1 (ja) 2020-05-08 2020-05-08 3次元モデル構築システム、および3次元モデル構築方法

Country Status (1)

Country Link
JP (1) JP6849256B1 (ja)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023214510A1 (ja) * 2022-05-02 2023-11-09 ソニーセミコンダクタソリューションズ株式会社 情報処理装置、情報処理システム及び情報処理方法
JP7414918B1 (ja) 2022-09-20 2024-01-16 楽天グループ株式会社 画像収集システム、画像収集方法、及びプログラム
WO2024062602A1 (ja) * 2022-09-22 2024-03-28 日本電気株式会社 3次元化システム、3次元化方法及びプログラムを記録する記録媒体

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012168A (ja) * 2014-06-27 2016-01-21 株式会社デジタル 情報共有化システム
CN114627664A (zh) * 2016-08-26 2022-06-14 松下电器(美国)知识产权公司 三维信息处理方法以及三维信息处理装置
JP7341652B2 (ja) * 2018-01-12 2023-09-11 キヤノン株式会社 情報処理装置、情報処理方法、プログラム、およびシステム

Also Published As

Publication number Publication date
JP2021177317A (ja) 2021-11-11

Similar Documents

Publication Publication Date Title
JP6849256B1 (ja) 3次元モデル構築システム、および3次元モデル構築方法
Raneri Enhancing forensic investigation through the use of modern three-dimensional (3D) imaging technologies for crime scene reconstruction
CN207117844U (zh) 多vr/ar设备协同***
CN104641399B (zh) 用于创建环境并用于共享环境中基于位置的体验的***和方法
US8107677B2 (en) Measuring a cohort'S velocity, acceleration and direction using digital video
US20130095855A1 (en) Method, System, and Computer Program Product for Obtaining Images to Enhance Imagery Coverage
KR102200299B1 (ko) 3d-vr 멀티센서 시스템 기반의 도로 시설물 관리 솔루션을 구현하는 시스템 및 그 방법
US9583074B2 (en) Optimization of label placements in street level images
JP2018106696A (ja) 移動オブジェクトの仮想情報構築方法、移動オブジェクトの仮想情報検索方法及びアプリケーションシステム
CN105659304A (zh) 视觉增强导航
CN106233371A (zh) 选择用于显示的时间分布的全景图像
US20190213790A1 (en) Method and System for Semantic Labeling of Point Clouds
US11805236B2 (en) Generating stereo image data from monocular images
KR20190141892A (ko) 실 공간에서 관심지점 관련 정보를 자동으로 수집 및 업데이트하는 방법 및 시스템
JP2018049623A (ja) 空間オブジェクト検索並べ替え方法及びクラウドシステム
JP2010039583A (ja) 電子地図上での写真表示方法及びシステム、並びにその電子地図
JP6600674B2 (ja) 移動オブジェクト仮想情報遠隔管理方法及び移動オブジェクト仮想情報遠隔管理システム
CN106289180A (zh) 运动轨迹的计算方法及装置、终端
JP2018049624A (ja) ロケーションベース空間オブジェクト遠隔管理方法及びロケーションベース空間オブジェクト遠隔管理システム
KR102106029B1 (ko) 간판 검출 성능 향상을 위한 방법 및 시스템
Galvin Crime Scene Documentation: Preserving the Evidence and the Growing Role of 3D Laser Scanning
JP7001149B2 (ja) データ提供システムおよびデータ収集システム
WO2020095541A1 (ja) 情報処理装置、情報処理方法及びプログラム
JP2016218626A (ja) 画像管理装置、画像管理方法およびプログラム
KR20190035316A (ko) 정보 공유 시스템 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201012

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210225

R150 Certificate of patent or registration of utility model

Ref document number: 6849256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250