JP6849256B1 - 3D model construction system and 3D model construction method - Google Patents

3D model construction system and 3D model construction method Download PDF

Info

Publication number
JP6849256B1
JP6849256B1 JP2020082477A JP2020082477A JP6849256B1 JP 6849256 B1 JP6849256 B1 JP 6849256B1 JP 2020082477 A JP2020082477 A JP 2020082477A JP 2020082477 A JP2020082477 A JP 2020082477A JP 6849256 B1 JP6849256 B1 JP 6849256B1
Authority
JP
Japan
Prior art keywords
dimensional model
shooting
evaluation
data
dimensional
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020082477A
Other languages
Japanese (ja)
Other versions
JP2021177317A (en
Inventor
瀬古 保次
保次 瀬古
正吾 沼倉
正吾 沼倉
Original Assignee
シンメトリー・ディメンションズ・インク
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by シンメトリー・ディメンションズ・インク filed Critical シンメトリー・ディメンションズ・インク
Priority to JP2020082477A priority Critical patent/JP6849256B1/en
Application granted granted Critical
Publication of JP6849256B1 publication Critical patent/JP6849256B1/en
Publication of JP2021177317A publication Critical patent/JP2021177317A/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Image Generation (AREA)
  • Studio Devices (AREA)
  • Management, Administration, Business Operations System, And Electronic Commerce (AREA)

Abstract

【課題】従来よりも3次元モデルの構築を精度良く、かつ容易に広範囲に行う。【解決手段】3次元モデル構築システムであって、複数の移動体それぞれに備えられた撮影装置にて撮影された、撮影に関する付帯情報を含む撮影データを収集する収集手段と、前記収集手段にて収集された撮影データを用いて3次元モデルを生成する生成手段と、前記生成手段による前記3次元モデルの生成の際に用いられた撮影データに応じて、当該撮影データを撮影した移動体に対応付けられたユーザに対して報酬を付与する付与手段とを有し、前記生成手段は、新たな撮影データに含まれる付帯情報を用いて、前記新たな撮影データに対応する既存の3次元モデルの撮影領域を特定し、当該撮影領域における前記新たな撮影データから生成される3次元モデルと前記既存の3次元モデルとの差分に応じて、前記新たな撮影データを用いた前記既存の3次元モデルの更新を行う。【選択図】図1PROBLEM TO BE SOLVED: To construct a three-dimensional model more accurately and easily in a wide range than before. SOLUTION: In a three-dimensional model construction system, a collecting means for collecting shooting data including incidental information related to shooting, which is shot by a shooting device provided for each of a plurality of moving objects, and the collecting means. Corresponds to the generation means that generates a three-dimensional model using the collected shooting data and the moving body that shot the shooting data according to the shooting data used when the generation means generated the three-dimensional model. The generation means has an giving means for giving a reward to the attached user, and the generating means uses the incidental information included in the new shooting data to obtain the existing three-dimensional model corresponding to the new shooting data. The existing 3D model using the new shooting data according to the difference between the 3D model generated from the new shooting data in the shooting area and the existing 3D model in the shooting area. Update. [Selection diagram] Fig. 1

Description

本願発明は、現実世界における撮影データに基づく3次元モデル構築システム、および3次元モデル構築方法に関する。 The present invention relates to a three-dimensional model construction system based on shooting data in the real world, and a three-dimensional model construction method.

近年、バーチャルリアリティ(以下、VR)などの技術を用いて現実世界をデジタル空間に反映する試みが盛んに行われている。例えば、ドローンなどに搭載されたカメラで撮像した複数枚の画像から3次元復元により3次元点群を生成する技術が知られている。特許文献1では、移動体にて収集した画像データを用いて生成された3次元点群データを収集し、収集した3次元点群データを既存の地図情報への寄与度に応じて利用するか否かを決定することが記載されている。 In recent years, attempts have been actively made to reflect the real world in digital space using technologies such as virtual reality (hereinafter referred to as VR). For example, there is known a technique for generating a three-dimensional point cloud by three-dimensional restoration from a plurality of images captured by a camera mounted on a drone or the like. In Patent Document 1, whether to collect 3D point cloud data generated by using image data collected by a moving body and use the collected 3D point cloud data according to the degree of contribution to existing map information. It is stated to determine whether or not.

特開2020−017200号公報Japanese Unexamined Patent Publication No. 2020-017200

一方、現実世界の物体は、複雑な形状をしていることも多く、これを忠実に反映した3次元モデルを作成するためには、様々な位置から様々な角度で対象物を撮影する必要がある。しかし、例えばドローンを用いて撮影した画像だけでは、凹凸の部分など画像に映っていない箇所が発生しやすく、精度良く3次元モデルを復元することはできなかった。 On the other hand, objects in the real world often have complicated shapes, and in order to create a three-dimensional model that faithfully reflects this, it is necessary to photograph the object from various positions and at various angles. is there. However, for example, only an image taken with a drone tends to generate parts that are not reflected in the image, such as uneven parts, and it is not possible to accurately restore the three-dimensional model.

本願発明は、上記課題を鑑み、従来よりも3次元モデルの構築を精度良く、かつ容易に広範囲に行うことを可能とすることを目的とする。 In view of the above problems, an object of the present invention is to make it possible to construct a three-dimensional model more accurately and easily over a wide range than before.

上記課題を解決するために本願発明は以下の構成を有する。すなわち、
3次元モデル構築システムであって、
複数の移動体それぞれと、ユーザとを対応付けて管理する管理手段と、
前記複数の移動体それぞれに備えられた撮影装置にて撮影された、撮影に関する付帯情報を含む撮影データを収集する収集手段と、
前記収集手段にて収集された撮影データを用いて3次元モデルを生成する生成手段と、
前記収集手段にて収集した新たな撮影データを用いて生成された3次元モデルを1または複数の評価基準に基づく評価値により評価する評価手段と、
前記生成手段により撮影データを用いて生成された前記3次元モデルの評価値に応じて、当該撮影データを撮影した移動体に対応付けられたユーザに対して報酬を付与する付与手段と
を有し、
前記生成手段は、新たな撮影データに含まれる付帯情報を用いて、前記新たな撮影データに対応する既存の3次元モデルの撮影領域を特定し、当該撮影領域における前記新たな撮影データから生成される3次元モデルのうちの前記評価手段による評価にて一定の評価値を与えられた3次元モデルを用いて前記既存の3次元モデルの更新を行う。
In order to solve the above problems, the present invention has the following configuration. That is,
It is a 3D model construction system
A management means for managing each of a plurality of mobile objects in association with a user,
A collecting means for collecting shooting data including incidental information related to shooting, which was shot by a shooting device provided for each of the plurality of moving objects.
A generation means for generating a three-dimensional model using the shooting data collected by the collection means, and a generation means.
An evaluation means for evaluating a three-dimensional model generated by using the new imaging data collected by the collection means based on an evaluation value based on one or a plurality of evaluation criteria, and an evaluation means.
Depending on the evaluation value of the three-dimensional model generated using more imaging data to said generating means, chromatic and providing means for providing a reward to a user associated with the mobile photographed the imaging data And
The generation means uses the incidental information included in the new shooting data to specify the shooting area of the existing three-dimensional model corresponding to the new shooting data, and is generated from the new shooting data in the shooting area. The existing three-dimensional model is updated by using the three-dimensional model given a certain evaluation value by the evaluation by the evaluation means among the three-dimensional models.

本願発明によれば、従来よりも3次元モデルの構築を精度良く、かつ容易に広範囲に行うことが可能となる。 According to the present invention, it is possible to construct a three-dimensional model more accurately and easily in a wider range than in the past.

本願発明の一実施形態に係るシステムの全体構成の例を示す概要図。The schematic diagram which shows the example of the whole structure of the system which concerns on one Embodiment of this invention. 本願発明の一実施形態に係る各装置の機能構成の例を示す図。The figure which shows the example of the functional structure of each apparatus which concerns on one Embodiment of this invention. 第1の実施形態に係る各装置間の処理のシーケンス図。The sequence diagram of the process between each apparatus which concerns on 1st Embodiment. 第1の実施形態に係るデータ構成の例を説明するための図。The figure for demonstrating the example of the data structure which concerns on 1st Embodiment. 第1の実施形態に係る3次元モデル生成サーバの処理のフローチャート。The flowchart of the process of the 3D model generation server which concerns on 1st Embodiment. 第2の実施形態に係る車両の機能構成の例を示す図。The figure which shows the example of the functional structure of the vehicle which concerns on 2nd Embodiment. 第2の実施形態に係るデータ構成の例を説明するための図。The figure for demonstrating the example of the data structure which concerns on 2nd Embodiment. 第3の実施形態に係る3次元モデル生成サーバの処理のフローチャート。The flowchart of the process of the 3D model generation server which concerns on 3rd Embodiment.

以下、本願発明を実施するための形態について図面などを参照して説明する。なお、以下に説明する実施形態は、本願発明を説明するための一実施形態であり、本願発明を限定して解釈されることを意図するものではなく、また、各実施形態で説明されている全ての構成が本願発明の課題を解決するために必須の構成であるとは限らない。また、各図面において、同じ構成要素については、同じ参照番号を付すことにより対応関係を示す。 Hereinafter, embodiments for carrying out the present invention will be described with reference to drawings and the like. It should be noted that the embodiments described below are embodiments for explaining the present invention, and are not intended to be interpreted in a limited manner, and are described in each embodiment. Not all configurations are essential configurations for solving the problems of the present invention. Further, in each drawing, the same component is given the same reference number to indicate the correspondence relationship.

<第1の実施形態>
以下、本願発明の第1の実施形態について説明を行う。
<First Embodiment>
Hereinafter, the first embodiment of the present invention will be described.

[システム構成]
図1は、本実施形態に係る3次元モデル構築システムの全体構成の例を示す概要図である。本実施形態に係る3次元モデル構築システムは、3次元モデル生成サーバ1、携帯端末2、および表示装置3を含んで構成される。各装置は、ネットワーク4を介して通信可能に接続される。ネットワーク4の通信規格や有線/無線は特に限定するものではなく、複数の通信規格が組み合わせて実現されてもよい。また、図1においては、各装置はそれぞれ1つずつが示されているが、複数の装置が含まれてよい。特に撮影装置として機能する携帯端末2は、1または複数の利用者(ユーザ)に携帯されており、複数の携帯端末2が含まれてよい。以下の説明において、携帯端末2について個別に説明を要する場合には添え字n(≧2)を付して説明するが、包括的に説明する場合には添え字を省略する。
[System configuration]
FIG. 1 is a schematic diagram showing an example of the overall configuration of the three-dimensional model construction system according to the present embodiment. The three-dimensional model construction system according to the present embodiment includes a three-dimensional model generation server 1, a mobile terminal 2, and a display device 3. Each device is communicably connected via the network 4. The communication standard of the network 4 and the wired / wireless are not particularly limited, and a plurality of communication standards may be combined and realized. Further, in FIG. 1, one device is shown for each device, but a plurality of devices may be included. In particular, the mobile terminal 2 that functions as a photographing device is carried by one or a plurality of users (users), and may include a plurality of mobile terminals 2. In the following description, when the mobile terminal 2 needs to be explained individually, it will be described with a subscript n (≧ 2), but when it is comprehensively described, the subscript will be omitted.

3次元モデル生成サーバ1は、本実施形態に係る携帯端末2にて撮影された撮影画像を含む撮影データを用いて3次元モデルを生成する。また、3次元モデル生成サーバ1は、携帯端末2およびこれを所有するユーザを対応付けて管理する。さらに、3次元モデル生成サーバ1は、携帯端末2にて撮影された撮影画像を含む撮影データを用いて生成された3次元モデルの評価を行い、その評価結果に応じて携帯端末2(すなわち、ユーザ)に対してインセンティブを付与する。3次元モデルの評価およびインセンティブの付与についての詳細は後述する。3次元モデル生成サーバ1は、負荷分散の目的などに応じて、複数が備えられてよいし、一部の機能を別のサーバとして構成してもよい。携帯端末2は、例えば、モバイルPC(Personal Computer)などの情報処理装置や、スマートフォンやタブレット端末などの携帯端末であってよい。 The three-dimensional model generation server 1 generates a three-dimensional model using the photographed data including the photographed image photographed by the mobile terminal 2 according to the present embodiment. Further, the three-dimensional model generation server 1 manages the mobile terminal 2 and the user who owns the mobile terminal 2 in association with each other. Further, the three-dimensional model generation server 1 evaluates the three-dimensional model generated using the photographed data including the photographed image photographed by the mobile terminal 2, and the mobile terminal 2 (that is, that is, according to the evaluation result). Give incentives to users). Details of the evaluation of the 3D model and the provision of incentives will be described later. A plurality of three-dimensional model generation servers 1 may be provided depending on the purpose of load distribution and the like, or some functions may be configured as another server. The mobile terminal 2 may be, for example, an information processing device such as a mobile PC (Personal Computer) or a mobile terminal such as a smartphone or a tablet terminal.

表示装置3は、3次元モデル生成サーバ1にて生成された3次元モデルを表示する表示装置である。表示装置3は、例えば、PC(Personal Computer)などの情報処理装置、スマートフォンやタブレット端末などの携帯端末、もしくはHMD(Head Mounted Display)であってよい。なお、携帯端末2と表示装置3とが一体となった構成であってもよい。 The display device 3 is a display device that displays the three-dimensional model generated by the three-dimensional model generation server 1. The display device 3 may be, for example, an information processing device such as a PC (Personal Computer), a mobile terminal such as a smartphone or a tablet terminal, or an HMD (Head Mounted Display). The mobile terminal 2 and the display device 3 may be integrated.

[機能構成]
図2は、本実施形態に係る各装置の機能構成の例を示す図である。
[Functional configuration]
FIG. 2 is a diagram showing an example of a functional configuration of each device according to the present embodiment.

(3次元モデル生成サーバ)
図2(a)に示すように、本実施形態に係る3次元モデル生成サーバ1は、データ収集部101、3次元モデル生成部102、3次元モデル管理部103、データ評価部104、ユーザ管理部105、インセンティブ付与部106、通信制御部107、および表示制御部108を含んで構成される。
(3D model generation server)
As shown in FIG. 2A, the three-dimensional model generation server 1 according to the present embodiment includes a data collection unit 101, a three-dimensional model generation unit 102, a three-dimensional model management unit 103, a data evaluation unit 104, and a user management unit. It includes 105, an incentive giving unit 106, a communication control unit 107, and a display control unit 108.

データ収集部101は、本実施形態に係る複数の携帯端末2−1〜2−nそれぞれから3次元モデルを生成する際に用いる撮影データを収集する。収集するタイミングは、例えば、携帯端末2から送信されてきたタイミングにて受信することで取得してよい。3次元モデル生成部102は、携帯端末2から収集した撮影データを用いて、3次元モデルを生成する。例えば、3次元モデル生成部102は、撮影データに含まれる撮影画像から点群データを生成し、その点群データから3次元モデルを生成する。 The data collection unit 101 collects shooting data used when generating a three-dimensional model from each of the plurality of mobile terminals 2-1 to 2-n according to the present embodiment. The timing of collection may be acquired by receiving, for example, the timing of transmission from the mobile terminal 2. The three-dimensional model generation unit 102 generates a three-dimensional model using the shooting data collected from the mobile terminal 2. For example, the three-dimensional model generation unit 102 generates point cloud data from the photographed image included in the photographed data, and generates a three-dimensional model from the point cloud data.

3次元モデル管理部103は、3次元モデル生成部102にて生成された3次元モデルを管理する。ここでの管理は、更新されたタイミングやバージョンごとに管理してよく、また、一定の更新が行われた場合には過去の3次元モデルは削除するような構成であってもよい。データ評価部104は、収集した撮影データを用いて生成された3次元モデルの評価を行う。評価方法については後述する。 The 3D model management unit 103 manages the 3D model generated by the 3D model generation unit 102. The management here may be managed for each update timing or version, and may be configured to delete the past three-dimensional model when a certain update is performed. The data evaluation unit 104 evaluates the three-dimensional model generated using the collected shooting data. The evaluation method will be described later.

ユーザ管理部105は、携帯端末2とその携帯端末2を所有するユーザとを対応付けて管理する。また、ユーザ管理部105は、携帯端末2から提供された撮影データを対応付けて管理する。インセンティブ付与部106は、データ評価部104による評価結果に基づき、撮影データを提供したユーザに対するインセンティブを付与する。 The user management unit 105 manages the mobile terminal 2 and the user who owns the mobile terminal 2 in association with each other. Further, the user management unit 105 manages the shooting data provided from the mobile terminal 2 in association with each other. The incentive giving unit 106 gives an incentive to the user who provided the shooting data based on the evaluation result by the data evaluation unit 104.

通信制御部107は、外部装置との通信を行うための部位であり、有線/無線や通信規格などは特に限定するものではない。表示制御部108は、3次元モデル生成部102にて生成された3次元モデルの表示を制御する。ここでの表示制御は、表示装置3からの要求に応じて、3次元モデルを含む表示データを表示装置3に提供することを含む。 The communication control unit 107 is a part for performing communication with an external device, and the wired / wireless and communication standards are not particularly limited. The display control unit 108 controls the display of the three-dimensional model generated by the three-dimensional model generation unit 102. The display control here includes providing the display device 3 with display data including the three-dimensional model in response to a request from the display device 3.

(携帯端末)
図2(b)に示すように、本実施形態に係る携帯端末2は、撮像部201、センサ群202、記憶部203、制御部204、および通信部205を含んで構成される。撮像部201は、携帯端末2の周辺の画像を取得するための撮像部であり、不図示のレンズや撮像素子などを備える。センサ群202は、自端末の状態などの情報(例えば、位置情報や向きなど)を検出するための検出部であり、磁気センサ、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)センサなどが含まれる。本実施形態では、撮像部201にて画像が撮影された際の情報として、センサ群202にて検出された各種情報が対応付けて保持されてよい。
(Mobile terminal)
As shown in FIG. 2B, the mobile terminal 2 according to the present embodiment includes an imaging unit 201, a sensor group 202, a storage unit 203, a control unit 204, and a communication unit 205. The image pickup unit 201 is an image pickup section for acquiring an image of the periphery of the mobile terminal 2, and includes a lens (not shown), an image pickup element, and the like. The sensor group 202 is a detection unit for detecting information such as the state of the own terminal (for example, position information, orientation, etc.), and includes a magnetic sensor, an acceleration sensor, a gyro sensor, a GPS (Global Positioning System) sensor, and the like. Is done. In the present embodiment, various information detected by the sensor group 202 may be stored in association with each other as information when an image is taken by the imaging unit 201.

記憶部203は、撮像部201を介して撮像された撮影画像を記憶する記憶部であり、例えば、フラッシュメモリなどの不揮発性の記憶領域により構成される。記憶部203は、撮影画像と、撮影時の情報(撮影時にセンサ群202にて検出された情報や、撮影日時、撮影設定など)とを対応付けて撮影データとして記憶する。制御部204は、携帯端末2の全体の制御を司る部位であり、例えば、処理部としてのCPU(Central Processing Unit)や専用回路などにより構成される。通信部205は、外部装置との通信を行うための部位であり、有線/無線や通信規格などは特に限定するものではない。 The storage unit 203 is a storage unit that stores a captured image captured via the image pickup unit 201, and is composed of, for example, a non-volatile storage area such as a flash memory. The storage unit 203 stores the captured image and the information at the time of shooting (information detected by the sensor group 202 at the time of shooting, the shooting date / time, the shooting setting, etc.) as shooting data in association with each other. The control unit 204 is a part that controls the entire mobile terminal 2, and is composed of, for example, a CPU (Central Processing Unit) as a processing unit, a dedicated circuit, or the like. The communication unit 205 is a part for communicating with an external device, and the wired / wireless and communication standards are not particularly limited.

制御部204は、ユーザの操作に基づいて撮像部201を起動させ、周辺の撮影を行わせる。撮影設定や撮影対象はユーザの操作に基づくものとする。制御部204は、撮像部201にて撮影された撮影画像に対して、所定の画像処理を行う構成であってもよい。例えば、制御部204は、撮影画像に対してフィルタリングなどの画像処理を行うような構成であってもよい。また、撮像部201が動画を撮影可能な構成である場合には、制御部204は、撮影動画の中から所定のフレームを抽出して送信用の撮影画像とするような処理を行ってもよい。フレームを抽出して撮影画像として送信する際には、撮影動画を取得時の情報(撮影設定や撮影日時など)に基づき当該フレームに対応する情報を決定した上で撮影データに含めてもよい。または、撮影動画を撮影データに含めて送信してもよい。複数の携帯端末2−1〜2−nの構成は同一である必要はなく、異なる機能を備えた携帯端末2が用いられてよい。なお、携帯端末2において、本実施形態に係る機能を実現する各部位は、携帯端末2にインストールされたアプリケーションにより実現されてよい。 The control unit 204 activates the imaging unit 201 based on the user's operation to take a picture of the surrounding area. The shooting settings and shooting targets shall be based on the user's operation. The control unit 204 may be configured to perform predetermined image processing on the captured image captured by the imaging unit 201. For example, the control unit 204 may be configured to perform image processing such as filtering on the captured image. Further, when the imaging unit 201 has a configuration capable of shooting a moving image, the control unit 204 may perform a process of extracting a predetermined frame from the captured moving image and using it as a captured image for transmission. .. When extracting a frame and transmitting it as a shot image, the information corresponding to the frame may be determined based on the information at the time of acquisition (shooting setting, shooting date and time, etc.) and then included in the shooting data. Alternatively, the captured moving image may be included in the shooting data and transmitted. The configurations of the plurality of mobile terminals 2-1 to 2-n do not have to be the same, and mobile terminals 2 having different functions may be used. In the mobile terminal 2, each part that realizes the function according to the present embodiment may be realized by an application installed in the mobile terminal 2.

(表示装置)
図2(c)に示すように、本実施形態に係る表示装置3は、3次元モデル表示部301、操作受付部302、および通信制御部303を含んで構成される。3次元モデル表示部301は、3次元モデル生成サーバ1から提供された表示データを表示装置3のディスプレイ(不図示)に表示する。3次元モデルの表示は、プロジェクタなどの投影により表示されてもよいし、仮想現実(VR:Virtual Reality)として表示されてもよい。操作受付部302は、表示装置3の操作部(不図示)を介してユーザからの操作を受け付ける。ここでの操作は、ディスプレイ上に表示している3次元モデルの表示の切り替えなどの操作が挙げられる。通信制御部303は、外部装置との通信を行うための部位であり、有線/無線や通信規格などは特に限定するものではない。なお、表示装置3において、本実施形態に係る機能を実現する各部位は、表示装置3にインストールされたアプリケーションにより実現されてよい。
(Display device)
As shown in FIG. 2C, the display device 3 according to the present embodiment includes a three-dimensional model display unit 301, an operation reception unit 302, and a communication control unit 303. The three-dimensional model display unit 301 displays the display data provided by the three-dimensional model generation server 1 on the display (not shown) of the display device 3. The display of the three-dimensional model may be displayed by projection of a projector or the like, or may be displayed as virtual reality (VR). The operation receiving unit 302 receives an operation from the user via the operation unit (not shown) of the display device 3. Examples of the operation here include operations such as switching the display of the three-dimensional model displayed on the display. The communication control unit 303 is a part for performing communication with an external device, and the wired / wireless and communication standards are not particularly limited. In the display device 3, each part that realizes the function according to the present embodiment may be realized by an application installed in the display device 3.

[処理シーケンス]
図3は、本実施形態に係る装置間の連携を示す処理シーケンスを示す。各工程は、例えば、処理主体となる各装置のCPUが記憶装置に記憶されたプログラムを読み出して実行することにより実現されてよい。また、複数の携帯端末2−1〜2−nはそれぞれが処理を行うものとするが、図3では包括的に説明を行う。
[Processing sequence]
FIG. 3 shows a processing sequence showing cooperation between the devices according to the present embodiment. Each step may be realized, for example, by the CPU of each device, which is the main body of processing, reading and executing the program stored in the storage device. Further, although it is assumed that each of the plurality of mobile terminals 2-1 to 2-n performs the processing, FIG. 3 will be comprehensively described.

S301にて、携帯端末2は、3次元モデル生成サーバ1に対してユーザ登録の要求を行う。ユーザ登録は、3次元モデル生成サーバ1にアクセスし、3次元モデル生成サーバ1が提供する登録画面(不図示)に各種情報を入力することで行われてよい。入力された情報には、携帯端末2やユーザを一意に識別するための情報が含まれてよい。 In S301, the mobile terminal 2 requests the three-dimensional model generation server 1 for user registration. User registration may be performed by accessing the 3D model generation server 1 and inputting various information on the registration screen (not shown) provided by the 3D model generation server 1. The input information may include information for uniquely identifying the mobile terminal 2 or the user.

S302にて、3次元モデル生成サーバ1は、携帯端末2からの要求に応じて、ユーザ登録処理を行う。ユーザ登録処理では、ユーザと携帯端末2とを対応付けて管理するように、後述するユーザ管理テーブル(図4(a))に各種情報が登録される。本実施形態に係る機能を携帯端末2にインストールされたアプリケーションにて構成する場合には、アプリケーションの情報をさらに対応付けて管理してもよい。 In S302, the three-dimensional model generation server 1 performs user registration processing in response to a request from the mobile terminal 2. In the user registration process, various information is registered in the user management table (FIG. 4A), which will be described later, so that the user and the mobile terminal 2 are managed in association with each other. When the function according to the present embodiment is configured by the application installed on the mobile terminal 2, the information of the application may be further associated and managed.

S303にて、3次元モデル生成サーバ1は、ユーザ登録処理が完了したことを携帯端末2に通知する。なお、S301〜S303の処理は、携帯端末2とユーザの対応付けに関する処理であるため、携帯端末2それぞれにおいて1度行えばよい。一方、S304以降の処理は、携帯端末2のユーザによる撮影データ提供の際の操作に起因して繰り返し行われるものとする。 In S303, the three-dimensional model generation server 1 notifies the mobile terminal 2 that the user registration process is completed. Since the processes of S301 to S303 are related to the association between the mobile terminal 2 and the user, they may be performed once for each of the mobile terminals 2. On the other hand, the processing after S304 is assumed to be repeated due to the operation when the user of the mobile terminal 2 provides the shooting data.

S304にて、携帯端末2は、ユーザ操作に基づいて撮像部201を起動させ、携帯端末2の周辺の撮影を行う。なお、図3では示していないが、携帯端末2(ユーザ)は、撮影を行う際に、3次元モデル生成サーバ1に対して現時点で生成されている3次元モデルの問い合わせを行ってもよい。そして、ユーザは、この問い合わせの結果から得られる3次元モデルの生成情報などに応じて撮影対象や撮影範囲を決定してよい。ここで提供される生成情報としては、例えば、3次元モデルが生成されていない領域の位置情報や、更新されてから所定時間が経過した領域の位置情報などが挙げられる。 In S304, the mobile terminal 2 activates the imaging unit 201 based on the user operation to take a picture of the periphery of the mobile terminal 2. Although not shown in FIG. 3, the mobile terminal 2 (user) may inquire of the three-dimensional model generation server 1 of the currently generated three-dimensional model when taking a picture. Then, the user may determine the shooting target and the shooting range according to the generation information of the three-dimensional model obtained from the result of this inquiry. Examples of the generated information provided here include the position information of the area where the three-dimensional model has not been generated, the position information of the area where a predetermined time has passed since the update, and the like.

S305にて、携帯端末2は、撮影により得られた撮影画像を含む撮影データを3次元モデル生成サーバ1へ送信する。ここでの撮影データには、撮影位置や撮影条件などの付帯情報が含まれる。付帯情報の例については後述する。 In S305, the mobile terminal 2 transmits the shooting data including the shot image obtained by the shooting to the three-dimensional model generation server 1. The shooting data here includes incidental information such as a shooting position and shooting conditions. An example of incidental information will be described later.

S306にて、3次元モデル生成サーバ1は、携帯端末2から送信された撮影データを受信し、後述する撮影データ管理テーブル(図4(b))に登録する。 In S306, the three-dimensional model generation server 1 receives the shooting data transmitted from the mobile terminal 2 and registers it in the shooting data management table (FIG. 4B) described later.

S307にて、3次元モデル生成サーバ1は、受信した撮影データを用いて3次元モデルを生成する。本実施形態に係る生成処理の詳細については後述する。 In S307, the three-dimensional model generation server 1 generates a three-dimensional model using the received shooting data. Details of the generation process according to this embodiment will be described later.

S308にて、3次元モデル生成サーバ1は、S307にて生成した3次元モデルと、既存の3次元モデルとを比較し、その差分などからS307にて生成した3次元モデルの評価を行う。 In S308, the three-dimensional model generation server 1 compares the three-dimensional model generated in S307 with the existing three-dimensional model, and evaluates the three-dimensional model generated in S307 from the difference and the like.

S309にて、3次元モデル生成サーバ1は、S308における評価結果に応じて、既存の3次元モデルに対してS307にて生成した3次元モデルを反映することで、3次元モデルの生成(更新)を行う。そして、3次元モデル生成サーバ1は、生成した3次元モデルを記憶する。 In S309, the 3D model generation server 1 generates (updates) the 3D model by reflecting the 3D model generated in S307 with respect to the existing 3D model according to the evaluation result in S308. I do. Then, the three-dimensional model generation server 1 stores the generated three-dimensional model.

S310にて、3次元モデル生成サーバ1は、表示装置3に対し、S309の処理後の3次元モデルの表示データを提供する。ここでの提供は、更新に伴って3次元モデル生成サーバ1が起点となって行ってもよいし、表示装置3からの要求に応答して行ってもよい。 In S310, the three-dimensional model generation server 1 provides the display device 3 with the display data of the three-dimensional model after the processing of S309. The provision here may be performed starting from the three-dimensional model generation server 1 with the update, or may be performed in response to a request from the display device 3.

S311にて、3次元モデル生成サーバ1は、S308の評価結果に基づき、撮影データを送信した携帯端末2に対応するユーザに対してインセンティブを付与する。付与されたインセンティブの情報は、後述するインセンティブ管理テーブル(図4(c))に反映される。 In S311 the three-dimensional model generation server 1 gives an incentive to the user corresponding to the mobile terminal 2 that has transmitted the shooting data based on the evaluation result of S308. The given incentive information is reflected in the incentive management table (FIG. 4 (c)) described later.

S312にて、3次元モデル生成サーバ1は、S311にて付与したインセンティブの結果を携帯端末2に通知する。 In S312, the three-dimensional model generation server 1 notifies the mobile terminal 2 of the result of the incentive given in S311.

S313にて、表示装置3は、S310にて3次元モデル生成サーバ1から提供された3次元モデルの表示データを用いて表示処理を行う。 In S313, the display device 3 performs display processing using the display data of the three-dimensional model provided by the three-dimensional model generation server 1 in S310.

S314にて、携帯端末2は、3次元モデル生成サーバ1から通知されたインセンティブの内容を表示する。携帯端末2のユーザは、表示内容により、S305にて送信した撮影データに対して付与されたインセンティブを確認することができる。ここでの表示には、過去に付与されたインセンティブの内容(履歴)を含めてもよい。また、ここでの表示は、インセンティブの付与の通知と併せて表示するような構成であってもよいし、通知の後、携帯端末2による3次元モデル生成サーバ1へのアクセスが行われた際に表示画面(不図示)を提供して行われてもよい。 In S314, the mobile terminal 2 displays the content of the incentive notified from the three-dimensional model generation server 1. The user of the mobile terminal 2 can confirm the incentive given to the shooting data transmitted in S305 by the display contents. The display here may include the content (history) of the incentive given in the past. Further, the display here may be configured to be displayed together with the notification of granting the incentive, or when the mobile terminal 2 accesses the three-dimensional model generation server 1 after the notification. A display screen (not shown) may be provided on the screen.

[データ構成]
図4は、本実施形態に係る3次元モデル構築システムにおいて用いられるデータの構成例を示す図である。図4に示す各データは、例えば、3次元モデル生成サーバ1にて管理されるデータベースの各テーブルに格納される。
[Data structure]
FIG. 4 is a diagram showing a configuration example of data used in the three-dimensional model construction system according to the present embodiment. Each data shown in FIG. 4 is stored in, for example, each table of the database managed by the three-dimensional model generation server 1.

図4(a)は、本実施形態に係る、ユーザ情報を管理するためのユーザ管理テーブルの構成例を示す。ユーザ登録処理(図3のS302)によりユーザ管理テーブルの内容が更新される。ユーザ管理テーブルは、ユーザIDおよび携帯端末IDの項目を含んで構成される。ユーザIDは、ユーザを一意に識別するための識別情報である。携帯端末IDは、携帯端末2を一意に識別するための識別情報である。ユーザIDおよび携帯端末IDの桁数や使用文字列などの仕様は図4(a)に示すものに限定するものではなく、他の構成であってよい。また、ユーザIDおよび携帯端末IDは、3次元モデル生成サーバ1が登録要求を受け付けた際に採番して発行してもよいし、ユーザが指定する構成であってもよい。 FIG. 4A shows a configuration example of a user management table for managing user information according to the present embodiment. The contents of the user management table are updated by the user registration process (S302 in FIG. 3). The user management table is configured to include items of a user ID and a mobile terminal ID. The user ID is identification information for uniquely identifying the user. The mobile terminal ID is identification information for uniquely identifying the mobile terminal 2. Specifications such as the number of digits of the user ID and the mobile terminal ID and the character string used are not limited to those shown in FIG. 4A, and may have other configurations. Further, the user ID and the mobile terminal ID may be numbered and issued when the three-dimensional model generation server 1 receives the registration request, or may be configured by the user.

図4(b)は、本実施形態に係る、撮影データを管理するための撮影データ管理テーブルの構成例を示す。撮影データ管理テーブルは、画像データID、送信元携帯端末ID、画像データ名、撮影日時、撮影位置、撮影方向、撮影設定、収集日時、および評価結果の項目を含んで構成される。画像データIDは、携帯端末2から収集した画像データを一意に識別するための識別情報である。画像データIDの桁数や使用文字列などの仕様は図4(b)に示すものに限定するものではなく、他の構成であってよい。送信元携帯端末IDは、画像データの送信元を示す識別情報であり、図4(a)に示す携帯端末IDに対応する。 FIG. 4B shows a configuration example of a shooting data management table for managing shooting data according to the present embodiment. The shooting data management table includes items such as an image data ID, a source mobile terminal ID, an image data name, a shooting date and time, a shooting position, a shooting direction, a shooting setting, a collection date and time, and an evaluation result. The image data ID is identification information for uniquely identifying the image data collected from the mobile terminal 2. Specifications such as the number of digits of the image data ID and the character string used are not limited to those shown in FIG. 4B, and may have other configurations. The source mobile terminal ID is identification information indicating the source of the image data, and corresponds to the mobile terminal ID shown in FIG. 4 (a).

画像データ名は、撮影画像の実ファイルのファイル名を示す。画像データ名には、実ファイルの格納先(パス)が指定されてもよい。なお、携帯端末2から提供される1の撮影データ内に複数の撮影画像が含まれてもよく、複数の撮影画像それぞれの情報が管理される。撮影日時は、撮影画像が撮影された日時(年/月/日/時/分/秒。ただし、秒は1/1000秒単位のミリ秒を含む)を示す情報である。撮影位置は、撮影画像が撮影された位置(緯度/経度/標高)を示す情報である。撮影方向は、撮影画像が撮影された際の向き(方角/仰角/俯角)を示す情報である。撮影設定は、撮影画像が撮影された際の設定情報である。撮影日時、撮影位置、撮影方向、および撮影設定などの情報が、携帯端末2から撮影データを収集する際に付帯情報として取得されるものとする。なお、撮影設定の項目は特に限定するものではなく、さらに詳細な項目が含まれていてよいし、撮影を行った携帯端末2の機能に応じて異なっていてもよい。 The image data name indicates the file name of the actual file of the captured image. The storage destination (path) of the actual file may be specified in the image data name. It should be noted that a plurality of captured images may be included in the captured data of 1 provided from the mobile terminal 2, and the information of each of the plurality of captured images is managed. The shooting date and time is information indicating the date and time when the shot image was shot (year / month / day / hour / minute / second. However, seconds include milliseconds in 1/1000 second units). The shooting position is information indicating the position (latitude / longitude / altitude) at which the shot image was shot. The shooting direction is information indicating the direction (direction / elevation / depression angle) when the shot image is shot. The shooting setting is the setting information when the shot image is shot. Information such as the shooting date and time, the shooting position, the shooting direction, and the shooting setting shall be acquired as incidental information when collecting shooting data from the mobile terminal 2. The items of the shooting setting are not particularly limited, and more detailed items may be included, or may differ depending on the function of the mobile terminal 2 that has taken the picture.

収集日時は、3次元モデル生成サーバ1が携帯端末2から収集した日時(年/月/日/時/分/秒)を示す情報である。評価結果は、撮影データを用いて生成された3次元モデルに対して行われた評価処理の結果に基づいて決定される値を示す。ここでは、評価値としてA〜Eの5段階(ここではAが最も高い評価とする)にて示しているが、これに限定するものではない。 The collection date and time is information indicating the date and time (year / month / day / hour / minute / second) collected from the mobile terminal 2 by the three-dimensional model generation server 1. The evaluation result indicates a value determined based on the result of the evaluation process performed on the three-dimensional model generated using the shooting data. Here, the evaluation values are shown in five stages from A to E (here, A is the highest evaluation), but the evaluation value is not limited to this.

図4(c)は、ユーザに対して付与されたインセンティブを管理するためのインセンティブ管理テーブルの構成例を示す。インセンティブ管理テーブルは、ユーザIDおよび付与インセンティブの項目を含んで構成される。ユーザIDは、図4(a)に対応する。付与インセンティブは、各ユーザに対して付与されたインセンティブの合計値を示す。ここでのインセンティブは、図4(b)の評価結果の値に応じて付与されるものであり、例えば、電子マネー、仮想通貨、または、ポイントサービスによるポイントなどが該当する。評価が高い撮影データほど、高いインセンティブが付与されることとなる。なお、評価結果とインセンティブの変換方法(例えば、変換式)は特に限定するものではなく、タイミングなどに応じて異なってよい。また、付与されるインセンティブの内容は、ユーザが選択可能な構成であってもよい。付与インセンティブの単位は、付与されるインセンティブの内容に応じて変化してよい。また、図4(a)のユーザID「USE00001」と携帯端末ID「MT00001」「MT00002」のように、1のユーザに対して複数の携帯端末2が対応付けられている場合がある。このような場合には、インセンティブ管理テーブルでは、複数の携帯端末2から送信された撮影データに基づくインセンティブの合計値が管理されてよい。 FIG. 4C shows a configuration example of an incentive management table for managing incentives given to users. The incentive management table is configured to include items of user ID and grant incentive. The user ID corresponds to FIG. 4A. The grant incentive indicates the total value of the incentives granted to each user. The incentive here is given according to the value of the evaluation result in FIG. 4B, and corresponds to, for example, electronic money, virtual currency, points by the point service, or the like. The higher the evaluation of the shooting data, the higher the incentive will be given. The conversion method (for example, conversion formula) between the evaluation result and the incentive is not particularly limited, and may differ depending on the timing and the like. Further, the content of the incentive to be given may be a configuration that can be selected by the user. The unit of the granted incentive may change depending on the content of the granted incentive. Further, there are cases where a plurality of mobile terminals 2 are associated with one user, such as the user ID "USE00001" and the mobile terminal IDs "MT00001" and "MT00002" in FIG. 4A. In such a case, the incentive management table may manage the total value of the incentives based on the shooting data transmitted from the plurality of mobile terminals 2.

[3次元モデル]
以下、本実施形態に係る3次元モデル生成サーバ1(3次元モデル生成部102)にて生成する3次元モデルについて説明する。3次元モデルの生成方法は公知の方法を用いてよく、特に限定するものではない。ここでは、3次元モデルの生成方法の一例について説明する。
[3D model]
Hereinafter, the three-dimensional model generated by the three-dimensional model generation server 1 (three-dimensional model generation unit 102) according to the present embodiment will be described. A known method may be used as the method for generating the three-dimensional model, and the method is not particularly limited. Here, an example of a method for generating a three-dimensional model will be described.

3次元モデルを生成する際に、同一対象物を含む可能性のある複数枚の撮影画像を収集し、各撮影画像の特徴点の候補をAKAZEなどの手法で検出し、その特徴量の値が予め設定された閾値を越えた場合にその候補を特徴点とする(特徴点抽出)。 When generating a 3D model, multiple captured images that may contain the same object are collected, candidate feature points of each captured image are detected by a method such as AKAZE, and the value of the feature amount is When a preset threshold value is exceeded, the candidate is used as a feature point (feature point extraction).

各撮影画像にて検出された特徴点が同一対象物に起因している場合には、それらの特徴点は点群データ間で対応している。そこで、画像間における特徴点の対応付けを行う(特徴点マッチング)。特徴点マッチングができた特徴点は同一対象物のある箇所を示しているため、その対象物の3次元座標を、測定結果に含まれる各種情報に基づいて算出する。ここでの情報としては、撮像部の向きや位置情報などが挙げられる。このようにして算出した複数の3次元座標点が3次元点群を形成することとなる。 When the feature points detected in each captured image are caused by the same object, those feature points correspond between the point cloud data. Therefore, feature points are associated between images (feature point matching). Since the feature points for which feature point matching is possible indicate a certain part of the same object, the three-dimensional coordinates of the object are calculated based on various information included in the measurement result. Examples of the information here include orientation and position information of the imaging unit. The plurality of three-dimensional coordinate points calculated in this way form a three-dimensional point cloud.

3次元点群は、単なる3次元座標点の集まりであるので、これを人が視認しやすいように、3次元モデルに変換する。その場合には、画像の近傍3点の特徴点で囲まれる領域を、その特徴点の3点で形成された3次元座標の3点に張り付ける(テキスチャーマッピング)。これにより三角ポリゴン面で構成された3次元モデルが生成できる。 Since the three-dimensional point cloud is simply a collection of three-dimensional coordinate points, it is converted into a three-dimensional model so that humans can easily see it. In that case, the area surrounded by the three feature points in the vicinity of the image is attached to the three points of the three-dimensional coordinates formed by the three feature points (texture mapping). As a result, a three-dimensional model composed of triangular polygon planes can be generated.

[価値評価]
本実施形態に係る3次元モデルの評価について説明する。本実施形態では、既存の3次元モデルと、新たに収集した撮影データから生成される3次元モデルとの差分に基づいて、新たに生成した3次元モデルおよびその生成に用いられた撮影データの評価を行う。
[Value evaluation]
The evaluation of the three-dimensional model according to the present embodiment will be described. In the present embodiment, the newly generated 3D model and the shooting data used for the generation are evaluated based on the difference between the existing 3D model and the 3D model generated from the newly collected shooting data. I do.

3次元モデルや撮影データの評価の観点として、既存の3次元モデルを生成した際に用いた撮影データの撮影日時と新たに収集した撮影データの撮影日時との差異(経過時間)、撮影データの画質、既存の3次元モデルを生成した際に用いた撮影データから得られる点群(点の数)と新たに収集した撮影データから得られる点群との差異、3次元モデルの体積の差異、複数の撮影画像の連続性などが用いられてよい。なお、評価方法については、上記に限定するものではなく、他の評価基準が用いられてよい。 From the viewpoint of evaluation of the 3D model and shooting data, the difference (elapsed time) between the shooting date and time of the shooting data used when the existing 3D model was generated and the shooting date and time of the newly collected shooting data, and the shooting data Image quality, difference between the point group (number of points) obtained from the shooting data used when the existing 3D model was generated and the point group obtained from the newly collected shooting data, the difference in volume of the 3D model, The continuity of a plurality of captured images may be used. The evaluation method is not limited to the above, and other evaluation criteria may be used.

[処理フロー]
図5を用いて、本実施形態に係る3次元モデル生成サーバ1の処理フローについて説明する。以下に示す処理は、例えば、3次元モデル生成サーバ1が備えるCPU(不図示)が記憶装置に記憶されたプログラムを読み出して実行することにより実現される。以下に示す処理は、図3に示した3次元モデル生成サーバ1の処理(S306〜S309、S311〜S312)の処理に対応する。なお、3次元モデルの提供(図3のS310)は、表示装置3からの要求に応じて行われるものとし、図5では省略する。
[Processing flow]
The processing flow of the three-dimensional model generation server 1 according to the present embodiment will be described with reference to FIG. The processing shown below is realized, for example, by reading and executing a program stored in the storage device by a CPU (not shown) included in the three-dimensional model generation server 1. The processing shown below corresponds to the processing of the three-dimensional model generation server 1 (S306 to S309, S311 to S312) shown in FIG. The provision of the three-dimensional model (S310 in FIG. 3) is assumed to be performed in response to the request from the display device 3, and is omitted in FIG.

S501にて、3次元モデル生成サーバ1は、撮影データの収集を行う。なお、本処理は、一定量の撮影データが携帯端末2から収集されたタイミングで実行されてもよい。上述したように、1の撮影データに複数の撮影画像が含まれてもよい。 In S501, the three-dimensional model generation server 1 collects shooting data. Note that this process may be executed at the timing when a certain amount of shooting data is collected from the mobile terminal 2. As described above, one captured data may include a plurality of captured images.

S502にて、3次元モデル生成サーバ1は、撮影データに含まれる付帯情報に基づき、撮影画像による撮影領域を特定する。図4(b)に示すように、付帯情報には、撮影位置や撮影方向などが含まれており、これらの情報を用いて撮影領域が特定される。なお、撮影データにて、撮影動画が含まれている場合には、所定の時間間隔ごとにフレームを抽出して撮影動画に変換した上で処理を行ってよい。この場合の撮影画像としてのフレームの付帯情報は、撮影動画全体に対する付帯情報に基づいて各フレームに対する付帯情報を導出して補完することで決定されてよい。 In S502, the three-dimensional model generation server 1 specifies a shooting area based on the shot image based on the incidental information included in the shooting data. As shown in FIG. 4B, the incidental information includes a shooting position, a shooting direction, and the like, and the shooting area is specified using such information. If the shooting data includes a shooting moving image, frames may be extracted at predetermined time intervals, converted into a shooting moving image, and then processed. In this case, the incidental information of the frame as the captured image may be determined by deriving and complementing the incidental information for each frame based on the incidental information for the entire captured moving image.

S503にて、3次元モデル生成サーバ1は、S502にて特定した撮影領域に基づいて、各撮影画像を1または複数のグループにグループ化する。ここでのグループ化は、例えば、予め規定された範囲(例えば、地図上において所定のサイズに分割された各領域)に含まれるか否か基づいて行われてもよいし、同じ物体を撮影しているか否かに基づいて行われてもよい。このとき、1の撮影画像が複数のグループに属してもよいし、1のグループに1の撮影画像のみが分類されてもよい。グループ化は、撮影画像単位で行われてもよいし、撮影データ単位で行われてもよい。なお、1の撮影データに1の撮影画像が含まれている場合には、いずれの場合でも同等となる。 In S503, the three-dimensional model generation server 1 groups each captured image into one or a plurality of groups based on the captured area specified in S502. The grouping here may be performed based on whether or not the grouping is included in a predetermined range (for example, each area divided into a predetermined size on the map), or the same object is photographed. It may be done based on whether or not it is done. At this time, one captured image may belong to a plurality of groups, or only one captured image may be classified into one group. The grouping may be performed in units of captured images or in units of captured data. When the captured image of 1 is included in the captured data of 1, it is the same in any case.

S504にて、3次元モデル生成サーバ1は、S503にて分類された1または複数のグループのうち、S505〜S511の処理が未処理の1のグループに着目する。 In S504, the three-dimensional model generation server 1 pays attention to one group in which the processing of S505 to S511 is unprocessed among the one or a plurality of groups classified in S503.

S505にて、3次元モデル生成サーバ1は、S504にて着目したグループに含まれる撮影データを用いて、3次元モデルを生成する。グループに応じて属する撮影データ(つまり、撮影画像)の数は異なるため、3次元モデルの生成にて用いられる撮影データの数も異なりうる。 In S505, the three-dimensional model generation server 1 generates a three-dimensional model using the shooting data included in the group of interest in S504. Since the number of shooting data (that is, shot images) to which the group belongs is different, the number of shooting data used in generating the three-dimensional model may also be different.

S506にて、3次元モデル生成サーバ1は、既存の3次元モデルと、S505にて生成した3次元モデルとの比較を行う。 In S506, the three-dimensional model generation server 1 compares the existing three-dimensional model with the three-dimensional model generated in S505.

S507にて、3次元モデル生成サーバ1は、S506における比較の結果、既存の3次元モデルとS505にて生成した3次元モデルとに差分があるか否かを判定する。差分がある場合は(S507にてYES)S508へ進む。一方、差分が無い場合は(S507にてNO)S512へ進む。 In S507, the three-dimensional model generation server 1 determines whether or not there is a difference between the existing three-dimensional model and the three-dimensional model generated in S505 as a result of the comparison in S506. If there is a difference (YES in S507), the process proceeds to S508. On the other hand, if there is no difference, the process proceeds to S512 (NO in S507).

S508にて、3次元モデル生成サーバ1は、S505にて生成した3次元モデルの評価を行う。言い換えると、3次元モデルの生成に用いられた撮影データの評価を行う。ここでの評価は、上述した価値評価の基準により行われるものとする。このとき、撮影データの評価は、3次元モデルの全体の評価を行い、その3次元モデルを生成する際に用いた撮影データすべてにその評価値を反映してもよい。または、3次元モデルを生成する際に用いた撮影データに対して個別に評価を行ってもよい。 In S508, the 3D model generation server 1 evaluates the 3D model generated in S505. In other words, the shooting data used to generate the three-dimensional model is evaluated. The evaluation here shall be carried out according to the above-mentioned evaluation criteria. At this time, in the evaluation of the shooting data, the entire three-dimensional model may be evaluated, and the evaluation value may be reflected in all the shooting data used when generating the three-dimensional model. Alternatively, the shooting data used when generating the three-dimensional model may be evaluated individually.

S509にて、3次元モデル生成サーバ1は、生成した3次元モデルの評価値が所定の閾値以上か否かを判定する。所定の閾値は予め規定され、3次元モデル生成サーバ1が保持しているものとする。複数の評価基準が用いられる場合には、その複数の評価基準それぞれに対応して複数の値が所定の閾値として用いられてもよい。その場合、複数の評価基準における評価値のうちの少なくとも1つが閾値以上か否かを判定してもよい。評価値が所定の閾値以上である場合(S509にてYES)S510へ進む。一方、評価値が所定の閾値未満である場合(S509にてNO)S512へ進む。 In S509, the three-dimensional model generation server 1 determines whether or not the evaluation value of the generated three-dimensional model is equal to or greater than a predetermined threshold value. It is assumed that the predetermined threshold value is defined in advance and is held by the three-dimensional model generation server 1. When a plurality of evaluation criteria are used, a plurality of values may be used as predetermined threshold values corresponding to each of the plurality of evaluation criteria. In that case, it may be determined whether or not at least one of the evaluation values in the plurality of evaluation criteria is equal to or more than the threshold value. If the evaluation value is equal to or higher than a predetermined threshold value (YES in S509), the process proceeds to S510. On the other hand, when the evaluation value is less than a predetermined threshold value (NO in S509), the process proceeds to S512.

S510にて、3次元モデル生成サーバ1は、S505にて生成した3次元モデルを用いて、既存の3次元モデルを更新する。ここでの更新は、生成した3次元モデルの範囲に対応する既存の3次元モデルの範囲が更新されてよい。 In S510, the 3D model generation server 1 updates the existing 3D model by using the 3D model generated in S505. The update here may update the range of the existing 3D model corresponding to the range of the generated 3D model.

S511にて、3次元モデル生成サーバ1は、S508における評価の評価値に基づき、撮影データを提供した携帯端末2のユーザに対してインセンティブを付与する。上述したように、インセンティブの内容は特に限定するものではなく、例えば、ユーザが指定できるような構成であってもよい。また、評価値とインセンティブの変換率等についても特に限定するものではない。 In S511, the three-dimensional model generation server 1 gives an incentive to the user of the mobile terminal 2 who provided the shooting data based on the evaluation value of the evaluation in S508. As described above, the content of the incentive is not particularly limited, and may be configured so that the user can specify it, for example. In addition, the conversion rate between the evaluation value and the incentive is not particularly limited.

S512にて、3次元モデル生成サーバ1は、S503にて分類された1または複数のグループすべてに対するS505〜S511の処理が完了したか否かを判定する。すべてのグループに対する処理が完了した場合(S512にてYES)S513へ進む。一方、未処理のグループがある場合(S512にてNO)、S504へ戻り、未処理のグループに対して処理を繰り返す。 In S512, the three-dimensional model generation server 1 determines whether or not the processing of S505 to S511 for all one or a plurality of groups classified in S503 is completed. When the processing for all groups is completed (YES in S512), the process proceeds to S513. On the other hand, if there is an unprocessed group (NO in S512), the process returns to S504 and the processing is repeated for the unprocessed group.

S513にて、3次元モデル生成サーバ1は、S511にて付与されたインセンティブの情報を携帯端末2に対して通知する。なお、S507にてNOであった場合やS509にてNOであった場合など、提供された撮影データが3次元モデルの更新に用いられていない場合には、3次元モデル生成サーバ1は、その旨とインセンティブが付与されていない旨とを携帯端末2のユーザに通知してよい。そして、3次元モデル生成サーバ1は、本処理フローを終了する。 In S513, the three-dimensional model generation server 1 notifies the mobile terminal 2 of the incentive information given in S511. If the provided shooting data is not used for updating the 3D model, such as when it is NO in S507 or NO in S509, the 3D model generation server 1 is used. The user of the mobile terminal 2 may be notified of the fact and the fact that the incentive is not given. Then, the three-dimensional model generation server 1 ends this processing flow.

以上、本実施形態により、携帯端末にて撮影された撮影データを逐次収集して3次元モデルを生成、更新することで、従来よりも3次元モデルの構築を容易に広範囲に行うことが可能となる。また、3次元モデルの生成における撮影データの評価を行って、その評価値に応じてインセンティブを付与することで、撮影データの提供をユーザに促すことができる。その結果、より多くの撮影データを収集でき、従来よりも精度の高い3次元モデルの構築が可能となる。 As described above, according to the present embodiment, by sequentially collecting the shooting data taken by the mobile terminal to generate and update the three-dimensional model, it is possible to easily construct the three-dimensional model in a wider range than before. Become. Further, by evaluating the shooting data in the generation of the three-dimensional model and giving an incentive according to the evaluation value, it is possible to encourage the user to provide the shooting data. As a result, more shooting data can be collected, and a three-dimensional model with higher accuracy than before can be constructed.

<第2の実施形態>
以下、本願発明の第2の実施形態について説明する。第1の実施形態では、撮影データの提供元(撮影装置)は、スマートフォンなどの携帯端末を例に挙げて説明した。本実施形態では、撮影データの提供元として、撮影部を備える移動体を用いた構成について説明する。携帯端末以外の移動体としては、例えば、自動車やバイクなどの車両や小型無人航空機(ドローン)などが挙げられる。以下では、撮影データの提供元として車両を例に挙げて説明する。なお、第1の実施形態と重複する構成については説明を省略し、差分に着目して説明を行う。
<Second embodiment>
Hereinafter, a second embodiment of the present invention will be described. In the first embodiment, the source of the shooting data (shooting device) has been described by taking a mobile terminal such as a smartphone as an example. In the present embodiment, a configuration using a moving body including a shooting unit as a source of shooting data will be described. Examples of mobile objects other than mobile terminals include vehicles such as automobiles and motorcycles, and small unmanned aerial vehicles (drones). In the following, a vehicle will be described as an example as a source of shooting data. It should be noted that the description of the configuration overlapping with the first embodiment will be omitted, and the description will be given focusing on the difference.

[機能構成]
(車両)
図6は、本実施形態に係る車両600の機能構成の例を示す。車両600は、1または複数の利用者(ユーザ)に利用されており、複数の車両600が含まれてよい。以下の説明において、車両600について個別に説明を要する場合には添え字n(≧2)を付して説明するが、包括的に説明する場合には添え字を省略する。
[Functional configuration]
(vehicle)
FIG. 6 shows an example of the functional configuration of the vehicle 600 according to the present embodiment. The vehicle 600 is used by one or more users (users) and may include a plurality of vehicles 600. In the following description, when the vehicle 600 needs to be explained individually, it will be described with a subscript n (≧ 2), but when it is comprehensively described, the subscript will be omitted.

本実施形態に係る車両600は、カメラ群601、センサ群602、記憶部603、制御部604、および通信部605を含んで構成される。なお、図6では、本実施形態に関する構成のみを示すが、車両600は、走行制御や報知などに用いられる部位をさらに含んでよい。 The vehicle 600 according to the present embodiment includes a camera group 601, a sensor group 602, a storage unit 603, a control unit 604, and a communication unit 605. Although FIG. 6 shows only the configuration related to the present embodiment, the vehicle 600 may further include parts used for traveling control, notification, and the like.

カメラ群601は、車両600の周辺の画像を取得するための撮像部であり、不図示のレンズや撮像素子などを備える。カメラ群601には、例えば、前方カメラ、側方カメラ(左右)、後方カメラが含まれてよい。カメラ群601に含まれる複数のカメラそれぞれにて撮影された撮影画像が別個の撮影画像として扱われてよい。 The camera group 601 is an image pickup unit for acquiring an image of the periphery of the vehicle 600, and includes a lens (not shown), an image pickup element, and the like. The camera group 601 may include, for example, a front camera, side cameras (left and right), and a rear camera. The captured images taken by each of the plurality of cameras included in the camera group 601 may be treated as separate captured images.

センサ群602は、車両600の状態などの情報(例えば、位置情報や向きなど)や、周辺の情報を取得するための検出部である。車両600は、例えば、走行支援制御を実現するために様々なセンサを備えていることがあり、その中において3次元モデルの生成に利用可能な情報を取得するセンサがある。例えば、センサ群602には、磁気センサ、加速度センサ、ジャイロセンサ、GPS(Global Positioning System)センサなどが含まれてよい。さらに、センサ群602には、ミリ波レーダ、ソナーレーダ、ライダ(LiDAR:Light Detection and Ranging)などが含まれてよい。これらの検出結果としての情報は、3次元モデルの生成に利用してもよい。センサ群602に含まれる各種センサそれぞれは、車両600の構成に応じて1または複数が備えられてよい。 The sensor group 602 is a detection unit for acquiring information such as the state of the vehicle 600 (for example, position information and orientation) and peripheral information. The vehicle 600 may include, for example, various sensors for realizing driving support control, among which there are sensors that acquire information that can be used to generate a three-dimensional model. For example, the sensor group 602 may include a magnetic sensor, an acceleration sensor, a gyro sensor, a GPS (Global Positioning System) sensor, and the like. Further, the sensor group 602 may include a millimeter wave radar, a sonar radar, a lidar (LiDAR: Light Detection and Ranger), and the like. The information as these detection results may be used to generate a three-dimensional model. Each of the various sensors included in the sensor group 602 may be provided with one or more sensors depending on the configuration of the vehicle 600.

記憶部603は、カメラ群601により撮像された撮影画像や、センサ群602により検出された検出結果を記憶する記憶部であり、例えば、HDD(Hard Disk Drive)などの不揮発性の記憶領域により構成される。記憶部603は、カメラ群601にて撮影した撮影画像と、撮影時の情報(センサ群602にて検出した情報や、撮影日時、撮影設定など)とを対応付けて記憶する。制御部604は、車両600の撮影等に関する制御を司る部位であり、例えば、処理部としてのCPU(Central Processing Unit)やECU(Electronic Control Unit)、専用回路などにより構成される。通信部605は、外部装置との通信を行うための部位であり、通信規格などは特に限定するものではない。 The storage unit 603 is a storage unit that stores the captured image captured by the camera group 601 and the detection result detected by the sensor group 602, and is composed of, for example, a non-volatile storage area such as an HDD (Hard Disk Drive). Will be done. The storage unit 603 stores the captured image captured by the camera group 601 and the information at the time of photographing (information detected by the sensor group 602, the shooting date and time, the shooting setting, etc.) in association with each other. The control unit 604 is a part that controls the shooting and the like of the vehicle 600, and is composed of, for example, a CPU (Central Processing Unit) as a processing unit, an ECU (Electronic Control Unit), a dedicated circuit, and the like. The communication unit 605 is a part for communicating with an external device, and the communication standard and the like are not particularly limited.

制御部604は、所定のタイミングにてカメラ群601やセンサ群602を動作させ、周辺の情報を取得させる。取得のタイミングは、予め規定された間隔にて動作するような構成であってよい。制御部604は、カメラ群601にて撮影された撮影画像に対して、所定の画像処理を行う構成であってもよい。例えば、制御部604は、撮影画像に対してフィルタリングなどの画像処理を行うような構成であってもよい。また、カメラ群601が動画を撮影するような構成である場合には、制御部604は、撮影動画の中から所定のフレームを抽出して送信用の撮影画像とするような処理を行ってもよい。フレームを抽出して撮影画像として送信する際には、撮影動画を取得時の情報(撮影設定や撮影日時など)に基づき当該フレームに対応する情報を決定した上で撮影データに含めてもよい。または、撮影動画を撮影データに含めて送信してもよい。複数の車両600−1〜600−nの構成は同一である必要はなく、異なる機能を備えた車両600が用いられてよい。 The control unit 604 operates the camera group 601 and the sensor group 602 at a predetermined timing to acquire peripheral information. The acquisition timing may be configured to operate at predetermined intervals. The control unit 604 may be configured to perform predetermined image processing on the captured image captured by the camera group 601. For example, the control unit 604 may be configured to perform image processing such as filtering on the captured image. Further, when the camera group 601 is configured to shoot a moving image, the control unit 604 may perform processing such as extracting a predetermined frame from the shot moving image and using it as a captured image for transmission. Good. When extracting a frame and transmitting it as a shot image, the information corresponding to the frame may be determined based on the information at the time of acquisition (shooting setting, shooting date and time, etc.) and then included in the shooting data. Alternatively, the captured moving image may be included in the shooting data and transmitted. The configurations of the plurality of vehicles 600-1 to 600-n do not have to be the same, and vehicles 600 having different functions may be used.

第1の実施形態の図3のS301〜S303に示した構成と同様に、本実施形態では、車両600をユーザに対応付けて登録する。ここでの登録は、車両600が備える表示部(不図示)や通信部605を介して3次元モデル生成サーバ1にアクセスすることで行われてもよい。もしくは、ユーザが所有する携帯端末2と車両600とを通信可能に接続し、携帯端末2を介して車両600を3次元モデル生成サーバ1に登録するような構成であってもよい。 Similar to the configuration shown in S301 to S303 of FIG. 3 of the first embodiment, in the present embodiment, the vehicle 600 is registered in association with the user. The registration here may be performed by accessing the three-dimensional model generation server 1 via a display unit (not shown) or a communication unit 605 included in the vehicle 600. Alternatively, the mobile terminal 2 owned by the user and the vehicle 600 may be communicably connected, and the vehicle 600 may be registered in the three-dimensional model generation server 1 via the mobile terminal 2.

[データ構成]
図7は、本実施形態に係る3次元モデル構築システムにおいて用いられるデータの構成例を示す図である。図7に示す各データは、例えば、3次元モデル生成サーバ1にて管理されるデータベースの各テーブルに格納される。なお、インセンティブ管理テーブルの構成は、第1の実施形態にて示した図4(c)の構成と同様であるものとし、ここでの説明は省略する。
[Data structure]
FIG. 7 is a diagram showing a configuration example of data used in the three-dimensional model construction system according to the present embodiment. Each data shown in FIG. 7 is stored in, for example, each table of the database managed by the three-dimensional model generation server 1. The configuration of the incentive management table is the same as the configuration of FIG. 4C shown in the first embodiment, and the description thereof will be omitted here.

図7(a)は、本実施形態に係る、ユーザ情報を管理するためのユーザ管理テーブルの構成例を示す。第1の実施形態にて示した図4(a)の構成との差分は、携帯端末IDに代えて、移動体IDが用いられる。移動体IDは、車両600を一意に識別するための識別情報である。移動体IDの桁数や使用文字列などの仕様は図7(a)に示すものに限定するものではなく、他の構成であってよい。また、移動体IDは、3次元モデル生成サーバ1が登録要求を受け付けた際に採番して発行してもよいし、ユーザが指定する構成であってもよい。 FIG. 7A shows a configuration example of a user management table for managing user information according to the present embodiment. As the difference from the configuration of FIG. 4A shown in the first embodiment, the mobile ID is used instead of the mobile terminal ID. The mobile ID is identification information for uniquely identifying the vehicle 600. Specifications such as the number of digits of the mobile ID and the character string used are not limited to those shown in FIG. 7A, and may have other configurations. Further, the mobile ID may be numbered and issued when the three-dimensional model generation server 1 receives the registration request, or may be configured by the user.

図7(b)は、本実施形態に係る、撮影データを管理するための撮影データ管理テーブルの構成例を示す。第1の実施形態にて示した図4(b)の構成との差分は、送信元携帯端末IDに代えて、送信元移動体IDが用いられる。送信元移動体IDは、撮影データの送信元を示す識別情報であり、図7(a)に示す移動体IDに対応する。 FIG. 7B shows a configuration example of a shooting data management table for managing shooting data according to the present embodiment. As the difference from the configuration of FIG. 4B shown in the first embodiment, the source mobile terminal ID is used instead of the source mobile terminal ID. The source mobile ID is identification information indicating the source of the shooting data, and corresponds to the mobile ID shown in FIG. 7A.

本実施形態に係る処理シーケンスと、第1の実施形態の処理シーケンス(図3)との差異として、撮影データの提供が車両600から3次元モデル生成サーバ1に対して行われる点が異なる。また、車両600からの撮影データの送信は、ユーザがON/OFFを制御できるような構成であってよく、この設定がONの場合に、車両600は撮影データを所定の送信間隔にて3次元モデル生成サーバ1に送信するような構成であってもよい。ここでの所定の送信間隔は予め規定されていてもよいし、ユーザが設定できるような構成であってもよい。 The difference between the processing sequence according to the present embodiment and the processing sequence of the first embodiment (FIG. 3) is that the shooting data is provided from the vehicle 600 to the three-dimensional model generation server 1. Further, the transmission of the shooting data from the vehicle 600 may be configured so that the user can control ON / OFF, and when this setting is ON, the vehicle 600 three-dimensionally transmits the shooting data at a predetermined transmission interval. It may be configured to be transmitted to the model generation server 1. The predetermined transmission interval here may be predetermined or may be configured so that the user can set it.

または、他の機能における外部との通信負荷が低下した場合や通信速度の制限が行われていない場合に、車両600は、複数の撮影画像を含む撮影データを送信するような構成であってもよい。また、記憶部603に一定量の撮影画像が蓄積された際に、車両600は、複数の撮影画像を含む撮影データをまとめて送信するような構成であってもよい。 Alternatively, even if the vehicle 600 is configured to transmit shooting data including a plurality of shot images when the communication load with the outside in other functions is reduced or the communication speed is not limited. Good. Further, when a certain amount of captured images are accumulated in the storage unit 603, the vehicle 600 may be configured to collectively transmit captured data including a plurality of captured images.

以上、本実施形態により、ユーザによる撮影動作を要することなく、移動体(例えば、車両)にて撮影された撮影画像を含む撮影データを逐次収集する。例えば、撮影画像としてドライブレコーダで撮影される画像が利用でき、付帯情報として、カーナビゲーションシステムに搭載されているGPS位置情報や進行方向情報などが利用できる。そして、このような撮影データを用いて3次元モデルを生成、更新することで、従来よりも3次元モデルの構築を容易に広範囲に行うことが可能となる。また、ユーザの操作を介することなく、車両からより多くの撮影画像を収集でき、従来よりも精度の高い3次元モデルの構築が可能となる。 As described above, according to the present embodiment, shooting data including shot images shot by a moving body (for example, a vehicle) is sequentially collected without requiring a shooting operation by the user. For example, an image taken by a drive recorder can be used as a captured image, and GPS position information and traveling direction information mounted on a car navigation system can be used as incidental information. Then, by generating and updating the three-dimensional model using such shooting data, it becomes possible to easily construct the three-dimensional model in a wider range than in the conventional case. In addition, more captured images can be collected from the vehicle without the intervention of the user, and a three-dimensional model with higher accuracy than before can be constructed.

なお、第1の実施形態と第2の実施形態の構成は排他的なものではなく、両方の構成を統合して3次元モデルの構築を行うような構成であってもよい。 The configurations of the first embodiment and the second embodiment are not exclusive, and may be a configuration in which both configurations are integrated to construct a three-dimensional model.

<第3の実施形態>
本願発明の第3の実施形態として、生成された3次元モデルの表示の形態について説明する。カメラ等により撮影された撮影画像には、固定物体(例えば、建築物)と移動物体(例えば、車両)が混在して含まれていることが想定される。そこで、本実施形態では、撮影画像から3次元モデルを生成する際に、撮影画像に含まれる物体が移動物体か固定物体かを識別し、それぞれの特性に応じて3次元モデルに反映させる。また、撮影データの評価においても、移動物体か固定物体かの基準を設け、これに応じて評価を行う。
<Third embodiment>
As a third embodiment of the present invention, a display mode of the generated three-dimensional model will be described. It is assumed that the captured image taken by a camera or the like contains a mixture of a fixed object (for example, a building) and a moving object (for example, a vehicle). Therefore, in the present embodiment, when a three-dimensional model is generated from the captured image, it is identified whether the object included in the captured image is a moving object or a fixed object, and the object is reflected in the three-dimensional model according to the respective characteristics. Also, in the evaluation of the photographed data, a standard for whether it is a moving object or a fixed object is set, and the evaluation is performed accordingly.

[物体の識別方法]
撮影画像から移動物体と固定物体を識別する方法は公知の方法を用いることができ、特に限定するものではない。ここでは、一例として機械学習による手法を用いた識別方法について説明する。
[Object identification method]
A known method can be used as a method for distinguishing a moving object from a fixed object from a captured image, and the method is not particularly limited. Here, as an example, an identification method using a method by machine learning will be described.

機械学習において、深層構造のニューラルネットワークモデルを用いた画像のセグメンテーション技術(領域抽出)が知られている。この手法において、学習用の画像データを用意する。学習用データでは、画像に含まれるオブジェクトの領域に対し、その領域が何を示しているかのラベル付けが行われている。例えば、撮影画像(写真)に写っているオブジェクトが人や車、自転車、電車、飛行機などの移動物体の場合、画素単位で抽出したその画像領域に対して「移動物体」というラベルを付与する。一方、撮影画像に映っているオブジェクトが道路や建物、橋、公園、野原などの固定物体の場合には、ピクセル単位で抽出したその画像領域に対して「固定物体」とラベルを付与する。そして、このような学習用データを複数準備し、それらを用いて学習を繰り返すことで、学習済みモデルを生成する。その後、撮影画像を入力として学習済みモデルを適用することで、当該撮影画像において移動物体と固定物体それぞれを示す画像領域に分割(抽出)が行われる。画像のセグメンテーション法としては代表的な手法であるSegNetやU−Netなどを用いることができる。 In machine learning, an image segmentation technique (region extraction) using a deep-structured neural network model is known. In this method, image data for learning is prepared. In the training data, the area of the object included in the image is labeled with what the area indicates. For example, when the object shown in the photographed image (photograph) is a moving object such as a person, a car, a bicycle, a train, or an airplane, the image area extracted in pixel units is labeled as "moving object". On the other hand, when the object shown in the captured image is a fixed object such as a road, a building, a bridge, a park, or a field, the image area extracted in pixel units is labeled as "fixed object". Then, a plurality of such learning data are prepared, and learning is repeated using them to generate a trained model. After that, by applying the trained model using the captured image as an input, division (extraction) is performed in the image region indicating each of the moving object and the fixed object in the captured image. As an image segmentation method, typical methods such as SegNet and U-Net can be used.

なお、撮影画像から抽出された領域のうちラベル「移動物体」として抽出された画像領域から生成された3次元点群は、移動物体を構成する3次元点群である。一方、ラベル「固定物体」として抽出された画像領域から生成された3次元点群は、固定物体を構成する3次元点群である。このようにして、撮影画像に含まれるオブジェクトそれぞれに対応する3次元点群の領域を、移動物体か固定物体かに分離させる。本実施形態においては、領域抽出のための学習済みモデルはすでに生成されているものとして説明する。 The three-dimensional point cloud generated from the image area extracted as the label "moving object" among the areas extracted from the captured image is the three-dimensional point cloud constituting the moving object. On the other hand, the three-dimensional point cloud generated from the image area extracted as the label "fixed object" is a three-dimensional point cloud constituting the fixed object. In this way, the region of the three-dimensional point cloud corresponding to each object included in the captured image is separated into a moving object and a fixed object. In the present embodiment, it is assumed that the trained model for region extraction has already been generated.

[処理フロー]
図8を用いて、本実施形態に係る3次元モデル生成サーバ1の処理フローについて説明する。以下に示す処理は、例えば、3次元モデル生成サーバ1が備えるCPU(不図示)が記憶装置に記憶されたプログラムを読み出して実行することにより実現される。第1の実施形態にて図5を用いて説明した処理フローとの差異に着目して説明し、同じ内容の処理については、図5と同じ参照番号を付す。
[Processing flow]
The processing flow of the three-dimensional model generation server 1 according to the present embodiment will be described with reference to FIG. The processing shown below is realized, for example, by reading and executing a program stored in the storage device by a CPU (not shown) included in the three-dimensional model generation server 1. The description will be given focusing on the difference from the processing flow described with reference to FIG. 5 in the first embodiment, and the same reference number as that of FIG. 5 will be assigned to the processing having the same contents.

S504の処理の後、3次元モデル生成サーバ1の処理はS801へ進む。S801にて、3次元モデル生成サーバ1は、着目したグループに含まれる撮影データの撮影画像に対して、領域抽出処理を行う。上述したように、本実施形態では、撮影画像において、「移動物体」としての領域と、「固定物体」としての領域を抽出するための学習済みモデルを用いて領域抽出を行う。撮影画像によっては、すべての領域が移動物体の領域であるとして抽出される場合もあれば、すべての領域が固定物体として抽出される場合もある。 After the processing of S504, the processing of the three-dimensional model generation server 1 proceeds to S801. In S801, the three-dimensional model generation server 1 performs region extraction processing on the captured image of the captured data included in the group of interest. As described above, in the present embodiment, the region is extracted using the trained model for extracting the region as the “moving object” and the region as the “fixed object” in the captured image. Depending on the captured image, all areas may be extracted as areas of moving objects, or all areas may be extracted as fixed objects.

S802にて、3次元モデル生成サーバ1は、S801にて移動物体の領域として抽出された領域の情報を用いて3次元オブジェクトを生成する。ここでの3次元オブジェクトとは、物体認識された3次元モデルを示す。ここでの3次元オブジェクトの生成方法は特に限定されるものではない。例えば、移動物体の領域として抽出された領域の情報から3次元点群を求め、オブジェクトの3次元モデルを生成することで、移動物体を示す3次元オブジェクトを生成してもよい。または、移動物体の領域として抽出された領域の情報からその領域が示す移動体の種類を特定し、予め生成されている表示用の3次元オブジェクトとの対応付けを行うことで生成してもよい。 In S802, the 3D model generation server 1 generates a 3D object using the information of the area extracted as the area of the moving object in S801. The three-dimensional object here means an object-recognized three-dimensional model. The method of generating the three-dimensional object here is not particularly limited. For example, a three-dimensional object indicating a moving object may be generated by obtaining a three-dimensional point cloud from the information of the area extracted as the area of the moving object and generating a three-dimensional model of the object. Alternatively, it may be generated by specifying the type of the moving object indicated by the area from the information of the area extracted as the area of the moving object and associating it with the three-dimensional object for display generated in advance. ..

S803にて、3次元モデル生成サーバ1は、S801にて固定物体の領域として抽出された領域の情報を用いて3次元モデルを生成する。ここでの3次元モデルの生成方法は、第1の実施形態の図5のS505の処理と同様であってよい。 In S803, the three-dimensional model generation server 1 generates a three-dimensional model using the information of the region extracted as the region of the fixed object in S801. The method of generating the three-dimensional model here may be the same as the process of S505 of FIG. 5 of the first embodiment.

S804にて、3次元モデル生成サーバ1は、S802にて生成した移動物体の3次元オブジェクトと、S803にて生成した3次元モデルとを対応付けて記憶部(不図示)に記憶する。その後、S506の処理へ進む。 In S804, the three-dimensional model generation server 1 stores the three-dimensional object of the moving object generated in S802 and the three-dimensional model generated in S803 in association with each other in a storage unit (not shown). After that, the process proceeds to S506.

なお、S508の評価処理では、固定物体として抽出された領域の情報に基づいて評価が行われることなる。そのため、第1の実施形態にて用いられた評価基準とは異なる評価基準が用いられてもよい。例えば、撮影画像の全体に対して、固定物体として抽出された領域の割合に基づいて評価が行われてもよい。 In the evaluation process of S508, evaluation is performed based on the information of the region extracted as a fixed object. Therefore, an evaluation standard different from the evaluation standard used in the first embodiment may be used. For example, the evaluation may be performed based on the ratio of the region extracted as a fixed object to the entire captured image.

以上、本実施形態では、撮影画像に対し、3次元モデルを生成するための領域(固定物体の領域)を抽出し、その領域の情報に基づいて3次元モデルの生成および評価を行う。 As described above, in the present embodiment, a region (a region of a fixed object) for generating a three-dimensional model is extracted from the captured image, and the three-dimensional model is generated and evaluated based on the information in the region.

[表示]
本実施形態では、図8に示すような処理により、3次元モデルが生成される。また、図8のS804にて示したように、3次元モデルと、その3次元モデルが示す領域に移動物体を示す3次元オブジェクトとが対応付けられている。そのため、本実施形態では、3次元モデル生成サーバ1は、表示装置3に3次元モデルを提供する場合(図3のS310)、その3次元モデルに対応付けられた3次元オブジェクトの情報を併せて提供する。
[display]
In this embodiment, a three-dimensional model is generated by the process shown in FIG. Further, as shown in S804 of FIG. 8, the three-dimensional model and the three-dimensional object indicating a moving object in the region indicated by the three-dimensional model are associated with each other. Therefore, in the present embodiment, when the three-dimensional model generation server 1 provides the three-dimensional model to the display device 3 (S310 in FIG. 3), the information of the three-dimensional object associated with the three-dimensional model is also combined. provide.

そして、表示装置3は、3次元モデル生成サーバ1から提供された3次元モデルとそれに対応する3次元オブジェクトを表示させる。なお、3次元オブジェクトは、ユーザの操作に応じて、表示/非表示が切り替えられるような構成であってもよい。 Then, the display device 3 displays the three-dimensional model provided by the three-dimensional model generation server 1 and the corresponding three-dimensional object. The three-dimensional object may be configured to be displayed / hidden according to the user's operation.

上記の例では、移動物体に対応して3次元オブジェクトを表示する例を示したが、移動物体を2次元オブジェクトとして示してもよい。または、複数の3次元オブジェクトが存在する場合には、その一部のみを表示するような構成であってもよい。 In the above example, the example of displaying the three-dimensional object corresponding to the moving object is shown, but the moving object may be shown as a two-dimensional object. Alternatively, when a plurality of three-dimensional objects exist, only a part of them may be displayed.

本実施形態では、第1の実施形態の構成を基礎として説明したが、第2の実施形態の構成に適用してもよい。つまり、車両などの移動体から取得した撮影画像から固定物体の領域を抽出し、3次元モデルの生成に用いてよい。 Although the present embodiment has been described based on the configuration of the first embodiment, it may be applied to the configuration of the second embodiment. That is, a region of a fixed object may be extracted from a captured image acquired from a moving body such as a vehicle and used for generating a three-dimensional model.

以上、本実施形態により、撮影画像から固定物体の領域を抽出して3次元モデルを生成、更新することで、第1の実施形態よりもより精度の高い3次元モデルの構築が可能となる。 As described above, according to the present embodiment, by extracting the region of the fixed object from the photographed image to generate and update the three-dimensional model, it is possible to construct the three-dimensional model with higher accuracy than that of the first embodiment.

1 3次元モデル生成サーバ
2 携帯端末
3 表示装置
4 ネットワーク
101 データ収集部
102 3次元モデル生成部
103 3次元モデル管理部
104 データ評価部
105 ユーザ管理部
106 インセンティブ付与部
107 通信制御部
108 表示制御部
201 撮像部
202 センサ群
203 記憶部
204 制御部
205 通信部
301 3次元モデル表示部
302 操作受付部
303 通信制御部
1 3D model generation server 2 Mobile terminal 3 Display device 4 Network 101 Data collection unit 102 3D model generation unit 103 3D model management unit 104 Data evaluation unit 105 User management unit 106 Incentive granting unit 107 Communication control unit 108 Display control unit 201 Imaging unit 202 Sensor group 203 Storage unit 204 Control unit 205 Communication unit 301 3D model display unit 302 Operation reception unit 303 Communication control unit

Claims (12)

複数の移動体それぞれと、ユーザとを対応付けて管理する管理手段と、
前記複数の移動体それぞれに備えられた撮影装置にて撮影された、撮影に関する付帯情報を含む撮影データを収集する収集手段と、
前記収集手段にて収集された撮影データを用いて3次元モデルを生成する生成手段と、
前記収集手段にて収集した新たな撮影データを用いて生成された3次元モデルを1または複数の評価基準に基づく評価値により評価する評価手段と、
前記生成手段により撮影データを用いて生成された前記3次元モデルの評価値に応じて、当該撮影データを撮影した移動体に対応付けられたユーザに対して報酬を付与する付与手段と
を有し、
前記生成手段は、新たな撮影データに含まれる付帯情報を用いて、前記新たな撮影データに対応する既存の3次元モデルの撮影領域を特定し、当該撮影領域における前記新たな撮影データから生成される3次元モデルのうちの前記評価手段による評価にて一定の評価値を与えられた3次元モデルを用いて前記既存の3次元モデルの更新を行うことを特徴とする3次元モデル構築システム。
A management means for managing each of a plurality of mobile objects in association with a user,
A collecting means for collecting shooting data including incidental information related to shooting, which was shot by a shooting device provided for each of the plurality of moving objects.
A generation means for generating a three-dimensional model using the shooting data collected by the collection means, and a generation means.
An evaluation means for evaluating a three-dimensional model generated by using the new imaging data collected by the collection means based on an evaluation value based on one or a plurality of evaluation criteria, and an evaluation means.
It has a granting means for giving a reward to a user associated with a moving body that has photographed the photographed data according to an evaluation value of the three-dimensional model generated by the generation means using the photographed data. ,
The generation means uses the incidental information included in the new shooting data to specify the shooting area of the existing three-dimensional model corresponding to the new shooting data, and is generated from the new shooting data in the shooting area. A three-dimensional model construction system characterized in that the existing three-dimensional model is updated by using a three-dimensional model given a certain evaluation value by evaluation by the evaluation means among the three-dimensional models.
複数の撮影データに含まれる複数の撮影画像を前記付帯情報に基づいて1または複数のグループに分類する分類手段をさらに有し、
前記生成手段は、前記1または複数のグループそれぞれに対応する1または複数の3次元モデルを生成し、当該1または複数の3次元モデルそれぞれと前記既存の3次元モデルとの差分に応じて、前記既存の3次元モデルの更新を行うことを特徴とする請求項1に記載の3次元モデル構築システム。
Further having a classification means for classifying a plurality of captured images included in a plurality of captured data into one or a plurality of groups based on the incidental information.
The generation means generates one or a plurality of three-dimensional models corresponding to each of the one or a plurality of groups, and the generation means according to the difference between each of the one or a plurality of three-dimensional models and the existing three-dimensional model. The three-dimensional model construction system according to claim 1, wherein the existing three-dimensional model is updated.
前記評価手段は、前記新たな撮影データの画質、前記新たな撮影データに対応する前記3次元モデルの領域の更新履歴、および、前記新たな撮影データから生成される3次元モデルと前記既存の3次元モデルとの差分の少なくともいずれかの評価基準に基づいて、前記新たな撮影データを用いて生成された3次元モデルの評価を行うことを特徴とする請求項1または2に記載の3次元モデル構築システム。 The evaluation means includes the image quality of the new shooting data, the update history of the area of the three-dimensional model corresponding to the new shooting data, the three-dimensional model generated from the new shooting data, and the existing three. The three-dimensional model according to claim 1 or 2, wherein the three-dimensional model generated by using the new shooting data is evaluated based on at least one evaluation criterion of the difference from the three-dimensional model. Construction system. 前記報酬は、前記評価手段による前記1または複数の評価基準に基づく評価値に応じて決定されることを特徴とする請求項3に記載の3次元モデル構築システム。 The three-dimensional model construction system according to claim 3, wherein the reward is determined according to an evaluation value based on the one or a plurality of evaluation criteria by the evaluation means. 前記報酬は、電子マネー、仮想通貨、または、ポイントサービスにおけるポイントであることを特徴とする請求項1乃至4のいずれか一項に記載の3次元モデル構築システム。 The three-dimensional model construction system according to any one of claims 1 to 4, wherein the reward is electronic money, virtual currency, or points in a point service. 前記撮影データに含まれる撮影画像から所定の領域を抽出する抽出手段をさらに有し、
前記生成手段は、前記抽出手段にて抽出した所定の領域の情報を用いて3次元モデルを生成することを特徴とする請求項1乃至5のいずれか一項に記載の3次元モデル構築システム。
Further, it has an extraction means for extracting a predetermined area from the photographed image included in the photographed data.
The three-dimensional model construction system according to any one of claims 1 to 5, wherein the generation means generates a three-dimensional model using information of a predetermined region extracted by the extraction means.
前記所定の領域は、固定物体を示す領域であり、
前記抽出手段は、撮影画像から固定物体を示す領域を抽出するための学習が行われることで生成された学習済みモデルを用いて、撮影画像から前記所定の領域を抽出することを特徴とする請求項6に記載の3次元モデル構築システム。
The predetermined region is a region showing a fixed object, and is
The extraction means is characterized in that a predetermined region is extracted from a captured image by using a trained model generated by performing training for extracting a region showing a fixed object from the captured image. Item 6. The three-dimensional model construction system according to item 6.
前記抽出手段は更に、撮影画像から移動物体を示す領域を抽出するための学習が行われることで生成された学習済みモデルを用いて、撮影画像から移動物体を示す領域を抽出し、
前記生成手段は更に、前記移動物体を示す領域の情報を用いて、3次元モデルを表示する際に表示可能な3次元オブジェクトを生成することを特徴とする請求項6または7に記載の3次元モデル構築システム。
The extraction means further extracts a region indicating a moving object from the captured image by using a trained model generated by performing learning for extracting a region indicating a moving object from the captured image.
The three-dimensional aspect according to claim 6 or 7, wherein the generation means further generates a three-dimensional object that can be displayed when displaying the three-dimensional model by using the information of the region indicating the moving object. Model building system.
前記撮影データは、撮影動画を含み、
前記撮影動画を構成する複数のフレームそれぞれの付帯情報は、前記撮影動画に対して付与された付帯情報から導出される情報により補完されることを特徴とする請求項1乃至のいずれか一項に記載の3次元モデル構築システム。
The shooting data includes a shooting moving image.
Any one of claims 1 to 8 , wherein the incidental information of each of the plurality of frames constituting the captured moving image is complemented by the information derived from the incidental information given to the captured moving image. The three-dimensional model construction system described in.
前記複数の移動体は、携帯端末、車両、および無人航空機の少なくともいずれかを含むことを特徴とする請求項1乃至のいずれか一項に記載の3次元モデル構築システム。 The three-dimensional model construction system according to any one of claims 1 to 9 , wherein the plurality of mobile objects include at least one of a mobile terminal, a vehicle, and an unmanned aerial vehicle. 前記付帯情報は、撮影時の緯度、経度、高度、方角、仰角、俯角、および日時の少なくともいずれかを含むことを特徴とする請求項1乃至10のいずれか一項に記載の3次元モデル構築システム。 The three-dimensional model construction according to any one of claims 1 to 10 , wherein the incidental information includes at least one of latitude, longitude, altitude, direction, elevation, depression, and date and time at the time of shooting. system. 複数の移動体それぞれに備えられた撮影装置にて撮影された、撮影に関する付帯情報を含む撮影データを収集する収集工程と、
前記収集工程にて収集された撮影データを用いて3次元モデルを生成する生成工程と、
前記収集工程にて収集した新たな撮影データを用いて生成された3次元モデルを1または複数の評価基準に基づく評価値により評価する評価工程と、
前記生成工程にて撮影データを用いて生成された前記3次元モデルの評価値に応じて、当該撮影データを撮影した移動体に対応付けられたユーザに対して報酬を付与する付与工程と
を有し、
前記生成工程において、新たな撮影データに含まれる付帯情報を用いて、前記新たな撮影データに対応する既存の3次元モデルの撮影領域を特定し、当該撮影領域における前記新たな撮影データから生成される3次元モデルのうちの前記評価工程における評価にて一定の評価値が与えられた3次元モデルを用いて前記既存の3次元モデルの更新を行うことを特徴とする3次元モデル構築方法。
A collection process that collects shooting data including incidental information related to shooting, which was shot by a shooting device provided for each of multiple moving objects.
A generation step of generating a three-dimensional model using the shooting data collected in the collection step, and a generation step.
An evaluation process in which a three-dimensional model generated using the new imaging data collected in the collection process is evaluated based on evaluation values based on one or more evaluation criteria, and an evaluation process.
According to the evaluation value of the three-dimensional model generated by using the shooting data in the generation step, there is a granting step of giving a reward to the user associated with the moving body that shot the shooting data. And
In the generation step, the imaging area of the existing 3D model corresponding to the new imaging data is specified by using the incidental information included in the new imaging data, and is generated from the new imaging data in the imaging area. A method for constructing a three-dimensional model, which comprises updating an existing three-dimensional model by using a three-dimensional model to which a certain evaluation value is given in the evaluation in the evaluation process among the three-dimensional models.
JP2020082477A 2020-05-08 2020-05-08 3D model construction system and 3D model construction method Active JP6849256B1 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2020082477A JP6849256B1 (en) 2020-05-08 2020-05-08 3D model construction system and 3D model construction method

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2020082477A JP6849256B1 (en) 2020-05-08 2020-05-08 3D model construction system and 3D model construction method

Publications (2)

Publication Number Publication Date
JP6849256B1 true JP6849256B1 (en) 2021-03-24
JP2021177317A JP2021177317A (en) 2021-11-11

Family

ID=74879307

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020082477A Active JP6849256B1 (en) 2020-05-08 2020-05-08 3D model construction system and 3D model construction method

Country Status (1)

Country Link
JP (1) JP6849256B1 (en)

Families Citing this family (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023214510A1 (en) * 2022-05-02 2023-11-09 ソニーセミコンダクタソリューションズ株式会社 Information processing device, information processing system, and information processing method
JP7414918B1 (en) 2022-09-20 2024-01-16 楽天グループ株式会社 Image collection system, image collection method, and program
WO2024062602A1 (en) * 2022-09-22 2024-03-28 日本電気株式会社 Three-dimensionalization system, three-dimensionalization method, and recording medium for recording program

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2016012168A (en) * 2014-06-27 2016-01-21 株式会社デジタル Information sharing system
JP7050683B2 (en) * 2016-08-26 2022-04-08 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカ 3D information processing method and 3D information processing equipment
JP7341652B2 (en) * 2018-01-12 2023-09-11 キヤノン株式会社 Information processing device, information processing method, program, and system

Also Published As

Publication number Publication date
JP2021177317A (en) 2021-11-11

Similar Documents

Publication Publication Date Title
CN106993181B (en) More VR/AR equipment collaboration systems and Synergistic method
JP6849256B1 (en) 3D model construction system and 3D model construction method
Raneri Enhancing forensic investigation through the use of modern three-dimensional (3D) imaging technologies for crime scene reconstruction
CN104641399B (en) System and method for creating environment and for location-based experience in shared environment
US8107677B2 (en) Measuring a cohort&#39;S velocity, acceleration and direction using digital video
US20130095855A1 (en) Method, System, and Computer Program Product for Obtaining Images to Enhance Imagery Coverage
US9583074B2 (en) Optimization of label placements in street level images
JP2018106696A (en) Virtual information construction method of mobile object, virtual information retrieval method of mobile object and application system
CN105659304A (en) Vision augmented navigation
CN106233371A (en) Select the panoramic picture for the Annual distribution shown
JP6530794B2 (en) Spatial object search sorting method and cloud system
US11805236B2 (en) Generating stereo image data from monocular images
US20190213790A1 (en) Method and System for Semantic Labeling of Point Clouds
KR20190141892A (en) Method and system for automatically collecting and updating information about point of interest in real space
KR20200110120A (en) A system implementing management solution of road facility based on 3D-VR multi-sensor system and a method thereof
JP2010039583A (en) Method and system for displaying photograph on electronic map, and electronic map therefor
JP6600674B2 (en) Moving object virtual information remote management method and moving object virtual information remote management system
CN106289180A (en) The computational methods of movement locus and device, terminal
JP2018049624A (en) Method and system for remote management of location-based spatial objects
KR102106029B1 (en) Method and system for improving signage detection performance
Galvin Crime Scene Documentation: Preserving the Evidence and the Growing Role of 3D Laser Scanning
JP7001149B2 (en) Data provision system and data collection system
WO2020095541A1 (en) Information processing device, information processing method, and program
KR20200047504A (en) Method and system for providing reward based on follow and review information for list of point of interest
JP2016218626A (en) Image management apparatus, image management method, and program

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200508

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20200527

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20201012

A975 Report on accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A971005

Effective date: 20201013

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20201020

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20201116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210126

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210203

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20210216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20210225

R150 Certificate of patent or registration of utility model

Ref document number: 6849256

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

S531 Written request for registration of change of domicile

Free format text: JAPANESE INTERMEDIATE CODE: R313531

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250