JP2021064109A - 位置推定装置、位置推定方法、推定モデル生成方法および位置推定用プログラム - Google Patents

位置推定装置、位置推定方法、推定モデル生成方法および位置推定用プログラム Download PDF

Info

Publication number
JP2021064109A
JP2021064109A JP2019187781A JP2019187781A JP2021064109A JP 2021064109 A JP2021064109 A JP 2021064109A JP 2019187781 A JP2019187781 A JP 2019187781A JP 2019187781 A JP2019187781 A JP 2019187781A JP 2021064109 A JP2021064109 A JP 2021064109A
Authority
JP
Japan
Prior art keywords
fixed object
unit
image
estimation
photographer
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2019187781A
Other languages
English (en)
Inventor
清水 亮
Akira Shimizu
亮 清水
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Ghelia Inc
Original Assignee
Ghelia Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Ghelia Inc filed Critical Ghelia Inc
Priority to JP2019187781A priority Critical patent/JP2021064109A/ja
Publication of JP2021064109A publication Critical patent/JP2021064109A/ja
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)

Abstract

【課題】撮影画像から撮影者の存在位置を推定することができるようにする。【解決手段】位置推定装置10が画像取得部11と位置推定部12とを備え、位置推定部12が、現実世界の固定オブジェクトを撮影して得られる撮影画像と固定オブジェクトの撮影位置情報とを教師データとして機械学習された推定モデルを用いて、撮影者が所持する撮影装置100から画像取得部11により取得された撮影画像における固定オブジェクトの特徴および写り具合から推定される撮影者の存在位置情報を出力することにより、撮影者が現在いる場所において周囲の画像を撮影するだけで、その撮影画像から撮影者の存在位置を推定することができるようにする。【選択図】図1

Description

本発明は、位置推定装置、位置推定方法、推定モデル生成方法および位置推定用プログラムに関し、特に、撮影画像を解析することによってユーザの存在位置を推定する装置に用いて好適なものである。
従来、現在位置を測定するシステムが種々提供されている。GPS(Global Positioning System)受信機を用いて現在位置を測定するシステムが典型例である。現状、1台のGPS受信機で測位する場合の測位誤差は数m〜数十mほどあり、それほど精度は高くない。また、衛星波の受信環境が悪い場所では測位ができないか、仮にできても精度は更に悪くなる。
また、カメラによる撮影画像と教師データとを用いて機械学習を行うことにより、対象物の位置を推定するシステムも知られている(例えば、特許文献1〜4参照)。しかしながら、特許文献1〜4に記載の技術は何れも、撮影画像の中に写っているオブジェクトの位置を推定するものであり、撮影者の位置を推定することはできない。
特開2019−125203号公報 特開2019−125204号公報 特開2019−36167号公報 特開2016−206795号公報
本発明は、このような問題を解決するために成されたものであり、撮影画像から撮影者の存在位置を推定することができるようにすることを目的とする。
上記した課題を解決するために、本発明では、現実世界の固定オブジェクトを撮影して得られる撮影画像と固定オブジェクトの撮影位置を示す位置情報とを教師データとして機械学習された推定モデルを用いて、撮影者が所持する撮影装置から取得された撮影画像を推定モデルに入力し、固定オブジェクトの特徴および写り具合から推定される撮影者の存在位置情報を出力するようにしている。
現実世界の固定オブジェクトを撮影した場合、その撮影画像内に写る固定オブジェクトは、固定オブジェクトと撮影者との相対位置関係によって写り具合が変わる。上記のように構成した本発明によれば、このように固定オブジェクトの写り具合が変わる撮影画像と撮影位置を示す位置情報とのセットを教師データとして機械学習された推定モデルに基づいて、撮影者が所持する撮影装置により撮影された推定対象の撮影画像に写っている固定オブジェクトの特徴および写り具合から、撮影者の撮影位置、つまり撮影者の存在位置が推定される。これにより、本発明によれば、撮影画像から撮影者の存在位置を推定することができる。
本実施形態による位置推定装置の機能構成例を示すブロック図である。 複数の撮影位置と固定オブジェクトの写り方との関係を示す図である。 本実施形態による機械学習装置の機能構成例を示すブロック図である。 本実施形態による位置推定装置の動作例を示すフローチャートである。 本実施形態による機械学習装置の動作例を示すフローチャートである。 変形例に係る位置推定装置の機能構成例を示すブロック図である。 変形例に係る機械学習装置の機能構成例を示すブロック図である。
以下、本発明の一実施形態を図面に基づいて説明する。図1は、本実施形態による位置推定装置10の機能構成例を示すブロック図である。図1に示すように、本実施形態の位置推定装置10は、機能構成として、画像取得部11および位置推定部12を備えている。位置推定部12は、具体的な機能構成として、固定オブジェクト識別部12Aおよび推定モデル適用部12Bを備えている。
上記各機能ブロック11〜12は、ハードウェア、DSP(Digital Signal Processor)、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック11〜12は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶された位置推定用プログラムが動作することによって実現される。CPUに代えてまたは加えてGPU(Graphics Processing Unit)、FPGA(Field Programmable Gate Array)またはASIC(Application Specific Integrated Circuit)などを用いてもよい。
また、本実施形態の位置推定装置10には、撮影装置100が電気的に接続されている。なお、位置推定装置10と撮影装置100は、1つの電子機器が備える構成であってもよい。例えば、スマートフォンまたはタブレット端末のようなモバイル端末が位置推定装置10と撮影装置100とを備える構成であってよい。あるいは、1つの電子機器が位置推定装置10を内蔵し、撮影装置100が有線または無線により電子機器に接続される構成であってもよい。
画像取得部11は、撮影者が所持する撮影装置100から撮影画像を取得する。撮影者は、撮影装置100を操作して、自分がいる場所の周囲の任意の方向を撮影する。撮影する画像は少なくとも1枚あればよい。この撮影画像には、現実世界の固定オブジェクトが被写体として含まれる。固定オブジェクトとは、例えば、建物、道路、立木、信号機等の道路付帯物といった土地およびその定着物である。撮影装置100は、撮影画像を位置推定装置10に供給し、画像取得部11がこれを取得する。
位置推定部12は、現実世界の固定オブジェクトを撮影して得られる撮影画像と固定オブジェクトの撮影位置を示す位置情報(例えば、緯度経度情報)とを教師データとして機械学習された推定モデルを用いて、画像取得部11により取得された撮影画像における固定オブジェクトの特徴および写り具合から推定される撮影者の存在位置情報(例えば、緯度経度情報)を出力する。ここで、推定モデルは、1つの固定オブジェクトについて、固定オブジェクトからの相対位置が異なる複数の撮影位置から撮影した複数の撮影画像と、複数の撮影位置をそれぞれ示す複数の位置情報とのセットを教師データとして、当該教師データを用いた機械学習処理が施されている。
推定モデルは、例えばニューラルネットワークを活用した機械学習に基づくモデルである。ただし、これに限定されるものではない。例えば、推定モデルの形態は、ロジスティック回帰またはサポートベクターマシーンなどの回帰モデル、ランダムフォレストなどの木モデル、ベイズモデルなどのうち何れかとすることも可能である。ここに挙げた推定モデルの形態は一例に過ぎず、これに限定されるものではない。
図2は、固定オブジェクトからの相対位置が異なる複数の撮影位置と、当該複数の撮影位置から撮影をした場合の固定オブジェクトの写り方との関係を示す図である。ここでは説明を簡単にするために、固定オブジェクトの一例として、1つの家屋を示している。
図2(A)は、玄関のある家屋の正面を、家屋の正面から垂直方向に距離Rの位置から撮影した状況を示しており、(A1)は撮影画像に写る家屋を示し、(A2)は家屋と撮影者との位置関係を示している。図2(B)は、家屋の左側面を、家屋の左側面から垂直方向に距離Rの位置から撮影した状況を示しており、(B1)は撮影画像に写る家屋を示し、(B2)は家屋と撮影者との位置関係を示している。図2(C)は、家屋の正面と左側面との間の位置で家屋から距離Rの位置から家屋を撮影した状況を示しており、(C1)は撮影画像に写る家屋を示し、(C2)は家屋と撮影者との位置関係を示している。
図2に示すように、固定オブジェクトに対して異なる方向から固定オブジェクトを撮影すると、撮影画像に写る固定オブジェクトの向きが変わる。固定オブジェクトの向きがどの程度変わるかは、固定オブジェクトに対する撮影位置の方向がどの程度変わるかに依存する。図2では、どの方向から撮影する場合も固定オブジェクトからの距離を同じとしているが、固定オブジェクトから撮影位置までの距離が変わると、撮影画像に写る固定オブジェクトの大きさが変わる。すなわち、撮影画像における固定オブジェクトの写り具合(固定オブジェクトの向きおよび大きさ)は、固定オブジェクトに対する撮影者の相対位置関係に依存して変動する。
上述のように、位置推定部12が用いる推定モデルは、図2のように様々な撮影位置から固定オブジェクトを撮影して得られる複数の撮影画像と、それぞれの撮影位置を示す位置情報(以下、撮影位置情報という)とを教師データとして、教師有り機械学習によって生成されるものである。撮影位置情報は、例えば、現実の固定オブジェクトが存在する現場で実際に固定オブジェクトを撮影した際に、所定の位置検出手段を用いて検出される位置情報である。本実施形態では、固定オブジェクトの撮影画像と撮影位置情報とを紐付けて記憶し、これを教師データとする。
撮影位置情報を検出する位置検出手段は任意であるが、測位誤差の小さい高精度の検出手段を用いるのが好ましい。例えば、複数の測位衛星システムからの信号の搬送波をカウントし、それを距離に換算して測位するマルチGNSS(Global Navigation Satellite System:全世界測位システム)、GPS衛星からの複数の周波数の信号の搬送波をカウントし、それを距離に換算して測位する多周波GPS、あるいは多周波マルチGNSSなどの検出手段を用いれば、測位誤差を10cm未満に抑えることが可能である。また、電波の受信環境が悪い場所では、自律航法センサを利用して撮影位置情報を検出するようにしてもよい。
以上のような教師データを推定モデルのニューラルネットワークに与えて機械学習を行うことにより、ある特徴を有する固定オブジェクトがある写り具合で写っている撮影画像が入力された際にそれに対応する正解としての撮影位置情報が高い確率で出力されやすくなるように、ニューラルネットワークの各種パラメータが調整される。ここで、固定オブジェクトの特徴とは、固定オブジェクトの形状、色、模様などのうち少なくとも1つであり、固定オブジェクトを他と識別し得る視覚的要素である。
また、固定オブジェクトの写り具合とは、基本的には図2で説明したように固定オブジェクトの向きおよび大きさをいうが、それだけではない。例えば、撮影画像に同じ向きおよび同じ大きさで固定オブジェクトが写っている場合でも、固定オブジェクトから撮影位置までの実距離が短くて撮影装置の焦点距離が短い場合と、固定オブジェクトから撮影位置までの実距離が長くて撮影装置の焦点距離が長い場合とでは、固定オブジェクトの写り具合(精細度等)が異なる。機械学習によるニューラルネットワークの各種パラメータは、この焦点距離に応じて異なる固定オブジェクトの写り具合も反映して調整される。
位置推定部12の固定オブジェクト識別部12Aは、公知の画像認識処理を行うことにより、画像取得部11により取得された撮影画像に写っている固定オブジェクトを識別する。撮影画像に複数の固定オブジェクトが写っている場合は、それぞれを識別する。なお、撮影画像に写っている全ての固定オブジェクトを識別することは必須ではない。例えば、建物、道路、立木、信号機等の道路付帯物といった種々の固定オブジェクトのうち、特定の1種類以上の固定オブジェクトのみを識別するようにしてもよい。あるいは、撮影画像の全体面積に対する固定オブジェクトの画像部分の占有面積の割合が所定値以上の大きな固定オブジェクトに限定して識別するようにしてもよい。
推定モデル適用部12Bは、固定オブジェクト識別部12Aにより識別された1以上の固定オブジェクトの画像を推定モデルに適用することにより、当該1以上の固定オブジェクトの特徴および写り具合から推定される撮影位置情報、つまり撮影者の存在位置情報を出力する。固定オブジェクト識別部12Aを設けず、撮影画像の全体を推定モデルに適用するようにしてもよいが、撮影画像に写っている移動オブジェクトの画像や、空の画像などを除外して推定モデルに適用することにより、推定の精度を上げることができる。移動オブジェクトや空などは、同じ場所にいても常に変動する要素であるため、撮影者の存在位置を推定するのに役立たないばかりか、推定の際にノイズとして働く恐れもあるからである。
一方、固定オブジェクトに関しては、撮影画像内から複数を識別して推定モデルに適用することにより、撮影者の存在位置の推定精度を上げることができる。建物、道路、立木、信号機といった固定オブジェクトは、それ1つのみを見た場合、類似の特徴を有するものが異なる場所に複数存在し得る。そのため、撮影画像の中から1つの固定オブジェクトのみを識別して推定モデルに適用した場合、その固定オブジェクトの特徴から導き出される存在位置情報の候補が複数となり、その中から1つの存在位置情報を抽出することが難しくなる。
これに対し、撮影画像の中から複数の固定オブジェクトを識別して推定モデルに適用すれば、それらの固定オブジェクトの特徴および写り具合を総合して撮影者の存在位置情報の候補が絞り込まれるため、正しい存在位置情報を推定することが容易となる。すなわち、個々の固定オブジェクトの特徴および写り具合に加え、複数の固定オブジェクトの組み合わせおよび相対位置関係も反映して撮影者の存在位置情報の推定を行うことができるため、正しい存在位置情報を推定することが可能となる。
図3は、本実施形態の位置推定装置10が用いる推定モデルを生成するための機械学習装置20の機能構成例を示すブロック図である。図3に示すように、本実施形態の機械学習装置20は、機能構成として、教師データ入力部21および推定モデル生成部22を備えている。推定モデル生成部22は、具体的な機能構成として、固定オブジェクト識別部22Aおよび学習部22Bを備えている。
上記各機能ブロック21〜22は、ハードウェア、DSP、ソフトウェアの何れによっても構成することが可能である。例えばソフトウェアによって構成する場合、上記各機能ブロック21〜22は、実際にはコンピュータのCPU、RAM、ROMなどを備えて構成され、RAMやROM、ハードディスクまたは半導体メモリ等の記録媒体に記憶されたプログラムが動作することによって実現される。CPUに代えてまたは加えてGPU、FPGAまたはASICなどを用いてもよい。
また、本実施形態の機械学習装置20には、教師データ記憶部201および推定モデル記憶部202が接続されている。教師データ記憶部201および推定モデル記憶部202は、機械学習装置20に対して有線または無線のローカル通信ネットワークにより接続される構成であってよい。あるいは、教師データ記憶部201および推定モデル記憶部202は、インターネット等のグローバル通信ネットワークを介して接続されたデータサーバが備える構成であってもよい。
教師データ入力部21は、教師データ記憶部201から読み出された教師データを入力する。教師データ記憶部201に記憶されている教師データは、上述したように、1つの固定オブジェクトを様々な撮影位置から撮影して得られる複数の撮影画像と、それぞれの撮影位置を示す撮影位置情報とのセットから成るデータである。教師データ記憶部201には、様々な場所において様々なオブジェクトを撮影して得られる撮影画像と撮影位置情報とのセットを教師データとして記憶している。
推定モデル生成部22は、教師データ入力部21により入力された教師データを用いて、機械学習によってパラメータを調整することにより、固定オブジェクトを撮影して得られる撮影画像が入力された際に固定オブジェクトの特徴および写り具合に応じて撮影者の存在位置情報を出力するための推定モデルを生成する。すなわち、推定モデル生成部22は、教師データ入力部21により入力された教師データを推定モデルのニューラルネットワークに与えて機械学習を行い、当該ニューラルネットワークの各種パラメータを調整することにより、撮影画像における固定オブジェクトの特徴および写り具合から撮影者の存在位置(緯度経度)を推定するための推定モデルを生成する。
この推定モデルの生成の際に、固定オブジェクト識別部22Aは、公知の画像認識処理を行うことにより、教師データ入力部21により教師データとして入力された複数の撮影画像のそれぞれについて、その中に写っている固定オブジェクトを識別する。固定オブジェクトの識別の仕方は、位置推定装置10が備える固定オブジェクト識別部12Aと同様である。
学習部22Bは、教師データ入力部21により入力された複数の教師データのそれぞれについて、固定オブジェクト識別部22Aにより識別された1以上の固定オブジェクトの画像を推定モデルに入力するとともに、教師データ入力部21により入力された正解データとしての撮影位置情報を推定モデルに入力することにより、推定モデルの機械学習を行う。そして、学習部22Bは、学習済みの推定モデルを推定モデル記憶部202に記憶させる。
以上のように構成した推定モデル生成部22により生成される推定モデルは、撮影画像においてどのような固定オブジェクトが、どの向きに、どの程度の大きさで、どの程度の精細度で写っているかなどの特徴に応じて、その撮影画像を撮影したときの撮影位置を推定して、撮影者の存在位置情報を出力するものである。図1に示した位置推定部12の推定モデル適用部12Bは、推定モデル記憶部202に記憶された推定モデルをデプライすることによって構成される。
なお、上記実施形態では、位置推定装置10と機械学習装置20とを別の装置として構成する例について説明したが、本発明はこれに限定されない。すなわち、1つの装置の中に位置推定装置10の機能および機械学習装置20の機能を実装する構成としてもよい。
図4は、上記のように構成した位置推定装置10の動作例を示すフローチャートである。まず、位置推定装置10の画像取得部11が、撮影者が所持する撮影装置100から撮影画像を取得する(ステップS1)。すなわち、撮影装置100を所持する撮影者が任意の場所にいて、任意の方向に向かって現実世界の固定オブジェクトの撮影を行うと、画像取得部11はその撮影画像をリアルタイムで取得する。
次いで、位置推定装置10の位置推定部12が、教師データを用いて学習済みの推定モデルを用いて、画像取得部11により取得された撮影画像における固定オブジェクトの特徴および写り具合から推定される撮影者の存在位置情報を出力する(ステップS2,S3)。
すなわち、位置推定部12の固定オブジェクト識別部12Aが、画像取得部11により取得された撮影画像に写っている固定オブジェクトを識別する(ステップS2)。そして、推定モデル適用部12Bが、当該識別された1以上の固定オブジェクトの画像を推定モデルに適用することにより、当該1以上の固定オブジェクトの特徴および写り具合から推定される撮影位置情報を、撮影者の存在位置情報として出力する(ステップS3)。これにより、図4に示すフローチャートの処理は終了する。
図5は、上記のように構成した機械学習装置20の動作例を示すフローチャートである。まず、機械学習装置20の教師データ入力部21が、教師データ記憶部201から読み出された教師データの1セット(現実世界の固定オブジェクトを撮影して得られる撮影画像と、固定オブジェクトの撮影位置情報との1組)を入力する(ステップS11)。
次いで、機械学習装置20の推定モデル生成部22が、教師データ入力部21により入力された教師データを用いて、機械学習によってパラメータを調整することにより、固定オブジェクトを撮影して得られる撮影画像が入力された際に撮影者の存在位置情報を出力するための推定モデルを生成する(ステップS12,S13)。
すなわち、推定モデル生成部22の固定オブジェクト識別部22Aが、教師データ入力部21により入力された撮影画像に写っている固定オブジェクトを識別する(ステップS12)。そして、学習部22Bが、固定オブジェクト識別部22Aにより識別された1以上の固定オブジェクトの画像と教師データ入力部21により入力された撮影位置情報とを推定モデルに与えて機械学習を行うことにより、ニューラルネットワークの各種パラメータを調整する(ステップS13)。
その後、推定モデル生成部22は、機械学習の終了条件を満たしたか否かを判定する(ステップS14)。終了条件を満たしていない場合、処理はステップS11に戻り、次の教師データを入力してステップS12,S13の処理を実行する。なお、機械学習の終了条件は任意に設定し得る。例えば、教師データ記憶部201に学習用データとして用意された教師データが全て処理されたことを終了条件としてよい。ステップS11〜S13の処理が複数の教師データを対象として繰り返し実行されることにより、推定モデルのパラメータが適切に調整されていく。そして、ステップS14において終了条件を満たしたと判定されたとき、図5に示すフローチャートの処理は終了する。
以上詳しく説明したように、本実施形態では、位置推定装置10が画像取得部11と位置推定部12とを備え、位置推定部12が、現実世界の固定オブジェクトを撮影して得られる撮影画像と固定オブジェクトの撮影位置情報とを教師データとして機械学習された推定モデルを用いて、撮影者が所持する撮影装置100から画像取得部11により取得された撮影画像における固定オブジェクトの特徴および写り具合から推定される撮影者の存在位置情報を出力するようにしている。
このように構成した本実施形態によれば、教師データを用いて機械学習された推定モデルを用いて、撮影者が撮影装置100によって撮影した撮影画像に写っている固定オブジェクトの特徴および写り具合から、撮影者の撮影位置、つまり撮影者の存在位置を推定することができる。すなわち、本実施形態によれば、撮影者が現在いる場所において周囲の画像を撮影するだけで、その撮影画像から撮影者の存在位置を推定することができる。
なお、上記実施形態では、画像取得部11が1枚の撮影画像を取得し、当該1枚の撮影画像から撮影者の存在位置を推定する例について説明したが、本発明はこれに限定されない。例えば、同じ場所から方向を変えて撮影した複数の撮影画像を画像取得部11により取得し、当該複数の撮影画像に対してそれぞれ位置推定部12の処理を行うことによって撮影者の存在位置を推定するようにしてもよい。このようにすれば、一の方向に向かって撮影した撮影画像に写る複数の固定オブジェクトの特徴および写り具合と、他の方向に向かって撮影した撮影画像に写る複数の固定オブジェクトの特徴および写り具合とを総合して撮影者の存在位置情報の候補を絞り込むことが可能となるため、正しい存在位置情報を推定することができる確度が高くなる。
また、上記実施形態では、撮影装置の焦点距離に応じた固定オブジェクトの精細度等も写り具合の特徴の1つとして機械学習を行い、当該精細度等をニューラルネットワークのパラメータ調整に反映させた推定モデルを生成する例について説明したが、本発明はこれに限定されない。例えば、図6のように位置推定装置10’を構成するとともに、図7のように機械学習装置20’を構成するようにしてもよい。
図7に示す機械学習装置20’において、教師データ入力部21’は、撮影画像および撮影位置情報に加え、画像を撮影したときの撮影装置の焦点距離情報を入力する。
前処理部23は、あらかじめ定めた基準の焦点距離ではない焦点距離のもとで撮影された撮影画像について、基準の焦点距離で撮影された仮定した場合の画像と同等となるように撮影画像を拡大または縮小するという前処理を行う。すなわち、前処理部23は、教師データ入力部21’により取得された撮影画像が、あらかじめ定めた基準の焦点距離ではない焦点距離のもとで撮影されたものである場合に、基準の焦点距離で撮影されたと仮定した場合の画像と同等となるように撮影画像を拡大または縮小する前処理を行い、当該前処理によって加工した撮影画像を推定モデル生成部22’に供給する。ここで行う前処理は、基準の焦点距離と実際の焦点距離との差分に応じて決定されるズーム倍率によって撮影画像を拡大または縮小する処理である。
推定モデル生成部22’は、前処理部23によって適宜加工された撮影画像を用いて機械学習を行うことにより、推定モデルを生成する。すなわち、推定モデル生成部22’は、教師データ入力部21’により入力された撮影画像が基準の焦点距離のもとで撮影されたものである場合には、当該教師データ入力部21’により入力された撮影画像を用いて推定モデルを学習する。一方、推定モデル生成部22’は、教師データ入力部21’により入力された撮影画像が基準の焦点距離ではない焦点距離のもとで撮影されたものである場合には、前処理部23によって加工された撮影画像を用いて推定モデルを学習する。
なお、前処理部23を機械学習装置20’から省略し、当該前処理部23が行う画像処理をあらかじめ行うことによって生成した画像データを教師データ記憶部201に教師データとして記憶させておくようにしてもよい。
図6に示す位置推定装置10’において、画像取得部11’は、撮影装置100から撮影画像を取得する際に、当該撮影装置100に設定されている焦点距離情報も取得する。図6では、画像取得部11’が撮影装置100から撮影画像と共に焦点距離情報を取得する例を示しているが、これに限定されない。例えば、焦点距離情報は、位置推定装置10’が実装されている電子機器から取得するようにしてもよい。
前処理部13は、あらかじめ定めた基準の焦点距離ではない焦点距離のもとで撮影された撮影画像について、基準の焦点距離で撮影されたと仮定した場合の画像と同等となるように撮影画像を拡大または縮小するという前処理を行う。すなわち、前処理部13は、画像取得部11’により取得された撮影画像が、あらかじめ定めた基準の焦点距離ではない焦点距離のもとで撮影されたものである場合に、基準の焦点距離で撮影されたと仮定した場合の画像と同等となるように撮影画像を拡大または縮小する前処理を行い、当該前処理によって加工した撮影画像を位置推定部12’に供給する。
位置推定部12’は、前処理部13によって適宜加工された撮影画像を推定モデルに適用することにより、撮影者の存在位置を推定する。すなわち、位置推定部12’は、画像取得部11’により取得された撮影画像が基準の焦点距離のもとで撮影されたものである場合には、当該画像取得部11’により取得された撮影画像を推定モデルに適用することにより、撮影者の存在位置を推定する。一方、位置推定部12’は、画像取得部11’により取得された撮影画像が基準の焦点距離ではない焦点距離のもとで撮影されたものである場合には、前処理部13によって加工された撮影画像を推定モデルに適用することにより、撮影者の存在位置を推定する。
このように、異なる焦点距離の下で撮影された撮影画像に対し、焦点距離を統一させるための画像処理(拡大または縮小)を行うことにより、どのような焦点距離で撮影された画像であるかにかかわらず、固定オブジェクトから同じ相対距離の位置から撮影された撮影画像に写る固定オブジェクトが同じ大きさで揃うことになる。このため、固定オブジェクトの精細度等を写り具合の特徴の1つとして用いることなく、撮影者の存在位置を推定することができるようになる。
また、撮影画像に対する前処理の他の例として、露出調整処理やホワイトバランス調整処理などの画像処理を行うようにしてもよい。
その他、上記実施形態は、何れも本発明を実施するにあたっての具体化の一例を示したものに過ぎず、これによって本発明の技術的範囲が限定的に解釈されてはならないものである。すなわち、本発明はその要旨、またはその主要な特徴から逸脱することなく、様々な形で実施することができる。
10,10’ 位置推定装置
11,11’ 画像取得部
12,12’ 位置推定部
12A 固定オブジェクト識別部
12B 推定モデル適用部
13 前処理部
20,20’ 機械学習装置
21,21’ 教師データ入力部
22,22’ 推定モデル生成部
22A 固定オブジェクト識別部
22B 学習部
23 前処理部

Claims (7)

  1. 撮影者が所持する撮影装置から撮影画像を取得する画像取得部と、
    現実世界の固定オブジェクトを撮影して得られる撮影画像と上記固定オブジェクトの撮影位置を示す位置情報とを教師データとして機械学習された推定モデルを用いて、上記画像取得部により取得された上記撮影画像における上記固定オブジェクトの特徴および写り具合から推定される上記撮影者の存在位置情報を出力する位置推定部とを備えた
    ことを特徴とする位置推定装置。
  2. 上記推定モデルは、1つの上記固定オブジェクトについて、上記固定オブジェクトからの相対位置が異なる複数の撮影位置から撮影した複数の撮影画像と、上記複数の撮影位置をそれぞれ示す複数の位置情報とのセットを上記教師データとして、当該教師データを用いた機械学習処理が施されている
    ことを特徴とする請求項1に記載の位置推定装置。
  3. 上記位置推定部は、
    上記画像取得部により取得された撮影画像に写っている1以上の固定オブジェクトを識別する固定オブジェクト識別部と、
    上記固定オブジェクト識別部により識別された1以上の固定オブジェクトの画像を上記推定モデルに適用することにより、上記撮影者の存在位置情報を出力する推定モデル適用部とを備えた
    ことを特徴とする請求項1または2に記載の位置推定装置。
  4. 上記画像取得部は、上記撮影装置から上記撮影画像を取得する際に、上記撮影装置の焦点距離情報を取得し、
    上記画像取得部により取得された撮影画像が、あらかじめ定めた基準の焦点距離ではない焦点距離のもとで撮影されたものである場合に、上記基準の焦点距離で撮影されたと仮定した場合の画像と同等となるように上記撮影画像を拡大または縮小する前処理を行い、当該前処理によって加工した撮影画像を上記位置推定部に供給する前処理部を更に備えた
    ことを特徴とする請求項1〜3の何れか1項に記載の位置推定装置。
  5. コンピュータの画像取得部が、撮影者が所持する撮影装置から撮影画像を取得するステップと、
    上記コンピュータの位置推定部が、現実世界の固定オブジェクトを撮影して得られる撮影画像と上記固定オブジェクトの撮影位置を示す位置情報とを教師データとして機械学習された推定モデルを用いて、上記画像取得部により取得された上記撮影画像における上記固定オブジェクトの特徴および写り具合から推定される上記撮影者の存在位置情報を出力するステップとを有する
    ことを特徴とする位置推定方法。
  6. コンピュータの教師データ入力部が、現実世界の固定オブジェクトを撮影して得られる撮影画像と上記固定オブジェクトの撮影位置を示す位置情報とを教師データとして入力するステップと、
    上記コンピュータの推定モデル生成部が、上記教師データ入力部により入力された上記教師データを用いて、機械学習によってパラメータを調整することにより、上記固定オブジェクトを撮影して得られる撮影画像が入力された際に上記固定オブジェクトの特徴および写り具合に応じて撮影者の存在位置情報を出力するための推定モデルを生成するステップとを有する
    ことを特徴とする推定モデル生成方法。
  7. 撮影者が所持する撮影装置から撮影画像を取得する画像取得手段、および
    現実世界の固定オブジェクトを撮影して得られる撮影画像と上記固定オブジェクトの撮影位置を示す位置情報とを教師データとして機械学習された推定モデルを用いて、上記画像取得手段により取得された上記撮影画像における上記固定オブジェクトの特徴および写り具合から推定される上記撮影者の存在位置情報を出力する位置推定手段
    としてコンピュータを機能させるための位置推定用プログラム。
JP2019187781A 2019-10-11 2019-10-11 位置推定装置、位置推定方法、推定モデル生成方法および位置推定用プログラム Pending JP2021064109A (ja)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2019187781A JP2021064109A (ja) 2019-10-11 2019-10-11 位置推定装置、位置推定方法、推定モデル生成方法および位置推定用プログラム

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2019187781A JP2021064109A (ja) 2019-10-11 2019-10-11 位置推定装置、位置推定方法、推定モデル生成方法および位置推定用プログラム

Publications (1)

Publication Number Publication Date
JP2021064109A true JP2021064109A (ja) 2021-04-22

Family

ID=75486294

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2019187781A Pending JP2021064109A (ja) 2019-10-11 2019-10-11 位置推定装置、位置推定方法、推定モデル生成方法および位置推定用プログラム

Country Status (1)

Country Link
JP (1) JP2021064109A (ja)

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173748A (ja) * 2003-12-09 2005-06-30 Zenrin Co Ltd 電子地図データを利用した風景画像の撮像位置の特定
JP2007122096A (ja) * 2005-10-24 2007-05-17 Fujifilm Corp 位置特定装置、位置特定方法及び位置特定プログラム
JP2019160227A (ja) * 2018-03-16 2019-09-19 株式会社Lifull 情報提供システム、サーバ装置、及び情報提供方法

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005173748A (ja) * 2003-12-09 2005-06-30 Zenrin Co Ltd 電子地図データを利用した風景画像の撮像位置の特定
JP2007122096A (ja) * 2005-10-24 2007-05-17 Fujifilm Corp 位置特定装置、位置特定方法及び位置特定プログラム
JP2019160227A (ja) * 2018-03-16 2019-09-19 株式会社Lifull 情報提供システム、サーバ装置、及び情報提供方法

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
KENDALL, A. ET AL.: "PoseNet: A Convolutional Network for Real-Time 6-DOF Camera Relocalization", 2015 IEEE INTERNATIONAL CONFERENCE ON COMPUTER VISION (ICCV) [ONLINE], JPN6023030418, 2015, pages 2938 - 2946, XP032866641, ISSN: 0005113074, DOI: 10.1109/ICCV.2015.336 *
三浦純 外3名: "SVMによる物体と位置の視覚学習に基づく屋外移動ロボットの位置推定", 日本ロボット学会誌 [ONLINE], vol. 25, no. 5, JPN6023030414, 2007, pages 792 - 798, ISSN: 0005113072 *
杉中出帆 外2名: "畳み込みニューラルネットワークを用いた一人称視点画像による自己位置推定", FIT2016(第15回情報科学技術フォーラム)第3分冊 [ONLINE], JPN6023030416, 2016, pages 57 - 58, ISSN: 0005113073 *

Similar Documents

Publication Publication Date Title
US20130083990A1 (en) Using Videogrammetry to Fabricate Parts
US10726262B2 (en) Imaging support system, device and method, and imaging terminal
JP2014526174A (ja) モバイル拡張現実システム
WO2023035301A1 (en) A camera calibration method
KR20140072763A (ko) 영상 정보와 항공사진 데이터를 비교하여 대상 객체를 결정하고 카메라 획득정보를 이용하여 대상 객체의 3차원 좌표를 획득하는 수치지도 제작 시스템
JP7407428B2 (ja) 三次元モデル生成方法及び三次元モデル生成装置
JP2017151148A (ja) 位置推定装置、位置検出方法及びプログラム
US20150170331A1 (en) Method and Device for Transforming an Image
KR20140055898A (ko) 영상의 왜곡보정을 통해 공간모델링을 수행하는 수치지도제작 시스템
JP2019100817A (ja) 位置推定装置、位置推定方法及び端末装置
KR101234961B1 (ko) 항공사진과 MMS(Mobile Mapping System) 기술을 이용한 자동 3D 공간 모델링 방법 및 시스템
KR101332042B1 (ko) 카메라의 위치 정보와 수평 정보를 이용하여 공간 영상을 처리하는 공간 영상 처리 시스템
CN109034214B (zh) 用于生成标记的方法和装置
KR20100060472A (ko) 위치 측정 방법 및 이를 이용한 휴대 단말기
KR101277427B1 (ko) 매개변수를 이용하여 영상 데이터를 왜곡보정하고, 보정된 영상 데이터와 항공사진 데이터를 비교하는 수치지도 제작 방법 및 시스템
KR101234917B1 (ko) 가중치 적용된 임계값에 의한 영상 보정을 이용하는 3차원 공간 데이터 생성 방법 및 시스템
CN109785439A (zh) 人脸素描图像生成方法及相关产品
US20160044295A1 (en) Three-dimensional shape measurement device, three-dimensional shape measurement method, and three-dimensional shape measurement program
KR101598399B1 (ko) 로드뷰 사진이미지의 좌표정보를 이용한 자동 이미지 합성 시스템
KR101879859B1 (ko) 영상 왜곡 매개변수를 이용하여 촬영 영상을 보정하는 영상 처리 시스템
KR102542556B1 (ko) 고해상도 드론 동영상과 딥러닝 객체 인식기술을 활용한 실시간 습지 지역 주요 식생 탐지와 식생 객체 위치 확인 방법 및 그 시스템
KR100981588B1 (ko) 특징점 픽셀의 크기와 방향 정보를 이용하는 벡터 변환에 기초한 도시공간 지리정보 생성 시스템
JP2021064109A (ja) 位置推定装置、位置推定方法、推定モデル生成方法および位置推定用プログラム
KR101332093B1 (ko) 복수개의 센서에 의해 획득된 대상 객체의 좌표 정보를 이용하여 3차원 공간 데이터를 획득하는 공간영상처리 시스템
CN110268438B (zh) 图像数据库构建装置、位置和倾斜估计装置以及图像数据库构建方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220726

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230725

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20240206