JP7153089B2 - 位置推定システム - Google Patents

位置推定システム Download PDF

Info

Publication number
JP7153089B2
JP7153089B2 JP2020562370A JP2020562370A JP7153089B2 JP 7153089 B2 JP7153089 B2 JP 7153089B2 JP 2020562370 A JP2020562370 A JP 2020562370A JP 2020562370 A JP2020562370 A JP 2020562370A JP 7153089 B2 JP7153089 B2 JP 7153089B2
Authority
JP
Japan
Prior art keywords
image
view
angle
reference image
user
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2020562370A
Other languages
English (en)
Other versions
JPWO2020137068A1 (ja
Inventor
修 後藤
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
NTT Docomo Inc
Original Assignee
NTT Docomo Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by NTT Docomo Inc filed Critical NTT Docomo Inc
Publication of JPWO2020137068A1 publication Critical patent/JPWO2020137068A1/ja
Application granted granted Critical
Publication of JP7153089B2 publication Critical patent/JP7153089B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T1/00General purpose image data processing
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Processing Or Creating Images (AREA)
  • Studio Devices (AREA)
  • Image Processing (AREA)
  • Image Analysis (AREA)

Description

本発明は、画像に基づいて位置を推定する位置推定システムに関する。
従来から、撮像(撮影)によって得られた撮像画像から、当該撮像画像が撮像された位置を推定する技術が提案されている(例えば、特許文献1参照)。例えば、位置に対応付けた参照用画像を予め用意しておき、参照用画像と撮像画像とを比較して、撮像画像に類似している参照用画像に対応付けられた位置から、当該位置を推定する。
特開2012-54754号公報
デジタルカメラは、機種によって様々なレンズ及び画像センサを搭載しており、機種によって画角(撮影画角)が異なる。また、カメラが有するズーム機能によっても撮像できる画角が異なる。画角が異なる場合、同一位置から同一方向を向いて撮像しても画像に写り込む風景の範囲が変わる。そのため、画像同士の比較のみでは、正確に位置を推定できないおそれがある。参照用画像の画角よりも撮像画像の画角が狭い場合は、撮像方向に対して真の位置よりも前方に位置を推定してしまう。一方で、参照用画像の画角よりも撮像画像の画角が広い場合は、撮像方向に対して真の位置よりも後方に位置を推定してしまう。
例えば、図9に示すように画角が60度の参照用画像を用いて推定することを考える。推定対象の撮像画像であるユーザ画像の画角が30度であった場合、ユーザ画像と参照用画像とを比較すると、ユーザ画像が撮像された位置で撮像された参照用画像(位置Aに対応付けられた参照用画像)とは一致せず、ユーザ画像が撮像された位置ではない位置で撮像された参照用画像(位置Bに対応付けられた参照用画像)と一致してしまう。そのため、本来、ユーザ画像が撮像された位置は位置Aであるにもかかわらず、ユーザ画像が撮像された位置は位置Bであると誤って推定されてしまう。
本発明の一実施形態は、上記に鑑みてなされたものであり、画像を用いた位置の推定を高精度に行うことができる位置推定システムを提供することを目的とする。
上記の目的を達成するために、本発明の一実施形態に係る位置推定システムは、参照用画像と位置を示す情報とを対応付けて記憶した参照用画像データベースと、位置推定の対象となる推定用画像、及び当該推定用画像の画角に係る情報を取得する取得部と、取得部によって取得された推定用画像の画角に係る情報に基づいて、参照用画像及び推定用画像の少なくとも何れか一方の画像の拡大又は縮小を行う画像処理部と、画像処理部によって拡大又は縮小が行われた画像を用いて、参照用画像と推定用画像との比較を行って、当該参照用画像に対応付けられた位置を示す情報から当該推定用画像に係る位置を推定する推定部と、を備える。
本発明の一実施形態に係る位置推定システムでは、推定用画像の画角が考慮されて画像の拡大又は縮小が行われて、推定用画像に係る位置が推定される。従って、本発明の一実施形態に係る位置推定システムによれば、画像を用いた位置の推定を高精度に行うことができる。
本発明の一実施形態では、推定用画像の画角が考慮されて画像の拡大又は縮小が行われて、推定用画像に係る位置が推定される。従って、本発明の一実施形態によれば、画像を用いた位置の推定を高精度に行うことができる。
本発明の実施形態に係る位置推定システムの構成を示す図である。 画像センサのサイズ、焦点距離及び画角の関係を示す図である。 画像のクロップを示す図である。 画像のアンクロップを示す図である。 アンクロップ前の画像及びアンクロップ後の画像の例を示す図である。 画像の縦横比を変更する画像処理の例を示す図である。 本発明の実施形態に係る位置推定システムで実行される処理を示すフローチャートである。 本発明の実施形態に係る位置推定システムのハードウェア構成を示す図である。 本発明の課題を説明するための図である。
以下、図面と共に本発明に係る位置推定システムの実施形態について詳細に説明する。なお、図面の説明においては同一要素には同一符号を付し、重複する説明を省略する。
図1に本実施形態に係る位置推定システム10を示す。位置推定システム10は、画像(画像データ)に基づいて位置を推定するシステムである。具体的には、位置推定システム10は、ユーザ端末20によって撮像されたユーザ画像に基づいて、ユーザ端末20の位置、具体的にはユーザ画像を撮像した位置(ユーザ位置)を推定する。また、位置推定システム10は、位置の推定とあわせて、ユーザ画像が撮像された方向(方位)を推定することとしてもよい。
ユーザ端末20は、ユーザに所持(携帯)されて利用される。ユーザ端末20は、例えば、携帯電話機、スマートフォン又はタブレット端末である。ユーザ端末20は、撮像装置であるカメラを備えており、撮像によってユーザ画像を取得することができる。また、ユーザ端末20は、移動体通信機能等の通信機能を有している。位置推定システム10とユーザ端末20とは、移動体通信網等の通信網を介して互いに情報の送受信を行うことができる。
ユーザ端末20は、自身の位置の推定を行う際に自身が備えるカメラで周囲の風景を撮像して撮像によって得られたユーザ画像を位置推定システム10に送信する。また、ユーザ端末20は、ユーザ画像の送信とあわせて当該ユーザ画像の画角に係る情報を位置推定システム10に送信する。ユーザ端末20から位置推定システム10に送信される画角に係る情報としては、画角自体を示す情報であってもよいし、画角を算出するための情報であってもよい。画角自体の情報である場合、当該情報は、例えば、ユーザ画像の縦方向(垂直方向)の画角及び横方向(水平方向)の画角の情報である。画角を算出するための情報は、例えば、カメラの画像センサの縦方向及び横方向のサイズ、並びに撮像時の焦点距離の情報である。位置推定システム10は、これらをユーザ端末20から受信して位置の推定に用いる。
位置推定システム10は、例えば、サーバ装置によって実現される。また、位置推定システム10は、複数のサーバ装置、即ち、コンピュータシステムによって実現されてもよい。
引き続いて、本実施形態に係る位置推定システム10の機能を説明する。図1に示すように位置推定システム10は、参照用画像データベース11と、取得部12と、画像処理部13と、推定部14とを備えて構成される。
参照用画像データベース11は、参照用画像と位置を示す情報とを対応付けて記憶したデータベースである。参照用画像データベース11は、参照用画像に対応付けて当該参照用画像の画角に係る情報を記憶することとしてもよい。
参照用画像は、画像に基づいた位置推定に用いられる位置推定システム10に予め記憶される画像である。参照用画像に対応付けられる情報によって示される位置は、参照用画像が撮像された位置である。本実施形態では、参照用画像と位置推定の対象となる推定用画像とを比較して、それらが同じ画像であれば、参照用画像に対応付けられた情報によって示される位置を推定位置とするという考え方に基づいて画像に基づいた位置推定を行う。但し、後述するように本実施形態では、比較される画像は画像処理が行われた画像である。
参照用画像に対応付けられる位置を示す情報は、例えば、当該位置の緯度及び経度である。但し、位置を示す情報としてそれ以外の情報が用いられてもよい。参照用画像データベース11は、複数の参照用画像を記憶する。適切な位置推定を行えるように、参照用画像データベース11は、様々な位置を示す情報に対応付けられた複数の参照用画像を記憶することとしてもよい。
参照用画像データベース11によって記憶される参照用画像は、当該参照用画像の画角(当該参照用画像が撮像された際の画角)が把握されているものである。参照用画像データベース11は、それぞれの参照用画像の画角が異なる場合には、それぞれの参照用画像に対応付けて当該参照用画像の画角に係る情報、具体的には当該画角を示す情報を記憶することとしてもよい。それぞれの参照用画像に対応付けて記憶される情報は、例えば、当該参照用画像の縦方向の画角及び横方向の画角の情報である。
また、参照用画像データベース11は、それぞれの参照用画像に対応付けて、方向を示す情報を記憶していてもよい。当該方向は、参照用画像が撮像された方向である。方向を示す情報を記憶することで、位置推定システム10において、推定用画像に対して、位置に加えて方向を推定することができる。
参照用画像データベース11に記憶される参照用画像、及び参照用画像に係る情報は、参照用画像に対応付いた位置での撮像及び当該位置でのGPS(グローバルポジショニングシステム)等での測位等によって生成される。
取得部12は、位置推定の対象となる推定用画像、及び当該推定用画像の画角に係る情報を取得する機能部である。取得部12は、推定用画像の画角に係る情報として、当該画角を算出するための情報を取得することとしてもよい。
具体的には、取得部12は、ユーザ端末20から送信されるユーザ画像及び当該ユーザ画像の画角に係る情報を、推定用画像、及び当該推定用画像の画角に係る情報として受信して取得する。ユーザ画像の画角に係る情報は、例えば、上述したように画角自体を示す情報である。あるいは、ユーザ画像の画角に係る情報は、画角を算出するための情報であってもよい。当該情報は、例えば、上述したようにカメラの画像センサの縦方向及び横方向のサイズ、並びに撮像時の焦点距離の情報である。取得部12は、取得したユーザ画像及び情報を画像処理部13に出力する。
画像処理部13は、取得部12によって取得されたユーザ画像の画角に係る情報に基づいて、参照用画像及びユーザ画像の少なくとも何れか一方の画像の拡大又は縮小を行う機能部である。画像処理部13は、参照用画像の画角に係る情報にも基づいて、画像の拡大又は縮小を行うこととしてもよい。画像処理部13は、画角を算出するための情報から画角を算出して、算出した画角に基づいて、画像の拡大又は縮小を行うこととしてもよい。画像処理部13は、参照用画像及びユーザ画像の縦横比を合わせる画像処理を行い、画像の拡大又は縮小を行うこととしてもよい。
画像処理部13は、取得部12からユーザ画像及び情報を入力する。取得部12から入力したユーザ画像の画角に係る情報が、当該画角を算出するための上述した情報であった場合、画像処理部13は、例えば、以下のように画角を算出する。図2に示すように画像センササイズ(図2に示す画像センサ21の長さ)S、焦点距離F及び画角Aの間には下記の関係が成立する。
画像センササイズS/(2×焦点距離F)=tan(画角A/2)
従って、画像処理部13は、逆三角関数arctangentを用いて下記の式によって画角Aを算出する。
画角A=2×arctan(画像センササイズS/(2×焦点距離F))
なお、縦方向の画角を求める場合には、画像センサの縦方向のサイズ(長さ)を用い、横方向の画角を求める場合には、画像センサの横方向のサイズ(長さ)を用いる。
なお、画角を算出するための情報及び画角の算出方法は、上記以外のものが用いられてもよい。例えば、ユーザ画像の撮像に用いられたカメラの機種を示す情報が、画角を算出するための情報として用いられてもよい。
取得部12によって取得されたユーザ画像は、位置推定のために参照用画像データベース11に記憶された各参照用画像と比較される。ユーザ画像と参照用画像とを比較する前に、画像処理部13は、ユーザ画像又はユーザ画像の一方を基準として、もう一方の画像を基準の画角に合わせて拡大又は縮小する。なお、画角に応じた画像の拡大又は縮小は、画像の縦及び横双方について行われる。
画角を合わせる方の画像が、基準の画角よりも大きい場合、画像処理部13は、画像の縮小として画像のクロップ(切り抜き、切り取り)を行う。画角を合わせる方の画像が、基準の画角よりも小さい場合、画像処理部13は、画像の拡大として画像のアンクロップ(塗り足し)を行う。
画像処理部13は、取得部12から入力した情報によって示されるユーザ画像の画角又は上記のように算出したユーザ画像の画角と、参照用画像データベース11に記憶された参照用画像の画角とを参照して画像のクロップ又はアンクロップを行う。なお、ユーザ画像と参照用画像との画角が同一である場合、画像処理部13は、画像の拡大及び縮小を行わない。
画角X>画角Yである画角Xの画像を画角Yに合わせる処理であるクロップの処理を説明する。画像処理部13は、クロップ後の画像の長さLの元画像に対する割合を、三角関数tangentを用いた以下の式により算出する。
クロップ後の画像の長さの元画像に対する割合=tan(Y/2)/tan(X/2)
続いて、図3に示すように、画像処理部13は、画像の中心線を基準に上記で算出した割合で元画像の切り出し処理を行って、画角Yの画像を生成する。上記の割合の算出及び切り出し処理は、画像の縦方向及び横方向それぞれについて行われる。なお、図3では、縦方向の画角をX,Y、クロップ後の画像の長さをLとし、横方向の画角をX´,Y´、クロップ後の画像の長さをL´としている。
画角X<画角Yである画角Xの画像を画角Yに合わせる処理であるアンクロップの処理を説明する。画像処理部13は、アンクロップ後の画像の長さLの元画像に対する割合を、三角関数tangentを用いた以下の式により算出する。
アンクロップ後の画像の長さの元画像に対する割合=tan(Y/2)/tan(X/2)
なお、上記の式は、画角X,Yの大小によらない。即ち、上記の式は、画角X>画角Yの場合と同様である。続いて、図4に示すように、画像処理部13は、画像の中心線を基準に上記で算出した割合で画像の塗り足し処理を行って、画角Yの画像を生成する。画角Yの画像のうち、元画像に含まれない部分、即ち塗り足しを行う部分については、当然ながら何が写っているか未知の領域であるため、予め設定した色(例えば、白又は黒)にて補間を行うことで画角Yの画像を生成する。上記の割合の算出及び塗り足し処理は、画像の縦方向及び横方向それぞれについて行われる。なお、図4では、縦方向の画角をX,Y、アンクロップ後の画像の長さをLとし、横方向の画角をX´,Y´、アンクロップ後の画像の長さをL´としている。図5にアンクロップ前の画像及びアンクロップ後の画像の例を示す。
なお、上記の図3及び図4の例では、画像の縦方向及び横方向の何れも、画角X>画角Y、又は画角X<画角Yとなっていた。しかしながら、縦方向及び横方向の一方が、画角X>画角Yであり、もう一方が画角X<画角Yとなっている場合もある。その場合、画角X>画角Yとなっている方向については上記と同様にクロップを行い、画角X<画角Yとなっている方向については上記と同様にアンクロップを行えばよい。
画像処理部13は、例えば、参照用画像毎、即ちユーザ画像と各参照用画像との組み合わせ毎に上記のユーザ画像のクロップ又はアンクロップを行う。但し、画角が同一である参照用画像に対してはユーザ画像のクロップ又はアンクロップは一度だけ行われればよい。例えば、参照用画像データベース11に記憶された参照用画像の画角が全て同一であれば、全ての参照用画像に対してユーザ画像のクロップ又はアンクロップは一度だけ行われればよい。この場合、参照用画像データベース11に参照用画像に対応付けて画角を記憶させておく必要はなく、画像処理部13は、予め一律である参照用画像の画角を記憶しておき、その画角に基づいてユーザ画像のクロップ又はアンクロップを行えばよい。また、画像処理部13は、ユーザ画像に対して、参照用画像のクロップ又はアンクロップを行うこととしてもよい。
参照用画像とユーザ画像との画角合わせ処理については、上述したように縦方向及び横方向それぞれに対してクロップあるいはアンクロップ処理を行ってもよいが、別の方法として、まず画像の縦横比(アスペクト比)を合わせる画像処理を行った後、縦方向及び横方向のどちらか一方について縦横比を維持しつつ画角合わせの処理を行ってもよい。
縦横比が大きい画像の縦横比を小さくする場合は、横方向のサイズを基準として、元画像の上下をアンクロップすることとすればよい。例えば、図6(a)に示すように縦横比が16:9の画像を4:3にする場合には、画像の上下をアンクロップする。縦横比が小さい画像の縦横比を大きく場合は、縦方向のサイズを基準として、元画像の左右をアンクロップすることとすればよい。例えば、図6(b)に示すように縦横比が4:3の画像を16:9にする場合には、画像の左右をアンクロップする。なお、この際、アンクロップを行う方向の画角(アンクロップ領域も含む画角)は、基準方向の画角に基づいて縦横比に応じた割合で算出する。
上記はアンクロップで縦横比を合わせた例であるが、逆にクロップによって縦横比を合わせることもできる。例えば、図6(a)に示す場合、左右を切り取って4:3とする。但し、この場合、画像領域を切り落とすことで後述する画像の比較に用いる領域が狭くなり、位置推定精度の劣化につながる懸念がある。
クロップ又はアンクロップを行った後の参照用画像とユーザ画像との画像サイズを一致させる必要はない。但し、推定部14において、比較する画像同士の画像サイズが一致している必要がある画像の比較を行う場合には、画像処理部13は、画像に対して上述したクロップ又はアンクロップを行った後に、参照用画像とユーザ画像との画像のサイズを、一方の画像全体を拡大又は縮小することで一致させる。
画像処理部13は、拡大又は縮小を行った画像を推定部14に出力する。また、画像処理部13は、拡大又は縮小を行った画像の比較対象となる画像も推定部14に出力する。
推定部14は、画像処理部13によって拡大又は縮小が行われた画像を用いて、参照用画像とユーザ画像との比較を行って、当該参照用画像に対応付けられた位置を示す情報から当該ユーザ画像に係る位置を推定する機能部である。具体的には推定部14は、以下のように推定を行う。推定されるユーザ画像に係る位置は、上述したようにユーザ画像を撮像した位置である。
推定部14は、画像処理部13から、ユーザ画像及び参照用画像を入力する。入力したユーザ画像及び参照用画像の少なくとも一方は、拡大(上述した例ではアンクロップ)又は縮小(上述した例ではクロップ)がなされており、それぞれの画像の画角が合わされている。推定部14は、それらのユーザ画像と参照用画像とを比較して類似度を算出する。推定部14は、類似度を、例えば、0%~100%の値で算出する。推定部14は、ユーザ画像に対して各参照用画像との類似度を算出する。
類似度の算出については、SIFT(Scale Invariant Feature Transform)と呼ばれる手法等を用いて特徴点又は特徴量を抽出して、あるいは輪郭、エッジを抽出して双方の画像の特徴点又は輪郭等のマッチングを行って類似度を算出する方法を用いることができる。あるいは、色調のヒストグラムを比較して類似度を算出することとしてもよい。但し、ヒストグラムを用いる手法は、アンクロップ前の画像とアンクロップ後の画像とでヒストグラムが同一となるため、画角を合わせるための画像処理にアンクロップを用いている場合には用いることができない。あるいは、ニューラルネットワークによる深層学習(Deep Learning)技術を用いて類似度を算出することとしてもよい。
なお、アンクロップにより補完した領域については、特徴量等を抽出する範囲の対象外としたり、あるいは特徴量等が抽出されない色(例えば、上述した白又は黒)で保管を行うこととしたりして、類似度の算出には利用しないようにする。アンクロップによって補完された領域は元画像に写っていない“未知”の領域であるため、類似性が見いだされるべきではなく、もし類似性が見いだされたとしたらそれはノイズというべきものであるためである。但し、アンクロップによって生成された画像全体、即ち、アンクロップによって生成された部分を含む画像のサイズについては、類似度の算出に用いられる。
画角を合わせた参照用画像とユーザ画像との類似度が100%であった場合、即ち画角を合わせた参照用画像とユーザ画像とに100%の一致が見られた場合、推定部14は、当該参照用画像に対応付けられて参照用画像データベース11に記憶された情報によって示される位置、即ち当該参照用画像の位置をユーザ画像に係る位置と推定する。
但し、100%の一致が見られることはまれであり、多くの場合においては複数の参照用画像について0%を超える類似度が算出される。この場合、推定部14は、最も類似度が高い参照用画像の位置を、ユーザ画像に係る位置と推定してもよい。あるいは、推定部14は、0%を超える類似度が算出された複数の参照用画像について、類似度の合計が100%になるように類似度の正規化を行い、正規化後の類似度で参照用画像の位置に重み付けを行った重心位置をユーザ画像に係る位置と推定してもよい。
なお、参照用画像とユーザ画像との比較に基づく位置の推定は、上記の方法に限られず、従来の技術を含む任意の方法で行われてもよい。また、推定部14は、位置の推定と同様の方法でユーザ画像に係る方向(方位)、具体的には、ユーザ画像を撮像した方向を推定してもよい。
推定部14は、推定した位置を示す情報を出力する。例えば、推定部14は、ユーザ画像の送信元であるユーザ端末20に推定した位置を示す情報を送信する。また、推定した位置を示す情報の出力は、上記以外での任意の方法によって行われてもよい。
ユーザがカメラのズーム機能を用いる等して、ユーザ画像が狭い画角となった場合、参照用画像との比較及び類似度の算出の際に十分な量の特徴又は輪郭を得られないことがある。その結果、数多くの参照用画像に対して類似度が算出されてしまい、位置推定の精度が落ちることがある。これを防ぐため、ユーザ画像の撮像時に画角が予め設定した一定値以下であった場合、即ち、受信したユーザ画像の画角が一定値以下であった場合、及び類似度の算出時に予め設定した一定数以上の参照用画像に対して一定値(例えば0%)を超える類似度が算出された場合に位置推定失敗と扱ったり、エラー又は警告を出したりしてもよい。
画像処理部13は、参照用画像及びユーザ画像の少なくとも何れか一方の画像に対して歪み補正を行うこととしてもよい。参照用画像あるいはユーザ画像の撮像において、利用するカメラ及びレンズの性質によって画像に歪み(レンズディストーション、歪曲収差)が発生することがある。画像が広角になるほど類似度算出に利用できる特徴が増加するため位置推定精度が向上するが、一方で画像の歪みによって正確な類似度が算出できない可能性がある。例えば、参照用画像がたる型の歪み、ユーザ画像が糸巻き型の歪みというように歪みの種類が異なったり、あるいは同種の歪みでも歪みの程度が異なったりする場合、類似度の算出時に影響を及ぼす。そのため、画像処理部13が、画角合わせの処理の前あるいは後に既存の歪み補正技術により、参照用画像及びユーザ画像の何れか、又は両方に対して歪み補正を行ってから、推定部14が上記の類似度算出を行ってもよい。この処理により、位置推定の精度を向上させることができる。以上が、本実施形態に係る位置推定システム10の機能である。
引き続いて、図7のフローチャートを用いて、本実施形態に係る位置推定システム10で実行される処理(位置推定システム10が行う動作方法)を説明する。本処理では、まず、取得部12によって、ユーザ画像、及び当該ユーザ画像の画角に係る情報が取得される(S01)。続いて、画像処理部13によって、ユーザ画像の画角に係る情報に基づいて、参照用画像データベース11に記憶された参照用画像、及びユーザ画像の少なくとも何れか一方の画像の拡大又は縮小が行われる(S02)。続いて、拡大又は縮小が行われた画像が用いられて、推定部14によって、参照用画像とユーザ画像との比較が行われて、当該参照用画像に対応付けられた位置を示す情報から当該ユーザ画像に係る位置が推定される(S03)。続いて、推定部14によって、推定された位置を示す情報が出力される(S04)。以上が、本実施形態に係る位置推定システム10で実行される処理である。
上述したように本実施形態では、ユーザ画像の画角が考慮されて画像の拡大又は縮小が行われて、ユーザ画像に係る位置が推定される。従って、本実施形態によれば、画像を用いた位置の推定を高精度に行うことができる。
また、上述したように、参照用画像に当該参照用画像の画角に係る情報を対応付けて参照用画像データベース11に記憶させておき、参照用画像の画角に係る情報にも基づいて画像の拡大又は縮小が行われてもよい。この構成によれば、互いに画角が異なる複数の参照用画像がある場合に、それぞれの参照用画像の画角に応じた画像の拡大又は縮小を行うことができる。従って、互いに画角が異なる複数の参照用画像がある場合であっても、画像を用いた位置の推定を高精度に行うことができる。但し、複数の参照用画像の画角が一律である場合等、複数の参照用画像に対して、ユーザ画像の一律の拡大又は縮小を行い得る場合には、個々の参照用画像に当該参照用画像の画角に係る情報を対応付けて記憶させる構成をとる必要はない。
また、上述したようにユーザ画像の画角を算出するための情報を取得し、その情報から画角を算出することとしてもよい。この構成によれば、直接的な画角を示す情報が取得できない場合でも、画像を用いた位置の推定を高精度に行うことができる。
また、上述したように参照用画像及びユーザ画像の縦横比を合わせる画像処理を行い、画像の拡大又は縮小を行うこととしてもよい。この構成によれば、縦方向及び横方向毎の画像の拡大又は縮小を行う必要がないため、拡大又は縮小を容易に行うことができる。
なお、本実施形態では、位置の推定対象となる推定用画像は、ユーザ端末20によって撮像されて送信されたユーザ画像であったが、推定用画像としては任意の画像を用いることができる。
なお、上記実施形態の説明に用いたブロック図は、機能単位のブロックを示している。これらの機能ブロック(構成部)は、ハードウェア及びソフトウェアの少なくとも一方の任意の組み合わせによって実現される。また、各機能ブロックの実現方法は特に限定されない。すなわち、各機能ブロックは、物理的又は論理的に結合した1つの装置を用いて実現されてもよいし、物理的又は論理的に分離した2つ以上の装置を直接的又は間接的に(例えば、有線、無線などを用いて)接続し、これら複数の装置を用いて実現されてもよい。機能ブロックは、上記1つの装置又は上記複数の装置にソフトウェアを組み合わせて実現されてもよい。
例えば、本開示の一実施の形態における位置推定システム10は、本開示の情報処理を行うコンピュータとして機能してもよい。図8は、本開示の一実施の形態に係る位置推定システム10のハードウェア構成の一例を示す図である。上述の位置推定システム10は、物理的には、プロセッサ1001、メモリ1002、ストレージ1003、通信装置1004、入力装置1005、出力装置1006、バス1007などを含むコンピュータ装置として構成されてもよい。また、ユーザ端末20も同様のハードウェアによって構成されていてもよい。
なお、以下の説明では、「装置」という文言は、回路、デバイス、ユニットなどに読み替えることができる。位置推定システム10のハードウェア構成は、図に示した各装置を1つ又は複数含むように構成されてもよいし、一部の装置を含まずに構成されてもよい。
位置推定システム10における各機能は、プロセッサ1001、メモリ1002などのハードウェア上に所定のソフトウェア(プログラム)を読み込ませることによって、プロセッサ1001が演算を行い、通信装置1004による通信を制御したり、メモリ1002及びストレージ1003におけるデータの読み出し及び書き込みの少なくとも一方を制御したりすることによって実現される。
プロセッサ1001は、例えば、オペレーティングシステムを動作させてコンピュータ全体を制御する。プロセッサ1001は、周辺装置とのインターフェース、制御装置、演算装置、レジスタなどを含む中央処理装置(CPU:Central Processing Unit)によって構成されてもよい。例えば、上述の位置推定システム10における各機能は、プロセッサ1001によって実現されてもよい。
また、プロセッサ1001は、プログラム(プログラムコード)、ソフトウェアモジュール、データなどを、ストレージ1003及び通信装置1004の少なくとも一方からメモリ1002に読み出し、これらに従って各種の処理を実行する。プログラムとしては、上述の実施の形態において説明した動作の少なくとも一部をコンピュータに実行させるプログラムが用いられる。例えば、位置推定システム10における各機能は、メモリ1002に格納され、プロセッサ1001において動作する制御プログラムによって実現されてもよい。上述の各種処理は、1つのプロセッサ1001によって実行される旨を説明してきたが、2以上のプロセッサ1001により同時又は逐次に実行されてもよい。プロセッサ1001は、1以上のチップによって実装されてもよい。なお、プログラムは、電気通信回線を介してネットワークから送信されても良い。
メモリ1002は、コンピュータ読み取り可能な記録媒体であり、例えば、ROM(Read Only Memory)、EPROM(Erasable Programmable ROM)、EEPROM(Electrically Erasable Programmable ROM)、RAM(Random Access Memory)などの少なくとも1つによって構成されてもよい。メモリ1002は、レジスタ、キャッシュ、メインメモリ(主記憶装置)などと呼ばれてもよい。メモリ1002は、本開示の一実施の形態に係る情報処理を実施するために実行可能なプログラム(プログラムコード)、ソフトウェアモジュールなどを保存することができる。
ストレージ1003は、コンピュータ読み取り可能な記録媒体であり、例えば、CD-ROM(Compact Disc ROM)などの光ディスク、ハードディスクドライブ、フレキシブルディスク、光磁気ディスク(例えば、コンパクトディスク、デジタル多用途ディスク、Blu-ray(登録商標)ディスク)、スマートカード、フラッシュメモリ(例えば、カード、スティック、キードライブ)、フロッピー(登録商標)ディスク、磁気ストリップなどの少なくとも1つによって構成されてもよい。ストレージ1003は、補助記憶装置と呼ばれてもよい。位置推定システム10が備える記憶媒体は、例えば、メモリ1002及びストレージ1003の少なくとも一方を含むデータベース、サーバその他の適切な媒体であってもよい。
通信装置1004は、有線ネットワーク及び無線ネットワークの少なくとも一方を介してコンピュータ間の通信を行うためのハードウェア(送受信デバイス)であり、例えばネットワークデバイス、ネットワークコントローラ、ネットワークカード、通信モジュールなどともいう。
入力装置1005は、外部からの入力を受け付ける入力デバイス(例えば、キーボード、マウス、マイクロフォン、スイッチ、ボタン、センサなど)である。出力装置1006は、外部への出力を実施する出力デバイス(例えば、ディスプレイ、スピーカー、LEDランプなど)である。なお、入力装置1005及び出力装置1006は、一体となった構成(例えば、タッチパネル)であってもよい。
また、プロセッサ1001、メモリ1002などの各装置は、情報を通信するためのバス1007によって接続される。バス1007は、単一のバスを用いて構成されてもよいし、装置間ごとに異なるバスを用いて構成されてもよい。
また、位置推定システム10は、マイクロプロセッサ、デジタル信号プロセッサ(DSP:Digital Signal Processor)、ASIC(Application Specific Integrated Circuit)、PLD(Programmable Logic Device)、FPGA(Field Programmable Gate Array)などのハードウェアを含んで構成されてもよく、当該ハードウェアにより、各機能ブロックの一部又は全てが実現されてもよい。例えば、プロセッサ1001は、これらのハードウェアの少なくとも1つを用いて実装されてもよい。
本開示において説明した各態様/実施形態の処理手順、シーケンス、フローチャートなどは、矛盾の無い限り、順序を入れ替えてもよい。例えば、本開示において説明した方法については、例示的な順序を用いて様々なステップの要素を提示しており、提示した特定の順序に限定されない。
入出力された情報等は特定の場所(例えば、メモリ)に保存されてもよいし、管理テーブルを用いて管理してもよい。入出力される情報等は、上書き、更新、又は追記され得る。出力された情報等は削除されてもよい。入力された情報等は他の装置へ送信されてもよい。
判定は、1ビットで表される値(0か1か)によって行われてもよいし、真偽値(Boolean:true又はfalse)によって行われてもよいし、数値の比較(例えば、所定の値との比較)によって行われてもよい。
本開示において説明した各態様/実施形態は単独で用いてもよいし、組み合わせて用いてもよいし、実行に伴って切り替えて用いてもよい。また、所定の情報の通知(例えば、「Xであること」の通知)は、明示的に行うものに限られず、暗黙的(例えば、当該所定の情報の通知を行わない)ことによって行われてもよい。
以上、本開示について詳細に説明したが、当業者にとっては、本開示が本開示中に説明した実施形態に限定されるものではないということは明らかである。本開示は、請求の範囲の記載により定まる本開示の趣旨及び範囲を逸脱することなく修正及び変更態様として実施することができる。したがって、本開示の記載は、例示説明を目的とするものであり、本開示に対して何ら制限的な意味を有するものではない。
ソフトウェアは、ソフトウェア、ファームウェア、ミドルウェア、マイクロコード、ハードウェア記述言語と呼ばれるか、他の名称で呼ばれるかを問わず、命令、命令セット、コード、コードセグメント、プログラムコード、プログラム、サブプログラム、ソフトウェアモジュール、アプリケーション、ソフトウェアアプリケーション、ソフトウェアパッケージ、ルーチン、サブルーチン、オブジェクト、実行可能ファイル、実行スレッド、手順、機能などを意味するよう広く解釈されるべきである。
また、ソフトウェア、命令、情報などは、伝送媒体を介して送受信されてもよい。例えば、ソフトウェアが、有線技術(同軸ケーブル、光ファイバケーブル、ツイストペア、デジタル加入者回線(DSL:Digital Subscriber Line)など)及び無線技術(赤外線、マイクロ波など)の少なくとも一方を使用してウェブサイト、サーバ、又は他のリモートソースから送信される場合、これらの有線技術及び無線技術の少なくとも一方は、伝送媒体の定義内に含まれる。
また、本開示において説明した情報、パラメータなどは、絶対値を用いて表されてもよいし、所定の値からの相対値を用いて表されてもよいし、対応する別の情報を用いて表されてもよい。
サーバ(位置推定システム10)及びクライアント(ユーザ端末20)の少なくとも一方は、送信装置、受信装置、通信装置などと呼ばれてもよい。なお、サーバ及びクライアントの少なくとも一方は、移動体に搭載されたデバイス、移動体自体などであってもよい。当該移動体は、乗り物(例えば、車、飛行機など)であってもよいし、無人で動く移動体(例えば、ドローン、自動運転車など)であってもよいし、ロボット(有人型又は無人型)であってもよい。なお、サーバ及びクライアントの少なくとも一方は、必ずしも通信動作時に移動しない装置も含む。例えば、ユーザ端末20は、センサなどのIoT(Internet of Things)機器であってもよい。
また、本開示におけるサーバは、クライアント端末で読み替えてもよい。例えば、サーバ及びクライアント端末間の通信を、複数のユーザ端末間の通信(例えば、D2D(Device-to-Device)、V2X(Vehicle-to-Everything)などと呼ばれてもよい)に置き換えた構成について、本開示の各態様/実施形態を適用してもよい。この場合、上述のサーバが有する機能をクライアント端末が有する構成としてもよい。
同様に、本開示におけるクライアント端末は、サーバで読み替えてもよい。この場合、上述のクライアント端末が有する機能をサーバが有する構成としてもよい。
本開示において使用する「に基づいて」という記載は、別段に明記されていない限り、「のみに基づいて」を意味しない。言い換えれば、「に基づいて」という記載は、「のみに基づいて」と「に少なくとも基づいて」の両方を意味する。
本開示において、「含む(include)」、「含んでいる(including)」及びそれらの変形が使用されている場合、これらの用語は、用語「備える(comprising)」と同様に、包括的であることが意図される。さらに、本開示において使用されている用語「又は(or)」は、排他的論理和ではないことが意図される。
本開示において、例えば、英語でのa, an及びtheのように、翻訳により冠詞が追加された場合、本開示は、これらの冠詞の後に続く名詞が複数形であることを含んでもよい。
本開示において、「AとBが異なる」という用語は、「AとBが互いに異なる」ことを意味してもよい。なお、当該用語は、「AとBがそれぞれCと異なる」ことを意味してもよい。「離れる」、「結合される」などの用語も、「異なる」と同様に解釈されてもよい。
10…位置推定システム、11…参照用画像データベース、12…取得部、13…画像処理部、14…推定部、20…ユーザ端末、21…画像センサ、1001…プロセッサ、1002…メモリ、1003…ストレージ、1004…通信装置、1005…入力装置、1006…出力装置、1007…バス。

Claims (2)

  1. 参照用画像と位置を示す情報とを対応付けて記憶した参照用画像データベースと、
    位置推定の対象となる推定用画像、及び当該推定用画像の画角に係る情報を取得する取得部と、
    前記取得部によって取得された前記推定用画像の画角に係る情報に基づいて、前記参照用画像及び前記推定用画像の少なくとも何れか一方の画像の拡大又は縮小を行う画像処理部と、
    前記画像処理部によって拡大又は縮小が行われた画像を用いて、前記参照用画像と前記推定用画像との比較を行って、当該参照用画像に対応付けられた位置を示す情報から当該推定用画像に係る位置を推定する推定部と、
    を備える位置推定システム。
  2. 前記参照用画像データベースは、前記参照用画像に対応付けて当該参照用画像の画角に係る情報を記憶し、
    前記画像処理部は、前記参照用画像の画角に係る情報にも基づいて、画像の拡大又は縮小を行う、請求項1に記載の位置推定システム。
JP2020562370A 2018-12-28 2019-10-01 位置推定システム Active JP7153089B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2018246883 2018-12-28
JP2018246883 2018-12-28
PCT/JP2019/038819 WO2020137068A1 (ja) 2018-12-28 2019-10-01 位置推定システム

Publications (2)

Publication Number Publication Date
JPWO2020137068A1 JPWO2020137068A1 (ja) 2021-10-21
JP7153089B2 true JP7153089B2 (ja) 2022-10-13

Family

ID=71126309

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020562370A Active JP7153089B2 (ja) 2018-12-28 2019-10-01 位置推定システム

Country Status (2)

Country Link
JP (1) JP7153089B2 (ja)
WO (1) WO2020137068A1 (ja)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123197A (ja) 2001-10-16 2003-04-25 Alpine Electronics Inc 道路標示等認識装置
JP2011171932A (ja) 2010-02-17 2011-09-01 Canon Inc 画像表示装置、画像表示方法及びプログラム
US20160171308A1 (en) 2014-12-15 2016-06-16 Kabushiki Kaisha Toshiba Electronic device and image processing method
WO2016208404A1 (ja) 2015-06-23 2016-12-29 ソニー株式会社 情報処理装置および方法、並びにプログラム
US20170006450A1 (en) 2010-09-30 2017-01-05 Thinkware Corporation Mobile communication terminal, and system and method for safety service using same

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003123197A (ja) 2001-10-16 2003-04-25 Alpine Electronics Inc 道路標示等認識装置
JP2011171932A (ja) 2010-02-17 2011-09-01 Canon Inc 画像表示装置、画像表示方法及びプログラム
US20170006450A1 (en) 2010-09-30 2017-01-05 Thinkware Corporation Mobile communication terminal, and system and method for safety service using same
US20160171308A1 (en) 2014-12-15 2016-06-16 Kabushiki Kaisha Toshiba Electronic device and image processing method
WO2016208404A1 (ja) 2015-06-23 2016-12-29 ソニー株式会社 情報処理装置および方法、並びにプログラム

Also Published As

Publication number Publication date
JPWO2020137068A1 (ja) 2021-10-21
WO2020137068A1 (ja) 2020-07-02

Similar Documents

Publication Publication Date Title
CN107851318B (zh) 用于对象跟踪的***和方法
CN109035304B (zh) 目标跟踪方法、介质、计算设备和装置
JP7085646B2 (ja) 位置推定システム
US10218899B2 (en) Control method in image capture system, control apparatus and a non-transitory computer-readable storage medium
US8908911B2 (en) Redundant detection filtering
US10438086B2 (en) Image information recognition processing method and device, and computer storage medium
JP2018508078A (ja) オブジェクト追跡のためのシステムおよび方法
TW201918772A (zh) 將相機與陀螺儀融合在一起的五維視頻穩定化裝置及方法
KR102559859B1 (ko) 적응적 전경 마스크 업샘플링에 기초한 컬러 이미지 프레임들의 시퀀스에서의 객체 분할
US20240029297A1 (en) Visual positioning method, storage medium and electronic device
CN111126108A (zh) 图像检测模型的训练和图像检测方法及装置
CN113168694A (zh) 人检测装置以及人检测方法
CN114298902A (zh) 一种图像对齐方法、装置、电子设备和存储介质
CN114608521B (zh) 单目测距方法及装置、电子设备和存储介质
CN111062927A (zh) 一种无人机图像质量检测的方法、***及设备
CN113158773B (zh) 一种活体检测模型的训练方法及训练装置
CN110673607A (zh) 动态场景下的特征点提取方法、装置、及终端设备
JP7153089B2 (ja) 位置推定システム
CN109829393B (zh) 一种移动物体探测方法、装置及存储介质
CN113936042B (zh) 一种目标跟踪方法、装置和计算机可读存储介质
CN116266356A (zh) 全景视频转场渲染方法、装置和计算机设备
CN114916239A (zh) 估计图像的深度和图像之间的相对摄像头位姿
KR20180089589A (ko) 가상 특징점을 이용한 이미지 정합 방법 및 그 시스템
CN112601029A (zh) 一种已知背景先验信息的视频分割方法、终端和存储介质
JP2016212500A (ja) 撮影方向変動検出装置および撮影方向変動検出方法

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20210224

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220419

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220513

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220927

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220930

R150 Certificate of patent or registration of utility model

Ref document number: 7153089

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150