JP7243867B2 - 撮影範囲推定装置、撮影範囲推定方法およびプログラム - Google Patents

撮影範囲推定装置、撮影範囲推定方法およびプログラム Download PDF

Info

Publication number
JP7243867B2
JP7243867B2 JP2021571104A JP2021571104A JP7243867B2 JP 7243867 B2 JP7243867 B2 JP 7243867B2 JP 2021571104 A JP2021571104 A JP 2021571104A JP 2021571104 A JP2021571104 A JP 2021571104A JP 7243867 B2 JP7243867 B2 JP 7243867B2
Authority
JP
Japan
Prior art keywords
image data
object name
label
range estimation
shooting range
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021571104A
Other languages
English (en)
Other versions
JPWO2021144874A1 (ja
Inventor
卓万 磯田
博史 野口
操 片岡
恭太 服部
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nippon Telegraph and Telephone Corp
Original Assignee
Nippon Telegraph and Telephone Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nippon Telegraph and Telephone Corp filed Critical Nippon Telegraph and Telephone Corp
Publication of JPWO2021144874A1 publication Critical patent/JPWO2021144874A1/ja
Application granted granted Critical
Publication of JP7243867B2 publication Critical patent/JP7243867B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • G01C11/06Interpretation of pictures by comparison of two or more pictures of the same area
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C11/00Photogrammetry or videogrammetry, e.g. stereogrammetry; Photographic surveying
    • G01C11/04Interpretation of pictures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N17/00Diagnosis, testing or measuring for television systems or their details
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Theoretical Computer Science (AREA)
  • General Health & Medical Sciences (AREA)
  • Biomedical Technology (AREA)
  • Health & Medical Sciences (AREA)
  • Image Analysis (AREA)
  • Traffic Control Systems (AREA)

Description

本発明は、カメラデバイスの撮影範囲を推定する、撮影範囲推定装置、撮影範囲推定方法およびプログラムに関する。
近年、データのオープン化が進んできている。例えば、自治体では、人口動態などのデータをオープンにして、他の自治体や事業者から利用可能とする取り組みが進められている。また、企業内のデータ共有の事例として、万引き取り締まりを目的とした複数店舗のデータ共有が行われている。各店舗の万引き犯データを店舗内に限定して保存するのではなく、クラウドサーバに集約し、店舗間で共有することで、店舗を跨った万引き犯の取り締まりを行っている。このように、各業種・分野ごとにデータ集約や汎用分析アプリケーションを備えたIoT(Internet of Things)プラットフォームが既に構築されている。現在、事業者を跨ったデータ共有が行われるIoTプラットフォームが複数設立されており、業種・分野を超えたデータ共有化が進んでいくと予想される。
しかし、個人ユーザについて、データのオープン化・共有化は事業者と比較して進んでいない。現在はIoTデバイス所有者が自らの目的のために設置し、データの共有も個人に限られる場合が多く、他者が利用する場合には手間がかかっている。例えば、ある市内に不審者が現れた場合、その顔や服装、位置が分からないときには、通報者の目撃情報をもとに警察が近隣の店舗及び個人宅の監視カメラ情報の開示を要求し、画像を取得することで、不審者の外観情報を取得している。
個人ユーザも含めて、データのオープン化・共有化を進めていくためには、参入障壁の低いIoTプラットフォームが必要となる。具体的には、デバイス所有者の立場では、IoTプラットフォームへの登録稼働の削減、デバイス登録による利益、個人情報保護の保証を実現する必要がある。これは、デバイス所有者の費用対効果をプラスにしなければデバイスの登録という手間のかかる作業を行う可能性が低いと考えられるためである。一方、データ利用者およびサービス事業者の立場では、目的とするデバイスの探索稼働の削減を実現する必要がある。これは、膨大な登録デバイスから目的のデータもしくはデバイスを人力で探索することは困難と考えられるためである。
このIoTデバイスの中でも、特に防犯等を目的としたカメラの台数が急速に増えてきており、日本では500万台、世界では数億台となっている。また、近年の画像解析技術の発達やカメラデバイスのコスト低下に伴い、画像を通じて多量の情報を得ることのできるカメラの重要性が増している。
このカメラデバイスの画像情報を用いて、該当カメラデバイスの撮影向きおよび位置を推定する技術がある(非特許文献1,2参照)。非特許文献1,2に記載の技術は、GPSの精度が低くなるビル群の環境において、スマートフォンなどのモバイル端末のデバイス位置および向きを把握することを目的とした技術である。
非特許文献1に記載の技術は、カメラで撮影された映像をもとに、カメラ位置を推定するものである。非特許文献1では、地上撮影画像、例えば、ストリートビュー画像から物体検出もしくは物体輪郭を特徴として検出し、検出された特徴が位置情報とともにデータベース上に登録されている場合には、登録されている情報を参照してデバイスの位置を推定する。非特許文献1の技術では、検出および登録されている特徴が多いほど、位置推定の精度は向上する。
非特許文献2に記載の技術は、衛星画像や鳥観画像に映る建物の矩形を抽出および記録し、地上撮影画像から抽出した建物の矩形と照合し、地上撮影を行ったカメラデバイスの設置位置および向きを推定するものである。
Nathan Piasco, et. al.,"A survey on Visual-Based Localization: On the benefit of heterogeneous data", Pattern Recognition, Volume 74, February 2018, Pages 90-109 Tat-Jen Cham, et.al.,"Estimating Camera Pose from a Single Urban Ground-View Omnidirectional Image and a 2D Building Outline Map,"IEEE Computer Society Conference on Computer Vision and Pattern Recognition, December 2010
しかしながら、非特許文献1に記載の技術では、詳細に特徴を検出するために、利用地域の高精度な地上撮影画像情報を事前に撮影しておく必要がある。そのため、利用地域の拡大にはコストを要し、あらゆる地域を網羅することは困難である。例えば、現在のストリートビュー画像提供サービスでは、人口密度が疎らである地域や、道幅の狭い路地の地上撮影画像は利用できない。
また、非特許文献2に記載の技術では、衛星画像の場合、あらゆる地域を網羅的に撮影可能である。しかし、この技術ではカメラが撮影する画像に建物の存在が不可欠であるため、建物のない範囲では利用できない。また、屋内の撮影範囲を推定することはできない。
このような点に鑑みて本発明がなされたのであり、本発明は、カメラデバイスの撮影範囲を、事前に収集した地上撮影画像情報や建物の存在に依存することなくカメラ画像から推定することを課題とする。
本発明に係る撮影範囲推定装置は、カメラデバイスの撮影範囲を推定する撮影範囲推定装置であって、前記カメラデバイスが撮影した画像データを取得し、当該画像データに映る各物体が占める領域を物体名ラベルを付して識別する画像解析を行わせ、前記物体名ラベルが付された画像データを生成する画像データ処理部と、前記カメラデバイスが設置されている推定位置から撮影可能な所定距離内の領域を地理情報を用いて設定し、設定した領域内の物体に物体名ラベルを付した参照データを生成する参照データ生成部と、前記画像データの各物体名ラベルの領域で示される特徴量と、前記参照データの各物体名ラベルの領域で示される特徴量とを比較して一致率を算出し、前記画像データに対応する前記参照データの領域を前記カメラデバイスの撮影範囲として推定する撮影範囲推定部と、を備えることを特徴とする。
本発明によれば、カメラデバイスの撮影範囲を、事前に収集した地上撮影画像情報や建物の存在に依存することなくカメラ画像から推定することができる。
本実施形態に係る撮影範囲推定装置の構成を示すブロック図である。 画像データに特徴量抽出線を設定した例を示す図である。 画像データの各特徴量抽出線におけるラベル名とラベル比率を示す表である。 参照データに候補特徴量抽出線を設定した例を示す図である。 参照データの候補特徴量抽出線に線分を設定した例を示す図である。 参照データに設定した線分のラベル名とラベル比率を示す表である。 物体名ラベルが一致しない候補線分と一致する候補線分の例を示す図である。 カメラ画角の地面への投影面を、カメラ位置が頂点となった二等辺三角形のうちの底辺側の台形部分であると想定した図である。 参照データ上で、候補領域が選択された例を示す図である。 本実施形態に係る撮影範囲推定装置が実行する全体の処理の流れを示すフローチャートである。 本実施形態に係る撮影範囲推定装置が実行する抽出線一致率算出処理の流れを示すフローチャートである。 本実施形態に係る撮影範囲推定装置が実行する候補領域選択処理の流れを示すフローチャートである。 本実施形態に係る撮影範囲推定装置が実行する撮影領域算出処理の流れを示すフローチャートである。 画像データに特徴量抽出線を設定した例を示す図である。 画像データの各特徴量抽出線におけるラベル名とラベル比率を示す表である。 候補領域のラベル名とラベル比率を示す表である。 候補領域のラベル名とラベル比率を示す表である。 カメラデバイスが地面に垂直(真下)の方向に向かっている場合において、画像データに特徴量抽出線を設定した例を示す図である。 本実施形態に係る撮影範囲推定装置の機能を実現するコンピュータの一例を示すハードウェア構成図である。
次に、本発明を実施するための形態(以下、「本実施形態」と称する。)について説明する。
図1は、本実施形態に係る撮影範囲推定装置1の構成を示すブロック図である。
本実施形態に係る撮影範囲推定装置1は、カメラデバイス21が撮影した画像データと、カメラデバイス21周辺の地図情報や衛星画像等の地理情報に基づき、カメラデバイス21の撮影範囲および位置を推定する。
この撮影範囲推定装置1は、IoTプラットフォーム20、画像解析装置30、参照データベース40等に接続される。
IoTプラットフォーム20は、IoTデバイスとしての監視カメラ等のカメラデバイス21から画像データを取得し記憶している。このカメラデバイス21からの画像データには、そのカメラデバイス21の識別情報とともに、そのカメラデバイス21の位置を特定(推定)する情報が付されている。例えば、そのカメラデバイス21の位置情報(経度・緯度情報そのものや、住所の情報)、IPアドレスやWi-Fi(登録商標)等の無線基地局などのデバイスの位置を推定できる情報である。
画像解析装置30は、一般的な画像解析の機能を備える。この画像解析装置30は、画像データに対し画像解析を行うことにより、画素単位で物体認識を行い、画像データ中の領域ごとに物体名ラベルを付与する。カメラデバイス21の設置場所は、例えば、街中監視、自然監視、車載等により異なるため、画像解析装置30は、設置場所に適した学習モデルを用いたAI(人工知能)等を用いて解析する。
参照データベース40には、地図情報41、衛星画像42のいずれかまたは両方が格納される。地図情報41については、予め建物や、歩道、道路、植物(街路樹)等の位置関係と、物体の種類、即ち物体名ラベルとが既知であるとする。
なお、衛星画像42については、画像解析装置30にその衛星画像を解析させることにより、物体の位置に物体名ラベルを付与することができる。
また、地図情報41と衛星画像42は、2種類の情報が1つのデータベース(参照データベース40)に記憶されている必要はなく、別々のデータベースに格納されていてもよい。
撮影範囲推定装置1は、カメラデバイス21の画像データ(撮影画像)を画像解析して得られる物体認識に基づく特徴量と、地図情報や衛星画像から生成した参照データにより得られる特徴量とを比較し、より特徴量が一致する領域を、撮影範囲として算出する。
図1を参照して、撮影範囲推定装置1の機能について具体的に説明する。
撮影範囲推定装置1は、制御部10、入出力部11、記憶部12を備えるコンピュータにより実現される。
入出力部11は、IoTプラットフォーム20、画像解析装置30、参照データベース40等との間で情報の送受信を行う通信インタフェース、および、タッチパネルやキーボード等の入力装置や、モニタ等の出力装置との間で情報の送受信を行うための入出力インタフェースからなる。
記憶部12は、フラッシュメモリやハードディスク、RAM(Random Access Memory)等により構成される。この撮影範囲推定装置1の記憶部12には、処理の過程で必要となる情報等が記憶されるとともに、制御部10の機能を実現するためのプログラムが格納される。
また、制御部10は、図1に示すように、画像データ処理部110と、参照データ生成部120と、撮影範囲推定部130とを含んで構成される。
画像データ処理部110は、カメラデバイス21が撮影した画像データを取得し、当該画像データに映る各物体が占める領域を物体名ラベルを付して識別する画像解析を行わせ、物体名ラベルが付された画像データを生成する。
より詳細に説明すると、画像データ処理部110は、IoTプラットフォーム20から撮影範囲を推定する処理の対象となる画像データを取得する。その際、画像データ処理部110は、当該画像データが撮影されたカメラデバイスの位置に関する情報も併せて取得する。
画像データ処理部110は、カメラデバイスの位置に関する情報が、カメラデバイス21の設置位置の情報そのもの(緯度・経度、住所等)でない場合には、IPアドレスや無線基地局等の情報に基づき、おおよその地域を特定する情報(地域特定情報)を外部装置(図示省略)等から収集する。
また、画像データ処理部110は、取得した画像データを、ネットワーク等を介して画像解析装置30に送信する。これにより、画像データ処理部110は、画像解析装置30から、画像データを画像解析し画素単位で物体認識した結果として、画像データ中の領域ごとに物体名ラベル(例えば、建物、歩道、道路、植物等)を付与した情報(後記する図2等参照)を取得する。
参照データ生成部120は、カメラデバイス21が設置されている推定位置(カメラ位置)から撮影可能な所定距離内の領域を地理情報を用いて設定し、設定した領域内の物体に物体名ラベルを付した参照データを生成する。
ここで参照データとは、カメラデバイス21が撮影した画像データに対して、撮影領域を算出する際に用いる地理情報であり、例えば、地図情報や衛星画像である。参照データ生成部120は、ネットワーク等を介して、参照データベース40にアクセスすることにより、地図情報41や衛星画像42を取得する。
カメラデバイス21の位置情報が既知の場合に、参照データ生成部120は、そのカメラ位置を中心として最大撮影距離(所定距離)を半径とした円内の地図情報もしくは衛星画像を参照データベース40から取得する。ここでは、一例として、一般的な監視カメラで想定される最大撮影距離を数十メートルとし、以下に示す図等において説明する。なお、カメラデバイス21の位置情報が既知でない場合には、参照データ生成部120が、画像データ処理部110が収集した地域特定情報に基づき、カメラデバイス21の推定位置を決定して地図情報もしくは衛星画像を参照データベース40から取得する。
参照データ生成部120が参照データとして地図情報を用いる場合には、その地図情報に基づき、特定した範囲内の物体名ラベルは既知とする。また、参照データとして衛星画像を用いる場合には、参照データ生成部120は、その衛星画像を画像解析装置30に送信する。これにより、参照データ生成部120は、画像解析装置30から、衛星画像を画像解析し画素単位で物体認識した結果として、衛星画像中の領域ごとに物体名ラベル(例えば、建物、歩道、道路、植物等)を付与した情報(後記する図4等参照)を取得する。
撮影範囲推定部130は、画像データの各物体名ラベルの領域で示される特徴量と、参照データの各物体名ラベルの領域で示される特徴量とを比較して一致率を算出し、画像データに対応する参照データの領域をカメラデバイス21の撮影範囲として推定する。
この撮影範囲推定部130は、「抽出線一致率算出機能」、「候補領域選択機能」、「撮影領域算出機能」を用いて、参照データにおいて候補領域を絞り込んでいくことにより、撮影範囲を推定する(詳細は後記)。
撮影範囲推定部130は、上記した各機能に対応した、抽出線算出部131、候補領域選択部132および撮影領域算出部133を含んで構成される。
≪抽出線一致率算出機能≫
抽出線算出部131は、画像データ処理部110から物体名ラベル付きの画像データを取得し、参照データ生成部120から物体名ラベル付きの参照データを取得する。そして、抽出線算出部131は、例えば、画像データの少なくとも左端および右端に設定した特徴量抽出線に対応する線(線分)を、参照データに設けた特徴量抽出線(後記する「候補特徴量抽出線」)から算出する。以下、具体的に説明する。
まず、抽出線算出部131は、カメラデバイス21が監視カメラのように斜め下を撮影している場合、画像の下側がカメラ近傍、上部がカメラ遠方となるため、画像データ(撮影画像)の下部から上部に向かって線を引いて線上にある物体名を抽出し、画像データの特徴量抽出線とする。ここで、抽出線算出部131は、図2に示すように、例えば、画像データの左端(抽出線番号「1」)、中央(抽出線番号「2」)、右端(抽出線番号「3」)の3本の特徴量抽出線を設定する。なお、少なくとも、左端と右端は必須であり、特徴量抽出線をより多く設定することにより、精度を向上させることができる。
このとき、抽出線算出部131は、画像データの各特徴量抽出線における物体名ラベル(ラベル名)のラベル比率を算出する。抽出線算出部131は、分母を画像データの縦方向の画素数とし、分子を該当する物体名ラベルの画素数とすることで、各物体名ラベルの当該特徴量抽出線におけるラベル比率を、例えば図3に示すように算出する。
図3に示す抽出線番号「1」の左端の特徴量抽出線は、画像データ(撮影画像)の下から、道(Road)、歩道(Sidewalk)、建物(Building)の順に、物体名ラベルの比率(ラベル比率)が(0.2, 0.2, 0.6)となっている。
抽出線算出部131は、参照データ生成部120が生成した参照データにおいて、カメラデバイス21の位置(推定位置)を中心として当該カメラデバイス21の最大撮影距離(所定距離)を半径とした円内の動径方向に線を引き、線上にある物体名を抽出し、参照データの特徴量抽出線とする(図4参照)。なお、この参照データの特徴量抽出線を「候補特徴量抽出線」と以下において称する。抽出線算出部131が設定する候補特徴量抽出線の数は、任意に設定可能であり、例えば、一度ずつ角度を変化させる場合に抽出される候補特徴量抽出線の数は、360本となる。
抽出線算出部131は、さらに、1本の候補特徴量抽出線に対して、始点と終点を任意に設定した線分を設ける。
例えば、図4の候補特徴量抽出線「α」について、図5で示すように、始点と終点が異なる線分(線分番号「1」,「2」,「3」)を設ける。なお、図5においては、候補特徴量抽出線「α」に重なる線分を見分けがつくように、候補特徴量抽出線「α」からずらして記載している。
このとき、抽出線算出部131は、参照データの各候補特徴量抽出線の線分における物体名ラベルのラベル比率を算出する。抽出線算出部131は、参照データにおける物体名ラベルのラベル比率を、当該物体の地理的な距離から算出する。つまり、抽出線算出部131は、物体名ラベルが続く全体の線の長さを分母とし、分子を該当の物体名の平面距離とすることで、各物体名ラベルの当該候補特徴量抽出線におけるラベル比率を、例えば、図6に示すように算出する。
図6に示す、線分番号「1」の候補特徴量抽出線は、参照データのカメラに近い方から、歩道(Sidewalk)、道(Road)の比率が(0.1, 0.9)であり、建物は含まれない。また、線分番号「2」の候補特徴量抽出線は、道(Road)、歩道(Sidewalk)、建物(Building)の順に、物体名ラベルの比率が(0.5, 0.2, 0.3)となっている。また、線分番号「3」の候補特徴量抽出線は、道(Road)、歩道(Sidewalk)、建物(Building)の順に、物体名ラベルの比率が(0.2, 0.2, 0.6)となっている。
抽出線算出部131は、画像データの特徴量抽出線において算出した物体名ラベルのラベル比率と、参照データの候補特徴量抽出線の線分において算出した物体名ラベルのラベル比率との一致率を算出し、算出した一致率が高い参照データの候補特徴量抽出線の線分を抽出する。
具体的には、抽出線算出部131は、物体名ラベル数が一致する候補特徴量抽出線の線分を選出し、その選出した候補特徴量抽出線の線分(以下、「候補線分」と称する場合がある。)と、画像データの特徴量抽出線との一致率を、以下の式(1)により算出する。なお、ここで、例えば、物体名ラベル「道」のラベル番号を「1」、物体名ラベル「歩道」のラベル番号を「2」、物体名ラベル「建物」のラベル番号を「3」とする。
そして、物体名ラベルが一致しない候補線分については、予め一致率の算出対象から除いた上で計算を行う。例えば、画像データの抽出線番号「1」は、物体名ラベルの「道」「歩道」「建物」を含んでいる。これに対し、図7の「×」印で示す、候補線分「γ」は、物体名ラベルに「建物」を含まないため、予め算出対象から除かれる。一方、図7の「〇」印で示す、候補線分「α」「β」は、物体名ラベルに「道」「歩道」「建物」が含まれるため、線分の一致率の算出対象となる。
線分の一致率L=summation{画像データのラベル番号の和と候補線分のラベル番号の和との一致判定[0,1] ×(1-|候補線分ラベル比率-画像データラベル比率|)} ・・・式(1)
ここで、画像データのラベル番号の和と候補線分のラベル番号の和が一致しなければ[0]、一致すれば[1]とする。なお、具体的な算出例は後記する。
また、抽出線算出部131は、候補線分における始点と終点の位置をパラメータとして調整しながら、式(1)による線分の一致率Lの計算を繰り返し行う。そして、抽出線算出部131は、パラメータの調整による一致率Lの算出が所定回数(下限)以上であり、かつ、一致率Lのスコアの増加が所定の閾値以下となったときに処理を終了する。
これにより、例えば、図2で示した画像データに設定した特徴量抽出線(左端、中央、右端の特徴量抽出線)それぞれに対応する、有力な候補としての線分を参照データの中から算出することができる。
≪候補領域選択機能≫
図1に戻り、候補領域選択部132は、上記のように、画像データの少なくとも左端および右端の特徴量抽出線に対応する線分であると抽出線算出部131が算出した線分に基づき、おおまかな候補領域を選択する処理を実行する。以下、具体的に説明する。
候補領域選択部132は、抽出線算出部131が算出した、左端と右端の情報およびその他の設定された線分の情報を用いて、1つ以上の候補領域を設定する。候補領域選択部132は、候補領域をおおまかに絞り組むため、後記する図8に示すカメラ位置から左端・右端の各終点までの距離が近い(等しい)ものを優先する。図8は、カメラ画角の地面への投影面を、カメラ位置が頂点となった二等辺三角形のうちの底辺側の台形部分であると想定した図である。
候補領域選択部132は、左端と右端の終点までの距離が等しい領域を優先するとともに、左端・右端以外の抽出線においては、図8の三角形の頂点から各抽出線分の始点までの距離と、三角形の頂点から各抽出線分の終点(二等辺三角形の底辺側)までの距離との比率の標準偏差を用いて、以下の式(2)で示す、領域の有効性Yの値が小さいものを、候補領域として選択する。ここで、図8で示すx1は、カメラ位置(二等辺三角形の頂点)から右端の終点までの距離、x2は、カメラ位置から左端の終点までの距離である。また、カメラ位置からy1で示される右端の始点、x1で示される右端の終点、カメラ位置からy2で示される左端の始点、x2で示される左端の終点の4点で示される四角形(台形)が参照データの候補領域を示す。
領域の有効性Y = |x1-x2|×(三角形の頂点から各抽出線分の始点までの距離と三角形の頂点から各抽出線分の終点までの距離との比率の標準偏差) ・・・式(2)
ただし、右端x1と左端x2とで決定されるカメラの視野角θ(図8参照)は、指定した角度以内で設定される。普及している広角カメラの視野角が150度程度あるため、例えば、視野角θの上限を180度に設定する。
これにより、候補領域選択部132は、例えば図9に示すように、候補領域[A]、候補領域[B]のような複数の候補領域を選択する。なお、式(2)において、右端x1と左端x2の距離が等しい場合は、有効性評価値が0となり、候補領域[A],[B]はその場合、二等辺三角形の下部にある台形として設定される。
≪撮影領域算出機能≫
図1に戻り、撮影領域算出部133は、画像データと、候補領域選択部132が選択した1つ以上の候補領域とにおいて、特徴量抽出線を複数設定し、画像データと候補領域との領域の一致率を、以下の式(3)に基づき算出する。
候補領域の一致率R = summation{画像データのラベル番号と候補線分のラベル番号との一致判定[0,1] ×(画像ラベル数-画像ラベルの長さ比率順位+1)×(1-|候補線分ラベル比率-画像データラベル比率|)} ・・・式(3)
ここで、画像ラベルの長さ比率順位は、長さ比率の大きい順に昇順に順位をつける。例えば、図2および図3で示した画像データの左端にある抽出線番号1の長さ比率順位は、比率が大きい順に、建物が「0.6」で1位、歩道が「0.2」で2位、道が「0.2」で歩道と同率で2位となる。
撮影領域算出部133は、この候補領域の一致率Rの計算を、パラメータを調整しながら繰り返し行う。ここでのパラメータは、図8で示される、カメラ位置(三角形の頂点)、カメラ位置から終点までの距離x1,x2、カメラ位置から始点までの距離y1,y2、視野角θ、カメラデバイス21の向きφである。そして、撮影領域算出部133は、パラメータの調整により繰り返された一致率Rの算出が所定回数(下限)以上であり、かつ、一致率Rのスコアの増加が所定の閾値以下となったときに処理を終了する。撮影領域算出部133は、得られた複数の候補領域の算出結果のうち、一致率Rが最も高い候補領域を撮影範囲であると推定する。
撮影領域算出部133は、推定した撮影範囲とそのときのカメラ位置の情報を、IoTプラットフォーム20に出力する。
<処理の流れ>
次に、撮影範囲推定装置1が実行する処理の流れについて説明する。
≪全体の流れ≫
図10は、本実施形態に係る撮影範囲推定装置1が実行する全体の処理の流れを示すフローチャートである。
まず、撮影範囲推定装置1の画像データ処理部110は、IoTプラットフォーム20から、撮影範囲を推定する処理の対象となる画像データを取得する(ステップS1)。
この際、画像データ処理部110は、当該画像データが撮影されたカメラデバイスの位置に関する情報を合わせて取得する。そして、画像データ処理部110は、カメラデバイスの位置に関する情報が、カメラデバイス21の設置位置の情報そのもの(緯度・経度、住所等)でない場合には、IPアドレスや無線基地局等の情報に基づき、おおよその地域を特定する情報(地域特定情報)を収集する。
また、画像データ処理部110は、取得した画像データを画像解析装置30に送信することにより、画像データ中の領域ごとに物体名ラベルを付与した情報(画像データ)を取得する(ステップS2)。
次に、参照データ生成部120は、画像データ処理部110により得られたカメラデバイスの位置に関する情報に基づき、参照データベース40にアクセスし、地理情報(地図情報または衛星画像)を取得することにより参照データを生成する(ステップS3)。ここで、参照データとして、地図情報と衛星画像の両方が取得可能である場合には、参照データ生成部120は、予め設定しておいた方の情報を取得するように参照データ生成部120に設定しておいてもよい。また、参照データ生成部120は、カメラ位置を中心として最大撮影距離を半径とした円内の地図情報および衛星画像を参照データとして生成する。この最大撮影距離の情報は、画像データともにIoTプラットフォーム20から取得してもよいし、カメラデバイス21の撮影環境に応じて予め設定した値(例えば、50メートル)を用いるようにしてもよい。
続いて、参照データ生成部120は、取得した地理情報が地図情報であるか否かを判定する(ステップS4)。参照データ生成部120は、取得した地理情報が地図情報であれば(ステップS4→Yes)、物体名ラベルはその地図情報に基づき既知であるとして、次のステップS6に進む。
一方、参照データ生成部120は、取得した地理情報が地図情報でなく衛星画像であれば(ステップS4→No)、取得した衛星画像を画像解析装置30に送信することにより、衛星画像中の領域ごとに物体名ラベルを付与した情報(衛星画像)を取得し(ステップS5)、次のステップS6に進む。
このステップS1~S5までの処理において、物体名ラベルを付与した画像データと、物体名ラベルを付与した参照データとが用意される。
次に、撮影範囲推定装置1の撮影範囲推定部130(抽出線算出部131)は、抽出線一致率算出処理を実行する(ステップS6)。
この抽出線一致率算出処理は、抽出線算出部131が、画像データについて左端および右端を含む特徴量抽出線を設定し、参照データに設けた候補特徴量抽出線の線分のうち、物体名ラベルの比率が一致する線分を算出する処理である(詳細は図11参照)。これにより、画像データに設定した左端、右端、その他の特徴量抽出線それぞれについて、一致率Lのスコアの高い線分が、参照データ上で対応する線分として算出される。
次に、撮影範囲推定部130の候補領域選択部132は、ステップS6において算出された、左端、右端、その他に対応する参照データ上の線分の情報を用いて、1つ以上の候補領域を選択する候補領域選択処理を実行する(ステップS7:詳細は図12参照)。このとき、候補領域選択部132は、上記した式(2)に基づき、カメラ位置から左端・右端の終点までの距離が近くなる(等しくなる)領域を候補領域に設定する。また、候補領域選択部132は、各抽出線における線分のカメラ位置からの距離と、図8で示す三角形の頂点から各抽出線の終点までの距離の比率の標準偏差が小さいものを候補領域に設定する。
続いて、撮影範囲推定部130の撮影領域算出部133は、画像データと、候補領域選択部132が選択した候補領域とにおいて、特徴量抽出線を複数設定し、画像データと候補領域との領域の一致率Rを算出する撮影領域算出処理を実行する(ステップS8:詳細は図13参照)。これにより、撮影領域算出部133は、一致率Rが最も高い候補領域を、画像データの撮影範囲であるとして推定する。そして、撮影領域算出部133は、推定した画像データの撮影範囲とそのときのカメラデバイスの位置情報を、IoTプラットフォーム20に送信する。
≪抽出線一致率算出処理≫
撮影範囲推定装置1の抽出線算出部131が実行する抽出線一致率算出処理の詳細を説明する。この処理は、図10のステップS6で行われる処理である。
図11は、本実施形態に係る撮影範囲推定装置1が実行する抽出線一致率算出処理の流れを示すフローチャートである。
まず、抽出線算出部131は、画像データの下部から上部に向かって線を引いて線上にある物体名を抽出し、画像データの特徴量抽出線を設定する(ステップS601)。ここで、抽出線算出部131は、少なくとも左端と右端の特徴量抽出線を設定する。図2は、左端、中央、右端の特徴量抽出線を設定した例を示している。
続いて、抽出線算出部131は、参照データ生成部120が生成した参照データにおいて、円内の動径方向に線を引き、線上にある物体名を抽出して候補特徴量抽出線を設定する(ステップS602)。抽出線算出部131は、例えば、カメラデバイス21の位置を中心として360度のうち1度ずつ角度を変化させて候補特徴量抽出線を設定する(図4参照)。
次に、抽出線算出部131は、各候補特徴量抽出線に沿って、撮影範囲の始点から終点までの線に相当する線分を設定する(ステップS603:図5参照)。
そして、抽出線算出部131は、ステップS601で設定した画像データの特徴量抽出線のうちの1つを選択する(ステップS604)。なお、これ以下の処理(ステップS605~S611)は、画像データの各特徴量抽出線のそれぞれにおいて行われる処理である。
続いて、抽出線算出部131は、ステップS603で設定した線分のうち、ステップS604で選択した特徴量抽出線に含まれる物体名ラベルのすべてを含んでいない線分を除外する(ステップS605)。
例えば、特徴量抽出線に含まれる物体名ラベルが、道(Road)、歩道(Sidewalk)、建物(Building)であった場合、この3つの物体名ラベルをすべて含んでいない線分を除外する。これは、線分の一致率の計算の負荷を低減するための処理である。
次に、抽出線算出部131は、線分の1つを抽出し、上記した式(1)に基づき、線分の一致率Lを算出する(ステップS606)。
例えば、図2に示すデータ画像の左端における特徴量抽出線のラベル比率が、図3の抽出線番号「1」で示すように、道(Road)、歩道(Sidewalk)、建物(Building)のラベル比率(0.2, 0.2, 0.6)であるとする。このとき、図5に示す各線分(線分番号「1」「2」「3」)の線分一致率Lは、以下のように計算される。なお、各線分のラベル比率は、図6に示すものとする。なお、線分番号「1」については、物体名ラベルに建物(Building)が含まれていないため、ステップS605において、線分の一致率Lの算出対象から削除される。
線分番号「2」の一致率L=1×(1-|0.5-0.2|)+1×(1-|0.2-0.2|)+1×(1-|0.3-0.6|)=2.4
線分番号「3」の一致率L=1×(1-|0.2-0.2|)+1×(1-|0.2-0.2|)+1×(1-|0.6-0.6|)=3
なお、ステップS606では、1つの線分、例えば、上記の線分番号「2」が選択され、線分の一致率L=2.4が算出される。そして、抽出線算出部131による各線分の抽出のループ処理に伴い、線分番号「3」の一致率Lが算出される。
この線分の一致率Lの算出において、画像データにおける物体名ラベルのラベル比率が高いものについては、誤識別の確率が低くなるため、より大きい重みをつけるようにしてもよい。例えば、図3の抽出線番号「1」の道、歩道、建物のラベル比率は(0.2, 0.2, 0.6)であるので、建物、道、歩道の順に大きい重みを設定し、例えば「3」「2」「2」のようにして、各物体名ラベルのラベル比率の差を算出する項に乗算し一致率Lを算出してもよい。
図11に戻り、次に、抽出線算出部131は、抽出した1つの線分について、所定の算出回数の下限を超えたか否かを判定する(ステップS607)。そして、抽出線算出部131は、所定の算出回数の下限を超えていない場合には(ステップS607→No)、今回のステップS606で算出した際のパラメータである各線分のラベル比率を調整し、ステップS606に戻る。つまり、抽出線算出部131は、よりデータ画像の特徴量抽出線のラベル比率に一致する線分を探索するため、パラメータである各線分のラベル比率を微調整して線分の一致率Lの算出を繰り返すようにする。
一方、抽出線算出部131は、所定の算出回数の下限を超えた場合には(ステップS607→Yes)、所定の算出回数の上限を超えたか否かを判定する(ステップS608)。ここで、所定の算出回数の上限を超えていれば(ステップS608→Yes)、ステップS611に進む。
一方、所定の算出回数の上限を超えていなければ(ステップS608→No)、それまでのその線分で算出されたうちの最高の一致率Lと比較し、今回のステップS606で算出された一致率Lの値が、最高の一致率L以下であるか否かを判定する(ステップS609)。そして、最高の一致率L以下であれば(ステップS609→Yes)、パラメータである各線分のラベル比率を調整した上で、ステップS606に戻る。
一方、最高の一致率L以下でなければ(ステップS609→No)、抽出線算出部131は、今回のステップS606で算出された一致率Lの値と、それまでその線分で算出されたうちの最高の一致率Lとを比較し、上昇差分が所定の閾値(第1の閾値)以下であるかを判定する(ステップS610)。そして、上昇差分が所定の閾値以下でなければ(ステップS610→No)、パラメータである各線分のラベル比率を調整した上で、ステップS606に戻る。一方、上昇差分が所定の閾値以下であれば(ステップS610→Yes)、ステップS611に進む。
ステップS611において、抽出線算出部131は、最も一致率Lの高い線分を、ステップS604で選択した画像データの特徴量抽出線(例えば、左端)についての、参照データ中の有力な候補となる線分として決定(抽出)する。
この処理が、画像データにおいて抽出した各特徴量抽出線において行われ、それぞれの特徴量抽出線において、候補となる線分が決定(抽出)される。
≪候補領域選択処理≫
撮影範囲推定装置1の候補領域選択部132が実行する候補領域選択処理の詳細を説明する。この処理は、図10のステップS7で行われる処理である。
図12は、本実施形態に係る撮影範囲推定装置1が実行する候補領域選択処理の流れを示すフローチャートである。
候補領域選択部132は、図10のステップS6(詳細には図11のステップS611)において特徴量抽出線それぞれで候補として決定された線分のうち、左端と右端の候補となる線分の組を選択する(ステップS701)。
このとき、候補領域選択部132は、左端と右端の線分の視野角θの上限を所定の角度(例えば、180度)として、左端と右端の線分の組を選択する。
続いて、候補領域選択部132は、左端と右端の間に位置するその他の特徴量抽出線に対応する線分を選択する(ステップS702)。なお、左端と右端の間に位置する特徴量抽出線が設定されていない場合には、このステップS702の処理は実行されない。
次に、候補領域選択部132は、ステップS701およびS702において選択された線分の組で構成される領域それぞれについて、上記した式(2)を用いて、領域の有効性Yを算出する(ステップS703)。
式(2)を用いることにより、x1で示される右端の終点までの距離と、x2で示される左端の終点までの距離とが近い(等しい)ほど、領域の有効性Yが0に近い値となる。また、図8で示す二等辺三角形の頂点(カメラ位置)から網掛けを含んだ二等辺三角形の底辺までの距離が、左端と右端の間に位置する特徴量抽出線の距離と近い(等しい)ほど、領域の有効性Yが0に近い値となる。
候補領域選択部132は、領域の有効性Yの算出結果において、0または0に近い値の1つ以上の領域を候補領域として選択する(ステップS704)。
例えば、図9で示したように、候補領域[A]および候補領域[B]は、右端のカメラ位置から終点までの距離と、左端のカメラ位置から終点までの距離が等しい場合に、領域の有効性Yが0として算出され、候補領域として選択される。
このようにすることにより、候補領域選択部132は、参照データにおいて、おおまかな候補領域を絞り込むことができる。
≪撮影領域算出処理≫
撮影範囲推定装置1の撮影領域算出部133が実行する撮影領域算出処理の詳細を説明する。この処理は、図10のステップS8で行われる処理である。
図13は、本実施形態に係る撮影範囲推定装置1が実行する撮影領域算出処理の流れを示すフローチャートである。
この撮影領域算出処理では、最終的に撮影範囲を特定するため、図10のステップS7(詳細には図12のステップS704)において選択された候補領域内の特徴量抽出線の一致率を詳細に検証する。ここでは、例えば図14に示すように、画像データの下部から上部に向かって5本(抽出線番号「1」~「5」)の特徴量抽出線を引いたものとして説明する。そして、この抽出線番号「1」~「5」の特徴量抽出線のラベル比率が図15で示す値であるとする。また、この抽出線番号「1」~「5」の特徴量抽出線に対応する位置にある領域候補[A]のラベル比率が図16で示す値であり、領域候補[B]のラベル比率を図17で示す値であるとする。
撮影領域算出部133は、まず、1つ以上の候補領域のうちのこれまで選択していない候補領域の1つを選択する(ステップS801)。ここでは、候補領域[A]がまず選択されたものとする。
次に、撮影領域算出部133は、画像データと候補領域との領域の一致率Rを、上記した式(3)に基づき算出する(ステップS802)。
候補領域[A]の一致率R=[抽出線番号「1」]+[抽出線番号「2」]+・・・
=[{1×(3-2+1)×(1-|0.2-0.2|)}+{1×(3-2+1)×(1-|0.2-0.2|)}+{1×(3-1+1)×(1-|0.6-0.6|)}]
+[{1×(3-2+1)×(1-|0.3-0.3|)}+{1×(3-3+1)×(1-|0.2-0.2|)}+{1×(3-1+1)×(1-|0.5-0.5|)}]
+・・・
=[2+2+3]+[2+1+3]+・・・
なお、この領域の一致率Rの算出において、画像データにおける物体名ラベルのラベル比率が高いものについては、誤識別の確率が低くなるため、より大きい重みをつけるようにしてもよい。例えば、図14の抽出線番号「5」の道、歩道、建物のラベル比率は(0.6, 0.2, 0.2)(図15参照)であるので、道、歩道、建物の順に大きい重みを設定し、例えば「3」「2」「2」のようにして、各物体名ラベルのラベル比率の差を算出する項に乗算し領域の一致率Rを算出してもよい。
図13に戻り、次に、撮影領域算出部133は、選択した候補領域について、領域の一致率Rについての所定の算出回数の下限を超えたか否かを判定する(ステップS803)。そして、撮影領域算出部133は、所定の算出回数の下限を超えていない場合には(ステップS803→No)、今回のステップS802で算出した際のパラメータとなる候補領域の図8のx1、x2、y1、y2、視野角θ、カメラデバイス21の向きφおよびカメラ位置を変更することにより各抽出線のラベル比率を調整し、ステップS802に戻る。つまり、撮影領域算出部133は、より画像データで示される領域に一致する参照データ上の領域を探索するため、パラメータを微調整して領域の一致率Rの算出を繰り返すようにする。
一方、撮影領域算出部133は、所定の算出回数の下限を超えた場合には(ステップS803→Yes)、所定の算出回数の上限を超えたか否かを判定する(ステップS804)。ここで、所定の算出回数の上限を超えていれば(ステップS804→Yes)、ステップS807に進む。
一方、所定の算出回数の上限を超えていなければ(ステップS804→No)、それまでのその候補領域で算出されたうちの最高の一致率Rと比較し、今回のステップS802で算出された領域の一致率Rの値が、最高の一致率R以下であるか否かを判定する(ステップS805)。そして、最高の一致率R以下であれば(ステップS805→Yes)、候補領域のパラメータを変更することにより各抽出線のラベル比率を調整した上で、ステップS802に戻る。
一方、最高の一致率R以下でなければ(ステップS805→No)、撮影領域算出部133は、今回のステップS802で算出された一致率Rの値と、それまでその候補領域で算出されたうちの最高の一致率Rとを比較し、上昇差分が所定の閾値(第2の閾値)以下であるかを判定する(ステップS806)。そして、上昇差分が所定の閾値以下でなければ(ステップS806→No)、候補領域のパラメータを変更することにより各抽出線のラベル比率を調整した上で、ステップS802に戻る。一方、上昇差分が所定の閾値以下であれば(ステップS806→Yes)、ステップS807に進む。
ステップS807において、撮影領域算出部133は、まだ選択していない候補領域があるか否かを判定する。そして、まだ選択していない候補領域がある場合には(ステップS807→Yes)、ステップS801に戻り、次の候補領域についての処理を続ける。
この場合、ステップS802において、例えば候補領域[B]の一致率Rは、以下のように計算される。
候補領域[B]の一致率R=[抽出線番号「1」]+[抽出線番号「2」]+・・・
=[{1×(3-2+1)×(1-|0.2-0.2|)}+{1×(3-2+1)×(1-|0.2-0.2|)}+{1×(3-1+1)×(1-|0.6-0.6|)}]
+[{1×(3-1+1)×(1-|1.0-0.3|)}+0+0]
+・・・
=[2+2+3]+[0.9]+・・・
ステップS807において、選択していない候補領域がない、つまり、すべての候補領域を選択した場合には(ステップS807→No)、ステップS808において、1つ以上の候補領域のうち、最も一致率Rの高い候補領域を撮影範囲であると推定する。
候補領域[A]と候補領域[B]との一致率Rの算出においては、抽出線番号「2」のスコアにおいて大差が生じるため、候補領域[A]を調整した領域が撮影範囲であると推定される。
そして、撮影領域算出部133は、推定した撮影範囲の情報とそのときのカメラデバイスの位置情報とをIoTプラットフォーム20に出力し、処理を終える。
以上説明したように、本実施形態に係る撮影範囲推定装置1は、カメラデバイス21の撮影範囲および位置を、事前に収集した地上撮影画像情報や建物の存在に依存することなくカメラ画像から推定することができる。
なお、上記の説明においては、カメラデバイス21が斜め下方向を撮影しているものとして説明した。しかしながら、本実施形態に係る撮影範囲推定装置1は、これに限定されず、例えば、図18に示すように、カメラデバイス21が地面に垂直(真下)の方向に向いていてもよい。その場合には、カメラデバイス21に一番近い距離にある画像データの中心部(中心および中心付近)から、画角の四隅に向かって線を引いて線上にある物体名を抽出し、画像データの特徴量抽出線とする。このとき、抽出線一致率算出処理において、画像データの中心部から四隅に向かう少なくとも4本の特徴量抽出線を設定することにより、同様にカメラデバイス21の撮影範囲および位置を推定することができる。
さらに、上記の説明においては、室外に設置されるカメラデバイス21の撮影範囲と位置を推定するものとして説明した。しかしながら、本実施形態に係る撮影範囲推定装置1は、室内(例えば、建物内のイベント会場、競技場、コンサートホール等)においても適応可能である。この場合、壁や席等の配置(位置情報)を、室内の見取り図や設計図(屋内の設計図情報)により取得して参照データとし、物体名ラベルのラベル比率を算出して画像データとの一致率を求める。このように、撮影範囲推定装置1は、室内にカメラデバイス21が設置された場合でも、撮影範囲およびカメラ位置を推定することができる。
<ハードウェア構成>
本実施形態に係る撮影範囲推定装置1は、例えば図19に示すような構成のコンピュータ900によって実現される。
図19は、本実施形態に係る撮影範囲推定装置1の機能を実現するコンピュータ900の一例を示すハードウェア構成図である。コンピュータ900は、CPU(Central Processing Unit)901、ROM(Read Only Memory)902、RAM(Random Access Memory)903、HDD(Hard Disk Drive)904、入出力I/F(Interface)905、通信I/F906およびメディアI/F907を有する。
CPU901は、ROM902またはHDD904に記憶されたプログラムに基づき作動し、図1の制御部10による制御を行う。ROM902は、コンピュータ900の起動時にCPU901により実行されるブートプログラムや、コンピュータ900のハードウェアに係るプログラム等を記憶する。
CPU901は、入出力I/F905を介して、マウスやキーボード等の入力装置910、および、ディスプレイやプリンタ等の出力装置911を制御する。CPU901は、入出力I/F905を介して、入力装置910からデータを取得するともに、生成したデータを出力装置911へ出力する。
HDD904は、CPU901により実行されるプログラムおよび当該プログラムによって使用されるデータ等を記憶する。通信I/F906は、通信網(例えば、ネットワーク920)を介して図示せぬ他の装置(例えば、画像解析装置30など)からデータを受信してCPU901へ出力し、また、CPU901が生成したデータを、通信網を介して他の装置へ送信する。
メディアI/F907は、記録媒体912に格納されたプログラムまたはデータを読み取り、RAM903を介してCPU901へ出力する。CPU901は、目的の処理に係るプログラムを、メディアI/F907を介して記録媒体912からRAM903上にロードし、ロードしたプログラムを実行する。記録媒体912は、DVD(Digital Versatile Disc)、PD(Phase change rewritable Disk)等の光学記録媒体、MO(Magneto Optical disk)等の光磁気記録媒体、磁気記録媒体、導体メモリテープ媒体又は半導体メモリ等である。
例えば、コンピュータ900が本実施形態に係る撮影範囲推定装置1として機能する場合、コンピュータ900のCPU901は、RAM903上にロードされたプログラムを実行することにより、撮影範囲推定装置1の機能を実現する。また、HDD904には、RAM903内のデータが記憶される。CPU901は、目的の処理に係るプログラムを記録媒体912から読み取って実行する。この他、CPU901は、他の装置から通信網(ネットワーク920)を介して目的の処理に係るプログラムを読み込んでもよい。
<効果>
以下、本発明に係る撮影範囲推定装置の効果について説明する。
本発明に係る撮影範囲推定装置は、カメラデバイス21の撮影範囲を推定する撮影範囲推定装置1であって、カメラデバイス21が撮影した画像データを取得し、当該画像データに映る各物体が占める領域を物体名ラベルを付して識別する画像解析を行わせ、物体名ラベルが付された画像データを生成する画像データ処理部110と、カメラデバイス21が設置されている推定位置から撮影可能な所定距離内の領域を地理情報を用いて設定し、設定した領域内の物体に物体名ラベルを付した参照データを生成する参照データ生成部120と、画像データの各物体名ラベルの領域で示される特徴量と、参照データの各物体名ラベルの領域で示される特徴量とを比較して一致率を算出し、画像データに対応する参照データの領域をカメラデバイス21の撮影範囲として推定する撮影範囲推定部130と、 を備えることを特徴とする。
このようにすることで、撮影範囲推定装置1は、カメラデバイス21の撮影範囲を、事前に収集した地上撮影画像情報や建物の存在に依存することなくカメラ画像(画像データ)から推定することができる。
撮影範囲推定装置1は、市中の地理情報(例えば、地図情報や衛星画像)を用いて、画像データとの特徴量の一致率を算出する。よって、カメラデバイス21のユーザが新たな情報をIoTプラットフォーム20に登録する必要もなく、サービス事業者側でも高精度な地上撮影画像情報を追加して撮影する必要もない。また、建物に依存することなくカメラデバイス21の撮影範囲を推定できる。よって、撮影範囲推定装置1は、従来技術よりも簡易かつ広範な領域で、カメラデバイス21の撮影範囲を推定することができる。
また、撮影範囲推定装置1において、撮影範囲推定部130は、画像データの下部から上部に向かって線を引き、物体名ラベルを抽出する特徴量抽出線を設定し、参照データの推定位置を中心とした円内で動径方向に線を引き、物体名ラベルを抽出する候補特徴量抽出線を設定し、画像データの特徴量抽出線の各物体名ラベルのラベル比率と、参照データの候補特徴量抽出線の各物体名ラベルのラベル比率とを特徴量として比較して一致率を算出することを特徴とする。
このように、撮影範囲推定装置1は、物体名ラベルのラベル比率を特徴量として一致率を計算し、画像データのラベル比率と一致する参照データのラベル比率となる領域を、カメラデバイス21の撮影範囲として推定することができる。
また、撮影範囲推定装置1において、撮影範囲推定部130は、候補特徴量抽出線上に始点と終点を持つ線分を設定して物体名ラベルを抽出し、画像データの少なくとも左端と右端に特徴量抽出線を設定し、設定した画像データの少なくとも左端と右端それぞれのラベル比率と、線分の各物体名ラベルのラベル比率との一致率を算出し、画像データの少なくとも左端と右端それぞれに対応する参照データ上の線分を抽出し、左端と右端に対応する線分で囲まれる四角形の領域を、カメラデバイス21の撮影範囲として推定すること を特徴とする。
このように、撮影範囲推定装置1は、画像データの少なくとも左端と右端それぞれのラベル比率に一致する参照データ上の線分を抽出し、その線分で囲まれる四角形の領域を、カメラデバイス21の撮影範囲として推定することができる。
また、撮影範囲推定装置1において、画像データに付された各物体名ラベルのうち、ラベル比率が高い物体名ラベルほど、より大きい重みをつけて、一致率を算出することを特徴とする。
このように、撮影範囲推定装置1は、ラベル比率が高く、誤識別の確率が低い物体名ラベルの重みを大きくすることにより、カメラデバイス21の撮影範囲の推定の精度を向上させることができる。
また、撮影範囲推定装置1において、画像データの下部から上部に向かって特徴量抽出線を設定する代わりに、画像データの中心部から四隅に向かって特徴量抽出線を設定することを特徴とする。
これにより、撮影範囲推定装置1は、カメラデバイス21が地面に垂直(真下)の方向に向いている場合あっても、画像データの中心部から四隅に向かって特徴量抽出線を設定することにより、そのカメラデバイス21の撮影範囲を推定することができる。
また、撮影範囲推定装置1において、地理情報として屋内の設計図情報を用いること を特徴とする。
これにより、撮影範囲推定装置1は、屋内に設置されたカメラデバイス21についての撮影範囲を推定することが可能となる。
なお、本発明は、以上説明した実施形態に限定されるものではなく、多くの変形が本発明の技術的思想内で当分野において通常の知識を有する者により可能である。
1 撮影範囲推定装置
10 制御部
11 入出力部
12 記憶部
20 IoTプラットフォーム
21 カメラデバイス
30 画像解析装置
40 参照データベース
41 地図情報
42 衛星画像
110 画像データ処理部
120 参照データ生成部
130 撮影範囲推定部
131 抽出線算出部
132 候補領域選択部
133 撮影領域算出部

Claims (8)

  1. カメラデバイスの撮影範囲を推定する撮影範囲推定装置であって、
    前記カメラデバイスが撮影した画像データを取得し、当該画像データに映る各物体が占める領域を物体名ラベルを付して識別する画像解析を行わせ、前記物体名ラベルが付された画像データを生成する画像データ処理部と、
    前記カメラデバイスが設置されている推定位置から撮影可能な所定距離内の領域を地理情報を用いて設定し、設定した領域内の物体に物体名ラベルを付した参照データを生成する参照データ生成部と、
    前記画像データの各物体名ラベルの領域で示される特徴量と、前記参照データの各物体名ラベルの領域で示される特徴量とを比較して一致率を算出し、前記画像データに対応する前記参照データの領域を前記カメラデバイスの撮影範囲として推定する撮影範囲推定部と、
    を備えることを特徴とする撮影範囲推定装置。
  2. 前記撮影範囲推定部は、
    前記画像データの下部から上部に向かって線を引き、前記物体名ラベルを抽出する特徴量抽出線を設定し、
    前記参照データの前記推定位置を中心とした円内で動径方向に線を引き、前記物体名ラベルを抽出する候補特徴量抽出線を設定し、
    前記画像データの特徴量抽出線の各物体名ラベルのラベル比率と、前記参照データの候補特徴量抽出線の各物体名ラベルのラベル比率とを前記特徴量として比較して前記一致率を算出すること
    を特徴とする請求項1に記載の撮影範囲推定装置。
  3. 前記撮影範囲推定部は、
    前記候補特徴量抽出線上に始点と終点を持つ線分を設定して物体名ラベルを抽出し、
    前記画像データの少なくとも左端と右端に前記特徴量抽出線を設定し、
    前記設定した画像データの少なくとも左端と右端それぞれの前記ラベル比率と、前記線分の各物体名ラベルのラベル比率との一致率を算出し、前記画像データの少なくとも左端と右端それぞれに対応する参照データ上の線分を抽出し、左端と右端に対応する線分で囲まれる四角形の領域を、前記カメラデバイスの撮影範囲として推定すること
    を特徴とする請求項2に記載の撮影範囲推定装置。
  4. 前記画像データに付された各物体名ラベルのうち、ラベル比率が高い物体名ラベルほど、より大きい重みをつけて、前記一致率を算出すること
    を特徴とする請求項2または請求項3に記載の撮影範囲推定装置。
  5. 前記画像データの下部から上部に向かって特徴量抽出線を設定する代わりに、前記画像データの中心部から四隅に向かって特徴量抽出線を設定すること
    を特徴とする請求項2乃至請求項4のいずれか一項に記載の撮影範囲推定装置。
  6. 前記地理情報として屋内の設計図情報を用いること
    を特徴とする請求項1乃至請求項5のいずれか一項に記載の撮影範囲推定装置。
  7. カメラデバイスの撮影範囲を推定する撮影範囲推定装置の撮影範囲推定方法であって、
    前記撮影範囲推定装置は、
    前記カメラデバイスが撮影した画像データを取得し、当該画像データに映る各物体が占める領域を物体名ラベルを付して識別する画像解析を行わせ、前記物体名ラベルが付された画像データを生成するステップと、
    前記カメラデバイスが設置されている推定位置から撮影可能な所定距離内の領域を地理情報を用いて設定し、設定した領域内の物体に物体名ラベルを付した参照データを生成するステップと、
    前記画像データの各物体名ラベルの領域で示される特徴量と、前記参照データの各物体名ラベルの領域で示される特徴量とを比較して一致率を算出し、前記画像データに対応する前記参照データの領域を前記カメラデバイスの撮影範囲として推定するステップと、
    を実行することを特徴とする撮影範囲推定方法。
  8. コンピュータを、請求項1乃至請求項6のいずれか一項に記載の撮影範囲推定装置として機能させるためのプログラム。
JP2021571104A 2020-01-15 2020-01-15 撮影範囲推定装置、撮影範囲推定方法およびプログラム Active JP7243867B2 (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
PCT/JP2020/001006 WO2021144874A1 (ja) 2020-01-15 2020-01-15 撮影範囲推定装置、撮影範囲推定方法およびプログラム

Publications (2)

Publication Number Publication Date
JPWO2021144874A1 JPWO2021144874A1 (ja) 2021-07-22
JP7243867B2 true JP7243867B2 (ja) 2023-03-22

Family

ID=76863955

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021571104A Active JP7243867B2 (ja) 2020-01-15 2020-01-15 撮影範囲推定装置、撮影範囲推定方法およびプログラム

Country Status (3)

Country Link
US (1) US20230049073A1 (ja)
JP (1) JP7243867B2 (ja)
WO (1) WO2021144874A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021179839A (ja) * 2020-05-14 2021-11-18 株式会社日立製作所 地物の分類システム、分類方法及びそのプログラム

Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263104A (ja) 2002-03-11 2003-09-19 Mitsubishi Electric Corp 撮像情報認識システム
JP2008059319A (ja) 2006-08-31 2008-03-13 Mitsubishi Electric Corp 物体認識装置および映像物体測位装置
JP2011239339A (ja) 2010-05-13 2011-11-24 Fujitsu Ltd 位置推定装置、位置推定方法及び位置推定プログラム
JP2012065263A (ja) 2010-09-17 2012-03-29 Olympus Imaging Corp 撮影機器
WO2017038160A1 (ja) 2015-09-01 2017-03-09 日本電気株式会社 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
JP2017151148A (ja) 2016-02-22 2017-08-31 Necプラットフォームズ株式会社 位置推定装置、位置検出方法及びプログラム
JP2018537335A (ja) 2015-12-09 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の飛行を制御する方法及びシステム

Patent Citations (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2003263104A (ja) 2002-03-11 2003-09-19 Mitsubishi Electric Corp 撮像情報認識システム
JP2008059319A (ja) 2006-08-31 2008-03-13 Mitsubishi Electric Corp 物体認識装置および映像物体測位装置
JP2011239339A (ja) 2010-05-13 2011-11-24 Fujitsu Ltd 位置推定装置、位置推定方法及び位置推定プログラム
JP2012065263A (ja) 2010-09-17 2012-03-29 Olympus Imaging Corp 撮影機器
WO2017038160A1 (ja) 2015-09-01 2017-03-09 日本電気株式会社 監視情報生成装置、撮影方向推定装置、監視情報生成方法、撮影方向推定方法、及びプログラム
JP2018537335A (ja) 2015-12-09 2018-12-20 エスゼット ディージェイアイ テクノロジー カンパニー リミテッドSz Dji Technology Co.,Ltd 無人航空機の飛行を制御する方法及びシステム
JP2017151148A (ja) 2016-02-22 2017-08-31 Necプラットフォームズ株式会社 位置推定装置、位置検出方法及びプログラム

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2021179839A (ja) * 2020-05-14 2021-11-18 株式会社日立製作所 地物の分類システム、分類方法及びそのプログラム
JP7418281B2 (ja) 2020-05-14 2024-01-19 株式会社日立製作所 地物の分類システム、分類方法及びそのプログラム

Also Published As

Publication number Publication date
US20230049073A1 (en) 2023-02-16
WO2021144874A1 (ja) 2021-07-22
JPWO2021144874A1 (ja) 2021-07-22

Similar Documents

Publication Publication Date Title
US20200401617A1 (en) Visual positioning system
Agarwal et al. Metric localization using *** street view
CN102959946A (zh) 基于相关3d点云数据来扩充图像数据的技术
US9195987B2 (en) Systems and methods of correlating business information to determine spam, closed businesses, and ranking signals
CN105358937A (zh) 用于测绘仪器的定位方法和所述测绘仪器
CN103827634A (zh) 用于室内定位的徽标检测
US20190005658A1 (en) Autonomous characterization of water flow from surface water velocity
US11120263B1 (en) Method and apparatus for providing education service using satellite imagery based on artificial intelligence
JP2016164518A (ja) 屋内位置情報測位システム及び屋内位置情報測位方法
TW201142751A (en) Video processing system generating corrected geospatial metadata for a plurality of georeferenced video feeds and related methods
Feng et al. Visual Map Construction Using RGB‐D Sensors for Image‐Based Localization in Indoor Environments
US20220377285A1 (en) Enhanced video system
Steinhoff et al. How computer vision can help in outdoor positioning
JP7243867B2 (ja) 撮影範囲推定装置、撮影範囲推定方法およびプログラム
CN110636248B (zh) 目标跟踪方法与装置
CN111277791B (zh) 一种案事件监测方法及***
CN108932275B (zh) 用于地理空间对象/特性检测的贝叶斯方法
Al-Azizi et al. DeepAutoMapping: low-cost and real-time geospatial map generation method using deep learning and video streams
CN110162658A (zh) 位置信息获取方法、装置、终端及存储介质
Hong et al. The use of CCTV in the emergency response: A 3D GIS perspective
Farhadmanesh et al. Feasibility Study of Using Close-Range Photogrammetry as an Asset-Inventory Tool at Public Transportation Agencies
Guo et al. Fusion of WiFi and vision based on smart devices for indoor localization
Shahid et al. Images based indoor positioning using AI and crowdsourcing
Nguyen et al. A hybrid positioning system for indoor navigation on mobile phones using panoramic images
Yang Indoor Positioning System for Smart Devices

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220425

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230207

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230220

R150 Certificate of patent or registration of utility model

Ref document number: 7243867

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150