JP6031915B2 - Image processing apparatus and program - Google Patents
Image processing apparatus and program Download PDFInfo
- Publication number
- JP6031915B2 JP6031915B2 JP2012213196A JP2012213196A JP6031915B2 JP 6031915 B2 JP6031915 B2 JP 6031915B2 JP 2012213196 A JP2012213196 A JP 2012213196A JP 2012213196 A JP2012213196 A JP 2012213196A JP 6031915 B2 JP6031915 B2 JP 6031915B2
- Authority
- JP
- Japan
- Prior art keywords
- character string
- image information
- image
- processed
- information
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Landscapes
- Character Discrimination (AREA)
- Information Retrieval, Db Structures And Fs Structures Therefor (AREA)
Description
本発明は、画像処理装置及びプログラムに関する。 The present invention relates to an image processing apparatus and a program.
近年では、GPS(Global Positioning System)等、地理情報を取得する手段が普及しており、写真撮影時に、当該写真の撮影地を表す情報を含める装置がある。例えば、カメラ付のスマートフォン等では、写真撮影時に、GPSを用いて現在地の測位を行い、当該測位結果を撮影した写真の画像情報に含めて記録する。 In recent years, means for acquiring geographic information, such as GPS (Global Positioning System), has become widespread, and there is an apparatus that includes information representing the shooting location of a photograph when the photograph is taken. For example, in a smartphone with a camera or the like, at the time of taking a photo, the current location is measured using GPS, and the positioning result is included in the image information of the taken photo and recorded.
しかしながら、例えばディジタル一眼レフ等のカメラ機能を中心とした機器では、GPS装置はオプションとしては用意されているものの、必ずしも使用されていないのが現状である。従って、このような機器の利用者の撮影した写真の画像情報には、撮影地の情報は多くの場合含まれていない。 However, in devices such as a digital single-lens reflex camera, the GPS device is prepared as an option, but it is not always used. Accordingly, in many cases, image information of a photograph taken by a user of such a device does not include information on a shooting location.
一方で、写真の撮影地が記録されていれば、当該写真を見る者に対して、その写真に関わる記憶を想起させるのに役立つなど、さまざまな効用が期待できる。そこで撮影地の情報が記録されていない写真の画像情報に、後から撮影地の情報を追記する技術が要望されている。 On the other hand, if the shooting location of a photo is recorded, it can be expected to have various effects such as helping the viewer to recall the memory associated with the photo. Therefore, there is a demand for a technique for adding information on a shooting location later to image information of a photograph in which shooting location information is not recorded.
ここで人為的に追記するのでなく、写真から、OCRを用いて位置、時間、人物に関する情報を抽出し、道路標識から位置情報を抽出して、この抽出した情報をタグとしてデジタルデータに付与してデータを管理することが、特許文献1に開示されている。ところが、撮影された道路標示板が表す地名が必ずしも撮影地であるとは限らない。例えば道路標識は、「日本橋まで20km」などという道路利用者に目的地への経路や地点等に関する情報を提供するための表示である場合があるためである。
Instead of manually adding information here, the information about the position, time, and person is extracted from the photograph using OCR, the position information is extracted from the road sign, and the extracted information is added to the digital data as a tag.
本発明は上記実情に鑑みて為されたもので、撮影地の情報が記録されていない写真の画像情報に、後から撮影地の情報を追記することのできる画像処理装置を提供することを、その目的の一つとする。 The present invention has been made in view of the above circumstances, and provides an image processing apparatus capable of adding information on a shooting location later to image information of a photo in which shooting location information is not recorded. One of its purposes.
上記従来例の問題点を解決するための本発明は、画像処理装置であって、処理の対象となる画像情報を取得する手段と、前記取得した、処理の対象となる画像情報から場所を表す文字列及び距離を表す文字列を含んだ領域を認識する認識処理手段と、前記認識した領域から、場所を表す文字列と、距離を表す文字列とを文字認識し、当該文字認識結果に基づいて、前記処理の対象となった画像情報の撮影地を推定する推定手段と、前記推定した撮影地の情報を出力する手段と、を含むこととしたものである。 The present invention for solving the problems of the conventional example described above is an image processing apparatus, and means for acquiring image information to be processed and represents a place from the acquired image information to be processed A recognition processing means for recognizing a region including a character string and a character string representing a distance; and character recognition representing a character string representing a location and a character string representing a distance from the recognized region, and based on the character recognition result In addition, an estimation unit that estimates the shooting location of the image information that is the target of the processing and a unit that outputs information on the estimated shooting location are included.
また本発明の一態様に係る画像処理装置は、処理の対象となる画像情報を取得する手段と、前記取得した、処理の対象となる画像情報から、場所を表す文字列及び距離を表す文字列の組を複数含んだ領域を認識する認識処理手段と、前記認識した領域から、各組に含まれる場所を表す文字列と距離を表す文字列とを文字認識し、当該文字認識結果に基づいて、前記処理の対象となった画像情報の撮影地の範囲を絞込み推定する推定手段と、前記推定した撮影地の情報を出力する手段と、を含むこととしたものである。 An image processing apparatus according to an aspect of the present invention includes a unit that acquires image information to be processed, a character string that represents a location, and a character string that represents a distance from the acquired image information to be processed. Recognition processing means for recognizing a region including a plurality of sets of characters, and character recognition of a character string representing a location and a character string representing a distance included in each set from the recognized region, and based on the character recognition result The image processing apparatus includes an estimation unit that narrows and estimates a shooting location range of the image information to be processed, and a unit that outputs the estimated shooting location information.
またこれらにおいて、前記認識処理手段はさらに、前記取得した、処理の対象となる画像情報から、路線を表す文字列を認識し、前記推定手段は、前記認識した路線を表す文字列の文字認識結果をさらに用いて、前記処理の対象となった画像情報の撮影地を推定してもよい。 In these, the recognition processing means further recognizes a character string representing a route from the acquired image information to be processed, and the estimation means recognizes a character recognition result of the character string representing the recognized route. May be used to estimate the shooting location of the image information to be processed.
また前記認識処理手段は場所を表す文字列及び距離を表す文字列を含んだ領域の候補として、前記処理の対象となる画像情報から柱状体が含まれる画像部分を認識し、当該認識した画像部分の内から、場所を表す文字列及び距離を表す文字列を含んだ領域を探索してもよい。 Further, the recognition processing means recognizes an image part including a columnar body from the image information to be processed as a candidate area including a character string representing a place and a character string representing a distance, and the recognized image part An area including a character string representing a place and a character string representing a distance may be searched from among the above.
さらに前記認識処理手段はさらに、前記処理対象となる画像情報に方向を示す画像が含まれる場合には、当該画像が示す方向を認識し、当該認識処理手段により認識された方向に基づいて、撮影方角を推定する手段をさらに含むものであってもよい。 Further, the recognition processing means further recognizes the direction indicated by the image when the image information to be processed includes an image indicating the direction, and captures the image based on the direction recognized by the recognition processing means. It may further include means for estimating the direction.
また前記処理の対象となった画像情報の撮影日時を参照し、当該撮影日時を含む予め定めた時間範囲に撮像された他の画像情報を取得する手段をさらに含み、前記認識処理手段は、当該他の画像情報から場所を表す文字列及び距離を表す文字列を含んだ領域を少なくとも一つ認識し、前記推定手段は、当該認識された領域内の文字列を文字認識し、当該文字認識結果に基づいて他の画像情報の撮影地を推定するとともに、当該他の画像情報の撮影地の推定結果を、さらに用いて、前記処理の対象となった画像情報の撮影地を推定することとしてもよい。 The image processing apparatus further includes means for referring to the shooting date and time of the image information to be processed and acquiring other image information captured in a predetermined time range including the shooting date and time. Recognizing at least one area including a character string representing a location and a character string representing a distance from other image information, the estimation means recognizes a character string in the recognized area, and the character recognition result And estimating the shooting location of the image information based on the image information, and further using the estimation result of the shooting location of the other image information to estimate the shooting location of the image information subject to the processing. Good.
さらに本発明の別の態様に係るプログラムは、コンピュータを、処理の対象となる画像情報を取得する手段と、前記取得した、処理の対象となる画像情報から場所を表す文字列及び距離を表す文字列を含んだ領域を認識する認識処理手段と、前記認識した領域から、場所を表す文字列と、距離を表す文字列とを文字認識し、当該文字認識結果に基づいて、前記処理の対象となった画像情報の撮影地を推定する推定手段と、前記推定した撮影地の情報を出力する手段と、として機能させることとしたものである。 Furthermore, a program according to another aspect of the present invention provides a computer that obtains image information to be processed, a character string that represents a location, and a character that represents a distance from the acquired image information to be processed. A recognition processing means for recognizing an area including a column, and character recognition representing a place and a character string representing a distance from the recognized area, and based on the character recognition result, The estimation means for estimating the shooting location of the acquired image information and the means for outputting the information of the estimated shooting location are functioned.
本発明によると、撮影地の情報が記録されていない写真の画像情報に、後から撮影地の情報を追記することができる。 According to the present invention, information on a shooting location can be added later to the image information of a photo in which shooting location information is not recorded.
本発明の実施の形態について図面を参照しながら説明する。本発明の実施の形態に係る画像処理装置1は、図1に例示するように、制御部11、記憶部12、操作部13、表示部14、通信部15、及び入出力インタフェース16を含んで構成されている。ここで制御部11は、CPUなどのプログラム制御デバイスであり、記憶部12に格納されたプログラムに従って動作する。
Embodiments of the present invention will be described with reference to the drawings. As illustrated in FIG. 1, the
具体的に本実施の形態では制御部11は、処理の対象となる画像情報を入出力インタフェース16を介して受け入れて、記憶部12に蓄積して格納する。本実施の形態で処理の対象となる画像情報は、デジタルカメラ等で撮像された画像を表す画像情報であり、撮影日の情報や撮影したカメラを特定するカメラ特定情報等のメタデータを含む。ここでメタデータはいわゆるExif(Exchangeable Image File Format)情報であってもよい。
Specifically, in the present embodiment, the
本実施の形態の制御部11は、この記憶部12に蓄積された画像情報のうちから、処理の対象となる画像情報を取得し、取得した処理の対象となる画像情報から場所を表す文字列及び距離を表す文字列を含んだ領域を認識する。またこの認識した領域から、場所を表す文字列と、距離を表す文字列とを文字認識し、当該文字認識結果に基づいて、処理の対象となった画像情報の撮影地を推定する。この制御部11の詳しい処理の内容は、後に述べる。
The
記憶部12は、制御部11によって実行されるプログラムを格納している。このプログラムは、DVD−ROM(Digital Versatile Disc Read Only Memory)等のコンピュータ可読な記録媒体に格納されて提供され、この記憶部12に格納されたものであってもよい。また、このプログラムは、ネットワーク等を介して配信され、この記憶部12に格納されたものであってもよい。またこの記憶部12は制御部11のワークメモリとしても動作する。
The
本実施の形態ではこの記憶部12には、図2に例示するように、画像情報とタグ情報とを関連付けて、画像データベースとして蓄積して格納している。なおこのメタデータとしてのタグ情報には、関連する画像情報のExifデータから取り出されたデータが含まれてもよい。
In the present embodiment, as illustrated in FIG. 2, the
操作部13は、例えばマウスやキーボード等であってもよいし、赤外線リモートコントローラ等の入力インタフェースであってもよい。本実施の形態のある例では、この操作部13は、赤外線入力インタフェースであり、利用者の指示操作を受けたリモートコントローラが発信する、利用者の指示操作の内容を表す情報を受信する。そしてこの操作部13は、当該受信した指示操作の内容を表す情報を制御部11に出力する。
The
表示部14は、制御部11から入力される指示に従い、内蔵ディスプレイや家庭用テレビジョン装置等の外部ディスプレイに画像を出力するインタフェースである。通信部15は、例えばネットワークインタフェースであり、有線または無線にてネットワークに接続され、ネットワークを介して受信される情報を制御部11に出力する。またこの通信部15は、ネットワークを介して送信するべき情報の入力を制御部11から受けて、当該情報をネットワークを介して送信する。
The
入出力インタフェース16は、例えばSDカードスロットやUSB(Universal Serial Bus)インタフェース等である。この入出力インタフェース16は、例えば制御部11から入力される指示に従い、ここへ接続されたSDカードや、USBメモリ、USBハードディスクドライブ等から画像情報を読み出して制御部11に出力する。
The input /
次に本実施の形態の制御部11の処理の内容について述べる。制御部11は、記憶部12に格納されたプログラムを実行することにより、機能的には図3に例示するように、画像情報取得部21と、認識処理部22と、推定部23と、情報出力部24とを含むものとして動作する。
Next, the content of the process of the
ここで画像情報取得部21は、例えば記憶部12に蓄積された画像情報のタグ情報を参照し、撮影地の情報が含まれていない画像情報を処理の候補として選択する。画像情報取得部21はそして、この選択した処理の候補となった画像情報の一つを処理の対象として取得する(記憶部12の画像データベースから読み出す)。
Here, the image
認識処理部22は、画像データベースから読出した画像情報に対して、場所を表す文字列及び距離を表す文字列を含んだ領域を認識する処理を実行する。具体的には、この処理はいわゆる道路標識を認識する処理であり、一例として次のようにして行われる。
The
すなわち道路標識には、一般的に図4に例示するように、
(a1)一般道路上にあって、方面、方向及び距離を表すもの(路線表示のないもの)、
(a2)一般道路上にあって、方面、方向及び距離を表すもの(路線表示のあるもの)、
(b)高速道路上にあって、方面及び距離を表すもの、
(c)方面及び方向を予告するもの、
(d)方面や車線を表示するもの、
(e)高速道路上で出口やサービスエリア、料金所等を予告するもの、
(f)著名ないし主要地点を表すものなどがある。これらは、例えば日本であれば道路標識、区画線及び道路標示に関する命令の別表第2に規定されており、諸国においても、例えば米国のFederal Highway Administrationにより提供されているManual on Uniform Traffic Control Devices(MUTCD)といったマニュアルに同様の規定がされたものがある。
In other words, as shown in FIG.
(A1) It is on a general road and represents the direction, direction and distance (no route display),
(A2) It is on a general road and represents the direction, direction and distance (with a route display),
(B) on a highway, indicating direction and distance,
(C) Notice of direction and direction,
(D) display direction or lane,
(E) A notice on the expressway on exits, service areas, tollgates,
(F) Some are famous or represent major points. For example, in Japan, these are stipulated in
これらの規定にあるように、道路標識の背景色は予め定められている。そこでこの認識処理部22は、図5に示すように、処理対象として取得した画像情報に含まれる画素から、画素値Pが、上記予め定められた色を表す画素値(複数あってもよいので、それぞれをQ1,Q2…とする)に対して色空間上で予め定めたしきい値を下回る距離となっている画素を抽出する(S1)。この抽出結果は例えば図6の(S1)に示すようなものとなる。ここで色空間は例えばRGB(Red Green Blue)の各値で定義できる三次元空間であり、画素値間の距離は、この色空間内のユークリッド距離で定義すればよい。
As described in these regulations, the background color of the road sign is predetermined. Therefore, as shown in FIG. 5, the
また認識処理部22は、処理対象として取得した画像情報に対してエッジ検出の画像処理を実行し、二値化された輪郭線の画像情報を得る((S2),図6の(S2))。また認識処理部22は、輪郭線で囲まれた領域内の画素群をラベリング処理する((S3),図6の(S3))。このラベリング処理は、輪郭線を追跡し、輪郭線で囲まれた領域ごとに互いに異なる識別情報を関連付ける、広く知られた処理が利用できるので、ここでの詳しい説明を省略する。認識処理部22は、ラベリングした画素群を含む領域ごとに、領域ごとに固有の識別情報と、領域を特定する情報(処理対象の画像情報と同じサイズの画像情報であって、ラベリングした画素群を有意な画素(例えば黒色)に設定し、ラベリングした画素群以外の画素を有意でない画素(例えば白色)に設定したマスク画像情報等)とを生成する((S4),図6の(S4))。
Further, the
認識処理部22はさらに、処理(S4)で生成した領域ごとの外形状を認識する処理を実行する(S5)。この外形状を認識する処理は、例えばSOM(Self Organizing Maps)等を用いて外形状を分類して認識する処理など、広く知られた方法を採用できるので、ここでの詳しい説明を省略する。認識処理部22は、この各領域の外形状を矩形、逆三角、六角形、矢印形状等に分類し、この分類結果を領域の外形状の認識結果とする。そして認識処理部22は、図6の(S6)に示すように、領域ごとに固有の識別情報と、領域を特定する情報と、領域の外形状の認識結果とを互いに関連付けて領域データベースとして記憶部12に格納する(S6)。また認識処理部22は矩形と認識された領域については、その四隅に相当する画素の座標値を見出し、これからホモグラフィー行列を求める。
The
次に認識処理部22は、処理(S4)で見出した各領域について、領域内に含まれる画素のうち、処理(S1)で抽出した画素の数をカウントする(S7)。つまり、輪郭線で囲まれた領域内で、道路標識の背景色に相当する画素値となっている画素の数を調べる。そして認識処理部22は、この画素数が予め定めたしきい値を超えている領域を選択する(S8)。認識処理部22は、処理対象の画像情報のうち、当該選択した領域内の画素部分について、当該領域の外形状から求めたホモグラフィー行列を用いて射影変換を行う(S9)。
Next, the
認識処理部22は、射影変換の結果として得られた画像情報の一部(処理の対象となった画像情報のうち、道路標識の背景色となっている部分に撮像された対象物の画像を、その正面から見た状態になるよう変換した画像、以下部分画像と呼ぶ,図6の(S10))を、当該部分画像が取り出された領域の識別情報と、当該領域の外形状を表す情報とに関連付けて記憶部12に格納しておく(S10)。処理の対象である画像情報に、道路標識の背景色に相当する画素を上記しきい値を超えて含む領域が複数ある場合は、各領域に対応する部分画像を記憶部12に格納する。
The
なお、方面、方向及び距離を表す文字列が、図4に示した(a1)一般道路上にあって、方面、方向及び距離を表すもの(路線表示のないもの)等のように白線によって複数の部分に区切られているような場合は、区切られた各部の画像が出力されることとなる(図6の(S10)に示した通り)。 A plurality of character strings representing directions, directions, and distances are indicated by white lines such as (a1) on a general road shown in FIG. 4 and indicating directions, directions, and distances (no route indications). In such a case, the image of each divided part is output (as shown in (S10) of FIG. 6).
推定部23は、認識処理部22が生成した部分画像Pi(領域i(i=1,2…)ごとの部分画像をPiとする)に対して文字認識処理(OCR処理)を実行する。これにより、部分画像ごとの文字認識結果が得られる。推定部23は、部分画像Piごとの文字認識結果Ci(i=1,2…)に、距離を表す文字列が含まれるか否かを調べる。これは文字列に数字が含まれるか否かを調べることによって行えばよい。
The
推定部23は、文字認識結果Ciに、地名(場所)と距離とを表す文字列が含まれる部分画像Piを選択して、次のような処理を実行する。まず推定部23は、当該選択した部分画像Piから認識された文字列Ciを用い、予め地名の文字列を列挙した地名辞書を参照して、地名部分Liを取得する。また推定部23は、文字列Ciから数字の部分を距離を表す文字列Diとして抽出する。推定部23は、この地名部分Liと距離を表す文字列Diとの組に基づいて撮影地を推定する。
なお、ここで地名辞書を参照する際には、部分画像Piから認識された文字列Ciについて部分一致する条件で地名部分Liを抽出してもよい。例えば「日比谷」全体でなくとも、「比谷」との部分一致により地名「日比谷」を地名部分Liとして推定して取得してもよい。
The
Here, when referring to the place name dictionary, the place name portion Li may be extracted under the condition of partially matching the character string Ci recognized from the partial image Pi. For example, the place name “Hibiya” may be estimated and acquired as the place name portion Li by partial matching with “Hibiya” instead of the entire “Hibiya”.
推定部23は、地名を表す文字列Liと、地理上の座標情報とを関連付けたデータベース(地名データベースと呼ぶ)を参照して、地名を表す文字列Liに関連付けられている地理上の座標情報(緯度経度の情報)Tiを取得する。日本であれば、このような地名データベースとしては国土交通省が提供する位置参照情報がある。
The
推定部23は、この緯度経度Tiを中心として、距離の情報Diの範囲を表す仮想円を地図上に生成する。推定部23は地名データベースを参照し、生成した複数の仮想円の重なり合う範囲内にある緯度経度の値に関連付けられた地名の文字情報を取得する。つまり推定部23は、複数の仮想円により、処理の対象となった画像情報の撮影地の範囲を絞り込み推定する。またここで、生成した仮想円の重なり合う範囲内にある緯度経度の値に関連付けられた地名の文字情報が複数見出された場合には、推定部23は、当該複数の地名の文字情報を取得する。ここで取得した文字情報で表される地名が、撮影地の推定結果となる。あるいは、この推定部23は、上記生成した仮想円の重なり合う範囲内にある緯度経度の値を、そのまま撮影地の推定結果として出力してもよい。例えば、上記生成した仮想円の重なり合う範囲の重心にある緯度経度の値を、撮影地の推定結果としてもよい。
The
情報出力部24は、推定部23が得た地名の文字情報を、処理対象となった画像情報の撮影地を表すタグ情報として、この処理対象となった画像情報に関連付けて、記憶部12の画像データベースに記録し、画像データベースを更新する。
The
また推定部23が取り出した、地名と距離とを表す文字列Li,Diが1つだけである場合は、一つの仮想円が得られるだけであるために、仮想円の重なり合う範囲が存在しない。この場合、推定部23は、仮想円の円周から予め定めた範囲内にある緯度経度の値に関連付けられた地名の文字情報を、地名データベースを参照して取得することとすればよい。または、推定部23は、仮想円の円周上に存在する緯度経度の値(円周上の複数の点での緯度経度の値としてもよい)を、そのまま画像情報の撮影地を表す情報として出力してもよい。
Further, when there is only one character string Li, Di representing the place name and distance extracted by the
さらに推定部23は、文字認識結果Ciに距離を表す文字列(数字)が含まれていない部分画像Piについては、処理に用いず、無視することとしてもよい。
Furthermore, the
また図4の(a2)に例示したように路線表示(R)のあるものについては、推定部23は、この路線表示に含まれる、路線を表す文字列を文字認識して、この路線を表す文字列の文字認識結果をさらに用いて、画像情報の撮影地を推定してもよい。
Further, as illustrated in (a2) of FIG. 4, for a route display (R), the
具体的にこの処理を行う場合、制御部11は、認識処理部22の処理として生成した領域データベースに含まれる領域のうち、外形状が路線を表す形状として予め定められているもの(例えば日本であれば逆三角形と六角形)となっている領域を選択する。そして認識処理部22は、領域内に含まれる画素のうち、図5の処理(S1)で抽出した画素の数をカウントする。つまり、輪郭線で囲まれた領域内で、道路標識の背景色に相当する画素値となっている画素の数を調べる。そして認識処理部22は、この画素数が予め定めたしきい値(矩形の場合のしきい値とは異なっていてよい)を超えている領域について、推定部23が文字認識処理を実行する。日本の場合は、逆三角形状に数字を白抜きで示したものが国道の番号であり、六角形状に数字を白抜きで示したものが都道府県道など地方道の番号である。また都道府県道の場合は、都道府県名が併せて表示されている。
Specifically, when this processing is performed, the
そこで、ここで推定部23が文字認識した結果は、
(1)逆三角形状であることを表す情報に関連付けた領域から認識された数字の文字列と、
(2)六角形状であることを表す情報に関連付けた領域から認識された数字及び都道府県名(地方名)の文字列と、
のいずれかまたは双方となる。すなわち、国道と地方道とが重複する区間もあるので、これら(1),(2)の双方が認識されたならば、この重複区間において撮像されたこととなり、推定部23は、これらの重複区間にある緯度経度情報を得て、当該緯度経度情報、または当該緯度経度情報から最も近い緯度経度情報に関連付けられた地名の文字列を取得して、撮影地の推定結果とする。これによると、撮影地の推定精度をより向上できる。
Therefore, here, the result of the character recognition by the
(1) a numeric character string recognized from an area associated with information representing an inverted triangular shape;
(2) a number and a character string of a prefecture name (region name) recognized from an area associated with information representing a hexagonal shape;
Either or both. That is, since there are sections where the national road and the local road overlap, if both of these (1) and (2) are recognized, the image is captured in the overlapping section, and the
推定部23は、(1)逆三角形状であることを表す情報に関連付けた領域から認識された数字の文字列については、国道の番号を表すものとし、また(2)六角形状であることを表す情報に関連付けた領域から認識された数字及び都道府県名の文字列については、当該都道府県名の文字列が表す都道府県道で、認識された数字はその番号を表すものとする。
The
これにより推定部23は、画像情報から道路を特定する情報を得る。そしてこの情報で特定された道路上に撮影者が存在していたものとして、撮影地の推定を行う。すなわち推定部23は、図7に例示するように、画像情報から認識された地名及び距離の情報を用いて、地図上に生成した複数の仮想円の円周により切り取られる、認識された国道または都道府県道の線分(曲線であってもよい)を見出す。そしてこれらの線分のうち、最も短い線分上、またはこの最も短い線分から予め定めた距離の範囲内にある緯度経度の値に関連付けられた地名の文字情報を、地名データベースを参照して取得する。ここで最も短い線分としたのは、各仮想円の中心までの距離をなるべく短くするためである。なお、複数の地名の文字情報が取得されてもよい。ここで取得した文字情報で表される地名が、撮影地の推定結果となる。具体的に図7に示した例では、「日本橋」から半径10kmとする仮想円Aと、「日比谷」から半径7kmとする仮想円Bとが地図上に生成されるものとしている。撮影者が存在していたとして特定される道路Rは、これらの仮想円A,Bが図7のように一部で重なり合う場合、仮想円Aの一方側と仮想円Bの一方側とに挟まれる部分r1と、仮想円Bの一方側と仮想円Aの他方側とに挟まれる部分r2と、仮想円Aの他方側と仮想円Bの他方側とに挟まれる部分r3とにわけられる。ここで最も短い線分は、部分r3となるので、推定部23は、この部分r3に含まれる点を撮影地の推定結果とする。またすでに述べたように、この線分上にある緯度経度の値(例えば線分上の中点にあたる緯度経度の値)を撮影地の推定結果としてもよい。
Thereby, the
また制御部11は、さらに処理対象とした画像情報に、外形状が矢印等の方向を示す画像なっている領域が含まれる場合であって、この領域内の道路標識の背景色に相当する画素値となっている画素の数が予め定めたしきい値(他の外形状の場合のしきい値とは異なっていてよい)を超えている場合に、その画像が示す方向、例えば当該画像が矢印であれば、その矢印の向きを認識して、当該方向(矢印の向きなど)に基づいて撮影方角を推定してもよい。
In addition, the
具体的にこの場合、制御部11の認識処理部22は、外形状が矢印となっている領域が含まれる場合であって、この領域内の道路標識の背景色に相当する画素値となっている画素の数が予め定めたしきい値(他の外形状の場合のしきい値とは異なっていてよい)を超えている場合に、当該領域(注目矢印領域と呼ぶ)が表す矢印の向きを次のように定める。すなわち認識処理部22は、画像情報を撮影時の向き(回転方向)に合わせる。この処理は例えば画像情報にExif情報が含まれていれば、そのOrientationの情報を参照する等の広く知られた処理を用いることができる。
Specifically, in this case, the
認識処理部22は、回転方向を合わせた状態で、注目矢印領域(複数あればそれぞれの注目矢印領域)の向きを例えば上方、左方、右方、下方の四方向または上方、左上方、左方、左下方、下方、右下方、右方、右上方の八方向に分類する。この分類は、学習処理によって行う等の広く知られた方法を採用できる。
The
認識処理部22は、注目矢印領域に外接する矩形を生成し、上方、左方、右方、下方の四方向のいずれかに分類された向きの注目矢印領域については、当該矩形の分類された向き側にある外接矩形の辺(例えば上方に分類された向きの注目矢印領域であれば、それに外接する矩形の上側の辺)、つまり、注目矢印領域内の矢印の向いている方向にある辺の中点の座標を注目点座標として取り出す。また認識処理部22は、左上方、左下方、右下方、右上方のいずれかに分類された向きの注目矢印領域については、当該矩形の分類された向き側にある外接矩形の頂点、つまり、注目矢印領域内の矢印の向いている方向にある頂点の座標を注目点座標として取り出す。
The
推定部23は、注目矢印領域と、その注目点座標とが認識処理部22によって取り出されているときは、領域データベースに記憶された各領域について文字認識処理した結果、得た文字列の重心座標に最も近い注目点座標の注目矢印領域を見出す。そして当該文字列と見出した注目矢印領域について分類された向きの情報とを関連付けて記憶部12に格納する。
When the
推定部23は、例えば上方の向きに関連付けられた文字列が表す地名を、地名データベースを参照して取得し、当該取得した地名の方向に撮影者が向いている(撮影方角が当該取得した地名の方向である)と推定する。
The
この場合、情報出力部24は、推定部23が得た地名の文字情報とともに、撮影方角の推定結果を、処理対象となった画像情報の撮影地並びに撮影方角を表すタグ情報として、この処理対象となった画像情報に関連付けて、記憶部12の画像データベースに記録し、画像データベースを更新する。
In this case, the
本実施の形態の画像処理装置1は以上の構成を基本的に備えてなり、次のように動作する。画像処理装置1は、SDカード等から取込んで記憶部12に蓄積した画像情報のうち、撮影地の情報が記録されていない写真の画像情報を選択し、選択した画像情報を処理の対象として、道路標識を認識する処理を行う。ここで道路標識が認識されると当該道路標識から、地名と距離とを表す文字列を文字認識により取得する。ここで例えば図4(a1)に例示した道路標識が撮影されていると、
L1:「国分寺」,D1:「4」
L2:「調布」,D2:「5」
L3:「立川」,D3:「7」
といった地名と距離とを表す文字列Li,Diが取得されることとなる。
The
L1: “Kokubunji”, D1: “4”
L2: “Chofu”, D2: “5”
L3: “Tachikawa”, D3: “7”
Character strings Li and Di representing such place names and distances are acquired.
画像処理装置1は、地名データベースを参照して地図上でL1:「国分寺」に対応する緯度経度を中心とした、半径D1:「4」キロメートルの仮想的な円形状(仮想円)を設定する。なお、各地に複数の「国分寺」がある場合は、それぞれに対応する緯度経度を中心として複数の仮想円を設定すればよい。また画像処理装置1は、他の認識結果についても同様にして、地図上でL2:「調布」に対応する緯度経度を中心とした、半径D2:「5」キロメートルの仮想円と、L3:「立川」に対応する緯度経度を中心とした、半径D3:「7」キロメートルの仮想円とを設定する。
The
そして画像処理装置1は、複数の仮想円の重なりあう領域を見出す。つまり各仮想円内の領域について他の仮想円に重なり合う領域があれば、当該領域を見出すことになる。ここでは、「国分寺」、「調布」、「立川」の各点を中心とした仮想円が互いに交わる領域を見出す(図8)。ここでは例えば「東京都」の「府中」の近傍で互いに交わる領域が存在するものとする。なお、図8では地名データベースに登録されている地名がそれぞれ表示されている。そこで画像処理装置1は、この画像情報が「東京都、府中」で撮影されたものと推定し、この推定の結果である撮影地の情報を、画像情報にタグ情報として関連付けて記憶部12に格納する。
Then, the
なお、本実施の形態は、ここまでに説明した例に限られるものではない。まず、ここまでの説明では、処理の対象とする一つの画像情報ごとに撮影地の情報を推定していたが、例えば15分程度の間に撮影された複数の画像情報の一つについて撮影地の情報が推定できたならば、当該複数の画像情報のうちの他の画像情報についてもほぼ同じ撮影地にいることが推定できる(15分の間に移動可能な距離は大きくないと仮定できる)。そこで本実施の形態の画像処理装置1の制御部11は、次のような処理を行ってもよい。
Note that the present embodiment is not limited to the examples described so far. First, in the description so far, the information on the shooting location is estimated for each piece of image information to be processed. However, for example, the shooting location for one of a plurality of pieces of image information taken in about 15 minutes is estimated. If this information can be estimated, it can be estimated that the other image information of the plurality of image information is also in the same shooting location (it can be assumed that the distance that can be moved in 15 minutes is not large). . Therefore, the
すなわち制御部11は、処理対象となる画像情報を選択した後、この選択した画像情報の撮影日時の情報を参照する。そして当該撮影日時を含む、予め定めた時間範囲に撮像された他の画像情報を記憶部12から取得する。なお、制御部11は、このとき、上記撮影日時を含む、予め定めた時間範囲に撮像された他の画像情報であって、かつ、処理対象となった画像情報を撮影したカメラと同じカメラで撮影された他の画像情報を取得することとしてもよい。
That is, after selecting the image information to be processed, the
制御部11は、処理対象となる画像情報と、取得した他の画像情報とのそれぞれについて、道路標識を認識する処理と、認識した道路標識から地名と距離とを表す文字列を文字認識により取得する処理とを実行する。そして制御部11は、これら複数の画像情報から得られた、地名と距離とを表す文字列について、それぞれの地名に対応する緯度経度を中心とした仮想円を地図上に設定し、複数の仮想円の重なりあう領域を見出す。制御部11は、見出した領域内にある緯度経度に関連付けられた地名の情報を地名データベースを参照して取得し、取得した地名が撮影地であると推定する。制御部11は、この推定の結果である撮影地の情報を、処理対象となった画像情報にタグ情報として関連付けて記憶部12に格納する。このとき取得された他の画像情報にも同様に、この推定の結果である撮影地の情報を、タグ情報として関連付けて記憶部12に格納してもよい。
For each of the image information to be processed and the acquired other image information, the
また制御部11は、処理対象となる画像情報と、取得した他の画像情報とのそれぞれについて、道路標識を認識する処理と、認識した道路標識から地名と距離とを表す文字列を文字認識により取得する処理とを実行し、それぞれの画像情報ごとに取得された地名と距離とを表す情報から撮影地を推定する処理を行ってもよい。この場合、画像情報ごとに異なる撮影地が推定されることがあり得る。制御部11は、例えば各画像情報について推定された撮影地の緯度経度の情報の平均値を算出し、当該平均値に最も近い緯度経度に関連付けられた地名の情報を地名データベースから取得し、取得した地名が撮影地であると推定してもよい。
In addition, the
また本実施の形態の画像処理装置1は、ここまでに例示した道路標識だけでなく、例えば電柱や、駅の駅名標示版等を認識し、それらに含まれる地名、駅名、電話番号などを認識し、撮影地の推定の処理に供してもよい。
In addition, the
さらに、例えば電柱に取付けられた看板には、場所を表す文字列とともに距離が明示されているものもある。一例としては「XX医院、ココから30m先」といったような文字列がそれである。そこで制御部11は、処理の対象となる画像情報について柱状体を含む画像部分を認識し、当該認識した画像部分の内から、場所を表す文字列及び距離を表す文字列を文字認識して取得してもよい。
Furthermore, for example, some signs attached to utility poles have a distance clearly indicated along with a character string representing the place. An example is a character string such as “XX clinic, 30 meters away from here”. Therefore, the
ここで場所を表す文字列は例えば、「XX医院」といった施設等を表す文字列であってもよいし、電話番号であってもよい。制御部11は、これら場所を表す文字列に対応する緯度経度の情報を、例えばカーナビゲーションシステムで用いられているようなデータベースを参照して取得する。また距離を表す文字列については、その単位(メートル「m」や、キロメートル「km」)を含めて文字認識する。なお、このデータベースは、作成日時別に複数あってもよい。制御部11は、処理の対象となる画像情報の撮影日時を参照し、当該撮影日時に作成日時が最も近いデータベースを選択して、当該選択したデータベースを参照して、場所を表す文字列に対応する緯度経度の情報を取得する。このようにすると、ランドマークとなるべき店舗の名称と、これに対応する緯度経度の情報との対応関係等が変更される場合などに配慮した処理とすることができる。
Here, the character string representing the location may be, for example, a character string representing a facility such as “XX clinic” or a telephone number. The
以下は道路標識から地名と距離との文字列を認識した場合と同様に、制御部11は、当該文字認識された場所を表す文字列に対応する緯度経度を中心とし、距離を表す文字列により半径を定めた仮想円を地図上に設定すればよい。なお、この場合も、複数の仮想円が処理対象の画像情報(または処理対象の画像情報の撮影日時を含む予め定めた時間範囲に撮像された他の画像情報)から得られた場合は、当該複数の仮想円の重なり合う領域を見出してもよい。また、この場合は当該領域が地名データベースにおける地名の緯度経度の分布よりも小さいと考えられるので、この見出した領域に最も近い緯度経度に関連付けて地名データベースに登録されている地名を撮影地の推定結果として取得してもよい。また仮想円の重なりあう領域が複数見出される場合は、重なり合っている仮想円の数が最も多い領域を選択し、この選択した領域に最も近い緯度経度に関連付けて地名データベースに登録されている地名を撮影地の推定結果として取得してもよい。なお、仮想円の重なりあう領域がない場合は、各仮想円を予め定めた半径だけ拡大し、重なり合う領域ができた場合には、重なり合っている仮想円の数が最も多い領域を選択し、この選択した領域に最も近い緯度経度に関連付けて地名データベースに登録されている地名を撮影地の推定結果として取得してもよい。さらに、仮想円の重なりあう領域がない場合は、各仮想円の各中心を結ぶ線分の中点または各仮想円の各中心を結んでできる多角形の重心に最も近い緯度経度に関連付けて地名データベースに登録されている地名を撮影地の推定結果として取得してもよい。さらにこの場合も、選択した領域の重心など、選択した領域内にある緯度経度の情報をそのまま撮影地の推定結果として取得してもよいし、各仮想円の各中心を結ぶ線分の中点、または各仮想円の各中心を結んでできる多角形の重心を用いる場合は、当該重心にあたる位置の緯度経度の情報を撮影地の推定結果として取得してもよい。
In the following, similarly to the case where the character string of the place name and the distance is recognized from the road sign, the
また制御部11は、処理対象の画像情報(または処理対象の画像情報の撮影日時を含む予め定めた時間範囲に撮像された他の画像情報)から仮想円が一つしか得られなかった場合は、この仮想円の円周から、予め定めた範囲内にある緯度経度に関連付けて地名データベースに登録されている地名を撮影地の推定結果として取得してもよい。
When the
さらにここまでの説明では、処理対象の画像情報は静止画であるものとしてきたが、処理対象の画像情報は動画であってもよい。動画の画像情報は、静止画の画像情報を撮影時間順に配列したものと同じであるので、動画中の静止画の画像情報を、予め定めた時間間隔で抽出して、それぞれを処理対象の画像情報として取り出し、それぞれの画像情報について撮影地の推定結果を得ることとすればよい。あるいは、動画中の静止画の画像情報をそれぞれ処理の対象として、例えば道路標識の背景色に近い色の画素値を所定数以上含む静止画を抽出して、処理対象の画像情報として取り出し、当該取り出した画像情報について撮影地の推定結果を得ることとしてもよい。 Further, in the above description, the processing target image information is a still image, but the processing target image information may be a moving image. Since the image information of the moving image is the same as the image information of the still image arranged in order of shooting time, the image information of the still image in the moving image is extracted at a predetermined time interval, and each is processed. It is only necessary to take out as information and obtain a shooting location estimation result for each piece of image information. Alternatively, each piece of image information of a still image in a moving image is processed, for example, a still image including a predetermined number or more of pixel values of colors close to the background color of a road sign is extracted and taken out as image information to be processed. It is also possible to obtain a shooting location estimation result for the extracted image information.
これらの場合、動画から取り出した複数の画像情報について得た撮影地の推定結果の論理和集合を生成し、この生成した論理和集合に含まれる撮影地の情報を、動画像の画像情報に関連付けて記憶部12に格納する。動画から処理対象として取り出した複数の画像情報のそれぞれの撮影日時の情報を用いることで、動画撮影時の移動速度を推定することもできる。この場合はさらに、動画から処理対象として取り出され、撮影地が推定された複数の画像情報(推定済み画像情報)の間にある、動画から処理対象として取り出されなかった(撮影地の推定が行われなかった)画像情報(未推定画像)について、当該未推定画像の撮影日時に対して、その前後で最も近い撮影日時である推定済み画像情報を取り出して、当該取り出した2つの推定済み画像情報のそれぞれについて推定された撮影地の情報を用いて、それら推定された撮影地の間に、未推定画像の撮影地があるものとして推定処理を行ってもよい。
In these cases, a logical sum set of the shooting location estimation results obtained for a plurality of image information extracted from the moving image is generated, and the shooting location information included in the generated logical sum set is associated with the image information of the moving image. And stored in the
例えば、未推定画像の撮影日時Tより前の撮影日時で、最も近い撮影日時になっている推定済み画像情報の撮影日時がT1、推定された緯度経度の値が(LAT1,LON1)であり、また未推定画像の撮影日時より後の撮影日時で、最も近い撮影日時になっている推定済み画像情報の撮影日時がT2、推定された緯度経度の値が(LAT2,LON2)であるとすると(T1<T<T2となる)、未推定画像情報についての推定される撮影地は、
1 画像処理装置、11 制御部、12 記憶部、13 操作部、14 表示部、15 通信部、16 入出力インタフェース、21 画像情報取得部、22 認識処理部、23 推定部、24 情報出力部。
DESCRIPTION OF
Claims (8)
前記取得した、処理の対象となる画像情報から、場所を表す文字列及び距離を表す文字列の組を複数含んだ領域を認識する認識処理手段と、
前記認識した領域から、各組に含まれる場所を表す文字列と距離を表す文字列とを文字認識し、当該文字認識結果に基づいて、前記処理の対象となった画像情報の撮影地の範囲を絞込み推定する推定手段と、
前記推定した撮影地の情報を、前記処理の対象となった画像情報に関連付けて、画像データベースに記録する手段と、
を含み、
前記推定手段は、前記文字列の組のそれぞれに含まれる場所を表す文字列に対応する緯度経度を中心とし、距離を表す文字列により半径を定めた複数の仮想円を地図上に設定して、当該複数の仮想円の重なり合う領域に最も近い緯度経度に関連付けて地名データベースに登録されている地名を撮影地の情報として推定する画像処理装置。 Means for acquiring image information to be processed;
Recognition processing means for recognizing a region including a plurality of character strings representing a place and a character string representing a distance from the acquired image information to be processed;
A character string representing a place and a character string representing a distance included in each set are character-recognized from the recognized area, and based on the character recognition result, the range of the shooting location of the image information to be processed Estimating means for narrowing down and estimating,
Means for recording the estimated shooting location information in an image database in association with the image information to be processed;
Only including,
The estimating means sets on the map a plurality of virtual circles centered on a latitude and longitude corresponding to a character string representing a place included in each of the character string sets and having a radius determined by a character string representing a distance. An image processing apparatus that estimates the place name registered in the place name database in association with the latitude and longitude closest to the overlapping area of the plurality of virtual circles as shooting place information .
前記認識処理手段はさらに、前記取得した、処理の対象となる画像情報から、路線を表す文字列を認識し、
前記推定手段は、前記認識した路線を表す文字列の文字認識結果をさらに用いて、前記処理の対象となった画像情報の撮影地を推定する画像処理装置。 The image processing apparatus according to claim 1 ,
The recognition processing means further recognizes a character string representing a route from the acquired image information to be processed,
The said estimation means is an image processing apparatus which estimates the imaging | photography location of the image information used as the said process object further using the character recognition result of the character string showing the recognized route.
前記取得した、処理の対象となる画像情報から、場所を表す文字列及び距離を表す文字列を含んだ領域を認識する認識処理手段と、
前記認識した領域から、場所を表す文字列と、距離を表す文字列とを文字認識し、当該文字認識結果に基づいて、前記処理の対象となった画像情報の撮影地を推定する推定手段と、
前記推定した撮影地の情報を出力する手段と、を含み、
前記認識処理手段はさらに、前記取得した、処理の対象となる画像情報から、路線を表す文字列を認識し、
前記推定手段は、前記認識した路線を表す文字列の文字認識結果をさらに用いて、前記処理の対象となった画像情報の撮影地を推定する画像処理装置。 Means for acquiring image information to be processed;
Recognition processing means for recognizing a region including a character string representing a place and a character string representing a distance from the acquired image information to be processed;
An estimation means for recognizing a character string representing a place and a character string representing a distance from the recognized area, and estimating a shooting location of the image information to be processed based on the character recognition result; ,
Means for outputting information of the estimated shooting location,
The recognition processing means further recognizes a character string representing a route from the acquired image information to be processed,
The said estimation means is an image processing apparatus which estimates the imaging | photography location of the image information used as the said process object further using the character recognition result of the character string showing the recognized route.
前記取得した、処理の対象となる画像情報から、場所を表す文字列及び距離を表す文字列の組を複数含んだ領域を認識する認識処理手段と、Recognition processing means for recognizing a region including a plurality of character strings representing a place and a character string representing a distance from the acquired image information to be processed;
前記認識した領域から、各組に含まれる場所を表す文字列と距離を表す文字列とを文字認識し、当該文字認識結果に基づいて、前記処理の対象となった画像情報の撮影地の範囲を絞込み推定する推定手段と、A character string representing a place and a character string representing a distance included in each set are character-recognized from the recognized area, and based on the character recognition result, the range of the shooting location of the image information to be processed Estimating means for narrowing down and estimating,
前記推定した撮影地の情報を出力する手段と、を含み、Means for outputting information of the estimated shooting location,
前記認識処理手段はさらに、前記取得した、処理の対象となる画像情報から、路線を表す文字列を認識し、The recognition processing means further recognizes a character string representing a route from the acquired image information to be processed,
前記推定手段は、前記認識した路線を表す文字列の文字認識結果をさらに用いて、前記処理の対象となった画像情報の撮影地を推定する画像処理装置。The said estimation means is an image processing apparatus which estimates the imaging | photography location of the image information used as the said process object further using the character recognition result of the character string showing the recognized route.
前記認識処理手段は場所を表す文字列及び距離を表す文字列を含んだ領域の候補として、
前記処理の対象となる画像情報から柱状体が含まれる画像部分を認識し、
当該認識した画像部分の内から、場所を表す文字列及び距離を表す文字列を含んだ領域を探索する画像処理装置。 The image processing apparatus according to any one of claims 1 to 4 , wherein:
The recognition processing means is a candidate for a region including a character string representing a location and a character string representing a distance,
Recognizing an image portion including a columnar body from the image information to be processed,
An image processing apparatus that searches a region including a character string representing a place and a character string representing a distance from the recognized image portion.
前記認識処理手段はさらに、前記処理対象となる画像情報に方向を示す画像が含まれる場合には、当該画像によって示される方向を認識し、
当該認識処理手段により認識された方向に基づいて、撮影方角を推定する手段をさらに含む画像処理装置。 An image processing apparatus according to any one of claims 1 to 5 ,
The recognition processing means further recognizes the direction indicated by the image when the image information to be processed includes an image indicating the direction,
An image processing apparatus further comprising means for estimating a shooting direction based on the direction recognized by the recognition processing means.
前記処理の対象となった画像情報の撮影日時を参照し、当該撮影日時を含む予め定めた時間範囲に撮像された他の画像情報を取得する手段をさらに含み、
前記認識処理手段は、当該他の画像情報から、場所を表す文字列及び距離を表す文字列を含んだ領域を少なくとも一つ認識し、
前記推定手段は、当該認識された領域内の文字列を文字認識し、当該文字認識結果に基づいて他の画像情報の撮影地を推定するとともに、当該他の画像情報の撮影地の推定結果を、さらに用いて、前記処理の対象となった画像情報の撮影地を推定する画像処理装置。 The image processing apparatus according to any one of claims 1 to 6 ,
Means for acquiring other image information captured in a predetermined time range including the shooting date and time, referring to the shooting date and time of the image information to be processed;
The recognition processing means recognizes at least one area including a character string representing a place and a character string representing a distance from the other image information,
The estimation means character-recognizes a character string in the recognized area, estimates a shooting location of other image information based on the character recognition result, and calculates an estimation result of the shooting location of the other image information. And an image processing apparatus for further estimating the shooting location of the image information to be processed.
処理の対象となる画像情報を取得する手段と、
前記取得した、処理の対象となる画像情報から、場所を表す文字列及び距離を表す文字列の組を複数含んだ領域を認識する認識処理手段と、
前記認識した領域から、各組に含まれる場所を表す文字列と距離を表す文字列とを文字認識し、当該文字認識結果に基づいて、前記処理の対象となった画像情報の撮影地の範囲を絞込み推定する推定手段と、
前記推定した撮影地の情報を、前記処理の対象となった画像情報に関連付けて、画像データベースに記録する手段と、
として機能させ、
前記推定手段として機能させる際には、前記文字列の組のそれぞれに含まれる場所を表す文字列に対応する緯度経度を中心とし、距離を表す文字列により半径を定めた複数の仮想円を地図上に設定して、当該複数の仮想円の重なり合う領域に最も近い緯度経度に関連付けて地名データベースに登録されている地名を撮影地の情報として推定させるプログラム。 Computer
Means for acquiring image information to be processed;
Recognition processing means for recognizing a region including a plurality of character strings representing a place and a character string representing a distance from the acquired image information to be processed;
A character string representing a place and a character string representing a distance included in each set are character-recognized from the recognized area, and based on the character recognition result, the range of the shooting location of the image information to be processed Estimating means for narrowing down and estimating,
Means for recording the estimated shooting location information in an image database in association with the image information to be processed;
To function as,
When functioning as the estimating means, a plurality of virtual circles having a radius defined by a character string representing a distance centered on a latitude and longitude corresponding to a character string representing a place included in each of the character string sets are mapped A program that is set above and estimates the place name registered in the place name database in association with the latitude / longitude closest to the overlapping area of the plurality of virtual circles as shooting place information .
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012213196A JP6031915B2 (en) | 2012-09-26 | 2012-09-26 | Image processing apparatus and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2012213196A JP6031915B2 (en) | 2012-09-26 | 2012-09-26 | Image processing apparatus and program |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2014067302A JP2014067302A (en) | 2014-04-17 |
JP6031915B2 true JP6031915B2 (en) | 2016-11-24 |
Family
ID=50743615
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2012213196A Active JP6031915B2 (en) | 2012-09-26 | 2012-09-26 | Image processing apparatus and program |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP6031915B2 (en) |
Families Citing this family (4)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
CN104361024A (en) * | 2014-10-22 | 2015-02-18 | 百度在线网络技术(北京)有限公司 | Bus information inquiring and feedback method, mobile terminal and server |
DE102015207902A1 (en) * | 2015-04-29 | 2016-11-03 | Mando Corporation | Method and device for confirming the relevant inner white circle in the recognition of the environment of a circular traffic sign |
JP6759955B2 (en) * | 2016-10-07 | 2020-09-23 | 富士通株式会社 | Place name extraction program, place name extraction device and place name extraction method |
JP7492210B2 (en) | 2020-09-18 | 2024-05-29 | 株式会社Spectee | Image processing device, image processing method, and program |
Family Cites Families (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3776741B2 (en) * | 2001-03-29 | 2006-05-17 | 株式会社東芝 | Map information acquisition method, map information acquisition system, and program |
JP3958133B2 (en) * | 2002-07-12 | 2007-08-15 | アルパイン株式会社 | Vehicle position measuring apparatus and method |
JP2010266383A (en) * | 2009-05-16 | 2010-11-25 | Alpine Electronics Inc | Traffic sign recognition traveling guidance system |
-
2012
- 2012-09-26 JP JP2012213196A patent/JP6031915B2/en active Active
Also Published As
Publication number | Publication date |
---|---|
JP2014067302A (en) | 2014-04-17 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
CN108694882B (en) | Method, device and equipment for labeling map | |
JP6781711B2 (en) | Methods and systems for automatically recognizing parking zones | |
US10126141B2 (en) | Systems and methods for using real-time imagery in navigation | |
US11501104B2 (en) | Method, apparatus, and system for providing image labeling for cross view alignment | |
US11625851B2 (en) | Geographic object detection apparatus and geographic object detection method | |
US9129163B2 (en) | Detecting common geographic features in images based on invariant components | |
CN110501018A (en) | A kind of traffic mark board information collecting method for serving high-precision map producing | |
CN112991791B (en) | Traffic information identification and intelligent driving method, device, equipment and storage medium | |
US11815359B2 (en) | Method, device and system for processing positioning information | |
CN110969592B (en) | Image fusion method, automatic driving control method, device and equipment | |
JP6031915B2 (en) | Image processing apparatus and program | |
US20190188538A1 (en) | Method, apparatus, and system for providing skip areas for machine learning | |
JP2011170599A (en) | Outdoor structure measuring instrument and outdoor structure measuring method | |
US11361490B2 (en) | Attention guidance for ground control labeling in street view imagery | |
JP2015138428A (en) | Additional information display apparatus and additional information display program | |
US20200272847A1 (en) | Method, apparatus, and system for generating feature correspondence from camera geometry | |
JP2007265292A (en) | Road sign database construction device | |
US20220058825A1 (en) | Attention guidance for correspondence labeling in street view image pairs | |
TWI451990B (en) | System and method for lane localization and markings | |
JP2012099010A (en) | Image processing apparatus and image processing program | |
US20230175854A1 (en) | Explicit Signage Visibility Cues in Driving Navigation | |
TWI387940B (en) | Traffic information analysis system and method using geographic information module and aerial map | |
Cho | 3D organization of 2D urban imagery | |
CN112880692B (en) | Map data labeling method and device and storage medium | |
Novais et al. | Community based repository for georeferenced traffic signs |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20150518 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20160411 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20160426 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160621 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20160927 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20161010 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6031915 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |