JP2008059593A - 画像における対象物を認識する方法および画像認識デバイス - Google Patents

画像における対象物を認識する方法および画像認識デバイス Download PDF

Info

Publication number
JP2008059593A
JP2008059593A JP2007225633A JP2007225633A JP2008059593A JP 2008059593 A JP2008059593 A JP 2008059593A JP 2007225633 A JP2007225633 A JP 2007225633A JP 2007225633 A JP2007225633 A JP 2007225633A JP 2008059593 A JP2008059593 A JP 2008059593A
Authority
JP
Japan
Prior art keywords
image
digital map
map information
image data
recognition device
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2007225633A
Other languages
English (en)
Inventor
Stephan Bergmann
ベルクマン シュテファン
Ulrich Mohr
モーア ウルリッヒ
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Harman Becker Automotive Systems GmbH
Original Assignee
Harman Becker Automotive Systems GmbH
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Harman Becker Automotive Systems GmbH filed Critical Harman Becker Automotive Systems GmbH
Publication of JP2008059593A publication Critical patent/JP2008059593A/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/28Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network with correlation of data from several navigational instruments
    • G01C21/30Map- or contour-matching
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/70Determining position or orientation of objects or cameras
    • G06T7/73Determining position or orientation of objects or cameras using feature-based methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/588Recognition of the road, e.g. of lane markings; Recognition of the vehicle driving pattern in relation to the road

Landscapes

  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Theoretical Computer Science (AREA)
  • Multimedia (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Automation & Control Theory (AREA)
  • Navigation (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Instructional Devices (AREA)
  • Image Processing (AREA)

Abstract

【課題】画像における対象物を認識する方法を提供すること。
【解決手段】画像における対象物を認識する方法であって、該方法は、該画像に対応する画像データを抽出するステップと、デジタルマップ情報を抽出するステップであって、該デジタルマップ情報は、該画像によって表されたエリアの少なくとも一部についてのマップ情報を含み、該デジタルマップ情報は、該対象物についての情報を含む、ステップと、該画像データおよびデジタルマップ情報を評価することによって該対象物を認識するステップであって、該画像データおよび該デジタルマップ情報の両方は、該対象物を認識するために評価される、ステップとを包含する、方法。
【選択図】図9

Description

本発明は、画像における対象物を認識する方法および対応する画像認識デバイス、特に画像における道路または関連する構造物などの、ナビゲーション目的に関連する要素を識別するために用いられ得る方法およびデバイスに関連する。
画像の認識は、自動車関係の環境を含み、幅広く実施されている。特に、自動車関係のシステムにおける画像の認識は、様々な目的のために有利に用いられ得、それら目的には、ナビゲーション、すなわちはドライバーの車両の制御の際の援助を含む。これらの目的のために、車両の近辺の画像は、車両に搭載されたカメラによって頻繁に記録および/または分析されるが、それは、ナビゲーションの目的または車両の制御のために関連性があり得る道路または道路端部などの対象物を識別するためである。この出願においては、「対象物の識別」という用語は、対象物のタイプおよび対象物の位置を識別することを含むが、さらなる対象物のパラメータ、例えば対象物の大きさまたは対象物の方位をも含み得る。対象物が画像において識別または認識されると、特定のプロセスが、認識された対象物のタイプおよび位置に基づいて実行され得る。例えば、画像においてジャンクションまたは交差点が識別されると、車両のドライバーは、近づきつつあるジャンクションまたは交差点についての注意を喚起される。
画像における対象物を識別または認識するために現在用いられている方法およびデバイスは、しばしば遅く、不正確であるという欠点に苦しむ。この欠点は、単一の画像のみが分析されるのではなく、ビデオカメラが継続的に短い時間間隔に一連の画像を記録し、各画像がナビゲーションの目的のために分析されなくてはならないときに、特に関連がある。これは、例えばビデオカメラが車両に搭載される場合であって、リアルタイムに画像のストリームを評価することが望ましい場合に、あり得る。
従って、当該分野において、画像における対象物の認識のための向上した方法および画像認識デバイスの必要性がある。特に、当該分野において、向上した認識の精度および/または高められた認識速度を有する方法およびデバイスの必要性がある。
画像における対象物を認識する方法を提供すること。
一実施形態に従った、画像における対象物を認識する方法は、画像に対応する画像データを抽出するステップと、画像によって表されるエリアの少なくとも一部についてのマップ情報を包含し、対象物についての情報を包含するデジタルマップ情報を抽出するステップと、画像データおよびデジタルマップ情報を分析することによって対象物を認識するステップとを包含する。画像データは、カメラまたはビデオカメラから直接的に抽出され得、または画像データが格納されている格納ユニットまたはメモリユニットから読み出され得る。同様に、デジタルマップ情報は、あらゆる適切な格納ユニットまたはメモリユニットから抽出され得る。画像データおよびデジタルマップ情報の両方が、対象物を認識するために分析されるので、画像データを分析することによって対象物を認識し、続いて、デジタルマップ情報に基づいて、該対象物が正しく識別されたことを検証することが、特に可能であり、これによって認識の精度を向上させる。さらに、デジタルマップ情報に基づいて、画像上のどこに特定の形状または大きさなどを有する対象物が発見され得るかという予測を立てることも可能である。これによって、画像における対象物を識別する速度および精度が向上され得る。
画像データおよびデジタルマップ情報を評価するステップは、画像データを評価することによって対象物を最初に予備的に認識するステップと、続いて、デジタルマップ情報に基づいて、対象物が正しく認識されたことを検証するステップとを包含し得る。特に、デジタルマップ情報によって包含される対象物についての情報は、少なくとも1つの対象物の特性についての情報を包含し得、画像データおよびデジタルマップ情報を評価するステップは、対象物を認識するために画像データを評価するステップと、次いで画像データにおいて認識された対象物の特性を決定するステップと、後に、画像データにおいて認識された対象物の特性とデジタルマップ情報とを比較するステップとを包含し得る。対象物の特性は、例えば対象物の位置、形状または方位のうちの1つまたはいくつかであり得る。画像データから得られた対象物の特性とデジタルマップ情報によって包含された対応する情報との比較の結果に基づいて、対象物の識別は、検証され得る。これらの実施形態によれば、デジタルマップ情報は、画像データにおいて予め予備的に認識された対象物を検証するために用いられるので、画像データが、当該分野における公知のあらゆる標準的なアルゴリズムによって評価されることが可能である。本明細書中において用いられる「画像データの評価」という用語は、画像データを分析するために用いられるあらゆる標準的なアルゴリズムを含み、例えば、様々な方法、例えば画像データおよび適切なフィルターの畳み込みを計算することによる画像データのフィルタリングを含み得ることを理解されたい。
画像データおよびデジタルマップ情報を評価するステップはまた、デジタルマップ情報を用いることによって画像データの評価を容易にし、対象物を認識することを含み得る。特に、デジタルマップ情報は、画像における少なくとも1つの対象物の特性を予測するために用いられ得、画像データの評価は、結果として、デジタルマップ情報に基づいて予測された特性に従って集束または集中され得る。特に、予測された対象物の特性は、画像における構造物が、認識されるべき対象物であるという可能性を割り当てるために用いられ得る。対象物の特性は、例えば画像における対象物の位置、形状、または方位のうちの1つ、またはいくつかであり得る。対象物の特定の特性は、デジタルマップ情報に基づいて予測されるので、画像データの評価は速度を速められ得、これによって、画像における対象物を認識する速度および精度が向上する。
デジタルマップ情報によって包含された対象物についての情報は、対象物の位置についての情報を包含し得、その結果として、画像データの評価は、該対象物の位置についての情報に基づいて選択された小区分または画像データの特定の区域に制限され得る。言い換えると、デジタルマップ情報は、対象物の特定のタイプ、例えば道路、レーンマーカー、道路のジャンクションまたは交差点が、画像の特定の部分に発見され得る可能性を予測するために利用され得、その結果として、高い可能性でそれぞれの対象物が発見される画像の部分のみを分析することで十分となる。さらに、デジタルマップ情報によって包含された対象物についての情報はまた、対象物の形状および/または方位についての情報を包含し得、画像データの評価は、デジタルマップ情報によって提供された対象物の形状および/または方位についての情報に基づいて選択された形状および/または方位を有する対象物を識別するように制限され得る。デジタルマップ情報を用い、ある程度まで画像における対象物の形状および/または方位をも予測することによって、完全に異なる形状および/または方位を有する構造物は、画像を分析するときに容易に廃棄され得、これによって認識の速度および精度をさらに向上させる。
対象物を認識するための画像データおよびデジタルマップ情報の評価はまた、対象物のモデルと画像データとの比較を包含し得る。対象物のモデルは、少なくとも1つの変数パラメータを有し得、これは、画像における形状、位置、方位、または他のあらゆる対象物の特性が変化し得るということに基づいており、この場合において、画像データの評価は、少なくとも1つの変数パラメータに対する最適値または最適値に近接したものを発見することを包含する。様々な対象物のタイプに対する少なくとも1つの変数パラメータを有する包括的なモデルを提供することによって、画像における様々な構造物が、高い信頼度で認識され得る。例えば、平面図において、道路の直線部分が、一対の実質的に平行な直線によってモデル化され得、画像の斜視図において、一対の集束する線に変換される。道路の直線部分に対する通常のパラメータは、道路の幅および道路の中央に対する、画像を写すカメラのオフセット位置を含む。少なくとも1つの変数パラメータに対する最適値は、あらゆる適切なアルゴリズムを用いて発見され得る。特に、単一の画像が分析されるだけではなく、むしろビデオカメラによって記録された画像の準継続的なストリームが分析され、一度認識された構造物を追跡することが望ましい場合には、ベイズフィルタリングまたは粒子フィルタリングが、少なくとも1つの変数パラメータに対する最適値を決定するように用いられ得る。
本発明の実施形態の適用の一分野は、ナビゲーションシステムであることが予想されるので、デジタルマップ情報は、デジタルマップを普通に包含するナビゲーションシステムから検索され得、該デジタルマップは、例えばCD−ROM、DVD、ナビゲーションシステムの内蔵ハードディスク、またはあらゆる他の適切なストレージユニットに格納される。ナビゲーションシステムに格納されたデジタルマップ情報は、例えば個別の道路セグメントの方位についてなど、特定の対象物の形状および/または方位についての情報を含み得るが、道路標識のようなデジタルマップに含まれる他の多くの対象物に対しては、デジタルマップ情報は、例えば、停止のサインなどの対象物のタイプを特定する限定されたもののみを包含することに留意されるべきである。後者の場合においても、デジタルマップ情報は、少なくとも内在的に対象物の形状についての情報を含み、その理由は、デジタルマップ情報に格納された対象物のタイプについての情報は、追加の情報と組み合わされ得、それによって画像における対象物の形状を予測するためであるということを理解されたい。
方法は、現在の車両位置および現在の車両方位を決定するステップをさらに包含し、デジタルマップ情報の検索が、そのとき、現在の車両位置および現在の車両方位に基づいて行われる。車両位置および車両方位の情報は、カメラの視界が含まれるマップの部分を予測するのに十分なので、少なくとも、車両の縦軸および横軸に関連するカメラの位置および方位が既知である場合には、それによって画像における対象物を認識するためにだけに必要なデジタルマップの一部分を検索することが可能である。
方法は、分析されるべき画像、つまりは車両の近辺を示す画像を記録するステップをさらに包含し得る。これは、例えば車両の中にインストールされたカメラによって便利に達成され得る。これによって、画像は記録後に直ちに分析され得るので、該方法は、ナビゲーションの目的で利用され得る。
方法は、対象物の認識の結果をナビゲーションシステムに提供するステップをさらに包含する。これによって、画像の認識の結果をナビゲーションの目的、例えばドライバーへの運転指示の提供、ドライバーへの注意の喚起、またはイメージデータおよびデジタルマップ情報の評価の結果に基づく車両の制御に利用することが可能である。例えば、画像の認識は、マップデータよりもさらに正確な近接する対象物についての結果を提供し得るので、車両のドライバーへの運転指示の提供は、画像認識の結果に基づいて向上され得ることが予想される。しかし、画像における対象物の認識の結果は、幅広い様々な他のアプリケーションに対しても用いられ得ることが予想される。
画像において認識されるべき対象物は、幅広い様々な異なる対象物から選択され得る。一実施形態において、対象物は、道路と、道路のレーンと、レーンマーカーと、道路端部と、道路の交差点と、道路のわき道と、道路標識とを含む群から選択される。これらの対象物のタイプのうちの1つを有する対象物を認識することによって、多くのナビゲーションのアプリケーションが考えられる。
本発明の別の実施形態によれば、画像における対象物を認識する画像認識デバイスが提供され、該デバイスは、分析されるべき画像に対応する画像データを格納し、デジタルマップ情報を格納するメモリ手段であって、該デジタルマップ情報は、該画像によって表されたエリアの少なくとも一部についてのマップ情報を包含し、対象物についての情報をさらに包含する、メモリ手段と、プロセッシング手段であって、該メモリ手段から画像データおよびデジタルマップ情報を検索し、該画像データおよび該デジタルマップ情報を評価することによって対象物を認識する、プロセッシング手段と、を備えている。該画像データおよび該デジタルマップ情報を格納するメモリ手段は、単一の物理的な格納デバイスであり得るか、2つまたはいくつかの異なる格納エンティティであり得る。例えば、画像データは、第1の格納ユニットに格納され得、デジタルマップ情報は、第2の格納ユニットに格納され得る。この場合において、第1および第2の格納ユニットのうちの1つまたは両方は、車両の中に提供された別のシステムまたはデバイスなど、例えばナビゲーションシステムと一体化され得る。例えば、プロセッシング手段から検索されたデジタルマップ情報は、ナビゲーションシステムの格納ユニットに格納され得、その一方で、画像データは、画像認識デバイスに対する専用のユニットである別個に提供される格納ユニットに格納され得ることが予想される。この場合において、メモリ手段は、ナビゲーションシステムの格納ユニットと、画像認識デバイスの専用の格納ユニットとの両方を含み、該画像認識デバイスの専用の格納ユニットは、画像データを格納する。重要なのは、プロセッシング手段は、対象物を認識するために、画像データとデジタルマップ情報との両方を評価するということである。
プロセッシング手段は、画像データを評価することによって予備的に対象物を認識し、次いで、デジタルマップ情報に基づいて該対象物が正しく認識されたことを検証するように適合され得る。すなわち、画像データの評価の結果は、デジタルマップ情報に基づいてクロスチェックされる。対照的に、デジタルマップ情報が、予備的に識別された対象物と一致しない場合には、予備的に識別された対象物は廃棄される。さらに具体的には、デジタルマップ情報によって包含された対象物についての情報は、対象物の少なくとも1つの特性を包含し得、プロセッシング手段は、画像データを分析することによって予備的に対象物を認識し得、次いで、画像データからの予備的に認識された対象物の対応する特性を決定し得、次いで、画像データの予備的に識別された対象物の対応する特性と、デジタルマップ情報に格納された対応する特性とを比較し得る。このプロセスにおいて、該比較の結果に基づいて、予備的に認識された対象物は、実際に認識されるべき対象物であるという可能性が、割り当てられ得る。特に、対象物の特性は、対象物の位置、形状または方位のうちの1つまたはいくつかであり得る。これによって、画像認識デバイスが、画像データのみに基づいている予備的な対象物の認識の結果を、デジタルマップ情報とクロスチェックすることが可能である。
プロセッシング手段はまた、デジタルマップ情報を用いることによって画像データの評価を容易にし、対象物を認識し得る。特に、プロセッシング手段は、デジタルマップ情報を用いることによって、画像における対象物の特性を予側し得、次いで、対象物の予測された特性に基づいて画像データを分析し得る。この分析は、予測された特性に基づいて、特定の特性を有する、画像における構造物が、実際に認識されるべき対象物と対応するという可能性を割り当てることを包含し得る。加えて、対象物の特性は、例えば、対象物の位置、形状、または方位のうちの1つまたはいくつかであり得る。特に、デジタルマップ情報によって包含された対象物の情報は、対象物の位置についての情報を包含し得、プロセッシング手段は、次いで、デジタルマップ情報によって包含された対象物の位置についての情報に基づいて選択された画像データの小区分を分析し得る。すなわち、特定のタイプの対象物が画像において認識された場合には、プロセッシング手段は、最初に、デジタルマップ情報から、この特定の対象物のタイプを有する対象物を検索する可能性のある画像の部分を決定し得、次いで、特定の対象物のタイプを有する対象物を発見する可能性が所定の閾値を超える画像データの小区分のみを分析し得る。分析されるべきデータの量は、これによって低減されるので、対象物を識別するタスクが実行され得る速度は、高められる。さらに、画像データの評価は、特定のタイプの対象物が発見され得る可能性の低い画像の全ての区域を廃棄するので、対象物の誤った識別の可能性もまた、減少し、これによって、認識の精度が向上する。さらに、デジタルマップ情報によって包含された対象物についての情報はまた、対象物の形状および/または方位の情報を包含し得、プロセッシング手段は、従って対象物の形状および/または方位についての情報に基づいて選択された特定の形状および/または方位を有する対象物を識別するという観点から画像データを分析し得る。特に、デジタルマップ情報に基づいて対象物に対して予測された構造物から大いに異なる形状および/または方位を有する全ての構造物は、廃棄され得るので、画像認識の速度および精度は、さらに向上され得る。
プロセッシング手段は、対象物のモデルと画像データとを比較し、対象物を認識し得る。モデルを特徴付けるために要求されるデータはまた、メモリ手段に格納され得、またはさらに別の格納ユニットが、この目的のために提供され得る。対象物のモデルは、少なくとも1つの変数パラメータを有し得、この場合には、プロセッシング手段は、モデルと画像データとを比較することによって、該少なくとも1つの変数パラメータに対する最適値または最適値に近いものを見つける。特に、ベイズフィルタまたは粒子フィルターが用いられることによって、該少なくとも1つの変数パラメータに対するこの最適値を決定する。
デバイスはまた、現在の車両位置を決定する位置決定手段および現在の車両方位を決定する方位決定手段を備え得、位置および方位決定手段は、プロセッシング手段と結合され、プロセッシング手段は、現在の車両の位置および方位に基づいてデジタルマップ情報の一部分を選択するように適合される。上に説明されたように、現在の車両の位置および方位は、画像によって示される視界に対応するデジタルマップの部分を識別するのに十分である。専用の位置および方位決定手段が、画像認識デバイスに提供され得るが、該画像認識デバイスはまた、車両に乗せられた別のシステムまたはデバイスにおいて提供される位置および方位決定手段と結合され得ることが予想される。例えば、画像認識デバイスが、ナビゲーションシステムと組み合わさって用いられる場合には、画像認識デバイスのプロセッシング手段は、ナビゲーションシステムの位置および方位決定手段と結合され、その結果として、画像認識デバイスには別個の方位および位置決定手段が提供される必要はなくなることが予想される。しかし、別個の位置および方位決定手段は、画像認識デバイスに提供され得、この場合には画像認識デバイスは、自律的なユニットを形成し得ることが強調されるべきである。
画像認識デバイスはまた、対象物が認識されるべき画像を記録するカメラユニットを備え得、該カメラユニットは、画像を提供するために、メモリ手段と、可能であればプロセッシングユニットと結合される。これによって、変わり行く周囲の状況を示している新たな画像の準継続的なストリームが分析され得ることが可能である。本明細書に用いられる場合には、「カメラ」という用語は、個々の写真を撮影するために相応しいカメラのみではなく、ビデオカメラをも含むように理解されることに留意されるべきである。
本発明のさらに別の実施形態によれば、ナビゲーションシステムが提供され、該ナビゲーションシステムは、上述のいずれか1つの実施形態に従った画像認識デバイスを備えている。画像認識デバイスをナビゲーションシステムと一体化させることによって、様々な利点が達成される。一方では、画像認識デバイスは、ほとんどのナビゲーションシステムに格納されたデジタルマップ情報に容易にアクセスし得る。さらに、画像認識デバイスはまた、ナビゲーションシステムの他の構成要素である、例えばGPS受信器またはジャイロスコープデバイスを含み得る位置決定手段などによって提供される情報に容易にアクセスし得る。さらに、上に示されたように、ナビゲーションシステムのいくつかの機構および機能性もまた、画像認識デバイスによって提供される情報から利益を受け得、その結果として、画像認識デバイスをナビゲーションシステムと一体化させることによって、ナビゲーションシステムの機能性は、向上され得る。
ナビゲーションシステムは、デジタルマップを格納する格納ユニットを備え得、画像認識デバイスは、ナビゲーションシステムの格納ユニットと結合されることによって、そこからデジタルマップの少なくとも一部分を検索し得る。この場合において、ナビゲーションシステムの格納ユニットは、上に定義されたように、画像認識デバイスのメモリ手段の一部分を形成し得る。ナビゲーションシステムはさらに、光学的または音響的な出力ユニットを備え得ることによって、ドライバーに運転指示または警告信号を出力し、該運転指示または警告信号は、画像認識デバイスによって認識された対象物に依存して出力され得る。例えば、車両が現在移動している道路が、車両に搭載されたカメラによって記録された画像において認識されるときに、例えば該車両のドライバーが寝入ったために車両が道路の端部に接近しているかどうかを識別することが可能であり得る。この場合において、それぞれの警告信号が、ドライバーに出力され得る。
ナビゲーションシステムはさらに、現在の車両の位置を決定する位置決定手段を備え得、画像認識デバイスが認識された対象物についての情報を位置決定手段に提供し、位置決定手段が、認識された対象物についての情報に基づいて位置決定に対する精度を向上させる。この構成の基礎をなす理論的根拠は、位置決定手段によって決定された車両の位置が、関連性のあるマップ部分を識別するために既に用いられ、つまり、画像における対象物を識別するために利用された後に、画像認識デバイスによって得られた情報が、位置決定手段にフィードバックされ得ということである。より明確には、画像認識デバイスは、車両に近接する対象物からの車両の距離を高い精度で決定するために、十分に適していることが予想される。位置決定手段、例えばGPS受信器を、画像認識デバイスによって提供された認識された対象物についての情報に基づいて、再び調整することが可能である。
本発明の実施形態の適用の一分野は、ナビゲーションシステム、特に車両に搭載されたナビゲーションシステムであることが予想されるが、本発明は、それだけに限定されない。むしろ、本明細書中に記述された本発明の様々な原理は、異なる技術分野にも有利に用いられ得る。特に、本発明は、分析のために、画像のみならず画像に対応するマップをも利用可能であるあらゆる画像認識方法またはデバイスに対して、均等な機能を有して適用され得る。
本発明は、さらに、以下の手段を提供する。
(項目1)
画像における対象物を認識する方法であって、該方法は、
該画像に対応する画像データを抽出するステップと、
デジタルマップ情報を抽出するステップであって、該デジタルマップ情報は、該画像によって表されたエリアの少なくとも一部についてのマップ情報を含み、該デジタルマップ情報は、該対象物についての情報を含む、ステップと、
該画像データおよびデジタルマップ情報を評価することによって該対象物を認識するステップであって、該画像データおよび該デジタルマップ情報の両方は、該対象物を認識するために評価される、ステップと
を包含する、方法。
(項目2)
上記画像データおよび上記デジタルマップ情報の上記評価は、該画像データを評価することによって上記対象物を認識し、続いて、該デジタルマップ情報に基づいて、該対象物が正しく認識されたことを検証することを包含する、項目1に記載の方法。
(項目3)
上記デジタルマップ情報によって包含される上記対象物についての上記情報は、該対象物の位置、形状または方位のうちの少なくとも1つについての情報を包含し、
上記画像データおよび該デジタルマップ情報の上記評価は、該画像データを評価することによって該対象物を認識することと、該画像データから該対象物の位置、形状、または方位のうちの少なくとも1つを決定し、該画像データから決定された該対象物の位置、形状、または方位のうちの該少なくとも1つと該デジタルマップ情報とを比較すること、とを包含する、項目1に記載の方法。
(項目4)
上記画像データおよび上記デジタルマップ情報の上記評価は、該デジタルマップ情報を用いることによって該画像データの評価を容易にし、上記対象物を認識することを包含する、項目1に記載の方法。
(項目5)
上記画像データおよび上記デジタルマップ情報の上記評価は、該デジタルマップ情報を用いることによって上記画像における上記対象物の位置、形状、または方位のうちの少なくとも1つを予測することを包含し、
該画像データの評価は、該対象物の位置、形状、または方位のうちの該予測された少なくとも1つに基づいて、該画像における特定の位置、形状または方位を有する構造物が、認識されるべき該対象物であるという可能性を割り当てることを包含する、項目1に記載の方法。
(項目6)
上記デジタルマップ情報によって包含される上記対象物についての上記情報は、該対象物の上記位置についての情報を包含し、
上記画像データの評価は、該対象物の該位置についての情報に基づいて選択された該画像データの小区分に制限される、項目1に記載の方法。
(項目7)
上記デジタルマップ情報によって包含される上記対象物についての上記情報は、該対象物の形状および/または方位についての情報を包含し、
上記画像データの評価は、該対象物の形状および/または方位についての該情報に基づいて選択された形状および/または方位を有する対象物の識別に制限される、項目6に記載の方法。
(項目8)
上記画像データおよび上記デジタルマップ情報の上記評価は、上記対象物のモデルと該画像データとの比較を包含する、項目1に記載の方法。
(項目9)
上記対象物の上記モデルは、少なくとも1つの変数パラメータを有し、上記画像データおよび上記デジタルマップ情報の上記評価は、該少なくとも1つの変数パラメータに対する最適値の発見を包含する、項目8に記載の方法。
(項目10)
上記少なくとも1つの変数パラメータに対する上記最適値の上記発見は、ベイズフィルタリングまたは粒子フィルタリングを包含する、項目9に記載の方法。
(項目11)
上記デジタルマップ情報は、ナビゲーションシステムから抽出される、項目1に記載の方法。
(項目12)
上記方法は、現在の車両の位置を決定することを包含し、上記デジタルマップ情報の抽出は、該現在の車両の位置に基づいている、項目1に記載の方法。
(項目13)
上記方法は、現在の車両の方位を決定することを包含し、上記デジタルマップ情報の抽出は、該現在の車両の方位に基づいている、項目12に記載の方法。
(項目14)
上記方法は、上記画像を記録することを包含し、該画像は、車両の近辺を表示する、項目1に記載の方法。
(項目15)
上記方法は、上記画像データおよび上記デジタルマップ情報の上記評価の結果をナビゲーションシステムに提供することを包含する、項目1に記載の方法。
(項目16)
上記方法は、上記画像データおよび上記デジタルマップ情報の上記評価の結果に基づいて、ドライバーに運転指示を提供すること、またはドライバーに注意を喚起すること、または車両を制御することを包含する、項目15に記載の方法。
(項目17)
上記対象物は、道路と、道路のレーンと、レーンマーカーと、道路端部と、道路の交差点と、道路のわき道と、道路標識とを含む群から選択される、項目1に記載の方法。
(項目18)
画像における対象物を認識する画像認識デバイスであって、該デバイスは、
該画像に対応する画像データを格納し、デジタルマップ情報を格納するメモリ手段であって、該デジタルマップ情報は、該画像によって表されるエリアの少なくとも一部についてのマップ情報を包含し、該デジタルマップ情報は、該対象物についての情報を包含する、メモリ手段と、
該メモリ手段と結合したプロセッシング手段であって、該画像データおよび該デジタルマップ情報を評価することによって該対象物を認識し、該画像データおよび該デジタルマップ情報の両方は、該対象物を認識するために評価される、プロセッシング手段と
を備えている、デバイス。
(項目19)
上記プロセッシング手段は、上記画像データを評価することによって上記対象物を認識し、続いて、上記デジタルマップ情報に基づいて、該対象物が正しく認識されたことを検証する、項目18に記載の画像認識デバイス。
(項目20)
上記デジタルマップ情報によって包含される上記対象物についての上記情報は、該対象物の位置、形状、または方位のうちの少なくとも1つについての情報を包含し、
上記プロセッシング手段は、上記画像データを評価することによって該対象物を認識し、該画像データから該対象物の位置、形状、または方位のうちの該少なくとも1つを決定し、該画像データから決定された該対象物の位置、形状、または方位のうちの少なくとも1つと該デジタルマップ情報とを比較する、項目18に記載の画像認識デバイス。
(項目21)
上記プロセッシング手段は、上記デジタルマップ情報を用いることによって上記画像データの評価を容易にし、上記対象物を認識する、項目18に記載の画像認識デバイス。
(項目22)
上記プロセッシング手段は、上記デジタルマップ情報を用いることによって上記画像における上記対象物の位置、形状、または方位のうちの少なくとも1つを予測し、該対象物の位置、形状、または方位のうちの該予測された少なくとも1つに基づいて上記画像データを評価し、
該プロセッシング手段は、該対象物の位置、形状、または方位のうちの該予測された少なくとも1つに基づいて、該画像において特定の位置、形状または方位を有する構造物が、認識されるべき該対象物であるという可能性を割り当てる、項目18に記載の画像認識デバイス。
(項目23)
上記デジタルマップ情報によって包含される上記対象物についての上記情報は、該対象物の上記位置についての情報を包含し、
上記プロセッシング手段は、該対象物の該位置についての情報に基づいて選択された上記画像データの小区分を評価する、項目18に記載の画像認識デバイス。
(項目24)
上記デジタルマップ情報によって包含される上記対象物についての上記情報は、上記対象物の形状および/または方位についての情報を包含し、
上記プロセッシング手段は、上記画像データを評価することによって、該対象物の形状および/または方位についての情報に基づいて選択された形状および/または方位を有する対象物を識別する、項目22に記載の画像認識デバイス。
(項目25)
上記プロセッシング手段は、上記対象物のモデルと上記画像データとを比較することによって該対象物を認識する、項目18に記載の画像認識デバイス。
(項目26)
上記対象物の上記モデルは、少なくとも1つの変数パラメータを有し、上記プロセッシング手段は、該少なくとも1つの変数パラメータに対する最適値を発見する、項目25に記載の画像認識デバイス。
(項目27)
上記プロセッシング手段は、ベイズフィルタまたは粒子フィルターを用いることによって、上記少なくとも1つの変数パラメータに対する上記最適値を発見する、項目26に記載の画像認識デバイス。
(項目28)
上記デバイスは、現在の車両位置を決定する位置決定手段を備えており、
該位置決定手段は、上記プロセッシング手段と結合され、該プロセッシング手段は、該現在の車両位置に基づいて上記デジタルマップ情報の一部分を選択するように適合されている、項目18に記載の画像認識デバイス。
(項目29)
上記デバイスは、現在の車両の方位を決定する方位決定手段を備えており、
該方位決定手段は、上記プロセッシング手段と結合され、該プロセッシング手段は、該現在の車両の方位に基づいて上記デジタルマップ情報の一部分を選択するように適合されている、項目28に記載の画像認識デバイス。
(項目30)
上記デバイスは、上記画像を記録するカメラユニットを備えており、該カメラユニットは、上記メモリ手段と結合され、該画像を上記メモリ手段に提供する、項目18に記載の画像認識デバイス。
(項目31)
ナビゲーションシステムであって、該ナビゲーションシステムは、
画像認識デバイスであって、該画像認識デバイスは、
該画像に対応する画像データを格納し、デジタルマップ情報を格納するメモリ手段を備えており、該デジタルマップ情報は、該画像によって表されるエリアの少なくとも一部分についてのマップ情報を包含し、該デジタルマップ情報は、該対象物についての情報を包含する、画像認識デバイスと、
該メモリ手段と結合したプロセッシング手段であって、該画像データおよび該デジタルマップ情報を評価することによって該対象物を認識し、該画像データおよび該デジタルマップ情報の両方が評価されることによって該対象物を認識する、プロセッシング手段と
を備えている、ナビゲーションシステム。
(項目32)
デジタルマップを格納するストレージユニットを備えており、上記画像認識デバイスは、該ストレージユニットと結合されることによって、そこから該デジタルマップの少なくとも一部を抽出する、項目31に記載のナビゲーションシステム。
(項目33)
ドライバーに運転指示または警告信号を出力する光学的または音響的な出力ユニットを備えており、
該運転指示または警告信号は、上記画像認識デバイスによって認識された上記対象物に依存して出力される、項目31に記載のナビゲーションシステム。
(項目34)
現在の車両の位置を決定する位置決定手段を備えており、
上記画像認識デバイスは、上記認識された対象物についての位置情報を該位置決定手段に提供し、該位置決定手段は、該認識された対象物についての該位置情報に基づいて位置決定の精度を向上させる、項目31に記載のナビゲーションシステム。
(項目35)
ナビゲーションシステムおよび画像認識デバイスのアセンブリであって、該アセンブリは、
位置決定デバイスと、
画像認識デバイスであって、該画像認識デバイスは、画像データおよびデジタルマップ情報の両方を評価することによって該画像データによって表される画像における対象物を認識するように構成され、該画像認識デバイスは、該位置決定デバイスと結合されることによってそれに対する該対象物の相対的な位置についての情報を提供する、画像認識デバイスと
を備えている、ナビゲーションシステムおよび画像認識デバイスのアセンブリ。
(項目36)
上記位置決定デバイスは、現在の車両の位置についての情報を上記画像認識デバイスに出力する、項目35に記載のナビゲーションシステムおよび画像認識デバイスのアセンブリ。
(項目37)
上記位置決定デバイスは、上記相対的な位置についての上記情報に基づいて上記位置決定デバイスを再び調整するように構成される制御回路を備えている、項目36に記載のナビゲーションシステムおよび画像認識デバイスのアセンブリ。
(摘要)
画像における対象物を認識する方法および画像認識デバイスが提供され、対象物は、画像データおよび画像によって表されるエリアに対応するデジタルマップ情報の両方に基づいて認識される。一実施形態によれば、デジタルマップ情報は、選択される画像データの小区分に基づいて、画像上の対象物の位置を予測するために評価される。後に、画像データのこの小区分のみが、対象物を認識するために分析される。
以下において、本発明の好ましく有利な実施形態は、添付の図面を参照しながら記述される。
以下に、本発明の好ましい、または有利な実施形態が、非限定的な実施例を用いて開示される。明確に記載されない限り、様々な実施形態の特徴は、互いに組み合わされ得るということが理解されるべきである。
図1は、ナビゲーションシステム2と結合し本発明の実施形態に従った、画像認識デバイス1の概略ブロック図を示す。画像認識デバイス1は、プロセッシング手段3、例えば任意の標準的プロセッサを含む。プロセッシング手段3は、カメラユニット4およびメモリ手段5と結合される。好ましい実施形態において、カメラユニット4は、画像を規則的な時間の間隔で提供する、例えば1秒間に25画像を提供するビデオカメラを含む。メモリ手段5は、任意の適切なメモリユニットまたは格納ユニットであり得、読取りおよび書き込みの両方のアクセスを可能とする、例えばDRAMまたはSRAMタイプのRAMタイプメモリまたはハードディスクであり得る。メモリ手段5は、好ましくは十分な格納容量を有し、カメラユニット4によって提供される少なくとも1つの画像と該画像によって表される区域に相当するデジタルマップの一部との両方を格納する。
図1において、画像認識デバイス1は、ナビゲーションシステム2と結合されるように示される。ナビゲーションシステム2は、ナビゲーションシステムの全ての標準的な構成要素、例えばプロセッシングユニットまたはCPU6と、デジタルマップを格納するCD−ROM、DVD、ハードディスクまたは他の適切な格納媒体の形状の格納ユニット7と、キーボード、タッチスクリーンまたはマイクなどの入力ユニット(不図示)と、現在の車両の位置および方位を決定する、例えばGPS受信器およびジャイロスコープデバイスなどを含み得る位置および方位決定手段8と、ドライバーに光学的および音響的な情報を提供し得、ディスプレイおよび/またはラウドスピーカを含み得る出力ユニット9と、を含む。
車内における図1に概略的に示される構成要素の配置は、図2によって例示される。分かり得るように、自動車10にインストールされた状態において、カメラユニット4のビデオカメラは、車内の高い位置で、フロントガラスの上部位置の付近、例えばルームミラーまたはサンバイザーの付近にインストールされ得る。図1に概略的に示される他の全ての構成要素は、車内の任意の位置にインストールされ得るが、好ましくは計器パネルの付近または計器パネルの位置にインストールされ得る。カメラユニット4のビデオカメラの位置および方位は、特徴的な道路幅に対して、車両が運転される道路の実質的な部分がカメラによって画像化されるように選ばれる。
カメラユニット4によって撮影された例示的な画像は、動作される画像認識デバイス1に基づき説明される基本的な動作の原理に基づいて、図3a、図4aおよび図5aによってそれぞれ示される。画像認識デバイス1の動作の基礎になる基本的な原理は、デジタルマップ情報が、画像の中の対象物の認識を容易にするために用いられるということである。
図3aに移ると、車両が直線道路の部分を移動するときにカメラユニット4によって記録される、例示的な画像20が示される。道路部分21は、道路端部24によって横方向に境界をつけられ、道路端部24に近接した道路マーキング23および中央道路マーキング22が提供される。画像20に対する画像認識における典型的なタスクは、道路セグメント21自体または画像に含まれる特定の構造、例えば道路端部24または道路マーキング22、23を識別することである。従来型の方法において、このタスクは、直線などの特定の幾何学的配置を有する構造を考慮し、全体的な画像20を分析することによって解決され得た。該タスクは、しばしば様々なやり方を用いて画像20を巧みに処理すること、例えば画像データをフィルタリングすることによって容易にされる。例えば、(図面の方位に対して)垂直な構造をより明確に視覚できるように描写するために、画像のグレースケール表示が、特定のフィルタリング機能、例えば水平方向のガウス曲線の2次導関数とともに導入され得る。このフィルタリングの後に、道路マーキング22、23などの垂直の構造および道路端部24は、より鮮明に視覚でき、より容易に識別され得る。しかし、従来型の方法においては、全体画像が、概して評価されなくてはならない。
図3bにおいて、デジタルマップの部分25が概略的に示される。部分25は、図3aの画像20に示される視界に相当し、すなわち、ここでは1つの直線の道路セグメント26があるだけである。ナビゲーションシステム2の位置決定手段8の出力に基づいて、道路セグメント26上の車両の位置を識別することが可能であり、これは、図3bの27において概略的に示される。図3bは、デジタルマップから入手可能であり得る情報を示す単なる概略的な表示であり、それは、デジタルマップは通常は、直線の道路セグメントが所与の開始地点、方位および長さ、ならびに追加の属性を有するベクトルによって表される形式において格納されるからであることに留意されるべきである。地籍図などに基づく正確なマップの場合において、道路セグメントの幅wは、デジタルマップ情報に明確に格納され得る。位置決定手段8によって決定された現在の車両の位置の不確実性は、道路セグメント26の幅wと比較すると小さいと、さらに仮定すると、位置決定手段8の出力およびデジタルマップ情報は、道路セグメントの中心に関する車両のオフセットxを見積もって結合され得る。道路セグメント26の幅wに対する定量値およびオフセットxに基づいて、画像の認識が容易にされる。
さらに具体的には、図3cにおいて概略的に例示されるように、道路セグメントの幅wおよびオフセットxに基づいて、画像認識デバイス1のプロセッシング手段3は、画像20における区域29を識別するように適合され、画像20においては、道路端部24のような道路端部および道路マーキング23を示す特定の要素が見つけられると期待される。オフセットxおよび道路幅wの両方が正確に知られている場合には、画像20における道路端部24の位置を単純な幾何光学関係に基づき正確に予測することが可能であり得、幾何光学関係はとりわけ、車両に関連するカメラユニット4の位置およびカメラユニット4の光学的な特性、例えばその焦点距離を含む。道路セグメント26の幅wまたはオフセットxのいずれも正確に知られていないときにも、プロセッシング手段3は、道路端部が見つかりそうな、カメラユニット4に関する特定の区域を決定することが、それでも可能である。これらの区域は、オフセットxを決定する際および道路セグメント26の幅wの不確実性を考慮するが、再び単純な幾何光学の関係を用いて、画像20における区域29に変換され得る。
プロセッシング手段3は、特定の対象物が見つかりやすいように画像20における区域29を決定するように適合されるので、画像においてこれらの対象物を認識することは容易である。例示のために、画像認識デバイス1に対する動作の2つの例示的なモードが説明される。
1つの動作方法において、以下の図6および図7を参照してさらに詳細に説明されるが、プロセッシング手段3は、従来型の方法を用いて全体的な画像データ20を分析し、それは道路端部24および道路マーキング23などの対象物を予備的に識別するためである。本明細書中に用いられる場合に、用語の「対象物を識別する」とは、少なくとも画像における対象物のタイプを識別することと、対象物の位置を識別することである。従って、従来型の画像認識に基づく場合には、道路マーキングおよび道路端部は、予備的に識別される、すなわち、画像におけるそれらの位置が決定され、この予備的な識別は、デジタルマップ情報に対して検証される。この目的のために、予備的に識別された道路端部および道路マーキングの位置は、区域29と比較され、該区域において、そのような対象物は、デジタルマップ情報に基づいて位置付けられると期待される。区域29の外側に位置することが知られた対象物は、廃棄される。従って、動作の第1のモードにおいて、デジタルマップ情報は、予備的な画像認識の結果をクロスチェックまたは検証するために用いられ、検証は、画像データのみに基づく。
動作の第2のモードにおいて、プロセッシング手段3は、第1に、道路端部24および道路マーキング23が位置すると期待される区域29を決定する。後続の画像認識においては、区域29の外側に位置する画像の部分は廃棄され、これは図3cの修正された画像28において概略的に示されており、これらの廃棄された区域は、斜線のパターンによって示される。標準的な画像認識アルゴリズムが、なおも区域29における道路端部24および道路マーキング23を識別するために用いられるが、区域29に対する制限は、分析されるべきデータの量を減らし、それによって画像認識のスピードを高める。さらには、道路端部24または道路マーキング23に類似した地理的な特徴を有する他の構造が発見され、そのような対象物として誤って識別され得る可能性は、全体的な画像20と比較すると区域29に対してはより少なく、道路端部および道路マーキングを識別する精度もまた、向上される。言い換えると、以下の図8および図9を参照してさらに詳細に説明されるが、動作の第2のモードにおいて、デジタルマップ情報が、有利に用いられ得、画像20において特定の対象物のタイプを有する対象物が発見され得る位置または区域が予測される。
「確かな境界」を有する区域29が、上の例示的な記述に用いられたが、すなわちこれらの区域の外側の全ての構造が、廃棄されたが、明確な区別を有さない、より概略的な可能性分布もまた用いられ得、それは、特定の位置、形状または方位を有する画像における構造が、実際に識別されるべき対象物であるという可能性を定量化するためであることに留意されるべきである。この目的のために、例えば道路端部または道路マーキングの位置がデジタルマップに基づいて予測され、画像において識別された構造の位置が、この位置と比較される。構造は、該比較に依存して可能性が割り当てられ、すなわち画像における構造の位置が、デジタルマップから決定された位置に近づけば近づくほど、構造が実際に認識されるべき対象物であるという割り当てられた可能性がより高くなる。可能性の割当ては、動作の第1のモード(図6および図7)および動作の第2のモード(図8および図9)の両方において用いられ得る。
対象物の識別が、上記の道路端部24および道路マーキング23を参照して説明されたが、この制限は、説明を明瞭にするためのみにある。特に、道路マーキング22、全体的な道路セグメント26または道路セグメント21の個別のレーンなどの他の構造もまた、上に概略を述べた原理を用いて認識され得る。
図3に対する参照を継続すると、道路セグメントの幅についての情報をも含む十分に正確なデジタルマップが入手可能ではない場合においても、当節ではデジタルマップでさえ、上に概略を述べた目的のために有利に利用され得る道路セグメントの属性を含む。例えば、道路セグメントは、一般的に、例えば幹線道路などの道路セグメントのタイプを特定する属性、または各方向におけるレーンの数を特定する属性を有する。一般的に、道路セグメントの正確な幅を確立することは可能ではないが、これらの道路セグメントの属性は、幅w見積もりを得るために評価され得る。
次に図4を参照すると、カメラユニット4によって提供される別の例示的な画像30が示され、ここでは、道路31は、直線部分32および湾曲部分33を含む。対応するデジタルマップ情報は、図4bの平面図34において概略的に示され、参照番号35は概して道路セグメントを意味し、36および37は、直線部分および湾曲部分をそれぞれ意味する。車両位置38もまた、概略的に示される。位置決定手段38および道路36の地理的な形状についての情報を含むデジタルマップ情報によって決定された車両の位置から、湾曲部からの車両の距離dを決定することが可能である。デジタルマップは、通常は、長手方向に沿った道路の方向に関連するかなり正確な情報を含むので、dにおける不確実性は、主に位置決定手段8による車両の位置の決定における不確実性によるものである。距離dおよび車両に関したカメラユニットの位置から、道路セグメント31の道路端部が期待される画像30の区域が確立されることも、可能である。さらに具体的には、道路セグメント31の直線部分32に関する道路端部が位置付けされそうな区域が確立されるだけではなく、カーブした部分30の道路端部が期待される画像の区域をも確立することが可能である。さらには、デジタルマップ情報から既知の湾曲部分37の湾曲を用いて、カーブ部分33の道路端部の形状を予測することさえも可能である。従って、直線ではない道路セグメントに対しても、画像認識デバイス1のプロセッシング手段3が、上に概略を述べた動作の両方のモードを用いて、例えば画像30における道路セグメント31の端部を認識することが可能である。さらに具体的には、デジタルマップ情報34は、画像データ30のみに基づいて決定された予備的に識別された道路端部が、特定の可能性を有して正しく認識されることを検証するために用いられ得る。代替的または付加的に、34において概略的に示されたデジタルマップ情報もまた、分析されるべき必要がある画像データ30の区域を識別するために用いられ得、これは、道路端部がこれらの区域において発見される可能性が高いからであり、それによって、画像30における道路端部の位置および形状を予測し、画像認識のタスクを容易にする。
画像20または画像30のような画像データの分析または評価は、通常はこれらの画像において発見された構造の特定のモデルに対する比較を含む。例えば、道路セグメントの直線部分に関する道路端部のモデルは、平面図において、道路セグメントの幅に相当する距離を有する、一対の本質的に平行な線である。論理に基づいて、道路端部の距離は、画像データを分析することによって確立されなくてはならない未知のパラメータである。直線的な道路セグメントの道路端部をモデル化する他のモデルパラメータは、例えばカメラユニット4の視界の方向に関する道路セグメントの方向、およびカメラユニット4に関する道路端部のオフセット位置を含み得る。
実際的な実装において、画像データ20および30において道路セグメントの道路端部を認識することは、モデルが、最適に画像データを記述するか、または少なくとも画像データに対する十分な近似を提供する一式のパラメータを決定することを含む。この目的のために、性能指数が、特定のパラメータのセットに対して決定され、該性能指数は、画像データとのモデルの類似性を記述し、最大の性能指数を有する対応するモデルのパラメータのセットが確立される。原理的には、これは、多数の異なるパラメータのセットをサンプリングすることによって達成され得るが、該タスクは、ベイズフィルタリングまたは粒子フィルタリングを用いることによって、しばしば容易になる。そのような場合において、デジタルマップ情報は、しばしば、調査されなくてはならないパラメータの範囲を自然と拘束し得ることに留意されたい。例えば、図3における道路セグメントの幅wまたは図4における湾曲部からの車両の距離dは、対応するモデルパラメータを、デジタルマップから確立されたパラメータ周辺のごく近傍に実質的に限定することを可能にする。
直線道路または直線的な道路セグメントは、一対の実質的に平行な線によって近似されるが、平面図において、図4に示されるようなカーブした道路に対しては、より複雑なモデルが要求される。一実施例において、カーブした道路は、一連の実質的に直線の道路セグメント部分、つまりは互いに傾斜し得る長手方向の軸によって近似され得る。あるいは、カーブした道路に対するより複雑化したモデルが、例えば、道路を部分的にクロソイド曲線として近似されることによって用いられ得る。デジタルマップ情報は、画像データを評価することを容易にするために用いられるので、デジタルマップによって提供されるデータフォーマットに基づいて用いられるモデルのタイプを選択するのに適切であり得る。例えば、カーブした道路が、一連の直線的なベクトルの形状として格納されている場合には、一連の直線的な道路セグメント部分として道路をモデル化することが適切であり得、一方、デジタルマップが、クロソイドパラメータのフォーマットを用いる場合には、クロソイド曲線に関するモデル化が、好ましくあり得る。
図5に移ると、画像データ40のさらに別の実施例が示され、該図は、車両が現在移動している道路41から逸れる道路42で、道路のわき道を示している。対応するデジタルマップ情報43は、図5bにおいて平面図で概略的に示され、ここでは、現在の車両の位置46と組み合わさってデジタルマップから確立され得る様々なパラメータが、概略的に示される。道路は、44および45によって表される。画像データ40において両方の道路を識別するために関連するパラメータは、道路44の幅であるwと、道路45の幅であるwと、わき道から概略的に46において示される車両までの距離であるdと、道路44および45の長手の軸がわき道の位置において交差する角度のaを含む。上記から明白であるべきように、デジタルマップ情報43において概略的に示される全てのパラメータは、有利に用いられ、画像データ40において道路端部を認識するタスクを容易にし得、それは、上述された画像認識デバイス3の例示的な動作のモード、すなわちクロスチェッキングおよび予測のうちのいずれか1つに基づく。
図6および図7を参照すると、画像認識デバイス1の動作の第1のモードは、次いでさらに詳細に説明される。方法は、概して図6における50において示される。最初に、ステップ51において、画像データ、すなわち画像データのみが従来式の方法で分析され、ステップ52における予備的な対象物の認識に至る。ここでの作業の焦点ではないが、ステップ51における画像データの分析は、従来型の画像認識デバイスにおいて用いられる全ての方法が含まれ得るということが、留意されるべきである。例えば、分析は、通常は様々なやり方における画像のフィルタリングを含み、例えば、ガウスフィルタカーネルのラプラスまたはガウスフィルタカーネルを用いた画像の複雑な細部計算、色の確率分布の計算、または画像へのカニーオペレータ(Canny−operator)の適用を含む。続いて、識別されるべき対象物に対するモデルのパラメータは、画像データに最も一致するモデルを確立するように決定される。後者のステップは、特定のパラメータのセットを有するモデルが、画像データと一致しているかどうかを定量化する性能指数の計算を含む。性能指数は、いくつかのキューのうちの1つ、または通常はその組み合わせに基づいて計算され得、該キューは、道路マーキングを示すレーンマーカーキュー、道路端部の構造を示す道路端部キュー、通常の道路の色を示す道路色キュー、道路の色とは異なる色を有する画像区域を示す非道路色キュー、道路幅を示す道路幅キュー、および複数のレーンを有する道路において正しいレーンへ車両を強制する際に有用であるエラスティックレーンキューから選択され得る。さらに、キューのうちの1つは、デジタルマップから確立された予測される対象物の位置、形状または方位と、現在調査されている画像における構造の位置、形状または方位との比較から導かれ得、それによってこの構造に可能性を割り当てる。優良なパラメータのセットが確立されると、すなわち、識別されるべき対象物に対して対応するモデルのセットが画像データと明瞭に一致すると、予備的な対象物の認識が、達成される。従来式の画像認識方法は、ステップ52において終了する。
対照的に、図6の方法に従って、予備的に認識された対象物は、ステップ53においてデジタルマップ情報との比較によって検証される。ステップ53における検証は、次に説明されるように、様々な方法において実装され得る。
図7を参照すると、通常は60において示される例示的な方法が示され、ここでは、図6の方法50の検証ステップは、予備的に認識された対象物の位置が、デジタルマップ情報と一致するかどうかをクロスチェックすることによって実装される。画像データの分析および予備的な対象物の認識の分析のステップ61および62は、それぞれステップ51およびステップ52と同一である。次に、ステップ63において、予備的に認識された対象物の対象位置が決定される。広がりのある対象物に対しては、このステップは、予備的に認識された対象物によってカバーされるエリアの決定を含み得る。ステップ64において、画像認識デバイス1のプロセッシング手段3は、予備的な対象物の位置が、デジタルマップと一致するかどうかを検証する。この目的のために、プロセッシング手段3は、画像のどの区域に、対象物が位置すると期待されるかを決定し、それは、上記の図3を参照して説明され、同図においては、道路端部および道路マーキングが期待される区域は、29で概略的に示される。予備的に認識された対象物の位置が、デジタルマップ情報と一致する場合には、対象物は、ステップ65において検証および認識され、画像認識の結果は、例えばナビゲーションシステム2に出力され得る。対照的に、予備的に認識された対象物がデジタルマップと一致しない場合には、予備的に認識された対象物は、ステップ66において廃棄される。この場合において、画像は、再び分析され得、すなわち、プロセス60が再び開始され得る。
デジタルマップ情報のみを有する画像データに基づいた予備的な対象物の認識の結果をクロスチェックすることによって、画像における対象物の誤った識別の可能性は、減少し得、これによって画像認識の精度は高まる。
上記の対象物の位置を参照してクロスチェッキングが説明されたが、他のパラメータもまた、デジタルマップ情報を用いて予備的に認識された対象物をクロスチェックするために用いられることに留意されるべきである。例えば、画像データから決定された道路の幅は、デジタルマップ情報において格納された対応する情報、例えば道路の幅または道路のタイプと比較され得、後者は、概して道路幅の境界を確立させる。
図8に移ると、画像認識デバイス1に対する動作の別の例示的なモードが、次に説明される。方法は、包括的に70で示される。
最初に、ステップ71において、デジタルマップ情報が、ステップ72において識別されるべき対象物の特性を予測するために評価される。この対象物の特性は、様々な特性のうちの1つまたは組み合わせであり得、画像における対象物の位置、画像における対象物の形状、または画像における対象物の方位を含む。画像データの分析が、画像データへの対象物のモデルのフィッティングに基づく場合には、対象物の特性もまた、モデルのパラメータのうちの1つに対する予測であり得る。次に、ステップ73において、画像データは、予測された対象物の特性に基づいて分析される。ステップ73の特定の実装は、ステップ72において予測された対象物の特性と、画像データの分析に対して一般的に用いられる方法とに依存する。
図9を参照すると、図8に示される一般的な方法の特定の実装である方法80が、さらに詳細に記述される。最初に、ステップ81において、画像において認識されるべき対象物は、デジタルマップにおいて識別され、対象物に対応する情報は、デジタルマップ情報から抽出される。この情報に基づきステップ82において、画像上の対象物の位置が予測される。レーンマーカーおよび道路端部のような広がりのある対象物に対しては、対象物の位置の予測は通常、対象物が発見されそうな、画像における広がりのある区域またはエリアを識別することを含む。予測された対象物の位置に基づいて、ステップ83において画像データの小区分は、その次の分析のために選択され、該画像データの小区分が、対象物が位置しそうな画像の部分と対応する。図3を再び参照すると、これらの区域は、29において概略的に示される。ステップ84において、ステップ83において選択された画像データの小区分は、ステップ85において対象物を認識するために分析される。画像認識の結果、すなわち認識された対象物の正確な位置およびタイプは、他のデバイス、例えばナビゲーションシステム2に後に出力され得る。
図8および図9において概略的に示された方法において、デジタルマップ情報は、画像データの後の分析を容易にするために用いられる。このようにして、精度のみならず、画像認識タスクの速度もまた、向上され得る。
図9の方法の例示的な実装において、画像上の対象物の位置は、画像データ分析を容易にするために予測されるが、画像認識デバイス1の動作は、それに対して制限はされない。上に示されたように、他の対象物の特性、例えば対象物の形状および/または方位、または対象物の境界もまた、画像認識を容易にするために用いられ得る。図5の実施例に戻ると、道路のわき道からの車両の距離であるdが正確には知られていないときであっても、デジタルマップによって含まれる情報および車両の位置は、プロセッシング手段3が、道路42の道路マーキングの方向が位置しそうな角度の範囲を確立することを可能にする。画像データは、次いで、そのような方位を有する構造に対する特別な関心をもって分析され得る。画像データの分析が、再び、画像データへのモデルのフィッティングに基づく場合において、デジタルマップ情報から抽出された対象物についての情報は、可能性のあるモデルパラメータの範囲を制限するために用いられ得る。例えば、図5において概略的に示される状況に対して、道路のわき道からの距離d、道路のわき道の角度a、および道路42の幅wについての情報は、画像40における道路42の道路端部をモデル化するために用いられる、対応するパラメータを制限するために全てが用いられ得る。
図9の方法は、対象物の位置の予測のみを利用して画像データの分析を容易にするが、対象物のパラメータの組み合わせが、この目的のために用いられ得ることが強調されるべきである。例えば、デジタルマップ情報は、画像認識デバイス1のプロセッシング手段3が画像上の対象物の位置および対象物の可能性のある形状の両方を予測することを可能にし得る。この場合において、画像データの分析は、画像データの小区分のみに制限され得るのではなく、さらには、この小区分の中に位置し、特定の形状を有する対象物に対しても制限され得る。
図3〜図9を参照した上の説明は、画像に示されるエリアに対応するエリアまたは区域は、既知であるという仮定に基づいている。デジタルマップのそのような関連性のある部分を識別することは、ナビゲーションシステムにおける標準的な機能のうちの1つである。さらに具体的には、位置決定手段8の出力に基づいて、ナビゲーションシステム2のプロセッシングユニット6は、車両の近辺に対応するデジタルマップの関連性のある部分を決定するように適合される。さらに、マップに関する車両の方位もまた、しばしば自動的に確立され、これは、ナビゲーションシステムが、車両の動きを確認するからである。あるいは、別個のコンパスデバイスが、この目的のために提供され得る。車両の方位に基づいて、カメラユニット4の視界に対応する関連性のあるマップ部分は、選択され得、例えば画像認識デバイス1のメモリ手段5に格納され得る。
画像認識の結果は、画像認識デバイス1からナビゲーションシステム2に出力され、それは、様々なナビゲーションの機能性を容易にするためである。
方法90を示す図10を参照して説明されるように、動作するナビゲーションシステム2によって、画像認識デバイス1によって提供される結果は、特に決定される車両の位置の精度の向上のために用いられ得る。車両の位置を決定する目的のために、従来型のナビゲーションシステムは、例えばGPS受信器および/またはジャイロスコープデバイスを含み得る位置決定手段を用いる。しかし、これらのデバイスによって達成可能な位置決定の精度は、一部の場合において不十分であり得る。特に、近接した対象物に対して、現在の車両の位置から対象物の距離の決定を導く画像データの分析は、ナビゲーションシステムの標準的な位置決定手段8のルーチンよりもさらに正確な車両の位置の決定方法であり得る。
図5の実施例を振り返ると、上記の図6〜図9を参照して説明された方法のうちの1つを用いて道路のわき道が認識されると、道路のわき道からの車両の距離の値は、認識されたわき道に基づいて確立され得る。相対的な位置は、ナビゲーションシステムにフィードバックされ得る。デジタルマップ情報および位置決定手段8の出力から確立された距離と画像データに基づいて確立された距離との比較によって、位置決定手段は、再び調整され得る。この方法は、包括的に90で示されるが、図10において概略的に示される。最初に、ステップ91において、ナビゲーションシステム2の位置決定手段8は、現在の車両の位置を決定し、ナビゲーションシステム2は、ステップ92において、画像認識デバイス92に、現在の車両の位置に基づいて選択されたデジタルマップ情報を提供する。画像認識デバイスは、次いで上述された方法のうちの1つに基づいて、画像における対象物を識別し、ステップ93において情報を受信するナビゲーションシステムに対象物の位置を提供する。最後に、ステップ94においてナビゲーションシステム2によって決定された位置は、画像認識デバイスの入力に基づいて再び調整され得る。
勿論、本明細書中に記述された画像認識デバイスによって提供された結果の幅広い他の様々なアプリケーションもまた、自動車の環境において考えられる。
図1において示されるように、本発明の画像認識デバイス1は、モジュラーデバイスであり得、該モジュラーデバイスは、それ自体のプロセッシング手段、メモリ手段およびカメラユニットを含む。しかし、画像認識デバイスによって要求されるリソースのうちのいくつかもまた、自動車の環境において用いられる他のシステムまたはデバイスと共用され得る。例えば、プロセッシング手段3は、ナビゲーションシステムのメモリユニットにアクセスするように適合され得、この場合において、別個のメモリまたはストレージユニットを画像認識デバイスにおいて提供することは必要ない。さらには、メモリ手段はまた、カメラユニット4と部分的に一体化され得、すなわち、画像データを格納するメモリ手段の一部分は、カメラユニットの一部であり得る。さらにその上、画像認識デバイスは、必ずしも別個のデバイスでなくてはならないという訳ではなく、例えばナビゲーションシステム2とも完全に一体化され得る。この場合において、ナビゲーションシステムのプロセッシングユニット6は、標準的なナビゲーションのタスクおよび画像認識のタスクの両方を行うように適合される。
本発明の様々な例示的な実施形態が、画像における道路に関連した、道路または構造物といった対象物の認識を参照しながら記述されたが、本発明は、それに対して制限されるものではない。むしろ、本発明の原理は、建物のような、デジタルマップ情報において提供される情報上のあらゆる構造を認識または識別することに適用され得る。
さらには、車両に搭載されたナビゲーションシステムに対する画像認識は、本発明の適用の一分野であると予想されるが、本発明は、この分野に制限されるものでもない。むしろ、これは、対象物が画像の中で認識されなくてはならず、画像の少なくとも一部に対応するマップ情報が利用可能であるあらゆる状況に適用され得る。
図1は、ナビゲーションシステムと結合された、本発明の実施形態に従った画像認識デバイスを示す、概略的なブロック図である。 図2は、本発明の実施形態に従った画像認識デバイスがインストールされた車を示す概略図である。 図3は、本発明の実施形態に従った方法の原理を例示するために供し、図3aは例示的な画像を表し、図3bは、対応する例示的なデジタルマップを表し、図3cは、デジタルマップ情報に基づいた画像データの評価を例示するために供する。 図4は、本発明の実施形態に従った方法をさらに例示するために役立ち、該方法は、図4aに表される別の例示的な画像および図4bに表される対応するデジタルマップに対するものである。 図5は、本発明の実施形態に従った方法を例示するために役立ち、該方法は、図5aに表されるさらに別の例示的な画像および図5bに表される対応するデジタルマップに対するものである。 図6は、本発明の第1の実施形態に従った、方法を概略的に表す流れ図である。 図7は、さらに詳細なる図6の方法の特定の実装を、概略的に表す流れ図である。 図8は、本発明の第2の実施形態に従った方法を概略的に表す流れ図である。 図9は、図8の方法の特定の実装を表す流れ図である。 図10は、本発明の実施形態に従った、ナビゲーションシステムによって実行され得る、位置決定の精度を向上させるための方法を表す流れ図である。
符号の説明
1 画像認識デバイス
2 ナビゲーションシステム
3 プロセッシング手段
4 カメラユニット
5 メモリ手段
10 自動車
20 画像
21 道路セグメント

Claims (37)

  1. 画像における対象物を認識する方法であって、該方法は、
    該画像に対応する画像データを抽出するステップと、
    デジタルマップ情報を抽出するステップであって、該デジタルマップ情報は、該画像によって表されたエリアの少なくとも一部についてのマップ情報を含み、該デジタルマップ情報は、該対象物についての情報を含む、ステップと、
    該画像データおよびデジタルマップ情報を評価することによって該対象物を認識するステップであって、該画像データおよび該デジタルマップ情報の両方は、該対象物を認識するために評価される、ステップと
    を包含する、方法。
  2. 前記画像データおよび前記デジタルマップ情報の前記評価は、該画像データを評価することによって前記対象物を認識し、続いて、該デジタルマップ情報に基づいて、該対象物が正しく認識されたことを検証することを包含する、請求項1に記載の方法。
  3. 前記デジタルマップ情報によって包含される前記対象物についての前記情報は、該対象物の位置、形状または方位のうちの少なくとも1つについての情報を包含し、
    前記画像データおよび該デジタルマップ情報の前記評価は、該画像データを評価することによって該対象物を認識することと、該画像データから該対象物の位置、形状、または方位のうちの少なくとも1つを決定し、該画像データから決定された該対象物の位置、形状、または方位のうちの該少なくとも1つと該デジタルマップ情報とを比較すること、とを包含する、請求項1に記載の方法。
  4. 前記画像データおよび前記デジタルマップ情報の前記評価は、該デジタルマップ情報を用いることによって該画像データの評価を容易にし、前記対象物を認識することを包含する、請求項1に記載の方法。
  5. 前記画像データおよび前記デジタルマップ情報の前記評価は、該デジタルマップ情報を用いることによって前記画像における前記対象物の位置、形状、または方位のうちの少なくとも1つを予測することを包含し、
    該画像データの評価は、該対象物の位置、形状、または方位のうちの該予測された少なくとも1つに基づいて、該画像における特定の位置、形状または方位を有する構造物が、認識されるべき該対象物であるという可能性を割り当てることを包含する、請求項1に記載の方法。
  6. 前記デジタルマップ情報によって包含される前記対象物についての前記情報は、該対象物の前記位置についての情報を包含し、
    前記画像データの評価は、該対象物の該位置についての情報に基づいて選択された該画像データの小区分に制限される、請求項1に記載の方法。
  7. 前記デジタルマップ情報によって包含される前記対象物についての前記情報は、該対象物の形状および/または方位についての情報を包含し、
    前記画像データの評価は、該対象物の形状および/または方位についての該情報に基づいて選択された形状および/または方位を有する対象物の識別に制限される、請求項6に記載の方法。
  8. 前記画像データおよび前記デジタルマップ情報の前記評価は、前記対象物のモデルと該画像データとの比較を包含する、請求項1に記載の方法。
  9. 前記対象物の前記モデルは、少なくとも1つの変数パラメータを有し、前記画像データおよび前記デジタルマップ情報の前記評価は、該少なくとも1つの変数パラメータに対する最適値の発見を包含する、請求項8に記載の方法。
  10. 前記少なくとも1つの変数パラメータに対する前記最適値の前記発見は、ベイズフィルタリングまたは粒子フィルタリングを包含する、請求項9に記載の方法。
  11. 前記デジタルマップ情報は、ナビゲーションシステムから抽出される、請求項1に記載の方法。
  12. 前記方法は、現在の車両の位置を決定することを包含し、前記デジタルマップ情報の抽出は、該現在の車両の位置に基づいている、請求項1に記載の方法。
  13. 前記方法は、現在の車両の方位を決定することを包含し、前記デジタルマップ情報の抽出は、該現在の車両の方位に基づいている、請求項12に記載の方法。
  14. 前記方法は、前記画像を記録することを包含し、該画像は、車両の近辺を表示する、請求項1に記載の方法。
  15. 前記方法は、前記画像データおよび前記デジタルマップ情報の前記評価の結果をナビゲーションシステムに提供することを包含する、請求項1に記載の方法。
  16. 前記方法は、前記画像データおよび前記デジタルマップ情報の前記評価の結果に基づいて、ドライバーに運転指示を提供すること、またはドライバーに注意を喚起すること、または車両を制御することを包含する、請求項15に記載の方法。
  17. 前記対象物は、道路と、道路のレーンと、レーンマーカーと、道路端部と、道路の交差点と、道路のわき道と、道路標識とを含む群から選択される、請求項1に記載の方法。
  18. 画像における対象物を認識する画像認識デバイスであって、該デバイスは、
    該画像に対応する画像データを格納し、デジタルマップ情報を格納するメモリ手段であって、該デジタルマップ情報は、該画像によって表されるエリアの少なくとも一部についてのマップ情報を包含し、該デジタルマップ情報は、該対象物についての情報を包含する、メモリ手段と、
    該メモリ手段と結合したプロセッシング手段であって、該画像データおよび該デジタルマップ情報を評価することによって該対象物を認識し、該画像データおよび該デジタルマップ情報の両方は、該対象物を認識するために評価される、プロセッシング手段と
    を備えている、デバイス。
  19. 前記プロセッシング手段は、前記画像データを評価することによって前記対象物を認識し、続いて、前記デジタルマップ情報に基づいて、該対象物が正しく認識されたことを検証する、請求項18に記載の画像認識デバイス。
  20. 前記デジタルマップ情報によって包含される前記対象物についての前記情報は、該対象物の位置、形状、または方位のうちの少なくとも1つについての情報を包含し、
    前記プロセッシング手段は、前記画像データを評価することによって該対象物を認識し、該画像データから該対象物の位置、形状、または方位のうちの該少なくとも1つを決定し、該画像データから決定された該対象物の位置、形状、または方位のうちの少なくとも1つと該デジタルマップ情報とを比較する、請求項18に記載の画像認識デバイス。
  21. 前記プロセッシング手段は、前記デジタルマップ情報を用いることによって前記画像データの評価を容易にし、前記対象物を認識する、請求項18に記載の画像認識デバイス。
  22. 前記プロセッシング手段は、前記デジタルマップ情報を用いることによって前記画像における前記対象物の位置、形状、または方位のうちの少なくとも1つを予測し、該対象物の位置、形状、または方位のうちの該予測された少なくとも1つに基づいて前記画像データを評価し、
    該プロセッシング手段は、該対象物の位置、形状、または方位のうちの該予測された少なくとも1つに基づいて、該画像において特定の位置、形状または方位を有する構造物が、認識されるべき該対象物であるという可能性を割り当てる、請求項18に記載の画像認識デバイス。
  23. 前記デジタルマップ情報によって包含される前記対象物についての前記情報は、該対象物の前記位置についての情報を包含し、
    前記プロセッシング手段は、該対象物の該位置についての情報に基づいて選択された前記画像データの小区分を評価する、請求項18に記載の画像認識デバイス。
  24. 前記デジタルマップ情報によって包含される前記対象物についての前記情報は、前記対象物の形状および/または方位についての情報を包含し、
    前記プロセッシング手段は、前記画像データを評価することによって、該対象物の形状および/または方位についての情報に基づいて選択された形状および/または方位を有する対象物を識別する、請求項22に記載の画像認識デバイス。
  25. 前記プロセッシング手段は、前記対象物のモデルと前記画像データとを比較することによって該対象物を認識する、請求項18に記載の画像認識デバイス。
  26. 前記対象物の前記モデルは、少なくとも1つの変数パラメータを有し、前記プロセッシング手段は、該少なくとも1つの変数パラメータに対する最適値を発見する、請求項25に記載の画像認識デバイス。
  27. 前記プロセッシング手段は、ベイズフィルタまたは粒子フィルターを用いることによって、前記少なくとも1つの変数パラメータに対する前記最適値を発見する、請求項26に記載の画像認識デバイス。
  28. 前記デバイスは、現在の車両位置を決定する位置決定手段を備えており、
    該位置決定手段は、前記プロセッシング手段と結合され、該プロセッシング手段は、該現在の車両位置に基づいて前記デジタルマップ情報の一部分を選択するように適合されている、請求項18に記載の画像認識デバイス。
  29. 前記デバイスは、現在の車両の方位を決定する方位決定手段を備えており、
    該方位決定手段は、前記プロセッシング手段と結合され、該プロセッシング手段は、該現在の車両の方位に基づいて前記デジタルマップ情報の一部分を選択するように適合されている、請求項28に記載の画像認識デバイス。
  30. 前記デバイスは、前記画像を記録するカメラユニットを備えており、該カメラユニットは、前記メモリ手段と結合され、該画像を前記メモリ手段に提供する、請求項18に記載の画像認識デバイス。
  31. ナビゲーションシステムであって、該ナビゲーションシステムは、
    画像認識デバイスであって、該画像認識デバイスは、
    該画像に対応する画像データを格納し、デジタルマップ情報を格納するメモリ手段を備えており、該デジタルマップ情報は、該画像によって表されるエリアの少なくとも一部分についてのマップ情報を包含し、該デジタルマップ情報は、該対象物についての情報を包含する、画像認識デバイスと、
    該メモリ手段と結合したプロセッシング手段であって、該画像データおよび該デジタルマップ情報を評価することによって該対象物を認識し、該画像データおよび該デジタルマップ情報の両方が評価されることによって該対象物を認識する、プロセッシング手段と
    を備えている、ナビゲーションシステム。
  32. デジタルマップを格納するストレージユニットを備えており、前記画像認識デバイスは、該ストレージユニットと結合されることによって、そこから該デジタルマップの少なくとも一部を抽出する、請求項31に記載のナビゲーションシステム。
  33. ドライバーに運転指示または警告信号を出力する光学的または音響的な出力ユニットを備えており、
    該運転指示または警告信号は、前記画像認識デバイスによって認識された前記対象物に依存して出力される、請求項31に記載のナビゲーションシステム。
  34. 現在の車両の位置を決定する位置決定手段を備えており、
    前記画像認識デバイスは、前記認識された対象物についての位置情報を該位置決定手段に提供し、該位置決定手段は、該認識された対象物についての該位置情報に基づいて位置決定の精度を向上させる、請求項31に記載のナビゲーションシステム。
  35. ナビゲーションシステムおよび画像認識デバイスのアセンブリであって、該アセンブリは、
    位置決定デバイスと、
    画像認識デバイスであって、該画像認識デバイスは、画像データおよびデジタルマップ情報の両方を評価することによって該画像データによって表される画像における対象物を認識するように構成され、該画像認識デバイスは、該位置決定デバイスと結合されることによってそれに対する該対象物の相対的な位置についての情報を提供する、画像認識デバイスと
    を備えている、ナビゲーションシステムおよび画像認識デバイスのアセンブリ。
  36. 前記位置決定デバイスは、現在の車両の位置についての情報を前記画像認識デバイスに出力する、請求項35に記載のナビゲーションシステムおよび画像認識デバイスのアセンブリ。
  37. 前記位置決定デバイスは、前記相対的な位置についての前記情報に基づいて前記位置決定デバイスを再び調整するように構成される制御回路を備えている、請求項36に記載のナビゲーションシステムおよび画像認識デバイスのアセンブリ。
JP2007225633A 2006-09-01 2007-08-31 画像における対象物を認識する方法および画像認識デバイス Pending JP2008059593A (ja)

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
EP06018335.7A EP1906339B1 (en) 2006-09-01 2006-09-01 Method for recognizing an object in an image and image recognition device

Publications (1)

Publication Number Publication Date
JP2008059593A true JP2008059593A (ja) 2008-03-13

Family

ID=37885931

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2007225633A Pending JP2008059593A (ja) 2006-09-01 2007-08-31 画像における対象物を認識する方法および画像認識デバイス

Country Status (6)

Country Link
US (1) US8311274B2 (ja)
EP (1) EP1906339B1 (ja)
JP (1) JP2008059593A (ja)
KR (1) KR20080020971A (ja)
CN (1) CN101159014B (ja)
CA (1) CA2598162C (ja)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019066193A (ja) * 2017-09-28 2019-04-25 株式会社Subaru 自車位置検出装置
JP2021033791A (ja) * 2019-08-27 2021-03-01 日立オートモティブシステムズ株式会社 演算装置

Families Citing this family (79)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7881497B2 (en) 2007-03-08 2011-02-01 Honeywell International Inc. Vision based navigation and guidance system
US20090315766A1 (en) * 2008-06-19 2009-12-24 Microsoft Corporation Source switching for devices supporting dynamic direction information
US8700301B2 (en) * 2008-06-19 2014-04-15 Microsoft Corporation Mobile computing devices, architecture and user interfaces based on dynamic direction information
US20090319166A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Mobile computing services based on devices with dynamic direction information
US20090315775A1 (en) * 2008-06-20 2009-12-24 Microsoft Corporation Mobile computing services based on devices with dynamic direction information
US8467991B2 (en) * 2008-06-20 2013-06-18 Microsoft Corporation Data services based on gesture and location information of device
US8391615B2 (en) * 2008-12-02 2013-03-05 Intel Corporation Image recognition algorithm, method of identifying a target image using same, and method of selecting data for transmission to a portable electronic device
FR2939325B1 (fr) * 2008-12-04 2015-10-16 Parrot Systeme de drones munis de balises de reconnaissance
US8319666B2 (en) 2009-02-20 2012-11-27 Appareo Systems, Llc Optical image monitoring system and method for vehicles
US8319665B2 (en) * 2009-02-20 2012-11-27 Appareo Systems, Llc Adaptive instrument and operator control recognition
US20100228612A1 (en) * 2009-03-09 2010-09-09 Microsoft Corporation Device transaction model and services based on directional information of device
US20100332324A1 (en) * 2009-06-25 2010-12-30 Microsoft Corporation Portal services based on interactions with points of interest discovered via directional device information
US8872767B2 (en) 2009-07-07 2014-10-28 Microsoft Corporation System and method for converting gestures into digital graffiti
DE102009049849B4 (de) * 2009-10-19 2020-09-24 Apple Inc. Verfahren zur Bestimmung der Pose einer Kamera, Verfahren zur Erkennung eines Objekts einer realen Umgebung und Verfahren zur Erstellung eines Datenmodells
KR101117239B1 (ko) * 2010-01-12 2012-03-20 키위플 주식회사 객체 인식시스템 및 이를 이용하는 객체 인식 방법
US20130103306A1 (en) * 2010-06-15 2013-04-25 Navitime Japan Co., Ltd. Navigation system, terminal apparatus, navigation server, navigation apparatus, navigation method, and computer program product
JP5775076B2 (ja) * 2010-06-16 2015-09-09 株式会社ナビタイムジャパン ナビゲーションシステム、端末装置、ナビゲーションサーバ、ナビゲーション方法、および、プログラム
WO2011160672A1 (en) * 2010-06-21 2011-12-29 Centre De Visió Per Computador Method for obtaining drivable road area
US8509982B2 (en) 2010-10-05 2013-08-13 Google Inc. Zone driving
EP2450667B1 (en) 2010-11-09 2016-11-02 Harman Becker Automotive Systems GmbH Vision system and method of analyzing an image
DE102010062633A1 (de) * 2010-12-08 2012-06-14 Robert Bosch Gmbh Verfahren und Vorrichtung zur Erkennung von Verkehrszeichen in der Umgebung eines Fahrzeuges und Abgleich mit Verkehrszeicheninformationen aus einer digitalen Karte
CN102955931B (zh) * 2011-08-19 2015-11-25 株式会社理光 识别图像中特定对象的方法以及使用该方法的***
DE102011112404B4 (de) * 2011-09-03 2014-03-20 Audi Ag Verfahren zum Bestimmen der Position eines Kraftfahrzeugs
DE102011118161B3 (de) 2011-11-10 2013-03-28 Audi Ag Verfahren zur Positionsbestimmung
US20130128050A1 (en) * 2011-11-22 2013-05-23 Farzin Aghdasi Geographic map based control
US9043133B2 (en) 2011-12-29 2015-05-26 Intel Corporation Navigation systems and associated methods
US9797801B2 (en) 2012-02-10 2017-10-24 Appareo Systems, Llc Frequency-adaptable structural health and usage monitoring system
US10607424B2 (en) 2012-02-10 2020-03-31 Appareo Systems, Llc Frequency-adaptable structural health and usage monitoring system (HUMS) and method with smart sensors
DE102012207203A1 (de) * 2012-04-30 2013-10-31 Robert Bosch Gmbh Verfahren und Vorrichtung zur Bestimmung eines Umfelds
JP5960506B2 (ja) * 2012-05-25 2016-08-02 株式会社デンソー 交差点認識装置及び道路種別認識装置
US8988556B1 (en) * 2012-06-15 2015-03-24 Amazon Technologies, Inc. Orientation-assisted object recognition
US9056395B1 (en) 2012-09-05 2015-06-16 Google Inc. Construction zone sign detection using light detection and ranging
US8996228B1 (en) 2012-09-05 2015-03-31 Google Inc. Construction zone object detection using light detection and ranging
US9195914B2 (en) 2012-09-05 2015-11-24 Google Inc. Construction zone sign detection
US9221461B2 (en) * 2012-09-05 2015-12-29 Google Inc. Construction zone detection using a plurality of information sources
CN103090875A (zh) * 2012-11-26 2013-05-08 华南理工大学 一种基于双摄像头的实时实景匹配车载导航方法及装置
US9651393B2 (en) 2013-01-28 2017-05-16 Nec Corporation Driving support device, driving support method, and recording medium storing driving support program
KR101449295B1 (ko) * 2013-06-04 2014-10-13 현대자동차주식회사 주차구획 추적 장치 및 방법
DE102013011827A1 (de) 2013-07-15 2015-01-15 Audi Ag Verfahren zum Betrieb einer Navigationseinrichtung, Navigationseinrichtung und Kraftfahrzeug
SE538984C2 (sv) * 2013-07-18 2017-03-14 Scania Cv Ab Fastställande av körfältsposition
WO2015026960A1 (en) * 2013-08-21 2015-02-26 Sanger Terence D Systems, methods, and uses of b a yes -optimal nonlinear filtering algorithm
JP5892129B2 (ja) * 2013-08-29 2016-03-23 株式会社デンソー 道路形状認識方法、道路形状認識装置、プログラムおよび記録媒体
US9495602B2 (en) 2013-10-23 2016-11-15 Toyota Motor Engineering & Manufacturing North America, Inc. Image and map-based detection of vehicles at intersections
WO2015077766A1 (en) * 2013-11-25 2015-05-28 Pcms Holdings, Inc. Systems and methods for providing augmenting reality information associated with signage
US9395192B1 (en) * 2013-12-20 2016-07-19 Google Inc. Methods and systems for road and lane boundary tracing
US9081383B1 (en) * 2014-01-22 2015-07-14 Google Inc. Enhancing basic roadway-intersection models using high intensity image data
US9767372B2 (en) * 2014-05-20 2017-09-19 Nissan Motor Co., Ltd. Target detection apparatus and target detection method
KR20160006909A (ko) 2014-07-10 2016-01-20 김진곤 이미지 처리 방법과 이를 저장하는 저장 매체
US9321461B1 (en) 2014-08-29 2016-04-26 Google Inc. Change detection using curve alignment
US9248834B1 (en) 2014-10-02 2016-02-02 Google Inc. Predicting trajectories of objects based on contextual information
EP3032221B1 (en) * 2014-12-09 2022-03-30 Volvo Car Corporation Method and system for improving accuracy of digital map data utilized by a vehicle
CN105760390B (zh) * 2014-12-17 2021-09-28 富泰华工业(深圳)有限公司 图片检索***及方法
US11370422B2 (en) * 2015-02-12 2022-06-28 Honda Research Institute Europe Gmbh Method and system in a vehicle for improving prediction results of an advantageous driver assistant system
JP6519355B2 (ja) * 2015-06-30 2019-05-29 株式会社デンソー カメラ装置及び車載システム
DE102015214743A1 (de) * 2015-08-03 2017-02-09 Audi Ag Verfahren und Vorrichtung in einem Kraftfahrzeug zur verbesserten Datenfusionierung bei einer Umfelderfassung
CN105678257A (zh) * 2016-01-06 2016-06-15 北京卓视智通科技有限责任公司 一种交通调查车型识别方法、装置及其***
US10291348B2 (en) 2016-02-02 2019-05-14 Bao Tran Systems and methods for control of drones
US9835709B2 (en) 2016-02-02 2017-12-05 Bao Tran Systems and methods for permission based control of robots
US10034066B2 (en) 2016-05-02 2018-07-24 Bao Tran Smart device
KR20160085742A (ko) 2016-07-11 2016-07-18 김진곤 이미지 처리 방법
EP3285203A1 (en) * 2016-08-19 2018-02-21 Continental Automotive GmbH Method for detecting a road in an environment of a vehicle
US10739142B2 (en) 2016-09-02 2020-08-11 Apple Inc. System for determining position both indoor and outdoor
CN106323323B (zh) * 2016-11-14 2019-02-15 深圳市深水水务咨询有限公司 一种区域确定方法和装置
KR20180068578A (ko) 2016-12-14 2018-06-22 삼성전자주식회사 복수의 센서를 이용하여 객체를 인식하는 전자 기기 및 방법
KR20180070198A (ko) * 2016-12-16 2018-06-26 현대자동차주식회사 차량 및 차량의 제어방법
DE102016015513A1 (de) 2016-12-23 2018-06-28 Lucas Automotive Gmbh Fahrassistenz-System eines Kraftfahrzeugs
US20180270413A1 (en) * 2017-03-15 2018-09-20 Kabushiki Kaisha Toshiba Processing apparatus and processing system
US10509409B2 (en) * 2017-04-27 2019-12-17 Aptiv Technologies Limited Local traffic customs learning system for automated vehicle
US10289115B2 (en) 2017-06-01 2019-05-14 Aptiv Technologies Limited Automated vehicle map localization based on observed geometries of roadways
US10895460B2 (en) * 2017-11-06 2021-01-19 Cybernet Systems Corporation System and method for generating precise road lane map data
US11126846B2 (en) 2018-01-18 2021-09-21 Ebay Inc. Augmented reality, computer vision, and digital ticketing systems
DE102018204500A1 (de) * 2018-03-23 2019-09-26 Continental Automotive Gmbh System zur Erzeugung von Konfidenzwerten im Backend
US20190354781A1 (en) * 2018-05-17 2019-11-21 GM Global Technology Operations LLC Method and system for determining an object location by using map information
CN110648545A (zh) * 2018-06-26 2020-01-03 上海擎感智能科技有限公司 一种新交通规则的提醒方法、***及车载终端
DE102018119026A1 (de) * 2018-08-06 2020-02-06 Knorr-Bremse Systeme für Nutzfahrzeuge GmbH Kameraüberwachungssystem
CN110942603B (zh) * 2018-09-21 2021-09-17 北汽福田汽车股份有限公司 车辆碰撞报警方法、装置、车辆和服务器
CN110717395A (zh) * 2019-09-06 2020-01-21 平安城市建设科技(深圳)有限公司 图片物体处理方法、装置及存储介质
CN111775953A (zh) * 2019-12-16 2020-10-16 王忠亮 驾驶状态即时修正***及方法
EP4224433A1 (en) * 2022-02-03 2023-08-09 Zenseact AB Training a perception model for a vehicle

Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935198A (ja) * 1995-07-14 1997-02-07 Mitsubishi Electric Corp 車両用走行路検出装置
JP2002108873A (ja) * 2000-09-25 2002-04-12 Internatl Business Mach Corp <Ibm> 空間情報利用システム、情報取得装置、およびサーバシステム
JP2002525712A (ja) * 1998-09-15 2002-08-13 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 交通標識識別およびナビゲーションのための方法および装置
JP2002243469A (ja) * 2001-02-19 2002-08-28 Alpine Electronics Inc ナビゲーション装置および地図データベース更新システム
JP2003123058A (ja) * 2001-10-17 2003-04-25 Hitachi Ltd 走行レーン認識装置
JP2004045227A (ja) * 2002-07-12 2004-02-12 Alpine Electronics Inc 車両位置測定装置および方法
JP2005098853A (ja) * 2003-09-25 2005-04-14 Toyota Motor Corp 地図データ更新方法および地図データ更新装置
JP2006018688A (ja) * 2004-07-02 2006-01-19 Toyota Motor Corp 道路環境認識方法及び道路環境認識装置
JP2006151014A (ja) * 2004-11-25 2006-06-15 Denso Corp 安全運転支援システム
JP2006164197A (ja) * 2004-12-10 2006-06-22 Equos Research Co Ltd 走行支援装置
JP2006209511A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 画像認識装置及び画像認識方法、並びにそれを用いた位置特定装置、車両制御装置及びナビゲーション装置
JP2006226824A (ja) * 2005-02-17 2006-08-31 Toyota Motor Corp 車両用情報報知装置

Family Cites Families (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US6671615B1 (en) * 2000-05-02 2003-12-30 Navigation Technologies Corp. Navigation system with sign assistance
DE50014953D1 (de) * 2000-08-24 2008-03-20 Siemens Vdo Automotive Ag Verfahren und Navigationsgerät zum Abfragen von Zielinformation und zum Navigieren in einer Kartenansicht
JP2005315851A (ja) * 2004-03-31 2005-11-10 Denso Corp カーナビゲーション装置

Patent Citations (12)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0935198A (ja) * 1995-07-14 1997-02-07 Mitsubishi Electric Corp 車両用走行路検出装置
JP2002525712A (ja) * 1998-09-15 2002-08-13 ローベルト ボツシユ ゲゼルシヤフト ミツト ベシユレンクテル ハフツング 交通標識識別およびナビゲーションのための方法および装置
JP2002108873A (ja) * 2000-09-25 2002-04-12 Internatl Business Mach Corp <Ibm> 空間情報利用システム、情報取得装置、およびサーバシステム
JP2002243469A (ja) * 2001-02-19 2002-08-28 Alpine Electronics Inc ナビゲーション装置および地図データベース更新システム
JP2003123058A (ja) * 2001-10-17 2003-04-25 Hitachi Ltd 走行レーン認識装置
JP2004045227A (ja) * 2002-07-12 2004-02-12 Alpine Electronics Inc 車両位置測定装置および方法
JP2005098853A (ja) * 2003-09-25 2005-04-14 Toyota Motor Corp 地図データ更新方法および地図データ更新装置
JP2006018688A (ja) * 2004-07-02 2006-01-19 Toyota Motor Corp 道路環境認識方法及び道路環境認識装置
JP2006151014A (ja) * 2004-11-25 2006-06-15 Denso Corp 安全運転支援システム
JP2006164197A (ja) * 2004-12-10 2006-06-22 Equos Research Co Ltd 走行支援装置
JP2006209511A (ja) * 2005-01-28 2006-08-10 Aisin Aw Co Ltd 画像認識装置及び画像認識方法、並びにそれを用いた位置特定装置、車両制御装置及びナビゲーション装置
JP2006226824A (ja) * 2005-02-17 2006-08-31 Toyota Motor Corp 車両用情報報知装置

Cited By (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019066193A (ja) * 2017-09-28 2019-04-25 株式会社Subaru 自車位置検出装置
JP7037317B2 (ja) 2017-09-28 2022-03-16 株式会社Subaru 自車位置検出装置
JP2021033791A (ja) * 2019-08-27 2021-03-01 日立オートモティブシステムズ株式会社 演算装置
JP7254664B2 (ja) 2019-08-27 2023-04-10 日立Astemo株式会社 演算装置

Also Published As

Publication number Publication date
EP1906339B1 (en) 2016-01-13
US8311274B2 (en) 2012-11-13
CA2598162C (en) 2013-07-16
CN101159014B (zh) 2013-04-17
US20080056535A1 (en) 2008-03-06
EP1906339A1 (en) 2008-04-02
CA2598162A1 (en) 2008-03-01
CN101159014A (zh) 2008-04-09
KR20080020971A (ko) 2008-03-06

Similar Documents

Publication Publication Date Title
JP2008059593A (ja) 画像における対象物を認識する方法および画像認識デバイス
JP6637088B2 (ja) ウォルシュ・カーネル・投影技術に基づく自動運転車両の位置決め
JP6644742B2 (ja) 頑健で効率的な車両測位用のアルゴリズム及びインフラ
US8620032B2 (en) System and method for traffic signal detection
US10115309B2 (en) Method for processing measurement data of a vehicle in order to determine the start of a search for a parking space
WO2018068653A1 (zh) 点云数据处理方法、装置及存储介质
US11294392B2 (en) Method and apparatus for determining road line
US8929604B2 (en) Vision system and method of analyzing an image
US9731661B2 (en) System and method for traffic signal recognition
JP6292054B2 (ja) 運転支援装置、方法、及びプログラム
CN110390240B (zh) 自动驾驶车辆中的车道后处理
US11118934B2 (en) Method and system of route guidance for a towing vehicle
CN110576847A (zh) 基于焦点的对传感器数据的标记
JP2024023319A (ja) 緊急車両の検出
JP2003123197A (ja) 道路標示等認識装置
JP2008021034A (ja) 画像認識装置、画像認識方法、歩行者認識装置および車両制御装置
CN110967018B (zh) 停车场定位方法、装置、电子设备及计算机可读介质
US20190244041A1 (en) Traffic signal recognition device
CN111033423B (zh) 用于评估自动驾驶车辆的定位***的方法
WO2022018970A1 (ja) 情報処理装置
JP6611315B2 (ja) 映像基準点決定システム、映像基準点決定方法および映像基準点決定プログラム
CN111655561B (zh) 无需地图和定位的自动驾驶车辆的拐角协商方法
KR20220065126A (ko) 다중 센서 기반 주행 차로 인식 장치 및 방법

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20100830

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20110817

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20111129

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120228

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120816

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20121105

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20130418