JP2005509129A - ナビゲーションのために周囲の視覚的情報を自動車の運転手に知らせるエンハンスド・ディスプレイ - Google Patents

ナビゲーションのために周囲の視覚的情報を自動車の運転手に知らせるエンハンスド・ディスプレイ Download PDF

Info

Publication number
JP2005509129A
JP2005509129A JP2002572116A JP2002572116A JP2005509129A JP 2005509129 A JP2005509129 A JP 2005509129A JP 2002572116 A JP2002572116 A JP 2002572116A JP 2002572116 A JP2002572116 A JP 2002572116A JP 2005509129 A JP2005509129 A JP 2005509129A
Authority
JP
Japan
Prior art keywords
image
subsystem
camera
recognized
light
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2002572116A
Other languages
English (en)
Other versions
JP2005509129A5 (ja
Inventor
リコンダ ジョン
マイケル ゲシュウィンド デビッド
Original Assignee
リコンダ ジョン
マイケル ゲシュウィンド デビッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by リコンダ ジョン, マイケル ゲシュウィンド デビッド filed Critical リコンダ ジョン
Publication of JP2005509129A publication Critical patent/JP2005509129A/ja
Publication of JP2005509129A5 publication Critical patent/JP2005509129A5/ja
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01CMEASURING DISTANCES, LEVELS OR BEARINGS; SURVEYING; NAVIGATION; GYROSCOPIC INSTRUMENTS; PHOTOGRAMMETRY OR VIDEOGRAMMETRY
    • G01C21/00Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00
    • G01C21/26Navigation; Navigational instruments not provided for in groups G01C1/00 - G01C19/00 specially adapted for navigation in a road network
    • G01C21/34Route searching; Route guidance
    • G01C21/36Input/output arrangements for on-board computers
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B19/00Condensers, e.g. light collectors or similar non-imaging optics
    • G02B19/0004Condensers, e.g. light collectors or similar non-imaging optics characterised by the optical means employed
    • G02B19/0009Condensers, e.g. light collectors or similar non-imaging optics characterised by the optical means employed having refractive surfaces only
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B19/00Condensers, e.g. light collectors or similar non-imaging optics
    • G02B19/0004Condensers, e.g. light collectors or similar non-imaging optics characterised by the optical means employed
    • G02B19/0009Condensers, e.g. light collectors or similar non-imaging optics characterised by the optical means employed having refractive surfaces only
    • G02B19/0014Condensers, e.g. light collectors or similar non-imaging optics characterised by the optical means employed having refractive surfaces only at least one surface having optical power
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B19/00Condensers, e.g. light collectors or similar non-imaging optics
    • G02B19/0033Condensers, e.g. light collectors or similar non-imaging optics characterised by the use
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/011Head-up displays characterised by optical features comprising device for correcting geometrical aberrations, distortion
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/0138Head-up displays characterised by optical features comprising image capture systems, e.g. camera
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0101Head-up displays characterised by optical features
    • G02B2027/014Head-up displays characterised by optical features comprising information/image processing systems

Landscapes

  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Optics & Photonics (AREA)
  • Engineering & Computer Science (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Image Processing (AREA)
  • Navigation (AREA)

Abstract

イメージング装置は、運転手の入力やコンピュータ制御によって例えば道路標識もしくは番地などのナビゲーションのための周囲の視覚的情報に向けられる(例えば、パンされ、ズームされ、焦点が合わせられる)。可視光、赤外線、紫外線もしくは他のスペクトルにおいて任意の光が(特に夜間においての)イメージングの質を高める。任意の処理は輝度、鮮明さ及び/又は大きさを増すために、及び/又は位置又は他の歪み補正又は誤りの補正に適用される。任意の人工知能を持つパターン認識アルゴリズムよって影響を受けたコンピュータ制御モーション・トラッキング、及び/又はフリーズ・フレーム機能及び/又は光学像又はデジタル像安定化は、走行車からの眺めを安定化させるために使用される。

Description

(発明の詳細な説明)
(著作権に関する注意書き)
本発明で開示されている内容の一部は、著作権保護の対象となる部分を含む。著作権者は、特許商標局への出願或いは特許商標局の記録からの特許文献の複製或いは特許公開による複製を問わず、全ての著作権或いは他の知的所有権が保護される。
図1A、1B、1C、1Dは、ゼネラル・モーターズ社のキャデラック部門のウェブ・ポスティングから得ており、これら図の著作権はゼネラル・モーターズ社の管理下にあることが推定されることを認める。
(関連する出願との相互参照)
35USC§119に従い、出願日2001年3月13日、出願番号60/275,398の本出願は米国での仮出願の優先権を主張する。更に本発明は、2002年3月12日に出願された「ENHANCED DISPLAY OF ENVIRONMENTAL NAVIGATION FEATURES TO VEHICLE OPERATOR」(出願番号はまだ付与されていない)の優先権を主張する。
(発明の背景)
(発明の分野)
本発明は自動車の運転手又は乗客へ、一般的に道路標識、番地のようなナビゲーションのための周囲の視覚的情報を知らせるエンハンスド・ディスプレイに関する。可視範囲又は可視領域外における照明は、デジタル・カメラ又は同様の画像装置の画像の取り込みを補助する。
画像装置は、画像処理及び人工知能にトラッキングされる、運転手の入力及び自動化した動きの管理の下、任意に対象物に照準が合わせられ、トラッキングする。
パターン認識、画像処理及び人工知能は、画像の改良又は復元のために任意に用いられる。光学画像又はデジタル画像の安定化及び/又はフリーズ・フレームは、動いている車からの安定した画像を作り出す。
(関連技術の記載)
本発明を実施する者は、電気、電子、システム、コンピュータ、デジタル、通信、機械、自動車、光学、テレビ、画像、画像認識及び画像処理、制御システム、インテリジェント・システム及び他の関連するハードウェア、ソフトウェア・エンジニアリング及び設計の分野の技術に精通及び熟練した者である。
本発明の内容は上記の技術を構成要素とせず、上記技術の詳細は社会の共有財産であり、従来技術の知識の範囲である。
本発明の開示は、システム実施の詳説を行わないが、代わりにシステム、構成要素、データ構成、インターフェース、プロセス、機能及びプログラムのフロー、及びこれらが利用される新しい目的の新規の設計に焦点を当てる。
本出願は、デジタル・コンピュータ及び組み込まれた制御システム、CCD及び他のデジタル画像構成要素、デジタル・ビデオ処理システム(注記1)、自動焦点の機能を有するコンパクト・ビデオカメラ、光学及びデジタル・ズーム、光学及びデジタル画像安定化、信号増幅、赤外線画像等(注記2)、遠隔及び自動焦点合わせ、カメラのズーミング及び位置合わせ、関連する取り付け部及び電気機械制御、ビデオ及びスチール・カメラのための自動制御及び遠隔制御された可動式の取り付け部(注記3)、望遠鏡、自動車のミラー、スポットライト、フラッドライト等、敏感な画像構成要素の範囲のスポット照明及びフラッド照明、可視光、赤外線(可視領域に近い、及び熱画像)、紫外線及び他の特別可視スペクトル、光電子増倍、及び他の像を明るくする手段、ナイト・ビジョン又はフォグ・カッティング画像技術(注記4)、光ファイバー及び他のライト・ガイド手段(注記5)、デジタル・パターン認識及び画像処理、人工知能、衛星利用測位システム(GPS)技術(注記6)の様な電子ナビゲーション、キャデラック・ナイトビジョン・システムのような実在の自動車画像システム及び他の関連する装置及び技術及びこれら装置と技術の代用品及び代用技術を含むが限定されない既存の技術、システム及び構成要素に依存する。
実際、一般向け、商業用、軍事用の構成部品は、多少の追加のソフトウェア制御機能を除いて、少しの修正又は修正することなく、必要な全ての部品を提供し、本明細書中で記載される多くの実施形態を実施するために現在では統合することが可能であり、必要な修正及び/又は追加は、適切な技術の範囲内である。
また本発明の意図された範囲は、本発明の構成要素と結合或いは代わりとなる現存する又は後に発展する他の関連する技術との組み合わせを含む。
特に、キャデラック・ナイトビジョン・システムは、本発明にいくつかの点で類似することに留意する。しかしながら、より重要な主だった違いがある。
キャデラック・ナイトビジョン・システムの目的は、危険であるが見えないこともある道路上の対象物(例えば、図1A、図1B、図1C及び図1Dのキャデラック・デモンストレーション画像に示される、鹿、歩行者、他の車等)を視覚化することである。対照的に本発明の目的は、通り、道路、高速道路、店舗の看板、番地等のナビゲーションの目印をより良く視覚化することである。
キャデラック・ナイトビジョン・システムは、遠赤外線を用い、キャデラック・デモンストレーション画像(図1A、図1B、図1C及び図1D)に示されるように、特に夜間に用いることが意図され、該システムでは道路標識は、特に読み取りが不可能とされている。対照的に本発明は、夜間及び日中に用いられることを意図しており、道路標識を読み取るために可視光、紫外線及び可視領域に近い赤外線(IRの範疇に近いものは、どのようなものでも役立つ)照明を用いる。
キャデラック・ナイトビジョン・システムは、基本的にはフロントガラスに被さり、道路に向けられたヘッドアップ・ディスプレイと一体化した、静止して前方を向くカメラ・ビューを用いる。対照的に本発明は、直接運転手の視界に入らない対象物を示し、理想的にはCRT又はLCDダッシュボードに取り付けられたディスプレイを用い、従って本発明は視界が広範囲であり、高度に調整が可能であり、遠隔操作がなされ、任意に自動トラッキングができ、遠近法を用いて遠距離の対象物を調整するよりも拡大し、道路のよりリアルな状態を示す。
まず本発明に最も関連するいくつもの従来技術から説明される。
米国特許第5,729,016号は、法執行機関及び海兵隊の自動車に提供され、例えば、暗闇の中で加害者を追跡する又は船外の水中へ落ちた人の位置を特定することができるヒート・ビジョン・システムを記載する。
他の文献に記載されているキャデラック・システムと同様に、そのようなシステムでは道路標識のような対象は、輪郭以外は表示されないので本発明には不適切である。
カメラやディスプレイ・システムを自動車に取り付ける技術は既知のものであることを本発明は証明する。
一方、米国特許第5,598,207号は、制御システムが信号に応じて動く、パトカーの屋根に用いるために搭載される、目立たないカメラについて記載される。搭載されるものは、暗闇の中で犯罪者を検知するのに役立つ赤外線カメラが適しているように記載される。
また、そのような赤外線技術は、本発明とは区別される。該特許は自動車に搭載される遠隔操作されるカメラを導入する方法は既知のものであることを証明する。
しかしながら、本発明は明細書中に記載されているパン制御、ティルト制御の他にズーム制御及び画像処理を提供する。
米国特許第5,899,956号は、自動車の周囲の情報を収集するために自動車に搭載されるカメラ・システムを用いることによりGPSシステムの不正確さを補正する。
逆に言えば、本発明において、カメラ及びGPSシステムが結合されるとき、GPSシステムは、カメラ・システムの性能を改良するために用いられる。
更に、引用の特許はカメラで収集されるいかなる情報も表示しない(正しくは、運転手を導く音声指示を提供する)が、本発明は主としてカメラで収集された情報で導く。
引用の特許は、自動車内のカメラとGPS(又は同様のもの)システムを接続し情報を交換する方法は既知のものであると証明する。
同様に米国特許第5,844,505号は、運転手によって入力されるスタート位置及びおおよその位置を求めるガイドライン技術を用いる。さらに、周囲のカメラ・ビューは、システムの不正確さを補正する。このことは本発明とは逆である。さらに、引用された特許では、カメラ出力は運転手に示されず、音声による道案内が行われる。
カメラ出力を運転手に示すことは、本発明の重要な点である。該特許は、道路標識又は同様の物からのナビゲーション情報を得る方法は既知のものであると証明する。
米国特許第5,963,148号は、形状、道路状況又は前方の障害(例えば、カーブ、氷、雪、歩行者)を示すために赤外線画像システム(GPSのアシストと共に)を用いる点でキャデラック・システムに全く似ている。
また標準のカメラは、下方で前方の道路の全体の形状を表示するためだけに用いられ、道路標識には向けられず、この特許のディスプレイは、本発明の対象とならない。
さらに、該特許はカメラの位置合わせ手段を提供しない。この特許は自動車に搭載されるGPSシステムと一体となったカメラ・システムを統一する方法は既知のものであると証明する。
最後に、米国特許第6,233,523B1号において、移動中の自動車に、住所に関する情報を得たカメラと、位置に関するGPS情報を結合するシステムが装備されている。
これは所定の領域内の建物及び位置に関するデータベースを作り出すために用いられる。カメラ情報は、運転中には自動車の運転手に表示されず、例えば、自動車の乗客による直視により、番地は常に視覚的に決定されなければならず、情報は手動又は口頭で直ちにコンピュータへ入力され、又は撮影された任意の写真を送信することによる(コラム3、26から30行目)。
この特許は、本発明で必要とされる(例えば、(1523)、(1730)において)一種のデータベースを作り出す方法は既知のものであると証明する。
(本発明の要約)
本発明は、自動車の運転手又は乗客に対し、道路標識又は番地のような、ナビゲーションをするために必要な周囲の視覚的情報の画像を表示し、任意に画像を改良するための過程及びシステムに関する。
また、前の座席の乗客又は後部座席に便利な、追加のディスプレイが任意に提供される。
画像サブシステムにおいて、例えば、CCD又は同様のデジタル画像装置が、ビデオ・カメラ又はスチール・カメラとして具体化される。カメラは任意に遠隔焦点合わせ機能、ズーム制御機能が装備され、又任意に遠距離の水平、垂直位置決め変換器と一体化した取り付け部が加えられる。
光学制御とポインティング制御は、視覚的情報(例えば、文字、縁、長方形、色付けされた領域)のパターン認識を用いた運転手入力装置の組み合わせ(例えば、多軸ジョイスティック)及び/又はコンピュータ・アルゴリズムから入力される。
画像システムは、パン、ズーム及び/又は焦点を合わせることにより対象の対象物に向けられ、任意にトラッキングする。任意の可視可能な照明、赤外線、紫外線、他のスペクトル、光電子増倍、信号増幅(増幅率)、電装光学及び/又は他の画像改良アルゴリズムが用いられる。
これらは人間の視力では不十分な、特に夜間或いは他の時間(例えば、日没、日の出等)、或いは他の状況(例えば、霧、降雨、影又はまぶしい光が射している場所、距離が遠すぎる)で用いられる。
任意の人工知能、アルゴリズムによるパターン認識は、コンピュータ制御の動作のトラッキングに影響を与える。デジタルによる安定化及び/又はフリーズ・フレーム・イメージングは、自動車が動いている間、画像を安定させるために用いられる。更なる画像処理は、明るさ、鮮明さ又はサイズを増し、位置或いは他の歪み、エラーに対応し、他の画像の改良又は視覚的情報の認識(例えば、地図帳に合わせた文字の再構築)に適用及び/又は画像のある部分又は視覚的情報の改良又は強調のために画像に任意に適用される。
画像装置は、ダッシュボード、リア・フード、グリル、ミラー・カウル又は他の場所に搭載される。
更に、ダッシュボードに搭載されたカメラは、グローブ・ボックスにおいて乗客の席から近づけない場所又は暗い場所(例えば、落とした鍵を探すためにシートの下を見る)を見ることを可能とし、チャイルド・モニターとして後ろを向いたマウント又は電気制御される、後ろを向いた付属物として加えるために長いケーブル、無線、赤外線インターフェースを介して任意に接続される。
(図面を参照した本発明の詳細な説明)
運転の際、特に運転手が不慣れな場所では、道路標識、番地、店舗の看板等を読み取るために必要以上に注意を払うことが必要である。
運転者が不慣れな場所であるという状況は、影が射した場所、まぶしい場所、夜間又は他の時間(例えば、夜明け、たそがれ)、人間の視力が利かない時、天候が悪い時、標識が遠い時又はぼんやりとしか見えない時、自動車の速度が速い時、上下に動く時、運転手が一人の時又は周到な注意を払う必要がある時等に悪化する。
・本発明が解決しようとするシステムが必要とするものは下記の通りである。
・道路標識等の画像を簡単に読むことができるように充分大きくかつ明るく表示する。
・道路標識等の表示を夜や悪条件でも簡単に読むことができるように明るさを高める。
・道路標識等の表示を、鮮明さ、コントラストの増加、幾何学的歪み等を含む他の方法によって強調する。
・微小光の状況に対して、自身の照明又は画像強調メカニズムを提供する。
・特定の標識または他のものに照準を合わせることができる。
・自動車が動いている時に、特定の標識又は他のものをトラッキングすることができる。
・標識などから文字を認識して抽出することが出来る。
・特によく見えない又は認識できない文字を認識するために、文字とデータベースを組み合わせ、任意にGPS又は他の位置確認、又はナビゲーション装置と一緒に組み合わせる。
・上記目的以外に、横に置いたり後ろに置いたりして、暗い中又はシート裏、ダッシュボード内、又はトランクのような不便な収納部で物を探すこと、子供に注意を払うこと、付属的に後部座席のディスプレイ表示ができること、事件の資料として様々な用途に用いられることがある。
(発明の実施の形態)
図1A、図1B、図1Cと図1Dはキャデラック・ナイト・ビジョン・システムを図示するのに描かれたデモンストレーション画像である。図1Aは点灯していない夜間の場面を示す。図1Bはロービームを点灯している夜間の同じ場面を示す。図1Cはハイビームを点灯している夜間の同じ場面を示す。図1Dはキャデラックのナイト・ビジョン・システムの照明を使用している夜間の同じ場面を示す。注目すべき重要な要素は程度の違いはあるが、図1A、図1B、図1Cではトラック走行禁止の標識が明瞭であるが、図1Dでは完璧には読めないようになっている。これはキャデラック・ナイト・ビジョンが視界(注記7)の中の物体から発せられる熱エネルギーを元に、図を描くサーマルイメージング或いは赤外線技術を用いているためである。道路、自動車、標識に用いられる色は可視光線の下では区別できるものだが、一般的には夜には同じ温度であるため、サーマルイメージングシステムでは空白のように見える。このように本発明はただサーマルイメージングに頼るだけでなく、付属の照明と、温度、赤外線、可視光線に近い赤外線、可視光線、紫外線、他のエネルギースペクトルに敏感な様々なイメージング装置を用いる。
図2Aは2軸調整型取り付け部の中のカメラを示す側面図(200)である。図2Bは正面図(250)である。自動調整焦点、ズーム、虹彩絞りメカニズムは、一般消費者向けカメラ(注記8)でも標準的な特徴のため示されない。また、本明細書中に示される全てのカメラのサブシステムは台(210)、ダッシュボード又はそれ以外の自動車の表面に取り付けられる。このため軸(207)は回転変換器(209)から任意に伸びる。この構造は例示的なもので、これ以外の取り付け方、構成は通常利用でき、当業者ならば同じ目的に使用しうるが、それらも本発明(注記9)の範囲内である。
カメラのメカニズムはバレル(201)に取り付けられ、そしてレンズ機能が片側の端(202)にくる。この実施形態の中で、カメラのバレルは可動式の「C」クリップ(203)内で保持される。これはマイクロフォンをスタンドに収めるためによく使われるものに似ている。クリップに収められた後、容器(201)を保持する補助となるように、任意に出っ張り(204)が付けてある。回転軸(205)は、カメラ(201)と一体化したクリップ(203)が回転変換器(208)によって離れて上下に回転する(傾く)ことを可能にする。全てのメカニズムはブラケット(206)の中に保持され、該ブラケットは軸(207)に繋げられ、該軸(207)が回転変換器(209)により左右に回転する。
図3Aは4軸ジョイスティックの正面図(300)である。図3Bは4軸ジョイスティックの側面図(350)である。面板(301)からシャフト(303)に取り付けられ、そして面板から突出しているノブ(302)は、左右に動かされる(304)ことによってカメラを制御して左右に振り又はパンさせ、そして上下の動き(305)を制御することによってカメラを上下に傾かせる。このような2軸式(上記のような)装置は自動車ではサイドミラーを制御するのに一般的に用いられる。
任意に2つ目のジョイスティックが残りの2つの軸を動かすのに用いられる。又、セットの間で選ぶトグル(図示せず)と同じ二つの軸が用いられるかもしれない。しかし、この実施形態では他の2つの軸はノブ(302)またはシャフト(303)を時計回り、反時計回り(306)に動かすこと又は、押したり引いたり(307)することで制御される。これらの付加軸はカメラのズーム、もし必要ならば手動(リモート操作)で焦点を合わせるのに用いられ、又オートフォーカスの実施形態に置き換わり、優先し、補強するかたちで用いられる。このような装置の内部の電気機械動力変換機は、この技術では既知のものなので、詳細については省く。この構成は例示的なものなので、この技術について他のメカニズムそして構成が用いられるが、それらも本発明の範囲内である。
図4は後ろ向きの取り付けカメラを示す。図2と同様にマイクロフォンをスタンドに繋げるように可動型「C」クリップ(403)にはカメラのバレル(例えば201)を保持する補助となるために任意の出っ張り(404)が一体型になっている。そして可動型Cクリップはバケットシートの間のサイドボード(405)又は他の場所にしっかりと固定されたシャフト(402)に取り付けられる。
この任意な取り付け部は図2で示されるようにカメラを置くのに用いられ、後ろを向いているのでバックシートの子供、又はペットを見ることができる、又リアウィンドウの眺めは、後部ミラーの補助となる、又ダッシュボード上にカメラを置くと運転手の視界の邪魔になるので、その代わりにサイドボードの上に取り付ける場合もある。
図4に示されたような取り付け分は図2に示された取り付け分と任意に結びついて使用される。図5に示されたように赤外線又は無線チャンネル又は長いケーブルをカメラに取り付けて制御とビデオ信号のために用いる。カメラは「C」クリップに徐々に押し込まれることによってどちらかの取り付け部に取り付けられる。そして、「C」クリップは回転し、カメラの容器を保持する。さらにカメラは赤外線、又は無線に繋がれることによって、暗闇や、近づきにくい領域、例えば運転席の下に落ちた鍵を探す時、紙の地図又は道案内の画像を強調する(明るくする、拡大する、フリーズ・フレームする、等)。
これらの適用のために、カメラに拡大レンズや赤い照明(夜間走行中に運転手に光が邪魔にならないように)は任意に用いられる。図2はカメラ・システムの全体図(501)であるが構成要素の数字は省く。ケーブル(502)は図2では任意にシャフト(207)を貫通し、開口部(506)を通し、ダッシュボード(505)に繋がり、ダッシュボードの空間の中の取り付け部(504)の上に置かれた巻き取り式リールによって絡まらないようにしてある。
図6は別なユーザ入力装置とディスプレイが示してある。図3のジョイスティク(610)も示してある。ボタン又はスウィッチ(620)(トグル、モメンタリーオン、上下させる、等)が示される。これらは単独又は1本以上の2軸又は4軸制御装置(610)と共に用いられる。3列の4つのボタンは例えば前後左右のカメラを選ぶ(一番上の列、相互にプッシュボタンは排除する)、カメラを上下左右に動かす(真ん中の列、押している間稼動する)、レンズのズームを調整する、焦点の調整をする(一番下の列、押している間稼動する)。また、スウィッチとボタンはクルーズ制御や無線他のシステムで一般的なハンドル(630)の上に置かれる。
任意なディスプレイの例はヘッドアップ・ディスプレイ(650)である。これはキャデラック・システムにも採用されている。しかし、表示されることがフロントウィンドウに表示する必要はなく、運転手の目線にあることが運転手の気を散らすこともある。このため他の実施形態としてCRT、好ましくは平面のLCDパネル又は類似のディスプレイ(640)を設置するか、または図には示されてないがダッシュボードから飛び出し式にする。一方、このシステムは道路から目をそらすため気を散らす。ヘッドアップ・ディスプレイ(HUD)の利点は側面、後部の情報をフロントウィンドウに集めていることである。このシステムに慣れている人にはHUDは望ましいものであり、初心者又はたまにしか使わない人には、パネルが望ましい。既知のディスプレイ装置で適したもの、またそれらの改良品のうち、いずれかもしくは両方が供給される。
図7Aはカメラをサイド・ミラー・カウル(700)に取り付けた図を示す。図7Bは内部の詳細図(770)を示す。歩行者側のみを利用するように単に示しているが、一般的に左側、右側両方利用可能である。サイド・ビュー・ミラー(720)は標準品と同じようにウェザーアンドウィンドカウル(710)の中に設置される。ミラー制御モータ(図示せず)も同様に格納する。このような標準品の側面(730)に開口部を開け、任意に透明なウィンドウで覆う。代わりに付加的に前方に開口部を開けてカメラを設置することも可能である(図示せず)。小形ビデオ・カメラは開口部内に取り付けられる、小型ビデオ・カメラには低コストの、光の弱い、1.1インチ平方のカメラ、例えばパームのVIDビデオ・カメラから得られるPVSSQUAREモデル(注記10)を用いる。
内部詳細図には取り付け部(750)に接続されるカメラ(740)が示される、例えば、頂部(751)、底部(754)、後部(752)、前図(753)の4つのソレノイドで固定される。4つのソレノイドは連動的に動き、カメラを上下、前後、左右に動かせる。ソレノイドの間の中心にボール又はソケットピボット(図示せず)を置くことで傾くことよりも、動くことを防ぐ。例えば頂部のソレノイドが突出し、底部のソレノイドが縮むことでカメラは下に傾く。代わりにレンズと外部の間にミラーを設置しサイドミラーのようにミラーを傾けることで視野を変える場合もある。この例に機能的に類似したメカニズム、構造がこの例と異なったとしても、それらはメカニカルに、光学的に、自動工学技術の知識の範囲内であるなら、本発明の意図された範囲内である。
図8は光源(810)とカメラ(820)が連動するように取り付けられた実施形態を示す。カメラ(820)の前部と光源(810)が、焦点を近づけるために近づくように傾き、逆に離れたところにある対象物(870)に焦点を合わせるためにお互いに離れるように傾く。このように照明される領域(860)とカメラの見える領域は重なっている。同様にそして任意に、光源のレンズ・システムがあると、カメラがズームインするときに狭い範囲を照らし、ズームアウト(広角度)するときに照明範囲を広げることができる。
図9A、図9Bは、カメラとトラッキング補助照明の図である。図9Aは正面図(900)であり、中心にはカメラ(910)の光学要素とそれを囲む環状の照明の開口部(920)とは同軸である。このように単一のバレル、その他の機械的ユニットが制御されることによってカメラの視野と照明範囲は一致する。代わりに、図9Bにはもう1つの正面図(950)が示されている。カメラ(930)が複数の光源(921−924、ここでは4つが示されているが、4つ以上の場合もある)により囲まれている。それぞれの光源がレンズ、フィルター、異なった光源を持ち、選択的に異なったスペクトルの照明を発する。(赤外線、紫外線、可視白色、比較的狭い範囲の可視光線、等)
光源を選択するか、普通の光源にフィルターを付けて、異なったスペクトルの部分に対して敏感な要素をイメージングすれば、任意に複数のスペクトルを同時に、又異なる時に、異なる状況でイメージングするのに用いられる。下記にその例を表す。
特に夜間に遠赤外線(またその他の人間に見えない照明)、近赤外線、赤い光線(夜間、飛行機内、船内、潜水艦、戦闘状態の暗がりで地図を読むためのもの)は利用できる、そして他の運転手の視野がこのシステムの光源の影響によって一時的に見えなくなるのを最小限にする(赤い光線と共に可視光線の紫色を発する)。ソナーもこの点に関して同様に用いられる。又オートフォーカス・カメラ・システムで一般的な焦点ビジュアル・センサーも距離を測るために利用するかもしれない。
遠赤外線(ヒート・ビジョン)はキャデラック・ナイト・ビジョン・システムが示すように、通行人などの対象物を周囲から識別するのに有効である。そして、例えば、周囲(空、木)から冷たい金属の道路標識を認識して、識別するのにも使用できる。しかし、キャデラック・ナイト・ビジョン・システムが示すようにこのスペクトルでは文字の内容は簡単に識別できないこともある。
紫外線とより高い周波数、冷色又は可視光線の青色の端は、低周波数の光線より、もやや霧を通して見るのに適している。
道路又は交通標識はよく緑地に白い字で描かれる、また最近は深い赤地に白い字で描かれる。もし緑地に白字の標識に緑の光線を当てると(緑のフィルターを通してみると、緑に敏感な要素がはっきり見える)、緑と白の領域がとても明るく見える。比較的識別が難しく、コンピュータによる文字の読み取りが難しい。しかし赤い範囲の光線では緑地に白い字の標識の文字の読みやすさがかなり増す。この逆もまた言える。
この結果、移動中に道路標識を見つける既知の方法は、緑のスペクトルを用いて明るい長方形を探すことによって潜在的な道路標識を探し、そして文面を読むのに赤いスペクトルを用いて、その領域を映像にする(任意にズームインを使用する)。もしローカルカラー一覧表が分からない場合、又認識プログラム(下記で説明する)の利用可能なデータの量を増やす場合に、複数のスペクトル(赤、緑、青、白)によってイメージングを行い、それらのデータを分離、又は合成して解析する。
イメージング機能、電磁波(エックス線、磁気、ラジオ周波数、等)に敏感なセンサは一般消費者向け利用例としては、上記のような運転手向けが典型的であるが、その他の利用例としては、例えば警察又は軍による武器検査、交通違反の取締りに用いられる。
図10Bは環状の照明領域(920)の前に設置されるレンズ・システム(1010)の正面図である。図10Aは側面図(1020)(1025)である。又必要に応じて焦点、光の分散の性能を改善するため、任意に更に多くのレンズが複合型レンズ・システムにもとづいて設置される。もし各レンズ要素(1010)の断面図が示されると、凸型レンズは図10Cの(1030)(1035)、凹面レンズは図10Dの(1040)(1045)となる。また必要に応じて複合型レンズ光源焦点システムを実行する。
図11Aは光源(1110)からの光出力の配置を示す。光源はカメラ・サブシステム(図示せず、円錐状の壁(1126)によって作られた空間と曲面(1127)の中に設置される)の後ろにあり、光出力はカメラの周りを通る。光出力は場合によっては図10のレンズ・サブシステムを通り、最終的に環状の開口部(920)を出て行く。この配置図で重要なことは、断面図に示されるライト・ガイド(1120)である。ライト・ガイド構成要素は、人口ガラス、アクリル、他の導波管物質によって側面(1126)、(1127)、(1128)が処理される。光が漏れないよう、また開口部(1125)への光出力を増すため(1121)と(1125)には反射コーティングがされている。光は後部(1121)からライト・ガイド(1120)に入り、一般的に光の進行方向に対して円状になって進む。首の部分(1122)を通り抜けた後、光の道は2つに分かれる、断面図で2つの道の分岐点のように見えるが、立体的には進行方向に対して円状であり、リング状になると光が進むにつれて外側、内側の半径が増す。半径が最大になったときに円形の空洞ができる、断面図では光の通り道は真っ直ぐになり(1124)、一定の半径の環を作る。最後に光は開口部を出る。光の環は、カメラ・サブシステムを囲むように進む。そしてカメラ・サブシステムは、(1126)による境界のある後部と(1127)によって囲まれている空洞の中に設置されている。この正面図は(900)と類似している。
もしライト・ガイド(1120)が効率よく組立てられない若しくは経済的に組立てられない場合や、ライト・ガイドが寸法的に効果的に作動しない、光路平均方向の横方向(光路は(1120)から(1125)を横切る))に大きい場合、或いはその他の場合において、ワンピース・ライト・ガイド(1120)は一般に横方向に小さい寸法を有するマルチプル・ライト・ガイドに置き換えられる。他の1つの代用の実施形態において、ワンピース・ライト・ガイド(1120)はより一般的な多くの光ファイバからなるライト・ガイドに置き換えられる。他のもう一つの実施形態においては、実質的にワンピース・ガイドライト(1120)は(1120)と同一の構成からなる集合の部品群によって置き換えられる。該構成部品は、その1つが図11B(1150)に示されているが、いくつかの角度によって分離された2つの半径によって仕切られる各々薄いウェッジ形状の部品(1120)である。これらの部品の多く、大体20から120くらいの部品が組み合わされ、パイウェッジ状にされ、完全な360°の形状を形成する。また該部品(1120)は180°の形状も含むものである。
図12Bは図12Aの歪んだ長方形領域(1200)の歪み補正(1210)を現わす。例えば、該長方形領域の歪はある角度から道路標識を本願発明で読み取ることにより生ずるものである。遠近法(1200)によって歪んだ長方形領域は、例えば、4つの直線の交差或いは特定の場所で道路標識として用いられるものとして知られる予測される色彩の断片として認識される。それは、逆アファイン変換を適用することにより最もよく補正され、読み取り可能な像に復元される。
適切な適用される変換はいくつかの方法の組み合わせによって計算される。
一体となって、カメラの傾斜角度やカメラのパン方向はアファイン歪を計算するために用いられる。それは、カメラが利用される車両の前方、後方若しくは側方にある長方形に適用される。該逆変換は像に適用される。道路あるいは高速道路の標識は大抵垂直方向に設置されているので、この手法は垂直傾斜に対してより有効である。そして垂直方向の主要な歪要素は緩和される。一方で道路標識は、曲がり角或いはカーブにおいて、しばしばそれが据付けられたポール及び/又は車の周りを回転している。このようなとき、水平方向の主要な要素は時々より困難になり、カメラの向きにのみに関連するものではなくなる。追加の変換が必要に応じて、上述のカメラの向きに関係する変換とともの連動し、追加の標識方向要素を考慮に入れたものとされる。
それにもかかわらず、アファイン変換或いはその逆変換は3次元内の回転、平行移動及び縮尺変更を補正し、修正する。もし、当業者に知られたパターン認識、画像処理及び線形代数アルゴリズムによって、適切に計算されるならば(カメラの方向、レンズの規格、長方形の道路標識のような既知の物体の仮想形状を基礎として)、歪を補正する変換は決定され、修正される。
代用の技術(追加的に、必要に応じて独立或いは同時に)が適用されることによって、追加的な技術が応用される。この手法は歪がどのように生じているかどうかを問題にしないが、視認される四辺形が歪んだ物質の長方形から生じたものであると仮定し、それを長方形状に戻すものである。アファイン変換は直線を維持するので、四辺形は四辺形として維持されるため、この手法は一般に有効である。
画像処理やその形態(文字列、線、四辺形、長方形、色彩片など)の認識ソフトウェアの構成や操作の詳細はそれら各々の分野における当業者によく知られているものである。それらの組み合わせやここに出された使用ではないけれども、多くの実践者が形態認識や記憶の目的とする市販のソフトウェア・パッケージを得るであろうことは予想される。しかしながらそのような認識パッケージが画像処理アルゴリズムを含まないものであるかもしれない。図12Cから図12Eを通じてする後述の説明は、歪み修正のアルゴリズムをプログラムしようとする画像処理の分野に精通しない実践者に対するものである。以下に示すものは、一例であり、簡潔ではあるが、遠近法やレンズ・システムなどにより引き起こされる歪みを修正するのには十分なものではない。それにもかかわらず、それは表示される像が自動車の運転手が読み取ることが容易になるように正常化させる。
図12Cから図12Eはこの歪み修正アルゴリズムを示すダイアグラムを現わしている。図12F及び図12Gは、画像処理計算を実行するためのプログラム・コードの一例からなる。そのようなアルゴリズムは画像処理分野の当業者によく知られたものである。図12C及び図12Dの図形及び図12Eと12F及び12G(1250−1287)のアルゴリズム内の固有の代数演算の記述はともに後述される。
1つのソースとなる四辺形(1230、1251)は4つの線の交差として認識される。そして、該四辺形は4つの角によって特定される。4つの角は最も近い垂線の交差で表される。(s00x、s00y)、(s01x、s01y)、(s10x、s10y)及び(s11x、s11y)として、行(1253)から行(1256)に表示される。デスティネーション長方形が指定され(1220、1252)、その中で補正された長方形が再構築される。該長方形の範囲は4つの辺d0x、d0y、d1x及びd1yで特定される(1257−1258)。
底辺から上方へ(1266−1285)、左から右へ(1272−1284)へ向かうラスタ・パターンがデスティネーション長方形内で設定され、それは左下角部(1221)で始まり、座標(id、jd)に沿ってある任意の点(1222)に向かう。デスティネーション長方形(1220)内で読み取られる各線(jd)に対して、比例する高さ(1223)が、四辺形(1268−1271)内の比較的歪んだスキャン線の終点(1233及び1234)、s0x、s0y、s1x、s1y(1262)を決定する四辺形(1230)の左及び右の辺に適用される。それから、デスティネーション線(即ち、1222)に沿う各点に対して、デスティネーション線に沿った比例する距離がその座標(sx、sy)(1274−1275)(即ち、1232)に到達するための歪んだスキャン線に適用される。
変動点座標のそれぞれ、即ちsx及びsy、はその後整数部is、js(1276−1277)と小数部fx、fy(1278−1279)に分けられる。
整数座標(is、js)はソース・ピクセルの2−by−2セルの左下角部を特定する。それは、行(1240)においてsx=3.6、sy=4.2、is=3、js=4、fx=0.6及びfy=0.2で示される。fxの数値は列方向に少数を1.0まで加算するのに用いられ、fyの数値は行方向に少数を1.0まで加算するのに用いられる。4つの結果が該加算から得られ、デスティネーション・ピクセルの(i、j)に置かれる。コンピュータ・アルゴリズムは、双一次方程式補間の若干の変形計算、即ち3つの計算式(1280−1282)を実行し、順々に一連の計算を行い、結果を蓄積する(1283)。
デスティネーション長方形の大きさが適切に選択されることによって、対象物の領域の像が計算的に、補正と同時に拡大される(光学的拡大もこれに追加される)。ソースの値及び/又はデスティネーション・ピクセルは、必要に応じて、強調、コントラスト、輝度、ガンマ修正、カラー・バランス、ノイズ除去など画像処理分野の当業者に知られる方法で、像の質を高めるための処理がなされる。そのような処理は単独信号に対して別々に行われてもよいし、複合信号に対して行われるものであってもよい。
図13は、例えば道路標識からの文字列の部分的認識を現わす。葉やさびや他のものによって部分的に不明瞭となっていることにより、文字列は部分的にのみ認識される。運転手が場所を正しく認識すること、特に道路標識の文字列を正しく認識することを助けるために、認識される文字列はデータベースやダウンロードされたデータ中の道路の名前のリスト(あるいは対象地点、例えば病院、図書館、ホテルなどのような他の環境的特徴)と比較される。そして、そのことは潜在的適合(即ち、部分的な適合)をさせる。該リストは、自動車の位置から一定の半径内の道路や物を検索する範囲で必要に応じて、情報収集されたものである。場所は、GPS、他の衛星若しくは自動ナビゲーション或いはロケーション・システム、或いはジップ・コードのようなユーザ入力、標識設定、地図の境界設定などによって決定される。
図13に示す例において、部分的に認識される文字列断片は、約6から8文字の断続的な文字であり、「IGH」及び「VE」を含む(図13中の大きさで示される必要はない)。システムの一部である英数キーボード(例えば1532)でのユーザ入力を基に、潜在的適合のリストは地理的に限定される。この例においてコンピュータとユーザとの間のインタラクションは以下のものである。
LOCATION:“Long Island Expressway Exit 43”
RADIUS:“2 Miles”
そして該文字列断片は潜在的に「EIGHT ST.OVERPASS」と「HIGHLAND AVENUE」の両方と適合する。追加の人工知能技術(例えば、2つの断片の隠されている文字列空間の大きさを算定する)が2つの可能性を区別するために用いられるけれども、この例において、さらに文字列を詰めると当てにならなくなるほど狭い。
文字列認識、GPS、自動ナビゲーション・システム、自動マップ及び道路データベースの構成や操作の詳細はそれぞれの技術分野においてよく知られているが、ここに組込まれるそれらの組み合わせや使用はよく知られていない。
図16は部分的文字列をルックアップするためのプログラム・フローを示す。道路標識或いは他の所望の情報が、運転手或いはここで述べられた人工知能ソフトウェア(図17参照)によって識別された後、そのような各地域が文字列認識ソフトウェアや以下の部分的文字列ルックアップ手順の処理を受ける(1600)。
人間及び/又はソフトウェアによって識別された地域に対して(1601)、文字列認識が予測される様式で試みられる(1605)。様式の要素はフォント、色、大きさなどを含む。予測は、観測(例えば、その地域において他の標識が、セリフ・フォント赤地に白文字で8×12インチの長方形標識の高さ85%の大きさで表されるといったことや、AIや認識ソフトウェアが通常するように、通常のネットワーク或いは他の人工知能ソフトウェアが地域の標識について覚えていくことなど)或いは、地域の知識(例えば、データベース登録が、商業地区Middleville内の標識が黄色地に黒文字で、イタリック・サン・セリフ・フォントで、文字列を表示する限りにおいて3インチの大きさで表されるといったこと)。もしこのステップでうまくいかなければ、他の様式で文字列認識が追加的に実行される(1610)。
道路の名前や他の周囲の特徴のデータベース内で認識された文字列断片の検索を行う前に、もし大体の場所のデータが利用できるならば、必要に応じて、目的の場所の固定的な或いは調整可能な範囲内で名前及び特徴に関してデータベースを限定するものであってもよい(1615)。さらに、データベース内で代わりの文字置換がなされてもよい(1620)。例えば、ten、tenth、10および10thといったものである。図13のところで説明したように、その後文字列断片とデータベースとの適合が実行される(1625)。
適合処理は現在の適合と前の適合の情報を組み合わせることでより精度が上がる。例えば、ある道路標識が高い信頼度で「Broadway」と識別されたならば、交差する道路標識は、最初あるいはそれに近い順序で、データベース中「Broadway」に交差する道路の名前と適合を試みる。或いは、もし最近認識された道路が明確に「Fourth Ave」として認識されていたならば、より少ない文字(例えば、「―――i――― Ave」)が文字列断片として認識されたときであっても、同じ文字列断片を「First Ave」や「Six Ave」と適合をさせるよりも、「Fifth Ave」或いは「Third Ave」(各々の方向での次の道路)との適合させるほうが、より信頼度の高い適合となることが考えられる(これらそれぞれの文字は「i」の文字を含むものであるけれども)。もしコンパスがシステムに組込まれているならば、「Fifth Ave」と「Third Ave」に対する予測はより区別可能なものとなる。
同様に、仮に認識された部分的な文字列に対しても部分的適合はなされる。例えば、「a」や「e」や「o」は文字列認識ソフトウェアによってしばしば混同される。また「g」や「q」も同様である。それゆえ、部分的適合も考慮されるが、全ての認識された文字への適合作業が優先的に行われる。そのような文字列適合アルゴリズムはその分野で開発され、よく知られている。部分(部分的に不明瞭であったり、一部適合しなかったりしたもの)への適合作業がなされると、必要に応じて潜在的適合を認識するための追加的な試みがなされる。例えば、連続する文字列「Ablene」が仮に認識され、連続する文字列「Ablene」がデータベース中にあったとすると、この予測を考慮して「o」が「a」として認識されることが合理的かどうか判断する文字列認識確認アルゴリズムによって追加的な試みがなされる。
正確に適合している、或いは合理的な適合として唯一の適合が認識された場合において、その適合は表示される。もし、いくつかの可能な適合が認識されるならば、それらの適合は、認識された文字列及び/又は適合した文字数、地理的位置、以前に認識された要素に近いことなど(1635)のような因子に基づいて、信頼度順に表示される。その処理は次の認識された地域においても繰り返される(1650)。
図14は各々のカメラのサブシステム(1400)のシステム・ダイアグラムを示す。カメラハウジング(1401)は2軸電子制御取り付け部内で保持される。それは、図2と同様であり、詳細は省略される。電子的に制御される焦点及びズーム・リング(1403)がカメラのサブシステムの前面の若干後方かつレンズ・サブシステム(1408)の周りに据付けられる。前面において、図9、10及び11に示されるような環状光源(1404)の突出ている部分の断面(上方及び下方)が示される。カメラの開口(1405)は電子的に選択可能なフィルター(1406)、電子虹彩絞り(1407)及び複合ズーム・レンズ・システム(1408)に向けられている。該レンズ(1408)は光学的、光学的/機械的なイメージング安定サブシステム(1409)内に配置される。これらの後方に、CCDデジタル・イメージング要素のような電子像要素(1410)、デジタルメモリ及び制御ユニット(1411)が示される。これらは光学的像を電子像に変換し、画像処理し、他の部品を自動的に制御する(例えば、オートフォーカス、自動露出、デジタル像安定化など)。部品間及び部品と図15に示される他のシステム部品との間の制御及び信号伝達は明確化する目的でここでは示さない。
図15は全体のシステム(1500)のダイアグラムを示す。図14中(1400)で示されるようなカメラの複合的なサブシステムは、ここでは、(1511)....(1514)で示される。これら各々が視覚的情報を制御や画像処理に用いられるデジタル処理機(1520)に送り、また制御信号を該デジタル処理機と交換する。更に、デジタル処理機は、中央処理ユニット(1521)、大容量記録ユニット、例えばハード・ディスク・ドライブ(1522)、制御、通信、人工知能、画像処理、パターン認識、トラッキング、像安定、オートフォーカス、自動露出、GPS及びディスク(1523)上に他のソフトウェア及びデータベース情報を含み、メインメモリ、例えばRAM(1524)、メモリ(1525)内で使用されるソフトウェア及びデータ、カメラ(1526)との間でやりとりをする制御及び像インターフェイス、ディスプレイ(1527)のためのインターフェース、ユーザ入力装置、例えばジョイスティック、ボタン、スウィッチ、数字或いは英数字キーボードなど(1528)、のためのインターフェース、及び衛星ナビゲーション通信/制御(例えばGPS)インターフェース(1529)からなる。加えて、該システムはCRT及び/又はLCD及び/又はヘッドアップ・ディスプレイ(1531)を含む入力/出力部品、付随的な英数字キーボード(1532)、ジョイスティック入力ユニットを含むキー/スウィッチ入力ユニット(1533)、及びGPS或いは他の衛星或いは自動ナビゲーション・システム(1534)を含む。
図17は、形態認識のためのプログラム・フロー(1700)を示す。ここでまず述べることは、これらのステップは順番に並べられたループ内に存在するが、様々な実行ステップの間任意のステップへのフィードは飛ばされてもよい。また、リターンあるいはフィードバックの矢印は、任意のステップがその前のステップに戻ることを示す。このようにして、以下に説明するように、これらのステップは必要に応じて、任意の順序及び任意の回数で実行される。
特に上述の如く図16に関して説明されたように、形態認識機能が働くと、部分的或いは潜在的適合がデータベース登録情報となされ、必要に応じて、1回あるいはそれ以上繰り返して、形態認識がこれらの潜在的適合によって提供される予測とともになされる。
それぞれのステップは、図(1700)に表されているように簡単に説明される。最初のステップ(1705)は、マルチ−スペクトル・イルミネーション、フィルター及び/又はイメージング・エレメントを採用している。
これらは、可視光、紫外線、赤外線(近赤外、遠赤外)、及び音波イメージング、又は、レンジ・ファインディング(たとえ、X線や他のスペクトル又はエネルギーの放射が任意で採用されているとしても)、あるいは、可視スペクトルのなかの赤、緑、青に関連したものであり、任意の異なった見え方をするものである。
異なるイメージング技術は、時として異なる目的のために用いられる。
例えば、同一のシステムの中でも、音波(あるいは超音波)「chirp」は、いくつかの消費者カメラに用いられているようなレンジ・ファインディング(ステレオ・イメージングの代わりに、2つのカメラまたは1つの動くカメラを有して、あるいはレンジ・ファインディングの他の方法が用いられる)のために用いられ、赤外線熱イメージングは、街路樹の葉等により見えにくくなっている金属の道路標識(動いて、あいまいに見える)を認識するために用いられ、可視イメージングは、葉等によって隠されていない前もって検出されたこれらの部分から文字を読むのに用いられる(図13を参照)。
代わりに、複数のスペクトルが、認識ソフトウェアのためのより豊かな特徴のセットを作り出すために用いられる。
例えば、異なるピクセル値の領域の境界は、線、縁、文字及び長方形のような形状を認識するために最もよく用いられる。
上でも論述されたように、輝度(すなわち、モノクロ、又は白黒)信号は、同様の明度信号を有する、異なる色の特徴を区別しないこともあり、例えば、緑色のような狭いカラーバンドを介したイメージングは、緑色と白色を容易には区別しないので、多くの道路標識がそうであるように、もし、道路標識が緑色の下地に白色でプリントされていたら問題である。
このように、赤色によるイメージングは、いくつかの環境要素に有効であり、緑色は他のものに有効であり、青色は、また別のものに有効である。
それゆえ、本発明の目的は、複数のカラー・スペクトルによるイメージングが用いられ、そのようにして得られた縁や領域のセット、交差及び/又は他の論理的組み合わせが、線、形状、文字又は他のイメージ・エレメントや環境対象のような特徴を抽出するために分析する時に用いられることである。
処理するための複数のイメージを得るため、又は単一のイメージのための結果を改善するために、プログラム・フロー(1710)の次のステップは、照度、露出、フォーカス、ズーム、カメラ・ポジション、又は他のイメージング・システムの要素を調整する。
ステップ1705と1710は、例えば、オート露出、オートフォーカス、機械/光学又はデジタル・イメージ安定化、オブジェクト・トラッキング(図18を参照)、及び他の同様の標準的な機能のような、いくつかの機能のために、繰り返し行われる。
次のステップ(1715)では、マルチ・スペクトル・データ・セットは、別々に分析されるか、又は検出されたデータ(たいていは、縁のようなトランジション)のロジカル・コンジャンクション又は交差のようないくつかの組み合わせで分析される。
例えば、赤色の背景に白色で印刷された道路標識では、標識の基本的な長方形は、赤色と青色のフィルターを介して作られた露出において可視である縁によって、よく認識されるだろう。つまり、標識の背景色に対する文字は、青色の露出(赤色が暗く、白色が明るく見える)において、縁として現れるが、赤色の露出(赤色と白色の両方が明るく見える)においては、(少なくともよくは)現れず、標識の表面に被さっている影によって作り出された不正確な縁(少なくとも、文字認識に関する限り)は、赤色の露出においてよく可視化された縁だけを差し引くことによって、青色の露出から除かれることもある。
ステップ(1720)においては、予想される特徴を認識しようとする試みがなされる。
例えば、その土地のデフォルト・セッティング、又はGPSサブシステムを調べることによって得られる地理的な情報によって、その付近にある道路標識が、白色のサンセリフ文字が緑色の背景に印刷されたもので、8×40インチの大きさの長方形の標識であり、その標識は、半インチの白色の線を上部と底部に有するが、側部には有さないということを知ることができる。
この情報が用いられるのは、例えば、緑色と赤色のフィルターを介するイメージング(上で論述されたように)を選択するためや、(歪みを補正した後)緑色の長方形状の形状をスキャンしたり、サンセリフ文字の微調整された文字認識アルゴリズムを、緑色の長方形の上の白色の形状に用いることにより、知られている特徴をさがすためである。
ステップ(1725)においては、より一般的な特徴を認識するための付加的な試みがなされる。例えば、他の色のフィルターあるいはイルミネーションを用いるイメージングや、予想されていない標識(別の色の長方形)の探索や、長方形以外に存在する文字の探索や、予想されるフォントとは別のフォントに微調整された文字認識アルゴリズムの使用等によってなされる。
ステップ(1730)では、部分的又は暫的的な発見物は、通りの名前や他の環境特徴(例えば、病院、商店、高速道路等)等のデータベースからの情報と比較される。このデータベースは、既に認識された特徴や、GPSサブシステム等に由来する情報によってある位置を対象とするよう任意で調整されることもある。
これらの比較は、図13と関連して論述されたように、認識プロセスをよりよいものにするために用いられる。
さらに、他の機能が、上で論述された概略図(1700)のいくつものステップの間で、任意に、実行され、フィードバックすることによって、影響されることもある。
これのみには限定されないが、1つの説明として、いくつもの道路標識が認識され、それらが、カメラから様々な距離に広く位置している場合を考えてみる。
最初に、カメラは左右に振られ、いくつもの露出が比較される。カメラの動きや、光学的な情報等を用いながら、いくつかの目標物間の異なる視差の差し引きは、カメラからのそれらの距離を決定するのに用いられることができる。
その後、被写界深度が深い像を得るために、ピンホールのようなとても小さい開口を用いるのではなく、カメラは別々に焦点を合わされ(任意の異なる露出で)、そのような目標物のそれぞれのために、イメージ・データが別々に取り込まれる。
関連する部分は、それぞれの露出から取り除かれ、別々に分析されるか、あるいは、合成イメージがつなぎ合わされる。
同様に、道路標識の前で、葉がカサカサと動いている状況、あるいは、車が動くにつれて、道路標識に対して相対的に移動する電柱のような目標物の前を、葉が覆い隠すような状況では、いくつものフレームが比較され、異なるフレームから得られた道路標識の異なる部分は、そのまま利用されるのではなく、より完成された目標物の像を作り出すためにつなぎ合わされる。
任意で、目標物を分離する処理は、複数の箇所から取り込まれたフレームを分析することによって得られる距離の情報を調べることにより、あるいは、音波イメージングによる距離の情報を調べることにより、あるいは、カサカサ動いている葉又は、動き隠している目標物の動きを検出すること等によって向上する。
隠している目標物や、動いている目標物が、それぞれのフレームから除かれ、残ったものが、別のフレームで残ったものと合成される。
別の例においては、歪み補正処理の後、共に、内側に白色の形状を有しているほぼ三角形でほぼ青色の領域の上のほぼ四角形でほぼ赤色の領域は、暫定的に、連邦高速道路標識として認識される。つまり、文字認識ルーティーンが、青色の上の白色のものを、「I−95」として認識する。
カメラは、その後、予想される関連のある出口標識の「緑色の長方形の上の白い文字」を探し、見つけ出した上で、たとえ出口の名前の文字を認識できなくても(おそらく、葉、霧、又は大きなトラックによって隠されている)、「出口32」を読み取ることができ、「I−95」という情報のもとで、「出口32」を内部のデータベースで調べることにより、「データベースによって、出口である可能性があると認識されました」という意味の「Middleville Road, North」というメッセージを表示する。このように、ドライバは、彼又は、このシステムが直接見ることのできない情報を得ることができる。
図18Aと18Bは、イメージ・トラッキングのプログラム・フローを描いたものである。自動カメラ取り付け部を制御し、環境特徴のトラッキングを可能にするためのソフトウェアは、市販のものが利用可能であり、そのような特徴をプログラミングすることは、画像処理と自動制御の当業者の情報の範囲内である。
それでもなお、より劣った技術を有する実用者のために、彼ら自身がプログラミングすることを意図して、別々に、又は、お互いと組み合わせて、あるいは、別の技術と組み合わせて用いられることもあるアプローチ(1800)を描いた図18Aと、別のアプローチ(1810)を描いた図18Bが用意されている。
図18Aにおいて、第1のアプローチ(1800)は、オペレータである人間か、図17の技術か、その他のもの(1801)によって、道路標識または他の対象領域が決定され、開始されているステップからなる。
もし、必要なら、例えば、自動カメラの制御に影響を与える角度制御装置の位置や、車の位置又は車の動き(例えば、速度と車輪の方向又は慣性センサの使用によって決定されるような)の変化や、カメラレンズにおける焦点制御により決定される目標物までの距離や、音波レンジ・ファインダーによって決定されるような目標物までの距離や、デュアル(ステレオ)・イメージング、車又はカメラが動いた時に撮影されるデュアル・シリアル・イメージ、あるいはスプリット−イメージ・レンジ・ファインダー等によって決定される目標物までの距離等の情報の組み合わせによって、対象地域又は対象の車に対する相対的な位置が計算される。
さらに、中央前方にある目標物に焦点を合わせ、遥か遠くの背景の目標物や、近くに存在するが重要でない目標物や、あるいは瞬間的にすばやく移動する目標物は無視する電子ビデオ・カメラのオートフォーカス制御サブシステムが、用いられることも可能である。
一旦、対象領域または目標物が認識され、分離されたら、相互相関や他の画像処理は、任意で、デジタル・イメージのその領域のピクセルに限定される。
トラッキング・プロシジャーは、典型的には1秒当たり何度も行われ、理想的には、それぞれのフレームをシャッターする前に行われるので、1つ又は複数の以前の調整のパラメータは、任意で、調べられ、線形、指数、多項、又は他の曲線に合わせられ、次の調整を予測するために用いられる。その後、これは、任意で、残りの誤差(1802)を計算する前に予測し、事前補正するために用いられる。
この第1のアプローチでは、その後、相互相関計算は最小誤差(1803)を見つけるために行われる。
以前の像と現在の像は重ねられ、(任意で対象領域に限定され)、それぞれから差し引かれる。
差分又は誤差の関数は、しばしば、負の値を除去するために、平方することによって、絶対値で作られ、対象範囲全体の上の誤差の合成は足し合わされる。
その処理は、様々な、水平と垂直補正(いくつかの道理に合った範囲のなかの)の組み合わせを用いながら繰り返され、その補正(挿入技術を用いることによってピクセルの断片でありうる)が、2つの像の間の違いを最も補正する時、最小誤差のペアが結果として生ずる。
全ての可能な補正の組み合わせを試みるよりも、1つあるいは複数の以前の像のペアから選ばれた補正が、現在の補正を予想するのに用いられ、その予想のより小さい偏位が、計算をよりよいものにするために用いられる。
レンズ・システムの光学的な特性の情報によって、対象物までの距離(例えば、上述されたレンジ・ファインディング技術によって得られる)と、ピクセル・補正と、物理線形補正が計算され、直線三角法技術を用いることで、これは、補正のための調整に必要とされる自動カメラ取り付け部の回転変換機に対する角度補正に変換される。この補正は、対象物を、カメラ視野(1804)のほぼ中心に維持する。
これらの調整は、遠隔制御カメラ取り付け部(1805)に適用され、この処理は、対象物が、もはや追跡できなくなるか、新しい対象物が、システム又はユーザによって決定されるまで繰り返される(1806)。
図18Bにおいて、第2のアプローチ(1810)は、図18Aと比べた場合、それぞれのボックスが10ずつ増加した符号によってラベルされているステップからなる。
要素(1811、1812、1815及び1816)には、対応する以前の論述が、必然的に採用可能である。
2つのアプローチの間の第1の違いは、カメラ方向の変化の計算(1814)が、2つの像のピクセル補正によってではなく、カメラ/車及び対象物の間の、相対的な位置の変化の計算(1813)によって行われていることである。
上で論述されたように、対象物や地域の車に対する相対的な位置は、例えば、自動カメラ取り付け部の制御に影響する角度変換器の位置や、そのほかのいくつかの方法によって決定される対象物の距離から計算される。
さらに、代わりに、車、カメラ及び対象物の相対的な位置の変化は、車の速度と車輪の方向をモニタする方法か、慣性センサのどちらか、又は両方を組み合わせて決定される。
このように、物理空間における位置の変化は計算され(1813)、直線三角法技術を用いることで、これは、補正のための調整に必要とされる自動カメラ取り付け部の回転変換機に対する角度補正に変換される。この補正は、対象物を、カメラ視野(1814)のほぼ中心に維持する。
図19は、カメラのためのいくつかの代替的な配置を示しており、他の任意の配置場所は示されていない。
外部に面しているカメラ(四角で示されている、図2を参照)は、中央に位置して配置されることがある。つまり、フロンドグリル又は後部トランクパネルの内側、フード、トランク、又は屋根の上、バックミラーの内部、あるいはダッシュボード又は後部デッキの上等に配置される。道路標識の改善された像に加えて、例えば、低位置にある目標物を可視化するカメラは便利である。特に、車がバックする間、車の陰に隠れている、置き忘れられた(あるいは、敢えて留められた)三輪車のようなものを可視化するカメラは便利である。
内側に面しているカメラ(円で示されている)は、任意で車内に配置される。つまり、ダッシュボード(図5を参照)又は後部デッキの上、バケット枕に(図4を参照)、あるいは、任意で、車内の天井に魚眼レンズを配置する等する。
これらは特に、若い子供が車に乗るとき便利であり、例えば、赤ちゃんの鳴き声が、おしゃぶりを落としたせいによるものなの(これは手が空くまで無視していてもよい)か、又は、紐によって首がしまっているせいによるもの(無視できない)なのかを区別することができる。
他の任意のカメラは、通常、運転中には触れることのできない車の区分を見るために、配置される。
例えば、急カーブの時に聞こえた雑音が、袋から転がり出た食品によるものなのか、又、注意を必要とする何か壊れたもの(液体の容器)があるのか、ブリーフケースがトランクにあるかどうか、あるいは、家に忘れてきたのかどうかを、運転手に知らせることのできるカメラ(任意で照明を備えている)をトランクの中に配置することができる。
エンジンルームの中の1つ以上のカメラ(任意で照明を備えている)は、例えば、壊れたベルトや、液体又は蒸気もれ等を可視化することによって、ドライブ中に、エンジンにどんな問題が起きたのかを決定する助けとなる。
カメラは、低価格になり、いたるところで見られるようになったので、パンクしたタイヤを可視化するために、ホイールにカメラを配置することや、例えば、ウィンドウウォッシャーの水位を監視するために、個々の要素の近くにカメラを配置するのも実用的になった。
ここに記載され、図示されたデザイン、システム、アルゴリズム、プログラム・フロー、レイアウト及び機能は、例示である。
いくつかの要素は、異なって並べられ、構成されることもあり、1つのステップに結合されたり、複数のサブステップに分割されたり、完全に飛ばれたり、あるいは、ことなった方法で達成されることもある。
しかしながら、ここで図示され記載された要素と実施形態は、確かに機能する。現在存在するか、今後発展する同等の技術と入れ替えること、あるいは、現在存在するか、今後発展する他の技術と組み合わせることは、本発明の範囲に含まれる。
特に限定されないが、例としては、アナログ及びデジタル技術、制御ソフトウェアを走らせる特別な目的を有するハードウェア又は、一般的な目的を有するハードウェアで実行される機能的オペレーションや、光学的及び電気的イメージングや、CRT、LCD及び他のディスプレイや、音波スペクトル、電磁波スペクトル、可視スペクトル、及び不可視スペクトルのイルミネーションとイメージング感度等が挙げられる。
一般的に言って、ここに記載された、システムのエンジニアリング、実行及び構成や、情報の作成及び処理や、オペレーション及びヒューマン・インターフェース機能の実行の詳細だけが、本発明の本質を表すものではない。
現在存在するか、今後発展する他の処理や、デザインや要素と入れ替えること、あるいは、組み合わせることは本発明の範囲に含まれる。
このように、前記の記載から明らかにされた前記の対象部は、効率的に達成されることが分かり、上記のものを実行するにおいて、又は、前記の構成において、ある変化が起こることもある。
従って、上記の記載又は、添えられた図において示されたものに含まれる全てのものは、説明のためのものであって、限定するためのものでない。
さらに、説明のためのものであるこれらの図は、長さを必要とせず、正確な斜視図でなくともよく、詳細まで完全に一致しなくても良い。
注釈
1.例えば、クワンテル・スクイーズーム・アンド・アムペクス・デジタル・オプティクス(the Quantel Squeezoom and Ampex Digital Optics)は、長く利用可能であり、かつとても早くアファイン変換を四辺形として四辺形部を保つ歪みに影響を与えるビデオの長方形部に適用可能で、かつ特に長方形部にそれらを地図化可能な、専門的な放送ビデオシステムである。
2.例えば、廉価な消費者モデルのソニーCCD−TRV87 Hi8カムコーダの特徴は、2.5インチの回転カラーLCDディスプレイ、光学ズーム20倍、デジタル・ズーム360倍、ステディショット(Steadyshot)像安定化、完全な闇の中で赤外線像を捉えられるナイトショット(Nightshot)0ルクス撮影そして、レーザーリンク(Laser Link)無線ビデオ接続を含む。廉価な消費者モデルのシャープVLAH60U Hi−8カムコーダの特徴は、3.5インチカラーLCDスクリーン、デジタル像安定化、そして光学ズーム16倍/トータル・ズーム400倍を含む。これらと他の産業の標準的特徴(例えば電子制御、オートフォーカス、自動露出など)を示すカメラ・サブシステムとデジタル・イメージング構成は、当業者によって、本発明の要素として手に入れられるとともにそのまま使用され、もしくは容易に適応される。
3.電気機械のパン、タイル及び/又はズーム制御サブシステムが一般的に利用可能である。例えば、サーベイヤーコーポレーション(Surveyor Corporation)のトランジットRCMリモート・パン−ティルト・フォー・スタンダード・カメラズ(295$)は、任意のRS232ケイパブル・システム、直流電圧12ボルト3アンペアの電力供給、www.surveyorcorp.comで、無料で入手可能なソフトウェア・コマンド・セット、インテリジェンスとモビリティを加え、パン/ティルト/そしてズーム・ポジション制御の提供によるビデオ・カメラ、(これもまた入手可能)20フィートの制御ケーブル(そして)直流12ボルトの電力供給を必要とする。もしくはスカイ・アイが飛行機の安全運転を可能にする一方で、カムコーダもしくはスチール・カメラを保持するとともにその目標を定める。そのリモート・コントローラは翼端もしくは遠景を見ることを可能にする。スカイ・アイはそのパン機能とティルト機能のために360度のモーションが可能であり、その小さなサイズや衝撃や天候への抵抗力そして可変性の高いパン−ティルト・マウントによって識別される。同様に、イアン・ハリエス(Ian Harries)はどのように「カメラのパン及びティルト・モーション」が「内容物すなわち、2つのKP4M4型ステッパー・モータ(もしくは同様に)、古いIBMパソコンの電力供給ユニット+5ボルトと+12ボルト、ダニッシュ・カンパニー(Danish Company)(すなわちLego)の各種プラスティック・ブリックなど、モータを適切な位置に保つための両面粘着性パッドからつくられるのか」を述べている。この最後のものはhttp://www.doc.ic.ac.uk/-ih/doc/stepper/mount/で見られる。
4.例えば、インターセプト・インベスティゲーションズ(Intercept Investigations)(N−01〜N−07)の製品は、ナイト・ビジョン・ゴーグル、スコープ、双眼鏡、そしてレンズ、光、カメラ・システムを含む。それらの(N−06)ナイト・ビジョン・カムコーダ・サーベイランス・システムは最新技術のかつ第3世代かつレーザで照らされ、デジタル的に安定し、赤外線ズームイルミネータを有するHI−8 カムコーダ・サーベイランス・システムである。システムは、突出した日中と夜のビジョン像をつくりだすために最新のソニーHI−8、最高級品の(デジタル的に安定した)カムコーダを含む。それらのサード・ジェネレイション・ヘッド・マウント・ナイト・ビジョン・ゴーグル(N−03)は、米軍のために設計され、それらによって使用されている。彼らの性能は軍事的仕様MIL−G−49313を満たしている。各ユニットは自由裁量の調整可能なマウント・ヘッドを含む。特徴はF1.2の40度の視野を有する対物レンズ、IRイルミネータ、インディケータのIR、そしてモーメンタリ・IRオン・スウィッチである。それらはまた顧客に提供されたカメラの使用のために、アドーオンサブシステムを提供する。これらのナイト・ビジョン・サーベイランス・レンズ&レーザ・イルミネーション(N−07)は、ほとんどのビデオ・カムコーダと35ミリSLRカメラで利用可能な最新技術の、第2、第3世代の、50と100のMw インフレアード・レーザ・イルミネーティッドとノンイルミネーティッド・ユニット(Infrared Laser Illuminated and Non-Illuminated Units )からなる。
更に、コストのかからない「第一世代」の装置が利用可能である。例えば、リアル・エレクトロニクス(Real Electronics)の装置である。彼らのCB−4は、4倍のビルトインI/Rイルミネータを有するナイト・ビジョン双眼鏡と(そして)完全な闇の状態で眺めることを補助する電気光学装置であり、(そして)350度の視程と10度の視野(を有する)。
5http://www.sumitomoelectricusa.com/scripts/products/ofig/silica.cfmで、例えば、スミトモ・エレクトリックUSAインク(Sumitomo Electric U.S.A. Inc.)が「シリカ・ライト・ガイド」物質を提供し、「私たちは主に光エネルギーを導くファイバを有する。私たちはそれをコミュニケーションのためのシリカ光ファイバと区別して「シリカ・ライト・ガイド」と呼んでいる。可視光から近赤外線までに及ぶ一般的なライト・ガイドの等級はセンサやはんだ付けなどに適用される。主に紫外線に使用する紫外線のライト・ガイドの等級は、硬化接着剤、医療用レーザ円刃刀、蛍光性などを分析するための紫外線放射に適用する。どちらの等級も束になったファイバと大容量ファイバの共有で提供されている。」
6グローバル・ポジショニング・サテライト(Global Positioning Satellite)システムは、いくつかの自動車ですでに利用可能である。例えば、アキュラ(Acura)のいくつかのモデルである。
7キャデラック(Cadillac)の「ナイト・ビジョン」システムのレビューから選ばれた部分が、ウェブサイトhttp://www.canadiandriver.com/news/000121-5.htmで見られる。
8注釈2を参照
9注釈3を参照
10ウェブサイトから「スクエア・ミニ・ビデオ・セキュリティ・カメラ(Squre Mini Video Security Camera)。あなたはその小さなカメラの簡単な使用で生産された写真を信じないだろう。これらの1.1インチのスクエア・カメラはほとんどのカムコーダよりも鮮明な透明像の素晴らしい解像度(380ライン・カラー)の420ライン(B/W)をつくりだす。あなたは0.01ルクスの微光状態でさえ素晴らしい写真を得るだろう。通常のセキュリティ・カメラにも最適で、含められたマウントを用いて明白な視界でマウントされることができる。どんなVCRにも接続しよう。すべてのカメラは、25ビデオ・ケーブル、任意で再充填可能なバッテリそしてこれもまた入手可能な無線送信機/受信機を含む。モデル番号PVSQUAREは99$。マニュアル・ズーム・レンズのPVSQUARE−ZOOMは更に99$を足すだけである。パームビッド・ビデオ・カメラ(PalmViD Video Cameras)。ウェブサイトはwww.palmvid.com.」
11例えば、http://www.activrobots.com/ACCESSORIES/ptzvideo.htmlでは、アクティブメディア・インク(ActivMedia. Inc.)は「私たちのパイオニア・パン‐ティルト‐ズーム(Pioneer Pan-Tilt-Zoom)(PTZ)システムは、高速で幅広く、パン−ティルトなソニーのカメラをパイオニアP2OSもしくはPSOSソフトウェアとサフィラ(Saphira)プラグインでマウントオンされもしくはどんなパイオニア・ロボットにであっても追加されたインテリジェンス・カメラ制御に統合している」と述べている。スムーズなパン‐ティルト・ズーム・アクションはP2OS,PSOSとサフィラ・プラグインで直接呼びだされるコマンドによって達成されるため単純である。PTZロボティック・カメラ(Robotic Camera)システムはあらゆるPTZシステムの構成である。それは高画質のソニーのカメラ、パン‐ティルト‐ズーム・マウント、パイオニアPTZ制御パネル、ケーブル、ソフトウェア・プラグインそしてドキュメンテーションを含む。PTZロボティック・カメラ・システムはPALもしくはNTSCフォーマットで利用可能である。簡単なポートやビデオの制御、シリアルそして他のカメラ・オプションへのアクセスのためにケーブル布線やスペシャル・パネル、高画質ビデオ送受信機を含む。2.4ギガヘルツの周波数で4つの同時送信まで(もし多数の無線ラジオ・イーサネット・ステーション・アダプタを使用するなら、他の周波数選択について問い合わせてください)NTSCとPAL対応はどんなパイオニア・モデルも用いられる。WIN32とLINUXの両方のドライバのフレーム‐グラバーは柔軟性を提供する。
「PTZカラー・トラッキング・システム(PTZ COLOR-TRACKING SYSTEM)はあなたのロボットをあなたに従わせるためもしくはPTZカラー‐トラッキング・システムを用いて特定の形状や色を探すために訓練します。」を含んでいるソフトウェア・パッケージが利用可能である。PTZカラー‐トラッキング・システムはとりわけパイオニア製品に採用され、強力なPTZロボティック・カメラ・システムと組み合わせて使用されるニュートン・ラボの高速色彩と形状認識システム・コグナクロームを含む。各3つのチャネルを特有の色について訓練させるために提供されるミニ‐アーク・ソフトウェアを用いて、PTZとコグナクロームの両方がPSOSとサフィラに統合される。(3色以上を同時にトラックする必要のあるロボカップ(RoboCup)参加物と他の物のために、6色までトラックするダブル‐ボード・バージョンが利用可能である。)画像処理機能はにライトニング‐クイック・コグナクローム・ボードに搭載され操作されるのでこのシステムはその必要性が形状と色彩の認識に限定されているとともにNTSCフォーマットを利用する人々に推奨される。」また、「特徴認識もしくは他の知覚業務を用いる分析に像を集めるためにPTZ104カスタム・ビジョン・システム(PTZ104 CUSTOM VISION SYSTEM)のパイオニアへの使用が可能である。」PTZカスタム・ビジョン・システムはPTZロボティック・カメラ・システムを速射データ送信のためにEBXコンピュータに搭載されたPCIバスに取り付けられたPC104+フレームグラバーを結び付ける。PTZカスタム・ビジョン・システムはPALもしくはNTSCフォーマットで利用可能であり、EBXコンピュータ搭載のあらゆるパイオニア2−DXもしくはパイオニア2−ATも通る。」これはまた「コンプリートPTZ104トラッキング/ビジョン/サーベイランス・システム(COMPLETE PTZ104 TRACKING/VISION/SURVEILLANCE SYSTEM)に統合するために利用可能である。」あなたは、遠隔地から見ている間、すばやい反応のために既存のトラッキング・システムをそしてより高度な像分析のためにあなた自身の画像処理業務使用することのできる十分な多目的ロボットを探していますか。完全なPTZトラッキング/ビジョン/サーベイランス・システムは最も高度なロボット・カメラ・システムとは比べ物にならない値段である。
12注釈11参照。
点灯していない夜間の様子を示したキャデラック・ナイト・ビジョン・システムのデモンストレーション画像を示す。 ロービームを点灯している夜間の様子を示したキャデラック・ナイト・ビジョン・システムのデモンストレーション画像を示す。 ハイビームを点灯している夜間の様子を示したキャデラック・ナイト・ビジョン・システムのデモンストレーション画像である。 ヒート・ビジョン技術を使用している夜間の様子を示したキャデラック・ナイト・ビジョン・システムのデモンストレーション画像である。 2軸調整型取り付け部の中のカメラを示す側面図を示す。 2軸調整型取り付け部の中のカメラを示す正面図を示す。 4軸ジョイスティックの正面図を示す。 4軸ジョイスティックの側面図を示す。 後ろ向きの取り付けカメラを示す。 長い巻き取り式ケーブルを持ったカメラを示す。 ダッシュボードに取り付けられた別の制御機器とディスプレイを示す。 サイド・ミラー・カウルの中に取り付けられたカメラの斜視図を示す。 サイド・ミラー・カウルの中に取り付けられたカメラの内部の詳細図を示す。 連動型取り付け部の中のカメラとライトを示す。 環状ライトと一体化したカメラを示す。 複数のライトに囲まれたカメラを示す。 複合型環状レンズの側面の概略図を示す。 複合型環状レンズの正面の概略図を示す。 複合型環状レンズの凸面要素の概略図を示す。 複合型環状レンズの凹面要素の概略図を示す。 環状ライト・ガイドの断面図を示す。 環状ライト・ガイドを示す。(別の環状ライト・ガイドの断片) 遠近法により歪んだ長方形の道路標識を示す。 長方形の道路標識の歪みを補正した図を示す。 歪みを補正するアルゴリズムが目標とする長方形を示す。 歪みが補正されるアルゴリズム・ソースの四辺形を示す。 歪みを補正するアルゴリズムに用いられる双線形補間を示す。 歪みを補正するアルゴリズムを実行するプログラム・コードを示す。 歪みを補正するアルゴリズムを実行するプログラム・コードを示す。 文字の部分的な認識を示す。 それぞれのカメラ・サブシステムのシステム図を示す。 システム図の全体を示す。 部分的な文字列ルックアップのためのプログラム・フローを示す。 形態認識のためのプログラム・フローを示す。 画像トラッキングのためのプログラム・フローを示す。 他の画像トラッキングのためのプログラム・フローを示す。 交互に取り付けられたカメラの配置図を示す。

Claims (154)

  1. a.光学的に構成可能なレンズ及び電子イメージング・サブシステムからなるカメラと、
    b.前記カメラに固定される位置指定可能な取り付け部と、
    c.位置指定が可能な取り付け部の構造に効果的な変換器と、
    d.前記レンズの光学構成に効果的な変換器と、
    e.前記変換器に効果的な制御と、
    f.前記電子イメージング・サブシステムの性能を改良するために任意に用いられる光源と、
    g.前記電子イメージング・サブシステムの出力を高めるために用いられるデジタル・イメージング処理システムと、
    h.前記電子メージング・サブシステムの出力を示すディスプレイと、
    を含む、自動車に取り付けられるシステム構成要素からなる、ナビゲーションのために周囲の視覚的情報を知らせるエンハンスド・ディスプレイ。
  2. 前記光源が可視光からなることを特徴とする請求項1のシステム。
  3. 前記光源が紫外線光からなることを特徴とする請求項1のシステム。
  4. 前記光源が赤外線光からなることを特徴とする請求項1のシステム。
  5. 前記赤外線光が可視領域に近いスペクトルであることを特徴とする請求項1のシステム。
  6. 前記光源が前記レンズの構成と一致するために構成可能であることを特徴とする請求項1のシステム。
  7. 前記改良が画像を明るくすることからなることを特徴とする請求項1のシステム。
  8. 前記改良が画像を鮮明にすることからなることを特徴とする請求項1のシステム。
  9. 前記改良が前記画像の少なくとも1つの認識された対象を若干強調して表示することからなることを特徴とする請求項1のシステム。
  10. 前記改良が前記画像中において、全体又は一部が認識された、少なくとも1つの長方形領域の画像中のいくつかの縁又は長方形の認識及び、固有の歪みの計算に基づく少なくとも前記画像の一部に適用される歪み補正からなることを特徴とする請求項1のシステム。
  11. 前記改良が更に文字列認識に基づく処理からなることを特徴とする請求項1のシステム。
  12. 前記認識された文字列がナビゲーション・ラベルのデータベースと潜在的適合を得るために比較されることを特徴とする請求項1のシステム。
  13. 前記認識された文字列が一部分のみ認識されることを特徴とする請求項1のシステム。
  14. ナビゲーション・ラベルの前記データベースが、GPS又は同様のロケーティング・サブシステムの出力に適合することを特徴とする請求項1のシステム。
  15. 少なくとも1つの対象の自動トラッキングからなる請求項1のシステム。
  16. 画像安定化から更になる請求項1のシステム。
  17. a.文字列認識と、
    b.少なくとも1つの対象の自動トラッキングと、
    c.画像安定化と、
    d.歪み補正処理と、
    から更になる請求項1のシステム。
  18. ナビゲーションのための周囲の視覚的情報が道路標識又は番地であることを特徴とする請求項1のシステム。
  19. a.前記自動車が営利活動を行わない人達の自動車であり、
    b.前記カメラが少なくとも1つのビデオカメラからなり、日中の画像と夜間の画像の両方を捉える事ができる、
    ことを特徴とする請求項1のシステム。
  20. a.前記自動車が本質的にタクシー或いはリムジンと等しい、営利活動を行う人達の乗用車であり、
    b.前記カメラが少なくとも1つのビデオカメラからなり、日中の画像と夜間の画像の両方を捉える事ができる、
    ことを特徴とする請求項1のシステム。
  21. a.前記自動車が本質的にバス又は大型バスと等しい、営利活動を行う人達の乗用車であり、
    b.前記カメラが少なくとも1つのビデオカメラからなり、日中の画像と夜間の画像の両方を捉える事ができる、
    ことを特徴とする請求項1のシステム。
  22. a.前記自動車が本質的にトラックと等しい、営利活動を行う人達の貨物用の自動車であり、
    b.前記カメラが少なくとも1つのビデオカメラからなり、日中の画像と夜間の画像の両方を捉える事ができる、
    ことを特徴とする請求項1のシステム。
  23. a.レンズと電子イメージング・サブシステムから更になるカメラと、
    b.前記カメラを保持する取り付け部と、
    c.前記電子イメージング・サブシステムを示すディスプレイと、
    を含む自動車に導入されるシステム構成要素からなるナビゲーションのための周囲の視覚的情報を知らせるエンハンスド・ディスプレイのための改良されたシステム。
  24. 前記レンズを離しても光学的に構成可能であり、前記レンズの構成に影響を与えるための変換器及び制御機器から更になることを特徴とする請求項23のシステム。
  25. 前記制御機器がユーザの電気機械入力装置から入力を受け取ることを特徴とする請求項24のシステム。
  26. 前記入力装置が多軸ジョイスティックであることを特徴とする請求項25のシステム。
  27. 前記ジョイスティックが平行移動軸と回転軸の両方を用いることを特徴とする請求項26のシステム。
  28. 前記制御機器がデジタル画像解析サブシステムから入力を受け取ることを特徴とする請求項24のシステム。
  29. 前記取り付け部を離して配置することが可能であり、更に前記取り付け部の構成に影響を与えるための変換器及び制御機器から更になることを特徴とする請求項23のシステム。
  30. 前記制御機器は、ユーザの電気機械入力装置から入力を受け取ることを特徴とする請求項29のシステム。
  31. 前記入力装置が多軸ジョイスティックであることを特徴とする請求項30のシステム。
  32. 前記ジョイスティックが平行移動軸と回転軸の両方を用いることを特徴とする請求項31のシステム。
  33. 前記制御機器がデジタル画像解析サブシステムから入力を受け取ることを特徴とする請求項29のシステム。
  34. 電子イメージング・サブシステムの性能を増すために用いられる光源から更になる請求項23のシステム。
  35. 前記光源が可視光からなることを特徴とする請求項34のシステム。
  36. 前記光源が紫外線光からなることを特徴とする請求項34のシステム。
  37. 前記光源が赤外線光からなることを特徴とする請求項34のシステム。
  38. 前記赤外線光が可視領域に近いスペクトルであることを特徴とする請求項34のシステム。
  39. 前記光源が前記レンズの構成と一致するために構成可能であることを特徴とする請求項34のシステム。
  40. 電子イメージング・サブシステムの出力を改良するために用いられるデジタル画像処理サブシステムから更になる請求項23のシステム。
  41. 前記改良が画像を明るくすることからなることを特徴とする請求項40のシステム。
  42. 前記改良が画像を鮮明にすることからなることを特徴とする請求項40のシステム。
  43. 前記改良が前記画像の少なくとも1つの認識された対象を若干強調して表示することからなることを特徴とする請求項40記載のシステム。
  44. 前記改良が前記画像中において、全体又は一部が認識された、少なくとも1つの長方形領域の画像中のいくつかの縁又は長方形の認識及び、固有の歪みの計算に基づく少なくとも前記画像の一部に適用される歪み補正からなることを特徴とする請求項40記載のシステム。
  45. 前記改良が更に文字列認識に基づく処理からなることを特徴とする請求項45記載のシステム。
  46. 前記認識された文字列がナビゲーション・ラベルのデータベースと潜在的適合を得るために比較されることを請求項45記載のシステム。
  47. 前記認識された文字列が部分的にのみ認識されるとともに複数の潜在的適合を得るためにナビゲーショナル・ラベルのデータベースと比較されることを特徴とする請求項46記載のシステム。
  48. ナビゲーション・ラベルの前記データベースが、GPS又は同様のロケーティング・サブシステムの出力に適合することを請求項46記載のシステム。
  49. 少なくとも1つの対象物の自動トラッキングを更に有することを特徴とする請求項23記載のシステム。
  50. 画像安定化から更になる請求項23記載のシステム。
  51. a.文字列認識と、
    b.少なくとも1つの対象の自動トラッキングと、
    c.画像安定化と、
    d.歪み補正処理と、
    から更になる請求項23記載のシステム。
  52. ナビゲーションのための周囲の視覚的情報が道路標識又は番地であることを特徴とする請求項23記載のシステム。
  53. 前記取り付け部及びカメラが実質的にサイド・ビュー・ミラー・ハウジングに据付けられることを特徴とする請求項23記載のシステム。
  54. 前記取り付け部及びカメラが実質的にサイド・ビュー・ミラー・ハウジングに据付けられることを特徴とする請求項29記載のシステム。
  55. ナビゲーションをするための周囲の視覚的情報よりむしろ補足の像を提供するために設計された少なくとも1つのイメージング・サブシステムを更に有することを特徴とする請求項23記載のシステム。
  56. 前記補足の像が前記自動車のエンジン収納空間内からの像からなることを特徴とする請求項55記載のシステム。
  57. 前記補足の像が前記自動車のトランク収納空間内からの像からなることを特徴とする請求項55記載のシステム。
  58. 前記補足の像が前記自動車の積荷空間内からの像からなることを特徴とする請求項55記載のシステム。
  59. 前記補足の像が前記自動車の車輪収納空間内からの像からなることを特徴とする請求項55記載のシステム。
  60. 前記補足の像が、前記自動車の前記運転手が通常見ることができない前記自動車のすぐ後ろの空間からの像からなることを特徴とする請求項55記載のシステム。
  61. 前記補足の像が、前記自動車の前記運転手が通常見ることができない前記自動車のすぐ前の空間からの像からなることを特徴とする請求項55記載のシステム。
  62. 前記補足の像が、前記自動車の前記運転手が通常見ることができない前記自動車の死角からの像からなることを特徴とする請求項55記載のシステム。
  63. 前記補足の像が、前記自動車の後部窓の外からの像からなることを特徴とする請求項55記載のシステム。
  64. 前記補足の像が、前記自動車の後部座席からの像からなることを特徴とする請求項55記載のシステム。
  65. 少なくとも1つの補足のイメージング・サブシステムが後部座席に座る子供の補足の像を提供するために設計されていることを特徴とする請求項64記載のシステム。
  66. 少なくとも一つの補足のディスプレイ・サブシステムが後部座席に座る人にシステム・イメージを提供するために設計されていることを特徴とする請求項23記載のシステム。
  67. 前記補足の像が印刷された地図或いは他の紙を媒体とする手段からの像からなることを特徴とする請求項55記載のシステム。
  68. 前記補足の像が、前記自動車の運転手の夜間の視界に悪い影響を与えることを減ずるために限定されたスペクトル・レンジの光線を用いて集められていることを特徴とする請求項55記載のシステム。
  69. 前記補足の像が、ソースと比較するとき縮尺変更して表示されることを特徴とする請求項55記載のシステム。
  70. 前記補足の像が、前記自動車が接近できない及び/又は暗いところの像からなることを特徴とする請求項55記載のシステム。
  71. 前記補足の像が、有線或いは無線を介してその像を伝達する手で設置できるカメラを用いて集められることを特徴とする請求項55記載のシステム。
  72. a.レンズ及び電子イメージング・サブシステムを更に有するカメラを利用することによって像を得る段階と、
    b.1つの像として前記電子イメージング・サブシステムの出力をする段階
    からなることを特徴とするナビゲーションするための周囲の視覚的情報を見やすく表示する方法。
  73. 前記a.とb.の段階の間に、
    a1.前記レンズの構成に影響する変換機に制御情報を入力する段階
    を更に有することを特徴とする請求項72記載の方法。
  74. 前記a.とb.の段階の間に、
    a2.前記電子イメージング・サブシステムの性能を高めるために周囲を明るくする段階
    を更に有することを特徴とする請求項72記載の方法。
  75. 前記a.とb.の段階の間に、
    a3.デジタル画像処理を介して、前記電子イメージング・サブシステムの出力を更に高める段階
    を更に有することを特徴とする請求項72記載の方法。
  76. 前記改良が画像を明るくすることからなることを特徴とする請求項72記載の方法。
  77. 前記改良が画像を鮮明にすることからなることを特徴とする請求項72記載の方法。
  78. 前記改良が前記画像の少なくとも1つの認識された対象を若干強調して表示することからなることを特徴とする請求項75記載の方法。
  79. 前記改良が前記画像中において、全体又は一部が認識された、少なくとも1つの長方形領域の画像中のいくつかの縁又は長方形の認識及び、固有の歪みの計算に基づく少なくとも前記画像の一部に適用される歪み補正からなることを特徴とする請求項75記載の方法。
  80. 前記改良が文字列認識からなることを特徴とする請求項75記載の方法。
  81. 前記認識された文字列がナビゲーショナル・ラベルのデータベースと比較されることを特徴とする請求項80記載の方法。
  82. ナビゲーション・ラベルの前記データベースが、GPS又は同様のロケーティング・サブシステムの出力に適合することを特徴とする請求項80記載の方法。
  83. 少なくとも1つの対象物の自動トラッキングを更に有することを特徴とする請求項72記載の方法。
  84. 少なくとも1つの対象の自動トラッキングからなる請求項72記載の方法。
  85. a.文字列認識と、
    b.少なくとも1つの対象の自動トラッキングと、
    c.画像安定化と、
    d.歪み補正処理と、
    から更になる請求項72記載の方法。
  86. a1.前記レンズの構成に影響を与える変換器に制御情報を入力し、
    a2.前記電気イメージング・システムの性能を高めるために環境に光を照らし、
    a3.前記縁又は長方形の認識に基づく前記像の少なくとも一部分に、歪み補正を適用することにより、デジタル画像処理サブシステムを介して、前記電子イメージング・サブシステムの出力を高め、
    a4.部分的文字認識に基づく、少なくとも一部分の提案された完全な文字選択を映し出し、前記部分的文字認識とGPS又は同様の位置を決定するシステムの出力に関連づけされたナビゲーショナル・ラベルのデータベースを比較することにより、デジタル画像処理サブシステムを介して、前記電子イメージング・サブシステムの出力を高める、
    ステップをaとbの間にさらに含む請求項72の方法。
  87. 前記ナビゲーションのための周囲の視覚的情報が道路標識又は番地であることを特徴とする請求項72の方法。
  88. 前記ナビゲーションのための周囲の視覚的情報が道路標識又は番地であることを特徴とする請求項85の方法
  89. 前記ナビゲーションのための周囲の視覚的情報が道路標識又は番地であることを特徴とする請求項86の方法。
  90. a.いくつかのナビゲーションのための周囲の視覚的情報の少なくとも一部分を含む像を集め、
    b.画像処理を介して前記像の質を高め、
    c.前記質を高められた像を表示する、
    ステップからなるナビゲーションのための周囲の視覚的情報を見やすく表示する方法。
  91. 少なくとも1つの対象物のオート・トラッキングをさらに含む請求項90の方法。
  92. 像安定化をさらに含む請求項90の方法。
  93. a.文字認識、
    b.少なくとも1つの対象物のオート・トラッキング、
    c.像安定化、
    d.歪み補正処理、
    の手順をさらに含む請求項90の方法。
  94. ソナーを介する対象物のレンジ・ファインディングをさらに含む請求項90の方法。
  95. 双眼鏡イメージングを介する対象物のレンジ・ファインディングをさらに含む請求項90の方法。
  96. 移動中の車から取り込まれた連続的な像の比較を介する対象物のレンジ・ファインディングをさらに含む請求項90の方法。
  97. a.目標物を位置づけるために第1スペクトル・レンジに限定された風景を画像化すること、
    b.前記目標物内の特徴を位置づけるために前記第1スペクトル・レンジとは異なる少なくとも1つのスペクトル・レンジに限定された風景を画像化すること、
    を含む、予想される目標物の画像処理のための請求項90の方法。
  98. 前記目標物が道路標識であり、前記特徴が文字であることを特徴とする請求項97の方法。
  99. 異なるフィルターの使用によりスペクトル・レンジの限定が達成されることを特徴とする請求項97の方法。
  100. 異なるスペクトルの放射エネルギーを提供しているイルミネーション・ソースの使用によりスペクトル・レンジの限定が達成されることを特徴とする請求項97の方法。
  101. 前記第1スペクトル・レンジが赤外線熱イメージングであり、前記第2スペクトル・レンジが可視光線イメージングであることを特徴とする請求項97の方法。
  102. 前記第1スペクトル・レンジが目的物を位置づけるための音波エネルギーであり、前記第2スペクトル・レンジが可視イメージングに適していることを特徴とする請求項97の方法。
  103. a.少なくとも3つの異なるスペクトル・レンジにおける風景を画像化すること、
    b.目標物を位置づけるため、及び/又は位置づけられた目標物の中から特徴を抽出するための、結果として生じる、組み合わされた像の比較、
    を含む、目標物の画像処理のための請求項90の方法。
  104. 認識ソフトウェアを適用している時、現在地を中心とした特定距離の範囲内に存在すると予想される対象物の少なくとも1つの性質の情報の取り込みを含む請求項90の方法。
  105. 前記特徴の少なくとも1つが形状に関係していることを特徴とする請求項104の方法。
  106. 前記特徴の少なくとも1つがサイズに関係していることを特徴とする請求項104の方法。
  107. 前記特徴の少なくとも1つが位置に関係していることを特徴とする請求項104の方法。
  108. 前記特徴の少なくとも1つが色に関係していることを特徴とする請求項104の方法。
  109. 前記特徴の少なくとも1つが、少なくとも2つの異なる色の面積の割合に関係していることを特徴とする請求項104の方法。
  110. a.前記対象物に属する前記部分的な像部分の少なくともいくつかから確保し、
    b.前記対象物に属しない少なくともいくつかの部分を捨てるか、前記対象物に属する前記部分的な像の他のものからの情報と置き換えることによって、
    前記の像の質を高めることが、対象物の部分的な像を多数蓄積し、対象物のより完全な像にする家庭を含むことを特徴とする請求項90の方法。
  111. 前記部分的な像が、前記対象物に対して実際に時間的に動いている物質によって隠されている対象物を表すことを特徴とする請求項110の方法。
  112. 前記部分的な像が、前記対象物と前記物質に対して車が動いているために、前記対象物に対して動いているように見えている物質によって隠されている対象物を表すことを特徴とする請求項110の方法。
  113. 少なくともいくつかの前記部分的な像のために、歪み補正アルゴリズムが、確保されている前記部分に対して応用されており、前記確保された部分が実質的に遠近法からのものであるように見えることを特徴とする請求項112の方法。
  114. 像比較を介するオブジェクト・トラッキングをさらに含む請求項90の方法。
  115. a.現在の像における対象領域を決定し、
    b.実質的に最小誤差の補正を見つけ出すために、前の像の対象領域と現在の像における対象領域の間で、異なる補正を用いる一連の像相互相関計算を行い、
    c.ステップbにおいて行われた計算により発見された補正のための補正を行うための前記離して配置することができる前記マウンティングのための実質的に最適な物理補正の計算、
    d.ステップcにおいて行われる計算に用いられる前記離して配置することができるカメラ取り付け部の位置の調整、
    を含むステップをさらに含むことを特徴とする請求項114に記載の方法。
  116. ステップbの前記異なる補正が、前の前記計算の繰り返しの少なくとも1つの結果を挿入することによって得られる領域周辺に限定されることを特徴とする請求項115の方法。
  117. 車と対象物の間の相対的な位置の変化の計算を介するオブジェクト・トラッキングをさらに含むことを特徴とする請求項90の方法。
  118. a.現在時間における対象物を決定し、
    b.前記車と対象物の間の、前の時間と前記現在時間の間における相対的な位置の変化を決定するための計算を行い、
    c.ステップbにおいて行われた計算に対応する、離して配置することができる前記マウンティングのための実質的に最適な物理補正の計算、
    d.ステップcにおいて行われる計算に用いられる前記離して配置することができるカメラ取り付け部の位置の調整、
    のステップをさらに含むことを特徴とする請求項117の方法。
  119. ステップbの計算が、前の前記計算の繰り返しの少なくとも1つの結果を挿入することによって限定されることを特徴とする請求項118の方法。
  120. 部分的文字認識をさらに含むことを特徴とする請求項90の方法。
  121. 車の運転手に、もし利用可能であるならば確かな適合か、あるいは、信頼度順に並べられた潜在的な適合のリストが提供されることを特徴とする請求項120の方法。
  122. a.前記識別された目標物の中の文字を認識するために、現在地を中心とした特定距離の範囲内に存在すると予想される様式セットに関する情報に基づいた制限を用いながら、少なくとも1つの試みが、少なくとも1つの認識された領域のためになされる、
    ことを特徴とする請求項120の方法。
  123. b.もし、ステップaが有効でない場合、前記認識された目標物の前記文字を認識するための少なくとも1つの試みが、より一般的な様式制限を用いることが追加でなされる、
    ことを特徴とする請求項122の方法。
  124. a.可能な適合を作るために道路標識と他のナビゲーションのための周囲の視覚的情報からなる、部分的に認識された文字列のデータベースに文字列断片が適合すること,
    が加えられていることを特徴とする請求項120記載の方法。
  125. 前記データベースが現在地を中心とした特定距離の範囲内において二制限されることを特徴とする請求項124記載の方法。
  126. 前記データベースが少なくとも1つ前に成功した適合に基づいて制限されることを特徴とする請求項124記載の方法。
  127. a.少なくとも1組の認識された文字列断片の認識不可能な大きさの測定と、データベース登録内の前記組の各断片を適合させる間の物質の測定を考慮にいれた前記適合と、
    b.その大きさは2つの大きさの接近に基づいて適合する可能性もしくは信頼度のために比較されること、
    を特徴とする請求項124記載の方法。
  128. 少なくとも1つの適合を試みた後にフィードバックがあり、第2適合はフィードバック中に提供される追加情報に基づいて試みられることを特徴とする請求項124記載の方法。
  129. 前記フィードバックは条件付きで認識された文字がデータベース・登録中の幾何学的に同様の文字に対応する知識からなり、前記第2適合の前記条件付きで認識された文字を前記幾何学的に同様の文字として代わりに認識しようと試みることを特徴とする請求項128記載の方法。
  130. a.認識された文字列が1つもしくはそれ以上のデータベース登録に部分的にのみ適合するとともに、
    b.前記認識された文字列が、他に対して前記潜在的な適合のいくつかのためのより高い信頼度を試みるために各少なくとも2つの潜在的な部分的適合についての知識を利用する認識のために再処理化されることを特徴とする請求項90記載の方法。
  131. a.認識された文字列が部分的に認識できる時のみであり、
    b.前記認識された文字列は、前記文字列の少なくとも1つの認識できない部分のための測定基準を決定するために再処理化させ、
    c.前記測定基準をデータベース・登録の少なくとも1つの部分的に潜在的な適合の同等の部分のために決定された測定基準に比較すること、
    を特徴とする請求項90記載の方法。
  132. a.認識された文字列のみが部分的に少なくとも1つのデータベース・登録に適合するとともに、
    b.前記認識された文字列が、代替認識目標が合理的かどうかを決定するために、1つもしくはそれ以上の潜在的な適合の同等な部分と適合しない少なくとも前記認識された文字列の1部分に適用される、少なくとももう1つの集中的なもしくは高度な認識アルゴリズムを利用して再処理化されること、
    を特徴とする請求項90記載の方法。
  133. 前記より集中的もしくは高度な認識アルゴリズムが人工知能技術を採用することを特徴とする請求項132記載の方法。
  134. a.構成可能な像収集サブシステムと、
    b.構成可能な光サブシステムと、
    c.協調した方法で前記光サブシステムと前記像収集サブシステムの形成を修正する能力をもつ制御サブシステムと、
    からなる像をとらえるシステム。
  135. a.前記像収集サブシステムは第1軸に沿う点に形成され、
    b.前記光サブシステムは第2軸に沿う点に形成され、
    c.前記第1軸と前記第2軸はそれらの間に1つの回転自由度と、
    d.前記協調した方法はとらえられる像と光に照らされる部分からなる対象部の重複を改善するために前記第1軸と前記第2軸が協調した方法で形成されること、
    からなることを特徴とする請求項134記載のシステム。
  136. 前記1つの回転自由度が、前記システムと前記部分の間の距離に基づいてとらえられる像の対象部分のほぼ中心に光に照らされた部分のほとんど中心に適合するために調整されることを特徴とする請求項135記載のシステム。
  137. 前記距離は前記像収集サブシステムのレンズのフォーカス・コントロールの形成に応じて決定されることを特徴とする請求項136記載のシステム。
  138. a.前記像収集システムは構成可能なレンズ・サブシステムから更になり、
    b.前記光サブシステムは構成可能なレンズ・サブシステムから更になり、
    c.前記協調した方法は、前記第1レンズ・サブシステムと前記第2レンズ・サブシステムがとらえられた部分からなる像と光を照らされた部分もしくは対象の重複を改善するために形成されること、
    を特徴とする請求項134記載のシステム。
  139. 光を照らされた部分の前記大きさは、とらえられる光の対象の部分の大きさに従うよう調整されることを特徴とする請求項138記載のシステム。
  140. 前記大きさが、前記像収集サブシステムのレンズのズーム・コントロール形成に対して決定されることを特徴とする請求項139記載のシステム。
  141. a.像収集サブシステムと、
    b.前記像収集システムのいくつかの開口部を囲む環の部分内の実質的に部分を占める形成からなる光開口部を持つ光源サブシステムと、
    からなる像をとらえるためのシステム。
  142. 環状のいくつかの部分を持つ前記領域は実質的に完全な環状輪からなることを特徴とする請求項141記載のシステム。
  143. 前記光の拡大を調整する能力を持つレンズ・サブシステムから更になる請求項142記載のシステム。
  144. 前記光源が様々な光源からなることを特徴とする請求項141記載のシステム。
  145. 前記様々な光源が様々な異なる放射エネルギーのスペクトルの光を提供することを特徴とする請求項144記載のシステム。
  146. a.像収集サブシステムと、
    b.前記カメラ・サブシステムが少なくとも部分的に前記光源によって収集された像の対象から提供された光の経路を覆うのように位置づけられる光源サブシステムと、
    c.前記光の進行の経路が少なくともある程度、少なくとも前記像収集サブシステムの一部を覆い、そして前記像収集サブシステムの覆う部分の周辺の前記ライト・ガイドの遠心端から現れるように配置されたライト・ガイドと、
    からなる像をとらえるシステム。
  147. 前記遠心端は実質的に前記像収集サブシステムの開口部を囲む環状のいくつかの部分内の領域を占める形成からなることを特徴とする請求項146記載のシステム。
  148. 前記環状のいくつかの部分内の領域は実質的に完全な環状輪からなることを特徴とする請求項147記載のシステム。
  149. 前記ライト・ガイドの形状は、少なくともある部分が、空洞を設けて前記像収集システムを囲む経路を与え、その空洞内には前記像収集システムがあることを特徴とする請求項146記載のシステム。
  150. 前記少なくともある部分が実質的になることを特徴とする請求項149記載のシステム。
  151. 前記遠心端は前記像収集サブシステムの開口部を囲む、環状輪の中の領域を実質的に占める形成からなることを特徴とする請求項150記載のシステム。
  152. 前記ライト・ガイドは様々なサブユニットから更になることを特徴とする請求項146記載のシステム。
  153. 前記ライト・ガイドは様々なサブユニットから更になることを特徴とする請求項149記載のシステム。
  154. a.前記ライト・ガイドは様々なサブユニットから更になり、
    b.少なくとも前記サブユニットのいくつかは、前記ライト・ガイドの部分のウェッジ形状の部分からなり、該ライト・ガイドの部分は回転対称体の弧から実質的になる構成からなること、
    を特徴とする請求項151記載のシステム。
JP2002572116A 2001-03-13 2002-03-13 ナビゲーションのために周囲の視覚的情報を自動車の運転手に知らせるエンハンスド・ディスプレイ Pending JP2005509129A (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US27539801P 2001-03-13 2001-03-13
US10/097,029 US20020130953A1 (en) 2001-03-13 2002-03-12 Enhanced display of environmental navigation features to vehicle operator
PCT/US2002/007860 WO2002073535A2 (en) 2001-03-13 2002-03-13 Enhanced display of environmental navigation features to vehicle operator

Publications (2)

Publication Number Publication Date
JP2005509129A true JP2005509129A (ja) 2005-04-07
JP2005509129A5 JP2005509129A5 (ja) 2007-01-11

Family

ID=26792362

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2002572116A Pending JP2005509129A (ja) 2001-03-13 2002-03-13 ナビゲーションのために周囲の視覚的情報を自動車の運転手に知らせるエンハンスド・ディスプレイ

Country Status (7)

Country Link
US (1) US20020130953A1 (ja)
EP (1) EP1377934A2 (ja)
JP (1) JP2005509129A (ja)
AU (1) AU2002254226A1 (ja)
CA (1) CA2440477A1 (ja)
MX (1) MXPA03008236A (ja)
WO (1) WO2002073535A2 (ja)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2007200005A (ja) * 2006-01-26 2007-08-09 Honda Motor Co Ltd 運転支援装置
JP2008096867A (ja) * 2006-10-16 2008-04-24 Sony Corp 表示装置、表示方法
JP2009023651A (ja) * 2008-08-25 2009-02-05 Denso Corp 車両用情報表示システム
JP2011014146A (ja) * 2009-07-03 2011-01-20 Robert Bosch Gmbh カメラシステムの拡張方法、カメラシステム、運転者支援システム、および対応する車両
KR101362962B1 (ko) * 2012-08-06 2014-02-13 (주)토마토전자 차량번호 인식 및 검색 시스템과 운영방법
KR101371893B1 (ko) 2012-07-05 2014-03-07 현대자동차주식회사 차량 주변의 영상을 이용한 입체물 검출 장치 및 방법
KR101381580B1 (ko) 2014-02-04 2014-04-17 (주)나인정보시스템 다양한 조명 환경에 강인한 영상 내 차량 위치 판단 방법 및 시스템
KR101389865B1 (ko) 2013-02-28 2014-04-29 주식회사 펀진 이미지 인식 시스템 및 그를 이용한 이미지 인식 방법
JP2019525236A (ja) * 2016-07-18 2019-09-05 サン−ゴバン グラス フランス 観察者に画像情報を表示するためのヘッドアップディスプレイシステム
JP2022172186A (ja) * 2019-08-06 2022-11-15 直之 村上 コンピユーターの目(pceye)

Families Citing this family (84)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE10124005A1 (de) * 2001-05-17 2002-12-05 Daimler Chrysler Ag Verfahren und Vorrichtung zur Verbesserung der Sicht in Fahrzeugen
DE10203413C2 (de) * 2002-01-28 2003-11-27 Daimler Chrysler Ag Automobiles Infrarot-Nachtsichtgerät
FR2848161B1 (fr) * 2002-12-09 2005-12-09 Valeo Vision Systeme de commande de l'orientation d'un projecteur de vehicule et procede de mise en oeuvre
US7876359B2 (en) * 2003-01-17 2011-01-25 Insitu, Inc. Cooperative nesting of mechanical and electronic stabilization for an airborne camera system
US7602415B2 (en) * 2003-01-17 2009-10-13 Insitu, Inc. Compensation for overflight velocity when stabilizing an airborne camera
CA2438939C (en) * 2003-08-28 2008-11-18 Jack Gin Dual surveillance camera system
DE10346573B4 (de) 2003-10-07 2021-07-29 Robert Bosch Gmbh Umfelderfassung mit Kompensation der Eigenbewegung für sicherheitskritische Anwendungen
US20050093891A1 (en) * 2003-11-04 2005-05-05 Pixel Instruments Corporation Image orientation apparatus and method
JP4258385B2 (ja) * 2004-01-14 2009-04-30 株式会社デンソー 路面反射検出装置
JP2005350010A (ja) * 2004-06-14 2005-12-22 Fuji Heavy Ind Ltd ステレオ式車外監視装置
DE102004028763A1 (de) * 2004-06-16 2006-01-19 Daimlerchrysler Ag Andockassistent
IL162921A0 (en) * 2004-07-08 2005-11-20 Hi Tech Solutions Ltd Character recognition system and method
GB0422585D0 (en) * 2004-10-12 2004-11-10 Trw Ltd Sensing apparatus and method for vehicles
KR100896353B1 (ko) * 2004-11-09 2009-05-08 에프. 호프만-라 로슈 아게 다이벤조슈베론 유도체
US20050099821A1 (en) * 2004-11-24 2005-05-12 Valeo Sylvania Llc. System for visually aiding a vehicle driver's depth perception
US20060125968A1 (en) * 2004-12-10 2006-06-15 Seiko Epson Corporation Control system, apparatus compatible with the system, and remote controller
DE102004061998A1 (de) * 2004-12-23 2006-07-06 Robert Bosch Gmbh Stereokamera für ein Kraftfahrzeug
US7652717B2 (en) * 2005-01-11 2010-01-26 Eastman Kodak Company White balance correction in digital camera images
US8934011B1 (en) * 2005-01-28 2015-01-13 Vidal Soler Vehicle reserve security system
ES2259543B1 (es) * 2005-02-04 2007-11-16 Fico Mirrors, S.A. Sistema para la deteccion de objetos en una zona exterior frontal de un vehiculos, aplicable a vehiculos industriales.
ES2258399B1 (es) * 2005-02-04 2007-11-16 Fico Mirrors, S.A. Metodo y sistema para mejorar la supervision de un ambiente exterior de un vehiculo automovil.
US7427952B2 (en) 2005-04-08 2008-09-23 Trueposition, Inc. Augmentation of commercial wireless location system (WLS) with moving and/or airborne sensors for enhanced location accuracy and use of real-time overhead imagery for identification of wireless device locations
JP4414369B2 (ja) * 2005-06-03 2010-02-10 本田技研工業株式会社 車両及び路面標示認識装置
US9041744B2 (en) 2005-07-14 2015-05-26 Telecommunication Systems, Inc. Tiled map display on a wireless device
ITMN20050049A1 (it) * 2005-07-18 2007-01-19 Balzanelli Sonia Dispositivo visivo per veicoli in condizioni climatico-ambientali difficili
CN101535087B (zh) 2005-11-01 2013-05-15 唐纳利公司 具有显示装置的内部后视镜
US7302359B2 (en) * 2006-02-08 2007-11-27 Honeywell International Inc. Mapping systems and methods
JP4680131B2 (ja) * 2006-05-29 2011-05-11 トヨタ自動車株式会社 自車位置測定装置
DE102006036305A1 (de) * 2006-08-03 2008-02-21 Mekra Lang Gmbh & Co. Kg Verfahren zur Berechnung von Gammakorrekturwerten sowie Bildaufnahmevorrichtung mit einer entsprechenden Gammaadaptionseinheit
US7847831B2 (en) * 2006-08-30 2010-12-07 Panasonic Corporation Image signal processing apparatus, image coding apparatus and image decoding apparatus, methods thereof, processors thereof, and, imaging processor for TV conference system
JP5119636B2 (ja) 2006-09-27 2013-01-16 ソニー株式会社 表示装置、表示方法
US7873233B2 (en) 2006-10-17 2011-01-18 Seiko Epson Corporation Method and apparatus for rendering an image impinging upon a non-planar surface
US7835592B2 (en) 2006-10-17 2010-11-16 Seiko Epson Corporation Calibration technique for heads up display system
DE102006062061B4 (de) * 2006-12-29 2010-06-10 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Vorrichtung, Verfahren und Computerprogramm zum Bestimmen einer Position basierend auf einem Kamerabild von einer Kamera
US20100029293A1 (en) * 2007-05-10 2010-02-04 Sony Ericsson Mobile Communications Ab Navigation system using camera
IL188655A (en) * 2008-01-08 2011-09-27 Rafael Advanced Defense Sys System and method for navigating a remote control vehicle past obstacles
US7961224B2 (en) * 2008-01-25 2011-06-14 Peter N. Cheimets Photon counting imaging system
JP2009188697A (ja) 2008-02-06 2009-08-20 Fujifilm Corp 多焦点カメラ装置、それに用いられる画像処理方法およびプログラム
US20090265340A1 (en) * 2008-04-07 2009-10-22 Bob Barcklay Proximity search for point-of-interest names combining inexact string match with an expanding radius search
US20090268953A1 (en) * 2008-04-24 2009-10-29 Apteryx, Inc. Method for the automatic adjustment of image parameter settings in an imaging system
JP4377439B1 (ja) * 2008-06-12 2009-12-02 本田技研工業株式会社 車両周辺監視装置
DE102008036219A1 (de) 2008-08-02 2010-02-04 Bayerische Motoren Werke Aktiengesellschaft Verfahren zur Erkennung von Objekten im Umfeld eines Fahrzeugs
WO2010042172A1 (en) * 2008-10-06 2010-04-15 Telecommunication Systems, Inc. Probabilistic reverse geocoding
US8594627B2 (en) 2008-10-06 2013-11-26 Telecommunications Systems, Inc. Remotely provisioned wirelessly proxy
US8405520B2 (en) * 2008-10-20 2013-03-26 Navteq B.V. Traffic display depicting view of traffic from within a vehicle
US8160747B1 (en) * 2008-10-24 2012-04-17 Anybots, Inc. Remotely controlled self-balancing robot including kinematic image stabilization
US8442661B1 (en) 2008-11-25 2013-05-14 Anybots 2.0, Inc. Remotely controlled self-balancing robot including a stabilized laser pointer
KR101541076B1 (ko) * 2008-11-27 2015-07-31 삼성전자주식회사 지형지물 인식방법
US7868821B2 (en) * 2009-01-15 2011-01-11 Alpine Electronics, Inc Method and apparatus to estimate vehicle position and recognized landmark positions using GPS and camera
KR101609679B1 (ko) * 2009-03-31 2016-04-06 팅크웨어(주) 도로의 면형 데이터를 이용한 맵 매칭장치 및 그 방법
KR101228017B1 (ko) * 2009-12-09 2013-02-01 한국전자통신연구원 위치 정보 기반 영상 인식 장치 및 방법
US8497907B2 (en) * 2009-12-11 2013-07-30 Mobility Solutions Innovation Inc. Off road vehicle vision enhancement system
EP2517170A2 (en) * 2009-12-24 2012-10-31 BAE Systems PLC Image enhancement
WO2011100470A1 (en) * 2010-02-10 2011-08-18 Luminator Holding Lp System and method for thermal imaging searchlight
US8788096B1 (en) 2010-05-17 2014-07-22 Anybots 2.0, Inc. Self-balancing robot having a shaft-mounted head
US8218006B2 (en) 2010-12-01 2012-07-10 Honeywell International Inc. Near-to-eye head display system and method
US8913129B2 (en) * 2011-01-27 2014-12-16 Thermal Matrix USA, Inc. Method and system of progressive analysis for assessment of occluded data and redundant analysis for confidence efficacy of non-occluded data
US10793067B2 (en) * 2011-07-26 2020-10-06 Magna Electronics Inc. Imaging system for vehicle
US8994825B2 (en) * 2011-07-28 2015-03-31 Robert Bosch Gmbh Vehicle rear view camera system and method
TWI469062B (zh) 2011-11-11 2015-01-11 Ind Tech Res Inst 影像穩定方法及影像穩定裝置
US9111136B2 (en) * 2012-04-24 2015-08-18 Xerox Corporation System and method for vehicle occupancy detection using smart illumination
US10678259B1 (en) * 2012-09-13 2020-06-09 Waymo Llc Use of a reference image to detect a road obstacle
TW201436564A (zh) * 2013-03-01 2014-09-16 Ewa Technology Cayman Co Ltd 追蹤系統
US20150060617A1 (en) * 2013-08-29 2015-03-05 Chieh Yang Pan Hanger structure
EP3070698B1 (en) * 2013-11-12 2019-07-17 Mitsubishi Electric Corporation Driving-support-image generation device, driving-support-image display device, driving-support-image display system, and driving-support-image generation program
WO2015123791A1 (en) 2014-02-18 2015-08-27 Empire Technology Development Llc Composite image generation to remove obscuring objects
TWI518437B (zh) * 2014-05-12 2016-01-21 晶睿通訊股份有限公司 動態對焦調整系統及其動態對焦調整方法
DE102015217258A1 (de) * 2015-09-10 2017-03-16 Robert Bosch Gmbh Verfahren und Vorrichtung zum Darstellen eines Fahrzeugumfeldes eines Fahrzeuges
US10173644B1 (en) 2016-02-03 2019-01-08 Vidal M. Soler Activation method and system for the timed activation of a vehicle camera system
DE102016210632A1 (de) * 2016-06-15 2017-12-21 Bayerische Motoren Werke Aktiengesellschaft Verfahren zum Überprüfen eines Medienverlustes eines Kraftfahrzeuges sowie Kraftfahrzeug und System zum Ausführen eines solchen Verfahrens
WO2018009897A1 (en) 2016-07-07 2018-01-11 Harman International Industries, Incorporated Portable personalization
TWM530261U (zh) * 2016-07-18 2016-10-11 Protv Dev Inc 具有行車紀錄功能的汽車用後視鏡
US10186065B2 (en) * 2016-10-01 2019-01-22 Intel Corporation Technologies for motion-compensated virtual reality
US10417911B2 (en) 2017-12-18 2019-09-17 Ford Global Technologies, Llc Inter-vehicle cooperation for physical exterior damage detection
US10600234B2 (en) 2017-12-18 2020-03-24 Ford Global Technologies, Llc Inter-vehicle cooperation for vehicle self imaging
US10745005B2 (en) 2018-01-24 2020-08-18 Ford Global Technologies, Llc Inter-vehicle cooperation for vehicle self height estimation
US10628690B2 (en) 2018-05-09 2020-04-21 Ford Global Technologies, Llc Systems and methods for automated detection of trailer properties
US11227366B2 (en) * 2018-06-22 2022-01-18 Volkswagen Ag Heads up display (HUD) content control system and methodologies
FR3083623B1 (fr) * 2018-07-05 2022-06-24 Renault Sas Dispositif de retrovision panoramique par cameras avec affichage tetehaute
US11351917B2 (en) 2019-02-13 2022-06-07 Ford Global Technologies, Llc Vehicle-rendering generation for vehicle display based on short-range communication
US11009209B2 (en) 2019-10-08 2021-05-18 Valeo Vision Lighting adjustment aid
DE102019133603B4 (de) * 2019-12-09 2022-06-09 Bayerische Motoren Werke Aktiengesellschaft Vorrichtung mit zumindest einer Kamera, Kraftfahrzeug, das diese Vorrichtung aufweist, sowie Verfahren zum Betreiben eines Kraftfahrzeugs
CN113221601A (zh) * 2020-01-21 2021-08-06 深圳富泰宏精密工业有限公司 字符识别方法、装置及计算机可读存储介质
CN115164911A (zh) * 2021-02-03 2022-10-11 西华大学 基于图像识别的高精准度立交桥快速导航方法

Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61222391A (ja) * 1984-12-27 1986-10-02 コンパニ フランセ−ズ ド プロテクシオン エレクトリク プロテ−グ 危険を伴う物理的現象を即時に感知するための装置
JPS6378295A (ja) * 1986-09-20 1988-04-08 アイシン・エィ・ダブリュ株式会社 運送中の荷物の監視装置
JPS6433698A (en) * 1987-06-29 1989-02-03 Automatisme Cie Gle Automatic reader for identification data given to vehicle
JPH02210483A (ja) * 1989-02-10 1990-08-21 Hitachi Ltd 車載用ナビゲーションシステム
JPH04238219A (ja) * 1991-01-22 1992-08-26 Fujitsu Ten Ltd 自動車用ロケーション装置
JPH0558220A (ja) * 1991-09-03 1993-03-09 Sharp Corp 車両用監視装置
JPH0830892A (ja) * 1994-07-12 1996-02-02 Hitachi Ltd 交通監視システム及び車番認識装置付き自動車
JPH0935177A (ja) * 1995-07-18 1997-02-07 Hitachi Ltd 運転支援方法および運転支援装置
JPH10122871A (ja) * 1996-10-24 1998-05-15 Sony Corp 状態検出装置および状態検出方法
JPH11296785A (ja) * 1998-04-14 1999-10-29 Matsushita Electric Ind Co Ltd 車両ナンバー認識システム
JPH11298887A (ja) * 1998-04-14 1999-10-29 Matsushita Electric Ind Co Ltd 着脱式車載カメラ
JP2000003438A (ja) * 1998-06-11 2000-01-07 Matsushita Electric Ind Co Ltd 標識認識装置
JP2000047579A (ja) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> 地図データベース更新装置
JP2000081322A (ja) * 1998-09-04 2000-03-21 Toyota Motor Corp スリップ角測定方法および装置
JP2000115759A (ja) * 1998-10-05 2000-04-21 Sony Corp 撮像表示装置
JP2000127851A (ja) * 1998-10-22 2000-05-09 Fujitsu Ten Ltd 車両の運転支援装置
JP2000165854A (ja) * 1998-11-30 2000-06-16 Harness Syst Tech Res Ltd 車載用撮像装置
JP2001018738A (ja) * 1999-07-07 2001-01-23 Honda Motor Co Ltd 車両の周辺監視装置

Family Cites Families (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US5289321A (en) * 1993-02-12 1994-02-22 Secor James O Consolidated rear view camera and display system for motor vehicle
US5670935A (en) * 1993-02-26 1997-09-23 Donnelly Corporation Rearview vision system for vehicle including panoramic view
US5414439A (en) * 1994-06-09 1995-05-09 Delco Electronics Corporation Head up display with night vision enhancement
US6124647A (en) * 1998-12-16 2000-09-26 Donnelly Corporation Information display in a rearview mirror
US6424272B1 (en) * 2001-03-30 2002-07-23 Koninklijke Philips Electronics, N.V. Vehicular blind spot vision system

Patent Citations (18)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPS61222391A (ja) * 1984-12-27 1986-10-02 コンパニ フランセ−ズ ド プロテクシオン エレクトリク プロテ−グ 危険を伴う物理的現象を即時に感知するための装置
JPS6378295A (ja) * 1986-09-20 1988-04-08 アイシン・エィ・ダブリュ株式会社 運送中の荷物の監視装置
JPS6433698A (en) * 1987-06-29 1989-02-03 Automatisme Cie Gle Automatic reader for identification data given to vehicle
JPH02210483A (ja) * 1989-02-10 1990-08-21 Hitachi Ltd 車載用ナビゲーションシステム
JPH04238219A (ja) * 1991-01-22 1992-08-26 Fujitsu Ten Ltd 自動車用ロケーション装置
JPH0558220A (ja) * 1991-09-03 1993-03-09 Sharp Corp 車両用監視装置
JPH0830892A (ja) * 1994-07-12 1996-02-02 Hitachi Ltd 交通監視システム及び車番認識装置付き自動車
JPH0935177A (ja) * 1995-07-18 1997-02-07 Hitachi Ltd 運転支援方法および運転支援装置
JPH10122871A (ja) * 1996-10-24 1998-05-15 Sony Corp 状態検出装置および状態検出方法
JPH11296785A (ja) * 1998-04-14 1999-10-29 Matsushita Electric Ind Co Ltd 車両ナンバー認識システム
JPH11298887A (ja) * 1998-04-14 1999-10-29 Matsushita Electric Ind Co Ltd 着脱式車載カメラ
JP2000003438A (ja) * 1998-06-11 2000-01-07 Matsushita Electric Ind Co Ltd 標識認識装置
JP2000047579A (ja) * 1998-07-30 2000-02-18 Nippon Telegr & Teleph Corp <Ntt> 地図データベース更新装置
JP2000081322A (ja) * 1998-09-04 2000-03-21 Toyota Motor Corp スリップ角測定方法および装置
JP2000115759A (ja) * 1998-10-05 2000-04-21 Sony Corp 撮像表示装置
JP2000127851A (ja) * 1998-10-22 2000-05-09 Fujitsu Ten Ltd 車両の運転支援装置
JP2000165854A (ja) * 1998-11-30 2000-06-16 Harness Syst Tech Res Ltd 車載用撮像装置
JP2001018738A (ja) * 1999-07-07 2001-01-23 Honda Motor Co Ltd 車両の周辺監視装置

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP4621600B2 (ja) * 2006-01-26 2011-01-26 本田技研工業株式会社 運転支援装置
JP2007200005A (ja) * 2006-01-26 2007-08-09 Honda Motor Co Ltd 運転支援装置
US8681256B2 (en) 2006-10-16 2014-03-25 Sony Corporation Display method and display apparatus in which a part of a screen area is in a through-state
US9182598B2 (en) 2006-10-16 2015-11-10 Sony Corporation Display method and display apparatus in which a part of a screen area is in a through-state
JP2008096867A (ja) * 2006-10-16 2008-04-24 Sony Corp 表示装置、表示方法
US9846304B2 (en) 2006-10-16 2017-12-19 Sony Corporation Display method and display apparatus in which a part of a screen area is in a through-state
JP2009023651A (ja) * 2008-08-25 2009-02-05 Denso Corp 車両用情報表示システム
JP4692595B2 (ja) * 2008-08-25 2011-06-01 株式会社デンソー 車両用情報表示システム
JP2011014146A (ja) * 2009-07-03 2011-01-20 Robert Bosch Gmbh カメラシステムの拡張方法、カメラシステム、運転者支援システム、および対応する車両
KR101371893B1 (ko) 2012-07-05 2014-03-07 현대자동차주식회사 차량 주변의 영상을 이용한 입체물 검출 장치 및 방법
KR101362962B1 (ko) * 2012-08-06 2014-02-13 (주)토마토전자 차량번호 인식 및 검색 시스템과 운영방법
KR101389865B1 (ko) 2013-02-28 2014-04-29 주식회사 펀진 이미지 인식 시스템 및 그를 이용한 이미지 인식 방법
KR101381580B1 (ko) 2014-02-04 2014-04-17 (주)나인정보시스템 다양한 조명 환경에 강인한 영상 내 차량 위치 판단 방법 및 시스템
JP2019525236A (ja) * 2016-07-18 2019-09-05 サン−ゴバン グラス フランス 観察者に画像情報を表示するためのヘッドアップディスプレイシステム
US10754152B2 (en) 2016-07-18 2020-08-25 Saint-Gobain Glass France Head-up display system for calibrating and correcting image information for an observer
JP2022172186A (ja) * 2019-08-06 2022-11-15 直之 村上 コンピユーターの目(pceye)
JP7312521B2 (ja) 2019-08-06 2023-07-21 直之 村上 コンピユーターの目(pceye)

Also Published As

Publication number Publication date
EP1377934A2 (en) 2004-01-07
US20020130953A1 (en) 2002-09-19
MXPA03008236A (es) 2004-11-12
AU2002254226A1 (en) 2002-09-24
WO2002073535A8 (en) 2004-03-04
WO2002073535A2 (en) 2002-09-19
WO2002073535A3 (en) 2003-03-13
CA2440477A1 (en) 2002-09-19

Similar Documents

Publication Publication Date Title
JP2005509129A (ja) ナビゲーションのために周囲の視覚的情報を自動車の運転手に知らせるエンハンスド・ディスプレイ
JP2005509129A5 (ja)
WO2018167966A1 (ja) Ar表示装置及びar表示方法
US7315241B1 (en) Enhanced perception lighting
EP1894779B1 (en) Method of operating a night-view system in a vehicle and corresponding night-view system
EP1961613B1 (en) Driving support method and driving support device
US6208933B1 (en) Cartographic overlay on sensor video
CN103969831B (zh) 车辆抬头显示装置
JP6409337B2 (ja) 表示装置
US20050134479A1 (en) Vehicle display system
US20120287279A1 (en) Parking support apparatus
US11525694B2 (en) Superimposed-image display device and computer program
JPWO2019044536A1 (ja) 情報処理装置、情報処理方法、プログラム、および移動体
JP2005515930A5 (ja)
WO2005121707A2 (en) En-route navigation display method and apparatus using head-up display
JP2006162442A (ja) ナビゲーション装置及びナビゲーション方法
JP6232691B2 (ja) 車両用表示制御装置、車両用表示装置及び車両用表示制御方法
WO2018134897A1 (ja) 位置姿勢検出装置、ar表示装置、位置姿勢検出方法およびar表示方法
JP2011152865A (ja) 車載撮像装置
CN207860066U (zh) 一种全景记录辅助控制***
JP2005053296A (ja) 車両周辺視認装置
KR20170129536A (ko) Vr 관광 망원경 및 그 제어 방법
JP2006036166A (ja) 車両用表示装置
JP2023109754A (ja) Ar表示装置、ar表示方法、およびプログラム
US20180313658A1 (en) Image reproducing device, image reproducing system, and image reproducing method

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20050310

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20060515

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20060811

A602 Written permission of extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A602

Effective date: 20060818

A524 Written submission of copy of amendment under article 19 pct

Free format text: JAPANESE INTERMEDIATE CODE: A524

Effective date: 20061115

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20070312