JP6793193B2 - 物体検出表示装置、移動体及び物体検出表示方法 - Google Patents

物体検出表示装置、移動体及び物体検出表示方法 Download PDF

Info

Publication number
JP6793193B2
JP6793193B2 JP2018525048A JP2018525048A JP6793193B2 JP 6793193 B2 JP6793193 B2 JP 6793193B2 JP 2018525048 A JP2018525048 A JP 2018525048A JP 2018525048 A JP2018525048 A JP 2018525048A JP 6793193 B2 JP6793193 B2 JP 6793193B2
Authority
JP
Japan
Prior art keywords
image
display
distance
display device
far
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018525048A
Other languages
English (en)
Other versions
JPWO2018003532A1 (ja
Inventor
アニール クマル サマル
アニール クマル サマル
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Kyocera Corp
Original Assignee
Kyocera Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Kyocera Corp filed Critical Kyocera Corp
Publication of JPWO2018003532A1 publication Critical patent/JPWO2018003532A1/ja
Application granted granted Critical
Publication of JP6793193B2 publication Critical patent/JP6793193B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/14Digital output to display device ; Cooperation and interconnection of the display device with other functional units
    • G06F3/147Digital output to display device ; Cooperation and interconnection of the display device with other functional units using display panels
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/22Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle
    • B60R1/23Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view
    • B60R1/24Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles for viewing an area outside the vehicle, e.g. the exterior of the vehicle with a predetermined field of view in front of the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R1/00Optical viewing arrangements; Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/20Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles
    • B60R1/30Real-time viewing arrangements for drivers or passengers using optical image capturing systems, e.g. cameras or video systems specially adapted for use in or on vehicles providing vision in the non-visible spectrum, e.g. night or infrared vision
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B15/00Special procedures for taking photographs; Apparatus therefor
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/02Bodies
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/28Circuitry to measure or to take account of the object contrast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/20Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from infrared radiation only
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/30Transforming light or analogous information into electric information
    • H04N5/33Transforming infrared radiation
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/18Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast
    • H04N7/181Closed-circuit television [CCTV] systems, i.e. systems in which the video signal is not broadcast for receiving images from a plurality of remote sources
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K2360/00Indexing scheme associated with groups B60K35/00 or B60K37/00 relating to details of instruments or dashboards
    • B60K2360/20Optical features of instruments
    • B60K2360/33Illumination features
    • B60K2360/347Optical elements for superposition of display information
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60KARRANGEMENT OR MOUNTING OF PROPULSION UNITS OR OF TRANSMISSIONS IN VEHICLES; ARRANGEMENT OR MOUNTING OF PLURAL DIVERSE PRIME-MOVERS IN VEHICLES; AUXILIARY DRIVES FOR VEHICLES; INSTRUMENTATION OR DASHBOARDS FOR VEHICLES; ARRANGEMENTS IN CONNECTION WITH COOLING, AIR INTAKE, GAS EXHAUST OR FUEL SUPPLY OF PROPULSION UNITS IN VEHICLES
    • B60K35/00Instruments specially adapted for vehicles; Arrangement of instruments in or on vehicles
    • B60K35/20Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor
    • B60K35/28Output arrangements, i.e. from vehicle to user, associated with vehicle functions or specially adapted therefor characterised by the type of the output information, e.g. video entertainment or vehicle dynamics information; characterised by the purpose of the output information, e.g. for attracting the attention of the driver
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/10Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used
    • B60R2300/106Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of camera system used using night vision cameras
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/307Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene
    • B60R2300/308Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing virtually distinguishing relevant parts of a scene from the background of the scene by overlaying the real scene, e.g. through a head-up display on the windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • GPHYSICS
    • G02OPTICS
    • G02BOPTICAL ELEMENTS, SYSTEMS OR APPARATUS
    • G02B27/00Optical systems or apparatus not provided for by any of the groups G02B1/00 - G02B26/00, G02B30/00
    • G02B27/01Head-up displays
    • G02B27/0179Display position adjusting means not related to the information to be displayed
    • G02B2027/0185Displaying image at variable distance
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F3/00Input arrangements for transferring data to be processed into a form capable of being handled by the computer; Output arrangements for transferring data from processing unit to output unit, e.g. interface arrangements
    • G06F3/01Input arrangements or combined input and output arrangements for interaction between user and computer
    • G06F3/048Interaction techniques based on graphical user interfaces [GUI]
    • G06F3/0481Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance
    • G06F3/04817Interaction techniques based on graphical user interfaces [GUI] based on specific properties of the displayed interaction object or a metaphor-based environment, e.g. interaction with desktop elements like windows or icons, or assisted by a cursor's changing behaviour or appearance using icons
    • GPHYSICS
    • G09EDUCATION; CRYPTOGRAPHY; DISPLAY; ADVERTISING; SEALS
    • G09GARRANGEMENTS OR CIRCUITS FOR CONTROL OF INDICATING DEVICES USING STATIC MEANS TO PRESENT VARIABLE INFORMATION
    • G09G2380/00Specific applications
    • G09G2380/10Automotive applications

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Signal Processing (AREA)
  • Mechanical Engineering (AREA)
  • Theoretical Computer Science (AREA)
  • Human Computer Interaction (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Transportation (AREA)
  • Optics & Photonics (AREA)
  • General Engineering & Computer Science (AREA)
  • Closed-Circuit Television Systems (AREA)
  • Instrument Panels (AREA)
  • Traffic Control Systems (AREA)
  • Indication In Cameras, And Counting Of Exposures (AREA)
  • Studio Devices (AREA)

Description

関連出願の相互参照
本出願は、2016年6月29日に出願された日本国特許出願2016−128727号の優先権を主張するものであり、この先の出願の開示全体をここに参照のために取り込む。
本開示は、物体検出表示装置、移動体及び物体検出表示方法に関する。
近年、車両を含む移動体の走行安全性の向上のため、カメラによる画像認識およびレーダなどの種々の装置が移動体に搭載されつつある。これらのシステムは、例えば前方にある障害物を識別して、運転者への警告、自動制御等に使用される。
物体から放射される遠赤外線を用いて撮像を行う遠赤外線カメラは、太陽光が届かない夜間でも撮像可能なので、夜間の運転支援のために使用することができる。例えば、歩行者から放射される遠赤外線による画像の形状をパターン化し、パターンマッチングにより遠赤外線により撮像した画像内から歩行者を抽出するシステムが提案されている(例えば、特許文献1参照)。
特開2007−58805号公報
本発明の一実施形態に係る物体検出表示装置は、移動体に搭載される。物体検出表示装置は、遠赤外線カメラと、表示装置と、プロセッサとを含む。プロセッサは、遠赤外線カメラにより出力される画像である第1画像のみから、移動体のヘッドライトからの光が到達する第1距離以上離れた表示対象物体の像を検出する。プロセッサは、第1画像のみから表示対象物体の種別を複数種別から判定する。プロセッサは、第1画像上での表示対象物体の像の位置及び種別に基づいて、前記表示装置に表示対象物体に対応する画像要素を表示させる。
本発明の一実施形態に係る移動体は、物体検出表示装置を含む。物体検出表示装置は、遠赤外線カメラと、表示装置と、プロセッサとを有する。プロセッサは、遠赤外線カメラにより出力される第1画像のみから、ヘッドライトからの光が到達する第1距離以上離れた表示対象物体の像を検出する。プロセッサは、第1画像から表示対象物体の種別を複数種別から判定する。プロセッサは、第1画像上での表示対象物体の像の位置に基づいて、表示装置に表示対象物体に対応する画像要素を表示させる。
本発明の一実施形態に係る物体検出表示方法は、遠赤外線により撮像された第1画像を取得することを含む。物体検出表示方法は、第1画像のみから、移動体のヘッドライトからの光が到達する距離である第1距離以上離れた表示対象物体の像を検出することを含む。物体検出表示方法は、表示対象物体の種別を複数種別から判定することを含む。物体検出表示方法は、第1画像上での表示対象物体の像の位置及び種別に基づいて、表示対象物体に対応する画像要素を表示させることを含む。
図1は、第1実施形態に係る物体検出表示装置の概略構成を示すブロック図である。 図2は、車両に搭載した物体検出表示装置の構成要素の配置と画像表示の例を示す図である。 図3は、車両のヘッドライトの光到達距離(第1距離)および遠赤外線による物体の検出可能な距離を示す図である。 図4は、第1実施形態における装置本体の制御部の処理手順の一例を示すフローチャートである。 図5は、運転者の視点で、夜間にフロントウィンドシールドを通して見る前方の光景の一例を示す図である。 図6は、遠赤外線カメラにより取得可能な前方の光景の一例を示す図である。 図7は、物体像の大きさによる距離判別方法を説明する図である。 図8は、表示画像上に表示されるアイコンを例示する図である。 図9は、フロントウィンドシールドを通して見える前方の光景に重畳して表示されるアイコンの虚像を示す図である。 図10は、ハイビームモードおよびロービームモードにおけるアイコンの表示領域を示す図である。 図11は、前方の道路がカーブしているときのアイコンの表示領域を示す図である。 図12は、第2実施形態に係る物体検出表示装置の概略構成を示すブロック図である。 図13は、第3実施形態に係る物体検出表示装置の概略構成を示すブロック図である。 図14は、第4実施形態に係る物体検出表示装置の概略構成を示すブロック図である。 図15は、第4実施形態における装置本体の制御部の処理手順の一例を示すフローチャートである。 図16は、遠赤外線画像(第1画像)の一例を示す図である。 図17は、可視光画像(第2画像)の一例を示す図である。 図18は、フロントウィンドシールドへのアイコンの投影を説明する図である。 図19は、第5実施形態に係る物体検出表示装置の概略構成を示すブロック図である。 図20は、第5実施形態に係る物体検出表示装置において、可視光カメラの画像が装置本体を経由する例を示すブロック図である。
遠赤外線カメラを備えた移動体において、夜間であってもヘッドライトの光が十分到達可能な領域に物体があるとき、表示装置が遠赤外線カメラによる画像を表示しなくとも、運転者は道路上の物体を肉眼で認識することが可能である。その場合は、表示装置によって特別に加工された画像よりも、肉眼で直接視認した実物の方が、運転者にとって自然に感じられる。したがって、遠赤外線画像の必要性は高くは無い。ヘッドライト等の照明が十分到達しない領域に物体があるとき、遠赤外線カメラで撮影した画像は、肉眼では見えない物体あるいは見えにくい物体を可視化するので非常に有用である。本開示に係る物体検出表示装置は、ヘッドライトの光が十分に到達しない領域に位置する物体について、選択的に遠赤外線カメラによる表示を行うものである。
以下、本開示の実施形態について、図面を参照して説明する。なお、以下の説明で用いられる図は模式的なものである。図面上の寸法比率等は現実のものとは必ずしも一致していない。
(第1実施形態)
図1に示すように、本開示の物体検出表示装置1は車両に搭載され、遠赤外線カメラ10、装置本体20、表示装置30を含んで構成される。車両は、移動体に含まれる。本開示の「車両」は、道路上を走行する車両を含み、特に、乗用車、トラック、バス、二輪車、及びトロリーバス等を含む。また、「車両」は、道路上を走行するブルドーザー、クレーン車、ショベルカー等の工事用車両及びトラクターなどの農業用車両等も含む。図1のヘッドライト制御装置40は、車両のヘッドライトを制御する制御装置である。
図2に例示するように、遠赤外線カメラ10は、車両2の前方に光軸を向けて車両2の前方に固定することができる。遠赤外線カメラ10は、ヘッドライト5とほぼ同じ高さであって、車両2のフロントバンパーの中央に付近に固定することができる。遠赤外線カメラ10の設置位置はこれに限られず、車両2のボンネット等に固定されてよい。装置本体20は、車両2のダッシュボード内に埋め込まれ、遠赤外線カメラ10と通信ケーブル等を介して電気的に接続されてよい。装置本体20は、ダッシュボード内に限らず、車室内または他の場所に配置してもよい。表示装置30は、ヘッドアップディスプレイとすることができる。表示装置30は、ダッシュボード内に内蔵され、車両2のフロントウィンドシールド50に向けて画像を投影してよい。画像は、運転者3の視野内に視認可能に投影される。表示装置30は、装置本体20と通信ケーブル等を介して電気的に接続されている。以下に、各構成要素の詳細を説明する。
図1において、遠赤外線カメラ10は、遠赤外線による画像を撮像するカメラである。遠赤外線は、温度に応じて物体から放出される波長約4μmから1mmの電磁波である。遠赤外線カメラ10は、例えば8μmから14μm程度の波長帯域の光を検出するカメラが使用できる。遠赤外線カメラ10の波長帯域はこれに限られず、この帯域以外の他の帯域、または、この帯域を含む他の帯域の光を撮像してよい。遠赤外線カメラ10を構成するレンズなどの光学部材としては、例えば、ゲルマニウム、シリコン、硫化亜鉛等が使用される。光学部材の材料としては、使用する遠赤外線の波長に応じて、他の材料を使用してよい。遠赤外線カメラ10の撮像素子としては、マイクロボロメータ型の検出器を使用することができる。遠赤外線カメラ10の撮像素子としては、熱電素子及び焦電素子などの他の熱型赤外センサ、又は、量子型赤外線撮像素子等を用いることができる。
遠赤外線カメラ10は、所定のフレームレートで遠赤外線画像を撮像する。本願では、物体から放出される遠赤外線を遠赤外線カメラ10により結像させて得た画像を、遠赤外線画像とよぶ。遠赤外線画像を第1画像とも呼ぶ。遠赤外線カメラ10のフレームレートは30fps(frame per second)または、60fpsとすることができるが、10fps程度としてもよい。フレームレートは、設計に応じて適宜定めることができる。また、遠赤外線カメラ10は、車両2の速度に応じてフレームレートを変化させてもよい。
装置本体20は、遠赤外線カメラ10からの入力を受けて、物体を検出し表示装置30で表示する表示画像を生成する。装置本体20は、入力部21、制御部22、メモリ23、出力部24及び位置センサ25を含む。
入力部21は、遠赤外線カメラ10から装置本体20へ第1画像を入力する入力インタフェースである。入力部21は、車両2のヘッドライト制御装置40からヘッドライト5の状態を示すヘッドライト信号を受信する入力インタフェースでもある。
入力部21は、物理コネクタ、及び無線通信機が採用できる。物理コネクタは、電気信号による伝送に対応した電気コネクタ、光信号による伝送に対応した光コネクタ、及び電磁波による伝送に対応した電磁コネクタが含まれる。電気コネクタには、IEC60603に準拠するコネクタ、USB規格に準拠するコネクタ、RCA端子に対応するコネクタ、EIAJ CP-1211Aに規定されるS端子に対応するコネクタ、EIAJ RC-5237に規定されるD端子に対応するコネクタ、HDMI(登録商標)規格に準拠するコネクタ、及びBNCを含む同軸ケーブルに対応するコネクタを含む。光コネクタは、IEC 61754に準拠する種々のコネクタを含む。無線通信機は、Bluetooth(登録商標)、及びIEEE802.11を含む各規格に準拠する無線通信機を含む。無線通信機は、少なくとも1つのアンテナを含む。
入力部21は、遠赤外線カメラ10が撮像した第1画像、及び、ヘッドライト制御装置40から入力されたヘッドライト信号を制御部22に引き渡すことができる。
制御部22は、一つまたは複数のプロセッサを含む。制御部22もしくはプロセッサは、種々の処理のためのプログラム及び演算中の情報を記憶する一つまたは複数のメモリを含んでよい。メモリは、揮発性メモリ及び不揮発性メモリが含まれる。メモリは、プロセッサと独立しているメモリ、及びプロセッサの内蔵メモリが含まれる。プロセッサには、特定のプログラムを読み込ませて特定の機能を実行する汎用のプロセッサ、特定の処理に特化した専用のプロセッサが含まれる。専用のプロセッサには、特定用途向けIC(ASIC;Application Specific Integrated Circuit)が含まれる。プロセッサには、プログラマブルロジックデバイス(PLD;Programmable Logic Device)が含まれる。PLDには、FPGA(Field-Programmable Gate Array)が含まれる。制御部22は、一つまたは複数のプロセッサが協働するSoC(System-on-a-Chip)、及びSiP(System In a Package)のいずれかであってよい。
制御部22は、遠赤外線カメラ10の起動及び終了を制御してよい。例えば、制御部22は、ヘッドライト制御装置40から、ヘッドライト5の点灯を示すヘッドライト信号を受信したとき、遠赤外線カメラ10の出力を用いた物体検出表示処理を起動してよい。
制御部22は、物体検出部26、物体の種別を判別する第1判別部27、距離を判別する第2判別部28及び表示処理部29の各機能ブロックを有する。各機能ブロックは、ハードウエアモジュールであってよく、ソフトウエアモジュールであってよい。それぞれの機能ブロックが行える動作を、制御部22は実行できる。各機能ブロックが行う動作は、制御部22が行う動作として言い換えることができる。制御部22が各機能ブロックのいずれかを使役して行う処理は、制御部22が自ら実行してよい。
物体検出部26は、遠赤外線カメラ10で撮像された第1画像から、物体の像を検出する。物体の像を物体像ともよぶ。物体像の検出は、エッジ検出法及び領域分割法等、種々の方法を用いることができる。例えば、物体検出部26は、前方に物体が存在しない場合の遠赤外線画像を記憶する。物体検出部26は、物体の像を含む第1画像が入力されると、物体が存在しない場合の遠赤外線画像と差分をとる。さらに、物体検出部26は差分として得られた画像を二値化し、二値化した画像から画素数の少ないかたまりをノイズとして除去し、残った画素の集まりを物体像と認識することができる。物体検出部26は、遠赤外線カメラ10で撮像された第1画像に対して、歪み補正、明度調整、コントラスト調整等の任意の処理を行った後、物体検出を行うようにしてよい。
第1判別部27は、物体検出部26で検出された物体像から物体の種別を判定する。物体検出部26は、例えば、自動車、歩行者、自転車等の物体像の画像のパターンを有しており、パターンマッチング処理によって、物体の種別を判定することができる。第1判別部27は、画像のパターンを、メモリ23に格納しているものから必要に応じて取得してよい。例えば、二本の足を有する上下方向に長いパターンは、歩行者と判断されうる。なお、第1判別部27は、物体検出部26と一体であってもよい。すなわち、物体検出部26での物体の検出を、予め定めた物体像の画像のパターンに一致するか否かに基づいて行うことができる。その場合は、物体検出部26で物体を検出するとともに、物体の種別まで決定される。
第2判別部28は、検出した物体までの距離を判別する。本実施形態では、第2判別部28は、第1判別部27で判別した物体の種別と、第1画像中の当該物体の像の大きさに基づいて距離を判別する。例えば、物体が乗用車の場合、例えば、日本の乗用車の車幅は170cmから180cm程度が多いことから、検出された車両2の第1画像上での車幅の大きさから、距離を推定することができる。類似して、検出した物体が歩行者の場合、第1画像上での上下方向の長さに基づいて距離を推定することができる。
表示処理部29は、物体検出部26で検出された物体について、第2判別部28で判別した距離に従って、表示装置30に表示するか否かを決定する。表示処理部29は、第2判別部28で判別した物体までの距離が、ヘッドライト5の光の到達距離よりも短い場合、表示装置30に物体の存在を示す表示をしない。本願において、ヘッドライト5の光の到達距離を光到達距離とよぶ。光到達距離を第1距離ともよぶ。また、車両2から物体までの距離を第2距離とよぶ。表示処理部29は、第2判別部28で判別した第2距離が、第1距離以上離れている場合は、物体を表示対象物体と判別し、物体に対応する画像要素を表示装置30に表示させる。画像要素とは、物体を簡略化して示す図形、マーク、または、シンボルなどを意味する。表示処理部29は、第1画像から表示対象物体の像を抽出し、これを画像要素として表示装置30に表示させることもできる。表示対象物体とは、その物体に対応する画像要素を表示装置30により表示する対象となる物体である。
表示処理部29は、表示装置30に物体に対応する画像要素を表示するとき、第1判別部27で決定した物体の種別に基づいて、画像要素を選択する。画像要素はアイコンとしてよい。表示処理部29は、物体検出部26で検出した表示対象物体の像の位置に対応する位置に、アイコンの画像が表示されるように、表示装置30に出力する画像を生成してよい。アイコンの画像のデータは、メモリ23に記憶しておくことができる。表示処理部29は、メモリ23よりアイコン画像のデータを適宜読み出すことができる。
メモリ23は、物体検出表示装置1の実行する処理に必要となる画像データ等のデータを保存する記憶装置である。メモリ23には、遠赤外線カメラ10が撮像した画像が一時的に格納され得る。メモリ23には、第1判別部27が物体の種別を判別するために用いるパターンが格納され得る。メモリ23には、表示処理部29が表示対象物体を表示装置30に表示させる画像信号を生成する際に用いるアイコン画像が格納され得る。メモリ23は、DRAM(Dynamic Random Access Memory)、SRAM(Static Random Access Memory)等の揮発性メモリ、及び、およびフラッシュメモリ等の不揮発性メモリなどを用いることができる。
出力部24は、装置本体20から表示装置30へ画像信号を出力する出力インタフェースである。出力部24は、物理コネクタ、及び無線通信機が採用できる。図1に示す本実施形態において、出力部24は入力部21と分かれているが、これに限られない。入力部21および出力部24は1つの通信部であってよい。通信部は、物理コネクタ、及び無線通信機が採用できる。
位置センサ25は、車両2の運転者3の頭部の位置を検出するためのセンサである。運転者3は、物体検出表示装置1の使用者である。位置センサ25としては、車両2の車室内部に設置したカメラを用いることができる。位置センサ25により測定される頭部の位置情報は、表示装置30において表示されるアイコンの位置を、運転者3の視野内の表示対象物体のあるべき位置に自動的に位置合わせするために使用できる。位置センサ25は、必須の構成ではなく、位置センサ25を用いなくとも予め運転者3の運転時の頭の位置に応じて、表示装置30の画像の投影位置を調整することが可能である。
表示装置30は、ヘッドアップディスプレイを使用することができる。ヘッドアップディスプレイとしての表示装置30は、制御部31、表示素子32および光学系33を含んで構成される。
制御部31は、表示装置30全体を制御する。例えば、制御部31は、装置本体20から出力される画像信号を受けて、表示素子32に表示される画像、または、表示素子32の光源の発光強度等を制御する。制御部31は、アプリケーションソフトウェアを実行可能なプロセッサまたはマイクロコンピュータ等により構成されうる。制御部31は、表示素子32を動作させるためのプログラム等が格納される記憶デバイスを備えてよい。記憶デバイスは、例えば半導体メモリ等で構成されうる。記憶デバイスは、制御部31のワークメモリとして機能してよい。光学系33を構成するミラー等の光学素子の向きが調整可能な場合、制御部31は光学系33の調整可能な光学素子を制御することにより光学系33を制御する。制御部31は、装置本体20の位置センサ25にて取得される運転者3の頭部の位置情報に基づいて、光学系33を制御して、画像の投影位置を調整することができる。
表示素子32は、光学系33により投影する画像を表示する。表示素子32は、例えば、LCD(Liquid Crystal Display)等の透過型液晶デバイス、LCOS(Liquid Crystal On Silicon)等の反射型液晶デバイスまたは有機ELディスプレイ(OLED:Organic Electro-Luminescence Display)等の自発光型の表示素子を備えてよい。また、表示素子32は、デジタルミラーデバイス(DMD:Digital Mirror Device)またはMEMS(Micro Electro Mechanical System)ミラー等のミラーデバイスを備えてよい。以下では、LCD等を表示素子32に使用した場合について説明する。
表示素子32は、装置本体20の出力部24から、表示処理部29で生成された画像信号を受信する。画像信号には、表示されるべきアイコンとその表示位置の情報が含まれる。表示素子32は、ダッシュボードの内部に設置しうる。表示素子32の設置位置は、ダッシュボードの内部に限られず、例えば、ダッシュボードの上または車両2のバックミラーの近くに配置することもできる。
光学系33は、ダッシュボード内に配置した凹面鏡及びフロントウィンドシールド50を含み得る。フロントウィンドシールド50の運転者3側に向いた面は、可視光領域の光を部分的に反射してよい。光学系33は、表示素子32に表示された画像を凹面鏡及びフロントウィンドシールド50で反射し、運転者3の視野内に表示素子32に表示される画像の虚像を視認可能に投影する。表示素子32からの光を反射するため、フロントウィンドシールド50の表面には、加工またはコーティングが施されていてよい。光学系33は、表示素子32に表示される画像の虚像を、フロントウィンドシールド50を通して見える前方の光景に重畳して、運転者3の視野内に投影する。以下、適宜前方の光景を前景ともいう。光学系33は、凹面鏡およびフロントウィンドシールド50の組合せに限られず、レンズまたは他の光学素子を含んでよい。虚像を投影するためにフロントウィンドシールド50に代えて、コンバイナを使用することもできる。コンバイナとは、フロントウィンドシールドとは独立したヘッドアップディスプレイの画像を反射させるためのハーフミラーである。
ヘッドライト制御装置40は、ヘッドライト5を制御する車両2に内蔵される制御装置である。ヘッドライト制御装置40は、装置本体20の入力部21に対して、ヘッドライト5の点灯または消灯状態を示す信号、および、ヘッドライト5の点灯時におけるモードの選択情報を示す信号をヘッドライト信号として送信する。モードの選択情報はヘッドライト5がハイビームモード及びロービームモードを含むモードの何れのモードかを示す。ヘッドライト信号は、ヘッドライト5のスイッチが操作されたときなど、ヘッドライト5の状態に変更が加わったときに送信されてよい。ヘッドライト信号は、所定の間隔で常時送信されてもよい。
ここで、図3を参照して、車両2のヘッドライト5の光到達距離(第1距離)および遠赤外線カメラ10による物体の検出可能な距離について説明する。ヘッドライトは、前照灯とも称する。ヘッドライトのハイビームモードは、「走行用前照灯」とも呼ばれる。日本の道路運送車両の保安基準によれば、ハイビームモードは、夜間に前方100mの距離にある障害物を確認できる性能を有するものである。また、ロービームモードは、「すれ違い用前照灯」とも呼ばれる。ロービームモードは、上記保安基準によれば、他の交通を妨げず夜間に前方40mの距離にある障害物を確認できる性能を有するものである。
一般的な車両では、ロービームモードにおいては、光到達距離は約60mである。以下において、ロービームモードでの光到達距離をロービーム到達距離l1とよぶ。また、ハイビームモードでの光到達距離は、約120mである。以下において、ハイビームモードでの光到達距離をハイビーム到達距離l2とよぶ。ロービーム到達距離l1およびハイビーム到達距離l2は、それぞれ、ロービームモードおよびハイビームモードでの第1距離である。夜間において、車両のヘッドライトがロービームモードのとき、車両から物体までの距離(第2距離)が60m以内であれば、ヘッドライトの光によって物体を視認することができる。しかし、第2距離が60mを超えると、物体を視認することは困難である。また、夜間において、車両のヘッドライトがハイビームモードのとき、第2距離が120m以内であれば、ヘッドライトの光によって物体を視認することができる。しかし、第2距離が120mを超えると、物体を視認することは困難である。
本願における第1距離は、上述のようにヘッドライト5のモードの選択情報に応じて、予め定まる距離とすることができる。別法として、第1距離は、車両2から実際に観察されるヘッドライト5の光が到達している上限の距離としてよい。ヘッドライト5の光は、車両2からの距離にともない徐々に低下する。よって、第1距離は、車両2から観察される物体からのヘッドライト5の反射光の強度に閾値を設け、反射光の強度が閾値より小さくなる距離として定めてもよい。閾値は、夜間において運転者3が物体を視認し難くなる程度の光の強度に設定しうる。
遠赤外線カメラ10により物体を検知可能な距離l3は、約200mである。したがって、遠赤外線カメラ10は、ヘッドライト5がロービームモードのとき、車両2から60m−200mの距離に位置する物体を検出するのに有効である。また、遠赤外線カメラ10は、ヘッドライト5がハイビームモードのとき、120m−200の距離に位置する物体を検出するのに有効である。
以下に、物体検出表示装置1を用いて、運転者3の視野内へ、表示対象物体に対応する画像要素を表示する物体検出表示方法の例について、図4のフローチャートを用いて説明する。
装置本体20の制御部22は、ヘッドライト制御装置40からヘッドライト5が点灯状態であることを示すヘッドライト信号を受信すると、遠赤外線カメラ10、装置本体20の各部、及び、表示装置30が起動される(ステップS101)。
制御部22は、ヘッドライト制御装置40から、ヘッドライト5がハイビームモード及びロービームモードの何れであるかを示す選択情報を含むヘッドライト信号を受信する(ステップS102)。制御部22は、受信した選択情報が示すヘッドライト5のモードに応じて、以下の処理を行う。
制御部22は、遠赤外線カメラ10から、第1画像を取得する(ステップS103)。制御部22は、取得した第1画像に基づいて、物体検出部26、第1判別部27、第2判別部28、表示処理部29の各部で順次以下の処理を行う。
物体検出部26は、第1画像から物体像を、画像上の位置情報と共に検出する(ステップS104)。
太陽光の届かない夜間において、ヘッドライト5以外の光が無いか、または、ヘッドライト5以外の光が乏しい場合、運転者3の視界には、図5に示すように、フロントウィンドシールド50を通した前景が視認される。図5において、車内のミラー51と表示装置30の投影部34も併せて表示している。投影部34は、ダッシュボード内の表示素子32からの光がダッシュボードの上側に射出される窓部であり、光学系33の光路の一部に設けられる。運転者3の視認する前景において、路面52が車両2の前方の光到達距離である第1距離まで見ることができる。第1距離は、ヘッドライト5がロービームモードのとき約60m、ヘッドライト5がハイビームモードのとき約120mである。第1距離以上離れた場所は、光が届かないため暗くなっている。この領域を照明非到達領域53とよぶ。
遠赤外線カメラ10は、図6に一例を示すように、暗い環境下で人の眼では視認できない物体を撮像することができる。遠赤外線カメラ10の撮像する画像は、撮像される物体の温度に応じて輝度が異なる。例えば、昼の間に路面温度が上昇し、夜になっても周辺の温度よりも路面温度が高ければ、路面52が明るく表示される。また、遠赤外線カメラ10は、約200m前方の物体まで検出することが可能なので、ヘッドライト5の光のみでは視認できなかった物体像O1,O2を検出することが可能になる。図6において、物体像O1は自動車の像である。図6において、物体像O2は歩行者の像である。物体検出部26は、遠赤外線カメラ10から出力された第1画像から、物体像O1,O2を検出することができる。
第1判別部27は、物体検出部26で検出した物体像O1,O2の種別を判別する(ステップS105)。例えば、図6の第1画像において、第1判別部27は、物体像O1を自動車、物体像O2を歩行者と判別する。
第2判別部28は、物体検出部26で検出し、第1判別部27で種別を判別した物体像O1,O2に対応する実空間の物体までの距離(第2距離)を判別する(ステップS106)。図7は、第1画像の例を模式的に示している。第2判別部28は、自動車と認識された物体像O1の幅w1を画素単位で測る。第2判別部28は、物体像O1の幅w1と典型的な自動車の車幅とから、物体像O1に対応する第2距離を判別する。なお、距離の判別に用いるのは、自動車の幅に限られず、人の高さを用いることもできる。物体が自転車の場合は、自転車の全長またはタイヤの直径等を用いることもできる。第2判別部28は、物体像O1,O2の位置する部分の道路の像の幅から距離を推定してもよい。
表示処理部29は、第2判別部28で判別した第2距離に従って、表示装置30に物体像O1,O2に対応する画像要素を表示するか否かを決定する(ステップS107)。ヘッドライト5のモードがロービームモードのとき、表示処理部29は、ヘッドライト5の第1距離を、ロービームモードでヘッドライト5の光が到達する距離であるロービーム到達距離l1に設定する。ロービーム到達距離l1は例えば60mである。また、ヘッドライト5のモードがハイビームモードのときは、表示処理部29は、ヘッドライト5の第1距離をハイビームモードでヘッドライト5の光が到達する距離であるハイビーム到達距離l2に設定する。ハイビーム到達距離l2は、例えば120mである。表示処理部29は、このヘッドライト5の第1距離以上物体像O1,O2に対応する物体が離れていると判断される場合、その物体を表示対象物体とする。
ステップS107において、物体が表示対象物体であると判断されたとき、表示処理部29は、第1判別部27で判別した物体の種別に基づいて、画像要素であるアイコンを選択する。図8は、アイコンの例を示している。アイコンは、自動車のアイコン61、人のアイコン62、動物のアイコン63、自転車のアイコン64等を含んでよい。また、アイコンはこれらのアイコン61−64に限られず、種々のアイコンを用いることができる。
表示処理部29は、物体像O1,O2の第1画像上の位置情報から、運転者3の視野内における表示対象物体の表示すべき位置を特定する。表示処理部29は、この位置にアイコンを表示するための、表示素子32上の表示位置情報を算出する。運転者3の視野内における表示対象物体の表示すべき位置とは、明るい環境下であれば当該表示対象物体が見える位置である。表示処理部29は、選択したアイコンと、表示素子32上の位置情報とを、出力部24を介して表示装置30に出力する。これにより、アイコンは、表示素子32上の適切な位置に表示され、運転者3の視野内の表示すべき位置に投影される(ステップS108)。
図9は、表示装置30により投影部34から車両2のフロントウィンドシールド50に投影され、運転者3が視認する画像を模式的に示している。照明非到達領域53内の、明るい環境下であれば車両2が視認されるべき位置に車両アイコン54が表示され、歩行者が視認されるべき位置に人アイコン55が表示されている。
表示装置30がフロントウィンドシールド50にアイコンを投影する領域は、ヘッドライト5がロービームモード及びハイビームモードの何れであるかによって異なる。図10に示すように車両2が道路を直進しているとき、ヘッドライト5がロービームモードであれば、運転者3は車両2の比較的近くの前景までしか視認できない。このため、ロービームモードの時に画像が投影される領域である第1投影領域56は図示のように設定される。ヘッドライト5がハイビームモードのとき、運転者3はより遠くの前景まで視認することが可能である。このため、ハイビームモードの時に画像が投影される領域である第2投影領域57は、第1投影領域56よりも狭くなる。
ステップS107において、物体が表示対象物体でないと判断されたとき、表示処理部29は、ステップS108の表示指示を行わない。なお、物体検出部26において検出された物体が複数ある場合は、第2判別部28においてそれぞれ距離を判別し、各物体についてそれぞれ表示対象物体であるか否かの判定を行い、表示対象物体のみを表示する。
表示処理部29が、表示装置30に対してアイコンの表示を指示した後、または、ステップS107において表示を行わないと判断した後、システムを終了する指示を受けた場合を除き(ステップS109)、制御部22の処理は再びS102に戻る。以下、制御部22は、ステップS102からS109の処理を繰り返す。システムを終了する指示を受けた場合とは、例えば、ヘッドライト5の消灯状態を示すヘッドライト信号を受信したとき、装置本体20の電源が切られた場合などである。
以上説明したように、本実施形態によれば、遠赤外線カメラ10により出力される第1画像を用いることで、人の肉眼では視認できない暗い場所の物体を、アイコンとして視認することが可能になる。ヘッドライト5の光が到達しない領域にのみ、選択的に第1画像に基づく表示がなされ、ヘッドライト5の光が到達する領域では、赤外線画像に基づくアイコンの表示をしないので表示が解りやすい。車両2から物体までの第2距離が、ヘッドライト5の光が到達する第1距離よりも短いとき、表示装置30は、当該物体に対応するアイコンを表示しない。このため、運転者3の視野内で視認可能な物体とアイコンとが混在して見難くなることはない。さらに、第1画像上での表示対象物体の像の位置に基づいて、前記表示対象物体に対応する画像要素を表示するので、運転者3は表示対象物体の有るべき位置に、アイコンを視認することができる。また、表示対象物体を表示するのにアイコンを用いたので、表示がより単純で解りやすい。
本実施形態では、ヘッドライト制御装置40から、ヘッドライト5のハイビームモード及びロービームモードの選択情報を取得するので、ヘッドライト5のモードに応じた適切な表示領域にアイコンを表示することが可能になる。
本実施形態では、表示装置30として、表示素子32に表示された表示画像の虚像を使用者の視野内へ視認可能に投影するヘッドアップディスプレイを用いているので、運転者3が肉眼で視認する前景と、アイコンとを重畳して表示することが可能になる。このため、別途表示面を有する表示装置を用いる場合に比べ、運転中に視線を前方から動かす必要がない。よって、運転者3にかかる負担が小さく、表示対象物体に対応するアイコンをより自然に視認することができる。
(第1’実施形態)
表示装置30は、表示素子32に表示される画像の虚像を投影するヘッドアップディスプレイである。このため、表示装置30から画像を投影できるフロントウィンドシールド50上の領域は、投影部34から投影された光が、フロントウィンドシールド50に反射して運転者3の眼球に入射する条件を満たす範囲に限られる。フロントウィンドシールド50での反射が正反射のとき、このような領域はフロントウィンドシールド50の上の限られた領域となる。
そこで、本実施形態では、光学系33の光学素子の一部、特にフロントウィンドシールド50は、表示素子32から射出された光の少なくとも一部が、使用者の眼球方向に向けて正反射とは異なる角度で反射させる反射角度制御部材を用いて構成しうる。反射角度制御部材を用いることによって、投影部34から出射した光がフロントウィンドシールド50で反射して、運転者3の眼球方向へ向かうように設定することができ、フロントウィンドシールド50での画像表示に使用できる領域を拡大することが可能になる。
反射角度制御部材は、例えば、メタサーフェスを用いることができる。メタサーフェスは、反射波の位相を制御して、入射した光を任意の方向に反射させることが可能である。
図11は、走行中の道路がカーブしている場合のフロントウィンドシールド50を通して視認される前景を示している。フロントウィンドシールド50の一部または全部に反射角度制御部材を使用することによって、物体検出表示装置1は、道路のカーブに応じて第1投影領域56及び第2投影領域57を移動させることが可能になる。このように、道路の屈曲、上り坂及び下り坂などの多様な走行環境に合わせて、適切な位置にアイコンを表示することが可能になる。
(第2実施形態)
図12に示す第2実施形態に係る物体検出表示装置101では、第1実施形態に係る物体検出表示装置1において、遠赤外線カメラ10に代えて、第1遠赤外線カメラ111及び第2遠赤外線カメラ112を設けたものである。図12において、第1実施形態と同一または対応する構成要素には、図1で示した第1実施形態の参照符号に100を加えた参照符号を付している。第1実施形態の同一または対応する各構成要素と、構成または作用において特段の差異がない場合は、説明を省略する。図12に含まれない構成要素について言及するときは、第1実施形態と同じ参照符号を用いて説明する。
物体検出表示装置101は、第1遠赤外線カメラ111、第2遠赤外線カメラ112、装置本体120、及び、表示装置130を備える。装置本体120は、入力部121、制御部122、メモリ123、出力部124及び位置センサ125を備える。制御部122は、物体検出部126、第1判別部127、第2判別部128、表示処理部129の各機能ブロックを有する。表示装置130は、制御部131、表示素子132及び光学系133を備える。
第1遠赤外線カメラ111及び第2遠赤外線カメラ112は、互いに視差を有し、互いに協働する遠赤外線カメラによるステレオカメラである。第1遠赤外線カメラ111及び第2遠赤外線カメラ112は、協働して2つの方向から物体を撮像することが可能である。第1遠赤外線カメラ111及び第2遠赤外線カメラ112は、1つの筐体に搭載されていてよい。第1遠赤外線カメラ111及び第2遠赤外線カメラ112は、互いに独立し、且つ互いに離れて位置していてよい。第1遠赤外線カメラ111及び第2遠赤外線カメラ112は、光軸を互いに平行になるように前方に向けて車両2に取り付けられる。この平行は、厳密な平行に限られず、組み立てのずれ、取付けのずれ、及びこれらの経時によるずれを許容する。第1遠赤外線カメラ111及び第2遠赤外線カメラ112の光軸は平行に限られない。第1遠赤外線カメラ111及び第2遠赤外線カメラ112の光軸が平行でない場合は、制御部122で画像処理により光軸方向のずれを補正することができる。第1遠赤外線カメラ111及び第2遠赤外線カメラ112は、光軸に交わる方向において離れて位置している。第1遠赤外線カメラ111及び第2遠赤外線カメラ112は、車両2の車幅方向に沿って並んで配置され得る。例えば、第1遠赤外線カメラ111は、前方を向いたときに第2遠赤外線カメラ112の左側に位置する。第2遠赤外線カメラ112は、前方を向いたときに第1遠赤外線カメラ111の右側に位置する。第1遠赤外線カメラ111及び第2遠赤外線カメラ112は、フロントバンパー、フェンダーグリル、サイドフェンダー、及びボンネットのいずれかに固定されていてよい。
第1遠赤外線カメラ111及び第2遠赤外線カメラ112は、視差を有する画像を出力する。第1遠赤外線カメラ111及び第2遠赤外線カメラ112の出力するそれぞれの画像内の物体像の座標の違いに基づいて、三角測量の原理で距離を測定することが可能である。したがって、第1遠赤外線カメラ111及び第2遠赤外線カメラ112よりなるステレオカメラは、距離を測定するセンサでもある。物体検出表示装置101は、この第1遠赤外線カメラ111及び第2遠赤外線カメラ112から取得した距離が、ヘッドライト5の光到達距離(第1距離)以上の場合に、当該物体を表示対象物体とする。物体検出表示装置101は、表示対象物体に対応するアイコンを表示装置130に表示させる。以下にその手順を説明する。
制御部122は、入力部121を介して、第1遠赤外線カメラ111及び第2遠赤外線カメラ112から、それぞれ物体から放出される遠赤外線を結像させて得た画像である第1遠赤外線画像及び第2遠赤外線画像を取得する。物体検出部126は、第1遠赤外線画像及び第2遠赤外線画像の双方または何れか一方から物体を検出する。第1判別部127は、物体検出部126で物体を検出した第1遠赤外線画像及び第2遠赤外線画像の双方または何れか一方の物体の種別を判別する。
第2判別部128は、第1実施形態とは異なり、第1遠赤外線画像及び第2遠赤外線画像に含まれる物体像の視差から、車両2からそれぞれの物体までの距離(第2距離)を算出する。距離判別のため、装置本体120は専用の演算素子を搭載してよい。第2判別部128が行う距離判別処理は、第1判別部127の行う物体種別判別処理よりも先に実行してよい。第2判別部128が行う距離判別処理は、第1判別部127の行う物体種別判別処理よりも後に実行してよい。
表示処理部129は、第2判別部128で算出された距離を用いて、第1遠赤外線画像及び第2遠赤外線画像に含まれる物体が表示対象物体であるか否かを判定する。表示対象物体が決定した後、表示処理部129は、第1遠赤外線画像または第2遠赤外線画像の一方または双方に基づいて、表示画像を生成し表示装置130に出力することができる。
本実施形態では、その他の点については、図4のフローチャートに示した手順とほぼ類似の手順により、物体の検出及び画像表示をすることができる。その他の構成、作用は第1実施形態と類似であるので、説明を省略する。
本実施形態によれば、第1実施形態の物体検出表示装置1の有する効果に加え、第1遠赤外線カメラ111及び第2遠赤外線カメラ112を用いることによって、第2判別部128による距離判別の精度が向上する。
(第3実施形態)
図13に示す第3実施形態に係る物体検出表示装置201では、第1実施形態に係る物体検出表示装置1に、距離センサ213を加えたものである。図13において、第1実施形態と同一または対応する構成要素には、図1で示した第1実施形態の参照符号に200を加えた参照符号を付している。第1実施形態の同一または対応する各構成要素と、構成または作用において特段の差異がない場合は、説明を省略する。図13に含まれない構成要素に言及するときは、第1実施形態と同じ参照符号を用いて説明する。
物体検出表示装置201は、遠赤外線カメラ210、距離センサ213、装置本体220、及び、表示装置230を備える。装置本体220は、入力部221、制御部222、メモリ223、出力部224及び位置センサ225を備える。制御部222は、物体検出部226、第1判別部227、第2判別部228、表示処理部229の各機能ブロックを有する。表示装置230は、制御部231、表示素子232及び光学系233を備える。
距離センサ213は、車両2から車両2の前方の物体までの距離(第2距離)を測定するセンサである。距離を測定するセンサとしては、ミリ波レーダ、レーザーレーダ、超音波センサ、又はそれらの組合せが含まれる。これらのセンサは、遠赤外線カメラ10と類似して車両2の種々の位置に搭載することができる。自動車用レーダでは、狭いビーム幅の電磁波を水平方向に高速に走査して、検出対象の物体の水平方向の位置を判別することができる。または、方向の異なる電磁波を順次切り替えて水平方向の位置を判別することができる。ミリ波レーダは、ミリ波帯の電波を使用するセンサであり、霧、降雨、降雪等の時にも使用可能である。
距離センサ213は、距離情報を、入力部221を介して制御部222に出力する。第2判別部228は、遠赤外線カメラ210で取得した第1画像内の物体像に対応する実空間の物体までの距離(第2距離)を、距離センサ213から得られる距離情報に基づいて決定する。
本実施形態では、その他の点については、図4のフローチャートに示した手順とほぼ類似の手順により、物体の検出及び画像表示をすることができる。その他の構成、作用は第1実施形態と類似であるので、説明を省略する。
本実施形態によれば、第1実施形態の効果に加え、距離センサ213を用いることにより、第2判別部228による距離判別の精度が向上する。第2実施形態と比較して、遠赤外線カメラを2台設ける必要が無く、且つ、画像処理に係る処理負荷を軽減することができる。
(第4実施形態)
図14に示す第4実施形態に係る物体検出表示装置301では、第1実施形態に係る物体検出表示装置1に、可視光カメラ314を加えたものである。本願では、可視光波長領域の光に感度を有するカメラを可視光カメラとよび、可視光カメラで撮像して得られる画像を可視光画像とよぶ。可視光画像は、第2画像とも呼ぶ。図14において、第1実施形態と同一または対応する構成要素には、図1で示した第1実施形態の参照符号に300を加えた参照符号を付している。第1実施形態の同一または対応する各構成要素と、構成または作用において特段の差異がない場合は、説明を省略する。図14に含まれない構成要素は、第1実施形態と同じ参照符号を用いて説明する。
物体検出表示装置301は、遠赤外線カメラ310、可視光カメラ314、装置本体320、及び、表示装置330を備える。装置本体320は、入力部321、制御部322、メモリ323、出力部324及び位置センサ325を備える。制御部322は、物体検出部326、第1判別部327、第2判別部328、表示処理部329の各機能ブロックを有する。表示装置330は、制御部331、表示素子332及び光学系333を備える。
可視光カメラ314は、可視光領域の波長の光により画像を撮像するカメラである。可視光カメラ314は、撮像素子を含む。撮像素子は、CCDイメージセンサ(Charge-Coupled Device Image Sensor)、及びCMOSイメージセンサ(Complementary MOS Image Sensor)を含む。可視光カメラ314は、撮像素子に画像を結像させるための光学系を含む。光学系は、1枚以上のレンズで構成することができる。可視光カメラ314はカラーカメラでもモノクロカメラでもよい。
可視光カメラ314は、遠赤外線カメラ310の光軸と光軸が平行になるように隣接して並んで配置することができる。可視光カメラ314は、車両2の遠赤外線カメラ310と類似の位置に類似の方法で固定してよい。可視光カメラ314は、遠赤外線カメラ310とは離して個別に車両2に固定されてよい。可視光カメラ314は、遠赤外線カメラ310と少なくとも部分的に同じ領域を撮像する。可視光カメラ314は、遠赤外線カメラ310と同じタイミング、同じフレームレートで画像を撮像してよい。可視光カメラ314と遠赤外線カメラ310の撮像は同期していなくともよい。
可視光カメラ314は、撮像した第2画像を、入力部321を介して制御部322に出力する。制御部322の物体検出部326は、第1画像に加え第2画像からも物体像を検出する。第2判別部328は、第1画像から物体検出部326で検出されたそれぞれの物体について、第2画像の対応する位置からも所定値以上の輝度の物体像が検出されるか判定する。第2画像の対応する位置から物体像が検出された場合、第2判別部328は、当該物体はヘッドライト5の光到達距離(第1距離)以内に位置すると判断する。第1画像から物体検出部326で検出されたそれぞれの物体について、第2画像の対応する位置からは物体像が検出されない場合、第2判別部328は、当該物体がヘッドライト5の光到達距離(第1距離)以上離れた位置に位置すると判断する。第1画像から検出された物体像と対応する位置に検出された第2画像の物体像の輝度が所定の値以下のとき、第2判別部328は、当該物体がヘッドライト5の第1距離以上離れた位置に位置すると判断する。
以下に、物体検出表示装置301を用いて運転者3の視野内への表示対象物体に対応する画像要素を表示する物体検出表示方法の例について、図15のフローチャートを用いて説明する。
図15において、ステップS201は、第1実施形態における図4のステップS101と類似である。本実施形態において、制御部322は、第1実施形態のステップS102のように、ヘッドライト5のモードの選択情報を取得する必要はない。制御部322は、第1実施形態のステップS103と同一に、第1画像を取得する(ステップS202)。制御部322は、入力部321を介して可視光カメラ314から第2画像を取得する(ステップS203)。物体検出部326は、第1画像から物体像を検出することにより物体を検出する(ステップS204)。
図16および図17は、説明のために、それぞれ第1画像の例及び第2画像の例を模式的に示したものである。図16の第1画像において、物体像O1及び物体像O2が撮像される。この例において、ヘッドライト5はロービームモードであると想定する。物体像O1は車両2から40m前方に位置する物体に対応すると想定する。さらに、物体像O2は車両2から80m前方に位置する物体に対応すると想定する。
図17の第2画像では、ヘッドライト5の第1距離以上離れた距離に位置する物体の物体像O12は撮像されない。これに対して、ヘッドライト5の第1距離よりも短い距離離れた位置に位置する物体の物体像O11は撮像される。したがって、第1画像から検出された物体像O1,O2に対応する物体像O11,O12が第2画像に含まれているか否かを判断することにより、物体像O1,O2に対応する物体が、第1距離以上離れているか否かを判定できる(ステップS205)。このようにして、第2判別部328は、第1画像から検出された物体像O1,O2に対応する物体像O11,O12が、第2画像に含まれていなければ、その物体を表示対象物体であると判別する。また、第1画像から検出された物体像O1,O2に対応する第2画像の物体像O11,O12の輝度が所定の値以下であるとき、第2判別部328は、その物体を表示対象物体であると判別してよい。第2判別部328は、第1画像から検出された物体像に対応する物体像が、第2画像に含まれ且つ所定の輝度以上を有していれば、表示対象物体ではないと判別する。図16及び図17の例では、物体像O2に対応する物体が表示対象物体であると判断される。
次に、第1判別部327は、表示対象物体の像であると判断された物体像O2について、物体の種別を判断する(ステップS206)。図16及び図17の例では、表示対象物体は歩行者である。なお、第1判別部327による物体種別の判別は、ステップS205の後ではなく、ステップS204とステップS205との間で行ってもよい。
表示処理部329は、ステップS206において、第1判別部327が判別した表示対象物体の種別に対応するアイコンを選択し、表示装置330に表示させる(ステップS207)。このとき、図18に示すように運転者3の視認できる前景の中に、人アイコン55が虚像として表示される。
ステップS205において、第1画像から検出された物体像O1,O2に対応する物体像O11,O12が、第2画像にある場合、および、ステップS207が終了した後、処理はステップS208に進む。ステップS208において、システムを終了する指示を受けた場合を除き、制御部322の処理は再びS202に戻る。以下、制御部322は、ステップS202からS208の処理を繰り返す。
以上説明したように本実施形態によれば、第1実施形態と類似の効果が得られる。さらに、ヘッドライト制御装置340から、ヘッドライトのモードの選択情報を取得しなくとも、物体検出表示装置301は、光到達距離(第1距離)以上離れた表示対象物体を検出して、運転者3の視野内に視認可能に投影することが可能になる。
(第5実施形態)
図19に示す第5実施形態に係る物体検出表示装置401は、第1実施形態に係る物体検出表示装置1において、表示装置30に代えて、フラットパネルディスプレイの表示部435を有する表示装置430を採用したものである。図19において、第1実施形態と同一または対応する構成要素には、図1で示した第1実施形態の参照符号に400を加えた参照符号を付している。第1実施形態の同一または対応する各構成要素と、構成または作用において特段の差異がない場合は、説明を省略する。図19に含まれない構成要素に言及するときは、第1実施形態と同じ参照符号を用いて説明する。
物体検出表示装置401は、遠赤外線カメラ410、装置本体420、及び、表示装置430を備える。装置本体420は、入力部421、制御部422、メモリ423、及び、出力部424を備える。制御部422は、物体検出部426、第1判別部427、第2判別部428、表示処理部429の各機能ブロックを有する。表示装置430は、制御部431及び表示部435を備える。表示装置430は、車両2に設けられた可視光カメラ450から入力された画像を表示可能である。
表示装置430の表示部435は、例えば、液晶ディスプレイ(LCD:Liquid Crystal Display)、有機ELディスプレイ、無機ELディスプレイ、プラズマディスプレイ(PDP:Plasma Display Panel)、電界放出ディスプレイ(FED:Field Emission Display)、電気泳動ディスプレイ、ツイストボールディスプレイ等の種々のフラットパネルディスプレイを採用しうる。表示部435は、車両2のダッシュボード内またはダッシュボード上に、画像を表示する表示面を運転者3側に向けて配置することができる。表示装置430は、可視光カメラ450から入力される車両2の前景を表示する。表示装置430は、車両2において他の用途に使用される表示装置と共用することができる。
可視光カメラ450は、可視光領域の波長の光により画像を撮像するカメラである。可視光カメラ450は、第4実施形態の可視光カメラ314と類似に構成され、車両2の類似の位置に配置されうる。可視光カメラ450は、第4実施形態の可視光カメラ314とは異なり、装置本体420に第2画像を出力するのではなく、表示装置430に直接第2画像を出力する。
表示装置430の制御部431は、装置本体420の表示処理部429で生成され、出力部424から出力される表示対象物体のアイコン、及び、表示位置の情報を受信する。制御部431は、表示装置430に表示される可視光カメラ450の画像に、アイコンを重畳して表示させる。
本実施形態では、表示装置430による表示方法が異なることを除き、第1実施形態の図4のフローチャートに示した手順とほぼ類似の手順により、物体の検出及び画像表示をすることができる。その他の構成、作用は第1実施形態と同様であるので、説明を省略する。
本実施形態によれば、フラットパネルディスプレイ上に表示される前景の画像上に、表示対象物体を示すアイコンを表示することが可能になる。また、表示装置430を車両2内に設けられたナビゲーションシステムなどの他のシステムの表示装置と兼用することができる。
第5実施形態において、表示装置430は、可視光カメラ450の画像を直接受け取るものとした。しかし、図20に示すように、可視光カメラ450の画像は、装置本体420を経由して表示装置430に出力されてもよい。その場合、物体検出表示装置401は、表示処理部429において表示するアイコンと車両2の前景の画像とを合成し、表示装置430で表示される画像を生成し、表示装置430に出力してよい。
上述の各実施形態は代表的な例として説明した。上述の各実施形態は、本発明の趣旨及び範囲内で、多くの変更及び変更ができることは当業者に明らかである。したがって、本発明は、上述の実施形態によって制限するものと解するべきではなく、特許請求の範囲から逸脱することなく、種々の変形や変更が可能である。例えば、実施形態に記載の複数の構成ブロックを1つに組み合わせたり、あるいは1つの構成ブロックを分割したりすることが可能である。フローチャートに示した手順は、可能な範囲で入れ替えることができる。フローチャートに示した手順は、可能な範囲で並列に実行することができる。
第2実施形態から第4実施形態において、画像の表示に第5実施形態と類似にフラットパネルディスプレイを用いてもよい。表示画像を視認するのは、運転者に限られない。表示装置にヘッドアップディスプレイを使用する場合、助手席または後部座席の使用者が画像を視認できるようにしてよい。表示装置に表示するアイコンは、表示対象物体までの距離(第2距離)に応じて異なる大きさのものを用意してよい。表示装置は、ヘッドアップディスプレイ及びフラットパネルディスプレイに限られず、種々のタイプの表示装置をしようしうる。表示装置は、CRT(Cathode Ray Tube)またはヘッドマウントディスプレイを使用しうる。
ヘッドライトの点灯及び消灯、及び、ハイビームモード及びロービームモードの選択情報は、ヘッドライト制御装置から取得するのではなく、ヘッドライトのスイッチの操作に連動して取得できるようにしてよい。あるいは、これらの情報は、手動で入力してもよい。ヘッドライトのモードは、ハイビームモードおよびロービームモードの2種類に限られず、ヘッドライトの向きまたは明るさを変えた種々のモードとすることができる。
1,101,201,301,401,501 物体検出表示装置
2 車両
3 運転者
5 ヘッドライト
10,210,310,410 遠赤外線カメラ
20,120,220,320,420 装置本体
21,121,221,321,421 入力部
22,122,222,322,422 制御部(プロセッサ)
23,123,223,323,423 メモリ
24,124,224,324,424 出力部
25,125,225,325 位置センサ
26,126,226,326,426 物体検出部
27,127,227,327,427 第1判別部
28,128,228,328,428 第2判別部
29,129,229,329,429 表示処理部
30,130,230,330,430 表示装置
31,131,231,331,431 制御部
32,132,232,332,432 表示素子
33,133,233,333 光学系
34 投影部
40,140,240,340,440 ヘッドライト制御装置
50 フロントウィンドシールド
51 バックミラー
52 路面
53 照明非到達領域
54 車両アイコン(画像要素)
55 人アイコン(画像要素)
56 第1投影領域
57 第2投影領域
61,62,63,64 アイコン
111 第1遠赤外線カメラ
112 第2遠赤外線カメラ
213 距離センサ
314,450 可視光カメラ
435 表示部
O,O1,O2 物体像
1 ロービーム到達距離
2 ハイビーム到達距離
3 遠赤外線検出距離
1

Claims (12)

  1. 移動体に搭載され、
    遠赤外線カメラと、
    表示装置と、
    前記遠赤外線カメラにより出力される第1画像のみから、
    前記移動体のヘッドライトからの光が到達する第1距離以上離れた表示対象物体の像を検出し、
    前記第1画像のみから前記表示対象物体の種別を複数種別から判定し、
    前記第1画像上での前記表示対象物体の像の位置及び種別に基づいて、前記表示装置に前記表示対象物体に対応する画像要素を表示させるプロセッサと
    を備える物体検出表示装置。
  2. 前記プロセッサは、前記第1画像上での前記表示対象物体の種別に基づいて前記表示対象物体までの距離を推定する請求項1に記載の物体検出装置。
  3. 前記プロセッサは、前記表示装置に表示する前記画像要素を前記種別に応じたアイコンとして表示させる請求項1または2に記載の物体検出表示装置。
  4. 前記プロセッサは、前記第1画像から物体の像を検出し、前記移動体から前記物体までの第2距離が前記第1距離以上のときは、前記物体の像を前記表示対象物体の像として検出し、前記移動体から前記物体までの第2距離が前記第1距離よりも短いときは、前記表示装置に前記物体に対応する画像要素を表示させない請求項1から3の何れか一項に記載の物体検出表示装置。
  5. 前記第1画像に含まれる物体までの第2距離を測定するセンサをさらに備え、前記プロセッサは前記移動体から前記物体までの前記第2距離を前記センサから取得して、該取得した第2距離が前記第1距離よりも長い場合に、前記物体を表示対象物体とする請求項1から4の何れか一項に記載の物体検出表示装置。
  6. 前記プロセッサは、前記移動体から前記第1画像に含まれる物体までの第2距離を前記物体の像の大きさに基づいて判定し、該判定した距離が前記第1距離よりも長い場合に、前記物体を表示対象物体とする請求項1から4の何れか一項に記載の物体検出表示装置。
  7. 前記プロセッサは、前記ヘッドライトにおける前記第1距離の異なる複数のモードのうち、選択されたモードの選択情報を取得し、該選択情報に応じて定まる前記第1距離に基づいて前記表示対象物体を検出する請求項1から6の何れか一項に記載の物体検出表示装置。
  8. 前記表示装置は、表示素子と、該表示素子に表示された画像の虚像を使用者の視野内へ視認可能に投影する光学系とを備えるヘッドアップディスプレイを含む請求項1からの何れか一項に記載の物体検出表示装置。
  9. 前記プロセッサは、前記第1画像上での前記表示対象物体の像の位置に基づいて、前記使用者の前記視野内における前記表示対象物体の位置を特定し、前記画像要素を、前記表示素子上の前記表示対象物体が投影される位置に表示する請求項に記載の物体検出表示装置。
  10. 前記光学系は、前記表示素子から射出された光の少なくとも一部を、使用者の視野内に向けて正反射とは異なる角度で反射させる反射角度制御部材を備える請求項8または9に記載の物体検出表示装置。
  11. 遠赤外線カメラ、表示装置、及び、前記遠赤外線カメラにより出力される第1画像のみから、ヘッドライトからの光が到達する第1距離以上離れた表示対象物体の像を検出し、前記像に対して前記表示対象物体の種別を複数種別から判定し、前記第1画像上での前記表示対象物体の像の位置及び種別に基づいて、前記表示装置に前記表示対象物体に対応する画像要素を表示させるプロセッサを含む物体検出表示装置を備える移動体。
  12. 遠赤外線により撮像された第1画像を取得し、
    前記第1画像のみから、移動体のヘッドライトからの光が到達する距離である第1距離以上離れた表示対象物体の像を検出し、
    前記表示対象物体の種別を複数種別から判定し、
    前記第1画像上での前記表示対象物体の像の位置及び種別に基づいて、前記表示対象物体に対応する画像要素を表示させ
    物体検出表示方法。
JP2018525048A 2016-06-29 2017-06-15 物体検出表示装置、移動体及び物体検出表示方法 Active JP6793193B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
JP2016128727 2016-06-29
JP2016128727 2016-06-29
PCT/JP2017/022218 WO2018003532A1 (ja) 2016-06-29 2017-06-15 物体検出表示装置、移動体及び物体検出表示方法

Publications (2)

Publication Number Publication Date
JPWO2018003532A1 JPWO2018003532A1 (ja) 2019-05-16
JP6793193B2 true JP6793193B2 (ja) 2020-12-02

Family

ID=60786597

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018525048A Active JP6793193B2 (ja) 2016-06-29 2017-06-15 物体検出表示装置、移動体及び物体検出表示方法

Country Status (3)

Country Link
US (1) US11195026B2 (ja)
JP (1) JP6793193B2 (ja)
WO (1) WO2018003532A1 (ja)

Families Citing this family (13)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101844885B1 (ko) * 2016-07-11 2018-05-18 엘지전자 주식회사 차량 운전 보조장치 및 이를 포함하는 차량
CN109996697B (zh) * 2016-09-16 2022-06-21 富士胶片株式会社 投影型显示装置、显示控制方法、及记录介质
JP6654999B2 (ja) * 2016-12-12 2020-02-26 株式会社Soken 物標検出装置
DE102018215185B3 (de) * 2018-09-06 2019-10-10 Volkswagen Aktiengesellschaft Verfahren, Vorrichtung und computerlesbares Speichermedium mit Instruktionen zum Einstellen eines Head-Up-Displays in einem Kraftfahrzeug, Einstellvorrichtung zur Verwendung in einem solchen Verfahren oder mit einer solchen Vorrichtung
US10679530B1 (en) * 2019-02-11 2020-06-09 Toyota Motor Engineering & Manufacturing North America, Inc. Systems and methods for mobile projection in foggy conditions
JP7099367B2 (ja) * 2019-03-06 2022-07-12 株式会社ダイフク 検査システム
WO2020219694A1 (en) * 2019-04-23 2020-10-29 Apple Inc. Systems and methods for resolving hidden features in a field of view
WO2021070214A1 (ja) * 2019-10-07 2021-04-15 日本電気株式会社 送信方法、送信システム及びシステム制御装置
US11180080B2 (en) * 2019-12-13 2021-11-23 Continental Automotive Systems, Inc. Door opening aid systems and methods
US20230311897A1 (en) * 2020-08-21 2023-10-05 Koito Manufacturing Co., Ltd. Automotive sensing system and gating camera
CN113954856B (zh) * 2021-10-29 2023-07-28 惠州华阳通用电子有限公司 一种自动驾驶信息显示方法
DE102021213332A1 (de) * 2021-11-26 2023-06-01 Continental Automotive Technologies GmbH Verfahren, Computerprogramm und Vorrichtung zum Steuern einer Augmented-Reality-Anzeigevorrichtung
USD1023055S1 (en) 2022-01-20 2024-04-16 Waymo Llc Display screen or portion thereof with graphical user interface

Family Cites Families (14)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE69516934T2 (de) * 1994-04-15 2000-10-05 Honda Motor Co Ltd Vorrichtung zur Fahrhilfe eines Fahrzeugs
US7796081B2 (en) 1997-10-22 2010-09-14 Intelligent Technologies International, Inc. Combined imaging and distance monitoring for vehicular applications
JP3982504B2 (ja) * 2004-01-23 2007-09-26 日産自動車株式会社 車両用暗視カメラ装置および表示装置
JP2007058805A (ja) 2005-08-26 2007-03-08 Fuji Heavy Ind Ltd 前方環境認識装置
JP4173901B2 (ja) 2006-05-19 2008-10-29 本田技研工業株式会社 車両周辺監視装置
JP4267657B2 (ja) * 2006-10-31 2009-05-27 本田技研工業株式会社 車両周辺監視装置
JP5157663B2 (ja) 2008-06-13 2013-03-06 株式会社デンソー 車両用表示装置
US20100079267A1 (en) * 2008-09-29 2010-04-01 Tsun-Huang Lin Automobile Anti-Collision Early-Warning Device
JP2011087006A (ja) * 2009-10-13 2011-04-28 Denso Corp 車両用表示装置
JP4952765B2 (ja) * 2009-10-21 2012-06-13 トヨタ自動車株式会社 車両用夜間視界支援装置
US9200895B2 (en) * 2010-11-16 2015-12-01 Konica Minolta, Inc. Image input device and image processing device
EP2759999B1 (en) * 2011-09-21 2016-07-27 Honda Motor Co., Ltd. Apparatus for monitoring surroundings of vehicle
JP2014056295A (ja) 2012-09-11 2014-03-27 Honda Motor Co Ltd 車両周辺監視装置
DE102014012723A1 (de) * 2014-08-27 2016-03-03 GM Global Technology Operations LLC (n. d. Ges. d. Staates Delaware) Anzeigesystem

Also Published As

Publication number Publication date
US11195026B2 (en) 2021-12-07
EP3481059A1 (en) 2019-05-08
JPWO2018003532A1 (ja) 2019-05-16
WO2018003532A1 (ja) 2018-01-04
EP3481059A4 (en) 2020-02-05
US20190205662A1 (en) 2019-07-04

Similar Documents

Publication Publication Date Title
JP6793193B2 (ja) 物体検出表示装置、移動体及び物体検出表示方法
US20210291751A1 (en) Vehicular driver monitoring system with camera having micro lens array
US11836989B2 (en) Vehicular vision system that determines distance to an object
US9863775B2 (en) Vehicle localization system
US10147323B2 (en) Driver assistance system with path clearance determination
US9151626B1 (en) Vehicle position estimation system
US9479740B2 (en) Image generating apparatus
EP3330117B1 (en) Vehicle display device
US9815409B2 (en) Rearview vision system for vehicle
US20180334099A1 (en) Vehicle environment imaging systems and methods
US20130286193A1 (en) Vehicle vision system with object detection via top view superposition
US10875452B2 (en) Driving assistance device and driving assistance method
JP4943367B2 (ja) 車両用情報表示装置
TWI832900B (zh) 測距感測器、檢測感測器、測距方法及電子機器
US20190333252A1 (en) Display control device, display system, and display control method
JP5991648B2 (ja) 車両用表示制御装置
CN112424570A (zh) 抬头显示器
US10775791B2 (en) Image processing apparatus and method for vehicle
KR102010407B1 (ko) 스마트 리어뷰 시스템
JP6830236B2 (ja) 画像取得方法、画像表示システム、及びコンピュータプログラム
EP3481059B1 (en) Object detection and display apparatus, moving body, and object detection and display method
KR20220097656A (ko) 운전자 보조 장치, 차량 및 그 제어 방법
JP7131354B2 (ja) 表示制御装置、表示制御システム、表示制御方法、および表示制御プログラム
US20240198909A1 (en) System and method for enhancing occupant awareness
US10897572B2 (en) Imaging and display device for vehicle and recording medium thereof for switching an angle of view of a captured image

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20181205

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20200121

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200319

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20200519

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20200817

C60 Trial request (containing other claim documents, opposition documents)

Free format text: JAPANESE INTERMEDIATE CODE: C60

Effective date: 20200817

A911 Transfer to examiner for re-examination before appeal (zenchi)

Free format text: JAPANESE INTERMEDIATE CODE: A911

Effective date: 20200826

C21 Notice of transfer of a case for reconsideration by examiners before appeal proceedings

Free format text: JAPANESE INTERMEDIATE CODE: C21

Effective date: 20200901

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20201027

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20201109

R150 Certificate of patent or registration of utility model

Ref document number: 6793193

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150