JP2023507940A - 密着検知カメラシステム - Google Patents

密着検知カメラシステム Download PDF

Info

Publication number
JP2023507940A
JP2023507940A JP2022536697A JP2022536697A JP2023507940A JP 2023507940 A JP2023507940 A JP 2023507940A JP 2022536697 A JP2022536697 A JP 2022536697A JP 2022536697 A JP2022536697 A JP 2022536697A JP 2023507940 A JP2023507940 A JP 2023507940A
Authority
JP
Japan
Prior art keywords
vehicle
sensor
lidar
image sensor
camera
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2022536697A
Other languages
English (en)
Other versions
JP7454674B2 (ja
Inventor
トス,キンバリー
ディットマー,ジェレミー
グイディ,ジュリア
アヴラム,ピーター
Original Assignee
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2023507940A publication Critical patent/JP2023507940A/ja
Application granted granted Critical
Publication of JP7454674B2 publication Critical patent/JP7454674B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W40/00Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models
    • B60W40/02Estimation or calculation of non-directly measurable driving parameters for road vehicle drive control systems not related to the control of a particular sub unit, e.g. by using mathematical models related to ambient conditions
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0005Devices preventing the lights from becoming dirty or damaged, e.g. protection grids or cleaning by air flow
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0017Devices integrating an element dedicated to another function
    • B60Q1/0023Devices integrating an element dedicated to another function the element being a sensor, e.g. distance sensor, camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/0029Spatial arrangement
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60SSERVICING, CLEANING, REPAIRING, SUPPORTING, LIFTING, OR MANOEUVRING OF VEHICLES, NOT OTHERWISE PROVIDED FOR
    • B60S1/00Cleaning of vehicles
    • B60S1/02Cleaning windscreens, windows or optical devices
    • B60S1/56Cleaning windscreens, windows or optical devices specially adapted for cleaning other parts or devices than front windows or windscreens
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/04Conjoint control of vehicle sub-units of different type or different function including control of propulsion units
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/18Conjoint control of vehicle sub-units of different type or different function including control of braking systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W10/00Conjoint control of vehicle sub-units of different type or different function
    • B60W10/20Conjoint control of vehicle sub-units of different type or different function including control of steering systems
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W30/00Purposes of road vehicle drive control systems not related to the control of a particular sub-unit, e.g. of systems using conjoint control of vehicle sub-units
    • B60W30/08Active safety systems predicting or avoiding probable or impending collision or attempting to minimise its consequences
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/86Combinations of lidar systems with systems other than lidar, radar or sonar, e.g. with direction finders
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/89Lidar systems specially adapted for specific applications for mapping or imaging
    • G01S17/8943D imaging with simultaneous measurement of time-of-flight at a 2D array of receiver pixels, e.g. time-of-flight cameras or flash lidar
    • GPHYSICS
    • G01MEASURING; TESTING
    • G01SRADIO DIRECTION-FINDING; RADIO NAVIGATION; DETERMINING DISTANCE OR VELOCITY BY USE OF RADIO WAVES; LOCATING OR PRESENCE-DETECTING BY USE OF THE REFLECTION OR RERADIATION OF RADIO WAVES; ANALOGOUS ARRANGEMENTS USING OTHER WAVES
    • G01S17/00Systems using the reflection or reradiation of electromagnetic waves other than radio waves, e.g. lidar systems
    • G01S17/88Lidar systems specially adapted for specific applications
    • G01S17/93Lidar systems specially adapted for specific applications for anti-collision purposes
    • G01S17/931Lidar systems specially adapted for specific applications for anti-collision purposes of land vehicles
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/50Constructional details
    • H04N23/51Housings
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/56Cameras or camera modules comprising electronic image sensors; Control thereof provided with illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/74Circuitry for compensating brightness variation in the scene by influencing the scene brightness using illuminating means
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/004Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/30Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing
    • B60R2300/301Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the type of image processing combining image information with other obstacle sensor information, e.g. using RADAR/LIDAR/SONAR sensors for estimating risk of collision
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/802Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for monitoring and displaying vehicle exterior blind spot views
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8093Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for obstacle warning
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/403Image sensing, e.g. optical camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2420/00Indexing codes relating to the type of sensors based on the principle of their operation
    • B60W2420/40Photo, light or radio wave sensitive means, e.g. infrared sensors
    • B60W2420/408Radar; Laser, e.g. lidar
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/20Static objects
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60WCONJOINT CONTROL OF VEHICLE SUB-UNITS OF DIFFERENT TYPE OR DIFFERENT FUNCTION; CONTROL SYSTEMS SPECIALLY ADAPTED FOR HYBRID VEHICLES; ROAD VEHICLE DRIVE CONTROL SYSTEMS FOR PURPOSES NOT RELATED TO THE CONTROL OF A PARTICULAR SUB-UNIT
    • B60W2554/00Input parameters relating to objects
    • B60W2554/40Dynamic objects, e.g. animals, windblown objects

Landscapes

  • Engineering & Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Multimedia (AREA)
  • General Physics & Mathematics (AREA)
  • Remote Sensing (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Signal Processing (AREA)
  • Electromagnetism (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Transportation (AREA)
  • Chemical & Material Sciences (AREA)
  • Combustion & Propulsion (AREA)
  • Theoretical Computer Science (AREA)
  • Automation & Control Theory (AREA)
  • Mathematical Physics (AREA)
  • Traffic Control Systems (AREA)
  • Image Analysis (AREA)
  • Optical Radar Systems And Details Thereof (AREA)

Abstract

Figure 2023507940000001
本技術は、自律運転モードで動作するように構成された車両のための外部センサシステム(232)に関する。本技術は、車両の周りの死角に対処するための密着検知(CIS)カメラシステム(1404)を含む。CISシステムは、車両から数メートル以内にある物体を検出する(1808)ために使用される。物体の分類に基づいて、本システムは、リアルタイム運転決定を行うことができる(1810、1812)。ライダーセンサ(700)とともにカメラを用いることによって、分類が強化される。単一のセンサハウジング内における多数のセンサの特定の配置も、物体の検出および分類にとって重要である。したがって、センサおよび支持構成要素の位置決めは、遮蔽を回避し、かつ別様に様々なセンサハウジング要素(712、1414)間の干渉を防止するように選択される。
【選択図】図18

Description

関連出願の相互参照
本出願は、2019年12月30日に出願された米国仮出願第62/954,930号の出願日の利益を主張する、2020年1月8日に出願された米国特許出願第16/737,263号の継続出願であり、これらの出願の開示内容全体は、参照により本明細書に組み込まれる。
自動運転(自律)車両は、一部またはすべての状況で人間の運転者を必要としない。かかる車両は、ある場所から別の場所に乗客または貨物を輸送することができる。該車両は、完全な自律モード、または人が何らかの運転入力を提供し得る部分的な自律モードで動作し得る。自律モードで動作するために、車両は、該車両の外部環境内にある車両および他の物体を検出するためのセンサを用いること、およびセンサから受信した情報を使用して様々な運転動作を実施することができる。しかしながら、車両にじかに隣接する物体およびセンサの視野内にある遮蔽物は、運転動作に悪影響を与える可能性がある。
本技術は、自動運転(自律)モードで動作するように構成された車両のための外部センサシステムに関する。概して、センサは、車両の周りの環境内にある物体を検出するために使用される。これらは、ライダー、レーダー、カメラ、ソナー、および/またはその他のセンサを含む。異なるセンサが様々な利点を有し、多数のセンサによるセンサ融合を用いて、環境についてのより完全な理解を得ることができ、その結果、車両は、運転決定を行うことができる。しかしながら、環境内にある車両および物体のサイズ、形状などに応じて、運転決定および他の自律動作に影響を与え得る死角が存在する可能性がある。これらは、車両にじかに隣接する死角を含む。かかる問題は、統合されたユニット内に異なるタイプのセンサを同じ場所に配置することができるセンサハウジングを注意深く選択して位置決めすることによって大幅に軽減され得る。これは、ライダーセンサと統合された密着カメラシステム、レーダーおよび/またはその他のセンサと同じ場所に配置された周辺視界カメラなどを含み得る。
1つの態様によれば、自律運転モードで動作するように構成された車両のための外部検知システムが提供される。外部検知システムは、ライダーセンサ、画像センサ、および制御システムを備える。ライダーセンサは、車両の周りの外部環境の少なくとも所与の領域内、および車両の閾値距離内にある物体を検出するように構成された視野を有する。画像センサは、ライダーセンサに隣接して配設され、かつ車両の閾値距離内にある外部環境の領域の重なり合う視野を有するように車両に沿って配置されている。画像センサは、閾値距離内の物体に、選択された解像度を提供するように構成されている。制御システムは、画像センサおよびライダーセンサに動作可能に連結されている。制御システムは、ライダーセンサの動作を開始して、車両の閾値距離内にある領域内のライダーデータを取得することと、車両が運転行為を実施する前に、画像センサによる画像キャプチャを開始することと、ライダーセンサからライダーデータを受信し、画像センサから、キャプチャされたイメージを受信することと、を行うように構成された1つ以上のプロセッサを含む。制御システムは、ライダーデータの処理を実施して、車両の閾値距離内にある領域内の物体を検出することと、キャプチャされたイメージの処理を実施して、検出された物体を分類することと、を行うようにさらに構成されている。制御システムはまた、検出された物体の分類に基づいて、車両の1つ以上のシステムに運転行為を実施させるかどうかを判断するように構成されている。検出された物体の分類は、検出された物体のサイズ、近接、または向きのうちの少なくとも1つを判断することを含み得る。
画像センサは、検出された物体によって占められる最小閾値体積を観察するように構成され得る。例えば、最小閾値体積は、検出された物体を包含する3D形状の少なくとも50%であってもよい。画像センサは、ライダーセンサから0.3メートル以内に配設され得る。画像センサおよびライダーセンサは、車両の外部表面上に配置された同じセンサハウジング内に配設され得る。閾値距離は、車両から3メートル以内であってもよい。画像センサのレンズは、疎水性コーティングを含み得る。
1つのシナリオでは、画像センサは、密接検知カメラシステムの一部である。ここでは、密接検知カメラシステムは、画像センサの視野を照らすように構成された、赤外線照明器などの少なくとも1つの照明器を含む。少なくとも1つの照明器は、画像センサの片側に隣接して配置され得る。少なくとも1つの照明器は、代替的に、画像センサの上に配置され得る。少なくとも1つの照明器は、画像センサの両側の上に配置された一対の照明器を備え得る。密接検知カメラシステムは、画像センサおよび/または少なくとも1つの照明器を洗浄するように構成された少なくとも1つの洗浄機構をさらに含み得る。1つの実施例では、画像センサは、ライダーセンサの下に垂直に位置合わせされている。別の実施例では、画像センサは、ライダーセンサの上に垂直に位置合わせされている。
別の態様によれば、車両は、自律運転モードで動作するように構成されている。車両は、運転システムと、外部検知システムと、を備える。運転システムは、車両のブレーキを制御するように構成された減速システム、車両の加速を制御するように構成された加速システム、および車輪の向きと車両の方向を制御するように構成されたステアリングシステムを含む。外部検知システムは、ライダーセンサ、画像センサ、および制御システムを含む。ライダーセンサは、車両の周りの外部環境の少なくともある領域内、および車両の閾値距離内にある物体を検出するように構成された視野を有する。画像センサは、ライダーセンサに隣接して配設され、かつ車両の閾値距離内にある外部環境の領域の重なり合う視野を有するように車両に沿って配置されている。画像センサは、閾値距離内の物体に、選択された解像度を提供する。制御システムは、画像センサおよびライダーセンサに動作可能に連結されている。制御システムは、ライダーセンサの動作を開始して、車両の閾値距離内にある領域内のライダーデータを取得することと、運転システムが運転行為を実施する前に、画像センサによる画像キャプチャを開始することと、ライダーセンサからライダーデータを受信し、画像センサから、キャプチャされたイメージを受信することと、を行うように構成された1つ以上のプロセッサを含む。これはまた、ライダーデータの処理を実施して、車両の閾値距離内にある領域内の物体を検出することと、キャプチャされたイメージの処理を実施して、検出された物体を分類することと、を行うように構成されている。したがって、制御システムは、検出された物体の分類に基づいて、車両の1つ以上のシステムに運転行為を実施させるかどうかを判断することができる。
画像センサは、検出された物体によって占められる最小閾値体積を観察するように構成され得る。画像センサは、ライダーセンサから0.3メートル以内に配設され得る。画像センサおよびライダーセンサは、車両の外部表面上に配置された同じセンサハウジング内に配設され得る。
さらなる態様によれば、方法は、自律運転モードで動作するように構成された車両の制御システムによって、車両の知覚システムのライダーセンサの動作を開始して、車両の周りの領域内の閾値距離内にあるライダーデータを取得することと、制御システムによって、車両が運転行為を実施する前に、知覚システムの画像センサによる画像キャプチャを開始することであって、画像センサが、ライダーセンサに隣接して配設され、かつ閾値距離内にある車両の周りの領域の重なり合う視野を有するように車両に沿って配置され、画像センサが、閾値距離内の物体に、選択された解像度を提供する、開始することと、制御システムによって、ライダーセンサからライダーデータを受信し、画像センサから、キャプチャされたイメージを受信することと、制御システムによって、ライダーデータを処理して、車両の閾値距離内にある領域内の物体を検出することと、制御システムによって、キャプチャされたイメージを処理して、検出された物体を分類することと、制御システムによって、検出された物体の分類に基づいて、車両の1つ以上のシステムに運転行為を実施させるかどうかを判断することと、を含む。検出された物体の分類は、検出された物体のサイズ、近接、または向きのうちの少なくとも1つを判断することを含み得る。
本技術の態様とともに使用するように構成された例示的な車両を示す。 本技術の態様とともに使用するように構成された別の例示的な車両を示す。 本技術の態様とともに使用するように構成された例示的な貨物用車両を示す。 本技術の態様による例示的な車両のシステムのブロック図である。 本技術の態様による例示的な貨物型車両のシステムのブロック図である。 本開示の態様による車両の周りの領域の例を示す。 本開示の態様による、例示的なセンサの視野を示す。 本開示の態様による、例示的な周辺カメラの視野を示す。 本開示の態様による、周辺カメラおよび赤外線照明器の例示的な配置を示す。 本開示の態様による、例示的な周辺センサハウジングアセンブリを示す。 本開示の態様による、遮蔽を最小化するための例示的なセンサ配置を示す。 本開示の態様による、周辺センサの視野の例を示す。 本技術の態様による、例示的な遮蔽シナリオを示す。 本開示の態様による、例示的な周辺センサハウジングアセンブリを示す。 本開示の態様による、遮蔽を最小化するための例示的なセンサ配置を示す。 本開示の態様による、周辺センサの視野の例を示す。 本開示の態様による、別の例示的な周辺センサハウジングアセンブリを示す。 図14A~図14Eの周辺センサハウジングアセンブリの変形例を示す。 本開示の態様による、さらに別の例示的な周辺センサハウジングアセンブリを示す。 図16A~図16Eの周辺センサハウジングアセンブリの変形例を示す。 本開示の態様による動作方法を示す。
本技術の態様は、車両の周りの死角に対処するための密着検知(CIS)カメラシステムを伴う。CISシステムは、車両から数メートル以内(例えば、3メートル未満)で検出された物体を分類するのを助けるために使用される。物体の分類に基づいて、本システムは、「運転可能」であってもよい物体(乗り越えて車両が運転することができるもの)と「運転不可能」であってもよい物体との間で区別することができる。例として、運転可能な物体は、植生、大量の葉、紙またはビニール袋などであってもよく、一方、運転不可能な物体は、回避しなければならないタイプの物体(例えば、歩行者、自転車乗用者、ペットなど)、または乗り越えて運転した場合に車両に損傷を与える可能性があるタイプの物体(例えば、背の高い縁石、割れたガラス、深い穴、消火栓など)のいずれかを含み得る。1つのシナリオでは、ライダーセンサとともにカメラを用いることによって、分類が強化される。これは、人が車両の隣にいるかどうかを判断しようとするときに非常に重要になる場合がある。カメラは、各々が1つ以上の画像センサを含み得る。画像センサは、CMOSセンサであってもよいが、CCDまたは他のタイプの撮像要素が用いられ得る。
本技術の他の態様は、単一のセンサハウジング内における多数のセンサの配置および構成に関する。以下でさらに考察されるように、例えば、センサ融合を支援するために、同じハウジング内において異なるセンサタイプを同じ場所に配置することには利点がある。しかしながら、センサの位置決めは、例えば、1つのセンサが別のセンサによって遮蔽されることを回避するため、センサ間の較正がより正確になることを確実にするため、および/または別様にセンサ間の干渉を防止するために、非常に重要な場合がある。例として、赤外線(IR)または光学照明器などの照明器を、カメラ、例えば、IR光に敏感なカメラのレンズに直接、照明器の光が当たるのを回避するように配置する必要がある。
例示的な車両システム
図1Aは、ミニバン、セダン、またはスポーツユーティリティビークルなどの、乗客用車両100の斜視図を示す。図1Bは、乗客用車両100の上から見た図を示す。乗客用車両100は、車両の外部環境に関する情報を取得するための様々なセンサを含むことができる。例えば、屋根上ハウジング102は、ライダーセンサ、ならびに様々なカメラ、レーダーユニット、赤外線および/または音響センサを含み得る。車両100の前端に位置するハウジング104、ならびに車両の運転者側および乗客側のハウジング106a、106bは各々、ライダーセンサおよび/または他のセンサを組み込むことができる。例えば、ハウジング106aは、車両のクォーターパネルに沿って運転者側のドアの前に位置し得る。示されるように、乗客用車両100はまた、レーダーユニット、ライダー、および/または車両の後部屋根部分にも向かって位置するカメラのための、ハウジング108a、108bを含む。他のハウジング110a、110bは、後部クォーターパネル、例えば、後部車輪の上および後ろに沿って位置し得る。
追加のライダー、レーダーユニット、および/またはカメラ(図示せず)が、車両100に沿った他の場所に位置し得る。例えば、矢印112は、センサユニット(図1Bの112)が、バンパまたはトランクドア/蓋の上、もしくはこれらに隣接してなど、車両100の後部に沿って位置決めされ得ることを示す。また、矢印114は、車両の前方に面する方向に沿って配置された一連のセンサユニット116を示す。別々に示されているが、1つの実施例では、センサユニット116は、屋根上ハウジング102の前部に面するセクションに統合され得る。いくつかの例では、乗客用車両100はまた、車両の内部空間に関する情報を取得するための様々なセンサも含むことができる。内部センサは、カメラセンサ、聴覚センサ、および赤外線センサのうちの少なくとも1つを含むことができる。
車両のタイプおよび構成に応じて、車両の周りに配設され得るセンサハウジングの数が増減する場合がある。例えば、図1Cの例示的な車両150で示されるように、車両100と同様に、屋根上センサハウジング152、前部センサハウジング154、前部クォーターパネルに沿った側部ハウジング156aおよび156b、後部クォーターパネルに沿った側部ハウジング158、ならびに矢印160によって示される後部センサハウジングがあってもよい。本開示のある態様は、特定のタイプの車両に関連して特に有用であるが、車両は、乗用車、トラック、オートバイ、バス、レクリエーション用車両などを含むがこれらに限定されない任意のタイプの車両であってもよい。
図1Dおよび図1Eは、トラクタトレーラトラックなどの、例示的な貨物用車両170を示す。トラックは、例えば、シングル、ダブル、またはトリプルのトレーラを含むことができ、または商用重量クラス4~8などの別の中型または大型トラックであり得る。示されるように、トラックは、トラクタユニット172と、単一の貨物ユニットまたはトレーラ174と、を含む。トレーラ174は、輸送される貨物のタイプに応じて、完全に囲まれていても、フラットベッドのように開いていても、または部分的に開いていてもよい。この実施例では、トラクタユニット172は、エンジンおよびステアリングシステム(図示せず)と、運転者および任意の乗客のための運転室176と、を含む。
トレーラ174は、キングピンとして知られるヒッチングポイント178を含む。キングピン178は、通常、中実のスチールシャフトとして形成され、トラクタユニット172に枢動可能に取り付けられるように構成されている。特に、キングピン178は、運転室の後方に装着された第5輪として知られるトレーラ連結部180に取り付けられる。ダブルまたはトリプルトラクタトレーラの場合、第2のおよび/または第3のトレーラは、先頭のトレーラへの単純なヒッチ接続を有してもよい。または代替的に、各トレーラは、独自のキングピンを有してもよい。この場合、少なくとも第1および第2のトレーラは、次のトレーラに連結するように配置された第5輪タイプの構造を含むことができる。
示されるように、トラクタは、トラクタに沿って配設された1つ以上のセンサユニット182、184、および/または186を有し得る。例えば、1つ以上のセンサユニット182を運転室176のルーフまたは頂部部分の上に配設することができ、1つ以上の側部センサユニット184を運転室176の左側および/または右側の上に配設することができる。センサユニットはまた、運転室176の他の領域に沿って、例えば、前部バンパまたはボンネットエリアに沿って、運転室の後部に、第5輪に隣接して、シャーシの下などに位置し得る。トレーラ174はまた、トレーラに沿って、例えば、トレーラ174の側部パネル、前部、後部、屋根、および/またはアンダーキャリッジに沿って配設された1つ以上のセンサユニット186を有し得る。
図1A~図1Bの乗客用車両のセンサユニットのように、貨物用車両の各センサユニットは、例えば、ライダー、レーダー、カメラ(例えば、光学もしくは赤外線)、音響センサ(例えば、マイクロフォンもしくはソナータイプセンサ)、慣性センサ(例えば、加速度計、ジャイロスコープ、など)、または他のセンサ(例えば、GPSセンサなどの位置決めセンサ)などの1つ以上のセンサを含み得る。本開示のある態様は、特定のタイプの車両に関連して特に有用であるが、車両は、乗用車、トラック、オートバイ、バス、レクリエーション用車両などを含むがこれらに限定されない任意のタイプの車両であってもよい。
図2Aは、動作の完全または半自律モードで動作するように構成された、車両100および150などの例示的な車両の様々な構成要素およびシステムを有するブロック図200を示す。例として、部分的または完全な自律運転モードで動作する車両では、異なる程度の自律性が発生し得る。U.S.National Highway Traffic Safety Administration and the Society of Automotive Engineersは、どれだけ多く、またはどれだけ少なく、車両が運転を制御するかを示すために、様々なレベルを特定した。例えば、レベル0は自動化されておらず、運転者は、運転に関連するすべての決定を行う。最も低い半自律モードであるレベル1は、クルーズコントロールなど、何らかの運転支援を含む。レベル2は、特定の運転動作の部分的な自動化を有し、レベル3は、必要に応じて運転者席の人が制御することが可能であり得る条件付きの自動化を伴う。対照的に、レベル4は、車両が選んだ条件で支援なしで運転することができる高度な自動化レベルである。レベル5は、車両があらゆる状況下で支援なしで運転することができる完全自律モードである。本明細書に記載のアーキテクチャ、構成要素、システム、および方法は、本明細書で「自律」運転モードと呼ばれる、例えば、レベル1~5の半自律モードまたは完全自律モードのいずれかで機能することができる。したがって、自律運転モードへの言及には、部分的自律性と完全自律性の両方が含まれる。
図2に示されるように、ブロック図200は、1つ以上のプロセッサ204、メモリ206、および汎用コンピューティングデバイスに典型的に存在する他の構成要素を含むコンピューティングデバイスなどの、1つ以上のコンピューティングデバイス202を含む。メモリ206は、1つ以上のプロセッサ204によってアクセス可能な情報を記憶し、その情報には、プロセッサ204によって実行されるかまたは他の方法で使用され得る命令208およびデータ210が含まれる。コンピューティングシステムは、自律モードで動作するとき、車両の全体的な動作を制御することができる。
メモリ206は、プロセッサ204によって実行され得るかまたは別様に使用され得る命令208およびデータ210を含む、プロセッサ204によってアクセス可能な情報を記憶する。メモリ206は、コンピューティングデバイス可読媒体を含む、プロセッサによってアクセス可能な情報を記憶することができる任意のタイプのものであり得る。メモリは、ハードドライブ、メモリカード、光ディスク、ソリッドステートなどの非一過性の媒体である。システムは、前述の異なる組み合わせを含むことができ、それにより、命令およびデータの異なる部分が異なるタイプの媒体に記憶される。
命令208は、プロセッサによって直接的に(マシンコードなど)または間接的に(スクリプトなど)実行される任意の命令のセットであってもよい。例えば、命令は、コンピューティングデバイス可読媒体上のコンピューティングデバイスコードとして記憶されてもよい。その点において、「命令」、「モジュール」、および「プログラム」という用語は、本明細書では区別なく使用され得る。データ210は、命令208に従って、1つ以上のプロセッサ304によって検索、記憶、または修正され得る。1つの実施例では、メモリ206の一部またはすべてが、車両診断、検出されたセンサデータ、ならびに/または物体の検出および分類とともに使用される1つ以上の挙動/分類モデルを記憶するように構成されたイベントデータレコーダもしくは他のセキュアデータストレージシステムであってもよく、これらは、実装形態に応じて、車両に搭載されてもよく、または遠隔地にあってもよい。例えば、モデルを使用して、物体が人(例えば、歩行者)、自転車、ボール、または車両に隣接する建設標識であるかどうかを分類することができる。分類に基づいて、本システムは、該物体の挙動を予測するか、または割り当てること、および分類/挙動を、運転関連の決定を行うときに使用することができる。これは、例えば、車両の隣にいる歩行者に、車両がオンになっており、駐車場を出る予定であることを警告することを含み得る。
プロセッサ204は、市販されているCPUなどの、任意の従来のプロセッサであってもよい。代替的に、各プロセッサは、ASICまたは他のハードウェアベースプロセッサなどの専用デバイスであってもよい。図2は、コンピューティングデバイス202のプロセッサ、メモリ、および他の要素が同じブロック内にあることを機能的に示すが、そのようなデバイスは、実際には、同じ物理的ハウジング内に格納されてもされなくてもよい複数のプロセッサ、コンピューティングデバイス、またはメモリを含んでもよい。同様に、メモリ206は、プロセッサ204のものとは異なるハウジング内に位置するハードドライブまたは他のストレージ媒体であり得る。したがって、プロセッサまたはコンピューティングデバイスへの言及は、並行に動作してもしなくてもよいプロセッサまたはコンピューティングデバイスまたはメモリの集合体への言及を含むことが理解されよう。
1つの実施例では、コンピューティングデバイス202は、車両に組み込まれた自律運転コンピューティングシステムを形成し得る。自律運転コンピューティングシステムは、車両の様々な構成要素と通信することが可能であり得る。例えば、コンピューティングデバイス202は、(車両のブレーキを制御するための)減速システム212、(車両の加速を制御するための)加速システム214、(車輪の向きおよび車両の方向を制御するための)ステアリングシステム216、(方向指示器を制御するための)シグナリングシステム218、(車両をある場所または対象物の辺りにナビゲートするための)ナビゲーションシステム220、および(車両の位置を判断するための)位置決めシステム222を含む運転システムを含む、車両の様々なシステムと通信することができる。自律運転コンピューティングシステムは、ナビゲーションシステム220および位置決めシステム222に従って、例えば、出発点から目的地までのルートを判断するためのプランナとして部分的に動作し得る。
コンピューティングデバイス202はまた、車両の乗客からの連続的または定期的な入力を要求しないかまたは必要としない自律運転モードで、メモリ206の命令208に従って、車両の動き、速度などを制御するために、(車両の環境内の物体を検出するための)知覚システム224、電力システム226(例えば、バッテリおよび/またはガソリンもしくはディーゼル動力エンジン)、ならびにトランスミッションシステム230に動作可能に連結される。車輪/タイヤ228は、トランスミッションシステム230に連結され、コンピューティングデバイス202は、自律モードでの運転に影響を与え得るタイヤ空気圧、バランス、および他の要因に関する情報を受信することが可能であり得る。電力システム226は、1つ以上の電力配分要素を有し得、電力配分要素の各々は、車両の選択された構成要素および他のシステムに電力を供給することができる場合がある。
コンピューティングデバイス202は、様々な構成要素を制御することによって車両の方向および速度を制御してもよい。例として、コンピューティングデバイス202は、地図情報およびナビゲーションシステム220からのデータを使用して、車両を目的地に完全に自律的にナビゲートし得る。コンピューティングデバイス202は、位置決めシステム222を使用して車両の場所を判断し、その場所に安全に到着する必要があるとき、知覚システム224を使用して、物体を検出し、物体に応答することができる。そうするために、コンピューティングデバイス202は、車両に(例えば、加速システム214によってエンジンに提供される燃料または他のエネルギーを増加させることによって)加速すること、(例えば、エンジンに供給される燃料を減少させて、ギヤを変更すること、および/または減速システム212によってブレーキをかけることによって)減速すること、(例えば、ステアリングシステム216によって、車両の前輪または他の車輪を旋回させることによって)方向を変更すること、ならびに(例えば、合図システム218の旋回合図を点灯させることによって)かかる変更を合図すること、を行わせることができる。したがって、加速システム214および減速システム212は、車両のエンジンと車両の車輪との間に様々な構成要素を含む、動力伝達装置または他のタイプのトランスミッションシステム230の一部であり得る。この場合も、これらのシステムを制御することによって、コンピューティングデバイス202はまた、車両を自律的に操縦するために、車両のトランスミッションシステム230を制御することができる。
ナビゲーションシステム220は、ある場所までのルートを判断し、たどるために、コンピューティングデバイス202によって使用され得る。この点について、ナビゲーションシステム220および/またはメモリ206は、地図情報、例えば、コンピューティングデバイス202が車両をナビゲートまたは制御するために使用することができる非常に詳細な地図を記憶し得る。一例として、これらの地図は、車道、区画線、交差点、横断歩道、速度制限、交通信号機、建物、標識、リアルタイムの交通情報、植生、または他のそのような物体ならびに情報の形状および高度を識別し得る。区画線は、実線または破線の、二重または単一の車線境界線、実線または破線の車線境界線、反射板などの特徴を含み得る。所定の車線は、車線の境界を画定する、左および/または右の車線境界線または他の区画線と関連付けられ得る。このため、ほとんどの車線は、1つの車線境界線の左端と、別の車線境界線の右端とによって境界付けられ得る。
知覚システム224は、車両の外部の物体を検出するためのセンサユニットを含む。検出される物体は、他の車両、車道内の障害物、信号機、標識、樹木、歩行者、自転車乗用者などであってもよい。以下でさらに考察されるように、外部センサスイート232は、各々が、車両の外部の環境内の物体および条件を検出するための1つ以上のセンサを有する、様々なハウジングを含む。また、内部センサスイート234は、1つ以上の他のセンサを用いて、乗客、乗客コンパートメント内のペットおよびパッケージ、トランクエリア内のパッケージまたは他の貨物などといった、車両内の物体および条件を検出することができる。外部センサスイート232および内部センサスイート234の両方については、様々な環境条件における物体検出を提供するだけでなく、検出された物体の迅速な分類を可能にするために、異なるセンサを有するハウジングが車両の周りに配設されている。これにより、車両は効果的なリアルタイムの運転決定を行うことができる。
センサからの未加工データおよび前述の特性は、知覚システム224によって処理され、かつ/またはデータが知覚システム224によって生成されるときに、周期的および連続的にコンピューティングデバイス202に、さらなる処理のために送信され得る。コンピューティングデバイス202は、位置決めシステム222を使用して車両の場所を判断し、その場所に安全に到着する必要があるとき、知覚システム224を使用して、対象物を検出し、対象物に応答することができる。加えて、コンピューティングデバイス202は、個々のセンサ、特定のセンサアセンブリ(ハウジング)内のすべてのセンサ、または異なるセンサアセンブリもしくは他の物理的ハウジング内のセンサ間の較正を実施し得る。
1つの実施例では、外部センサハウジングは、車両上の側部ミラーに統合されたセンサタワーとして配置され得る。別の実施例では、他のセンサは、屋根上ハウジング102もしくは152、または図1A~図1Cに示されるような他のハウジングの一部であってもよい。コンピューティングデバイス202は、車両上に位置し、または他の方法で車両に沿って配分されたセンサアセンブリと通信することができる。各アセンブリは、上述したもののような1つ以上のタイプのセンサを有することができる。
図2に戻ると、コンピューティングデバイス202は、上述のプロセッサおよびメモリ、ならびにユーザインターフェースサブシステム236などのコンピューティングデバイスに関連して通常使用されるすべての構成要素を含むことができる。ユーザインターフェースサブシステム236は、1つ以上のユーザ入力238(例えば、マウス、キーボード、タッチ画面、および/またはマイクロフォン)、ならびに1つ以上の表示デバイス240(例えば、画面を有するモニタ、または情報を表示するように動作可能な他の任意の電気デバイス)を含んでもよい。この点について、内部の電子ディスプレイは、車両の車内(図示せず)に位置し得、車両内の乗客に情報を提供するためにコンピューティングデバイス202によって使用されてもよい。スピーカ242などの他の出力デバイス、およびタッチ画面またはボタンなどの入力デバイス244が、乗客用車両内に位置していてもよい。
車両はまた、通信システム246を含む。例えば、通信システム246はまた、車両内の乗客コンピューティングデバイスなどの他のコンピューティングデバイス、および車道上の別の近くの車両内などにある、車両外部のコンピューティングデバイス、または遠隔サーバシステムとの通信を容易にするために、1つ以上の無線ネットワーク接続を含み得る。無線ネットワーク接続は、Bluetooth(商標)、Bluetooth(商標)ローエネルギー(LE)、携帯電話接続、ならびにインターネット、ワールドワイドウェブ、イントラネット、仮想プライベートネットワーク、ワイドエリアネットワーク、ローカルネットワーク、1つ以上の企業独自の通信プロトコルを使用するプライベートネットワーク、イーサネット、WiFiおよびHTTP、ならびに前述の様々な組み合わせなどの短距離通信プロトコルを含む、様々な構成およびプロトコルを含み得る。
図2Bは、車両、例えば、図1Dおよび図1Eの車両170の様々な構成要素およびシステムを有するブロック図250を示す。例として、車両は、動作の1つ以上の部分的な自律モードで動作するように構成されたトラック、農機具、または建設機械であり得る。ブロック図250に示されるように、車両は、命令208’、および車両診断、検出されたセンサデータ、ならびに/または物体の検出および分類とともに使用される1つ以上の挙動/分類モデルなどのデータ210’を記憶している1つ以上のプロセッサ204’およびメモリ206’を含むコンピューティングデバイス202‘など、上記のものと同様の1つ以上のコンピューティングデバイスの制御システムを含む。この例において、制御システムは、貨物用車両のトラクタユニットの電子制御ユニット(ECU)を構成し得る。
1つの実施では、コンピューティングデバイスは、車両170に組み込まれた運転コンピューティングシステムを形成し得る。図2Aに関して上で考察された配置と同様に、ブロック図250の運転コンピューティングシステムは、運転動作を実施するために、車両の様々な構成要素と通信することができる場合がある。例えば、コンピューティングデバイス202’は、各々が、図2Aに関して上で考察されるように機能し得る、減速システム212’、加速システム214’、ステアリングシステム216’、合図システム218’、ナビゲーションシステム220’、および位置決めシステム222’を含む運転システムなど、車両の様々なシステムと通信することができる。
コンピューティングデバイス302はまた、知覚システム224’、電力システム226’、およびトランスミッションシステム230’にも動作可能に連結される。車輪/タイヤ228’の一部またはすべてが、トランスミッションシステム230’に連結され、コンピューティングデバイス202’は、タイヤ空気圧、バランス、回転量、および運転に影響を与え得る他の要因に関する情報を受信することができる場合がある。コンピューティングデバイス202と同様に、コンピューティングデバイス202’は、様々な構成要素を制御することによって車両の方向および速度を制御することができる。例として、コンピューティングデバイス202’は、地図情報およびナビゲーションシステム220’からのデータを使用して、車両を目的地の場所までナビゲートするように支援し得る。
知覚システム224と同様に、知覚システム224’もまた、車両外部の物体、車両内部の物体もしくは条件、ならびに/または車輪および減速システム212’などの特定の車両機器の動作を検出するための、上述したような1つ以上のセンサまたは他の構成要素を含む。例えば、図2Bに示されるように、知覚システム224’は、1つ以上のセンサアセンブリ252を含む。各センサアセンブリ252は、1つ以上のセンサを含む。1つの実施例では、センサアセンブリ252は、トラック、農機具、建設機械などの側部視界ミラーに組み込まれたセンサタワーとして配置され得る。センサアセンブリ252はまた、図1Dおよび図1Eに関して上述したように、トラクタユニット172またはトレーラ174上の異なる場所に位置決めされ得る。コンピューティングデバイス202’は、トラクタユニット172およびトレーラ174の両方の上に位置するセンサアセンブリと通信することができる。各アセンブリは、上述したもののような1つ以上のタイプのセンサを有することができる。
また、図2Bには、トラクタユニットとトレーラとの間の接続のための連結システム254が示される。連結システム254は、1つ以上の電力および/または空気圧接続(図示せず)、ならびにトレーラのキングピンに接続するためのトラクタユニットの第5輪256を含むことができる。通信システム246と同等の通信システム246’も、車両システム250の一部として示される。同様に、ユーザインターフェース236と同等のユーザインターフェース236’もまた、車両の運転者および任意の乗客との対話のために含まれ得る。
図2Cは、図1Dおよび図1Eのトレーラ174などのトレーラのシステムの例示的なブロック図260を示す。示されるように、システムは、1つ以上のプロセッサ264、メモリ266、および汎用コンピューティングデバイスに典型的に存在する他の構成要素を含む、コンピューティングデバイスなどの1つ以上のコンピューティングデバイスのECU262を含む。メモリ266は、1つ以上のプロセッサ264によってアクセス可能な情報を記憶し、その情報には、プロセッサ264によって実行されるかまたは他の方法で使用され得る命令268およびデータ270が含まれる。図2Aおよび図2Bのプロセッサ、メモリ、命令、およびデータの説明は、図2Cのこれらの要素に適用される。
ECU262は、トレーラユニットから情報および制御信号を受信するように構成されている。ECU262の車載プロセッサ264は、減速システム272、合図システム274、および位置決めシステム276を含む、トレーラの様々なシステムと通信することができる。ECU262はまた、トレーラの環境内の物体を検出するための1つ以上のセンサを備える知覚システム278、およびローカルの構成要素に電力を提供する電力システム280(例えば、バッテリ電源)に動作可能に連結され得る。トレーラの車輪/タイヤ282の一部またはすべてを、減速システム272に連結することができ、プロセッサ264は、タイヤ空気圧、バランス、車輪速度、および自律モードでの運転に影響を与える可能性のある他の要因に関する情報を受信し、その情報をトラクタユニットの処理システムに中継することができる場合がある。減速システム272、合図システム274、位置決めシステム276、知覚システム278、電力システム280、および車輪/タイヤ282、ならびにアセンブリ284は、図2Aおよび図2Bに関して上述したような様式で動作することができる。
トレーラはまた、着陸装置のセット286、および連結システム288も含む。着陸装置は、トラクタユニットから切り離されたときに、トレーラの支持構造を提供する。連結システム254の一部であってもよい連結システム288は、トレーラとトラクタユニットとの間の接続を提供する。したがって、連結システム288は、接続セクション290(例えば、電力および/または空気圧リンク用)を含むことができる。連結システムはまた、トラクタユニットの第5輪と接続するように構成されたキングピン292を含む。
例示的な実装形態
上述され、図に示された構造および構成を考慮して、様々な実装形態を、本技術の態様に従ってここで説明する。
車両の周りの環境は、異なる象限または領域を有すると考えることができる。1つの実施例300が図3に示されており、これは、車両の周りの前部右側、前部左側、右側後部、および左側後部のエリアの隣接するエリアと同様に、前部、後部、右側、および左側のエリアを示す。これらの領域は単なる例示にすぎない。車両の知覚システムは、車両の外部環境内の物体について可能な限り多くの情報を提供するために、車両の周りの領域の一部またはすべてをカバーし得る。
例えば、これらの領域の一部またはすべてからデータを収集するために、様々なセンサが車両の周りの異なる場所に位置し得る(図1A~図1Cを参照)。例として、図1の3つのセンサ116は、主に、車両の周りの前部、前部左側、および前部右側の領域からデータを受信することができる。対照的に、屋根上ハウジング102は、車両の周りに360°の視野(FOV)を提供するために、多数のカメラおよび/または回転ライダーもしくはレーダーセンサなどの、他のセンサを含み得る。
特定のセンサは、車両の周りの該センサの配置、および収集するように設計されている情報のタイプに応じて、異なる視野を有し得る。例えば、異なるライダーセンサは、車両に隣接する(例えば、2~10メートル未満)物体の近距離(短距離)検出に使用されてもよく、他のセンサは、車両の前100メートル(または100メートル超もしくは100メートル未満)の物体の遠距離(長距離)検出に使用されてもよい。中距離ライダーを用いて、例えば、車両から10~100メートルにある物体を検出することもできる。短距離または長距離の物体検出のために、車両の前部、後部、および/または側部に向かって多数のレーダーユニットを位置決めすることができる。車両の周りがよく見えるようにカメラを配置することができる。構成に応じて、特定のセンサハウジングは、重なり合う視野を有する多数の個々のセンサを含み得る。代替的に、他のセンサが冗長な360°の視野を提供してもよい。
図4は、図1Aおよび図1Bに示されるセンサに関連するセンサの視野の一例400を提供する。ここで、屋根上ハウジング102がライダーセンサ、ならびに様々なカメラ、レーダーユニット、赤外線および/または音響センサを含む場合、これらのセンサの各々は異なる視野を有してもよい。したがって、示されるように、ライダーセンサは、360°のFOV402を提供し得、一方、ハウジング102内に配置されたカメラは、例えば、図3に示される車両の近くの1つ以上の領域をカバーするための、個々のFOV404を有し得る。車両の前端にあるハウジング104内のセンサは、前方に面するFOV406を有する。車両の運転者側および乗客側の上にあるハウジング106a、106bは各々、ライダー、レーダー、カメラ、および/または他のセンサを組み込むことができる。例えば、ハウジング106aおよび106b内のライダーは、それぞれのFOV406aおよび406bを有し得、一方、ハウジング106aおよび106b内のレーダーユニット、カメラ、ならびに/または他のセンサは、それぞれのFOV407aまたは407bを有し得る。同様に、車両の後部屋根部分に向かって位置するハウジング108a、108b内のセンサは各々、それぞれのFOVを有する。例えば、ハウジング108aおよび108b内のライダーは、それぞれのFOV408aおよび408bを有し得、一方、ハウジング108aおよび108b内のレーダーユニット、カメラ、ならびに/または他のセンサは、それぞれのFOV409aまたは409bを有し得る。車両の後部に向かってハウジング110aおよび110b内にあるセンサは、それぞれの視野410aおよび410bを有し得る。後端にあるハウジング112内のセンサは、後方に面するFOV412を有し得る。また、車両の前方に面する方向に沿って配置された一連のセンサユニット116は、それぞれのFOV414、416、および418を有し得る。これらの視野の各々は、単なる例示であり、カバレッジレンジに関して正確な縮尺ではない。また、所与のセンサハウジングに関連付けられた1つまたは2つのFOVだけが示されているが、センサの数およびセンサの構成に応じて、より多くの(またはより少ない)視野を、該センサハウジングに関連付けることができる。
以下でさらに考察されるように、同じハウジング内において異なるタイプのセンサを同じ場所に配置することにより、強化された物体検出を提供し、車載システムが検出された物体を迅速に分類することを可能にすることができる。同じ場所に配置されたセンサは、同じまたは実質的に重なり合う視野であり得るか、または別様に補完的な視野を提供し得る。
例示的なシナリオ
カメラ、ライダー、レーダー、ならびに/またはその他のセンササブシステムの高度および向きは、車両上の様々なハウジングの配置、および車両のタイプに依存し得る。例えば、センサアセンブリが大型SUV(例えば、車両100)の屋根の上または上方に装着されている場合、高度は通常、アセンブリがセダンまたはスポーツカー(例えば、車両150)の屋根の上に装着されている場合よりも高くなる。また、配置および構造上の制限により、車両のすべてのエリアの周りで視界が等しくない場合がある。車両上の配置を変化させることで、各ハウジング内のセンサのために好適な視野を取得することができる。これは、車両にじかに隣接する(例えば、車両から1~2メートル以内または3メートル以内の)物体を検出するため、ならびに車両からより遠い物体を検出するために、非常に重要である場合がある。駐車空間から出る前に、すぐ付近をチェックすること、保護されていない左折を行うかどうかを判断することなど、様々なシナリオで、隣接する物体および遠隔の物体を検出するための要件がある場合がある。
密接検知カメラシステム
上記を考慮して、本技術の態様は、車両の閾値距離内にある物体のためのセンサスイートの一部として密接検知カメラシステムを提供する。このカメラシステムは、自動運転システムが車両から一定の距離内にある運転可能な物体と運転不可能な物体とを区別することができない場合に、車両が動かなくなるか(動いていないとき)または不自然に行動するのを防止するように設計されている。例として、密接検知カメラシステムは、例えば、車両から6~10メートル以内の閾値距離内にある物体についてのセンサ情報を提供するように構成されている。場合によっては、閾値距離は、車両から2~3メートル以内であってもよい。この情報は、車両の隣に立っている歩行者、車両に隣接して駐車している自転車もしくはオートバイ、およびボール、建設標識、または近くの付近にある可能性のあるその他の物体などの物体を検出および分類するのを助けるために使用される。
死角を最小化し、物体を検出するために、ライダーセンサを車両の周りに配置することができる。かかるセンサは、物体の存在を真に検出することができる。しかしながら、ライダー(例えば、ライダーポイントクラウド)からのセンサデータだけでは、自動運転システムが、存在する物体の種類を判断するには不十分な場合がある。近くにある物体のタイプが不明な場合、車両は、数分待って車両の周りを観察すること、クラクションを鳴らすること、ライトを点滅させることなどを行って、物体がどのように応答するかを確認すること、またはゆっくりと後退もしくは前進して、周囲のより鮮明な映像を取得することなどの、保守的な挙動を用いることができる。しかしながら、これは、物体に関する追加の有用な情報を提供しない場合があり、乗客、近くの歩行者、および他の道路利用者を苛立たせるかまたは混乱させる可能性がある。
したがって、本技術の1つの態様によれば、1つ以上のカメラを単一のセンサハウジング内にライダーセンサとともに配置して、例えば、物体が歩行者、自転車、またはトラフィックコーンであるかどうかを判断するために、物体の迅速な分類を可能にすることができる。カメラの視野は、ライダーの視野を包含し得、かつ特定の実施例では、ライダーの視野よりも大きい場合がある。これは、1つのカメラ、または補完的な視野もしくは別様に重なり合う視野を有する多数のカメラで実現され得る。例として、人が車両の隣に立っているか座っている場合がある。これは、例えば、人が車両から出るとき、近くの駐車中の車の後ろから現れたとき、または車両がオンになるか、もしくは駐車空間から出る準備をする前に、すでに死角内にいるときに、発生する可能性がある。このカメラシステムが有益であるその他のシナリオには、保護されていない旋回、高速車線変更、他の物体による対向車の遮蔽、低く装着された計測ライト(高速道路のランプなど)、ロードコーンおよびその他の建設アイテムを識別すること、ならびに小さな異物の破片(FOD)を検出することが含まれる。
検出された物体の分類は、検出された物体のサイズ、近接、および向きを判断することを含み得る。本システムは、カメラが、対象となる物体によって占められる最小閾値体積(例えば、直方体または他の3D形状の少なくとも50%)を確認することができるように構成されている。1つ実施例では、密接検知システムの各カメラは、同伴ライダーセンサと同じ場所に配置されている。例えば、カメラは、視差を回避するなどのために、ライダーセンサから1フィートまたは0.3メートル以内にあってもよい。カメラは、ライダーと同じブラケットもしくはハウジングを使用して車両に装着することができるか、または別々に装着することができる。全般的な動作では、本システムのFOVは、最大3メートル離れた車両の周りを360°見渡せるようにする必要がある。
カメラの解像度は、最小ピクセル数に基づく閾値分類を満たすのに十分でなければならない。例として、1つの分類閾値は、物体が車両から3メートル以内にある場合に、32~64ピクセル以下を使用して、選択された直方体形状の特定の物体を分類する能力であってもよい。または、代替的に、閾値分類により、0.1~0.4mrad/ピクセルの解像度要件を有するカメラが必要になる場合がある。閾値分類要件は、例えば、物体のタイプおよびシナリオ(例えば、大人または子供が車両の横に立っているか、または座っているか、100m以上離れた車両の後ろからオートバイ乗用者が近づいているかなど)によって変化する場合がある。
図5の実施例500に示されるように、カメラは、異なる潜在的に重なり合うカバレッジゾーンを提供し得る。この実施例では、最大8つ(またはそれ以上)のカメラを用いて、前部に面するFOV、側部に面するFOV、および後部に面するFOVを提供することができる。例として、FOV502aおよび502bは、車両の周りの前部左側および前部右側の領域の部分を包含する。FOV504aおよび504bは、FOV502aおよび502bと重なり合い、前部、前部左側、および前部右側の領域に沿って追加のカバレッジを提供する。FOV506は、車両の前部領域にカバーを提供する。FOV508aおよび508bは、例えば、左側/右側の領域、ならびに後部左側および後部右側の領域に沿って、車両の後部に向かって面するカバレッジを提供する。また、FOV510は、車両の後部領域に沿ったカバレッジを提供する。
カメラは、すべての周囲採光状況で動作する必要がある場合がある。したがって、異なるカメラは、車両光源(例えば、ヘッドライト、駐車ライト、後退ライト、走行ライト)および環境光源(例えば、他の車両、街灯など)からの照明に依存する場合がある。代替的にまたはさらに、IRおよび/または光学ライト照明器を配置して、カメラに照明を提供することができる。例えば、1つ以上の照明器を、センサハウジング上のカメラに隣接して配置することができる。
例として、ヘッドライトおよびブレーキライトまたは後退ライトが一部のシナリオで十分な採光を提供し得るため、前部に面するFOVおよび後部に面するFOVを有するカメラは、別個の照明を必要としない場合がある。しかしながら、側部のFOVを有するカメラでは、暗い条件で補完的な照明が必要になる場合がある。かかる補完的な採光は、カメラの近くに設置された近赤外線(NIR)エミッタを介して提供され得る。以下でさらに考察されるように、1つの構成では、一対の「サドル」照明器モジュール(例えば、NIRモジュール)をカメラのいずれかの側で用いることができ、各照明器モジュールは、他のモジュールの遮蔽を補償する。代替的に、単一のモノリシックな照明器モジュールを使用することができる。
図6A~図6Cは、例示的なカメラおよび照明器の構成を示している。特に、図6Aは、照明器がそれぞれのカメラの側部に配設されている第1の構成600を示している。ここでは、4つのカメラ(前部に面するカメラ602、後部に面するカメラ604、左側に面するカメラ606a、および右側に面するカメラ606b)が、車両の周りにそれぞれ示されている。示されるように、一対の照明器608aおよび608bが、前部カメラ602の両側に配置されている。同様に、一対のサドル照明器610aおよび610bが、後部カメラ604の両側に配置されている。しかしながら、代替の構成では、1つの照明器のみが、前部カメラ602および/または後部カメラ604の側部に配置され得る。側部カメラ606aおよび606bは、各々が該カメラの側部に配設されたそれぞれの照明器612a、612bを有する状態で示されている。これらの実施例では、照明器612は、側部カメラ606の後方に位置決めされている。ここでは、側部カメラ606は、前部照明器608aおよび608bから一部の照明を受け取ることができ、これにより、照明器612a、612bからのIR照明を補完することができる。
図6Bは、単一の照明器がそれぞれのカメラの上に配設されている第2の構成650を示している。図6Aと同様に、4つのカメラ(前部に面するカメラ652、後部に面するカメラ654、左側に面するカメラ656a、および右側に面するカメラ656b)が、車両の周りにそれぞれ示されている。示されるように、照明器658は、前部カメラ652の上に配設されている。同様に、照明器660は、後部カメラ654の上に配設されている。側部カメラ656aおよび656bは、各々が該カメラの上に配設されたそれぞれの照明器662a、662bを有する状態で示されている。代替の構成では、照明器を、それぞれのカメラの下に配設することができる。さらに別の実施例では、カメラと同じ場所に配置されていないエミッタを、屋根に沿ってなど、車両の周りのその他の場所に設置することができる。例えば、屋根の上に設置された照明器を使用して、車両の所与の側の、カメラの視野全体を照らすことができる。
これらの実施例では、単一の照明器モジュールをカメラの任意の側に設置することができる。しかしながら、投影された光の一部がある程度遮蔽されることになる。例えば、カメラの側面に単一の照明器モジュールがある状態では、カメラの反対側に大きな光の遮蔽が存在する可能性があり、これは、暗い状況では不利になる可能性がある。カメラの上に単一のモジュールがある状態では、遮蔽を低減するために、モジュールをカメラの上および前方から移動する必要がある場合がある。車両の周りの一部の場所、例えば、前部および後部、ただし、車両の側部では、車両の幅および他の側部センサの潜在的な影響に制約がある場合がある。また、カメラの下に単一のモジュールがある状態では、遮蔽により上向き照明が減少する場合がある。これは、車両の隣に立っている人など、近くの物体を分類するセンサスイートの能力に影響を与える可能性がある。したがって、潜在的な視野の遮蔽が低減されるため、対応するカメラの視野が最小になる場所に照明器モジュールを置くことが望ましい。垂直視野が水平視野よりも小さい状況では、照明器をカメラの頂部および/または下に設置することが適している場合がある。しかしながら、これは、センサスイート、車両サイズなどの他の制約により、状況によっては不可能な場合がある。
これを考慮して、図6Cは、照明器の対が各々それぞれのカメラの両側に配設されている第3の構成680を示している。図6Aおよび図6Bと同様に、4つのカメラ(前部に面するカメラ682、後部に面するカメラ684、左側に面するカメラ686a、および右側に面するカメラ686b)が、車両の周りにそれぞれ示されている。示されるように、一対の照明器688aおよび688bが、前部カメラ602の両側に配置されている。同様に、一対のサドルIR照明器690aおよび690bが、後部カメラ684の両側に配置されている。この実施例では、側部カメラ686aおよび686bは、各々が該カメラの側部に配設されたそれぞれの対の照明器692a、692b、または694a、694bを有する状態で示されている。この配置は、対応するカメラの側部、頂部、または底部に1つの照明器モジュールのみが設置されている場合に発生する可能性がある遮蔽を最小化するのを助ける。以下で考察される図7Fは、各カメラ682、684、および686の対の側部照明器の1つの配置を示している。
これらの構成のいずれにおいても、カメラレンズは、水をはじくために疎水的にコーティングされ得る。また、車載洗浄システムを使用してレンズが簡単に洗浄されるように、車両の外部に沿ってカメラを設置することができる。かかる特徴について、以下でさらに考察する。
周辺センサハウジング
本技術の態様によれば、多数の異なるセンサ(例えば、ライダー、カメラ、レーダーなど)を含む統合されたセンサアセンブリを備えたハウジングは、車両に沿って様々な場所に位置し得る。図1A~図1Cは、かかる統合されたセンサアセンブリの例示的なハウジング配置を示している。上で考察されるように、各場所は、特定の視野を有する、車両のセンサからの車両の周りの特定のカバレッジを提供する。異なる配置に大きな利益(または欠点)がある可能性があるため、各センサを、ハウジングに沿って、および他のセンサに対して、配置することは重要である。センサハウジングのうちの1つ以上は、上記のように、密接検知カメラアセンブリを有し得る。いくつかの実施例について、以下で考察する。
図7Aに示される第1の実施例では、運転者側または乗客側のドアの前にある、車両の左側または右側に沿った側部周辺ハウジング内に、センサスイートが配置されている。特に、図7Aは、左側前部クォーターパネルに沿った第1のハウジング700a、および右側前部クォーターパネルに沿った第2のハウジング700bを示す図を示している。ハウジング700bは、ハウジング700aの鏡像であってもよい。図7B~図7Fは、側部周辺ハウジング700の様々な図を示している。図7Bの斜視図および図7Cの正面図に示されるように、側部周辺ハウジング700内のセンサのスイートは、ライダーユニット702、密接検知カメラアセンブリ704、レーダーユニット706、前方に面する周辺視界カメラ708、および側部に面する周辺視界カメラ710を含む。
図7Bおよび図7Cに示されるように、レーダーユニット706は、一方の側にある前部に面するカメラおよび側部に面するカメラと、もう一方の側にあるライダーおよび密接検知カメラアセンブリとの間に配設されている。レーダーユニットと、位置合わせされたライダーと、密接検知カメラアセンブリとを分離することで、干渉および潜在的な遮蔽を回避する。
密接検知カメラアセンブリ704は、例えば、物体分類がライダーユニットによる物体検出を補完することを可能にするために、ライダーユニット702の下に配設される。ライダーユニット702の下に位置合わせされて示されているが、密接検知カメラアセンブリ704のカメラは、ライダーユニット702のおよそ0.25~0.4m以内のどこにでも位置し得る。画像分類に悪影響を与える可能性のある視差を回避するために、カメラは、センサ間に遮蔽を作り出すことなく、ライダーユニットにできるだけ近づける必要がある。また、ライダーユニット702の下に位置合わせされて示されているが、密接検知カメラアセンブリ704のカメラは、ライダーユニット702の上に配設され得る。どちらの配置でも、遮蔽および視差の可能性が最小化される。ハウジングユニットおよび/または車両の全体的な寸法の空間的制約もまた、互いに対するセンサの設置を制限する可能性がある。
図7Dおよび図7Eの左側面図および右側面図にそれぞれ示されるように、ライダーユニット702と密接検知カメラアセンブリ704との間に分離面712が存在する。分離面は、下方に傾斜した角度で配置され得る。外方に傾斜した面により、水、雪などが滑り落ちることを可能にし、センサの妨害または遮蔽の可能性が最小化される。ライダーセンサは、すぐ下の視界が制限されている可能性があるため、カメラアセンブリをライダーセンサの真下に位置合わせすることにより、ライダーによる、潜在的にライダーによって遮蔽される物体の物体検出を助ける。例えば、側面図に示されるように、密接検知カメラアセンブリ704は、車両の周りのすぐ近くをカバーするように下方に角度付けされている。
図7Fの拡大図は、アセンブリ704が、カメラ714、一対の照明器モジュール716aおよび716b、ならびに洗浄機構718a、718b、および718cのセットを含むことを示している。カメラ714のレンズへの光の漏れがないことを確実にするために、ハウジング表面から延びる延長部720が含まれ得る。各モジュール716aおよび716bは、1つ以上の所望のエリアに沿って光、例えば、IR光を集束させるために用いることができる1つ以上の二次レンズ722を含み得る。例として、これらの二次レンズ722は、照明器モジュールの視野の幅を増加させることができる。洗浄機構718は、カメラおよび/または照明器モジュールを洗浄するための、流体および/または強制空気式スプレーを含み得る。代替的にまたはさらに、1つ以上のワイパ(図示せず)を用いて、レンズを清潔に保つことができる。
図8は、例示的な遮蔽シナリオ800を示している。ライダーセンサは、例えば、180°の広いカバレッジ方位角を有し得、示されるように、該カバレッジ方位角は、影付きの三角形のエリアとして示される、ライダーセンサの下にある、車両にじかに隣接する遮蔽領域802を有し得る。密接検知カメラアセンブリは、ライダーセンサによって取得された知覚情報を補完するように構成され、下方に角度付けされているため、ライダーセンサの遮蔽領域802を軽減することができる。例えば、前部タイヤに隣接する物体がある場合、密接検知カメラアセンブリのカメラは、影付きのエリア内の線形要素804によって示されるように、該物体を検出するように構成されている。カメラが車両の側部から数センチメートル以内を見ることは実現可能ではないかもしれないが、カメラは、車両に近い物体が少なくとも50%視認可能であるように位置決めされる。1つの実施例では、カメラは、170°~200°ほどの方位角視野を有し得る。
図7Bに戻ると、上記のように、例示的な側部周辺ハウジング700内に、前方の面する周辺視界カメラ708および側部に面する周辺視界カメラ710が存在する。これらのカメラは、図9の実施例900に示されるように、最小の方位角カバレッジで前部および側部のイメージを提供するように構成されている。例えば、側部に面するカメラ710は、車両の側部に最小+/-15°のFOV902を提供するように構成され得るが、最大+/-30~40°以上を提供し得る。1つの実施例では、車両の後部に向かって15°の最小FOV904があり、車両の前部に向かって25~35°の最小FOV906があってもよい。前部に面するカメラ708は、10~20°ほどの外側方位角FOV908、および20~40°ほどの内側方位角FOV910を有し得る。場合によっては、例えば、左折の視認性の増加をもたらすために、運転者側の前部に面するカメラが、乗客側の前部に面するカメラよりも広いFOVを有する場合がある。図7Bに示されるように、前部に面するカメラ708は、側部に面するカメラ710よりも高く(または低く)配設され得る。これは、ハウジング700内の様々なセンサユニットを収容するために行われ得る。
この対のカメラは、例えば、困難な遮蔽された交差交通および保護されていない旋回のシナリオでレーダーの検出および分類を高めるために、他のセンサと組み合わせて使用され得る。1つのシナリオでは、カメラ708および710は、主に密着検知には使用されず、IR照明器なしで周囲光を使用する。側部に面した周辺視界カメラ710は、車両が交差点に少しずつ近づくか、または急旋回を行っている間に遮蔽される可能性を低減するために、ハウジング700内または車両上の他の場所のはるか前方に位置し得る。前部に面する周辺視界カメラ708はまた、車両の前の遮蔽物体の周りをよりよく見るために、可能な限りはるか前方に位置し得る。
図10は、旋回シナリオ1000の例示的な遮蔽を示している。このシナリオでは、車両1002は、破線の矢印で示されるように、左折を行う準備をしている。ここで、トラック1004または他の物体が、車両1002上にあるセンサのうちの1つの視野から別の車両1006を遮蔽する場合がある。例えば、屋根に装着されたセンサ1008は、トラック1004によって領域1012内で部分的に遮蔽されたFOV1010を有し得る。しかしながら、周辺に面するカメラ1014は、他の車両1006の少なくとも一部を見ることができる異なるFOV1016を有する。周辺に面するカメラは、対向車が存在し得る場合などに別の車両の周りで操縦すること、自律車両の後ろに遮蔽する車両がある場合に隣接する車線を後方に見ること、高速道路への進入路などを介して高速交通に合流する場合など、その他の多種多様なシナリオで有益である。
周辺ハウジングアセンブリの別の実施例を図11A~図11Cに示す。特に、図11Aおよび図11Bは、図11Cのセダンまたは他の車両の後部計器盤上にある例示的な位置1110に示される後部ハウジングアセンブリ1100を示している。位置1110は車両の後部左側上に示されているが、別の後部ハウジングアセンブリを車両の右側に配設することもできる。図11Aおよび図11Bに示されるように、第1のセンサ1102および第2のセンサ1104が、ハウジング1100内に配設されている。例として、第1のセンサ1102はレーダーセンサであり、第2のセンサはカメラである。これらのセンサは、例えば、右または左への高速車線変更を説明するために、後部から接近する他の車両に関する情報を提供することができる。
図12の実施例1200に示されるように、後部に面する周辺視界カメラは、最小の方位角カバレッジで背部イメージを提供するように構成されている。例えば、後部に面するカメラ1100は、車両の後部に30~60°のFOV1202を提供するように構成され得る。例として、後部に面するカメラは、(例えば、隣接する車線の接近する車を見るために)15~35°ほどの外側方位角、および(例えば、同じ車線の次の車両を見るために)10~25°ほどの内側方位角を有し得る。図13は、後部に面するカメラが、別様にトラックによって遮蔽されることになる、隣接する(左の)車線の接近する車を見ることができることを示す、シナリオ1300を示している。
図14Aに示される別の実施例では、例えば、車両の直接前にある物体を検出および分類するために、前部センサハウジング1400が、前部バンパに沿って、または隣接して配置されている。図14B~図14Eは、前部センサハウジング1400の様々な図を示している。図14Bの斜視図および図14Cの正面図に示されるように、前部センサハウジング1400内のセンサのスイートは、ライダーユニット1402および密接検知カメラアセンブリ1404を含む。
密接検知カメラアセンブリ1404は、例えば、物体分類がライダーユニットによる物体検出を補完することを可能にするために、ライダーユニット1402の真上に配設される。ライダーユニット1402の上に位置合わせされて示されているが、密接検知カメラアセンブリ1404のカメラは、ライダーユニット1402のおよそ0.25~0.4m以内のどこにでも位置し得る。画像分類に悪影響を与える可能性のある視差を回避するために、カメラは、センサ間に遮蔽を作り出すことなく、ライダーユニットにできるだけ近づける必要がある。また、ライダーユニット1402の上に示されているが、密接検知カメラアセンブリ1404のカメラは、ライダーユニット1402の下に配設され得る。どちらの配置でも、遮蔽が最小化される。ハウジングユニットおよび/または車両の全体的な寸法の空間的制約もまた、センサの設置を制限する可能性がある。
図14Dの側面図に示されるように、ライダーユニット1402と密接検知カメラアセンブリ1404との間に分離面1406が存在する。分離面は、例えば、水、雪などが滑り落ちることを可能にするために、ある角度で配置され得、これにより、センサの妨害または遮蔽の可能性が最小化される。側面図にも示されるように、密接検知カメラアセンブリ1404は、車両の周りのすぐ近くをカバーするように下方に角度付けされている。図14Eの拡大図は、アセンブリ1404が、カメラ1408、一対の照明器モジュール1410aおよび1410b、ならびに洗浄機構1412a、1412b、および1412cのセットを含むことを示している。カメラ1408のレンズへの光の漏れがないことを確実にするために、ハウジング表面から延びる延長部1414が含まれ得る。示されるように、各モジュール1410aおよび1410bは、1つ以上の所望のエリアに沿って光を集束させるために用いることができる1つ以上の二次レンズ1416を含み得る。洗浄機構1412は、カメラおよび/または照明器モジュールを洗浄するための、流体および/または強制空気式スプレーを含み得る。
図15は、前部センサハウジング1400の変形例1500を示している。この変形例では、ハウジング1500は、ライダーユニット1402と、IR照明器モジュールおよび洗浄機構が省略されている密接検知カメラ1502と、を含む。照明のない別の変形例では、洗浄機構が含まれ得る。同様に、洗浄機構のないさらなる変形例では、照明が含まれ得る。
図16Aに示される別の実施例では、例えば、車両の直接後ろにある物体を検出および分類するために、後部センサハウジング1600が、後部バンパに沿って、または隣接して配置されている。図16B~図16Eは、後部センサハウジング1600の様々な図を示している。図16Bの斜視図および図16Cの正面図に示されるように、前部センサハウジング1600内のセンサのスイートは、ライダーユニット1602および密接検知カメラアセンブリ1604を含む。
密接検知カメラアセンブリ1604は、例えば、物体分類がライダーユニットによる物体検出を補完することを可能にするために、ライダーユニット1602の真上に配設される。ライダーユニット1602の上に位置合わせされて示されているが、密接検知カメラアセンブリ1604のカメラは、ライダーユニット1602のおよそ0.25~0.4m以内のどこにでも位置し得る。画像分類に悪影響を与える可能性のある視差を回避するために、カメラは、センサ間に遮蔽を作り出すことなく、ライダーユニットにできるだけ近づける必要がある。また、ライダーユニット1602の上に示されているが、密接検知カメラアセンブリ1604のカメラは、ライダーユニット1602の下に配設され得る。どちらの配置でも、遮蔽が最小化される。ハウジングユニットおよび/または車両の全体的な寸法の空間的制約もまた、センサの設置を制限する可能性がある。
図16Dの側面図に示されるように、ライダーユニット1602と密接検知カメラアセンブリ1604との間に分離面1606が存在する。分離面は、例えば、水、雪などが滑り落ちることを可能にするために、ある角度で配置され得、これにより、センサの妨害または遮蔽の可能性が最小化される。側面図にも示されるように、密接検知カメラアセンブリ1604は、車両の周りのすぐ近くをカバーするように下方に角度付けされている。図16Eの拡大図は、アセンブリ1604が、カメラ1608、一対の照明器モジュール1610aおよび1610b、ならびに洗浄機構1612a、1612b、および1612cのセットを含むことを示している。カメラ1608のレンズへの光の漏れがないことを確実にするために、ハウジング表面から延びる延長部1614が含まれ得る。示されるように、各モジュール1610aおよび1610bは、1つ以上の所望のエリアに沿って光を集束させるために用いることができる1つ以上の二次レンズ1616を含み得る。洗浄機構1612は、カメラおよび/または照明器モジュールを洗浄するための、流体および/または強制空気式スプレーを含み得る。
図17は、前部センサハウジング1600の変形例1700を示している。この変形例では、ハウジング1700は、ライダーユニット1602と、照明器モジュールおよび洗浄機構が省略されている密接検知カメラ1702と、を含む。照明のない別の変形例では、洗浄機構が含まれ得る。同様に、洗浄機構のないさらなる変形例では、照明が含まれ得る。
上記のように、様々なセンサハウジングの密接検知カメラは、下方角度に配置されている。例として、該カメラは、より低い視野カバレッジを最大化し、対応するライダーのFOVを可能な限り多くカバーするために、20~40°ほどの下方角度を有し得る。これは、これらのカメラが、ライダーの検出および分類を高めるためである。密接検知カメラアセンブリおよびライダーユニットを同じ場所に配置するための異なる配置が示されているが、概して、各カメラは、該カメラがすべての場合においてライダーに対する遮蔽を最小化するように、各カメラのライダーユニットに対して設置される。
センサの洗浄は、知覚システムを適切かつ効果的に動作させるために重要である。車両が自律運転モードで動作しているときに、様々なセンサを洗浄するための異なるオプションがある。例えば、洗浄システムは、洗浄流体をカメラ(およびIRエミッタ)にスプレーすること、ワイパおよび/または空気パファーを使用することができる。スプレー器または他の洗浄ユニットが、センサに対して固定位置にあってもよいし、または必要に応じてユニットを洗浄するために外に伸縮するように構成されていてもよい。洗浄ユニットは、センサハウジング内のセンサのいずれかの遮蔽、または別様にセンサのFOVへの影響を回避するように配置する必要がある。例えば、洗浄機構718、1412、および1612のスプレー器先端は、カメラを遮蔽せず、かつカメラに光が反射しないように位置決めされる。
洗浄に加えて、センサは、カメラまたは他のセンサから結露もしくは霜を排除するために、例えば、熱を提供することによって調整され得る。例として、前部ガラスとカメラユニットのハウジングとの間に挟まれた加熱要素などの霜取りヒーターが、各周辺視界カメラの前部窓要素に沿って位置決めされ得る。
シュラウドまたは他の構造を用いて、汚れおよび他の異物がセンサをカバーすることを制限することができる。しかしながら、洗浄要素と同様に、シュラウドがセンサを遮蔽したり、または別様にセンサのFOVに影響を与えるべきではない。カメラまたは照明エミッタの場合、水分の蓄積を最小化するために、疎水性コーティングをガラスまたはプラスチックのカバーに適用することができる。
洗浄ユニットのタイプおよび設置を選択するときに、ハウジング内および車両に沿ったセンサの位置決めを考慮する必要がある。例として、側部ミラーアセンブリ内に位置するカメラを洗浄するのは難しい場合がある。例えば、特定の地点に流体をスプレーするのが難しい場合、または流体を、車両を通して、洗浄ユニットまでルート付けする方法に制限がある場合がある(例えば、洗浄ユニットがドアの上に位置する場合対ドアから離れて位置する場合)。洗浄機構のタイプは、そのセンサが自律運転にとってどれほど重要であるかに応じて選ぶことができる。例として、前部センサハウジングユニットの洗浄は、後部センサハウジングユニットの洗浄よりも重要な場合がある。これは、先行車両の明瞭な視界が、後続車両の視界よりも特定の運転動作に関連していると判断され得るためである。そのため、冗長な(例えば、スプレーシステムとワイパ)洗浄モジュールを、より重要なセンサハウジングに用いることができる。他のセンサハウジングの場合、冗長な洗浄機構がない場合がある。この場合、洗浄機構は、特定の速度(例えば、35~45mph未満)または車両が静止しているときにのみ作動し得る。これは、洗浄が、他のセンサハウジングよりも時間の影響を受けにくい場合があるためである。
図18は、上記の特定の行為による方法のフロー図1800を示している。ブロック1802では、自律運転モードで動作するように構成された車両の制御システムは、車両の周りの領域内の閾値距離内にあるライダーデータを取得するために、車両の知覚システムのライダーセンサの動作を模倣する。例えば、閾値距離は、車両から1~3メートル以内であってもよい。ブロック1804では、制御システムは、車両が運転行為を実施する前に、知覚システムの画像センサによる画像キャプチャを開始する。画像センサは、ライダーセンサに隣接して配設され、かつ閾値距離内にある車両の周りの領域の重なり合う視野を有するように車両に沿って配置されている。画像センサは、閾値距離内の物体に、選択された解像度を提供する。ブロック1806では、制御システムは、ライダーセンサからライダーデータを受信し、画像センサから、キャプチャされたイメージを受信する。これは、同時にまたは順次行われ得る。ブロック1808では、制御システムは、ライダーデータを処理して、車両の閾値距離内にある領域内の物体を検出する。ブロック1810では、制御システムは、キャプチャされたイメージを処理して、検出された物体を分類する。また、ブロック1812では、制御システムは、検出された物体の分類に基づいて、車両の1つ以上のシステムに運転行為を実施させるかどうかを判断する。
特段の記述がない限り、前述の実施例および実施形態は、相互に排他的ではないが、独自の有益点を達成するために様々な組み合わせで実装され得る。上で考察された機能のこれらおよび他の変形および組み合わせは、特許請求の範囲によって定義される主題から逸脱することなく利用することができるので、実施形態の前述の説明は、特許請求の範囲によって定義される主題を限定するものとしてではなく、例示としてみなされるべきである。加えて、本明細書に記載された実施例、ならびに「など(such as)」、「含む(including)」などと表現された語句の提供は、特許請求の範囲の主題を特定の実施例または実施形態に限定するものと解釈されるべきではない。さらに、異なる図面中の同じ参照番号は、同じまたは類似の要素を特定することができる。プロセスまたは他の動作は、本明細書で特に明記しない限り、異なる順序で、または同時に実施されてもよい。

Claims (21)

  1. 自律運転モードで動作するように構成された車両のための外部検知システムであって、前記外部検知システムが、
    前記車両の周りの外部環境の少なくともある領域内、および前記車両の閾値距離内にある物体を検出するように構成された視野を有するライダーセンサと、
    前記ライダーセンサに隣接して配設され、かつ前記車両の前記閾値距離内にある前記外部環境の前記領域の重なり合う視野を有するように前記車両に沿って配置された画像センサであって、前記画像センサが、前記閾値距離内の物体に、選択された解像度を提供する、画像センサと、
    前記画像センサおよび前記ライダーセンサに動作可能に連結された制御システムと、を備え、前記制御システムが、
    前記ライダーセンサの動作を開始して、前記車両の前記閾値距離内にある前記領域内のライダーデータを取得することと、
    前記車両が運転行為を実施する前に、前記画像センサによる画像キャプチャを開始することと、
    前記ライダーセンサから前記ライダーデータを受信し、前記画像センサから、前記キャプチャされたイメージを受信することと、
    前記ライダーデータの処理を実施して、前記車両の前記閾値距離内にある前記領域内の物体を検出することと、
    前記キャプチャされたイメージの処理を実施して、前記検出された物体を分類することと、
    前記検出された物体の分類に基づいて、前記車両の1つ以上のシステムに前記運転行為を実施させるかどうかを判断することと、を行うように構成された1つ以上のプロセッサを含む、外部検知システム。
  2. 前記検出された物体の分類が、前記検出された物体のサイズ、近接、または向きのうちの少なくとも1つを判断することを含む、請求項1に記載の外部検知システム。
  3. 前記画像センサが、前記検出された物体によって占められる最小閾値体積を観察するように構成されている、請求項1に記載の外部検知システム。
  4. 前記最小閾値体積が、前記検出された物体を包含する3D形状の少なくとも50%である、請求項3に記載の外部検知システム。
  5. 前記画像センサが、前記ライダーセンサから0.3メートル以内に配設されている、請求項1に記載の外部検知システム。
  6. 前記画像センサおよび前記ライダーセンサが、前記車両の外部表面上に配置された同じセンサハウジング内に配設されている、請求項1に記載の外部検知システム。
  7. 前記閾値距離が、前記車両から3メートル以内である、請求項1に記載の外部検知システム。
  8. 前記画像センサのレンズが、疎水性コーティングを有する、請求項1に記載の外部検知システム。
  9. 前記画像センサが、密接検知カメラシステムの一部であり、前記密接検知カメラシステムが、前記画像センサの前記視野を照らすように構成された少なくとも1つの照明器をさらに含む、請求項1に記載の外部検知システム。
  10. 前記少なくとも1つの照明器が、前記画像センサの片側に隣接して配置されている、請求項9に記載の外部検知システム。
  11. 前記少なくとも1つの照明器が、前記画像センサの上に配置されている、請求項9に記載の外部検知システム。
  12. 前記少なくとも1つの照明器が、前記画像センサの両側の上に配置された一対の照明器を備える、請求項9に記載の外部検知システム。
  13. 前記密接検知カメラシステムが、前記画像センサおよび/または前記少なくとも1つの照明器を洗浄するように構成された少なくとも1つの洗浄機構をさらに含む、請求項9に記載の外部検知システム。
  14. 前記画像センサが、前記ライダーセンサの下に垂直に位置合わせされている、請求項1に記載の外部検知システム。
  15. 前記画像センサが、前記ライダーセンサの上に垂直に位置合わせされている、請求項1に記載の外部検知システム。
  16. 自律運転モードで動作するように構成された車両であって、前記車両が、
    運転システムであって、
    前記車両のブレーキを制御するように構成された減速システム、
    前記車両の加速を制御するように構成された加速システム、および
    車輪の向きと前記車両の方向を制御するように構成されたステアリングシステム、を含む、運転システムと、

    外部検知システムと、を備え、前記外部検知システムが、
    前記車両の周りの外部環境の少なくともある領域内、および前記車両の閾値距離内にある物体を検出するように構成された視野を有するライダーセンサ、
    前記ライダーセンサに隣接して配設され、かつ前記車両の前記閾値距離内にある前記外部環境の前記領域の重なり合う視野を有するように前記車両に沿って配置された画像センサであって、前記画像センサが、前記閾値距離内の物体に、選択された解像度を提供する、画像センサ、および
    前記画像センサおよび前記ライダーセンサに動作可能に連結された制御システム、を含み、前記制御システムが、
    前記ライダーセンサの動作を開始して、前記車両の前記閾値距離内にある前記領域内のライダーデータを取得すること、
    前記運転システムが運転行為を実施する前に、前記画像センサによる画像キャプチャを開始すること、
    前記ライダーセンサから前記ライダーデータを受信し、前記画像センサから、前記キャプチャされたイメージを受信すること、
    前記ライダーデータの処理を実施して、前記車両の前記閾値距離内にある前記領域内の物体を検出すること、
    前記キャプチャされたイメージの処理を実施して、前記検出された物体を分類すること、および
    前記検出された物体の分類に基づいて、前記車両の1つ以上のシステムに前記運転行為を実施させるかどうかを判断することと、を行うように構成された1つ以上のプロセッサを含む、車両。
  17. 前記画像センサが、前記検出された物体によって占められる最小閾値体積を観察するように構成されている、請求項16に記載の車両。
  18. 前記画像センサが、前記ライダーセンサから0.3メートル以内に配設されている、請求項16に記載の車両。
  19. 前記画像センサおよび前記ライダーセンサが、前記車両の外部表面上に配置された同じセンサハウジング内に配設されている、請求項16に記載の車両。
  20. 方法であって、
    自律運転モードで動作するように構成された車両の制御システムによって、前記車両の知覚システムのライダーセンサの動作を開始して、前記車両の周りの領域内の閾値距離内にあるライダーデータを取得することと、
    前記制御システムによって、前記車両が運転行為を実施する前に、前記知覚システムの画像センサによる画像キャプチャを開始することであって、前記画像センサが、前記ライダーセンサに隣接して配設され、かつ前記閾値距離内にある前記車両の周りの前記領域の重なり合う視野を有するように前記車両に沿って配置され、前記画像センサが、前記閾値距離内の物体に、選択された解像度を提供することと、
    前記制御システムによって、前記ライダーセンサから前記ライダーデータを受信し、前記画像センサから、前記キャプチャされたイメージを受信することと、
    前記制御システムによって、前記ライダーデータを処理して、前記車両の前記閾値距離内にある前記領域内の物体を検出することと、
    前記制御システムによって、前記キャプチャされたイメージを処理して、前記検出された物体を分類することと、
    前記制御システムによって、前記検出された物体の分類に基づいて、前記車両の1つ以上のシステムに前記運転行為を実施させるかどうかを判断することと、を含む、方法。
  21. 前記検出された物体の分類が、前記検出された物体のサイズ、近接、または向きのうちの少なくとも1つを判断することを含む、請求項20に記載の方法。
JP2022536697A 2019-12-30 2020-11-19 密着検知カメラシステム Active JP7454674B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201962954930P 2019-12-30 2019-12-30
US62/954,930 2019-12-30
US16/737,263 2020-01-08
US16/737,263 US11557127B2 (en) 2019-12-30 2020-01-08 Close-in sensing camera system
PCT/US2020/061260 WO2021137964A1 (en) 2019-12-30 2020-11-19 Close-in sensing camera system

Publications (2)

Publication Number Publication Date
JP2023507940A true JP2023507940A (ja) 2023-02-28
JP7454674B2 JP7454674B2 (ja) 2024-03-22

Family

ID=76547020

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2022536697A Active JP7454674B2 (ja) 2019-12-30 2020-11-19 密着検知カメラシステム

Country Status (7)

Country Link
US (3) US11557127B2 (ja)
EP (1) EP4061683A4 (ja)
JP (1) JP7454674B2 (ja)
KR (1) KR102665624B1 (ja)
CN (1) CN115066360A (ja)
CA (1) CA3164984A1 (ja)
WO (1) WO2021137964A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US11247616B2 (en) * 2019-07-25 2022-02-15 Ford Global Technologies, Llc Sensor airflow apparatus
US11453348B2 (en) * 2020-04-14 2022-09-27 Gm Cruise Holdings Llc Polyhedral sensor calibration target for calibrating multiple types of sensors
US11743564B2 (en) * 2020-10-22 2023-08-29 Uatc, Llc Sensor platform for autonomous vehicles
JP7283461B2 (ja) * 2020-11-19 2023-05-30 トヨタ自動車株式会社 車両制御装置
CN112455353A (zh) * 2021-01-07 2021-03-09 蔚来汽车科技(安徽)有限公司 一种支架、支架总成、车顶装置以及车辆
CN112671499B (zh) * 2021-03-16 2022-04-01 深圳安途智行科技有限公司 多传感器同步方法及***、以及主控制设备
WO2023122131A1 (en) * 2021-12-23 2023-06-29 Stoneridge Electronics Ab Camera monitor system including integrated range sensor
US12008681B2 (en) * 2022-04-07 2024-06-11 Gm Technology Operations Llc Systems and methods for testing vehicle systems
US20240059311A1 (en) * 2022-08-18 2024-02-22 Gm Cruise Holdings Llc Automated window closure
US20240106987A1 (en) * 2022-09-20 2024-03-28 Waymo Llc Multi-Sensor Assembly with Improved Backward View of a Vehicle

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120265416A1 (en) * 2009-07-27 2012-10-18 Magna Electronics Inc. Vehicular camera with on-board microcontroller
JP2017520443A (ja) * 2014-04-16 2017-07-27 ディエルエイチ・ボウルズ・インコーポレイテッドdlhBOWLES Inc. 複数の画像センサを同時に清掃するための統合的複数画像センサ及びレンズ洗浄ノズルアセンブリ及びその方法
US20180244195A1 (en) * 2017-02-24 2018-08-30 Tesla, Inc. Vehicle technologies for automated turn signaling
JP2019158662A (ja) * 2018-03-14 2019-09-19 トヨタ自動車株式会社 物標認識装置及び車両走行制御システム
US20190384313A1 (en) * 2018-06-14 2019-12-19 Waymo Llc Camera ring structure for autonomous vehicles

Family Cites Families (57)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US7796081B2 (en) 1997-10-22 2010-09-14 Intelligent Technologies International, Inc. Combined imaging and distance monitoring for vehicular applications
JP4312880B2 (ja) 1999-06-03 2009-08-12 エルベックスビデオ株式会社 テレビカメラ
JP4285092B2 (ja) 2003-05-23 2009-06-24 市光工業株式会社 カメラユニット付きアウターミラー
WO2005088962A1 (ja) 2004-03-16 2005-09-22 Hiroshi Arisawa 追尾装置、及びモーションキャプチャ装置
JP2007187618A (ja) 2006-01-16 2007-07-26 Omron Corp 物体識別装置
US8330647B2 (en) * 2006-06-08 2012-12-11 Vista Research, Inc. Sensor suite and signal processing for border surveillance
US20100157280A1 (en) * 2008-12-19 2010-06-24 Ambercore Software Inc. Method and system for aligning a line scan camera with a lidar scanner for real time data fusion in three dimensions
DE102009002626A1 (de) 2009-04-24 2010-10-28 Robert Bosch Gmbh Sensoranordnung für Fahrerassistenzsysteme in Kraftfahrzeugen
RU2012137375A (ru) 2010-02-01 2014-03-10 Янгкук Электроникс Ко., Лтд Камера слежения и наблюдения и система дистанционного наблюдения с таким же применением
IL204089A (en) * 2010-02-21 2014-06-30 Elbit Systems Ltd A method and system for detection and tracking based on frequency multiplicity and multiplicity
US8671504B2 (en) * 2010-04-28 2014-03-18 Denso Corporation Cover of vehicle optical sensor and vehicle optical sensor device
KR101030763B1 (ko) 2010-10-01 2011-04-26 위재영 이미지 획득 유닛, 방법 및 연관된 제어 유닛
US8958911B2 (en) 2012-02-29 2015-02-17 Irobot Corporation Mobile robot
CN103608696B (zh) 2012-05-22 2016-05-11 韩国生产技术研究院 3d扫描***和获得3d图像的方法
US9234618B1 (en) 2012-09-27 2016-01-12 Google Inc. Characterizing optically reflective features via hyper-spectral sensor
GB201303076D0 (en) * 2013-02-21 2013-04-10 Isis Innovation Generation of 3D models of an environment
US9831630B2 (en) 2014-02-06 2017-11-28 GM Global Technology Operations LLC Low cost small size LiDAR for automotive
KR101644370B1 (ko) * 2014-10-23 2016-08-01 현대모비스 주식회사 물체 검출 장치 및 그 동작 방법
US9625582B2 (en) * 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
KR101957794B1 (ko) * 2015-10-05 2019-03-13 엘지전자 주식회사 카메라 모듈 및 카메라 모듈의 결로방지 시스템
WO2018105136A1 (ja) 2016-12-06 2018-06-14 本田技研工業株式会社 車両周辺情報取得装置および車両
US10254215B2 (en) * 2016-04-07 2019-04-09 Verifood, Ltd. Spectrometry system applications
US20170297488A1 (en) 2016-04-19 2017-10-19 GM Global Technology Operations LLC Surround view camera system for object detection and tracking
CN107444264A (zh) * 2016-05-31 2017-12-08 法拉第未来公司 使用相机检测车辆附近的物体
US20170357267A1 (en) 2016-06-10 2017-12-14 Cnh Industrial America Llc Autonomous work vehicle obstacle detection system
US10093311B2 (en) * 2016-07-06 2018-10-09 Waymo Llc Testing predictions for autonomous vehicles
EP3786007B1 (en) 2016-07-18 2022-07-06 Uatc, Llc Sensor cleaning system for vehicles
US10203696B2 (en) * 2016-07-26 2019-02-12 Waymo Llc Determining drivability of objects for autonomous vehicles
US20180032822A1 (en) 2016-08-01 2018-02-01 Ford Global Technologies, Llc Vehicle exterior monitoring
KR102462502B1 (ko) 2016-08-16 2022-11-02 삼성전자주식회사 스테레오 카메라 기반의 자율 주행 방법 및 그 장치
US10852418B2 (en) 2016-08-24 2020-12-01 Magna Electronics Inc. Vehicle sensor with integrated radar and image sensors
US10210760B2 (en) * 2016-09-21 2019-02-19 Dura Operating, Llc System and method for autonomous parking of a vehicle
US20180095473A1 (en) 2016-10-03 2018-04-05 Navya Autonomous electric vehicle for transportation of goods and/or people
JP7157054B2 (ja) 2017-01-26 2022-10-19 モービルアイ ビジョン テクノロジーズ リミテッド 整合画像及びlidar情報に基づいた車両ナビゲーション
US20180288320A1 (en) * 2017-04-03 2018-10-04 Uber Technologies, Inc. Camera Fields of View for Object Detection
US10677897B2 (en) 2017-04-14 2020-06-09 Luminar Technologies, Inc. Combining lidar and camera data
CN110537109B (zh) 2017-04-28 2024-02-20 深圳市大疆创新科技有限公司 用于自主驾驶的感测组件
US20180372875A1 (en) 2017-06-27 2018-12-27 Uber Technologies, Inc. Sensor configuration for an autonomous semi-truck
US10447973B2 (en) 2017-08-08 2019-10-15 Waymo Llc Rotating LIDAR with co-aligned imager
KR102058050B1 (ko) 2017-08-16 2019-12-20 엘지전자 주식회사 운행 보조 시스템 및 차량
US10523880B2 (en) 2017-09-28 2019-12-31 Waymo Llc Synchronized spinning LIDAR and rolling shutter camera system
CN109709530A (zh) 2017-10-26 2019-05-03 株式会社小糸制作所 传感***及车辆
US10628962B2 (en) * 2017-11-08 2020-04-21 Worldcam Llc Determining vehicle dwell time within predetermined zones
GB2569654B (en) 2017-12-22 2022-09-07 Sportlight Tech Ltd Apparatusses, systems and methods for object tracking
CN108189777A (zh) 2017-12-27 2018-06-22 江苏远洋车灯有限公司 一种带有全景摄像的车灯
US20190204845A1 (en) 2017-12-29 2019-07-04 Waymo Llc Sensor integration for large autonomous vehicles
JP6947849B2 (ja) 2018-01-18 2021-10-13 本田技研工業株式会社 車両制御装置
CN108332716A (zh) 2018-02-07 2018-07-27 徐州艾特卡电子科技有限公司 一种自动驾驶汽车环境感知***
JP6926020B2 (ja) 2018-03-29 2021-08-25 ヤンマーパワーテクノロジー株式会社 障害物検知システム
CN208238805U (zh) 2018-03-30 2018-12-14 郑州宇通客车股份有限公司 一种自动驾驶客车环境感知***及自动驾驶客车
JP6522255B1 (ja) 2018-04-24 2019-05-29 三菱電機株式会社 行動選択装置、行動選択プログラム及び行動選択方法
DE102018004782A1 (de) * 2018-06-15 2019-12-19 Daimler Ag Verfahren und Vorrichtung zum Erfassen einer Umgebung, sowie Fahrzeug mit einer solchen Vorrichtung
CN109308714A (zh) 2018-08-29 2019-02-05 清华大学苏州汽车研究院(吴江) 基于分类惩罚的摄像头和激光雷达信息配准方法
US10674052B1 (en) 2018-12-12 2020-06-02 Valeo North America, Inc. Common cover lens for camera and illuminators
KR101998298B1 (ko) 2018-12-14 2019-07-09 위고코리아 주식회사 카메라 및 라이다 센서를 이용한 차량 자율주행방법
US10793094B2 (en) * 2019-02-20 2020-10-06 Ford Global Technologies, Llc Communication grille assembly
US11161502B2 (en) * 2019-08-13 2021-11-02 Zoox, Inc. Cost-based path determination

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US20120265416A1 (en) * 2009-07-27 2012-10-18 Magna Electronics Inc. Vehicular camera with on-board microcontroller
JP2017520443A (ja) * 2014-04-16 2017-07-27 ディエルエイチ・ボウルズ・インコーポレイテッドdlhBOWLES Inc. 複数の画像センサを同時に清掃するための統合的複数画像センサ及びレンズ洗浄ノズルアセンブリ及びその方法
US20180244195A1 (en) * 2017-02-24 2018-08-30 Tesla, Inc. Vehicle technologies for automated turn signaling
JP2019158662A (ja) * 2018-03-14 2019-09-19 トヨタ自動車株式会社 物標認識装置及び車両走行制御システム
US20190384313A1 (en) * 2018-06-14 2019-12-19 Waymo Llc Camera ring structure for autonomous vehicles

Also Published As

Publication number Publication date
EP4061683A1 (en) 2022-09-28
EP4061683A4 (en) 2023-12-06
KR20220102658A (ko) 2022-07-20
CA3164984A1 (en) 2021-07-08
US20210201054A1 (en) 2021-07-01
US20230186643A1 (en) 2023-06-15
US11557127B2 (en) 2023-01-17
KR102665624B1 (ko) 2024-05-20
JP7454674B2 (ja) 2024-03-22
US11887378B2 (en) 2024-01-30
WO2021137964A1 (en) 2021-07-08
CN115066360A (zh) 2022-09-16
US20240144697A1 (en) 2024-05-02

Similar Documents

Publication Publication Date Title
JP7457811B2 (ja) 周囲センサハウジング
JP7454674B2 (ja) 密着検知カメラシステム
JP6981218B2 (ja) 車両用洗浄システム
US10373378B2 (en) Augmented reality system for vehicle blind spot prevention
US11801905B2 (en) Efficient autonomous trucks
DE102017206228A1 (de) Fahrzeug und Verfahren zum Steuern desselben
CN111566511A (zh) 大型自主车辆的传感器集成
US10803643B2 (en) Electronic device and user interface apparatus for vehicle
WO2011035882A2 (de) Nachrüstsystem für ein fahrzeug, nachrüstkomponente und verfahren zum durchführen einer funktion zur fahrerunterstützung
US11822011B2 (en) Mirrors to extend sensor field of view in self-driving vehicles
CN114556253A (zh) 自驾驶车辆中的传感器视场
US11977165B2 (en) Self-reflection filtering
US20220063509A1 (en) Moving body
US11919451B2 (en) Vehicle data display system
US20220063656A1 (en) Moving body
US11965991B1 (en) Surface fouling detection

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220802

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230731

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230804

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231102

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240216

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240311

R150 Certificate of patent or registration of utility model

Ref document number: 7454674

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150