JP2021509237A - 高速画像読み出しおよび処理 - Google Patents

高速画像読み出しおよび処理 Download PDF

Info

Publication number
JP2021509237A
JP2021509237A JP2020534966A JP2020534966A JP2021509237A JP 2021509237 A JP2021509237 A JP 2021509237A JP 2020534966 A JP2020534966 A JP 2020534966A JP 2020534966 A JP2020534966 A JP 2020534966A JP 2021509237 A JP2021509237 A JP 2021509237A
Authority
JP
Japan
Prior art keywords
vehicle
sensor
camera
image
image data
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020534966A
Other languages
English (en)
Other versions
JP7080977B2 (ja
Inventor
ウェンデル,アンドリアス
ディットマー,ジェレミー
ハーマリン,ブレンダン
Original Assignee
ウェイモ エルエルシー
ウェイモ エルエルシー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ウェイモ エルエルシー, ウェイモ エルエルシー filed Critical ウェイモ エルエルシー
Publication of JP2021509237A publication Critical patent/JP2021509237A/ja
Application granted granted Critical
Publication of JP7080977B2 publication Critical patent/JP7080977B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/90Arrangement of cameras or camera modules, e.g. multiple cameras in TV studios or sports stadiums
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T7/00Image analysis
    • G06T7/20Analysis of motion
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/45Cameras or camera modules comprising electronic image sensors; Control thereof for generating image signals from two or more image sensors being of different type or operating in different modes, e.g. with a CMOS sensor for moving images in combination with a charge-coupled device [CCD] for still images
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/57Mechanical or electrical details of cameras or camera modules specially adapted for being embedded in other devices
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/698Control of cameras or camera modules for achieving an enlarged field of view, e.g. panoramic image capture
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/80Camera processing pipelines; Components thereof
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/95Computational photography systems, e.g. light-field imaging systems
    • H04N23/951Computational photography systems, e.g. light-field imaging systems by using two or more images to influence resolution, frame rate or aspect ratio
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N25/00Circuitry of solid-state image sensors [SSIS]; Control thereof
    • H04N25/50Control of the SSIS exposure
    • H04N25/57Control of the dynamic range
    • H04N25/58Control of the dynamic range involving two or more exposures
    • H04N25/581Control of the dynamic range involving two or more exposures acquired simultaneously
    • H04N25/583Control of the dynamic range involving two or more exposures acquired simultaneously with different integration times
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/907Television signal recording using static stores, e.g. storage tubes or semiconductor memories
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/91Television signal processing therefor
    • H04N5/917Television signal processing therefor for bandwidth reduction
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N7/00Television systems
    • H04N7/12Systems in which the television signal is transmitted via one channel or a plurality of parallel channels, the bandwidth of each channel being less than the bandwidth of the television signal
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N9/00Details of colour television systems
    • H04N9/79Processing of colour television signals in connection with recording
    • H04N9/80Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback
    • H04N9/804Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components
    • H04N9/8042Transformation of the television signal for recording, e.g. modulation, frequency changing; Inverse transformation for playback involving pulse code modulation of the colour picture signal components involving data reduction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/0003Arrangements for holding or mounting articles, not otherwise provided for characterised by position inside the vehicle
    • B60R2011/0026Windows, e.g. windscreen
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R2011/0001Arrangements for holding or mounting articles, not otherwise provided for characterised by position
    • B60R2011/004Arrangements for holding or mounting articles, not otherwise provided for characterised by position outside the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06TIMAGE DATA PROCESSING OR GENERATION, IN GENERAL
    • G06T2207/00Indexing scheme for image analysis or image enhancement
    • G06T2207/30Subject of image; Context of image processing
    • G06T2207/30248Vehicle exterior or interior
    • G06T2207/30252Vehicle exterior; Vicinity of vehicle

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • Theoretical Computer Science (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • General Physics & Mathematics (AREA)
  • Mechanical Engineering (AREA)
  • Computing Systems (AREA)
  • Human Computer Interaction (AREA)
  • Electromagnetism (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Traffic Control Systems (AREA)
  • Studio Devices (AREA)

Abstract

車両用の光学系は、複数のカメラセンサを伴って構成され得る。各カメラセンサは、それぞれの視野のそれぞれの画像データを作成するように構成され得る。光学系は、複数のカメラセンサに結合された複数の画像処理ユニットを伴ってさらに構成されている。画像処理ユニットは、カメラセンサによって捕捉された画像データを圧縮するように構成されている。コンピューティングシステムは、圧縮画像データをメモリに格納するように構成されている。コンピューティングシステムは、圧縮画像データに基づいて車両を制御するように構成された車両制御プロセッサを伴ってさらに構成されている。光学系とコンピューティングシステムとは、データバスによって通信可能に結合され得る。【選択図】図3B

Description

関連出願の相互参照
本出願は、2017年12月29日に出願された米国仮特許出願第62/612,294号に対する優先権を主張し、その内容全体は、参照により本明細書に組み込まれる。
車両は、どのような車輪付き、動力付き車両であってもよく、自動車、トラック、オートバイ、バスなどを含み得る。車両は、人および物品の輸送などの様々な仕事にも、また他の多くの用途にも利用され得る。
一部の車両は、部分的または完全に自律型である場合がある。例えば、車両が自律モードにある場合、車両動作の運転面の一部またはすべては、自律車両システム(すなわち、自律車両の制御を容易にするために個別または集合的に機能する任意の1つ以上のコンピュータシステム)によって操作することができる。このような場合、オンボードおよび/またはサーバネットワークに位置付けられたコンピューティングデバイスは、運転ルートの計画、車両の方位の感知、車両の環境の感知、ならびにステアリング、スロットル、およびブレーキなどの運転構成要素の制御などの機能を実行するように動作可能であり得る。このため、自律車両は、車両動作の様々な局面における人間の相互作用の必要性を低減または排除し得る。
一態様では、本出願は、装置を説明する。装置は、光学系を含む。光学系は、複数のカメラセンサを伴って構成され得る。各カメラセンサは、それぞれのカメラセンサの視野のそれぞれの画像データを作成するように構成され得る。光学系は、複数のカメラセンサに結合された複数の画像処理ユニットを伴ってさらに構成される。画像処理ユニットは、カメラセンサによって捕捉された画像データを圧縮するように構成される。装置は、コンピューティングシステムを有するようにさらに構成される。コンピューティングシステムは、圧縮画像データを格納するように構成されたメモリを伴って構成される。コンピューティングシステムは、圧縮画像データに基づいて装置を制御するように構成された車両制御プロセッサを伴ってさらに構成される。装置の光学系とコンピューティングシステムとは、光学系とコンピューティングシステムとの間で圧縮画像データを通信するように構成されたデータバスを介して結合される。
別の態様では、本出願は、光学系を動作させる方法を説明する。この方法は、光学系の複数のセンサに光を与えて、各それぞれのカメラセンサに画像データを作成することを含む。画像データは、それぞれのカメラセンサの視野に対応する。この方法は、複数のカメラセンサに結合された複数の画像処理ユニットによって画像データを圧縮することをさらに含む。加えて、この方法は、複数の画像処理ユニットからコンピューティングシステムに圧縮画像データを通信することを含む。さらに、この方法は、コンピューティングシステムのメモリに圧縮画像データを格納することを含む。さらにまた、この方法は、コンピューティングシステムの車両制御プロセッサによって、圧縮画像データに基づいて装置を制御することを含む。
さらに別の態様において、本出願は、車両を説明する。車両は、ルーフマウント式センサユニットを含む。ルーフマウント式センサユニットは、第1の複数のカメラセンサを伴って構成された第1の光学系を含む。第1の複数のカメラセンサの各カメラセンサは、それぞれのカメラセンサの視野のそれぞれの画像データを作成する。ルーフマウント式センサユニットは、第1の複数のカメラセンサに結合された複数の第1の画像処理ユニットも含む。第1の画像処理ユニットは、カメラセンサによって捕捉された画像データを圧縮するように構成される。車両は、第2のカメラユニットも含む。第2のカメラユニットは、第2の複数のカメラセンサを伴って構成された第2の光学系を含む。第2の複数のカメラセンサの各カメラセンサは、それぞれのカメラセンサの視野のそれぞれの画像データを作成する。第2のカメラユニットは、第2の複数のカメラセンサに結合された複数の第2の画像処理ユニットも含む。第2の画像処理ユニットは、第2のカメラユニットのカメラセンサによって捕捉された画像データを圧縮するように構成される。車両は、ルーフマウント式センサユニットの外側で車両内に位置するコンピューティングシステムをさらに含む。コンピューティングシステムは、圧縮画像データを格納するように構成されたメモリを含む。コンピューティングシステムは、圧縮画像データに基づいて車両を操作するように構成された制御システムも含む。さらに、車両は、ルーフマウント式センサユニット、第2のカメラユニット、およびコンピューティングシステムの間で圧縮画像データを通信するように構成されたデータバスを含む。
上記の概要は、単に例証であり、多少なりとも限定することを意図するものではない。上記の例証的な態様、実装形態、および特徴に加えて、さらなる態様、実装形態、および特徴が、図および以下の詳細な説明を参照することによって明らかになるであろう。
一実装形態例による、車両を示す機能ブロック図である。 一実装形態例による、車両の物理的構成の概念図である。 一実装形態例による、自律車両に関係する様々なコンピューティングシステム間の無線通信の概念図である。 一光学系例の構成要素例を描写する簡略ブロック図を示す。 一実装形態例による、光学系の動作の概念図である。 一実装形態例による、画像センサの配置を示す。 一実装形態例による、雲台の配置を示す。 一実装形態例による、画像センサの配置を示す。 一実装形態例による、方法のフローチャートである。 一実装形態例による、コンピュータプログラムの概略図である。
本明細書では、方法およびシステムの例について記載する。「例」、「例示的」、および「例証的」という単語は、本明細書では「例、事例、または例証として機能する」ことを意味するために使用されることを理解されたい。「例」、「例示的」、または「例証的」であるとして本明細書で説明される任意の実装形態または特徴は、必ずしも他の実装形態または特徴よりも好ましいまたは有利であると解釈されるべきではない。本明細書で説明される実装形態の例は、限定することを意味するものではない。本明細書で一般的に説明され、かつ図に例証されている、本開示の態様について、多種多様な異なる構成で配置、置換、組み合わせ、分離、および設計を行うことができ、そのすべてが、本明細書において明示的に企図されていることが容易に理解されよう。加えて、本開示では、別段の定めがない限り、かつ/または特定の文脈により、明らかに他のことが示されない限り、「1つ(a)」または「1つ(an)」という用語は、少なくとも1つを意味し、「その(the)」という用語は、少なくとも1つを意味する。なおさらに、「有効」という用語は、アクティブおよび/または機能することを意味する場合があり、必ずしもオンにするための積極的なアクションを必要としない。同様に、「無効」という用語は、非アクティブおよび/または機能しないことを意味する場合があり、必ずしもオフにするための積極的なアクションを必要としない。
さらに、図に示されている特定の配置は、限定的であるとみなされるべきではない。他の実装形態が、所与の図に示される各要素をそれより多くまたは少なく含み得ることを理解されたい。さらに、例証された要素のいくつかは、組み合わせるか、または省略されてもよい。さらにまた、実装形態例は、図に例証されていない要素を含んでもよい。
実際には、自律車両システムは、車両の環境を表すデータを使用して物体を識別し得る。次に、車両システムは、車両に特定の方法で動作するように命令するなど、別の動作を行うための基礎として物体の識別を使用し得る。例えば、物体が一時停止の標識である場合、車両システムは、一時停止の標識の前に減速して停止するように車両に命令し得、または、物体が道路の真ん中にいる歩行者である場合、車両システムは、歩行者を避けるように車両に命令し得る。
状況によっては、車両は、複数の光学カメラを有する画像化システムを使用して、車両の周りの環境を画像化し得る。環境の画像化は、物体の識別および/またはナビゲーションに使用され得る。画像化システムは、相補型金属酸化膜−半導体(CMOS)画像センサなどの画像センサ(すなわち、光センサおよび/またはカメラ)をそれぞれが有する、多くの光学カメラを使用し得る。各CMOSセンサは、入射光をサンプリングし、それぞれのセンサの視野の画像データを作成するように構成され得る。各センサは、所定のレートで画像を作成し得る。例えば、画像センサは、1秒当たり30枚または60枚の画像で、画像を捕捉することができ、または、外部センサもしくは外部事象によって、潜在的に反復的に、画像捕捉が引き起こされ得る。複数の捕捉された画像は、映像を形成し得る。
いくつかの例では、車両は、複数のカメラを含み得る。一例では、車両は、19個のカメラを含み得る。19個カメラ設置では、カメラのうちの16個をセンサドームに装着し、他の3つのカメラを主車両に装着することができる。ドーム内にない3つのカメラは、前方視方向を伴って構成され得る。センサドーム内の16個のカメラは、8つのカメラ(すなわち、センサ)対として配置され得る。8つのセンサ対は、円環に装着され得る。一例では、センサ対は、各センサ対間に45度離間がある状態で装着され得るが、他の角度離間も使用され得る(いくつかの例では、センサは、センサの視野の重なりを引き起こす角度離間を有するように構成され得る)。加えて、いくつかの例では、円環および装着されたカメラユニットは、円を描いて回転するように構成され得る。円環が回転する際、カメラはそれぞれ、車両の完全360度環境を画像化することが可能であり得る。
いくつかの例では、各カメラは、他のカメラと同じ画像レート、および同じ解像度で画像を捕捉する。他の例では、カメラは、異なるレート、および異なる解像度で画像を捕捉し得る。実際には、3つの前方視カメラは、カメラ環の一部であるカメラよりも高い解像度、および高いフレームレートで画像を捕捉し得る。
一例では、カメラ対を作り上げる2つのカメラは、同様の視野を有するように構成されるが、ダイナミックレンジが異なれば、それに対応する輝度レベルの範囲も異なる、2つのカメラであり得る。様々なダイナミックレンジを有することによって、一方のカメラは、高輝度光の画像を捕捉するのにより効果的であり得(例えば、センサに光を当てる)、他方のカメラは、低輝度光の画像を捕捉するのにより効果的であり得る。例えば、夜間の車のヘッドライトのように明るく見える物体もあれば、夜間の全身黒ずくめのジョガーなど、ぼんやりと見える物体もあり得る。車両の自律運転の場合、対向車のライトとジョガーの両方を画像化できることが望ましい場合がある。光量の違いが大きいために、カメラ1つのみで両方を同時に画像化できない可能性がある。しかし、カメラ対には、高光量(車のヘッドライトなど)を画像化することができる第1のダイナミックレンジを有する第1のカメラと、低光量(全身黒ずくめのジョガーなど)を画像化することができる第2のダイナミックレンジを有する第2のカメラとが含まれ得る。他の例も可能である。加えて、本出願のカメラは、2017年12月28日に出願された米国仮特許出願第62/611,194号に開示されているものと同様または同じであり得、上記特許出願の内容全体を参照により本明細書に組み入れる。
19個のカメラの各々が固定フレームレートで画像を捕捉するため、システムによって捕捉されるデータの量は、非常に大きくなる可能性がある。例えば、捕捉される各画像が10メガピクセルの場合、各非圧縮画像のサイズは、約10メガバイトであり得る(他の例では、画像の解像度、ビット深度、圧縮などの様々な要因によってファイルサイズが異なり得るる)。19個のカメラがあり、各々が、毎秒60回、10メガバイトの画像を捕捉する場合、カメラシステム全体は、1秒当たり約11.5ギガバイトの画像データを捕捉し得る。カメラシステムによって捕捉されるデータの量が、格納し、車両の様々な処理構成要素にルーティングするには実際的ではない場合がある。そのため、システムは、画像化システムのデータ使用量を低減するために、画像処理および/または圧縮を使用し得る。
画像化システムのデータ使用量を低減するために、画像センサが、画像処理を行うように構成されている1つ以上の専用プロセッサに結合され得る。画像処理には、画像圧縮が含まれ得る。さらに、システムの計算およびメモリの必要性を低減するために、画像データは、さらなる処理に向けてルーティングされる前に、画像センサの近くに位置する画像処理装置によって圧縮され得る。
本開示の処理は、カラーセンシングの処理によって行われ得る。カラーセンシングの処理では、完全に可視のカラースペクトル、可視のカラースペクトルの部分集合、および/または人間の可視範囲外のカラースペクトルの一部(例えば、赤外線および/または紫外線)を使用し得る。多くの従来の画像処理システムは、白黒および/または狭い色空間のみを使用して動作し得る(すなわち、赤のフィルタなどのカラーフィルタを有する画像に対して働く)。カラーセンシングの処理を使用することにより、物体感知、物体検出、および画像データの再構成に、より正確な色表現が使用され得る。
いくつかの例では、所与の画像センサからの所定枚数の連続する画像が、画像のうちの1枚のみを維持し、維持されない残りの画像から物体の動きに関係するデータを抽出することによって圧縮され得る。例えば、6枚の連続する画像の各セットに対して、画像のうちの1枚が保存され得、残りの5枚の画像は、それらに関連する動きデータのみが保存され得る。他の例では、所定の画像枚数は、6枚以外であり得る。他のいくつかの例では、システムは、様々な基準に基づいて画像の枚数を動的に変更し得る。
さらに別の例では、システムは、基準画像を格納し、他の画像については、基準画像に対する変化を含むデータのみを格納し得る。いくつかの例では、所定の画像枚数の後、または基準画像からの閾値レベルの変化の後に、新しい基準画像が格納され得る。例えば、所定の画像枚数は、天候条件または環境条件に基づいて変更され得る。他の例では、所定の画像枚数は、検出対象の物体の個数および/または場所に基づいて変更され得る。加えて、画像処理装置が、保存される画像に対してある程度の圧縮を行う可能性があり、システムのデータ要件をさらに低減する。
システムの性能を高めるには、センサ対のセンサによって捕捉された画像を同時に、またはほぼ同時に処理することが望ましい場合がある。画像を可能な限り同時に処理するためには、センサ対の各センサによって捕捉された画像および/または映像を異なるそれぞれの画像処理装置にルーティングすることが望ましい場合がある。そのため、センサ対によって捕捉された2つの画像は、2つの異なる画像処理装置によって同時に、またはほぼ同時に処理され得る。いくつかの例では、画像処理装置は、画像センサに物理的に近接して位置し得る。例えば、車両のセンサドームに位置する4つの画像処理装置が存在し得る。別の例では、車両のフロントガラスの下に位置している画像センサと共同設置された画像処理装置が存在し得る。この例では、1つまたは2つの画像処理装置が前方視の画像センサの近くに位置し得る。
実際には、画像センサと画像処理装置との間の電気的距離(すなわち、電気的トレースに沿って測定された距離)は、数インチほどであり得る。一例では、画像センサと、第1の画像圧縮を行う画像処理装置とは、互いに6インチ以内に位置する。
互いに近くに位置する画像センサと画像処理装置とを有することには、多くの利点がある。1つの利点は、システムの待ち時間が短縮され得ることである。画像データは、車両制御システムに通信される前に、センサの近くで素早く処理され得、かつ/または圧縮され得る。これにより、車両制御システムは、データを取得するのに長く待たずに済むようになり得る。2つ目の利点は、互いに近くに位置する画像センサと画像処理装置とを有することにより、車両のデータバスを介してデータがより効果的に通信され得ることである。
画像処理装置は、車両のデータバスに結合され得る。データバスは、処理された画像データを車両の別のコンピューティングシステムに通信し得る。例えば、画像データは、自律車両の動作を制御するように構成されている処理システムによって使用され得る。データバスは、光、同軸、またはツイストペアの通信経路にわたって働き得る。データバスの帯域幅は、処理された画像データをさらなる通信のためにある程度のオーバーヘッドで通信するのに十分であり得る。しかしながら、画像データが処理されなかった場合、データバスは、捕捉された画像データのすべてを通信するのに十分な帯域幅を有しない可能性がある。したがって、本システムは、従来の画像処理システムの処理およびデータ移動の要件を伴わずに、高品質のカメラシステムによって捕捉された情報を活かすことが可能であり得る。
本システムは、従来の車両用カメラシステムよりも高い解像度を有する1つ以上のカメラで働き得る。より高いカメラ解像度を有しているため、いくつかの例では、本開示のシステムが作り出し得る、より高い解像度の画像に現れる可能性があるいくつかの望ましくない影響を相殺するために、ある程度の信号処理を本システムに組み込むことが望ましい場合がある。いくつかの例では、本システムは、見通し線ジッタおよび/またはピクセルスミア解析を測定し得る。測定値は、ピクセル当たりミリラジアンの歪みに関して計算され得る。これらの歪みの解析により、望ましくない影響を相殺または軽減する処理が可能になり得る。加えて、システムは、カメラ雲台のぐらつきまたは振動によって引き起こされ得る画像のブレに見舞われる可能性がある。ブレを最小限に抑えるために、ブレ軽減および/または画像安定化技法が使用され得る。本カメラシステムは、通常、従来の車両用カメラシステムよりも解像度が高いことから、多くの従来のシステムでは、カメラの解像度が低すぎて影響に気付かないことがあるため、これらの潜在的な負の影響を相殺する必要がなかった。
加えて、本開示のカメラシステムは、様々な解像度の複数のカメラを使用し得る。一例において、前述のカメラ対(すなわち、センサ対)は、第1の解像度および第1の視野角幅を有し得る。システムは、バックミラーの場所の背後など、車両のフロントガラスの下に、前方視方向に装着された少なくとも1つのカメラも含み得る。いくつかの例では、バックミラーの背後に位置するカメラは、第1の解像度および第1の視野角幅を有するカメラ対を含み得る。フロントガラスの背後に位置するカメラは、第1の解像度よりも高い解像度と、第1の視野角幅よりも広い視野角幅とを有する第3のカメラを含み得る。いくつかの例では、フロントガラスの背後に高解像度広角カメラしかない可能性がある。他の例も考えられ得る。
フロントガラスの背後に高解像度広角カメラを有するこのカメラシステムは、全体としてカメラシステムのダイナミックレンジにより第3の自由度を可能にし得る。加えて、フロントガラスの背後への高解像度広角カメラの導入により、角度離間型カメラセンサによって形成された継ぎ目の領域を画像化する能力を有するなど、他の利点も得られる。加えて、高解像度広角カメラにより、かなり遠くまでの連続検出能力が可能になり、かつ/または、長い焦点距離のレンズを用いて、離れた所にある一時停止標識を見ることができる。この同じカメラセンサでは、標識の純然たる大きさと視野により、一時停止標識を近くで画像化するのに苦労することがある。仕様(例えば、解像度および角度視野)と場所(装着場所および視野)が様々であるカメラを組み合わせることにより、このシステムは、従来のシステムよりもさらなる利点を提供し得る。
ここで、本開示の範囲内のシステム例をより詳細に説明する。一システム例は、自動車に実装され得るか、または自動車の形態をとり得る。しかし、システム例はまた、車、トラック、オートバイ、バス、ボート、飛行機、ヘリコプター、芝刈り機、アースムーバ、ボート、スノーモービル、航空機、レクリエーション車両、遊園地車両、農機具、建設機械、トラム、ゴルフカート、電車、トロリー、およびロボットデバイスなど、他の車両に実装され得るか、または他の車両の形態をとり得る。他の車両も同じく考えられ得る。
ここで図を参照すると、図1は、自律モードで完全にまたは部分的に動作するように構成され得る、車両100例を示す機能ブロック図である。より具体的には、車両100は、コンピューティングシステムから制御命令を受信することを通して、人間の相互作用なしに自律モードで動作し得る。自律モードでの動作の一部として、車両100は、センサを使用して、周囲環境の物体を検出し、場合によっては識別して、安全なナビゲーションを可能にし得る。いくつかの実装形態では、車両100は、運転者が車両100の動作を制御することを可能にするサブシステムも含み得る。
図1に示すように、車両100は、推進システム102、センサシステム104、制御システム106、1つ以上の周辺機器108、電源110、コンピュータシステム112、データストレージ114、およびユーザインターフェース116などの様々なサブシステムを含み得る。他の例では、車両100は、それぞれが複数の要素を含むことができるサブシステムをより多くまたはより少なく含み得る。車両100のサブシステムおよび構成要素は、様々な方法で相互接続され得る。加えて、本明細書に記載の車両100の機能は、実装形態範囲内で、さらなる機能的または物理的構成要素に分割するか、または組み合わせて、より少ない機能的もしくは物理的構成要素にすることができる。
推進システム102は、車両100に対して動力式運動を提供するように動作可能な1つ以上の構成要素を含み得、他の可能な構成要素の中でもとりわけ、エンジン/モータ118、エネルギー源119、トランスミッション120、および車輪/タイヤ121を含み得る。例えば、エンジン/モータ118は、エネルギー源119を機械的エネルギーに変換するように構成され得、他の可能なオプションの中でもとりわけ、内燃エンジン、電気モータ、蒸気エンジン、またはスターリングエンジンのうちの1つもしくは組み合わせに対応し得る。例えば、いくつかの実装形態では、推進システム102は、ガソリンエンジンおよび電気モータなどの複数のタイプのエンジンおよび/またはモータを含み得る。
エネルギー源119は、完全にまたは部分的に、車両100の1つ以上のシステム(例えば、エンジン/モータ118)に動力を供給し得るエネルギー源に相当する。例えば、エネルギー源119は、ガソリン、ディーゼル、他の石油ベースの燃料、プロパン、他の圧縮ガスベースの燃料、エタノール、ソーラパネル、電池、および/または他の電力源に対応することができる。いくつかの実装形態では、エネルギー源119は、燃料タンク、電池、コンデンサ、および/またはフライホイールの組み合わせを含み得る。
トランスミッション120は、エンジン/モータ118からの機械動力を、車輪/タイヤ121および/または車両100の他の可能なシステムに伝達し得る。したがって、トランスミッション120は、他の可能な構成要素の中でもとりわけ、ギアボックス、クラッチ、ディファレンシャル、および駆動シャフトを含み得る。駆動シャフトは、1つ以上の車輪/タイヤ121に接続する車軸を含み得る。
車両100の車輪/タイヤ121は、例示的な実装形態内で様々な構成を有し得る。例えば、車両100は、他の可能な構成の中でも、一輪車、自転車/オートバイ、三輪車、または自動車/トラックの四輪車の形式で存在し得る。したがって、車輪/タイヤ121は、様々な方法で車両100に接続することができ、金属およびゴムなどの異なる材料で存在することができる。
センサシステム104は、他の可能なセンサの中でもとりわけ、全地球測位システム(GPS)122、慣性計測ユニット(IMU)124、レーダ126、レーザ距離計/LIDAR128、カメラ130、ステアリングセンサ123、およびスロットル/ブレーキセンサ125などの様々なタイプのセンサを含むことができる。いくつかの実装形態では、センサシステム104は、車両100の内部システム(例えば、Oモニタ、燃料計、エンジンオイル温度、ブレーキ摩耗)を監視するように構成されたセンサを含み得る。
GPS122は、地球に対する車両100の位置に関する情報を提供するように動作可能なトランシーバを含み得る。IMU124は、1つ以上の加速度計および/またはジャイロスコープを使用する構成を有し得、慣性加速度に基づいて車両100の位置および配向の変化を感知し得る。例えば、IMU124は、車両100が静止しているかまたは動いている間に車両100のピッチおよび偏揺れを検出することができる。
レーダ126は、物体の速さおよび進行方向を含めて、無線信号を使用して、車両100のローカル環境内の物体を感知するように構成された1つ以上のシステムに相当し得る。したがって、レーダ126は、無線信号を送信および受信するように構成されたアンテナを含み得る。いくつかの実装形態では、レーダ126は、車両100の周囲環境の測定値を取得するように構成された装着可能なレーダシステムに対応し得る。
レーザ距離計/LIDAR128は、他のシステム構成要素の中でも、1つ以上のレーザ源、レーザスキャナ、および1つ以上の検出器を含み得、コヒーレントモード(例えば、ヘテロダイン検出を使用)または非コヒーレント検出モードで動作し得る。カメラ130は、車両100の環境の画像を捕捉するように構成された1つ以上のデバイス(例えば、スチルカメラまたはビデオカメラ)を含み得る。カメラ130は、車両全体にわたって位置付けられた複数のカメラユニットを含み得る。カメラ130は、車両の上部ドームに位置付けられたカメラユニット、および/またはフロントガラスの近くに装着されたカメラなど、車両の本体内に位置するカメラユニットを含み得る。
ステアリングセンサ123は、車両100のステアリング角度を感知し得、これは、ステアリングホイールの角度を測定すること、またはステアリングホイールの角度を表す電気信号を測定することを含み得る。いくつかの実装形態では、ステアリングセンサ123は、車両100の前方軸に対する車輪の角度を検出するなど、車両100の車輪の角度を測定し得る。ステアリングセンサ123はまた、ステアリングホイールの角度、ステアリングホイールの角度を表す電気信号、および車両100の車輪の角度の組み合わせ(または部分集合)を測定するように構成され得る。
スロットル/ブレーキセンサ125は、車両100のスロットル位置またはブレーキ位置のいずれかの位置を検出し得る。例えば、スロットル/ブレーキセンサ125は、アクセルペダル(スロットル)およびブレーキペダルの両方の角度を測定してもよく、または、例えば、アクセルペダル(スロットル)の角度および/もしくはブレーキペダルの角度を表すことができる電気信号を測定してもよい。スロットル/ブレーキセンサ125はまた、エンジン/モータ118(例えば、バタフライバルブまたはキャブレタ)にエネルギー源119の変調を与える物理的機構の一部を含み得る、車両100のスロットルボディの角度を測定し得る。加えて、スロットル/ブレーキセンサ125は、車両100のロータに掛かる1つ以上のブレーキパッドの圧力、またはアクセルペダル(スロットル)およびブレーキペダルの角度の組み合わせ(または部分集合)、アクセルペダル(スロットル)およびブレーキペダルの角度を表す電気信号、スロットル本体の角度、ならびに少なくとも1つのブレーキパッドが車両100のロータに加える圧力、を測定し得る。他の実装形態では、スロットル/ブレーキセンサ125は、スロットルまたはブレーキペダルなどの車両のペダルに加えられた圧力を測定するように構成されてもよい。
制御システム106は、ステアリングユニット132、スロットル134、ブレーキユニット136、センサフュージョンアルゴリズム138、コンピュータビジョンシステム140、ナビゲーション/経路探索システム142、および障害物回避システム144など、車両100をナビゲートするのを助けるように構成された構成要素を含み得る。より具体的には、ステアリングユニット132は、車両100の進行方向を調整するように動作可能であり得、スロットル134は、エンジン/モータ118の動作スピードを制御して、車両100の加速を制御し得る。ブレーキユニット136は、車両100を減速することができ、これは、摩擦を使用して車輪/タイヤ121を減速することを含み得る。実施態様によっては、ブレーキユニット136は、車両100のシステムまたはシステム(複数)によるその後の使用のために、車輪/タイヤ121の運動エネルギーを電流に変換し得る。
センサフュージョンアルゴリズム138は、カルマンフィルタ、ベイジアンネットワーク、またはセンサシステム104からのデータを処理することができる他のアルゴリズムを含み得る。いくつかの実装形態では、センサフュージョンアルゴリズム138は、個々の物体および/もしくは特徴の評価、特定の状況の評価、ならびに/または所与の状況内の潜在的な影響の評価など、入ってくるセンサデータに基づくアセスメントを提供し得る。
コンピュータビジョンシステム140は、物体、環境物体(例えば、停止信号、道路の境界など)、および障害物を判定しようとする際に画像を処理し、分析するように動作可能なハードウェアおよびソフトウェアを含み得る。したがって、コンピュータビジョンシステム140は、物体認識、Structure From Motion(SFM)、映像追跡、およびコンピュータビジョンで使用される他のアルゴリズムを使用して、例えば、物体を認識する、環境をマッピングする、物体を追跡する、物体の速さを推定する、などを行うことができる。
ナビゲーション/経路探索システム142は、車両100の運転経路を判定することができ、これは、動作中にナビゲーションを動的に調整することを含み得る。したがって、ナビゲーション/経路探索システム142は、他の情報源の中でもとりわけ、センサフュージョンアルゴリズム138、GPS122、および地図からのデータを使用して、車両100をナビゲートし得る。障害物回避システム144は、センサデータに基づいて潜在的な障害物を評価し、車両100のシステムに、潜在的な障害物を回避させるか、そうでなければうまく切り抜けさせることができる。
図1に示されるように、車両100はまた、無線通信システム146、タッチスクリーン148、マイクロフォン150、および/またはスピーカ152などの周辺機器108を含み得る。周辺機器108は、ユーザがユーザインターフェース116と相互作用するための制御装置または他の要素を提供し得る。例えば、タッチスクリーン148は、車両100のユーザに情報を提供し得る。ユーザインターフェース116はまた、タッチスクリーン148を介してユーザからの入力を受け入れ得る。周辺機器108はまた、車両100が、他の車両のデバイスなどのデバイスと通信することを可能にし得る。
無線通信システム146は、1つ以上のデバイスと直接または通信ネットワークを介して無線で通信し得る。例えば、無線通信システム146は、CDMA、EVDO、GSM/GPRSなどの3Gセルラ通信、またはWiMAXもしくはLTEなどの4Gセルラ通信を使用することができる。代替的に、無線通信システム146は、WiFiまたは他の可能な接続を使用して無線ローカルエリアネットワーク(WLAN)と通信し得る。無線通信システム146はまた、例えば、赤外線リンク、Bluetooth、またはZigBeeを使用してデバイスと直接通信し得る。様々な車両用通信システムなどの他の無線プロトコルが、本開示の文脈内で可能である。例えば、無線通信システム146は、車両および/または道路沿いの給油所間の公共および/または私的データ通信を含み得る1つ以上の専用狭域通信(DSRC)デバイスを含み得る。
車両100は、構成要素に電力を供給するための電源110を含み得る。電源110は、いくつかの実装形態では、再充電可能なリチウムイオン電池または鉛蓄電池を含み得る。例えば、電源110は、電力を提供するように構成された1つ以上の電池を含み得る。車両100はまた、他のタイプの電源を使用してもよい。一実装形態例では、電源110およびエネルギー源119は、単一のエネルギー源に統合されてもよい。
車両100はまた、本明細書に記載の動作などの動作を行うためのコンピュータシステム112を含み得る。したがって、コンピュータシステム112は、データストレージ114などの非一時的なコンピュータ可読媒体に格納された命令115を実行するように動作可能な少なくとも1つのプロセッサ113(少なくとも1つのマイクロプロセッサを含むことができる)を含み得る。いくつかの実装形態では、コンピュータシステム112は、車両100の個々の構成要素またはサブシステムを分散して制御するように機能し得る複数のコンピューティングデバイスに相当し得る。
いくつかの実装形態では、データストレージ114は、図1に関連して上述したものを含めて、車両100の様々な機能を実行するためにプロセッサ113によって実行可能な命令115(例えば、プログラム論理)を含み得る。データストレージ114は、推進システム102、センサシステム104、制御システム106、および周辺機器108のうちの1つ以上にデータを送信する、それからデータを受信する、それと相互作用する、かつ/またはそれを制御する命令を含む追加の命令も含み得る。
命令115に加えて、データストレージ114は、他の情報の中でもとりわけ、道路地図、経路情報などのデータを格納し得る。そのような情報は、自律モード、半自律モード、および/または手動モードでの車両100の動作中に、車両100およびコンピュータシステム112によって使用され得る。
車両100は、車両100のユーザに情報を提供するか、または車両100のユーザから入力を受信するためのユーザインターフェース116を含み得る。ユーザインターフェース116は、タッチスクリーン148上に表示され得るコンテンツおよび/またはインタラクティブ画像のレイアウトを制御することができるか、または制御を可能にし得る。さらに、ユーザインターフェース116は、無線通信システム146、タッチスクリーン148、マイクロフォン150、およびスピーカ152などの周辺機器108のセット内の1つ以上の入力/出力デバイスを含むことができる。
コンピュータシステム112は、様々なサブシステム(例えば、推進システム102、センサシステム104、および制御システム106)から受信した入力に基づいて、またユーザインターフェース116から受信した入力に基づいて、車両100の機能を制御し得る。例えば、コンピュータシステム112は、推進システム102および制御システム106によって生成された出力を推定するために、センサシステム104からの入力を利用してもよい。実装形態に応じて、コンピュータシステム112は、車両100およびそのサブシステムの多くの態様を監視するように動作可能であり得る。いくつかの実装形態では、コンピュータシステム112は、センサシステム104から受信した信号に基づいて、車両100の一部またはすべての機能を無効にし得る。
車両100の構成要素は、それらのそれぞれのシステム内またはシステム外の他の構成要素との相互接続方式で働くように構成され得る。例えば、一実装形態例において、カメラ130は、自律モードで動作している車両100の環境の状態に関する情報を表すことができる複数の画像を捕捉することができる。環境の状態は、車両が動作している道路のパラメータを含むことができる。例えば、コンピュータビジョンシステム140は、道路の複数の画像に基づいて、傾斜(勾配)または他の特徴を認識することが可能であり得る。加えて、GPS122とコンピュータビジョンシステム140によって認識された特徴との組み合わせは、特定の道路パラメータを判定するために、データストレージ114に格納された地図データと共に使用され得る。さらに、レーダユニット126はまた、車両の周囲についての情報を提供し得る。
言い換えると、様々なセンサ(入力指標センサおよび出力指標センサと呼ぶことができる)とコンピュータシステム112との組み合わせが相互作用して、車両を制御するために提供される入力の指標または車両の周囲の指標を提供することができる。
いくつかの実装形態では、コンピュータシステム112は、無線システム以外のシステムによって提供されるデータに基づいて、様々な物体に関する判定を行い得る。例えば、車両100は、車両の視野内の物体を感知するように構成されたレーザまたは他の光学センサを有し得る。コンピュータシステム112は、様々なセンサからの出力を使用して、車両の視野内の物体に関する情報を判定し得、様々な物体までの距離および方向情報を判定し得る。コンピュータシステム112はまた、様々なセンサからの出力に基づいて、物体が望ましいか望ましくないかを判定し得る。
図1は、車両100の様々な構成要素、すなわち、無線通信システム146、コンピュータシステム112、データストレージ114、およびユーザインターフェース116を車両100に統合されているものとして示しているが、これらの構成要素のうちの1つ以上は、車両100とは別個に装着または関連付けることができる。例えば、データストレージ114は、部分的または完全に、車両100とは別個に存在することができる。したがって、車両100は、別個にまたは一緒に位置付けられ得るデバイス要素の形態で提供され得る。車両100を構成するデバイス要素は、有線および/または無線方式で一緒に通信可能に結合され得る。
図2は、図1を参照して説明された車両100の1つの可能な物理的構成を表し得る車両200の一物理的構成例を示す。実装形態に応じて、車両200は、他の可能な構成要素の中でもとりわけ、センサユニット202、無線通信システム204、ラジオユニット206、デフレクタ208、およびカメラ210を含み得る。例えば、車両200は、図1に記載された構成要素のうちの一部またはすべての要素を含み得る。車両200は、図2では自動車として示されているが、車両200は、他の可能な例の中でもとりわけ、トラック、バン、セミトレーラートラック、オートバイ、ゴルフカート、オフロード車両、または農業用車両などの例の範囲内の他の構成を有することができる。
センサユニット202は、車両200の周囲環境の情報を捕捉するように構成された1つ以上のセンサを含み得る。例えば、センサユニット202は、他の可能なタイプのセンサの中でも、カメラ、レーダ、LIDAR、距離計、無線デバイス(例えば、Bluetoothおよび/または802.11)、ならびに音響センサの任意の組み合わせを含み得る。いくつかの実装形態では、センサユニット202は、センサユニット202内のセンサの配向を調整するように動作可能な1つ以上の可動マウントを含み得る。例えば、可動マウントは、車両200の周りの各方向から情報を取得するためにセンサをスキャンすることができる回転式雲台を含み得る。センサユニット202の可動マウントはまた、特定の範囲の角度および/または方位角内の走査方式で可動であってもよい。
いくつかの実装形態では、センサユニット202は、センサユニット202が自動車のルーフの頂上に装着されることを可能にする機械的構造を含み得る。加えて、例の範囲内で他の装着場所も可能である。
無線通信システム204は、図2に示されるように、車両200に対して相対的な場所を有し得るが、実装形態内で異なる場所を有することもできる。無線通信システム200は、他の外部または内部デバイスと通信し得る1つ以上の無線送信機および1つ以上の受信機を含み得る。例えば、無線通信システム204は、他の可能な実在物の中でも特に、ユーザのデバイス、他の車両、および道路要素(例えば、標識、交通信号機)と通信するための1つ以上のトランシーバを含み得る。このように、車両200は、専用狭域通信(DSRC)、無線周波数識別(RFID)、および高度道路交通システムを対象とする他の提案された通信規格などの通信を容易にするための1つ以上の車両用通信システムを含み得る。
カメラ210は、車両200のフロントガラス上の場所など、車両200に対して様々な位置を有し得る。このように、カメラ210は、車両200の環境の画像を捕捉し得る。図2に示すように、カメラ210は、車両200に対して前方視ビューから画像を捕捉し得るが、実装形態範囲内で、カメラ210の他の装着場所(可動マウントを含む)および視野角が可能である。いくつかの例では、カメラ210は、1つ以上の可視光カメラに対応し得る。代替的にまたは追加的に、カメラ210は、赤外線感知機能を含み得る。カメラ210はまた、調整可能な視野を提供し得る光学系を含み得る。
図3Aは、一実装形態例による、自律車両に関連する様々なコンピューティングシステム間の無線通信の概念図である。特に、無線通信は、ネットワーク304を介して、リモートコンピューティングシステム302と車両200との間で発生し得る。無線通信はまた、サーバコンピューティングシステム306とリモートコンピューティングシステム302との間、またサーバコンピューティングシステム306と車両200との間でも発生し得る。
車両200は、場所間で乗客または物体を輸送することができる様々なタイプの車両に対応することができ、上述の車両のうちの任意の1つ以上の形態をとり得る。場合によっては、車両200は、制御システムがセンサ測定値を使用して目的地間で車両200を安全にナビゲートすることを可能にする自律モードで動作し得る。自律モードで動作しているとき、車両200は、乗客の有無に関わらずナビゲートし得る。その結果、車両200は、所望の目的地間で乗客を拾い、降ろし得る。
リモートコンピューティングシステム302は、本明細書で説明されるものを含むがこれに限定されないリモートアシスタンス技法に関連する任意のタイプのデバイスに相当し得る。例の範囲内で、リモートコンピューティングシステム302は、(i)車両200に関連する情報を受信し、(ii)人間のオペレータが次に情報を知覚し、情報に関連する応答を入力することができるインターフェースを提供し、(iii)応答を車両200に、または他のデバイスに送信する、ように構成された任意のタイプのデバイスに相当し得る。リモートコンピューティングシステム302は、ワークステーション、デスクトップコンピュータ、ラップトップ、タブレット、携帯電話(例えば、スマートフォン)、および/またはサーバなどの、様々な形態をとり得る。いくつかの例では、リモートコンピューティングシステム302は、ネットワーク構成で一緒に動作する複数のコンピューティングデバイスを含み得る。
リモートコンピューティングシステム302は、車両200のサブシステムおよび構成要素と同様または同一の1つ以上のサブシステムおよび構成要素を含み得る。最低でも、リモートコンピューティングシステム302は、本明細書で説明される様々な動作を行うために構成されたプロセッサを含み得る。いくつかの実装形態では、リモートコンピューティングシステム302はまた、タッチスクリーンおよびスピーカなどの入力/出力デバイスを含むユーザインターフェースを含み得る。他の例も可能である。
ネットワーク304は、リモートコンピューティングシステム302と車両200との間の無線通信を可能にするインフラストラクチャに相当する。ネットワーク304はまた、サーバコンピューティングシステム306とリモートコンピューティングシステム302との間、またサーバコンピューティングシステム306と車両200との間の無線通信を可能にする。
リモートコンピューティングシステム302の位置は、例の範囲内で変わることができる。例えば、リモートコンピューティングシステム302は、ネットワーク304を介した無線通信を有する車両200から遠隔位置を有し得る。別の例では、リモートコンピューティングシステム302は、車両200とは別個であるが、それを用いて人間のオペレータが車両200の乗客または運転者と相互作用することができる車両200内のコンピューティングデバイスに対応し得る。いくつかの例では、リモートコンピューティングシステム302は、車両200の乗客によって操作可能なタッチスクリーンを有するコンピューティングデバイスであってもよい。
いくつかの実装形態では、リモートコンピューティングシステム302によって行われる本明細書で説明される動作は、追加的にまたは代替的に、車両200によって(すなわち、車両200の任意のシステム(複数可)またはサブシステム(複数可)によって)行われ得る。言い換えれば、車両200は、それを用いて車両の運転者または乗客が相互作用することができる、リモートアシスタンス機構を提供するように構成され得る。
サーバコンピューティングシステム306は、ネットワーク304を介してリモートコンピューティングシステム302および車両200と(または、場合によっては、リモートコンピューティングシステム302および/もしくは車両200と直接)無線通信するように構成され得る。サーバコンピューティングシステム306は、車両200およびそのリモートアシスタンスに関する情報を受信し、格納し、判定し、かつ/または送信するように構成された任意のコンピューティングデバイスに相当し得る。このように、サーバコンピューティングシステム306は、リモートコンピューティングシステム302および/または車両200によって行われるものとして本明細書で説明される任意の動作(複数可)またはそのような動作(複数可)の一部を行うように構成され得る。リモートアシスタンスに関連する無線通信の一部の実装形態では、サーバコンピューティングシステム306を利用できるが、他の実装形態では利用できない。
サーバコンピューティングシステム306は、本明細書に記載の様々な動作を行うように構成されたプロセッサ、ならびにリモートコンピューティングシステム302および車両200から情報を受信し、それらに情報を提供するための無線通信インターフェースなどの、リモートコンピューティングシステム302および/または車両200のサブシステムおよび構成要素と同様または同一の1つ以上のサブシステムおよび構成要素を含み得る。
上記の様々なシステムは、様々な動作を行い得る。ここで、これらの動作および関連する機能について説明する。
上記の考察に沿って、コンピューティングシステム(例えば、リモートコンピューティングシステム302、またはことによるとサーバコンピューティングシステム306、あるいは車両200にローカルなコンピューティングシステム)は、カメラを使用して、自律車両の環境の画像を捕捉するように動作し得る。一般に、少なくとも1つのコンピューティングシステムが画像を分析することができ、場合によっては自律車輌を制御する。
いくつかの実装形態では、自律動作を容易にするために、車両(例えば、車両200)は、車両が動作する環境内の物体を表すデータ(本明細書では「環境データ」とも称される)を様々な方法で受信し得る。車両のセンサシステムは、環境の物体を表す環境データを提供し得る。例えば、車両は、カメラ、レーダユニット、レーザ距離計、マイクロフォン、ラジオユニット、および他のセンサを含む様々なセンサを有し得る。これらのセンサの各々は、各それぞれのセンサが受信する情報について、環境データを車両内のプロセッサに通信することができる。
一例では、カメラが、静止画像および/または映像を捕捉するように構成され得る。いくつかの実装形態では、車両は、異なる配向に位置決めされた2つ以上のカメラを有し得る。また、いくつかの実装形態では、カメラは、異なる方向で画像および/または映像を捕捉するように移動することが可能であり得る。カメラは、車両の処理システムによる後の処理のために、捕捉された画像および映像をメモリに格納するように構成され得る。捕捉された画像および/または映像は、環境データである場合がある。さらに、カメラは、本明細書で説明されるような画像センサを含み得る。
別の例では、レーダユニットが、車両の近くの様々な物体によって反射される電磁信号を送信し、次いで物体から反射する電磁信号を捕捉するように構成され得る。捕捉された反射電磁信号は、レーダシステム(または処理システム)が電磁信号を反射した物体について様々な判定を行うことを可能にし得る。例えば、様々な反射物体までの距離および位置が判定され得る。いくつかの実装形態では、車両は、異なる配向に2つ以上のレーダを有し得る。レーダシステムは、車両の処理システムによる後の処理のために、捕捉された情報をメモリに格納するように構成され得る。レーダシステムによって捕捉された情報は、環境データであり得る。
別の例では、レーザ距離計が、車両近くの対象物体によって反射される電磁信号(例えば、気体もしくはダイオードレーザ、または他の可能な光源からのものなどの光)を送信するように構成され得る。レーザ距離計は、反射電磁(例えば、レーザ)信号を捕捉することが可能であり得る。捕捉された反射電磁信号は、測距システム(または処理システム)が様々な物体までの距離を判定することを可能にし得る。測距システムはまた、対象物体の方向性をもつ速度(velocity)または速さ(speed)を判定することができ、それを環境データとして格納することが可能であり得る。
加えて、一例では、マイクロフォンが、車両を取り巻く環境のオーディオを捕捉するように構成され得る。マイクロフォンで捕捉された音は、緊急車両のサイレンおよび他の車両の音が含み得る。例えば、マイクロフォンは、緊急車両のサイレンの音を捕捉し得る。処理システムは、捕捉されたオーディオ信号が緊急車両を示していると確認することが可能であり得る。別の例では、マイクロフォンは、オートバイからの排気など、別の車両の排気の音を捕捉し得る。処理システムは、捕捉されたオーディオ信号がオートバイを示していると確認することが可能であり得る。マイクロフォンによって捕捉されたデータは、環境データの一部を形成し得る。
さらに別の例では、ラジオユニットが、Bluetooth信号、802.11信号、および/または他の無線技術信号の形態をとり得る電磁信号を送信するように構成され得る。第1の電磁放射信号は、ラジオユニットに位置付けられた1つ以上のアンテナを介して送信され得る。さらに、第1の電磁放射信号は、多くの異なる無線シグナリングモードのうちの1つで送信されてもよい。しかしながら、いくつかの実装形態では、自律車両の近くに位置するデバイスからの応答を要求するシグナリングモードで第1の電磁放射信号を送信することが望ましい。処理システムは、ラジオユニットに返信された応答に基づいて近くのデバイスを検出し、この通信された情報を環境データの一部として使用することが可能であり得る。
いくつかの実装形態では、処理システムは、車両の環境をさらに判定するために、様々なセンサからの情報を組み合わせることが可能であり得る。例えば、処理システムは、レーダ情報および捕捉された画像の両方からのデータを組み合わせて、別の車両または歩行者が自律車両の前にいるかどうかを判定し得る。他の実装形態では、センサデータの他の組み合わせを処理システムが使用して、環境についての判定を行い得る。
自律モードで動作している間、車両は、ほとんどまたは全く人間の入力を伴わずにその動作を制御し得る。例えば、人間のオペレータが住所を車両に入力すると、車両は、人間からのさらなる入力を伴わずに(例えば、人間がブレーキ/アクセルペダルを操縦すること、または触れることを必要とせずに)、指定された目的地まで運転することが可能であり得る。さらに、車両が自律的に動作している間、センサシステムは環境データを受信していてもよい。車両の処理システムは、様々なセンサから受信した環境データに基づいて車両の制御を変更し得る。いくつかの例では、車両は、様々なセンサからの環境データに応答して、車両の速度を変え得る。車両は、障害物を避けるために、道路交通法を守るためになど、速度を変更することができる。車両の処理システムが車両の近くの物体を確認すると、車両は、速度を変更すること、または別の方法で動きを変えることが可能であり得る。
車両が物体を検出したが物体の検出に十分自信がない場合、車両は、人間のオペレータ(またはより強力なコンピュータ)に、(i)物体が実際に環境内に存在するかどうかを確認する(例えば、実際に一時停止標識があるか、または実際に一時停止標識がないか)、(ii)車両の物体の識別が正しいかどうかを確認する、(iii)識別が正しくなかった場合、識別を修正する、および/または(iv)自律車両に対して補足的な命令を提供する(または現在の命令を変更する)などの、1つ以上のリモートアシスタンスタスクを行うよう要求することができる。リモートアシスタンスタスクにはまた、人間のオペレータが、車両の動作を制御するための命令を提供する(例えば、人間のオペレータが、物体が一時停止標識であると判定した場合、一時停止標識で停止するよう車両に命令する)ことが含まれ得るが、場合によっては、物体の識別に関連する人間のオペレータのフィードバックに基づいて、車両自体が自身の動作を制御し得る。
車両は、環境データのソースに応じて、様々な方法で環境の物体を検出し得る。いくつかの実装形態では、環境データは、カメラから来て、画像または映像データであり得る。他の実装形態では、環境データはLIDARユニットから来る場合がある。車両は、捕捉された画像または映像データを分析して、画像または映像データ内の物体を識別し得る。方法および装置は、環境の物体の存在について画像および/または映像データを監視するように構成され得る。他の実装形態では、環境データは、レーダ、オーディオ、または他のデータであり得る。車両は、レーダ、オーディオ、または他のデータに基づいて環境の物体を識別するように構成され得る。
いくつかの実装形態では、物体を検出するために車両が使用する技法は、既知のデータのセットに基づいていてもよい。例えば、環境物体に関連するデータは、車両に位置付けられたメモリに格納されてもよい。車両は、受信したデータを格納されたデータと比較して、物体を判定し得る。他の実装形態では、車両は、データの文脈に基づいて物体を判定するように構成され得る。例えば、建設に関連する街路標識は、概してオレンジ色を有し得る。したがって、車両は、道路脇近くに位置するオレンジ色の物体を、建設関連の街路標識として検出するように構成されてもよい。加えて、車両の処理システムが、捕捉されたデータにおいて物体を検出すると、処理システムはまた、各物体について信頼度を計算することができる。
さらに、車両はまた、信頼度閾値を有し得る。信頼度閾値は、検出される物体のタイプに応じて異なり得る。例えば、別の車両のブレーキライトなど、車両からの迅速な応答アクションを要求し得る物体については、信頼度閾値が低くなり得る。しかしながら、他の実装形態では、検出されたすべての物体について、信頼度閾値が同じであってもよい。検出された物体に関連付けられた信頼度が信頼度閾値より高い場合、車両は、物体が正しく認識されたと想定し、その想定に基づいて車両の制御を応答的に調整し得る。
検出された物体に関連付けられた信頼度が信頼度閾値より低い場合、車両が取るアクションは変わり得る。いくつかの実装形態では、車両は、低い信頼度レベルにも関わらず、検出された物体が存在するかのように反応し得る。他の実装形態では、車両は、検出された物体が存在しないかのように反応することがある。
車両は、環境の物体を検出すると、特定の検出された物体に関連付けられた信頼度も計算することができる。信頼度は、実装形態に応じて様々な方法で計算され得る。一例では、環境の物体を検出するとき、車両は、環境データを既知の物体に関連する所定のデータと比較し得る。環境データと所定のデータとの一致が近いほど、信頼度はより高くなる。他の実装形態では、車両は、環境データの数理解析を使用して、物体に関連付けられた信頼度を判定し得る。
物体が閾値を下回る検出信頼度を有するとの判定に応答して、車両は、リモートコンピューティングシステムに、物体の識別と共にリモートアシスタンスの要求を送信し得る。
いくつかの実装形態では、物体が信頼度閾値を下回る信頼度を有するとして検出された場合、物体には予備識別が与えられてもよく、車輌は、予備識別に応答して車両の動作を調整するように構成され得る。そのような動作の調整は、他の可能な調整の中でも特に、車両を停止すること、車両を人間制御モードに切り替えること、車両の速度(例えば、速さおよび/または方向)を変更することの形態をとり得る。
他の実装形態では、車両が閾値を満たすか、または超える信頼度を有する物体を検出した場合でも、車両は検出された物体に従って動作し得る(例えば、物体が一時停止標識として高い信頼度で識別された場合に停止する)が、車両が検出された物体に従って動作するのと同時に(または後で)リモートアシスタンスを要求するように構成され得る。
図3Bは、一光学系340例の構成要素例を表す簡略ブロック図を示す。この光学系340例は、本明細書で説明される自律車両の光学系に対応する可能性がある。いくつかの例では、車両は、複数の光学系340を含み得る。例えば、車両は、車両の上面のセンサドーム内に装着された1つの光学系と、車両のフロントガラスの背後に位置する別の光学系とを含み得る。他の例では、様々な光学系が、車両全体にわたって、様々な異なる位置にあり得る。
光学系340は、1つ以上の画像センサ350、1つ以上の画像処理装置352、およびメモリ354を含み得る。望ましい構成に応じて、画像処理装置352は、マイクロプロセッサ(μP)、マイクロコントローラ(μC)、デジタルシグナルプロセッサ(DSP)、グラフィックスプロセッシングユニット(GPU)、システムオンチップ(SOC)、またはそれらの任意の組み合わせを含むが、これらに限定されない、任意のタイプのプロセッサであり得る。SOCは、従来のマイクロプロセッサ、GPU、ビデオエンコーダ/デコーダ、および他のコンピューティング構成要素を組み合わせたものであり得る。さらに、メモリ354は、揮発性メモリ(RAMなど)、不揮発性メモリ(ROM、フラッシュメモリなど)、またはそれらの任意の組み合わせを含むが、これらに限定されるわけではない、現在知られている、または今後開発される任意のタイプのメモリであり得る。いくつかの例では、メモリ354は、画像データを一時的に格納するためのメモリキャッシュであり得る。いくつかの例では、メモリ354は、画像処理装置352を形成するSOCの一部として統合され得る。
一実施形態例において、光学系340は、画像処理装置352を外部コンピューティングデバイス358と通信可能につなぐシステムバス356を含み得る。外部コンピューティングデバイス358は、車両制御プロセッサ360、メモリ362、通信システム364、および他の構成要素を含み得る。加えて、外部コンピューティングデバイス358は、車両そのものに位置し得るが、光学系340とは別個のシステムとして位置し得る。通信システム364は、車両とリモートコンピュータサーバとの間でデータを通信するように構成され得る。加えて、外部コンピューティングデバイス358は、画像のより長期の格納および/または処理に使用され得る。外部コンピューティングデバイス358は、光学系340のメモリ354よりも大きなメモリを伴って構成され得る。例えば、外部コンピューティングデバイス358内の画像データは、自律車両のナビゲーションシステム(例えば、ナビゲーションプロセッサ)によって使用され得る。
一光学系340例は、複数の画像センサ350を含む。一例では、光学系340は、画像センサ350として16個の画像センサと、4つの画像処理装置352と、を含み得る。画像センサ350は、ルーフマウント式センサドームに装着され得る。16個の画像センサは、8つのセンサ対として配置され得る。センサ対は、カメラ環上に装着され得、カメラ環では、各センサ対が隣接するセンサ対から45度離れて装着される。いくつかの例では、センサユニットの動作の間、センサ環は、回転するように構成され得る。
画像センサ350は、本明細書で説明されるように、画像処理装置352に結合され得る。各センサ対の各センサは、異なる画像処理装置352に結合され得る。各センサを異なる画像処理装置に結合することにより、それぞれのセンサ対によって捕捉された画像が同時に(またはほぼ同時に)処理され得る。いくつかの例では、画像センサ350はすべて、画像処理装置352のすべてに結合され得る。画像センサからそれぞれの画像処理装置への画像のルーティングは、物理的接続だけではなく、ソフトウェアによっても制御され得る。いくつかの例では、画像センサ350および画像処理装置352の両方が、車両のセンサドームに位置し得る。いくつかの追加の例では、画像センサ350は、画像処理装置352の近くに位置し得る。例えば、画像センサ350と画像処理装置352との間の電気的距離(すなわち、電気的トレースに沿って測定された距離)は、数インチほどであり得る。一例では、画像センサ350と第1の画像の圧縮を行う画像処理装置352とは、互いに6インチ以内に位置する。
一実施形態例によれば、光学系340は、プログラム命令360を含み得、プログラム命令360は、メモリ354に(かつ/または、ことによると別のデータ記憶媒体に)格納され、また図5に関して説明される機能を含むがそれに限定されるものではない、本明細書に記載の様々な機能を促進するように、画像処理装置352によって実行可能である。例えば、画像および/または映像圧縮アルゴリズムが、メモリ354に格納され、画像処理装置352によって実行され得る。光学系340の様々な構成要素が分散型構成要素として示されているが、このような構成要素のいずれも、コンピューティングシステムの望ましい構成に従って物理的に統合され得る、かつ/または分散され得ることを理解されたい。
図3Cは、カメラ対で配置された2つのカメラ382Aおよび382Bと、2つの画像処理装置384Aおよび384Bとを有する光学系の動作の概念図である。この例では、2つのカメラ382Aと382Bとは、同じ視野(例えば、共通の視野386)を有する。他の例では、2つのカメラ382Aと382Bとは、同様であるが同じではない視野(例えば、重なり合う視野)を有し得る。さらに他の例では、2つのカメラ382Aと382Bとは、完全に異なる(例えば、重なり合わない)視野を有し得る。前述の通り、2つの画像処理装置384Aおよび384Bは、センサ対によって捕捉された2つの画像を同時に、またはほぼ同時に処理するように構成され得る。2つのセンサによって作成された画像を2つの異なるプロセッサにルーティングすることにより、画像を並列処理することができる。画像が1つのプロセッサのみにルーティングされた場合、画像は、連続して(すなわち、順々に)処理されている可能性がある。
いくつかの例では、2つのカメラ382Aと382Bとは、異なる露出を伴って構成され得る。2つのカメラのうちの1つは、高光量で動作するように構成され得、もう1つのカメラは、低光量で動作するように構成され得る。両方のカメラが、ある場面の画像を撮る(すなわち、同じような視野の画像を撮る)と、夜間の車のヘッドライトのように明るく見える物体もあれば、夜間の黒ずくめのジョガーのようにぼんやり見える物体もある可能性がある。車両の自律運転の場合、対向車のライトとジョガーの両方を画像化できることが望ましい場合がある。光量の大きな違いにより、ただ1つのカメラでは、両方を画像化することができない可能性がある。しかし、カメラ対には、高光量(車のヘッドライトなど)を画像化することができる第1のダイナミックレンジを有する第1のカメラと、低光量(全身黒ずくめのジョガーなど)を画像化することができる第2のダイナミックレンジを有する第2のカメラとが含まれ得る。他の例も可能である。
図4Aは、車両402の画像センサの配置を示す。前述の通り、ルーフマウント式センサユニット404は、隣接するセンサ対から45度離間した状態で装着された8つのセンサ対のカメラを含み得る。さらに、センサ対は、回転式雲台および/またはジンバル式雲台に装着され得る。図4Aは、車両402と、8つのセンサ対の各々に対する関連付けられた視野406と、を示す。図4Aに示すように、各センサ対は、約45度の視野を有し得る。したがって、8つのセンサ対の一式は、車両の周りの完全360度領域を画像化することが可能であり得る。いくつかの例では、センサ対は、45度よりも広い視野を有し得る。センサの視野がより広い場合、センサによって画像化される領域が重なり合う可能性がある。センサの視野が重なり合う例では、図4Aの視野406として示される線は、視野の重なり合う部分の中心の近似であり得る。
図4Bは、隣接するセンサに対して45度の間隔で装着された8つのセンサ対424A〜424Hを有する環422の配置を示す。センサ環は、車両のルーフマウント式センサユニットに位置し得る。
図4Cは、画像センサの配置を示す。図4Cの車両442は、フロントガラスの背後に、例えば、車両442のバックミラーの近く(車両の進行方向に向く、フロントガラスの上部の中央の場所など)に装着された、センサユニット444を有し得る。画像センサ444例は、車両442からの前方視ビューを画像化するように構成された3つの画像センサを含み得る。センサユニット444の3つの前方視センサは、図4Cの破線によって示されるような対応する視野446を有し得る。図4Aに関して述べたのと同様に、センサは、重なり合う視野を有し得、図4Cの視野446として示される線は、視野の重なり合う部分の中心の近似であり得る。
いくつかの例では、車両は、図4A、図4B、および図4Cの両方のセンサを含み得る。したがって、この車両例のセンサの全体的な視野は、図4A、図4B、および図4Cにわたって示されるものであり得る。
前述の通り、別の例では、バックミラーの背後に位置する画像センサ444のカメラには、第1の解像度および第1の視野角幅を有するカメラ対が含まれ得る。フロントガラスの背後に位置するカメラは、第1の解像度よりも高い解像度と、第1の視野角幅よりも広い視野角幅とを有する第3のカメラを含み得る。例えば、このカメラ対に対しては、狭い視野の視野446であリ得、より高い解像度のカメラの前では、広い視野の視野446であり得る。いくつかの例では、フロントガラスの背後に高解像度広角カメラしかない可能性がある。
図5は、一実装形態例による、方法500のフローチャートである。方法500は、ブロック502〜510のうちの1つ以上によって描写されるような1つ以上の動作を含み得る方法例に相当し、ブロック502〜510の各々は、他の可能なシステムの中でも、図1〜図4Bに示すシステムのいずれかによって実施され得る。一実装形態例において、光学系350などのコンピューティングシステムが、外部コンピューティングデバイス358と共に図示の動作を行うが、他の実装形態では、1つ以上の他のシステム(例えば、サーバコンピューティングシステム306)が動作の一部またはすべてを行うことができる。
当業者は、本明細書で説明されるフローチャートが、本開示の特定の実装形態の機能および動作を例証することを理解するであろう。これに関して、フローチャートの各ブロックは、プロセス内の特定の論理機能またはステップを実施するための1つ以上のプロセッサによって実行可能な1つ以上の命令を含む、モジュール、セグメント、またはプログラムコードの一部に相当し得る。プログラムコードは、例えば、ディスクまたはハードドライブを含むストレージデバイスなど、任意のタイプのコンピュータ可読媒体に格納され得る。いくつかの例では、プログラムコードの一部は、前述のSOCに格納され得る。
加えて、各ブロックは、プロセス内の特定の論理機能を行うように配線された回路に相当し得る。当業者であれば分かるように、関与する機能に応じて、機能が、ほぼ同時または逆の順序を含めて、図示したまたは説明したものとは異なる順序で実行され得る、代替の実装形態が、本出願の実装形態例の範囲内に含まれる。例の範囲内で、いずれのシステムも、別のシステムに、以下で説明される動作(または動作の一部)のうちの1つ以上を実行させることができる。
上記の考察に沿って、コンピューティングシステム(例えば、光学系350、外部コンピューティングデバイス358、リモートコンピューティングシステム302、またはサーバコンピューティングシステム306)は、方法500によって示されるように動作し得る。図5に示すように、ブロック502において、システムは、光学系の複数のセンサに光を与えることによって、各それぞれのカメラセンサに画像データを作成するように動作する。画像データは、それぞれのカメラセンサの視野に対応する。
前述の通り、車両は、光を受け取るように構成された複数のセンサを有し得る。いくつかの例では、車両は、19個のカメラセンサを含み得る。センサは、16個のセンサが上部マウント式センサユニットに位置するカメラユニットの8つのカメラ対を成し、3つのセンサが車両のフロントガラスの背後に位置するカメラユニットを成す状態で配置され得る。カメラ対は、それぞれ異なる露出を有する2つのカメラを伴って構成され得る。露出が異なる2つのカメラを有することにより、カメラは、視野の明るい範囲と暗い範囲の両方をより正確に画像化することが可能であり得る。カメラセンサの他の可能な配置もあり得る。
車両の動作の間、各センサは、それぞれのセンサの視野から光を受け取ることができる。センサは、所定のレートで画像を捕捉し得る。例えば、画像センサは、1秒当たり30枚または60枚の画像で、画像を捕捉することができ、または、外部センサもしくは外部事象によって、潜在的に反復的に、画像捕捉が引き起こされ得る。複数の捕捉された画像は、映像を形成し得る。
ブロック504において、システムは、複数のカメラセンサに結合された複数の画像処理ユニットによって画像データを圧縮することによって動作する。先に述べたように、19個のカメラの各々が固定フレームレートで画像を捕捉するため、システムによって捕捉されるデータ量が、非常に大量になる可能性がある。一例では、捕捉される各画像が10メガピクセルの場合、各非圧縮画像のサイズは、約10メガバイトである。19個のカメラがあり、各々が、毎秒60回、10メガバイトの画像を捕捉する場合、カメラシステム全体は、1秒当たり約11.5ギガバイトの画像データを捕捉する可能性がある。画像の解像度、ビット深度、圧縮などの画像捕捉システムのパラメータに応じて、画像のサイズは、異なり得る。いくつかの例では、画像ファイルが10メガバイトよりもはるかに大きい可能性がある。カメラシステムによって捕捉されるデータの量が、格納し、車両の様々な処理構成要素にルーティングするには実際的ではない場合がある。したがって、システムは、画像化システムのデータ使用量を低減するために、ある程度の画像処理および/または圧縮を含み得る。
画像化システムのデータ使用量を低減するために、画像センサが、画像処理を行うように構成されたプロセッサに結合されてもよい。画像処理には、画像圧縮が含まれ得る。データが大量であるために、データの格納、処理、および移動で、計算およびメモリを集中的に使用する場合がある。システムの計算およびメモリの必要を低減するために、画像データが、さらなる処理に向けてルーティングされる前に、画像センサの近くに位置する画像処理装置によって圧縮され得る。
いくつかの例では、画像処理は、画像センサごとに、カメラによって捕捉された所定枚数の画像のうちの1つを格納することを含み得る。格納されていない残りの画像に対し、画像処理装置は、画像をドロップし、画像内の物体の動きに関係するデータのみを格納し得る。実際には、所定枚数の画像が、6枚であり得、したがって、6枚ごとに1枚が保存され、残りの5枚の画像は、それらの関連する動きデータのみが保存され得る。加えて、画像処理装置が、保存された画像に対してある程度の圧縮を行う可能性があり、システムのデータ要件をさらに低減する。
したがって、圧縮後、格納された画像の枚数が、所定のレートに等しい係数によって減る。格納されない画像については、画像において検出された物体の動きデータが格納される。さらに、格納される画像を圧縮することもできる。いくつかの例では、画像は、圧縮画像において物体の検出を可能にするように、圧縮され得る。
システムの性能を高めるために、センサ対によって受信された画像を同時に、またはほぼ同時に処理することが望ましい可能性がある。画像を可能な限り同時に処理するためには、センサ対の各センサによって捕捉された画像を異なるそれぞれの画像処理装置にルーティングすることが望ましい可能性がある。そのため、センサ対によって捕捉された2つの画像は、2つの異なる画像処理装置によって同時に、またはほぼ同時に処理され得る。いくつかの例では、画像処理装置は、画像センサに物理的に近接して位置し得る。例えば、車両のセンサドームに位置する4つの画像処理装置が存在し得る。加えて、1つまたは2つの画像処理装置が、前方視画像センサの近くに位置し得る。
ブロック506において、システムは、複数の画像処理ユニットからコンピューティングシステムに圧縮画像データを通信することによって動作する。画像処理装置は、車両のデータバスに結合され得る。データバスは、処理された画像データを車両の別のコンピューティングシステムに通信し得る。例えば、画像データは、自律車両の動作を制御するように構成されている処理システムによって使用され得る。データバスは、光、同軸、またはツイストペアの通信経路にわたって働き得る。データバスの帯域幅は、処理された画像データをさらなる通信のためにある程度のオーバーヘッドで通信するのに十分であり得る。しかしながら、画像データが処理されなかった場合、データバスは、捕捉された画像データのすべてを通信するのに十分な帯域幅を有しない可能性がある。したがって、本システムは、従来の画像処理システムの処理およびデータ移動の要件を伴わずに、高品質のカメラシステムによって捕捉された情報を活かすことが可能であり得る。
データバスは、車両全体にわたって位置する様々な光学系(画像処理装置を含む)を追加のコンピューティングシステムに接続する。追加のコンピューティングシステムは、データストレージと車両制御システムの両方を含み得る。このように、データバスは、画像データが捕捉され、処理される光学系から、自律制御などの自律車両機能を制御することが可能であり得るコンピューティングシステムに圧縮画像データを移動させるように機能する。
ブロック508において、システムは、コンピューティングシステムのメモリに圧縮画像データを格納することによって動作する。画像データは、ブロック504で作成された圧縮フォーマットで格納され得る。メモリは、直に光学系と共に置かれていない車両のコンピューティングシステム内のメモリであり得る。いくつかの追加の例では、リモートコンピュータシステムに位置して、データストレージに使用されるメモリが存在し得る。メモリがリモートコンピュータシステムに位置する例では、車両のコンピューティングユニットは、画像データがリモートコンピューティングシステムに無線で通信されることを可能にするデータ接続を有し得る。
ブロック510において、システムは、コンピューティングシステムの車両制御プロセッサによって、圧縮画像データに基づいて装置を制御することによって動作する。いくつかの例では、画像データは、自律車両による実行のための車両命令を判定するために車両制御システムによって使用され得る。例えば、車両が、自律モードで動作していて、画像に捕捉された情報または物体に基づいてその動作を変える場合がある。いくつかの例では、画像データは、車両制御命令を決定するために、リモートコンピューティングシステムなどの異なる制御システムに関連付けられてもよい。自律車両は、リモートコンピューティングシステムから命令を受信し、それに応じてその自律動作を変え得る。
装置は、捕捉された画像データの物体および/または特徴を認識するコンピューティングシステムに基づいて制御され得る。コンピューティングシステムは、障害物を認識して、それを回避し得る。コンピューティングシステムは、道路標識および/または交通整理信号を認識して、車両の安全な自律運転を可能にすることもできる。コンピューティングシステムは、他の様々な方法で装置を制御することもできる。
図6は、一実装形態例による、コンピュータプログラムの概略図である。いくつかの実装形態では、本開示の方法は、機械可読フォーマットの非一時的コンピュータ可読記憶媒体上、または他の非一時的媒体もしくは製造物品上に符号化されたコンピュータプログラム命令として実装され得る。
一実装形態例において、コンピュータプログラム製品600は、信号担持媒体602を使用して提供され、信号担持媒体602は、1つ以上のプロセッサによって実行されと、図1〜図5に関して上記で説明した機能性または機能性の一部を提供し得る1つ以上のプログラミング命令604を含み得る。いくつかの例では、信号担持媒体602は、ハードディスクドライブ、CD、DVD、デジタルテープ、メモリ、遠隔に格納するための(例えば、クラウド上)構成要素などであるがこれらに限定されるものではない非一時的コンピュータ可読媒体606を包含し得る。いくつかの実装形態では、信号担持媒体602は、メモリ、読み取り/書き込み(R/W)CD、R/W DVDなどであるがこれらに限定されるわけではないコンピュータ記録可能媒体608を包含し得る。いくつかの実装形態では、信号担持媒体602は、デジタルおよび/またはアナログ通信媒体(例えば、光ファイバケーブル、導波管、有線通信リンク、無線通信リンクなど)などであるがこれらに限定されるわけではない通信媒体610を含み得る。同様に、信号担持媒体602は、リモートストレージ(例えば、クラウド)に対応し得る。コンピューティングシステムは、情報を送信または受信することを含めて、情報をクラウドと共有し得る。例えば、コンピューティングシステムは、センサまたは別のエンティティから取得した情報を補強するために、クラウドから追加情報を受信し得る。このため、例えば、信号担持媒体602は、無線形態の通信媒体610によって運ばれ得る。
1つ以上のプログラミング命令604は、例えば、コンピュータ実行可能命令および/または論理実装式命令であり得る。いくつかの例では、図1のコンピュータシステム112、または図3Aのリモートコンピューティングシステム302、および場合によってはサーバコンピューティングシステム306、または図3Bのプロセッサのうちの1つ、などのコンピューティングデバイスは、コンピュータ可読媒体606、コンピュータ記録可能媒体608、および/または通信媒体610のうちの1つ以上によってコンピュータシステム112に伝えられるプログラミング命令604に応答して、様々な動作、機能、または作用をもたらすように構成され得る。
非一時的コンピュータ可読媒体はまた、互いに遠隔に位置する可能性のある、複数のデータストレージ要素および/またはクラウド間で(例えば、遠隔に)分散する可能性がある。格納された命令の一部またはすべてを実行するコンピューティングデバイスは、図2に図解された車両200などの車両であり得る。代替的に、格納された命令の一部またはすべてを実行するコンピューティングデバイスは、サーバなどの別のコンピューティングデバイスであり得る。
上の発明を実施するための形態は、開示されるシステム、デバイス、および方法の様々な特徴および動作を添付の図を参照しながら述べている。本明細書では様々な態様および実施形態を開示したが、他の態様および実施形態が明らかになってくるであろう。本明細書に開示される様々な態様および実施形態は、例証を目的とするものであり、限定することを意図するものではなく、真の範囲は、以下の特許請求の範囲によって示される。

Claims (20)

  1. 装置であって、
    光学系であって、
    複数のカメラセンサであって、各カメラセンサが、前記それぞれのカメラセンサのそれぞれの視野のそれぞれの画像データを作成する、複数のカメラセンサと、
    前記複数のカメラセンサに結合された複数の画像処理ユニットであって、前記カメラセンサによって捕捉された前記画像データを圧縮するように構成され、前記カメラセンサの6インチの電気的距離内に位置する、複数の画像処理ユニットと、を伴って構成されている、光学系と、
    コンピューティングシステムであって、
    前記圧縮画像データを格納するように構成されたメモリと、
    前記圧縮画像データに基づいて車両を制御するように構成された車両制御プロセッサと、を伴って構成されている、コンピューティングシステムと、
    前記光学系と前記コンピューティングシステムとの間で前記圧縮画像データを通信するように構成されたデータバスと、を備える、装置。
  2. 前記データバスが、前記圧縮画像データの帯域幅以上の帯域幅を有し、前記データバス帯域幅が、未処理の画像データの送信用の帯域幅よりも狭い、請求項1に記載の装置。
  3. 前記複数のカメラセンサが、8つのセンサ対で配置されたカメラセンサを含み、前記8つのセンサ対が、円環に配置されている、請求項2に記載の装置。
  4. 前記円環が、回転するように構成される、請求項3に記載の装置。
  5. 前記センサ対の各カメラセンサが、前記センサ対の他のカメラセンサとは異なる画像処理ユニットに結合されている、請求項2に記載の装置。
  6. 前記画像処理ユニットが、複数の画像における1つ以上の画像の第1のセットを維持し、前記複数の画像における1つ以上の画像の第2のセットに関連する動きデータを抽出することにより、前記複数の画像を圧縮するように構成されている、請求項1に記載の装置。
  7. 前記光学系が、前記車両のセンサドームに装着されている、請求項1に記載の装置。
  8. 前記光学系が、前記車両のフロントガラスの背後に装着されている、請求項1に記載の装置。
  9. 方法であって、
    光学系の複数のカメラセンサに光を与えて、各それぞれのカメラセンサに、それぞれの視野に対応する画像データを作成することと、
    前記複数のカメラセンサに結合された複数の画像処理ユニットによって前記画像データを圧縮することであって、前記画像処理ユニットが前記カメラセンサの6インチの電気的距離内に位置する、圧縮することと、
    前記複数の画像処理ユニットからコンピューティングシステムに前記圧縮画像データを通信することと、
    前記圧縮画像データを前記コンピューティングシステムのメモリに格納することと、
    前記コンピューティングシステムの車両制御プロセッサによって、前記圧縮画像データに基づいて車両を制御することと、を含む、方法。
  10. 2つのカメラセンサを備えるセンサ対によって2つの画像を捕捉することをさらに含む、請求項9に記載の方法。
  11. 前記センサ対の各それぞれのカメラによって捕捉された前記画像が、様々な画像処理ユニットに通信され、複数の画像処理ユニットによって前記画像データを圧縮することは、異なるそれぞれの画像処理ユニットが前記センサ対の各カメラセンサからの前記画像データを圧縮することを含む、請求項10に記載の方法。
  12. 前記様々な画像処理ユニットが、前記センサ対から受信した画像を同時にまたはほぼ同時に処理するように構成されている、請求項11に記載の方法。
  13. 前記画像データを圧縮することは、前記複数の画像における1つ以上の画像の第1のセットを維持し、前記複数の画像における1つ以上の画像の第2のセットに関連する動きデータを抽出することを含む、請求項9に記載の方法。
  14. 前記画像データを圧縮することは、第1の画像を基準画像として格納し、後続の画像では、前記基準画像に対する変化に関係するデータを格納し、閾値が満たされた後に新しい基準画像を格納することを含む、請求項9に記載の方法。
  15. 車両であって、
    ルーフマウント式センサユニットであって、
    第1の複数のカメラセンサを伴って構成された第1の光学系であって、前記第1の複数のカメラセンサの各カメラセンサが、前記それぞれのカメラセンサのそれぞれの視野のそれぞれの画像データを作成する、第1の光学系と、
    前記第1の複数のカメラセンサに結合された複数の第1の画像処理ユニットであって、前記第1の画像処理ユニットが、前記第1の複数のカメラセンサによって捕捉された前記画像データを圧縮するように構成される、複数の第1の画像処理ユニットと、を備える、ルーフマウント式センサユニットと、
    第2のカメラユニットであって、
    第2の複数のカメラセンサを伴って構成された第2の光学系であって、前記第2の複数のカメラセンサの各カメラセンサが、前記それぞれのカメラセンサのそれぞれの視野のそれぞれの画像データを作成する、第2の光学系と、
    前記第2の複数のカメラセンサに結合された複数の第2の画像処理ユニットであって、前記第2の画像処理ユニットが、前記第2の複数のカメラセンサによって捕捉された前記画像データを圧縮するように構成される、複数の第2の画像処理ユニットと、を備える、第2のカメラユニットと、
    前記ルーフマウント式センサユニットの外側で、前記車両内に位置するコンピューティングシステムであって、
    前記圧縮画像データを格納するように構成されたメモリと、
    前記圧縮画像データに基づいて前記車両を制御するように構成された制御システムと、を備える、コンピューティングシステムと、
    前記ルーフマウント式センサユニット、前記第2のカメラユニット、および前記コンピューティングシステムの間で前記圧縮画像データを通信するように構成されたデータバスと、を備える、車両。
  16. 前記第1の複数のカメラセンサが、8つのセンサ対で配置されたカメラセンサを含み、前記8つのセンサ対が、円環に配置されている、請求項15に記載の車両。
  17. 前記円環が、回転するように構成される、請求項16に記載の車両。
  18. 各センサ対が、輝度レベルの第1の範囲に対応する第1のダイナミックレンジで、ある場面を画像化するように構成された第1のカメラセンサと、輝度レベルの第2の範囲に対応する第2のダイナミックレンジで、前記場面を画像化するように構成された第2のカメラセンサと、を含み、前記輝度レベルの第2の範囲が、前記輝度レベルの第1の範囲よりも高い輝度レベルを含む、請求項16に記載の車両。
  19. 前記センサ対の各カメラセンサが、前記センサ対の他のカメラセンサとは異なる画像処理ユニットに結合されている、請求項16に記載の車両。
  20. 前記画像処理ユニットが、前記複数の画像における1つ以上の画像の第1のセットを維持し、前記複数の画像における1つ以上の画像の第2のセットに関連する動きデータを抽出することにより、画像を圧縮するように構成されている、請求項15に記載の車両。
JP2020534966A 2017-12-29 2018-12-11 高速画像読み出しおよび処理 Active JP7080977B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
US201762612294P 2017-12-29 2017-12-29
US62/612,294 2017-12-29
US16/214,589 2018-12-10
US16/214,589 US20190208136A1 (en) 2017-12-29 2018-12-10 High-speed image readout and processing
PCT/US2018/064972 WO2019133246A1 (en) 2017-12-29 2018-12-11 High-speed image readout and processing

Publications (2)

Publication Number Publication Date
JP2021509237A true JP2021509237A (ja) 2021-03-18
JP7080977B2 JP7080977B2 (ja) 2022-06-06

Family

ID=67060101

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020534966A Active JP7080977B2 (ja) 2017-12-29 2018-12-11 高速画像読み出しおよび処理

Country Status (10)

Country Link
US (2) US20190208136A1 (ja)
EP (1) EP3732877A4 (ja)
JP (1) JP7080977B2 (ja)
KR (2) KR102408837B1 (ja)
CN (1) CN111527745B (ja)
AU (2) AU2018395869B2 (ja)
CA (1) CA3086809C (ja)
IL (1) IL275545A (ja)
SG (1) SG11202005906UA (ja)
WO (1) WO2019133246A1 (ja)

Families Citing this family (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP7156195B2 (ja) * 2019-07-17 2022-10-19 トヨタ自動車株式会社 物体認識装置
US11787288B2 (en) * 2019-07-24 2023-10-17 Harman International Industries, Incorporated Systems and methods for user interfaces in a vehicular environment
US11022972B2 (en) * 2019-07-31 2021-06-01 Bell Textron Inc. Navigation system with camera assist
KR20220012747A (ko) 2020-07-23 2022-02-04 주식회사 엘지에너지솔루션 배터리를 진단하기 위한 장치 및 그 방법
US20220179066A1 (en) * 2020-10-04 2022-06-09 Digital Direct Ir, Inc. Connecting external mounted imaging and sensor devices to electrical system of a vehicle
US11880902B2 (en) * 2020-12-30 2024-01-23 Waymo Llc Systems, apparatus, and methods for enhanced image capture
WO2022197628A1 (en) * 2021-03-17 2022-09-22 Argo AI, LLC Remote guidance for autonomous vehicles
KR102465191B1 (ko) * 2021-11-17 2022-11-09 주식회사 에스씨 선박의 입항 및 접안을 어시스트하는 어라운드뷰 시스템
US11898332B1 (en) * 2022-08-22 2024-02-13 Caterpillar Inc. Adjusting camera bandwidth based on machine operation
US20240106987A1 (en) * 2022-09-20 2024-03-28 Waymo Llc Multi-Sensor Assembly with Improved Backward View of a Vehicle

Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027446A (ja) * 2000-07-04 2002-01-25 Matsushita Electric Ind Co Ltd 監視システム
JP2010154478A (ja) * 2008-12-26 2010-07-08 Fujifilm Corp 複眼撮像装置及びその合成画像生成方法
US20150348388A1 (en) * 2014-05-28 2015-12-03 Seth Teller Protecting roadside personnel from vehicle impacts
JP5948465B1 (ja) * 2015-06-04 2016-07-06 株式会社ファンクリエイト 映像処理システム及び映像処理方法
US20160352982A1 (en) * 2015-05-27 2016-12-01 Google Inc. Camera rig and stereoscopic image capture
US20170193338A1 (en) * 2016-01-05 2017-07-06 Mobileye Vision Technologies Ltd. Systems and methods for estimating future paths
US20170244962A1 (en) * 2014-03-07 2017-08-24 Eagle Eye Networks Inc Adaptive Security Camera Image Compression Method of Operation
WO2017145818A1 (ja) * 2016-02-24 2017-08-31 ソニー株式会社 信号処理装置、および信号処理方法、並びにプログラム

Family Cites Families (27)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
ATE318484T1 (de) * 2000-03-24 2006-03-15 Reality Commerce Corp Verfahren und vorrichtung zur parallelen mehrfachblickwinkelbildaufnahme und -kompression
JP3297040B1 (ja) * 2001-04-24 2002-07-02 松下電器産業株式会社 車載カメラの画像合成表示方法及びその装置
DE102004061998A1 (de) * 2004-12-23 2006-07-06 Robert Bosch Gmbh Stereokamera für ein Kraftfahrzeug
DE102006014504B3 (de) * 2006-03-23 2007-11-08 Fraunhofer-Gesellschaft zur Förderung der angewandten Forschung e.V. Bilderfassungssystem für Kraft- und Schienenfahrzeuge sowie Verfahren zur elektronischen Bilderfassung
US20070242141A1 (en) * 2006-04-14 2007-10-18 Sony Corporation And Sony Electronics Inc. Adjustable neutral density filter system for dynamic range compression from scene to imaging sensor
US8471906B2 (en) * 2006-11-24 2013-06-25 Trex Enterprises Corp Miniature celestial direction detection system
CN101266132B (zh) * 2008-04-30 2011-08-10 西安工业大学 基于mpfg运动矢量的行车障碍检测方法
WO2010048524A1 (en) * 2008-10-24 2010-04-29 Transvideo, Inc. Method and apparatus for transrating compressed digital video
DE102009016580A1 (de) * 2009-04-06 2010-10-07 Hella Kgaa Hueck & Co. Datenverarbeitungssystem und Verfahren zum Bereitstellen mindestens einer Fahrerassistenzfunktion
EP2523163B1 (en) * 2011-05-10 2019-10-16 Harman Becker Automotive Systems GmbH Method and program for calibrating a multicamera system
EP2793470A1 (en) * 2011-12-16 2014-10-22 Sony Corporation Image pickup device
EP2629506A1 (en) * 2012-02-15 2013-08-21 Harman Becker Automotive Systems GmbH Two-step brightness adjustment in around-view systems
WO2014019602A1 (en) * 2012-07-30 2014-02-06 Bayerische Motoren Werke Aktiengesellschaft Method and system for optimizing image processing in driver assistance systems
JP2014081831A (ja) * 2012-10-17 2014-05-08 Denso Corp 画像情報を用いた車両用運転支援システム
US9769365B1 (en) * 2013-02-15 2017-09-19 Red.Com, Inc. Dense field imaging
KR101439013B1 (ko) * 2013-03-19 2014-09-05 현대자동차주식회사 스테레오 영상 처리 장치 및 방법
US9164511B1 (en) * 2013-04-17 2015-10-20 Google Inc. Use of detected objects for image processing
US9145139B2 (en) * 2013-06-24 2015-09-29 Google Inc. Use of environmental information to aid image processing for autonomous vehicles
KR101579098B1 (ko) * 2014-05-23 2015-12-21 엘지전자 주식회사 스테레오 카메라, 이를 구비한 차량 운전 보조 장치, 및 차량
CA2902675C (en) * 2014-08-29 2021-07-27 Farnoud Kazemzadeh Imaging system and method for concurrent multiview multispectral polarimetric light-field high dynamic range imaging
US9369689B1 (en) * 2015-02-24 2016-06-14 HypeVR Lidar stereo fusion live action 3D model video reconstruction for six degrees of freedom 360° volumetric virtual reality video
US9625582B2 (en) * 2015-03-25 2017-04-18 Google Inc. Vehicle with multiple light detection and ranging devices (LIDARs)
US9979907B2 (en) * 2015-09-18 2018-05-22 Sony Corporation Multi-layered high-dynamic range sensor
US9686478B2 (en) * 2015-11-19 2017-06-20 Google Inc. Generating high-dynamic range images using multiple filters
US9535423B1 (en) * 2016-03-29 2017-01-03 Adasworks Kft. Autonomous vehicle with improved visual detection ability
FR3050596B1 (fr) * 2016-04-26 2018-04-20 New Imaging Technologies Systeme imageur a deux capteurs
WO2018106970A1 (en) * 2016-12-09 2018-06-14 Formfactor, Inc. Led light source probe card technology for testing cmos image scan devices

Patent Citations (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2002027446A (ja) * 2000-07-04 2002-01-25 Matsushita Electric Ind Co Ltd 監視システム
JP2010154478A (ja) * 2008-12-26 2010-07-08 Fujifilm Corp 複眼撮像装置及びその合成画像生成方法
US20170244962A1 (en) * 2014-03-07 2017-08-24 Eagle Eye Networks Inc Adaptive Security Camera Image Compression Method of Operation
US20150348388A1 (en) * 2014-05-28 2015-12-03 Seth Teller Protecting roadside personnel from vehicle impacts
US20160352982A1 (en) * 2015-05-27 2016-12-01 Google Inc. Camera rig and stereoscopic image capture
JP5948465B1 (ja) * 2015-06-04 2016-07-06 株式会社ファンクリエイト 映像処理システム及び映像処理方法
US20170193338A1 (en) * 2016-01-05 2017-07-06 Mobileye Vision Technologies Ltd. Systems and methods for estimating future paths
WO2017145818A1 (ja) * 2016-02-24 2017-08-31 ソニー株式会社 信号処理装置、および信号処理方法、並びにプログラム

Also Published As

Publication number Publication date
KR102408837B1 (ko) 2022-06-14
CN111527745B (zh) 2023-06-16
KR20200091936A (ko) 2020-07-31
US20210368109A1 (en) 2021-11-25
IL275545A (en) 2020-08-31
CA3086809C (en) 2022-11-08
WO2019133246A1 (en) 2019-07-04
CA3086809A1 (en) 2019-07-04
EP3732877A4 (en) 2021-10-06
AU2021282441A1 (en) 2021-12-23
AU2018395869A1 (en) 2020-07-16
AU2021282441B2 (en) 2023-02-09
SG11202005906UA (en) 2020-07-29
AU2018395869B2 (en) 2021-09-09
JP7080977B2 (ja) 2022-06-06
EP3732877A1 (en) 2020-11-04
US20190208136A1 (en) 2019-07-04
KR20220082118A (ko) 2022-06-16
CN111527745A (zh) 2020-08-11

Similar Documents

Publication Publication Date Title
JP7080977B2 (ja) 高速画像読み出しおよび処理
JP7069318B2 (ja) 自動運転車両の画像捕捉デバイスが遭遇する光の範囲を制御するための方法およびシステム
JP7097439B2 (ja) 調節可能な垂直視野
US11706507B2 (en) Systems, apparatus, and methods for generating enhanced images
US20240135551A1 (en) Systems, Apparatus, and Methods for Retrieving Image Data of Image Frames
US20230035747A1 (en) Systems, Apparatus, and Methods For Transmitting Image Data

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200818

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210928

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211223

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20220125

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20220405

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220506

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220525

R150 Certificate of patent or registration of utility model

Ref document number: 7080977

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150