JP7258137B2 - 複数フレーム意味信号の高速cnn分類 - Google Patents

複数フレーム意味信号の高速cnn分類 Download PDF

Info

Publication number
JP7258137B2
JP7258137B2 JP2021526679A JP2021526679A JP7258137B2 JP 7258137 B2 JP7258137 B2 JP 7258137B2 JP 2021526679 A JP2021526679 A JP 2021526679A JP 2021526679 A JP2021526679 A JP 2021526679A JP 7258137 B2 JP7258137 B2 JP 7258137B2
Authority
JP
Japan
Prior art keywords
vectors
images
time
classifier
sequence images
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2021526679A
Other languages
English (en)
Other versions
JP2022509774A (ja
JPWO2020099936A5 (ja
Inventor
マラシュ,エラン
シャムビク,ヤーコブ
ベントリラ,ヤーコブ
ゲラー,イダン
Original Assignee
モービルアイ ヴィジョン テクノロジーズ リミテッド
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by モービルアイ ヴィジョン テクノロジーズ リミテッド filed Critical モービルアイ ヴィジョン テクノロジーズ リミテッド
Publication of JP2022509774A publication Critical patent/JP2022509774A/ja
Publication of JPWO2020099936A5 publication Critical patent/JPWO2020099936A5/ja
Application granted granted Critical
Publication of JP7258137B2 publication Critical patent/JP7258137B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • G06N3/084Backpropagation, e.g. using gradient descent
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/34Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating change of drive direction
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60QARRANGEMENT OF SIGNALLING OR LIGHTING DEVICES, THE MOUNTING OR SUPPORTING THEREOF OR CIRCUITS THEREFOR, FOR VEHICLES IN GENERAL
    • B60Q1/00Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor
    • B60Q1/26Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic
    • B60Q1/44Arrangement of optical signalling or lighting devices, the mounting or supporting thereof or circuits therefor the devices being primarily intended to indicate the vehicle, or parts thereof, or to give signals, to other traffic for indicating braking action or preparation for braking, e.g. by detection of the foot approaching the brake pedal
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R11/00Arrangements for holding or mounting articles, not otherwise provided for
    • B60R11/04Mounting of cameras operative during drive; Arrangement of controls thereof relative to the vehicle
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/0088Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots characterized by the autonomous decision making process, e.g. artificial intelligence, predefined behaviours
    • GPHYSICS
    • G05CONTROLLING; REGULATING
    • G05DSYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
    • G05D1/00Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
    • G05D1/02Control of position or course in two dimensions
    • G05D1/021Control of position or course in two dimensions specially adapted to land vehicles
    • G05D1/0231Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
    • G05D1/0246Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/21Design or setup of recognition systems or techniques; Extraction of features in feature space; Blind source separation
    • G06F18/217Validation; Performance evaluation; Active pattern learning techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06FELECTRIC DIGITAL DATA PROCESSING
    • G06F18/00Pattern recognition
    • G06F18/20Analysing
    • G06F18/24Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/44Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
    • G06V10/443Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
    • G06V10/449Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
    • G06V10/451Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
    • G06V10/454Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/46Descriptors for shape, contour or point-related descriptors, e.g. scale invariant feature transform [SIFT] or bags of words [BoW]; Salient regional features
    • G06V10/469Contour-based spatial representations, e.g. vector-coding
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/40Extraction of image or video features
    • G06V10/50Extraction of image or video features by performing operations within image blocks; by using histograms, e.g. histogram of oriented gradients [HoG]; by summing image-intensity values; Projection analysis
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/764Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/50Context or environment of the image
    • G06V20/56Context or environment of the image exterior to a vehicle by using sensors mounted on the vehicle
    • G06V20/58Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads
    • G06V20/584Recognition of moving objects or obstacles, e.g. vehicles or pedestrians; Recognition of traffic objects, e.g. traffic signs, traffic lights or roads of vehicle lights or traffic lights
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/19Recognition using electronic means
    • G06V30/191Design or setup of recognition systems or techniques; Extraction of features in feature space; Clustering techniques; Blind source separation
    • G06V30/19173Classification techniques
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V30/00Character recognition; Recognising digital ink; Document-oriented image-based pattern recognition
    • G06V30/10Character recognition
    • G06V30/26Techniques for post-processing, e.g. correcting the recognition result
    • G06V30/262Techniques for post-processing, e.g. correcting the recognition result using context analysis, e.g. lexical, syntactic or semantic context
    • G06V30/274Syntactic or semantic context, e.g. balancing
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B60VEHICLES IN GENERAL
    • B60RVEHICLES, VEHICLE FITTINGS, OR VEHICLE PARTS, NOT OTHERWISE PROVIDED FOR
    • B60R2300/00Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle
    • B60R2300/80Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement
    • B60R2300/8086Details of viewing arrangements using cameras and displays, specially adapted for use in a vehicle characterised by the intended use of the viewing arrangement for vehicle path indication
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/044Recurrent networks, e.g. Hopfield networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N7/00Computing arrangements based on specific mathematical models
    • G06N7/01Probabilistic graphical models, e.g. probabilistic networks

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Multimedia (AREA)
  • Artificial Intelligence (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Health & Medical Sciences (AREA)
  • General Health & Medical Sciences (AREA)
  • Data Mining & Analysis (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Software Systems (AREA)
  • Computing Systems (AREA)
  • Computational Linguistics (AREA)
  • General Engineering & Computer Science (AREA)
  • Biomedical Technology (AREA)
  • Molecular Biology (AREA)
  • Mathematical Physics (AREA)
  • Biophysics (AREA)
  • Medical Informatics (AREA)
  • Mechanical Engineering (AREA)
  • Databases & Information Systems (AREA)
  • Biodiversity & Conservation Biology (AREA)
  • Remote Sensing (AREA)
  • Automation & Control Theory (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Radar, Positioning & Navigation (AREA)
  • Bioinformatics & Computational Biology (AREA)
  • Evolutionary Biology (AREA)
  • Bioinformatics & Cheminformatics (AREA)
  • Electromagnetism (AREA)
  • Game Theory and Decision Science (AREA)
  • Business, Economics & Management (AREA)
  • Probability & Statistics with Applications (AREA)
  • Algebra (AREA)
  • Computational Mathematics (AREA)
  • Mathematical Analysis (AREA)
  • Mathematical Optimization (AREA)
  • Pure & Applied Mathematics (AREA)

Description

本出願は、2018年11月15日に出願された「FAST CNN CLASSIFICATION OF MULTI-FRAME SEMANTIC SIGNALS」と題する米国仮出願第62/767,785号に関連し、その優先権を主張し、その全体は参照により本明細書に組み込まれる。
高度運転者支援システム(ADAS)及び自律型車両(AV)システムは、カメラ及び他のセンサを使用して、部分的又は完全自律型車両ナビゲーションを提供する。カメラ及びセンサは、他の車両、車線、又は他のナビゲーション環境の特徴を識別するために使用されるADAS又はAVシステムに入力を提供する。ADAS及びAVシステムが完全自律型動作に向かって進歩するにつれて、コンピュータビジョン入力の識別及び分類を改善することが有益である。
開示された実施形態は、ADAS及びAVシステムの一部として、又はそれらと組み合わせて使用することができるシステム及び方法を提供する。これらのADAS及びAVシステムは、カメラ及び他のセンサを使用して、物体及び事象を検出し、それらを予め定義された信号分類器として識別することができ、例えば、赤色の停止信号を検出及び識別する。これらの信号分類器は、ADAS及びAVシステム内で使用され、信号のタイプに基づいて車両を制御するか、又は車両操作者に警告する。これらのADAS及びAVシステムは、人間の入力を必要とせずに完全車両動作を提供することができる。本明細書に開示された実施形態は、ADAS及びAVシステムの一部として、又はそれらと組み合わせて使用することができるシステム及び方法を提供する。ADAS技術は、前方衝突警報(FCW)、車線逸脱警報(LDW)、信号灯認識(TSR)、又は他の部分的自律型運転者支援技術など、運転者をナビゲーションにおいて支援するか、又はそれらの車両を制御する任意の技術を含むことができる。
人間の車両操作者は、同様の入力に対して反応し、例えば、人間は、赤色の停止信号を視覚的に識別し、ブレーキをかけて車両を停止させる。しかしながら、人間の車両操作者は、信号灯を識別し、車両制御を操作するために主観的な決定に依存する。対照的に、本開示は、例えば、カメラ及び他のセンサからの入力に基づいて信号分類器を識別するために、畳み込みニューラルネットワーク(CNN)などの機械学習アルゴリズムを使用して訓練された訓練されたシステムによって定義された規則のセットを適用するシステム及び方法を提供する。この技術解決策により、従来は自動化できなかった特定の車両動作タスクを自動化することが可能となる。いくつかの実施形態において、本開示のシステム及び方法は、車両の動作の安全性又は効率を改善するなどのため、車両運転者(例えば、車両操作者)に警告するために使用され得る。
以下の詳細な説明は、添付の図面を参照する。可能な限り、同一の参照番号が、図面及び以下の説明において、同じか、又は類似する部分を参照するために使用される。いくつかの例示的な実施形態が本明細書で説明されているが、修正、適応及び他の実装が可能である。例えば、図に図示された構成要素に置換、追加、又は修正を行うことができ、本明細書で説明された例示的な方法は、開示された方法にステップを置換、再順序付け、除去、又は追加することによって修正することができる。したがって、以下の詳細な説明は、開示された実施形態及び実施例に限定されない。
添付の図面は、本開示に組み込まれ、本開示の一部を構成するが、様々な開示された実施形態を例示する。
例示の実施形態による方法のブロック図表現である。 例示の実施形態による画像マッピングのブロック図表現である。 例示の実施形態による画像マッピングのブロック図表現である。 例示の実施形態によるシステムのブロック図表現である。 例示の実施形態によるシステムのブロック図表現である。 例示の実施形態によるシステムのブロック図表現である。 例示の実施形態によるシステムのブロック図表現である。
このシステムは、畳み込みニューラルネットワーク(CNN)などのニューラルネットワークまたは深層学習アルゴリズムを訓練するために、道路を航行している車両の前方の環境の画像を処理して、信号(例えば、複数フレーム意味信号)のコンテキスト内の複数フレーム信号を検出及び分類するようにアレンジすることができる。例示の複数フレーム意味信号は、車両灯表示器(VLI)を含み、そのタスクは、その灯表示器(例えば、点滅灯、ブレーキ灯、ハザード灯)に基づいて車両の状態を識別することである。また、複数フレーム意味信号は、緊急車両灯(例えば、緊急車両の閃光灯)、建設標識灯(例えば、迂回路管理用)、信号灯状態分類(例えば、青色/黄色/赤色光、点滅する青色/黄色/赤色、点滅する矢印など)、又は他の時変視覚信号を含んでもよい。意味信号は、車両操縦を識別し、ホスト車両の環境中の特殊車両(例えば、緊急車両)の存在を検出し、道路標識表示器(例えば、信号機)の状態又は挙動を識別し、又は他の近傍信号又は車両を識別するために使用することができる。本開示の例において、複数フレーム意味信号は、ホスト車両に搭載された1つ以上のセンサによって一定期間にわたって捕捉された複数のフレームから生成される信号に関することができる。様々な実施形態では、複数のフレームは、信号シグネチャを生成するために使用され、シグネチャは、信号を特徴付けるために処理される。このような処理の結果は、信号に応答して車両制御信号を生成するために使用することができ、例えば、車両操作者に通知するか、車両ブレーキ制御信号を生成する。いくつかの実施形態において、車両制御システムは、車両制御信号を受信し、識別された車両操縦を実行するか、又は適切な警告を発行するために使用することができる。
しかしながら、本開示の実施形態は、意味信号が灯によって引き起こされるシナリオに限定されないと理解されよう。意味信号識別は、様々な他の状況と関連付けることができ、他のタイプの画像データから、また、可聴情報のような画像ベースではない、又は排他的に画像ベースではないデータからももたらすことができる。いくつかの実施形態において、複数フレーム意味信号はまた、警察サイレン又は緊急車両サイレンなどの可聴信号の検出を含むことができる。
本明細書で説明されるシステム及び方法は、カメラ及び他のセンサからの入力に基づいて信号分類器を識別する複数フレームの意味信号の検出及び分類を提供する畳み込みニューラルネットワーク(CNN)の適用を含む。入力は、例えば信号特性のデータベースに対してマッチングすることによって、予め定義された信号特性に対して分析又はマッチングすることができる。入力は、事象、事象のシーケンス、物体、物体の挙動(例えば、物体運動シーケンスに基づく運転パターン)、又は他の物体又は事象特徴を識別、分析、又は予測するために使用することができる。
CNNのこの応用は入力の人工知能(AI)分析に基づく。本明細書で使用されるように、AI分析は、人のような生きたアクターを伝統的に必要とする認知タスクを行う意思決定システムの開発に関する分野である。CNNは人工ニューラルネットワーク(ANN)アルゴリズムの一種であり、ANNは生物学的ニューロンに緩くモデル化され得る計算構造を含む。一般に、ANNは、ノード(例えば、ニューロン)間の重み付けされた接続(例えば、シナプス)を介して情報(例えば、データ又は意思決定)を符号化する。現代のANNは、とりわけ、自動化された知覚(例えば、コンピュータビジョン、音声認識、文脈認識など)、自動化された認知(例えば、意思決定、ロジスティクス、ルーティング、サプライチェーン最適化など)、自動化された制御(例えば、自律型自動車、ドローン、ロボットなど)のような、多くのAIアプリケーションの基礎となっている。
多くのANNは、モデル化された接続に対応する重みの行列として表現される(例えば、実装される)。ANNは、しばしば他のニューロンに多くの外向きの接続を有する入力ニューロンのセットにデータを受け入れることによって動作する。ニューロン間を移動するたびに、対応する重みが入力を修正し、目的のニューロンの閾値に対してテストされる。重み値が閾値を超えた場合、その値は再び重み付けされるか、非線形関数によって変換され、ANNグラフの下流の別のニューロンに伝達される。閾値を超えない場合、その値は通常、グラフの下流のニューロンには伝達されず、シナプス結合は非アクティブのままである。重み付けとテストのプロセスは出力ニューロンに到達するまで継続し、出力ニューロンのパターンと値がANN処理の結果を構築する。
ほとんどのANNの正しい動作は正しい重みに依存する。しかし、ANNの設計者は、どの重みが所与のアプリケーションに対して動作するか分からないことがある。ANNの設計者は、典型的には、多数のニューロン層、又は円形接続を含む層間の特定の接続を選択するが、ANNの設計者は、どの重みが所与のアプリケーションに対して動作するか分からないことがある。その代わり、適切なウェイトに到達するために訓練プロセスが使用される。しかし、正しいシナプス重みを決定することはほとんどのANNによくみられる。訓練プロセスは、最初の重みを選択することによって進行し、これはランダムに選択することができる。訓練データがANNに供給され、結果がエラーの指標となる目的関数と比較される。エラーの指標は、ANNの結果が予想された結果と比較して、どの程度間違えているか尺度である。次に、このエラーを使用して、重みを補正する。多くの反復にわたって、重みは、動作データをANNに符号化するために、集合的に収束する。このプロセスは、目的関数(例えば、コスト又は損失関数)の最適化と呼ばれることがあり、それによってコスト又は損失が最小化される。
バックプロパゲーションは、訓練データがANNを介して前方に送られる技術であり、ここで、「前方」とは、データが入力ニューロンから始まり、出力ニューロンに到達するまでのニューロン接続の有向グラフに従うことを意味し、目的関数は、ANNを介して逆方向に適用され、シナプス重みを補正する。バックプロパゲーションプロセスの各ステップでは、前のステップの結果が重みを補正するために使用される。したがって、出力ニューロン補正の結果は、出力ニューロンに接続するニューロンに適用され、入力ニューロンに到達するまで同様である。バックプロパゲーションは、様々なANNを訓練するための一般的な技法となっている。
本明細書で説明する意味信号検出及び分類は、複数フレーム画像シーケンスの分類へのディープニューラルネットワーク(DNN)の適用に基づくことができる。シーケンスデータを扱うためのDNNアーキテクチャは、再帰型ニューラルネットワーク(RNN)及び3D CNNSの変異型を含むことができる。RNNは自然言語処理(NLP)タスクについて良好に行うと考える人もいるが、画像の空間構造を捕捉する際にRNNのほうが効果的ではないと考える人もいるので、RNNは、典型的には画像シーケンスについて広く使用されない。追加的に、RNNの変異体は畳み込みを使用するが、複雑なアーキテクチャを実施することを伴い、しばしば劣った結果をもたらすため、これは典型的には広く使用されない。
3D CNNの使用は、RNNの欠陥のいくつかに対処する。例えば、3D CNNは、シーケンシャル画像データを処理するための直接的なアーキテクチャを提供し、しばしば、RNNに比べて優れた性能を与える。しかし、完全3D畳み込みは計算コストが高く、これは、自律型運転などのリアルタイムアプリケーションには好ましくない。例えば、完全3D畳み込みは、しばしば、画像の長いシーケンスを保存することを含み、これは、かなりのメモリ空間を必要とし、3Dデータ(例えば、多次元行列データ)を処理することに起因して計算コストを著しく増加させる。
完全3D畳み込みの使用とは対照的に、本技術的解決策は、シーケンス画像を処理して、画像のシーケンス全体の時空間構造を維持しながら、時系列画像を生成する。時空間構造を維持することにより、この技術的解決策は、メモリ空間要求を著しく低減し、計算コストを著しく低減した、完全3D畳み込みを使用する利点を享受する。
本開示の主題の実施例による方法は、本明細書に記載される車両搭載可能システムの様々な可能な実装及び構成のうちの1つ以上で実装されてもよい。いくつかの実施形態では、システムの様々な実施例は、車両に搭載することができ、車両が動いている間に操作することができる。いくつかの実施形態では、システムは、現在開示されている主題の例に従った方法を実装することができる。
以下の説明及び図面は、当業者が特定の実施形態を理解できるように、特定の実施形態を十分に説明している。他の実施形態は、構造、論理、電気、プロセス、及び他の変更を組み込むことができる。様々な実施形態の一部及び特徴は、他の実施形態のそれらに含まれてもよく、又は置換されてもよい。特許請求の範囲に記載された実施形態は、これらの特許請求の範囲のすべての利用可能な等価物を包含する。
図1は、例示の実施形態による方法100のブロック図表現である。方法100は、複数の入力画像110を受信することを含む。様々な例において、画像110は、図2に示す車両ブレーキ灯の画像のシーケンスを含んでもよく、又は図3に示す車両右左折信号の画像のシーケンスを含んでもよい。
方法100は、複数の画像110の各々を対応する複数のベクトル120にマッピングすることを含む。複数の画像110は、画像を捕捉するために使用されたカメラの視野(FOV)内のホスト車両の環境(例えば、3D環境)の2次元表現である。例えば、2D複数の画像110は、画像画素の2-Dアレイと追加の撮像回路とを含むセンサを使用して作成することができる。
複数の画像110の対応する複数のベクトル120へのマッピングは、ベクトル120が元の画像110の空間構造をその軸の1つに沿って維持するように実行することができる。したがって、複数のベクトル120の各々は、対応するソース2D画像から作成された1D表現を提供する。図1に示す例では、ベクトル120は、行ベクトルを含んでもよく、行ベクトル120の各々は、対応する画像110の各々と同じ幅「W」のものである。画像110のベクトル120へのマッピングは、画像の各列に沿って平均値、中央値、又は最大値を計算するなど、コンピュータビジョンハードウェアが効率的に実行できる動作を含んでもよい。
方法100は、ベクトル120を新しい時間的画像130に連結することを含む。これは、複数のベクトル120のすべて、又は複数のベクトル120の代表的な数(例えば、統計的に代表的なサンプリング)から構成される2D画像時間的画像130を提供する。時間的画像130は、ベクトル120及び画像110と同じ幅「W」であり、ソース画像の数と等しい高さ「T」を含んでもよい。方法100は、意味信号150を識別するために、畳み込みニューラルネットワーク(CNN)140に時間的画像130を供給することを含む。
時間的画像130の行は、元の画像の空間構造を維持するので、CNN 140に供給される時間的画像130は、画像110の全体シーケンスの時空間構造を維持する。時空間構造を維持する、すなわち、CNN140における時間的画像130の使用によって、これは、メモリ空間の必要性を著しく減少させ、計算コストを著しく減少させて、完全3D畳み込みを使用することの同じ利点を提供する。一実施例では、時空間構造を維持することによって、本解決策は、2D CNNに類似したメモリ及び計算コストを提供する。
図2は、例示の実施形態による画像マッピング200のブロック図表現である。画像マッピング200は、受信されたシーケンス画像のセット210及び220に基づくことができる。図2に示すように、画像210と画像220は、オンからオフへ、そしてオンへと再び遷移する車両の3つのブレーキ灯の20個のシーケンス画像をまとめて形成している。20個のシーケンス画像210及び220の各々は、列ごとの最大演算子を用いて対応する複数の行ベクトルにマッピングされ、時間的画像230に連結され得る。例えば、時間的画像230の最上行は、最初のシーケンス画像に適用される列ごとの最大演算子の出力を表す行ベクトルであり、後続の行は、20個のシーケンス画像210及び220の経時的な進行を表す。図2に示す実施形態では、20個のシーケンス画像210及び220の各々は、高さ80ピクセル×幅80ピクセルであり、各行ベクトルは、高さ1ピクセル×幅80ピクセルであり、時間的画像230は、高さ20ピクセル(各行ベクトルについて高さ1)×幅が80ピクセルである。時間的画像230は、ブレーキ灯がオンである第1の領域240、ブレーキ灯がオフである第2の領域250、及びブレーキ灯がオンに戻る第3の領域260のような複数の時間的部分領域を含んでもよい。その後、時間的画像230は、信号分類のためにCNNに供給され、例えば、車両のブレーキが適用され、解除され、再適用されるときを識別する。
図3は、例示の実施形態による、画像マッピング300のブロック図表現である。画像マッピング300は、受信されたシーケンス画像310及び320のセットに基づくことができる。図3に示すように、画像310及び320は、右折信号の点滅の20個のシーケンス画像をまとめて形成している。20個のシーケンス画像310及び320の各々は、列ごとの最大演算子を用いて対応する複数の行ベクトルにマッピングされ、時間的画像330に連結され得る。例えば、時間的画像330の最上行は、最初のシーケンス画像に適用される列ごとの最大演算子の出力を表す行ベクトルであり、後続の行は、20個のシーケンス画像310及び320の経時的な進行を表す。図3に示す実施形態では、20個のシーケンス画像310及び320の各々は、高さ80ピクセル×幅80ピクセルであり、各行ベクトルは、高さ1ピクセル×幅80ピクセルであり、時間的画像330は、高さ20ピクセル(各行ベクトルについて高さ1)×幅80ピクセルである。時間的画像330は、右折信号がオンである領域340、350、及び360、及び右折信号がオフである領域370、380、及び390のような複数の時間的部分領域を含んでもよい。その後、時間的画像330は、信号分類のためにCNNに供給され、例えば、車両が右折をシグナリングしているときを識別する。
図4は、例示の実施形態による、画像マッピング400のブロック図表現である。画像マッピング400は、受信された連続的に捕捉された交通信号灯画像のセットに基づくことができ、ここでは交通信号灯図410として示されている。図4に示すように、交通信号灯図410のシーケンスは、交通信号灯のシーケンス画像をまとめて表す。
連続的に捕捉された交通信号灯画像の各々は、行ごとの最大演算子を用いて対応する複数の列ベクトルにマッピングされ、時間的画像420に連結される。例えば、時間的画像420の最も左側の列は、最初のシーケンス画像に適用される列ごとの最大演算子の出力を表す列ベクトルであり、後続の列は、連続的に捕捉された交通信号灯画像の経時的な進行を表す。交通信号灯の変化を説明するために、8つのシーケンス図410のみが示されているが、合計260個の連続的に捕捉された交通信号灯画像が、時間的画像420を生成するために使用されてもよい。生成された時間的画像420のサイズは、捕捉された交通信号灯画像の解像度に基づいてもよい。図4に示される実施形態では、シーケンス図410の各々は、高さ80ピクセル×幅30ピクセルである画像を表し、各列ベクトルは、幅1ピクセル×高さ80ピクセルであり、時間的画像430は、高さ80ピクセル×幅260ピクセルである(各列ベクトルについて幅1)。いくつかの実施形態では、連続的に捕捉された交通信号灯画像のサンプリング周波数は、各光変化を表すように、各状態を表すように選択され得る。例えば、赤、赤/黄、及び青(green)の状態の間のタイミングが既知である場合、240個未満の画像が捕捉されて、通信号灯の変化を識別してもよい。
時間的画像420は、赤色光が照射される領域430、赤色光及び黄色光が照射される領域440、及び緑色光が照射される領域450のような複数の時間的部分領域を含んでもよい。シーケンス図410は赤から赤/黄、青への進行を示すが、緑から黄/赤、青などの他のシーケンスも検出することができる。追加的に、シーケンス図410は垂直方向の交通信号灯の配向を示しているが、交通信号灯及び連続的に捕捉された交通信号灯画像は水平方向に受信されるか、又は捕捉され、シーケンス図410又は結果として生じる時間的画像420は90度回転され得る。その後、時間的画像420は、信号分類のためにCNNに供給され、例えば、交通信号灯の状態又はタイミングを識別する。
図5は、例示の実施形態による、画像マッピング500のブロック図表現である。画像マッピング500は、複数の入力画像510を含んでもよい。複数の入力画像510は、分類器520によって複数の特徴ベクトル530に変換されてもよい。分類器は、64×64画素(例えば、赤色及び灰色)ワープ上で動作し、64エントリ出力特徴ベクトルを記憶する。複数の特徴ベクトル530は、サイクルバッファ540に記憶された特徴ベクトルマップに連結されてもよい。少なくとも16個の特徴ベクトル530は、サイクルバッファ540に記憶され得る。サイクルバッファ540からのデータは、点滅分類器550又はブレーキ分類器560によって分離及び使用され得る。
点滅分類器550及びブレーキ分類器560は、各画像を64エントリサイズの特徴ベクトルに変換するバックボーンネットワークからなり得る。バックボーンは、最終的に全結合層を伴う畳み込み層及びプーリング層からなる。バックボーン特徴は、上昇、降下、オン、及びオフの状態を含むことができるブレーキ分類器560を含むことができる。バックボーン特徴は、点滅分類器550を含んでもよく、これは、点滅信号又はブレーキ信号の状態、すなわちブレーキ(例えば、上昇、降下、オン、オフ)、点滅(例えば、右=オン/オフ、左=オン/オフ)を含んでもよい。バックボーン特徴は、点滅分類器550とブレーキ分類器560との組み合わせを含んでもよく、これは、点滅信号とブレーキ信号との組み合わせ状態を識別するために使用され得る。ブレーキ分類器を使用して、車両検出後に受信される最初の16個の特徴ベクトルの中から、サイクルバッファ540の2つの最新の特徴ベクトルを処理することができる。対照的に、点滅分類器550を使用して、検出された最新の16個の信号を分類することができるサイクルバッファ540は、最新のN個の特徴ベクトル530が点滅及びブレーキ分類器550、560に利用可能となるように、特徴ベクトル530の移動ウィンドウを記憶するために使用され得る。
訓練後、分類システムは、バックボーンネットワーク、ブレーキネットワーク、及び点滅ネットワークを含む少なくとも3つのニューラルネットワークを含むことができる。バックボーンネットワークは、各画像に対して画素のセットを受信することができる。例えば、画素のセットは、50画素の有効軸を有する複数の64×64画素を含んでもよい。これは、少なくとも2つのチャネル(例えば、発赤、灰色)を有する複数の車両画像を含んでもよい。バックボーンベクトルの分析は、長さ64画素のようなバックボーンベクトルをもたらし得る。ネットワークは、単一の隠れ全結合層と、4つのニューロンを有する出力層からなり得る。このようなネットワークは、約3.6kサイクルの関連するマッフェ(Maffe)コストを含むことができる。
一実施例では、バックボーンネットワークは、約342kサイクルのマッフェコストを含んでもよい。これは、追加のプルーニングによって改善(例えば、低下)することができる。ブレーキ分類器560は、ブレーキオフ、ブレーキオン、ブレーキ上昇、又はブレーキ降下を識別するためなどの確率を生成するために、最新の2つの行ベクトルについて動作することができる。
点滅分類器550は、16個の行ベクトルについて動作して、様々な確率を生成することができる。例えば、各バックボーンは、4つのチャネルを有する1×16の水平ベクトルを含むように再成型され得る。各バックボーンは、左点滅信号(例えば、オン信号、オフ信号)若しくは右点滅信号(例えば、オン信号、オフ信号)、ハザード信号(例えば、両方の右左折信号が同時に点滅する)、又はブレーキ信号などの1つ以上の分類出力について確率を生成することができる。一実施例では、バックボーンは、サイクル当たり約68Kのマッフェコストを含むことができる。
各サイクルにおいて、バックボーンは、64×64のワープ(例えば、発赤及び灰色)について動作し得る。バックボーンは、64個の出力ベクトルを、最後の16個の結果を保持するサイクルバッファに記憶することができる。例えば、バッファはゆっくりしたアジェンダで1.78秒を表す。最後の2つのベクトルは、ブレーキ分類器560の入力に使用されてもよい。一実施例では、16個のベクトルのすべてが、点滅分類器550の入力である。一実施例では、ブレーキ分類器560信号(例えば、上昇、降下、オン、及びオフ)は、隠れMarkovモデルを使用して、経時的に積分されて、複数フレームブレーキ信号を生成することができる。
図6は、例示の実施形態による共有画像マッピング600のブロック図表現である。共有画像マッピング600は、ブレーキ分類器660又は点滅分類器670などの1つ以上の分類器を訓練することを含んでもよい。1つ以上の分類器は、訓練ワープなどの訓練ワープデータの1つ以上のセットについて訓練され得る。訓練時に、少なくとも16個の入力画像が、共有重みを有する16個のバックボーンネットワークへの入力として使用され得る。一実施例では、共有重みを有する16個の分類器620が、それぞれの入力画像610を取得し、それを分類して、画像610の特徴ベクトル630を出力してもよい。
特徴ベクトル対640は、ブレーキ分類器650を訓練するための入力として使用される。一実施例では、特徴ベクトル対640は、特徴ベクトル630が枯渇するまで、第1と第2、第2と第3、第3と第4などとして組織化される。これは、N個の入力特徴ベクトル(例えば、16個の入力特徴ベクトルは15対を有する)のためのN-1個のブレーキ分類器を訓練することをもたらす。
特徴ベクトル630は、点滅分類器660を訓練するために使用される。一実施形態では、全ての入力画像610の特徴ベクトル630は、点滅分類器660を訓練するために使用される。したがって、図6に図示される実施例では、合計16の特徴ベクトル630が、点滅分類器660への入力として使用され得る。
図7は、例示の実施形態による、システム700のブロック図表現である。システム700は、特定の実装の要件に応じて、様々な構成要素を含むことができる。いくつかの実施例では、システム700は、処理ユニット710、画像取得ユニット720、及び1つ以上のメモリユニット740、750を含むことができる。処理ユニット710は、1つ以上の処理デバイスを含むことができる。いくつかの実施形態では、処理ユニット710は、アプリケーションプロセッサ780、画像プロセッサ790、又は任意の他の適切な処理デバイスを含むことができる。同様に、画像取得ユニット720は、特定のアプリケーションの要件に応じて、任意の数の画像取得デバイス及び構成要素を含むことができる。いくつかの実施形態では、画像取得ユニット720は、撮像デバイス722、撮像デバイス724、及び撮像デバイス726などの1つ以上の撮像デバイス(例えば、カメラ)を含むことができる。いくつかの実施形態では、システム700はまた、処理ユニット710を画像取得デバイス720に通信接続するデータインターフェース728を含むことができる。例えば、データインターフェース728は、画像取得デバイス720によって取得された画像データを処理ユニット710に送信するための任意の有線及び/又は無線リンク(複数可)を含むことができる。
アプリケーションプロセッサ780及び画像プロセッサ790の両方は、様々なタイプの処理デバイスを含むことができる。例えば、アプリケーションプロセッサ780及び画像プロセッサ790のいずれか又は両方は、1つ以上のマイクロプロセッサ、プリプロセッサ(例えば、画像プリプロセッサ)、グラフィックスプロセッサ、中央処理装置(CPU)、サポート回路、デジタル信号プロセッサ、集積回路、メモリ、又は、アプリケーションの実行及び画像処理及び分析に好適な任意の他のタイプのデバイスを含むことができる。いくつかの実施形態では、アプリケーションプロセッサ780及び/又は画像プロセッサ790は、任意のタイプのシングル又はマルチコアプロセッサ、モバイルデバイスマイクロコントローラ、中央処理装置などを含むことができる。例えば、Intel(登録商標)、AMD(登録商標)等の製造業者から入手可能なプロセッサを含む様々な処理デバイスを使用することができ、様々なアーキテクチャ(例えば、x86プロセッサ、ARM(登録商標)など)を含むことができる。
いくつかの実施形態では、アプリケーションプロセッサ780及び/又は画像プロセッサ790は、Mobileye(登録商標)から入手可能なプロセッサチップのEyeQシリーズのいずれかを含むことができる。これらのプロセッサ設計は、各々、ローカルメモリ及び命令セットを有する複数の処理ユニットを含む。このようなプロセッサは、複数の画像センサから画像データを受信するためのビデオ入力を含んでもよく、またビデオ出力機能を含んでもよい。図7は、処理ユニット710に含まれる2つの別々の処理デバイスを示しているが、より多くの、又はより少ない処理デバイスを使用することができる。例えば、いくつかの例では、アプリケーションプロセッサ780及び画像プロセッサ790のタスクを達成するために、単一の処理装置を使用することができる。他の実施形態では、これらのタスクは、3つ以上の処理デバイスによって実行することができる。
処理ユニット710は、様々なタイプのデバイスを含むことができる。例えば、処理ユニット710は、コントローラ、画像プリプロセッサ、中央処理装置(CPU)、サポート回路、デジタル信号プロセッサ、集積回路、メモリ、又は画像処理及び分析のための任意の他のタイプのデバイスなどの様々なデバイスを含んでもよい。画像プリプロセッサは、画像センサから画像を捕捉し、デジタル化し、処理するためのビデオプロセッサを含むことができる。CPUは、任意の数のマイクロコントローラ又はマイクロプロセッサを含むことができる。サポート回路は、キャッシュ、電源、クロック、及び入出力回路を含む、当技術分野で一般に周知の任意の数の回路であり得る。メモリは、プロセッサによって実行されたときに、システムの動作を制御するソフトウェアを記憶することができる。メモリは、例えばニューラルネットワークなどの訓練されたシステムを含む、データベース及び画像処理ソフトウェアを含むことができる。メモリは、任意の数のランダムアクセスメモリ、リードオンリーメモリ、フラッシュメモリ、ディスクドライブ、光学記憶装置、リムーバブル記憶装置、及び他のタイプの記憶装置を含むことができる。一例として、メモリは、処理ユニット710から分離することができる。別の例では、メモリを処理ユニット710に統合することができる。
各メモリ740、750は、プロセッサ(例えば、アプリケーションプロセッサ780及び/又は画像プロセッサ790)によって実行されるときに、システム700の様々な態様の動作を制御することができるソフトウェア命令を含むことができる。これらのメモリユニットは、様々なデータベース及び画像処理ソフトウェアを含むことができる。メモリユニットは、ランダムアクセスメモリ、リードオンリーメモリ、フラッシュメモリ、ディスクドライブ、光学記憶装置、テープ記憶装置、リムーバブル記憶装置、及び/又は任意の他のタイプの記憶装置を含むことができる。いくつかの実施例では、メモリユニット740、750は、アプリケーションプロセッサ780及び/又は画像プロセッサ790から分離することができる。他の実施形態では、これらのメモリユニットは、アプリケーションプロセッサ780及び/又は画像プロセッサ790に統合することができる。
いくつかの実施形態では、システムは、位置センサ730を含むことができる。位置センサ730は、システム700の少なくとも1つの構成要素に関連付けられた場所を決定するのに好適な任意のタイプのデバイスを含むことができる。いくつかの実施形態では、位置センサ730は、GPS受信機を含むことができる。このような受信機は、全地球測位システム衛星によってブロードキャストされる信号を処理することによって、ユーザの位置及び速度を決定することができる。位置センサ730からの位置情報は、アプリケーションプロセッサ780及び/又は画像プロセッサ790に利用可能にすることができる。
いくつかの実施形態では、システム700は、システム700を搭載することができる車載の様々なシステム、デバイス及びユニットに動作可能に接続することができ、任意の適切なインターフェース(例えば、通信バス)を介して、システム700は、車両のシステムと通信することができる。システム700が協働することができる車両システムの例は、スロットリングシステム、ブレーキシステム、及びステアリングシステムを含む。
いくつかの実施形態では、システム700は、ユーザインターフェース770を含むことができる。ユーザインターフェース770は、例えば、タッチスクリーン、マイクロホン、キーボード、ポインタデバイス、トラックホイール、カメラ、ノブ、ボタン等を含む、システム700の1つ以上のユーザに情報を提供する、又はシステム700の1つ以上のユーザから入力を受けるのに好適な任意のデバイスを含むことができる。情報は、ユーザインターフェース770を介して、システム700によってユーザに提供され得る。
いくつかの実施形態では、システム700は、マップデータベース760を含むことができる。マップデータベース760は、デジタルマップデータを記憶するための任意のタイプのデータベースを含むことができる。いくつかの実施例では、マップデータベース760は、道路、水の特徴、地理的特徴、関心ポイントなどを含む様々なアイテムの、参照座標系における位置に関するデータを含むことができる。マップデータベース760は、そのようなアイテムの位置だけでなく、例えば、記憶された任意の特徴に関連する名前及びそれらに関する他の情報を含む、それらのアイテムに関連する記述子も記憶することができる。例えば、既知の障害物の場所及び種類、道路の地形又は道路沿いのある点の等級に関する情報等をデータベースに含めることができる。いくつかの実施形態では、マップデータベース760は、システム700の他の構成要素と共に物理的に位置することができる。代替的又は追加的に、マップデータベース760又はその一部分は、システム700の他の構成要素(例えば、処理ユニット710)に対して遠隔に位置することができる。そのような実施形態では、マップデータベース760からの情報は、ネットワークへの有線又は無線データ接続(例えば、セルラーネットワーク及び/又はインターネットなど)を介してダウンロードすることができる。
撮像デバイス722、724、及び726は各々、環境から少なくとも1つの画像を捕捉するのに好適な任意のタイプのデバイスを含むことができる。さらに、画像プロセッサに入力するための画像を取得するために、任意の数の撮像デバイスを使用することできる。本開示の主題のいくつかの実施例は、単一の撮像デバイスのみ含むことができ、又はそれを用いて実装することができるが、他の実施例は、2つ、3つ、又は4つ以上の撮像デバイスを含むことができ、又はそれを用いて実装することができる。
システム700は、例えば、音響センサ、RFセンサ(例えば、レーダトランシーバ)、LIDARセンサを含む、他のタイプのセンサを含むことができ、又は、他のタイプのセンサと動作可能に関連付けることができると理解されよう。このようなセンサは、画像取得デバイス720から独立して、又は画像取得デバイス720と協調して使用することができる。例えば、レーダシステム(図示せず)からのデータは、画像取得デバイス720によって取得された画像を処理することから受信された処理情報を検証するために使用することができ、例えば、画像取得デバイス720によって取得された画像を処理することから生じる特定の偽陽性をフィルタリングし、あるいは、画像取得デバイス720からの画像データ、又は画像取得デバイス720からの画像データの処理されたバリエーション又は派生物と組み合わせるか、又は、他の方法で補完することができる。
システム700、又はその様々な構成要素は、様々な異なるプラットフォームに組み込むことができる。いくつかの実施形態において、システム700は、車両に含まれてもよい。例えば、車両は、図7に関して上述したように、処理ユニット710及びシステム700の他の構成要素のいずれかを装備することができる。いくつかの実施形態では、車両は、単一の撮像デバイス(例えば、カメラ)のみを装備することができるが、他の実施形態では、複数の撮像デバイスを使用することができる。例えば、車両の撮像デバイス722及び724のいずれかは、ADAS(高度運転者支援システム)イメージング・セットの一部とすることができる。
画像取得ユニット720の一部として車両に含まれる撮像デバイスは、任意の好適な位置に配置することができる。いくつかの実施形態では、撮像デバイス722は、リアビューミラーの近傍に位置することができる。この位置は、車両の運転者の視線と同様の視線を提供することができ、これは、運転者に見えるものと見えないものを決定する際に役立つことができる。画像取得ユニット720の撮像デバイスのための他の位置も使用することができる。例えば、撮像デバイス724は、車両のバンパー上又はバンパー内に位置することができる。このような位置は、広い視野を有する撮像デバイスに特に好適である。バンパー位置の撮像デバイスの視線は、ドライバの視線とは異なる可能性がある。撮像デバイス(例えば、撮像デバイス722、724、及び726)は、他の位置に位置することができる。例えば、撮像デバイスは、車両のサイドミラーの一方又は両方に、車両の屋根に、車両のフードに、車両のトランクに、車両の側面に、車両の窓のいずれかに取り付けられ、後方に位置決めされ、又は前方に位置決めされ、車両の前方及び/又は後方に照明図形に取り付けられてもよい。撮像ユニット720、又は撮像ユニット720で使用される複数の撮像デバイスのうちの1つである撮像デバイスは、車両のドライバのFOVとは異なる視野(FOV)を有することができ、常に同じ物体を見るわけではない。一実施例では、画像取得ユニット720のFOVは、典型的なドライバのFOVを超えて延在することができ、したがって、ドライバのFOVの外側にあるオブジェクトを画像化することができる。さらに別の例では、画像取得ユニット720のFOVは、ドライバのFOVの一部分である。いくつかの実施形態では、画像取得ユニット720のFOVは、車両の前方の道路の領域、道路の周囲、又は他の領域をカバーするセクタに対応する。
撮像デバイスに加えて、車両は、システム700の様々な他の構成要素を含むことができる。例えば、処理ユニット710は、車両のエンジン制御ユニットと一体化されているか、又は車両のエンジン制御ユニットから分離されているかのいずれかで車両に含まれてもよい。車両はまた、GPS受信機のような位置センサ730を装備もよく、また、マップデータベース760及びメモリユニット740及び750を含んでもよい。
本明細書に開示された方法及び装置をより良く説明するために、実施形態の非限定的なリストが本明細書に提供される。
例1は、複数フレーム意味信号の高速CNN分類のためのシステムであって、前記システムは、処理回路と、命令を含む1つ以上の記憶デバイスであって、前記命令は、前記処理回路によって実行されるときに、処理回路が、撮像デバイスから複数の時間シーケンス画像を受信することと、前記複数の時間シーケンス画像を、時間シーケンスバッファに記憶される複数のベクトルに変換することと、前記複数のベクトルに基づいて、時間的画像を生成することと、前記時間的画像への畳み込みニューラルネットワークの適用に基づいて、意味信号を生成することと、を行うように構成する、システムである。
例2では、例1の主題が任意選択で、複数のベクトルの各々が、前記複数の時間シーケンス画像の各々と同じ幅の行ベクトルを含む、ことを含む。
例3では、例2の主題が任意選択で、前記複数の時間シーケンス画像を前記複数のベクトルに変換するために、前記処理回路は、前記複数の時間シーケンス画像の各々のうちの複数の列の各々について列値を計算するように構成されている、ことを含む。
例4では、例2~3のいずれか1つ以上の主題が任意選択で、前記列値を計算することは、前記複数の時間シーケンス画像の各々のうちの複数の列の各々について平均値、中央値、又は最大値を計算するステップのうちの少なくとも1つを含む、ことを含む。
例5では、例1~4のいずれか1つ以上の主題が任意選択で、前記時間的画像の生成は、前記複数のベクトルを連結して前記時間的画像を形成する、ことを含む、ことを含む。
例6では、例1~5のいずれか1つ以上の主題が任意選択で、前記複数の時間シーケンス画像を前記複数のベクトルに変換するために、前記処理回路は、分類器を使用して、それぞれの複数の画像から前記複数のベクトルの各々を取得するように構成されている、ことを含む。
例7では、例1~6のいずれか1つ以上の主題が任意選択で、前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、点滅分類器を使用するように構成されている、ことを含む。
例8では、例1~7のいずれか1つ以上の主題が任意選択で、前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、ブレーキ分類器を使用するように構成されている、ことを含む。
例9では、例1~8のいずれか1つ以上の主題が任意選択で、前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、前記複数のベクトルのベクトルの対にブレーキ分類器を使用し、前記時間的画像全体に点滅分類器を使用するように構成される、ことを含む。
例10では、例1~9のいずれか1つ以上の主題が任意選択で、前記ブレーキ分類器は、複数のブレーキ信号について訓練されている、ことを含む。
例11では、例1~10のいずれか1つ以上の主題が任意選択で、前記複数のブレーキ信号は、ブレーキオン信号、ブレーキオフ信号、ブレーキ上昇信号、及びブレーキ降下信号のうちの少なくとも1つを含む、ことを含む。
例12では、例1~11のいずれか1つ以上の主題が任意選択で、前記点滅分類器は、複数の点滅信号について訓練されている、ことを含む。
例13では、例1~12のいずれか1つ以上の主題が任意選択で、前記複数の点滅信号は、右点滅オン信号、右点滅オフ信号、左点滅オン信号、及び左点滅オフ信号のうちの少なくとも1つを含む、ことを含む。
例14では、例1~13のいずれか1つ以上の主題が任意選択で、撮像デバイスが車両に搭載されており、前記意味信号は、前記車両の変更された経路状態を示し、前記命令は、前記処理回路が、前記変更された経路状態に王として、前記車両について操縦を特定することと、前記操縦を実行するための車両制御信号を送ることと、を行うようにさらに構成する、ことを含む。
例15では、例1~14のいずれか1つ以上の主題が任意選択で、前記制御信号を受信し、前記車両操縦を実行する車両制御デバイスをさらに含む、ことを含む。
例16は、自律型ナビゲーション意味信号方法であって、撮像デバイスからの複数の時間シーケンス画像を受信することであって、前記複数の時間シーケンス画像の各々は固有の撮像時間に関連付けられる、ことと、前記複数の時間シーケンス画像の各々を複数のベクトルの各々にマッピングすることと、前記複数のベクトルを時間的画像に変換すること、前記時間的画像に畳み込みニューラルネットワークを適用することに基づいて意味信号を識別すること、を含む方法である。
例17では、例16の主題が任意選択で、前記複数の時間シーケンス画像を捕捉することと、固有の画像捕捉時間を、捕捉された前記複数の時間シーケンス画像の各々に関連付けることと、を含む。
例18では、例16~17のいずれか1つ以上の主題が任意選択で、複数のベクトルの各々が、前記複数の時間シーケンス画像の各々と同じ幅の行ベクトルを含む、ことを含む。
例19では、例18の主題が任意選択で、前記複数の時間シーケンス画像の各々を複数のベクトルの各々にマッピングすることは、前記複数の時間シーケンス画像の各々のうちの複数の列の各々について列値を計算することを含む、ことを含む。
例20では、例18~19のいずれか1つ以上の主題が任意選択で、前記列値を計算することは、前記複数の時間シーケンス画像の各々のうちの複数の列の各々について平均値、中央値、又は最大値を計算することのうちの少なくとも1つを含む、ことを含む。
例21では、例16~20のいずれか1つ以上の主題が任意選択で、前記時間的画像の生成は、前記複数のベクトルを連結して、前記時間的画像を形成することを含む、ことを含む。
例22では、例16~21のいずれか1つ以上の主題が任意選択で、前記複数の時間シーケンス画像を前記複数のベクトルに変換するために、前記処理回路は、それぞれの複数の画像から前記複数のベクトルの各々を取得するために、分類器を使用するように構成されている、ことを含む。
例23では、例16~22のいずれか1つ以上の主題が任意選択で、前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、点滅分類器を使用するように構成されている、ことを含む。
例24では、例16~23のいずれか1つ以上の主題が任意選択で、前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、ブレーキ分類器を使用するように構成されている、ことを含む。
例25では、例16~24のいずれか1つ以上の主題が任意選択で、前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、前記複数のベクトルのベクトルの対にブレーキ分類器を使用し、前記時間的画像全体に点滅分類器を使用するように構成されている、ことを含む。
例26では、例16~25のいずれか1つ以上の主題が任意選択で、前記ブレーキ分類器は、複数のブレーキ信号について訓練されている、ことを含む。
例27では、例16~26のいずれか1つ以上の主題が任意選択で、前記複数のブレーキ信号は、ブレーキオン信号、ブレーキオフ信号、ブレーキ上昇信号、及びブレーキ降下信号のうちの少なくとも1つを含む、ことを含む。
例28では、例16~27のいずれか1つ以上の主題が任意選択で、前記点滅分類器は、複数の点滅信号について訓練されている、ことを含む。
例29では、例16~28のいずれか1つ以上の主題が任意選択で、前記複数の点滅信号は、右点滅オン信号、右点滅オフ信号、左点滅オン信号、及び左点滅オフ信号のうちの少なくとも1つを含む、ことを含む。
例30では、例16~29のいずれか1つ以上の主題が任意選択で、前記意味信号に基づいて車両操縦を識別することと、車両操縦を実行するための制御信号を車両制御デバイスに送信することと、をさらに含む、ことを含む。
例31は、命令を含む1つ以上の機械可読媒体であって、前記命令は、コンピュータシステムによって実行されるときに、前記コンピュータシステムが例16~30のいずれか1つに記載の方法を行うようにする、機械可読媒体である。
例32は、例16~30のいずれかに記載の方法を行うための手段を含む、装置である。
例33は、命令を記憶するコンピュータプログラム製品であって、前記命令は、コンピュータ化システムによって実行されると、前記コンピュータ化システムが動作を行うようにし、前記動作は、撮像デバイスからの複数の時間シーケンス画像を受信することであって、前記複数の時間シーケンス画像の各々は固有の撮像時間に関連付けられる、ことと、前記複数の時間シーケンス画像の各々を複数のベクトルの各々にマッピングすることと、前記複数のベクトルを時間的画像に変換することと、前記時間的画像に畳み込みニューラルネットワークを適用することに基づいて意味信号を識別することと、を含む、コンピュータプログラム製品である。
例34では、例33の主題が任意選択で、前記複数の時間シーケンス画像を捕捉することと、固有の画像捕捉時間を、捕捉された前記複数の時間シーケンス画像の各々に関連付けることと、を含む。
例35では、例33~34のいずれか1つ以上の主題が任意選択で、複数のベクトルの各々が、前記複数の時間シーケンス画像の各々と同じ幅の行ベクトルを含む、ことを含む。
例36では、例35の主題が任意選択で、前記複数の時間シーケンス画像の各々を複数のベクトルの各々にマッピングすることは、前記複数の時間シーケンス画像の各々のうちの複数の列の各々について列値を計算することを含む、ことを含む。
例37では、例35~36のいずれか1つ以上の主題が任意選択で、前記列値を計算することは、前記複数の時間シーケンス画像の各々のうちの複数の列の各々について平均値、中央値、又は最大値を計算することのうちの少なくとも1つを含む、ことを含む。
例38では、例33~37のいずれか1つ以上の主題が任意選択で、前記時間的画像の生成は、前記複数のベクトルを連結して、前記時間的画像を形成することを含む、ことを含む。
例39では、例33~38のいずれか1つ以上の主題が任意選択で、前記複数の時間シーケンス画像を前記複数のベクトルに変換するために、前記処理回路は、それぞれの複数の画像から前記複数のベクトルの各々を取得するために、分類器を使用するように構成されている、ことを含む。
例40では、例33~39のいずれか1つ以上の主題が任意選択で、前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、点滅分類器を使用するように構成されている、ことを含む。
例41では、例33~40のいずれか1つ以上の主題が任意選択で、前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、ブレーキ分類器を使用するように構成されている、ことを含む。
例42では、例33~41のいずれか1つ以上の主題が任意選択で、前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、前記複数のベクトルのベクトルの対にブレーキ分類器を使用し、前記時間的画像全体に点滅分類器を使用するように構成されている、ことを含む。
例43では、例33~42のいずれか1つ以上の主題が任意選択で、前記ブレーキ分類器は、複数のブレーキ信号について訓練されている、ことを含む。
例44では、例33~43のいずれか1つ以上の主題が任意選択で、前記複数のブレーキ信号は、ブレーキオン信号、ブレーキオフ信号、ブレーキ上昇信号、及びブレーキ降下信号のうちの少なくとも1つを含む、ことを含む。
例45では、例33~44のいずれか1つ以上の主題が任意選択で、前記点滅分類器は、複数の点滅信号について訓練されている、ことを含む。
例46では、例33~45のいずれか1つ以上の主題が任意選択で、前記複数の点滅信号は、右点滅オン信号、右点滅オフ信号、左点滅オン信号、及び左点滅オフ信号のうちの少なくとも1つを含む、ことを含む。
例47では、例33~46のいずれか1つ以上の主題が任意選択で、前記意味信号に基づいて車両操縦を識別することと、
車両操縦を実行するための制御信号を車両制御デバイスに送信することと、をさらに含む、ことを含む。
例48は、分類システムであって、命令を有するメモリであって、前記命令は、処理ユニットによって実行されるときに、処理ユニットが、複数の画像を特徴ベクトルに変換するバックボーンネットワークと、複数のブレーキ信号の各々について確率を生成するブレーキネットワークと、複数の点滅信号の各々について確率を生成する点滅ネットワークと、を含む分類訓練器を実施するようにする、分類ネットワークである。
例49では、例48の主題が任意選択で、前記バックボーンネットワークは、畳み込み層、プーリング層、及び全結合層を含む、ことを含む。
例50では、例48~49のいずれか1つ以上の主題が任意選択で、前記複数の画像は、複数の2チャンネル車両画像を含み、前記バックボーンネットワークは、前記複数の画像を64の長さの特徴ベクトルに変換する、ことを含む。
例51では、例48~50のいずれか1つ以上の主題が任意選択で、2個のバックボーン特徴のセットが、前記複数のブレーキ信号について分類され、
16個のバックボーン特徴のセットが、前記複数のブレーキ信号及び前記複数の点滅信号について分類される、ことを含む。
例52では、例48~51のいずれか1つ以上の主題が任意選択で、前記2個のバックボーン特徴のセットは、車両の検出時に受信された16フレームの第1のサブセットについて分類され、前記16個のバックボーン特徴のセットは、少なくとも16個のフレームのフルセットが受信されたときに分類される、ことを含む。
例53では、例48~52のいずれか1つ以上の主題が任意選択で、前記ブレーキネットワークは、単一の隠れ全結合層と、4つのニューロンを有する出力層とを含む、ことを含む。
例54では、例48~53のいずれか1つ以上の主題が任意選択で、前記ブレーキネットワークは、前記複数のブレーキ信号の各々について前記確率を生成するために、2個の行ベクトルについて動作する、ことを含む。
例55では、例48~54のいずれか1つ以上の主題が任意選択で、前記複数のブレーキ信号は、ブレーキオン信号、ブレーキオフ信号、ブレーキ上昇信号、及びブレーキ降下信号のうちの少なくとも1つを含む、ことを含む。
例56では、例48~55のいずれか1つ以上の主題が任意選択で、前記点滅ネットワークは、前記複数の点滅信号の各々について前記確率を生成するために、16個の行ベクトルについて動作する、ことを含む。
例57では、例48~56のいずれか1つ以上の主題が任意選択で、前記16個の行ベクトルは、16個のバックボーン特徴の再成型セットを含み、前記16個のバックボーン特徴の再成型セットは、1つの16の長さの水平ベクトルと4つのチャネルを含む、ことを含む。
例58では、例48~57のいずれか1つ以上の主題が任意選択で、前記複数の点滅信号は、右点滅オン信号、右点滅オフ信号、左点滅オン信号、及び左点滅オフ信号のうちの少なくとも1つを含む、ことを含む。
例59は、分類方法であって、分類訓練器を訓練することを含み、前記分類訓練器は、複数の画像を特徴ベクトルに変換するバックボーンネットワークと、複数のブレーキ信号の各々について確率を生成するブレーキネットワークと、複数の点滅信号の各々について確率を生成する点滅ネットワークと、を含む、方法である。
例60では、例59の主題が任意選択で、前記バックボーンネットワークは、畳み込み層、プーリング層、及び全結合層を含む、ことを含む。
例61では、例59~60のいずれか1つ以上の主題が任意選択で、前記複数の画像は、複数の2チャンネル車両画像を含み、前記バックボーンネットワークは、前記複数の画像を64の長さの特徴ベクトルに変換する、ことを含む。
例62では、例59~61のいずれか1つ以上の主題が任意選択で、2個のバックボーン特徴のセットが、前記複数のブレーキ信号について分類され、16個のバックボーン特徴のセットが、前記複数のブレーキ信号及び前記複数の点滅信号について分類される、ことを含む。
例63では、例59~62のいずれか1つ以上の主題が任意選択で、前記2個のバックボーン特徴のセットは、車両の検出時に受信された16フレームの第1のサブセットについて分類され、前記16個のバックボーン特徴のセットは、少なくとも16個のフレームのフルセットが受信されたときに分類される、ことを含む。
例64では、例59~63のいずれか1つ以上の主題が任意選択で、前記ブレーキネットワークは、単一の隠れ全結合層と、4つのニューロンを有する出力層とを含む、ことを含む。
例65では、例59~64のいずれか1つ以上の主題が任意選択で、前記ブレーキネットワークは、前記複数のブレーキ信号の各々について前記確率を生成するために、2個の行ベクトルについて動作する、ことを含む。
例66では、例59~65のいずれか1つ以上の主題が任意選択で、前記複数のブレーキ信号は、ブレーキオン信号、ブレーキオフ信号、ブレーキ上昇信号、及びブレーキ降下信号のうちの少なくとも1つを含む、ことを含む。
例67では、例59~66のいずれか1つ以上の主題が任意選択で、前記点滅ネットワークは、前記複数の点滅信号の各々について前記確率を生成するために、16個の行ベクトルについて動作する、ことを含む。
例68では、例59~67のいずれか1つ以上の主題が任意選択で、前記16個の行ベクトルは、16個のバックボーン特徴の再成型セットを含み、前記16個のバックボーン特徴の再成型セットは、1つの16の長さの水平ベクトルと4つのチャネルを含む、ことを含む。
例49では、例59~68のいずれか1つ以上の主題が任意選択で、前記複数の点滅信号は、右点滅オン信号、右点滅オフ信号、左点滅オン信号、及び左点滅オフ信号のうちの少なくとも1つを含む、ことを含む。
例70は、命令を記憶するコンピュータプログラム製品であって、前記命令は、コンピュータ化システムによって実行されると、前記コンピュータ化システムが動作を行うようにし、前記動作は、分類訓練器を訓練することを含み、前記分類訓練器は、複数の画像を特徴ベクトルに変換するバックボーンネットワークと、複数のブレーキ信号の各々について確率を生成するブレーキネットワークと、複数の点滅信号の各々について確率を生成する点滅ネットワークと、を含む、コンピュータプログラム製品である。
例71では、例70の主題が任意選択で、前記バックボーンネットワークは、畳み込み層、プーリング層、及び全結合層を含む、ことを含む
例72では、例70~71のいずれか1つ以上の主題が任意選択で、前記複数の画像は、複数の2チャンネル車両画像を含み、前記バックボーンネットワークは、前記複数の画像を64の長さの特徴ベクトルに変換する、ことを含む。
例73では、例70~72のいずれか1つ以上の主題が任意選択で、2個のバックボーン特徴のセットが、前記複数のブレーキ信号について分類され、16個のバックボーン特徴のセットが、前記複数のブレーキ信号及び前記複数の点滅信号について分類される、ことを含む。
例74では、例70~73のいずれか1つ以上の主題が任意選択で、前記2個のバックボーン特徴のセットは、車両の検出時に受信された16フレームの第1のサブセットについて分類され、前記16個のバックボーン特徴のセットは、少なくとも16個のフレームのフルセットが受信されたときに分類される、ことを含む。
例75では、例70~74のいずれか1つ以上の主題が任意選択で、前記ブレーキネットワークは、単一の隠れ全結合層と、4つのニューロンを有する出力層とを含む、ことを含む。
例76では、例70~75のいずれか1つ以上の主題が任意選択で、前記ブレーキネットワークは、前記複数のブレーキ信号の各々について前記確率を生成するために、2個の行ベクトルについて動作する、ことを含む。
例77では、例70~76のいずれか1つ以上の主題が任意選択で、前記複数のブレーキ信号は、ブレーキオン信号、ブレーキオフ信号、ブレーキ上昇信号、及びブレーキ降下信号のうちの少なくとも1つを含む、ことを含む。
例78では、例70~77のいずれか1つ以上の主題が任意選択で、前記点滅ネットワークは、前記複数の点滅信号の各々について前記確率を生成するために、16個の行ベクトルについて動作する、ことを含む。
例79では、例70~78のいずれか1つ以上の主題が任意選択で、前記16個の行ベクトルは、16個のバックボーン特徴の再成型セットを含み、前記16個のバックボーン特徴の再成型セットは、1つの16の長さの水平ベクトルと4つのチャネルを含む、ことを含む。
例80では、例70~79のいずれか1つ以上の主題が任意選択で、前記複数の点滅信号は、右点滅オン信号、右点滅オフ信号、左点滅オン信号、及び左点滅オフ信号のうちの少なくとも1つを含む、ことを含む。
例81は、命令を含む1つ以上の機械可読媒体であって、前記命令は、コンピュータシステムによって実行されるときに、前記コンピュータシステムが例1~80のいずれか1つに記載の動作を行うようにする、機械可読媒体である。
例82は、例1~80のいずれか1つに記載の動作を行うための手段を含む、装置である。
例83は、例1~80のいずれか1つに記載の動作を行うためのシステムである。
例84は、例1~80のいずれか1つに記載の動作を行うための方法である。
上記の詳細な説明は、詳細な説明の一部を形成する添付の図面の参照を含む。図面は、本発明を実施することができる特定の実施形態を例として示す。これらの実施形態は、本明細書では「実施例」とも呼ばれる。このような実施例は、図示又は説明されるものに加えて、要素を含むことができる。しかしながら、本発明者らはまた、図示又は説明された要素のみが提供される例を企図している。さらに、本発明者らはまた、特定の実施例(又はその1つ以上の態様)に関して、又は本明細書中に図示若しくは説明された他の実施例(又はその1つ以上の態様)のいずれかに関して、図示若しくは説明されたそれらの要素(又はその1つ以上の態様)の任意の組み合わせ又は順列を使用する実施例を企図している。
システムへの参照は、システムによって実行される方法、及び/又はシステムによって一度実行される命令を記憶するコンピュータプログラム製品に対して準用されるべきである。コンピュータプログラム製品は、非一時的であり、例えば、集積回路、磁気メモリ、光メモリ、ディスクなどであってもよい。
方法への参照は、方法を実行するように構成されているシステム、及び/又はシステムによって実行されると、システムが方法を実行するようにする命令を記憶するコンピュータプログラム製品に対して準用されるべきである。
コンピュータプログラム製品への参照は、システムによって実行される方法、及び/又はコンピュータプログラム製品に記憶された命令を実行するように構成されているシステムに対して準用されるべきである。
用語「及び/又は」は、追加的又は代替的である。
前述の明細書では、本発明の実施形態の特定の実施例を参照して本発明を説明した。しかしながら、添付の特許請求の範囲に記載された本発明のより広範な精神及び範囲から逸脱することなく、様々な修正及び変更をその中で行うことができることは明らかであろう。
さらに、明細書及び、もしあれば、請求項において用語「前部」、「後部」、「上部」、「上部」、「上方」、「下方」等は、説明のために使用され、永続的な相対的位置を説明するためには必ずしも使用されない。これらの用いられる用語は、本願明細書で説明された発明の実施形態を例えば図示されたか、又は本願明細書に記載された向き以外の他の向きが可能である適切な環境下で相互に交換可能であることである。
同じ機能を達成するための構成要素のアレンジメントは、所望の機能が達成されるように、実質的に「関連付け」られる。従って、特定の機能を達成するために本明細書において組み合わされる任意の2つの構成要素は、アーキテクチャ又は中間構成要素にかかわらず、所望の機能が達成されるように、互いに「関連付けられている」とみられてもよい。同様に、そのように関連付けられた任意の2つの構成要素は、所望の機能を達成するために、互いに「動作可能に接続されている」か、又は「動作可能に結合されている」とみなされ得る。
さらに、当業者は、上述の動作間の境界が単に例示的なものであることを認識するであろう。複数の動作は、単一の動作に組み合わせられてもよいし、単一の動作は、追加の動作に分散されてもよいし、動作は、少なくとも部分的に時間的に重複して実行されてもよい。さらに、代替の実施形態は、特定の動作の複数のインスタンスを含んでもよいし、動作の順序は、様々な他の実施形態において変更されてもよい。
しかしながら、他の修正、バリエーション及び代替案も可能である。したがって、明細書及び図面は、限定的な意味ではなく、例示的な意味でみなされる。
しかしながら、他の修正、バリエーション及び代替案も可能である。したがって、明細書及び図面は、限定的な意味ではなく、例示的な意味でみなされる。
「Xであってもよい」という句は、条件Xが満たされ得ることを示す。この句はまた、条件Xが満たされないかもしれないことを示唆する。例えば、ある構成要素を含むシステムへの参照は、そのシステムがある構成要素を含まないシナリオも網羅すべきである。
用語「含む」、「備える」、「有する」、「からなる」、及び「基本的に~からなる」は、交換可能な方法で使用される。例えば、例示の方法は、図面及び/又は明細書に含まれるステップを少なくとも含むことができるが、図面及び/又は明細書に含まれるステップのみが含まれてもよい。同様のことが、システム及びモバイルコンピュータにも当てはまる。
図示を簡単かつ明瞭にするために、図面に示された要素は必ずしも縮尺通りに描かれていないことが理解されるであろう。例えば、要素のいくつかの寸法は、明瞭化のために他の要素と比較して誇張されてもよい。さらに、適切と考えられるときに、対応する要素又は類似の要素を示すために、図の間で参照番号が繰り返されることがある。
また、例えば、一実施形態において、図示された実施例は、単一の集積回路上又は同じデバイス内に位置する回路として実装されてもよい。代替的には、実施例は、適切な方法で互いに相互接続された任意の数の別個の集積回路又は別個のデバイスとして実装されてもよい。
また、例えば、実施例又はその一部分は、物理回路又は物理回路に変換可能な論理表現のソフト又はコード表現として、例えば、任意の適切なタイプのハードウェア記述言語で実装されてもよい。
また、本発明は、非プログラマブルハードウェアで実装される物理デバイス又はユニットに限定されるものではなく、メインフレーム、ミニコンピュータ、サーバ、ワークステーション、パーソナルコンピュータ、ノートパッド、パーソナルデジタルアシスタント、電子ゲーム、自動車及び他の埋め込みシステム、携帯電話、及び本出願において一般に「コンピュータシステム」と称される様々な他の無線デバイスなどの好適なプログラムコードに従って動作することによって、所望のデバイス機能を行うことができるプログラマブルデバイス又はユニットにも適用することができる。
他の修正、バリエーション及び代替案も可能である。したがって、明細書及び図面は、限定的な意味ではなく、例示的な意味でみなされる。
請求項において、括弧の間に付された参照符号は、請求項を限定するものと解釈してはならない。「含む」という語は、請求項に列挙されている他の要素又はステップの存在を除外しない。さらに、用語「a」又は「an」は、本明細書中で使用される場合、1以上として定義される。また、請求項中の「少なくとも1つ」及び「1つ以上」のような導入句の使用は、たとえ同じの請求項が「1つ以上」又は「少なくとも1つ」の導入句及び「a」又は「an」のような不定冠詞を含む場合であっても、不定冠詞「a」又は「an」による別の請求項要素の導入は、そのように導入された請求項要素を含む任意の特定の請求項をそのような要素を1つのみ含む発明に限定することを示唆すると解釈すべきではない。特に示されない限り、「第1」及び「第2」のような語は、これらの語が表す要素間を任意に区別するために使用される。したがって、これらの用語は、これらの要素の時間的又は他の優先順位付けを示すことを意図しておらず、必ずしも、ある措置が相互に異なる請求項に規定されているという単なる事実だけでは、これらの措置の組み合わせが有利に使用できないことを示すものではない。
本発明の所定の特徴が図示され、本明細書で説明されているが、当業者には、多くの修正、置換、変化、及び等価物が生じる。したがって、添付の特許請求の範囲は、そのような修正及び変更全てを本発明の真の精神に含むものとして網羅することを意図している。
任意の構成要素及び/又はシステムのユニットの任意の構成要素の任意の組み合わせであって、任意の図面及び/又は明細書及び/又は特許請求の範囲に示されているものが提供され得る。図及び/又は明細書及び/又は特許請求の範囲のいずれかに図示される任意のシステムの任意の組み合わせが提供され得る。図面及び/又は明細書及び/又は特許請求の範囲のいずれかに示されるステップ、動作及び/又は方法の任意の組み合わせが提供され得る。図面及び/又は明細書及び/又は特許請求の範囲のいずれかに示される動作の任意の組み合わせが提供され得る。図面及び/又は明細書及び/又は特許請求の範囲のいずれかに例示されている方法の任意の組み合わせが提供され得る。
さらに、例示的な実施形態が本明細書で説明されているが、本開示に基づいて当業者に理解されるように、任意のすべての実施形態の範囲は、同等の要素、修正、省略、(例えば、様々な実施形態にわたる態様の態様の)組み合わせ、適応及び/又は変形を有する。請求項における限定は、請求項で使用されている文言に基づいて広く解釈されるべきであり、本明細書で説明された実施例や出願手続き中に限定されるものではない。これらの実施例は、非排他的であると解釈される。さらに、開示された方法のステップは、ステップの再順序付け及び/又はステップの挿入もしくは削除を含む、任意の方式で修正され得る。従って、明細書及び実施例は、真の範囲及び精神は、以下の特許請求の範囲及びそれらの均等物の全範囲によって示されているが、単に例示的であるとみなされることが意図されている。

Claims (23)

  1. 複数フレーム意味信号の高速CNN分類のためのシステムであって、前記システムは、
    処理回路と、
    命令を含む1つ以上の記憶デバイスであって、前記命令は、前記処理回路によって実行されるときに、処理回路が、
    撮像デバイスから複数の時間シーケンス画像を受信することと、
    前記複数の時間シーケンス画像を、時間シーケンスバッファに記憶される複数のベクトルに変換することと、
    前記複数のベクトルに基づいて、時間的画像を生成することと、
    前記時間的画像への畳み込みニューラルネットワークの適用に基づいて、意味信号を生成することと、を行うように構成し、
    複数のベクトルの各々が、前記複数の時間シーケンス画像の各々と同じ幅の行ベクトルを含む、システム。
  2. 前記複数の時間シーケンス画像を前記複数のベクトルに変換するために、前記処理回路は、前記複数の時間シーケンス画像の各々のうちの複数の列の各々について列値を計算するように構成されている、請求項に記載のシステム。
  3. 前記列値を計算することは、前記複数の時間シーケンス画像の各々のうちの複数の列の各々について平均値、中央値、又は最大値を計算するステップのうちの少なくとも1つを含む、請求項2に記載のシステム。
  4. 前記時間的画像の生成は、前記複数のベクトルを連結して前記時間的画像を形成することを含む、請求項1に記載のシステム。
  5. 前記複数の時間シーケンス画像を前記複数のベクトルに変換するために、前記処理回路は、分類器を使用して、それぞれの複数の画像から前記複数のベクトルの各々を取得するように構成されている、請求項1に記載のシステム。
  6. 前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、点滅分類器を使用するように構成されている、請求項1に記載のシステム。
  7. 前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、ブレーキ分類器を使用するように構成されている、請求項1に記載のシステム。
  8. 前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を生成するために、前記処理回路は、前記複数のベクトルのベクトルの対にブレーキ分類器を使用し、前記時間的画像全体に点滅分類器を使用するように構成されている、請求項1に記載のシステム。
  9. 撮像デバイスが車両に搭載されており、
    前記意味信号は、前記車両の変更された経路状態を示し、
    前記命令は、前記処理回路が、
    前記変更された経路状態に応答して、前記車両について操縦を特定することと、
    前記操縦を実行するための車両制御信号を送ることと、を行うようにさらに構成する、請求項1に記載のシステム。
  10. 前記車両制御信号を受信し、前記車両について前記操縦を実行する車両制御デバイスをさらに含む、請求項に記載のシステム。
  11. 自律型ナビゲーション意味信号方法であって、
    撮像デバイスからの複数の時間シーケンス画像を受信することであって、前記複数の時間シーケンス画像の各々は固有の撮像時間に関連付けられる、ことと、
    前記複数の時間シーケンス画像の各々を複数のベクトルの各々にマッピングすることと、
    前記複数のベクトルを時間的画像に変換すること
    前記時間的画像に畳み込みニューラルネットワークを適用することに基づいて意味信号を識別すること、を含み、
    複数のベクトルの各々が、前記複数の時間シーケンス画像の各々と同じ幅の行ベクトルを含む、方法。
  12. 前記複数の時間シーケンス画像を捕捉することと、
    前記固有の撮像時間を、捕捉された前記複数の時間シーケンス画像の各々に関連付けることと、をさらに含む請求項11に記載の方法。
  13. 前記複数の時間シーケンス画像の各々を複数のベクトルの各々にマッピングすることは、前記複数の時間シーケンス画像の各々のうちの複数の列の各々について列値を計算することを含む、請求項11に記載の方法。
  14. 前記列値を計算することは、前記複数の時間シーケンス画像の各々のうちの複数の列の各々について平均値、中央値、又は最大値を計算することのうちの少なくとも1つを含む、請求項13に記載の方法。
  15. 前記複数のベクトルを前記時間的画像に変換することは、前記複数のベクトルを連結して、前記時間的画像を形成することを含む、請求項11に記載の方法。
  16. 前記複数の時間シーケンス画像の各々を前記複数のベクトルにマッピングすることは、それぞれの複数の画像から前記複数のベクトルの各々を取得するために、分類器を使用することを含む、請求項11に記載の方法。
  17. 前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を識別することは、点滅分類器を使用することを含む、請求項11に記載の方法。
  18. 前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を識別することは、ブレーキ分類器を使用することを含む、請求項11に記載の方法。
  19. 前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を識別することは、前記複数のベクトルのベクトルの対にブレーキ分類器を使用することと、前記時間的画像全体に点滅分類器を使用することとを含む、請求項11に記載の方法。
  20. 前記意味信号に基づいて車両操縦を識別することと、
    車両操縦を実行するための制御信号を車両制御デバイスに送信することと、をさらに含む、請求項11に記載の方法。
  21. 命令を記憶する非一時的なコンピュータプログラム製品であって、前記命令は、コンピュータ化システムによって実行されると、前記コンピュータ化システムが動作を行うようにし、前記動作は、
    撮像デバイスからの複数の時間シーケンス画像を受信することであって、前記複数の時間シーケンス画像の各々は固有の撮像時間に関連付けられる、ことと、
    前記複数の時間シーケンス画像の各々を複数のベクトルの各々にマッピングすることと、
    前記複数のベクトルを時間的画像に変換することと、
    前記時間的画像に畳み込みニューラルネットワークを適用することに基づいて意味信号を識別することと、を含み、
    複数のベクトルの各々が、前記複数の時間シーケンス画像の各々と同じ幅の行ベクトルを含む、非一時的なコンピュータプログラム製品。
  22. 前記複数の時間シーケンス画像を前記複数のベクトルに識別することは、それぞれの複数の画像から前記複数のベクトルの各々を取得するために、分類器を使用することを含む、請求項21に記載の非一時的なコンピュータプログラム製品。
  23. 前記時間的画像への前記畳み込みニューラルネットワークの適用に基づいて前記意味信号を識別することは、前記複数のベクトルのベクトルの対にブレーキ分類器を使用することと、前記時間的画像全体に点滅分類器を使用することとを含む、請求項21に記載の非一時的なコンピュータプログラム製品。
JP2021526679A 2018-11-15 2019-11-15 複数フレーム意味信号の高速cnn分類 Active JP7258137B2 (ja)

Applications Claiming Priority (3)

Application Number Priority Date Filing Date Title
US201862767785P 2018-11-15 2018-11-15
US62/767,785 2018-11-15
PCT/IB2019/001293 WO2020099936A2 (en) 2018-11-15 2019-11-15 Fast cnn classification of multi-frame semantic signals

Publications (3)

Publication Number Publication Date
JP2022509774A JP2022509774A (ja) 2022-01-24
JPWO2020099936A5 JPWO2020099936A5 (ja) 2022-11-22
JP7258137B2 true JP7258137B2 (ja) 2023-04-14

Family

ID=69582145

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2021526679A Active JP7258137B2 (ja) 2018-11-15 2019-11-15 複数フレーム意味信号の高速cnn分類

Country Status (6)

Country Link
US (2) US11200468B2 (ja)
EP (1) EP3881228A2 (ja)
JP (1) JP7258137B2 (ja)
KR (1) KR102630320B1 (ja)
CN (1) CN113614730B (ja)
WO (1) WO2020099936A2 (ja)

Families Citing this family (9)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2020099936A2 (en) 2018-11-15 2020-05-22 Mobileye Vision Technologies Ltd. Fast cnn classification of multi-frame semantic signals
DE102019214999A1 (de) * 2019-09-30 2021-04-01 Robert Bosch Gmbh Verfahren zum Bereitstellen eines Unterstützungssignals und/oder eines Ansteuerungssignals für ein zumindest teilautomatisiertes Fahrzeug
US11195033B2 (en) 2020-02-27 2021-12-07 Gm Cruise Holdings Llc Multi-modal, multi-technique vehicle signal detection
JP7115502B2 (ja) 2020-03-23 2022-08-09 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7359735B2 (ja) * 2020-04-06 2023-10-11 トヨタ自動車株式会社 物体状態識別装置、物体状態識別方法及び物体状態識別用コンピュータプログラムならびに制御装置
JP7388971B2 (ja) * 2020-04-06 2023-11-29 トヨタ自動車株式会社 車両制御装置、車両制御方法及び車両制御用コンピュータプログラム
US11935309B2 (en) * 2020-08-25 2024-03-19 Ford Global Technologies, Llc Determining traffic light labels and classification quality from infrastructure signals
CN112084427A (zh) * 2020-09-15 2020-12-15 辽宁工程技术大学 一种基于图神经网络的兴趣点推荐方法
TWI812291B (zh) * 2022-06-17 2023-08-11 緯創資通股份有限公司 連續學習的機器學習方法及電子裝置

Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006203832A (ja) 2004-12-22 2006-08-03 Mitsubishi Electric Corp 画像送受信システム、画像送受信方法、並びに画像送信手順と画像受信表示手順を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20120219174A1 (en) 2011-02-24 2012-08-30 Hao Wu Extracting motion information from digital video sequences
JP2018112989A (ja) 2017-01-13 2018-07-19 本田技研工業株式会社 運転補助装置及び運転補助方法
JP2018147368A (ja) 2017-03-08 2018-09-20 スズキ株式会社 路面状態推定装置

Family Cites Families (8)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101165359B1 (ko) * 2011-02-21 2012-07-12 (주)엔써즈 이미지와 이미지 또는 이미지와 동영상 사이의 상호 관계 분석 장치 및 방법
US9632502B1 (en) * 2015-11-04 2017-04-25 Zoox, Inc. Machine-learning systems and techniques to optimize teleoperation and/or planner decisions
US10800455B2 (en) * 2015-12-17 2020-10-13 Ford Global Technologies, Llc Vehicle turn signal detection
KR20180051838A (ko) * 2016-11-09 2018-05-17 삼성전자주식회사 보행자 및 차량의 탑승자에게 상대방의 접근을 알리는 방법 및 장치
US10699142B2 (en) * 2017-04-20 2020-06-30 GM Global Technology Operations LLC Systems and methods for traffic signal light detection
US20180314253A1 (en) * 2017-05-01 2018-11-01 Mentor Graphics Development (Deutschland) Gmbh Embedded automotive perception with machine learning classification of sensor data
US10902616B2 (en) * 2018-08-13 2021-01-26 Nvidia Corporation Scene embedding for visual navigation
WO2020099936A2 (en) 2018-11-15 2020-05-22 Mobileye Vision Technologies Ltd. Fast cnn classification of multi-frame semantic signals

Patent Citations (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006203832A (ja) 2004-12-22 2006-08-03 Mitsubishi Electric Corp 画像送受信システム、画像送受信方法、並びに画像送信手順と画像受信表示手順を実行させるためのプログラムを記録したコンピュータ読み取り可能な記録媒体
US20120219174A1 (en) 2011-02-24 2012-08-30 Hao Wu Extracting motion information from digital video sequences
JP2018112989A (ja) 2017-01-13 2018-07-19 本田技研工業株式会社 運転補助装置及び運転補助方法
JP2018147368A (ja) 2017-03-08 2018-09-20 スズキ株式会社 路面状態推定装置

Non-Patent Citations (3)

* Cited by examiner, † Cited by third party
Title
Han-Kai Hsu et al.,Learning to tell brake and turn signals in videos using CNN-LSTM structure,2017 IEEE 20th International Conference on Intelligent Transportation System,米国,IEEE,2018年05月15日,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=8317782
John M. Pierre, et al.,Spatio-tempral deep learning for robotic visuomotor control,2018 4th International Conference on Control, Automation and Robotics,米国,IEEE,2018年06月14日,p.94ーp.103,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber-8384651
谷口 博康 Hiroyasu TANIGUCHI,時空間画像を用いた動画像処理手法の提案-DTT法- A Method of Motion Analysis Using Spatio-Temporal Image -Directional Temporal Plane Transform-,電子情報通信学会論文誌 (J77-D-II) 第10号 THE TRANSACTIONS OF THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS D-II,日本,社団法人電子情報通信学会 THE INSTITUTE OF ELECTRONICS, INFORMATION AND COMMUNICATION ENGINEERS,1994年10月25日,第J77-D-II巻,p.2019ーp.2026

Also Published As

Publication number Publication date
US11755918B2 (en) 2023-09-12
JP2022509774A (ja) 2022-01-24
WO2020099936A3 (en) 2020-06-25
WO2020099936A2 (en) 2020-05-22
US20200160126A1 (en) 2020-05-21
EP3881228A2 (en) 2021-09-22
CN113614730B (zh) 2023-04-28
KR20210104712A (ko) 2021-08-25
KR102630320B1 (ko) 2024-01-30
CN113614730A (zh) 2021-11-05
US11200468B2 (en) 2021-12-14
US20220058453A1 (en) 2022-02-24

Similar Documents

Publication Publication Date Title
JP7258137B2 (ja) 複数フレーム意味信号の高速cnn分類
US10937173B2 (en) Predicting subject body poses and subject movement intent using probabilistic generative models
US20220343138A1 (en) Analysis of objects of interest in sensor data using deep neural networks
JP7227358B2 (ja) トレーニングデータを取得するためのシステム及び方法
US11137762B2 (en) Real time decision making for autonomous driving vehicles
US11043005B2 (en) Lidar-based multi-person pose estimation
EP3660734A1 (en) Real time object behavior prediction
CN114723955A (zh) 图像处理方法、装置、设备和计算机可读存储介质
CN111368972B (zh) 一种卷积层量化方法及其装置
WO2018162933A1 (en) Improved object recognition system
US20200239029A1 (en) Learning method and learning device for determining whether to switch mode of vehicle from manual driving mode to autonomous driving mode by performing trajectory-based behavior analysis on recent driving route
CN111105030B (zh) 用于车辆感知***的神经网络中的激活零旁路和权重剪枝
CN118215613A (zh) 用于高效的对象属性和/或意图分类的机器学习架构
CN114067166A (zh) 用于确定物理对象的物理特性的设备和方法
Goebl et al. Design and capabilities of the Munich cognitive automobile
WO2021109118A1 (en) Object re-identification using pose part based models
US20220048527A1 (en) Device and method for controlling a hardware agent in a control situation having a plurality of hardware agents
Podbucki et al. Aspects of autonomous drive control using NVIDIA Jetson Nano microcomputer
Zernetsch et al. Cyclist Trajectory Forecasts by Incorporation of Multi-View Video Information
CN116434156A (zh) 目标检测方法、存储介质、路侧设备及自动驾驶***
JP2019053377A (ja) 車両行動予測装置、車両行動予測方法および車両行動予測用のニューラルネットワークの学習方法
US20230128941A1 (en) Method for controlling an agent
Roomi et al. Hand Gesture Recognition System Using Transfer Learning
WO2021126062A1 (en) Method and system for predicting movement
CN118334614A (zh) 用于交通信号识别的方法和***

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20221114

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20221114

A871 Explanation of circumstances concerning accelerated examination

Free format text: JAPANESE INTERMEDIATE CODE: A871

Effective date: 20221114

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230228

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20230307

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20230404

R150 Certificate of patent or registration of utility model

Ref document number: 7258137

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150