JP2021517289A - 分散型ニューラルネットワークを用いた物体認識システム - Google Patents

分散型ニューラルネットワークを用いた物体認識システム Download PDF

Info

Publication number
JP2021517289A
JP2021517289A JP2020541954A JP2020541954A JP2021517289A JP 2021517289 A JP2021517289 A JP 2021517289A JP 2020541954 A JP2020541954 A JP 2020541954A JP 2020541954 A JP2020541954 A JP 2020541954A JP 2021517289 A JP2021517289 A JP 2021517289A
Authority
JP
Japan
Prior art keywords
neural network
roi
video
base station
object recognition
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2020541954A
Other languages
English (en)
Other versions
JP7058334B2 (ja
Inventor
マイケル フェイゲンブッツ
マイケル フェイゲンブッツ
Original Assignee
ロックウェル コリンズ ドイチェラント ゲーエムベーハー
ロックウェル コリンズ ドイチェラント ゲーエムベーハー
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by ロックウェル コリンズ ドイチェラント ゲーエムベーハー, ロックウェル コリンズ ドイチェラント ゲーエムベーハー filed Critical ロックウェル コリンズ ドイチェラント ゲーエムベーハー
Publication of JP2021517289A publication Critical patent/JP2021517289A/ja
Application granted granted Critical
Publication of JP7058334B2 publication Critical patent/JP7058334B2/ja
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Classifications

    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/08Learning methods
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06NCOMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
    • G06N3/00Computing arrangements based on biological models
    • G06N3/02Neural networks
    • G06N3/04Architecture, e.g. interconnection topology
    • G06N3/045Combinations of networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/70Arrangements for image or video recognition or understanding using pattern recognition or machine learning
    • G06V10/82Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V10/00Arrangements for image or video recognition or understanding
    • G06V10/94Hardware or software architectures specially adapted for image or video understanding
    • G06V10/95Hardware or software architectures specially adapted for image or video understanding structured as a network, e.g. client-server architectures
    • GPHYSICS
    • G06COMPUTING; CALCULATING OR COUNTING
    • G06VIMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
    • G06V20/00Scenes; Scene-specific elements
    • G06V20/10Terrestrial scenes
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/04Protocols specially adapted for terminals or networks with limited capabilities; specially adapted for terminal portability
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04LTRANSMISSION OF DIGITAL INFORMATION, e.g. TELEGRAPHIC COMMUNICATION
    • H04L67/00Network arrangements or protocols for supporting network services or applications
    • H04L67/01Protocols
    • H04L67/10Protocols in which an application is distributed across nodes in the network
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64CAEROPLANES; HELICOPTERS
    • B64C19/00Aircraft control not otherwise provided for
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U10/00Type of UAV
    • B64U10/25Fixed-wing aircraft
    • BPERFORMING OPERATIONS; TRANSPORTING
    • B64AIRCRAFT; AVIATION; COSMONAUTICS
    • B64UUNMANNED AERIAL VEHICLES [UAV]; EQUIPMENT THEREFOR
    • B64U2101/00UAVs specially adapted for particular uses or applications
    • B64U2101/30UAVs specially adapted for particular uses or applications for imaging, photography or videography

Landscapes

  • Engineering & Computer Science (AREA)
  • Theoretical Computer Science (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Evolutionary Computation (AREA)
  • Software Systems (AREA)
  • General Health & Medical Sciences (AREA)
  • Computing Systems (AREA)
  • Health & Medical Sciences (AREA)
  • Artificial Intelligence (AREA)
  • Multimedia (AREA)
  • Biomedical Technology (AREA)
  • Data Mining & Analysis (AREA)
  • Mathematical Physics (AREA)
  • General Engineering & Computer Science (AREA)
  • Molecular Biology (AREA)
  • Life Sciences & Earth Sciences (AREA)
  • Computational Linguistics (AREA)
  • Biophysics (AREA)
  • Signal Processing (AREA)
  • Computer Networks & Wireless Communication (AREA)
  • Computer Vision & Pattern Recognition (AREA)
  • Medical Informatics (AREA)
  • Databases & Information Systems (AREA)
  • Aviation & Aerospace Engineering (AREA)
  • Image Analysis (AREA)
  • Image Processing (AREA)
  • Radar Systems Or Details Thereof (AREA)

Abstract

分散型ニューラルネットワークを用いて物体を認識するためのシステムであって、ニューラルネットワークのリソース集中部分が基地局(地上)に設けられ、一方でニューラルネットワークのリソースが集中しない部分、具体的にはニューラルネットワークの残りの部分がフロントエンド(例えば、遠隔操作車両)に設けられている。したがって、フロントエンド側での技術的な複雑さと、基地局とフロントエンドとの間のデータ伝送の技術的な複雑さを低減することができる。【選択図】図1

Description

分散型ニューラルネットワークを用いた物体認識システムに関する。
基本的に、古典的な畳み込みニューラルネットワーク(CNN)の構造は、1つ以上の畳み込み層と、それに続くプーリング層とから構成されている。このユニットは基本的に何度でも繰り返すことができ、十分な数の繰り返しの場合には、深層学習の範囲内に入る深層畳み込みニューラルネットワークと呼ばれることになる。
高解像度映像におけるリアルタイムでの物体認識のための畳み込みニューラルネットワークは、適切なコンピュータ性能、メモリ容量及び特定の複雑なグラフィックスモジュールによるサポートを必要とする。前述のコンピュータリソースは、通常、膨大な電力及び容量の要件を有し、それに応じて重い。
小型や中型の遠隔操作車両(この場合、特に無人航空機)では、サイズ、重量及び電力要件の要件を満たすことができない。
もう一つの問題は、車両上のこのような解決策のコストである。これは、中型や小型の車両の場合、単価と将来の機能強化のためのコストの両方に適用される。
さらに、そのようなネットワークは、例を介して学習されなければならず、学習段階の後に(フィードバックなしで)独立して学習を継続することができない。
本発明は、限られたコンピュータリソース及び限られたリンク帯域幅を有する遠隔操作車両に対して、ニューラルネットワーク技術を用いてリアルタイムの物体認識を提供することを目的とする。したがって、分散ネットワークによるニューラルネットワーク技術によるリアルタイム物体認識の向上が達成される。さらに、特定の状況下では、既に訓練(学習)されたニューラルネットワークの継続的な自動訓練(学習)を可能にする。
この目的は、請求項1の特徴を有するシステムによって解決される。有利な実施形態は、従属請求項に記載されている。
分散型ニューラルネットワークによる物体認識システムでは、ニューラルネットワークのリソース集中部分が基地局(地上)に移動され、そこではサイズ、重量及び消費電力に関する大きな制限が存在しない。一方、フロントエンド(例えば、遠隔操作された車両)では、特徴マップ又はキャラクタリゼーション(又は特徴付け、特性評価、特性化、characterization)のみが処理される。
1つの変形実施形態では、高性能なニューラルネットワークを基地局(地上)に設けることができ、一方で、性能が劣るニューラルネットワークをフロントエンド側、特に航空機等の車両に設けることができる。
この処理では、フロントエンド側に高解像度のカメラ装置を設けて、高解像度の映像(又は動画、video)を生成することができる。フロントエンド側のニューラルネットワークは、映像内の「関心のある(of interest)」画像領域を認識し、マーキングするように設計することができる。この処理では、「関心のある」画像領域とは、物体認識ミッションのタスクに応じて、認識すべき物体を示す可能性のある特有の特徴を含むが、最終的な評価(final evaluation)及び特性評価(characterization)がまだ可能ではない画像領域と理解される。
映像処理手段は、以前に認識された関心のある画像領域に基づいてROI(ROI―「関心領域」)を選択して定義するため、及びROIを映像にエンコードするために提供されてもよい。この点において、ROIは、以前に「関心のある」画像領域として特徴付けられた領域の続きである。
さらに、映像処理手段から基地局に映像を送信するために、データ無線接続が設けられてもよい。
基地局側ニューラルネットワークは、受信した映像から抽出されたROIを評価し、ROI内に存在する物体を認識するように設計することができる。ROIは、基地局内で受信された映像から抽出され、ニューラルネットワークに利用可能になる。
基地局側ニューラルネットワークは、フロントエンド側ニューラルネットワークよりもかなり深く設計されている。そのため、基地局側ニューラルネットワークは、解析や物体認識を自由にするためのリソースを実質的に無制限に有することができる。そこに委ねられたAI(人工知能)コンピュータは、最終的に映像全体を再コンパイルし、特に基地局側ニューラルネットワークによって認識された物体を補完する。映像は、新たな境界ボックスを有するROIと、認識された物体の分類と、ROIとしてコード化されていない更なる領域のシンボルとを含んでもよい。
また、基地局側ニューラルネットワークによって認識された物体、又はそれによって生成された映像を表示するための表示手段が設けられてもよい。
システムのパラメータを変更するための操作手段が設けられてもよい。このパラメータのうちの少なくとも1つは、以下のグループから選択される。
+ ROIの位置
+ ROIのサイズ
+ ROIの評価
+ ROIの表示
+ 新しいROIの定義
+ カラー表示又は白黒表示の決定
この操作手段を用いて、地上にいるオペレータは表示を動的に変更することができる。
さらに本明細書では物体認識方法が規定されており、この物体認識方法は以下のステップを含む。
− 高性能ニューラルネットワークを基地局に設けるステップ
− 性能が劣るニューラルネットワークをフロントエンド側に設けるステップ
− フロントエンド側で高解像度の映像の生成するステップ
− フロントエンド側ニューラルネットワークにより、映像内の関心ある画像領域を認識し(検出し)、これらの画像領域をマーキングするステップ
− 以前に認識された関心ある画像領域に基づいてROI(「関心領域」)を選択して定義し、そのROIを映像にエンコードするステップ
− フロントエンド側から基地局へ映像を送信するステップ
− 受信した映像からROIを抽出するステップ
− 抽出したROIを評価し、基地局側ニューラルネットワークにより、ROI内に存在する物体を認識するステップ。
これにより、フロントエンド側の技術的な複雑さ、及び基地局とフロントエンドとの間のデータ伝送のための技術的な複雑さを低減することができる。
提案された解決手段は、映像処理(例えば遠隔操作用途のための)による物体認識に対処する全てのシステムの改善に貢献する。
このようなシステムは、例えば、無人航空機(例えばドローン等)に使用することができる。アプリケーションの1つの分野は、自然災害における犠牲者のためのドローンによる捜索であってよい。それからドローンは、ドローン自身と基地局の両方に分散したニューラルネットワークの形での人工知能を利用して、助けを必要としている犠牲者を探索し、認識することができる。このようにして、救助活動の作業を大幅に簡素化し、迅速化することができる。
特徴マップ層と全結合層とを分けた物体認識システムを示す概略図である。 図1を他の表現で示す概略図である。 特徴マップ層と全結合層における学習パラメータの部分の概要を示す表である。 他の表現で示す物体認識システムを示す図である。 他の表現で示す物体認識システムを示す図である。 物体認識システムの変形例を示す図である。
本発明は、添付の図面を用いて、実施例に基づいて説明される:
提案された解決手段は、ニューラルネットワークのリソース集中部分を、サイズ、重量及び消費電力に関する大きな制限が存在しない(地上の)基地局に移動させることを可能にする。
しかしながら、フロントエンド(例えば、遠隔操作されている車両)では、特徴マップ又は特徴付け(キャラクタリゼーション、characterization)のみが処理される(図1及び図2を参照)。
図3の表に示すように、ネットワークの後続の「全結合」部分における学習パラメータの量は著しく増加し、一方で、特徴マップ層におけるパラメータの量は非常に少ない(畳み込み層及びプーリング層)。
これと並行して、ピクセル/データの数は、オリジナル(映像)画像の最小分数(minimum fraction)にまで低減される。
情報は、特徴マップ層と「全結合層」との間でシリアル化される。すなわち、高さ及び幅=1であり、深さは、前のレベルからのフィールド/ピクセルの最大数に対応する。
この解決手段では、車両内に残る部分と基地局内に残る部分とへのネットワークの分割は、例えば「畳み込み層」と「全結合層」との間で、「転送パラメータ」の数を最小化したサイトで行われる。それから膨大な数の全結合層とそれに関連するパラメータは基地局のコンピュータによって計算される。一方で、畳み込み層とプーリング層は、少数の学習パラメータのみで車両上で計算される。
データリンクの帯域幅の変動により、一定の画質を提供しないことが多い圧縮映像ストリームのための数メガバイト/秒の伝送の代わりに、開示されたアプローチは、高解像度映像において物体を認識する場合でも、キロバイト/秒の範囲の伝送のみを必要とする。
2つの部分(例えば、基地、車両)へ分割(分散)することによって物体を認識する上記手法の原理は、物体認識の質を継続的に向上させるのに使用することができる(図4を参照)。またコンピュータリソースの利用可能性が制限された環境において、この技術の使用を可能にする。
複数の車両又は追加の複数の固定センサーを使用することにより、様々なソースの特徴量(feature characterizations)をシリアル化された表現として基地(ベース)で結合し、共通の全結合ネットワークを介して処理することができる。画像ソースの同期化が推定される。これにより、特に物体認識に関して、予測の質が向上する。
また、複数の並列ネットワークの実施が可能であり、これらは同じ物体を異なる視点から分析したり、異なるネットワークアーキテクチャで分析したりすることができる。あるいは、これらが異なる学習画像のセットを用いて学習されており、出力ノードに対して、結果を比較しながら、互いにフィードバックを与えることができ、そして自動的に学習し続けることができる。
既知のシステムと比べて、開示された解決手段は、小型や中型の遠隔操作車両又は自律型車両にも使用することができる。
また、このシステムは、車両を改造等することなく、車両の適格性が確認された後も、学習を継続させることができる。その改良(強化、向上)は、基地局で行うことができる(図5も参照)。
既知のシステムと比べて、開示された解決手段は、異なる視点から物体を自動的に分析し、共通の分類層を通してその結果を向上させることができる(図5も参照)。
図6は、本実施形態の機能及び応用原理の変形例を示す。以下における番号付けされた段落は、図6に記載された位置番号(丸で囲まれた数字)を指している。
(1)例えば地震後の被災地等、大面積を分析する状況では、例として、既存の昼光センサーと赤外線センサーに加えて、クラスタカメラが搭載されたドローンが使用される。このクラスタカメラは複数の個別のカメラ(カメラ1〜3)で構成されており、個々のカメラを組み合わせることで非常に広い視野角を確保できる。このようにして、より大きなエリアや風景も完全にカバーすることができる。
(2)クラスタカメラの個々の映像は、ドローンに搭載された映像処理ユニットにおいて、4K解像度の単一の映像(例えば、UHD映像)に結合される(所謂「スティッチング」)。この映像の正規化された(スケーリングされた)バージョンは、解析と物体認識のための埋め込み型(embedded)ニューラルネットワークに供給される。一方でフル解像度を有する完全な映像は、映像処理ユニットに並列に渡される。このように、埋め込み型ニューラルネットワークはフロントエンド側であり、すなわち、航空機(例えばドローン等)内に存在する。
(3)埋め込み型ニューラルネットワークは、「関心のある」画像領域又は物体(例えば、自然災害の被害者、破壊された家等)を認識し、所謂「境界ボックス」の座標を出力として供給する。この「境界ボックス」は、検出した物体をマークし、予測の確立を評価する対応する重みづけ(スコア)を評価する。
このようにして、埋め込み型ニューラルネットワークは、計算された映像データのある予備的な評価を既に実行し、既存の人工知能の助けを借りて、関心があると思われる画像領域や物体を特徴づけることができる。
この処理では、埋め込み型ニューラルネットワークの処理性能は、通常、「関心がある」と認識された画像領域又はそこで見つかった物体を、十分な安全性と精度で認識(又は特定)するのには十分ではない。
(4)ニューラルネットワークによって認識された座標と確率は、映像処理ユニットによって、所謂ROI(「関心領域」)を規定(又は定義)するのに使用される。ROIは、以前に規定された境界ボックスよりも大きな面積を有することができ、またこれらの複数のマーキングを含むこともできる。例えば、複数の密集した「関心がある」物体がニューラルネットワークによって認識された場合、それらは単一のROIにまとめることができる。
確率パラメータに基づいて、最も重要なROIは映像に直接エンコードされ、一方で確率の低い領域はシンボルを介してカラーコードでマークすることができる。
圧縮率をさらに高めるために、図6に示すように、ROIの外側の領域は、白黒フォーマットで任意に送信されることができる。当然ながら、対応する無線帯域幅があれば、完全にカラーで伝送することができる。
(5)エンコードされた映像は、シンボル座標及びROIと共に、ドローンのデータ無線接続を介して地上管制局に送信され、そこで再びデコードされる。このようにして映像は、高解像度の領域(ROIを含む)と、ドローンと地上管制局との間の接続の帯域幅に応じて、低解像度の領域(必要に応じて、白黒のみで)とを有することになる。
(6)ROIの詳細な分析のために、映像から自動的にROIが切り取られ、地上におけるニューラルネットワークに供給される。このネットワークは、高性能なプロセッサと複数のGPUを搭載した専用のAIコンピュータ上で動作します。
地上での処理は、無線帯域が変動しても安定した高品質の映像素材をこれらの領域に供給するROIの仕組みによって最終的に可能となる。
(7)地上に配置されたAIコンピュータは、航空機に搭載されている空中コンポーネントよりもかなり深いニューラルネットワークを使用しており、分析及び物体認識のためのリソースを実質的に無限に提供する。
AIコンピュータは最終的に、地上のディスプレイユニット上に完全な映像を表示する。
これは、新しい境界ボックス付きのROI、認識された物体の分類(8)及びROIとしてエンコードされていない更なる領域のためのシンボルが含まれている。
地上のオペレータは、以下に例示するように、表示を動的に変更することができる。
・表示されているROIを動的(同時に、ダイナミックに)に移動させる。
・ROIのサイズを変更する。
・記号を選択し、ROIとして表示させる(スコアが最も低いROIは消えて記号になる)。
・ROIを自身で定義する。
・カラー表示又は白黒表示を選択する。

Claims (8)

  1. 分散型ニューラルネットワークを用いた物体認識システム。
  2. 前記ニューラルネットワークのリソースが集中する部分が(地上の)基地局に設けられており、
    前記ニューラルネットワークのリソースの集中がより少ない部分、具体的には前記ニューラルネットワークにおける残りの部分が、フロントエンド(例えば、遠隔操作車両)に設けられている請求項1に記載の物体認識システム。
  3. 前記フロントエンドでは、特徴マップ又はキャラクタリゼーションのみが設けられている又は編集可能である請求項2に記載の物体認識システム。
  4. 高性能のニューラルネットワークが(地上の)基地局に設けられており、
    性能がより低いニューラルネットワークが、フロントエンド側、具体的には車両に設けられている、請求項1に記載の物体認識システム。
  5. 高解像度の映像を生成するための高解像度カメラ装置が前記フロントエンド側に設けられ、
    前記フロントエンド側のニューラルネットワークが、前記映像内の関心ある画像領域を特定してマークするように設計されており、
    予め特定した前記関心ある画像領域に基づいて、ROI(関心領域)を選択及び規定し、前記ROIを前記映像にエンコードするための映像処理手段が設けられており、
    前記映像処理手段から前記基地局に前記映像を送信するためのデータ無線接続が設けられ、
    前記基地局側のニューラルネットワークが、受信した前記映像から抽出した前記ROIを評価し、前記ROI内に存在する物体を認識するように設計されている請求項4に記載の物体認識システム。
  6. 前記基地局側のニューラルネットワークによって認識された前記物体を表示する表示手段が設けられている請求項5に記載の物体認識システム。
  7. 前記システムのパラメータを変更するための操作手段が設けられており、
    前記パラメータのうちの少なくとも1つが、
    ROIの位置、
    ROIのサイズ、
    ROIの評価、
    ROIの表示、
    新しいROIの定義、及び
    カラー表示か白黒表示かの決定
    から選択される、請求項4〜6のいずれか一項に記載の物体認識システム。
  8. 高性能なニューラルネットワークを基地局に設け、
    性能がより低いニューラルネットワークをフロントエンド側に設け、
    前記フロントエンド側で高解像度の映像を生成し、
    前記フロントエンド側のニューラルネットワークによって、前記映像における関心がある画像領域を特定し、これらの画像領域にマークを付け、
    予め特定した前記関心ある画像領域に基づいて、ROI(関心領域)を選択及び規定し、前記ROIを前記映像にエンコードし、
    前記フロントエンド側から前記基地局に前記映像を送信し、
    受信した前記映像からROIを抽出し、
    前記基地局側のニューラルネットワークによって、前記抽出したROIを評価し、前記ROI内に存在する物体を認識する物体認識方法。

JP2020541954A 2018-03-16 2019-03-14 分散型ニューラルネットワークを用いた物体認識システム Active JP7058334B2 (ja)

Applications Claiming Priority (5)

Application Number Priority Date Filing Date Title
DE102018106222.2 2018-03-16
DE102018106222 2018-03-16
DE102018110828.1A DE102018110828A1 (de) 2018-03-16 2018-05-04 System zur Objekterkennung mittels verteilter Neuronaler Netze
DE102018110828.1 2018-05-04
PCT/EP2019/056418 WO2019175309A1 (de) 2018-03-16 2019-03-14 System zur objekterkennung mittels verteilter neuronaler netze

Publications (2)

Publication Number Publication Date
JP2021517289A true JP2021517289A (ja) 2021-07-15
JP7058334B2 JP7058334B2 (ja) 2022-04-21

Family

ID=67774380

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2020541954A Active JP7058334B2 (ja) 2018-03-16 2019-03-14 分散型ニューラルネットワークを用いた物体認識システム

Country Status (10)

Country Link
US (1) US11816567B2 (ja)
EP (1) EP3765999B1 (ja)
JP (1) JP7058334B2 (ja)
CN (1) CN111656356B (ja)
AU (1) AU2019233666B2 (ja)
CA (1) CA3094121C (ja)
DE (1) DE102018110828A1 (ja)
ES (1) ES2916727T3 (ja)
IL (1) IL276178B2 (ja)
WO (1) WO2019175309A1 (ja)

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127388A1 (ja) * 2021-12-28 2023-07-06 ソニーグループ株式会社 無線基地局、無線基地局の制御方法、通信制御装置、通信制御装置の制御方法およびプログラム

Families Citing this family (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
DE102020204109A1 (de) 2020-03-30 2021-09-30 Airbus Operations Gmbh Überwachungssystemnetzwerk und verfahren zum betreiben eines überwachungssystemnetzwerks
CN113469117A (zh) * 2021-07-20 2021-10-01 国网信息通信产业集团有限公司 一种多路视频实时检测方法及***

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009505288A (ja) * 2005-08-15 2009-02-05 エブリックス・テクノロジーズ・インコーポレイテッド 画像から得られる情報のインターネットおよびその他の検索エンジンのための検索基準としての使用
US20170076195A1 (en) * 2015-09-10 2017-03-16 Intel Corporation Distributed neural networks for scalable real-time analytics
WO2017200622A2 (en) * 2016-02-29 2017-11-23 Satellogic Overseas, Inc. (Bvi) System for planetary-scale analytics

Family Cites Families (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
CN103632143B (zh) * 2013-12-05 2017-02-08 冠捷显示科技(厦门)有限公司 结合云计算基于影像的物件识别***
CN104077613B (zh) 2014-07-16 2017-04-12 电子科技大学 一种基于级联多级卷积神经网络的人群密度估计方法
EP3035249B1 (en) * 2014-12-19 2019-11-27 Intel Corporation Method and apparatus for distributed and cooperative computation in artificial neural networks
WO2017095948A1 (en) * 2015-11-30 2017-06-08 Pilot Ai Labs, Inc. Improved general object detection using neural networks
CN107368886B (zh) * 2017-02-23 2020-10-02 奥瞳***科技有限公司 基于重复使用小规模卷积神经网络模块的神经网络***
US20220269910A1 (en) * 2017-07-01 2022-08-25 Algolux Inc. Method and system for determining auto-exposure for high-dynamic range object detection using neural network
CN107135237A (zh) * 2017-07-07 2017-09-05 三星电子(中国)研发中心 一种呈现目标增强信息的实现方法和装置
CN107368857A (zh) 2017-07-24 2017-11-21 深圳市图芯智能科技有限公司 图像对象检测方法、***及模型处理方法、设备、终端
CN107368832A (zh) * 2017-07-26 2017-11-21 中国华戎科技集团有限公司 基于图像的目标检测及分类方法
US10816693B2 (en) * 2017-11-21 2020-10-27 Reliance Core Consulting LLC Methods, systems, apparatuses and devices for facilitating motion analysis in a field of interest

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2009505288A (ja) * 2005-08-15 2009-02-05 エブリックス・テクノロジーズ・インコーポレイテッド 画像から得られる情報のインターネットおよびその他の検索エンジンのための検索基準としての使用
US20170076195A1 (en) * 2015-09-10 2017-03-16 Intel Corporation Distributed neural networks for scalable real-time analytics
WO2017200622A2 (en) * 2016-02-29 2017-11-23 Satellogic Overseas, Inc. (Bvi) System for planetary-scale analytics

Non-Patent Citations (1)

* Cited by examiner, † Cited by third party
Title
SURAT TEERAPITTAYANON, 外2名: ""Distributed Deep Neural Networks over the Cloud, the Edge and End Devices"", 2017 IEEE 37TH INTERNATIONAL CONFERENCE ON DISTRIBUTED COMPUTING SYSTEMS(ICDCS), JPN6021037626, 8 June 2017 (2017-06-08), pages 328 - 339, XP033122945, ISSN: 0004604552, DOI: 10.1109/ICDCS.2017.226 *

Cited By (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2023127388A1 (ja) * 2021-12-28 2023-07-06 ソニーグループ株式会社 無線基地局、無線基地局の制御方法、通信制御装置、通信制御装置の制御方法およびプログラム

Also Published As

Publication number Publication date
US20210027059A1 (en) 2021-01-28
EP3765999B1 (de) 2022-05-04
AU2019233666A1 (en) 2020-11-12
IL276178A (en) 2020-09-30
EP3765999A1 (de) 2021-01-20
ES2916727T3 (es) 2022-07-05
WO2019175309A1 (de) 2019-09-19
CN111656356A (zh) 2020-09-11
US11816567B2 (en) 2023-11-14
IL276178B2 (en) 2023-09-01
DE102018110828A1 (de) 2019-09-19
CA3094121A1 (en) 2019-09-19
CN111656356B (zh) 2023-08-08
IL276178B1 (en) 2023-05-01
JP7058334B2 (ja) 2022-04-21
AU2019233666B2 (en) 2022-02-03
CA3094121C (en) 2023-03-28

Similar Documents

Publication Publication Date Title
WO2020192471A1 (zh) 一种图像分类模型训练的方法、图像处理的方法及装置
KR102060662B1 (ko) 차량의 주행 이벤트를 검출하는 전자 장치 및 방법
US9928605B2 (en) Real-time cascaded object recognition
JP7058334B2 (ja) 分散型ニューラルネットワークを用いた物体認識システム
US11861769B2 (en) Electronic device and operating method thereof
US11810279B2 (en) Image acquisition device and method of controlling the same
KR102646889B1 (ko) 스타일 변환을 위한 영상 처리 장치 및 방법
US11831948B2 (en) Video playback device and control method thereof
CN110705412A (zh) 一种基于运动历史图像的视频目标检测方法
Kanellakis et al. Open space attraction based navigation in dark tunnels for MAVs
US11436842B2 (en) Bulb mask representation for traffic light classification
CN114399718A (zh) 一种视频播放过程中的图像内容识别方法及装置
US20230342944A1 (en) System and Method for Motion Prediction in Autonomous Driving
Islam Machine Vision for Improved Human-Robot Cooperation in Adverse Underwater Conditions
CN115147922A (zh) 基于嵌入式平台的单目行人检测方法、***、设备及介质
Emilyn et al. Entity Perception Using Remotely Piloted Aerial Vehicle
CN115082869A (zh) 一种服务于特种车辆的车路协同多目标检测方法及***
CN116798117A (zh) 一种基于视频理解的矿井下异常动作识别方法
CN117876901A (zh) 一种基于无人机视觉感知的定点降落方法
KR20210087335A (ko) 로컬 장치의 성능 향상

Legal Events

Date Code Title Description
A529 Written submission of copy of amendment under article 34 pct

Free format text: JAPANESE INTERMEDIATE CODE: A529

Effective date: 20200821

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20200821

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20210427

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20210930

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20211216

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20220322

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20220411

R150 Certificate of patent or registration of utility model

Ref document number: 7058334

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150