JP7128157B2 - 自動化されたオブジェクト識別のための画像処理 - Google Patents
自動化されたオブジェクト識別のための画像処理 Download PDFInfo
- Publication number
- JP7128157B2 JP7128157B2 JP2019143480A JP2019143480A JP7128157B2 JP 7128157 B2 JP7128157 B2 JP 7128157B2 JP 2019143480 A JP2019143480 A JP 2019143480A JP 2019143480 A JP2019143480 A JP 2019143480A JP 7128157 B2 JP7128157 B2 JP 7128157B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- media
- model
- embedding
- determining
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000012545 processing Methods 0.000 title description 34
- 238000000034 method Methods 0.000 claims description 125
- 238000013210 evaluation model Methods 0.000 claims description 42
- 230000015654 memory Effects 0.000 claims description 39
- 238000011156 evaluation Methods 0.000 claims description 32
- 230000009471 action Effects 0.000 claims description 11
- 230000002787 reinforcement Effects 0.000 claims description 11
- 238000001514 detection method Methods 0.000 claims description 3
- 230000004807 localization Effects 0.000 claims description 3
- 238000013507 mapping Methods 0.000 claims description 3
- 230000008569 process Effects 0.000 description 63
- 238000004891 communication Methods 0.000 description 19
- 238000010586 diagram Methods 0.000 description 8
- 238000012549 training Methods 0.000 description 8
- 230000001815 facial effect Effects 0.000 description 7
- 239000000470 constituent Substances 0.000 description 4
- 230000006872 improvement Effects 0.000 description 4
- 238000005457 optimization Methods 0.000 description 4
- 238000012360 testing method Methods 0.000 description 4
- 238000012546 transfer Methods 0.000 description 4
- 230000001419 dependent effect Effects 0.000 description 3
- 230000006870 function Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 238000013459 approach Methods 0.000 description 2
- 230000001413 cellular effect Effects 0.000 description 2
- 230000006835 compression Effects 0.000 description 2
- 238000007906 compression Methods 0.000 description 2
- 238000012790 confirmation Methods 0.000 description 2
- 238000013500 data storage Methods 0.000 description 2
- 230000007774 longterm Effects 0.000 description 2
- 238000007781 pre-processing Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 241000282412 Homo Species 0.000 description 1
- 230000006399 behavior Effects 0.000 description 1
- 238000007596 consolidation process Methods 0.000 description 1
- 238000013523 data management Methods 0.000 description 1
- 230000005021 gait Effects 0.000 description 1
- 238000007689 inspection Methods 0.000 description 1
- 238000013508 migration Methods 0.000 description 1
- 230000005012 migration Effects 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000009467 reduction Effects 0.000 description 1
- 230000011218 segmentation Effects 0.000 description 1
- 238000005549 size reduction Methods 0.000 description 1
- 239000004984 smart glass Substances 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000010200 validation analysis Methods 0.000 description 1
- 238000012795 verification Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/20—Processor architectures; Processor configuration, e.g. pipelining
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G05—CONTROLLING; REGULATING
- G05D—SYSTEMS FOR CONTROLLING OR REGULATING NON-ELECTRIC VARIABLES
- G05D1/00—Control of position, course, altitude or attitude of land, water, air or space vehicles, e.g. using automatic pilots
- G05D1/02—Control of position or course in two dimensions
- G05D1/021—Control of position or course in two dimensions specially adapted to land vehicles
- G05D1/0231—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means
- G05D1/0246—Control of position or course in two dimensions specially adapted to land vehicles using optical position detecting means using a video camera in combination with image processing means
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T1/00—General purpose image data processing
- G06T1/60—Memory management
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T5/00—Image enhancement or restoration
- G06T5/50—Image enhancement or restoration using two or more images, e.g. averaging or subtraction
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/0002—Inspection of images, e.g. flaw detection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/20—Analysis of motion
- G06T7/246—Analysis of motion using feature-based methods, e.g. the tracking of corners or segments
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/98—Detection or correction of errors, e.g. by rescanning the pattern or by human intervention; Evaluation of the quality of the acquired patterns
- G06V10/993—Evaluation of the quality of the acquired pattern
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30168—Image quality inspection
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30204—Marker
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30248—Vehicle exterior or interior
- G06T2207/30252—Vehicle exterior; Vicinity of vehicle
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/10—Segmentation; Edge detection
- G06T7/11—Region-based segmentation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V2201/00—Indexing scheme relating to image or video recognition or understanding
- G06V2201/08—Detecting or categorising vehicles
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Evolutionary Computation (AREA)
- Software Systems (AREA)
- Quality & Reliability (AREA)
- Medical Informatics (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Databases & Information Systems (AREA)
- Aviation & Aerospace Engineering (AREA)
- Electromagnetism (AREA)
- Radar, Positioning & Navigation (AREA)
- Remote Sensing (AREA)
- Automation & Control Theory (AREA)
- General Engineering & Computer Science (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
様々なオペレーティングシステムの複数のインスタンスが、仮想化ハードウェアリソースを共有してもよい。
例として、図1A~図1Cに関連して上述されたように、オブジェクト識別プラットフォーム(例えばコンピューティングリソース225、プロセッサ320、メモリ330、ストレージコンポーネント340、および/または同様のものを使用する)は、画像埋め込みおよび埋め込み誤差に基づいて、画像の特徴の識別を判断してもよい。
Claims (20)
- 1つ以上のメモリと、
前記1つ以上のメモリに通信結合され、
画像を取得すること、
前記取得した画像に基づき、且つ画像生成モデルを使用して、オブジェクト認識のための候補画像のセットを生成することであって、前記候補画像のセットは、前記取得した画像に比べて改善された品質を有し、前記画像生成モデルは、敵対的生成ネットワーク(GAN)モデルである、前記候補画像のセットを生成すること、
前記候補画像のセットに基づき、且つ画像評価モデルを使用して、前記候補画像のセットのうちの候補画像1つ以上が、前記画像の解像度を改善するために、画像生成の間に前記画像生成モデルを使用して処理されたと判断することであって、前記画像評価モデルは、前記画像生成モデルのための判別器である深層強化学習モデルである、前記画像生成モデルを使用して処理されたと判断すること、
画像識別モデルにより、前記取得した画像についての第1の埋め込み値および前記1つ以上の候補画像についての第2の埋め込み値を判断することであって、埋め込み値は、前記画像識別モデルを使用して計算された、特定の画像の意味特徴に関しての前記画像識別モデルにおける特定の画像の位置を表すことを特徴とする、前記埋め込み値を判断することと、
前記第1の埋め込み値と前記第2の埋め込み値とを比較することにより、前記1つ以上の候補画像について埋め込み誤差を判断することであって、埋め込み誤差は、前記画像識別モデルのグラフ表現に関するグラフ距離を表すことを特徴とする、前記埋め込み誤差を判断することと、
前記第1および第2の埋め込み値ならびに前記埋め込み誤差に基づいて、前記画像識別モデルにより、前記取得した画像の特徴の識別を判断すること、
後の画像生成のために更新された画像生成モデルを生成するために、前記画像生成モデルに前記埋め込み誤差を逆伝播させること、
後の画像評価のために更新された画像評価モデルを生成するために、前記画像評価モデルに前記取得した画像の前記特徴の前記識別を逆伝播させること、ならびに
前記特徴の前記識別を判断することに基づいて、前記特徴の前記識別に関係するアクションを実行すること、
をする1つ以上のプロセッサと、
を含むデバイス。 - 前記1つ以上のプロセッサは、
別の画像に基づいて候補画像の別のセットを生成するために、前記更新された画像生成モデルを使用することと、
前記候補画像の別のセットに基づいて前記別の画像の別の特徴の別の識別を判断することと、
をさらにする、請求項1に記載のデバイス。 - 前記1つ以上のプロセッサは、
別の画像に関係する別の1つ以上の候補画像を評価するために、前記更新された画像評価モデルを使用することと、
前記別の1つ以上の候補画像に基づいて前記別の画像の別の特徴の別の識別を判断することと、
をさらにする、請求項1に記載のデバイス。 - 前記1つ以上のプロセッサは、
前記埋め込み誤差が閾値を満たさないと判断することと、
前記埋め込み誤差が前記閾値を満たさないと判断することに基づき、前記取得した画像についての第3の埋め込み値および前記1つ以上の候補画像についての第4の埋め込み値を判断し、且つ前記第3の埋め込み値と前記第4の埋め込み値とを比較することにより前記1つ以上の候補画像について別の埋め込み誤差を判断するために、前記第1および第2の埋め込み値ならびに前記埋め込み誤差の判断の結果を使用して画像生成および画像評価を反復することと、
をさらにし、
前記1つ以上のプロセッサは、前記取得した画像の前記特徴の前記識別を判断するとき、
前記第3および第4の埋め込み値ならびに前記別の埋め込み誤差に基づいて前記画像の前記特徴の前記識別を判断する、請求項1に記載のデバイス。 - 前記アクションは、自律車両が制御されることを生じさせることに関連する、請求項1に記載のデバイス。
- 前記1つ以上のプロセッサは、前記特徴の前記識別に関係する前記アクションを実行するとき、
前記特徴の前記識別に基づいて、別のデバイスの機能に変更を加えることに関係するコマンドを提供するために、前記別のデバイスと通信すること
をする、請求項1に記載のデバイス。 - 前記画像の前記特徴は、
バイオメトリック特徴、
オブジェクト、
画像セグメント、または
メッセージ
のうちの少なくとも1つである、請求項1に記載のデバイス。 - 前記取得した画像は、ビデオ記録の少なくとも1つのフレームである、請求項1に記載のデバイス。
- 前記取得した画像は、低解像度画像を含む、請求項1に記載のデバイス。
- 前記1つ以上のプロセッサは、前記1つ以上の候補画像が画像生成の間に前記画像生成モデルを使用して処理されたと、前記画像評価モデルを使用して判断するとき、
過去の高解像度画像のセットを受信することと、
前記1つ以上の候補画像と、前記過去の高解像度画像とを比較することと、
をする、請求項1に記載のデバイス。 - デバイスによって、メディアの項目を取得するステップと、
前記デバイスによって、前記取得したメディアの項目に基づき、且つメディア生成モデルを使用して、オブジェクト認識のための候補メディアのセットを生成するステップであって、前記候補メディアのセットは、前記取得したメディアの項目に比べて改善された品質を有し、前記メディア生成モデルは、敵対的生成ネットワーク(GAN)モデルである、前記候補メディアのセットを生成するステップと、
前記デバイスによって、前記候補メディアのセットに基づき、且つメディア評価モデルを使用して、前記候補メディアのセットのうちの候補メディア1つ以上が、前記メディアの項目の特徴の品質を改善するために、メディア生成の間に前記メディア生成モデルを使用して処理されたと判断するステップあって、前記メディア評価モデルは、前記メディア生成モデルのための判別器である深層強化学習モデルである、前記メディア生成モデルを使用して処理されたと判断するステップと、
前記デバイスによって、およびメディア識別モデルにより、前記取得したメディアの項目についての第1の埋め込み値および前記1つ以上の候補メディアについての第2の埋め込み値を判断するステップであって、埋め込み値は、前記メディア識別モデルを使用して計算された、特定のメディアの意味特徴に関しての前記メディア識別モデルにおける特定のメディアの位置を表すことを特徴とする、前記埋め込み値を判断するステップと、
前記デバイスによって、前記第1の埋め込み値と前記第2の埋め込み値とを比較することにより、前記1つ以上の候補メディアについて埋め込み誤差を判断するステップであって、埋め込み誤差は、前記メディア識別モデルのグラフ表現に関するグラフ距離を表すことを特徴とする、前記埋め込み誤差を判断するステップと、
前記デバイスによって、前記第1および第2の埋め込み値ならびに前記埋め込み誤差に基づいて、前記メディア識別モデルにより、前記取得したメディアの項目の前記特徴の識別を判断するステップと、
後のメディア生成のために更新されたメディア生成モデルを生成するために、前記メディア生成モデルに前記埋め込み誤差を逆伝播させるステップと、
後のメディア評価のために更新されたメディア評価モデルを生成するために、前記メディア評価モデルに前記取得したメディアの項目の前記特徴の前記識別を逆伝播させるステップと、
前記特徴の前記識別を判断するステップに基づいて、前記特徴を識別する情報を提供するために前記デバイスによって別のデバイスと通信するステップと、
を含む方法。 - 前記取得したメディアの項目は、
画像、
ビデオ記録、
オーディオ記録、
仮想現実表現、または
データ表現
のうちの少なくとも1つである、請求項11に記載の方法。 - 前記特徴の前記品質は、
解像度、
シャープネス、または
コントラスト
のうちの少なくとも1つである、請求項11に記載の方法。 - 前記特徴の前記識別を判断するステップは、
同時位置測定地図作成(SLAM)オブジェクト検出手順を使用して前記特徴の前記識別を判断するステップ
を含む、請求項11に記載の方法。 - 前記特徴の前記識別を判断するステップは、
前記取得したメディアの項目の中のオブジェクトを識別するステップ
を含む、請求項11に記載の方法。 - 前記方法は、
前記特徴の前記識別に基づいて前記取得したメディアの項目を分割するステップ
をさらに含み、
前記特徴を識別する情報を提供するために前記別のデバイスと通信するステップは、
前記取得したメディアの項目を分割するステップに関係する情報を提供するステップ
を含む、請求項11に記載の方法。 - 前記メディアの項目を取得するステップは、
前記メディアの項目の低解像度バージョンをリクエストするステップ
を含み、
前記低解像度バージョンは、前記メディアの項目の他のバージョンと比べて削減されたファイルサイズを伴い、
前記候補メディアのセットを生成するステップは、
前記低解像度バージョンに基づいて前記取得したメディアの項目の高解像度バージョンを少なくとも1つ生成するステップ
を含み、
前記少なくとも1つの高解像度バージョンは、前記低解像度バージョンよりも大きなファイルサイズを伴う、請求項11に記載の方法。 - 命令を格納する非一時的コンピュータ可読媒体であって、前記命令は、
1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
画像に基づき、且つ画像生成モデルを使用して、オブジェクト認識のための候補画像のセットを生成することであって、
前記候補画像のセットの中の各候補画像は、前記画像と比べて増大した画像解像度を伴い、前記画像生成モデルは、敵対的生成ネットワーク(GAN)モデルである、
前記生成することと、
前記候補画像のセットに基づき、且つ画像評価モデルを使用して、前記候補画像のセットのうちの候補画像1つ以上が、前記画像の解像度を改善するために、画像生成の間に前記画像生成モデルを使用して処理されたと判断することであって、前記画像評価モデルは、前記画像生成モデルのための判別器である深層強化学習モデルである、前記画像生成モデルを使用して処理されたと判別することと、
画像識別モデルにより、前記画像についての第1の埋め込み値および前記候補画像のセットについての第2の埋め込み値を判断することとであって、埋め込み値は、前記画像識別モデルを使用して計算された、特定の画像の意味特徴に関しての前記画像識別モデルにおける特定の画像の位置を表すことを特徴とする、前記埋め込み値を判断することと、
前記第1の埋め込み値と前記第2の埋め込み値とを比較することにより、前記1つ以上の候補画像について埋め込み誤差を判断することであって、埋め込み誤差は、前記画像識別モデルのグラフ表現に関するグラフ距離を表すことを特徴とする、前記埋め込み誤差を判断することと、
前記第1および第2の埋め込み値ならび前記埋め込み誤差に基づいて、前記画像識別モデルにより、前記画像の特徴の識別を判断することと、
後の画像生成のために更新された画像生成モデルを生成するために、前記画像生成モデルに前記埋め込み誤差を逆伝播させることと、
後の画像評価のために更新された画像評価モデルを生成するために、前記画像評価モデルに前記取得した画像の前記特徴の前記識別を逆伝播させることと、
前記特徴の前記識別を判断することに基づいて、前記画像の前記特徴を識別する情報を提供することと
をさせる1つ以上の命令を含む、非一時的コンピュータ可読媒体。 - 前記1つ以上の命令は、前記1つ以上のプロセッサによって実行されると、前記1つ以上のプロセッサに、
前記候補画像のセットを評価するために、強化学習に基づく画像評価モジュールを使用することと、
前記候補画像のセットの評価に基づいて、解像度基準が満たされていると判断することと、
をさらにさせ、
前記1つ以上のプロセッサに前記第1および第2の埋め込み値を判断させる前記1つ以上の命令は、前記1つ以上のプロセッサに、
前記解像度基準が満たされていると判断することに基づいて、前記第1および第2の埋め込み値を判断すること
をさせる、請求項18に記載の非一時的コンピュータ可読媒体。 - 前記画像は、ビデオであり、前記候補画像のセットは、前記ビデオのフレームのセットである、請求項18に記載の非一時的コンピュータ可読媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US16/057,246 | 2018-08-07 | ||
US16/057,246 US10706308B2 (en) | 2018-08-07 | 2018-08-07 | Image processing for automated object identification |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020047262A JP2020047262A (ja) | 2020-03-26 |
JP7128157B2 true JP7128157B2 (ja) | 2022-08-30 |
Family
ID=67551250
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019143480A Active JP7128157B2 (ja) | 2018-08-07 | 2019-08-05 | 自動化されたオブジェクト識別のための画像処理 |
Country Status (4)
Country | Link |
---|---|
US (1) | US10706308B2 (ja) |
EP (1) | EP3608840A1 (ja) |
JP (1) | JP7128157B2 (ja) |
CN (1) | CN110827190B (ja) |
Families Citing this family (31)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2016040648A1 (en) | 2014-09-12 | 2016-03-17 | Wing Enterprises, Incorporated | Ladders, rung assemblies for ladders and related methods |
WO2018176000A1 (en) | 2017-03-23 | 2018-09-27 | DeepScale, Inc. | Data synthesis for autonomous control systems |
US11893393B2 (en) | 2017-07-24 | 2024-02-06 | Tesla, Inc. | Computational array microprocessor system with hardware arbiter managing memory requests |
US11157441B2 (en) | 2017-07-24 | 2021-10-26 | Tesla, Inc. | Computational array microprocessor system using non-consecutive data formatting |
US11409692B2 (en) | 2017-07-24 | 2022-08-09 | Tesla, Inc. | Vector computational unit |
US10671349B2 (en) | 2017-07-24 | 2020-06-02 | Tesla, Inc. | Accelerated mathematical engine |
US11561791B2 (en) | 2018-02-01 | 2023-01-24 | Tesla, Inc. | Vector computational unit receiving data elements in parallel from a last row of a computational array |
US11215999B2 (en) | 2018-06-20 | 2022-01-04 | Tesla, Inc. | Data pipeline and deep learning system for autonomous driving |
US11361457B2 (en) | 2018-07-20 | 2022-06-14 | Tesla, Inc. | Annotation cross-labeling for autonomous control systems |
US11636333B2 (en) | 2018-07-26 | 2023-04-25 | Tesla, Inc. | Optimizing neural network structures for embedded systems |
US11562231B2 (en) | 2018-09-03 | 2023-01-24 | Tesla, Inc. | Neural networks for embedded devices |
SG11202103493QA (en) | 2018-10-11 | 2021-05-28 | Tesla Inc | Systems and methods for training machine models with augmented data |
US11196678B2 (en) | 2018-10-25 | 2021-12-07 | Tesla, Inc. | QOS manager for system on a chip communications |
US11816585B2 (en) | 2018-12-03 | 2023-11-14 | Tesla, Inc. | Machine learning models operating at different frequencies for autonomous vehicles |
US11537811B2 (en) | 2018-12-04 | 2022-12-27 | Tesla, Inc. | Enhanced object detection for autonomous vehicles based on field view |
US11610117B2 (en) | 2018-12-27 | 2023-03-21 | Tesla, Inc. | System and method for adapting a neural network model on a hardware platform |
US11150664B2 (en) | 2019-02-01 | 2021-10-19 | Tesla, Inc. | Predicting three-dimensional features for autonomous driving |
US10997461B2 (en) | 2019-02-01 | 2021-05-04 | Tesla, Inc. | Generating ground truth for machine learning from time series elements |
US11567514B2 (en) | 2019-02-11 | 2023-01-31 | Tesla, Inc. | Autonomous and user controlled vehicle summon to a target |
US10956755B2 (en) | 2019-02-19 | 2021-03-23 | Tesla, Inc. | Estimating object properties using visual image data |
US11037025B2 (en) * | 2019-05-30 | 2021-06-15 | Baidu Usa Llc | Systems and methods for adversarially robust object detection |
US11361189B2 (en) * | 2019-12-03 | 2022-06-14 | Ping An Technology (Shenzhen) Co., Ltd. | Image generation method and computing device |
JP7457545B2 (ja) * | 2020-03-19 | 2024-03-28 | Lineヤフー株式会社 | 評価装置、評価方法及び評価プログラム |
US20210350152A1 (en) * | 2020-05-11 | 2021-11-11 | Toyota Research Institute, Inc. | Structural object detector for hierarchical ontology for traffic light handling |
CN111895931B (zh) * | 2020-07-17 | 2021-11-26 | 嘉兴泊令科技有限公司 | 一种基于计算机视觉的煤矿作业区标定方法 |
US12020217B2 (en) * | 2020-11-11 | 2024-06-25 | Cdk Global, Llc | Systems and methods for using machine learning for vehicle damage detection and repair cost estimation |
US11899468B2 (en) | 2020-12-22 | 2024-02-13 | Waymo Llc | Sensor for flashing light detection |
CN114549936B (zh) * | 2022-02-28 | 2022-12-23 | 曾华杰 | 增强车辆的摄像头拍摄的影像的方法、***和计算设备 |
US11669937B2 (en) | 2022-02-28 | 2023-06-06 | Huajie ZENG | Method and system for enhancing image captured by on-board camera, and computing device |
US11689601B1 (en) * | 2022-06-17 | 2023-06-27 | International Business Machines Corporation | Stream quality enhancement |
US11983145B2 (en) | 2022-08-31 | 2024-05-14 | Cdk Global, Llc | Method and system of modifying information on file |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016004585A (ja) | 2014-06-13 | 2016-01-12 | 株式会社リコー | 目標分析方法及び目標分析システム |
JP2017068589A (ja) | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報端末、及び、情報処理方法 |
JP2017159884A (ja) | 2016-03-10 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 運転制御装置、運転制御方法及び運転制御プログラム |
US20180075581A1 (en) | 2016-09-15 | 2018-03-15 | Twitter, Inc. | Super resolution using a generative adversarial network |
JP2018097807A (ja) | 2016-12-16 | 2018-06-21 | 株式会社デンソーアイティーラボラトリ | 学習装置 |
Family Cites Families (15)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US4979049A (en) * | 1989-06-01 | 1990-12-18 | At&T Bell Laboratories | Efficient encoding/decoding in the decomposition and recomposition of a high resolution image utilizing its low resolution replica |
US7528947B2 (en) * | 2003-07-10 | 2009-05-05 | Yissum Research Development Company Of The Hebrew University Of Jerusalem | Nanoparticles functionalized probes and methods for preparing such probes |
CN100550102C (zh) * | 2005-11-14 | 2009-10-14 | 索尼株式会社 | 显示设备及其驱动方法 |
JP2008287119A (ja) * | 2007-05-18 | 2008-11-27 | Semiconductor Energy Lab Co Ltd | 液晶表示装置の駆動方法 |
EP2183792A1 (en) * | 2007-08-31 | 2010-05-12 | Lattice Power (Jiangxi) Corporation | Gallium nitride light-emitting device with ultra-high reverse breakdown voltage |
US8317329B2 (en) * | 2009-04-02 | 2012-11-27 | GM Global Technology Operations LLC | Infotainment display on full-windshield head-up display |
CN102254295B (zh) * | 2011-07-13 | 2013-04-17 | 西安电子科技大学 | 一种基于支持向量机的彩色半色调图像水印算法 |
US20150268338A1 (en) * | 2014-03-22 | 2015-09-24 | Ford Global Technologies, Llc | Tracking from a vehicle |
WO2016145089A1 (en) * | 2015-03-09 | 2016-09-15 | Skytree, Inc. | System and method for using machine learning to generate a model from audited data |
US10803391B2 (en) * | 2015-07-29 | 2020-10-13 | Google Llc | Modeling personal entities on a mobile device using embeddings |
CN105913026A (zh) * | 2016-04-12 | 2016-08-31 | 江苏大学 | 一种基于Haar-PCA特征和概率神经网络的行人检测方法 |
US10681558B2 (en) * | 2016-06-23 | 2020-06-09 | Apple Inc. | Methods and devices for user detection in spectrum sharing |
US9746846B1 (en) * | 2016-09-09 | 2017-08-29 | Accenture Global Solutions Limited | Automated loading bridge positioning using encoded decals |
US10511510B2 (en) * | 2016-11-14 | 2019-12-17 | Accenture Global Solutions Limited | Performance of communication network based on end to end performance observation and evaluation |
GB2563004A (en) * | 2017-05-23 | 2018-12-05 | Nokia Technologies Oy | Methods and apparatuses for handling visual virtual reality content |
-
2018
- 2018-08-07 US US16/057,246 patent/US10706308B2/en active Active
-
2019
- 2019-08-05 JP JP2019143480A patent/JP7128157B2/ja active Active
- 2019-08-05 CN CN201910733873.6A patent/CN110827190B/zh active Active
- 2019-08-07 EP EP19190452.3A patent/EP3608840A1/en active Pending
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2016004585A (ja) | 2014-06-13 | 2016-01-12 | 株式会社リコー | 目標分析方法及び目標分析システム |
JP2017068589A (ja) | 2015-09-30 | 2017-04-06 | ソニー株式会社 | 情報処理装置、情報端末、及び、情報処理方法 |
JP2017159884A (ja) | 2016-03-10 | 2017-09-14 | パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America | 運転制御装置、運転制御方法及び運転制御プログラム |
US20180075581A1 (en) | 2016-09-15 | 2018-03-15 | Twitter, Inc. | Super resolution using a generative adversarial network |
JP2018097807A (ja) | 2016-12-16 | 2018-06-21 | 株式会社デンソーアイティーラボラトリ | 学習装置 |
Also Published As
Publication number | Publication date |
---|---|
US20200050879A1 (en) | 2020-02-13 |
CN110827190B (zh) | 2023-09-08 |
CN110827190A (zh) | 2020-02-21 |
EP3608840A1 (en) | 2020-02-12 |
US10706308B2 (en) | 2020-07-07 |
JP2020047262A (ja) | 2020-03-26 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7128157B2 (ja) | 自動化されたオブジェクト識別のための画像処理 | |
CN112232293B (zh) | 图像处理模型训练、图像处理方法及相关设备 | |
US11379695B2 (en) | Edge-based adaptive machine learning for object recognition | |
US10043255B1 (en) | Utilizing a machine learning model to automatically visually validate a user interface for multiple platforms | |
US10332261B1 (en) | Generating synthetic images as training dataset for a machine learning network | |
US11538236B2 (en) | Detecting backdoor attacks using exclusionary reclassification | |
WO2020144508A1 (en) | Representative-based metric learning for classification and few-shot object detection | |
US10762678B2 (en) | Representing an immersive content feed using extended reality based on relevancy | |
US11514605B2 (en) | Computer automated interactive activity recognition based on keypoint detection | |
EP3913527A1 (en) | Method and device for performing behavior prediction by using explainable self-focused attention | |
US20210089823A1 (en) | Information processing device, information processing method, and non-transitory computer-readable storage medium | |
CN113705650B (zh) | 一种人脸图片集的处理方法、装置、介质和计算设备 | |
KR101628602B1 (ko) | 프로그램의 유사도를 판단하기 위한 유사도 판단 방법 및 유사도 판단 장치 | |
AU2021251463B2 (en) | Generating performance predictions with uncertainty intervals | |
US11755688B2 (en) | Apparatus and method for generating training data for a machine learning system | |
US20230122881A1 (en) | Edge and Cloud Computing Image Processing | |
US10832407B2 (en) | Training a neural network adapter | |
KR20230149263A (ko) | 영상 데이터에서 움직이는 객체를 추적하는 방법, 서버 및 컴퓨터 프로그램 | |
KR20230149262A (ko) | 파장 정보를 기반으로 영상에서 움직이는 객체를 탐지하는 방법, 서버 및 컴퓨터 프로그램 | |
KR20220077439A (ko) | 객체 검색 모델 및 그 학습 방법 | |
KR20240000230A (ko) | 실감형 컨텐츠의 가상 공간 음향 구현을 위한 이미지 인식 기반 공간 모델링 방법, 장치 및 컴퓨터 프로그램 | |
CN112581357A (zh) | 人脸数据的处理方法、装置、电子设备和存储介质 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20190805 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20191205 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20200923 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20201124 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210222 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20210422 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210524 Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20210524 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20211130 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220330 Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220330 |
|
C60 | Trial request (containing other claim documents, opposition documents) |
Free format text: JAPANESE INTERMEDIATE CODE: C60 Effective date: 20220330 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220331 |
|
C11 | Written invitation by the commissioner to file amendments |
Free format text: JAPANESE INTERMEDIATE CODE: C11 Effective date: 20220517 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A821 Effective date: 20220523 |
|
A911 | Transfer to examiner for re-examination before appeal (zenchi) |
Free format text: JAPANESE INTERMEDIATE CODE: A911 Effective date: 20220524 |
|
C21 | Notice of transfer of a case for reconsideration by examiners before appeal proceedings |
Free format text: JAPANESE INTERMEDIATE CODE: C21 Effective date: 20220613 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220809 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220818 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7128157 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |