JP7050888B2 - イメージ深度予測ニューラルネットワーク - Google Patents
イメージ深度予測ニューラルネットワーク Download PDFInfo
- Publication number
- JP7050888B2 JP7050888B2 JP2020207460A JP2020207460A JP7050888B2 JP 7050888 B2 JP7050888 B2 JP 7050888B2 JP 2020207460 A JP2020207460 A JP 2020207460A JP 2020207460 A JP2020207460 A JP 2020207460A JP 7050888 B2 JP7050888 B2 JP 7050888B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- neural network
- depth
- sequence
- future
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
- 238000013528 artificial neural network Methods 0.000 title claims description 137
- 238000000034 method Methods 0.000 claims description 55
- 230000008569 process Effects 0.000 claims description 26
- 230000000306 recurrent effect Effects 0.000 claims description 23
- 238000013527 convolutional neural network Methods 0.000 claims description 21
- 238000012545 processing Methods 0.000 claims description 19
- 230000006403 short-term memory Effects 0.000 claims description 7
- 230000009471 action Effects 0.000 description 14
- 238000004590 computer program Methods 0.000 description 14
- 230000033001 locomotion Effects 0.000 description 11
- 230000009466 transformation Effects 0.000 description 11
- 238000010801 machine learning Methods 0.000 description 10
- 239000003795 chemical substances by application Substances 0.000 description 8
- 230000006870 function Effects 0.000 description 8
- 238000004891 communication Methods 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 4
- 238000012549 training Methods 0.000 description 4
- 239000013598 vector Substances 0.000 description 4
- 238000013459 approach Methods 0.000 description 3
- 230000015654 memory Effects 0.000 description 3
- 238000010606 normalization Methods 0.000 description 3
- 230000000007 visual effect Effects 0.000 description 3
- 238000004422 calculation algorithm Methods 0.000 description 2
- 238000010586 diagram Methods 0.000 description 2
- 230000003993 interaction Effects 0.000 description 2
- 239000011159 matrix material Substances 0.000 description 2
- 238000001556 precipitation Methods 0.000 description 2
- 230000004044 response Effects 0.000 description 2
- 238000013515 script Methods 0.000 description 2
- 238000000926 separation method Methods 0.000 description 2
- 230000026676 system process Effects 0.000 description 2
- 238000000844 transformation Methods 0.000 description 2
- 241000009334 Singa Species 0.000 description 1
- 230000002547 anomalous effect Effects 0.000 description 1
- 230000005540 biological transmission Effects 0.000 description 1
- 230000001149 cognitive effect Effects 0.000 description 1
- 239000000470 constituent Substances 0.000 description 1
- 238000007796 conventional method Methods 0.000 description 1
- 238000001514 detection method Methods 0.000 description 1
- 239000004973 liquid crystal related substance Substances 0.000 description 1
- 238000012986 modification Methods 0.000 description 1
- 230000004048 modification Effects 0.000 description 1
- 230000001537 neural effect Effects 0.000 description 1
- 239000003973 paint Substances 0.000 description 1
- 238000011176 pooling Methods 0.000 description 1
- 230000001902 propagating effect Effects 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/044—Recurrent networks, e.g. Hopfield networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/045—Combinations of networks
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/04—Architecture, e.g. interconnection topology
- G06N3/049—Temporal neural networks, e.g. delay elements, oscillating neurons or pulsed inputs
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N3/00—Computing arrangements based on biological models
- G06N3/02—Neural networks
- G06N3/08—Learning methods
- G06N3/084—Backpropagation, e.g. using gradient descent
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2200/00—Indexing scheme for image data processing or generation, in general
- G06T2200/04—Indexing scheme for image data processing or generation, in general involving 3D image data
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10016—Video; Image sequence
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20081—Training; Learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/30—Subject of image; Context of image processing
- G06T2207/30244—Camera pose
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/579—Depth or shape recovery from multiple images from motion
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computing Systems (AREA)
- Software Systems (AREA)
- Artificial Intelligence (AREA)
- Mathematical Physics (AREA)
- Data Mining & Analysis (AREA)
- Evolutionary Computation (AREA)
- General Engineering & Computer Science (AREA)
- Biophysics (AREA)
- Molecular Biology (AREA)
- General Health & Medical Sciences (AREA)
- Computational Linguistics (AREA)
- Biomedical Technology (AREA)
- Life Sciences & Earth Sciences (AREA)
- Health & Medical Sciences (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Medical Informatics (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
Description
本願は、2016年9月15日出願の米国仮出願第62/395326号の優先権を主張する。先行出願の開示は本願の開示の部分と見なされ、参照により本願の開示に組み込まれる。
100 イメージ予測システム
102 イメージ深度予測ニューラルネットワーク
104 イメージ生成サブシステム
106 イメージのシーケンス
108 将来のイメージ
112 イメージ
118 深度マップ
204 アップサンプリング再帰型サブニューラルネットワーク
206 フィードフォワード畳み込みニューラルネットワーク層
208 畳み込みLSTMニューラルネットワーク層
210 ダウンサンプリング済み出力
212 畳み込みLSTMニューラルネットワーク層
214 フィードフォワード畳み込みニューラルネットワーク層
Claims (16)
- システムであって、
1つまたは複数のコンピュータによって実施されるイメージ深度予測ニューラルネットワークであって、前記イメージ深度予測ニューラルネットワークが再帰型ニューラルネットワークであり、前記再帰型ニューラルネットワークが、イメージのシーケンスを受信し、前記シーケンス内の各イメージについて、
(i)前記再帰型ニューラルネットワークの現内部状態を更新し、かつ(ii)前記シーケンス内の前記イメージの現在の深度を特徴付ける現在の深度マップを生成するために、前記現内部状態に従って前記イメージを処理する
ように構成される、イメージ深度予測ニューラルネットワークと、
イメージ生成サブシステムであって、前記シーケンス内の各イメージについて、
前記イメージの前記現在の深度を特徴付ける前記現在の深度マップを受信することと、
前記現在の深度マップと前記イメージとに基づいて、複数の3次元(3D)ポイントを構築することであって、前記複数の3Dポイントのそれぞれが、前記イメージの異なるピクセルに対応する、構築することと、
1つまたは複数の変換層を前記複数の3Dポイントに適用することによって、前記シーケンス内の将来のイメージの予測される深度を特徴付ける深度出力を生成することであって、前記深度出力が、前記将来のイメージによって表されるシーンのトポロジを第3の深度次元で定義する値のセットを含む、ことと
を行うように構成される、イメージ生成サブシステムと
を備える、システム。 - 前記深度出力が、前記将来のイメージの焦点面からの前記将来のイメージ内の複数のピクセルで示されるそれぞれのシーンの距離を表す、前記ピクセルのうちの各ピクセルについての予測される深度値を含む、請求項1に記載のシステム。
- 前記将来のイメージが、前記イメージのシーケンス内の前記イメージのすぐ後に続く、請求項1または2に記載のシステム。
- 前記イメージのシーケンスが、ロボティックエージェントのカメラによってキャプチャされたビデオのフレームである、請求項1から3のいずれか一項に記載のシステム。
- 前記イメージ深度予測ニューラルネットワークが、1つまたは複数の畳み込み長短期記憶(LSTM)ニューラルネットワーク層を含む、請求項1から4のいずれか一項に記載のシステム。
- 前記イメージ深度予測ニューラルネットワークが、1つまたは複数のフィードフォワード畳み込みニューラルネットワーク層を含む、請求項1から5のいずれか一項に記載のシステム。
- 前記イメージ深度予測ニューラルネットワークが、
ダウンサンプリング再帰型サブニューラルネットワークと、その後に続くアップサンプリング再帰型サブネットワークとを備え、
前記ダウンサンプリング再帰型サブニューラルネットワークが、前記シーケンス内の各イメージについて、
前記イメージよりも低い解像度を有するダウンサンプリング済み出力を生成するために前記イメージを処理する
ように構成され、
前記アップサンプリング再帰型サブニューラルネットワークが、前記シーケンス内の各イメージについて、
前記イメージの前記現在の深度マップを生成するために前記イメージについての前記ダウンサンプリング済み出力を処理する
ように構成される、請求項1から6のいずれか一項に記載のシステム。 - 1つまたは複数のコンピュータによって実行されるとき、前記1つまたは複数のコンピュータに請求項1から7のいずれか一項に記載のシステムを実施させる命令で符号化された、1つまたは複数のコンピュータ記憶媒体。
- イメージのシーケンスを受信するステップと、
前記シーケンス内の各イメージについて、イメージ深度予測ニューラルネットワークを使用して前記イメージを処理するステップであって、
前記イメージ深度予測ニューラルネットワークが再帰型ニューラルネットワークであり、前記再帰型ニューラルネットワークが、前記シーケンス内の各イメージについて、
(i)前記再帰型ニューラルネットワークの現内部状態を更新し、かつ(ii)前記イメージの現在の深度を特徴付ける現在の深度マップを生成するために、前記現内部状態に従って前記イメージを処理するように構成される、ステップと
を含み、
前記シーケンス内の各イメージについて、
前記イメージの前記現在の深度を特徴付ける前記現在の深度マップを受信するステップと、
前記現在の深度マップと前記イメージとに基づいて、複数の3次元(3D)ポイントを構築するステップであって、前記複数の3Dポイントのそれぞれが、前記イメージの異なるピクセルに対応する、ステップと、
1つまたは複数の変換層を前記複数の3Dポイントに適用することによって、前記シーケンス内の将来のイメージの予測される深度を特徴付ける深度出力を生成するステップであって、前記深度出力が、前記将来のイメージによって表されるシーンのトポロジを第3の深度次元で定義する値のセットを含む、ステップと
をさらに含む、方法。 - 前記深度出力が、前記将来のイメージの焦点面からの前記将来のイメージ内の複数のピクセルで示されるそれぞれのシーンの距離を表す、前記ピクセルのうちの各ピクセルについての予測される深度値を含む、請求項9に記載の方法。
- 前記将来のイメージが、前記イメージのシーケンス内の前記イメージのすぐ後に続く、請求項9または10に記載の方法。
- 前記イメージのシーケンスが、ロボティックエージェントのカメラによってキャプチャされたビデオのフレームである、請求項9から11のいずれか一項に記載の方法。
- 前記イメージ深度予測ニューラルネットワークが、1つまたは複数の畳み込み長短期記憶(LSTM)ニューラルネットワーク層を含む、請求項9から12のいずれか一項に記載の方法。
- 前記イメージ深度予測ニューラルネットワークが、1つまたは複数のフィードフォワード畳み込みニューラルネットワーク層を含む、請求項9から14のいずれか一項に記載の方法。
- 前記イメージ深度予測ニューラルネットワークが、
ダウンサンプリング再帰型サブニューラルネットワークと、その後に続くアップサンプリング再帰型サブネットワークとを備え、
前記ダウンサンプリング再帰型サブニューラルネットワークが、前記シーケンス内の各イメージについて、
前記イメージよりも低い解像度を有するダウンサンプリング済み出力を生成するために前記イメージを処理する
ように構成され、
前記アップサンプリング再帰型サブニューラルネットワークが、前記シーケンス内の各イメージについて、
前記現在の深度マップを生成するために前記イメージについての前記ダウンサンプリング済み出力を処理する
ように構成される、請求項9から14のいずれか一項に記載の方法。 - 1つまたは複数のコンピュータによって実行されるとき、前記1つまたは複数のコンピュータに請求項9から15のいずれか一項に記載のそれぞれの方法の動作を実施させる命令で符号化された、1つまたは複数のコンピュータ記憶媒体。
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201662395326P | 2016-09-15 | 2016-09-15 | |
US62/395,326 | 2016-09-15 |
Related Parent Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019514299A Division JP6812538B2 (ja) | 2016-09-15 | 2017-09-12 | イメージ深度予測ニューラルネットワーク |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2021057067A JP2021057067A (ja) | 2021-04-08 |
JP7050888B2 true JP7050888B2 (ja) | 2022-04-08 |
Family
ID=59930804
Family Applications (2)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019514299A Active JP6812538B2 (ja) | 2016-09-15 | 2017-09-12 | イメージ深度予測ニューラルネットワーク |
JP2020207460A Active JP7050888B2 (ja) | 2016-09-15 | 2020-12-15 | イメージ深度予測ニューラルネットワーク |
Family Applications Before (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2019514299A Active JP6812538B2 (ja) | 2016-09-15 | 2017-09-12 | イメージ深度予測ニューラルネットワーク |
Country Status (5)
Country | Link |
---|---|
US (2) | US10929996B2 (ja) |
EP (2) | EP3507771B1 (ja) |
JP (2) | JP6812538B2 (ja) |
CN (2) | CN109964237B (ja) |
WO (1) | WO2018052875A1 (ja) |
Families Citing this family (56)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10176388B1 (en) * | 2016-11-14 | 2019-01-08 | Zoox, Inc. | Spatial and temporal information for semantic segmentation |
US10552981B2 (en) * | 2017-01-16 | 2020-02-04 | Shapetrace Inc. | Depth camera 3D pose estimation using 3D CAD models |
US10803546B2 (en) * | 2017-11-03 | 2020-10-13 | Baidu Usa Llc | Systems and methods for unsupervised learning of geometry from images using depth-normal consistency |
US10783611B2 (en) * | 2018-01-02 | 2020-09-22 | Google Llc | Frame-recurrent video super-resolution |
CN108492364B (zh) * | 2018-03-27 | 2022-09-20 | 百度在线网络技术(北京)有限公司 | 用于生成图像生成模型的方法和装置 |
DE102018206848A1 (de) * | 2018-05-03 | 2019-11-07 | Robert Bosch Gmbh | Verfahren und Vorrichtung zum Ermitteln eines Tiefeninformationsbilds aus einem Eingangsbild |
JP7091844B2 (ja) * | 2018-05-30 | 2022-06-28 | 沖電気工業株式会社 | 画像処理装置、画像処理方法およびプログラム |
CN109005398B (zh) * | 2018-07-27 | 2020-08-04 | 杭州电子科技大学 | 一种基于卷积神经网络的立体图像视差匹配方法 |
US10782691B2 (en) | 2018-08-10 | 2020-09-22 | Buffalo Automation Group Inc. | Deep learning and intelligent sensing system integration |
US10936907B2 (en) | 2018-08-10 | 2021-03-02 | Buffalo Automation Group Inc. | Training a deep learning system for maritime applications |
US20190061771A1 (en) * | 2018-10-29 | 2019-02-28 | GM Global Technology Operations LLC | Systems and methods for predicting sensor information |
CN111127510B (zh) * | 2018-11-01 | 2023-10-27 | 杭州海康威视数字技术股份有限公司 | 一种目标对象位置的预测方法及装置 |
JP7241517B2 (ja) * | 2018-12-04 | 2023-03-17 | 三菱電機株式会社 | 航法装置、航法パラメータ計算方法およびプログラム |
CN109919994B (zh) * | 2019-01-08 | 2021-07-13 | 浙江大学 | 一种基于深度学习图像处理的采煤机滚筒自动调高*** |
GB201900839D0 (en) * | 2019-01-21 | 2019-03-13 | Or3D Ltd | Improvements in and relating to range-finding |
WO2020158032A1 (ja) * | 2019-01-28 | 2020-08-06 | 日本電信電話株式会社 | 推定装置、学習装置、それらの方法、およびプログラム |
CN109889724B (zh) * | 2019-01-30 | 2020-11-06 | 北京达佳互联信息技术有限公司 | 图像虚化方法、装置、电子设备及可读存储介质 |
US11449079B2 (en) * | 2019-01-30 | 2022-09-20 | Adobe Inc. | Generalizable robot approach control techniques |
CN110211165B (zh) * | 2019-06-10 | 2022-08-05 | 成都信息工程大学 | 一种基于异步深度强化学习的图像多模态配准方法 |
US11176368B2 (en) | 2019-06-13 | 2021-11-16 | International Business Machines Corporation | Visually focused first-person neural network interpretation |
WO2021013334A1 (en) | 2019-07-22 | 2021-01-28 | Toyota Motor Europe | Depth maps prediction system and training method for such a system |
CN110458281B (zh) * | 2019-08-02 | 2021-09-03 | 中科新松有限公司 | 乒乓球机器人的深度强化学习旋转速度预测方法及*** |
KR20220044503A (ko) * | 2019-08-09 | 2022-04-08 | 가부시키가이샤 한도오따이 에네루기 켄큐쇼 | 시스템 |
RU2019125602A (ru) * | 2019-08-13 | 2021-02-15 | Общество С Ограниченной Ответственностью "Тексел" | Комплексная система и способ для дистанционного выбора одежды |
US11074743B2 (en) * | 2019-09-02 | 2021-07-27 | Disney Enterprises, Inc. | Techniques for performing point-based inverse rendering |
US11100646B2 (en) * | 2019-09-06 | 2021-08-24 | Google Llc | Future semantic segmentation prediction using 3D structure |
CN110599533B (zh) * | 2019-09-20 | 2023-06-27 | 湖南大学 | 适用于嵌入式平台的快速单目深度估计方法 |
US11341688B2 (en) * | 2019-10-02 | 2022-05-24 | Nokia Technologies Oy | Guiding decoder-side optimization of neural network filter |
US11315326B2 (en) * | 2019-10-15 | 2022-04-26 | At&T Intellectual Property I, L.P. | Extended reality anchor caching based on viewport prediction |
US11176709B2 (en) | 2019-10-17 | 2021-11-16 | Toyota Research Institute, Inc. | Systems and methods for self-supervised scale-aware training of a model for monocular depth estimation |
KR102436512B1 (ko) * | 2019-10-29 | 2022-08-25 | 삼성전자주식회사 | 부호화 방법 및 그 장치, 복호화 방법 및 그 장치 |
KR102262832B1 (ko) * | 2019-11-29 | 2021-06-08 | 연세대학교 산학협력단 | 단안 비디오 영상의 깊이 추정 방법 및 장치 |
CN110956655B (zh) * | 2019-12-09 | 2022-08-23 | 清华大学 | 一种基于单目图像的稠密深度估计方法 |
CN111260680B (zh) * | 2020-01-13 | 2023-01-03 | 杭州电子科技大学 | 一种基于rgbd相机的无监督位姿估计网络构建方法 |
US11783201B2 (en) * | 2020-01-23 | 2023-10-10 | International Business Machines Corporation | Neural flow attestation |
US12001958B2 (en) * | 2020-03-19 | 2024-06-04 | Nvidia Corporation | Future trajectory predictions in multi-actor environments for autonomous machine |
CN111519730A (zh) * | 2020-04-03 | 2020-08-11 | 中国地质大学(武汉) | 一种智能调节水速与水流路线规划*** |
CN113643342B (zh) * | 2020-04-27 | 2023-11-14 | 北京达佳互联信息技术有限公司 | 一种图像处理方法、装置、电子设备及存储介质 |
CN113822918B (zh) * | 2020-04-28 | 2024-07-12 | 深圳市商汤科技有限公司 | 场景深度和相机运动预测方法及装置、电子设备和介质 |
DE102020111486A1 (de) * | 2020-04-28 | 2021-10-28 | Daimler Ag | Verkehrsregelkonforme Entscheidungsfindung in dynamischen Verkehrsszenarien |
CN111627056B (zh) * | 2020-05-14 | 2023-09-01 | 清华大学 | 基于深度估计的行车能见度确定方法及装置 |
US11238601B2 (en) * | 2020-06-11 | 2022-02-01 | Toyota Research Institute, Inc. | Multi-scale recurrent decoder for monocular depth estimation |
CN111860227B (zh) * | 2020-06-30 | 2024-03-08 | 阿波罗智能技术(北京)有限公司 | 训练轨迹规划模型的方法、装置和计算机存储介质 |
CN113890984B (zh) * | 2020-07-03 | 2022-12-27 | 华为技术有限公司 | 拍照方法、图像处理方法和电子设备 |
KR20220013071A (ko) * | 2020-07-24 | 2022-02-04 | 에스케이하이닉스 주식회사 | 깊이 맵 생성 장치 |
CN112052626B (zh) * | 2020-08-14 | 2024-01-19 | 杭州未名信科科技有限公司 | 一种神经网络自动设计***和方法 |
US11508080B2 (en) * | 2020-09-15 | 2022-11-22 | Toyota Research Institute, Inc. | Systems and methods for generic visual odometry using learned features via neural camera models |
US11615544B2 (en) * | 2020-09-15 | 2023-03-28 | Toyota Research Institute, Inc. | Systems and methods for end-to-end map building from a video sequence using neural camera models |
US11494927B2 (en) | 2020-09-15 | 2022-11-08 | Toyota Research Institute, Inc. | Systems and methods for self-supervised depth estimation |
CN114663503A (zh) * | 2020-12-08 | 2022-06-24 | 伟摩有限责任公司 | 从图像进行三维位置预测 |
CN112581499A (zh) * | 2020-12-17 | 2021-03-30 | 北京邮电大学 | 基于深度状态空间模型的3d人体运动预测方法 |
US20220319031A1 (en) * | 2021-03-31 | 2022-10-06 | Auris Health, Inc. | Vision-based 6dof camera pose estimation in bronchoscopy |
CN113251914A (zh) * | 2021-04-06 | 2021-08-13 | 兰州交通大学 | InSAR技术与长短时记忆神经网络结合的地表形变预测方法 |
CN113484882B (zh) * | 2021-06-24 | 2023-04-28 | 武汉大学 | 多尺度滑动窗口lstm的gnss序列预测方法及*** |
CN117485115B (zh) * | 2023-11-02 | 2024-05-28 | 广州市双宝电子科技股份有限公司 | 一种新能源汽车用限速装置 |
CN117808650B (zh) * | 2024-02-29 | 2024-05-14 | 南京信息工程大学 | 一种基于Transform-Flownet和R-FPN的降水预测方法 |
Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004505393A (ja) | 2000-08-09 | 2004-02-19 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | イメージ変換および符号化技術 |
US20160232440A1 (en) | 2015-02-06 | 2016-08-11 | Google Inc. | Recurrent neural networks for data item generation |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP3210473B2 (ja) * | 1993-03-11 | 2001-09-17 | 株式会社東芝 | ビジュアルフィードバック制御装置 |
US6526167B1 (en) * | 1998-05-26 | 2003-02-25 | Sony Corporation | Image processing apparatus and method and provision medium |
JP3565087B2 (ja) * | 1999-05-11 | 2004-09-15 | 日本電信電話株式会社 | 時系列画像予測方法及び装置及び時系列画像予測プログラムを格納した記憶媒体 |
EP2345998B1 (en) * | 2009-12-01 | 2019-11-20 | Honda Research Institute Europe GmbH | Multi-object tracking with a knowledge-based, autonomous adaptation of the tracking modeling level |
CN102750702B (zh) * | 2012-06-21 | 2014-10-15 | 东华大学 | 基于优化bp神经网络模型的单目红外图像深度估计方法 |
MX2015005627A (es) * | 2012-12-05 | 2016-02-03 | Landmark Graphics Corp | Sistemas y metodos para conversion de profundidad de datos sismicos 3d utlizando redes neuronales artificiales. |
CN103198330B (zh) * | 2013-03-19 | 2016-08-17 | 东南大学 | 基于深度视频流的实时人脸姿态估计方法 |
JP5943358B2 (ja) * | 2014-09-30 | 2016-07-05 | インターナショナル・ビジネス・マシーンズ・コーポレーションInternational Business Machines Corporation | 学習装置、処理装置、予測システム、学習方法、処理方法、およびプログラム |
CN104615983B (zh) * | 2015-01-28 | 2018-07-31 | 中国科学院自动化研究所 | 基于递归神经网络和人体骨架运动序列的行为识别方法 |
CN104715493B (zh) * | 2015-03-23 | 2018-01-19 | 北京工业大学 | 一种运动人体姿态估计的方法 |
CN105787439B (zh) * | 2016-02-04 | 2019-04-05 | 广州新节奏智能科技股份有限公司 | 一种基于卷积神经网络的深度图像人体关节定位方法 |
CN106096729B (zh) * | 2016-06-06 | 2018-11-20 | 天津科技大学 | 一种面向大规模环境中复杂任务的深度策略学习方法 |
CN110009427B (zh) * | 2019-04-10 | 2021-07-16 | 国网浙江省电力有限公司 | 一种基于深度循环神经网络的电力销售金额智能预测方法 |
CN110928993B (zh) * | 2019-11-26 | 2023-06-30 | 重庆邮电大学 | 基于深度循环神经网络的用户位置预测方法及*** |
-
2017
- 2017-09-12 EP EP17771963.0A patent/EP3507771B1/en active Active
- 2017-09-12 WO PCT/US2017/051070 patent/WO2018052875A1/en active Search and Examination
- 2017-09-12 JP JP2019514299A patent/JP6812538B2/ja active Active
- 2017-09-12 EP EP20172207.1A patent/EP3709271B1/en active Active
- 2017-09-12 CN CN201780056919.4A patent/CN109964237B/zh active Active
- 2017-09-12 CN CN202010612045.XA patent/CN111915663B/zh active Active
- 2017-09-12 US US16/332,991 patent/US10929996B2/en active Active
-
2020
- 2020-12-15 JP JP2020207460A patent/JP7050888B2/ja active Active
-
2021
- 2021-01-15 US US17/150,291 patent/US11734847B2/en active Active
Patent Citations (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2004505393A (ja) | 2000-08-09 | 2004-02-19 | ダイナミック ディジタル デプス リサーチ プロプライエタリー リミテッド | イメージ変換および符号化技術 |
US20160232440A1 (en) | 2015-02-06 | 2016-08-11 | Google Inc. | Recurrent neural networks for data item generation |
Non-Patent Citations (3)
Title |
---|
Reza Mahjourian,Geometry-Based Next Frame Prediction from Monocular Video,2017 IEEE Intelligent Vehicles Symposium (IV) ,米国,IEEE,2017年06月14日,P.1700-1707,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=7995953 |
Shaoyuan Sun,Depth Estimation from Monocular Infrared Images Based on BP Neural Network Model,2012 International Conference on Computer Vision in Remote Sensing,中国,IEEE,2013年01月28日,P.237-241,https://ieeexplore.ieee.org/stamp/stamp.jsp?tp=&arnumber=6421267 |
柳瀬 直人,単一画像を用いた物体の寸法推定に関する検討,映像情報メディア学会 2016年年次大会講演予稿集,日本,映像情報メディア学会,2016年09月02日,21C-4 |
Also Published As
Publication number | Publication date |
---|---|
US10929996B2 (en) | 2021-02-23 |
EP3507771A1 (en) | 2019-07-10 |
JP2021057067A (ja) | 2021-04-08 |
CN111915663A (zh) | 2020-11-10 |
US20190279383A1 (en) | 2019-09-12 |
EP3709271B1 (en) | 2022-11-02 |
US20210233265A1 (en) | 2021-07-29 |
EP3507771B1 (en) | 2020-06-24 |
JP6812538B2 (ja) | 2021-01-13 |
CN109964237A (zh) | 2019-07-02 |
US11734847B2 (en) | 2023-08-22 |
JP2019530926A (ja) | 2019-10-24 |
CN111915663B (zh) | 2024-04-30 |
EP3709271A1 (en) | 2020-09-16 |
CN109964237B (zh) | 2020-07-17 |
WO2018052875A1 (en) | 2018-03-22 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7050888B2 (ja) | イメージ深度予測ニューラルネットワーク | |
CN110062934B (zh) | 使用神经网络确定图像中的结构和运动 | |
JP6728496B2 (ja) | 強化学習を使用した環境ナビゲーション | |
KR102458807B1 (ko) | 신경망을 이용한 장면 이해 및 생성 | |
US11100646B2 (en) | Future semantic segmentation prediction using 3D structure | |
US20210192358A1 (en) | Graph neural network systems for behavior prediction and reinforcement learning in multple agent environments | |
JP7471397B2 (ja) | 道路シーンにおける多様な長期将来軌道のシミュレーション | |
EP3847619B1 (en) | Unsupervised depth prediction neural networks | |
US20230281966A1 (en) | Semi-supervised keypoint based models | |
KR20230025885A (ko) | 관측 임베딩을 제어하는 보조 태스크를 사용한 액션 선택 신경망 트레이닝 | |
Bhaggiaraj et al. | Deep Learning Based Self Driving Cars Using Computer Vision | |
CN113158539A (zh) | 交通参与者的长期轨迹预测的方法 | |
US20240161318A1 (en) | Object-based prediction of scene transitions using neural networks | |
CN117651973A (zh) | 自监督单目深度估计中的部分监督 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20210113 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20210113 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20220121 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220131 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220217 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220228 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220329 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7050888 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |