JP2018514031A - DeepStereo:実世界の画像から新たなビューを予測するための学習 - Google Patents
DeepStereo:実世界の画像から新たなビューを予測するための学習 Download PDFInfo
- Publication number
- JP2018514031A JP2018514031A JP2017550920A JP2017550920A JP2018514031A JP 2018514031 A JP2018514031 A JP 2018514031A JP 2017550920 A JP2017550920 A JP 2017550920A JP 2017550920 A JP2017550920 A JP 2017550920A JP 2018514031 A JP2018514031 A JP 2018514031A
- Authority
- JP
- Japan
- Prior art keywords
- view
- scene
- depth
- requested
- pixel
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 claims abstract description 50
- 238000004422 calculation algorithm Methods 0.000 claims description 13
- 238000012545 processing Methods 0.000 claims description 12
- 238000013135 deep learning Methods 0.000 abstract description 9
- 230000015572 biosynthetic process Effects 0.000 abstract description 8
- 238000003786 synthesis reaction Methods 0.000 abstract description 8
- 230000015654 memory Effects 0.000 description 39
- 238000012549 training Methods 0.000 description 20
- 238000004891 communication Methods 0.000 description 18
- 238000004590 computer program Methods 0.000 description 12
- 238000013459 approach Methods 0.000 description 11
- 230000006870 function Effects 0.000 description 5
- 230000003287 optical effect Effects 0.000 description 5
- 230000003993 interaction Effects 0.000 description 4
- 230000008569 process Effects 0.000 description 4
- 238000013527 convolutional neural network Methods 0.000 description 3
- 238000013507 mapping Methods 0.000 description 3
- 239000007787 solid Substances 0.000 description 3
- 238000012935 Averaging Methods 0.000 description 2
- 238000004364 calculation method Methods 0.000 description 2
- 239000003086 colorant Substances 0.000 description 2
- 230000006872 improvement Effects 0.000 description 2
- 239000004973 liquid crystal related substance Substances 0.000 description 2
- 238000012986 modification Methods 0.000 description 2
- 230000004048 modification Effects 0.000 description 2
- 238000010606 normalization Methods 0.000 description 2
- 238000011176 pooling Methods 0.000 description 2
- 238000009877 rendering Methods 0.000 description 2
- 230000000007 visual effect Effects 0.000 description 2
- 230000009471 action Effects 0.000 description 1
- 230000004913 activation Effects 0.000 description 1
- 230000003190 augmentative effect Effects 0.000 description 1
- 230000008901 benefit Effects 0.000 description 1
- 239000000969 carrier Substances 0.000 description 1
- 238000010276 construction Methods 0.000 description 1
- 238000013480 data collection Methods 0.000 description 1
- 230000001419 dependent effect Effects 0.000 description 1
- 230000009977 dual effect Effects 0.000 description 1
- 238000005516 engineering process Methods 0.000 description 1
- 239000010408 film Substances 0.000 description 1
- 239000011521 glass Substances 0.000 description 1
- 238000010801 machine learning Methods 0.000 description 1
- 239000000203 mixture Substances 0.000 description 1
- 230000006855 networking Effects 0.000 description 1
- 230000004044 response Effects 0.000 description 1
- 238000005096 rolling process Methods 0.000 description 1
- 239000004065 semiconductor Substances 0.000 description 1
- 230000001953 sensory effect Effects 0.000 description 1
- 230000006641 stabilisation Effects 0.000 description 1
- 238000011105 stabilization Methods 0.000 description 1
- 230000003068 static effect Effects 0.000 description 1
- 238000006467 substitution reaction Methods 0.000 description 1
- 230000001502 supplementing effect Effects 0.000 description 1
- 238000010408 sweeping Methods 0.000 description 1
- 239000010409 thin film Substances 0.000 description 1
- 238000012546 transfer Methods 0.000 description 1
- 239000002023 wood Substances 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V20/00—Scenes; Scene-specific elements
- G06V20/10—Terrestrial scenes
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06N—COMPUTING ARRANGEMENTS BASED ON SPECIFIC COMPUTATIONAL MODELS
- G06N20/00—Machine learning
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06F—ELECTRIC DIGITAL DATA PROCESSING
- G06F18/00—Pattern recognition
- G06F18/20—Analysing
- G06F18/24—Classification techniques
- G06F18/241—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches
- G06F18/2413—Classification techniques relating to the classification model, e.g. parametric or non-parametric approaches based on distances to training or reference patterns
- G06F18/24133—Distances to prototypes
- G06F18/24137—Distances to cluster centroïds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T15/00—3D [Three Dimensional] image rendering
- G06T15/10—Geometric effects
- G06T15/20—Perspective computation
- G06T15/205—Image-based rendering
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/44—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components
- G06V10/443—Local feature extraction by analysis of parts of the pattern, e.g. by detecting edges, contours, loops, corners, strokes or intersections; Connectivity analysis, e.g. of connected components by matching or filtering
- G06V10/449—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters
- G06V10/451—Biologically inspired filters, e.g. difference of Gaussians [DoG] or Gabor filters with interaction between the filter responses, e.g. cortical complex cells
- G06V10/454—Integrating the filters into a hierarchical structure, e.g. convolutional neural networks [CNN]
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/40—Extraction of image or video features
- G06V10/56—Extraction of image or video features relating to colour
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/764—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using classification, e.g. of video objects
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V10/00—Arrangements for image or video recognition or understanding
- G06V10/70—Arrangements for image or video recognition or understanding using pattern recognition or machine learning
- G06V10/82—Arrangements for image or video recognition or understanding using pattern recognition or machine learning using neural networks
Landscapes
- Engineering & Computer Science (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Evolutionary Computation (AREA)
- Computing Systems (AREA)
- Artificial Intelligence (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Multimedia (AREA)
- Software Systems (AREA)
- Medical Informatics (AREA)
- General Health & Medical Sciences (AREA)
- Health & Medical Sciences (AREA)
- Data Mining & Analysis (AREA)
- General Engineering & Computer Science (AREA)
- Databases & Information Systems (AREA)
- Geometry (AREA)
- Computer Graphics (AREA)
- Life Sciences & Earth Sciences (AREA)
- Mathematical Physics (AREA)
- Biodiversity & Conservation Biology (AREA)
- Molecular Biology (AREA)
- Biomedical Technology (AREA)
- Evolutionary Biology (AREA)
- Bioinformatics & Computational Biology (AREA)
- Bioinformatics & Cheminformatics (AREA)
- Image Generation (AREA)
- Image Analysis (AREA)
- Image Processing (AREA)
- Processing Or Creating Images (AREA)
Abstract
Description
本文献は、一般に、画像に関連付けられるディープネットワークおよびディープラーニングに関する。
大規模データからモデルおよび表示を生成して改良するためにディープネットワークおよびディープラーニングが適用される場合がある。ディープラーニングは、機械学習のさらに広範な適用例の一部であると考えることができる。ディープラーニングは、複数レベルの処理/コンピューティングデバイスから得られた、たとえばコンピュータビジョンにおける特徴表示の教師なし学習に基づき得て、これらの複数レベルの処理/コンピューティングデバイスは、低レベル特徴から高レベル特徴までの階層を形成する。これら複数の層の構成および配置は、たとえば特定の解決すべき課題に基づいて開発され得る。
一局面において、方法は、データベースから複数のポーズ画像セット(posed image sets)にアクセスするステップを含み、上記複数のポーズ画像セットはそれぞれ複数の光景に対応し、上記複数のポーズ画像セットの各々は、上記複数の光景のうちの対応する光景の複数のビューを含み、上記方法はさらに、自動ビュー生成アルゴリズムに従って、上記光景に対応するポーズ画像セットに含まれる上記光景の上記複数のビューから選択されたビューに基づいて、光景の要求されたビューを生成するステップを含み、上記光景の上記要求されたビューは、上記対応するポーズ画像セットに含まれる上記光景の上記複数のビューに含まれておらず、上記方法はさらに、上記自動ビュー生成アルゴリズムによって生成された上記光景の上記ビューを上記光景の既知のビューと比較するステップと、上記比較に基づいて上記ビュー生成アルゴリズムを更新するステップとを含み得る。
ディープネットワークは、さまざまな異なるタイプの認識および分類問題に適用することができる。本明細書に記載されている実現例に係るシステムおよび方法では、ディープネットワークは、たとえばディープアーキテクチャを使用してコンピュータビジョンおよびグラフィックスにおける認識および分類問題に適用されてもよく、当該ディープアーキテクチャは、たとえば何百万ものポーズ画像セットなどの多数のポーズ画像セット、たとえば観点および/または色および/または深さなどの公知の特徴を有する画像セット、から新たなビューの合成を直接実行するように学習する。たとえば、本明細書に記載されている実現例に係るシステムおよび方法では、ディープネットワークは、この比較的多数のポーズ画像セットから訓練されてもよく、次いで動作時に、比較的少数の関連画像に依拠して、多数のポーズ画像セットを用いて行われた訓練に基づいて、新たなこれまで見られなかったビューを生成してもよい。
Claims (12)
- 方法であって、
データベースから複数のポーズ画像セットにアクセスするステップを備え、前記複数のポーズ画像セットはそれぞれ複数の光景に対応し、前記複数のポーズ画像セットの各々は、前記複数の光景のうちの対応する光景の複数のビューを含み、前記方法はさらに、
自動ビュー生成アルゴリズムに従って、前記光景に対応するポーズ画像セットに含まれる前記光景の前記複数のビューから選択されたビューに基づいて、光景の要求されたビューを生成するステップを備え、前記光景の前記要求されたビューは、前記対応するポーズ画像セットに含まれる前記光景の前記複数のビューに含まれておらず、前記方法はさらに、
前記自動ビュー生成アルゴリズムによって生成された前記光景の前記ビューを前記光景の既知のビューと比較するステップと、
前記比較に基づいて前記ビュー生成アルゴリズムを更新するステップとを備える、方法。 - 前記光景の前記要求されたビューを生成するステップは、
複数の深さにおける前記選択されたビューの各々の深さスライスを再投影するステップと、
前記更新されたビュー生成アルゴリズムを前記再投影された深さスライスに適用し、対応する深さにおける前記選択されたビューの前記再投影された深さスライスの画素同士を一致させるステップと、
前記要求されたビューの要求された画素の深さを求め、前記求められた深さにおける前記要求されたビューの各画素の色を求めるステップとを含む、請求項1に記載の方法。 - 複数の深さにおける前記選択されたビューの各々の深さスライスを再投影するステップは、
最小再投影距離と最大再投影距離との間に延在する、前記複数の深さの各々の隣接する深さスライス間の間隔を求めるステップと、
前記求められた間隔を前記選択されたビューの各々の深さスライスの前記再投影に適用するステップとを含む、請求項2に記載の方法。 - 前記要求されたビューを生成するステップはさらに、
各画素について、前記画素が特定の深さに位置する確率を求めるステップと、
前記求められた確率と前記画素について計算された色とを掛け合わせるステップと、
前記乗算の結果として生じる積を合計して、前記要求されたビューを生成するステップとを含む、請求項2または3に記載の方法。 - 各画素について、前記画素が特定の深さスライスに位置する確率を求めるステップは、
セレクションタワーによって、前記複数の深さの各々について確率マップを生成するステップと、
セレクションタワーによって、前記複数の深さの各々についてカラー出力画像を生成するステップと、
前記複数の深さの各々について生成された前記カラー出力画像および前記複数の深さの各々について生成された前記確率マップに基づいて、前記画素が特定の深さに位置する確率を表わす選択確率を各画素について求めるステップとを含む、請求項4に記載の方法。 - 予め定められた閾値の範囲内で前記画像の前記要求されたビューが前記画像の前記要求されたビューの前記既知のビューと一致するまで前記生成するステップおよび比較するステップを繰返し実行するステップをさらに備える、請求項1〜5のいずれか1項に記載の方法。
- 方法であって、
レンダリングされるべき光景のビューに対する要求を受信するステップと、
データベースから複数の記憶されたポーズ画像にアクセスするステップとを備え、前記複数の記憶されたポーズ画像はそれぞれ前記光景の複数のビューを表わし、前記方法はさらに、
前記複数の記憶されたポーズ画像から複数の画像を選択するステップを備え、前記選択された複数の画像は、前記光景の前記要求されたビューに隣接する前記光景のビューを表わし、前記方法はさらに、
複数の深さにおける前記選択された複数の画像の各々の深さスライスを再投影するステップと、
前記光景の前記要求されたビューの深さを求め、前記再投影された深さスライスにおける画素に基づいて、前記求められた深さにおける前記光景の前記要求されたビューの各画素の色を求めるステップと、
前記光景の前記要求されたビューを生成するステップとを備える、方法。 - 複数の深さにおける前記選択された複数の画像の各々の深さスライスを再投影するステップは、
最小再投影距離と最大再投影距離との間に延在する、前記複数の深さスライスの各々の隣接する深さスライス間の間隔を求めるステップと、
前記求められた間隔を前記選択された複数の画像の各々の深さスライスの前記再投影に適用するステップとを含む、請求項7に記載の方法。 - 前記要求されたビューの深さを求め、前記再投影された深さスライスにおける画素に基づいて、前記求められた深さにおける前記要求されたビューの各画素の色を求めるステップは、
対応する深さにおける前記選択された複数の画像の前記再投影された深さスライスの画素同士を一致させるステップと、
前記要求されたビューの要求された画素の深さを求め、前記求められた深さにおける前記要求されたビューの各画素の色を求めるステップとを含む、請求項7または8に記載の方法。 - 前記要求されたビューを生成するステップは、
各画素について、前記画素が特定の深さスライスに位置する確率を求めるステップと、
前記計算された確率と前記画素について計算された色とを掛け合わせるステップと、
前記乗算の結果として生じる積を合計して、前記要求されたビューを生成するステップとを含む、請求項7〜9のいずれか1項に記載の方法。 - 方法であって、
光景のビューに対する要求を受信するステップと、
複数のポーズ画像セットを記憶するデータベースから、前記光景の前記要求されたビューに対応するポーズ画像セットを検索するステップとを備え、前記複数のポーズ画像セットの各々は、対応する光景の複数のビューを含み、前記方法はさらに、
前記対応するポーズ画像セットに含まれる前記光景の前記複数のビューからの選択されたビューに基づいて前記光景の前記要求されたビューを生成するステップを備え、前記要求されたビューは、前記対応するポーズ画像セットの前記光景の前記複数のビューに含まれていない、方法。 - 光景のビューを生成するためのシステムであって、
ネットワークを備え、前記ネットワークは、
プロセッサを含むコンピューティングデバイスを含み、前記コンピューティングデバイスは、データベースと通信し、前記データベースは、複数の光景にそれぞれ対応する複数のポーズ画像セットを記憶し、前記複数のポーズ画像セットの各々は、前記複数の光景のうちの対応する光景の複数のビューを含み、前記ネットワークはさらに、
要求された出力画像内の各出力画素の深さを求めるように構成されたセレクションタワーを含み、前記要求された出力画像は、光景の要求されたビューに対応し、前記ネットワークはさらに、
前記要求された出力画像の各出力画素の色を生成するように構成されたカラータワーを含み、
前記セレクションタワーおよび前記カラータワーは、前記光景の前記要求されたビューに対応する前記ポーズ画像セットに含まれる前記光景の前記複数のビューから選択されたビューを受信するように構成され、前記光景の前記要求されたビューは、前記対応するポーズ画像セットの前記光景の前記複数のビューに含まれておらず、
前記セレクションタワーおよび前記カラータワーは、前記コンピューティングデバイスの前記プロセッサによる処理のために前記要求された出力画像を生成して前記光景の前記要求されたビューを生成するように構成される、システム。
Applications Claiming Priority (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201562161159P | 2015-05-13 | 2015-05-13 | |
US62/161,159 | 2015-05-13 | ||
PCT/US2016/032410 WO2016183464A1 (en) | 2015-05-13 | 2016-05-13 | Deepstereo: learning to predict new views from real world imagery |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2018514031A true JP2018514031A (ja) | 2018-05-31 |
JP6663926B2 JP6663926B2 (ja) | 2020-03-13 |
Family
ID=56097288
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017550920A Active JP6663926B2 (ja) | 2015-05-13 | 2016-05-13 | DeepStereo:実世界の画像から新たなビューを予測するための学習 |
Country Status (6)
Country | Link |
---|---|
US (1) | US9916679B2 (ja) |
EP (1) | EP3295368A1 (ja) |
JP (1) | JP6663926B2 (ja) |
KR (1) | KR102047031B1 (ja) |
CN (1) | CN107438866B (ja) |
WO (1) | WO2016183464A1 (ja) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10706321B1 (en) | 2016-05-20 | 2020-07-07 | Ccc Information Services Inc. | Image processing system to align a target object in a target object image with an object model |
US10657647B1 (en) | 2016-05-20 | 2020-05-19 | Ccc Information Services | Image processing system to detect changes to target objects using base object models |
US10319094B1 (en) | 2016-05-20 | 2019-06-11 | Ccc Information Services Inc. | Technology for capturing, transmitting, and analyzing images of objects |
US11288789B1 (en) | 2016-05-20 | 2022-03-29 | Ccc Intelligent Solutions Inc. | Systems and methods for repairing a damaged vehicle using image processing |
US9886771B1 (en) * | 2016-05-20 | 2018-02-06 | Ccc Information Services Inc. | Heat map of vehicle damage |
US10636148B1 (en) | 2016-05-20 | 2020-04-28 | Ccc Information Services Inc. | Image processing system to detect contours of an object in a target object image |
US10740891B1 (en) | 2016-05-20 | 2020-08-11 | Ccc Information Services Inc. | Technology for analyzing images depicting vehicles according to base image models |
US20180096494A1 (en) * | 2016-09-30 | 2018-04-05 | Visbit Inc. | View-optimized light field image and video streaming |
US10621747B2 (en) | 2016-11-15 | 2020-04-14 | Magic Leap, Inc. | Deep learning system for cuboid detection |
US10121262B2 (en) * | 2016-12-20 | 2018-11-06 | Canon Kabushiki Kaisha | Method, system and apparatus for determining alignment data |
US10242654B2 (en) | 2017-01-25 | 2019-03-26 | Microsoft Technology Licensing, Llc | No miss cache structure for real-time image transformations |
US9978118B1 (en) | 2017-01-25 | 2018-05-22 | Microsoft Technology Licensing, Llc | No miss cache structure for real-time image transformations with data compression |
EP3596659A4 (en) * | 2017-03-17 | 2021-01-27 | Magic Leap, Inc. | SPACE LAYOUT APPRAISAL METHODS AND TECHNIQUES |
US10514753B2 (en) * | 2017-03-27 | 2019-12-24 | Microsoft Technology Licensing, Llc | Selectively applying reprojection processing to multi-layer scenes for optimizing late stage reprojection power |
US10410349B2 (en) | 2017-03-27 | 2019-09-10 | Microsoft Technology Licensing, Llc | Selective application of reprojection processing on layer sub-regions for optimizing late stage reprojection power |
US10255891B2 (en) | 2017-04-12 | 2019-04-09 | Microsoft Technology Licensing, Llc | No miss cache structure for real-time image transformations with multiple LSR processing engines |
CN108805261B (zh) | 2017-04-28 | 2021-11-12 | 微软技术许可有限责任公司 | 基于八叉树的卷积神经网络 |
US10776992B2 (en) | 2017-07-05 | 2020-09-15 | Qualcomm Incorporated | Asynchronous time warp with depth data |
US11055989B2 (en) * | 2017-08-31 | 2021-07-06 | Nec Corporation | Viewpoint invariant object recognition by synthesization and domain adaptation |
EP3685313A4 (en) | 2017-09-20 | 2021-06-09 | Magic Leap, Inc. | PERSONALIZED NEURAL EYE TRACKING NETWORK |
US10922878B2 (en) * | 2017-10-04 | 2021-02-16 | Google Llc | Lighting for inserted content |
CA3078530A1 (en) | 2017-10-26 | 2019-05-02 | Magic Leap, Inc. | Gradient normalization systems and methods for adaptive loss balancing in deep multitask networks |
US10803546B2 (en) * | 2017-11-03 | 2020-10-13 | Baidu Usa Llc | Systems and methods for unsupervised learning of geometry from images using depth-normal consistency |
CN112534475B (zh) * | 2018-05-17 | 2023-01-10 | 奈安蒂克公司 | 深度估计***的自我监督训练 |
US10362491B1 (en) | 2018-07-12 | 2019-07-23 | At&T Intellectual Property I, L.P. | System and method for classifying a physical object |
CN113168505B (zh) * | 2018-07-17 | 2024-04-09 | 辉达公司 | 用于自主驾驶机器的基于回归的线检测 |
TWI691930B (zh) | 2018-09-19 | 2020-04-21 | 財團法人工業技術研究院 | 基於神經網路的分類方法及其分類裝置 |
EP3655928B1 (en) * | 2018-09-26 | 2021-02-24 | Google LLC | Soft-occlusion for computer graphics rendering |
EP3824620A4 (en) * | 2018-10-25 | 2021-12-01 | Samsung Electronics Co., Ltd. | METHOD AND DEVICE FOR PROCESSING VIDEO |
US10957099B2 (en) * | 2018-11-16 | 2021-03-23 | Honda Motor Co., Ltd. | System and method for display of visual representations of vehicle associated information based on three dimensional model |
US11610110B2 (en) | 2018-12-05 | 2023-03-21 | Bank Of America Corporation | De-conflicting data labeling in real time deep learning systems |
US10325179B1 (en) * | 2019-01-23 | 2019-06-18 | StradVision, Inc. | Learning method and learning device for pooling ROI by using masking parameters to be used for mobile devices or compact networks via hardware optimization, and testing method and testing device using the same |
US10311578B1 (en) * | 2019-01-23 | 2019-06-04 | StradVision, Inc. | Learning method and learning device for segmenting an image having one or more lanes by using embedding loss to support collaboration with HD maps required to satisfy level 4 of autonomous vehicles and softmax loss, and testing method and testing device using the same |
US11044462B2 (en) | 2019-05-02 | 2021-06-22 | Niantic, Inc. | Self-supervised training of a depth estimation model using depth hints |
CN110113593B (zh) * | 2019-06-11 | 2020-11-06 | 南开大学 | 基于卷积神经网络的宽基线多视点视频合成方法 |
US10950037B2 (en) * | 2019-07-12 | 2021-03-16 | Adobe Inc. | Deep novel view and lighting synthesis from sparse images |
CN110443874B (zh) * | 2019-07-17 | 2021-07-30 | 清华大学 | 基于卷积神经网络的视点数据生成方法和装置 |
CN110471279B (zh) * | 2019-07-25 | 2020-09-29 | 浙江大学 | 一种基于vine-copulas的工业生产模拟场景发生器及场景发生方法 |
US11424037B2 (en) | 2019-11-22 | 2022-08-23 | International Business Machines Corporation | Disease simulation in medical images |
CN112203023B (zh) * | 2020-09-18 | 2023-09-12 | 西安拙河安见信息科技有限公司 | 一种十亿像素视频生成方法及装置、设备、介质 |
US11238307B1 (en) | 2020-09-24 | 2022-02-01 | Eagle Technology, Llc | System for performing change detection within a 3D geospatial model based upon semantic change detection using deep learning and related methods |
US11587249B2 (en) | 2020-09-24 | 2023-02-21 | Eagle Technology, Llc | Artificial intelligence (AI) system and methods for generating estimated height maps from electro-optic imagery |
US11302071B1 (en) | 2020-09-24 | 2022-04-12 | Eagle Technology, Llc | Artificial intelligence (AI) system using height seed initialization for extraction of digital elevation models (DEMs) and related methods |
US11747468B2 (en) | 2020-09-24 | 2023-09-05 | Eagle Technology, Llc | System using a priori terrain height data for interferometric synthetic aperture radar (IFSAR) phase disambiguation and related methods |
US11636649B2 (en) | 2021-01-06 | 2023-04-25 | Eagle Technology, Llc | Geospatial modeling system providing 3D geospatial model update based upon predictively registered image and related methods |
US11816793B2 (en) | 2021-01-06 | 2023-11-14 | Eagle Technology, Llc | Geospatial modeling system providing 3D geospatial model update based upon iterative predictive image registration and related methods |
KR20230035721A (ko) * | 2021-09-06 | 2023-03-14 | 한국전자통신연구원 | 임의 시점의 다중평면영상을 생성하는 전자 장치 및 그것의 동작 방법 |
EP4167199A1 (en) | 2021-10-14 | 2023-04-19 | Telefonica Digital España, S.L.U. | Method and system for tracking and quantifying visual attention on a computing device |
US20230281913A1 (en) * | 2022-03-01 | 2023-09-07 | Google Llc | Radiance Fields for Three-Dimensional Reconstruction and Novel View Synthesis in Large-Scale Environments |
CN115147577A (zh) * | 2022-09-06 | 2022-10-04 | 深圳市明源云科技有限公司 | Vr场景生成方法、装置、设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004114224A1 (ja) * | 2003-06-20 | 2004-12-29 | Nippon Telegraph And Telephone Corporation | 仮想視点画像生成方法及び3次元画像表示方法並びに装置 |
JP2010079505A (ja) * | 2008-09-25 | 2010-04-08 | Kddi Corp | 画像生成装置及びプログラム |
JP2010522469A (ja) * | 2007-03-23 | 2010-07-01 | トムソン ライセンシング | 2d−to−3d変換のための2d画像の領域分類のシステム及び方法 |
JP2011198349A (ja) * | 2010-02-25 | 2011-10-06 | Canon Inc | 情報処理方法及びその装置 |
JP2012528403A (ja) * | 2009-05-28 | 2012-11-12 | ケイジャヤ、エルエルシー | 専用ウェブポータルを用いた医療用スキャンの高度可視化高速アクセス方法およびシステム |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US5917937A (en) | 1997-04-15 | 1999-06-29 | Microsoft Corporation | Method for performing stereo matching to recover depths, colors and opacities of surface elements |
AU2002952873A0 (en) * | 2002-11-25 | 2002-12-12 | Dynamic Digital Depth Research Pty Ltd | Image encoding system |
US8698799B2 (en) | 2009-01-20 | 2014-04-15 | Adobe Systems Incorporated | Method and apparatus for rendering graphics using soft occlusion |
US8391603B2 (en) * | 2009-06-18 | 2013-03-05 | Omisa Inc. | System and method for image segmentation |
JP5645079B2 (ja) * | 2011-03-31 | 2014-12-24 | ソニー株式会社 | 画像処理装置および方法、プログラム、並びに記録媒体 |
US8498448B2 (en) * | 2011-07-15 | 2013-07-30 | International Business Machines Corporation | Multi-view object detection using appearance model transfer from similar scenes |
US9275078B2 (en) * | 2013-09-05 | 2016-03-01 | Ebay Inc. | Estimating depth from a single image |
US9202144B2 (en) * | 2013-10-30 | 2015-12-01 | Nec Laboratories America, Inc. | Regionlets with shift invariant neural patterns for object detection |
US9400925B2 (en) * | 2013-11-15 | 2016-07-26 | Facebook, Inc. | Pose-aligned networks for deep attribute modeling |
US20150324690A1 (en) * | 2014-05-08 | 2015-11-12 | Microsoft Corporation | Deep Learning Training System |
US9400918B2 (en) * | 2014-05-29 | 2016-07-26 | Beijing Kuangshi Technology Co., Ltd. | Compact face representation |
US9536293B2 (en) * | 2014-07-30 | 2017-01-03 | Adobe Systems Incorporated | Image assessment using deep convolutional neural networks |
US9756375B2 (en) * | 2015-01-22 | 2017-09-05 | Microsoft Technology Licensing, Llc | Predictive server-side rendering of scenes |
US9633306B2 (en) * | 2015-05-07 | 2017-04-25 | Siemens Healthcare Gmbh | Method and system for approximating deep neural networks for anatomical object detection |
-
2016
- 2016-05-13 CN CN201680019917.3A patent/CN107438866B/zh active Active
- 2016-05-13 KR KR1020177026420A patent/KR102047031B1/ko active IP Right Grant
- 2016-05-13 EP EP16726706.1A patent/EP3295368A1/en active Pending
- 2016-05-13 JP JP2017550920A patent/JP6663926B2/ja active Active
- 2016-05-13 WO PCT/US2016/032410 patent/WO2016183464A1/en active Application Filing
- 2016-05-13 US US15/154,417 patent/US9916679B2/en active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2004114224A1 (ja) * | 2003-06-20 | 2004-12-29 | Nippon Telegraph And Telephone Corporation | 仮想視点画像生成方法及び3次元画像表示方法並びに装置 |
JP2010522469A (ja) * | 2007-03-23 | 2010-07-01 | トムソン ライセンシング | 2d−to−3d変換のための2d画像の領域分類のシステム及び方法 |
JP2010079505A (ja) * | 2008-09-25 | 2010-04-08 | Kddi Corp | 画像生成装置及びプログラム |
JP2012528403A (ja) * | 2009-05-28 | 2012-11-12 | ケイジャヤ、エルエルシー | 専用ウェブポータルを用いた医療用スキャンの高度可視化高速アクセス方法およびシステム |
JP2011198349A (ja) * | 2010-02-25 | 2011-10-06 | Canon Inc | 情報処理方法及びその装置 |
Also Published As
Publication number | Publication date |
---|---|
JP6663926B2 (ja) | 2020-03-13 |
KR102047031B1 (ko) | 2019-11-20 |
CN107438866B (zh) | 2020-12-01 |
WO2016183464A1 (en) | 2016-11-17 |
CN107438866A (zh) | 2017-12-05 |
EP3295368A1 (en) | 2018-03-21 |
US20160335795A1 (en) | 2016-11-17 |
US9916679B2 (en) | 2018-03-13 |
KR20170120639A (ko) | 2017-10-31 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP6663926B2 (ja) | DeepStereo:実世界の画像から新たなビューを予測するための学習 | |
US10325399B2 (en) | Optimal texture memory allocation | |
US10304244B2 (en) | Motion capture and character synthesis | |
CN109887003B (zh) | 一种用于进行三维跟踪初始化的方法与设备 | |
US8929645B2 (en) | Method and system for fast dense stereoscopic ranging | |
US9213899B2 (en) | Context-aware tracking of a video object using a sparse representation framework | |
US11823322B2 (en) | Utilizing voxel feature transformations for view synthesis | |
US20100111444A1 (en) | Method and system for fast dense stereoscopic ranging | |
EP3326156B1 (en) | Consistent tessellation via topology-aware surface tracking | |
US20210150799A1 (en) | Generating Environmental Data | |
Bulbul et al. | Social media based 3D visual popularity | |
US11887241B2 (en) | Learning 2D texture mapping in volumetric neural rendering | |
US20110298801A1 (en) | View generation using interpolated values | |
CN116563493A (zh) | 基于三维重建的模型训练方法、三维重建方法及装置 | |
US11403807B2 (en) | Learning hybrid (surface-based and volume-based) shape representation | |
US11272164B1 (en) | Data synthesis using three-dimensional modeling | |
CN116228962A (zh) | 大场景神经视图合成 | |
US9852542B1 (en) | Methods and apparatus related to georeferenced pose of 3D models | |
Li et al. | Sat2vid: Street-view panoramic video synthesis from a single satellite image | |
US20230186575A1 (en) | Method and apparatus for combining an augmented reality object in a real-world image | |
US20230360327A1 (en) | Generating three-dimensional representations for digital objects utilizing mesh-based thin volumes | |
Yoo | Rapid three-dimensional urban model production using bilayered displacement mapping | |
Lazorenko | Synthesizing novel views for Street View experience | |
CN114241013A (zh) | 物体锚定方法、锚定***及存储介质 | |
TVERDOKHLEBOV | Landscape modelling for outdoor photography analysis, geolocation and distance estimation |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20171018 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171018 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20181105 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20181113 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20190212 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190806 |
|
A601 | Written request for extension of time |
Free format text: JAPANESE INTERMEDIATE CODE: A601 Effective date: 20191105 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20200106 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20200121 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20200217 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 6663926 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |
|
R250 | Receipt of annual fees |
Free format text: JAPANESE INTERMEDIATE CODE: R250 |