JP7145943B2 - 単一のカメラを使用した深度の推定 - Google Patents
単一のカメラを使用した深度の推定 Download PDFInfo
- Publication number
- JP7145943B2 JP7145943B2 JP2020519252A JP2020519252A JP7145943B2 JP 7145943 B2 JP7145943 B2 JP 7145943B2 JP 2020519252 A JP2020519252 A JP 2020519252A JP 2020519252 A JP2020519252 A JP 2020519252A JP 7145943 B2 JP7145943 B2 JP 7145943B2
- Authority
- JP
- Japan
- Prior art keywords
- image
- scene
- pixel
- sub
- represented
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Active
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/593—Depth or shape recovery from multiple images from stereo images
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
- H04N23/631—Graphical user interfaces [GUI] specially adapted for controlling image capture or setting capture parameters
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10024—Color image
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/20—Special algorithmic details
- G06T2207/20084—Artificial neural networks [ANN]
Landscapes
- Engineering & Computer Science (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Human Computer Interaction (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Studio Devices (AREA)
- Image Analysis (AREA)
Description
本出願は、各々の内容全体が参照により本明細書に組み込まれている、2017年10月4日に出願した米国仮特許出願第62/567,888号、および2017年10月16日に出願した米国仮特許出願第62/572,896号の優先権を主張するものである。
カメラがより一層普及するにつれて、それらは、スタンドアロンのハードウェアデバイスとして用いられる場合もあり、他のタイプのデバイスに統合される場合もある。例として、スチルカメラおよびビデオカメラは、今や、ワイヤレスコンピューティングデバイス(例えばスマートフォンやタブレット)、ラップトップコンピュータ、ウェアラブルコンピューティングデバイス、ビデオゲームインターフェース、ホームオートメーションデバイス内、さらには自動車および他のタイプの車両内にさえ、通常含まれている。
ンポーネントおよび/または非リムーバルコンポーネントを含むことができる。
図3Aは、カメラによって取り込まれた画像の一部であり得るピクセルのクラスタからなる、ピクセルブロック300を示す。具体的には、ピクセルブロック300は、イメージセンサのフォトサイトアレイ内の対応するフォトサイトからのデータを表現することのできる、ピクセル302および他のピクセルを含む。
図4は、単一の画像取込みコンポーネントを使用して取り込まれた画像の新たなバージョンを生成する様子を示す。この図では、カメラ402が、単一の画像取込みコンポーネントを使用してシーン400の画像を取り込んでいる。シーン400は、前景内に位置する人物、および背景内に位置する雲を示しているが、他の例には、異なるシーンの画像を取り込むことが関与し得る。
図9は、例示的な一実施形態を示すフローチャートである。図9によって示される実施形態は、デジタルカメラデバイス100などのコンピューティングデバイスによって遂行され得る。しかし、本実施形態は、他のタイプのデバイスまたはデバイスサブシステムによって遂行されてよい。さらに、本実施形態は、本明細書または添付の図面において開示する任意の態様または特色と組み合わされてもよい。
本開示は、本出願において説明した特定の実施形態という点において限定されるものではなく、それらの実施形態は、さまざまな態様の例示として意図されている。当業者には明らかであるように、本開示の範囲から逸脱することなく、多くの修正および変形を加えることができる。本明細書において挙げたものに加えて、本開示の範囲に含まれる機能的に等価な方法および装置が、先の説明から当業者には明らかとなろう。そのような修正および変形は、添付の特許請求の範囲に記載の範囲に含まれることが意図されている。
101A 正面図
101B 側面図
101C 背面図
101D 背面図
102 本体
104 前面カメラ
106 多素子ディスプレイ
108 シャッタボタン
110 他のボタン
112 背面カメラ
200 コンピューティングデバイス
202 通信インターフェース
204 ユーザインターフェース
206 プロセッサ
208 データ記憶装置
210 システムバス、ネットワーク、または他の接続機構
212 データ
214 アプリケーションデータ
216 オペレーティングシステムデータ
218 プログラム命令
220 アプリケーションプログラム
222 オペレーティングシステム
224 カメラコンポーネント
300 ピクセルブロック
302 ピクセル
304A 緑色サブピクセル
304B 緑色サブピクセル
306 青色サブピクセル
308 赤色サブピクセル
310 ピクセルブロック
312 ピクセル
314A 緑色サブピクセル
314B 緑色サブピクセル
316 青色サブピクセル
318 赤色サブピクセル
400 シーン
402 カメラ
404 第1のサブピクセル画像
406 第2のサブピクセル画像
408 部分
500 物体
502 レンズ
504 記録面
602 第1の緑色サブピクセル
604 第2の緑色サブピクセル
700 入力画像
702 おもちゃの犬
704 人物の足
706 椅子
708 深度マップ
710 修正画像
800 入力画像
802 人物
804 出力画像、セグメント化された画像
b 基線距離
d 視差
f 焦点距離
O 点
P 点
Q 点
z 距離
Claims (22)
- カメラデバイスによって、シーンの画像を取り込むステップと、
前記カメラデバイスによって、前記シーンの前記画像に基づいて、前記シーンの第1のサブピクセル画像、および前記シーンの第2のサブピクセル画像を生成するステップであって、前記第1のサブピクセル画像が、前記画像からの第1組のサブピクセルによって表現され、前記第2のサブピクセル画像が、前記画像からの第2組のサブピクセルによって表現され、前記シーンの前記画像の所与のピクセルが、2つの分割面緑色サブピクセルを含み、前記2つの分割面緑色サブピクセルの各々は、第1の焦点面を表す第1の部分と、前記第1の焦点面とは異なる第2の焦点面を表す第2の部分とを備え、前記2つの分割面緑色サブピクセル双方の前記第1の部分は、前記第1のサブピクセル画像内に表現され、前記2つの分割面緑色サブピクセル双方の前記第2の部分は、前記第2のサブピクセル画像内に表現される、ステップと、
前記カメラデバイスによって、前記第1のサブピクセル画像によって表現される前記シーンの部分と、前記第2のサブピクセル画像によって表現される前記シーンの前記部分との間の視差を決定するステップと、
前記カメラデバイスによって、前記視差、および前記2つの緑色サブピクセル間の基線距離に基づいて、前記シーンの深度マップを推定するステップであって、前記深度マップが、前記シーンの前記部分の、前記シーンの1つまたは複数の他の部分に対する相対的な深度を示す、ステップとを含む、
方法。 - 前記カメラデバイスによって、前記シーンの前記部分の、前記シーンの前記1つまたは複数の他の部分に対する相対的な前記深度に基づいて、前記シーンの前記部分に焦点が合っているとともに前記シーンの前記1つまたは複数の他の部分にぼかしを施された、前記画像の新たなバージョンを生成するステップをさらに含む、
請求項1に記載の方法。 - 前記第1のサブピクセル画像によって表現される前記シーンの前記部分と、前記第2のサブピクセル画像によって表現される前記シーンの前記部分との間の前記視差を決定するステップが、
前記第1のサブピクセル画像内の第1のピクセル近傍を特定するステップと、
前記第2のサブピクセル画像内の第2のピクセル近傍を特定するステップと、
前記第1のピクセル近傍または前記第2のピクセル近傍を、前記第1のピクセル近傍と前記第2のピクセル近傍が実質的に位置整合するまでシフトさせるステップであって、前記視差が、前記シフトによって表されるピクセル距離に基づく、ステップとを含む、
請求項1または請求項2に記載の方法。 - 前記第1のピクセル近傍または前記第2のピクセル近傍を、前記第1のピクセル近傍と前記第2のピクセル近傍が実質的に位置整合するまでシフトさせるステップが、
前記第1のピクセル近傍または前記第2のピクセル近傍間の第1のシフトを実施して、前記第1のピクセル近傍と前記第2のピクセル近傍との間の第1の位置整合を決定するステップと、
前記第1のピクセル近傍と前記第2のピクセル近傍との間の前記第1の位置整合に基づいて、信頼性を決定するステップと、
前記信頼性がそれによりしきい値信頼性レベルを上回る結果となる前記第1のピクセル近傍と前記第2のピクセル近傍との間の後続の位置整合を決定するように、前記信頼性が前記しきい値信頼性レベル未満であることに基づいて、前記第1のピクセル近傍または前記第2のピクセル近傍間の1回または複数回の後続のシフトを実施するステップとを含む、
請求項3に記載の方法。 - 前記第1のサブピクセル画像によって表現される前記シーンの前記部分と、前記第2のサブピクセル画像によって表現される前記シーンの前記部分との間の前記視差を決定するステップが、
前記第1のサブピクセル画像内の第1のピクセル近傍と、前記第2のサブピクセル画像内の第2のピクセル近傍との間の複数の位置整合候補の最小二乗誤差値を計算するステップと、
前記最小二乗誤差値に基づいて、前記第1のピクセル近傍と前記第2のピクセル近傍が実質的に位置整合するような、前記第1のピクセル近傍と前記第2のピクセル近傍との間の位置整合を決定するステップであって、前記視差が、前記第1のピクセル近傍と前記第2のピクセル近傍との間の前記決定された位置整合に基づく、ステップとを含む、
請求項1から4のいずれか一項に記載の方法。 - 画像セグメンテーションプロセスを使用して、前記画像を複数のセグメントにパーティショニングするステップであって、前記複数のセグメントの各セグメントが、ピクセルのセットを備える、ステップと、
前記複数のセグメントのうちの、それぞれに対応する特徴を共有するセグメントを決定するステップと、
それぞれに対応する特徴を共有するセグメントに基づいて、前記画像内に描かれた前記シーン中のフィーチャの境界を特定するステップと、
前記特定された境界に基づいて、前記シーンの前記部分内の物体の1つまたは複数の境界を決定するステップと、
前記シーンの前記深度マップ、および前記物体の前記1つまたは複数の境界に基づいて、前記物体に焦点が合っているとともに前記物体の後ろに位置する背景にぼかしを施された、前記画像の新たなバージョンを生成するステップとをさらに含む、
請求項1から5のいずれか一項に記載の方法。 - 前記方法は、
前記カメラデバイスにおいて、入力インターフェースから、前記画像を取り込む際に前記カメラデバイスが焦点を合わせるべき前記シーンの焦点アスペクトを指定する入力を受けるステップであって、前記入力インターフェースが、前記カメラデバイスの視点からの前記シーンの光景を表示するように構成可能なタッチスクリーンである、ステップをさらに含み、
前記第1のサブピクセル画像によって表現される前記シーンの前記部分と、前記第2のサブピクセル画像によって表現される前記シーンの前記部分との間の前記視差を決定するステップが、
前記第1のサブピクセル画像および前記第2のサブピクセル画像によって表現される、前記焦点アスペクトを含む前記シーンの所与の部分間の前記視差を決定するステップを含み、
前記シーンの前記深度マップを推定するステップが、
前記焦点アスペクトを含む前記シーンの前記所与の部分の深度を推定するステップを含む、
請求項1から6のいずれか一項に記載の方法。 - 前記シーンの前記深度マップを推定するステップが、
前記シーンの前記部分の、前記シーンの前記1つまたは複数の他の部分に対する相対的な前記深度を、前記カメラデバイスの空間センサを使用して推定するステップを含む、
請求項1から7のいずれか一項に記載の方法。 - 前記シーンの前記第1のサブピクセル画像が、前記シーンを第1の角度から表現し、
前記シーンの前記第2のサブピクセル画像が、前記シーンを第2の角度から表現する、
請求項1から8のいずれか一項に記載の方法。 - 前記シーンを前記第1の角度から表現する前記シーンの前記第1のサブピクセル画像と、前記シーンを前記第2の角度から表現する前記シーンの前記第2のサブピクセル画像とが、水平面に沿って異なる、
請求項9に記載の方法。 - 前記シーンを前記第1の角度から表現する前記シーンの前記第1のサブピクセル画像と、前記シーンを前記第2の角度から表現する前記シーンの前記第2のサブピクセル画像とが、垂直面に沿って異なる、
請求項9または請求項10に記載の方法。 - 前記画像の前記所与のピクセルが、2サブピクセル×2サブピクセルの正方形として配列された4つのサブピクセルを備え、
第1の緑色サブピクセルが、前記2サブピクセル×2サブピクセルの正方形の上部ロウ上に位置付けられ、
第2の緑色サブピクセルが、前記2サブピクセル×2サブピクセルの正方形の下部ロウ上に位置付けられる、
請求項1から11のいずれか一項に記載の方法。 - 前記第1の緑色サブピクセルと前記第2の緑色サブピクセルとが、前記画像の前記所与のピクセルの前記2サブピクセル×2サブピクセルの正方形内で対角配列をなす、
請求項12に記載の方法。 - 前記シーンの前記深度マップを推定するステップが、
前記シーンの前記部分を描いた、前記画像のピクセルのセットの前記深度を、前記シーンの前記1つまたは複数の他の部分を描いた、前記画像の複数のピクセルの深度に対して相対的に推定するステップを含む、
請求項1から13のいずれか一項に記載の方法。 - 前記シーンの前記部分の深度を、ニューラルネットワークベースのマスクを使用して決定するステップと、
前記ニューラルネットワークベースのマスクを使用して決定された前記部分の前記深度、および前記シーンの前記深度マップに基づいて、前記シーンの前記部分に焦点が合っているとともに前記シーンの前記1つまたは複数の他の部分にぼかしを施された、前記画像の新たなバージョンを生成するステップとをさらに含む、
請求項1から14のいずれか一項に記載の方法。 - カメラデバイスに以下の動作を実行させるためのプログラム命令を記憶しているコンピュータ可読記憶媒体であって、前記動作が、
シーンの画像を取り込むことと、
前記シーンの前記画像に基づいて、前記シーンの第1のサブピクセル画像、および前記シーンの第2のサブピクセル画像を生成することであって、前記第1のサブピクセル画像が、前記画像からの第1組のサブピクセルによって表現され、前記第2のサブピクセル画像が、前記画像からの第2組のサブピクセルによって表現され、前記シーンの前記画像の所与のピクセルが、2つの分割面緑色サブピクセルを含み、前記2つの分割面緑色サブピクセルの各々は、第1の焦点面を表す第1の部分と、前記第1の焦点面とは異なる第2の焦点面を表す第2の部分とを備え、前記2つの分割面緑色サブピクセル双方の前記第1の部分は、前記第1のサブピクセル画像内に表現され、前記2つの分割面緑色サブピクセル双方の前記第2の部分は、前記第2のサブピクセル画像内に表現される、ことと、
前記第1のサブピクセル画像によって表現される前記シーンの部分と、前記第2のサブピクセル画像によって表現される前記シーンの前記部分との間の視差を決定することと、
前記視差、および前記2つの緑色サブピクセル間の基線距離に基づいて、前記シーンの深度マップを推定することであって、前記深度マップが、前記シーンの前記部分の、前記シーンの1つまたは複数の他の部分に対する相対的な深度を示す、ことと、
前記シーンの前記部分の、前記シーンの1つまたは複数の他の部分に対する相対的な前記推定された深度に基づいて、前記シーンの前記部分に焦点が合っているとともに前記シーンの前記1つまたは複数の他の部分にぼかしを施された、前記画像の新たなバージョンを生成することとを含む、
コンピュータ可読記憶媒体。 - 前記動作が、
前記シーンの前記部分の、前記シーンの前記1つまたは複数の他の部分に対する相対的な前記推定された深度に基づいて、前記シーンの前記部分に焦点が合っているとともに前記シーンの前記1つまたは複数の他の部分にぼかしを施された、前記画像の新たなバージョンを生成することをさらに含む、
請求項16に記載のコンピュータ可読記憶媒体。 - 前記画像の前記所与のピクセルが、2サブピクセル×2サブピクセルの正方形として配列された4つのサブピクセルを備え、
第1の緑色サブピクセルが、前記2サブピクセル×2サブピクセルの正方形の上部ロウ上に位置付けられ、
第2の緑色サブピクセルが、前記2サブピクセル×2サブピクセルの正方形の下部ロウ上に位置付けられる、
請求項16に記載のコンピュータ可読記憶媒体。 - 前記シーンの前記第1のサブピクセル画像が、前記シーンを第1の角度から表現し、
前記シーンの前記第2のサブピクセル画像が、前記シーンを第2の角度から表現する、
請求項16に記載のコンピュータ可読記憶媒体。 - イメージセンサと、
プロセッサと、
メモリと、
前記プロセッサによって実行された場合、カメラデバイスに以下の動作を実行させるために、前記メモリ内に記憶されたプログラム命令とを備えた、
カメラデバイスであって、前記動作が、
前記イメージセンサを用いてシーンの画像を取り込むこと、
前記シーンの前記画像に基づいて、前記シーンの第1のサブピクセル画像、および前記シーンの第2のサブピクセル画像を生成することであって、前記第1のサブピクセル画像が、前記画像からの第1組のサブピクセルによって表現され、前記第2のサブピクセル画像が、前記画像からの第2組のサブピクセルによって表現され、前記シーンの前記画像の所与のピクセルが、2つの分割面緑色サブピクセルを含み、前記2つの分割面緑色サブピクセルの各々は、第1の焦点面を表す第1の部分と、前記第1の焦点面とは異なる第2の焦点面を表す第2の部分とを備え、前記2つの分割面緑色サブピクセル双方の前記第1の部分は、前記第1のサブピクセル画像内に表現され、前記2つの分割面緑色サブピクセル双方の前記第2の部分は、前記第2のサブピクセル画像内に表現される、こと、
前記第1のサブピクセル画像によって表現される前記シーンの部分と前記第2のサブピクセル画像によって表現される前記シーンの前記部分との間の視差を決定すること、
前記視差、および前記2つの緑色サブピクセル間の基線距離に基づいて、前記シーンの深度マップを推定することであって、前記深度マップが、前記シーンの前記部分の、前記シーンの1つまたは複数の他の部分に対する相対的な深度を示す、ことを含む、
カメラデバイス。
- 請求項1から15のいずれか一項に記載の方法を実行するように構成された装置。
- コンピューティング装置に請求項1から15のいずれか一項に記載の方法を実行させるための命令を含む、コンピュータプログラム。
Applications Claiming Priority (5)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US201762567888P | 2017-10-04 | 2017-10-04 | |
US62/567,888 | 2017-10-04 | ||
US201762572896P | 2017-10-16 | 2017-10-16 | |
US62/572,896 | 2017-10-16 | ||
PCT/US2017/064678 WO2019070299A1 (en) | 2017-10-04 | 2017-12-05 | DEPTH ESTIMATION USING A SINGLE CAMERA |
Publications (2)
Publication Number | Publication Date |
---|---|
JP2020536327A JP2020536327A (ja) | 2020-12-10 |
JP7145943B2 true JP7145943B2 (ja) | 2022-10-03 |
Family
ID=60937861
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2020519252A Active JP7145943B2 (ja) | 2017-10-04 | 2017-12-05 | 単一のカメラを使用した深度の推定 |
Country Status (5)
Country | Link |
---|---|
US (1) | US11210799B2 (ja) |
EP (1) | EP3692500A1 (ja) |
JP (1) | JP7145943B2 (ja) |
CN (1) | CN111164647B (ja) |
WO (1) | WO2019070299A1 (ja) |
Families Citing this family (50)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
EP3958557A1 (en) | 2015-04-23 | 2022-02-23 | Apple Inc. | Digital viewfinder user interface for multiple cameras |
US9716825B1 (en) | 2016-06-12 | 2017-07-25 | Apple Inc. | User interface for camera effects |
DK180859B1 (en) | 2017-06-04 | 2022-05-23 | Apple Inc | USER INTERFACE CAMERA EFFECTS |
WO2019100511A1 (en) * | 2017-11-22 | 2019-05-31 | Zhejiang Dahua Technology Co., Ltd. | An image processing method and system |
US11112964B2 (en) | 2018-02-09 | 2021-09-07 | Apple Inc. | Media capture lock affordance for graphical user interface |
CN110278366B (zh) * | 2018-03-14 | 2020-12-01 | 虹软科技股份有限公司 | 一种全景图像虚化方法、终端及计算机可读存储介质 |
DK201870364A1 (en) | 2018-05-07 | 2019-12-03 | Apple Inc. | MULTI-PARTICIPANT LIVE COMMUNICATION USER INTERFACE |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
CN108965704B (zh) * | 2018-07-19 | 2020-01-31 | 维沃移动通信有限公司 | 一种图像传感器、移动终端及图像拍摄方法 |
JP6971934B2 (ja) * | 2018-08-10 | 2021-11-24 | 株式会社東芝 | 画像処理装置 |
US11195257B2 (en) * | 2018-08-24 | 2021-12-07 | Canon Kabushiki Kaisha | Image processing method, image processing apparatus, imaging apparatus, lens apparatus, storage medium, and image processing system |
WO2020041893A1 (en) * | 2018-09-01 | 2020-03-05 | Digital Animal Interactive Inc. | Image processing methods and systems |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US11128792B2 (en) * | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
US11405535B2 (en) | 2019-02-28 | 2022-08-02 | Qualcomm Incorporated | Quad color filter array camera sensor configurations |
US11094072B2 (en) * | 2019-04-09 | 2021-08-17 | Samsung Electronics Co., Ltd | System and method for providing single image depth estimation based on deep neural network |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US10984513B1 (en) | 2019-09-30 | 2021-04-20 | Google Llc | Automatic generation of all-in-focus images with a mobile camera |
CN110766732A (zh) * | 2019-10-22 | 2020-02-07 | 杭州凌像科技有限公司 | 一种鲁棒的单相机深度图估计方法 |
US11727543B2 (en) * | 2019-11-18 | 2023-08-15 | Shinyfields Limited | Systems and methods for content-aware enhancement of images |
US11330246B2 (en) * | 2019-11-21 | 2022-05-10 | Microsoft Technology Licensing, Llc | Imaging system configured to use time-of-flight imaging and stereo imaging |
US11556784B2 (en) | 2019-11-22 | 2023-01-17 | Samsung Electronics Co., Ltd. | Multi-task fusion neural network architecture |
CN114945943A (zh) * | 2020-01-13 | 2022-08-26 | 谷歌有限责任公司 | 基于虹膜大小估计深度 |
US11663728B2 (en) | 2020-01-16 | 2023-05-30 | Samsung Electronics Co., Ltd. | Depth estimation method and apparatus |
KR20210095461A (ko) * | 2020-01-23 | 2021-08-02 | 삼성전자주식회사 | 복수의 공유 픽셀들을 포함하는 이미지 장치 및 이의 동작 방법 |
CN115066881B (zh) * | 2020-02-06 | 2023-11-14 | Oppo广东移动通信有限公司 | 对于图像序列生成稳定化图像合成效果的方法、***及计算机可读介质 |
CN111385481A (zh) * | 2020-03-30 | 2020-07-07 | 北京达佳互联信息技术有限公司 | 图像处理方法及装置、电子设备及存储介质 |
US11079913B1 (en) | 2020-05-11 | 2021-08-03 | Apple Inc. | User interface for status indicators |
US11054973B1 (en) | 2020-06-01 | 2021-07-06 | Apple Inc. | User interfaces for managing media |
CN111814659B (zh) * | 2020-07-07 | 2024-03-29 | 杭州海康威视数字技术股份有限公司 | 一种活体检测方法、和*** |
CN112164017B (zh) * | 2020-09-27 | 2023-11-17 | 中国兵器工业集团第二一四研究所苏州研发中心 | 一种基于深度学习的偏振彩色化方法 |
US11223780B1 (en) * | 2020-10-23 | 2022-01-11 | Black Sesame Technologies Inc. | Two-stage method to merge burst image frames |
US11496728B2 (en) | 2020-12-15 | 2022-11-08 | Waymo Llc | Aperture health monitoring mode |
US11671697B2 (en) | 2021-01-31 | 2023-06-06 | Apple Inc. | User interfaces for wide angle video conference |
CN115244570A (zh) * | 2021-02-24 | 2022-10-25 | 谷歌有限责任公司 | 合并分离像素数据以获得更深景深 |
US11893668B2 (en) | 2021-03-31 | 2024-02-06 | Leica Camera Ag | Imaging system and method for generating a final digital image via applying a profile to image information |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US11907605B2 (en) | 2021-05-15 | 2024-02-20 | Apple Inc. | Shared-content session user interfaces |
US11893214B2 (en) | 2021-05-15 | 2024-02-06 | Apple Inc. | Real-time communication user interface |
US11822761B2 (en) | 2021-05-15 | 2023-11-21 | Apple Inc. | Shared-content session user interfaces |
US11303800B1 (en) * | 2021-07-13 | 2022-04-12 | Shenzhen GOODIX Technology Co., Ltd. | Real-time disparity upsampling for phase detection autofocus in digital imaging systems |
KR20240011793A (ko) * | 2021-08-23 | 2024-01-26 | 삼성전자주식회사 | 장면의 자동 초점을 위한 방법 및 전자 디바이스 |
US11770600B2 (en) | 2021-09-24 | 2023-09-26 | Apple Inc. | Wide angle video conference |
US20230188691A1 (en) * | 2021-12-14 | 2023-06-15 | Robert John Hergert | Active dual pixel stereo system for depth extraction |
WO2023154431A1 (en) * | 2022-02-11 | 2023-08-17 | Canon U.S.A., Inc. | Apparatus and method for generating depth maps from raw dual pixel sensor data |
FR3135811A1 (fr) * | 2022-05-17 | 2023-11-24 | Safran | Dispositif et procédé d'aide à la navigation basé sur l'imagerie monoculaire |
DE102022125838A1 (de) | 2022-10-06 | 2024-04-11 | Arnold & Richter Cine Technik Gmbh & Co. Betriebs Kg | Bildsensor |
CN115294187B (zh) * | 2022-10-08 | 2023-01-31 | 合肥的卢深视科技有限公司 | 深度相机的图像处理方法、电子设备及存储介质 |
Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080259154A1 (en) | 2007-04-20 | 2008-10-23 | General Instrument Corporation | Simulating Short Depth of Field to Maximize Privacy in Videotelephony |
JP2012049257A (ja) | 2010-08-25 | 2012-03-08 | Toshiba Corp | 固体撮像装置 |
US20130215108A1 (en) | 2012-02-21 | 2013-08-22 | Pelican Imaging Corporation | Systems and Methods for the Manipulation of Captured Light Field Image Data |
WO2013179963A1 (ja) | 2012-05-28 | 2013-12-05 | 富士フイルム株式会社 | 画像処理装置、撮像装置及び画像処理方法、並びにプログラム |
JP2017022624A (ja) | 2015-07-13 | 2017-01-26 | キヤノン株式会社 | 撮像素子及びその駆動方法、及び撮像装置 |
Family Cites Families (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
AUPQ289099A0 (en) * | 1999-09-16 | 1999-10-07 | Silverbrook Research Pty Ltd | Method and apparatus for manipulating a bayer image |
US8866920B2 (en) * | 2008-05-20 | 2014-10-21 | Pelican Imaging Corporation | Capturing and processing of images using monolithic camera array with heterogeneous imagers |
US20130287093A1 (en) * | 2012-04-25 | 2013-10-31 | Nokia Corporation | Method and apparatus for video coding |
EP2728545B1 (en) * | 2012-08-07 | 2018-07-11 | Spreadtrum Communications (Shanghai) Co., Ltd. | Image processing method and device based on bayer format |
US9519972B2 (en) * | 2013-03-13 | 2016-12-13 | Kip Peli P1 Lp | Systems and methods for synthesizing images from image data captured by an array camera using restricted depth of field depth maps in which depth estimation precision varies |
US20150086127A1 (en) | 2013-09-20 | 2015-03-26 | Samsung Electronics Co., Ltd | Method and image capturing device for generating artificially defocused blurred image |
KR20180030773A (ko) * | 2015-04-17 | 2018-03-26 | 포토네이션 케이맨 리미티드 | 어레이 카메라들을 이용한 고속 비디오 캡처 및 심도 추정을 수행하기 위한 시스템 및 방법 |
US9736366B1 (en) * | 2015-05-23 | 2017-08-15 | Google Inc. | Tile-based digital image correspondence |
US9848118B2 (en) * | 2016-03-11 | 2017-12-19 | Intel Corporation | Phase detection autofocus using opposing filter masks |
-
2017
- 2017-12-05 US US16/652,568 patent/US11210799B2/en active Active
- 2017-12-05 JP JP2020519252A patent/JP7145943B2/ja active Active
- 2017-12-05 EP EP17826003.0A patent/EP3692500A1/en active Pending
- 2017-12-05 WO PCT/US2017/064678 patent/WO2019070299A1/en unknown
- 2017-12-05 CN CN201780095594.0A patent/CN111164647B/zh active Active
Patent Citations (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20080259154A1 (en) | 2007-04-20 | 2008-10-23 | General Instrument Corporation | Simulating Short Depth of Field to Maximize Privacy in Videotelephony |
JP2012049257A (ja) | 2010-08-25 | 2012-03-08 | Toshiba Corp | 固体撮像装置 |
US20130215108A1 (en) | 2012-02-21 | 2013-08-22 | Pelican Imaging Corporation | Systems and Methods for the Manipulation of Captured Light Field Image Data |
WO2013179963A1 (ja) | 2012-05-28 | 2013-12-05 | 富士フイルム株式会社 | 画像処理装置、撮像装置及び画像処理方法、並びにプログラム |
JP2017022624A (ja) | 2015-07-13 | 2017-01-26 | キヤノン株式会社 | 撮像素子及びその駆動方法、及び撮像装置 |
Also Published As
Publication number | Publication date |
---|---|
WO2019070299A1 (en) | 2019-04-11 |
JP2020536327A (ja) | 2020-12-10 |
US20200242788A1 (en) | 2020-07-30 |
CN111164647A (zh) | 2020-05-15 |
US11210799B2 (en) | 2021-12-28 |
CN111164647B (zh) | 2024-05-03 |
EP3692500A1 (en) | 2020-08-12 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7145943B2 (ja) | 単一のカメラを使用した深度の推定 | |
US9918065B2 (en) | Depth-assisted focus in multi-camera systems | |
JP7186672B2 (ja) | マルチスコピック雑音削減およびハイ・ダイナミック・レンジのためのシステムおよび方法 | |
CN105814875B (zh) | 选择用于立体成像的相机对 | |
KR102240659B1 (ko) | 시야의 가리움에 기초한 카메라 선택 | |
JP6724045B2 (ja) | 畳み込み色補正 | |
US9639945B2 (en) | Depth-based application of image effects | |
US9615012B2 (en) | Using a second camera to adjust settings of first camera | |
US9253375B2 (en) | Camera obstruction detection | |
US10708486B2 (en) | Generation of a depth-artificial image by determining an interpolated supplementary depth through interpolation based on the original depths and a detected edge | |
WO2018093785A1 (en) | Fast fourier color constancy | |
US10726524B2 (en) | Low-resolution tile processing for real-time bokeh | |
US8995784B2 (en) | Structure descriptors for image processing | |
US20230033956A1 (en) | Estimating depth based on iris size | |
KR102664373B1 (ko) | 더 깊은 피사계 심도를 위한 분할 픽셀 데이터 병합 | |
JP2017182668A (ja) | データ処理装置、撮像装置、及びデータ処理方法 | |
KR20230174133A (ko) | 이미지 처리 방법 및 장치, 모바일 단말, 저장 매체 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20200602 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20210712 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20211001 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20220207 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20220405 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20220822 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20220920 |
|
R150 | Certificate of patent or registration of utility model |
Ref document number: 7145943 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R150 |