JP2015041169A - 画像処理装置およびその制御方法、プログラム - Google Patents
画像処理装置およびその制御方法、プログラム Download PDFInfo
- Publication number
- JP2015041169A JP2015041169A JP2013170912A JP2013170912A JP2015041169A JP 2015041169 A JP2015041169 A JP 2015041169A JP 2013170912 A JP2013170912 A JP 2013170912A JP 2013170912 A JP2013170912 A JP 2013170912A JP 2015041169 A JP2015041169 A JP 2015041169A
- Authority
- JP
- Japan
- Prior art keywords
- range
- trimming
- image
- image data
- image processing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Granted
Links
- 238000000034 method Methods 0.000 title claims description 42
- 238000009966 trimming Methods 0.000 claims abstract description 150
- 238000003384 imaging method Methods 0.000 description 26
- 238000010586 diagram Methods 0.000 description 15
- 230000006870 function Effects 0.000 description 5
- 230000010354 integration Effects 0.000 description 3
- 230000003287 optical effect Effects 0.000 description 3
- 241000282472 Canis lupus familiaris Species 0.000 description 1
- 241000282326 Felis catus Species 0.000 description 1
- 241001465754 Metazoa Species 0.000 description 1
- 230000008707 rearrangement Effects 0.000 description 1
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T3/00—Geometric image transformations in the plane of the image
- G06T3/40—Scaling of whole images or parts thereof, e.g. expanding or contracting
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/50—Depth or shape recovery
- G06T7/55—Depth or shape recovery from multiple images
- G06T7/557—Depth or shape recovery from multiple images from light fields, e.g. from plenoptic cameras
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T7/00—Image analysis
- G06T7/70—Determining position or orientation of objects or cameras
- G06T7/73—Determining position or orientation of objects or cameras using feature-based methods
- G06T7/74—Determining position or orientation of objects or cameras using feature-based methods involving reference images or patches
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/63—Control of cameras or camera modules by using electronic viewfinders
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/80—Camera processing pipelines; Components thereof
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/95—Computational photography systems, e.g. light-field imaging systems
- H04N23/957—Light-field or plenoptic cameras or camera modules
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/222—Studio circuitry; Studio devices; Studio equipment
- H04N5/262—Studio circuits, e.g. for mixing, switching-over, change of character of image, other special effects ; Cameras specially adapted for the electronic generation of special effects
- H04N5/2628—Alteration of picture size, shape, position or orientation, e.g. zooming, rotation, rolling, perspective, translation
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2207/00—Indexing scheme for image analysis or image enhancement
- G06T2207/10—Image acquisition modality
- G06T2207/10028—Range image; Depth image; 3D point clouds
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06T—IMAGE DATA PROCESSING OR GENERATION, IN GENERAL
- G06T2210/00—Indexing scheme for image generation or computer graphics
- G06T2210/22—Cropping
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Signal Processing (AREA)
- Theoretical Computer Science (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Computing Systems (AREA)
- Studio Devices (AREA)
- Image Processing (AREA)
Abstract
Description
特許文献1には、カメラで被写体を撮影する時に、切り出し範囲内の撮影者の意図する被写体あるいは主要被写体に焦点の合った画像を得る技術が開示されている。特許文献2には、電子カメラからパーソナルコンピュータに入力される画像の切り出し実行時に、切り出し画像に対して入力調整(例えば、焦点調整、露出調整及び色調整)を行う技術が開示されている。
本発明は、撮影後に合焦範囲を変更可能な画像データに対して画像処理を行う画像処理装置において、トリミング処理後または拡大処理後の対象範囲に応じて合焦範囲を変更することにより、利便性を高めることを目的とする。
本発明の実施形態に係る映像処理装置を説明する前に、ピント状態を指定可能な動画像の撮影に用いる撮像装置について説明する。図1(A)、図1(B)は、LFカメラの概略構成を例示する。撮像レンズ11を通過してマイクロレンズアレイ12に入射した被写体からの光は、イメージセンサ13によって光電変換されて電気信号が得られる。尚、ここで得られた撮像データをライトフィールドデータ(以下、LFデータという)と呼ぶ。
マイクロレンズアレイ12の各マイクロレンズは、イメージセンサ13における複数の画素が対応するように配置される。イメージセンサ13の各画素には各マイクロレンズが分割した光が入射し、各画素にて異なる方向からの光の強度(光線情報)を検出することができる。また、各マイクロレンズとイメージセンサ13の各画素との位置関係に応じて、マイクロレンズを介してイメージセンサ13の各画素に入射した光線の入射方向(方向情報)が分かる。すなわち、光の強度分布と併せて、光の進行方向の情報が検出される。マイクロレンズアレイ12のレンズ頂点面からの距離が異なる焦点面での像は、各マイクロレンズの光軸からの偏心量に対応した位置にあるイメージセンサ13の画素の各出力を合成することで得られる。なお、光線は位置や方位、波長などのパラメータを用いて、平行な2平面によってパラメータ化される関数で表される。つまり、各マイクロレンズに対応する複数の画素の配置によって各画素への光の入射方向が決まっている。
以上のように、撮像装置10は光線情報と方向情報を取得し、光線の並べ替えと計算処理(以下、再構築という)を行うことにより、任意のフォーカス位置や視点を指定した画像データを生成できる。この光線情報および方向情報はLFデータに含まれる。
撮像レンズ11による被写体の像は、マイクロレンズアレイ12上に結像し、マイクロレンズアレイ12への入射光線はマイクロレンズアレイ12を介してイメージセンサ13で受光される。このとき、図3に示すように、マイクロレンズアレイ12への入射する光線は、その進行方向に応じてイメージセンサ13上の異なる位置で受光され、撮像レンズ11の形状に相似形となる被写体の像がマイクロレンズ毎に結像する。
イメージセンサ13で受光される光線について図4を用いて説明する。撮像レンズ11のレンズ面上における直交座標系を(u,v)とし、イメージセンサ13の撮像面上における直交座標系を(x,y)とし、さらに、撮像レンズ11のレンズ面とイメージセンサ13の撮像面との距離をFとする。すると、撮像レンズ11およびイメージセンサ13を通る光線の強度は、4次元関数L(u,v,x,y)で表すことができる。
各マイクロレンズに入射する光線は、進行方向に応じて異なる画素に入射されることから、イメージセンサ13では、光線の位置情報に加え、光線の進行方向を保持する上記の4次元関数L(u,v,x,y)が記録される。
各実施形態ではLF画像を編集する画像処理装置を例示する。
図8を参照して、第1実施形態のシステム構成例を説明する。本システムはLF画像の編集機能をユーザに提供し、高機能ディスプレイや、表示ディスプレイなどを含むPC(パーソナルコンピュータ)内に構成される。CPU(中央演算処理装置)がメモリから読み出したプログラムを実行することにより、以下に説明する処理が実現される。あるいは、LF画像を撮影可能な撮像装置において、撮影後に簡易編集を行うシステム形態もある。この場合、LFカメラ内部に以下のシステムが構成される。その他、LF画像の現像および編集処理が可能であれば、適用機器は限定されない。本発明は、例えば、LF画像データ(LFデータ)に含まれる光線情報と方向情報を取得し、光線の並べ替えと再構築により、任意のフォーカス位置や視点を指定した画像データの生成が可能な装置へ適用可能である。
・オブジェクトを指定する方法。
・矩形枠を表現するための開始点と終了点を指定する方法。
・任意の多角形を指定するための任意個数の点を指定する方法。
トリミング領域決定部(以下、領域決定部という)102は、対象指定部101による指定内容、および記憶部106に記憶されているトリミング対象となるLF画像データから、トリミング対象となる領域を決定する。例えば、オブジェクトを指定する点座標が対象指定部101により指定された場合、領域決定部102は、指定された点を含むオブジェクト領域を、記憶部106からのLF画像の解析により判別し、トリミング領域として決定する。あるいは、領域決定部102は、矩形枠を表現するために開始点と終了点の座標が対象指定部101により指定された場合、開始点と終了点で規定される矩形領域を、画像内のトリミング領域として決定する。また、任意の多角形を指定するための任意個数の点座標が対象指定部101により指定された場合には、領域決定部102は任意個数の点座標で囲まれる領域をトリミング領域として決定する。
領域解析部103は、領域決定部102から取得したトリミング領域の情報を解析する。これにより、トリミング対象は奥行きマップ上のトリミング対象領域202に存在すると判別される。
合焦範囲決定部104は、領域解析部103からの解析結果に基づいて、合焦範囲を決定する。図9を参照して、トリミング編集前のLF画像に対して、トリミング編集後に合焦範囲が変化する様子を説明する。トリミング編集前の合焦範囲201は、撮影時に付与されたデフォルト合焦範囲とする。なお、合焦範囲は、焦点を合わせる奥行き範囲とも言い換えられる。また、合焦範囲は、所定の幅を有する奥行き範囲に限定されず、合焦位置(焦点を合わせる奥行き位置)とも言い換えられる。
なお、トリミング編集前のLF画像データに対して、トリミング編集を行った際の履歴情報と併せて、トリミング編集後の合焦範囲の情報を追加記録してもよい。この場合、LF画像自体についてはトリミング編集前の全データが保存される。ユーザが履歴情報を利用してトリミング編集およびトリミング編集後の画像表示を行う際には、トリミング編集と併せて適切に変更された合焦範囲での画像表示が可能となる。この場合、デフォルト合焦位置を示す情報は上書きされないので、トリミング編集前の画像を表示する際には、撮影時のデフォルト合焦位置をそのまま使用可能である。
本実施形態によれば、LF画像に対してトリミング編集を行った際、トリミング編集結果に応じた適切な合焦範囲への変更制御が行われる。すなわち、ユーザにとって利便性の高い合焦範囲が自動的に設定される。また、編集時に変更された合焦範囲から、さらに合焦範囲の微調整や追加のトリミング編集などを行う場合、ユーザは再度合焦範囲の変更指定が可能である。
次に本発明の第2実施形態を説明する。第2実施形態では、第1実施形態に対し、領域解析部103および合焦範囲決定部104の動作が異なる。よって、第1実施形態の場合と同様の構成要素についての詳細な説明を省略し、相違点を主に説明する。このような説明の省略については、後述の実施形態でも同様である。
領域解析部103は、トリミング領域の中心座標を解析する。また領域解析部103は、トリミング領域内において最も画素数が多い、すなわち画素数を度数とする場合に最も度数が高い奥行きマップ上の位置(以後、最頻奥行き位置という)を解析する。領域解析部103は第1実施形態に記載した処理に加えて、トリミング領域の中心座標、およびトリミング領域の最頻奥行き位置のいずれか一方、または両方の情報を合焦範囲決定部104へ送る。
まず、トリミング領域の中心座標の位置を基準にして合焦範囲を決定する処理について説明する。この場合、トリミング領域の中心座標の画素が存在する奥行き方向の位置を中心として、奥行き方向および手前方向に設定可能な範囲が、トリミング編集後の合焦範囲として設定される。
この場合、トリミング領域の中心座標の画素が存在する奥行きマップ上の位置302を中心として合焦可能な範囲に合焦範囲303が設定される。このような処理を行うことで、トリミング結果領域の中心部に合焦可能となる。トリミング領域の中心部はトリミング編集の意図として妥当である場合が多い。また第1実施形態でも述べたように、必要があれば追加の微調整や再変更も可能である。
図11を参照して、トリミング編集前のLF画像に対して、トリミング編集後に合焦範囲が変化する様子を説明する。図11はトリミング編集前のLF画像に対しトリミング編集を行った結果、トリミング対象外401の領域を除いた部分全てに合焦範囲を設定することが不可能な場合を表している。
この場合、トリミング領域の最頻奥行き位置402を中心として、奥行きおよび手前方向に合焦可能な範囲で合焦範囲403が設定される。このような処理を行うことで、トリミング結果領域の中心部に合焦したい対象が存在しない場合でも、トリミング編集の意図に応じた位置に合焦可能となる。なお、トリミング領域の中心座標から合焦範囲を決定するか、またはトリミング領域の最頻奥行き位置から合焦範囲を決定するかについては、ユーザが選択可能である。
次に本発明の第3実施形態を説明する。第3実施形態では、第1実施形態に対し、領域解析部103および合焦範囲決定部104の動作が異なる。
領域解析部103は、トリミング領域内のオブジェクト(例えば、人物の顔、犬や猫などの動物の顔の画像など)を解析する。トリミング領域内に複数のオブジェクトが存在する場合、領域解析部103は各オブジェクトが存在する領域を解析する。領域解析部103は第1実施形態に記載の処理に加えて、上記解析の結果から得た各オブジェクトが存在する領域についての情報を、合焦範囲決定部104へ送る。合焦範囲決定部104では、トリミング領域全体に合焦範囲を設定するが、第2実施形態で説明したように、トリミング編集前のLF画像データ次第では、トリミング編集後の領域全体に合焦させることが不可能な場合がある。
図12を参照して、トリミング編集前のLF画像に対して、トリミング編集後に合焦範囲が変化する様子を説明する。図12では、トリミング編集前の全体画像501に対し、トリミング領域502を選択してトリミング編集を行う場合を示している。トリミング領域502内には、三角形503と円形504のオブジェクトが存在している。
トリミング編集前の画像全体に対する、前述の奥行きマップを図12に示す。撮影側から被写体に対して手前側にトリミング対象領域505があり、トリミング編集前の合焦範囲506はトリミング対象領域505から外れている。全体画像501に対してトリミング編集を行う場合、領域解析部103はトリミング領域502に含まれるオブジェクトである三角形503と円形504の領域を検出する。
なお、オブジェクトが多数存在し、全てのオブジェクトを含めることが困難な場合には、合焦範囲決定部104はオブジェクトの大きさ順で優先度を規定する。優先度の高いオブジェクトが優先的に含まれるように合焦範囲が決定される。または、合焦範囲決定部104はトリミング領域の中心に存在するオブジェクトについて優先度を高く規定する。また、上記優先度の規定については、ユーザが大きさ順を優先するか、または中心座標を優先するかを選択可能である。
次に、図13を参照して本発明の第4実施形態を説明する。第1ないし第3実施形態では、編集処理としてトリミングについて示したが、拡大処理を行う場合にも本発明を適用可能である。つまり、撮影後の拡大処理は、見方を変えれば拡大して表示したい範囲をトリミング領域とし、残りの領域を削除する処理と見做すことが可能である。
図13の拡大操作部601は、LF画像データに対してユーザが拡大操作を指示するIF(インタフェース)部であり、マウスなどのポインティングデバイスやタッチパネルといった一般的な入力デバイスである。
拡大領域の指定方法としては、拡大したい領域の中心座標や、矩形枠での指定が一般的である。また、他の拡大領域の指定方法では、上下左右方向を指定するための十字操作部材を用いる場合がある。具体的には、デジタルカメラなどでプレビュー表示や簡易編集を行っている状態で、元の画像に対して拡大した領域が表示されているとする。その状態で、画像を拡大したままでユーザの操作指示に従って上下左右方向に表示領域を変更する処理が一般的に行われる。
画像の拡大状態で十字ボタンなどの操作により表示画像の移動が指示された場合には、十字ボタンの各方向を押下した場合に規定されている変更量に応じて拡大領域が変更される。例えば、右方向への操作が行われた場合、拡大前の領域換算で所定画素数(例えば50画素)分の移動が規定されているものとする。この場合、拡大操作部601から右方向への操作が行われると、その時点で規定されている拡大領域から右方向に50画素分だけ領域がシフトする。
図14に本実施形態での拡大事例および奥行きマップを示す。本実施形態では、拡大前のLF画像701に対して、円形703が表示されている対象領域を拡大領域702として処理が実行される。
拡大前画像の奥行きマップから判るように、拡大前のLF画像は撮影側から見た場合、奥側の領域が合焦範囲705となっている。拡大領域702に対応する範囲704は、合焦範囲705よりも手前側の、焦点の合っていない部分に存在しているので、このまま実施したのでは、拡大後の画像は暈けた画像になる。
図14を参照して、拡大処理前のLF画像に対して、拡大処理後に合焦範囲が変化する様子を説明する。
拡大処理後の表示画像706の状態では、拡大処理前の合焦範囲705が、拡大領域702が存在する奥行きマップ上の範囲704の位置に変更され、合焦範囲708となる。その結果、拡大処理前には暈けた画像となっていた円形703が、拡大処理後には焦点の合った円形707となって表示される。
ユーザが拡大操作を行う場合、拡大対象となる領域に注目したいことが多いと考えられる。本実施形態によれば、上記処理によって、拡大操作を行った際に自動的に拡大領域に合焦するため、ユーザの利便性が向上する。
また、本発明は、以下の処理を実行することによっても実現される。即ち、上述した実施形態の機能を実現するソフトウェア(プログラム)を、ネットワーク又は各種記憶媒体を介してシステム或いは装置に供給し、そのシステム或いは装置のコンピュータ(またはCPUやMPU等)がプログラムを読み出して実行する処理である。
102 領域決定部
103 領域解析部
104 合焦範囲決定部
105 合焦範囲付与部
106 記憶部
Claims (17)
- 撮影後に合焦範囲を変更可能な画像データに対して画像処理を行う画像処理装置であって、
前記画像データに対して指定されたトリミング領域の画像データを解析する解析部と、
前記解析部による解析結果に従って、前記トリミング領域の画像における合焦範囲を決定する範囲決定部と、
前記範囲決定部により決定された前記合焦範囲に焦点が合ったトリミング編集後の画像データを出力する出力部と、を備えることを特徴とする画像処理装置。 - 前記範囲決定部により決定された前記合焦範囲の情報を、前記画像データに付与する合焦範囲付与部と、
トリミング編集前およびトリミング編集後の画像データ、並びに前記合焦範囲付与部により前記画像データに付与された前記合焦範囲の情報を記憶する記憶部と、を備えることを特徴とする請求項1に記載の画像処理装置。 - 前記解析部は前記トリミング領域に係る奥行き方向の位置を解析し、前記範囲決定部は前記トリミング領域の画像において焦点を合わせる奥行き範囲を前記合焦範囲として決定することを特徴とする請求項1または2に記載の画像処理装置。
- 前記解析部は前記トリミング領域の中心座標を解析し、前記範囲決定部は前記トリミング領域の中心座標を前記解析部から取得し、前記中心座標の画素が存在する奥行き方向の位置を中心として前記合焦範囲を決定することを特徴とする請求項1または2に記載の画像処理装置。
- 前記解析部は、画像を構成する各画素について奥行き方向の位置を示す奥行きマップを解析することにより、前記トリミング領域に係る奥行き方向の位置を解析することを特徴とする請求項1ないし4のいずれか1項に記載の画像処理装置。
- 前記解析部は、画素数を度数とする場合に前記トリミング領域内で最も度数が高い奥行き方向の位置を解析し、前記範囲決定部は、前記解析部が解析した前記奥行き方向の位置を中心として前記合焦範囲を決定することを特徴とする請求項1ないし5のいずれか1項に記載の画像処理装置。
- 前記解析部は前記トリミング領域内のオブジェクトの位置を解析し、前記範囲決定部は前記トリミング領域内のオブジェクトの位置を中心として前記合焦範囲を決定することを特徴とする請求項1または2に記載の画像処理装置。
- 撮影後に合焦範囲を変更可能な画像データに対して画像処理を行う画像処理装置であって、
前記画像データに対して指定された拡大領域の画像データを解析する解析部と、
前記解析部による解析結果に従って、前記拡大領域の画像における合焦範囲を決定する範囲決定部と、
前記範囲決定部により決定された前記合焦範囲に焦点が合った拡大領域の画像データを出力する出力部と、を備えることを特徴とする画像処理装置。 - 撮影後に合焦範囲を変更可能な画像データに対して画像処理を行う画像処理装置にて実行される制御方法であって、
前記画像データに対して指定された前記トリミング領域の画像データを解析する解析ステップと、
前記解析ステップによる解析結果に従って、前記トリミング領域の画像における合焦範囲を決定する範囲決定ステップと、
前記範囲決定ステップで決定された前記合焦範囲に焦点が合ったトリミング編集後の画像データを出力するステップと、を有することを特徴とする画像処理装置の制御方法。 - 前記範囲決定ステップで決定された前記合焦範囲の情報を、前記画像データに付与するステップと、
トリミング編集前およびトリミング編集後の画像データ、並びに前記画像データに付与された前記合焦範囲の情報を記憶部に記憶する記憶ステップと、
を有することを特徴とする請求項9に記載の画像処理装置の制御方法。 - 前記解析ステップでは前記トリミング領域に係る奥行き方向の位置を解析し、前記範囲決定ステップでは前記トリミング領域の画像において焦点を合わせる奥行き範囲を前記合焦範囲として決定することを特徴とする請求項9または10に記載の画像処理装置の制御方法。
- 前記解析ステップでは前記トリミング領域の中心座標を解析し、前記範囲決定ステップでは前記トリミング領域の中心座標を取得し、前記中心座標の画素が存在する奥行き方向の位置を中心として前記合焦範囲を決定することを特徴とする請求項9または10に記載の画像処理装置の制御方法。
- 前記解析ステップでは、画像を構成する各画素について奥行き方向の位置を示す奥行きマップを解析することにより、前記トリミング領域に係る奥行き方向の位置を解析することを特徴とする請求項9ないし12のいずれか1項に記載の画像処理装置の制御方法。
- 前記解析ステップでは、画素数を度数とする場合に前記トリミング領域内で最も度数が高い奥行き方向の位置を解析し、前記範囲決定ステップでは、前記解析ステップで解析した前記奥行き方向の位置を中心として前記合焦範囲を決定することを特徴とする請求項9ないし13のいずれか1項に記載の画像処理装置の制御方法。
- 前記解析ステップでは前記トリミング領域内のオブジェクトの位置を解析し、前記範囲決定ステップでは前記トリミング領域内のオブジェクトの位置を中心として前記合焦範囲を決定することを特徴とする請求項9または10に記載の画像処理装置の制御方法。
- 撮影後に合焦範囲を変更可能な画像データに対して画像処理を行う画像処理装置にて実行される制御方法であって、
前記画像データに対して指定された拡大領域の画像データを解析する解析ステップと、
前記解析ステップによる解析結果に従って、前記拡大領域の画像における合焦範囲を決定する範囲決定ステップと、
前記範囲決定ステップで決定された前記合焦範囲に焦点が合った拡大領域の画像データを出力するステップと、を有することを特徴とする画像処理装置の制御方法。 - 請求項9から16のいずれか1項に記載の、画像処理装置の制御方法の各ステップをコンピュータに実行させるためのプログラム。
Priority Applications (3)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013170912A JP6245892B2 (ja) | 2013-08-21 | 2013-08-21 | 画像処理装置およびその制御方法、プログラム |
US14/457,495 US9621797B2 (en) | 2013-08-21 | 2014-08-12 | Image processing apparatus, control method for same, and program |
US15/444,676 US10109036B2 (en) | 2013-08-21 | 2017-02-28 | Image processing apparatus, control method for same, and program that performs image processing for image data having a focus state that is changeable |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2013170912A JP6245892B2 (ja) | 2013-08-21 | 2013-08-21 | 画像処理装置およびその制御方法、プログラム |
Publications (3)
Publication Number | Publication Date |
---|---|
JP2015041169A true JP2015041169A (ja) | 2015-03-02 |
JP2015041169A5 JP2015041169A5 (ja) | 2016-09-29 |
JP6245892B2 JP6245892B2 (ja) | 2017-12-13 |
Family
ID=52480028
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2013170912A Expired - Fee Related JP6245892B2 (ja) | 2013-08-21 | 2013-08-21 | 画像処理装置およびその制御方法、プログラム |
Country Status (2)
Country | Link |
---|---|
US (2) | US9621797B2 (ja) |
JP (1) | JP6245892B2 (ja) |
Families Citing this family (6)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US20150104101A1 (en) * | 2013-10-14 | 2015-04-16 | Apple Inc. | Method and ui for z depth image segmentation |
US9870058B2 (en) * | 2014-04-23 | 2018-01-16 | Sony Corporation | Control of a real world object user interface |
CN107545586B (zh) * | 2017-08-04 | 2020-02-28 | 中国科学院自动化研究所 | 基于光场极线平面图像局部的深度获取方法及*** |
JP7173841B2 (ja) | 2018-11-14 | 2022-11-16 | キヤノン株式会社 | 画像処理装置およびその制御方法ならびにプログラム |
JP7198055B2 (ja) * | 2018-11-16 | 2022-12-28 | キヤノン株式会社 | 画像処理装置およびその制御方法ならびにプログラム |
US11776093B2 (en) * | 2019-07-16 | 2023-10-03 | University Of Florida Research Foundation, Incorporated | Automatic sharpness adjustment for imaging modalities |
Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010114712A (ja) * | 2008-11-07 | 2010-05-20 | Fujifilm Corp | 複眼撮影装置およびその制御方法並びにプログラム |
JP2010166519A (ja) * | 2009-01-19 | 2010-07-29 | Sony Corp | 表示制御装置、表示制御方法及びプログラム |
WO2012001947A1 (ja) * | 2010-06-28 | 2012-01-05 | 株式会社ニコン | 撮像装置、画像処理装置、画像処理プログラム記録媒体 |
JP2012253444A (ja) * | 2011-05-31 | 2012-12-20 | Canon Inc | 撮像装置、画像処理装置およびその方法 |
JP2013512612A (ja) * | 2009-11-27 | 2013-04-11 | サムスン エレクトロニクス カンパニー リミテッド | 光フィールドデータを利用した映像処理装置及び方法 |
JP2013145980A (ja) * | 2012-01-13 | 2013-07-25 | Canon Inc | 撮像装置、その制御方法、画像処理装置、画像生成方法、プログラム |
JP2013153375A (ja) * | 2012-01-26 | 2013-08-08 | Sony Corp | 画像処理装置、画像処理方法および記録媒体 |
Family Cites Families (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JPH1079882A (ja) | 1996-09-02 | 1998-03-24 | Canon Inc | 画像入力装置 |
JP2001208961A (ja) | 2000-01-26 | 2001-08-03 | Nikon Corp | カメラ |
US7046290B2 (en) | 2000-01-26 | 2006-05-16 | Nikon Corporation | Multi-point auto-focus digital camera including electronic zoom |
JP4507392B2 (ja) * | 2000-11-15 | 2010-07-21 | 株式会社ニコン | 電子カメラ |
US20100265385A1 (en) * | 2009-04-18 | 2010-10-21 | Knight Timothy J | Light Field Camera Image, File and Configuration Data, and Methods of Using, Storing and Communicating Same |
JP2012002951A (ja) * | 2010-06-15 | 2012-01-05 | Ricoh Co Ltd | 撮像装置、合焦位置検出方法および合焦位置検出プログラム |
US9237263B2 (en) * | 2012-10-05 | 2016-01-12 | Vidinoti Sa | Annotation method and apparatus |
-
2013
- 2013-08-21 JP JP2013170912A patent/JP6245892B2/ja not_active Expired - Fee Related
-
2014
- 2014-08-12 US US14/457,495 patent/US9621797B2/en not_active Expired - Fee Related
-
2017
- 2017-02-28 US US15/444,676 patent/US10109036B2/en not_active Expired - Fee Related
Patent Citations (7)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2010114712A (ja) * | 2008-11-07 | 2010-05-20 | Fujifilm Corp | 複眼撮影装置およびその制御方法並びにプログラム |
JP2010166519A (ja) * | 2009-01-19 | 2010-07-29 | Sony Corp | 表示制御装置、表示制御方法及びプログラム |
JP2013512612A (ja) * | 2009-11-27 | 2013-04-11 | サムスン エレクトロニクス カンパニー リミテッド | 光フィールドデータを利用した映像処理装置及び方法 |
WO2012001947A1 (ja) * | 2010-06-28 | 2012-01-05 | 株式会社ニコン | 撮像装置、画像処理装置、画像処理プログラム記録媒体 |
JP2012253444A (ja) * | 2011-05-31 | 2012-12-20 | Canon Inc | 撮像装置、画像処理装置およびその方法 |
JP2013145980A (ja) * | 2012-01-13 | 2013-07-25 | Canon Inc | 撮像装置、その制御方法、画像処理装置、画像生成方法、プログラム |
JP2013153375A (ja) * | 2012-01-26 | 2013-08-08 | Sony Corp | 画像処理装置、画像処理方法および記録媒体 |
Also Published As
Publication number | Publication date |
---|---|
US20150054982A1 (en) | 2015-02-26 |
US20170169542A1 (en) | 2017-06-15 |
US10109036B2 (en) | 2018-10-23 |
JP6245892B2 (ja) | 2017-12-13 |
US9621797B2 (en) | 2017-04-11 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP7003238B2 (ja) | 画像処理方法、装置、及び、デバイス | |
US9521320B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
JP6245892B2 (ja) | 画像処理装置およびその制御方法、プログラム | |
JP6548367B2 (ja) | 画像処理装置、撮像装置、画像処理方法及びプログラム | |
JP6029380B2 (ja) | 画像処理装置、画像処理装置を具備する撮像装置、画像処理方法、及びプログラム | |
US7949252B1 (en) | Plenoptic camera with large depth of field | |
US9503633B2 (en) | Image processing apparatus, image capturing apparatus, image processing method, and storage medium | |
KR20190021138A (ko) | 이미지를 이용하여 획득된 깊이 정보의 속성에 따라 이미지와 연관하여 깊이 정보를 저장하는 전자 장치 및 전자 장치 제어 방법 | |
JP6202910B2 (ja) | 映像処理装置およびその制御方法、プログラム | |
US9992478B2 (en) | Image processing apparatus, image pickup apparatus, image processing method, and non-transitory computer-readable storage medium for synthesizing images | |
JP2013009274A (ja) | 画像処理装置および画像処理方法、プログラム | |
JP6234401B2 (ja) | 画像処理装置、撮像装置、画像処理方法、及びプログラム | |
JP5583242B2 (ja) | 画像処理装置およびその制御方法、並びにプログラム | |
JP2016039613A (ja) | 画像処理装置及びその制御方法、プログラム、記憶媒体 | |
JP2017060010A (ja) | 撮像装置、撮像装置の制御方法、およびプログラム | |
JP6012396B2 (ja) | 画像処理装置、画像処理方法およびプログラム。 | |
JP5743769B2 (ja) | 画像処理装置および画像処理方法 | |
JP2015198340A (ja) | 画像処理装置およびその制御方法、並びにプログラム | |
JP2015198336A (ja) | 画像処理装置およびその制御方法、並びにプログラム | |
JP6263024B2 (ja) | 画像処理装置、画像処理方法および、プログラム、並びに画像再生装置 | |
JP5744642B2 (ja) | 画像処理装置および画像処理方法、プログラム。 | |
JP6120535B2 (ja) | 情報処理装置、情報処理方法、及びプログラム | |
JP6377225B2 (ja) | 画像処理装置およびその制御方法、プログラム | |
JP2015056790A (ja) | 画像処理装置、画像処理方法およびプログラム | |
JP6584091B2 (ja) | 電子機器及び表示制御方法 |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20160809 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20160809 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20170720 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20170725 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20170915 |
|
TRDD | Decision of grant or rejection written | ||
A01 | Written decision to grant a patent or to grant a registration (utility model) |
Free format text: JAPANESE INTERMEDIATE CODE: A01 Effective date: 20171017 |
|
A61 | First payment of annual fees (during grant procedure) |
Free format text: JAPANESE INTERMEDIATE CODE: A61 Effective date: 20171114 |
|
R151 | Written notification of patent or utility model registration |
Ref document number: 6245892 Country of ref document: JP Free format text: JAPANESE INTERMEDIATE CODE: R151 |
|
LAPS | Cancellation because of no payment of annual fees |