JP2016072965A - Imaging apparatus - Google Patents
Imaging apparatus Download PDFInfo
- Publication number
- JP2016072965A JP2016072965A JP2015166935A JP2015166935A JP2016072965A JP 2016072965 A JP2016072965 A JP 2016072965A JP 2015166935 A JP2015166935 A JP 2015166935A JP 2015166935 A JP2015166935 A JP 2015166935A JP 2016072965 A JP2016072965 A JP 2016072965A
- Authority
- JP
- Japan
- Prior art keywords
- image
- depth
- field
- subject
- imaging apparatus
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Abstract
Description
本開示は、デジタルカメラや携帯電話などの撮像装置に関する。 The present disclosure relates to an imaging apparatus such as a digital camera or a mobile phone.
3次元シーンの奥行き、即ち各被写体までの距離を非接触で計測するための様々な方法が提案されている。その方法は、能動的手法と受動的手法とに大別される。能動的手法では、赤外線、超音波、又はレーザーなどを照射し、反射波が戻ってくるまでの時間、又は、反射波の角度などをもとに距離を算出する。受動的手法では、被写体の像に基づいて距離を算出する。特にカメラでは、赤外線などを照射するための装置を必要としない受動的手法が広く用いられている。 Various methods have been proposed for measuring the depth of a three-dimensional scene, that is, the distance to each subject without contact. The method is roughly classified into an active method and a passive method. In the active method, infrared rays, ultrasonic waves, lasers, or the like are irradiated, and the distance is calculated based on the time until the reflected wave returns or the angle of the reflected wave. In the passive method, the distance is calculated based on the image of the subject. In particular, in cameras, a passive method that does not require a device for irradiating infrared rays or the like is widely used.
受動的手法の一つとして、DFD(Depth from Defocus)方式(以降、DFDともいう)が開示されている。DFDは、被写体距離によって大きさや形状が変化するボケの情報に基づいて距離を計測する。DFDは、複数のカメラを必要としないこと、少数の画像から距離計測が可能であること、などの特徴がある。DFDを用いて被写体までの距離を計測する処理を、DFD処理という。 As one of passive methods, a DFD (Depth from Defocus) method (hereinafter also referred to as DFD) is disclosed. The DFD measures the distance based on blur information whose size and shape change depending on the subject distance. DFD has features such as not requiring a plurality of cameras and being able to measure distance from a small number of images. Processing for measuring the distance to the subject using DFD is called DFD processing.
以下、DFDの原理について簡単に説明する。DFDは、合焦位置の異なる複数枚の画像から、ボケの情報に基づいて距離を計測する方法である。ボケを含んだ撮影画像は、レンズによるボケのない状態を表す全焦点画像に、被写体距離の関数である点像分布関数を畳み込んだ画像となる。点像分布関数は被写体距離を変数とする関数であるので、DFDではボケ画像からボケを検出することによって、被写体距離を求めることができる。 Hereinafter, the principle of DFD will be briefly described. DFD is a method for measuring a distance based on blur information from a plurality of images having different in-focus positions. The photographed image including the blur is an image obtained by convolving a point spread function that is a function of the subject distance with the omnifocal image representing the state where there is no blur due to the lens. Since the point spread function is a function having the subject distance as a variable, the DFD can obtain the subject distance by detecting the blur from the blurred image.
このとき、全焦点画像と被写体距離とが未知数であるボケ画像1枚に対して、ボケ画像、全焦点画像、及び、被写体距離に関する式が1つ成立する。合焦位置の異なるボケ画像を新たに撮影することで、新たな式が得られるので、得られた複数の式を解くことで被写体距離を求める。式の獲得の方法、又は、その式を解く方法等に関しては、特許文献1をはじめとして、様々な方法が開示されている。 At this time, one equation regarding the blurred image, the omnifocal image, and the subject distance is established for one blurred image in which the omnifocal image and the subject distance are unknown. A new equation is obtained by newly taking a blurred image with a different in-focus position. Therefore, the subject distance is obtained by solving the obtained plurality of equations. Various methods, including Patent Document 1, have been disclosed with respect to a method for acquiring an expression or a method for solving the expression.
ライブビュー時には動画像の滑らかさを優先しているため、静止画撮影時とシャッタースピード、絞りが異なり、ライブビューで確認している画像と静止画像でボケ味など見え方が大きく変わっていた。また、レンズ交換のできない撮像装置においては、レンズの特性によっては大きなボケ味を表現することができず、画像の表現方法に限界があった。 The smoothness of moving images is prioritized during live view, so the shutter speed and aperture are different from those when shooting still images, and the appearance of blur and the like changes significantly between images checked in live view and still images. In addition, in an imaging apparatus in which lenses cannot be exchanged, a large blur cannot be expressed depending on the characteristics of the lens, and there is a limit to the method of expressing an image.
本開示は、ライブビュー画像と静止画像とで同じ被写界深度の画像を表示可能な撮像装置の提供、および使用者が任意の被写界深度を指定し、合焦領域とボケ領域を指定可能な撮像装置の提供を目的とする。 This disclosure provides an imaging device that can display an image with the same depth of field as a live view image and a still image, and a user specifies an arbitrary depth of field, and specifies an in-focus area and a blurred area. An object is to provide a possible imaging device.
本開示における撮像装置は、少なくとも1枚のレンズを含む光学系と、光学系により集光された被写体像を結像して第1画像データを生成する撮像素子と、被写体像に関する被写体距離を算出するとともに、第1画像データに対し、画像処理を行うことにより第2画像データを生成する画像処理部と、を備える。画像処理部は、算出された被写体距離に基づいて被写界深度を設定し、被写界深度を適用することによって画像処理を行う。 An imaging apparatus according to the present disclosure includes an optical system including at least one lens, an imaging element that forms a subject image condensed by the optical system to generate first image data, and calculates a subject distance related to the subject image And an image processing unit that generates second image data by performing image processing on the first image data. The image processing unit sets the depth of field based on the calculated subject distance, and performs image processing by applying the depth of field.
本開示によれば、ライブビュー画像と静止画像とで同じ被写界深度の画像を表示可能な撮像装置の提供、および使用者が任意の被写界深度を指定し、合焦領域とボケ領域を指定可能な撮像装置の提供が可能となる。 According to the present disclosure, it is possible to provide an imaging device capable of displaying an image with the same depth of field as a live view image and a still image, and a user can specify an arbitrary depth of field, and an in-focus area and a blur area. Can be provided.
以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。 Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.
なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。 The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.
〔1.実施の形態1〕
図1〜図5を用いて、実施の形態1について説明する。
[1. Embodiment 1]
The first embodiment will be described with reference to FIGS.
〔1−1.構成〕
本実施の形態における撮像装置100の電気的構成について説明する。図1は、本実施の形態における撮像装置100の構成を示す図である。撮像装置100は、光学系110と、CMOSイメージセンサ150(Complementary Metal Oxide Semiconductor イメージセンサ)と、映像処理部160と、メモリ170と、コントローラ180と、カードスロット190と、メモリカード200(記録部)と、操作部材210と、液晶モニタ230を備える。本実施の形態において撮像装置100は、デジタルカメラである。また、本実施の形態において、撮像装置100は、光学系110を着脱可能な、いわゆるレンズ交換式のデジタルカメラである。
[1-1. Constitution〕
An electrical configuration of the
光学系110は、絞り111と、フォーカスレンズ113と、レンズ情報保持部114と、絞り駆動部120と、フォーカスモータ140とを有する。
The
絞り111は、光学系110の破線で示す光軸上の光量を調整する部材である。絞り111は、AE(Auto Exposure)において、コントローラ180からの制御信号に基づき、絞り駆動部120によって駆動される。なお、絞り111は、調整機能がなくてもよく、固定絞りであってもよい。
The
フォーカスレンズ113は、光学系110の光軸に沿って移動することにより、被写体像のピントを調整するためのレンズである。フォーカスレンズ113は、フォーカスモータ140によって制御される。
The
レンズ情報保持部114は、光学系110に固有のレンズパラメータ情報を保持する。レンズパラメータ情報としては、F値や、レンズ駆動速度などが挙げられる。レンズ情報保持部114に保持されるレンズパラメータ情報は、BL(Body−Lens)通信によってコントローラ180に送られる。
The lens
フォーカスモータ140は、フォーカスレンズ113を駆動制御する。フォーカスモータ140は、パルスモータ、DCモータ、リニアモータ、又は、サーボモータなどで実現してもよいし、カム機構又はボールネジなどの機構を介してフォーカスレンズ113を駆動するようにしてもよい。
The
CMOSイメージセンサ150は、光学系110により形成された像を撮影して、画像信号を生成する。CMOSイメージセンサ150は、露光、転送、電子シャッタなどの動作を行う。CMOSイメージセンサ150は、撮像素子に相当する。
The
なお、CMOSイメージセンサ150の代わりに、CCD(Charge Coupled Device)イメージセンサを用いてもよい。
In place of the
映像処理部160は、CMOSイメージセンサ150で生成された画像信号に対して各種の処理を施す。映像処理部160は、画像信号に対して処理を施し、液晶モニタ230に表示するための画像データ(以下、ライブビュー画像と称す)を生成する。また、映像処理部160は、メモリカード200に格納するための記録画像データを生成する。さらに、映像処理部160は、画像信号に対してガンマ補正、ホワイトバランス補正、又は、傷補正などの映像処理を行う。映像処理部160は、後述する被写界深度の変更処理も行う。映像処理部160は、画像処理部に相当する。
The
映像処理部160は、DSP(Digital Signal Processor)又はマイコンなどで実現可能である。ライブビュー画像の解像度は、液晶モニタ230の画面解像度に設定してもよいし、JPEG(Joint Photographic Experts Group)規格に準拠した圧縮形式等により圧縮され形成される記録画像データの解像度に設定してもよい。
The
メモリ170は、映像処理部160及びコントローラ180のワークメモリとして機能する。メモリ170は、例えば、映像処理部160で処理された映像信号、若しくは、映像処理部160で処理される前のCMOSイメージセンサ150から入力される画像データを一時的に蓄積する。
The
また、メモリ170は、撮影時における光学系110及びCMOSイメージセンサ150の撮影条件を一時的に蓄積する。撮影条件とは、画角情報、ISO(International Organization for Standardization)感度、シャッタースピード、EV(Exposure Value)値、F値(絞り値)、レンズ間距離、撮影時刻、フォーカスレンズ113の光学系110における位置情報等である。
The
さらに、メモリ170は、光学系110を交換可能とした際に、複数の光学系110に共通して使用することができるボケ信号(以下、基本ボケ信号とよぶ)を、インデックス(ボケ信号インデックス)と対応付けて格納する。ここで、基本ボケ信号のそれぞれは、ボケ形状に対応している。また、基本ボケ信号は複数あり、複数の基本ボケ信号をまとめて、基本ボケセットという。
Furthermore, when the
また、メモリ170は、コントローラ180が取得した光学系110のレンズパラメータ情報を格納する。メモリ170は、例えば、DRAM(Dynamic Random Access Memory)、又は、強誘電体メモリなどで実現できる。
The
コントローラ180は、撮像装置100全体を制御する。コントローラ180は、半導体素子などで実現可能である。コントローラ180は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。コントローラ180は、マイコンなどで実現できる。
The
コントローラ180は、光学系110により像が形成された被写体について、距離に関する情報を算出するように制御する。具体的には、コントローラ180は、光学系110のレンズパラメータ情報を取得する。そして、コントローラ180は、メモリ170に格納される複数のボケ信号と、光学系110のレンズパラメータ情報と、CMOSイメージセンサ150で撮影されて得られる合焦位置の異なる複数の画像信号とに基づいて、映像処理部160が行うDFD処理を制御し、距離に関する情報を算出させる。合焦位置の異なる複数の画像信号は、フォーカスレンズ113を異なる位置に駆動させることにより取得することができる。距離に関する情報とは、例えば、撮像装置100から被写体までの距離である。言い換えれば、距離に関する情報とは、CMOSイメージセンサ150で撮影された被写体についての、撮像装置100から見た奥行き方向の距離である。距離の基準点は、任意に設定することができるが、例えば、光学系110に含まれるレンズのうち所定のレンズの位置に設定できる。以下では、距離に関する情報を、DFD距離情報、或いは被写体距離情報と称する。
The
なお、コントローラ180は、DFD処理の制御を行う前に、予め光学系110からレンズパラメータ情報を取得しておき、メモリ170に格納してもよいし、DFD処理を制御する際に、レンズパラメータ情報を光学系110から読み出す構成にしてもよい。また、コントローラ180は、光学系110のレンズパラメータ情報すべてをメモリ170に蓄積しておくように制御してもよい。この場合、操作部材210(操作部)を介して入力される使用者の操作により、メモリ170に蓄積するレンズパラメータ情報の一部を削除するようにしてもよい。また、コントローラ180は、メモリカード200からレンズパラメータ情報を読み出し、メモリ170に蓄積しておくように制御してもよい。
The
なお、レンズパラメータ情報は、これまでに装着された光学系110のレンズパラメータ情報を含んでもよいし、さらに、装着したことのないレンズのレンズパラメータ情報を含んでもよい。
The lens parameter information may include lens parameter information of the
コントローラ180は、被写体からの光をCMOSイメージセンサ150に導くための光学系110に固有のレンズパラメータ情報であって、複数の基本ボケ信号のうちの一部を特定する情報を含むレンズパラメータ情報を取得する。そして、コントローラ180は、メモリ170に保持されている複数の基本ボケ信号のうち、取得したレンズパラメータ情報により特定される複数の測距用ボケ信号に基づいて、CMOSイメージセンサ150により撮像された被写体についての距離に関する情報を算出するように制御する。
The
カードスロット190は、機械的及び電気的にメモリカード200と接続可能であり、メモリカード200に情報を書き込み、メモリカード200から情報を読み出す。カードスロット190は、メモリカード200を着脱可能である。
The
メモリカード200は、フラッシュメモリ又は強誘電体メモリなどを内部に含む記録媒体である。メモリカード200は、カードスロット190に着脱可能である。
The
操作部材210は、レリーズボタン(レリーズ操作部)を含む。レリーズボタンは、使用者の押圧操作を受け付ける。レリーズボタンを半押しした場合、コントローラ180を介してAF(Auto Focus)制御及び、AE(Automatic Exposure)制御を開始する。また、使用者がレリーズボタンを全押しした場合は、被写体の撮影を行う。
The
液晶モニタ230は、CMOSイメージセンサ150で生成した画像信号、又は、メモリカード200から読み出した画像信号を表示する表示デバイスである。また、液晶モニタ230は、撮像装置100の各種の設定情報を表示可能である。例えば、液晶モニタ230は、撮影時における撮影条件である、EV値、F値、シャッタースピード、又は、ISO感度等を表示可能である。液晶モニタ230は、表示部に相当する。なお、液晶モニタ230はタッチパネルとしての機能を備えており、使用者は、液晶モニタ230に表示された各種の設定情報を介して、撮像装置100を操作することが可能である。この場合、液晶モニタ230は操作部材210に含まれる。
The
〔1−2.ライブビュー表示時の動作〕
実施の形態1における撮像装置100の撮影動作を説明する。図2は、図1に示す撮像装置100のうち、撮影動作に関する構成を中心に取り出した図であり、映像処理部160とコントローラ180の構成を詳細に示している。
[1-2. Operation during live view display)
A shooting operation of the
図2において、映像処理部160は、DFD処理部161を含み、コントローラ180は、制御部182とAF処理部183を含む。
In FIG. 2, the
使用者が、撮像装置100の電源をオン(ON)にすると、撮像装置100は、光学系110によってCMOSイメージセンサ150に結像された被写体像を、映像処理部160、コントローラ180を介して液晶モニタ230に表示する。このとき、液晶モニタ230にリアルタイムで表示される被写体像であるライブビュー画像は、CMOSイメージセンサ150から得られる画像データを順次表示することで実現される動画像である。撮像装置100は、CMOSイメージセンサ150により得られた画像データを、所定の時間間隔であるフレームレート毎に更新して、ライブビュー画像として液晶モニタ230に表示する。以下では、ライブビュー画像として表示される動画像データの内の一枚を、1フレームと称する。また、本実施の形態に係る撮像装置100は、ライブビュー表示において1秒間に60フレームの画像を表示するものとする。即ち、本実施の形態における撮像装置100のライブビュー表示におけるフレームレートは1/60秒である。
When the user turns on the power of the
図3(a)は、撮像装置100と、撮像装置100に撮像される被写体との位置関係を示した図である。
FIG. 3A is a diagram illustrating a positional relationship between the
撮像装置100は0地点に位置し、撮像装置100の近く(near)に人物(被写体X)、遠く(far)に山(被写体Y)がある。
The
図3(b)は、図3(a)の撮像装置100で撮像される被写体に対し、DFD処理部161が生成した被写体距離情報を示す図である。DFD処理部161は、撮像装置100が撮像する各被写体の距離を算出し、その被写体距離情報を深度マップとして生成する。図3(b)では、被写体距離情報の一例として、撮像装置100に対して近くに存在する被写体Xに対しては右傾斜線が付与され、より遠くに存在する被写体Yに対しては左傾斜線が付与され、更に遠い被写体(背景)に対してはドットが付与される。なお、距離情報の表現の仕方はこれにかぎらず、色や数字、そのほかのパターンで表現してもよい。
FIG. 3B is a diagram illustrating subject distance information generated by the
撮像装置100は、上述したように、各被写体に対して被写体距離情報を取得することが可能である。また、撮像装置100は、取得した被写体距離情報をライブビュー表示において液晶モニタ230に表示することも可能である。
As described above, the
図4は、撮像装置100のライブビュー表示及び撮影画像の一例を示す図である。図4のAに示すライブビュー表示は、図3(a)の撮像装置100において、従来の方式でライブビュー画像を表示した液晶モニタ230の表示例である。この時の撮影条件として、シャッタースピード(SS)は1/60秒、F値は4.0としている。ライブビュー表示は動画像であるので、自然な動画像を得るためにシャッタースピードは遅めに設定している。ライブビュー表示においてシャッタースピードを速く設定すると、1フレームあたりの画像を取り込む時間が短くなるが、動画再生におけるフレームレートはシャッタースピードを変更しても変わらず、各フレーム間で被写体の動きなどが欠落してしまうためである。
FIG. 4 is a diagram illustrating an example of a live view display and a captured image of the
図4のBに示す撮影画像は、図3(a)の撮像装置100で静止画撮影をして得られた画像である。このときの撮影条件では、静止画の適正露光を行うためにはシャッタースピードは1/120秒、F値は2.8に設定され、図4のAに示すライブビュー表示の状態(SS:1/60秒、F値:4.0)とは変わってしまう。そのため、使用者は撮影後の画像(記録される画像)と同じ画像をライブビュー表示中にライブビュー画像として確認することできない。
The captured image shown in B of FIG. 4 is an image obtained by capturing a still image with the
ここで、ライブビュー表示において静止画撮影時の撮影条件でシャッタースピードを1/120秒に設定した場合、フレームレートが1/60なので、フレームレートの半分の時間で1フレームの画像を撮像することとなる。この結果、ライブビュー表示される動画像が各フレーム間で被写体の動きが欠落した不自然な動画像になってしまう。 Here, when the shutter speed is set to 1/120 seconds under the shooting conditions at the time of still image shooting in the live view display, the frame rate is 1/60, so that one frame image is taken in half the frame rate. It becomes. As a result, the moving image displayed in the live view becomes an unnatural moving image in which the movement of the subject is lost between the frames.
そこで、本開示に係る撮像装置100は、ライブビュー表示において、自然な動画像となるようなシャッタースピードを適用し、同時に、静止画撮影時(記録時)と同様の被写界深度をもったライブビュー画像を表示する。
Therefore, the
図4のCは、本実施の形態に係る撮像装置100において、ライブビュー表示時に液晶モニタ230に表示されるライブビュー画像を示している。図4のCに示すライブビュー表示においては、シャッタースピードは1/60秒、F値は4.0と、図4のAの場合と同じ値に設定されている。また、図4のCに示す液晶モニタ230に表示されるライブビュー画像は、図4のBに示す静止画撮影時の画像と同じ被写界深度(F値2.8に相当)を、画像処理によって実現している。すなわち、本実施の形態に係る撮像装置100は、ライブビュー表示において自然な動画像が得られるシャッタースピードを維持しつつ、静止画撮影時に得られる画像と同様の被写界深度を画像処理によって実現している。これにより、撮像装置100は、静止画撮影時に得られる被写界深度をライブビュー画像として表示することが可能となる。
FIG. 4C shows a live view image displayed on the liquid crystal monitor 230 during live view display in the
図5は、撮像装置100の静止画撮影時のフローチャートである。使用者が撮像装置100の電源をONにすると、撮像装置100は光学系110を備える交換レンズからレンズ情報を取得する(ステップS11)。
FIG. 5 is a flowchart when the
撮像装置100は、レンズ情報を取得した後、撮影モードに設定されているかどうかを監視する(ステップS12)。
After acquiring the lens information, the
撮像装置100は、撮影モードに設定されていると(ステップS12におけるYes)、使用者から被写界深度を変更する指示があるか否かを確認する(ステップS13)。被写界深度の変更指示がない場合(ステップS13におけるNo)、撮像装置100は、ステップS21において使用者によるレリーズ操作があるか否かを監視する。
If the
使用者による被写界深度の変更指示があれば(ステップS13におけるYes)、撮像装置100はDFD処理部161を用いてDFD距離情報を取得する(ステップS14)。すなわち、撮像装置100は、撮像される被写体に対して被写体距離情報を取得する。
If there is an instruction to change the depth of field by the user (Yes in step S13), the
撮像装置100は、DFD距離情報を取得すると、使用者によるレリーズ操作があるか否かを監視する(ステップS15)。
When acquiring the DFD distance information, the
使用者によるレリーズ操作があるまでは(ステップS15におけるNo)、撮像装置100は、液晶モニタ230にライブビュー(LV)画像を表示するため、ステップS16〜S19の処理を行う。ステップS16において、撮像装置100は、ライブビュー画像の各フレーム単位でAF/AE処理を実施する。
Until there is a release operation by the user (No in step S15), the
撮像装置100は、被写体距離情報と、AF/AE処理の結果に基づいて、静止画撮影時(記録時)のシャッタースピード及びF値を算出する(ステップS17)。
The
撮像装置100は、算出されたF値と、被写体距離情報に応じてライブビュー画像を加工し(ステップS18)、液晶モニタ230表示する(ステップS19)。具体的には、撮像装置100は、ステップS14にてDFD処理部161によって得られた被写体距離情報から、図3(b)に示す深度マップを生成し、その後、算出されたF値から被写界深度を計算する。撮像装置100は、計算された被写界深度の範囲内に存在しない被写体に対してぼかし処理(画像処理)を行い、静止画撮影時に得られる被写界深度(記録時被写界深度)を実現する。
The
使用者がレリーズ操作を行うと(ステップS15におけるYes、ステップS21におけるYes)、撮像装置100は、静止画撮影を開始する。ステップS22において、撮像装置100は被写体像に対してAF/AE処理を行う。
When the user performs a release operation (Yes in step S15, Yes in step S21), the
撮像装置100は、AF/AE処理の結果に応じて、静止画撮影に応じたシャッタースピードとF値を算出する(ステップS23)。
The
撮像装置100は、算出されたシャッタースピードとF値に基づいて、絞り111やCMOSイメージセンサ150、シャッター(不図示)などを制御し、静止画撮影を行う(ステップS24)。
The
撮像装置100は、撮影された静止画像をメモリカード200等の記録媒体に保存する(ステップS25)。
The
上述した撮影動作において、ライブビュー表示に適用されるF値は、ステップS22において静止画撮影時に適用されるF値より大きな値となるように設定されることが好ましい。即ち、ライブビュー表示時に適用される被写界深度は、静止画撮影時に適用される被写界深度より深いことが好ましい。これは、撮像装置100は、画像に対してぼかし処理を行うことは可能であるが、すでにぼけている画像を鮮明にすることは困難なためである。
In the shooting operation described above, the F value applied to the live view display is preferably set to be larger than the F value applied at the time of still image shooting in step S22. That is, it is preferable that the depth of field applied during live view display is deeper than the depth of field applied during still image shooting. This is because the
また、撮像装置100は、ライブビュー画像に対してぼかし処理を行う際に、特定のLPF(Low Pass Filter:高域遮断フィルタ)を用いてぼかし処理を行うようにしてもよい。または、撮像装置100は、取得した距離情報に従ってボケ具合が変わるように、LPFの遮断周波数を適宜変更して、ぼかし処理を行うようにしてもよい。または、撮像装置100は、取得したレンズ情報に従って、フーリエ変換を行うことでぼかし処理を行うようにしてもよい。
The
〔1−3.効果等〕
以上のように、本実施の形態における撮像装置100は、ライブビュー表示において、被写界深度と被写体距離情報を算出し、静止画撮影時と同様の被写界深度を画像処理によって実現することができる。これにより、使用者は、ライブビュー表示時において、静止画撮影時に得られる画像を確認することが可能となり、利便性が向上する。
[1-3. Effect etc.)
As described above, the
なお、本実施の形態では静止画撮影時の動作として説明したが、本開示はこれに限定されるものではない。例えば、動画撮影時に、使用者の操作により、ライブビュー画像と撮影する動画像とで同じ被写界深度を得る場合にも、本開示は適用可能である。 Note that although the present embodiment has been described as an operation during still image shooting, the present disclosure is not limited to this. For example, the present disclosure can be applied to a case where the same depth of field is obtained for a live view image and a moving image to be captured by a user operation during moving image shooting.
〔2.実施の形態2〕
実施の形態2では、撮像装置100により撮影された静止画像に対してぼかし処理を行う例について説明する。撮像装置100の構成は、実施の形態1で説明した図1、図2と同じ構成であるとして、詳細な説明を省略する。以下、図6及び図7を用いて、実施の形態2の静止画撮影動作について説明する。
[2. Second Embodiment]
In the second embodiment, an example in which blur processing is performed on a still image captured by the
〔2−1.静止画記録時の動作〕
本実施の形態に係る撮像装置100は、撮影される静止画像に対して任意の被写界深度を適用することが可能である。
[2-1. Operation when recording still images)
図6(a)は、撮像装置100と、撮像装置100に撮像される被写体との位置関係を示した図である。撮像装置100は0地点に位置し、撮像装置100から近い順に被写体P、被写体Q、被写体Rがある。ここで、被写界深度Aは光学系110により決まる被写界深度を示し、被写界深度Bは使用者が指定する被写界深度を示している。
FIG. 6A is a diagram illustrating a positional relationship between the
図6(b)は、図6(a)の状態にある撮像装置100で撮影される静止画像の一例を示す図である。図6(b)は、被写界深度Aが適用されて撮影された静止画像を示す。従って、図6(b)では、被写体P及び被写体Qに対して合焦しており、被写体Rはぼけて表示される。
FIG. 6B is a diagram illustrating an example of a still image captured by the
図6(c)は、図6(a)の状態にある撮像装置100で撮影される静止画像の一例を示す図である。図6(c)は、被写界深度Bが適用されて撮影された静止画像を示す。従って、図6(c)では、被写体Pに対して合焦しており、被写体Q及び被写体Rはぼけて表示される。
FIG. 6C is a diagram illustrating an example of a still image captured by the
本実施の形態に係る撮像装置100は、図6(a)〜(c)で示すように、撮影される静止画像に対して任意の被写界深度を適用することが可能である。撮像装置100は、撮影条件等に基づいて被写界深度Aを算出する。一方、使用者は、被写体像に対して任意の被写界深度Bを指定する。撮像装置100は、算出された被写界深度Aに依らず、使用者が指定した任意の被写界深度Bを適用した静止画像を画像処理によって実現することができる。
As shown in FIGS. 6A to 6C, the
図7は、実施の形態2に係る撮像装置100の静止画撮影時のフローチャートである。使用者が撮像装置100の電源をONにすると、撮像装置100は光学系110を備える交換レンズからレンズ情報を取得する(ステップS31)。
FIG. 7 is a flowchart at the time of still image shooting of the
撮像装置100は、レンズ情報を取得した後、撮影モードに設定されているかどうかを監視する(ステップS32)。
After acquiring the lens information, the
撮像装置100が撮影モードに設定されていると(ステップS32におけるYes)、使用者から被写界深度を変更する指示があるか否かを確認する(ステップS33)。ステップS33において、使用者は、操作部材210を介して、被写界深度の変更指示として、所望の被写界深度Bを入力することができる。被写界深度の変更指示がない場合(ステップS33におけるNo)、撮像装置100は、実施の形態1と同様に、図5に示すステップS21〜S25の処理を行う。
When the
使用者による被写界深度の変更指示があれば(ステップS33におけるYes)、撮像装置100はDFD処理部161を用いてDFD距離情報を取得する(ステップS34)。すなわち、撮像装置100は、撮像される被写体に対して被写体距離情報を取得する。
If there is an instruction to change the depth of field by the user (Yes in step S33), the
撮像装置100は、DFD距離情報を取得すると、使用者によるレリーズ操作があるか否かを監視する(ステップS35)。
When acquiring the DFD distance information, the
使用者によるレリーズ操作があるまでは(ステップS35におけるNo)、撮像装置100は、液晶モニタ230にライブビュー画像を表示するため、ステップS36〜S38の処理を行う。ステップS36において、撮像装置100は、ライブビュー画像の各フレーム単位でAF/AE処理を実施する。
Until there is a release operation by the user (No in step S35), the
撮像装置100は、被写体距離情報と、AF/AE処理の結果に基づいて、使用者によって入力された被写界深度Bに応じてライブビュー画像を加工し(ステップS37)、表示する(ステップS38)。具体的には、撮像装置100は、DFD処理部161によって得られた被写体距離情報、深度マップから、使用者により入力された被写界深度Bに収まる被写体を算出し、被写界深度Bの範囲内に存在しない被写体に対してぼかし処理を行い、ライブビュー画像に反映する。例えば、図6(a)〜(c)に示すように、使用者により被写界深度Bが入力されている場合、被写界深度Bの範囲内に存在しない被写体Q、Rに対してぼかし処理が行われる。
The
使用者がレリーズ操作を行うと(ステップS35におけるYes)、撮像装置100は、静止画撮影を開始する。ステップS40において、撮像装置100は被写体像に対してAF/AE処理を行う。
When the user performs a release operation (Yes in step S35), the
撮像装置100は、AF/AE処理の結果に応じて、F値を算出する(ステップS41)。このとき、ステップS33において被写界深度の変更指示及び所望の被写界深度Bの入力がされているので、撮像装置100は入力された被写界深度Bより深い被写界深度AのF値となるように設定する。これは、撮像装置100は、画像に対してぼかし処理を行うことは可能であるが、すでにぼけている画像を鮮明にすることは困難なためである。
The
撮像装置100は、ステップS41において得られたF値に基づいて、適正露光となるようにシャッタースピードを算出する(ステップS42)。
The
ステップS40〜S42の処理を経て、撮影条件が決定されると、撮像装置100は静止画像の撮影を行う(ステップS43)。
When the shooting conditions are determined through the processes in steps S40 to S42, the
静止画像の撮影の後、撮像装置100は、撮像された静止画像に対して、使用者によって入力された被写界深度Bとなるように、静止画像に対してぼかし処理を行う(ステップS44)。
After the still image is captured, the
撮像装置100は、撮影された静止画像をメモリカード200等の記録媒体に保存する(ステップS45)。
The
次に、ステップS33における、使用者による被写界深度Bの入力について説明する。図8は、撮像装置100において、使用者が被写界深度Bを入力する際の表示例である。
Next, input of the depth of field B by the user in step S33 will be described. FIG. 8 is a display example when the user inputs the depth of field B in the
使用者が被写界深度の変更を撮像装置100に指示すると、撮像装置100は、被写界深度の変更指示を受け付けるため、図8(a)に示すライブビュー画像を表示する。使用者は、図8(a)に示すライブビュー画像から、所望の被写体(例えば、被写体P)を選択する。撮像装置100は、被写体Pが選択されると、DFD処理により得られた被写体距離情報に基づいて、被写体Pを含む被写界深度Bを算出する。そして、上述のとおり、撮像装置100は、被写界深度Bに応じてライブビュー画像を加工する(図7のステップS37)。その後、使用者によるレリーズ操作が行われると、撮像装置100は、被写界深度Bよりも深い被写界深度AとなるF値で静止画像を撮影する(図7のステップS43)。そして、撮像装置100は、図8(b)に示すように、被写界深度Bを実現するように、被写界深度Bの範囲に含まれない被写体(例えば、被写体Q、R)に対してぼかし処理を行う。
When the user instructs the
〔2−2.効果等〕
以上により、本実施の形態の撮像装置100の静止画撮影動作において、使用者が任意の被写界深度Bを指定し、合焦領域とボケ領域を指定可能とすることで、任意の被写界深度の画像を撮影することができる。
[2-2. Effect etc.)
As described above, in the still image shooting operation of the
なお、本実施の形態では、静止画撮影時の動作として説明したが、本開示はこれに限定されるものではない。例えば、動画撮影時に、使用者の操作によりライブビュー画像と動画像とで同じ被写界深度を得る場合にも、本開示は有効である。 Note that although the present embodiment has been described as an operation during still image shooting, the present disclosure is not limited to this. For example, the present disclosure is also effective when the same depth of field is obtained for a live view image and a moving image by a user operation during moving image shooting.
本実施の形態では、撮像装置100は、ライブビュー画像の表示画面で、使用者が特定の被写体を指定することで、その指定した被写体以外の被写体に対してぼかし処理を行う例を説明しているが、本開示はこれに限定されるものではない。例えば、使用者が被写界深度Bを直接入力してもよい。また、撮像装置100は、ライブビュー画像の表示画面で、使用者が少なくとも2点を指定することで、その画像位置の被写体に対応する被写体距離情報から最短、最長位置を求め、それを被写界深度の情報に変換してもよい。
In the present embodiment, an example will be described in which the
また、撮像装置100は、使用者によって入力された特定のレンズ情報に基づいて被写界深度を算出してもよい。このように構成することで、撮像装置100は、現在装着している交換レンズとは異なる光学性能を有する交換レンズを用いて撮影した際に得られる画像を画像処理により実現することができる。
Further, the
また、本実施の形態では、ライブビュー画像に写っている被写体に対して、使用者が所望の被写体を選択し、撮像装置100は当該被写体に合焦するように被写界深度を設定するものとしたが、本開示はこれに限定されるものではない。使用者が予め登録しておいた車や動物、人物等の被写体(オブジェクト)が、ライブビュー画像に含まれるか否かをオブジェクト認識部により撮像装置100が認識し、当該被写体が含まれている場合、その被写体が合焦範囲に入るように被写界深度を設定するようにしても構わない。被写体の登録には、物体認証、顔認証や個人認証等の従来の技術を用いることが可能である。
In the present embodiment, the user selects a desired subject for the subject in the live view image, and the
〔3.他の実施の形態〕
以上のように、本開示の技術の例示として、実施の形態1、2を説明した。しかしながら、本開示は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、実施の形態1、2で説明した各構成を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
[3. Other Embodiments]
As described above, Embodiments 1 and 2 have been described as examples of the technology of the present disclosure. However, the present disclosure is not limited to this, and can also be applied to embodiments in which changes, replacements, additions, omissions, and the like are made. In addition, it is possible to combine the configurations described in Embodiments 1 and 2 into a new embodiment. Therefore, other embodiments will be exemplified below.
実施の形態1、2では、撮像装置は光学系を着脱可能な、レンズ交換式のデジタルカメラであるとして説明したが、本開示はこれに限定されるものではない。例えば、光学系が撮像装置と一体となっているものとしても構わないし、光学系、CMOSイメージセンサ、映像処理部が一体となっているユニット交換式としても構わない。 In the first and second embodiments, the imaging apparatus has been described as an interchangeable lens digital camera to which an optical system can be attached / detached, but the present disclosure is not limited thereto. For example, the optical system may be integrated with the imaging device, or a unit exchange type in which the optical system, the CMOS image sensor, and the video processing unit are integrated.
また、実施の形態1、2では、被写体の距離情報算出の方法としてDFD方式を用いて説明したが、本開示はこれに限定されるものではない。レーザーなどを照射し、反射波が戻ってくるまでの時間、又は、反射波の角度などをもとに距離を算出するような能動的手法を用いてもよいし、像面位相差イメージセンサや位相差センサによって被写体までの距離情報を算出するような受動的手法を用いてもよい。 In the first and second embodiments, the DFD method has been described as the method for calculating the distance information of the subject, but the present disclosure is not limited to this. An active method such as calculating the distance based on the time until the reflected wave returns by irradiating a laser or the angle of the reflected wave, an image plane phase difference image sensor, A passive method of calculating distance information to the subject using a phase difference sensor may be used.
また、実施の形態1,2では、メモリカードは着脱可能として説明したが、本開示はこれに限定されるものではない。メモリカードが着脱不可の撮像装置で構成してもよい。 In the first and second embodiments, the memory card is described as being removable, but the present disclosure is not limited to this. You may comprise with the imaging device which a memory card cannot attach or detach.
さらに、実施の形態1、2では、撮像装置としてデジタルカメラを用いて説明したが、本開示はこれに限定されるものではない。本開示は、測距及び合焦動作が必要な、電子望遠鏡や電子顕微鏡などにも適用可能である。 Furthermore, although Embodiment 1 and 2 demonstrated using a digital camera as an imaging device, this indication is not limited to this. The present disclosure can also be applied to an electronic telescope, an electron microscope, and the like that require ranging and focusing operations.
本開示は、デジタルカメラや携帯電話などの撮像装置、電子顕微鏡、電子望遠鏡などに適用可能である。 The present disclosure can be applied to an imaging device such as a digital camera or a mobile phone, an electron microscope, an electronic telescope, and the like.
100 撮像装置
110 光学系
111 絞り
113 フォーカスレンズ
114 レンズ情報保持部
120 絞り駆動部
140 フォーカスモータ
150 CMOSイメージセンサ
160 映像処理部
161 DFD処理部
170 メモリ
180 コントローラ
182 制御部
183 AF処理部
190 カードスロット
200 メモリカード
210 操作部材
230 液晶モニタ
DESCRIPTION OF
Claims (8)
前記光学系により集光された被写体像を結像して第1画像データを生成する撮像素子と、
前記被写体像に関する被写体距離を算出するとともに、前記第1画像データに対し、画像処理を行うことにより第2画像データを生成する画像処理部と、
を備え、
前記画像処理部は、算出された前記被写体距離に基づいて被写界深度を設定し、前記被写界深度を適用することによって前記画像処理を行う、撮像装置。 An optical system including at least one lens;
An imaging device that forms a subject image focused by the optical system to generate first image data;
An image processing unit that calculates a subject distance related to the subject image and generates second image data by performing image processing on the first image data;
With
The imaging apparatus, wherein the image processing unit sets the depth of field based on the calculated subject distance, and performs the image processing by applying the depth of field.
被写体像をリアルタイムで表示するライブビュー画像を表示可能な表示部と、を更に備え、
前記画像処理部は、
前記被写界深度として、前記レリーズ操作部が使用者による記録指示を受け付けた際に適用される記録時被写界深度を設定し、
前記表示部は、
前記ライブビュー画像として前記記録時被写界深度が適用された前記第2画像データを表示する、
請求項1に記載の撮像装置。 A release operation unit for receiving a recording instruction by a user;
A display unit capable of displaying a live view image for displaying a subject image in real time;
The image processing unit
As the depth of field, set the depth of field at the time of recording applied when the release operation unit receives a recording instruction by the user,
The display unit
Displaying the second image data to which the recording depth of field is applied as the live view image;
The imaging device according to claim 1.
前記画像処理部は、前記フォーカスレンズを駆動して得られた、合焦状態の異なる複数の画像データのボケ量から被写体距離を算出する、
請求項1に記載の撮像装置。 The optical system includes a focus lens;
The image processing unit calculates a subject distance from a blur amount of a plurality of pieces of image data having different in-focus states obtained by driving the focus lens;
The imaging device according to claim 1.
前記第2画像データは、前記記録部に記録される、
請求項1に記載の撮像装置。 A recording unit for recording the captured image;
The second image data is recorded in the recording unit.
The imaging device according to claim 1.
前記被写界深度は、前記操作部により入力された情報に基づいて設定される、
請求項1に記載の撮像装置。 It further includes an operation unit that receives an operation by the user,
The depth of field is set based on information input by the operation unit.
The imaging device according to claim 1.
請求項5に記載の撮像装置。 The image processing unit calculates a subject distance for at least two points designated by the user via the operation unit, and includes the shortest position and the longest position among the at least two subject distances. Set the depth of field,
The imaging device according to claim 5.
請求項5に記載の撮像装置。 The image processing unit sets the depth of field based on specific lens information input by a user via the operation unit;
The imaging device according to claim 5.
請求項5に記載の撮像装置。 The image processing unit further includes an object recognizing unit that determines whether an object designated by the user via the operation unit is reflected in the first image data, and the recognized object enters the in-focus range. Set the depth of field as
The imaging device according to claim 5.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
US14/860,709 US9635242B2 (en) | 2014-09-29 | 2015-09-22 | Imaging apparatus |
Applications Claiming Priority (2)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014197712 | 2014-09-29 | ||
JP2014197712 | 2014-09-29 |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016072965A true JP2016072965A (en) | 2016-05-09 |
Family
ID=55865122
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2015166935A Pending JP2016072965A (en) | 2014-09-29 | 2015-08-26 | Imaging apparatus |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2016072965A (en) |
Cited By (17)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2019507928A (en) * | 2016-06-12 | 2019-03-22 | アップル インコーポレイテッドApple Inc. | User interface for camera effects |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
US10528243B2 (en) | 2017-06-04 | 2020-01-07 | Apple Inc. | User interface camera effects |
US10616490B2 (en) | 2015-04-23 | 2020-04-07 | Apple Inc. | Digital viewfinder user interface for multiple cameras |
US10645294B1 (en) | 2019-05-06 | 2020-05-05 | Apple Inc. | User interfaces for capturing and managing visual media |
US11054973B1 (en) | 2020-06-01 | 2021-07-06 | Apple Inc. | User interfaces for managing media |
US11073973B2 (en) | 2017-04-26 | 2021-07-27 | Samsung Electronics Co., Ltd. | Electronic device and method for electronic device displaying image |
US11112964B2 (en) | 2018-02-09 | 2021-09-07 | Apple Inc. | Media capture lock affordance for graphical user interface |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11212449B1 (en) | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
US11350026B1 (en) | 2021-04-30 | 2022-05-31 | Apple Inc. | User interfaces for altering visual media |
US11468625B2 (en) | 2018-09-11 | 2022-10-11 | Apple Inc. | User interfaces for simulated depth effects |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007066578A1 (en) * | 2005-12-06 | 2007-06-14 | Matsushita Electric Industrial Co., Ltd. | Digital camera |
JP2008270896A (en) * | 2007-04-16 | 2008-11-06 | Casio Comput Co Ltd | Imaging device and program thereof |
JP2010145693A (en) * | 2008-12-18 | 2010-07-01 | Sanyo Electric Co Ltd | Image display device and imaging device |
JP2011114816A (en) * | 2009-11-30 | 2011-06-09 | Nikon Corp | Imaging apparatus, and program |
JP2012142729A (en) * | 2010-12-28 | 2012-07-26 | Nikon Corp | Camera |
US20120307009A1 (en) * | 2011-05-31 | 2012-12-06 | Altek Corporation | Method and apparatus for generating image with shallow depth of field |
JP2013117848A (en) * | 2011-12-02 | 2013-06-13 | Canon Inc | Image processing apparatus and image processing method |
JP2013239119A (en) * | 2012-05-17 | 2013-11-28 | Canon Inc | Image processing device, image processing method, image processing program and imaging device |
JP2014145725A (en) * | 2013-01-30 | 2014-08-14 | Canon Inc | Image processing apparatus and imaging device |
WO2014129127A1 (en) * | 2013-02-21 | 2014-08-28 | Necカシオモバイルコミュニケーションズ株式会社 | Image processing device, image processing method and permanent computer-readable medium |
-
2015
- 2015-08-26 JP JP2015166935A patent/JP2016072965A/en active Pending
Patent Citations (10)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2007066578A1 (en) * | 2005-12-06 | 2007-06-14 | Matsushita Electric Industrial Co., Ltd. | Digital camera |
JP2008270896A (en) * | 2007-04-16 | 2008-11-06 | Casio Comput Co Ltd | Imaging device and program thereof |
JP2010145693A (en) * | 2008-12-18 | 2010-07-01 | Sanyo Electric Co Ltd | Image display device and imaging device |
JP2011114816A (en) * | 2009-11-30 | 2011-06-09 | Nikon Corp | Imaging apparatus, and program |
JP2012142729A (en) * | 2010-12-28 | 2012-07-26 | Nikon Corp | Camera |
US20120307009A1 (en) * | 2011-05-31 | 2012-12-06 | Altek Corporation | Method and apparatus for generating image with shallow depth of field |
JP2013117848A (en) * | 2011-12-02 | 2013-06-13 | Canon Inc | Image processing apparatus and image processing method |
JP2013239119A (en) * | 2012-05-17 | 2013-11-28 | Canon Inc | Image processing device, image processing method, image processing program and imaging device |
JP2014145725A (en) * | 2013-01-30 | 2014-08-14 | Canon Inc | Image processing apparatus and imaging device |
WO2014129127A1 (en) * | 2013-02-21 | 2014-08-28 | Necカシオモバイルコミュニケーションズ株式会社 | Image processing device, image processing method and permanent computer-readable medium |
Cited By (45)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
US10616490B2 (en) | 2015-04-23 | 2020-04-07 | Apple Inc. | Digital viewfinder user interface for multiple cameras |
US11102414B2 (en) | 2015-04-23 | 2021-08-24 | Apple Inc. | Digital viewfinder user interface for multiple cameras |
US11711614B2 (en) | 2015-04-23 | 2023-07-25 | Apple Inc. | Digital viewfinder user interface for multiple cameras |
JP2019507928A (en) * | 2016-06-12 | 2019-03-22 | アップル インコーポレイテッドApple Inc. | User interface for camera effects |
JP2019075810A (en) * | 2016-06-12 | 2019-05-16 | アップル インコーポレイテッドApple Inc. | User interface for camera effects |
US10602053B2 (en) | 2016-06-12 | 2020-03-24 | Apple Inc. | User interface for camera effects |
US11165949B2 (en) | 2016-06-12 | 2021-11-02 | Apple Inc. | User interface for capturing photos with different camera magnifications |
US11245837B2 (en) | 2016-06-12 | 2022-02-08 | Apple Inc. | User interface for camera effects |
US11641517B2 (en) | 2016-06-12 | 2023-05-02 | Apple Inc. | User interface for camera effects |
US11962889B2 (en) | 2016-06-12 | 2024-04-16 | Apple Inc. | User interface for camera effects |
US11604574B2 (en) | 2017-04-26 | 2023-03-14 | Samsung Electronics Co., Ltd. | Electronic device and method for electronic device displaying image |
US11073973B2 (en) | 2017-04-26 | 2021-07-27 | Samsung Electronics Co., Ltd. | Electronic device and method for electronic device displaying image |
US11204692B2 (en) | 2017-06-04 | 2021-12-21 | Apple Inc. | User interface camera effects |
US10528243B2 (en) | 2017-06-04 | 2020-01-07 | Apple Inc. | User interface camera effects |
US11687224B2 (en) | 2017-06-04 | 2023-06-27 | Apple Inc. | User interface camera effects |
US11977731B2 (en) | 2018-02-09 | 2024-05-07 | Apple Inc. | Media capture lock affordance for graphical user interface |
US11112964B2 (en) | 2018-02-09 | 2021-09-07 | Apple Inc. | Media capture lock affordance for graphical user interface |
US11722764B2 (en) | 2018-05-07 | 2023-08-08 | Apple Inc. | Creative camera |
US10375313B1 (en) | 2018-05-07 | 2019-08-06 | Apple Inc. | Creative camera |
US10523879B2 (en) | 2018-05-07 | 2019-12-31 | Apple Inc. | Creative camera |
US11178335B2 (en) | 2018-05-07 | 2021-11-16 | Apple Inc. | Creative camera |
US11468625B2 (en) | 2018-09-11 | 2022-10-11 | Apple Inc. | User interfaces for simulated depth effects |
US11128792B2 (en) | 2018-09-28 | 2021-09-21 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11895391B2 (en) | 2018-09-28 | 2024-02-06 | Apple Inc. | Capturing and displaying images with multiple focal planes |
US11669985B2 (en) | 2018-09-28 | 2023-06-06 | Apple Inc. | Displaying and editing images with depth information |
US11321857B2 (en) | 2018-09-28 | 2022-05-03 | Apple Inc. | Displaying and editing images with depth information |
US10674072B1 (en) | 2019-05-06 | 2020-06-02 | Apple Inc. | User interfaces for capturing and managing visual media |
US11770601B2 (en) | 2019-05-06 | 2023-09-26 | Apple Inc. | User interfaces for capturing and managing visual media |
US11223771B2 (en) | 2019-05-06 | 2022-01-11 | Apple Inc. | User interfaces for capturing and managing visual media |
US10791273B1 (en) | 2019-05-06 | 2020-09-29 | Apple Inc. | User interfaces for capturing and managing visual media |
US10735643B1 (en) | 2019-05-06 | 2020-08-04 | Apple Inc. | User interfaces for capturing and managing visual media |
US11706521B2 (en) | 2019-05-06 | 2023-07-18 | Apple Inc. | User interfaces for capturing and managing visual media |
US10735642B1 (en) | 2019-05-06 | 2020-08-04 | Apple Inc. | User interfaces for capturing and managing visual media |
US10681282B1 (en) | 2019-05-06 | 2020-06-09 | Apple Inc. | User interfaces for capturing and managing visual media |
US10652470B1 (en) | 2019-05-06 | 2020-05-12 | Apple Inc. | User interfaces for capturing and managing visual media |
US10645294B1 (en) | 2019-05-06 | 2020-05-05 | Apple Inc. | User interfaces for capturing and managing visual media |
US11617022B2 (en) | 2020-06-01 | 2023-03-28 | Apple Inc. | User interfaces for managing media |
US11330184B2 (en) | 2020-06-01 | 2022-05-10 | Apple Inc. | User interfaces for managing media |
US11054973B1 (en) | 2020-06-01 | 2021-07-06 | Apple Inc. | User interfaces for managing media |
US11212449B1 (en) | 2020-09-25 | 2021-12-28 | Apple Inc. | User interfaces for media capture and management |
US11539876B2 (en) | 2021-04-30 | 2022-12-27 | Apple Inc. | User interfaces for altering visual media |
US11416134B1 (en) | 2021-04-30 | 2022-08-16 | Apple Inc. | User interfaces for altering visual media |
US11418699B1 (en) | 2021-04-30 | 2022-08-16 | Apple Inc. | User interfaces for altering visual media |
US11350026B1 (en) | 2021-04-30 | 2022-05-31 | Apple Inc. | User interfaces for altering visual media |
US11778339B2 (en) | 2021-04-30 | 2023-10-03 | Apple Inc. | User interfaces for altering visual media |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
JP2016072965A (en) | Imaging apparatus | |
CN108462830B (en) | Image pickup apparatus and control method of image pickup apparatus | |
US20120307102A1 (en) | Video creation device, video creation method and non-transitory computer-readable storage medium | |
KR20100039430A (en) | Image processor, image processing method, digital camera, and imaging apparatus | |
JP4533735B2 (en) | Stereo imaging device | |
US9635242B2 (en) | Imaging apparatus | |
JP4764712B2 (en) | Digital camera and control method thereof | |
JP5936358B2 (en) | Image display device, image display method, imaging device and control method thereof, program, and storage medium storing the same | |
JP6175748B2 (en) | Imaging device | |
JP6432038B2 (en) | Imaging device | |
JP2015230414A (en) | Imaging device, control method and program | |
JP2011217311A (en) | Imaging apparatus and method of controlling the same | |
US10917556B2 (en) | Imaging apparatus | |
JP2011217334A (en) | Imaging apparatus and method of controlling the same | |
JP2015175982A (en) | Image processor, image processing method, and program | |
JP2010114712A (en) | Compound-eye photographing apparatus and control method thereof, and program | |
JP4767904B2 (en) | Imaging apparatus and imaging method | |
JP2005070077A (en) | Digital camera | |
JP2009092961A (en) | Focusing position control device, focusing position control method, and focusing position control program | |
JP2004145022A (en) | Digital camera | |
JP2017009815A (en) | Focus detection device, focus detection method, and camera system | |
JP6223502B2 (en) | Image processing apparatus, image processing method, program, and storage medium storing the same | |
JP4905797B2 (en) | Imaging apparatus and imaging method | |
JP2014048393A (en) | Imaging device | |
JP6677336B2 (en) | Imaging device |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20160523 |
|
A621 | Written request for application examination |
Free format text: JAPANESE INTERMEDIATE CODE: A621 Effective date: 20171110 |
|
A977 | Report on retrieval |
Free format text: JAPANESE INTERMEDIATE CODE: A971007 Effective date: 20180724 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20180905 |
|
A521 | Request for written amendment filed |
Free format text: JAPANESE INTERMEDIATE CODE: A523 Effective date: 20181023 |
|
RD01 | Notification of change of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7421 Effective date: 20190116 |
|
A131 | Notification of reasons for refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A131 Effective date: 20190326 |
|
A02 | Decision of refusal |
Free format text: JAPANESE INTERMEDIATE CODE: A02 Effective date: 20191001 |