JP2016072965A - Imaging apparatus - Google Patents

Imaging apparatus Download PDF

Info

Publication number
JP2016072965A
JP2016072965A JP2015166935A JP2015166935A JP2016072965A JP 2016072965 A JP2016072965 A JP 2016072965A JP 2015166935 A JP2015166935 A JP 2015166935A JP 2015166935 A JP2015166935 A JP 2015166935A JP 2016072965 A JP2016072965 A JP 2016072965A
Authority
JP
Japan
Prior art keywords
image
depth
field
subject
imaging apparatus
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2015166935A
Other languages
Japanese (ja)
Inventor
荒川 賢治
Kenji Arakawa
賢治 荒川
基範 小倉
Motonori Ogura
基範 小倉
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Intellectual Property Management Co Ltd
Original Assignee
Panasonic Intellectual Property Management Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Intellectual Property Management Co Ltd filed Critical Panasonic Intellectual Property Management Co Ltd
Priority to US14/860,709 priority Critical patent/US9635242B2/en
Publication of JP2016072965A publication Critical patent/JP2016072965A/en
Pending legal-status Critical Current

Links

Images

Abstract

PROBLEM TO BE SOLVED: To provide an imaging apparatus capable of displaying an image of a depth of field identical to a still image to that of a live view image while allowing a user to specify a desired depth of field as well as to specify a focus area and a blur area.SOLUTION: The imaging apparatus includes: an optical system which includes at least one lens; an imaging element that generates a first image data by focusing a subject image focused by the optical system; and an image processing section that generates a second image data by calculating a subject distance relevant to a subject image and performing an image processing on the first image data. The image processing section performs the image processing by setting a depth of the field on the basis the calculated subject distance and applying the depth of field.SELECTED DRAWING: Figure 4

Description

本開示は、デジタルカメラや携帯電話などの撮像装置に関する。   The present disclosure relates to an imaging apparatus such as a digital camera or a mobile phone.

3次元シーンの奥行き、即ち各被写体までの距離を非接触で計測するための様々な方法が提案されている。その方法は、能動的手法と受動的手法とに大別される。能動的手法では、赤外線、超音波、又はレーザーなどを照射し、反射波が戻ってくるまでの時間、又は、反射波の角度などをもとに距離を算出する。受動的手法では、被写体の像に基づいて距離を算出する。特にカメラでは、赤外線などを照射するための装置を必要としない受動的手法が広く用いられている。   Various methods have been proposed for measuring the depth of a three-dimensional scene, that is, the distance to each subject without contact. The method is roughly classified into an active method and a passive method. In the active method, infrared rays, ultrasonic waves, lasers, or the like are irradiated, and the distance is calculated based on the time until the reflected wave returns or the angle of the reflected wave. In the passive method, the distance is calculated based on the image of the subject. In particular, in cameras, a passive method that does not require a device for irradiating infrared rays or the like is widely used.

受動的手法の一つとして、DFD(Depth from Defocus)方式(以降、DFDともいう)が開示されている。DFDは、被写体距離によって大きさや形状が変化するボケの情報に基づいて距離を計測する。DFDは、複数のカメラを必要としないこと、少数の画像から距離計測が可能であること、などの特徴がある。DFDを用いて被写体までの距離を計測する処理を、DFD処理という。   As one of passive methods, a DFD (Depth from Defocus) method (hereinafter also referred to as DFD) is disclosed. The DFD measures the distance based on blur information whose size and shape change depending on the subject distance. DFD has features such as not requiring a plurality of cameras and being able to measure distance from a small number of images. Processing for measuring the distance to the subject using DFD is called DFD processing.

以下、DFDの原理について簡単に説明する。DFDは、合焦位置の異なる複数枚の画像から、ボケの情報に基づいて距離を計測する方法である。ボケを含んだ撮影画像は、レンズによるボケのない状態を表す全焦点画像に、被写体距離の関数である点像分布関数を畳み込んだ画像となる。点像分布関数は被写体距離を変数とする関数であるので、DFDではボケ画像からボケを検出することによって、被写体距離を求めることができる。   Hereinafter, the principle of DFD will be briefly described. DFD is a method for measuring a distance based on blur information from a plurality of images having different in-focus positions. The photographed image including the blur is an image obtained by convolving a point spread function that is a function of the subject distance with the omnifocal image representing the state where there is no blur due to the lens. Since the point spread function is a function having the subject distance as a variable, the DFD can obtain the subject distance by detecting the blur from the blurred image.

このとき、全焦点画像と被写体距離とが未知数であるボケ画像1枚に対して、ボケ画像、全焦点画像、及び、被写体距離に関する式が1つ成立する。合焦位置の異なるボケ画像を新たに撮影することで、新たな式が得られるので、得られた複数の式を解くことで被写体距離を求める。式の獲得の方法、又は、その式を解く方法等に関しては、特許文献1をはじめとして、様々な方法が開示されている。   At this time, one equation regarding the blurred image, the omnifocal image, and the subject distance is established for one blurred image in which the omnifocal image and the subject distance are unknown. A new equation is obtained by newly taking a blurred image with a different in-focus position. Therefore, the subject distance is obtained by solving the obtained plurality of equations. Various methods, including Patent Document 1, have been disclosed with respect to a method for acquiring an expression or a method for solving the expression.

特許第2963990号公報Japanese Patent No. 2963990

ライブビュー時には動画像の滑らかさを優先しているため、静止画撮影時とシャッタースピード、絞りが異なり、ライブビューで確認している画像と静止画像でボケ味など見え方が大きく変わっていた。また、レンズ交換のできない撮像装置においては、レンズの特性によっては大きなボケ味を表現することができず、画像の表現方法に限界があった。   The smoothness of moving images is prioritized during live view, so the shutter speed and aperture are different from those when shooting still images, and the appearance of blur and the like changes significantly between images checked in live view and still images. In addition, in an imaging apparatus in which lenses cannot be exchanged, a large blur cannot be expressed depending on the characteristics of the lens, and there is a limit to the method of expressing an image.

本開示は、ライブビュー画像と静止画像とで同じ被写界深度の画像を表示可能な撮像装置の提供、および使用者が任意の被写界深度を指定し、合焦領域とボケ領域を指定可能な撮像装置の提供を目的とする。   This disclosure provides an imaging device that can display an image with the same depth of field as a live view image and a still image, and a user specifies an arbitrary depth of field, and specifies an in-focus area and a blurred area. An object is to provide a possible imaging device.

本開示における撮像装置は、少なくとも1枚のレンズを含む光学系と、光学系により集光された被写体像を結像して第1画像データを生成する撮像素子と、被写体像に関する被写体距離を算出するとともに、第1画像データに対し、画像処理を行うことにより第2画像データを生成する画像処理部と、を備える。画像処理部は、算出された被写体距離に基づいて被写界深度を設定し、被写界深度を適用することによって画像処理を行う。   An imaging apparatus according to the present disclosure includes an optical system including at least one lens, an imaging element that forms a subject image condensed by the optical system to generate first image data, and calculates a subject distance related to the subject image And an image processing unit that generates second image data by performing image processing on the first image data. The image processing unit sets the depth of field based on the calculated subject distance, and performs image processing by applying the depth of field.

本開示によれば、ライブビュー画像と静止画像とで同じ被写界深度の画像を表示可能な撮像装置の提供、および使用者が任意の被写界深度を指定し、合焦領域とボケ領域を指定可能な撮像装置の提供が可能となる。   According to the present disclosure, it is possible to provide an imaging device capable of displaying an image with the same depth of field as a live view image and a still image, and a user can specify an arbitrary depth of field, and an in-focus area and a blur area. Can be provided.

実施の形態1に係る撮像装置の電気的構成を示す図FIG. 3 is a diagram illustrating an electrical configuration of the imaging apparatus according to the first embodiment. 実施の形態1に係る撮像装置の要部構成を示す図FIG. 3 is a diagram illustrating a main configuration of the imaging apparatus according to the first embodiment. (a)実施の形態1に係る撮像装置と被写体との位置関係を示した図、(b)実施の形態1に係る撮像装置で撮像される被写体の被写体距離情報を示す図(A) The figure which showed the positional relationship of the imaging device which concerns on Embodiment 1, and a to-be-photographed object, (b) The figure which shows the object distance information of the to-be-photographed object by the imaging device which concerns on Embodiment 1. 実施の形態1に係る撮像装置のライブビュー表示及び撮影画像の一例を示す図FIG. 6 is a diagram illustrating an example of a live view display and a captured image of the imaging apparatus according to Embodiment 1. 実施の形態1に係る撮像装置の静止画撮影時のフローチャートFlowchart for Still Image Shooting of Imaging Device According to Embodiment 1 (a)実施の形態2に係る撮像装置と被写体との位置関係を示した図、(b)実施の形態2に係る撮像装置の第1の表示例を示す図、(c)実施の形態2に係る撮像装置の第2の表示例を示す図(A) The figure which showed the positional relationship of the imaging device which concerns on Embodiment 2, and a to-be-photographed object, (b) The figure which shows the 1st example of a display of the imaging device which concerns on Embodiment 2, (c) Embodiment 2 FIG. 5 is a diagram showing a second display example of the imaging apparatus according to 実施の形態2に係る撮像装置の静止画撮影時のフローチャートFlowchart at Still Image Shooting of Imaging Device According to Embodiment 2 実施の形態2に係る撮像装置における被写界深度変更の際の表示例を示す図The figure which shows the example of a display in the case of the depth-of-field change in the imaging device which concerns on Embodiment 2.

以下、適宜図面を参照しながら、実施の形態を詳細に説明する。但し、必要以上に詳細な説明は省略する場合がある。例えば、既によく知られた事項の詳細説明や実質的に同一の構成に対する重複説明を省略する場合がある。これは、以下の説明が不必要に冗長になるのを避け、当業者の理解を容易にするためである。   Hereinafter, embodiments will be described in detail with reference to the drawings as appropriate. However, more detailed description than necessary may be omitted. For example, detailed descriptions of already well-known matters and repeated descriptions for substantially the same configuration may be omitted. This is to avoid the following description from becoming unnecessarily redundant and to facilitate understanding by those skilled in the art.

なお、添付図面および以下の説明は、当業者が本開示を十分に理解するために、提供されるのであって、これらにより特許請求の範囲に記載の主題を限定することは意図されていない。   The accompanying drawings and the following description are provided to enable those skilled in the art to fully understand the present disclosure, and are not intended to limit the subject matter described in the claims.

〔1.実施の形態1〕
図1〜図5を用いて、実施の形態1について説明する。
[1. Embodiment 1]
The first embodiment will be described with reference to FIGS.

〔1−1.構成〕
本実施の形態における撮像装置100の電気的構成について説明する。図1は、本実施の形態における撮像装置100の構成を示す図である。撮像装置100は、光学系110と、CMOSイメージセンサ150(Complementary Metal Oxide Semiconductor イメージセンサ)と、映像処理部160と、メモリ170と、コントローラ180と、カードスロット190と、メモリカード200(記録部)と、操作部材210と、液晶モニタ230を備える。本実施の形態において撮像装置100は、デジタルカメラである。また、本実施の形態において、撮像装置100は、光学系110を着脱可能な、いわゆるレンズ交換式のデジタルカメラである。
[1-1. Constitution〕
An electrical configuration of the imaging apparatus 100 in the present embodiment will be described. FIG. 1 is a diagram illustrating a configuration of an imaging apparatus 100 according to the present embodiment. The imaging apparatus 100 includes an optical system 110, a CMOS image sensor 150 (Complementary Metal Oxide Semiconductor Image Sensor), a video processing unit 160, a memory 170, a controller 180, a card slot 190, and a memory card 200 (recording unit). And an operation member 210 and a liquid crystal monitor 230. In the present embodiment, imaging device 100 is a digital camera. In the present embodiment, the imaging device 100 is a so-called interchangeable lens digital camera to which the optical system 110 can be attached and detached.

光学系110は、絞り111と、フォーカスレンズ113と、レンズ情報保持部114と、絞り駆動部120と、フォーカスモータ140とを有する。   The optical system 110 includes a diaphragm 111, a focus lens 113, a lens information holding unit 114, a diaphragm driving unit 120, and a focus motor 140.

絞り111は、光学系110の破線で示す光軸上の光量を調整する部材である。絞り111は、AE(Auto Exposure)において、コントローラ180からの制御信号に基づき、絞り駆動部120によって駆動される。なお、絞り111は、調整機能がなくてもよく、固定絞りであってもよい。   The diaphragm 111 is a member that adjusts the amount of light on the optical axis indicated by the broken line of the optical system 110. The diaphragm 111 is driven by the diaphragm drive unit 120 based on a control signal from the controller 180 in AE (Auto Exposure). The diaphragm 111 may not have an adjustment function, and may be a fixed diaphragm.

フォーカスレンズ113は、光学系110の光軸に沿って移動することにより、被写体像のピントを調整するためのレンズである。フォーカスレンズ113は、フォーカスモータ140によって制御される。   The focus lens 113 is a lens for adjusting the focus of the subject image by moving along the optical axis of the optical system 110. The focus lens 113 is controlled by the focus motor 140.

レンズ情報保持部114は、光学系110に固有のレンズパラメータ情報を保持する。レンズパラメータ情報としては、F値や、レンズ駆動速度などが挙げられる。レンズ情報保持部114に保持されるレンズパラメータ情報は、BL(Body−Lens)通信によってコントローラ180に送られる。   The lens information holding unit 114 holds lens parameter information unique to the optical system 110. Examples of the lens parameter information include an F value and a lens driving speed. The lens parameter information held in the lens information holding unit 114 is sent to the controller 180 by BL (Body-Lens) communication.

フォーカスモータ140は、フォーカスレンズ113を駆動制御する。フォーカスモータ140は、パルスモータ、DCモータ、リニアモータ、又は、サーボモータなどで実現してもよいし、カム機構又はボールネジなどの機構を介してフォーカスレンズ113を駆動するようにしてもよい。   The focus motor 140 drives and controls the focus lens 113. The focus motor 140 may be realized by a pulse motor, a DC motor, a linear motor, a servo motor, or the like, or may drive the focus lens 113 via a mechanism such as a cam mechanism or a ball screw.

CMOSイメージセンサ150は、光学系110により形成された像を撮影して、画像信号を生成する。CMOSイメージセンサ150は、露光、転送、電子シャッタなどの動作を行う。CMOSイメージセンサ150は、撮像素子に相当する。   The CMOS image sensor 150 captures an image formed by the optical system 110 and generates an image signal. The CMOS image sensor 150 performs operations such as exposure, transfer, and electronic shutter. The CMOS image sensor 150 corresponds to an image sensor.

なお、CMOSイメージセンサ150の代わりに、CCD(Charge Coupled Device)イメージセンサを用いてもよい。   In place of the CMOS image sensor 150, a CCD (Charge Coupled Device) image sensor may be used.

映像処理部160は、CMOSイメージセンサ150で生成された画像信号に対して各種の処理を施す。映像処理部160は、画像信号に対して処理を施し、液晶モニタ230に表示するための画像データ(以下、ライブビュー画像と称す)を生成する。また、映像処理部160は、メモリカード200に格納するための記録画像データを生成する。さらに、映像処理部160は、画像信号に対してガンマ補正、ホワイトバランス補正、又は、傷補正などの映像処理を行う。映像処理部160は、後述する被写界深度の変更処理も行う。映像処理部160は、画像処理部に相当する。   The video processing unit 160 performs various processes on the image signal generated by the CMOS image sensor 150. The video processing unit 160 performs processing on the image signal and generates image data (hereinafter referred to as a live view image) to be displayed on the liquid crystal monitor 230. In addition, the video processing unit 160 generates recording image data to be stored in the memory card 200. Further, the video processing unit 160 performs video processing such as gamma correction, white balance correction, or flaw correction on the image signal. The video processing unit 160 also performs a depth-of-field changing process described later. The video processing unit 160 corresponds to an image processing unit.

映像処理部160は、DSP(Digital Signal Processor)又はマイコンなどで実現可能である。ライブビュー画像の解像度は、液晶モニタ230の画面解像度に設定してもよいし、JPEG(Joint Photographic Experts Group)規格に準拠した圧縮形式等により圧縮され形成される記録画像データの解像度に設定してもよい。   The video processing unit 160 can be realized by a DSP (Digital Signal Processor) or a microcomputer. The resolution of the live view image may be set to the screen resolution of the liquid crystal monitor 230, or set to the resolution of the recorded image data that is compressed by a compression format or the like conforming to the JPEG (Joint Photographic Experts Group) standard. Also good.

メモリ170は、映像処理部160及びコントローラ180のワークメモリとして機能する。メモリ170は、例えば、映像処理部160で処理された映像信号、若しくは、映像処理部160で処理される前のCMOSイメージセンサ150から入力される画像データを一時的に蓄積する。   The memory 170 functions as a work memory for the video processing unit 160 and the controller 180. The memory 170 temporarily stores, for example, a video signal processed by the video processing unit 160 or image data input from the CMOS image sensor 150 before being processed by the video processing unit 160.

また、メモリ170は、撮影時における光学系110及びCMOSイメージセンサ150の撮影条件を一時的に蓄積する。撮影条件とは、画角情報、ISO(International Organization for Standardization)感度、シャッタースピード、EV(Exposure Value)値、F値(絞り値)、レンズ間距離、撮影時刻、フォーカスレンズ113の光学系110における位置情報等である。   The memory 170 temporarily stores the shooting conditions of the optical system 110 and the CMOS image sensor 150 at the time of shooting. Shooting conditions include field angle information, ISO (International Organization for Standardization) sensitivity, shutter speed, EV (Exposure Value) value, F value (aperture value), inter-lens distance, shooting time, and focus lens 113 optical system 110. Position information and the like.

さらに、メモリ170は、光学系110を交換可能とした際に、複数の光学系110に共通して使用することができるボケ信号(以下、基本ボケ信号とよぶ)を、インデックス(ボケ信号インデックス)と対応付けて格納する。ここで、基本ボケ信号のそれぞれは、ボケ形状に対応している。また、基本ボケ信号は複数あり、複数の基本ボケ信号をまとめて、基本ボケセットという。   Furthermore, when the optical system 110 is replaceable, the memory 170 uses a blur signal (hereinafter referred to as a basic blur signal) that can be used in common for the plurality of optical systems 110 as an index (blur signal index). Are stored in association with each other. Here, each of the basic blur signals corresponds to a blur shape. There are a plurality of basic blur signals, and the plurality of basic blur signals are collectively referred to as a basic blur set.

また、メモリ170は、コントローラ180が取得した光学系110のレンズパラメータ情報を格納する。メモリ170は、例えば、DRAM(Dynamic Random Access Memory)、又は、強誘電体メモリなどで実現できる。   The memory 170 stores lens parameter information of the optical system 110 acquired by the controller 180. The memory 170 can be realized by, for example, a DRAM (Dynamic Random Access Memory) or a ferroelectric memory.

コントローラ180は、撮像装置100全体を制御する。コントローラ180は、半導体素子などで実現可能である。コントローラ180は、ハードウェアのみで構成してもよいし、ハードウェアとソフトウェアとを組み合わせることにより実現してもよい。コントローラ180は、マイコンなどで実現できる。   The controller 180 controls the entire imaging apparatus 100. The controller 180 can be realized by a semiconductor element or the like. The controller 180 may be configured only by hardware, or may be realized by combining hardware and software. The controller 180 can be realized by a microcomputer or the like.

コントローラ180は、光学系110により像が形成された被写体について、距離に関する情報を算出するように制御する。具体的には、コントローラ180は、光学系110のレンズパラメータ情報を取得する。そして、コントローラ180は、メモリ170に格納される複数のボケ信号と、光学系110のレンズパラメータ情報と、CMOSイメージセンサ150で撮影されて得られる合焦位置の異なる複数の画像信号とに基づいて、映像処理部160が行うDFD処理を制御し、距離に関する情報を算出させる。合焦位置の異なる複数の画像信号は、フォーカスレンズ113を異なる位置に駆動させることにより取得することができる。距離に関する情報とは、例えば、撮像装置100から被写体までの距離である。言い換えれば、距離に関する情報とは、CMOSイメージセンサ150で撮影された被写体についての、撮像装置100から見た奥行き方向の距離である。距離の基準点は、任意に設定することができるが、例えば、光学系110に含まれるレンズのうち所定のレンズの位置に設定できる。以下では、距離に関する情報を、DFD距離情報、或いは被写体距離情報と称する。   The controller 180 performs control so as to calculate information related to the distance for the subject on which the image is formed by the optical system 110. Specifically, the controller 180 acquires lens parameter information of the optical system 110. Then, the controller 180 is based on the plurality of blur signals stored in the memory 170, the lens parameter information of the optical system 110, and the plurality of image signals having different in-focus positions obtained by photographing with the CMOS image sensor 150. The DFD processing performed by the video processing unit 160 is controlled to calculate information related to the distance. A plurality of image signals having different in-focus positions can be acquired by driving the focus lens 113 to different positions. The information regarding the distance is, for example, the distance from the imaging device 100 to the subject. In other words, the information regarding the distance is the distance in the depth direction of the subject imaged by the CMOS image sensor 150 as viewed from the imaging device 100. The reference point of the distance can be arbitrarily set, but can be set to a predetermined lens position among the lenses included in the optical system 110, for example. Hereinafter, the information regarding the distance is referred to as DFD distance information or subject distance information.

なお、コントローラ180は、DFD処理の制御を行う前に、予め光学系110からレンズパラメータ情報を取得しておき、メモリ170に格納してもよいし、DFD処理を制御する際に、レンズパラメータ情報を光学系110から読み出す構成にしてもよい。また、コントローラ180は、光学系110のレンズパラメータ情報すべてをメモリ170に蓄積しておくように制御してもよい。この場合、操作部材210(操作部)を介して入力される使用者の操作により、メモリ170に蓄積するレンズパラメータ情報の一部を削除するようにしてもよい。また、コントローラ180は、メモリカード200からレンズパラメータ情報を読み出し、メモリ170に蓄積しておくように制御してもよい。   The controller 180 may acquire lens parameter information from the optical system 110 in advance before controlling the DFD processing and store the lens parameter information in the memory 170. Alternatively, the lens parameter information may be used when controlling the DFD processing. May be read from the optical system 110. Further, the controller 180 may perform control so that all lens parameter information of the optical system 110 is stored in the memory 170. In this case, part of the lens parameter information stored in the memory 170 may be deleted by a user operation input via the operation member 210 (operation unit). Further, the controller 180 may control the lens parameter information to be read from the memory card 200 and stored in the memory 170.

なお、レンズパラメータ情報は、これまでに装着された光学系110のレンズパラメータ情報を含んでもよいし、さらに、装着したことのないレンズのレンズパラメータ情報を含んでもよい。   The lens parameter information may include lens parameter information of the optical system 110 that has been mounted so far, and may further include lens parameter information of lenses that have not been mounted.

コントローラ180は、被写体からの光をCMOSイメージセンサ150に導くための光学系110に固有のレンズパラメータ情報であって、複数の基本ボケ信号のうちの一部を特定する情報を含むレンズパラメータ情報を取得する。そして、コントローラ180は、メモリ170に保持されている複数の基本ボケ信号のうち、取得したレンズパラメータ情報により特定される複数の測距用ボケ信号に基づいて、CMOSイメージセンサ150により撮像された被写体についての距離に関する情報を算出するように制御する。   The controller 180 is lens parameter information unique to the optical system 110 for guiding light from the subject to the CMOS image sensor 150, and includes lens parameter information including information for specifying a part of the plurality of basic blur signals. get. The controller 180 then captures the subject imaged by the CMOS image sensor 150 based on the plurality of ranging blur signals specified by the acquired lens parameter information among the plurality of basic blur signals held in the memory 170. Control to calculate information about the distance.

カードスロット190は、機械的及び電気的にメモリカード200と接続可能であり、メモリカード200に情報を書き込み、メモリカード200から情報を読み出す。カードスロット190は、メモリカード200を着脱可能である。   The card slot 190 can be mechanically and electrically connected to the memory card 200, and writes information to the memory card 200 and reads information from the memory card 200. The card slot 190 is detachable from the memory card 200.

メモリカード200は、フラッシュメモリ又は強誘電体メモリなどを内部に含む記録媒体である。メモリカード200は、カードスロット190に着脱可能である。   The memory card 200 is a recording medium that includes a flash memory or a ferroelectric memory. The memory card 200 is detachable from the card slot 190.

操作部材210は、レリーズボタン(レリーズ操作部)を含む。レリーズボタンは、使用者の押圧操作を受け付ける。レリーズボタンを半押しした場合、コントローラ180を介してAF(Auto Focus)制御及び、AE(Automatic Exposure)制御を開始する。また、使用者がレリーズボタンを全押しした場合は、被写体の撮影を行う。   The operation member 210 includes a release button (release operation unit). The release button receives a user's pressing operation. When the release button is pressed halfway, AF (Auto Focus) control and AE (Automatic Exposure) control are started via the controller 180. When the user fully presses the release button, the subject is photographed.

液晶モニタ230は、CMOSイメージセンサ150で生成した画像信号、又は、メモリカード200から読み出した画像信号を表示する表示デバイスである。また、液晶モニタ230は、撮像装置100の各種の設定情報を表示可能である。例えば、液晶モニタ230は、撮影時における撮影条件である、EV値、F値、シャッタースピード、又は、ISO感度等を表示可能である。液晶モニタ230は、表示部に相当する。なお、液晶モニタ230はタッチパネルとしての機能を備えており、使用者は、液晶モニタ230に表示された各種の設定情報を介して、撮像装置100を操作することが可能である。この場合、液晶モニタ230は操作部材210に含まれる。   The liquid crystal monitor 230 is a display device that displays an image signal generated by the CMOS image sensor 150 or an image signal read from the memory card 200. Further, the liquid crystal monitor 230 can display various setting information of the imaging apparatus 100. For example, the liquid crystal monitor 230 can display EV values, F values, shutter speeds, ISO sensitivity, and the like, which are shooting conditions at the time of shooting. The liquid crystal monitor 230 corresponds to a display unit. Note that the liquid crystal monitor 230 has a function as a touch panel, and the user can operate the imaging apparatus 100 via various setting information displayed on the liquid crystal monitor 230. In this case, the liquid crystal monitor 230 is included in the operation member 210.

〔1−2.ライブビュー表示時の動作〕
実施の形態1における撮像装置100の撮影動作を説明する。図2は、図1に示す撮像装置100のうち、撮影動作に関する構成を中心に取り出した図であり、映像処理部160とコントローラ180の構成を詳細に示している。
[1-2. Operation during live view display)
A shooting operation of the imaging apparatus 100 according to Embodiment 1 will be described. FIG. 2 is a diagram extracted mainly from the imaging apparatus 100 shown in FIG. 1 with regard to the configuration relating to the shooting operation, and shows the configuration of the video processing unit 160 and the controller 180 in detail.

図2において、映像処理部160は、DFD処理部161を含み、コントローラ180は、制御部182とAF処理部183を含む。   In FIG. 2, the video processing unit 160 includes a DFD processing unit 161, and the controller 180 includes a control unit 182 and an AF processing unit 183.

使用者が、撮像装置100の電源をオン(ON)にすると、撮像装置100は、光学系110によってCMOSイメージセンサ150に結像された被写体像を、映像処理部160、コントローラ180を介して液晶モニタ230に表示する。このとき、液晶モニタ230にリアルタイムで表示される被写体像であるライブビュー画像は、CMOSイメージセンサ150から得られる画像データを順次表示することで実現される動画像である。撮像装置100は、CMOSイメージセンサ150により得られた画像データを、所定の時間間隔であるフレームレート毎に更新して、ライブビュー画像として液晶モニタ230に表示する。以下では、ライブビュー画像として表示される動画像データの内の一枚を、1フレームと称する。また、本実施の形態に係る撮像装置100は、ライブビュー表示において1秒間に60フレームの画像を表示するものとする。即ち、本実施の形態における撮像装置100のライブビュー表示におけるフレームレートは1/60秒である。   When the user turns on the power of the imaging apparatus 100, the imaging apparatus 100 displays a subject image formed on the CMOS image sensor 150 by the optical system 110 via a video processing unit 160 and a controller 180. Display on the monitor 230. At this time, the live view image that is a subject image displayed in real time on the liquid crystal monitor 230 is a moving image realized by sequentially displaying the image data obtained from the CMOS image sensor 150. The imaging apparatus 100 updates the image data obtained by the CMOS image sensor 150 for each frame rate that is a predetermined time interval, and displays the image data on the liquid crystal monitor 230 as a live view image. Hereinafter, one piece of moving image data displayed as a live view image is referred to as one frame. Further, imaging apparatus 100 according to the present embodiment displays an image of 60 frames per second in live view display. That is, the frame rate in live view display of the imaging apparatus 100 in the present embodiment is 1/60 seconds.

図3(a)は、撮像装置100と、撮像装置100に撮像される被写体との位置関係を示した図である。   FIG. 3A is a diagram illustrating a positional relationship between the imaging device 100 and a subject imaged by the imaging device 100.

撮像装置100は0地点に位置し、撮像装置100の近く(near)に人物(被写体X)、遠く(far)に山(被写体Y)がある。   The imaging apparatus 100 is located at a zero point, and there is a person (subject X) near the imaging apparatus 100 (near) and a mountain (subject Y) far away (far).

図3(b)は、図3(a)の撮像装置100で撮像される被写体に対し、DFD処理部161が生成した被写体距離情報を示す図である。DFD処理部161は、撮像装置100が撮像する各被写体の距離を算出し、その被写体距離情報を深度マップとして生成する。図3(b)では、被写体距離情報の一例として、撮像装置100に対して近くに存在する被写体Xに対しては右傾斜線が付与され、より遠くに存在する被写体Yに対しては左傾斜線が付与され、更に遠い被写体(背景)に対してはドットが付与される。なお、距離情報の表現の仕方はこれにかぎらず、色や数字、そのほかのパターンで表現してもよい。   FIG. 3B is a diagram illustrating subject distance information generated by the DFD processing unit 161 with respect to a subject imaged by the imaging apparatus 100 of FIG. The DFD processing unit 161 calculates the distance of each subject imaged by the imaging apparatus 100 and generates the subject distance information as a depth map. In FIG. 3B, as an example of subject distance information, a right slope line is given to a subject X that is close to the imaging apparatus 100, and a left slope line is given to a subject Y that is farther away. And a dot is added to a farther subject (background). The method of expressing the distance information is not limited to this, and it may be expressed by a color, a number, or another pattern.

撮像装置100は、上述したように、各被写体に対して被写体距離情報を取得することが可能である。また、撮像装置100は、取得した被写体距離情報をライブビュー表示において液晶モニタ230に表示することも可能である。   As described above, the imaging apparatus 100 can acquire subject distance information for each subject. In addition, the imaging apparatus 100 can display the acquired subject distance information on the liquid crystal monitor 230 in live view display.

図4は、撮像装置100のライブビュー表示及び撮影画像の一例を示す図である。図4のAに示すライブビュー表示は、図3(a)の撮像装置100において、従来の方式でライブビュー画像を表示した液晶モニタ230の表示例である。この時の撮影条件として、シャッタースピード(SS)は1/60秒、F値は4.0としている。ライブビュー表示は動画像であるので、自然な動画像を得るためにシャッタースピードは遅めに設定している。ライブビュー表示においてシャッタースピードを速く設定すると、1フレームあたりの画像を取り込む時間が短くなるが、動画再生におけるフレームレートはシャッタースピードを変更しても変わらず、各フレーム間で被写体の動きなどが欠落してしまうためである。   FIG. 4 is a diagram illustrating an example of a live view display and a captured image of the imaging apparatus 100. The live view display shown in A of FIG. 4 is a display example of the liquid crystal monitor 230 that displays a live view image by a conventional method in the imaging apparatus 100 of FIG. As photographing conditions at this time, the shutter speed (SS) is 1/60 seconds and the F value is 4.0. Since the live view display is a moving image, the shutter speed is set slower to obtain a natural moving image. If you set the shutter speed faster in Live View display, the time taken to capture an image per frame will be shorter, but the frame rate during movie playback will not change even if you change the shutter speed, and there will be no movement of the subject between frames. It is because it will do.

図4のBに示す撮影画像は、図3(a)の撮像装置100で静止画撮影をして得られた画像である。このときの撮影条件では、静止画の適正露光を行うためにはシャッタースピードは1/120秒、F値は2.8に設定され、図4のAに示すライブビュー表示の状態(SS:1/60秒、F値:4.0)とは変わってしまう。そのため、使用者は撮影後の画像(記録される画像)と同じ画像をライブビュー表示中にライブビュー画像として確認することできない。   The captured image shown in B of FIG. 4 is an image obtained by capturing a still image with the imaging apparatus 100 of FIG. Under the shooting conditions at this time, the shutter speed is set to 1/120 seconds and the F value is set to 2.8 in order to perform proper exposure of the still image, and the live view display state (SS: 1) shown in FIG. / 60 seconds, F value: 4.0). For this reason, the user cannot confirm the same image as the captured image (recorded image) as a live view image during live view display.

ここで、ライブビュー表示において静止画撮影時の撮影条件でシャッタースピードを1/120秒に設定した場合、フレームレートが1/60なので、フレームレートの半分の時間で1フレームの画像を撮像することとなる。この結果、ライブビュー表示される動画像が各フレーム間で被写体の動きが欠落した不自然な動画像になってしまう。   Here, when the shutter speed is set to 1/120 seconds under the shooting conditions at the time of still image shooting in the live view display, the frame rate is 1/60, so that one frame image is taken in half the frame rate. It becomes. As a result, the moving image displayed in the live view becomes an unnatural moving image in which the movement of the subject is lost between the frames.

そこで、本開示に係る撮像装置100は、ライブビュー表示において、自然な動画像となるようなシャッタースピードを適用し、同時に、静止画撮影時(記録時)と同様の被写界深度をもったライブビュー画像を表示する。   Therefore, the imaging apparatus 100 according to the present disclosure applies a shutter speed that provides a natural moving image in live view display, and at the same time has a depth of field similar to that during still image shooting (recording). Display live view image.

図4のCは、本実施の形態に係る撮像装置100において、ライブビュー表示時に液晶モニタ230に表示されるライブビュー画像を示している。図4のCに示すライブビュー表示においては、シャッタースピードは1/60秒、F値は4.0と、図4のAの場合と同じ値に設定されている。また、図4のCに示す液晶モニタ230に表示されるライブビュー画像は、図4のBに示す静止画撮影時の画像と同じ被写界深度(F値2.8に相当)を、画像処理によって実現している。すなわち、本実施の形態に係る撮像装置100は、ライブビュー表示において自然な動画像が得られるシャッタースピードを維持しつつ、静止画撮影時に得られる画像と同様の被写界深度を画像処理によって実現している。これにより、撮像装置100は、静止画撮影時に得られる被写界深度をライブビュー画像として表示することが可能となる。   FIG. 4C shows a live view image displayed on the liquid crystal monitor 230 during live view display in the imaging apparatus 100 according to the present embodiment. In the live view display shown in FIG. 4C, the shutter speed is set to 1/60 seconds, and the F value is set to 4.0, which is the same value as in FIG. Also, the live view image displayed on the liquid crystal monitor 230 shown in FIG. 4C has the same depth of field (corresponding to an F value of 2.8) as the image at the time of still image shooting shown in FIG. Realized by processing. That is, the imaging apparatus 100 according to the present embodiment realizes the same depth of field by image processing as that of an image obtained during still image shooting while maintaining a shutter speed at which a natural moving image can be obtained in live view display. doing. Thereby, the imaging device 100 can display the depth of field obtained at the time of still image shooting as a live view image.

図5は、撮像装置100の静止画撮影時のフローチャートである。使用者が撮像装置100の電源をONにすると、撮像装置100は光学系110を備える交換レンズからレンズ情報を取得する(ステップS11)。   FIG. 5 is a flowchart when the image capturing apparatus 100 captures a still image. When the user turns on the power of the imaging apparatus 100, the imaging apparatus 100 acquires lens information from an interchangeable lens including the optical system 110 (step S11).

撮像装置100は、レンズ情報を取得した後、撮影モードに設定されているかどうかを監視する(ステップS12)。   After acquiring the lens information, the imaging device 100 monitors whether or not the shooting mode is set (step S12).

撮像装置100は、撮影モードに設定されていると(ステップS12におけるYes)、使用者から被写界深度を変更する指示があるか否かを確認する(ステップS13)。被写界深度の変更指示がない場合(ステップS13におけるNo)、撮像装置100は、ステップS21において使用者によるレリーズ操作があるか否かを監視する。   If the imaging apparatus 100 is set to the shooting mode (Yes in step S12), the imaging apparatus 100 checks whether there is an instruction to change the depth of field from the user (step S13). When there is no instruction to change the depth of field (No in step S13), the imaging apparatus 100 monitors whether or not there is a release operation by the user in step S21.

使用者による被写界深度の変更指示があれば(ステップS13におけるYes)、撮像装置100はDFD処理部161を用いてDFD距離情報を取得する(ステップS14)。すなわち、撮像装置100は、撮像される被写体に対して被写体距離情報を取得する。   If there is an instruction to change the depth of field by the user (Yes in step S13), the imaging apparatus 100 acquires DFD distance information using the DFD processing unit 161 (step S14). That is, the imaging apparatus 100 acquires subject distance information for the subject to be imaged.

撮像装置100は、DFD距離情報を取得すると、使用者によるレリーズ操作があるか否かを監視する(ステップS15)。   When acquiring the DFD distance information, the imaging apparatus 100 monitors whether there is a release operation by the user (step S15).

使用者によるレリーズ操作があるまでは(ステップS15におけるNo)、撮像装置100は、液晶モニタ230にライブビュー(LV)画像を表示するため、ステップS16〜S19の処理を行う。ステップS16において、撮像装置100は、ライブビュー画像の各フレーム単位でAF/AE処理を実施する。   Until there is a release operation by the user (No in step S15), the imaging apparatus 100 performs steps S16 to S19 in order to display a live view (LV) image on the liquid crystal monitor 230. In step S16, the imaging apparatus 100 performs AF / AE processing for each frame of the live view image.

撮像装置100は、被写体距離情報と、AF/AE処理の結果に基づいて、静止画撮影時(記録時)のシャッタースピード及びF値を算出する(ステップS17)。   The imaging apparatus 100 calculates the shutter speed and F value at the time of still image shooting (recording) based on the subject distance information and the result of the AF / AE processing (step S17).

撮像装置100は、算出されたF値と、被写体距離情報に応じてライブビュー画像を加工し(ステップS18)、液晶モニタ230表示する(ステップS19)。具体的には、撮像装置100は、ステップS14にてDFD処理部161によって得られた被写体距離情報から、図3(b)に示す深度マップを生成し、その後、算出されたF値から被写界深度を計算する。撮像装置100は、計算された被写界深度の範囲内に存在しない被写体に対してぼかし処理(画像処理)を行い、静止画撮影時に得られる被写界深度(記録時被写界深度)を実現する。   The imaging apparatus 100 processes the live view image according to the calculated F value and the subject distance information (step S18), and displays it on the liquid crystal monitor 230 (step S19). Specifically, the imaging apparatus 100 generates a depth map shown in FIG. 3B from the subject distance information obtained by the DFD processing unit 161 in step S14, and then captures an image from the calculated F value. Calculate the depth of field. The imaging apparatus 100 performs blurring processing (image processing) on a subject that does not exist within the calculated range of depth of field, and obtains the depth of field (depth of field at recording) obtained during still image shooting. Realize.

使用者がレリーズ操作を行うと(ステップS15におけるYes、ステップS21におけるYes)、撮像装置100は、静止画撮影を開始する。ステップS22において、撮像装置100は被写体像に対してAF/AE処理を行う。   When the user performs a release operation (Yes in step S15, Yes in step S21), the imaging apparatus 100 starts still image shooting. In step S22, the imaging apparatus 100 performs AF / AE processing on the subject image.

撮像装置100は、AF/AE処理の結果に応じて、静止画撮影に応じたシャッタースピードとF値を算出する(ステップS23)。   The imaging apparatus 100 calculates the shutter speed and F value corresponding to still image shooting according to the result of the AF / AE processing (step S23).

撮像装置100は、算出されたシャッタースピードとF値に基づいて、絞り111やCMOSイメージセンサ150、シャッター(不図示)などを制御し、静止画撮影を行う(ステップS24)。   The imaging apparatus 100 controls the aperture 111, the CMOS image sensor 150, the shutter (not shown), and the like based on the calculated shutter speed and F value, and performs still image shooting (step S24).

撮像装置100は、撮影された静止画像をメモリカード200等の記録媒体に保存する(ステップS25)。   The imaging apparatus 100 stores the captured still image in a recording medium such as the memory card 200 (step S25).

上述した撮影動作において、ライブビュー表示に適用されるF値は、ステップS22において静止画撮影時に適用されるF値より大きな値となるように設定されることが好ましい。即ち、ライブビュー表示時に適用される被写界深度は、静止画撮影時に適用される被写界深度より深いことが好ましい。これは、撮像装置100は、画像に対してぼかし処理を行うことは可能であるが、すでにぼけている画像を鮮明にすることは困難なためである。   In the shooting operation described above, the F value applied to the live view display is preferably set to be larger than the F value applied at the time of still image shooting in step S22. That is, it is preferable that the depth of field applied during live view display is deeper than the depth of field applied during still image shooting. This is because the imaging apparatus 100 can perform blurring processing on an image, but it is difficult to sharpen an already blurred image.

また、撮像装置100は、ライブビュー画像に対してぼかし処理を行う際に、特定のLPF(Low Pass Filter:高域遮断フィルタ)を用いてぼかし処理を行うようにしてもよい。または、撮像装置100は、取得した距離情報に従ってボケ具合が変わるように、LPFの遮断周波数を適宜変更して、ぼかし処理を行うようにしてもよい。または、撮像装置100は、取得したレンズ情報に従って、フーリエ変換を行うことでぼかし処理を行うようにしてもよい。   The imaging apparatus 100 may perform the blurring process using a specific LPF (Low Pass Filter) when performing the blurring process on the live view image. Alternatively, the imaging apparatus 100 may perform blurring processing by appropriately changing the cutoff frequency of the LPF so that the degree of blur changes according to the acquired distance information. Alternatively, the imaging device 100 may perform blurring processing by performing Fourier transform according to the acquired lens information.

〔1−3.効果等〕
以上のように、本実施の形態における撮像装置100は、ライブビュー表示において、被写界深度と被写体距離情報を算出し、静止画撮影時と同様の被写界深度を画像処理によって実現することができる。これにより、使用者は、ライブビュー表示時において、静止画撮影時に得られる画像を確認することが可能となり、利便性が向上する。
[1-3. Effect etc.)
As described above, the imaging apparatus 100 according to the present embodiment calculates the depth of field and subject distance information in live view display, and realizes the same depth of field by image processing as in still image shooting. Can do. Thereby, the user can confirm the image obtained at the time of still image shooting at the time of live view display, and convenience is improved.

なお、本実施の形態では静止画撮影時の動作として説明したが、本開示はこれに限定されるものではない。例えば、動画撮影時に、使用者の操作により、ライブビュー画像と撮影する動画像とで同じ被写界深度を得る場合にも、本開示は適用可能である。   Note that although the present embodiment has been described as an operation during still image shooting, the present disclosure is not limited to this. For example, the present disclosure can be applied to a case where the same depth of field is obtained for a live view image and a moving image to be captured by a user operation during moving image shooting.

〔2.実施の形態2〕
実施の形態2では、撮像装置100により撮影された静止画像に対してぼかし処理を行う例について説明する。撮像装置100の構成は、実施の形態1で説明した図1、図2と同じ構成であるとして、詳細な説明を省略する。以下、図6及び図7を用いて、実施の形態2の静止画撮影動作について説明する。
[2. Second Embodiment]
In the second embodiment, an example in which blur processing is performed on a still image captured by the imaging apparatus 100 will be described. The configuration of the imaging apparatus 100 is the same as that in FIGS. 1 and 2 described in the first embodiment, and detailed description thereof is omitted. Hereinafter, the still image shooting operation of the second embodiment will be described with reference to FIGS. 6 and 7.

〔2−1.静止画記録時の動作〕
本実施の形態に係る撮像装置100は、撮影される静止画像に対して任意の被写界深度を適用することが可能である。
[2-1. Operation when recording still images)
Imaging apparatus 100 according to the present embodiment can apply an arbitrary depth of field to a captured still image.

図6(a)は、撮像装置100と、撮像装置100に撮像される被写体との位置関係を示した図である。撮像装置100は0地点に位置し、撮像装置100から近い順に被写体P、被写体Q、被写体Rがある。ここで、被写界深度Aは光学系110により決まる被写界深度を示し、被写界深度Bは使用者が指定する被写界深度を示している。   FIG. 6A is a diagram illustrating a positional relationship between the imaging device 100 and a subject imaged by the imaging device 100. The imaging apparatus 100 is located at a zero point, and there are a subject P, a subject Q, and a subject R in order from the closest to the imaging device 100. Here, the depth of field A indicates the depth of field determined by the optical system 110, and the depth of field B indicates the depth of field specified by the user.

図6(b)は、図6(a)の状態にある撮像装置100で撮影される静止画像の一例を示す図である。図6(b)は、被写界深度Aが適用されて撮影された静止画像を示す。従って、図6(b)では、被写体P及び被写体Qに対して合焦しており、被写体Rはぼけて表示される。   FIG. 6B is a diagram illustrating an example of a still image captured by the imaging apparatus 100 in the state of FIG. FIG. 6B shows a still image shot with the depth of field A applied. Accordingly, in FIG. 6B, the subject P and the subject Q are in focus, and the subject R is displayed blurred.

図6(c)は、図6(a)の状態にある撮像装置100で撮影される静止画像の一例を示す図である。図6(c)は、被写界深度Bが適用されて撮影された静止画像を示す。従って、図6(c)では、被写体Pに対して合焦しており、被写体Q及び被写体Rはぼけて表示される。   FIG. 6C is a diagram illustrating an example of a still image captured by the imaging apparatus 100 in the state of FIG. FIG. 6C shows a still image shot with the depth of field B applied. Accordingly, in FIG. 6C, the subject P is in focus, and the subject Q and the subject R are displayed blurred.

本実施の形態に係る撮像装置100は、図6(a)〜(c)で示すように、撮影される静止画像に対して任意の被写界深度を適用することが可能である。撮像装置100は、撮影条件等に基づいて被写界深度Aを算出する。一方、使用者は、被写体像に対して任意の被写界深度Bを指定する。撮像装置100は、算出された被写界深度Aに依らず、使用者が指定した任意の被写界深度Bを適用した静止画像を画像処理によって実現することができる。   As shown in FIGS. 6A to 6C, the imaging apparatus 100 according to the present embodiment can apply an arbitrary depth of field to a captured still image. The imaging apparatus 100 calculates the depth of field A based on shooting conditions and the like. On the other hand, the user designates an arbitrary depth of field B for the subject image. The imaging apparatus 100 can realize a still image to which an arbitrary depth of field B specified by the user is applied by image processing regardless of the calculated depth of field A.

図7は、実施の形態2に係る撮像装置100の静止画撮影時のフローチャートである。使用者が撮像装置100の電源をONにすると、撮像装置100は光学系110を備える交換レンズからレンズ情報を取得する(ステップS31)。   FIG. 7 is a flowchart at the time of still image shooting of the imaging apparatus 100 according to the second embodiment. When the user turns on the power of the imaging apparatus 100, the imaging apparatus 100 acquires lens information from an interchangeable lens including the optical system 110 (step S31).

撮像装置100は、レンズ情報を取得した後、撮影モードに設定されているかどうかを監視する(ステップS32)。   After acquiring the lens information, the imaging apparatus 100 monitors whether or not the shooting mode is set (step S32).

撮像装置100が撮影モードに設定されていると(ステップS32におけるYes)、使用者から被写界深度を変更する指示があるか否かを確認する(ステップS33)。ステップS33において、使用者は、操作部材210を介して、被写界深度の変更指示として、所望の被写界深度Bを入力することができる。被写界深度の変更指示がない場合(ステップS33におけるNo)、撮像装置100は、実施の形態1と同様に、図5に示すステップS21〜S25の処理を行う。   When the imaging apparatus 100 is set to the shooting mode (Yes in step S32), it is confirmed whether or not there is an instruction to change the depth of field from the user (step S33). In step S <b> 33, the user can input a desired depth of field B as an instruction to change the depth of field via the operation member 210. When there is no instruction to change the depth of field (No in step S33), the imaging apparatus 100 performs the processes of steps S21 to S25 illustrated in FIG.

使用者による被写界深度の変更指示があれば(ステップS33におけるYes)、撮像装置100はDFD処理部161を用いてDFD距離情報を取得する(ステップS34)。すなわち、撮像装置100は、撮像される被写体に対して被写体距離情報を取得する。   If there is an instruction to change the depth of field by the user (Yes in step S33), the imaging apparatus 100 acquires DFD distance information using the DFD processing unit 161 (step S34). That is, the imaging apparatus 100 acquires subject distance information for the subject to be imaged.

撮像装置100は、DFD距離情報を取得すると、使用者によるレリーズ操作があるか否かを監視する(ステップS35)。   When acquiring the DFD distance information, the imaging apparatus 100 monitors whether or not there is a release operation by the user (step S35).

使用者によるレリーズ操作があるまでは(ステップS35におけるNo)、撮像装置100は、液晶モニタ230にライブビュー画像を表示するため、ステップS36〜S38の処理を行う。ステップS36において、撮像装置100は、ライブビュー画像の各フレーム単位でAF/AE処理を実施する。   Until there is a release operation by the user (No in step S35), the imaging apparatus 100 performs the processes of steps S36 to S38 in order to display the live view image on the liquid crystal monitor 230. In step S36, the imaging apparatus 100 performs AF / AE processing for each frame of the live view image.

撮像装置100は、被写体距離情報と、AF/AE処理の結果に基づいて、使用者によって入力された被写界深度Bに応じてライブビュー画像を加工し(ステップS37)、表示する(ステップS38)。具体的には、撮像装置100は、DFD処理部161によって得られた被写体距離情報、深度マップから、使用者により入力された被写界深度Bに収まる被写体を算出し、被写界深度Bの範囲内に存在しない被写体に対してぼかし処理を行い、ライブビュー画像に反映する。例えば、図6(a)〜(c)に示すように、使用者により被写界深度Bが入力されている場合、被写界深度Bの範囲内に存在しない被写体Q、Rに対してぼかし処理が行われる。   The imaging apparatus 100 processes the live view image according to the depth of field B input by the user based on the subject distance information and the result of the AF / AE processing (step S37) and displays the live view image (step S38). ). Specifically, the imaging apparatus 100 calculates a subject that falls within the depth of field B input by the user from the subject distance information and depth map obtained by the DFD processing unit 161, and sets the depth of field B. Blur processing is performed on a subject that does not exist within the range, and the result is reflected in the live view image. For example, as shown in FIGS. 6A to 6C, when the depth of field B is input by the user, the subjects Q and R that do not exist within the range of the depth of field B are blurred. Processing is performed.

使用者がレリーズ操作を行うと(ステップS35におけるYes)、撮像装置100は、静止画撮影を開始する。ステップS40において、撮像装置100は被写体像に対してAF/AE処理を行う。   When the user performs a release operation (Yes in step S35), the imaging apparatus 100 starts still image shooting. In step S40, the imaging apparatus 100 performs AF / AE processing on the subject image.

撮像装置100は、AF/AE処理の結果に応じて、F値を算出する(ステップS41)。このとき、ステップS33において被写界深度の変更指示及び所望の被写界深度Bの入力がされているので、撮像装置100は入力された被写界深度Bより深い被写界深度AのF値となるように設定する。これは、撮像装置100は、画像に対してぼかし処理を行うことは可能であるが、すでにぼけている画像を鮮明にすることは困難なためである。   The imaging apparatus 100 calculates an F value according to the result of the AF / AE process (step S41). At this time, since an instruction to change the depth of field and a desired depth of field B are input in step S33, the imaging apparatus 100 has F of the depth of field A deeper than the input depth of field B. Set to be a value. This is because the imaging apparatus 100 can perform blurring processing on an image, but it is difficult to sharpen an already blurred image.

撮像装置100は、ステップS41において得られたF値に基づいて、適正露光となるようにシャッタースピードを算出する(ステップS42)。   The imaging apparatus 100 calculates the shutter speed based on the F value obtained in step S41 so as to achieve proper exposure (step S42).

ステップS40〜S42の処理を経て、撮影条件が決定されると、撮像装置100は静止画像の撮影を行う(ステップS43)。   When the shooting conditions are determined through the processes in steps S40 to S42, the imaging apparatus 100 captures a still image (step S43).

静止画像の撮影の後、撮像装置100は、撮像された静止画像に対して、使用者によって入力された被写界深度Bとなるように、静止画像に対してぼかし処理を行う(ステップS44)。   After the still image is captured, the imaging apparatus 100 performs a blurring process on the still image so that the captured still image has the depth of field B input by the user (step S44). .

撮像装置100は、撮影された静止画像をメモリカード200等の記録媒体に保存する(ステップS45)。   The imaging device 100 stores the captured still image in a recording medium such as the memory card 200 (step S45).

次に、ステップS33における、使用者による被写界深度Bの入力について説明する。図8は、撮像装置100において、使用者が被写界深度Bを入力する際の表示例である。   Next, input of the depth of field B by the user in step S33 will be described. FIG. 8 is a display example when the user inputs the depth of field B in the imaging apparatus 100.

使用者が被写界深度の変更を撮像装置100に指示すると、撮像装置100は、被写界深度の変更指示を受け付けるため、図8(a)に示すライブビュー画像を表示する。使用者は、図8(a)に示すライブビュー画像から、所望の被写体(例えば、被写体P)を選択する。撮像装置100は、被写体Pが選択されると、DFD処理により得られた被写体距離情報に基づいて、被写体Pを含む被写界深度Bを算出する。そして、上述のとおり、撮像装置100は、被写界深度Bに応じてライブビュー画像を加工する(図7のステップS37)。その後、使用者によるレリーズ操作が行われると、撮像装置100は、被写界深度Bよりも深い被写界深度AとなるF値で静止画像を撮影する(図7のステップS43)。そして、撮像装置100は、図8(b)に示すように、被写界深度Bを実現するように、被写界深度Bの範囲に含まれない被写体(例えば、被写体Q、R)に対してぼかし処理を行う。   When the user instructs the imaging apparatus 100 to change the depth of field, the imaging apparatus 100 displays the live view image shown in FIG. 8A in order to accept the instruction to change the depth of field. The user selects a desired subject (for example, subject P) from the live view image shown in FIG. When the subject P is selected, the imaging apparatus 100 calculates the depth of field B including the subject P based on the subject distance information obtained by the DFD processing. And as above-mentioned, the imaging device 100 processes a live view image according to the depth of field B (step S37 of FIG. 7). Thereafter, when a release operation is performed by the user, the imaging apparatus 100 captures a still image with an F value that provides a depth of field A that is deeper than the depth of field B (step S43 in FIG. 7). Then, as illustrated in FIG. 8B, the imaging apparatus 100 applies to a subject (for example, subjects Q and R) not included in the range of the depth of field B so as to realize the depth of field B. To blur.

〔2−2.効果等〕
以上により、本実施の形態の撮像装置100の静止画撮影動作において、使用者が任意の被写界深度Bを指定し、合焦領域とボケ領域を指定可能とすることで、任意の被写界深度の画像を撮影することができる。
[2-2. Effect etc.)
As described above, in the still image shooting operation of the imaging apparatus 100 according to the present embodiment, the user can specify an arbitrary depth of field B, and can specify an in-focus area and a blurred area. Images of depth of field can be taken.

なお、本実施の形態では、静止画撮影時の動作として説明したが、本開示はこれに限定されるものではない。例えば、動画撮影時に、使用者の操作によりライブビュー画像と動画像とで同じ被写界深度を得る場合にも、本開示は有効である。   Note that although the present embodiment has been described as an operation during still image shooting, the present disclosure is not limited to this. For example, the present disclosure is also effective when the same depth of field is obtained for a live view image and a moving image by a user operation during moving image shooting.

本実施の形態では、撮像装置100は、ライブビュー画像の表示画面で、使用者が特定の被写体を指定することで、その指定した被写体以外の被写体に対してぼかし処理を行う例を説明しているが、本開示はこれに限定されるものではない。例えば、使用者が被写界深度Bを直接入力してもよい。また、撮像装置100は、ライブビュー画像の表示画面で、使用者が少なくとも2点を指定することで、その画像位置の被写体に対応する被写体距離情報から最短、最長位置を求め、それを被写界深度の情報に変換してもよい。   In the present embodiment, an example will be described in which the imaging apparatus 100 performs a blurring process on subjects other than the designated subject when the user designates a specific subject on the display screen of the live view image. However, the present disclosure is not limited to this. For example, the user may directly input the depth of field B. In addition, the imaging apparatus 100 obtains the shortest and longest positions from the subject distance information corresponding to the subject at the image position by specifying at least two points on the display screen of the live view image, and captures them. It may be converted into depth information.

また、撮像装置100は、使用者によって入力された特定のレンズ情報に基づいて被写界深度を算出してもよい。このように構成することで、撮像装置100は、現在装着している交換レンズとは異なる光学性能を有する交換レンズを用いて撮影した際に得られる画像を画像処理により実現することができる。   Further, the imaging apparatus 100 may calculate the depth of field based on specific lens information input by the user. With this configuration, the imaging apparatus 100 can realize an image obtained by photographing using an interchangeable lens having optical performance different from that of the interchangeable lens currently mounted by image processing.

また、本実施の形態では、ライブビュー画像に写っている被写体に対して、使用者が所望の被写体を選択し、撮像装置100は当該被写体に合焦するように被写界深度を設定するものとしたが、本開示はこれに限定されるものではない。使用者が予め登録しておいた車や動物、人物等の被写体(オブジェクト)が、ライブビュー画像に含まれるか否かをオブジェクト認識部により撮像装置100が認識し、当該被写体が含まれている場合、その被写体が合焦範囲に入るように被写界深度を設定するようにしても構わない。被写体の登録には、物体認証、顔認証や個人認証等の従来の技術を用いることが可能である。   In the present embodiment, the user selects a desired subject for the subject in the live view image, and the imaging apparatus 100 sets the depth of field so as to focus on the subject. However, the present disclosure is not limited to this. The object recognition unit recognizes whether or not a subject (object) such as a car, an animal, or a person registered in advance by the user is included in the live view image, and the subject is included. In this case, the depth of field may be set so that the subject falls within the focusing range. Conventional techniques such as object authentication, face authentication, and personal authentication can be used for subject registration.

〔3.他の実施の形態〕
以上のように、本開示の技術の例示として、実施の形態1、2を説明した。しかしながら、本開示は、これに限定されず、変更、置き換え、付加、省略などを行った実施の形態にも適用できる。また、実施の形態1、2で説明した各構成を組み合わせて、新たな実施の形態とすることも可能である。そこで、以下、他の実施の形態を例示する。
[3. Other Embodiments]
As described above, Embodiments 1 and 2 have been described as examples of the technology of the present disclosure. However, the present disclosure is not limited to this, and can also be applied to embodiments in which changes, replacements, additions, omissions, and the like are made. In addition, it is possible to combine the configurations described in Embodiments 1 and 2 into a new embodiment. Therefore, other embodiments will be exemplified below.

実施の形態1、2では、撮像装置は光学系を着脱可能な、レンズ交換式のデジタルカメラであるとして説明したが、本開示はこれに限定されるものではない。例えば、光学系が撮像装置と一体となっているものとしても構わないし、光学系、CMOSイメージセンサ、映像処理部が一体となっているユニット交換式としても構わない。   In the first and second embodiments, the imaging apparatus has been described as an interchangeable lens digital camera to which an optical system can be attached / detached, but the present disclosure is not limited thereto. For example, the optical system may be integrated with the imaging device, or a unit exchange type in which the optical system, the CMOS image sensor, and the video processing unit are integrated.

また、実施の形態1、2では、被写体の距離情報算出の方法としてDFD方式を用いて説明したが、本開示はこれに限定されるものではない。レーザーなどを照射し、反射波が戻ってくるまでの時間、又は、反射波の角度などをもとに距離を算出するような能動的手法を用いてもよいし、像面位相差イメージセンサや位相差センサによって被写体までの距離情報を算出するような受動的手法を用いてもよい。   In the first and second embodiments, the DFD method has been described as the method for calculating the distance information of the subject, but the present disclosure is not limited to this. An active method such as calculating the distance based on the time until the reflected wave returns by irradiating a laser or the angle of the reflected wave, an image plane phase difference image sensor, A passive method of calculating distance information to the subject using a phase difference sensor may be used.

また、実施の形態1,2では、メモリカードは着脱可能として説明したが、本開示はこれに限定されるものではない。メモリカードが着脱不可の撮像装置で構成してもよい。   In the first and second embodiments, the memory card is described as being removable, but the present disclosure is not limited to this. You may comprise with the imaging device which a memory card cannot attach or detach.

さらに、実施の形態1、2では、撮像装置としてデジタルカメラを用いて説明したが、本開示はこれに限定されるものではない。本開示は、測距及び合焦動作が必要な、電子望遠鏡や電子顕微鏡などにも適用可能である。   Furthermore, although Embodiment 1 and 2 demonstrated using a digital camera as an imaging device, this indication is not limited to this. The present disclosure can also be applied to an electronic telescope, an electron microscope, and the like that require ranging and focusing operations.

本開示は、デジタルカメラや携帯電話などの撮像装置、電子顕微鏡、電子望遠鏡などに適用可能である。   The present disclosure can be applied to an imaging device such as a digital camera or a mobile phone, an electron microscope, an electronic telescope, and the like.

100 撮像装置
110 光学系
111 絞り
113 フォーカスレンズ
114 レンズ情報保持部
120 絞り駆動部
140 フォーカスモータ
150 CMOSイメージセンサ
160 映像処理部
161 DFD処理部
170 メモリ
180 コントローラ
182 制御部
183 AF処理部
190 カードスロット
200 メモリカード
210 操作部材
230 液晶モニタ
DESCRIPTION OF SYMBOLS 100 Image pick-up device 110 Optical system 111 Aperture 113 Focus lens 114 Lens information holding part 120 Aperture drive part 140 Focus motor 150 CMOS image sensor 160 Image processing part 161 DFD processing part 170 Memory 180 Controller 182 Control part 183 AF processing part 190 Card slot 200 Memory card 210 Operation member 230 LCD monitor

Claims (8)

少なくとも1枚のレンズを含む光学系と、
前記光学系により集光された被写体像を結像して第1画像データを生成する撮像素子と、
前記被写体像に関する被写体距離を算出するとともに、前記第1画像データに対し、画像処理を行うことにより第2画像データを生成する画像処理部と、
を備え、
前記画像処理部は、算出された前記被写体距離に基づいて被写界深度を設定し、前記被写界深度を適用することによって前記画像処理を行う、撮像装置。
An optical system including at least one lens;
An imaging device that forms a subject image focused by the optical system to generate first image data;
An image processing unit that calculates a subject distance related to the subject image and generates second image data by performing image processing on the first image data;
With
The imaging apparatus, wherein the image processing unit sets the depth of field based on the calculated subject distance, and performs the image processing by applying the depth of field.
使用者による記録指示を受け付けるレリーズ操作部と、
被写体像をリアルタイムで表示するライブビュー画像を表示可能な表示部と、を更に備え、
前記画像処理部は、
前記被写界深度として、前記レリーズ操作部が使用者による記録指示を受け付けた際に適用される記録時被写界深度を設定し、
前記表示部は、
前記ライブビュー画像として前記記録時被写界深度が適用された前記第2画像データを表示する、
請求項1に記載の撮像装置。
A release operation unit for receiving a recording instruction by a user;
A display unit capable of displaying a live view image for displaying a subject image in real time;
The image processing unit
As the depth of field, set the depth of field at the time of recording applied when the release operation unit receives a recording instruction by the user,
The display unit
Displaying the second image data to which the recording depth of field is applied as the live view image;
The imaging device according to claim 1.
前記光学系はフォーカスレンズを含み、
前記画像処理部は、前記フォーカスレンズを駆動して得られた、合焦状態の異なる複数の画像データのボケ量から被写体距離を算出する、
請求項1に記載の撮像装置。
The optical system includes a focus lens;
The image processing unit calculates a subject distance from a blur amount of a plurality of pieces of image data having different in-focus states obtained by driving the focus lens;
The imaging device according to claim 1.
撮像された画像を記録する記録部を更に備え、
前記第2画像データは、前記記録部に記録される、
請求項1に記載の撮像装置。
A recording unit for recording the captured image;
The second image data is recorded in the recording unit.
The imaging device according to claim 1.
使用者による操作を受け付ける操作部を更に備え、
前記被写界深度は、前記操作部により入力された情報に基づいて設定される、
請求項1に記載の撮像装置。
It further includes an operation unit that receives an operation by the user,
The depth of field is set based on information input by the operation unit.
The imaging device according to claim 1.
前記画像処理部は、前記操作部を介して使用者により指定された少なくとも2点に対して被写体距離を算出し、当該少なくとも2点の被写体距離の内、最短位置と最長位置を含むように前記被写界深度を設定する、
請求項5に記載の撮像装置。
The image processing unit calculates a subject distance for at least two points designated by the user via the operation unit, and includes the shortest position and the longest position among the at least two subject distances. Set the depth of field,
The imaging device according to claim 5.
前記画像処理部は、前記操作部を介して使用者により入力された特定のレンズ情報に基づいて前記被写界深度を設定する、
請求項5に記載の撮像装置。
The image processing unit sets the depth of field based on specific lens information input by a user via the operation unit;
The imaging device according to claim 5.
前記画像処理部は、使用者が前記操作部を介して指定したオブジェクトが前記第1画像データに写っているかどうかを判断するオブジェクト認識部を更に備え、認識された前記オブジェクトが合焦範囲に入るように前記被写界深度を設定する、
請求項5に記載の撮像装置。
The image processing unit further includes an object recognizing unit that determines whether an object designated by the user via the operation unit is reflected in the first image data, and the recognized object enters the in-focus range. Set the depth of field as
The imaging device according to claim 5.
JP2015166935A 2014-09-29 2015-08-26 Imaging apparatus Pending JP2016072965A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
US14/860,709 US9635242B2 (en) 2014-09-29 2015-09-22 Imaging apparatus

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2014197712 2014-09-29
JP2014197712 2014-09-29

Publications (1)

Publication Number Publication Date
JP2016072965A true JP2016072965A (en) 2016-05-09

Family

ID=55865122

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2015166935A Pending JP2016072965A (en) 2014-09-29 2015-08-26 Imaging apparatus

Country Status (1)

Country Link
JP (1) JP2016072965A (en)

Cited By (17)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2019507928A (en) * 2016-06-12 2019-03-22 アップル インコーポレイテッドApple Inc. User interface for camera effects
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US10528243B2 (en) 2017-06-04 2020-01-07 Apple Inc. User interface camera effects
US10616490B2 (en) 2015-04-23 2020-04-07 Apple Inc. Digital viewfinder user interface for multiple cameras
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11073973B2 (en) 2017-04-26 2021-07-27 Samsung Electronics Co., Ltd. Electronic device and method for electronic device displaying image
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US11350026B1 (en) 2021-04-30 2022-05-31 Apple Inc. User interfaces for altering visual media
US11468625B2 (en) 2018-09-11 2022-10-11 Apple Inc. User interfaces for simulated depth effects
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media

Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007066578A1 (en) * 2005-12-06 2007-06-14 Matsushita Electric Industrial Co., Ltd. Digital camera
JP2008270896A (en) * 2007-04-16 2008-11-06 Casio Comput Co Ltd Imaging device and program thereof
JP2010145693A (en) * 2008-12-18 2010-07-01 Sanyo Electric Co Ltd Image display device and imaging device
JP2011114816A (en) * 2009-11-30 2011-06-09 Nikon Corp Imaging apparatus, and program
JP2012142729A (en) * 2010-12-28 2012-07-26 Nikon Corp Camera
US20120307009A1 (en) * 2011-05-31 2012-12-06 Altek Corporation Method and apparatus for generating image with shallow depth of field
JP2013117848A (en) * 2011-12-02 2013-06-13 Canon Inc Image processing apparatus and image processing method
JP2013239119A (en) * 2012-05-17 2013-11-28 Canon Inc Image processing device, image processing method, image processing program and imaging device
JP2014145725A (en) * 2013-01-30 2014-08-14 Canon Inc Image processing apparatus and imaging device
WO2014129127A1 (en) * 2013-02-21 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 Image processing device, image processing method and permanent computer-readable medium

Patent Citations (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2007066578A1 (en) * 2005-12-06 2007-06-14 Matsushita Electric Industrial Co., Ltd. Digital camera
JP2008270896A (en) * 2007-04-16 2008-11-06 Casio Comput Co Ltd Imaging device and program thereof
JP2010145693A (en) * 2008-12-18 2010-07-01 Sanyo Electric Co Ltd Image display device and imaging device
JP2011114816A (en) * 2009-11-30 2011-06-09 Nikon Corp Imaging apparatus, and program
JP2012142729A (en) * 2010-12-28 2012-07-26 Nikon Corp Camera
US20120307009A1 (en) * 2011-05-31 2012-12-06 Altek Corporation Method and apparatus for generating image with shallow depth of field
JP2013117848A (en) * 2011-12-02 2013-06-13 Canon Inc Image processing apparatus and image processing method
JP2013239119A (en) * 2012-05-17 2013-11-28 Canon Inc Image processing device, image processing method, image processing program and imaging device
JP2014145725A (en) * 2013-01-30 2014-08-14 Canon Inc Image processing apparatus and imaging device
WO2014129127A1 (en) * 2013-02-21 2014-08-28 Necカシオモバイルコミュニケーションズ株式会社 Image processing device, image processing method and permanent computer-readable medium

Cited By (45)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
US10616490B2 (en) 2015-04-23 2020-04-07 Apple Inc. Digital viewfinder user interface for multiple cameras
US11102414B2 (en) 2015-04-23 2021-08-24 Apple Inc. Digital viewfinder user interface for multiple cameras
US11711614B2 (en) 2015-04-23 2023-07-25 Apple Inc. Digital viewfinder user interface for multiple cameras
JP2019507928A (en) * 2016-06-12 2019-03-22 アップル インコーポレイテッドApple Inc. User interface for camera effects
JP2019075810A (en) * 2016-06-12 2019-05-16 アップル インコーポレイテッドApple Inc. User interface for camera effects
US10602053B2 (en) 2016-06-12 2020-03-24 Apple Inc. User interface for camera effects
US11165949B2 (en) 2016-06-12 2021-11-02 Apple Inc. User interface for capturing photos with different camera magnifications
US11245837B2 (en) 2016-06-12 2022-02-08 Apple Inc. User interface for camera effects
US11641517B2 (en) 2016-06-12 2023-05-02 Apple Inc. User interface for camera effects
US11962889B2 (en) 2016-06-12 2024-04-16 Apple Inc. User interface for camera effects
US11604574B2 (en) 2017-04-26 2023-03-14 Samsung Electronics Co., Ltd. Electronic device and method for electronic device displaying image
US11073973B2 (en) 2017-04-26 2021-07-27 Samsung Electronics Co., Ltd. Electronic device and method for electronic device displaying image
US11204692B2 (en) 2017-06-04 2021-12-21 Apple Inc. User interface camera effects
US10528243B2 (en) 2017-06-04 2020-01-07 Apple Inc. User interface camera effects
US11687224B2 (en) 2017-06-04 2023-06-27 Apple Inc. User interface camera effects
US11977731B2 (en) 2018-02-09 2024-05-07 Apple Inc. Media capture lock affordance for graphical user interface
US11112964B2 (en) 2018-02-09 2021-09-07 Apple Inc. Media capture lock affordance for graphical user interface
US11722764B2 (en) 2018-05-07 2023-08-08 Apple Inc. Creative camera
US10375313B1 (en) 2018-05-07 2019-08-06 Apple Inc. Creative camera
US10523879B2 (en) 2018-05-07 2019-12-31 Apple Inc. Creative camera
US11178335B2 (en) 2018-05-07 2021-11-16 Apple Inc. Creative camera
US11468625B2 (en) 2018-09-11 2022-10-11 Apple Inc. User interfaces for simulated depth effects
US11128792B2 (en) 2018-09-28 2021-09-21 Apple Inc. Capturing and displaying images with multiple focal planes
US11895391B2 (en) 2018-09-28 2024-02-06 Apple Inc. Capturing and displaying images with multiple focal planes
US11669985B2 (en) 2018-09-28 2023-06-06 Apple Inc. Displaying and editing images with depth information
US11321857B2 (en) 2018-09-28 2022-05-03 Apple Inc. Displaying and editing images with depth information
US10674072B1 (en) 2019-05-06 2020-06-02 Apple Inc. User interfaces for capturing and managing visual media
US11770601B2 (en) 2019-05-06 2023-09-26 Apple Inc. User interfaces for capturing and managing visual media
US11223771B2 (en) 2019-05-06 2022-01-11 Apple Inc. User interfaces for capturing and managing visual media
US10791273B1 (en) 2019-05-06 2020-09-29 Apple Inc. User interfaces for capturing and managing visual media
US10735643B1 (en) 2019-05-06 2020-08-04 Apple Inc. User interfaces for capturing and managing visual media
US11706521B2 (en) 2019-05-06 2023-07-18 Apple Inc. User interfaces for capturing and managing visual media
US10735642B1 (en) 2019-05-06 2020-08-04 Apple Inc. User interfaces for capturing and managing visual media
US10681282B1 (en) 2019-05-06 2020-06-09 Apple Inc. User interfaces for capturing and managing visual media
US10652470B1 (en) 2019-05-06 2020-05-12 Apple Inc. User interfaces for capturing and managing visual media
US10645294B1 (en) 2019-05-06 2020-05-05 Apple Inc. User interfaces for capturing and managing visual media
US11617022B2 (en) 2020-06-01 2023-03-28 Apple Inc. User interfaces for managing media
US11330184B2 (en) 2020-06-01 2022-05-10 Apple Inc. User interfaces for managing media
US11054973B1 (en) 2020-06-01 2021-07-06 Apple Inc. User interfaces for managing media
US11212449B1 (en) 2020-09-25 2021-12-28 Apple Inc. User interfaces for media capture and management
US11539876B2 (en) 2021-04-30 2022-12-27 Apple Inc. User interfaces for altering visual media
US11416134B1 (en) 2021-04-30 2022-08-16 Apple Inc. User interfaces for altering visual media
US11418699B1 (en) 2021-04-30 2022-08-16 Apple Inc. User interfaces for altering visual media
US11350026B1 (en) 2021-04-30 2022-05-31 Apple Inc. User interfaces for altering visual media
US11778339B2 (en) 2021-04-30 2023-10-03 Apple Inc. User interfaces for altering visual media

Similar Documents

Publication Publication Date Title
JP2016072965A (en) Imaging apparatus
CN108462830B (en) Image pickup apparatus and control method of image pickup apparatus
US20120307102A1 (en) Video creation device, video creation method and non-transitory computer-readable storage medium
KR20100039430A (en) Image processor, image processing method, digital camera, and imaging apparatus
JP4533735B2 (en) Stereo imaging device
US9635242B2 (en) Imaging apparatus
JP4764712B2 (en) Digital camera and control method thereof
JP5936358B2 (en) Image display device, image display method, imaging device and control method thereof, program, and storage medium storing the same
JP6175748B2 (en) Imaging device
JP6432038B2 (en) Imaging device
JP2015230414A (en) Imaging device, control method and program
JP2011217311A (en) Imaging apparatus and method of controlling the same
US10917556B2 (en) Imaging apparatus
JP2011217334A (en) Imaging apparatus and method of controlling the same
JP2015175982A (en) Image processor, image processing method, and program
JP2010114712A (en) Compound-eye photographing apparatus and control method thereof, and program
JP4767904B2 (en) Imaging apparatus and imaging method
JP2005070077A (en) Digital camera
JP2009092961A (en) Focusing position control device, focusing position control method, and focusing position control program
JP2004145022A (en) Digital camera
JP2017009815A (en) Focus detection device, focus detection method, and camera system
JP6223502B2 (en) Image processing apparatus, image processing method, program, and storage medium storing the same
JP4905797B2 (en) Imaging apparatus and imaging method
JP2014048393A (en) Imaging device
JP6677336B2 (en) Imaging device

Legal Events

Date Code Title Description
RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20160523

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20171110

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20180724

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20180905

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20181023

RD01 Notification of change of attorney

Free format text: JAPANESE INTERMEDIATE CODE: A7421

Effective date: 20190116

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20190326

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20191001