JP7447947B2 - Electronics - Google Patents

Electronics Download PDF

Info

Publication number
JP7447947B2
JP7447947B2 JP2022133973A JP2022133973A JP7447947B2 JP 7447947 B2 JP7447947 B2 JP 7447947B2 JP 2022133973 A JP2022133973 A JP 2022133973A JP 2022133973 A JP2022133973 A JP 2022133973A JP 7447947 B2 JP7447947 B2 JP 7447947B2
Authority
JP
Japan
Prior art keywords
imaging
image
information
electronic device
unit
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2022133973A
Other languages
Japanese (ja)
Other versions
JP2022167973A5 (en
JP2022167973A (en
Inventor
嘉明 宮川
直樹 山肩
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2022133973A priority Critical patent/JP7447947B2/en
Publication of JP2022167973A publication Critical patent/JP2022167973A/en
Publication of JP2022167973A5 publication Critical patent/JP2022167973A5/en
Priority to JP2024029910A priority patent/JP2024051145A/en
Application granted granted Critical
Publication of JP7447947B2 publication Critical patent/JP7447947B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Transforming Light Signals Into Electric Signals (AREA)
  • Television Signal Processing For Recording (AREA)

Description

本発明は、電子機器に関する。 The present invention relates to electronic equipment .

撮像領域毎に異なる露光時間で撮影を行う撮像装置が知られている(特許文献1参照)。しかし、撮像領域毎の撮影条件の記録については何も触れられていない。 2. Description of the Related Art An imaging device that performs imaging with different exposure times for each imaging area is known (see Patent Document 1). However, nothing is mentioned about recording the imaging conditions for each imaging area.

特開2006-197192号公報Japanese Patent Application Publication No. 2006-197192

本発明の第1の態様によると、電子機器は、第1撮像条件で撮像動作が行われる第1領域と、第2撮像条件で撮像動作が行われる第2領域とを含む撮像領域を有する撮像素子と、前記第1領域で撮像された第1被写体の第1画像データ前記第2領域撮像された第2被写体の第2画像データと、前記第1撮像条件に関する第1データと、前記第2撮像条件に関する第2データと、前記第1領域の用途に関する第3データと、前記第2領域の用途に関する第4データとを有するファイルを記録部に記録する制御部とを備える。 According to a first aspect of the present invention, an electronic device has an imaging area including a first area where an imaging operation is performed under a first imaging condition and a second area where an imaging operation is performed under a second imaging condition. an element, first image data of a first subject imaged in the first area , second image data of the second subject imaged in the second area, and first data regarding the first imaging condition; The control unit records in a recording unit a file having second data regarding the second imaging condition , third data regarding the use of the first area, and fourth data regarding the use of the second area .

本発明の第1の実施の形態に係る撮像装置の構成を示すブロック図である。FIG. 1 is a block diagram showing the configuration of an imaging device according to a first embodiment of the present invention. 撮像素子の撮像面を模式的に示す平面図である。FIG. 2 is a plan view schematically showing an imaging surface of an image sensor. 本実施の形態に係る画像ファイルの構成を示す模式図である。FIG. 2 is a schematic diagram showing the structure of an image file according to the present embodiment. 静止画撮像機能Aの説明図である。FIG. 3 is an explanatory diagram of a still image capturing function A. 静止画撮像機能Aを用いて撮像した場合に作成される画像ファイルの構成を模式的に示す図である。2 is a diagram schematically showing the structure of an image file created when capturing an image using the still image capturing function A. FIG. 動画撮像機能Aの説明図である。FIG. 3 is an explanatory diagram of a moving image capturing function A. 動画撮像機能Aを用いて撮像した場合に作成される画像ファイルの構成を模式的に示す図である。3 is a diagram schematically showing the structure of an image file created when an image is captured using a moving image capturing function A. FIG. 静止画撮像機能Bの説明図である。FIG. 3 is an explanatory diagram of still image capturing function B; 大グループのレイアウトの一例を示す図である。FIG. 3 is a diagram illustrating an example of a large group layout. 静止画撮像機能Bを用いて撮像した場合に作成される画像ファイルの構成を模式的に示す図である。3 is a diagram schematically showing the structure of an image file created when capturing an image using still image capturing function B. FIG. 動画撮像機能Bの説明図である。FIG. 3 is an explanatory diagram of a moving image capturing function B. FIG. 動画撮像機能Bの説明図である。FIG. 3 is an explanatory diagram of a moving image capturing function B. FIG. 動画撮像機能Bを用いて撮像した場合に作成される画像ファイルの構成を模式的に示す図である。3 is a diagram schematically showing the structure of an image file created when an image is captured using a moving image capturing function B. FIG. 混合撮像機能の説明図である。FIG. 3 is an explanatory diagram of a mixed imaging function. 混合撮像機能を用いて撮像した場合に作成される画像ファイルの構成を模式的に示す図である。FIG. 3 is a diagram schematically showing the structure of an image file created when capturing an image using a mixed imaging function. 第2の実施の形態に係るメモリカードのディレクトリ構造を模式的に示す図である。FIG. 7 is a diagram schematically showing a directory structure of a memory card according to a second embodiment. 第2の実施の形態に係る各ファイルの構造を模式的に示す図である。FIG. 7 is a diagram schematically showing the structure of each file according to the second embodiment. 第2の実施の形態に係る各ファイルの構造を模式的に示す図である。FIG. 7 is a diagram schematically showing the structure of each file according to the second embodiment. 変形例2の説明図である。FIG. 7 is an explanatory diagram of modification example 2; 変形例3の説明図である。FIG. 7 is an explanatory diagram of modification example 3; 変形例4の説明図である。FIG. 7 is an explanatory diagram of modification example 4. 変形例7の説明図である。FIG. 7 is an explanatory diagram of modification example 7. 積層型撮像素子の断面図である。FIG. 2 is a cross-sectional view of a stacked image sensor. 撮像チップの画素配列とブロックを説明する図である。FIG. 3 is a diagram illustrating a pixel array and blocks of an imaging chip. 撮像チップのユニットに対応する回路図である。FIG. 2 is a circuit diagram corresponding to a unit of an imaging chip. 変形例1における画像ファイルの構造を模式的に示す図である。3 is a diagram schematically showing the structure of an image file in Modification 1. FIG. 変形例1にける画像ファイルのうちデータ部の構造を模式的に示す図である。7 is a diagram schematically showing the structure of a data section of an image file in Modification 1. FIG. 変形例6の説明図である。FIG. 7 is an explanatory diagram of modification example 6. 第3の実施の形態における遠隔画像撮影システムの構成を説明するブロック図である。FIG. 3 is a block diagram illustrating the configuration of a remote image capturing system in a third embodiment. 第3の実施の形態において撮影する画像の例を模式的に示す図である。FIG. 7 is a diagram schematically showing an example of an image captured in a third embodiment. 第3の実施の形態において撮影する画像の例を模式的に示す図である。FIG. 7 is a diagram schematically showing an example of an image captured in a third embodiment. 第3の実施の形態において撮影する画像の例を模式的に示す図である。FIG. 7 is a diagram schematically showing an example of an image captured in a third embodiment.

(第1の実施の形態)
始めに、実施の形態による電子機器(例えば撮像装置10)に搭載する積層型撮像素子22について説明する。なお、この積層型撮像素子22は、本願出願人が先に出願したWO2013/164915号公報に記載されているものである。図23は、積層型撮像素子22の断面図である。撮像素子22は、入射光に対応した画素信号を出力する裏面照射型撮像チップ2111と、画素信号を処理する信号処理チップ2112と、画素信号を記憶するメモリチップ2113とを備える。これら撮像チップ2111、信号処理チップ2112およびメモリチップ2113は積層されており、Cu等の導電性を有する接続部2109により互いに電気的に接続される。
(First embodiment)
First, the stacked image sensor 22 installed in the electronic device (for example, the image sensor 10) according to the embodiment will be described. Note that this stacked image sensor 22 is described in WO2013/164915, which was previously filed by the applicant of the present application. FIG. 23 is a cross-sectional view of the stacked image sensor 22. The image sensor 22 includes a back-illuminated image sensor chip 2111 that outputs a pixel signal corresponding to incident light, a signal processing chip 2112 that processes the pixel signal, and a memory chip 2113 that stores the pixel signal. These imaging chip 2111, signal processing chip 2112, and memory chip 2113 are stacked, and are electrically connected to each other by a conductive connection portion 2109 made of Cu or the like.

なお、図23に示すように、入射光は主に白抜き矢印で示すZ軸プラス方向へ向かって入射する。また、座標軸に示すように、Z軸に直交する紙面左方向をX軸プラス方向、Z軸およびX軸に直交する紙面手前方向をY軸プラス方向とする。以降のいくつかの図においては、図23の座標軸を基準として、それぞれの図の向きがわかるように座標軸を表示する。 Note that, as shown in FIG. 23, the incident light mainly enters in the positive Z-axis direction indicated by the white arrow. Further, as shown in the coordinate axes, the left direction of the paper plane perpendicular to the Z axis is the X-axis plus direction, and the front direction of the paper plane orthogonal to the Z axis and the X axis is the Y-axis plus direction. In the following several figures, coordinate axes are displayed based on the coordinate axes in FIG. 23 so that the orientation of each figure can be understood.

撮像チップ2111は、例えば、CMOSイメージセンサである。撮像チップ2111は、具体的には、裏面照射型のMOSイメージセンサである。撮像チップ2111は、マイクロレンズ層2101、カラーフィルタ層2102、パッシベーション層2103、半導体層2106、および配線層108を有する。撮像チップ2111は、Z軸プラス方向に向かってマイクロレンズ層2101、カラーフィルタ層2102、パッシベーション層2103、半導体層2106、および配線層2108の順に配置されている。 The imaging chip 2111 is, for example, a CMOS image sensor. Specifically, the imaging chip 2111 is a back-illuminated MOS image sensor. The imaging chip 2111 includes a microlens layer 2101, a color filter layer 2102, a passivation layer 2103, a semiconductor layer 2106, and a wiring layer 108. In the imaging chip 2111, a microlens layer 2101, a color filter layer 2102, a passivation layer 2103, a semiconductor layer 2106, and a wiring layer 2108 are arranged in this order in the positive Z-axis direction.

マイクロレンズ層2101は、複数のマイクロレンズLを有する。マイクロレンズLは、入射した光を後述する光電変換部2104に集光する。カラーフィルタ層2102は、複数のカラーフィルタFを有する。カラーフィルタ層2102は、分光特性の異なる複数種類のカラーフィルタFを有する。カラーフィルタ層2102は、具体的には、主に赤色成分の光を透過させる分光特性の第1フィルタ(R)と、主に緑色成分の光を透過させる分光特性の第2フィルタ(Gb、Gr)と、主に青色成分の光を透過させる分光特性の第3フィルタ(B)と、を有する。カラーフィルタ層102は、例えば、ベイヤー配列により第1フィルタ、第2フィルタおよび第3フィルタが配置されている。パッシベーション層2103は、窒素膜や酸化膜で構成され、半導体層2106を保護する。 The microlens layer 2101 has a plurality of microlenses L. The microlens L condenses the incident light onto a photoelectric conversion unit 2104, which will be described later. The color filter layer 2102 has a plurality of color filters F. The color filter layer 2102 includes multiple types of color filters F having different spectral characteristics. Specifically, the color filter layer 2102 includes a first filter (R) with spectral characteristics that mainly transmits red component light, and a second filter (Gb, Gr) with spectral characteristics that mainly transmits green component light. ) and a third filter (B) having spectral characteristics that mainly transmit blue component light. In the color filter layer 102, for example, a first filter, a second filter, and a third filter are arranged in a Bayer array. The passivation layer 2103 is made of a nitrogen film or an oxide film, and protects the semiconductor layer 2106.

半導体層2106は、光電変換部2104および読出回路2105を有する。半導体層2106は、光の入射面である第1面2106aと第1面2106aの反対側の第2面2106bとの間に複数の光電変換部2104を有する。半導体層2106は、光電変換部2104がX軸方向およびY軸方向に複数配列されている。光電変換部2104は、光を電荷に変換する光電変換機能を有する。また、光電変換部2104は、光電変換信号による電荷を蓄積する。光電変換部2104は、例えば、フォトダイオードである。半導体層2106は、光電変換部2104よりも第2面2106b側に読出回路105を有する。半導体層2106は、読出回路2105がX軸方向およびY軸方向に複数配列されている。読出回路2105は、複数のトランジスタにより構成され、光電変換部2104によって光電変換された電荷により生成される画像データを読み出して配線層2108へ出力する。 The semiconductor layer 2106 includes a photoelectric conversion section 2104 and a readout circuit 2105. The semiconductor layer 2106 has a plurality of photoelectric conversion portions 2104 between a first surface 2106a that is a light incident surface and a second surface 2106b opposite to the first surface 2106a. In the semiconductor layer 2106, a plurality of photoelectric conversion units 2104 are arranged in the X-axis direction and the Y-axis direction. The photoelectric conversion unit 2104 has a photoelectric conversion function of converting light into charge. Further, the photoelectric conversion unit 2104 accumulates charges due to the photoelectric conversion signal. The photoelectric conversion unit 2104 is, for example, a photodiode. The semiconductor layer 2106 has the readout circuit 105 closer to the second surface 2106b than the photoelectric conversion section 2104. In the semiconductor layer 2106, a plurality of readout circuits 2105 are arranged in the X-axis direction and the Y-axis direction. The readout circuit 2105 is configured with a plurality of transistors, reads out image data generated by charges photoelectrically converted by the photoelectric conversion unit 2104, and outputs the image data to the wiring layer 2108.

配線層2108は、複数の金属層を有する。金属層は、例えば、Al配線、Cu配線等である。配線層2108は、読出回路2105により読み出された画像データが出力される。画像データは、接続部2109を介して配線層2108から信号処理チップ2112へ出力される。 The wiring layer 2108 includes multiple metal layers. The metal layer is, for example, Al wiring, Cu wiring, or the like. Image data read out by the readout circuit 2105 is output to the wiring layer 2108 . Image data is output from the wiring layer 2108 to the signal processing chip 2112 via the connection section 2109.

なお、接続部2109は、光電変換部2104ごとに設けられていてもよい。また、接続部2109は、複数の光電変換部2104ごとに設けられていてもよい。接続部2109が複数の光電変換部2104ごとに設けられている場合、接続部2109のピッチは、光電変換部2104のピッチよりも大きくてもよい。また、接続部2109は、光電変換部2104が配置されている領域の周辺領域に設けられていてもよい。 Note that the connection section 2109 may be provided for each photoelectric conversion section 2104. Furthermore, the connection portion 2109 may be provided for each of the plurality of photoelectric conversion portions 2104. When the connection portions 2109 are provided for each of the plurality of photoelectric conversion units 2104, the pitch of the connection units 2109 may be larger than the pitch of the photoelectric conversion units 2104. Further, the connection portion 2109 may be provided in a peripheral region of the region where the photoelectric conversion portion 2104 is arranged.

信号処理チップ2112は、複数の信号処理回路を有する。信号処理回路は、撮像チップ2111から出力された画像データに対して信号処理を行う。信号処理回路は、例えば、画像データの信号値を増幅するアンプ回路、画像データのノイズの低減処理を行う相関二重サンプリング回路およびアナログ信号をデジタル信号に変換するアナログ/デジタル(A/D)変換回路等である。信号処理回路は、光電変換部2104ごとに設けられていてもよい。 The signal processing chip 2112 has a plurality of signal processing circuits. The signal processing circuit performs signal processing on image data output from the imaging chip 2111. The signal processing circuit includes, for example, an amplifier circuit that amplifies the signal value of image data, a correlated double sampling circuit that performs noise reduction processing of image data, and an analog/digital (A/D) converter that converts an analog signal into a digital signal. It is a circuit etc. A signal processing circuit may be provided for each photoelectric conversion unit 2104.

また、信号処理回路は、複数の光電変換部2104ごとに設けられていてもよい。信号処理チップ2112は、複数の貫通電極2110を有する。貫通電極2110は、例えばシリコン貫通電極である。貫通電極2110は、信号処理チップ2112に設けられた回路を互いに接続する。貫通電極2110は、撮像チップ2111の周辺領域、メモリチップ2113にも設けられてもよい。なお、信号処理回路を構成する一部の素子を撮像チップ2111に設けてもよい。例えば、アナログ/デジタル変換回路の場合、入力電圧と基準電圧の比較を行う比較器を撮像チップ2111に設け、カウンター回路やラッチ回路等の回路を、信号処理チップ2112に設けてもよい。 Furthermore, a signal processing circuit may be provided for each of the plurality of photoelectric conversion units 2104. The signal processing chip 2112 has a plurality of through electrodes 2110. The through electrode 2110 is, for example, a silicon through electrode. The through electrodes 2110 connect circuits provided in the signal processing chip 2112 to each other. The through electrode 2110 may also be provided in the peripheral area of the imaging chip 2111 and the memory chip 2113. Note that some of the elements that constitute the signal processing circuit may be provided in the imaging chip 2111. For example, in the case of an analog/digital conversion circuit, a comparator for comparing an input voltage and a reference voltage may be provided in the imaging chip 2111, and a circuit such as a counter circuit or a latch circuit may be provided in the signal processing chip 2112.

メモリチップ2113は、複数の記憶部を有する。記憶部は、信号処理チップ2112で信号処理が施された画像データを記憶する。記憶部は、例えば、DRAM等の揮発性メモリである。記憶部は、光電変換部2104ごとに設けられていてもよい。また、記憶部は、複数の光電変換部2104ごとに設けられていてもよい。記憶部に記憶された画像データは、後段の画像処理部に出力される。 Memory chip 2113 has multiple storage units. The storage unit stores image data subjected to signal processing by the signal processing chip 2112. The storage unit is, for example, volatile memory such as DRAM. A storage unit may be provided for each photoelectric conversion unit 2104. Furthermore, the storage unit may be provided for each of the plurality of photoelectric conversion units 2104. The image data stored in the storage section is output to the subsequent image processing section.

図24は、撮像チップ2111の画素配列と単位領域2131を説明する図である。特に、撮像チップ2111を裏面(撮像面)側から観察した様子を示す。画素領域には例えば2000万個以上の画素がマトリックス状に配列されている。図24の例では、隣接する2画素×2画素の4画素が一つの単位領域2131を形成する。図の格子線は、隣接する画素がグループ化されて単位領域2131を形成する概念を示す。単位領域2131を形成する画素の数は、これに限られず1000個程度、例えば32画素×32画素でもよいし、それ以上でもそれ以下でもよく、1画素であってもよい。 FIG. 24 is a diagram illustrating the pixel array and unit area 2131 of the imaging chip 2111. In particular, it shows how the imaging chip 2111 is observed from the back surface (imaging surface) side. For example, 20 million or more pixels are arranged in a matrix in the pixel area. In the example of FIG. 24, four adjacent pixels (2 pixels×2 pixels) form one unit area 2131. The grid lines in the figure represent the concept that adjacent pixels are grouped to form a unit area 2131. The number of pixels forming the unit area 2131 is not limited to this, and may be about 1000, for example, 32 pixels x 32 pixels, or may be more or less than that, or may be one pixel.

画素領域の部分拡大図に示すように、図24の単位領域2131は、緑色画素Gb、Gr、青色画素Bおよび赤色画素Rの4画素から成るいわゆるベイヤー配列を内包する。緑色画素Gb、Grは、カラーフィルタFとして緑色フィルタを有する画素であり、入射光のうち緑色波長帯の光を受光する。同様に、青色画素Bは、カラーフィルタFとして青色フィルタを有する画素であって青色波長帯の光を受光し、赤色画素Rは、カラーフィルタFとして赤色フィルタを有する画素であって赤色波長帯の光を受光する。 As shown in the partially enlarged view of the pixel region, the unit region 2131 in FIG. 24 includes a so-called Bayer array consisting of four pixels: green pixels Gb and Gr, blue pixel B, and red pixel R. The green pixels Gb and Gr are pixels having a green filter as the color filter F, and receive light in the green wavelength band of the incident light. Similarly, the blue pixel B is a pixel that has a blue filter as the color filter F and receives light in the blue wavelength band, and the red pixel R is a pixel that has a red filter as the color filter F and receives light in the red wavelength band. Receive light.

本実施形態において、1ブロックにつき単位領域2131を少なくとも1つ含むように複数のブロックが定義される。すなわち、1ブロックの最小単位は1つの単位領域2131となる。上述したように、1つの単位領域2131を形成する画素の数として取り得る値のうち、最も小さい画素の数は1画素である。したがって、1ブロックを画素単位で定義する場合、1ブロックを定義し得る画素の数のうち最小の画素の数は1画素となる。各ブロックはそれぞれ異なる制御パラメータで各ブロックに含まれる画素を制御できる。各ブロックは、そのブロック内の全ての単位領域2131、すなわち、そのブロック内の全ての画素が同一の撮像条件で制御される。つまり、あるブロックに含まれる画素群と、別のブロックに含まれる画素群とで、撮像条件が異なる光電変換信号を取得できる。制御パラメータの例は、フレームレート、ゲイン、間引き率、光電変換信号を加算する加算行数または加算列数、電荷の蓄積時間または蓄積回数、デジタル化のビット数(語長)等である。撮像素子22は、行方向(撮像チップ2111のX軸方向)の間引きのみでなく、列方向(撮像チップ2111のY軸方向)の間引きも自在に行える。さらに、制御パラメータは、画像処理におけるパラメータであってもよい。 In this embodiment, a plurality of blocks are defined so that each block includes at least one unit area 2131. That is, the minimum unit of one block is one unit area 2131. As described above, among the possible values of the number of pixels forming one unit area 2131, the smallest number of pixels is one pixel. Therefore, when one block is defined in pixel units, the minimum number of pixels that can define one block is one pixel. Each block can control the pixels included in each block using different control parameters. In each block, all unit areas 2131 within the block, that is, all pixels within the block are controlled under the same imaging conditions. In other words, photoelectric conversion signals with different imaging conditions can be obtained between a pixel group included in one block and a pixel group included in another block. Examples of control parameters include frame rate, gain, thinning rate, number of addition rows or columns for adding photoelectric conversion signals, charge accumulation time or number of accumulations, number of digitization bits (word length), and the like. The image sensor 22 can be thinned out not only in the row direction (X-axis direction of the imaging chip 2111) but also in the column direction (Y-axis direction of the imaging chip 2111). Furthermore, the control parameter may be a parameter in image processing.

図25は、単位領域2131における回路を説明する図である。図25の例では、隣接する2画素×2画素の4画素により一つの単位領域2131を形成する。なお、上述したように単位領域2131に含まれる画素の数はこれに限られず、1000画素以上でもよいし、最小1画素でもよい。単位領域2131の二次元的な位置を符号A~Dにより示す。 FIG. 25 is a diagram illustrating a circuit in the unit area 2131. In the example of FIG. 25, one unit area 2131 is formed by four adjacent pixels (2 pixels x 2 pixels). Note that, as described above, the number of pixels included in the unit area 2131 is not limited to this, and may be 1000 or more pixels, or may be at least 1 pixel. Two-dimensional positions of the unit area 2131 are indicated by symbols A to D.

単位領域2131に含まれる画素のリセットトランジスタ(RST)は、画素ごとに個別にオンオフ可能に構成される。図25において、画素Aのリセットトランジスタをオンオフするリセット配線2300が設けられており、画素Bのリセットトランジスタをオンオフするリセット配線2310が、上記リセット配線2300とは別個に設けられている。同様に、画素Cのリセットトランジスタをオンオフするリセット配線2320が、上記リセット配線2300、2310とは別個に設けられている。他の画素Dに対しても、リセットトランジスタをオンオフするための専用のリセット配線2330が設けられている。 The reset transistor (RST) of the pixel included in the unit area 2131 is configured to be turned on and off individually for each pixel. In FIG. 25, a reset wiring 2300 that turns on and off the reset transistor of pixel A is provided, and a reset wiring 2310 that turns on and off the reset transistor of pixel B is provided separately from the reset wiring 2300. Similarly, a reset wiring 2320 that turns on and off the reset transistor of pixel C is provided separately from the reset wirings 2300 and 2310 described above. A dedicated reset wiring 2330 for turning on and off the reset transistor is also provided for other pixels D.

単位領域2131に含まれる画素の転送トランジスタ(TX)についても、画素ごとに個別にオンオフ可能に構成される。図25において、画素Aの転送トランジスタをオンオフする転送配線2302、画素Bの転送トランジスタをオンオフする転送配線2312、画素Cの転送トランジスタをオンオフする転送配線2322が、別個に設けられている。他の画素Dに対しても、転送トランジスタをオンオフするための専用の転送配線2332が設けられている。 The transfer transistors (TX) of the pixels included in the unit area 2131 are also configured to be able to be turned on and off individually for each pixel. In FIG. 25, a transfer wiring 2302 that turns on and off the transfer transistor of pixel A, a transfer wiring 2312 that turns on and off the transfer transistor of pixel B, and a transfer wiring 2322 that turns on and off the transfer transistor of pixel C are provided separately. Dedicated transfer wiring 2332 for turning on and off the transfer transistors is also provided for other pixels D.

さらに、単位領域2131に含まれる画素の選択トランジスタ(SEL)についても、画素ごとに個別にオンオフ可能に構成される。図25において、画素Aの選択トランジスタをオンオフする選択配線2306、画素Bの選択トランジスタをオンオフする選択配線2316、画素Cの選択トランジスタをオンオフする選択配線2326が、別個に設けられている。他の画素Dに対しても、選択トランジスタをオンオフするための専用の選択配線2336が設けられている。 Furthermore, the selection transistors (SEL) of the pixels included in the unit area 2131 are also configured to be turned on and off individually for each pixel. In FIG. 25, a selection wiring 2306 that turns on and off the selection transistor of pixel A, a selection wiring 2316 that turns on and off the selection transistor of pixel B, and a selection wiring 2326 that turns on and off the selection transistor of pixel C are provided separately. Dedicated selection wiring 2336 for turning on and off the selection transistors is also provided for other pixels D.

なお、電源配線2304は、単位領域2131に含まれる画素Aから画素Dで共通に接続されている。同様に、出力配線2308は、単位領域2131に含まれる画素Aから画素Dで共通に接続されている。また、電源配線2304は複数の単位領域間で共通に接続されるが、出力配線2308は単位領域2131ごとに個別に設けられる。負荷電流源2309は、出力配線2308へ電流を供給する。負荷電流源2309は、撮像チップ2111側に設けられてもよいし、信号処理チップ2112側に設けられてもよい。 Note that the power supply wiring 2304 is commonly connected to pixels A to D included in the unit area 2131. Similarly, the output wiring 2308 is commonly connected to pixels A to D included in the unit area 2131. Further, the power supply wiring 2304 is commonly connected between a plurality of unit areas, but the output wiring 2308 is provided individually for each unit area 2131. Load current source 2309 supplies current to output wiring 2308. The load current source 2309 may be provided on the imaging chip 2111 side, or may be provided on the signal processing chip 2112 side.

単位領域2131のリセットトランジスタおよび転送トランジスタを個別にオンオフすることにより、単位領域2131に含まれる画素Aから画素Dに対して、電荷の蓄積開始時間、蓄積終了時間、転送タイミングを含む電荷蓄積を制御することができる。また、単位領域2131の選択トランジスタを個別にオンオフすることにより、各画素Aから画素Dの光電変換信号を共通の出力配線2308を介して出力することができる。 By individually turning on and off the reset transistor and transfer transistor of the unit area 2131, charge accumulation including charge accumulation start time, accumulation end time, and transfer timing is controlled for pixels A to D included in the unit area 2131. can do. Furthermore, by individually turning on and off the selection transistors in the unit area 2131, the photoelectric conversion signals from each pixel A to the pixel D can be outputted via the common output wiring 2308.

ここで、単位領域2131に含まれる画素Aから画素Dについて、行および列に対して規則的な順序で電荷蓄積を制御する、いわゆるローリングシャッタ方式が公知である。ローリングシャッタ方式により行ごとに画素を選択してから列を指定すると、図25の例では「ABCD」の順序で光電変換信号が出力される。 Here, a so-called rolling shutter method is known in which charge accumulation is controlled in a regular order for rows and columns for pixels A to D included in the unit area 2131. When pixels are selected for each row using the rolling shutter method and then a column is designated, photoelectric conversion signals are output in the order of "ABCD" in the example of FIG. 25.

このように単位領域2131を基準として回路を構成することにより、単位領域2131ごとに電荷蓄積時間を制御することができる。換言すると、単位領域2131間で異なったフレームレートによる光電変換信号をそれぞれ出力させることができる。また、撮像チップ2111において一部のブロックに含まれる単位領域2131に電荷蓄積(撮像)を行わせる間に他のブロックに含まれる単位領域2131を休ませることにより、撮像チップ2111の所定のブロックでのみ撮像を行わせて、その光電変換信号を出力させることができる。さらに、フレーム間で電荷蓄積(撮像)を行わせるブロック(蓄積制御の対象ブロック)を切り替えて、撮像チップ2111の異なるブロックで逐次撮像を行わせて、光電変換信号を出力させることもできる。 By configuring the circuit with the unit area 2131 as a reference in this way, the charge accumulation time can be controlled for each unit area 2131. In other words, photoelectric conversion signals with different frame rates can be output between the unit areas 2131, respectively. Furthermore, by resting the unit regions 2131 included in other blocks while charge accumulation (imaging) is performed in the unit regions 2131 included in some blocks in the imaging chip 2111, a predetermined block of the imaging chip 2111 can be It is possible to perform imaging only and output the photoelectric conversion signal. Furthermore, it is also possible to switch blocks (object blocks for accumulation control) in which charge accumulation (imaging) is performed between frames, to cause different blocks of the imaging chip 2111 to sequentially perform imaging, and to output photoelectric conversion signals.

上記の通り、単位領域2131のそれぞれに対応して出力配線2308が設けられている。撮像素子22は撮像チップ2111、信号処理チップ2112およびメモリチップ2113を積層しているので、これら出力配線2308に接続部2109を用いたチップ間の電気的接続を用いることにより、各チップを面方向に大きくすることなく配線を引き回すことができる。 As described above, output wiring 2308 is provided corresponding to each unit area 2131. Since the image sensor 22 has an image sensor chip 2111, a signal processing chip 2112, and a memory chip 2113 stacked together, each chip can be connected in the plane direction by using electrical connection between the chips using a connection part 2109 for the output wiring 2308. Wiring can be routed without increasing the size.

図1は、第1の実施の形態に係る撮像装置の構成を示すブロック図である。撮像装置10は、レンズ一体型のカメラである。撮像装置10は、撮像光学系21と、撮像素子22と、制御部23と、液晶モニタ24と、メモリカード25と、操作部26と、DRAM27と、フラッシュメモリ28と、録音部29とを備える。 FIG. 1 is a block diagram showing the configuration of an imaging device according to a first embodiment. The imaging device 10 is a lens-integrated camera. The imaging device 10 includes an imaging optical system 21, an imaging element 22, a control section 23, a liquid crystal monitor 24, a memory card 25, an operation section 26, a DRAM 27, a flash memory 28, and a recording section 29. .

撮像光学系21は、複数のレンズから構成され、撮像素子22の撮像面に被写体像を結像させる。なお図1では、撮像光学系21を1枚のレンズとして図示している。 The imaging optical system 21 is composed of a plurality of lenses, and forms a subject image on the imaging surface of the imaging element 22. Note that in FIG. 1, the imaging optical system 21 is illustrated as one lens.

撮像素子22は例えばCMOSやCCD等の撮像素子であり、撮像光学系21により結像された被写体像を撮像して撮像信号を出力する。制御部23は、撮像装置10の各部を制御する電子回路であり、CPUとその周辺回路とから構成される。不揮発性の記憶媒体であるフラッシュメモリ28には、予め所定の制御プログラムが書き込まれている。制御部23は、フラッシュメモリ28から制御プログラムを読み込んで実行することにより、各部の制御を行う。この制御プログラムは、揮発性の記憶媒体であるDRAM27を作業用領域として使用する。 The image sensor 22 is, for example, an image sensor such as a CMOS or a CCD, and captures a subject image formed by the image capture optical system 21 and outputs an image signal. The control section 23 is an electronic circuit that controls each section of the imaging device 10, and is composed of a CPU and its peripheral circuits. A predetermined control program is written in the flash memory 28, which is a nonvolatile storage medium, in advance. The control unit 23 controls each unit by reading a control program from the flash memory 28 and executing it. This control program uses the DRAM 27, which is a volatile storage medium, as a work area.

液晶モニタ24は、液晶パネルを利用した表示装置である。制御部23は、所定周期(例えば60分の1秒)ごとに撮像素子22に繰り返し被写体像を撮像させる。そして、撮像素子22から出力された撮像信号に種々の画像処理を施していわゆるスルー画を作成し、液晶モニタ24に表示する。液晶モニタ24には、上記のスルー画以外に、例えば撮像パラメータ(撮像条件)を設定する設定画面等が表示される。 The liquid crystal monitor 24 is a display device using a liquid crystal panel. The control unit 23 causes the image sensor 22 to repeatedly capture a subject image at predetermined intervals (for example, 1/60th of a second). Then, various image processing is performed on the image signal output from the image sensor 22 to create a so-called through image, which is displayed on the liquid crystal monitor 24. In addition to the above-mentioned through-the-lens image, the liquid crystal monitor 24 displays, for example, a setting screen for setting imaging parameters (imaging conditions).

制御部23は、撮像素子22から出力された撮像信号に基づき、後述する画像ファイルを作成し、可搬性の記録媒体であるメモリカード25に画像ファイルを記録する。操作部26は、プッシュボタン等の種々の操作部材を有し、それら操作部材が操作されたことに応じて制御部23に操作信号を出力する。録音部29は、例えばマイクロフォン等により構成され、環境音を音声信号に変換して制御部23に入力する。なお、可搬性の記録媒体であるメモリカード25に画像ファイル40を記録するのではなく、撮像装置10に内蔵された不図示の記録媒体であるハードディスク等に記録してもよい。 The control unit 23 creates an image file, which will be described later, based on the image signal output from the image sensor 22, and records the image file on the memory card 25, which is a portable recording medium. The operation section 26 has various operation members such as push buttons, and outputs operation signals to the control section 23 in response to operations of these operation members. The recording unit 29 is composed of, for example, a microphone, and converts environmental sounds into audio signals and inputs the audio signals to the control unit 23 . Note that instead of recording the image file 40 on the memory card 25, which is a portable recording medium, it may be recorded on a hard disk, etc., which is a recording medium (not shown) built into the imaging device 10.

図2(a)は、撮像素子22の撮像面30を模式的に示す平面図であり、図2(b)は撮像面30の一部領域30aを拡大した平面図である。図2(b)に示すように、撮像面30には、撮像画素31が二次元状に多数配列されている。撮像画素31は、それぞれ不図示の色フィルタを有している。色フィルタは、赤(R)、緑(G)、青(B)の3種類からなり、図2(b)における「R」、「G」、および「B」という表記は、撮像画素31が有する色フィルタの種類を表している。図2(b)に示すように、撮像素子22の撮像面30には、このような各色フィルタを備えた撮像画素31が、いわゆるベイヤー配列に従って配列されている。 FIG. 2A is a plan view schematically showing the imaging surface 30 of the image sensor 22, and FIG. 2B is an enlarged plan view of a partial region 30a of the imaging surface 30. As shown in FIG. 2(b), a large number of imaging pixels 31 are arranged two-dimensionally on the imaging surface 30. The imaging pixels 31 each have a color filter (not shown). The color filter consists of three types: red (R), green (G), and blue (B), and the notations "R", "G", and "B" in FIG. Indicates the type of color filter that it has. As shown in FIG. 2(b), on the imaging surface 30 of the image sensor 22, imaging pixels 31 each having such color filters are arranged according to a so-called Bayer array.

赤フィルタを有する撮像画素31は、入射光のうち、赤色の波長帯の光を光電変換して受光信号(光電変換信号)を出力する。同様に、緑フィルタを有する撮像画素31は、入射光のうち、緑色の波長帯の光を光電変換して受光信号を出力する。また、青フィルタを有する撮像画素31は、入射光のうち、青色の波長帯の光を光電変換して受光信号を出力する。 The imaging pixel 31 having a red filter photoelectrically converts the light in the red wavelength band of the incident light and outputs a light reception signal (photoelectric conversion signal). Similarly, the imaging pixel 31 having a green filter photoelectrically converts light in the green wavelength band of the incident light and outputs a light reception signal. Further, the imaging pixel 31 having a blue filter photoelectrically converts light in the blue wavelength band of the incident light and outputs a light reception signal.

本実施形態の撮像素子22は、隣接する2画素×2画素の計4つの撮像画素31から成る単位グループ32ごとに、制御部23によって個別に制御可能に構成されている。例えば、互いに異なる2つの単位グループ32について、同時に電荷蓄積を開始したときに、一方の単位グループ32では電荷蓄積開始から1/30秒後に電荷の読み出し、すなわち受光信号の読み出しを行い、他方の単位グループ32では電荷蓄積開始から1/15秒後に電荷の読み出しを行うことができる。換言すると、撮像素子22は、1回の撮像において、単位グループ32ごとに異なる露光時間(電荷蓄積時間であり、いわゆるシャッタースピード)を設定することができる。 The image sensor 22 of this embodiment is configured to be individually controllable by the control unit 23 for each unit group 32 consisting of a total of four image pickup pixels 31 of 2 pixels×2 pixels adjacent to each other. For example, when two different unit groups 32 start charge accumulation at the same time, one unit group 32 reads out the charges, that is, reads out the light reception signal 1/30 seconds after the start of charge accumulation, and the other unit In group 32, charges can be read out 1/15 seconds after the start of charge accumulation. In other words, the image sensor 22 can set a different exposure time (charge accumulation time, so-called shutter speed) for each unit group 32 in one image capture.

撮像素子22は、上述した露光時間以外にも、撮像信号の増幅率(いわゆるISO感度)を単位グループ32ごとに異ならせることが可能である。撮像素子22は、電荷蓄積を開始するタイミングや受光信号を読み出すタイミングを単位グループ32ごとに変化させることができる。すなわち、撮像素子22は、動画撮像時のフレームレートを単位グループ32ごとに変化させることができる。 In addition to the above-mentioned exposure time, the image sensor 22 can vary the amplification factor of the image signal (so-called ISO sensitivity) for each unit group 32. The image sensor 22 can change the timing at which charge accumulation is started and the timing at which the light reception signal is read out for each unit group 32. That is, the image sensor 22 can change the frame rate when capturing a moving image for each unit group 32.

以上をまとめると、撮像素子22は、単位グループ32ごとに、露光時間、増幅率、フレームレート等の撮像条件を異ならせることが可能に構成されている。例えば、撮像画素31が有する不図示の光電変換部から撮像信号を読み出すための不図示の読み出し線が、単位グループ32ごとに設けられ、単位グループ32ごとに独立して撮像信号を読み出し可能に構成すれば、単位グループ32ごとに露光時間(シャッタースピード)を異ならせることができる。また、光電変換された電荷により生成された撮像信号を増幅する不図示の増幅回路を単位グループ32ごとに独立して設け、増幅回路による増幅率を増幅回路ごとに独立して制御可能に構成すれば、単位グループ32ごとに信号の増幅率(ISO感度)を異ならせることができる。 To summarize the above, the image sensor 22 is configured such that imaging conditions such as exposure time, amplification factor, frame rate, etc. can be varied for each unit group 32. For example, a readout line (not shown) for reading an imaging signal from a photoelectric conversion section (not shown) included in the imaging pixel 31 is provided for each unit group 32, and the configuration is such that the imaging signal can be read out independently for each unit group 32. Then, the exposure time (shutter speed) can be made different for each unit group 32. Further, an amplification circuit (not shown) for amplifying the image signal generated by the photoelectrically converted charge is provided independently for each unit group 32, and the amplification factor of the amplification circuit can be controlled independently for each amplification circuit. For example, the signal amplification factor (ISO sensitivity) can be made different for each unit group 32.

なお、単位グループ32を構成する撮像画素31の数は、上述した2×2の4画素でなくてもよい。単位グループ32は、少なくとも1個の撮像画素31を有していればよいし、逆に、4個より多くの撮像画素31を有していてもよい。また、単位グループ32ごとに異ならせることが可能な撮像条件は、上述したもの以外であってもよい。例えば、単位グループ32ごとに独立して制御可能な区画(1区画が1つの単位グループ32に対応する)を有する液晶パネルを撮像素子22に設け、オンオフ可能な減光フィルタとして利用すれば、単位グループ32ごとに明るさ(絞り値)を制御することが可能になる。 Note that the number of imaging pixels 31 constituting the unit group 32 may not be the above-mentioned 2×2 four pixels. The unit group 32 only needs to have at least one imaging pixel 31, or conversely may have more than four imaging pixels 31. Further, the imaging conditions that can be made different for each unit group 32 may be other than those described above. For example, if a liquid crystal panel having sections that can be controlled independently for each unit group 32 (one section corresponds to one unit group 32) is provided on the image sensor 22 and used as a neutral density filter that can be turned on and off, the unit It becomes possible to control the brightness (aperture value) for each group 32.

次に、制御部23が作成しメモリカード25に記録する画像ファイル40について説明する。図3は、本実施の形態に係る画像ファイルの構成を示す模式図である。画像ファイル40は、ヘッダ部41と、データ部42の2つのブロックから成る。 Next, the image file 40 created by the control unit 23 and recorded on the memory card 25 will be described. FIG. 3 is a schematic diagram showing the structure of an image file according to this embodiment. The image file 40 consists of two blocks: a header section 41 and a data section 42.

ヘッダ部41は、画像ファイル40の先頭に位置するブロックであり、ファイル基本情報部43と、マスク部44と、撮像情報部45とが、以上に述べた順序で格納されている。ファイル基本情報部43には、例えば画像ファイル40内の各部(ヘッダ部41、データ部42、マスク部44、撮像情報部45等)のサイズやオフセットが記録される。マスク部44には、後述する撮像条件情報やマスク情報等が記録される。撮像情報部45には、例えば撮像装置10の機種名や撮像光学系21の情報(例えば収差等の光学特性に関する情報)等、撮像に関する情報が記録される。データ部42は、ヘッダ部41の後ろに位置するブロックであり、画像情報や音声情報等が記録される。 The header section 41 is a block located at the beginning of the image file 40, and stores a file basic information section 43, a mask section 44, and an imaging information section 45 in the order described above. The file basic information section 43 records, for example, the size and offset of each section within the image file 40 (header section 41, data section 42, mask section 44, imaging information section 45, etc.). The mask section 44 records imaging condition information, mask information, etc., which will be described later. The imaging information section 45 records information related to imaging, such as the model name of the imaging device 10 and information on the imaging optical system 21 (for example, information regarding optical characteristics such as aberrations). The data section 42 is a block located after the header section 41, and records image information, audio information, and the like.

次に、撮像装置10が有する撮像機能と、各撮像機能により作成(記録)される画像ファイル40について説明する。ユーザは、操作部26が有する操作部材に対して所定の操作を行い、以下に説明する各撮像機能を切り替える(選択する)ことができる。制御部23は、選択されている撮像機能に基づき撮像を行い、画像ファイル40を作成してメモリカード25に記録する。 Next, the imaging functions possessed by the imaging device 10 and the image files 40 created (recorded) by each imaging function will be described. The user can switch (select) each imaging function described below by performing a predetermined operation on the operation member included in the operation unit 26. The control unit 23 performs imaging based on the selected imaging function, creates an image file 40, and records it on the memory card 25.

(1)静止画撮像機能A(単一の静止画)
静止画撮像機能Aは、撮像画面を複数の部分領域に区切り、それら複数の部分領域に対して個別に撮像条件を設定して静止画を撮像する機能である。
(1) Still image capture function A (single still image)
The still image imaging function A is a function that divides the imaging screen into a plurality of partial areas, sets imaging conditions individually for the plurality of partial areas, and images a still image.

図4(a)に、撮像素子22の撮像画面50(撮像範囲)と被写体51とを模式的に示す。図4(a)に示した被写体51を、静止画撮像機能Aにより撮像する手順について説明する。制御部23は、本撮像前に、一度、被写体51を撮像する。以下、この本撮像に先立って行われる撮像を、予備撮像と称する。なお、予備撮像は、例えばライブビュー画像(いわゆるスルー画)の作成のために行われる撮像を兼ねていてもよい。 FIG. 4A schematically shows an imaging screen 50 (imaging range) of the image sensor 22 and a subject 51. A procedure for capturing an image of the subject 51 shown in FIG. 4(a) using the still image capturing function A will be described. The control unit 23 images the subject 51 once before the main image sensing. Hereinafter, the imaging performed prior to the main imaging will be referred to as preliminary imaging. Note that the preliminary imaging may also serve as imaging performed for creating a live view image (so-called through image), for example.

制御部23は、予備撮像により得られた被写体51の画像(被写体51が写り込んでいる画像)に対して、所定の画像解析処理を実行する。画像解析処理は、例えば周知の被写体検出技術(特徴量を演算して所定の被写体が存在する範囲を検出する技術)により、主要被写体部分と背景部分とを検出する処理である。画像解析処理によって、撮像画面50は、主要被写体部分が存在する主要被写体領域52と、背景部分が存在する背景領域53とに分割される。 The control unit 23 executes a predetermined image analysis process on the image of the subject 51 (the image in which the subject 51 is reflected) obtained by preliminary imaging. The image analysis process is a process of detecting a main subject part and a background part using, for example, a well-known subject detection technique (a technique that calculates feature amounts and detects a range in which a predetermined subject exists). Through the image analysis process, the imaging screen 50 is divided into a main subject area 52 where the main subject part exists and a background area 53 where the background part exists.

なお、図4(a)では、被写体51を大まかに含む領域を主要被写体領域52として図示しているが、主要被写体領域52は、被写体51の外形に沿った形状であってもよい。つまり、被写体51以外のものをできるだけ含まないように主要被写体領域52を設定してもよい。 Note that in FIG. 4A, an area roughly including the subject 51 is illustrated as the main subject area 52, but the main subject area 52 may have a shape that follows the outer shape of the subject 51. In other words, the main subject area 52 may be set so as not to include anything other than the subject 51 as much as possible.

制御部23は、主要被写体領域52内の各単位グループ32と、背景領域53内の各単位グループ32とで、異なる撮像条件を設定する。例えば、前者の各単位グループ32には、後者の各単位グループ32に比べて高速なシャッタースピードを設定する。このようにすると、本撮像において、主要被写体領域52では像ぶれが発生しにくくなる。 The control unit 23 sets different imaging conditions for each unit group 32 in the main subject area 52 and each unit group 32 in the background area 53. For example, a higher shutter speed is set for each of the former unit groups 32 than for each of the latter unit groups 32. In this way, image blur is less likely to occur in the main subject area 52 during main imaging.

また、背景領域53に存在する太陽等の光源の影響で、主要被写体領域52が逆光状態となっている場合には、前者の各単位グループ32に、相対的に高めのISO感度を設定したり、低速なシャッタースピードを設定する。また、後者の各単位グループ32に、相対的に低めのISO感度を設定したり、高速なシャッタースピードを設定したりする。このようにすると、本撮像において、逆光状態の主要被写体領域52の黒つぶれや、光量の大きい背景領域53の白飛びを防止することができる。 Furthermore, if the main subject area 52 is backlit due to the influence of a light source such as the sun existing in the background area 53, a relatively high ISO sensitivity may be set for each unit group 32 of the former. , set a slow shutter speed. Moreover, a relatively low ISO sensitivity or a high shutter speed is set for each of the latter unit groups 32. In this way, in the main image capturing, it is possible to prevent blown-out shadows in the main subject area 52 in a backlit state and blown-out highlights in the background area 53 with a large amount of light.

なお、画像解析処理は、上述した主要被写体部分と背景部分とを検出する処理とは異なる処理であってもよい。例えば、撮像画面50全体のうち、明るさが一定以上の部分(明るすぎる部分)や明るさが一定未満の部分(暗すぎる部分)を検出する処理であってもよい。画像解析処理をこのような処理とした場合、制御部23は、前者の領域に含まれる単位グループ32について、露出値(Ev値)が他の領域に含まれる単位グループ32よりも低くなるようにシャッタースピードやISO感度を設定する。また、後者の領域に含まれる単位グループ32については、露出値(Ev値)が他の領域に含まれる単位グループ32よりも高くなるようにシャッタースピードやISO感度を設定する。このようにすることで、本撮像により得られる画像のダイナミックレンジを、撮像素子22の本来のダイナミックレンジよりも広げることができる。 Note that the image analysis process may be a process different from the process of detecting the main subject part and the background part described above. For example, it may be a process of detecting a portion of the entire imaging screen 50 whose brightness is above a certain level (a portion that is too bright) or a portion whose brightness is less than a certain level (a portion that is too dark). When the image analysis process is such a process, the control unit 23 sets the exposure value (Ev value) of the unit group 32 included in the former area to be lower than that of the unit group 32 included in the other area. Set the shutter speed and ISO sensitivity. Further, for the unit group 32 included in the latter area, the shutter speed and ISO sensitivity are set so that the exposure value (Ev value) is higher than that of the unit group 32 included in the other area. By doing so, the dynamic range of the image obtained by main imaging can be made wider than the original dynamic range of the image sensor 22.

図5は、静止画撮像機能Aを用いて撮像した場合に作成される画像ファイル40の構成を模式的に示す図である。マスク部44には、識別情報60と、撮像条件情報61と、マスク情報62aが、以上に述べた順序で記録される。識別情報60は、この画像ファイル40が静止画撮像機能Aによって作成されたものである旨を表す情報である。 FIG. 5 is a diagram schematically showing the structure of an image file 40 created when an image is captured using the still image capturing function A. Identification information 60, imaging condition information 61, and mask information 62a are recorded in the mask section 44 in the order described above. The identification information 60 is information indicating that this image file 40 was created by the still image capturing function A.

撮像条件情報61は、単位グループ32にどのような用途(目的、役割)が存在するかを表す情報である。例えば、上述したように、撮像画面50(図4(a))を主要被写体領域52と背景領域53とに分割する場合、各々の単位グループ32は、主要被写体領域52に属するか、背景領域53に属するかのいずれかである。つまり、単位グループ32は、「主要被写体部分を静止画撮像する」という用途か、「背景部分を静止画撮像する」という用途か、のいずれかの用途を有している。撮像条件情報61は、この画像ファイル40の作成に際し、単位グループ32に「主要被写体部分を静止画撮像する」、「背景部分を静止画撮像する」という2種類の用途が存在したこと、並びに、これらの用途ごとに割り当てられた一意な番号を表す情報である。例えば、1という番号が「主要被写体部分を静止画撮像する」用途を、2という番号が「背景部分を静止画撮像する」用途にそれぞれ割り当てられる。 The imaging condition information 61 is information indicating what kind of use (purpose, role) the unit group 32 has. For example, as described above, when dividing the imaging screen 50 (FIG. 4(a)) into the main subject area 52 and the background area 53, each unit group 32 either belongs to the main subject area 52 or belongs to the background area 53. Either belongs to In other words, the unit group 32 has one of two uses: "capturing a still image of the main subject" or "capturing a still image of the background." The imaging condition information 61 indicates that when the image file 40 was created, there were two types of uses for the unit group 32: "capture a still image of the main subject" and "capture a still image of the background", and This information represents a unique number assigned to each of these uses. For example, the number 1 is assigned to the purpose of "capturing a still image of the main subject" and the number 2 is assigned to the purpose of "capturing a still image of the background."

マスク情報62aは、各々の単位グループ32の用途(目的、役割)を表す情報である。本実施形態では、マスク情報62aを、「撮像条件情報61に割り当てられた番号を、単位グループ32の位置に合わせて二次元マップの形で表現した情報」としている。つまり、二次元状に配列された単位グループ32を2つの整数x、yによる二次元座標(x、y)で特定するとき、(x、y)の位置に存在する単位グループ32の用途は、マスク情報62aの(x、y)の位置に存在する番号により表現される。例えば、マスク情報62aの座標(3,5)の位置に「1」という番号が入っていた場合、座標(3,5)に位置する単位グループ32には、「主要被写体部分を静止画撮像する」という用途が与えられたことがわかる。換言すると、座標(3,5)に位置する単位グループ32は、主要被写体領域52に属することがわかる。 The mask information 62a is information representing the purpose (purpose, role) of each unit group 32. In this embodiment, the mask information 62a is "information in which the number assigned to the imaging condition information 61 is expressed in the form of a two-dimensional map in accordance with the position of the unit group 32." In other words, when specifying the two-dimensionally arranged unit groups 32 using two-dimensional coordinates (x, y) using two integers x and y, the purpose of the unit group 32 located at the position (x, y) is as follows: It is expressed by the number existing at the position (x, y) of the mask information 62a. For example, if the number "1" is included in the position of coordinates (3, 5) in the mask information 62a, the unit group 32 located at coordinates (3, 5) will have "Still image capture of main subject part". ” It can be seen that the usage was given as follows. In other words, it can be seen that the unit group 32 located at the coordinates (3, 5) belongs to the main subject area 52.

図4(a)に示した撮像画面50に対応するマスク情報62aの例を、図4(b)に示す。主要被写体領域52に属する単位グループ32の位置には「1」が、背景領域53に属する単位グループ32の位置には「2」がそれぞれ格納されている。 An example of the mask information 62a corresponding to the imaging screen 50 shown in FIG. 4(a) is shown in FIG. 4(b). “1” is stored in the position of the unit group 32 that belongs to the main subject area 52, and “2” is stored in the position of the unit group 32 that belongs to the background area 53.

データ部42には、マスク情報62bと、画像情報64と、Tv値マップ65と、Sv値マップ66と、Bv値マップ67と、Av値情報68とが、以上に述べた順序で格納される。マスク情報62bは、マスク部44に格納されるマスク情報62aと同一の情報である。ここで、マスク部44とデータ部42の両方に同一のマスク情報62a、62bを格納しているのは、画像ファイル40の扱いが容易になるようにするためである。 The data section 42 stores mask information 62b, image information 64, Tv value map 65, Sv value map 66, Bv value map 67, and Av value information 68 in the order described above. . The mask information 62b is the same information as the mask information 62a stored in the mask section 44. Here, the reason why the same mask information 62a, 62b is stored in both the mask section 44 and the data section 42 is to facilitate handling of the image file 40.

詳細は後述するが、他の機能により作成される画像ファイル40では、マスク部44とデータ部42に互いに異なるマスク情報62a、62bを格納することがある。静止画撮像機能Aにおいて、例えばデータ部42にマスク情報62bを格納し、マスク部44にはマスク情報62aを格納しないことにすると、機能ごとに画像ファイル40の構造が変化することになる。このようにすると、画像ファイル40の扱いが煩雑になるため、本実施形態では、あえてマスク部44とデータ部42の両方に同一のマスク情報62a、62bを入れ、機能ごとの画像ファイル40の構造の違いを最小限にしている。なお、マスク情報62a、62bのいずれか一方を省略してもよく、その場合には、画像ファイル40が占有する記憶領域のサイズを削減することが可能となる。また、マスク情報62a、62bの両方が記録されていた場合であっても、識別情報によりマスク情報62a、62bの両方を読み込む必要があるか否かがわかるので、一方が再生処理等に不要であると判断した場合には、その一方の読み込みをスキップすることで、ファイル読み込み時間を短縮することができる。 Although details will be described later, in the image file 40 created by other functions, different mask information 62a and 62b may be stored in the mask section 44 and the data section 42. In the still image capturing function A, for example, if mask information 62b is stored in the data section 42 and mask information 62a is not stored in the mask section 44, the structure of the image file 40 will change for each function. If this is done, the handling of the image file 40 becomes complicated, so in this embodiment, the same mask information 62a, 62b is deliberately put in both the mask section 44 and the data section 42, and the structure of the image file 40 for each function is differences are minimized. Note that either one of the mask information 62a and 62b may be omitted, and in that case, it is possible to reduce the size of the storage area occupied by the image file 40. Furthermore, even if both the mask information 62a and 62b are recorded, it is possible to know whether or not it is necessary to read both the mask information 62a and 62b based on the identification information, so that one of them is unnecessary for playback processing, etc. If it is determined that there is one, the time to read the file can be shortened by skipping reading one of them.

なお、以下の説明では、マスク部44に格納されるマスク情報62aと、データ部42に格納されるマスク情報62bとを、マスク情報62と総称する。 In the following description, the mask information 62a stored in the mask section 44 and the mask information 62b stored in the data section 42 are collectively referred to as mask information 62.

画像情報64は、本撮像により撮像素子22から出力された撮像信号を、種々の画像処理を施す前の形で記録した情報であり、いわゆるRAW画像データである。Tv値マップ65は、単位グループ32ごとに設定されたシャッタースピードを表すTv値を、単位グループ32の位置に合わせて二次元マップの形で表現した情報である。例えば座標(x、y)に位置する単位グループ32に設定されたシャッタースピードは、Tv値マップ65の座標(x、y)に格納されているTv値を調べることで判別可能である。 The image information 64 is information obtained by recording the image signal output from the image sensor 22 during the actual image capturing in a form before performing various image processing, and is so-called RAW image data. The Tv value map 65 is information in which Tv values representing the shutter speed set for each unit group 32 are expressed in the form of a two-dimensional map in accordance with the position of the unit group 32. For example, the shutter speed set for the unit group 32 located at the coordinates (x, y) can be determined by checking the Tv value stored at the coordinates (x, y) of the Tv value map 65.

Sv値マップ66は、単位グループ32ごとに設定されたISO感度を表すSv値を、Tv値マップ65と同様に二次元マップの形で表現した情報である。Bv値マップ67は、本撮像に際して単位グループ32ごとに測定された被写体輝度、すなわち、各々の単位グループ32に入射した被写体光の輝度を表すBv値を、Tv値マップ65と同様に二次元マップの形で表現した情報である。Av値情報68は、本撮像時の絞り値を表す情報である。本実施形態において、Av値は、Tv値、Sv値、Bv値とは異なり、単位グループ32ごとに存在する値ではない。従って、Tv値、Sv値、Bv値とは違い、Av値は単一の値のみが格納され、複数の値を二次元状にマップした情報とはなっていない。 The Sv value map 66 is information in which the Sv value representing the ISO sensitivity set for each unit group 32 is expressed in the form of a two-dimensional map similarly to the Tv value map 65. The Bv value map 67 is a two-dimensional map, similar to the Tv value map 65, of the subject brightness measured for each unit group 32 during main imaging, that is, the Bv value representing the brightness of the subject light incident on each unit group 32. This is information expressed in the form of The Av value information 68 is information representing the aperture value at the time of actual imaging. In this embodiment, the Av value is not a value that exists for each unit group 32, unlike the Tv value, Sv value, and Bv value. Therefore, unlike the Tv value, Sv value, and Bv value, only a single value is stored in the Av value, and the Av value is not information in which a plurality of values are mapped two-dimensionally.

以上のように、制御部23は、静止画撮像機能Aによる撮像を行うことにより、単位グループ32ごとに撮像条件が設定可能な撮像素子22により生成された画像情報64と、単位グループ32ごとの撮像条件に関するデータ(撮像条件情報61、マスク情報62、Tv値マップ65、Sv値マップ66、Bv値マップ67等)とが関連付けられた画像ファイル40を、メモリカード25に記録する。このような画像ファイルの保存形式を、本明細書では一括保存形式(時系列型)と呼ぶ。 As described above, by performing imaging using the still image imaging function A, the control unit 23 uses the image information 64 generated by the imaging device 22 for which imaging conditions can be set for each unit group 32, and the image information 64 for each unit group 32. An image file 40 associated with data related to imaging conditions (imaging condition information 61, mask information 62, Tv value map 65, Sv value map 66, Bv value map 67, etc.) is recorded on the memory card 25. In this specification, such an image file storage format is referred to as a batch storage format (time series type).

なお上述の説明では、画像情報64がRAW画像データであるものとして説明を行ったが、RAW画像データではなく圧縮(現像)された画像データであってもよい。 In the above description, the image information 64 is RAW image data, but it may be compressed (developed) image data instead of RAW image data.

(2)動画撮像機能A(単一の動画)
動画撮像機能Aは、撮像画面を複数の部分領域に区切り、それら複数の部分領域に対して個別に撮像条件を設定して、動画を撮像する機能である。静止画撮像機能Aとの違いは、静止画ではなく動画を撮像する点である。静止画ではなく動画を撮像するため、静止画撮像機能Aで述べた「各々の単位グループ32の用途」が、フレームごとに変化する可能性がある。
(2) Video imaging function A (single video)
The video imaging function A is a function that divides the imaging screen into a plurality of partial areas, sets imaging conditions individually for the plurality of partial areas, and images a video. The difference from the still image capturing function A is that a moving image is captured instead of a still image. Since a moving image is captured instead of a still image, the "use of each unit group 32" described in the still image capturing function A may change from frame to frame.

図6(a)に、撮像素子22の撮像画面50(撮像範囲)と、被写体51とを模式的に示す。制御部23は、本撮像前に予備撮像を行う。そして、予備撮像により得られた被写体51の画像(被写体51が写り込んでいる画像)に対して、所定の画像解析処理を実行する。画像解析処理によって、撮像画面50は、主要被写体部分が存在する主要被写体領域52と、背景部分が存在する背景領域53とに分割される。制御部23は、主要被写体領域52内の各単位グループ32と、背景領域53内の各単位グループ32とで、異なる撮像条件を設定して、1フレーム目の本撮像を行い、画像データを作成する。このときのマスク情報62の例を、図6(b)に示す。図6(b)に示したマスク情報62では一例として、主要被写体領域52に属する単位グループ32に「1」という番号を、背景領域53に属する単位グループ32に「2」という番号を割り振っている。 FIG. 6A schematically shows an imaging screen 50 (imaging range) of the image sensor 22 and a subject 51. The control unit 23 performs preliminary imaging before main imaging. Then, a predetermined image analysis process is performed on the image of the subject 51 (the image in which the subject 51 is reflected) obtained by preliminary imaging. Through the image analysis process, the imaging screen 50 is divided into a main subject area 52 where the main subject part exists and a background area 53 where the background part exists. The control unit 23 sets different imaging conditions for each unit group 32 in the main subject area 52 and each unit group 32 in the background area 53, performs main imaging of the first frame, and creates image data. do. An example of the mask information 62 at this time is shown in FIG. 6(b). In the mask information 62 shown in FIG. 6(b), as an example, the number "1" is assigned to the unit group 32 belonging to the main subject area 52, and the number "2" is assigned to the unit group 32 belonging to the background area 53. .

次に、制御部23は、1フレーム目の画像データに対して、画像解析処理を実行し、主要被写体部分と背景部分とを検出する。これにより、1フレーム目の画像データは、図6(c)に示すように、主要被写体領域52と背景領域53とに分割される。制御部23は、主要被写体領域52内の各単位グループ32と、背景領域53内の各単位グループ32とで、異なる撮像条件を設定して、2フレーム目の本撮像を行い、画像データを作成する。このときのマスク情報62の例を、図6(d)に示す。 Next, the control unit 23 executes image analysis processing on the image data of the first frame to detect the main subject portion and the background portion. As a result, the image data of the first frame is divided into a main subject area 52 and a background area 53, as shown in FIG. 6(c). The control unit 23 sets different imaging conditions for each unit group 32 in the main subject area 52 and each unit group 32 in the background area 53, performs main imaging for the second frame, and creates image data. do. An example of the mask information 62 at this time is shown in FIG. 6(d).

予備撮像の結果に対応するマスク情報62(図6(b))と、1フレーム目の本撮像の結果に対応するマスク情報62(図6(d))とでは、異なる時刻に撮像を行っている(時間差がある)ため、例えば被写体51が移動している場合や、ユーザが撮像装置10を動かした場合に・BR>Aこれら2つのマスク情報62が異なる内容になる。換言すると、マスク情報62は、時間経過に伴い変化する動的情報である。従って、ある単位グループ32において、1フレーム目の本撮像時と2フレーム目の本撮像時とで、異なる撮像条件が設定されることになる。 The mask information 62 (FIG. 6(b)) corresponding to the result of preliminary imaging and the mask information 62 (FIG. 6(d)) corresponding to the result of main imaging of the first frame are obtained by imaging at different times. Therefore, for example, when the subject 51 is moving or when the user moves the imaging device 10, these two pieces of mask information 62 will have different contents. In other words, the mask information 62 is dynamic information that changes over time. Therefore, in a certain unit group 32, different imaging conditions are set during the actual imaging of the first frame and during the actual imaging of the second frame.

制御部23は、画像ファイル40に、各フレームの画像情報64と共に、各フレームのマスク情報62b、Tv値マップ65、Sv値マップ66、Bv値マップ67、およびAv値情報68を記録する。従って、撮像後に、画像ファイル40から、撮像時の情報を余すところなく取得することができ、動画再生等にそれらの情報を有効活用することができる。 The control unit 23 records the mask information 62b, Tv value map 65, Sv value map 66, Bv value map 67, and Av value information 68 of each frame together with the image information 64 of each frame in the image file 40. Therefore, after imaging, all the information at the time of imaging can be obtained from the image file 40, and this information can be effectively used for video playback and the like.

なお、3フレーム目以降の本撮像時の処理は、上述した2フレーム目の処理と同様であるので、説明を省略する。制御部23は、撮像が完了するまで(例えば所定の時間が経過するか、ユーザが所定の撮像終了操作を行うまで)上述した処理を繰り返し実行する。 Note that the processing during the main imaging of the third frame and subsequent frames is the same as the processing for the second frame described above, so a description thereof will be omitted. The control unit 23 repeatedly executes the above-described process until the imaging is completed (for example, until a predetermined time has elapsed or the user performs a predetermined imaging end operation).

図7は、動画撮像機能Aを用いて撮像した場合に作成される画像ファイル40の構成を模式的に示す図である。以下、図5に示した静止画撮像機能Aの場合との違いについて詳述する。 FIG. 7 is a diagram schematically showing the structure of an image file 40 created when an image is captured using the moving image capturing function A. Hereinafter, the differences from the still image capturing function A shown in FIG. 5 will be explained in detail.

識別情報60は、この画像ファイル40が動画撮像機能Aによって作成されたものである旨を表す。撮像条件情報61は、静止画撮像機能Aの撮像条件情報61にフレームレートを付け加えたものである。つまり、撮像条件情報61は、この画像ファイル40の作成に際し、単位グループ32に例えば「主要被写体部分を60fpsで動画撮像する」、「背景部分を30fpsで動画撮像する」という2種類の用途が存在したこと、並びに、これらの用途ごとに割り当てられた一意な番号を表す情報である。例えば、1という番号が「主要被写体部分を60fpsで動画撮像する」用途を、2という番号が「背景部分を30fpsで動画撮像する」用途にそれぞれ割り当てられる。 The identification information 60 indicates that this image file 40 was created by the moving image capturing function A. The imaging condition information 61 is obtained by adding a frame rate to the imaging condition information 61 of the still image imaging function A. In other words, when creating the image file 40, the imaging condition information 61 has two types of uses for the unit group 32, for example, "capture a video of the main subject at 60 fps" and "capture a video of the background at 30 fps." This is information that indicates what has been done, as well as a unique number assigned to each of these uses. For example, the number 1 is assigned to the purpose of "capturing a moving image of the main subject at 60 fps", and the number 2 is assigned to the purpose of "capturing a moving image of the background part at 30 fps".

マスク情報62aは、上述した静止画撮像機能Aと同様の情報である。ただし動画撮像の場合、前述の通り、マスク情報62はフレームごとに変化する動的情報なので、どのフレームのマスク情報62がヘッダ部41に記録されるのかを決めなければならない。本実施形態では、1フレーム目の撮像の際に各単位グループ32に設定された撮像条件を表すマスク情報62a、すなわち、図6(b)に例示したマスク情報62を、ヘッダ部41に記録する。このようにしたのは、静止画撮像機能Aの説明でも述べた通り、画像ファイル40の扱いが煩雑になることを防ぐためである。 The mask information 62a is the same information as the still image capturing function A described above. However, in the case of video imaging, as described above, the mask information 62 is dynamic information that changes from frame to frame, so it is necessary to decide which frame's mask information 62 will be recorded in the header section 41. In this embodiment, mask information 62a representing the imaging conditions set for each unit group 32 when imaging the first frame, that is, the mask information 62 illustrated in FIG. 6(b), is recorded in the header section 41. . The reason for doing this is to prevent the handling of the image file 40 from becoming complicated, as described in the description of the still image capturing function A.

データ部42には、1フレームごとに、1フレーム分のブロック70が撮像順に格納される。1つのブロック70は、マスク情報62と、画像情報64と、Tv値マップ65と、Sv値マップ66と、Bv値マップ67と、Av値情報68とから成る。また、データ部42には、フレームごとのブロック70と共に、音声情報71が格納される。音声情報71は、動画再生を行いやすいように、1フレーム分の情報ごとに分割され、ブロック70と多重化されてデータ部42に格納されている。なお、音声情報71の多重化は、1フレーム分でなく、所定数のフレーム分ごとに行ってもよい。ブロック70内の各情報は、1フレーム毎に記録されることを除き、静止画撮像機能Aの場合と同様であるので説明を省略する。 In the data section 42, blocks 70 for one frame are stored in the order of imaging for each frame. One block 70 includes mask information 62, image information 64, Tv value map 65, Sv value map 66, Bv value map 67, and Av value information 68. Furthermore, the data section 42 stores audio information 71 together with a block 70 for each frame. The audio information 71 is divided into each frame of information, multiplexed with the block 70, and stored in the data section 42 to facilitate video playback. Note that the audio information 71 may be multiplexed not for one frame but for every predetermined number of frames. Each piece of information in the block 70 is the same as in the case of the still image capturing function A, except that it is recorded for each frame, so a description thereof will be omitted.

なお、画像ファイル40に、各フレームの画像情報と共に、各フレームのマスク情報62bを記録するものに限定されない。例えば、監視カメラによる動画撮像の場合のように、同一の撮像シーンが連続するようなときには、撮像シーンの変化、即ちマスク情報62に変化が生じるまで、初期フレームのマスク情報62を使用する。この場合、制御部23は、第1フレーム目の撮像の際に設定されたマスク情報62aをヘッダ部41に記録する。第2フレーム目の撮像の際に設定されたマスク情報62が第1フレーム目のマスク情報62aと同一の場合には、制御部23は、データ部42の第2フレーム目のブロック70にはマスク情報62bを記録せず、かつ、マスク情報62bが無いことを示す情報(マスク有無情報)を付与する。マスク有無情報として、例えば「1」という番号が付与されている場合にはデータ部42にマスク情報62bが記録されていることを示し、「0」という番号が付与されている場合にはデータ部42にマスク情報62bが付与されていないことを示す。即ち、上記の第2フレーム目のブロック70にはマスク有無情報として「0」が付与される。 Note that the image file 40 is not limited to recording the mask information 62b of each frame together with the image information of each frame. For example, when the same captured scene occurs continuously, as in the case of moving image capturing with a surveillance camera, the mask information 62 of the initial frame is used until the captured scene changes, that is, the mask information 62 changes. In this case, the control unit 23 records the mask information 62a set at the time of imaging the first frame in the header unit 41. When the mask information 62 set during imaging of the second frame is the same as the mask information 62a of the first frame, the control unit 23 controls the block 70 of the second frame of the data section 42 to be masked. Information 62b is not recorded, and information indicating that there is no mask information 62b (mask presence/absence information) is provided. As the mask presence/absence information, for example, if the number "1" is assigned, it indicates that the mask information 62b is recorded in the data section 42, and if the number "0" is assigned, the data section 42 is recorded. 42 is not provided with mask information 62b. That is, "0" is assigned to the block 70 of the second frame as the mask presence/absence information.

以後のフレームについても、撮像されたシーンが第1フレーム目と同一の場合には、データ部42のそれぞれのブロック70には、マスク情報62bは記録されず、上記のマスク有無情報として「0」が付与される。撮像されたシーンが第1フレーム目で撮像されたシーンから変化した場合には、制御部23は、データ部42の当該フレームのブロック70に、マスク有無情報として「1」を付与し、シーンの変化に応じて設定されたマスク情報62bを記録する。これにより、同一の撮像シーンが連続するような場合には、データ部42のマスク情報62bを削減して、記憶領域のサイズを削減することが可能となる。 Regarding subsequent frames, if the captured scene is the same as the first frame, the mask information 62b is not recorded in each block 70 of the data section 42, and "0" is set as the mask presence/absence information. will be granted. When the captured scene changes from the scene captured in the first frame, the control unit 23 assigns “1” as the mask presence information to the block 70 of the frame in the data unit 42, and changes the scene. Mask information 62b set according to the change is recorded. This makes it possible to reduce the size of the storage area by reducing the mask information 62b in the data section 42 when the same captured scene continues.

さらには、撮像シーンが直前のフレームと同一の場合には、直前のマスク情報62を使用するようにしても良い。この場合、制御部23は、第1フレーム目の撮像の際に設定されたマスク情報62aをヘッダ部41に記録する。第2フレーム目の撮像の際に設定されたマスク情報62が第1フレーム目のマスク情報62aと同一の場合には、制御部23は、データ部42の第2フレーム目のブロック70にはマスク情報62bを記録せず、かつ、マスク情報62bが直前のフレームのマスク情報62aと同一であることを示す情報(マスク同一情報)を付与する。このマスク同一情報として、例えば「1」という番号が付与されている場合には、直前のフレームと撮像シーンが異なるためデータ部42にマスク情報62bが記録されていることを示す。「0」という番号が付与されている場合には、直前のフレームと撮像シーンが同一のためデータ部42にマスク情報62bが付与されていないことを示す。即ち、第2フレーム目のブロック70にはマスク同一情報として「0」が付与される。 Furthermore, if the captured scene is the same as the immediately previous frame, the immediately previous mask information 62 may be used. In this case, the control unit 23 records the mask information 62a set at the time of imaging the first frame in the header unit 41. When the mask information 62 set during imaging of the second frame is the same as the mask information 62a of the first frame, the control unit 23 controls the block 70 of the second frame of the data section 42 to be masked. The information 62b is not recorded, and information indicating that the mask information 62b is the same as the mask information 62a of the immediately previous frame (mask same information) is added. For example, when a number "1" is assigned as this mask same information, it indicates that the mask information 62b is recorded in the data section 42 because the captured scene is different from the immediately previous frame. If the number "0" is assigned, it indicates that the mask information 62b is not assigned to the data section 42 because the immediately previous frame and the captured scene are the same. That is, "0" is assigned to the block 70 of the second frame as the mask identity information.

第3フレーム目の撮像シーンが第2フレーム目の撮像シーンと異なる場合には、制御部23は、第3フレーム目のマスク情報62を設定し、データ部42の第3フレーム目のブロック70に、マスク同一情報として「1」を付与し、マスク情報62bを記録する。以後のフレームにおいても、制御部23は、直前のフレームの撮像シーンと異なる撮像シーンが得られた場合にはデータ部42の当該フレームのブロック70にマスク同一情報として「1」を付与した上でマスク情報62bを記録し、同一の撮像シーンが得られた場合にはマスク同一情報として「0」を付与しマスク情報62bを記録しない。これにより、同一の撮像シーンが連続するような場合には、データ部42のマスク情報62bを削減して、記憶領域のサイズを削減することが可能となる。 If the captured scene of the third frame is different from the captured scene of the second frame, the control unit 23 sets the mask information 62 of the third frame, and sets the mask information 62 of the third frame to the block 70 of the third frame of the data unit 42. , "1" is assigned as mask identity information, and mask information 62b is recorded. In subsequent frames as well, if a captured scene different from the captured scene of the immediately previous frame is obtained, the control unit 23 adds "1" to the block 70 of the frame in the data section 42 as mask same information. The mask information 62b is recorded, and if the same captured scene is obtained, "0" is assigned as the mask identity information and the mask information 62b is not recorded. This makes it possible to reduce the size of the storage area by reducing the mask information 62b in the data section 42 when the same captured scene continues.

以上のように、制御部23は、動画撮像機能Aによる撮像を行うことにより、単位グループ32ごとに撮像条件が設定可能な撮像素子22により生成された画像情報64と、単位グループ32ごとの撮像条件に関するデータ(撮像条件情報61、マスク情報62、Tv値マップ65、Sv値マップ66、Bv値マップ67等)とが関連付けられた画像ファイル40を、メモリカード25に記録する。このような画像ファイルの保存形式を、本明細書では一括保存形式(時系列型)と呼ぶ。 As described above, by performing imaging using the video imaging function A, the control unit 23 receives the image information 64 generated by the image sensor 22 for which imaging conditions can be set for each unit group 32, and the image information 64 for each unit group 32. An image file 40 associated with data related to conditions (imaging condition information 61, mask information 62, Tv value map 65, Sv value map 66, Bv value map 67, etc.) is recorded on the memory card 25. In this specification, such an image file storage format is referred to as a batch storage format (time series type).

(3)静止画撮像機能B(複数の静止画)
静止画撮像機能Bは、1回の撮像で、互いに撮像条件が異なる、同一の被写体に関する静止画を同時に複数枚撮像する機能である。
(3) Still image capture function B (multiple still images)
The still image capturing function B is a function that simultaneously captures a plurality of still images of the same subject under different imaging conditions in one image capture.

図8(a)に、撮像素子22の撮像面30を模式的に示す。また、図8(b)に、撮像面30の一部領域30bを拡大した模式図を示す。静止画撮像機能Bでは、二次元状に配置された複数の単位グループ32を、更に複数の大グループ81に分類する。このとき、ある大グループ81に属する単位グループ32が、撮像面80全体に一様に配置されるように単位グループ32を分類する。例えば図8(b)では、全ての単位グループ32を、2×2の4つの単位グループ32から成るブロック82に分割し、各ブロック82の左上の単位グループ32を1つ目の大グループ811に、左下の単位グループ32を2つ目の大グループ812に、右上の単位グループ32を3つ目の大グループ813に、右下の単位グループ32を4つ目の大グループ814に分類している。なお図8(b)では、模式的に図示した四角形1つが1つの単位グループ32を表しており、四角形の中に記載した数字は、その単位グループ32が属する大グループ81の種類を表している。 FIG. 8A schematically shows the imaging surface 30 of the image sensor 22. Further, FIG. 8(b) shows a schematic diagram in which a partial region 30b of the imaging surface 30 is enlarged. In the still image capturing function B, the plurality of two-dimensionally arranged unit groups 32 are further classified into a plurality of large groups 81. At this time, the unit groups 32 are classified so that the unit groups 32 belonging to a certain large group 81 are uniformly arranged over the entire imaging surface 80. For example, in FIG. 8(b), all unit groups 32 are divided into blocks 82 consisting of four 2×2 unit groups 32, and the upper left unit group 32 of each block 82 is divided into the first large group 811. , the lower left unit group 32 is classified into the second large group 812, the upper right unit group 32 is classified into the third large group 813, and the lower right unit group 32 is classified into the fourth large group 814. . In FIG. 8(b), each schematically illustrated square represents one unit group 32, and the number written inside the square represents the type of large group 81 to which the unit group 32 belongs. .

制御部23は、本撮像の際、1つ目の大グループ811に属する単位グループ32と、2つ目の大グループ812に属する単位グループ32と、3つ目の大グループ813に属する単位グループ32と、4つ目の大グループ814に属する単位グループ32とで、撮像条件を異ならせる。例えば、シャッタースピードやISO感度を互いに異なる値に設定して本撮像を行う。制御部23は、このようにして撮像した画像情報を画像ファイル40に記録する。ここで記録される画像情報は、図8(c)に模式的に示すように、各画素値を大グループ81ごとに集約して利用することを意図したものである。 During main imaging, the control unit 23 controls the unit group 32 that belongs to the first large group 811, the unit group 32 that belongs to the second large group 812, and the unit group 32 that belongs to the third large group 813. and the unit group 32 belonging to the fourth large group 814 have different imaging conditions. For example, actual imaging is performed by setting the shutter speed and ISO sensitivity to different values. The control unit 23 records the image information captured in this manner in the image file 40. The image information recorded here is intended to be used by collecting each pixel value into large groups 81, as schematically shown in FIG. 8(c).

例えば、図8(c)に示すように、1つ目の大グループ811に属する単位グループ32に対応する画素値だけを画像情報64から抽出して二次元状に並べると、撮像素子22の画素数の1/4の画素値から成る第1の画像情報641が得られる。同様に、2つ目の大グループ81に属する単位グループ32に対応する画素値だけを画像情報64から抽出して二次元状に並べると、撮像素子22の画素数の1/4の画素値から成り、上述した第1の画像情報641とは異なる撮像条件で撮像された、第1の画像情報641と同一の被写体51が写っている第2の画像情報642が得られる。同様に、第3の画像情報643、第4の画像情報644が得られる。これら4つの画像情報641、642、643、644は、全て、同一の被写体51を撮像した画像であり、且つ、互いに撮像条件が異なる画像である。つまり、最初に述べたように、1回の撮像で、互いに撮像条件が異なる、同一の被写体51に関する4つの静止画が同時に撮像されたといえる。 For example, as shown in FIG. 8C, if only the pixel values corresponding to the unit groups 32 belonging to the first large group 811 are extracted from the image information 64 and arranged two-dimensionally, the pixels of the image sensor 22 First image information 641 consisting of 1/4 of the pixel values is obtained. Similarly, if only the pixel values corresponding to the unit group 32 belonging to the second large group 81 are extracted from the image information 64 and arranged two-dimensionally, the pixel values corresponding to 1/4 of the number of pixels of the image sensor 22 As a result, second image information 642 is obtained in which the same subject 51 as the first image information 641 is photographed under different imaging conditions from the first image information 641 described above. Similarly, third image information 643 and fourth image information 644 are obtained. These four pieces of image information 641, 642, 643, and 644 are all images of the same subject 51, and are images under different imaging conditions. In other words, as described at the beginning, four still images of the same subject 51, which have different imaging conditions, are simultaneously captured in one imaging operation.

なお、画像ファイル40内の画像情報64は、撮像素子22の各撮像画素31からの画素出力を、撮像画素31の位置通りに配列した画像である。つまり、上述した4つの画像情報641、642、643、644を作成する処理は、メモリカード25から画像ファイル40を読み出す再生時や現像時に行われることになる。また、その画像情報64は、必ずしも4つの画像情報641、642、643、644を作成するためだけのものではない。画像情報64をそのまま利用(再生等)してしまうと、隣接する単位グループ32ごとに撮像条件が異なっているため、例えば市松模様が現れた不自然な画像になってしまう。しかしながら、画像ファイル40には、単位グループ32ごとの撮像条件(例えばTv値、Sv値等)が記録されているので、それらの撮像条件と画像情報64とを組み合わせて現像すれば、そのような不自然な画像となることを防ぐことができる。例えば、他の単位グループ32よりも露出値(Ev値)が高い単位グループ32では、他の単位グループ32よりも明るさを抑えて現像を行えばよい。 Note that the image information 64 in the image file 40 is an image in which pixel outputs from each imaging pixel 31 of the imaging device 22 are arranged according to the position of the imaging pixel 31. In other words, the process of creating the four pieces of image information 641, 642, 643, and 644 described above is performed during playback or development when the image file 40 is read from the memory card 25. Further, the image information 64 is not necessarily used only for creating four pieces of image information 641, 642, 643, and 644. If the image information 64 is used as is (reproduced, etc.), the imaging conditions will differ for each adjacent unit group 32, resulting in an unnatural image with, for example, a checkered pattern. However, since the image file 40 records imaging conditions (for example, Tv value, Sv value, etc.) for each unit group 32, if these imaging conditions and image information 64 are combined and developed, such This can prevent an unnatural image. For example, a unit group 32 having a higher exposure value (Ev value) than other unit groups 32 may be developed with less brightness than the other unit groups 32 .

以上では単位グループ32を4つの大グループ811、812、813、814に分類した例について説明したが、4つに限らず、任意の数の大グループ81に分類し、任意の数の静止画を同時に撮像してよい。また、大グループ81のレイアウト(単位グループ32の分類方法)も、2×2の単位グループ32を1つずつ異なる大グループ81に分類するというものに限らない。 An example in which the unit group 32 is classified into four large groups 811, 812, 813, and 814 has been described above, but the unit group 32 can be classified into any number of large groups 81, not limited to four, and any number of still images can be classified into any number of large groups 81. Images may be taken at the same time. Further, the layout of the large group 81 (method of classifying the unit groups 32) is not limited to categorizing the 2×2 unit groups 32 into different large groups 81 one by one.

この点について、図9(a)、(b)に例を挙げる。図9(a)では、全ての単位グループ32を、3×3の計9個の組に区切り、各々の組において、前記組に含まれる9個の単位グループ32を、それぞれ1~9番目の大グループ81に割り当てている。このようなレイアウトを採用することで、1回の撮像で、撮像条件が異なる9つの画像641~649を同時に撮像することができる。また、図9(b)では、全ての単位グループ32を、3×3の計9個の組に区切り、各々の組において、左上隅の単位グループ32を1つ目の大グループ81に割り当て、右下の2×2の計4個の単位グループ32を、2つ目の大グループ81に割り当てている。残りの4個の単位グループ32は、撮像に利用しないものとしている。このようにすると、1回の撮像で、撮像条件が異なる2つの画像641、642を同時に撮像することができるが、2つ目の大グループ81に対応する画像642は、1つ目の大グループ81に対応する画像641に比べて、4倍の画素数を有する画像になる。つまり、1回の撮像で、撮像条件が異なる2つの画像641、642を同時に撮像することができ、且つ、それら2つの画像641、642は、互いに画素数が異なるものとなる。 Examples of this point are shown in FIGS. 9(a) and 9(b). In FIG. 9(a), all unit groups 32 are divided into a total of nine sets of 3×3, and in each set, the nine unit groups 32 included in the set are divided into 1st to 9th groups. Assigned to large group 81. By adopting such a layout, nine images 641 to 649 under different imaging conditions can be simultaneously captured in one imaging operation. In addition, in FIG. 9(b), all unit groups 32 are divided into a total of nine groups of 3×3, and in each group, the unit group 32 in the upper left corner is assigned to the first large group 81, A total of four unit groups 32 (2×2) at the lower right are assigned to the second large group 81. The remaining four unit groups 32 are not used for imaging. In this way, two images 641 and 642 with different imaging conditions can be captured simultaneously in one imaging operation, but the image 642 corresponding to the second large group 81 is The image has four times as many pixels as the image 641 corresponding to 81. In other words, two images 641 and 642 under different imaging conditions can be simultaneously captured in one imaging operation, and the two images 641 and 642 have different numbers of pixels.

図10は、静止画撮像機能Bを用いて撮像した場合に作成される画像ファイル40の構成を模式的に示す図である。以下、図5に示した静止画撮像機能Aの場合との違いについて詳述する。 FIG. 10 is a diagram schematically showing the structure of an image file 40 created when an image is captured using the still image capturing function B. Hereinafter, the differences from the still image capturing function A shown in FIG. 5 will be explained in detail.

識別情報60は、この画像ファイル40が静止画撮像機能Bによって作成されたものである旨を表す。撮像条件情報61は、単位グループ32にどのような用途が存在するかを表す情報である。静止画撮像機能Bにおいては、各々の単位グループ32は、例えば「第1の画像情報641を構成する」という用途か、「第2の画像情報642を構成する」という用途か、「第3の画像情報643を構成する」という用途か、「第4の画像情報644を構成する」という用途か、のいずれかの用途を有している。撮像条件情報61は、この画像ファイル40の作成に際し、単位グループ32にそれら4種類の用途が存在したこと、並びに、これらの用途ごとに割り当てられた一意な番号を表す情報である。例えば、1~4の番号が、それぞれ「第1~第4の画像情報641~644を構成する」用途に割り当てられる。 The identification information 60 indicates that this image file 40 was created by the still image capturing function B. The imaging condition information 61 is information indicating what kind of use exists for the unit group 32. In the still image capturing function B, each unit group 32 has a purpose of "configuring the first image information 641", "configuring the second image information 642", or a "third image information 642", for example. It has one of two uses: ``forming image information 643'' or ``forming fourth image information 644.'' The imaging condition information 61 is information indicating that the unit group 32 had these four types of uses when the image file 40 was created, and a unique number assigned to each of these uses. For example, numbers 1 to 4 are assigned to "constitute first to fourth image information 641 to 644", respectively.

静止画撮像機能Bにおけるマスク情報62aは、静止画撮像機能Aの場合と同様に、各々の単位グループ32の用途を表す情報である。すなわち、マスク情報62aは、「撮像条件情報61に割り当てられた番号を、単位グループ32の位置に合わせて二次元マップの形で表現した情報」である。例えば、マスク情報62aの座標(3,5)に「1」という番号が入っていた場合、座標(3,5)の単位グループ32は1番目の大グループ811に属する、すなわち、第1の画像情報641を構成することがわかる。 The mask information 62a in the still image capturing function B is information representing the purpose of each unit group 32, as in the case of the still image capturing function A. That is, the mask information 62a is "information in which the numbers assigned to the imaging condition information 61 are expressed in the form of a two-dimensional map in accordance with the positions of the unit groups 32." For example, if the number "1" is included in the coordinates (3, 5) of the mask information 62a, the unit group 32 at the coordinates (3, 5) belongs to the first large group 811, that is, the first image It can be seen that information 641 is configured.

なお、本実施形態において、「0」という番号を持つ大グループ81は、撮像に利用されなかった単位グループ32を表す特別な大グループ81である。つまり、マスク情報62aにおいて「0」という番号が割り振られている単位グループ32は、撮像に利用されておらず(本撮像時に撮像信号が読み出されておらず)、データ部42に記録されている画像情報64には、その単位グループ32に関する情報が含まれていない(または、その単位グループ32に関する情報として、有効でないダミーの情報が記録されている)ことを表す。 Note that in this embodiment, the large group 81 having the number "0" is a special large group 81 representing the unit group 32 that was not used for imaging. In other words, the unit group 32 to which the number "0" is assigned in the mask information 62a is not used for imaging (the imaging signal is not read out during actual imaging) and is not recorded in the data section 42. This indicates that the image information 64 that exists does not include information regarding the unit group 32 (or dummy information that is not valid is recorded as information regarding the unit group 32).

例えば、同時に3通りの撮像条件で撮像できれば十分であり、4通りの撮像条件で撮像する必要がない場合には、図8(b)に示した単位グループ32のうち、「4」と書かれた単位グループ32のマスク情報62aに「0」という番号を割り当てればよい。 For example, if it is sufficient to capture images under three different imaging conditions at the same time, and there is no need to capture images under four imaging conditions, "4" is written in the unit group 32 shown in FIG. 8(b). The number "0" may be assigned to the mask information 62a of the assigned unit group 32.

データ部42の構成は、静止画撮像機能Aと同一である。すなわち、データ部42には、マスク情報62bと、画像情報64と、Tv値マップ65と、Sv値マップ66と、Bv値マップ67と、Av値情報68とが格納される。また、マスク情報62bは、マスク部44に格納されるマスク情報62aと同一の情報である。 The configuration of the data section 42 is the same as that of the still image capturing function A. That is, the data section 42 stores mask information 62b, image information 64, Tv value map 65, Sv value map 66, Bv value map 67, and Av value information 68. Further, the mask information 62b is the same information as the mask information 62a stored in the mask section 44.

なお、マスク情報62bとして、マスク部44のマスク情報62aと同一の情報ではなく、単位グループ32の各々の有効・無効を表す情報を格納してもよい。例えば、撮像に利用されていない(撮像時に撮像信号が読み出されていない)単位グループ32に数値「0」、撮像に利用された(撮像時に撮像信号が読み出された)単位グループ32に数値「1」を割り当て、それを単位グループ32の位置に合わせて二次元状に配列したマップをマスク情報62bとしてデータ部42に格納してもよい。後述する動画撮像機能Bや混合撮像機能においても同様である。 Note that the mask information 62b may not be the same information as the mask information 62a of the mask section 44, but information indicating whether each unit group 32 is valid or invalid may be stored. For example, a numerical value "0" is assigned to a unit group 32 that is not used for imaging (an imaging signal is not read out at the time of imaging), and a numerical value is set to a unit group 32 that is used for imaging (an imaging signal is not read out at the time of imaging). A map in which "1" is assigned and arranged two-dimensionally according to the position of the unit group 32 may be stored in the data section 42 as the mask information 62b. The same applies to the moving image capturing function B and the mixed image capturing function, which will be described later.

以上のように、制御部23は、静止画撮像機能Bによる撮像を行うことにより、単位グループ32ごとに撮像条件が設定可能な撮像素子22により生成された画像情報64と、単位グループ32ごとの撮像条件に関するデータ(撮像条件情報61、マスク情報62、Tv値マップ65、Sv値マップ66、Bv値マップ67等)とが関連付けられた画像ファイル40を、メモリカード25に記録する。このような画像ファイルの保存形式を、本明細書では一括保存形式(画像集合型)と呼ぶ。 As described above, by performing the imaging using the still image imaging function B, the control unit 23 uses the image information 64 generated by the imaging device 22 for which imaging conditions can be set for each unit group 32 and the image information 64 for each unit group 32. An image file 40 associated with data related to imaging conditions (imaging condition information 61, mask information 62, Tv value map 65, Sv value map 66, Bv value map 67, etc.) is recorded on the memory card 25. In this specification, such an image file storage format is referred to as a batch storage format (image set type).

(4)動画撮像機能B(複数の動画)
動画撮像機能Bは、1回の撮像で、互いに撮像条件が異なる、同一の被写体に関する動画を同時に撮像する機能である。静止画撮像機能Bとの違いは、静止画ではなく動画を撮像する点である。動画の撮像ではあるものの、動画撮像機能Aのように、ある大グループ81に分類された単位グループ32が、フレームごとに異なる大グループ81に分類されることはない。ただし、フレームレートの設定によっては、あるフレームに含まれていた(あるフレームで有効であった)単位グループ32が、別のフレームには含まれていない(別のフレームでは無効である)ことがある。以下、フレームレートの設定別に、動画撮像機能Bについて説明する。
(4) Video imaging function B (multiple videos)
The moving image capturing function B is a function of simultaneously capturing moving images of the same subject under different imaging conditions in one image capturing. The difference from still image capturing function B is that a moving image is captured instead of a still image. Although it is a moving image capturing function, unlike the moving image capturing function A, the unit group 32 classified into a certain large group 81 is not classified into a different large group 81 for each frame. However, depending on the frame rate settings, a unit group 32 that was included in one frame (valid in that frame) may not be included in another frame (invalid in another frame). be. The video imaging function B will be described below for each frame rate setting.

(4-1)全ての大グループ81でフレームレートが統一されている場合
図11は、全ての大グループ81において、フレームレートが同一の場合の動画撮像機能Bの説明図である。この場合、大グループ81ごとに異なる撮像条件とは、フレームレート以外の撮像条件(例えばシャッタースピードやISO感度等)である。露出時間は異なるとしても、フレームレート、すなわち信号読み出しの周期は同一であるため、全ての大グループ81において、撮像信号の読み出しはフレームレートに対応する所定周期T1ごとに行われる。
(4-1) When all large groups 81 have the same frame rate FIG. 11 is an explanatory diagram of the moving image capturing function B when all large groups 81 have the same frame rate. In this case, the imaging conditions that differ for each large group 81 are imaging conditions other than the frame rate (for example, shutter speed, ISO sensitivity, etc.). Even if the exposure times are different, the frame rate, that is, the cycle of signal readout is the same, so in all the large groups 81, the readout of the imaging signal is performed every predetermined cycle T1 corresponding to the frame rate.

全ての単位グループ32において同一のフレームレートで撮像が行われるので、全てのフレームにおいて、全ての単位グループ32が撮像に利用されている。換言すると、全てのフレームにおいて、全ての単位グループ32から撮像信号が読み出され、全てのフレームの画像情報64に、全ての単位グループ32から読み出された撮像信号が含まれている。例えば、撮像開始時刻t0から所定周期T1だけ後の時刻t1に、1つ目の画像情報64が作成される。この画像情報64には、1番目の大グループ81における1フレーム目(図11で#1と表記したフレーム。以下同様)の画像と、2番目の大グループ81における1フレーム目の画像と、3番目の大グループ81における1フレーム目の画像と、4番目の大グループ81における1フレーム目の画像と、が含まれる。2つ目以降の画像情報64についても同様である。 Since imaging is performed at the same frame rate in all unit groups 32, all unit groups 32 are used for imaging in all frames. In other words, the imaging signals are read out from all unit groups 32 in all frames, and the imaging signals read out from all unit groups 32 are included in the image information 64 of all frames. For example, the first image information 64 is created at time t1, which is a predetermined period T1 after the imaging start time t0. This image information 64 includes the image of the first frame in the first large group 81 (the frame indicated as #1 in FIG. 11; the same applies hereinafter), the image of the first frame in the second large group 81, and The first frame image in the fourth large group 81 and the first frame image in the fourth large group 81 are included. The same applies to the second and subsequent image information 64.

(4-2)大グループ81ごとにフレームレートが統一されていない場合
図12は、全ての大グループ81に、互いに異なるフレームレートが設定されている場合の動画撮像機能Bの説明図である。この例において、1番目の大グループ811には60fps、2番目の大グループ812には50fps、3番目の大グループ813には24fps、4番目の大グループ814には25fpsのフレームレートがそれぞれ設定されている。
(4-2) When the frame rate is not unified for each large group 81 FIG. 12 is an explanatory diagram of the moving image capturing function B when different frame rates are set for all the large groups 81. In this example, a frame rate of 60 fps is set for the first large group 811, 50 fps for the second large group 812, 24 fps for the third large group 813, and 25 fps for the fourth large group 814. ing.

このように、大グループ81同士でフレームレートが異なる場合、制御部23は、もっとも早いフレームレートを基準として各フレームを記録する。つまり、60fpsに対応する所定周期T2(約16.7ミリ秒)ごとに、画像情報64が記録される。例えば、撮像開始時刻t0から所定周期T2だけ後の時刻t11には、1番目の大グループ811に属する単位グループ32から読み出された撮像信号に基づく画像情報64が作成され、画像ファイル40に記録される。時刻t11の時点では、他の大グループ812、813、814において1フレーム目の撮像信号の読み出しが為されていないため、この画像情報64には、それらの撮像信号は含まれていない。なお図12では、特定の単位グループ32から撮像信号が読み出されておらず、画像情報64にその撮像信号が含まれていないことを、「X」という記号で表記している。 In this way, when the large groups 81 have different frame rates, the control unit 23 records each frame using the fastest frame rate as a reference. That is, the image information 64 is recorded every predetermined period T2 (approximately 16.7 milliseconds) corresponding to 60 fps. For example, at time t11, which is a predetermined period T2 after the imaging start time t0, image information 64 is created based on the imaging signal read from the unit group 32 belonging to the first large group 811, and is recorded in the image file 40. be done. At time t11, the first frame imaging signals have not been read out in the other large groups 812, 813, and 814, so the image information 64 does not include those imaging signals. Note that in FIG. 12, the symbol "X" indicates that no imaging signal has been read out from the specific unit group 32 and that the imaging signal is not included in the image information 64.

時刻t11から所定周期T2だけ後の時刻t12では、1番目の大グループ811の2回目(2フレーム目)の本撮像だけでなく、2番目の大グループ812(50fps)の1回目(1フレーム目)の本撮像も完了している。そこで、制御部23は、1番目の大グループ811に属する単位グループ32と2番目の大グループ812に属する単位グループ32から読み出した撮像信号を、画像ファイル40に記録する。3番目の大グループ813に属する単位グループ32や4番目の大グループ814に属する単位グループ32からは撮像信号が読み出されず、画像ファイル40にも記録されない。 At time t12, which is a predetermined period T2 after time t11, not only the second (second frame) main imaging of the first large group 811 but also the first (first frame) imaging of the second large group 812 (50 fps) is performed. ) has also been completed. Therefore, the control unit 23 records the imaging signals read from the unit groups 32 belonging to the first large group 811 and the unit groups 32 belonging to the second large group 812 to the image file 40. No imaging signals are read out from the unit groups 32 belonging to the third large group 813 or from the unit groups 32 belonging to the fourth large group 814, nor are they recorded in the image file 40.

このように、大グループ81同士でフレームレートが異なる場合、画像情報64の一部が欠落している(無効になっている)ことがある。制御部23は、フレームごとに記録するマスク情報62bによって、特定の単位グループ32に対応する撮像信号が画像情報64に含まれていないことを示す。具体的なマスク情報62bの構成については後に述べる。 In this way, when the large groups 81 have different frame rates, part of the image information 64 may be missing (invalid). The control unit 23 indicates that the image information 64 does not include the imaging signal corresponding to the specific unit group 32, using the mask information 62b recorded for each frame. The specific structure of the mask information 62b will be described later.

図13は、動画撮像機能Bを用いて撮像した場合に作成される画像ファイル40の構成を模式的に示す図である。以下、図7に示した動画撮像機能Aや図10に示した静止画撮像機能Bの場合との違いについて詳述する。 FIG. 13 is a diagram schematically showing the structure of an image file 40 created when an image is captured using the moving image capturing function B. Hereinafter, the differences from the moving image capturing function A shown in FIG. 7 and the still image capturing function B shown in FIG. 10 will be described in detail.

識別情報60は、この画像ファイル40が動画撮像機能Bによって作成されたものである旨を表す。撮像条件情報61は、単位グループ32にどのような用途が存在するかを表す情報である。動画撮像機能Bにおける撮像条件情報61は、静止画撮像機能Bの撮像条件情報61にフレームレートを付け加えたものである。つまり、撮像条件情報61は、この画像ファイル40の作成に際し、単位グループ32に例えば「60fpsの動画である第1の画像情報641を構成する」、「50fpsの動画である第2の画像情報642を構成する」、「24fpsの動画である第3の画像情報643を構成する」、「25fpsの動画である第4の画像情報644を構成する」という4種類の用途が存在したこと、並びに、これらの用途ごとに割り当てられた一意な番号を表す情報である。例えば、1~4の番号が、それぞれ「第1~第4の画像情報641~644を構成する」用途に割り当てられる。 The identification information 60 indicates that this image file 40 was created by the moving image capturing function B. The imaging condition information 61 is information indicating what kind of use exists for the unit group 32. The imaging condition information 61 for the video imaging function B is obtained by adding a frame rate to the imaging condition information 61 for the still image imaging function B. That is, when creating the image file 40, the imaging condition information 61 is configured such that, for example, "first image information 641 which is a 60 fps moving image" and "second image information 642 which is a 50 fps moving image" are set in the unit group 32. There were four types of uses: ``configuring the third image information 643 that is a 24 fps video'', ``configuring the fourth image information 644 that is a 25 fps video'', and This information represents a unique number assigned to each of these uses. For example, numbers 1 to 4 are assigned to "constitute first to fourth image information 641 to 644", respectively.

動画撮像機能Bにおけるマスク情報62aは、静止画撮像機能Bの場合と同様に、各々の単位グループ32の用途を表す情報である。すなわち、マスク情報62aは、「撮像条件情報61に割り当てられた番号を、単位グループ32の位置に合わせて二次元マップの形で表現した情報」である。例えば、マスク情報62aの座標(3,5)に「1」という番号が入っていた場合、座標(3,5)の単位グループ32は1番目の大グループ811に属する、すなわち、第1の画像情報641を構成することがわかる。 The mask information 62a in the moving image capturing function B is information representing the purpose of each unit group 32, as in the case of the still image capturing function B. That is, the mask information 62a is "information in which the numbers assigned to the imaging condition information 61 are expressed in the form of a two-dimensional map in accordance with the positions of the unit groups 32." For example, if the number "1" is included in the coordinates (3, 5) of the mask information 62a, the unit group 32 at the coordinates (3, 5) belongs to the first large group 811, that is, the first image It can be seen that information 641 is configured.

データ部42の構成は、動画撮像機能Aと同一である。すなわち、データ部42には、1フレームごとに、1フレーム分のブロック70が撮像順に格納される。1つのブロック70は、マスク情報62bと、画像情報64と、Tv値マップ65と、Sv値マップ66と、Bv値マップ67と、Av値情報68とから成る。また、データ部42には、フレームごとのブロック70と共に、音声情報71が格納される。 The configuration of the data section 42 is the same as that of the moving image capturing function A. That is, in the data section 42, blocks 70 for one frame are stored in the order of imaging for each frame. One block 70 includes mask information 62b, image information 64, Tv value map 65, Sv value map 66, Bv value map 67, and Av value information 68. Furthermore, the data section 42 stores audio information 71 together with a block 70 for each frame.

マスク情報62bには、上述した撮像条件情報61により特定される番号(例えば1~4の番号)だけでなく、「0」という番号が格納されることがある。この「0」という番号は、対応するフレームにおいて、単位グループ32が、撮像に利用されていない(撮像時に撮像信号が読み出されていない)ことを表す。上述のように、フレームレートが異なる複数の動画を撮像する場合、あるフレームの画像情報64には、特定の単位グループ32に対応する撮像信号が格納されていないことがある。このような場合、制御部23は、前記フレームにおいて、その単位グループ32に対応するマスク情報62の数値を「0」に設定する。ここで、マスク情報62bの数値が「0」に設定された単位グループ32については、画像情報64以外の情報、すなわち、Tv値マップ65内のTv値、Sv値マップ66内のSv値、Bv値マップ67内のSv値についても、有効な値が記録されない。 The mask information 62b may store not only the numbers specified by the above-mentioned imaging condition information 61 (for example, numbers 1 to 4) but also the number "0". This number "0" indicates that the unit group 32 is not used for imaging in the corresponding frame (the imaging signal is not read out during imaging). As described above, when capturing a plurality of moving images with different frame rates, the image information 64 of a certain frame may not contain an imaging signal corresponding to a specific unit group 32. In such a case, the control unit 23 sets the numerical value of the mask information 62 corresponding to the unit group 32 to "0" in the frame. Here, for the unit group 32 for which the numerical value of the mask information 62b is set to "0", information other than the image information 64, that is, the Tv value in the Tv value map 65, the Sv value in the Sv value map 66, the Bv No valid value is recorded for the Sv value in the value map 67 either.

なお、マスク情報62bの数値が「0」に設定された単位グループ32について、その単位グループ32の前フレームにおける撮像信号を、画像情報64に記録するようにしてもよい。Tv値マップ65内のTv値、Sv値マップ66内のSv値、Bv値マップ67内のSv値についても同様に、前フレームにおける値を記録するようにしてもよい。後述する混合撮像機能についても同様である。 Note that for a unit group 32 for which the numerical value of the mask information 62b is set to "0", the imaging signal in the previous frame of that unit group 32 may be recorded in the image information 64. Similarly, for the Tv value in the Tv value map 65, the Sv value in the Sv value map 66, and the Sv value in the Bv value map 67, the values in the previous frame may be recorded. The same applies to the mixed imaging function described later.

また、上述した(4-2)のように大グループ81同士でフレームレートが異なる場合であっても、データ部42にマスク情報62bを記録しなくても良い。例えば、上述した、1番目の大グループ811には60fps、2番目の大グループ812には50fps、3番目の大グループ813には24fps、4番目の大グループ814には25fpsのフレームレートがそれぞれ設定されている場合であっても、所定の周期で全ての大グループ81を構成する単位グループ32から撮像信号が読み出される。即ち、所定の周期ごとに、何れの単位グループ32にもマスク情報62として「0」が格納されないフレームが規則性を有して現れる。制御部23(記録制御部、生成部)は、この規則性を示す情報を生成してヘッダ部41に記録し、データ部42にマスク情報62bを記録しない。この場合、制御部23は、規則性を示す情報として、図12に示す場合を例に挙げると、第1フレームは大グループ811が有効かつ大グループ812~814が無効、第2フレームは大グループ811、812が有効かつ大グループ813、814が無効、第3フレームは大グループ811~814が有効を示す情報をヘッダ部41に記録すれば良い。規則性を有する情報が記録されることにより、各フレーム毎にマスク情報62bを記録する必要がなくなり、画像ファイル40が占有する記録領域のサイズを削減できる。 Furthermore, even if the large groups 81 have different frame rates as in (4-2) above, it is not necessary to record the mask information 62b in the data section 42. For example, the frame rate mentioned above is set to 60 fps for the first large group 811, 50 fps for the second large group 812, 24 fps for the third large group 813, and 25 fps for the fourth large group 814. Even in this case, image signals are read out from the unit groups 32 that make up all the large groups 81 at a predetermined period. That is, frames in which "0" is not stored as the mask information 62 in any unit group 32 appear with regularity at predetermined intervals. The control unit 23 (recording control unit, generation unit) generates information indicating this regularity and records it in the header section 41, but does not record the mask information 62b in the data section 42. In this case, the control unit 23 uses the information indicating the regularity to take the case shown in FIG. 12 as an example. In the first frame, the large group 811 is valid and large groups 812 to 814 are invalid; Information indicating that 811 and 812 are valid, large groups 813 and 814 are invalid, and that large groups 811 to 814 are valid for the third frame may be recorded in the header section 41. By recording information with regularity, there is no need to record the mask information 62b for each frame, and the size of the recording area occupied by the image file 40 can be reduced.

以上のように、制御部23は、動画撮像機能Bによる撮像を行うことにより、単位グループ32ごとに撮像条件が設定可能な撮像素子22により生成された画像情報64と、単位グループ32ごとの撮像条件に関するデータ(撮像条件情報61、マスク情報62、Tv値マップ65、Sv値マップ66、Bv値マップ67等)とが関連付けられた画像ファイル40を、メモリカード25に記録する。このような画像ファイルの保存形式を、本明細書では一括保存形式(画像集合型)と呼ぶ。 As described above, by performing imaging using the video imaging function B, the control unit 23 receives the image information 64 generated by the image sensor 22 for which imaging conditions can be set for each unit group 32, and the image information 64 for each unit group 32. An image file 40 associated with data related to conditions (imaging condition information 61, mask information 62, Tv value map 65, Sv value map 66, Bv value map 67, etc.) is recorded on the memory card 25. In this specification, such an image file storage format is referred to as a batch storage format (image set type).

(5)混合撮像機能(動画と静止画)
混合撮像機能は、静止画撮像機能Bと動画撮像機能Bを組み合わせた機能であり、1回の撮像で、互いに撮像条件が異なる、同一の被写体に関する静止画と動画を同時に撮像する機能である。
(5) Mixed imaging function (video and still images)
The mixed imaging function is a function that combines the still image imaging function B and the video imaging function B, and is a function that simultaneously images a still image and a video of the same subject under different imaging conditions in one imaging.

混合撮像機能において、制御部23は、静止画撮像機能Bや動画撮像機能Bと同様に、二次元状に配置された複数の単位グループ32を、更に複数の大グループ81に分類する。制御部23は、一部の大グループ81について、動画撮像機能Bと同様に動画撮像を行う。制御部23は、その動画撮像中に、残りの大グループ81を用いて、静止画撮像機能Bと同様に静止画撮像を行う。この静止画撮像は、例えば一定周期で繰り返し行ってもよいし(自動撮像)、ユーザにより特定の操作が為されたことに応じて行ってもよい(手動撮像)。 In the mixed imaging function, similarly to the still image imaging function B and the moving image imaging function B, the control unit 23 further classifies the plurality of unit groups 32 arranged two-dimensionally into a plurality of large groups 81. The control unit 23 performs video imaging for some of the large groups 81 in the same manner as the video imaging function B. During the video capturing, the control unit 23 uses the remaining large group 81 to capture a still image in the same manner as the still image capturing function B. This still image capturing may be performed, for example, repeatedly at regular intervals (automatic imaging), or may be performed in response to a specific operation performed by the user (manual imaging).

図14は、混合撮像機能の説明図である。ここでは4つの大グループ811~814を仮定し、そのうち1番目の大グループ811で60fpsの動画撮像を、2番目の大グループ812で50fpsの動画撮像を、3番目と4番目の大グループ813、814で静止画を撮像するものとしている。 FIG. 14 is an explanatory diagram of the mixed imaging function. Here, four large groups 811 to 814 are assumed, among which the first large group 811 captures a video at 60 fps, the second large group 812 captures a video at 50 fps, the third and fourth large groups 813, In step 814, a still image is captured.

制御部23は、動画撮像機能Bと同様に、もっとも早いフレームレート(例えば60fps)を基準として、各フレームを記録する。静止画撮像が行われない間、3番目と4番目の大グループ813、814に属する単位グループ32については、常に撮像信号の読み出しが行われない。つまり、フレームごとに記録される画像情報64には、静止画に対応する3番目と4番目の大グループ813、814に属する単位グループ32の撮像信号が含まれない。制御部23は、静止画撮像を行った場合、静止画撮像が完了したタイミング(3番目と4番目の大グループ813、814に属する単位グループ32から撮像信号を読み出したタイミング)で、直後のフレームに対応する画像情報64に、静止画撮像により読み出した撮像信号を含ませる。 Similarly to the video imaging function B, the control unit 23 records each frame using the fastest frame rate (for example, 60 fps) as a reference. While still image capturing is not performed, image signals are not always read out for the unit groups 32 belonging to the third and fourth large groups 813 and 814. That is, the image information 64 recorded for each frame does not include the imaging signals of the unit groups 32 belonging to the third and fourth large groups 813 and 814 corresponding to still images. When still image capturing is performed, the control unit 23 selects the immediately following frame at the timing at which the still image capturing is completed (at the timing at which the imaging signal is read from the unit groups 32 belonging to the third and fourth large groups 813 and 814). The image information 64 corresponding to the image information 64 includes an imaging signal read out by still image imaging.

図15は、混合撮像機能を用いて撮像した場合に作成される画像ファイル40の構成を模式的に示す図である。以下、図13に示した動画撮像機能Bの場合との違いについて詳述する。 FIG. 15 is a diagram schematically showing the structure of an image file 40 created when imaging is performed using the mixed imaging function. Hereinafter, the differences from the case of the moving image capturing function B shown in FIG. 13 will be explained in detail.

識別情報60は、この画像ファイル40が混合撮像機能によって作成されたものである旨を表す。撮像条件情報61は、単位グループ32にどのような用途が存在するかを表す情報である。混合撮像機能における撮像条件情報61は、例えばこの画像ファイル40の作成に際し、単位グループ32に「60fpsの動画である第1の画像情報641を構成する」、「30fpsである動画である第2の画像情報642を構成する」、「静止画である第3の画像情報643を構成する」、「静止画である第4の画像情報644を構成する」という4種類の用途が存在したこと、並びに、これらの用途ごとに割り当てられた一意な番号を表す情報である。例えば、1~4の番号が、それぞれ「第1~第4の画像情報641~644を構成する」用途に割り当てられる。 Identification information 60 indicates that this image file 40 was created by the mixed imaging function. The imaging condition information 61 is information indicating what kind of use exists for the unit group 32. The imaging condition information 61 in the mixed imaging function includes, for example, when creating this image file 40, the unit group 32 includes "first image information 641 which is a moving image at 60 fps" and "second image information which is a moving image at 30 fps". There were four types of uses: ``configuring image information 642,'' ``configuring third image information 643, which is a still image,'' and ``configuring fourth image information 644, which is a still image.'' , is information representing a unique number assigned to each of these uses. For example, numbers 1 to 4 are assigned to "constitute first to fourth image information 641 to 644", respectively.

混合撮像機能におけるマスク情報62aは、動画撮像機能Bの場合と同様に、各々の単位グループ32の用途を表す情報である。すなわち、マスク情報62aは、「撮像条件情報61に割り当てられた番号を、単位グループ32の位置に合わせて二次元マップの形で表現した情報」である。例えば、マスク情報62aの座標(3,5)に「1」という番号が入っていた場合、座標(3,5)の単位グループ32は1番目の大グループ811に属する、すなわち、第1の画像情報641を構成することがわかる。 The mask information 62a in the mixed imaging function is information representing the purpose of each unit group 32, as in the case of the moving image imaging function B. That is, the mask information 62a is "information in which the numbers assigned to the imaging condition information 61 are expressed in the form of a two-dimensional map in accordance with the positions of the unit groups 32." For example, if the number "1" is included in the coordinates (3, 5) of the mask information 62a, the unit group 32 at the coordinates (3, 5) belongs to the first large group 811, that is, the first image It can be seen that information 641 is configured.

混合撮像機能では、ヘッダ部41に、更にインデックス部73が追加されている。インデックス部73には、データ部42に記録されている複数のブロック70(複数のフレームにそれぞれ対応する)のうち、どのブロック70に静止画が格納されているかを表すインデックス情報74が記録されている。インデックス情報74には、例えば、「5フレーム目の画像情報64に含まれる第3の画像情報643に静止画が含まれている」というような情報が1つないし複数(静止画撮像の回数分だけ)含まれている。インデックス部73は、多数のブロック70の中から、静止画を素早く検索できるように設けられている。 In the mixed imaging function, an index section 73 is further added to the header section 41. In the index section 73, index information 74 indicating which block 70 stores a still image among the plurality of blocks 70 (each corresponding to a plurality of frames) recorded in the data section 42 is recorded. There is. The index information 74 includes one or more pieces of information (for example, "the third image information 643 included in the image information 64 of the fifth frame includes a still image") (for the number of still image captures). only) included. The index section 73 is provided so that still images can be quickly searched from among the large number of blocks 70.

なお、インデックス情報74は、フレーム数に基づき静止画の記録位置を特定するものでなくてもよい。例えば、動画の再生時刻に基づき静止画の記録位置を特定することもできる。この場合、インデックス情報74は、例えば「3分15秒時点の画像情報64に含まれる第3の画像情報643に静止画が含まれている」というような情報となる。 Note that the index information 74 does not have to specify the recording position of a still image based on the number of frames. For example, it is also possible to specify the recording position of a still image based on the playback time of the video. In this case, the index information 74 is, for example, information such as "the third image information 643 included in the image information 64 at the time of 3 minutes and 15 seconds includes a still image."

制御部23は、混合撮像機能による撮像中に静止画の撮像を行う度に、静止画の撮像を行ったフレーム番号や時刻をインデックス部73にインデックス情報74として追記する。なお、メモリカード25内の画像ファイル40のインデックス部73に直接追記するのではなく、DRAM27に一時記憶しておき、混合撮像機能の終了時に、メモリカード25内の画像ファイル40のインデックス部73にDRAM27内の情報を転送するようにしてもよい。 Each time a still image is captured during imaging using the mixed imaging function, the control unit 23 adds the frame number and time at which the still image was captured to the index unit 73 as index information 74. Note that instead of directly adding data to the index section 73 of the image file 40 in the memory card 25, it is temporarily stored in the DRAM 27, and when the mixed imaging function ends, the data is added to the index section 73 of the image file 40 in the memory card 25. Information in the DRAM 27 may also be transferred.

データ部42の構成は、動画撮像機能Bと同一である。すなわち、データ部42には、1フレームごとに、1フレーム分のブロック70が撮像順に格納される。1つのブロック70は、マスク情報62と、画像情報64と、Tv値マップ65と、Sv値マップ66と、Bv値マップ67と、Av値情報68とから成る。また、データ部42には、フレームごとのブロック70と共に、音声情報71が格納される。 The configuration of the data section 42 is the same as that of the moving image capturing function B. That is, in the data section 42, blocks 70 for one frame are stored in the order of imaging for each frame. One block 70 includes mask information 62, image information 64, Tv value map 65, Sv value map 66, Bv value map 67, and Av value information 68. Furthermore, the data section 42 stores audio information 71 together with a block 70 for each frame.

以上のように、制御部23は、混合撮像機能による撮像を行うことにより、単位グループ32ごとに撮像条件が設定可能な撮像素子22により生成された画像情報64と、単位グループ32ごとの撮像条件に関するデータ(撮像条件情報61、マスク情報62、Tv値マップ65、Sv値マップ66、Bv値マップ67等)とが関連付けられた画像ファイル40を、メモリカード25に記録する。このような画像ファイルの保存形式を、本明細書では一括保存形式(画像集合型)と呼ぶ。 As described above, by performing imaging using the mixed imaging function, the control unit 23 uses the image information 64 generated by the imaging device 22, in which imaging conditions can be set for each unit group 32, and the imaging conditions for each unit group 32. The image file 40 associated with the related data (imaging condition information 61, mask information 62, Tv value map 65, Sv value map 66, Bv value map 67, etc.) is recorded on the memory card 25. In this specification, such an image file storage format is referred to as a batch storage format (image set type).

次に、制御部23による画像の再生処理について説明する。画像の再生処理は、上述した種々の撮像機能によってメモリカード25に記録された画像ファイル40から、被写体の画像を作成する処理である。制御部23は、作成した画像を、例えば液晶モニタ24に表示したり、メモリカード25に上述した画像ファイル40とは別のファイルとして記録したりする。 Next, image reproduction processing by the control unit 23 will be described. The image reproduction process is a process of creating an image of the subject from the image file 40 recorded on the memory card 25 using the various imaging functions described above. The control unit 23 displays the created image on, for example, the liquid crystal monitor 24 or records it on the memory card 25 as a file different from the image file 40 described above.

制御部23は、画像ファイル40(図5、図7、図10、図13、図15)を開き、まずファイル基本情報部43を読み出す。これにより、画像ファイル40のマスク部44やデータ部42等のオフセットおよびサイズが判明する。次に制御部23は、画像ファイル40のマスク部44から、識別情報60を読み出す。これにより、制御部23は、この画像ファイル40がどの撮像機能により作成されたファイルであるかを認識する。以降の処理は、撮像機能毎に異なる。そこで、以下、画像の再生処理を、上述した撮像機能ごとに説明する。 The control unit 23 opens the image file 40 (FIGS. 5, 7, 10, 13, and 15), and first reads out the file basic information section 43. As a result, the offset and size of the mask portion 44, data portion 42, etc. of the image file 40 can be found. Next, the control section 23 reads the identification information 60 from the mask section 44 of the image file 40. Thereby, the control unit 23 recognizes which imaging function this image file 40 was created with. The subsequent processing differs depending on the imaging function. Therefore, image reproduction processing will be explained below for each of the above-mentioned imaging functions.

(1)静止画撮像機能A(単一の静止画)
画像ファイル40が、図5に示す、静止画撮像機能Aにより作成されたファイルであると認識すると、制御部23は、マスク部44から、撮像条件情報61およびマスク情報62aを読み出す。これにより、制御部23は、撮像画面全体のうち、どの範囲(どの単位グループ32)が主要被写体部分なのか、あるいは背景部分なのかを識別することができ、主要被写体部分と背景部分とで画作りを変化させることができる。例えば、主要被写体部分はより先鋭になるようにエッジ強調処理を施し、背景部分にはぼかし処理を施して主要被写体部分を強調することができる。
(1) Still image capture function A (single still image)
When recognizing that the image file 40 is a file created by the still image capturing function A shown in FIG. As a result, the control unit 23 can identify which range (which unit group 32) of the entire imaging screen is the main subject part or the background part, and the main subject part and the background part are separated from each other in the image. You can change the construction. For example, edge enhancement processing can be applied to the main subject to make it sharper, and blurring processing can be applied to the background to emphasize the main subject.

次に制御部23は、データ部42から、画像情報64、Tv値マップ65、Sv値マップ66、Bv値マップ67、およびAv値情報68を読み出す。そして、Tv値マップ65、Sv値マップ66、Bv値マップ67、およびAv値情報68に基づいて、画像情報64にいわゆる現像処理を実行する。画像情報64がRAWデータである場合は、制御部23は、例えば、色情報を有していない画像情報64に対して、周知のデモザイク処理を実行し、色情報を有する画像を作成する。また、制御部23は、Sv値マップ66等に基づき、色彩や明るさ等の調整、ノイズ軽減等の画像処理を行う。例えば、Sv値が大きい(感度が高い)単位グループ32には、他の単位グループ32に比べてノイズが乗りやすい。そこで、制御部23は、Sv値が大きいほど、ノイズ軽減の強度を高く(強く)する。制御部23は、以上のようにして作成された画像を、例えば液晶モニタ24に表示したり、メモリカード25に記録したりする。 Next, the control unit 23 reads out the image information 64, the Tv value map 65, the Sv value map 66, the Bv value map 67, and the Av value information 68 from the data unit 42. Then, based on the Tv value map 65, the Sv value map 66, the Bv value map 67, and the Av value information 68, so-called development processing is performed on the image information 64. When the image information 64 is RAW data, the control unit 23 performs well-known demosaic processing on the image information 64 that does not have color information, for example, to create an image that has color information. Further, the control unit 23 performs image processing such as adjustment of color and brightness, noise reduction, etc. based on the Sv value map 66 and the like. For example, a unit group 32 with a large Sv value (high sensitivity) is more susceptible to noise than other unit groups 32. Therefore, the control unit 23 increases (intensifies) the intensity of noise reduction as the Sv value increases. The control unit 23 displays the image created as described above on the liquid crystal monitor 24 or records it on the memory card 25, for example.

以上のように、制御部23は、静止画撮像機能Aにより作成された画像ファイル40を再生するに際し、画像情報64等のデータ部42に記録されている情報よりも先に、マスク部44に記録されている撮像条件情報61およびマスク情報62aを読み出す。マスク部44はデータ部42よりも前に記録されているので、再生処理に際し発生するシークを最小限にすることができる。 As described above, when reproducing the image file 40 created by the still image capturing function A, the control section 23 inputs the mask section 44 before the information recorded in the data section 42, such as the image information 64. The recorded imaging condition information 61 and mask information 62a are read out. Since the mask section 44 is recorded before the data section 42, the seek that occurs during reproduction processing can be minimized.

なお、前述の通り、データ部42には、ヘッダ部41に格納されているマスク情報62aと同一のマスク情報62bが格納されている。そこで、制御部23は、マスク情報62aの代わりに、データ部42からマスク情報62bを読み出してもよい。 Note that, as described above, the data section 42 stores mask information 62b that is the same as the mask information 62a stored in the header section 41. Therefore, the control section 23 may read the mask information 62b from the data section 42 instead of the mask information 62a.

(2)動画撮像機能A(単一の動画)
画像ファイル40が、図7に示す、動画撮像機能Aにより作成されたファイルであると認識すると、制御部23は、マスク部44からマスク情報62aを読み出す。制御部23は、撮像画面全体のうち、どの範囲(どの単位グループ32)が主要被写体部分なのか、あるいは背景部分なのかを判別する。次に、制御部23は、マスク部44から撮像条件情報61を読み出す。これにより、制御部23は、主要被写体部分と背景部分のフレームレートを認識する。次に制御部23は、データ部42の先頭のブロック70から順に、画像情報64、Tv値マップ65、Sv値マップ66、Bv値マップ67、およびAv値情報68を読み出して、動画を構成する各フレームを作成する。
(2) Video imaging function A (single video)
When recognizing that the image file 40 is a file created by the moving image capturing function A shown in FIG. 7, the control unit 23 reads mask information 62a from the mask unit 44. The control unit 23 determines which range (which unit group 32) of the entire imaging screen is the main subject part or the background part. Next, the control unit 23 reads the imaging condition information 61 from the mask unit 44 . Thereby, the control unit 23 recognizes the frame rates of the main subject portion and the background portion. Next, the control unit 23 sequentially reads out the image information 64, the Tv value map 65, the Sv value map 66, the Bv value map 67, and the Av value information 68 from the first block 70 of the data section 42 to configure a moving image. Create each frame.

制御部23は、各フレームを作成するに際し、ブロック70から、まずマスク情報62bを読み出す。そして、前記フレームにおいて、どの範囲(どの単位グループ32)が主要被写体部分なのか、あるいは背景部分なのかを識別する。その後、制御部23は、静止画撮像機能Aの説明で述べたように、主要被写体部分と背景部分とで異なる画像処理を実行する。制御部23は、以上のようにして作成したフレームから成る動画を、例えば液晶モニタ24に表示したり、メモリカード25に記録したりする。 When creating each frame, the control unit 23 first reads the mask information 62b from the block 70. Then, in the frame, it is identified which range (which unit group 32) is the main subject part or the background part. Thereafter, the control unit 23 executes different image processing for the main subject portion and the background portion, as described in the description of the still image capturing function A. The control unit 23 displays the moving image composed of the frames created as described above on, for example, the liquid crystal monitor 24 or records it on the memory card 25.

以上のように、制御部23は、動画撮像機能Aにより作成された画像ファイル40を再生するに際し、ブロック70内に記録されている画像情報64等の情報よりも先に、マスク情報62bを読み出す。マスク情報62bは画像情報64等よりも前に記録されているので、再生処理に際し発生するシークを最小限にすることができる。 As described above, when playing back the image file 40 created by the video imaging function A, the control unit 23 reads the mask information 62b before reading the image information 64 and other information recorded in the block 70. . Since the mask information 62b is recorded before the image information 64 and the like, it is possible to minimize the seek that occurs during reproduction processing.

なお、データ部42の先頭ブロックのマスク情報62bとマスク部44に記録されたマスク情報62aとが同じ情報であるため、制御部23は、マスク部44からマスク情報62aを読み出さないようしてもよい。 Note that since the mask information 62b of the first block of the data section 42 and the mask information 62a recorded in the mask section 44 are the same information, the control section 23 does not read out the mask information 62a from the mask section 44. good.

(3)静止画撮像機能B(複数の静止画)
画像ファイル40が、図10に示す、静止画撮像機能Bにより作成されたファイルであると認識すると、制御部23は、マスク部44から、撮像条件情報61およびマスク情報62aを読み出す。これにより、制御部23は、同時に何種類の静止画が撮像されたのか、また、どの単位グループ32がどの静止画を構成しているのかを識別する。すなわち、大グループ81が何個存在し、各単位グループ32がどの大グループ81に属しているのかを識別する。
(3) Still image capture function B (multiple still images)
When recognizing that the image file 40 is a file created by the still image imaging function B shown in FIG. 10, the control unit 23 reads imaging condition information 61 and mask information 62a from the mask unit 44. Thereby, the control unit 23 identifies how many types of still images are captured at the same time, and which unit group 32 constitutes which still image. That is, it identifies how many large groups 81 there are and which large group 81 each unit group 32 belongs to.

次に制御部23は、データ部42から、画像情報64、Tv値マップ65、Sv値マップ66、Bv値マップ67、およびAv値情報68を読み出す。そして、制御部23は、大グループ81ごとに、Tv値マップ65、Sv値マップ66、Bv値マップ67、およびAv値情報68に基づいて、画像情報64にいわゆる現像処理を実行し静止画を作成する。これにより、複数の静止画(例えば4つの静止画)が作成される。制御部23は、以上のようにして作成された画像を、例えば液晶モニタ24に表示したり、メモリカード25に記録したりする。 Next, the control unit 23 reads out the image information 64, the Tv value map 65, the Sv value map 66, the Bv value map 67, and the Av value information 68 from the data unit 42. Then, the control unit 23 performs so-called development processing on the image information 64 based on the Tv value map 65, the Sv value map 66, the Bv value map 67, and the Av value information 68 for each large group 81 to create a still image. create. As a result, a plurality of still images (for example, four still images) are created. The control unit 23 displays the image created as described above on the liquid crystal monitor 24 or records it on the memory card 25, for example.

以上のように、制御部23は、静止画撮像機能Bにより作成された画像ファイル40を再生するに際し、画像情報64等のデータ部42に記録されている情報よりも先に、マスク部44に記録されている撮像条件情報61およびマスク情報62aを読み出す。マスク部44はデータ部42よりも前に記録されているので、再生処理に際し発生するシークを最小限にすることができる。 As described above, when reproducing the image file 40 created by the still image capturing function B, the control section 23 inputs the mask section 44 before the information recorded in the data section 42, such as the image information 64. The recorded imaging condition information 61 and mask information 62a are read out. Since the mask section 44 is recorded before the data section 42, the seek that occurs during reproduction processing can be minimized.

なお、前述の通り、データ部42には、ヘッダ部41に格納されているマスク情報62aと同一のマスク情報62bが格納されている。そこで、マスク情報62aの代わりに、データ部42からマスク情報62bを読み出してもよい。 Note that, as described above, the data section 42 stores mask information 62b that is the same as the mask information 62a stored in the header section 41. Therefore, the mask information 62b may be read from the data section 42 instead of the mask information 62a.

(4)動画撮像機能B(複数の動画)
画像ファイル40が、図13に示す、動画撮像機能Bにより作成されたファイルであると認識すると、制御部23は、マスク部44からマスク情報62aと撮像条件情報61を読み出す。これにより、制御部23は、同時に何種類の動画が撮像されたのか、どの単位グループ32がどの動画を構成しているのか、および、各動画のフレームレートを識別する。すなわち、大グループ81が何個存在し、各単位グループ32がどの大グループ81に属しており、各大グループ81はどのようなフレームレートで撮像されたのかを識別する。次に制御部23は、データ部42の先頭のブロック70から順に、画像情報64、Tv値マップ65、Sv値マップ66、Bv値マップ67、およびAv値情報68を読み出して、各動画を構成する各フレームを作成する。
(4) Video imaging function B (multiple videos)
When the control unit 23 recognizes that the image file 40 is a file created by the moving image capturing function B shown in FIG. Thereby, the control unit 23 identifies how many types of moving images are captured at the same time, which unit group 32 constitutes which moving image, and the frame rate of each moving image. That is, it identifies how many large groups 81 there are, which large group 81 each unit group 32 belongs to, and at what frame rate each large group 81 was imaged. Next, the control unit 23 sequentially reads the image information 64, the Tv value map 65, the Sv value map 66, the Bv value map 67, and the Av value information 68 from the first block 70 of the data section 42, and configures each moving image. Create each frame.

制御部23は、各フレームを作成するに際し、ブロック70から、まずマスク情報62bを読み出す。そして、制御部23は、前記ブロック70の画像情報64にどの大グループ81に対応する画素信号が含まれているのかを識別する。その後、制御部23は、各大グループ81に対応するフレームを作成するが、前記ブロック70の画像情報64に画素信号が含まれていない大グループ81については、フレームを作成しない。制御部23は、以上のようにして作成したフレームから成る動画を、例えば液晶モニタ24に表示したり、メモリカード25に記録したりする。 When creating each frame, the control unit 23 first reads the mask information 62b from the block 70. Then, the control unit 23 identifies which large group 81 the pixel signal corresponds to is included in the image information 64 of the block 70 . Thereafter, the control unit 23 creates a frame corresponding to each large group 81, but does not create a frame for the large group 81 for which the image information 64 of the block 70 does not include a pixel signal. The control unit 23 displays the moving image composed of the frames created as described above on, for example, the liquid crystal monitor 24 or records it on the memory card 25.

以上のように、制御部23は、動画撮像機能Bにより作成された画像ファイル40を再生するに際し、ブロック70内に記録されている画像情報64等の情報よりも先に、マスク情報62a、62bを読み出す。マスク情報62a、62bは画像情報64等よりも前に記録されているので、再生処理に際し発生するシークを最小限にすることができる。 As described above, when reproducing the image file 40 created by the moving image capturing function B, the control unit 23 selects the mask information 62a, 62b before the image information 64 etc. recorded in the block 70. Read out. Since the mask information 62a, 62b is recorded before the image information 64, etc., the seek that occurs during reproduction processing can be minimized.

なお、データ部42の先頭ブロックのマスク情報62bとマスク部44に記録されたマスク情報62aとが同じ情報であるため、制御部23は、マスク部44からマスク情報62aを読み出さないようしてもよい。 Note that since the mask information 62b of the first block of the data section 42 and the mask information 62a recorded in the mask section 44 are the same information, the control section 23 does not read out the mask information 62a from the mask section 44. good.

(5)混合撮像機能(動画と静止画)
画像ファイル40が、図15に示す、混合撮像機能により作成されたファイルであると認識すると、制御部23は、マスク部44からマスク情報62aと撮像条件情報61を読み出す。これにより、制御部23は、同時に何種類の動画と何種類の静止画が撮像されたのか、どの単位グループ32がどの静止画および動画を構成しているのか、および、各動画のフレームレートを識別する。すなわち、制御部23は、大グループ81が何個存在し、各大グループ81は静止画なのか動画なのか、動画であればそのフレームレートはいくつか、各単位グループ32がどの大グループ81に属しているかを識別する。次に制御部23は、データ部42の先頭のブロック70から順に、画像情報64、Tv値マップ65、Sv値マップ66、Bv値マップ67、およびAv値情報68を読み出して、各動画を構成する各フレーム、および、各静止画を作成する。
(5) Mixed imaging function (video and still images)
When recognizing that the image file 40 is a file created by the mixed imaging function shown in FIG. 15, the control unit 23 reads mask information 62a and imaging condition information 61 from the mask unit 44. As a result, the control unit 23 can determine how many types of moving images and how many types of still images are captured at the same time, which unit groups 32 constitute which still images and moving images, and the frame rate of each moving image. identify That is, the control unit 23 determines how many large groups 81 there are, whether each large group 81 is a still image or a moving image, what the frame rate is if it is a moving image, and which large group 81 each unit group 32 belongs to. Identify what you belong to. Next, the control unit 23 sequentially reads the image information 64, the Tv value map 65, the Sv value map 66, the Bv value map 67, and the Av value information 68 from the first block 70 of the data section 42, and configures each moving image. Create each frame and each still image.

制御部23は、動画の各フレームや静止画を作成するに際し、ブロック70から、まずマスク情報62bを読み出す。そして、前記ブロック70の画像情報64にどの大グループ81に対応する画素信号が含まれているのかを識別する。その後、制御部23は、各大グループ81に対応するフレームや静止画を作成するが、前記ブロック70の画像情報64に画素信号が含まれていない大グループ81については、フレームや静止画を作成しない。制御部23は、以上のようにして作成したフレームから成る動画や静止画を、例えば液晶モニタ24に表示したり、メモリカード25に記録したりする。 The control unit 23 first reads the mask information 62b from the block 70 when creating each frame of a moving image or a still image. Then, it is identified which large group 81 the pixel signal corresponds to is included in the image information 64 of the block 70. Thereafter, the control unit 23 creates a frame or still image corresponding to each large group 81, but creates a frame or still image for the large group 81 for which the image information 64 of the block 70 does not include a pixel signal. do not. The control unit 23 displays a moving image or a still image made up of the frames created as described above, for example, on the liquid crystal monitor 24 or records it on the memory card 25.

以上のように、制御部23は、混合撮像機能により作成された画像ファイル40を再生するに際し、ブロック70内に記録されている画像情報64等の情報よりも先に、マスク情報62a、62bを読み出す。マスク情報62a、62bは画像情報64等よりも前に記録されているので、再生処理に際し発生するシークを最小限にすることができる。 As described above, when reproducing the image file 40 created by the mixed imaging function, the control unit 23 outputs the mask information 62a and 62b before the image information 64 and other information recorded in the block 70. read out. Since the mask information 62a, 62b is recorded before the image information 64, etc., the seek that occurs during reproduction processing can be minimized.

なお、データ部42の先頭ブロックのマスク情報62bとマスク部44に記録されたマスク情報62aとが同じ情報であるため、制御部23は、マスク部44からマスク情報62aを読み出さないようしてもよい。 Note that since the mask information 62b of the first block of the data section 42 and the mask information 62a recorded in the mask section 44 are the same information, the control section 23 does not read out the mask information 62a from the mask section 44. good.

画像の再生処理は、上述した種々の撮像機能によってメモリカード25に記録された画像ファイル40から、被写体の画像を作成する処理としたが、メモリカード25に記録される前の画像ファイル40に対して、静止画や動画を作成する処理であってもよい。制御部23は、静止画や動画作成された後に、圧縮処理を施すようにしてもよい。 The image reproduction process is a process of creating an image of the subject from the image file 40 recorded on the memory card 25 by the various imaging functions described above. Alternatively, it may be a process of creating a still image or a moving image. The control unit 23 may perform compression processing after a still image or a moving image is created.

なお、撮像装置10とは異なる電子機器(以後、再生装置と称する)が、上述した再生処理を実行するようにしてもよい。例えば、メモリカード25を撮像装置10から取り外し、撮像装置10の外部に設けたPC等の再生装置にメモリカード25を装着すると、再生装置がメモリカード25から画像ファイル40を読み出して、上述した再生処理を実行し、画像を再生するようにしてもよい。また、撮像装置10と再生装置との間で無線通信等のデータ通信を行うことにより、画像情報64等の授受を行うようにしてもよい Note that an electronic device (hereinafter referred to as a playback device) different from the imaging device 10 may execute the above-described playback processing. For example, when the memory card 25 is removed from the imaging device 10 and inserted into a playback device such as a PC provided outside the imaging device 10, the playback device reads the image file 40 from the memory card 25 and performs the above-mentioned playback. The process may be executed and the image reproduced. Further, the image information 64 and the like may be exchanged by performing data communication such as wireless communication between the imaging device 10 and the playback device.

上述した第1の実施の形態による撮像装置によれば、次の作用効果が得られる。
(1)撮像素子22は、複数の単位グループ32(撮像領域)を有しており、単位グループ32毎に撮像条件が設定可能である。制御部23は、撮像素子22により生成された画像情報64(画像データ)と、単位グループ32毎の、撮像条件に関する撮像条件情報61、マスク情報62、Tv値マップ65、Sv値マップ66、Bv値マップ67等のデータ(撮像条件データ)とを関連付けて記録する。このようにしたので、各々の画素にどのような撮像条件が適用されているのかを、撮像結果である画像ファイル40の再生時等に知ることができる、使い勝手のよい撮像装置10を提供することができる。
According to the imaging device according to the first embodiment described above, the following effects can be obtained.
(1) The image sensor 22 has a plurality of unit groups 32 (imaging areas), and imaging conditions can be set for each unit group 32. The control unit 23 uses image information 64 (image data) generated by the image sensor 22, imaging condition information 61 regarding imaging conditions, mask information 62, Tv value map 65, Sv value map 66, and Bv for each unit group 32. It is recorded in association with data such as the value map 67 (imaging condition data). By doing so, it is possible to provide an easy-to-use imaging device 10 that allows you to know what kind of imaging conditions are applied to each pixel when playing back an image file 40 that is an imaging result. Can be done.

(2)画像情報64に関連づけて記録される、撮像条件に関する情報には、例えば撮像素子22により被写体を撮像するときの露出に関する情報や、撮像素子22により撮像された被写体の明るさに関する情報が含まれる。具体的には、撮像素子22により撮像された被写体の輝度に関する情報であるBv値マップ67、不図示の光電変換部による電荷の蓄積時間であるTv値マップ65、不図示の増幅部による増幅率であるSv値マップ66等が含まれる。これらの情報は、いずれも、撮像素子22の撮像動作に関する情報であると言うことができる。このようにしたので、画像ファイル40の再生時に、より適切な画像処理を行うことができる。 (2) The information related to the imaging conditions recorded in association with the image information 64 includes, for example, information regarding the exposure when capturing an image of a subject with the image sensor 22, and information regarding the brightness of the subject imaged with the image sensor 22. included. Specifically, a Bv value map 67 which is information regarding the brightness of the subject imaged by the image sensor 22, a Tv value map 65 which is the charge accumulation time by a photoelectric conversion section (not shown), and an amplification factor by an amplification section (not shown). This includes an Sv value map 66 and the like. All of these pieces of information can be said to be information regarding the imaging operation of the image sensor 22. By doing this, more appropriate image processing can be performed when the image file 40 is played back.

(3)制御部23は、画像情報64に関連付けて、撮像の都度変化する撮像条件に関する情報を記録する。このようにしたので、画像ファイル40ごとに適切な情報が付加され、再生時により適切な画像処理を行うことができる。 (3) The control unit 23 records information regarding imaging conditions that change each time an image is captured in association with the image information 64. By doing this, appropriate information is added to each image file 40, and more appropriate image processing can be performed during playback.

(4)制御部23は、画像情報64にそれぞれ対応する撮像条件に関する複数の情報を、単一の画像ファイル40内に時系列順に記録する。このようにしたので、例えば画像ファイル40に動画が記録されている場合に、それらの情報に基づく画像処理を容易に行うことができる。 (4) The control unit 23 records a plurality of pieces of information regarding imaging conditions corresponding to the image information 64 in a chronological order in the single image file 40. With this configuration, for example, when a moving image is recorded in the image file 40, image processing based on the information can be easily performed.

(5)制御部23は、ヘッダ部41と画像情報64を記録するデータ部42(画像データ部)とを有する画像ファイル40において、ヘッダ部41及びデータ部42のうち、少なくともいずれか一方に、撮像条件に関する情報を記録する。このようにしたので、例えば画像ファイル40の再生時に、各々の画素にどのような撮像条件が適用されているのかを知ることができる。 (5) In the image file 40 having the header section 41 and the data section 42 (image data section) in which image information 64 is recorded, the control section 23 causes at least one of the header section 41 and the data section 42 to include the following: Records information regarding imaging conditions. By doing this, for example, when the image file 40 is played back, it is possible to know what imaging conditions are applied to each pixel.

(6)制御部23は、複数の単位グループ32毎の用途に関する撮像条件情報61およびマスク情報62を、画像情報64に関連付けて記録する。このようにしたので、例えば画像ファイル40の再生時に、各々の画素にどのような撮像条件が適用されているのかを知ることができる。 (6) The control unit 23 records imaging condition information 61 and mask information 62 regarding the usage of each of the plurality of unit groups 32 in association with the image information 64. By doing this, for example, when the image file 40 is played back, it is possible to know what imaging conditions are applied to each pixel.

(7)マスク情報62は、時間経過に伴い変化する動的情報を含んでいる。具体的には、画像情報64に、単位グループ32に属する撮像画素31から読み出された画素信号に対応する画素値が含まれるか否かを表す情報か、もしくは、複数の単位グループ32の各々が互いに異なる複数のグループのいずれに分類されたかを表す情報を含んでいる。このようにしたので、例えば画像ファイル40の再生時に、動的情報を利用した画像処理を行うことができる。 (7) The mask information 62 includes dynamic information that changes over time. Specifically, information indicating whether the image information 64 includes a pixel value corresponding to a pixel signal read out from the imaging pixel 31 belonging to the unit group 32 or each of the plurality of unit groups 32 Contains information indicating which of a plurality of different groups the group has been classified into. This makes it possible to perform image processing using dynamic information, for example, when playing back the image file 40.

(8)マスク情報62は、時間経過に伴い変化しない静的情報を含んでいる。具体的には、複数の単位グループ32の役割を表す情報を含んでいる。また、マスク情報62aは、撮像当初において、複数の単位グループ32の各々が互いに異なる複数のグループのいずれに分類されたかを表す情報を含んでいる。このようにしたので、例えば画像ファイル40の再生時に、静的情報を利用した画像処理を行うことができる。 (8) The mask information 62 includes static information that does not change over time. Specifically, it includes information representing the roles of a plurality of unit groups 32. The mask information 62a also includes information indicating which of a plurality of different groups each of the plurality of unit groups 32 has been classified into at the beginning of imaging. By doing this, for example, when playing back the image file 40, image processing using static information can be performed.

(9)制御部23は、複数の画像情報64にそれぞれ対応する複数のマスク情報62bを、単一の画像ファイル40内に時系列順に記録する。このようにしたので、例えば画像ファイル40の再生時に、撮像条件を時系列順に追跡することができる。 (9) The control unit 23 records a plurality of pieces of mask information 62b, each corresponding to a plurality of pieces of image information 64, in the single image file 40 in chronological order. By doing this, for example, when reproducing the image file 40, the imaging conditions can be tracked in chronological order.

(10)制御部23は、ヘッダ部41と画像情報64を記録するデータ部42(画像データ部)とを有する画像ファイル40において、ヘッダ部41及びデータ部42のうち、少なくともいずれか一方に、マスク情報62を記録する。このようにしたので、例えば画像ファイル40の再生時に、各々の画素にどのような撮像条件が適用されているのかを知ることができる。 (10) In the image file 40 having a header section 41 and a data section 42 (image data section) in which image information 64 is recorded, the control section 23 causes at least one of the header section 41 and the data section 42 to include the following: Mask information 62 is recorded. By doing this, for example, when the image file 40 is played back, it is possible to know what imaging conditions are applied to each pixel.

(11)複数の単位グループ32には、第1のフレームレートで撮像される単位グループ32と、第1のフレームレートより遅い第2のフレームレートで撮像される単位グループ32とが含まれ、制御部23は、第1のフレームレートに基づき、複数の画像情報64を記録する。このようにしたので、全てのフレームに関する情報を漏れなく確実に記録することができる。 (11) The plurality of unit groups 32 include a unit group 32 that is imaged at a first frame rate and a unit group 32 that is imaged at a second frame rate that is slower than the first frame rate. The unit 23 records a plurality of pieces of image information 64 based on the first frame rate. By doing this, it is possible to reliably record information regarding all frames without omission.

(12)制御部23は、複数の画像情報64の撮像期間に対応する音声情報71(音声データ)を、複数の画像情報64に関連づけて記録する。このようにしたので、音声も含めた動画再生を行うことが可能となる。 (12) The control unit 23 records audio information 71 (audio data) corresponding to the imaging period of the plurality of image information 64 in association with the plurality of image information 64. By doing this, it becomes possible to perform video playback including audio.

(13)制御部23は、画像情報64の撮像パターンに関する情報と、画像情報64の保存方式に関する情報と、単位グループ32ごとの撮像条件に関する情報と、の少なくとも1つを、ヘッダ部41とデータ部42との2つのブロックから成る画像ファイル40のヘッダ部41に記録する。このようにしたので、例えば画像ファイル40の再生時に、各々の画素にどのような撮像条件が適用されているのかを知ることができる。 (13) The control unit 23 sends at least one of the information regarding the imaging pattern of the image information 64, the information regarding the storage method of the image information 64, and the information regarding the imaging conditions for each unit group 32 to the header unit 41 and the data. The data is recorded in the header part 41 of the image file 40, which consists of two blocks, a part 42 and a part 42. By doing this, for example, when the image file 40 is played back, it is possible to know what imaging conditions are applied to each pixel.

(第2の実施の形態)
第2の実施の形態に係る撮像装置は、第1の実施の形態に係る撮像装置10と同様の構成を有しているが、静止画撮像機能B、動画撮像機能B、混合撮像機能における画像ファイル40の記録方式が、第1の実施の形態とは異なっている。以下、この点について詳述する。
(Second embodiment)
The imaging device according to the second embodiment has a configuration similar to that of the imaging device 10 according to the first embodiment, but images in still image imaging function B, video imaging function B, and mixed imaging function are The recording method of the file 40 is different from that of the first embodiment. This point will be explained in detail below.

前述の通り、静止画撮像機能B、動画撮像機能B、および混合撮像機能は、一回の撮像で、同一の被写体に関する静止画や動画を、同時に複数撮像する機能である。本実施形態において、制御部23は、このようにして複数撮像された静止画や動画を、単一の画像ファイル40ではなく、複数の画像ファイル40に分割して記録する。このとき、制御部23は、分割して記録されたそれぞれの画像ファイル40同士を、関連付けて記録する。従って、それら複数の画像ファイル40は、便宜上別々のファイルとして記録されるものの、第1の実施の形態と同様に、単一の撮像により得られたファイルであるという情報は損なわれない。換言すると、後からそれら複数の画像ファイル40を扱う際に、第1の実施の形態と同様に、単一の撮像により得られたものであると認識して扱うことができる。 As described above, the still image capturing function B, the moving image capturing function B, and the mixed image capturing function are functions that simultaneously capture a plurality of still images and moving images of the same subject in one image capturing. In this embodiment, the control unit 23 divides the plurality of still images and moving images captured in this way into a plurality of image files 40 instead of a single image file 40 and records them. At this time, the control unit 23 records the divided and recorded image files 40 in association with each other. Therefore, although the plurality of image files 40 are recorded as separate files for convenience, the information that they are files obtained by single imaging is not lost, as in the first embodiment. In other words, when handling the plurality of image files 40 later, it is possible to recognize and handle them as having been obtained by a single image capture, as in the first embodiment.

図16は、メモリカード25のディレクトリ構造を模式的に示す図である。メモリカード25のルートディレクトリ90には、DCIMディレクトリ91aが存在する。また、DCIMディレクトリ91a内には、更に、画像保存用のサブディレクトリ91bが存在する。静止画撮像機能B、動画撮像機能B、および混合撮像機能による1回の撮像の都度、制御部23は、このサブディレクトリ91b内に、撮像セットディレクトリ92を1つ作成する。つまり、1つの撮像セットディレクトリ92が、1回の撮像に対応している。 FIG. 16 is a diagram schematically showing the directory structure of the memory card 25. As shown in FIG. A DCIM directory 91a exists in the root directory 90 of the memory card 25. Further, within the DCIM directory 91a, there is further a subdirectory 91b for storing images. Each time one image is captured using the still image capturing function B, the moving image capturing function B, and the mixed image capturing function, the control unit 23 creates one image capturing set directory 92 in this subdirectory 91b. In other words, one imaging set directory 92 corresponds to one imaging.

撮像セットディレクトリ92には、1つの管理データファイル93と、単位グループ32の用途ごとに、サブディレクトリ94が作成される。例えば、単位グループ32の用途が4つ存在する場合には、サブディレクトリ94が4つ作成される。各々のサブディレクトリ94には、単位グループ32の用途に応じた画像ファイル40が少なくとも1つ作成される。例えば、単位グループ32の用途が動画撮像である場合、その用途に対応するサブディレクトリ94内には、動画ファイル401が1つだけ記録される。また、単位グループ32の用途が静止画撮像である場合、その用途に対応するサブディレクトリ94内には、静止画ファイル402が撮像回数分だけ記録される。なお、静止画撮像機能Bの場合、1回の撮像では用途ごとに1つの静止画ファイル402のみが記録されることになるので、各サブディレクトリ94内には、1つの静止画ファイル402が記録されることになる。 In the imaging set directory 92, one management data file 93 and a subdirectory 94 are created for each purpose of the unit group 32. For example, if there are four uses for the unit group 32, four subdirectories 94 are created. At least one image file 40 corresponding to the purpose of the unit group 32 is created in each subdirectory 94. For example, if the purpose of the unit group 32 is video imaging, only one video file 401 is recorded in the subdirectory 94 corresponding to that purpose. Further, when the purpose of the unit group 32 is still image capturing, still image files 402 are recorded in the subdirectory 94 corresponding to the purpose for the number of times of image capturing. Note that in the case of still image capturing function B, only one still image file 402 is recorded for each purpose in one image capture, so one still image file 402 is recorded in each subdirectory 94. will be done.

図17(a)は、管理データファイル93の構造を模式的に示す図である。管理データファイル93は、各サブディレクトリ94内に記録されている画像ファイル40同士を関連付ける情報が記録されたファイルであり、ファイル基本情報部43と、マスク部44と、インデックス部73と、撮像情報部45とから成る。ファイル基本情報部43、マスク部44、および撮像情報部45は、図15等で説明した画像ファイル40における同名の各部と同一である。インデックス部73には、各々のサブディレクトリ94が単位グループ32のどの用途に対応するのかを表すレイアウト情報96が記録される。 FIG. 17(a) is a diagram schematically showing the structure of the management data file 93. The management data file 93 is a file in which information that associates the image files 40 recorded in each subdirectory 94 is recorded, and includes a file basic information section 43, a mask section 44, an index section 73, and imaging information. 45. The file basic information section 43, the mask section 44, and the imaging information section 45 are the same as the sections with the same names in the image file 40 described with reference to FIG. 15 and the like. In the index section 73, layout information 96 indicating which use of the unit group 32 each subdirectory 94 corresponds to is recorded.

図17(b)は、サブディレクトリ94内に記録される静止画ファイル402の構造を模式的に示す図である。静止画ファイル402には、マスク情報62bと、画像情報64と、Tv値マップ65と、Sv値マップ66と、Bv値マップ67と、Av値情報68とが記録される。Av値情報68については、図10で説明したものと同様であるため、説明を省略する。 FIG. 17(b) is a diagram schematically showing the structure of the still image file 402 recorded in the subdirectory 94. Mask information 62b, image information 64, Tv value map 65, Sv value map 66, Bv value map 67, and Av value information 68 are recorded in still image file 402. Since the Av value information 68 is the same as that explained in FIG. 10, the explanation will be omitted.

マスク情報62bと、画像情報64と、Tv値マップ65と、Sv値マップ66と、Bv値マップ67は、それぞれ、図10で説明した同名の情報から、1つの大グループ81に対応する値だけを抽出して二次元状に配列した情報である。例えば、図10で説明した画像ファイル40において、マスク情報62bは、「撮像条件情報61に割り当てられた番号を、単位グループ32の位置に合わせて二次元マップの形で表現した情報」であり、マスク情報62bに含まれる値の個数は、単位グループ32の個数と同一であった。これに対し、静止画ファイル402におけるマスク情報62bは、それら全ての値から、本サブディレクトリ94に対応する大グループ81に対応する値のみを抽出して二次元マップの形で表現した情報である。画像情報64、Tv値マップ65、Sv値マップ66、Bv値マップ67についても同様に、1つの静止画ファイル402には、1つの大グループ81に対応する値のみが含まれている。 The mask information 62b, the image information 64, the Tv value map 65, the Sv value map 66, and the Bv value map 67 each contain only the values corresponding to one large group 81 from the information with the same name explained in FIG. This is information extracted and arranged in a two-dimensional manner. For example, in the image file 40 described with reference to FIG. 10, the mask information 62b is "information in which the number assigned to the imaging condition information 61 is expressed in the form of a two-dimensional map according to the position of the unit group 32", The number of values included in the mask information 62b was the same as the number of unit groups 32. On the other hand, the mask information 62b in the still image file 402 is information in which only the values corresponding to the large group 81 corresponding to the main subdirectory 94 are extracted from all these values and expressed in the form of a two-dimensional map. . Similarly, one still image file 402 includes only values corresponding to one large group 81 for image information 64, Tv value map 65, Sv value map 66, and Bv value map 67.

図18は、サブディレクトリ94内に記録される動画ファイル401の構造を模式的に示す図である。動画ファイル401には、1フレームごとに、1フレーム分のブロック70が撮像順に格納される。1つのブロック70は、マスク情報62bと、画像情報64と、Tv値マップ65と、Sv値マップ66と、Bv値マップ67と、Av値情報68とから成る。また、動画ファイル401には、フレームごとのブロック70と共に、音声情報71が格納される。Av値情報68については、図13で説明したものと同様であるため、説明を省略する。 FIG. 18 is a diagram schematically showing the structure of a video file 401 recorded in the subdirectory 94. In the moving image file 401, blocks 70 for one frame are stored in the order of imaging for each frame. One block 70 includes mask information 62b, image information 64, Tv value map 65, Sv value map 66, Bv value map 67, and Av value information 68. Furthermore, the video file 401 stores audio information 71 together with blocks 70 for each frame. Since the Av value information 68 is the same as that explained in FIG. 13, the explanation will be omitted.

マスク情報62bと、画像情報64と、Tv値マップ65と、Sv値マップ66と、Bv値マップ67は、それぞれ、図13で説明した同名の情報から、1つの大グループ81に対応する値だけを抽出して二次元状に配列した情報である。この点については、上述した静止画ファイル402の場合と同様であるので、説明を省略する。 The mask information 62b, the image information 64, the Tv value map 65, the Sv value map 66, and the Bv value map 67 each contain only the values corresponding to one large group 81 from the information with the same name explained in FIG. This is information extracted and arranged in a two-dimensional manner. This point is similar to the case of the still image file 402 described above, so the explanation will be omitted.

以上のように、制御部23は、単位グループ32ごとに撮像条件が設定可能な撮像素子22により生成された画像情報64と、単位グループ32ごとの撮像条件に関するデータ(撮像条件情報61、マスク情報62、Tv値マップ65、Sv値マップ66、Bv値マップ67等)とを関連付けてメモリカード25に記録する。第1の実施の形態とは異なり、単一の画像ファイル40という形ではないものの、メモリカード25に記録される管理データファイル93と、動画ファイル401と、静止画ファイル402は、管理データファイル93内のレイアウト情報96によって互いに関連付けられている。このような画像ファイルの保存形式を、本明細書では分割保存形式と呼ぶ。 As described above, the control unit 23 uses the image information 64 generated by the image sensor 22 for which imaging conditions can be set for each unit group 32 and the data regarding the imaging conditions for each unit group 32 (imaging condition information 61, mask information 62, Tv value map 65, Sv value map 66, Bv value map 67, etc.) are recorded in the memory card 25 in association with each other. Unlike the first embodiment, the management data file 93, the video file 401, and the still image file 402 recorded on the memory card 25 are not in the form of a single image file 40. They are associated with each other by layout information 96 within. Such an image file storage format is referred to as a divided storage format in this specification.

上述した第2の実施の形態による撮像装置によれば、第1の実施の形態と同様の作用効果が得られる。 According to the imaging device according to the second embodiment described above, the same effects as those of the first embodiment can be obtained.

(第3の実施の形態)
本実施の形態では、上述した第1の実施の形態や第2の実施の形態にて説明した画像ファイル40を生成する撮像装置10を有する遠隔画像撮影システムについて説明する。本実施の形態の遠隔画像撮影システムでは、複数のクライアントからの依頼に応じて撮影者が画像の撮影を行い、撮影した画像をクライアントに送信する。なお、以下では、4人のクライアントによって撮影の依頼が行われる場合を一例に挙げて説明を行う。
(Third embodiment)
In this embodiment, a remote image capturing system including the imaging device 10 that generates the image file 40 described in the first embodiment and the second embodiment described above will be described. In the remote image capturing system of this embodiment, a photographer captures images in response to requests from a plurality of clients, and transmits the captured images to the clients. In the following description, an example will be described in which four clients request photography.

図29は、第3の実施の形態の遠隔画像撮像システム700の要部構成を模式的に示すブロック図である。遠隔画像撮像システム700は、撮像装置10と、クライアントAの電子機器711と、クライアントBの電子機器712と、クライアントCの電子機器713と、クライアントDの電子機器714とを備える。なお、以後の説明では、電子機器711~714を総称する場合には、電子機器710と呼ぶ。撮像装置10と電子機器710とは、通信回線網720を介して接続される。通信回線網720は、例えばインターネット回線や携帯または固定電話回線などの通信回線である。 FIG. 29 is a block diagram schematically showing the main configuration of a remote image capturing system 700 according to the third embodiment. The remote image capturing system 700 includes the imaging device 10, a client A's electronic device 711, a client B's electronic device 712, a client C's electronic device 713, and a client D's electronic device 714. In the following description, the electronic devices 711 to 714 will be collectively referred to as the electronic device 710. The imaging device 10 and the electronic device 710 are connected via a communication network 720. The communication line network 720 is, for example, a communication line such as an Internet line or a mobile or fixed telephone line.

電子機器710は、例えば通信回路網720に接続し各種情報の送受信が可能なコンピュータ、テレビ、スマートフォンやタブレット等の携帯情報端末などである。また、電子機器710は、通信機能を備えるデジタルカメラであっても良い。各クライアントA~Dの電子機器711~714は、画像を撮影する際の撮影条件等、各種の設定に関する情報(以後、設定情報と呼ぶ)や、撮影指示を、通信回路網720を介して撮像装置10へ送信する。また、各クライアントA~Dの電子機器711~714は、撮影指示に従って撮像装置10により撮影された画像を、通信回路網720を介して受信する。 The electronic device 710 is, for example, a computer, a television, or a mobile information terminal such as a smartphone or a tablet that can be connected to the communication network 720 and can send and receive various information. Furthermore, the electronic device 710 may be a digital camera with a communication function. The electronic devices 711 to 714 of each of the clients A to D transmit information regarding various settings such as shooting conditions when shooting images (hereinafter referred to as setting information) and shooting instructions via the communication circuit network 720. Send to device 10. Furthermore, the electronic devices 711 to 714 of each of the clients A to D receive, via the communication circuit network 720, an image photographed by the imaging device 10 according to the photographing instruction.

撮像装置10は、上述した第1および第2の実施の形態の撮像装置10に通信回路網720を介して情報の送受信をするための通信部101を設けたものである。通信部101は、制御部23の制御に従って通信回路網720と接続する。通信部101は、所定のプロトコルに従って、通信回路網720と接続して、電子機器710からの設定情報や撮影指示を通信回路網720を介して受信する。また、通信部101は、所定のプロトコルに従って、通信回路網720と接続して、生成された画像を通信回路網720を介して電子機器710に送信する。 The imaging device 10 is the imaging device 10 of the first and second embodiments described above, provided with a communication section 101 for transmitting and receiving information via a communication circuit network 720. The communication unit 101 connects to the communication circuit network 720 under the control of the control unit 23 . The communication unit 101 connects to the communication network 720 according to a predetermined protocol, and receives setting information and shooting instructions from the electronic device 710 via the communication network 720. Furthermore, the communication unit 101 connects to the communication network 720 and transmits the generated image to the electronic device 710 via the communication network 720 according to a predetermined protocol.

撮像装置10の制御部23は、撮像制御部231と画像処理部232とを備える。撮像制御部231は、通信部101が受信した設定情報や撮影指示に従って、撮像素子22の各単位グループ32ごとに撮影条件の設定および撮影制御を行う。画像処理部232は、撮像素子22により生成された撮像信号に基づいて、上述した第1および第2の実施の形態にて説明した各種の保存形式の内の少なくとも1つの保存形式を用いて画像ファイル40を生成する。
以下、クライアントA~Dからの設定情報や撮影指示を例示しながら、撮像素子22に対する撮影条件の設定や撮影制御について説明を行う。
The control unit 23 of the imaging device 10 includes an imaging control unit 231 and an image processing unit 232. The imaging control unit 231 sets imaging conditions and controls imaging for each unit group 32 of the imaging elements 22 in accordance with the setting information and imaging instructions received by the communication unit 101. The image processing unit 232 uses at least one of the various storage formats described in the first and second embodiments to process an image based on the imaging signal generated by the image sensor 22. Generate file 40.
Hereinafter, setting information on shooting conditions and shooting control for the image sensor 22 will be explained while illustrating setting information and shooting instructions from clients A to D.

<例1>
図30に、例1において、撮影の対象となる被写体と背景とを模式的に示す。図30(a)では、飛行中の飛行機を被写体S1として撮影する場合を例として示す。この場合、空や雲が背景S2となる。図30(a)に示す撮影の対象を、各クライアントA~Dは、以下の通りに撮影条件A1~D1を設定したものとする。(1)撮影条件A1:被写体S1を適正露出とし、クライアントAが所望する任意のタイミングにて静止画を撮影する。(2)撮影条件B1:背景S2を適正露出とし、クライアントBが所望する任意のタイミングにて静止画を撮影する。(3)撮影条件C1:ハイダイナミックレンジ(以下、HDR)により被写体S1および背景S2を適正露出とし、クライアントCが所望する任意のタイミングにて静止画を撮影する。(4)撮影条件D1:背景S2を適正露出として、動画を撮影する。
<Example 1>
FIG. 30 schematically shows a subject to be photographed and a background in Example 1. In FIG. 30(a), a case where an airplane in flight is photographed as the subject S1 is shown as an example. In this case, the sky and clouds become the background S2. It is assumed that each of the clients A to D has set the imaging conditions A1 to D1 as follows for the object to be photographed shown in FIG. 30(a). (1) Photographing conditions A1: Subject S1 is exposed appropriately, and a still image is photographed at any timing desired by client A. (2) Photographing condition B1: The background S2 is set to an appropriate exposure, and a still image is photographed at any timing desired by the client B. (3) Photographing conditions C1: The subject S1 and the background S2 are properly exposed using high dynamic range (hereinafter referred to as HDR), and a still image is photographed at any timing desired by the client C. (4) Shooting condition D1: A video is shot with the background S2 set to an appropriate exposure.

撮像制御部231は、上記の撮影条件A1~D1が設定条件として受信されると、図8に示したようにして、撮像素子22の撮像面30において、各ブロック82内の複数の単位グループ32に対して撮影条件A1~D1を設定する。たとえば、撮像制御部231は、ブロック82の左上の単位グループ23に撮影条件A1を設定し、左下の単位グループ32に撮影条件B1を設定し、右上の単位グループ32に撮影条件C1を設定し、右下の単位グループ32に撮影条件D1を設定する。 When the above-mentioned imaging conditions A1 to D1 are received as setting conditions, the imaging control unit 231 controls a plurality of unit groups 32 in each block 82 on the imaging surface 30 of the imaging element 22 as shown in FIG. Shooting conditions A1 to D1 are set for. For example, the imaging control unit 231 sets the imaging condition A1 in the upper left unit group 23 of the block 82, sets the imaging condition B1 in the lower left unit group 32, sets the imaging condition C1 in the upper right unit group 32, Photographing conditions D1 are set in the lower right unit group 32.

撮像制御部231は、電子機器710からの撮影指示が受信されると、撮像素子22に対して撮影動作を行わせて撮像信号を出力させる。この場合、クライアントAの電子機器711からの撮影指示が受信されると、撮像制御部231は、各ブロック82に左上の単位グループ32に対して、撮影条件A1での撮影を行わせ、撮像信号を出力させる。クライアントBの電子機器712からの撮影指示が受信されると、撮像制御部231は、各ブロック82に左下の単位グループ32に対して、撮影条件B1での撮影を行わせ、撮像信号を出力させる。クライアントCの電子機器713からの撮影指示が受信されると、撮像制御部231は、各ブロック82に右上の単位グループ32に対して、撮影条件C1での撮影を行わせ、撮像信号を出力させる。クライアントDの電子機器714からの撮影指示が受信されると、撮像制御部231は、各ブロック82に右下の単位グループ32に対して、撮影条件D1での撮影を行わせ、所定のフレームレートにて撮像信号を出力させる。 When the imaging control unit 231 receives a shooting instruction from the electronic device 710, it causes the imaging device 22 to perform a shooting operation and output an imaging signal. In this case, when an imaging instruction is received from the electronic device 711 of client A, the imaging control unit 231 causes each block 82 to perform imaging for the upper left unit group 32 under imaging conditions A1, and sends an imaging signal. output. When the imaging instruction from the electronic device 712 of client B is received, the imaging control unit 231 causes each block 82 to perform imaging on the lower left unit group 32 under imaging condition B1, and outputs an imaging signal. . When the imaging instruction from the electronic device 713 of the client C is received, the imaging control unit 231 causes each block 82 to perform imaging on the upper right unit group 32 under the imaging condition C1, and outputs an imaging signal. . When a shooting instruction is received from the electronic device 714 of the client D, the shooting control unit 231 causes each block 82 to shoot the lower right unit group 32 under the shooting condition D1, and sets the frame rate to a predetermined frame rate. output the imaging signal.

撮影条件A1~D1により撮影される画像PA~PDを、それぞれ図30(b)~図30(e)に模式的に示す。なお、図30(b)~図30(e)では、適正露出により撮影された被写体S1や背景S2に対してドットを付与して示し、アンダー露光となりシルエットが撮影された被写体S1については斜線を付与して示す。 Images PA to PD photographed under photographing conditions A1 to D1 are schematically shown in FIGS. 30(b) to 30(e), respectively. In addition, in FIGS. 30(b) to 30(e), dots are added to the subject S1 and background S2 that were photographed with proper exposure, and diagonal lines are added to the subject S1 whose silhouette was photographed due to underexposure. Add and show.

撮影条件A1で撮影されると、図30(b)に示すように、被写体S1を適正露出とすることにより、空や雲等の背景S2がオーバー露光となった画像PAが生成される。撮影条件B1で撮影されると、図30(c)に示すように、背景S2を適正露出とすることにより、被写体S1はアンダー露光となりシルエットとなった画像PBが生成される。撮影条件C1で撮影されると、図30(d)に示すように、被写体S1および背景S2が適正露出となった画像PCが生成される。撮影条件D1で撮影されると、図30(e)に示すように、背景S2が適正露出となり被写体S1がシルエットとなった画像PDが動画として生成される。上記の画像PA~PDは、撮像素子22の撮像面30上の全ての画素を用いて撮影した場合と比較して、同一の画角、構図の画像となるが、解像度がそれぞれ1/4の画像となる。 When a photograph is taken under the photographing condition A1, as shown in FIG. 30(b), an image PA is generated in which the subject S1 is properly exposed and the background S2 such as the sky and clouds is overexposed. When a photograph is taken under the photographing condition B1, as shown in FIG. 30(c), by setting the background S2 to a proper exposure, the subject S1 is underexposed and an image PB in which the subject S1 is silhouetted is generated. When a photograph is taken under the photographing condition C1, an image PC is generated in which the subject S1 and the background S2 are properly exposed, as shown in FIG. 30(d). When a photograph is taken under the photographing condition D1, an image PD in which the background S2 is properly exposed and the subject S1 is a silhouette is generated as a moving image, as shown in FIG. 30(e). The above images PA to PD have the same angle of view and composition, but each has a resolution of 1/4 compared to the case where all pixels on the imaging surface 30 of the image sensor 22 are used. It becomes an image.

画像処理部232は、撮像素子22から出力された撮像信号を用いて、たとえば、第2の実施の形態にて説明した一括保存形式や分割保存形式により画像ファイル40を生成する。たとえば分割保存形式にて生成された画像ファイル40のうち、画像PAに対応する静止画ファイル402は、通信部101を介してクライアントAの電子機器711に送信される。生成された画像ファイル40のうち、画像PBに対応する静止画ファイル402は、通信部101を介してクライアントBの電子機器712に送信される。生成された画像ファイル40のうち、画像PCに対応する静止画ファイル402は、通信部101を介してクライアントCの電子機器713に送信される。生成された画像ファイル40のうち、画像PDに対応する動画ファイル401は、通信部101を介してクライアントDの電子機器714に送信される。なお、上述した例1において、動画を撮影している際には、画像PDに対応する画像データが順次、通信部101を介してクライアントDの電子機器714に送信されてもよい。 The image processing unit 232 uses the imaging signal output from the image sensor 22 to generate the image file 40, for example, in the batch storage format or the divided storage format described in the second embodiment. For example, among the image files 40 generated in the divided storage format, a still image file 402 corresponding to the image PA is transmitted to the electronic device 711 of the client A via the communication unit 101. Among the generated image files 40, a still image file 402 corresponding to the image PB is transmitted to the electronic device 712 of the client B via the communication unit 101. Among the generated image files 40, a still image file 402 corresponding to the image PC is transmitted to the electronic device 713 of the client C via the communication unit 101. Among the generated image files 40, a moving image file 401 corresponding to the image PD is transmitted to the electronic device 714 of the client D via the communication unit 101. Note that in Example 1 described above, when a video is being shot, image data corresponding to the images PD may be sequentially transmitted to the electronic device 714 of the client D via the communication unit 101.

例1にて説明した遠隔画像撮影システム700では、各クライアントA~Dからの異なる撮影要求(すなわち設定条件や撮影指示)に対して、それぞれの撮影要求に応じて撮影条件の設定や変更、撮影開始と終了を行うことができる。これにより、各クライアントA~Dのそれぞれが所望する撮影条件により撮影される異なる画像を、1台の撮像装置10を用いて生成することができる。 In the remote image capturing system 700 described in Example 1, in response to different shooting requests (i.e. setting conditions and shooting instructions) from clients A to D, setting and changing of shooting conditions, shooting It can be started and stopped. Thereby, it is possible to generate different images photographed under the photographing conditions desired by each of the clients A to D using one imaging device 10.

<例2>
例2においては、制御部23は、撮像装置10から電子機器710へ画像ファイル40を送信する際のタイミングを制御する。以下、各クライアントA~Dから動画の撮影の指示が無い場合と、動画の撮影の指示が有る場合とについて説明する。
<Example 2>
In Example 2, the control unit 23 controls the timing when transmitting the image file 40 from the imaging device 10 to the electronic device 710. Below, a case where there is no instruction to shoot a video from each client A to D and a case where there is an instruction to shoot a video will be described.

-動画の撮影指示が無い場合-
動画の撮影指示が無い場合の例として、図30(a)に示す撮影の対象を、各クライアントA~Dは、以下の通りに撮影条件A2~D2を設定したものとする。(1)撮影条件A2:被写体S1を適正露出とし、クライアントAが所望する任意のタイミングにて静止画を撮影する。(2)撮影条件B2:背景S2を適正露出とし、クライアントBが所望する任意のタイミングにて静止画を撮影する。(3)撮影条件C2:ハイダイナミックレンジ(以下、HDR)により被写体S1および背景S2を適正露出とし、クライアントCが所望する任意のタイミングにて静止画を撮影する。(4)撮影条件D2:背景S2を適正露出として、所定の時間間隔ごとに静止画を撮影するインターバル静止画撮影(タイムラプス撮影)を行う。
-When there is no instruction to shoot a video-
As an example of a case where there is no video shooting instruction, each of the clients A to D sets shooting conditions A2 to D2 as follows for the shooting target shown in FIG. 30(a). (1) Photographing condition A2: Subject S1 is exposed appropriately, and a still image is photographed at any timing desired by client A. (2) Photographing condition B2: The background S2 is set to an appropriate exposure, and a still image is photographed at any timing desired by the client B. (3) Photographing condition C2: Subject S1 and background S2 are properly exposed using high dynamic range (hereinafter referred to as HDR), and a still image is photographed at any timing desired by client C. (4) Photographing condition D2: Perform interval still image photography (time-lapse photography) in which still images are photographed at predetermined time intervals with the background S2 set to appropriate exposure.

この例の場合には、上記の例1の場合と同様に、各クライアントA~Dの電子機器711~714からの撮影指示を受信するごとに、撮像制御部231は撮像素子22を制御して撮像信号を出力させ、画像処理部232は画像ファイル40を生成する。制御部23は、通信部101を制御して、生成した画像ファイル40を、撮影指示を送信した電子機器710に送信させる。 In this example, as in the case of Example 1 above, the imaging control unit 231 controls the imaging device 22 every time a shooting instruction is received from the electronic devices 711 to 714 of each of the clients A to D. The image processing unit 232 outputs the imaging signal and generates an image file 40. The control unit 23 controls the communication unit 101 to transmit the generated image file 40 to the electronic device 710 that has transmitted the shooting instruction.

-動画の撮影指示が有る場合-
動画の撮影指示が有る場合には、制御部23は、通信部101を制御して、生成した画像ファイル40を、生成する動画のフレームレートに応じたタイミングで電子機器710に送信する。
まず、動画の撮影指示が有る場合の第1の例として、図30(a)に示す撮影の対象を、各クライアントA~Dは、以下の通りに撮影条件A3~D3を設定したものとする。(1)撮影条件A3:フレームレート120fpsにて動画を撮影する。(2)撮影条件B3:フレームレート60fpsにて動画を撮影する。(3)撮影条件C3:被写体S1を適正露出、低感度、低速シャッタ速度にて静止画を撮影する。(4)撮影条件D3:所定の時間間隔ごとに静止画を撮影するインターバル静止画撮影(タイムラプス撮影)を行う。
-If there is an instruction to shoot a video-
When there is an instruction to shoot a video, the control unit 23 controls the communication unit 101 to transmit the generated image file 40 to the electronic device 710 at a timing corresponding to the frame rate of the video to be generated.
First, as a first example when there is a video shooting instruction, each client A to D sets shooting conditions A3 to D3 as follows for the shooting target shown in FIG. 30(a). . (1) Shooting condition A3: Shoot a video at a frame rate of 120 fps. (2) Shooting condition B3: Shoot a video at a frame rate of 60 fps. (3) Photographing condition C3: A still image of the subject S1 is photographed with proper exposure, low sensitivity, and slow shutter speed. (4) Photographing condition D3: Perform interval still image photography (time-lapse photography) in which still images are photographed at predetermined time intervals.

この場合、制御部23は、通信部101を制御して、最速のフレームレート(すなわち撮影条件A3の120fps)の動画に対応する動画ファイル401を送信するタイミングで、他の撮影条件B3~D3で撮影され、生成された動画ファイル401や静止画ファイル402を電子機器710に送信する。すなわち、通信部101は、撮影条件A3で1フレームの動画ファイル401が生成されるタイミングである1/120[s]ごとに画像ファイル40を電子機器710に送信する。 In this case, the control unit 23 controls the communication unit 101 to transmit the video file 401 corresponding to the video with the fastest frame rate (i.e., 120 fps under the shooting condition A3) at the timing when the video file 401 is transmitted under the other shooting conditions B3 to D3. The captured and generated moving image file 401 and still image file 402 are transmitted to the electronic device 710. That is, the communication unit 101 transmits the image file 40 to the electronic device 710 every 1/120 [s], which is the timing at which one frame of the video file 401 is generated under the shooting condition A3.

この場合、撮影条件B3で生成される1フレームの動画ファイル401は1/60[s]ごとに生成されるので、通信部101は、画像ファイル40を送信する2回のタイミングのうちの1回で撮影条件B3の動画ファイル401を送信する。撮影条件C3またはD3にて生成された静止画ファイル402は、生成された後、通信部101が画像ファイル40を送信するタイミングになるまでDRAM27等の記憶媒体に一時的に格納される。通信部101は、画像ファイル40を送信するタイミングで、これらの静止画ファイル402を電子機器710に送信する。なお、静止画ファイル402が生成されたタイミングと、撮影条件A3で生成された動画ファイル401のタイミングとが揃った場合には、静止画ファイル402はDRAM27に格納されることなく、通信部101によって電子機器710に送信される。 In this case, since the one-frame video file 401 generated under the shooting condition B3 is generated every 1/60 [s], the communication unit 101 transmits the image file 40 at one of the two timings. The video file 401 under shooting condition B3 is transmitted. After being generated, the still image file 402 generated under the shooting condition C3 or D3 is temporarily stored in a storage medium such as the DRAM 27 until the timing for the communication unit 101 to transmit the image file 40 is reached. The communication unit 101 transmits these still image files 402 to the electronic device 710 at the timing of transmitting the image file 40. Note that when the timing at which the still image file 402 is generated and the timing at which the video file 401 is generated under shooting condition A3 are aligned, the still image file 402 is not stored in the DRAM 27 but is stored by the communication unit 101. It is transmitted to electronic device 710.

次に、動画の撮影指示が有る場合の第2の例として、図30(a)に示す撮影の対象を、各クライアントA~Dは、以下の通りに撮影条件A4~D4を設定したものとする。
(1)撮影条件A4:フレームレート60fpsにて動画を撮影する。
(2)撮影条件B4:フレームレート50fpsにて動画を撮影する。
(3)撮影条件C5:被写体S1を適正露出、低感度、低速シャッタ速度にて静止画を撮影する。
(4)撮影条件D5:所定の時間間隔ごとに静止画を撮影するインターバル静止画撮影(タイムラプス撮影)を行う。
Next, as a second example when there is an instruction to shoot a video, each client A to D sets shooting conditions A4 to D4 as shown below for the shooting target shown in FIG. 30(a). do.
(1) Shooting condition A4: Shoot a video at a frame rate of 60 fps.
(2) Shooting condition B4: Shoot a video at a frame rate of 50 fps.
(3) Photographing condition C5: A still image of the subject S1 is photographed with proper exposure, low sensitivity, and slow shutter speed.
(4) Photographing condition D5: Perform interval still image photography (time-lapse photography) in which still images are photographed at predetermined time intervals.

この場合、制御部23は、通信部101を制御して、最速のフレームレート(すなわち撮影条件A4の60fps)の動画に対応する動画ファイル401を送信するタイミングで、他の撮影条件B3~D3で撮影され、生成された動画ファイル401や静止画ファイル402を電子機器710に送信する。すなわち、通信部101は、撮影条件A4で1フレームの動画ファイル401が生成されるタイミングである1/60[s]ごとに画像ファイル40を電子機器710に送信する。 In this case, the control unit 23 controls the communication unit 101 to transmit the video file 401 corresponding to the video with the fastest frame rate (that is, 60 fps under the shooting condition A4) at the timing when the video file 401 is transmitted under the other shooting conditions B3 to D3. The captured and generated moving image file 401 and still image file 402 are transmitted to the electronic device 710. That is, the communication unit 101 transmits the image file 40 to the electronic device 710 every 1/60 [s], which is the timing at which one frame of the video file 401 is generated under the shooting condition A4.

この場合、撮影条件B4で生成される1フレームの動画ファイル401は1/50[s]ごとに生成される。生成された後、通信部101が撮影条件A4で生成された動画ファイル401を送信するタイミングになるまでDRAM27等の記憶媒体に一時的に格納される。通信部101は、撮影条件A4の動画ファイル401を送信するタイミングで、撮影条件B4の動画ファイル401を電子機器710に送信する。撮影条件C4またはD4にて生成された静止画ファイル402については、第1の例の場合と同様に、生成された後、通信部101が撮影条件A4の動画ファイル401を送信するタイミングになるまでDRAM27等の記憶媒体に一時的に格納される。通信部101は、撮影条件A4の動画ファイル401を送信するタイミングで、これらの静止画ファイル402を電子機器710に送信する。なお、静止画ファイル402が生成されたタイミングと、撮影条件A4で生成された動画ファイル401のタイミングとが揃った場合には、静止画ファイル402はDRAM27に格納されることなく、通信部101によって電子機器710に送信される。なお、上述した例2においても、動画を撮影している際には、画像データが順次、通信部101を介してクライアントDの電子機器714に送信されてもよい。 In this case, a one-frame video file 401 generated under the shooting condition B4 is generated every 1/50 [s]. After being generated, it is temporarily stored in a storage medium such as the DRAM 27 until the time comes for the communication unit 101 to transmit the moving image file 401 generated under the shooting condition A4. The communication unit 101 transmits the video file 401 under the shooting condition B4 to the electronic device 710 at the timing of transmitting the video file 401 under the shooting condition A4. As with the first example, the still image file 402 generated under the shooting condition C4 or D4 is generated until the time comes for the communication unit 101 to transmit the video file 401 under the shooting condition A4. It is temporarily stored in a storage medium such as the DRAM 27. The communication unit 101 transmits these still image files 402 to the electronic device 710 at the timing of transmitting the video file 401 under shooting condition A4. Note that if the timing at which the still image file 402 is generated and the timing at which the video file 401 is generated under shooting condition A4 are aligned, the still image file 402 is not stored in the DRAM 27 but is stored by the communication unit 101. It is transmitted to electronic device 710. Note that in the above-described example 2 as well, when a moving image is being shot, the image data may be sequentially transmitted to the electronic device 714 of the client D via the communication unit 101.

<例3>
遠隔画像撮影システム700では、クライアント数に応じて撮像装置10の撮像素子22を単位グループ32に分割すると、生成される各クライアントごとの画像の解像度が低下する。例3の遠隔画像撮影システム700の撮像装置10では、撮影を指示するクライアント数を、各クライアントが所望する要求解像度を満たすことが可能な範囲内に制限する。たとえば、撮像素子22の解像度が8K(7680×4320)の場合に、クライアントが所望する要求解像度がフルハイビジョン(FHD)の解像度(1920×1080)であるとすると、制御部23は、クライアント数を16に制限する。また、クライアントが所望する要求解像度が4K解像度(3840×2160)であるとすると、制御部23は、クライアント数を4に制限する。すなわち、4人のクライアントA~Dからの撮影指示に従って要求解像度4Kで撮影を行っている際に、新たなクライアントから撮影の指示があったとしても、制御部23はその新たなクライアントからの撮影指示を受け付けないようにする。
<Example 3>
In the remote image capturing system 700, when the imaging device 22 of the imaging device 10 is divided into unit groups 32 according to the number of clients, the resolution of the generated image for each client is reduced. In the imaging device 10 of the remote image capturing system 700 of Example 3, the number of clients that instruct photography is limited within a range that can satisfy the required resolution desired by each client. For example, if the resolution of the image sensor 22 is 8K (7680 x 4320) and the requested resolution desired by the client is full high-definition (FHD) resolution (1920 x 1080), the control unit 23 controls the number of clients. Limit to 16. Further, assuming that the requested resolution desired by the client is 4K resolution (3840×2160), the control unit 23 limits the number of clients to four. That is, even if a new client gives a shooting instruction while shooting at the requested resolution of 4K according to shooting instructions from four clients A to D, the control unit 23 Avoid accepting instructions.

例3にて説明した遠隔画像撮影システム700では、各クライアントA~Dが要求する解像度を満たした状態で、各クライアントA~Dからの異なる撮影要求に対して、それぞれの撮影要求に応じて撮影条件の設定や変更、撮影開始と終了を行うことができる。
なお、通信回路網720の通信回線速度により電子機器710に送信可能な解像度による制限を付加しても良い。
In the remote image capturing system 700 described in Example 3, images are captured in response to different capturing requests from each client A to D, while satisfying the resolution requested by each client A to D. You can set and change conditions, and start and end shooting.
Note that a limit may be added on the resolution that can be transmitted to the electronic device 710 depending on the communication line speed of the communication circuit network 720.

<例4>
例4においては、異なる画像を撮影可能なクライアント数の上限以上のクライアントから設定指示が行われた場合について説明する。以下の説明では、クライアントA~Dからの設定指示に従って撮像装置10が備える撮像素子22の単位グループ32に撮影条件が割り当てられた後に、さらにクライアントEの電子機器715から設定指示が送信された場合を例に挙げて説明する。この場合の例として、図30(a)に示す撮影の対象を、各クライアントA~Eは、以下の通りに撮影条件A5~E5を設定したものとする。
(1)撮影条件A5:フレームレート60fpsにて動画を撮影する。
(2)撮影条件B5:被写体S1を適正露出にて、クライアントBが所望する任意のタイミングで静止画を撮影する。
(3)撮影条件C5:自動露出制御にて、クライアントCが所望する任意のタイミングで静止画を撮影する。
(4)撮影条件D5:背景S2を適正露出にて、所定の時間間隔ごとに静止画を撮影するインターバル静止画撮影(タイムラプス撮影)を行う。
(5)撮影条件E5:自動露出制御にて、クライアントEが所望する任意のタイミングで静止画を撮影する。
<Example 4>
In Example 4, a case will be described in which setting instructions are issued from clients whose number is equal to or greater than the upper limit of the number of clients that can take different images. In the following explanation, a case where a setting instruction is further transmitted from the electronic device 715 of client E after imaging conditions are assigned to the unit group 32 of the image sensor 22 included in the imaging device 10 according to the setting instruction from clients A to D is explained below. This will be explained using an example. As an example of this case, assume that each of the clients A to E sets the imaging conditions A5 to E5 as follows for the object to be photographed shown in FIG. 30(a).
(1) Shooting condition A5: Shoot a video at a frame rate of 60 fps.
(2) Shooting condition B5: Shoot a still image of the subject S1 at appropriate exposure at any timing desired by client B.
(3) Shooting condition C5: Shoot a still image at any timing desired by client C using automatic exposure control.
(4) Photographing condition D5: Perform interval still image photography (time-lapse photography) in which still images are photographed at predetermined time intervals with the background S2 at appropriate exposure.
(5) Shooting condition E5: A still image is shot at any timing desired by the client E using automatic exposure control.

上記の各撮影条件A5~E5のうち、撮影条件C5と撮影条件E5とは静止画を撮影するタイミング以外、すなわち自動露出制御をする点で一致するので、類似する撮影条件と見なすことができる。この場合、撮像制御部231は、撮影条件E5を撮影条件C5に統合する。撮像制御部231は、撮影条件C5での撮影に利用する単位グループ32を撮影条件E5での撮影にも利用する。すなわち、撮像制御部231は、クライアントCの電子機器713から撮影指示を受信した場合と、クライアントEの電子機器715から撮影指示を受信した場合とで、同一の単位グループ32に撮影動作を行わせる。 Among the above-mentioned photographing conditions A5 to E5, photographing conditions C5 and E5 can be regarded as similar photographing conditions because they match except for the timing of photographing a still image, that is, in automatic exposure control. In this case, the imaging control unit 231 integrates the imaging condition E5 into the imaging condition C5. The imaging control unit 231 also uses the unit group 32 used for imaging under imaging condition C5 for imaging under imaging condition E5. That is, the imaging control unit 231 causes the same unit group 32 to perform the imaging operation when receiving the imaging instruction from the electronic device 713 of the client C and when receiving the imaging instruction from the electronic device 715 of the client E. .

なお、撮影条件C5とE5とを統合する場合には、クライアントEに対して、クライアントCの撮影に用いる単位グループ32を利用してクライアントEからの撮影指示を実行する旨を報知すると良い。この場合、制御部23は、通信部101を制御して、撮影条件の統合に関する情報をクライアントEの電子機器715に送信する。電子機器715は、撮影条件の統合に関する情報を受信した場合には、たとえば、モニタを備える場合にはモニタにメッセージを表示し、スピーカーを備える場合にはスピーカーからメッセージを出力することにより、クライアントEに撮影条件が統合される旨を報知すれば良い。 In addition, when integrating the imaging conditions C5 and E5, it is preferable to inform the client E that the unit group 32 used for imaging the client C will be used to execute the imaging instruction from the client E. In this case, the control unit 23 controls the communication unit 101 to transmit information regarding the integration of imaging conditions to the electronic device 715 of the client E. When the electronic device 715 receives information regarding the integration of shooting conditions, the electronic device 715 displays a message on the monitor if the electronic device 715 is equipped with a monitor, or outputs a message from the speaker if the electronic device 715 has a speaker, so that the client E It is sufficient to notify that the shooting conditions will be integrated.

撮影条件C5とE5とが統合された場合、クライアントCからの撮影指示に応じて出力された撮像信号から画像処理部232が静止画ファイル402を生成すると、制御部23は、通信部101を制御して、その静止画ファイル402をクライアントCの電子機器713へ送信する。クライアントEからの撮影指示に応じて出力された撮像信号から画像処理部232が静止画ファイル402を生成した場合には、制御部23は、通信部101を制御して、その静止画ファイル402をクライアントEの電子機器715へ送信する。 When the imaging conditions C5 and E5 are integrated, when the image processing unit 232 generates the still image file 402 from the imaging signal output in response to the imaging instruction from the client C, the control unit 23 controls the communication unit 101. Then, the still image file 402 is sent to client C's electronic device 713. When the image processing unit 232 generates a still image file 402 from the imaging signal output in response to a shooting instruction from the client E, the control unit 23 controls the communication unit 101 to generate the still image file 402. It is transmitted to client E's electronic device 715.

なお、撮像素子22の単位グループ23に撮影条件が設定される前に、クライアントCの電子機器713からの設定指示と、クライアントEの電子機器715からの設定指示とを受信した場合には、撮像制御部231は、先に受信した設定指示を優先して単位グループ32に撮影条件を割り当てる。また、撮影条件Cに従って撮像素子22の撮影が行われている最中や、静止画ファイル402が生成されている最中にクライアントEの電子機器715から設定指示を受信した場合には、通信部101による静止画ファイル402のクライアントCの電子機器713への送信が終了した後に、撮像制御部231は撮影条件の統合を行う。 Note that if a setting instruction from the electronic device 713 of the client C and a setting instruction from the electronic device 715 of the client E are received before the shooting conditions are set for the unit group 23 of the image sensor 22, the image capturing The control unit 231 assigns imaging conditions to the unit group 32, giving priority to the setting instruction received first. Further, if a setting instruction is received from the electronic device 715 of the client E while the image sensor 22 is photographing according to the photographing condition C or while the still image file 402 is being generated, the communication unit After the still image file 402 has been transmitted to the electronic device 713 of the client C by the client C, the imaging control unit 231 integrates the imaging conditions.

また、上記の説明では、撮像制御部231がクライアントEの撮影条件E5と統合する撮影条件を自動的に決定したが、クライアントE自身が統合する撮影条件をA5~D5の中から選択可能にしても良い。この場合、制御部23は、通信部101を制御して、撮影条件A5~D5の内容を示す情報をクライアントEの電子機器715に送信する。クライアントEの電子機器715は、受信した撮影条件A5~D5の内容を示す情報を、たとえばモニタ等に表示する。クライアントEは、たとえば操作ボタンやタッチパネル等の操作部材を操作することにより、表示された撮影条件A5~D5の中から何れかの撮影条件を選択する。クライアントEによる撮影条件の選択が行われると、電子機器715は選択された撮影条件を撮像装置10に送信する。撮像制御部231は、受信した撮影条件をクライアントEの撮影条件E5と統合する。 Furthermore, in the above explanation, the imaging control unit 231 automatically determines the imaging condition to be integrated with the imaging condition E5 of the client E, but it is possible for the client E himself to select the imaging condition to be integrated from among A5 to D5. Also good. In this case, the control unit 23 controls the communication unit 101 to transmit information indicating the contents of the imaging conditions A5 to D5 to the electronic device 715 of the client E. The electronic device 715 of the client E displays information indicating the contents of the received photographing conditions A5 to D5 on, for example, a monitor. The client E selects one of the displayed shooting conditions A5 to D5 by operating an operating member such as an operating button or a touch panel. When the client E selects a shooting condition, the electronic device 715 transmits the selected shooting condition to the imaging device 10. The imaging control unit 231 integrates the received imaging condition with the imaging condition E5 of the client E.

なお、上述した説明では、静止画の撮影に対する撮影条件を統合する場合を例に挙げて説明したが、動画の撮影に対する撮影条件を統合しても良い。この場合の例として、図30(a)に示す撮影の対象を、各クライアントA~Dが以下の通りに撮影条件A6~D6を設定した後に、クライアントEが以下の撮影条件E6を設定したものとする。
(1)撮影条件A6:EV値±0にて、フレームレート60fpsで動画を撮影する。なお、シャッタースピードは1/120を許容する。
(2)撮影条件B6:被写体S1を適正露出にて、クライアントBが所望する任意のタイミングで静止画を撮影する。
(3)撮影条件C6:自動露出制御にて、クライアントCが所望する任意のタイミングで静止画を撮影する。
(4)撮影条件D6:背景S2を適正露出にて、所定の時間間隔ごとに静止画を撮影するインターバル静止画撮影(タイムラプス撮影)を行う。
(5)撮影条件E6:EV値-0.3EVにて、フレームレート60fpsで動画を撮影する。
Note that, in the above description, the case where the shooting conditions for still image shooting are integrated is given as an example, but the shooting conditions for moving image shooting may be integrated. As an example of this case, each of the clients A to D sets the imaging conditions A6 to D6 as shown below for the object to be photographed shown in FIG. 30(a), and then the client E sets the following imaging condition E6. shall be.
(1) Shooting condition A6: Shoot a video at a frame rate of 60 fps at an EV value of ±0. Note that a shutter speed of 1/120 is allowed.
(2) Shooting condition B6: Shoot a still image of the subject S1 at appropriate exposure at any timing desired by client B.
(3) Shooting condition C6: Shoot a still image at any timing desired by client C using automatic exposure control.
(4) Photographing condition D6: Perform interval still image photography (time-lapse photography) in which still images are photographed at predetermined time intervals with the background S2 at appropriate exposure.
(5) Shooting condition E6: Shoot a video at an EV value of -0.3EV and a frame rate of 60 fps.

上記の各撮影条件A6~E6のうち、撮影条件C6と撮影条件E6とは動画を撮影する際の露出条件が異なる。この場合、撮像制御部231は、撮影条件E6を撮影条件C6に統合し、撮影条件C6での撮影に利用する単位グループ32を撮影条件E6での撮影にも利用する。撮像制御部231は、動画を撮影する際のフレームレートを120fpsに設定し、第2nフレーム(nは正の整数)では、クライアントCの撮影条件C6に従ってEV値を±0に設定し、第(2n+1)フレームでは、クライアントEの撮影条件E6に従ってEV値を-0.3EVに設定して、動画を撮影する。これにより、撮影条件C6で撮影された動画と、撮影条件E6で撮影された動画とが交互に、すなわちフレームレート60fpsで生成される。 Among the above shooting conditions A6 to E6, shooting condition C6 and shooting condition E6 have different exposure conditions when shooting a moving image. In this case, the imaging control unit 231 integrates the imaging condition E6 into the imaging condition C6, and uses the unit group 32 used for imaging under the imaging condition C6 also for imaging under the imaging condition E6. The imaging control unit 231 sets the frame rate when shooting a video to 120 fps, sets the EV value to ±0 in accordance with the shooting condition C6 of the client C in the second nth frame (n is a positive integer), and sets the EV value to ±0 in accordance with the shooting condition C6 of the client C. In the 2n+1) frame, the EV value is set to -0.3EV according to the shooting condition E6 of the client E, and a moving image is shot. As a result, a moving image shot under shooting condition C6 and a moving image shot under shooting condition E6 are generated alternately, that is, at a frame rate of 60 fps.

例4にて説明した遠隔画像撮影システム700では、クライアント数が上限数を超える場合であっても、要求する撮影条件のうち類似する撮影条件同士を統合して撮影を行うことができる。 In the remote image capturing system 700 described in Example 4, even if the number of clients exceeds the upper limit, it is possible to perform imaging by integrating similar imaging conditions among the requested imaging conditions.

<例5>
例5においては、複数のクライアントA~Dのうち少なくとも1人のクライアントから絞りの変更が要求された場合について説明する。以下の説明では、クライアントAの撮影条件A7に絞りの変更が含まれる場合を例に挙げる。この場合、他のクライアントB~Dの撮影条件B7~D7に、絞りの変更禁止が含まれているか否かに応じて撮像制御部231の処理が異なる。
<Example 5>
In Example 5, a case will be described in which at least one client among a plurality of clients A to D requests to change the aperture. In the following description, a case will be exemplified in which client A's photographing condition A7 includes a change in aperture. In this case, the processing of the imaging control unit 231 differs depending on whether or not the photographing conditions B7 to D7 of the other clients B to D include prohibition of changing the aperture.

撮影条件B7~D7に絞りの変更禁止が含まれている場合には、撮像制御部23は、クライアントAからの撮影条件A7に従った撮影を行わない。すなわち、撮像制御部23は、撮影条件A7による撮影の要求を却下する。 If photographing conditions B7 to D7 include prohibition of changing the aperture, the imaging control unit 23 does not perform photographing according to photographing condition A7 from client A. That is, the imaging control unit 23 rejects the request for imaging under imaging condition A7.

撮影条件B7~D7に絞りの変更禁止が含まれていない場合には、撮像制御部23は、クライアントAの撮影条件A7に従って絞り(不図示)を駆動させる。クライアントB~Dからの撮影指示に対しては、撮像制御部231は、撮影条件B7~D7で要求される露出となるように、ISO感度やシャッタースピードを変更後の絞りに応じて変更する。なお、絞りの変更によりクライアントB~Dが所望するボケ具合とは異なるボケ具合の画像となる場合には、画像処理部232により生成された画像に対して画像処理を施すことによりボケ具合を補正する。
なお、撮影条件B7~D7に動画の撮影が含まれる場合には、撮像制御部231は、要求されているフレームレートに対してシャッタースピードが極端に速くならないように、撮影条件A7の絞りの変更に制限を加えてもよい。たとえば、フレームレートが60fpsの場合には、撮像制御部231は、シャッタースピードが1/60[s]~1/240[s]の範囲内となるように絞りの変更を制限してよい。
When photographing conditions B7 to D7 do not include prohibition of changing the aperture, the imaging control unit 23 drives the aperture (not shown) according to client A's photographing condition A7. In response to shooting instructions from clients B to D, the imaging control unit 231 changes the ISO sensitivity and shutter speed according to the changed aperture so that the exposure required by the shooting conditions B7 to D7 is obtained. Note that if changing the aperture results in an image with a different degree of blur from the degree of blur desired by clients B to D, the degree of blur is corrected by performing image processing on the image generated by the image processing unit 232. do.
Note that when shooting conditions B7 to D7 include shooting a moving image, the imaging control unit 231 changes the aperture for shooting condition A7 so that the shutter speed does not become extremely fast relative to the requested frame rate. may be subject to restrictions. For example, when the frame rate is 60 fps, the imaging control unit 231 may limit the change of the aperture so that the shutter speed is within the range of 1/60 [s] to 1/240 [s].

例5にて説明した遠隔画像撮影システム700では、複数の撮影条件の中に撮像装置10の絞りの変更を含む場合であっても、複数の異なる撮影条件が設定された複数の画像を1つの撮像装置10で撮影することができる。 In the remote image capturing system 700 described in Example 5, even if the multiple capturing conditions include changing the aperture of the imaging device 10, multiple images set with a plurality of different capturing conditions can be combined into one image capture system. It can be photographed with the imaging device 10.

<例6>
例6では、クライアントの撮像条件に含まれる解像度が異なる場合に、解像度に応じて各撮影条件に設定する単位ブロック32の個数を異ならせる。この場合の例として、図30(a)に示す撮影の対象を、各クライアントA、Bは、以下の通りに撮影条件A8、B8を設定したものとする。
(1)撮影条件A8:フレームレート60fpsで動画を撮影する。
(2)撮影条件B8:高解像度で静止画を撮影する。
<Example 6>
In Example 6, when the resolutions included in the client's imaging conditions are different, the number of unit blocks 32 set for each imaging condition is made different depending on the resolution. As an example of this case, it is assumed that the clients A and B have set the shooting conditions A8 and B8 as follows for the object to be shot shown in FIG. 30(a).
(1) Shooting condition A8: Shoot a video at a frame rate of 60 fps.
(2) Shooting condition B8: Shoot a still image at high resolution.

撮像制御部231は、上記の撮像条件A8、B8が設定条件として受信されると、撮像素子22の撮像面30において、各ブロック82内の4個の単位グループ32に対して撮影条件A8、B8を設定する。たとえば、撮像制御部231は、ブロック82の4個の単位グループ32のうち1個の単位グループ32(たとえば左上の単位グループ23)に撮影条件A8を設定する。撮像制御部231は、ブロック82の4個の単位グループ32のうち他の3個の単位グループ32に撮影条件B8を設定する。 When the imaging control unit 231 receives the imaging conditions A8 and B8 as the setting conditions, the imaging control unit 231 sets the imaging conditions A8 and B8 for the four unit groups 32 in each block 82 on the imaging surface 30 of the imaging element 22. Set. For example, the imaging control unit 231 sets the imaging condition A8 to one unit group 32 (for example, the upper left unit group 23) among the four unit groups 32 of the block 82. The imaging control unit 231 sets imaging conditions B8 for the other three unit groups 32 among the four unit groups 32 of the block 82.

なお、画像処理部232は、撮影条件B8が設定された単位グループ32からの撮像信号を用いて静止画を生成する場合には、ブロック82の左上の単位グループ32に対応するデータを周囲の単位グループ32に対応するデータから補間処理を行うことにより生成してよい。また、撮影条件A8による動画の撮影のタイミングと、撮影条件B8による静止画の撮影のタイミングが一致した場合には、画像処理部232は、動画の撮影に用いられたブロック82の左上の単位グループ32のデータを高解像度の静止画を生成するためのデータとして使用してよい。 Note that when generating a still image using the imaging signal from the unit group 32 set with the imaging condition B8, the image processing unit 232 converts the data corresponding to the upper left unit group 32 of the block 82 into surrounding units. It may be generated by performing interpolation processing from data corresponding to group 32. Further, when the timing of shooting a video under shooting condition A8 and the timing of shooting a still image under shooting condition B8 match, the image processing unit 232 processes the upper left unit group of the block 82 used for shooting the video. 32 data may be used as data for generating a high-resolution still image.

例6にて説明した遠隔画像撮影システム700では、クライアントが設定した撮影条件に基づいて各撮影条件を設定する撮像素子22の単位グループ32の個数を異ならすことができるので、クライアントが所望する解像度を有する複数の異なる画像を1つの撮像装置10にて生成することができる。 In the remote image capturing system 700 described in Example 6, the number of unit groups 32 of the image pickup devices 22 for setting each image capturing condition can be varied based on the image capturing conditions set by the client, so that the resolution desired by the client can be changed. A single imaging device 10 can generate a plurality of different images.

<例7>
例7の遠隔画像撮影システム700では、同一の画像を本撮影する前に、画像内の複数の領域を複数のクライアントで分担して露出調整等を行うことにより撮影条件を設定し、設定した撮影条件にて本撮影を行う。以下の説明では、1つの画像に対して3人のクライアントA、B、Cが分担して撮影条件を設定する場合を例に挙げる。
<Example 7>
In the remote image capturing system 700 of Example 7, before actually capturing the same image, multiple clients share multiple areas within the image to perform exposure adjustment, etc. to set shooting conditions, and perform the set shooting conditions. The actual shooting will be done under these conditions. In the following description, an example will be exemplified in which three clients A, B, and C share the responsibility of setting the shooting conditions for one image.

例7では、図31(a)に示す画像Pに対して、図31(b)に示すように画像P内を領域S3(人物の顔に対応する領域)、領域S4(人物の顔以外に対応する領域)、領域S5(背景に対応する領域)の3つに分割する例を用いて説明する。画像P内の領域S3に対してクライアントAが撮影条件A9を設定し、領域S4に対してクライアントBが撮影条件B9を設定し、領域S5に対してクライアントCが撮影条件C9を設定する場合を説明する。 In Example 7, for the image P shown in FIG. 31(a), as shown in FIG. An example will be described in which the area is divided into three areas: a corresponding area) and an area S5 (an area corresponding to the background). Here is a case where client A sets shooting condition A9 for area S3 in image P, client B sets shooting condition B9 for area S4, and client C sets shooting condition C9 for area S5. explain.

撮像制御部231は、単位グループ32ごとに異なる撮影条件を設定することなく撮像素子22に撮影動作を行わせ、撮像信号を出力させる。画像処理部232は、出力された撮像信号を用いて、クライアントA、B、C用に3つの同一の画像、すなわち図31(a)に示す画像Pを生成し、通信部101は、画像PをクライアントA~Cの電子機器711~713にそれぞれ送信する。 The imaging control unit 231 causes the imaging device 22 to perform a shooting operation and output an imaging signal without setting different shooting conditions for each unit group 32. The image processing unit 232 uses the output imaging signal to generate three identical images for clients A, B, and C, that is, the image P shown in FIG. 31(a), and the communication unit 101 generates the image P are transmitted to the electronic devices 711 to 713 of clients A to C, respectively.

各電子機器711~713は、受信した画像Pをモニタ等に表示する。クライアントA~Cは、モニタに表示された画像を確認しながら、それぞれが担当する領域S3~S5に対して個別に露出調整をする。この場合、電子機器711は、たとえば公知の顔認識や物体認識等の被写体領域認識処理を用いて、画像Pから領域S3を抽出する。電子機器712は、被写体領域認識処理を用いて、画像Pから領域S4を抽出する。電子機器713は、被写体認識処理を用いて、画像Pから領域S5を抽出する。 Each of the electronic devices 711 to 713 displays the received image P on a monitor or the like. The clients A to C individually adjust the exposure for the areas S3 to S5 that they are responsible for, while checking the image displayed on the monitor. In this case, the electronic device 711 extracts the region S3 from the image P using, for example, known subject region recognition processing such as face recognition or object recognition. The electronic device 712 extracts the region S4 from the image P using subject region recognition processing. The electronic device 713 extracts the region S5 from the image P using subject recognition processing.

各クライアントA~Cは、画像全体の輝度変化等の状況を確認しながら、担当する領域S3~S5の露出調節をする。クライアントAにより調整された領域S3の露出を表す各種のパラメータは領域S3と関連付けされて電子機器711により撮影条件Aとして送信される。クライアントBにより調整された領域S4の露出を表す各種のパラメータは領域S4と関連付けされて電子機器712により撮影条件Bとして送信される。クライアントCにより調整された領域S5の露出を表す各種のパラメータは領域S5と関連付けされて電子機器714により撮影条件Cとして送信される。 Each of the clients A to C adjusts the exposure of the areas S3 to S5 for which they are responsible, while checking conditions such as changes in brightness of the entire image. Various parameters representing the exposure of the region S3 adjusted by the client A are transmitted as the photographing condition A by the electronic device 711 in association with the region S3. Various parameters representing the exposure of the area S4 adjusted by the client B are associated with the area S4 and transmitted as the photographing condition B by the electronic device 712. Various parameters representing the exposure of the region S5 adjusted by the client C are transmitted as the photographing condition C by the electronic device 714 in association with the region S5.

撮像制御部231は、通信部101が撮影条件A~Cを受信すると、撮像素子22の撮像面30のうち領域S3~S5に対応する位置の単位グループ32に対して、受信した撮影条件A~Cを設定する。撮像制御部231は、受信した撮影指示に従って、撮像素子22に撮影動作を行わせ、撮像信号を出力させる。画像処理部232は、出力された撮像信号を用いて画像ファイル40を生成する。
なお、各クライアントA~Cによる領域S3~S5ごとの露出調整が過度となりすぎないように、調整可能な量に制限を設けてもよい。たとえば、上述した例において、人物の顔に相当する領域S3に対する調整可能な量を、人物の顔以外の部分に相当する領域S4に対する露出の+2/3EVに制限してよい。
When the communication unit 101 receives the imaging conditions A to C, the imaging control unit 231 applies the received imaging conditions A to C to the unit group 32 at the position corresponding to the areas S3 to S5 on the imaging surface 30 of the image sensor 22. Set C. The imaging control unit 231 causes the imaging device 22 to perform a shooting operation and output an imaging signal according to the received shooting instruction. The image processing unit 232 generates an image file 40 using the output imaging signal.
Note that a limit may be set on the adjustable amount so that the exposure adjustment for each region S3 to S5 by each of the clients A to C does not become too excessive. For example, in the example described above, the adjustable amount for the region S3 corresponding to a person's face may be limited to +2/3 EV of the exposure for the region S4 corresponding to a portion other than the person's face.

図31に示す例では、1人の人物が撮影される画像に対して、複数のクライアントが露出を調整する場合を説明したが、複数の人物が撮影される画像に対して、複数のクライアントのそれぞれが撮影対象となる異なる人物の露出を調整してもよい。この場合について、以下で説明を行う。 In the example shown in FIG. 31, a case has been described in which multiple clients adjust the exposure for an image in which one person is photographed. The exposure of different people to be photographed may be adjusted. This case will be explained below.

図32(a)は、一例として3人の人物が撮影される画像Pを示し、図32(b)は、画像P内を領域S6(図の紙面左側の人物に対応する領域)、領域S7(図の中央の人物に対応する領域)、領域S8(図の紙面右側の人物に対応する領域)、背景領域S9の4つに分割したものとする。画像P内の領域S6に対してクライアントAが撮影条件A10を設定し、領域S7に対してクライアントBが撮影条件B10を設定し、領域S8に対してクライアントCが撮影条件C10を設定する場合を説明する。 FIG. 32(a) shows an image P in which three people are photographed as an example, and FIG. 32(b) shows an area S6 (an area corresponding to the people on the left side of the figure) in the image P, an area S7 It is assumed that the area is divided into four areas: (an area corresponding to the person in the center of the figure), an area S8 (an area corresponding to the person on the right side of the figure), and a background area S9. A case is assumed in which client A sets shooting condition A10 for area S6 in image P, client B sets shooting condition B10 for area S7, and client C sets shooting condition C10 for area S8. explain.

上述した場合と同様にして、各クライアントA~Cの電子機器711~713は、同一の画像Pをそれぞれ受信すると、受信した画像ファイルの画像をモニタ等に表示する。クライアントA~Cは、モニタに表示された画像を確認しながら、それぞれが担当する領域S6~S8に対して個別に露出調整をする。この場合も、電子機器711は、たとえば公知の顔認識や物体認識等の被写体領域認識処理を用いて、画像Pから領域S6を抽出する。電子機器712は、被写体領域認識処理を用いて、画像Pから領域S7を抽出する。電子機器713は、被写体認識処理を用いて、画像Pから領域S8を抽出する。 Similarly to the case described above, when the electronic devices 711 to 713 of each of the clients A to C receive the same image P, they display the image of the received image file on a monitor or the like. The clients A to C individually adjust the exposure for the areas S6 to S8 that they are in charge of, while checking the image displayed on the monitor. In this case as well, the electronic device 711 extracts the region S6 from the image P using, for example, well-known subject region recognition processing such as face recognition and object recognition. The electronic device 712 extracts the region S7 from the image P using subject region recognition processing. The electronic device 713 extracts the region S8 from the image P using subject recognition processing.

各クライアントA~Cは、画像全体の輝度変化等の状況を確認しながら、担当する領域S6~S8の露出調節をする。クライアントAにより調整された領域S6の露出を表す各種のパラメータは領域S6と関連付けされて電子機器711により撮影条件Aとして送信される。クライアントBにより調整された領域S7の露出を表す各種のパラメータは領域S7と関連付けされて電子機器712により撮影条件Bとして送信される。クライアントCにより調整された領域S8の露出を表す各種のパラメータは領域S8と関連付けされて電子機器714により撮影条件Cとして送信される。以後、上述した場合と同様にして、撮像制御部231による単位グループ32への撮影条件の設定と、撮像素子22による撮影動作とが行われ、画像処理部232により画像ファイル40が生成される。 Each of the clients A to C adjusts the exposure of the areas S6 to S8 for which they are responsible, while checking the situation such as changes in brightness of the entire image. Various parameters representing the exposure of the area S6 adjusted by the client A are transmitted as the photographing condition A by the electronic device 711 in association with the area S6. Various parameters representing the exposure of the area S7 adjusted by the client B are associated with the area S7 and transmitted as the photographing condition B by the electronic device 712. Various parameters representing the exposure of the area S8 adjusted by the client C are associated with the area S8 and transmitted as the photographing condition C by the electronic device 714. Thereafter, in the same manner as described above, the imaging control section 231 sets the imaging conditions for the unit group 32 and the imaging device 22 performs the imaging operation, and the image processing section 232 generates the image file 40.

または、画像Pを図32(c)に示すように人物に対応する領域S6~S8を、さらに顔に対応する領域S61~S81と、顔以外に対応する領域S61~S82とに分割してもよい。この場合、各クライアントA~Cは、領域S61~S81、すなわち人物の顔が所望する露出となるように、領域S61~S81と領域S62~82とのそれぞれに対して露出調整を行うことができる。なお、人物の顔に対応する領域S61~S81の露出調整を行うことにより、調整後の領域S61~S81の露出に応じて、人物の顔以外に対応する領域S62~S82の露出が自動的に調整されてもよい。また、人物の顔以外に対応する領域S62~S82の露出調整を行うことにより、調整後の領域S62~S82の露出に応じて、人物の顔に対応する領域S61~S81の露出が自動的に調整されてもよい。 Alternatively, as shown in FIG. 32(c), the image P may be further divided into areas S6 to S8 corresponding to people into areas S61 to S81 corresponding to faces and areas S61 to S82 corresponding to areas other than faces. good. In this case, each of the clients A to C can adjust the exposure for each of the areas S61 to S81, that is, the person's face, so that the desired exposure is obtained for each of the areas S61 to S81 and the areas S62 to S82. . Note that by adjusting the exposure of areas S61 to S81 corresponding to a person's face, the exposure of areas S62 to S82 corresponding to areas other than the person's face will be automatically adjusted according to the adjusted exposure of areas S61 to S81. May be adjusted. Furthermore, by adjusting the exposure of areas S62 to S82 corresponding to areas other than the person's face, the exposure of areas S61 to S81 corresponding to the person's face is automatically adjusted according to the adjusted exposure of areas S62 to S82. May be adjusted.

図32を用いて説明した例において、撮像装置10で生成された画像にクライアントA~Cが露出調整を所望する人物の顔が含まれている場合に、クライアントA~Cと領域S6~S8とを自動的に関連付けてもよい。この場合、クライアントA~C側の電子機器711~713が、露出調整の対象として所望する人物の顔に関する情報、たとえば顔画像を予め有する。電子機器711~713は、たとえば公知のテンプレートマッチング等を用いて受信した画像上で顔画像を検出する。 In the example described using FIG. 32, when the image generated by the imaging device 10 includes the face of a person for whom the clients A to C desire exposure adjustment, the clients A to C and the areas S6 to S8 may be automatically associated. In this case, the electronic devices 711 to 713 on the clients A to C side have in advance information regarding the face of the person desired as the subject of exposure adjustment, for example, a face image. The electronic devices 711 to 713 detect facial images on the received images using, for example, known template matching.

なお、上述した画像遠隔撮影システム700を、たとえば監視カメラを有する監視システムとして用いることができる。この場合、複数のクライアントは、たとえば、警備会社と監視カメラを設置した家の家主とである。警備会社と家主とは、生成される画像のうちそれぞれ監視対象として注視したい範囲がことなることが考えられる。この場合に、警備会社と家主とは、それぞれが注視したい範囲に対して所望する画像が得られるように、異なる撮影条件を設定することが可能になる。 Note that the above-described remote image capturing system 700 can be used, for example, as a monitoring system having a monitoring camera. In this case, the multiple clients include, for example, a security company and the owner of a house where a surveillance camera is installed. It is conceivable that the security company and the homeowner each want to focus on different areas of the generated image as a monitoring target. In this case, the security company and the homeowner can set different photographing conditions so that desired images can be obtained for the range that each party wants to watch.

また、上述した画像遠隔撮影システム700は、撮像装置10と電子機器710とが通信回路網720を介して画像や各種情報の送受信を行うものとして説明したが、この例に限定されない。たとえば、画像遠隔撮影システム700は、通信回路網720と接続されて画像や情報の送受信を行うサーバ装置を有してもよい。この場合、撮像装置10と電子機器710との間で、サーバ装置を経由して画像や各種情報の送受信を行う。また、撮像装置10で出力された撮像信号を用いて、サーバ装置が、画像処理部232と同様にして、画像ファイル40を生成してもよい。 Further, although the above-described remote image capturing system 700 has been described as a system in which the imaging device 10 and the electronic device 710 transmit and receive images and various information via the communication network 720, the present invention is not limited to this example. For example, the remote image capturing system 700 may include a server device connected to the communication network 720 to send and receive images and information. In this case, images and various information are transmitted and received between the imaging device 10 and the electronic device 710 via the server device. Further, the server device may generate the image file 40 in the same manner as the image processing unit 232 using the imaging signal output by the imaging device 10.

例7における遠隔画像撮影システム700では、1つの画像Pの複数の領域S6~S8ごとに異なるクライアントにて露出調節を行って各領域S6~S8に対する撮影条件を設定して撮影を行うことができる。これにより、撮影条件の設定のために要する作業を複数のクライアントで分担可能になり、作業効率の向上に寄与することができる。 In the remote image capturing system 700 in Example 7, exposure can be adjusted for each of a plurality of regions S6 to S8 of one image P by a different client, and shooting conditions can be set for each region S6 to S8 to perform imaging. . This allows multiple clients to share the work required to set the imaging conditions, contributing to improved work efficiency.

次のような変形も本発明の範囲内であり、変形例の一つ、もしくは複数を上述の実施形態と組み合わせることも可能である。 The following modifications are also within the scope of the invention, and it is also possible to combine one or more of the modifications with the embodiments described above.

(変形例1)
第1の実施の形態では、第1の画像情報641や第2の画像情報642を、画像ファイル40の再生時に作成すると説明したが、これを予め画像ファイル40に記録するようにしてもよい。換言すると、第2の実施の形態では、大グループ81ごとに別々のサブディレクトリ94に別々のファイルとして記録していた動画や静止画を、単一の画像ファイル40に記録するようにしてもよい。この場合、画像ファイル40内に記録される1フレーム分のデータは、それぞれ1つの大グループ81に対応するものとなる。
(Modification 1)
In the first embodiment, it has been explained that the first image information 641 and the second image information 642 are created when the image file 40 is played back, but they may be recorded in the image file 40 in advance. In other words, in the second embodiment, moving images and still images that were recorded as separate files in separate subdirectories 94 for each large group 81 may be recorded in a single image file 40. . In this case, each frame of data recorded in the image file 40 corresponds to one large group 81.

例えば、第2の実施の形態において2つのファイルに分けて記録されていた2つの動画(第1の動画と第2の動画)を、単一の画像ファイル40に記録する場合を考える。このとき、データ部42の先頭から順に、第1の動画の1フレーム目、2フレーム目、3フレーム目、…に関するデータを時系列順に記録し、その後に、第2の動画の1フレーム目、2フレーム目、3フレーム目、…に関するデータを時系列順に記録することができる。このようにすると、再生処理の負荷を低減することができる。 For example, consider a case where two moving images (a first moving image and a second moving image), which were recorded separately in two files in the second embodiment, are recorded in a single image file 40. At this time, data regarding the first frame, second frame, third frame, etc. of the first moving image are recorded in chronological order starting from the beginning of the data section 42, and then data regarding the first frame, second frame, and so on of the second moving image are recorded in order. Data regarding the second frame, third frame, etc. can be recorded in chronological order. In this way, the load of playback processing can be reduced.

また、これとは異なる記録方法として、第1の動画の各フレームに関するデータと、第2の動画の各フレームに関するデータとを、各フレームの時系列順に記録することもできる。つまり、第1の動画の1フレーム目、第2の動画の1フレーム目、第1の動画の2フレーム目、…のように、2つの動画の各フレームが撮像の時系列順に配列された形で記録されていてもよい。このようにすると、記録処理の負荷を低減することができる。 Furthermore, as a recording method different from this, data regarding each frame of the first moving image and data regarding each frame of the second moving image may be recorded in chronological order of each frame. In other words, each frame of the two videos is arranged in the chronological order of imaging, such as the first frame of the first video, the first frame of the second video, the second frame of the first video, etc. may be recorded. In this way, the load of recording processing can be reduced.

上記のように、第1の画像情報641や第2の画像情報642等をそれぞれ画像ファイル40に記録する場合には、以下のような記録方式とすることにより、マスク情報62bを削減することができる。なお、以下の説明においては、図14に示すようにして混合撮像機能にて画像ファイル40が生成された場合を例に挙げて説明を行う。また、図26に、このときに生成される画像ファイル40の構造を模式的に示す。なお、1フレーム分のデータ、即ち1つのブロック70と1つの音声情報との組を、便宜上、フレームデータ7と呼ぶ。 As described above, when recording the first image information 641, the second image information 642, etc. in the image file 40, the mask information 62b can be reduced by using the following recording method. can. In addition, in the following description, the case where the image file 40 is generated by the mixed imaging function as shown in FIG. 14 will be given as an example. Further, FIG. 26 schematically shows the structure of the image file 40 generated at this time. Note that one frame of data, that is, a set of one block 70 and one audio information is called frame data 7 for convenience.

画像ファイル40には、1~4の大グループ81に対応する画像情報64を含むフレームデータ7が、時系列順に個別に記録される。なお、各々のフレームデータ7に含まれるTv値マップ65等についても、当然に、各々の画像情報に対応する状態であるものとする。図14に示す混合撮像機能にて撮像が行われた場合では、第1フレーム目で撮像された画像情報64(即ち第1の画像情報641)が1番目のフレームデータ7としてデータ部42に記録される。第2フレーム目で撮像された画像情報64(即ち第1の画像情報641と第2の画像情報642)とがそれぞれ2番目、3番目のフレームデータ7として記録される。第3フレーム目で撮像された画像情報64(即ち第1の画像情報641、第2の画像情報642、第3の画像情報643)がそれぞれ4番目、5番目、6番目のフレームデータ7として記録される。 In the image file 40, frame data 7 including image information 64 corresponding to large groups 81 of 1 to 4 are individually recorded in chronological order. Note that it is assumed that the Tv value map 65 and the like included in each frame data 7 are also in a state corresponding to each image information. When imaging is performed using the mixed imaging function shown in FIG. 14, the image information 64 captured in the first frame (i.e., the first image information 641) is recorded in the data section 42 as the first frame data 7. be done. Image information 64 captured in the second frame (ie, first image information 641 and second image information 642) are recorded as second and third frame data 7, respectively. The image information 64 (i.e., the first image information 641, the second image information 642, and the third image information 643) captured in the third frame is recorded as the fourth, fifth, and sixth frame data 7, respectively. be done.

図26に、生成された画像ファイル40の構造を模式的に示す。上記のようにして画像情報64が記録される際に、各フレームデータ7にはマスク情報62bに代えて、上述したヘッダ部41のマスク部44に記録された識別情報60として割り当てられた一意な番号に対応する画像識別情報621と、次フレームデータ7の記録位置を示す次画像アドレス622とが記録される。即ち、図27に画像ファイル40のデータ部42のみを模式的に示した場合のように、第1番目および第2番目のフレームデータ7の画像識別情報621には第1の画像情報641であることを表す「1」の番号が記録される。第3番目のフレームデータ7の画像識別情報621には、第2の画像情報642であることを表す「2」の番号が記録される。この結果、実施の形態の場合のように、マスク情報62bをデータ部42に記録する場合と比較して、記録領域のサイズを削減することができる。
なお、次画像アドレス622として、次フレームデータ7の記録位置を示すものに代えて、同一の画像識別情報621を有する次画像が記録されたフレームデータ7の記録位置を示すものでも良い。
FIG. 26 schematically shows the structure of the generated image file 40. When the image information 64 is recorded as described above, each frame data 7 has unique identification information 60 recorded in the mask section 44 of the header section 41 described above instead of the mask information 62b. Image identification information 621 corresponding to the number and a next image address 622 indicating the recording position of the next frame data 7 are recorded. That is, as in the case where only the data section 42 of the image file 40 is schematically shown in FIG. 27, the image identification information 621 of the first and second frame data 7 includes the first image information 641. A number “1” representing this is recorded. In the image identification information 621 of the third frame data 7, a number "2" indicating that it is the second image information 642 is recorded. As a result, the size of the recording area can be reduced compared to the case where the mask information 62b is recorded in the data section 42 as in the embodiment.
Note that instead of indicating the recording position of the next frame data 7 as the next image address 622, it may indicate the recording position of the frame data 7 in which the next image having the same image identification information 621 is recorded.

上記のような画像ファイル40を再生する場合には、制御部23は、データ部42の画像識別情報621と次画像アドレス622とを参照しながら、再生すべき画像情報64を検索する。図27において、画像情報642を検索する場合には、制御部23は、第1番目のフレームデータ7の画像識別情報621を参照して画像情報642ではないことを判断し、次画像アドレス622を参照して第2番目のフレームデータ7にスキップする。第2番目のフレームデータ7における画像識別情報621も画像情報642ではないことを示しているので、制御部23は、次画像アドレス622を参照して第3番目のフレームデータ7にスキップする。第3番目のフレームデータ7の画像識別情報621には画像情報642が記録されていることを示す番号「2」が記録されているので、制御部23は、このフレームデータ7から画像情報642を読み込む。従って、画像を読み出す際に、所望の画像とは異なる画像情報64、Tv値マップ65、Sv値マップ66、Bv値マップ67、Av値情報68をスキップできるので、所望の画像を検索するために要する時間を短縮できる。 When reproducing the image file 40 as described above, the control section 23 searches for image information 64 to be reproduced while referring to the image identification information 621 and the next image address 622 in the data section 42 . In FIG. 27, when searching for image information 642, the control unit 23 refers to the image identification information 621 of the first frame data 7, determines that it is not the image information 642, and searches the next image address 622. Refer to it and skip to the second frame data 7. Since the image identification information 621 in the second frame data 7 also indicates that it is not the image information 642, the control unit 23 refers to the next image address 622 and skips to the third frame data 7. Since the number “2” indicating that image information 642 is recorded is recorded in the image identification information 621 of the third frame data 7, the control unit 23 extracts the image information 642 from this frame data 7. Load. Therefore, when reading an image, it is possible to skip the image information 64, Tv value map 65, Sv value map 66, Bv value map 67, and Av value information 68 that are different from the desired image, so that in order to search for the desired image. The time required can be shortened.

(変形例2)
第1の実施の形態の説明において、動画撮像機能B、および混合撮像機能により作成される画像ファイル40のデータ部42には、画像情報64や各種のマップ情報が、撮像素子22における単位グループ32の配列通りに記録されると述べた。これを、単位グループ32の配列とは異なる配列にして記録してもよい。以下、この点について詳述する。
(Modification 2)
In the description of the first embodiment, image information 64 and various types of map information are stored in the unit group 32 of the image sensor 22 in the data section 42 of the image file 40 created by the moving image capturing function B and the mixed image capturing function. He said that the data will be recorded according to the sequence. This may be recorded in an arrangement different from that of the unit group 32. This point will be explained in detail below.

図19は、変形例2の説明図である。ここでは、図8(b)と同様に、単位グループ32を4つの大グループ81に分類している。ただし、その後に制御部23が生成する画像情報64は、単位グループ32の配列通りに撮像信号を配列したものではない。具体的には、大グループ81ごとに撮像信号を集約した後に、それらを連結することにより、画像情報64を生成している。例えば、画像情報64を2×2の4つの領域に区切ったとき、左上の領域には、1番目の大グループ81に属する単位グループ32からの撮像信号が集約され、左下の領域には、2番目の大グループ81に属する単位グループ32からの撮像信号が集約され、右上の領域には、3番目の大グループ81に属する単位グループ32からの撮像信号が集約され、右下の領域には、4番目の大グループ81に属する単位グループ32からの撮像信号が集約されている。 FIG. 19 is an explanatory diagram of modification example 2. Here, the unit groups 32 are classified into four large groups 81 as in FIG. 8(b). However, the image information 64 subsequently generated by the control unit 23 is not the image information 64 in which the imaging signals are arranged in accordance with the arrangement of the unit groups 32. Specifically, after collecting the imaging signals for each large group 81, the image information 64 is generated by connecting them. For example, when the image information 64 is divided into four 2×2 areas, the upper left area collects the imaging signals from the unit group 32 belonging to the first large group 81, and the lower left area collects the imaging signals from the unit group 32 that belongs to the first large group 81. The imaging signals from the unit group 32 belonging to the third large group 81 are aggregated in the upper right area, the imaging signals from the unit group 32 belonging to the third large group 81 are aggregated, and the lower right area is Imaging signals from unit groups 32 belonging to the fourth large group 81 are aggregated.

なお、以上のように、画像情報64における撮像信号の配列を変更する場合には、Tv値マップ65やSv値マップ66、マスク情報62等の配列も、これに合わせて変更する必要がある。 Note that, as described above, when changing the arrangement of imaging signals in the image information 64, the arrangement of the Tv value map 65, Sv value map 66, mask information 62, etc. must also be changed accordingly.

また、これ以外の方法で、画像情報64の配列を変更してもよい。つまり、画像ファイル40内において、画像情報64内の配列と、その他の撮像条件に関する情報(マスク情報62等)内の配列とが対応してさえいれば、その配列自体はどのようなものであってもよい。 Further, the arrangement of the image information 64 may be changed by other methods. In other words, in the image file 40, as long as the arrangement in the image information 64 corresponds to the arrangement in other information related to imaging conditions (mask information 62, etc.), it does not matter what the arrangement itself is. It's okay.

(変形例3)
動画撮像機能Bないし混合撮像機能において、フレームごとに単位グループ32の用途を変化させてもよい。例えば図20に示すように、奇数フレームでは単位グループ32が1~4番目の大グループ81にそれぞれ分類されるようにし、撮像条件が異なる4つの画像情報641、642、643、644を含む画像情報64が得られるようにする。そして、偶数フレームでは単位グループ32が5番目の大グループ81にのみ分類されるようにし、単一の画像情報64のみが得られるようにする。つまり、撮像条件が異なり画素数が相対的に少ない複数の画像と、画素数が相対的に多い単一画像とを、時分割的に撮像してもよい。また、上述した変形例1や変形例2にこの変形例3を適用することもできる。
(Modification 3)
In the video imaging function B or the mixed imaging function, the purpose of the unit group 32 may be changed for each frame. For example, as shown in FIG. 20, in odd frames, the unit groups 32 are classified into the first to fourth large groups 81, and the image information includes four pieces of image information 641, 642, 643, and 644 with different imaging conditions. 64. Then, in even frames, the unit group 32 is classified only into the fifth large group 81, so that only a single image information 64 is obtained. That is, a plurality of images with different imaging conditions and a relatively small number of pixels and a single image with a relatively large number of pixels may be captured in a time-sharing manner. Moreover, this modification 3 can also be applied to modification 1 and modification 2 described above.

(変形例4)
動画撮像機能Bないし混合撮像機能において、1つの単位グループ32が複数の用途を有するようにしてもよい。例えば図21に示すように、単位グループ32が1~4番目の大グループ81にそれぞれ分類され、且つ、全ての単位グループ32が5番目の大グループ81にも分類されるようにしてもよい。この場合、前者の分類に従って画像ファイル40の再生(現像等)を行うと、4つの画像情報641、642、643、644を含む画像情報64が得られ、後者の分類に従って画像ファイル40の再生(現像等)を行うと、より画素数が多い単一の画像情報64が得られることになる。
(Modification 4)
In the video imaging function B or the mixed imaging function, one unit group 32 may have multiple uses. For example, as shown in FIG. 21, the unit groups 32 may be classified into the first to fourth large groups 81, and all the unit groups 32 may also be classified into the fifth large group 81. In this case, when the image file 40 is reproduced (developed, etc.) according to the former classification, image information 64 including four pieces of image information 641, 642, 643, and 644 is obtained, and the image file 40 is reproduced (developed, etc.) according to the latter classification. Development, etc.), single image information 64 with a larger number of pixels is obtained.

(変形例5)
静止画撮像機能Bの説明において、マスク情報62上で「0」という番号が割り振られている単位グループ32は、撮像に利用されておらず、データ部42に記録されている画像情報64には、その単位グループ32に関する情報が含まれていないことを表すと述べたが、静止画撮像機能Aや動画撮像機能Aにおいても、「0」という番号が同様の意味を持つようにしてもよい。
(Modification 5)
In the description of the still image imaging function B, the unit group 32 to which the number "0" is assigned on the mask information 62 is not used for imaging, and the image information 64 recorded in the data section 42 is , has been described as indicating that information regarding the unit group 32 is not included, but the number "0" may also have the same meaning in the still image capturing function A and the moving image capturing function A.

また、ヘッダ部41のマスク情報62において、「0」という番号が撮像に利用されていないことを表すものとしてもよい。例えば、静止画撮像機能Bや動画撮像機能Bにおいて、撮像画面全体を2×2の4つの単位グループ32で区切って、それら4つの単位グループ32にそれぞれ異なる用途を割り当てる場合、単位グループ32の縦方向の数(行数)が奇数であれば、1行だけ余りの行が生じることになる。このような場合に、その余りの1行を撮像に用いないこととして、ヘッダ部41に記録するマスク情報62では、その余りの1行に「0」という番号を割り当てることとしてもよい。 Furthermore, in the mask information 62 of the header section 41, the number "0" may represent that it is not used for imaging. For example, in still image capture function B or video capture function B, if the entire image capture screen is divided into four 2×2 unit groups 32 and each of these four unit groups 32 is assigned a different purpose, the vertical If the number of directions (number of rows) is odd, only one row will remain. In such a case, the remaining line may be assigned a number "0" in the mask information 62 recorded in the header section 41 so that the remaining line is not used for imaging.

なお、上述した「0」という番号は一例であって、他の番号を、上述した「0」という番号と同様の扱いとしてもよい。 Note that the number "0" mentioned above is just an example, and other numbers may be treated in the same way as the number "0" mentioned above.

(変形例6)
画像ファイル40の構造は、上述した各実施の形態と異なっていてもよい。また、画像ファイル40に記録される撮像条件に関する情報は、第1の実施の形態等で説明した情報と異なっていてもよい。例えば、Sv値マップ66など、一部の情報の記録を省略してもよい。逆に、上述したものとは別の情報を更に追加してもよい。また、記録形態は上述した実施形態と異なっていてもよい。例えば、Av値情報68を、Tv値やSv値等と同様に、単位グループ32ごとのAv値を二次元状に配列したAv値マップとして記録してもよい。データ部42に、上述した種々の情報とは異なる情報を更に記録してもよい。例えば、周知の測距技術により測定された被写体までの距離情報をデータ部42に記録してもよい。また、この距離情報は、単位グループ32ごとに測定された被写体までの距離を二次元状に配列した、いわゆるデプスマップであってもよい。別の例としては、撮像光学系21の状態(例えば焦点距離等)に関する情報を記録することもできる。また、これらの情報が動画の撮影中に変化することを考慮して、これらの情報をフレームごとに記録してもよい。
(Modification 6)
The structure of the image file 40 may be different from each of the embodiments described above. Further, the information regarding the imaging conditions recorded in the image file 40 may be different from the information described in the first embodiment and the like. For example, recording of some information such as the Sv value map 66 may be omitted. Conversely, information other than that described above may be further added. Further, the recording format may be different from the embodiment described above. For example, the Av value information 68 may be recorded as an Av value map in which Av values for each unit group 32 are arranged in a two-dimensional manner, similar to Tv values, Sv values, etc. The data section 42 may further record information different from the various information described above. For example, distance information to the subject measured by a well-known distance measurement technique may be recorded in the data section 42. Further, this distance information may be a so-called depth map in which distances to the subject measured for each unit group 32 are arranged in a two-dimensional manner. As another example, information regarding the state of the imaging optical system 21 (for example, focal length, etc.) can also be recorded. Further, considering that this information changes during video shooting, this information may be recorded for each frame.

または、マスク情報62の記録を省略しても良い。この場合、制御部23は、再生時に、Tv値マップ65や、Sv値マップ66や、Bv値マップ67を用いて、マスク情報62に相当する各々の単位グループ32の用途(目的、役割)を表す情報(マスク相当情報)を生成する。例えば、制御部23は、Tv値マップ65および/またはSv値マップ66を参照する。制御部23は、参照したTv値マップ65上において、同一のシャッタースピードが格納された座標(x、y)を同一の領域と見なす。 Alternatively, recording of the mask information 62 may be omitted. In this case, during playback, the control unit 23 uses the Tv value map 65, the Sv value map 66, and the Bv value map 67 to determine the purpose (purpose, role) of each unit group 32 corresponding to the mask information 62. Generate information to represent (mask equivalent information). For example, the control unit 23 refers to the Tv value map 65 and/or the Sv value map 66. The control unit 23 regards coordinates (x, y) where the same shutter speed is stored as the same area on the referenced Tv value map 65.

例えば、図28(a)に示すように、Tv値マップ65において、シャッタースピードが互いに異なる領域R1とR2とが存在する場合、制御部23は、領域R1とR2とに対応する撮像画面50上のそれぞれの領域が主要被写体領域52と背景領域53とに相当すると判断する。例えば領域1におけるシャッタースピードが領域2のシャッタースピードよりも高速の場合には、制御部23は、領域R1に対応する撮像画面50上の領域を主要被写体領域52と見なし、領域R2に対応する撮像画面50上の領域を背景領域53と見なす。そして、制御部23は、図28(b)に示すマスク相当情報63を生成する。図28(b)においては、主要被写体52に含まれる単位グループ32の位置には「1」が、背景領域53に含まれる単位グループ32の位置には「2」がそれぞれ格納される。 For example, as shown in FIG. 28(a), when there are regions R1 and R2 with different shutter speeds in the Tv value map 65, the control unit 23 controls the image capturing screen 50 corresponding to the regions R1 and R2. It is determined that the respective areas correspond to the main subject area 52 and the background area 53. For example, when the shutter speed in area 1 is faster than the shutter speed in area 2, the control unit 23 regards the area on the imaging screen 50 corresponding to area R1 as the main subject area 52, and The area on the screen 50 is regarded as the background area 53. Then, the control unit 23 generates mask equivalent information 63 shown in FIG. 28(b). In FIG. 28B, "1" is stored at the position of the unit group 32 included in the main subject 52, and "2" is stored at the position of the unit group 32 included in the background area 53.

なお、Sv値マップ66を用いる場合には、制御部23は、同一のISO感度が格納された座標(x、y)を同一の領域と見なして、同様にしてマスク相当情報63を生成することができる。Tv値マップ65およびSv値マップ66の両方を用いる場合には、制御部23は、同一のシャッタースピードが格納された座標と同一のISO感度とが格納された座標とを同一の領域と見なすことができるので、領域の分割を詳細に行うことができる。また、制御部23は、Tv値マップ65および/またはSv値マップ66に加えてBv値マップ67を参照することにより、被写体輝度の分布を領域の分割に用いることができるので、さらに領域の分割精度を向上させることができる。 Note that when using the Sv value map 66, the control unit 23 regards the coordinates (x, y) where the same ISO sensitivity is stored as the same area, and generates the mask equivalent information 63 in the same manner. Can be done. When using both the Tv value map 65 and the Sv value map 66, the control unit 23 considers the coordinates where the same shutter speed is stored and the coordinates where the same ISO sensitivity is stored as the same area. Therefore, the area can be divided in detail. In addition, the control unit 23 can use the subject brightness distribution to divide the area by referring to the Bv value map 67 in addition to the Tv value map 65 and/or the Sv value map 66. Accuracy can be improved.

さらに、制御部23は、Bv値マップ67を参照してマスク相当情報63を生成しても良い。この場合、制御部23は、所定の範囲内の被写体輝度が格納された座標(x、y)を同一の領域と見なして、上述した場合と同様にしてマスク相当情報63を生成する。上述した距離情報、即ちデプスマップが記録されている場合には、制御部23は、デプスマップとBv値マップ67とを用いてマスク相当情報63を生成することができる。この場合、制御部23は、Bv値マップ67を参照して同一の領域に分割された領域内のうち、同一の被写体距離が格納された座標(x、y)を同一の領域と見なして、マスク相当情報63を生成する。例えば、被写体輝度が低い領域について、黒い色をした被写体自体に対応する領域とその被写体の影に対応する領域とを分割することができる。 Further, the control unit 23 may generate the mask equivalent information 63 by referring to the Bv value map 67. In this case, the control unit 23 regards the coordinates (x, y) where the subject brightness within a predetermined range is stored as the same area, and generates the mask equivalent information 63 in the same manner as in the above case. When the distance information described above, that is, the depth map is recorded, the control unit 23 can generate the mask equivalent information 63 using the depth map and the Bv value map 67. In this case, the control unit 23 refers to the Bv value map 67 and regards the coordinates (x, y) where the same subject distance is stored as the same area among the areas divided into the same areas. Mask equivalent information 63 is generated. For example, an area where the subject brightness is low can be divided into an area corresponding to the black subject itself and an area corresponding to the shadow of the subject.

以上のようにして、制御部23は、画像ファイル40にマスク情報62が記録されていない場合であっても、再生時に撮像条件に基づいてマスク相当情報を生成することができる。従って、画像ファイル40にマスク情報62を記録する必要が無くなり、画像ファイル40が占有する記録領域を削減できる。
なお、以上の説明では、Tv値マップ65や、Sv値マップ66や、Bv値マップ67を用いて、静止画撮像機能Aや動画撮像機能Aのときに生成されたマスク情報62に相当するマスク相当情報63を生成する場合を説明したが、この例に限定されない。例えば、制御部23は、Tv値マップ65やSv値マップ66を参照して、同一のシャッタースピードが格納された座標と同一のISO感度が格納された座標とに対応する単位グループ32が同一の画像情報64を構成するものとし見なして、静止画撮像機能Bや動画撮像機能Bや混合撮像機能の際に生成されたマスク情報62に相当するマスク相当情報63を生成できる。
As described above, even if the mask information 62 is not recorded in the image file 40, the control unit 23 can generate mask equivalent information based on the imaging conditions during playback. Therefore, there is no need to record the mask information 62 in the image file 40, and the recording area occupied by the image file 40 can be reduced.
In addition, in the above explanation, the mask corresponding to the mask information 62 generated at the time of the still image imaging function A and the video imaging function A is created using the Tv value map 65, the Sv value map 66, and the Bv value map 67. Although the case where equivalent information 63 is generated has been described, the present invention is not limited to this example. For example, the control unit 23 refers to the Tv value map 65 and the Sv value map 66, and determines whether the unit groups 32 corresponding to the coordinates where the same shutter speed is stored and the coordinates where the same ISO sensitivity is stored are the same. Regarded as constituting the image information 64, mask equivalent information 63 corresponding to the mask information 62 generated during the still image imaging function B, moving image imaging function B, or mixed imaging function can be generated.

(変形例7)
上述した各実施の形態では、撮像素子22と制御部23とを有する単一の電子機器である撮像装置について説明したが、本発明はこのような実施形態に限定されない。例えば、外部に設けられた撮像素子22を制御する電子機器にも本発明を適用することができる。以下、撮像素子22を備えた撮像ユニット1001を、外部機器から制御する形態について詳述する。
(Modification 7)
In each of the embodiments described above, an imaging device that is a single electronic device including the imaging element 22 and the control unit 23 has been described, but the present invention is not limited to such embodiments. For example, the present invention can be applied to electronic equipment that controls an externally provided image sensor 22. Hereinafter, a mode in which the imaging unit 1001 including the imaging element 22 is controlled from an external device will be described in detail.

図22は、変形例7に係る撮像システムの構成を模式的に示すブロック図である。図22に示す撮像システム1000は、撮像ユニット1001と、電子機器1002とから成る。撮像ユニット1001は、第1の実施の形態で説明した撮像光学系21と撮像素子22とを備え、更に、第1通信部1003を備えている。また、電子機器1002は、第1の実施の形態で説明した制御部23、液晶モニタ24、メモリカード25、操作部26、DRAM27、フラッシュメモリ28、および録音部29を備え、更に、第2通信部1004を備えている。第1通信部1003および第2通信部1004は、例えば周知の無線通信技術や光通信技術等により、双方向のデータ通信を行うことができる。また、撮像ユニット1001と電子機器1002とが有線ケーブル等による有線接続により、第1通信部1003および第2通信部1004は、双方向のデータ通信を行う構成であってもよい。 FIG. 22 is a block diagram schematically showing the configuration of an imaging system according to Modification Example 7. An imaging system 1000 shown in FIG. 22 includes an imaging unit 1001 and an electronic device 1002. The imaging unit 1001 includes the imaging optical system 21 and the imaging element 22 described in the first embodiment, and further includes a first communication section 1003. The electronic device 1002 also includes the control unit 23, LCD monitor 24, memory card 25, operation unit 26, DRAM 27, flash memory 28, and recording unit 29 described in the first embodiment, and further includes a second communication 1004. The first communication unit 1003 and the second communication unit 1004 can perform bidirectional data communication using, for example, well-known wireless communication technology, optical communication technology, or the like. Further, the imaging unit 1001 and the electronic device 1002 may be connected by a wired cable or the like, so that the first communication unit 1003 and the second communication unit 1004 perform bidirectional data communication.

変形例7に係る撮像システム1000では、制御部23は、第2通信部1004および第1通信部1003を介したデータ通信により、撮像素子22の制御を行う。例えば、所定の制御データを撮像ユニット1001との間で送受信することにより、単位グループ32ごとに異なる撮像条件を設定したり、各々の単位グループ32から撮像信号を読み出したりする。 In the imaging system 1000 according to modification 7, the control unit 23 controls the imaging device 22 through data communication via the second communication unit 1004 and the first communication unit 1003. For example, by transmitting and receiving predetermined control data to and from the imaging unit 1001, different imaging conditions can be set for each unit group 32, and imaging signals can be read from each unit group 32.

以上に述べたように、撮像システム1000において、単位グループ32ごとの制御を行っているのは、制御部23である。電子機器1002は、撮像素子22を備えていないが、電子機器1002の外部に設けられた撮像素子22(撮像ユニット1001)を制御することにより、第1の実施の形態と同様の制御を行う。つまり、本発明は、撮像素子22を有していない電子機器に適用することが可能である。 As described above, in the imaging system 1000, the controller 23 controls each unit group 32. Although the electronic device 1002 does not include the image sensor 22, it performs the same control as in the first embodiment by controlling the image sensor 22 (imaging unit 1001) provided outside the electronic device 1002. That is, the present invention can be applied to electronic equipment that does not have the image sensor 22.

(変形例8)
画像情報64のデータ量を削減するために、画像情報64を周知の可逆圧縮技術により圧縮して記録してもよい。また、画像情報64を、隣接する画素との差分値の形で記録してもよい。例えば、ある画素の画素値(撮像信号)を記録する位置に、その左隣の画素との差分値を記録するようにしてもよい。または、所定領域内の全画素の画素値の平均値との差分値を記録するようにしたり、全画素の平均値との差分値を記録するようにしてもよい。
(Modification 8)
In order to reduce the data amount of the image information 64, the image information 64 may be compressed and recorded using a known reversible compression technique. Further, the image information 64 may be recorded in the form of a difference value between adjacent pixels. For example, at a position where a pixel value (imaging signal) of a certain pixel is recorded, a difference value between the pixel and the adjacent pixel on the left may be recorded. Alternatively, the difference value between the pixel values of all the pixels in the predetermined area and the average value may be recorded, or the difference value between the pixel values and the average value of all the pixels within the predetermined area may be recorded.

また、動画の場合には、前のフレームの同じ位置の画素値との差分値を記録するようにすれば、更にデータ量を削減することができる。あるいは、前のフレームの同じ位置の画素値と値が異なるときだけ画素値を記録するようにし、前フレームと画素値が同一である場合にはその画素値を記録しないようにしてもよい。これは撮像条件(Sv値やTv値等)について適用することも可能である。例えば、ある単位グループ32について、前フレームとSv値が同一である場合、そのSv値を記録しないようにしてもよい。 Furthermore, in the case of a moving image, the amount of data can be further reduced by recording the difference value between the pixel value and the pixel value at the same position in the previous frame. Alternatively, a pixel value may be recorded only when the value is different from the pixel value at the same position in the previous frame, and the pixel value may not be recorded when the pixel value is the same as the previous frame. This can also be applied to imaging conditions (Sv value, Tv value, etc.). For example, if the Sv value of a certain unit group 32 is the same as that of the previous frame, that Sv value may not be recorded.

なお、以上で述べたような形で画像情報64を記録する場合、再生時(現像時)に、それらの形から元の画素値を復元する処理を実行する必要がある。 Note that when the image information 64 is recorded in the form described above, it is necessary to perform a process of restoring the original pixel values from those forms at the time of reproduction (during development).

(変形例9)
動画撮像機能Bや混合撮像機能の際に、大グループ81同士でフレームレートが異なる場合、制御部23は最も早いフレームレートを基準として各フレームを記録するものとしたが、この例に限定されない。例えば、制御部23は、それぞれのフレームレートの最小公倍数に相当するフレームレートにて各フレームを記録しても良い。図14に示すように、1番目の大グループ811で60fpsの動画撮像を、2番目の大グループ812で50fpsの動画撮像をする場合に、60fpsと50fpsの最小公倍数である300コマ/秒でフレームを記録する。即ち、60fpsに設定された大グループ811からの撮像信号に基づく画像情報64は5コマごとに記録し、50fpsに設定された第グループ812からの撮像信号に基づく画像情報64については6コマごとに記録すれば良い。
(Modification 9)
When the large groups 81 have different frame rates during the video imaging function B or the mixed imaging function, the control unit 23 records each frame based on the fastest frame rate, but the invention is not limited to this example. For example, the control unit 23 may record each frame at a frame rate corresponding to the least common multiple of the respective frame rates. As shown in FIG. 14, when capturing a video at 60 fps in the first large group 811 and capturing a video at 50 fps in the second large group 812, the frame rate is 300 frames/second, which is the least common multiple of 60 fps and 50 fps. Record. That is, image information 64 based on the imaging signal from the large group 811 set at 60 fps is recorded every 5 frames, and image information 64 based on the imaging signal from the 1st group 812 set at 50 fps is recorded every 6 frames. Just record it.

(変形例10)
上述した各実施の形態では、本発明をレンズ一体型カメラに適用した例について説明を行ったが、例えばレンズ交換型カメラに本発明を適用することも可能である。また、本発明はカメラに限らず、PC、携帯電話、スマートフォン、タブレット等のカメラ付き電子機器にも適用可能である。
(Modification 10)
In each of the embodiments described above, an example in which the present invention is applied to a lens-integrated camera has been described, but it is also possible to apply the present invention to, for example, a lens-interchangeable camera. Moreover, the present invention is applicable not only to cameras but also to electronic devices with cameras such as PCs, mobile phones, smartphones, and tablets.

本発明の特徴を損なわない限り、本発明は上記実施の形態に限定されるものではなく、本発明の技術的思想の範囲内で考えられるその他の形態についても、本発明の範囲内に含まれる。 As long as the characteristics of the present invention are not impaired, the present invention is not limited to the embodiments described above, and other forms that can be considered within the scope of the technical idea of the present invention are also included within the scope of the present invention. .

10…撮像装置、21…撮像光学系、22…撮像素子、23…制御部、24…液晶モニタ、25…メモリカード、26…操作部、27…DRAM、28…フラッシュメモリ、29…録音部、101…通信部、231…撮像制御部、232…画像処理部、700…遠隔画像撮影システム、710…電子機器 DESCRIPTION OF SYMBOLS 10... Imaging device, 21... Imaging optical system, 22... Image sensor, 23... Control unit, 24... Liquid crystal monitor, 25... Memory card, 26... Operating unit, 27... DRAM, 28... Flash memory, 29... Recording unit, 101...Communication unit, 231...Imaging control unit, 232...Image processing unit, 700...Remote image capturing system, 710...Electronic device

Claims (22)

第1撮像条件で撮像動作が行われる第1領域と、第2撮像条件で撮像動作が行われる第2領域とを含む撮像領域を有する撮像素子と、
前記第1領域で撮像された第1被写体の第1画像データ前記第2領域撮像された第2被写体の第2画像データと、前記第1撮像条件に関する第1データと、前記第2撮像条件に関する第2データと、前記第1領域の用途に関する第3データと、前記第2領域の用途に関する第4データとを有するファイルを記録部に記録する制御部とを備える電子機器。
an imaging device having an imaging region including a first region where an imaging operation is performed under a first imaging condition and a second region where an imaging operation is performed under a second imaging condition;
first image data of the first subject imaged in the first area , second image data of the second subject imaged in the second area, first data regarding the first imaging condition, and the second image data. An electronic device comprising : a control unit that records in a recording unit a file having second data regarding imaging conditions , third data regarding the use of the first area, and fourth data regarding the use of the second area .
請求項1に記載の電子機器において、The electronic device according to claim 1,
前記第3データは、前記第1被写体に関する情報を有し、The third data includes information regarding the first subject,
前記第4データは、前記第2被写体に関する情報を有する電子機器。The fourth data is an electronic device having information regarding the second subject.
請求項1または請求項2に記載の電子機器において、The electronic device according to claim 1 or claim 2,
前記第3データは、前記第1画像データに関する情報を有し、The third data has information regarding the first image data,
前記第4データは、前記第2画像データに関する情報を有する電子機器。The fourth data is an electronic device having information regarding the second image data.
請求項3に記載の電子機器において、The electronic device according to claim 3,
前記第3データは、前記第1画像データが静止画像データと動画像データとのうちいずれの画像データであるかに関する情報を有し、The third data has information regarding whether the first image data is still image data or moving image data,
前記第4データは、前記第2画像データが静止画像データと動画像データとのうちいずれの画像データであるかに関する情報を有する電子機器。The fourth data includes information regarding whether the second image data is still image data or moving image data.
請求項1から請求項4のいずれか一項に記載の電子機器において、The electronic device according to any one of claims 1 to 4,
前記制御部は、前記第3データと前記第4データとを前記ファイルのヘッダ部に格納し、前記第1画像データ、前記第2画像データ、前記第1データおよび前記第2データを前記ファイルのデータ部に格納する電子機器。The control unit stores the third data and the fourth data in a header section of the file, and stores the first image data, the second image data, the first data, and the second data in the file. Electronic equipment stored in the data section.
請求項1から請求項5のいずれか一項に記載の電子機器において、
前記撮像領域は、光を電荷に変換する複数の光電変換部を有し、
前記第1領域は、前記複数の光電変換部のうち少なくとも1つの前記光電変換部を含み、
前記第2領域は、前記複数の光電変換部のうち少なくとも1つの前記光電変換部を含み、
前記制御部は、前記第1領域の前記光電変換部で変換された電荷により生成される第1信号に基づいて前記第1画像データを生成し、前記第2領域の前記光電変換部で変換された電荷により生成される第2信号に基づいて前記第2画像データを生成する電子機器。
The electronic device according to any one of claims 1 to 5 ,
The imaging area includes a plurality of photoelectric conversion units that convert light into charges,
The first region includes at least one photoelectric conversion unit among the plurality of photoelectric conversion units,
The second region includes at least one photoelectric conversion unit among the plurality of photoelectric conversion units,
The control unit generates the first image data based on a first signal generated by the charges converted by the photoelectric conversion unit in the first area, and generates the first image data based on the first signal generated by the charges converted by the photoelectric conversion unit in the second area. An electronic device that generates the second image data based on a second signal generated by the electric charge.
請求項に記載の電子機器において、
前記第1データは、前記第1領域の前記光電変換部で変換された電荷の蓄積時間に関する情報を有し、
前記第2データは、前記第2領域の前記光電変換部で変換された電荷の蓄積時間に関する情報を有する電子機器。
The electronic device according to claim 6 ,
The first data includes information regarding the accumulation time of charges converted by the photoelectric conversion unit in the first region,
The second data includes information regarding an accumulation time of charges converted by the photoelectric conversion unit in the second region.
請求項に記載の電子機器において、
前記制御部は、前記第1領域の前記光電変換部で変換された電荷の蓄積時間と、前記第2領域の前記光電変換部で変換された電荷の蓄積時間とが異なる蓄積時間になるように前記撮像素子を制御する電子機器。
The electronic device according to claim 7 ,
The control unit is configured such that an accumulation time of charges converted by the photoelectric conversion unit in the first region and an accumulation time of charges converted by the photoelectric conversion unit in the second region are different. An electronic device that controls the image sensor.
請求項から請求項のいずれか一項に記載の電子機器において、
前記第1領域の前記光電変換部と前記第2領域の前記光電変換部とは、前記撮像領域において行方向に並んで配置される電子機器。
The electronic device according to any one of claims 6 to 8 ,
The photoelectric conversion unit in the first area and the photoelectric conversion unit in the second area are electronic devices arranged side by side in the row direction in the imaging area.
請求項に記載の電子機器において、
前記第1領域の前記光電変換部と前記第2領域の前記光電変換部とは、隣に並んで配置される電子機器。
The electronic device according to claim 9 ,
The photoelectric conversion section in the first region and the photoelectric conversion section in the second region are electronic devices arranged side by side.
請求項から請求項のいずれか一項に記載の電子機器において、
前記第1領域の前記光電変換部と前記第2領域の前記光電変換部とは、前記撮像領域において列方向に並んで配置される電子機器。
The electronic device according to any one of claims 6 to 8 ,
The photoelectric conversion unit in the first area and the photoelectric conversion unit in the second area are electronic devices arranged side by side in a column direction in the imaging area.
請求項11に記載の電子機器において、
前記第1領域の前記光電変換部と前記第2領域の前記光電変換部とは、隣に並んで配置される電子機器。
The electronic device according to claim 11 ,
The photoelectric conversion section in the first region and the photoelectric conversion section in the second region are electronic devices arranged side by side.
請求項から請求項のいずれか一項に記載の電子機器において、
前記第1領域は、前記複数の光電変換部のうち、行方向に並んで配置される2つ以上の前記光電変換部を含み、
前記第2領域は、前記複数の光電変換部のうち、前記行方向に並んで配置される2つ以上の前記光電変換部を含む電子機器。
The electronic device according to any one of claims 6 to 8 ,
The first region includes two or more photoelectric conversion units arranged side by side in the row direction among the plurality of photoelectric conversion units,
The second region is an electronic device including two or more of the photoelectric conversion units arranged side by side in the row direction among the plurality of photoelectric conversion units.
請求項から請求項のいずれか一項に記載の電子機器において、
前記第1領域は、前記複数の光電変換部のうち、列方向に並んで配置される2つ以上の前記光電変換部を含み、
前記第2領域は、前記複数の光電変換部のうち、前記列方向に並んで配置される2つ以上の前記光電変換部を含む電子機器。
The electronic device according to any one of claims 6 to 8 ,
The first region includes two or more of the photoelectric conversion units arranged side by side in a column direction among the plurality of photoelectric conversion units,
The second area is an electronic device including two or more of the photoelectric conversion units arranged in line in the column direction among the plurality of photoelectric conversion units.
請求項から請求項のいずれか一項に記載の電子機器において、
前記第1領域は、前記複数の光電変換部のうち、行方向と列方向とに並んで配置される3つ以上の前記光電変換部を含み、
前記第2領域は、前記複数の光電変換部のうち、前記行方向と前記列方向とに並んで配置される3つ以上の前記光電変換部を含む電子機器。
The electronic device according to any one of claims 6 to 8 ,
The first region includes three or more of the photoelectric conversion units arranged in line in a row direction and a column direction among the plurality of photoelectric conversion units,
The second area is an electronic device including three or more of the photoelectric conversion units arranged in line in the row direction and the column direction among the plurality of photoelectric conversion units.
請求項から請求項15のいずれか一項に記載の電子機器において、
前記撮像素子は、前記第1信号を増幅する第1増幅部と、前記第2信号を増幅する第2増幅部とを有し、
前記制御部は、前記第1増幅部で増幅された前記第1信号に基づいて前記第1画像データを生成し、前記第2増幅部で増幅された前記第2信号に基づいて前記第2画像データを生成する電子機器。
The electronic device according to any one of claims 6 to 15 ,
The image sensor includes a first amplification section that amplifies the first signal, and a second amplification section that amplifies the second signal,
The control unit generates the first image data based on the first signal amplified by the first amplification unit, and generates the second image data based on the second signal amplified by the second amplification unit. Electronic equipment that generates image data.
請求項16に記載の電子機器において、
前記第1データは、前記第1増幅部の増幅率に関する情報を有し
前記第2データは、前記第2増幅部の増幅率に関する情報を有する電子機器。
The electronic device according to claim 16 ,
The first data includes information regarding the amplification factor of the first amplification section,
The second data includes information regarding the amplification factor of the second amplification section.
請求項17に記載の電子機器において、
前記制御部は、前記第1増幅部の増幅率と、前記第2増幅部の増幅率とが異なる増幅率になるように前記撮像素子を制御する電子機器。
The electronic device according to claim 17 ,
The control section is an electronic device that controls the image sensor so that the amplification factor of the first amplification section and the amplification factor of the second amplification section are different from each other.
請求項から請求項18のいずれか一項に記載の電子機器において、
前記撮像素子は、前記第1信号をデジタル信号に変換する第1変換部と、前記第2信号をデジタル信号に変換する第2変換部とを有し、
前記制御部は、前記第1変換部でデジタル信号に変換された前記第1信号に基づいて前記第1画像データを生成し、前記第2変換部でデジタル信号に変換された前記第2信号に基づいて前記第2画像データを生成する電子機器。
The electronic device according to any one of claims 6 to 18 ,
The image sensor includes a first converter that converts the first signal into a digital signal, and a second converter that converts the second signal into a digital signal,
The control unit generates the first image data based on the first signal converted into a digital signal by the first conversion unit, and generates the first image data based on the second signal converted to a digital signal by the second conversion unit. An electronic device that generates the second image data based on .
請求項19に記載の電子機器において、
前記撮像素子は、前記複数の光電変換部が配置される第1基板と、前記第1変換部と前記第2変換部とが配置される第2基板とを有する電子機器。
The electronic device according to claim 19 ,
The image sensor is an electronic device including a first substrate on which the plurality of photoelectric conversion sections are arranged, and a second substrate on which the first conversion section and the second conversion section are arranged.
請求項19に記載の電子機器において、
前記撮像素子は、前記第1変換部でデジタル信号に変換された前記第1信号を記憶する第1記憶部と、前記第2変換部でデジタル信号に変換された前記第2信号を記憶する第2記憶部とを有する電子機器。
The electronic device according to claim 19 ,
The image sensor includes a first storage unit that stores the first signal converted to a digital signal by the first conversion unit, and a second storage unit that stores the second signal converted to a digital signal by the second conversion unit. An electronic device having two storage units.
請求項21に記載の電子機器において、
前記撮像素子は、前記複数の光電変換部が配置される第1基板と、前記第1変換部と前記第2変換部とが配置される第2基板と、前記第1記憶部と前記第2記憶部とが配置される第3基板とを有する電子機器。
The electronic device according to claim 21 ,
The image sensor includes a first substrate on which the plurality of photoelectric conversion sections are arranged, a second substrate on which the first conversion section and the second conversion section are arranged, the first storage section and the second substrate. An electronic device comprising: a storage section; and a third substrate on which a storage section is arranged.
JP2022133973A 2020-11-12 2022-08-25 Electronics Active JP7447947B2 (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2022133973A JP7447947B2 (en) 2020-11-12 2022-08-25 Electronics
JP2024029910A JP2024051145A (en) 2020-11-12 2024-02-29 Electronics

Applications Claiming Priority (2)

Application Number Priority Date Filing Date Title
JP2020188969A JP7131595B2 (en) 2020-11-12 2020-11-12 playback equipment and electronic equipment
JP2022133973A JP7447947B2 (en) 2020-11-12 2022-08-25 Electronics

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2020188969A Division JP7131595B2 (en) 2020-11-12 2020-11-12 playback equipment and electronic equipment

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2024029910A Division JP2024051145A (en) 2020-11-12 2024-02-29 Electronics

Publications (3)

Publication Number Publication Date
JP2022167973A JP2022167973A (en) 2022-11-04
JP2022167973A5 JP2022167973A5 (en) 2023-02-14
JP7447947B2 true JP7447947B2 (en) 2024-03-12

Family

ID=74666965

Family Applications (3)

Application Number Title Priority Date Filing Date
JP2020188969A Active JP7131595B2 (en) 2020-11-12 2020-11-12 playback equipment and electronic equipment
JP2022133973A Active JP7447947B2 (en) 2020-11-12 2022-08-25 Electronics
JP2024029910A Pending JP2024051145A (en) 2020-11-12 2024-02-29 Electronics

Family Applications Before (1)

Application Number Title Priority Date Filing Date
JP2020188969A Active JP7131595B2 (en) 2020-11-12 2020-11-12 playback equipment and electronic equipment

Family Applications After (1)

Application Number Title Priority Date Filing Date
JP2024029910A Pending JP2024051145A (en) 2020-11-12 2024-02-29 Electronics

Country Status (1)

Country Link
JP (3) JP7131595B2 (en)

Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005197952A (en) 2004-01-06 2005-07-21 Sony Corp Imaging device and imaging method
JP2005210369A (en) 2004-01-22 2005-08-04 Konica Minolta Photo Imaging Inc Image processing apparatus and image processing method
JP2009246757A (en) 2008-03-31 2009-10-22 Casio Comput Co Ltd Imaging device, imaging method and program
US20100231738A1 (en) 2009-03-11 2010-09-16 Border John N Capture of video with motion
JP2015186171A (en) 2014-03-26 2015-10-22 株式会社ニコン Imaging apparatus, method for controlling the same, and control program

Family Cites Families (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2013164915A1 (en) * 2012-05-02 2013-11-07 株式会社ニコン Imaging device

Patent Citations (5)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005197952A (en) 2004-01-06 2005-07-21 Sony Corp Imaging device and imaging method
JP2005210369A (en) 2004-01-22 2005-08-04 Konica Minolta Photo Imaging Inc Image processing apparatus and image processing method
JP2009246757A (en) 2008-03-31 2009-10-22 Casio Comput Co Ltd Imaging device, imaging method and program
US20100231738A1 (en) 2009-03-11 2010-09-16 Border John N Capture of video with motion
JP2015186171A (en) 2014-03-26 2015-10-22 株式会社ニコン Imaging apparatus, method for controlling the same, and control program

Also Published As

Publication number Publication date
JP2024051145A (en) 2024-04-10
JP2022167973A (en) 2022-11-04
JP7131595B2 (en) 2022-09-06
JP2021029052A (en) 2021-02-25

Similar Documents

Publication Publication Date Title
US10958848B2 (en) Electronic apparatus
US8416303B2 (en) Imaging apparatus and imaging method
US10638037B2 (en) Image-capturing device and image processing device
CN1770820A (en) Method and apparatus for removing hot pixels in a digital camera
CN101662586A (en) Image capturing apparatus capable of displaying live preview image
JP2016192605A (en) Electronic apparatus, recording medium and program
US20240089402A1 (en) Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method
JP6613554B2 (en) Image processing apparatus and program
WO2017175802A1 (en) Image processing device, electronic apparatus, playback device, playback program, and playback method
WO2016052434A1 (en) Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method
JP7447947B2 (en) Electronics
JP6520035B2 (en) Electronics
JP5223950B2 (en) Imaging apparatus, display control program, and display control method
WO2016052436A1 (en) Electronic apparatus, reproduction device, reproduction method, recording medium, and recording method
JP6794649B2 (en) Electronics and recording programs
JP2018137762A (en) Electronic apparatus
US20240214689A1 (en) Image-capturing device and image processing device
JP2019169988A (en) data structure
JP2021040325A (en) Electronic apparatus and program
WO2018181611A1 (en) Electronic device
JP2010232909A (en) Imaging apparatus, and drive control method thereof

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20220825

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20230206

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20230606

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20230711

A601 Written request for extension of time

Free format text: JAPANESE INTERMEDIATE CODE: A601

Effective date: 20230911

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20231108

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20240130

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20240212

R150 Certificate of patent or registration of utility model

Ref document number: 7447947

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150