JP6550506B2 - Recording apparatus, recording method and recording program - Google Patents

Recording apparatus, recording method and recording program Download PDF

Info

Publication number
JP6550506B2
JP6550506B2 JP2018120979A JP2018120979A JP6550506B2 JP 6550506 B2 JP6550506 B2 JP 6550506B2 JP 2018120979 A JP2018120979 A JP 2018120979A JP 2018120979 A JP2018120979 A JP 2018120979A JP 6550506 B2 JP6550506 B2 JP 6550506B2
Authority
JP
Japan
Prior art keywords
image data
sub
block
unit
recording
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Active
Application number
JP2018120979A
Other languages
Japanese (ja)
Other versions
JP2018157607A (en
Inventor
真希 戸井田
真希 戸井田
真優 三木
真優 三木
水沼 明子
明子 水沼
野中 修
修 野中
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Olympus Corp
Original Assignee
Olympus Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Olympus Corp filed Critical Olympus Corp
Priority to JP2018120979A priority Critical patent/JP6550506B2/en
Publication of JP2018157607A publication Critical patent/JP2018157607A/en
Application granted granted Critical
Publication of JP6550506B2 publication Critical patent/JP6550506B2/en
Active legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Description

本発明は、記録装置、記録方法及び記録プログラムに関する。   The present invention relates to a recording apparatus, a recording method, and a recording program.

一般的な電子カメラでは、撮影で取得された画像データは、電子カメラ内のメモリカード(記録部)に記録される。ユーザは、その画像データを任意に再生することができる。ここで例えば、表示されている被写体についてさらに知ろうとしても、ユーザは、その被写体の情報を該画像データから読み取り難い。   In a general electronic camera, image data acquired by photographing is recorded on a memory card (recording unit) in the electronic camera. The user can optionally reproduce the image data. Here, for example, in order to further know the subject being displayed, it is difficult for the user to read the information of the subject from the image data.

特許文献1の電子カメラは、被写体を撮影した一枚の画像データと、該画像データから読み取り可能な被写体の関連情報とを関連付けて記録する。記録された各情報を読み出すことで、該電子カメラは、該画像データを再生しながら被写体の関連情報を再生することができる。   The electronic camera of Patent Document 1 associates and records a piece of image data obtained by photographing an object and related information of the object readable from the image data. By reading out each recorded information, the electronic camera can reproduce the related information of the subject while reproducing the image data.

特開2008−252930号公報JP 2008-252930 A

撮影で取得した該画像の各ブロックの関連情報を記録する記録装置を提案する。   A recording apparatus for recording related information of each block of the image acquired by photographing is proposed.

本発明の一態様の記録装置は、第1の画像データの取得の前後に、前記第1の画像データの分割された領域の何れかと対応していて前記第1の画像データと異なる態様で取得された第2の画像データをファイルとして記録する記録装置であって、前記第1の画像データの名称と、前記第2の画像データが前記第1の画像データのどの領域に対応するかを表す情報と、前記第2の画像データが取得されたタイミングを示す情報とを前記第2の画像データとともにファイルとして記録する制御部を具備する。   In the recording apparatus according to one aspect of the present invention, before and after acquisition of the first image data, acquisition is performed in a manner different from the first image data, corresponding to any of the divided areas of the first image data. Recording apparatus for recording the second image data as a file, which represents the name of the first image data and to which area of the first image data the second image data corresponds A control unit is provided which records information and information indicating the timing at which the second image data is acquired as a file together with the second image data.

本発明の一態様の記録方法は、第1の画像データの取得の前後に、前記第1の画像データの分割された領域の何れかと対応していて前記第1の画像データと異なる態様で取得された第2の画像データをファイルとして記録するための記録方法であって、前記第1の画像データの名称と、前記第2の画像データが前記第1の画像データのどの領域に対応するかを表す情報と、前記第2の画像データが取得されたタイミングを示す情報とを前記第2の画像データとともにファイルとして記録することを具備する。   In the recording method according to one aspect of the present invention, before and after acquisition of the first image data, acquisition is performed in a manner corresponding to any of the divided areas of the first image data and different from the first image data Recording method for recording the second image data as a file, wherein the name of the first image data and the second image data corresponding to which area of the first image data Recording information indicating the timing at which the second image data is acquired as a file together with the second image data.

本発明の一態様の記録プログラムは、第1の画像データの取得の前後に、前記第1の画像データの分割された領域の何れかと対応していて前記第1の画像データと異なる態様で取得された第2の画像データをファイルとして記録するための記録プログラムであって、前記第1の画像データの名称と、前記第2の画像データが前記第1の画像データのどの領域に対応するかを表す情報と、前記第2の画像データが取得されたタイミングを示す情報とを前記第2の画像データとともにファイルとして記録することをコンピュータに実行させる。   The recording program according to one aspect of the present invention corresponds to any of the divided areas of the first image data before and after acquisition of the first image data, and is acquired in a mode different from the first image data. Recording program for recording the recorded second image data as a file, the name of the first image data, and to which area of the first image data the second image data corresponds And causing the computer to record, as a file, the second image data and the information indicating the timing at which the second image data is acquired.

本発明によれば、撮影で取得した該画像の各ブロックの関連情報を記録することができる。   According to the present invention, it is possible to record related information of each block of the image acquired by photographing.

図1は、本発明の一実施形態に係る撮像装置の撮像機能を概念的に示す図である。FIG. 1 is a diagram conceptually showing an imaging function of an imaging device according to an embodiment of the present invention. 図2は、本発明の一実施形態にかかる撮像装置の構成例を示すブロック図である。FIG. 2 is a block diagram showing a configuration example of an imaging device according to an embodiment of the present invention. 図3は、撮影例を示す図である。FIG. 3 is a diagram showing an example of imaging. 図4は、主画像の関連情報の例を示す図である。FIG. 4 is a diagram showing an example of related information of the main image. 図5は、本発明の一実施形態の撮影動作例を示すフローチャートである。FIG. 5 is a flowchart showing an example of the photographing operation according to the embodiment of the present invention. 図6は、関連情報の取得を決定するためのフローチャートである。FIG. 6 is a flowchart for determining acquisition of related information. 図7は、動画データである副画像データの再生例を示す図である。FIG. 7 is a view showing an example of reproduction of sub-image data which is moving image data. 図8は、動画データの再生タイミングの例を示す図である。FIG. 8 is a diagram showing an example of reproduction timing of moving image data. 図9は、露出補正のための副画像データの再生例を示す図である。FIG. 9 is a view showing an example of reproduction of sub-image data for exposure correction. 図10は、露出補正のための副画像データの再生タイミングの例を示す図である。FIG. 10 is a diagram showing an example of reproduction timing of sub-image data for exposure correction. 図11は、ピント補正のための副画像データの再生例を示す図である。FIG. 11 is a diagram showing an example of reproduction of sub-image data for focus correction. 図12は、ピント補正のための副画像データの再生タイミングの例を示す図である。FIG. 12 is a diagram showing an example of reproduction timing of sub-image data for focus correction. 図13は、本発明の一実施形態の主画像ファイルと、副画像ファイルとの構成例を示す図である。FIG. 13 is a view showing a configuration example of a main image file and a sub image file according to an embodiment of the present invention. 図14は、本発明の一実施形態に係る撮像装置の再生機能を概念的に示す図である。FIG. 14 is a diagram conceptually showing the reproduction function of the imaging device according to the embodiment of the present invention. 図15は、本発明の一実施形態に係る撮像装置の再生モードに関わる動作例を示す図である。FIG. 15 is a diagram showing an operation example relating to the reproduction mode of the imaging device according to the embodiment of the present invention. 図16は、本発明の一実施形態の変形例の撮影動作例を示す図である。FIG. 16 is a diagram showing an example of the photographing operation of the modification of the embodiment of the present invention. 図17は、本発明の一実施形態の変形例の再生動作例を示す図である。FIG. 17 is a diagram showing an example of the reproduction operation of the modification of the embodiment of the present invention. 図18は、本発明の一実施形態の変形例の主画像ファイルと、副画像ファイルとの構成例を示す図である。FIG. 18 is a view showing a configuration example of a main image file and a sub image file according to a modification of the embodiment of the present invention.

以下、本発明の一実施形態に係る撮像装置について、撮影し画像データを取得する撮影モードと、画像データを再生する再生モードとに分けて説明する。図1は、本発明の一実施形態に係る撮像装置の撮像機能を概念的に示す図である。撮像装置100は、撮像部111と、連続撮影部110とを有する。撮像部111は、被写体を撮影して被写体に係る画像データを取得する。連続撮影部110は、画像領域分類部112と、領域別撮影条件変更部113と、領域別再取得部114と、撮像結果関連付け記録部115とを有する。画像領域分類部112は、撮像部111により取得された画像データを複数のブロックに分割し、分割したブロック毎に再撮影を行うべきか否かを判定する。領域別撮影条件変更部113は、画像領域分類部112により分割された各ブロックの再撮影の条件を設定する。領域別再取得部114は、領域別撮影条件変更部113の設定を基に再撮影を行って画像データを再取得する。撮像結果関連付け記録部115は、再取得された画像データと、最初に取得された画像データとを関連付けて記録する。   Hereinafter, an imaging apparatus according to an embodiment of the present invention will be described by being divided into an imaging mode for imaging and acquiring image data and a reproduction mode for reproducing image data. FIG. 1 is a diagram conceptually showing an imaging function of an imaging device according to an embodiment of the present invention. The imaging device 100 includes an imaging unit 111 and a continuous imaging unit 110. The imaging unit 111 captures an image of a subject and acquires image data of the subject. The continuous imaging unit 110 includes an image area classification unit 112, an area-by-area imaging condition changing unit 113, an area-by-area re-acquisition unit 114, and an imaging result association recording unit 115. The image area classification unit 112 divides the image data acquired by the imaging unit 111 into a plurality of blocks, and determines whether or not to perform re-imaging for each of the divided blocks. Region-specific shooting condition changing unit 113 sets conditions for re-shooting of each block divided by image region classification unit 112. The region-by-region re-acquisition unit 114 re-captures image data based on the setting of the region-by-region shooting condition changing unit 113. The imaging result association recording unit 115 associates and records the re-acquired image data and the first acquired image data.

本発明の一実施形態に係る撮像装置の具体的な構成例を図2のブロック図に示す。図2の撮像装置100は、ネットワーク21を介してサーバ23に通信自在に接続されている。また、ネットワーク21には、スマートフォン(スマホ)22も通信自在に接続されている。スマホ22は、ネットワーク21を介して受信した画像データや音データなどを再生可能な携帯端末の一例である。   A specific configuration example of an imaging device according to an embodiment of the present invention is shown in the block diagram of FIG. The imaging device 100 in FIG. 2 is communicably connected to the server 23 via the network 21. Further, a smartphone (smartphone) 22 is also communicably connected to the network 21. The smartphone 22 is an example of a portable terminal capable of reproducing image data, sound data and the like received via the network 21.

本発明の一実施形態において、再取得された画像データは、撮影時に取得される。しかしながら、撮影時に再取得された画像データに加えて、サーバ23やスマホ22を使用して外部から画像データ若しくはテキストデータなどの関連情報をさらに取得しても良い。また、後述する方位センサ7b若しくは場所検出部10などから取得された位置情報をさらに関連付けても良い。   In one embodiment of the present invention, reacquired image data is acquired at the time of shooting. However, in addition to the image data reacquired at the time of photographing, related information such as image data or text data may be further acquired from the outside using the server 23 or the smartphone 22. Further, positional information acquired from an orientation sensor 7b described later, a place detection unit 10 or the like may be further associated.

撮像装置100は、撮像部111と、制御部1と、表示部8と、タッチパネル8bと、記録部4と、操作判定部5と、通信部6と、アイセンサ3bと、接眼表示部3と、姿勢センサ7aと、方位センサ7bと、場所検出部10と、時計9とを有する。制御部1は、連続撮影部110と対応する機能を有し、撮影及び再生を制御する。表示部8は、画像データに基づく画像を表示する。タッチパネル8bは、タッチを検出して信号を出力する。記録部4は、画像データなどの各種データを記録する。操作判定部5は、撮像装置100を動作させるための操作を判定する。この操作は、例えば、表示部8に表示する画像の切り替え、モードの変更若しくは画像データの送受信などの操作に対応している。通信部6は、撮像装置100とサーバ23との間のデータの送受信を介する。アイセンサ3bは、接眼表示部3へのユーザの接眼状態を検出する。接眼表示部3は、接眼式のファインダ用の表示部である。姿勢センサ7aは例えば、撮像装置100の加速度を検出して撮像装置100の姿勢を検出する。方位センサ7bは、地磁気の方向に対する傾きから撮像装置100の方位を検出する。場所検出部10は、例えばGPSであり、撮影時の位置を検出する。時計9は時刻情報を算出する。   The imaging device 100 includes an imaging unit 111, a control unit 1, a display unit 8, a touch panel 8b, a recording unit 4, an operation determination unit 5, a communication unit 6, an eye sensor 3b, and an eyepiece display unit 3. It has an attitude sensor 7 a, an azimuth sensor 7 b, a place detection unit 10, and a clock 9. The control unit 1 has a function corresponding to the continuous imaging unit 110, and controls imaging and reproduction. The display unit 8 displays an image based on the image data. The touch panel 8 b detects a touch and outputs a signal. The recording unit 4 records various data such as image data. The operation determination unit 5 determines an operation for operating the imaging device 100. This operation corresponds to, for example, switching of an image displayed on the display unit 8, a mode change, or an operation such as transmission / reception of image data. The communication unit 6 transmits and receives data between the imaging device 100 and the server 23. The eye sensor 3 b detects the eyepiece state of the user on the eyepiece display unit 3. The eyepiece display unit 3 is a display unit for an eyepiece type finder. For example, the posture sensor 7 a detects the acceleration of the imaging device 100 to detect the posture of the imaging device 100. The azimuth sensor 7 b detects the azimuth of the imaging device 100 from the inclination with respect to the direction of geomagnetism. The place detection unit 10 is, for example, a GPS and detects a position at the time of shooting. The clock 9 calculates time information.

撮像部111は、被写体から発せられる光を入射させ像を結ばせるレンズ26と、レンズ26から入射した光を受光面で受けて、光を電気信号(アナログ信号)に変換する撮像素子2とを有する。   The imaging unit 111 includes a lens 26 that makes light emitted from a subject incident and forms an image, and an imaging element 2 that receives light incident from the lens 26 at a light receiving surface and converts the light into an electrical signal (analog signal). Have.

レンズ26は、図示しない被写体からの撮影光束を、撮像素子2の受光面上に導くための光学系である。このレンズ26は、フォーカスレンズ等の複数のレンズを有している。撮像素子2は、多数の画素が配列されて構成される受光面を有し、レンズ26を介して受光した被写体からの像を電気的な信号に変換する。   The lens 26 is an optical system for guiding a photographing light flux from a subject (not shown) onto the light receiving surface of the imaging device 2. The lens 26 has a plurality of lenses such as a focus lens. The imaging element 2 has a light receiving surface configured by arranging a large number of pixels, and converts an image from a subject received through the lens 26 into an electrical signal.

表示部8は、例えば液晶ディスプレイ(LCD)又は有機ELディスプレイである。この表示部8は、撮像装置100の背面に設置され、画像データに基づいてライブビュー用の画像及び記録部4に記録された画像及び各種の情報を表示する。表示部8に表示される画像データは複数のブロックに分割される。本実施形態においては、ユーザは複数のブロックから注目するブロックを選別する。このとき、ブロックが可視化させていれば、ユーザは再撮影された画像データの表示の選択が容易になる。そのため例えば、ブロックの分割区画に対応する線を画像に重ねて表示させても良い。   The display unit 8 is, for example, a liquid crystal display (LCD) or an organic EL display. The display unit 8 is installed on the back of the imaging apparatus 100, and displays an image for live view and an image recorded in the recording unit 4 and various information based on image data. The image data displayed on the display unit 8 is divided into a plurality of blocks. In the present embodiment, the user selects a block of interest from a plurality of blocks. At this time, if the block is made visible, the user can easily select the display of the recaptured image data. Therefore, for example, a line corresponding to a divided section of the block may be displayed superimposed on the image.

タッチパネル8bは、表示部8の表示画面上に重なるように形成されており、表示画面上へのユーザの指等によるタッチを検出し、その検出結果を制御部1へ入力する。また、タッチパネルの各タッチ位置は表示部上の各表示位置に対応している。本実施形態においては例えば、タッチパネル8bがタッチされたとき、タッチ位置を含むブロックに対応した表示部8上の表示位置に再撮影された画像データなどを表示する。また、タッチパネル8bは、画像を分割したブロックを指定するための方法の一つであって、ブロックの指定は、タッチによって指定するタッチパネル8b以外の部材によってなされても良い。ブロックを指定するためのタッチパネル8bなどの部材を、指定部と呼ぶことにする。   The touch panel 8 b is formed to overlap on the display screen of the display unit 8, detects a touch by the user's finger or the like on the display screen, and inputs the detection result to the control unit 1. Further, each touch position of the touch panel corresponds to each display position on the display unit. In the present embodiment, for example, when the touch panel 8 b is touched, image data or the like re-photographed is displayed at the display position on the display unit 8 corresponding to the block including the touch position. The touch panel 8b is one of methods for specifying a block obtained by dividing an image, and the specification of the block may be performed by a member other than the touch panel 8b specified by touch. A member such as the touch panel 8b for designating a block is referred to as a designation unit.

制御部1は、ピントの位置を調節するか否かを判定するピント判定部1cと、被写体が特定の被写体であるか否かを判定する被写体判定部1hと、画像の陰影を判定する陰影判定部1bと、画像データを表示部8に表示させるための画像処理を制御する表示制御部1eと、画像領域分類部112と領域別撮影条件変更部113とに対応し、画像を複数のブロックに分割し、各ブロックへの関連情報の付与を制御する部位情報部1dと、被写体が動いたか否かを判定する動き判定部1fと、通信部6と外部とのデータの送受信を制御する通信制御部1gとを有する。   The control unit 1 determines whether to adjust the focus position, the focus determination unit 1c, the subject determination unit 1h that determines whether the subject is a specific subject, and the shade determination that determines the shade of the image Corresponding to the unit 1b, the display control unit 1e for controlling the image processing for displaying the image data on the display unit 8, the image area classification unit 112 and the imaging condition change unit 113 classified by area, the image is divided into a plurality of blocks Communication control that divides data and controls transmission and reception of data between the communication unit 6 and the outside by using a part information unit 1d that controls addition of related information to each block, a motion determination unit 1f that determines whether a subject has moved, and And 1g.

記録部4は、撮影で取得された画像データが保存された画像ファイルを記録する。また、記録部4は、サーバ23を含む外部から取得された画像データが記録されている接続先DB4bと、画像に表示される被写体の種類を特定するために参照される画像データが記録されている対象物DB4cとを有する。   The recording unit 4 records an image file in which the image data acquired by shooting is stored. In addition, the recording unit 4 records a connection destination DB 4 b in which image data acquired from the outside including the server 23 is recorded, and image data referred to for specifying the type of subject displayed in the image. And the target object DB 4c.

サーバ23は、サーバ23が有する画像データを端末に送信したとき、画像データの送信先での表示を制御する表示制御部23bと、撮像装置100及びスマホ22などからアクセスされたことを判定するアクセス判定部23cと、撮像装置100から求められる画像データに関連する画像を選択する関連づけ部23dと、サーバ23内の画像を記録するサーバ記録部23eとを有する。   When the server 23 transmits the image data of the server 23 to the terminal, the server 23 accesses the display control unit 23 b that controls display of the image data at the transmission destination, and determines that the imaging device 100 and the smartphone 22 have access. A determination unit 23c, an association unit 23d that selects an image related to image data obtained from the imaging device 100, and a server recording unit 23e that records an image in the server 23 are included.

撮影例を図3に示す。ユーザが図3に示されたシーンにおいて人物を撮影するとき、他の被写体も同時に画像に写りこむことがある。図3の例における他の被写体とは例えば、飛んでいる鳥Aと、留まっている鳥Bである。また、図3に示す暗い空間のように、画像上では被写体の状態が分からないような場合もある。撮影の結果、これらの被写体が写りこんだ図4に示すような画像が取得される。通常、人物に適したピントや露出で撮影が行われると、撮影後に得られる画像において他の被写体のピントや露出は適切なものではなくなる。例えば、鳥Bにはピントが合っていない。図4では、鳥Bのピントが合っていないことは点線で示されている。また、暗い空間内の露出は、その内部の花瓶が可視され難い程度になってしまう。ユーザは、ピントが合っていない被写体や露出が合っていない被写体が撮影後に気になったとしても、後から気になった被写体にピント及び露出を合わせて撮影するのは困難である。   An example of photographing is shown in FIG. When the user shoots a person in the scene shown in FIG. 3, other subjects may be simultaneously reflected in the image. Other subjects in the example of FIG. 3 are, for example, a flying bird A and a staying bird B. Also, as in the dark space shown in FIG. 3, there are cases where the subject's condition is not known on the image. As a result of photographing, an image as shown in FIG. 4 in which these subjects are captured is acquired. Usually, when shooting is performed with a focus or exposure suitable for a person, the focus or exposure of another object in the image obtained after shooting is not appropriate. For example, the bird B is not in focus. In FIG. 4, the fact that the bird B is not in focus is indicated by a dotted line. Also, the exposure in a dark space is such that the vase inside is difficult to see. Even if the user is concerned about an out-of-focus subject or an out-of-focus subject after shooting, it is difficult for the user to focus on and shoot an object of interest later.

本発明の一実施形態では、ユーザが最初に気になった被写体を写した主画像と、その主画像内でユーザが気になると考えられる被写体の画像を関連情報として写した副画像とが取得される。本発明の一実施形態に係る撮像装置100は、被写体の動画の副画像、ピント補正された被写体の副画像及び適正な露出の被写体を示す副画像を取得することができる。   In one embodiment of the present invention, a main image in which a subject that the user first likes is taken, and a sub-image in which an image of the subject that the user thinks are anxious in the main image are taken as related information Be done. The imaging apparatus 100 according to an embodiment of the present invention can acquire a sub-image of a moving image of a subject, a sub-image of a subject subjected to focus correction, and a sub-image indicating a subject with a proper exposure.

撮像装置100の動作例を図5のフローチャートで説明する。制御部1は、撮影モードが選択されたか否かを判定する(ステップS201)。撮影モードが選択されなかったと判定するとき(ステップS201でNOのとき)、制御部1は、再生モードを選択する。一方、撮影モードが選択されたと判定するとき(ステップS201でYESのとき)、制御部1は、撮像部111に撮影を開始させまた、被写体の判定を開始する(ステップS202)。この被写体の判定は、後述する後で気になる部位判定に用いる。その後、制御部1は、後で気になる部位判定を図6に示すように行う(ステップS204)。   An operation example of the imaging apparatus 100 will be described with reference to the flowchart of FIG. The control unit 1 determines whether the shooting mode is selected (step S201). When it is determined that the shooting mode has not been selected (NO in step S201), the control unit 1 selects the playback mode. On the other hand, when it is determined that the shooting mode is selected (YES in step S201), the control unit 1 causes the imaging unit 111 to start shooting, and starts determination of the subject (step S202). This determination of the subject is used for the later-described determination of the region of interest. After that, the control unit 1 performs the part determination to be concerned later as shown in FIG. 6 (step S204).

後で気になる部位判定は、副画像データを取得すべきブロックの位置情報と、各ブロックで取得する副画像データの種類とを決定する処理である。後で気になる部位判定を図6を使用して説明する。図6(a)は動作例を示すフローチャートであり、図6(b)は副画像データを取得すべきブロックを示す。まず、部位情報部1dは、取得された画像データを複数のブロックに分割する(ステップS101)。本発明の一実施形態では、画像データを矩形の15個のブロックに図6(b)に示すように分割する。その後、部位情報部1dは、該画像データに対する副画像データを取得するか否かを判定するための情報を各ブロックから取得する(ステップS102)。該情報は例えば、ブロックの画像が、所定の画像データであるか否かの情報などである。次に、部位情報部1dは、所定露出よりもアンダー露出であるブロック若しくは所定露出よりもオーバー露出であるブロックがあるか否かを判定する(ステップS103)。少なくとも一つのブロックが、オーバーの露出であると判定するとき若しくは、アンダー露出であると判定するとき(ステップS103でYESのとき)、部位情報部1dは、オーバー露出若しくはアンダー露出であると判定されるブロックの位置情報と、このブロックについて後で取得される副画像が露出用として使用される旨を示す情報とを記録部4に記録する(ステップS106)。この情報は、後述する主画像データと副画像データとを関連付けるための情報である。ブロックの位置情報では例えば、図6(b)に示すように2行目のB列目のブロックをB2と呼称する。一方、A1からE3までのすべてのブロックが、オーバー露出若しくはアンダー露出ではなかったと判定するとき(ステップS103でNOのとき)又はステップS106の処理の後、部位情報部1dは、少なくとも一つのブロックが、被写体のピントがボケているブロックであるか否かを判定する(ステップS104)。被写体のピントがボケているブロックがあったと判定するとき(ステップS104でYESのとき)、部位情報部1dは、被写体のピントがボケているブロックの位置情報と、このブロックについて後で取得される副画像データがピント用として使用される旨を示す情報とを記録部4に記録する(ステップS107)。ステップS107の後若しくは、A1からE3までのすべてのブロックが、被写体のピントがボケていなかったと判定するとき(ステップS104でNOのとき)、部位情報部1dは、被写体が動いているブロックがあるか否かを判定する(ステップS105)。被写体が動いているか否かの判定は例えば、主画像の被写体と、その前後に撮影された画像の該被写体の形状の比較によってなされる。被写体が動いているブロックがあると判定するとき(ステップS105でYESのとき)、部位情報部1dは、被写体が動いているブロックの位置情報と、このブロックについて後で取得される副画像データが動画用として使用される旨を示す用途情報とを記録部4に記録する(ステップS108)。ステップ108の後若しくは、被写体が動いているブロックがなかったと判定するとき(ステップS105でNOのとき)、部位情報部1dは、後で気になる部位判定の処理を終了する。   The part determination to be concerned later is a process of determining the position information of the block from which the sub image data is to be acquired and the type of sub image data to be acquired in each block. The determination of the region of interest later will be described using FIG. FIG. 6 (a) is a flowchart showing an operation example, and FIG. 6 (b) shows a block from which sub image data is to be acquired. First, the part information unit 1d divides the acquired image data into a plurality of blocks (step S101). In one embodiment of the present invention, image data is divided into 15 rectangular blocks as shown in FIG. 6 (b). Thereafter, the part information unit 1d acquires, from each block, information for determining whether or not to acquire sub-image data for the image data (step S102). The information is, for example, information as to whether or not the image of the block is predetermined image data. Next, the part information part 1d determines whether there is a block which is under-exposed with respect to the predetermined exposure or a block which is over-exposed with respect to the predetermined exposure (step S103). When it is determined that at least one block is overexposure or underexposure (when YES in step S103), the region information portion 1d is determined to be overexposure or underexposure. The recording unit 4 records the position information of the block to be recorded and the information indicating that the sub image to be acquired later for this block is to be used for exposure (step S106). This information is information for associating main image data and sub image data to be described later. In the block position information, for example, as shown in FIG. 6B, the block in the second row and the B-th column is called B2. On the other hand, when it is determined that all the blocks from A1 to E3 are not overexposed or underexposed (NO at step S103) or after the process at step S106, at least one block of the site information part 1d Then, it is determined whether or not the subject is in a blurred block (step S104). When it is determined that there is a block in which the subject is out of focus (in the case of YES in step S104), the part information portion 1d is acquired later with respect to the position information of the block in which the subject is out of focus Information indicating that the sub image data is used for focusing is recorded in the recording unit 4 (step S107). After step S107 or when all blocks from A1 to E3 determine that the subject is not out of focus (NO at step S104), the part information portion 1d has a block in which the subject is moving. It is determined whether or not (step S105). The determination as to whether or not the subject is moving is made, for example, by comparing the subject of the main image with the shape of the subject taken in the images before and after it. When it is determined that there is a block in which the subject is moving (YES in step S105), the part information unit 1d has positional information on the block in which the subject is moving and sub-image data acquired later for this block. Application information indicating use for moving images is recorded in the recording unit 4 (step S108). After step 108 or when it is determined that there is no block in which the subject is moving (NO in step S105), the part information unit 1d ends the process of part determination processing to be interested later.

ところで、図5において、制御部1は、動画用ブロックが、後で気になる部位判定で取得した各情報を参照した結果あるか否かを判定する(ステップS205)。動画用ブロックがなかったと判定するとき(ステップS205でNOのとき)、制御部1は、主画像データを撮影するか否かを判定する(ステップS211)。主画像データは、副画像データが関連付けられる画像データであって、ユーザが意図して取得しようとしている画像データである。主画像データを撮影しないと判定するとき(ステップS211でNOのとき)、例えばレリーズ操作が所定時間なされなかったとき、制御部1は、処理をステップS201に戻す。一方、主画像データを撮影すると判定するとき(ステップS211でYESのとき)、制御部1は、主画像データを撮影する(ステップS212)。その後、制御部1は、で気になる部位判定で取得した各情報を参照し、副画像データを取得するブロックがあるか否かを判定する(ステップS213)。すなわち、副画像データを取得するブロックは、動画用、露出用及びピント用である。副画像データを取得するブロックがなかったと判定するとき(ステップS213でNOのとき)、制御部1は、主画像データを主画像ファイルとして記録部4に記録する。その後、制御部1は、処理をステップS201に戻す(ステップS214)。   By the way, in FIG. 5, the control unit 1 determines whether or not the moving image block has a result of referring to each piece of information acquired by the part determination which will be taken later (step S205). When it is determined that there is no moving image block (NO in step S205), the control unit 1 determines whether to capture main image data (step S211). The main image data is image data associated with the sub image data, and is image data that the user intends to acquire. When it is determined that the main image data is not to be captured (NO in step S211), for example, when the release operation is not performed for a predetermined time, the control unit 1 returns the process to step S201. On the other hand, when it is determined to capture the main image data (YES in step S211), the control unit 1 captures the main image data (step S212). After that, the control unit 1 refers to each piece of information acquired in the area determination to be interested in, and determines whether or not there is a block for acquiring sub-image data (step S213). That is, the blocks for acquiring the sub image data are for moving images, for exposure and for focusing. When it is determined that there is no block for acquiring the sub image data (NO in step S213), the control unit 1 records the main image data in the recording unit 4 as a main image file. Thereafter, the control unit 1 returns the process to step S201 (step S214).

ところで、動画用ブロックがあると判定するとき(ステップS205でYESのとき)、制御部1は、該ブロックにおいて、主画像データの取得前に取得された画像データを動画用副画像データとして記録する(ステップS206)。その後、制御部1は、処理をステップS211に移行させる。   By the way, when it is determined that there is a moving image block (YES in step S205), the control unit 1 records the image data acquired before acquiring the main image data as the moving image sub image data in the block. (Step S206). Thereafter, the control unit 1 shifts the processing to step S211.

ところで、副画像データを取得するブロックがあると判定するとき(ステップS213でYESのとき)、制御部1は、まず、動画用ブロックがあるか否かを判定する(ステップS221)。ステップ221において、動画用ブロックとして判定された場合、主画像データの取得後の画像データが、動画用副画像データとして取得される。動画用ブロックがあったと判定するとき(ステップS221でYESのとき)、制御部1は、該ブロックの画像データを動画用副画像データとして所定時間取得する(ステップS222)。   When it is determined that there is a block for acquiring sub-image data (YES in step S213), the control unit 1 first determines whether there is a moving image block (step S221). If it is determined in step 221 that the block is a moving image block, image data after acquisition of main image data is acquired as moving image sub-image data. When it is determined that there is a moving image block (YES in step S221), the control unit 1 acquires image data of the block as moving image sub image data for a predetermined time (step S222).

動画用副画像データの取得について図7及び図8を使用してさらに説明する。図7(a)は、主画像データ内の動画用ブロックを示す。すなわち、飛んでいる鳥Aが含まれているブロックA1及びB1が、動画用副画像データを取得するブロックである。各ブロックにおける動画用副画像データの取得のタイミングチャート例を図8に示す。横軸方向は時間経過であって、T1、T2、T3・・・というタイミングで、副画像データの像1、像2、像3・・・が取得される。まず、図7(b)のブロックB1に鳥Aが含まれているので、主画像データのブロックB1を動画用の副画像データに置き換えるための副画像データを取得する。時間が進むと、図7(b)に示すように、ブロックB1及びA1に鳥Aが含まれる。したがって、図8(a)に示すようにブロックB1及びブロックA1の動画用の副画像データを同時のタイミングで取得する。つまり、制御部1は、時系列順に取得した複数の画像データを互いに比較することで、動画用の副画像データは取得されるか否かを判定される。また、制御部1は、隣接するブロックを時系列順に取得した複数の画像データを隣接するブロックと互いに比較しても良い。その後、ブロックA1のみに鳥Aが含まれているので、ブロックA1の動画用の副画像データのみが取得される。ここで、図8(a)は、鳥Aが含まれている動画用の副画像データだけが取得される例を示している。これに対し、図8(b)のように鳥Aが含まれているブロックの周辺のブロックも動画用の動画像データとして取得しても良い。このように、本発明の一実施形態では、四辺形の主画像データは、15分割された単純な四辺形のブロックを結合したものとして説明されている。しかしながら、主画像データは、より細かなブロックに分割され、それらのブロックを結合して取得しても良い。若しくは、主画像データは分割されなくとも良い。また、主画像データは、四辺形のブロックを結合した円形若しくは楕円形であっても良い。また、ブロックの形状は、四辺形に限らず例えば、別の多角形若しくは被写体の形状のような主画像データ内の特定の領域であってもよい。すなわち、人物や鳥の輪郭内のブロックの露出用若しくはピント変更用などの副画像データを取得しても良い。ただし、輪郭の検出は難しい。そこで、例えば、ブロックの形状は、輪郭に近似した楕円形であってもよい。   The acquisition of moving image sub-image data will be further described using FIGS. 7 and 8. FIG. 7A shows a moving image block in the main image data. That is, blocks A1 and B1 including the flying bird A are blocks for acquiring moving image sub-image data. An example of a timing chart of acquisition of moving image sub-image data in each block is shown in FIG. The horizontal axis direction is elapsed time, and the image 1, the image 2, the image 3... Of the sub image data are acquired at the timing of T1, T2, T3. First, since the bird A is included in the block B1 of FIG. 7B, sub-image data for replacing the block B1 of the main image data with sub-image data for moving image is acquired. As time goes on, the blocks B1 and A1 include the bird A as shown in FIG. 7 (b). Therefore, as shown in FIG. 8A, the moving image sub-image data of the block B1 and the block A1 are acquired at the same timing. That is, the control unit 1 compares a plurality of pieces of image data acquired in chronological order with each other to determine whether or not sub-image data for a moving image is acquired. Further, the control unit 1 may compare a plurality of image data obtained by acquiring adjacent blocks in chronological order with the adjacent blocks. Thereafter, since only the block A1 includes the bird A, only sub-image data for moving image of the block A1 is acquired. Here, FIG. 8A shows an example in which only sub-image data for a moving image including a bird A is acquired. On the other hand, blocks around the block including the bird A as shown in FIG. 8B may be acquired as moving image data for moving image. Thus, in one embodiment of the present invention, the quadrilateral main image data is described as a combination of 15 divided simple quadrilateral blocks. However, the main image data may be divided into smaller blocks, and those blocks may be combined and acquired. Alternatively, the main image data may not be divided. Also, the main image data may be a circular or elliptical shape obtained by combining quadrilateral blocks. Further, the shape of the block is not limited to the quadrilateral, and may be a specific area in the main image data such as another polygon or the shape of a subject. That is, sub-image data for exposure or change of focus of a block in the outline of a person or a bird may be acquired. However, detection of contours is difficult. Thus, for example, the shape of the block may be an ellipse that approximates the contour.

ところで、動画用ブロックがなかったと判定するとき(ステップS221でNOのとき)、制御部1は、動画用の副画像データを取得しない。そして、動画用の副画像データを取得した後若しくは、動画用の副画像データを取得するブロックがなかったと判定するとき(ステップS221でNOのとき)、制御部1は、後で気になる部位判定で取得した各情報を参照し、露出用のブロックがあるか否かを判定する(ステップS223)。露出用のブロックがあると判定するとき(ステップS223でYESのとき)、制御部1は、露出用の副画像データを取得する(ステップS224)。   By the way, when it is determined that there is no moving image block (NO in step S221), the control unit 1 does not acquire moving image sub-image data. Then, after acquiring the sub-image data for moving image, or when determining that there is no block for acquiring the sub-image data for moving image (when NO in step S221), the control unit 1 selects a part to be concerned later It is determined whether there is a block for exposure with reference to each information acquired by determination (step S223). When it is determined that there is an exposure block (YES in step S223), the control unit 1 acquires exposure sub-image data (step S224).

ここで、露出用の副画像データ、まず、アンダー露出用の副画像データの取得例について、図9及び図10を使用して説明する。図9(a)は、主画像データ内のアンダー露出用のブロックを示す。すなわち、暗い空間が表示されているブロックD1、D2及びD3が、アンダー露出用画像データを取得するブロックである。アンダー露出を補正したブロックは例えば、同一ブロックについて撮影された複数の副画像データを重ねて輝度を上げることで取得される。各ブロックにおけるアンダー露出用の副画像データの取得のタイミングチャート例を図10に示す。図10の上部では、横軸は、露出用の副画像データ取得のタイミングを示しており、縦軸は、重ね合わせ前の副画像データの輝度を表す。一方、図10の下部は、重ね合わせ後の副画像データの輝度を表す。すなわち、重ね合わせる副画像データの数が多くなるほど、副画像データの輝度が上がる。例えば、副画像データの図9(b)の像1及び図9(c)の像2が重ねられることで、図9(d)の像1+像2のような露出が補正された副画像データが取得される。なお、副画像データの重ね合わせの場合、露出はオーバーに補正される。これに対し、露出がオーバーなブロックの輝度を下げる場合例えば、図1に示すブロック図にアンプをさらに追加して、そのアンプによって輝度を下げるようにしても良い。   Here, an example of acquisition of the exposure sub-image data and the under-exposure sub-image data will be described with reference to FIGS. 9 and 10. FIG. FIG. 9A shows a block for underexposure in the main image data. That is, the blocks D1, D2 and D3 in which the dark space is displayed are blocks for acquiring the underexposure image data. The block whose underexposure has been corrected is acquired, for example, by overlapping a plurality of pieces of sub-image data captured for the same block and raising the luminance. An example of a timing chart of acquisition of sub-image data for underexposure in each block is shown in FIG. In the upper part of FIG. 10, the horizontal axis indicates the timing of acquisition of sub-image data for exposure, and the vertical axis indicates the luminance of the sub-image data before superposition. On the other hand, the lower part of FIG. 10 shows the luminance of the sub image data after superposition. That is, as the number of sub image data to be superimposed increases, the luminance of the sub image data increases. For example, by superimposing the image 1 of FIG. 9B of the sub-image data and the image 2 of FIG. 9C, the sub-image data of which the exposure is corrected like the image 1 + image 2 of FIG. Is acquired. In the case of superimposition of sub-image data, the exposure is corrected to over. On the other hand, when the luminance of the overexposed block is lowered, for example, an amplifier may be further added to the block diagram shown in FIG. 1 to lower the luminance by the amplifier.

ところで、露出用の副画像データを取得した後又は、露出用ブロックがなかったと判定されるとき、制御部1は、後で気になる部位判定によって記録された各情報を参照して、ピント変更用のブロックがあるか否かを判定する(ステップS225)。ピント変更用のブロックがあると判定するとき(ステップS226でYESのとき)、制御部1は、ブロック内のピント位置を変えながら撮影を行い、その撮影で取得したピント変更用の副画像データを記録する(ステップS226)。このように、主画像データ内のブロックすなわち特定の領域内の露出量若しくはコントラスト量の特徴に応じて、ブロック内の被写体が十分な描写が得られていないことが判定され、副画像データの取得が行われる。この判定は、時系列で取得された複数の画像に対してなされても良い。この判定は、各ブロック間の距離分布情報若しくは被写界深度の情報などの特徴を比較することでなされても良い。つまり、上記再取得判断は、上述の特徴に従って判定される若しくは、時系列に取得された複数の画像の比較に従って判定されても良い。各ブロックの各特徴をそれぞれ判定することで、それぞれのブロックに取得すべき副画像データの種類が決定される。   By the way, after acquiring the sub-image data for exposure or when it is determined that there is no exposure block, the control unit 1 refers to each information recorded by the area determination to be interested later, and changes the focus. It is determined whether there is a block for (step S225). When it is determined that there is a block for focus change (when YES in step S226), the control unit 1 performs shooting while changing the focus position in the block, and the sub image data for focus change acquired by the shooting It records (step S226). As described above, it is determined that the subject in the block has not obtained sufficient depiction according to the characteristics of the block in the main image data, that is, the exposure amount or the contrast amount in a specific area, and acquisition of sub-image data Is done. This determination may be made on a plurality of images acquired in time series. This determination may be made by comparing features such as distance distribution information between the blocks or information of the depth of field. That is, the reacquisition determination may be determined according to the above-described feature or may be determined according to comparison of a plurality of images acquired in time series. By determining each feature of each block, the type of sub-image data to be acquired for each block is determined.

ここで、ピント変更用の副画像データの取得例について図11及び図12を使用してさらに説明する。図11(a)は、主画像データ内のピント変更用のブロックを示す。すなわち、鳥Bが表示されているブロックB2及びB3が、ピント変更用副画像データを取得するブロックである。図11(b)、(c)及び(d)は、ピントを変更して取得した各ブロックの画像データを示す。各ブロックにおけるピント変更用の副画像データの取得のタイミングチャート例を図12に示す。撮像装置100は、山登りAF(オートフォーカス)式に、ピント位置を例えば近方から遠方にかけて順次変更していく。   Here, an example of acquisition of sub image data for focus change will be further described using FIGS. 11 and 12. FIG. 11A shows a block for changing focus in the main image data. That is, blocks B2 and B3 in which the bird B is displayed are blocks for acquiring the focus changing sub image data. FIGS. 11 (b), (c) and (d) show image data of each block acquired by changing the focus. An example of a timing chart of acquisition of sub image data for focus change in each block is shown in FIG. The imaging device 100 sequentially changes the focus position, for example, from near to far by a hill-climbing AF (Auto Focus) method.

ところで、ピント変更用副画像データの取得が行われた後(ステップS226)若しくは、ピント変更用ブロックがなかったと判定するとき(ステップS225でNOのとき)、制御部1は、主画像データを主画像ファイル化する。主画像ファイルの構成例を図13(a)に示す。主画像ファイルには、主画像データと、部位別タグ情報と、部位情報とが格納されている。部位別タグ情報は、各ブロックと、各ブロックに再生する副画像データの種類とを対応付ける情報である。例えば、主画像データのブロックA1は、動画用の副画像データと対応付けられている。対応付ける副画像データの種類は複数であっても良い。部位情報は、後で気になる部位判定で分割された主画像データの各ブロックが、どのような大きさのブロックであるかを示す情報である。例えば、ブロックA1は、主画像データを横方向に5分割し、縦方向に3分割したときの一ブロックである。それぞれのブロックの大きさは、被写体の大きさなどに応じて非画一であっても良い。   By the way, after acquisition of the focus changing sub-image data (step S226) or when it is determined that there is no focus changing block (NO in step S225), the control unit 1 mainly uses the main image data. Create an image file. A configuration example of the main image file is shown in FIG. The main image file stores main image data, site-specific tag information, and site information. The part-specific tag information is information that associates each block with the type of sub-image data to be reproduced in each block. For example, the block A1 of the main image data is associated with the moving image sub image data. There may be a plurality of types of sub image data to be associated. The part information is information indicating what size each block of the main image data divided by part determination to be concerned later is. For example, the block A1 is one block when the main image data is divided into five in the horizontal direction and into three in the vertical direction. The size of each block may be non-uniform depending on the size of the subject and the like.

主画像データを主画像ファイル化した後(ステップS227)、制御部1は、副画像データを副画像ファイルとして記録部4に記録する(ステップS228)。副画像ファイルには、副画像データと、タグ情報とが保存されている。タグ情報は、主画像データのブロックと副画像データとを関連付けるための情報である。図13(b)は、副画像ファイルの構成例である。図13(b)に示す副画像ファイルk及び副画像ファイルlは、副画像データと、タグ情報とを格納している。副画像ファイルkのタグ情報は、副画像データkが対応する主画像データの名称及びその主画像データのブロックと、副画像データを再生するタイミングと、副画像データの用途とに関する情報を有する。例えば、副画像データkは、タグ情報に示されるように図13(a)の主画像データimg1のブロックB1に対応している。主画像データimg1のブロックB1の副画像データkを再生するとき、副画像データkは、図8(a)に示すタイミングT1すなわち、動画再生の最初に再生される。一方、副画像ファイルlの副画像データlにおいて、用途情報は、副画像データが露出用であることを示す。また、タイミング情報は、主画像データimg1のブロックD2にT1のタイミングで再生されることを示す。なお、副画像ファイルには、複数対の副画像データ及びタグ情報を格納しても良い。例えば、複数の動画の副画像及びタグ情報が、副画像ファイルとしてまとめられて扱われることで、ユーザは、動画の副画像ファイルを管理しやすくなる。撮像装置100は、時系列に得られた副画像データを順次に再生する。露出用副画像データでは、ユーザは、見づらかった被写体をだんだん見えるようになる。また、動画用画像データでは、ユーザは、被写体の動きの再現を見ることができる。副画像データをだんだんに再生することによって、撮像装置100は、ユーザの期待感を盛り上げたり、ユーザに興奮を伴わせることができる。つまり、上述のような時系列に沿った再生は、付随情報を単に表示する場合と異なり、ユーザに感覚的な味付けを与えることができる。時系列に沿った再生をスローモーション若しくは早送りに再生しても良い。または、時系列に再生される副画像データを、対応するブロックとは別ブロックにずらして再生しても良い。   After converting the main image data into a main image file (step S227), the control unit 1 records the sub image data as a sub image file in the recording unit 4 (step S228). The sub image file stores sub image data and tag information. Tag information is information for associating a block of main image data with sub image data. FIG. 13B is a configuration example of the sub image file. The sub image file k and the sub image file l shown in FIG. 13B store sub image data and tag information. The tag information of the sub image file k has information on the name of the main image data to which the sub image data k corresponds, the block of the main image data, the timing of reproducing the sub image data, and the application of the sub image data. For example, the sub image data k corresponds to the block B1 of the main image data img1 of FIG. 13A as indicated by the tag information. When the sub image data k of the block B1 of the main image data img1 is reproduced, the sub image data k is reproduced at the timing T1 shown in FIG. 8A, that is, at the beginning of the moving image reproduction. On the other hand, in the sub-image data l of the sub-image file l, the usage information indicates that the sub-image data is for exposure. The timing information indicates that the block D2 of the main image data img1 is to be reproduced at the timing T1. A plurality of pairs of sub-image data and tag information may be stored in the sub-image file. For example, the plurality of moving image sub-images and tag information are grouped and treated as sub-image files, whereby the user can easily manage moving image sub-image files. The imaging device 100 sequentially reproduces the sub-image data obtained in time series. In the exposure sub-image data, the user gradually sees a subject that is difficult to see. Further, in the moving image data, the user can view the reproduction of the movement of the subject. By gradually reproducing the sub-image data, the imaging apparatus 100 can stimulate the user's sense of expectation and cause the user to be excited. That is, the reproduction along the time series as described above can give the user a sensory taste unlike the case of simply displaying the accompanying information. The playback in time series may be played back in slow motion or fast forward. Alternatively, the sub image data reproduced in time series may be reproduced while being shifted to a block different from the corresponding block.

以上、本発明の一実施形態における撮像装置100の撮影モードでは、ユーザが求める主画像データと、主画像データの撮影時の関連情報を示す副画像データとを取得し、それぞれの画像データを関連付けて記録する。副画像データは、動画用途、露出用途若しくはピント変更用途として、主画像データの撮影前後に取得される。ユーザは、主画像データの撮影操作のみによって、主画像データの取得時の関連情報を容易に取得することができる。このように、撮像装置100は、主画像データの四辺形である各ブロックにおいて、露出やピントについて、十分な描写が得られていないことを判定して、各ブロックの画像表現を補足するための副画像データを取得する。この判定の要素は、露出量やコントラスト量である。また、この判定は、時系列で取得された複数の画像の比較によって判定されても良い。各ブロックの形状は、四辺形以外の形状の特定領域であっても良い。この判定の要素は、各部位の距離情報の差異や被写界深度の情報、距離分布情報若しくは画像の特徴量などであってもよく、山登りAF式にピント位置をずらした画像データから再撮影を推奨する判定(再取得判定)をしても良い。   As described above, in the shooting mode of the imaging apparatus 100 according to an embodiment of the present invention, main image data obtained by the user and sub image data indicating related information at the time of shooting the main image data are acquired, and the respective image data are associated. Record. The sub image data is acquired before and after shooting of the main image data as a moving image application, an exposure application, or a focus change application. The user can easily acquire the related information at the time of acquisition of the main image data only by the photographing operation of the main image data. As described above, the imaging device 100 determines that sufficient depiction of exposure and focus is not obtained for each block that is a quadrilateral of main image data, and supplements the image representation of each block. Acquire sub-image data. The factor of this determination is the exposure amount and the contrast amount. Also, this determination may be made by comparing a plurality of images acquired in time series. The shape of each block may be a specific region of a shape other than quadrilateral. The factor of this determination may be the difference in distance information of each part, the information of depth of field, distance distribution information, or the feature amount of the image, etc. It may be determined to recommend (reacquisition determination).

次に、本発明の一実施形態に係る撮像装置100の再生機能ついて図14及び図15を使用して説明する。再生モードでは、主画像のブロックの位置のタッチ操作によって、ユーザは、そのブロックに再生される副画像データを見ることができる。   Next, the reproduction function of the imaging apparatus 100 according to an embodiment of the present invention will be described using FIGS. 14 and 15. In the reproduction mode, a touch operation on the position of the block of the main image allows the user to view sub-image data reproduced in the block.

図14は、本発明の一実施形態に係る撮像装置の再生機能を概念的に示す図である。本発明の第1の実施形態に係る再生装置を備える撮像装置100は、撮像部111と、連写結果記録部116と、指定部120と、再生制御部130と、再生部121とを有する。撮像部111は、被写体を撮影し画像データを取得する。連写結果記録部116は、複数の画像データ及び複数の画像データを関連付けるための情報を記録する。指定部120は、主画像データを分割して形成された複数のブロックから所定のブロックを指定する。再生制御部130は、制御部1に対応しており、画像領域分類部112と、領域切り出し部117と、再生方法変更部118と、取捨選択部119とを有する。画像領域分類部112は、部位情報部1dに対応し、連写結果記録部116から主画像データを読み出して複数のブロックに分割し、各ブロックに関連付けられている副画像データがあるか否かを判定する。領域切り出し部117は、表示制御部1eと対応しており、指定部120に指定されたブロックの位置を切り出す。再生方法変更部118は、部位情報部1dに対応しており、切り出されたブロックの位置に再生する撮影条件(用途)の副画像データを選択する。取捨選択部119は、表示制御部1eに対応しており、再生方法変更部118に選択された撮影条件の副画像データを連写結果記録部116から読み出して、第2の画像データを再生部121に出力する。再生部121は、表示部8に対応しており、画像データを再生し、画像を表示する。撮像装置100は、切り出された四辺形のブロックの位置に再生する撮影条件(用途)の副画像データを記録している。副画像データは、主画像データに対して、露出やピントにおける描写が十分ではないことを判定して、画像表現を補足するために取得される。副画像データの判定の要素は、各ブロックの露出量やコントラスト量から判定される。この判定の対象となる四辺形ブロックの形状は、別の形状の特定領域であっても良い。また、この判定は、時系列で取得された複数の画像の比較によって行われても良い。副画像データの判定の要素は、各部位の距離情報の差異や被写界深度の情報をであっても良く、山登りAF式にピント位置をずらした画像データから再撮影を推奨する判定(再取得判定)をしても良い。   FIG. 14 is a diagram conceptually showing the reproduction function of the imaging device according to the embodiment of the present invention. The imaging apparatus 100 including the reproduction apparatus according to the first embodiment of the present invention includes an imaging unit 111, a continuous shooting result recording unit 116, a designation unit 120, a reproduction control unit 130, and a reproduction unit 121. The imaging unit 111 captures an object and acquires image data. The continuous shooting result recording unit 116 records information for associating a plurality of image data and a plurality of image data. The designation unit 120 designates a predetermined block from a plurality of blocks formed by dividing the main image data. The reproduction control unit 130 corresponds to the control unit 1 and includes an image area classification unit 112, an area cutout unit 117, a reproduction method change unit 118, and a selection unit 119. The image region classification unit 112 corresponds to the part information unit 1 d, reads the main image data from the continuous shooting result recording unit 116, divides it into a plurality of blocks, and determines whether there is sub image data associated with each block Determine The area cutout unit 117 corresponds to the display control unit 1 e, and cuts out the position of the block designated by the designation unit 120. The reproduction method change unit 118 corresponds to the part information unit 1 d, and selects sub-image data of imaging conditions (use) to be reproduced at the position of the cut out block. The discarding selection unit 119 corresponds to the display control unit 1e, reads out the sub image data of the shooting condition selected by the reproduction method changing unit 118 from the continuous shooting result recording unit 116, and reproduces the second image data. Output to 121. The reproduction unit 121 corresponds to the display unit 8, reproduces image data, and displays an image. The imaging apparatus 100 records sub-image data of imaging conditions (use) to be reproduced at the position of the quadrangular block that has been cut out. The sub-image data is acquired to supplement the image representation by determining that the depiction in exposure and focus is not sufficient for the main image data. The factor of the determination of the sub image data is determined from the exposure amount and the contrast amount of each block. The shape of the quadrilateral block to be subjected to the determination may be a specific region of another shape. Also, this determination may be performed by comparing a plurality of images acquired in time series. The element of the determination of the sub image data may be the difference in distance information of each part or the information of the depth of field, and the determination of recommending re-shooting from image data in which the focus position is shifted in a hill-climbing AF system Acquisition judgment may be made.

次に、本発明の一実施形態に係る撮像装置の再生モードの動作例を図15で説明する。まず、制御部1は、記録部4に記録されている複数の図13(a)に示す主画像ファイルを読み込んで、複数の主画像データを表示部8に一覧させるように再生する(ステップS301)。その後、制御部1は、タッチパネル8bへのタッチの検出によって再生する主画像データを判定し、タッチ位置に応じた主画像データを再生する(ステップS302)。その後、制御部1は、再生されている主画像データへのタッチが検出されたか否かを判定する(ステップS303)。再生されている主画像データへのタッチが検出されなかったと判定するとき(ステップS303でNOのとき)、制御部1は、操作判定部5への操作を検出したときに、表示部8に表示する画像の切り替え操作、モードの変更操作若しくは画像データの送受信操作などを行う(ステップS315)。一方、再生されている主画像データへのタッチが検出されたと判定するとき(ステップS303でYESのとき)、制御部1は、主画像ファイルの部位別タグ情報に基づいて、主画像データを複数のブロックに分割する。制御部1は、部位別タグ情報から、ステップS303でタッチが検出された主画像データの位置が、動画用の副画像データと関連付けられているか否かを判定する(ステップS304)。ステップS303でタッチが検出された主画像データの位置例えばブロックB1が、動画用の副画像データと関連付けられていると判定するとき(ステップS304でYESのとき)、制御部1は、図13(b)の副画像ファイルkを読み込んだ後、タッチが検出された位置のブロックB1を切り取って、切り取られたブロックB1に副画像データkを再生する(ステップS311)。この副画像データkの再生のタイミングは、副画像ファイルkのタイミング情報T1である。なお、制御部1は、主画像データを切り取らずに、主画像データのレイヤに副画像データのレイヤを重ねて再生しても良い。   Next, an operation example of the reproduction mode of the imaging device according to the embodiment of the present invention will be described with reference to FIG. First, the control unit 1 reads the plurality of main image files shown in FIG. 13A recorded in the recording unit 4 and reproduces the plurality of main image data so as to make the display unit 8 list them (step S301). ). Thereafter, the control unit 1 determines the main image data to be reproduced by detecting the touch on the touch panel 8b, and reproduces the main image data corresponding to the touch position (step S302). After that, the control unit 1 determines whether a touch on the main image data being reproduced is detected (step S303). When it is determined that the touch on the main image data being reproduced is not detected (NO in step S303), the control unit 1 displays on the display unit 8 when the operation to the operation determination unit 5 is detected. An image switching operation, a mode changing operation, or an image data transmitting / receiving operation is performed (step S315). On the other hand, when determining that a touch on the main image data being reproduced has been detected (YES in step S303), the control unit 1 generates a plurality of main image data based on the region-specific tag information of the main image file. Divide into blocks of The control unit 1 determines whether or not the position of the main image data in which the touch is detected in step S303 is associated with the moving image sub image data from the region-specific tag information (step S304). When it is determined that the position of the main image data at which the touch is detected in step S303, for example, block B1, is associated with the sub image data for moving image (YES in step S304), the control unit 1 After the sub image file k of b) is read, the block B1 at the position where the touch is detected is cut off, and the sub image data k is reproduced to the cut block B1 (step S311). The timing of reproduction of the sub image data k is timing information T1 of the sub image file k. The control unit 1 may reproduce the layer of the sub image data on the layer of the main image data without reproducing the main image data.

一方、ステップS303でタッチが検出された主画像データの位置が、動画用の副画像データと関連付けられていないと判定するとき(ステップS304でNOのとき)、制御部1は、タッチが検出された主画像データの位置が、露出用の副画像データと関連付けられているか否かを判定する(ステップS305)。タッチが検出された主画像データの位置例えばブロックD2が、露出用の副画像データと関連付けられていると判定するとき(ステップS305でYESのとき)、制御部1は、図13(b)の副画像ファイルlを読み込んだ後、ブロックD2を切り取って、切り取られたブロックD2に副画像データlを再生する(ステップS312)。副画像データlの再生のタイミングは、副画像データlのタイミング情報T1である。一方、副画像データlが再生された後若しくは、タッチが検出された主画像データの位置が、露出用の副画像データと関連付けられていなかったと判定するとき(ステップS305でNOのとき)、制御部1は、タッチが検出された主画像データの位置が、ピント変更用の副画像データと関連付けられているか否かを判定する(ステップS306)。タッチが検出された主画像データの位置が、ピント変更用の副画像データと関連付けられていると判定するとき(ステップS306でYESのとき)、制御部1は、図示しないピント変更用の副画像データを読み込んだ後、タッチが検出された主画像データのブロックを切り取って、切り取られたブロックにピント変更用の副画像データを再生する(ステップS313)。一方、ピント変更用の副画像データが再生された後若しくは、タッチが検出された主画像データの位置が、ピント変更用の副画像データと関連付けられていなかったと判定するとき(ステップS306でNOのとき)、再生制御部130は、該位置に主画像データを再生する(ステップS314)。   On the other hand, when it is determined that the position of the main image data at which the touch is detected at step S303 is not associated with the sub image data for moving image (when NO at step S304), the control unit 1 detects a touch. It is determined whether the position of the main image data is associated with the exposure sub-image data (step S305). When it is determined that the position of the main image data at which the touch is detected, for example, the block D2 is associated with the sub image data for exposure (when YES in step S305), the control unit 1 After reading the sub-image file l, the block D2 is cut out, and the sub-image data l is reproduced in the cut-out block D2 (step S312). The timing of reproduction of the sub image data l is timing information T1 of the sub image data l. On the other hand, control is performed after secondary image data l is reproduced or when it is determined that the position of the primary image data at which a touch is detected is not associated with the secondary image data for exposure (when NO in step S305). The unit 1 determines whether the position of the main image data at which the touch is detected is associated with the sub image data for changing focus (step S306). When it is determined that the position of the main image data at which the touch is detected is associated with the sub image data for focus change (YES in step S306), control unit 1 generates a sub image for focus change (not shown). After reading the data, the block of the main image data in which the touch is detected is cut out, and the sub image data for changing focus is reproduced on the cut out block (step S313). On the other hand, after the sub image data for focus change is reproduced, or when it is determined that the position of the main image data at which the touch is detected is not associated with the sub image data for focus change (NO in step S306) ), The reproduction control unit 130 reproduces the main image data at the position (step S314).

以上、本発明の一実施形態にかかる撮像装置100の再生モードでは、主画像データと、前記主画像データと関連付けられている副画像データとを再生する。ユーザは、再生される主画像データへのタッチによって主画像データの位置を指定すると、主画像データの取得時の関連情報を容易に見ることができる。撮像装置100は、時系列に得られた副画像データを順次に再生する。露出用副画像データでは、ユーザは、見づらかった被写体をだんだん見えるようになる。また、動画用画像データでは、ユーザは、被写体の動きの再現を見ることができる。副画像データをだんだんに再生することによって、撮像装置100は、ユーザの期待感を盛り上げたり、ユーザに興奮を伴わせることができる。つまり、上述のような時系列に沿った再生は、付随情報を単に表示する場合と異なり、ユーザに感覚的な味付けを与えることができる。時系列に沿った再生をスローモーション若しくは早送りに再生しても良い。または、時系列に再生される副画像データを、対応するブロックとは別ブロックにずらして再生しても良い。   As described above, in the reproduction mode of the imaging apparatus 100 according to the embodiment of the present invention, main image data and sub-image data associated with the main image data are reproduced. When the user specifies the position of the main image data by touching the main image data to be reproduced, the user can easily view the related information at the time of acquisition of the main image data. The imaging device 100 sequentially reproduces the sub-image data obtained in time series. In the exposure sub-image data, the user gradually sees a subject that is difficult to see. Further, in the moving image data, the user can view the reproduction of the movement of the subject. By gradually reproducing the sub-image data, the imaging apparatus 100 can stimulate the user's sense of expectation and cause the user to be excited. That is, the reproduction along the time series as described above can give the user a sensory taste unlike the case of simply displaying the accompanying information. The playback in time series may be played back in slow motion or fast forward. Alternatively, the sub image data reproduced in time series may be reproduced while being shifted to a block different from the corresponding block.

次に、本発明の位置実施形態に係る撮像装置100の撮影モード及び再生モードの変形例を図16、図17及び図18を使用して説明する。変形例における副画像データの大きさは、主画像データと同じ大きさである。なお、撮影モード及び再生モードの構成は、図1、図2及び図14に示す構成例と同一である。   Next, modified examples of the imaging mode and the reproduction mode of the imaging device 100 according to the position embodiment of the present invention will be described with reference to FIGS. 16, 17 and 18. The size of the sub image data in the modification is the same size as the main image data. The configurations of the shooting mode and the playback mode are the same as the configuration examples shown in FIG. 1, FIG. 2 and FIG.

変形例の撮影モードの動作例を図16で説明する。撮影モードが選択され(ステップS201)、撮像部111による撮影が開始された後(ステップS202)、制御部1は、動画用の副画像データを仮記録する(ステップS406)。ここで、変形例における副画像データは、一実施形態とは異なり、画角内の位置及び大きさを限定せずに撮影される。その後、制御部1は、撮影するか否かを判定する(ステップS211)。撮影すると判定するとき(ステップS211でYESのとき)、制御部1は、撮影し主画像データを取得する(ステップS212)。その後、制御部1は、動画用の副画像データを取得する(ステップS422)。その後、制御部1は、露出用の副画像データを取得する(ステップS424)。その後、制御部1は、ピント変更用の複数の副画像データを取得する(ステップS426)。その後、主画像データを主画像ファイルとして記録する(ステップS227)。その後、制御部1は、副画像データを副画像ファイルとして記録する(ステップS228)。   An operation example of the imaging mode of the modification will be described with reference to FIG. After the shooting mode is selected (step S201) and shooting by the imaging unit 111 is started (step S202), the control unit 1 temporarily records sub image data for a moving image (step S406). Here, the sub-image data in the modification is photographed without limiting the position and the size within the angle of view, unlike the one embodiment. Thereafter, the control unit 1 determines whether to shoot (step S211). When it is determined that shooting is to be performed (YES in step S211), the control unit 1 performs shooting and acquires main image data (step S212). Thereafter, the control unit 1 acquires sub-image data for a moving image (step S422). After that, the control unit 1 acquires sub-image data for exposure (step S424). Thereafter, the control unit 1 acquires a plurality of sub-image data for focus change (step S426). Thereafter, the main image data is recorded as a main image file (step S227). Thereafter, the control unit 1 records the sub image data as a sub image file (step S228).

以上、図16に示した変形例における撮影の動作例では、全画角の副画像データを記録するので、画像データの取得時において後で気になる部位判定が行われないすなわち、主画像データに対応する副画像データの位置及び大きさは、撮影モードで決定されない。   As described above, in the operation example of photographing in the modified example shown in FIG. 16, sub-image data of all angles of view are recorded, and therefore, part determination which will be noticed later is not performed when acquiring image data, that is, main image data The position and size of the sub-image data corresponding to Y are not determined in the photographing mode.

主画像データに対応する副画像データの位置及び大きさは、再生モードで決定される。そこで、変形例の再生モードの動作例を図17で説明する。   The position and size of the sub-image data corresponding to the main image data are determined in the reproduction mode. Therefore, an operation example of the reproduction mode of the modification will be described with reference to FIG.

記録部4に記録されている主画像ファイルが読み込まれて、主画像データが表示部8に再生され(ステップS301)、制御部1、選択された主画像データを再生する(ステップS302)。その後、制御部1は、後で気になる部位判定を行う(ステップS204)。変形例では、再生モードにおいて、後で気になる部位判定により、主画像データの位置と、副画像データとが対応付けられる。変形例では、副画像データが再生される位置、大きさ、形状などを、15個のブロックに分割した場合として説明する。当然ながら、副画像データの形状は、被写体を型取った形状であっても良い。したがって、主画像ファイルと副画像ファイルに格納される各情報は、変形例では、後で気になる部位判定の判定に基づいて主画像ファイルの部位別タグ情報と副画像ファイルの部位情報及び候補用途情報を更新される。   The main image file recorded in the recording unit 4 is read, the main image data is reproduced on the display unit 8 (step S301), and the control unit 1 reproduces the selected main image data (step S302). After that, the control unit 1 performs a part determination to be concerned later (step S204). In the modification, in the reproduction mode, the position of the main image data and the sub-image data are associated with each other by the part determination to be concerned later. In the modification, the position, size, shape and the like at which the sub image data is reproduced will be described as being divided into 15 blocks. As a matter of course, the shape of the sub image data may be a shape obtained by molding the subject. Therefore, in the modification, each piece of information stored in the main image file and the sub-image file is based on the determination of the part determination to be concerned later, the part-specific tag information of the main image file and the part information and candidate of the sub-image file Usage information is updated.

変形例における主画像ファイル及び副画像ファイルの図18に示す構成例は、図13に示す構成例と同一である。例えば、図13では、副画像ファイルmのタグ情報は、副画像データmが対応する主画像データの情報と、副画像データmのT1のタイミングでの再生を示すタイミング情報と、副画像データmが動画用かつ露出用の候補用途であることを示す情報とを有する。   The configuration example shown in FIG. 18 of the main image file and the sub image file in the modification is the same as the configuration example shown in FIG. For example, in FIG. 13, tag information of the sub image file m includes information of main image data to which the sub image data m corresponds, timing information indicating reproduction of the sub image data m at timing T1, and sub image data m. Information indicating that it is a candidate application for moving images and for exposure.

副画像ファイルnのタグ情報は、副画像データnが対応する主画像データの情報と、副画像データnがT8のタイミングで再生されるタイミング情報と、副画像データnがピント変更用である候補用途の情報とを有する。   The tag information of the sub image file n includes information of the main image data to which the sub image data n corresponds, timing information in which the sub image data n is reproduced at the timing of T8, and a candidate for which the sub image data n is for focus change And usage information.

ところで、後で気になる部位判定が行われた後(ステップS204)、再生制御部130は、主画像へタッチが検出されたか否かを判定する(ステップS303)。主画像へのタッチが検出されたと判定するとき(ステップS303でYESのとき)、再生制御部130は、画像領域分類部112によって、タッチが検出された主画像データの位置が、動画用の副画像データと関連付けられているか否かを判定する(ステップS304)。タッチされた主画像データの位置が、動画用の副画像データと関連付けられていると判定するとき(ステップS304でYESのとき)、再生制御部130は、動画用の副画像データを、タッチされた位置のブロックの大きさに対応するように切り取って、切り取られた副画像データを主画像データのブロックに重ねてタイミング順に再生する(ステップS511)。   By the way, after the part determination to be concerned later is performed (step S204), the reproduction control unit 130 determines whether a touch on the main image is detected (step S303). When it is determined that the touch on the main image is detected (YES in step S303), the reproduction control unit 130 causes the image area classification unit 112 to detect the position of the main image data at which the touch is detected. It is determined whether it is associated with the image data (step S304). When it is determined that the position of the touched main image data is associated with the moving image sub image data (YES in step S304), the reproduction control unit 130 touches the moving image sub image data. The cut-out sub-image data is superimposed on the block of the main image data and reproduced in timing order (step S511).

一方、動画用の副画像データが再生されたあと若しくは、タッチが検出された主画像データの位置が、動画用の副画像データと関連付けられていなかったと判定するとき(ステップS304でNOのとき)、再生制御部130は、タッチが検出されたブロックの位置が、露出用の副画像データと関連付けられているか否かを判定する(ステップS305)。タッチが検出された主画像データの位置が、露出補正された副画像データに関連付けられていると判定するとき(ステップS305でYESのとき)、再生制御部130は、露出用の副画像データを、タッチされた主画像の大きさに対応するように切り取って、切り取られた副画像データを主画像データのブロックに重ねてタイミング順に再生する(ステップS512)。一方、露出用の副画像データが再生された後若しくは、タッチされた主画像データのブロックの位置が露出用の副画像データと関連付けられていなかったと判定するとき(ステップS305でNOのとき)、再生制御部130は、タッチされた主画像データの位置がピント用の副画像データと関連付けられているか否かを判定する(ステップS306)。タッチされた主画像データの位置が、ピント用の副画像データと関連付けられていると判定するとき(ステップS306でYESのとき)、再生制御部130は、ピント用の副画像データを、タッチされた主画像のブロックの大きさに対応するように切り取って、切り取られた副画像データを主画像データのブロックに重ねて再生する(ステップS513)。   On the other hand, after the sub image data for moving image is reproduced or when it is determined that the position of the main image data at which a touch is detected is not associated with the sub image data for moving image (when NO in step S304) The reproduction control unit 130 determines whether the position of the block at which the touch is detected is associated with the exposure sub image data (step S305). When it is determined that the position of the main image data at which the touch is detected is associated with the exposure-corrected sub-image data (YES in step S305), the reproduction control unit 130 determines the exposure sub-image data. In order to correspond to the size of the touched main image, the clipped sub-image data is superimposed on the block of the main image data and reproduced in order of timing (step S512). On the other hand, after the exposure sub-image data is reproduced or when it is determined that the position of the touched main image data block is not associated with the exposure sub-image data (when NO in step S305), The reproduction control unit 130 determines whether the position of the touched main image data is associated with the sub image data for focusing (step S306). When it is determined that the position of the touched main image data is associated with the sub image data for focusing (when YES in step S306), the reproduction control unit 130 touches the sub image data for focusing. The extracted sub-image data is clipped so as to correspond to the size of the block of the main image, and reproduced on the block of the main image data (step S513).

以上、図17に示した変形例における再生の動作例では、主画像データの位置と、その位置に対応する副画像データの判定が行われる。再生部121へのタッチにより、副画像データが対応している主画像データの位置が選択されたとき、副画像データは、主画像ファイルと副画像ファイルとに格納されている各情報に基づいて、選択された位置に所定の大きさに切り取られて再生される。   As described above, in the operation example of reproduction in the modification shown in FIG. 17, the determination of the position of the main image data and the sub image data corresponding to the position is performed. When the position of the main image data corresponding to the sub image data is selected by a touch on the reproduction unit 121, the sub image data is based on the respective information stored in the main image file and the sub image file. The selected position is cut out to a predetermined size and reproduced.

以上、本発明の一実施形態の変形例では、撮影モードにおいて、主画像データと、主画像データと同じ大きさの副画像データとが取得される。そして、再生モードにおいて、主画像データの位置と、副画像データとを関連付ける情報が取得される。その情報は、主画像ファイル及び副画像ファイルに格納される。   As described above, in the modification of the embodiment of the present invention, main image data and sub-image data of the same size as the main image data are acquired in the imaging mode. Then, in the reproduction mode, information is obtained which associates the position of the main image data with the sub image data. The information is stored in the main image file and the sub image file.

なお、副画像の表示は、主画像に重ねて表示しても良いし、主画像のブロックを切り取って、副画像と置き換えても良い。また、本発明の一実施形態では、副画像データとして動画、露出若しくはピントを補正した画像データを例とした。しかしながら、ユーザが後から見たい副画像データはこれらに限らず例えば、ブロックを光学ズームした副画像データであっても良い。ブロック内を光学ズームで拡大した副画像データを取得しておく。ブロックがタッチされたとき、そのブロックにその副画像データを再生することで、より高解像度の拡大画像をユーザに示すことができる。   Note that the display of the sub image may be displayed superimposed on the main image, or blocks of the main image may be cut out and replaced with the sub image. Further, in the embodiment of the present invention, moving image, image data whose exposure or focus is corrected is taken as an example of the sub image data. However, the sub image data that the user wants to see later is not limited to these, but may be sub image data obtained by optically zooming a block, for example. Sub-image data obtained by enlarging the inside of the block with the optical zoom is acquired. When a block is touched, a higher resolution enlarged image can be shown to the user by reproducing the sub image data in the block.

加えて、上述した一実施形態における撮像装置による各処理の手法、すなわち、各フローチャートに示す処理は、何れも制御部1に実行させることができるプログラムとして記憶される。このプログラムは、メモリカード(ROMカード、RAMカード等)、磁気ディスク(フロッピー(登録商標)ディスク、ハードディスク等)、光ディスク(CD−ROM、DVD等)、半導体メモリ等の外部記憶装置の記憶媒体に記憶されたプログラムを読み込み、この読み込んだプログラムによって動作が制御されることにより、上述した処理を実行することができる。   In addition, the method of each process by the imaging device in one embodiment described above, that is, the process shown in each flowchart is stored as a program that can be executed by the control unit 1. This program is used as a storage medium for external storage devices such as memory cards (ROM cards, RAM cards, etc.), magnetic disks (floppy (registered trademark), hard disks, etc.), optical disks (CD-ROM, DVD, etc.), semiconductor memory, etc. The above-described processing can be executed by loading a stored program and controlling the operation by the loaded program.

1…制御部、 1b…陰影判定部、 1c…ピント判定部、 1d…部位情報部、 1e…表示制御部、 1f…動き判定部、 1g…通信制御部、 1h…被写体判定部、 2…撮像素子、 3…接眼表示部、 3b…アイセンサ、 4…記録部、 4b…接続先DB、 4c…対象物DB、 5…操作判定部、 6…通信部、 7a…姿勢センサ、 7b…方位センサ、 8…表示部、 8b…タッチパネル、 9…時計、 10…場所検出部、 21…ネットワーク、 22…スマホ、 23…サーバ、 23b…表示制御部、 23c…アクセス判定部、 23d…関連付け部、 23e…サーバ記録部、 26…レンズ、 100…撮像装置、 110…連続撮影部、 111…撮像部、 112…画像領域分類部、 113…領域別撮影条件変更部、 114…領域別再取得部、 115…撮像結果関連付け記録部、 116…連射結果記録部、 117…領域切り出し部、 118…再生方法変更部、 119…再生方法変更部、 120…指定部、 121…再生部、 130…再生制御部   Reference Signs List 1 control unit 1b shadow determination unit 1c focus determination unit 1d region information unit 1e display control unit 1f movement determination unit 1g communication control unit 1h object determination unit 2 imaging Element 3 Eyepiece display portion 3b Eye sensor 4 Recording portion 4b Connection destination DB 4c Target object DB 5 Operation determination portion 6 Communication portion 7a Position sensor 7b Orientation sensor Reference Signs List 8 display unit 8b touch panel 9 clock 10 location detection unit 21 network 22 smartphone 23 server 23 display control unit 23c access determination unit 23d association unit 23e Server recording unit, 26: lens, 100: imaging device, 110: continuous imaging unit, 111: imaging unit, 112: image area classification unit, 113: imaging condition changing unit according to area 14: Re-acquisition unit by region, 115: Recording result association recording unit, 116: Continuous fire result recording unit, 117: Region cutout unit, 118: Reproduction method change unit, 119: Reproduction method change unit, 120: Designation unit, 121 ... Reproduction unit, 130 ... Reproduction control unit

Claims (5)

第1の画像データの取得の前後に、前記第1の画像データの分割された領域の何れかと対応していて前記第1の画像データと異なる態様で取得された第2の画像データをファイルとして記録する記録装置であって、
前記第1の画像データの名称と、前記第2の画像データが前記第1の画像データのどの領域に対応するかを表す情報と、前記第2の画像データが取得されたタイミングを示す情報とを前記第2の画像データとともにファイルとして記録する制御部を具備する記録装置。
Before and after the acquisition of the first image data, the second image data acquired in a mode different from the first image data, corresponding to any of the divided regions of the first image data, is used as a file A recording device for recording,
A name of the first image data, information indicating which area of the first image data the second image data corresponds to, and information indicating a timing at which the second image data is acquired A recording apparatus comprising: a control unit that records a file together with the second image data as a file.
前記制御部は、前記第2の画像データがどのような用途で使用されるかを示す情報をさらに前記ファイルに記録する請求項1に記載の記録装置。   The recording apparatus according to claim 1, wherein the control unit further records, in the file, information indicating what application the second image data is used for. 前記第2の画像データは、前記第1の画像データの領域毎のコントラスト量、領域毎の距離情報の差異又は領域毎の被写界深度の情報に基づいて被写体の十分な描写が得られていないことが判定された前記領域について取得される請求項1に記載の記録装置。   In the second image data, a sufficient depiction of the subject is obtained based on the contrast amount for each area of the first image data, the difference in distance information for each area, or the information on depth of field for each area. The recording apparatus according to claim 1, wherein the recording apparatus is acquired for the area determined to be absent. 第1の画像データの取得の前後に、前記第1の画像データの分割された領域の何れかと対応していて前記第1の画像データと異なる態様で取得された第2の画像データをファイルとして記録するための記録方法であって、
前記第1の画像データの名称と、前記第2の画像データが前記第1の画像データのどの領域に対応するかを表す情報と、前記第2の画像データが取得されたタイミングを示す情報とを前記第2の画像データとともにファイルとして記録することを具備する記録方法。
Before and after the acquisition of the first image data, the second image data acquired in a mode different from the first image data, corresponding to any of the divided regions of the first image data, is used as a file A recording method for recording,
A name of the first image data, information indicating which area of the first image data the second image data corresponds to, and information indicating a timing at which the second image data is acquired Recording a file together with the second image data.
第1の画像データの取得の前後に、前記第1の画像データの分割された領域の何れかと対応していて前記第1の画像データと異なる態様で取得された第2の画像データをファイルとして記録するための記録プログラムであって、
前記第1の画像データの名称と、前記第2の画像データが前記第1の画像データのどの領域に対応するかを表す情報と、前記第2の画像データが取得されたタイミングを示す情報とを前記第2の画像データとともにファイルとして記録することをコンピュータに実行させるための記録プログラム。
Before and after the acquisition of the first image data, the second image data acquired in a mode different from the first image data, corresponding to any of the divided regions of the first image data, is used as a file A recording program for recording,
A name of the first image data, information indicating which area of the first image data the second image data corresponds to, and information indicating a timing at which the second image data is acquired A recording program for causing a computer to execute recording of the image data together with the second image data as a file.
JP2018120979A 2018-06-26 2018-06-26 Recording apparatus, recording method and recording program Active JP6550506B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2018120979A JP6550506B2 (en) 2018-06-26 2018-06-26 Recording apparatus, recording method and recording program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2018120979A JP6550506B2 (en) 2018-06-26 2018-06-26 Recording apparatus, recording method and recording program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2017127842A Division JP6362735B2 (en) 2017-06-29 2017-06-29 IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM

Publications (2)

Publication Number Publication Date
JP2018157607A JP2018157607A (en) 2018-10-04
JP6550506B2 true JP6550506B2 (en) 2019-07-24

Family

ID=63718360

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2018120979A Active JP6550506B2 (en) 2018-06-26 2018-06-26 Recording apparatus, recording method and recording program

Country Status (1)

Country Link
JP (1) JP6550506B2 (en)

Family Cites Families (6)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2001054010A (en) * 1999-08-10 2001-02-23 Fuji Photo Film Co Ltd Photographing device, photographing method and recording medium
JP2001358980A (en) * 2000-06-14 2001-12-26 Ricoh Co Ltd Digital camera
JP4396500B2 (en) * 2004-12-07 2010-01-13 カシオ計算機株式会社 Imaging apparatus, image orientation adjustment method, and program
JP2009071464A (en) * 2007-09-12 2009-04-02 Olympus Corp Camera
JP2009088935A (en) * 2007-09-28 2009-04-23 Sanyo Electric Co Ltd Image recording apparatus, image correcting apparatus, and image pickup apparatus
JP2010081528A (en) * 2008-09-29 2010-04-08 Fujifilm Corp Image processing apparatus, method and program

Also Published As

Publication number Publication date
JP2018157607A (en) 2018-10-04

Similar Documents

Publication Publication Date Title
KR100933416B1 (en) Camera device, imaging method and computer program recording medium
US20140092272A1 (en) Apparatus and method for capturing multi-focus image using continuous auto focus
US9317748B2 (en) Tracking apparatus
JP2010010936A (en) Image recording apparatus, image recording method, image processing apparatus, image processing method, and program
JP5278564B2 (en) Imaging device
JP4509081B2 (en) Digital camera and digital camera program
JP2011146957A (en) Imaging apparatus, control method thereof, and program
JP4241460B2 (en) Electronic imaging device
US20120002094A1 (en) Image pickup apparatus for providing reference image and method for providing reference image thereof
JP2019029998A (en) Imaging apparatus, control method of imaging apparatus and control program
JP2014050022A (en) Image processing device, imaging device, and program
JP4871231B2 (en) Imaging apparatus and imaging method
JP2019022026A (en) Imaging apparatus
JP6550506B2 (en) Recording apparatus, recording method and recording program
JP4534539B2 (en) Camera apparatus and program
JP6362735B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD AND CONTROL PROGRAM
JP6450879B2 (en) Recording apparatus, recording method, and recording program
JP6169963B2 (en) IMAGING DEVICE AND IMAGING DEVICE CONTROL METHOD
JP6375114B2 (en) Image reproducing apparatus and method for controlling image reproducing apparatus
JP2005286379A (en) Photographing support system and photographing support method
JP4760497B2 (en) Image data generation apparatus and image data generation method
JP6504693B2 (en) Image pickup apparatus, operation support method, and operation support program
US9525815B2 (en) Imaging apparatus, method for controlling the same, and recording medium to control light emission
JP6824061B2 (en) Imaging apparatus, control methods, programs, and storage media executed by the imaging apparatus.
JP2010183565A (en) Image capturing apparatus, image retrieval device, and program

Legal Events

Date Code Title Description
A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20190507

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20190604

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20190701

R151 Written notification of patent or utility model registration

Ref document number: 6550506

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

S111 Request for change of ownership or part of ownership

Free format text: JAPANESE INTERMEDIATE CODE: R313113

R350 Written notification of registration of transfer

Free format text: JAPANESE INTERMEDIATE CODE: R350

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250

R250 Receipt of annual fees

Free format text: JAPANESE INTERMEDIATE CODE: R250