JP2009171060A - Image processing device and its control method - Google Patents

Image processing device and its control method Download PDF

Info

Publication number
JP2009171060A
JP2009171060A JP2008004960A JP2008004960A JP2009171060A JP 2009171060 A JP2009171060 A JP 2009171060A JP 2008004960 A JP2008004960 A JP 2008004960A JP 2008004960 A JP2008004960 A JP 2008004960A JP 2009171060 A JP2009171060 A JP 2009171060A
Authority
JP
Japan
Prior art keywords
raw data
development
unit
information
image processing
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2008004960A
Other languages
Japanese (ja)
Other versions
JP5025498B2 (en
JP2009171060A5 (en
Inventor
Hideto Sakakima
英人 榊間
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Canon Inc
Original Assignee
Canon Inc
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Canon Inc filed Critical Canon Inc
Priority to JP2008004960A priority Critical patent/JP5025498B2/en
Publication of JP2009171060A publication Critical patent/JP2009171060A/en
Publication of JP2009171060A5 publication Critical patent/JP2009171060A5/ja
Application granted granted Critical
Publication of JP5025498B2 publication Critical patent/JP5025498B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Studio Devices (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an image processing device and its control method capable of reproducing an edited high-definition moving image. <P>SOLUTION: A RAW data storage portion 102 stores RAW data photographed at a frame rate defined beforehand. A data extracting portion 104 extracts RAW data corresponding to a reproduction zone specified by edit information in an edit list portion 103. A developing portion 101 applies development processing to the extracted RAW data to generate moving picture data after editing. <P>COPYRIGHT: (C)2009,JPO&INPIT

Description

本発明は、画像処理装置およびその制御方法に関し、特に動画像の編集や編集された動画像の再生を行うための画像処理装置およびその制御方法に関する。   The present invention relates to an image processing apparatus and a control method thereof, and more particularly to an image processing apparatus and a control method thereof for editing a moving image and reproducing the edited moving image.

デジタル(ビデオ)カメラなどの普及や、パーソナルコンピュータの性能向上などにより、動画像の編集が一般的に行われるようになってきている。動画像の編集を行った場合、編集後の動画像のみを保存すると、元の動画像(編集されていない動画像)が失われてしまう。   Due to the spread of digital (video) cameras and the like, and the performance improvement of personal computers, editing of moving images is generally performed. When editing a moving image, if only the edited moving image is saved, the original moving image (moving image that has not been edited) is lost.

そのため特許文献1に記載の技術では、元の動画像データとは別に、元の動画像データの編集部分に対応する動画像データを別途記録し、再生時に元の動画像データと編集後の動画像データを選択的に再生可能としている。   Therefore, in the technique described in Patent Document 1, moving image data corresponding to the edited portion of the original moving image data is recorded separately from the original moving image data, and the original moving image data and the edited moving image are reproduced at the time of reproduction. Image data can be selectively reproduced.

特開2005-286826号公報JP 2005-286826 A

特許文献1の技術によれば、元の動画像データと編集後の動画像データとを選択的に再生、表示可能であるが、再生される動画像データの品質は、元の動画像データの品質、より具体的には元の動画像データの現像処理時のパラメータによって決定される。   According to the technique of Patent Document 1, the original moving image data and the edited moving image data can be selectively reproduced and displayed. However, the quality of the reproduced moving image data is the same as that of the original moving image data. It is determined by the quality, more specifically, a parameter at the time of developing the original moving image data.

通常、CCD(Charge Coupled Devices)センサやCMOS(Complementary Metal Oxide Semiconductor)センサを用いた撮像装置では、RAWデータを現像処理して画像データを生成する。RAWデータとはCCDセンサやCMOSセンサで得られた画像情報を保持したデータ形式である。RAWデータは、ホワイトバランス調整、色空間変換などの画像調整や、不可逆圧縮符号化を実施する前のデータである。そのため、これらの処理が行われているJPEG(Joint Photographic Expert Group)形式やMPEG(Moving Picture Expert Group)形式の画像データとは異なる特徴を持つ。図10に、RAWデータと現像され圧縮された画像の一例としてのJPEG画像データとの比較を示す。   Usually, in an imaging apparatus using a CCD (Charge Coupled Devices) sensor or a CMOS (Complementary Metal Oxide Semiconductor) sensor, image data is generated by developing RAW data. RAW data is a data format that holds image information obtained by a CCD sensor or a CMOS sensor. RAW data is data before image adjustment such as white balance adjustment and color space conversion, and lossy compression encoding. Therefore, the image data has characteristics different from those of JPEG (Joint Photographic Expert Group) format or MPEG (Moving Picture Expert Group) format image data in which these processes are performed. FIG. 10 shows a comparison between RAW data and JPEG image data as an example of a developed and compressed image.

また、RAWデータからJPEG形式などの画像データを作成する処理を現像処理と呼ぶ。一般的な現像処理には例えば以下に示す処理が含まれる。
・ ビット数(色深度)変換処理
・ フレームレート変換処理
・ 色空間処理
・ 露出補正処理
・ ホワイトバランス調整(色温度変更)処理
Also, processing for creating image data such as JPEG format from RAW data is called development processing. Typical development processing includes, for example, the following processing.
・ Bit number (color depth) conversion processing ・ Frame rate conversion processing ・ Color space processing ・ Exposure compensation processing ・ White balance adjustment (color temperature change) processing

上述の通り、RAWデータはセンサから得られる画像情報を保持したデータであるため、異なるホワイトバランス調整処理を適用すれば、画像情報を維持したまま異なる処理結果を得ることができる。しかし、JPEG/MPEG画像データのように現像処理後の画像はRAWデータに戻れないので、同じ画像編集処理を適用しても、RAWデータから得た結果よりも画質が低下することは原理的に不可避である。そのため、現像後の動画像データが元画像データとして記録されている場合、ホワイトバランスや色空間などを変更した編集後の動画像データを生成すると、画質が低下してしまう。   As described above, since RAW data is data holding image information obtained from a sensor, different processing results can be obtained while maintaining image information by applying different white balance adjustment processing. However, since images after development processing such as JPEG / MPEG image data cannot be returned to RAW data, even if the same image editing processing is applied, the image quality is lower than the result obtained from RAW data in principle. Inevitable. Therefore, when the developed moving image data is recorded as the original image data, if the edited moving image data in which the white balance, the color space or the like is changed is generated, the image quality is deteriorated.

また、例えば、撮像素子がHD(High Definition)の解像度を有していても、SD(Standard Definition)で現像処理された動画像データが元画像データとして記録されている場合には、SDの解像度以上の情報量を得ることはできない。また、sRGBの色空間で現像された画像データは、sRGB色空間の再現範囲を超える色情報を持つことはできない。
そのため、例えばHD解像度やsRGBを超える再現範囲を有する色空間での再生、表示が可能な装置で再生、表示しても、装置の能力を十分に活かすことができない。
In addition, for example, even if the image sensor has HD (High Definition) resolution, when moving image data developed with SD (Standard Definition) is recorded as original image data, the resolution of SD The amount of information above cannot be obtained. Also, image data developed in the sRGB color space cannot have color information that exceeds the reproduction range of the sRGB color space.
Therefore, for example, even if playback and display are performed on a device capable of playback and display in a color space having a reproduction range exceeding HD resolution or sRGB, the capabilities of the device cannot be fully utilized.

本発明はこのような従来技術の問題点に鑑みなされたものであり、高画質な編集動画像の再生を実現する画像処理装置およびその制御方法を提供する。   The present invention has been made in view of the above-described problems of the prior art, and provides an image processing apparatus that realizes reproduction of a high-quality edited moving image and a control method therefor.

上述の目的は、予め定められたフレームレートで撮像されたRAWデータを格納するRAWデータ格納手段と、RAWデータの再生区間を指定する編集情報を格納する編集情報格納手段と、編集情報格納手段から編集情報を取得し、取得した編集情報で指定された再生区間に対応するRAWデータをRAWデータ格納手段から抽出する抽出手段と、抽出手段が抽出したRAWデータに対して現像処理を適用し、編集後の動画像データとして出力する現像手段と、を有することを特徴とする画像処理装置によって達成される。   The above-described objects are obtained from RAW data storage means for storing RAW data captured at a predetermined frame rate, editing information storage means for storing editing information for designating a playback section of RAW data, and editing information storage means. The editing information is acquired, the RAW data corresponding to the playback section specified by the acquired editing information is extracted from the RAW data storage means, and the development processing is applied to the RAW data extracted by the extracting means for editing. It is achieved by an image processing apparatus having development means for outputting as subsequent moving image data.

また、上述の目的は、予め定められたフレームレートで撮像されたRAWデータを格納するRAWデータ格納手段と、RAWデータの再生区間を指定する編集情報を格納する編集情報格納手段とを有する画像処理装置の制御方法であって、編集情報格納手段から編集情報を取得し、取得した編集情報で指定された再生区間に対応するRAWデータをRAWデータ格納手段から抽出する抽出ステップと、抽出ステップで抽出されたRAWデータに対して現像処理を適用し、編集後の動画像データとして出力する現像ステップと、を有することを特徴とする画像処理装置の制御方法によっても達成される。   In addition, the above-described object is to provide image processing having RAW data storage means for storing RAW data captured at a predetermined frame rate, and edit information storage means for storing edit information for specifying a playback section of RAW data. An apparatus control method that acquires editing information from an editing information storage means, extracts RAW data corresponding to the playback section specified by the acquired editing information from the RAW data storage means, and extracts at the extraction step The present invention is also achieved by a control method for an image processing apparatus characterized by including a development step of applying development processing to the processed RAW data and outputting the edited moving image data.

このような構成により、本発明によれば、高画質な編集動画像の再生を実現することができる。   With such a configuration, according to the present invention, it is possible to realize reproduction of an edited moving image with high image quality.

以下、添付図面を使用して本発明の好適かつ例示的な実施形態を詳細に説明する。
(第1の実施形態)
図1は本発明の第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。
本実施形態の画像処理装置100は、RAWデータを再生可能な画像形式に現像し、その結果を光ディスクやメモリカード等のストレージデバイスに記録する装置であり、例えばPC、DVD-HDDレコーダ、デジタルビデオカメラ等であってよい。
Hereinafter, preferred and exemplary embodiments of the present invention will be described in detail with reference to the accompanying drawings.
(First embodiment)
FIG. 1 is a block diagram illustrating a functional configuration example of an image processing apparatus according to the first embodiment of the present invention.
The image processing apparatus 100 according to the present embodiment is an apparatus that develops RAW data into a reproducible image format and records the result on a storage device such as an optical disk or a memory card. For example, a PC, a DVD-HDD recorder, a digital video It may be a camera or the like.

現像部101は、RAWデータを現像し、JPEG画像やMPEG画像に変換する。現像部101が変換するRAWデータは、後述するRAWデータ格納部102より、データ抽出部104を経て供給される。   The developing unit 101 develops RAW data and converts it into a JPEG image or an MPEG image. RAW data to be converted by the developing unit 101 is supplied from a RAW data storage unit 102, which will be described later, via a data extraction unit 104.

RAWデータ格納部102は、元の動画像データとしてのRAWデータを格納する記憶装置であり、HDD(Hard Disk Drive)や、光ディスク、メモリカード等のリムーバブルメディアを読み取り可能な装置であってよい。RAWデータはデジタルスチルカメラやデジタルビデオカメラ等の撮像装置で撮影されたものである。RAWデータは、撮像装置から直接RAWデータ格納部102へ取り込んだり、RAWデータが記録されたリムーバブルメディアをRAWデータ格納部102へ装着したりすることで、画像処理装置100が処理可能な状態とすることができる。本実施形態において、RAWデータは所定のフレームレート(例えば30fps)で記録された動画像RAWデータであるとする。   The RAW data storage unit 102 is a storage device that stores RAW data as original moving image data, and may be a device that can read a removable medium such as an HDD (Hard Disk Drive), an optical disk, or a memory card. RAW data is taken by an imaging device such as a digital still camera or a digital video camera. RAW data can be processed by the image processing apparatus 100 by directly importing the RAW data from the image capturing apparatus to the RAW data storage section 102 or by attaching a removable medium on which the RAW data is recorded to the RAW data storage section 102. be able to. In the present embodiment, it is assumed that the RAW data is moving image RAW data recorded at a predetermined frame rate (for example, 30 fps).

編集情報格納手段としてのエディットリスト格納部103は、RAWデータに対する編集結果が記載されたエディットリストを格納する。エディットリストは動画像RAWデータの編集情報であり、具体的には再生区間を示す情報(再生開始位置、再生終了位置の少なくとも1組)、フレーム内の再生領域を指定する情報(切り出し位置)などを格納するリストである。本実施形態においては、一つの編集結果に対し一つのエディットリストが対応付けられており、RAWデータに対する編集結果が複数ある場合、エディットリストも複数となる。   An edit list storage unit 103 serving as an edit information storage unit stores an edit list in which edit results for RAW data are described. The edit list is editing information of moving image RAW data. Specifically, information indicating a playback section (at least one set of a playback start position and a playback end position), information for specifying a playback area in a frame (cutout position), etc. Is a list that stores In the present embodiment, one edit list is associated with one editing result, and when there are a plurality of editing results for RAW data, there are a plurality of editing lists.

エディットリストにはRAWデータの再生区間の情報以外に、編集した日付、ユーザなどの情報も格納される。なお、本実施形態においては、エディットリストは予めエディットリスト格納部103に記憶されているものとする。エディットリストは、RAWデータと同様に外部装置から取得するすることも可能であるし、後述する実施形態で説明するように、画像処理装置において生成することもできる。   In addition to information on the playback section of RAW data, the edit list also stores information such as the date of editing and the user. In this embodiment, the edit list is stored in advance in the edit list storage unit 103. The edit list can be acquired from an external device in the same way as RAW data, or can be generated in an image processing apparatus as will be described in an embodiment described later.

データ抽出部104は、エディットリスト格納部103に格納されているエディットリストから、再生開始位置、再生終了位置などを読み出し、エディットリストに対応した再生に必要なRAWデータをRAWデータ格納部102から抽出する。データ抽出部104が抽出しRAWデータは、現像部101に供給され、現像部101で現像処理される。   The data extraction unit 104 reads the playback start position, playback end position, etc. from the edit list stored in the edit list storage unit 103, and extracts the RAW data necessary for playback corresponding to the edit list from the RAW data storage unit 102. To do. The RAW data extracted by the data extraction unit 104 is supplied to the development unit 101 and developed by the development unit 101.

現像方式決定部105は、RAWデータ格納部102からデータ抽出部104により抽出されたRAWデータの現像方法を決定する。具体的には、上述した現像処理の工程で用いる現像パラメータを決定し、そのパラメータ値を現像部101に通知する。   The development method determination unit 105 determines a development method for the RAW data extracted from the RAW data storage unit 102 by the data extraction unit 104. Specifically, the development parameter used in the above-described development processing step is determined, and the parameter value is notified to the development unit 101.

例えば、JPEG形式の画像データを作成する場合、色空間はsRGBが一般的であるため、色空間変換処理における現像パラメータはsRGBとなる。この他にも、ピクセルフォーマット(YUV420またはYUV444など)や、色の深度(24bit/画素または36bit/画素)など、現像パラメータは複数存在する。現像方式決定部105は、予め定められた現像後のファイルフォーマットなどに応じてこれらの現像パラメータを決定し、現像部101に通知する。   For example, when creating image data in JPEG format, since the color space is generally sRGB, the development parameter in the color space conversion processing is sRGB. In addition to this, there are a plurality of development parameters such as a pixel format (YUV420 or YUV444) and a color depth (24 bits / pixel or 36 bits / pixel). The development method determination unit 105 determines these development parameters according to a predetermined file format after development, and notifies the development unit 101 of them.

現像結果格納部106は、現像部101により現像された現像画像を格納する記憶装置であり、HDD(Hard Disk Drive)や、光ディスク、メモリカード等のリムーバブルメディアに書き込み可能な装置であってよい。   The development result storage unit 106 is a storage device that stores the developed image developed by the development unit 101, and may be a device that can write to a removable medium such as an HDD (Hard Disk Drive), an optical disk, or a memory card.

以下、図2に示すフローチャートを用いて、エディットリストとRAWデータを用いた現像処理の具体的な動作についてを説明する。
まず、現像方式決定部105により、RAWデータを現像するための現像パラメータを決定する(S201)。S201により決定された現像パラメータは、現像部101に通知され、現像処理時に使用される。
The specific operation of the development process using the edit list and RAW data will be described below using the flowchart shown in FIG.
First, the development method determination unit 105 determines development parameters for developing RAW data (S201). The development parameters determined in S201 are notified to the development unit 101 and used during development processing.

次に、データ抽出部104が、エディットリスト格納部103からエディットリストを取得し、エディットリストから再生区間の情報を抽出する(S202)。再生区間の情報は、上述の通り、例えば、RAWデータ内で再生する再生開始位置と再生終了位置、及びフレーム内における切り出し位置である。1つのエディットリストに複数組の再生開始位置と再生終了位置が含まれることもある。S202で取得された再生区間の情報は、データ抽出部104に通知される。   Next, the data extraction unit 104 acquires an edit list from the edit list storage unit 103, and extracts playback section information from the edit list (S202). As described above, the playback section information includes, for example, a playback start position and playback end position for playback within RAW data, and a cutout position within a frame. A single edit list may include a plurality of playback start positions and playback end positions. The information on the playback section acquired in S202 is notified to the data extraction unit 104.

データ抽出部104は、再生区間の情報に基づき、RAWデータ格納部102からRAWデータを取得する(S203)。抽出されたRAWデータは画像処理装置の図示しない一時保存メモリに格納され、その後に現像部101へ出力される。   The data extraction unit 104 acquires RAW data from the RAW data storage unit 102 based on the playback section information (S203). The extracted RAW data is stored in a temporary storage memory (not shown) of the image processing apparatus and then output to the developing unit 101.

現像部101は、S203で抽出されたRAWデータを、S201により決定された現像パラメータを使用して現像する(S204)。現像された現像結果画像は画像処理装置内の一時保存メモリに格納される。   The development unit 101 develops the RAW data extracted in S203 using the development parameters determined in S201 (S204). The developed development result image is stored in a temporary storage memory in the image processing apparatus.

データ抽出部104は、エディットリストに含まれるすべての再生区間に対応したRAWデータの抽出および必要な現像処理が終了したか否かを、S205で確認する。未処理の再生区間があれば、S203へ戻り、必要なRAWデータを抽出して、現像部101で現像する。S203からS205までの処理は、S202で取得したエディットリストに含まれるすべての再生区間についての現像処理が終了するまで繰り返される。   In step S205, the data extraction unit 104 confirms whether extraction of RAW data corresponding to all playback sections included in the edit list and necessary development processing have been completed. If there is an unprocessed playback section, the process returns to S203, where necessary RAW data is extracted and developed by the developing unit 101. The processing from S203 to S205 is repeated until the development processing for all the playback sections included in the edit list acquired in S202 is completed.

すべての再生区間についての現像処理が終了すると、現像部101は、一時保存メモリから現像結果の動画像データを読み出し、現像結果格納部106に格納する(S206)。   When the development processing for all the playback sections is completed, the development unit 101 reads the development result moving image data from the temporary storage memory and stores it in the development result storage unit 106 (S206).

以上の処理により、本実施形態によれば、編集後の動画像データを、動画像RAWデータから作成することが可能となる。そのため、同じ編集内容で現像パラメータのみ変更した動画像データを生成する際の画質劣化を抑制することが可能になる。また、動画像RAWデータは元の動画像データであるので、編集後の動画像のみならず、全体を現像処理すれば編集前の動画像データについての再生も可能である。   With the above processing, according to the present embodiment, edited moving image data can be created from moving image RAW data. For this reason, it is possible to suppress image quality deterioration when generating moving image data in which only development parameters are changed with the same editing content. Since the moving image RAW data is the original moving image data, not only the edited moving image but also the entire moving image data before editing can be reproduced by developing the entire moving image.

なお、本実施形態では、再生区間ごとにRAWデータの抽出と現像処理とを行う動作について説明した。しかし、S202で取得したエディットリストに含まれる全ての再生区間について一括してRAWデータを抽出し、現像処理をまとめて実行することももちろん可能である。   In the present embodiment, the operation of performing RAW data extraction and development processing for each reproduction section has been described. However, it is of course possible to extract RAW data for all the playback sections included in the edit list acquired in S202 and execute the development process collectively.

また、エディットリストに格納する再生区間の情報は、再生開始位置、再生終了位置、及びフレーム内の切り出し位置には限定されない。同様に、現像パラメータについても、色空間情報、ピクセルフォーマット情報、ビット深度情報に限定されない。   Further, the information on the playback section stored in the edit list is not limited to the playback start position, playback end position, and cutout position in the frame. Similarly, development parameters are not limited to color space information, pixel format information, and bit depth information.

(第2の実施形態)
次に、本発明の第2の実施形態に係る画像処理装置について説明する。
本実施形態の画像処理装置は、上述のエディットリストを作成する機能を有する点を特徴とする。
(Second Embodiment)
Next, an image processing apparatus according to the second embodiment of the present invention will be described.
The image processing apparatus of this embodiment is characterized in that it has a function of creating the above-described edit list.

図3は、本発明の第2の実施形態に係る画像処理装置の機能構成例を示すブロック図である。図3において、第1の実施形態と同様の構成および動作には同じ参照数字を付し、重複する説明を省略する。   FIG. 3 is a block diagram illustrating a functional configuration example of an image processing apparatus according to the second embodiment of the present invention. In FIG. 3, the same configurations and operations as those of the first embodiment are denoted by the same reference numerals, and redundant description is omitted.

図3において、表示部107は、現像結果の動画像を表示するための表示部であり、画像処理装置100とは別の、表示装置であってよい。なお、画像処理装置100と表示部107とは、IEEE(Institute of Electrical and Electronic Engineers)1394、HDMI(High-Definition Multimedia Interface)などのディジタルインタフェースを介して接続することができる。なお、本実施形態の画像処理装置100は現像結果格納部106を備えていないが、現像結果格納部106を介して表示部107へ現像後の動画像データを出力しても良い。あるいは、表示部107への出力と並行して現像結果格納部106へ格納するようにしても良い。   In FIG. 3, a display unit 107 is a display unit for displaying a moving image as a development result, and may be a display device different from the image processing device 100. The image processing apparatus 100 and the display unit 107 can be connected via a digital interface such as IEEE (Institute of Electrical and Electronic Engineers) 1394 or HDMI (High-Definition Multimedia Interface). Although the image processing apparatus 100 according to the present embodiment does not include the development result storage unit 106, the developed moving image data may be output to the display unit 107 via the development result storage unit 106. Alternatively, it may be stored in the development result storage unit 106 in parallel with the output to the display unit 107.

編集情報送信部108は、例えばリモコン等、ユーザが画像処理装置100へ指示、具体的には編集情報を与えるための装置である。ここで編集情報とは、動画像の再生開始位置、再生終了位置などを指定する情報である。ユーザは表示部107に表示される現像後の動画像を見ながら編集情報送信部108を走査して所望の再生開始位置、再生終了位置を1組以上指定することで、動画像の編集を行うことができる。そして、編集情報送信部108を通じて入力される編集情報は例えば赤外線や電波を用いた無線通信により画像処理装置100に送出される。なお、編集情報は上述した切り出し位置など、再生区間を指定する情報以外の情報を含んでも良い。   The editing information transmission unit 108 is an apparatus for giving instructions to the image processing apparatus 100, specifically, editing information, such as a remote controller. Here, the editing information is information for designating the reproduction start position, reproduction end position, etc. of the moving image. The user scans the editing information transmission unit 108 while viewing the developed moving image displayed on the display unit 107 and specifies one or more desired reproduction start positions and reproduction end positions, thereby editing the moving image. be able to. Then, the editing information input through the editing information transmitting unit 108 is sent to the image processing apparatus 100 by wireless communication using, for example, infrared rays or radio waves. Note that the editing information may include information other than the information for designating the playback section, such as the cutout position described above.

編集情報作成部109は、編集情報送信部108から受信した編集情報を元に、RAWデータに対するエディットリストを作成する。編集情報作成部109により作成されたエディットリストは、エディットリスト格納部103に蓄積される。   The edit information creation unit 109 creates an edit list for RAW data based on the edit information received from the edit information transmission unit 108. The edit list created by the editing information creation unit 109 is accumulated in the edit list storage unit 103.

以下、図4に示すフローチャートを用いて、本実施形態の画像処理装置におけるエディットリスト作成処理動作について説明する。図4に示す処理は、例えばユーザが編集情報送信部108を通じて編集処理の開始を指示した際に開始される。   The edit list creation processing operation in the image processing apparatus of this embodiment will be described below using the flowchart shown in FIG. The process illustrated in FIG. 4 is started, for example, when the user instructs the start of the editing process through the editing information transmission unit 108.

まず、編集情報送信部108は、編集時の環境情報を編集情報作成部109に送信する(S401)。本実施形態において、環境情報はユーザ名とする。ユーザ名は例えば予め編集情報送信部108に登録されていても良いし、編集情報送信部108を用いてユーザが入力しても良い。編集情報作成部109に送信された編集時の環境情報は、生成されるエディットリスト内に記載される。   First, the editing information transmission unit 108 transmits environment information at the time of editing to the editing information creation unit 109 (S401). In the present embodiment, the environment information is a user name. For example, the user name may be registered in advance in the editing information transmission unit 108 or may be input by the user using the editing information transmission unit 108. The editing environment information transmitted to the editing information creation unit 109 is described in the generated edit list.

次に、画像処理装置100は、第1の実施形態で説明したようにしてRAWデータ格納部102から編集対象のRAWデータ全体をデータ抽出部104で抽出し、現像部101で現像して、表示部107に送信する(S402)。表示部107では、送信された現像結果を表示し、ユーザに提示する。   Next, as described in the first embodiment, the image processing apparatus 100 extracts the entire RAW data to be edited from the RAW data storage unit 102 by the data extraction unit 104, develops it by the development unit 101, and displays it. The data is transmitted to the unit 107 (S402). The display unit 107 displays the transmitted development result and presents it to the user.

以後、ユーザは、表示部107で表示された動画を見ながら、必要なシーン(再生区間)を特定する。まず、ユーザは、編集情報送信部108の所定のボタンを押下する等の操作により、シーンの開始位置を指定する。編集情報送信部108は、この指定を受け付け(S403)、内部の図示しないメモリに一時記憶する。次に、ユーザはシーンの終了位置を指定する。この指定も編集情報送信部108が受け付け(S404)、一時記憶する。以上のステップS403及びS404により、1つのシーン指定が終了する。   Thereafter, the user specifies a necessary scene (playback section) while watching the moving image displayed on the display unit 107. First, the user designates the start position of the scene by an operation such as pressing a predetermined button of the editing information transmission unit 108. The editing information transmission unit 108 accepts this designation (S403) and temporarily stores it in an internal memory (not shown). Next, the user designates the end position of the scene. This specification is also accepted by the editing information transmitting unit 108 (S404) and temporarily stored. One scene designation is completed by the above steps S403 and S404.

S405で、編集情報送信部108は、1つのシーンを指定する1組の開始位置情報と終了位置情報を編集情報として編集情報作成部109に送信する。編集情報作成部109は、送信された編集情報をエディットリスト内に記録する。   In step S <b> 405, the edit information transmission unit 108 transmits a set of start position information and end position information specifying one scene to the edit information creation unit 109 as edit information. The editing information creation unit 109 records the transmitted editing information in the edit list.

なお、表示部107で再生されている現像後の動画像と、編集情報送信部108から受信した編集情報とは、任意の方法で対応付けることができる。例えば、編集情報作成部109が編集情報を受信した時点の再生時刻(又は動画像中の1フレームを特定する情報)を再生終了位置とし、開始位置情報と終了位置情報との時間差を用いて再生開始位置を特定することができる。あるいは、編集情報送信部108が、開始位置と終了位置の指定を受け付けた時点でそれぞれ送信するように構成し、編集情報作成部109が、それぞれの受信時点における動画像の再生位置を元に再生開始位置と再生終了位置とを特定してもよい。   The developed moving image reproduced on the display unit 107 and the editing information received from the editing information transmission unit 108 can be associated with each other by an arbitrary method. For example, the playback time (or information specifying one frame in the moving image) when the editing information creation unit 109 receives the editing information is set as the playback end position, and playback is performed using the time difference between the start position information and the end position information. The starting position can be specified. Alternatively, the editing information transmission unit 108 is configured to transmit each time when the designation of the start position and the end position is received, and the editing information creation unit 109 performs playback based on the playback position of the moving image at each reception time. The start position and the reproduction end position may be specified.

S406で、編集情報送信部108は、ユーザから編集処理の終了が指示されたかどうかを判定する。編集処理の終了が指示されていない場合は再度S403からの処理が継続される。S406で編集処理の終了が指示されている場合は、編集処理を終了し、S407で編集情報送信部108が編集終了通知を編集情報作成部109に送信する。
編集情報作成部109は、編集終了通知を受信すると、エディットリストの作成を完了する(S408)。
In step S406, the editing information transmission unit 108 determines whether the user has instructed the end of the editing process. If the end of the editing process is not instructed, the process from S403 is continued again. If the end of the editing process is instructed in S406, the editing process is ended, and the editing information transmitting unit 108 transmits an editing end notification to the editing information creating unit 109 in S407.
Upon receiving the editing end notification, the editing information creation unit 109 completes creation of the edit list (S408).

このように、本実施形態の画像処理装置は、第1の実施形態の画像処理装置と同様の再生処理が可能である上、エディットリストを生成する機能を有するため、ユーザは、取り込んだRAWデータを画像処理装置を用いて編集することができる。   As described above, the image processing apparatus according to the present embodiment can perform reproduction processing similar to that of the image processing apparatus according to the first embodiment and also has a function of generating an edit list. Can be edited using an image processing apparatus.

(第3の実施形態)
次に、本発明の第3の実施形態に係る画像処理装置について説明する。
本実施形態の画像処理装置は、RAWデータの現像処理を行う際に用いるパラメータの決定に、再生装置の環境を考慮することを特徴とする。具体的には、本実施形態においては、表示装置の能力情報を利用して現像パラメータを決定する。これにより、再生装置の能力に応じた特性を有する現像後の動画像データを得ることができる。
(Third embodiment)
Next, an image processing apparatus according to the third embodiment of the present invention will be described.
The image processing apparatus according to the present embodiment is characterized in that the environment of the playback apparatus is taken into consideration in determining parameters used when developing processing of RAW data. Specifically, in the present embodiment, the development parameter is determined using the capability information of the display device. Thereby, it is possible to obtain the developed moving image data having characteristics corresponding to the capability of the reproducing apparatus.

本実施形態の画像処理装置は、表示装置の能力に関する情報を取得可能であれば、表示装置とどのように接続されていてもよい。例えば表示装置とHDMIケーブルなどで直接接続されていてもよいし、画像処理装置から動画像を配信する場合などのように、画像処理装置が表示装置とネットワークなどを介して遠隔的に接続されていてもよい。   The image processing apparatus according to the present embodiment may be connected to the display device in any way as long as information about the capability of the display device can be acquired. For example, the display device may be directly connected to the display device via an HDMI cable, or the image processing device is remotely connected to the display device via a network, such as when moving images are distributed from the image processing device. May be.

表示装置の能力に関する情報(能力情報)としては、例えば、対応している解像度、対応するフレームレート、表現可能な色空間、色深度などがある。   Examples of information (capability information) related to the capability of the display device include a corresponding resolution, a corresponding frame rate, an expressible color space, and a color depth.

図5は、本発明の第3の実施形態に係る画像処理装置の機能構成例を示すブロック図である。図5において、第1の実施形態と同様の構成および動作には同じ参照数字を付し、重複する説明を省略する。   FIG. 5 is a block diagram illustrating a functional configuration example of an image processing apparatus according to the third embodiment of the present invention. In FIG. 5, the same reference numerals are assigned to the same configurations and operations as those in the first embodiment, and duplicate descriptions are omitted.

図5において、画像処理装置100は、表示装置120と接続されている。表示装置120は、表示部107と機器情報送信部110とを有している。本実施形態においては、表示装置120と画像処理装置100とはHDMIケーブルなどにより直接接続されているものとする。   In FIG. 5, the image processing apparatus 100 is connected to a display device 120. The display device 120 includes a display unit 107 and a device information transmission unit 110. In the present embodiment, it is assumed that the display device 120 and the image processing device 100 are directly connected by an HDMI cable or the like.

機器情報送信部110は、表示装置120の能力情報を画像処理装置100の現像方式決定部105に例えば無線又は有線通信により送信する。現像方式決定部105は、機器情報送信部110より送信された能力情報を元に、現像パラメータを決定し、現像部101に通知する。   The device information transmission unit 110 transmits the capability information of the display device 120 to the development method determination unit 105 of the image processing apparatus 100 by, for example, wireless or wired communication. The development method determination unit 105 determines a development parameter based on the capability information transmitted from the device information transmission unit 110 and notifies the development unit 101 of the development parameter.

以下、図6に示すフローチャートを用いて、本実施形態の画像処理装置における現像処理動作について説明する。
まず、機器情報送信部110が、表示装置の能力情報を現像方式決定部105に送信する(S601)。S601で取得した表示装置の能力情報を元に、現像方式決定部105は現像パラメータを決定する(S602)。
Hereinafter, the development processing operation in the image processing apparatus of this embodiment will be described with reference to the flowchart shown in FIG.
First, the device information transmission unit 110 transmits display device capability information to the development method determination unit 105 (S601). Based on the capability information of the display device acquired in S601, the development method determination unit 105 determines a development parameter (S602).

以下、S202〜S205は、第1の実施形態と同様であるため説明を省略する。なお、図5において、本実施形態の画像処理装置100は現像結果格納部106を備えず、現像結果を直接表示装置120に送信し、表示装置120で表示する構成を示している。しかし、第1の実施形態と同様に、現像結果格納部106を設けても良い。そして、現像後の動画像データは、一時保存メモリから表示部107へ出力されるだけでなく、現像結果格納部106へ格納する様にしても良い。   Hereinafter, S202 to S205 are the same as those in the first embodiment, and thus the description thereof is omitted. In FIG. 5, the image processing apparatus 100 of the present embodiment does not include the development result storage unit 106, and shows a configuration in which the development result is directly transmitted to the display device 120 and displayed on the display device 120. However, as in the first embodiment, the development result storage unit 106 may be provided. Then, the developed moving image data may be stored in the development result storage unit 106 as well as being output from the temporary storage memory to the display unit 107.

次に、S602において、現像方式決定部105が表示装置120の能力情報に基づいて決定する現像パラメータの具体例について図7〜図9を用いて具体的に説明する。
図7は、表示装置の能力情報として、表示装置が表現できる色深度(画素当たりの階調数)に応じた現像パラメータの決定について説明する図である。
Next, specific examples of development parameters determined by the development method determination unit 105 based on the capability information of the display device 120 in S602 will be specifically described with reference to FIGS.
FIG. 7 is a diagram illustrating the determination of development parameters according to the color depth (the number of gradations per pixel) that can be expressed by the display device as capability information of the display device.

ここでは、RAWデータは36ビット/画素の色深度を有するものとする。そして、表示装置120の能力情報から、表示装置120が24ビット/画素の再生能力を有する場合(703)には、現像部101における現像パラメータのうち、色深度を24ビット/画素と決定する。同様に、表示装置120が36ビット/画素の再生能力を有する場合(704)には、現像部101における現像パラメータのうち、色深度を36ビット/画素と決定する。   Here, it is assumed that the RAW data has a color depth of 36 bits / pixel. Then, from the capability information of the display device 120, when the display device 120 has a reproduction capability of 24 bits / pixel (703), the color depth of the development parameters in the development unit 101 is determined to be 24 bits / pixel. Similarly, when the display device 120 has a reproduction capability of 36 bits / pixel (704), among the development parameters in the development unit 101, the color depth is determined to be 36 bits / pixel.

これにより、現像部101は、色深度が24ビット/画素の現像結果701と、36ビット/画素の現像結果702とを、表示装置の色再生能力に応じて選択的に生成することができる。そのため、表示装置の色再生能力を活かした画質で、編集後の動画像データを表示することができる。また、表示装置が24ビット/画素の表示能力しかない場合に36ビット/画素の現像を行っても、現像部101の負荷が増加するだけで実効はないため、現像部101の負荷軽減も併せて実現できる。   Accordingly, the developing unit 101 can selectively generate a development result 701 having a color depth of 24 bits / pixel and a development result 702 having a color depth of 36 bits / pixel according to the color reproduction capability of the display device. Therefore, the edited moving image data can be displayed with an image quality utilizing the color reproduction capability of the display device. In addition, when the display device has only a display capability of 24 bits / pixel, even if the development of 36 bits / pixel is performed, the load on the developing unit 101 only increases and is not effective. Can be realized.

図8は、表示装置の能力情報として、表示装置が表示できる最大解像度に応じた現像パラメータの決定について説明する図である。
ここでは、RAWデータの解像度が4096画素×2048画素(アスペクト比2:1)であるとする。そして、表示装置120の能力情報から、表示装置120が表示可能な最大解像度は640画素×480画素(アスペクト比4:3)であるとする(803)。
FIG. 8 is a diagram for explaining the determination of the development parameter according to the maximum resolution that can be displayed by the display device as the capability information of the display device.
Here, it is assumed that the resolution of the RAW data is 4096 pixels × 2048 pixels (aspect ratio 2: 1). Then, from the capability information of the display device 120, the maximum resolution that can be displayed by the display device 120 is assumed to be 640 pixels × 480 pixels (aspect ratio 4: 3) (803).

この場合、現像方式決定部105は、RAWデータの1フレーム中、2730画素×2048画素(アスペクト比4:3)の領域から、640画素×480画素の画像を生成するように現像パラメータを決定する。これにより、現像部101では、アスペクト比を維持しながらスケーリングすることが可能になる。   In this case, the development method determination unit 105 determines development parameters so as to generate an image of 640 pixels × 480 pixels from an area of 2730 pixels × 2048 pixels (aspect ratio 4: 3) in one frame of RAW data. . As a result, the developing unit 101 can perform scaling while maintaining the aspect ratio.

一方、表示装置120の表示可能な最大解像度が1920画素×1080画素(アスペクト比16:9)であるとする(804)。この場合、現像方式決定部105は、RAWデータの1フレーム中、3640画素×2048画素(アスペクト比16:9)の領域から、1920画素×1080画素の画像を生成するように現像パラメータを決定する。   On the other hand, it is assumed that the maximum displayable resolution of the display device 120 is 1920 pixels × 1080 pixels (aspect ratio 16: 9) (804). In this case, the development method determination unit 105 determines development parameters so as to generate an image of 1920 pixels × 1080 pixels from an area of 3640 pixels × 2048 pixels (aspect ratio 16: 9) in one frame of RAW data. .

このように現像パラメータを決定することにより、表示装置のアスペクト比や最大解像度に適した画質で、編集後の動画像データを表示することができる。   By determining the development parameters in this way, the edited moving image data can be displayed with an image quality suitable for the aspect ratio and maximum resolution of the display device.

図9は、表示装置の能力情報として、表示装置が表示できるフレームレート応じた現像パラメータの決定について説明する図である。
ここでは、RAWデータのフレームレートが300fpsであるとする。そして、表示装置120の能力情報から、表示装置が表示可能な最大フレームレートが50fpsであったとする(903)。この場合、現像方式決定部105は、現像部101における現像パラメータのうち、フレームレートを50fpsと決定する。この結果現像部101では、300fpsのRAWデータのフレームレート変換を行い、50fpsの動画像データに対してホワイトバランス処理等の他の現像処理工程を適用する。フレームレート変換処理の具体的な方法としては、6フレームを例えば加算平均するか、いずれか1フレームを代表フレームとして選択するなどを例示することができる。
FIG. 9 is a diagram for explaining the determination of development parameters according to the frame rate that can be displayed by the display device as the capability information of the display device.
Here, it is assumed that the frame rate of RAW data is 300 fps. Then, based on the capability information of the display device 120, it is assumed that the maximum frame rate that can be displayed by the display device is 50 fps (903). In this case, the development method determination unit 105 determines the frame rate as 50 fps among the development parameters in the development unit 101. As a result, the development unit 101 performs frame rate conversion of 300 fps RAW data, and applies other development processing steps such as white balance processing to 50 fps moving image data. As a specific method of the frame rate conversion process, for example, six frames may be averaged, or any one frame may be selected as a representative frame.

また、表示総理の最大表示可能フレームレートが60fpsであった場合(904)、現像方式決定部105は、現像部101における現像パラメータのうち、フレームレートを60fpsと決定する。これにより、現像部101は、RAWデータ5フレームから1フレームを生成するフレームレート変換処理を行い、60fpsの動画像データに対して他の現像処理工程を適用する。   If the maximum displayable frame rate of the display prime is 60 fps (904), the development method determination unit 105 determines the frame rate as 60 fps among the development parameters in the development unit 101. As a result, the developing unit 101 performs frame rate conversion processing for generating one frame from five frames of RAW data, and applies other development processing steps to 60 fps moving image data.

このように現像パラメータを決定することにより、表示装置の表示可能なフレームレートに適した動画像を、高画質で表示することができる。
なお、ここでは説明および理解を容易にするため、能力情報に含まれる項目を独立して取り上げたが、複数の項目を組み合わせて現像パラメータを決定することが可能であることは言うまでもない。また、ここで例示した以外の性能情報を考慮することも可能である。
By determining the development parameters in this manner, a moving image suitable for the frame rate that can be displayed by the display device can be displayed with high image quality.
Here, in order to facilitate explanation and understanding, the items included in the capability information are taken up independently, but it goes without saying that the development parameters can be determined by combining a plurality of items. It is also possible to consider performance information other than those exemplified here.

以上説明したように、本実施形態によれば、RAW画像を現像して編集後の動画像データを生成する際、動画像データを再生(表示)する装置環境、具体的には装置の能力に応じた現像パラメータを決定する。そのため、装置の能力に応じた特性を有する現像後の動画像データを生成することができる。これにより、RAW画像から編集後の画像データを生成することによる画質劣化の抑制に加えて、再生装置の能力を最大限に活かした品質で表示することができる。   As described above, according to the present embodiment, when developing RAW images to generate edited moving image data, the device environment for reproducing (displaying) moving image data, specifically the capability of the device, is used. Corresponding development parameters are determined. Therefore, it is possible to generate post-development moving image data having characteristics according to the capabilities of the apparatus. As a result, in addition to suppressing image quality degradation by generating edited image data from a RAW image, it is possible to display with quality that makes the most of the capabilities of the playback device.

(他の実施形態)
上述の実施形態は、システム或は装置のコンピュータ(或いはCPU、MPU等)によりソフトウェア的に実現することも可能である。例えば、上述したデータ抽出部104、現像部、現像方式決定部105、編集情報作成部109の少なくとも1つは、CPUがソフトウェアを実行することによって実現することができる。
(Other embodiments)
The above-described embodiment can also be realized in software by a computer of a system or apparatus (or CPU, MPU, etc.). For example, at least one of the data extraction unit 104, the development unit, the development method determination unit 105, and the editing information creation unit 109 described above can be realized by the CPU executing software.

従って、上述の実施形態をコンピュータで実現するために、該コンピュータに供給されるコンピュータプログラム自体も本発明を実現するものである。つまり、上述の実施形態の機能を実現するためのコンピュータプログラム自体も本発明の一つである。   Therefore, the computer program itself supplied to the computer in order to implement the above-described embodiment by the computer also realizes the present invention. That is, the computer program itself for realizing the functions of the above-described embodiments is also one aspect of the present invention.

なお、上述の実施形態を実現するためのコンピュータプログラムは、コンピュータで読み取り可能であれば、どのような形態であってもよい。例えば、オブジェクトコード、インタプリタにより実行されるプログラム、OSに供給するスクリプトデータ等で構成することができるが、これらに限るものではない。   The computer program for realizing the above-described embodiment may be in any form as long as it can be read by a computer. For example, it can be composed of object code, a program executed by an interpreter, script data supplied to the OS, but is not limited thereto.

上述の実施形態を実現するためのコンピュータプログラムは、記憶媒体又は有線/無線通信によりコンピュータに供給される。プログラムを供給するための記憶媒体としては、例えば、フレキシブルディスク、ハードディスク、磁気テープ等の磁気記憶媒体、MO、CD、DVD等の光/光磁気記憶媒体、不揮発性の半導体メモリなどがある。   A computer program for realizing the above-described embodiment is supplied to a computer via a storage medium or wired / wireless communication. Examples of the storage medium for supplying the program include a magnetic storage medium such as a flexible disk, a hard disk, and a magnetic tape, an optical / magneto-optical storage medium such as an MO, CD, and DVD, and a nonvolatile semiconductor memory.

有線/無線通信を用いたコンピュータプログラムの供給方法としては、コンピュータネットワーク上のサーバを利用する方法がある。この場合、本発明を形成するコンピュータプログラムとなりうるデータファイル(プログラムファイル)をサーバに記憶しておく。プログラムファイルとしては、実行形式のものであっても、ソースコードであっても良い。   As a computer program supply method using wired / wireless communication, there is a method of using a server on a computer network. In this case, a data file (program file) that can be a computer program forming the present invention is stored in the server. The program file may be an executable format or a source code.

そして、このサーバにアクセスしたクライアントコンピュータに、プログラムファイルをダウンロードすることによって供給する。この場合、プログラムファイルを複数のセグメントファイルに分割し、セグメントファイルを異なるサーバに分散して配置することも可能である。
つまり、上述の実施形態を実現するためのプログラムファイルをクライアントコンピュータに提供するサーバ装置も本発明の一つである。
Then, the program file is supplied by downloading to a client computer that has accessed the server. In this case, the program file can be divided into a plurality of segment files, and the segment files can be distributed and arranged on different servers.
That is, a server apparatus that provides a client computer with a program file for realizing the above-described embodiment is also one aspect of the present invention.

また、上述の実施形態を実現するためのコンピュータプログラムを暗号化して格納した記憶媒体を配布し、所定の条件を満たしたユーザに、暗号化を解く鍵情報を供給し、ユーザの有するコンピュータへのインストールを許可してもよい。鍵情報は、例えばインターネットを介してホームページからダウンロードさせることによって供給することができる。   In addition, a storage medium in which the computer program for realizing the above-described embodiment is encrypted and distributed is distributed, and key information for decrypting is supplied to a user who satisfies a predetermined condition, and the user's computer Installation may be allowed. The key information can be supplied by being downloaded from a homepage via the Internet, for example.

また、上述の実施形態を実現するためのコンピュータプログラムは、すでにコンピュータ上で稼働するOSの機能を利用するものであってもよい。
さらに、上述の実施形態を実現するためのコンピュータプログラムは、その一部をコンピュータに装着される拡張ボード等のファームウェアで構成してもよいし、拡張ボード等が備えるCPUで実行するようにしてもよい。
Further, the computer program for realizing the above-described embodiment may use an OS function already running on the computer.
Further, a part of the computer program for realizing the above-described embodiment may be configured by firmware such as an expansion board attached to the computer, or may be executed by a CPU provided in the expansion board. Good.

本発明の第1の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on the 1st Embodiment of this invention. 本発明の第1の実施形態に係る画像処理装置における現像処理動作を説明するフローチャートである。3 is a flowchart illustrating a developing operation in the image processing apparatus according to the first embodiment of the present invention. 本発明の第2の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on the 2nd Embodiment of this invention. 本発明の第2の実施形態に係る画像処理装置におけるエディットリスト作成処理動作について説明するフローチャートである。It is a flowchart explaining the edit list creation processing operation in the image processing apparatus according to the second embodiment of the present invention. 本発明の第3の実施形態に係る画像処理装置の機能構成例を示すブロック図である。It is a block diagram which shows the function structural example of the image processing apparatus which concerns on the 3rd Embodiment of this invention. 本発明の第3の実施形態に係る画像処理装置における現像処理動作について説明するフローチャートである。10 is a flowchart illustrating a development processing operation in an image processing apparatus according to a third embodiment of the present invention. 本発明の第3の実施形態に係る画像処理装置における現像パラメータの決定例を説明する図である。It is a figure explaining the example of determination of the development parameter in the image processing device concerning a 3rd embodiment of the present invention. 本発明の第3の実施形態に係る画像処理装置における現像パラメータの別の決定例を説明する図である。It is a figure explaining another example of determination of the development parameter in the image processing device concerning a 3rd embodiment of the present invention. 本発明の第3の実施形態に係る画像処理装置における現像パラメータのさらに別の決定例を説明する図である。It is a figure explaining another example of determination of a development parameter in an image processing device concerning a 3rd embodiment of the present invention. RAWデータと、現像され圧縮された画像の一例としてのJPEG画像との特徴を比較した図である。It is the figure which compared the characteristic of RAW data and the JPEG image as an example of the image developed and compressed.

Claims (6)

予め定められたフレームレートで撮像されたRAWデータを格納するRAWデータ格納手段と、
前記RAWデータの再生区間を指定する編集情報を格納する編集情報格納手段と、
前記編集情報格納手段から編集情報を取得し、取得した前記編集情報で指定された再生区間に対応するRAWデータを前記RAWデータ格納手段から抽出する抽出手段と、
前記抽出手段が抽出したRAWデータに対して現像処理を適用し、編集後の動画像データとして出力する現像手段と、
を有することを特徴とする画像処理装置。
RAW data storage means for storing RAW data imaged at a predetermined frame rate;
Editing information storage means for storing editing information for designating the playback section of the RAW data;
Extraction means for acquiring editing information from the editing information storage means, and extracting RAW data corresponding to the playback section specified by the acquired editing information from the RAW data storage means;
A development unit that applies development processing to the RAW data extracted by the extraction unit and outputs the edited moving image data;
An image processing apparatus comprising:
前記抽出手段が前記RAWデータ格納手段から編集対象のRAWデータの全体を抽出し、前記現像手段が前記編集対象のRAWデータに対して現像処理を適用して、外部の表示装置に出力している状態において、前記出力している動画像に対する再生区間の開始位置および終了位置の指定を受信する受信手段と、
前記受信手段が受信した開始位置および終了位置から、前記編集情報を作成し、前記編集情報格納手段に格納する作成手段とをさらに有することを特徴とする請求項1記載の画像処理装置。
The extraction unit extracts the entire RAW data to be edited from the RAW data storage unit, and the developing unit applies a development process to the RAW data to be edited and outputs it to an external display device. Receiving means for receiving designation of the start position and end position of the playback section for the moving image being output in the state;
The image processing apparatus according to claim 1, further comprising: a creation unit that creates the editing information from the start position and the end position received by the receiving unit and stores the edited information in the editing information storage unit.
外部の表示装置の能力情報を取得する取得手段と、
前記能力情報に基づいて、前記表示装置に応じた特性を有する動画像データが生成されるよう、前記現像処理に用いる現像パラメータを決定する決定手段とをさらに有し、
前記現像手段が、前記決定手段が決定した現像パラメータを用いた前記現像処理を前記抽出手段が抽出したRAWデータに対して適用することを特徴とする請求項1記載の画像処理装置。
Acquisition means for acquiring capability information of an external display device;
Determining means for determining development parameters used for the development processing so that moving image data having characteristics according to the display device is generated based on the capability information;
The image processing apparatus according to claim 1, wherein the developing unit applies the developing process using the developing parameter determined by the determining unit to the RAW data extracted by the extracting unit.
前記決定手段が、解像度、色深度およびフレームレートの少なくとも1つを含む現像パラメータを決定することを特徴とする請求項3記載の画像処理装置。   The image processing apparatus according to claim 3, wherein the determination unit determines a development parameter including at least one of resolution, color depth, and frame rate. 予め定められたフレームレートで撮像されたRAWデータを格納するRAWデータ格納手段と、前記RAWデータの再生区間を指定する編集情報を格納する編集情報格納手段とを有する画像処理装置の制御方法であって、
前記編集情報格納手段から編集情報を取得し、取得した前記編集情報で指定された再生区間に対応するRAWデータを前記RAWデータ格納手段から抽出する抽出ステップと、
前記抽出ステップで抽出されたRAWデータに対して現像処理を適用し、編集後の動画像データとして出力する現像ステップと、
を有することを特徴とする画像処理装置の制御方法。
A control method for an image processing apparatus, comprising: RAW data storage means for storing RAW data imaged at a predetermined frame rate; and edit information storage means for storing edit information for designating a playback section of the RAW data. And
An extraction step of acquiring editing information from the editing information storage means, and extracting RAW data corresponding to the playback section specified by the acquired editing information from the RAW data storage means;
A development step of applying development processing to the RAW data extracted in the extraction step and outputting as edited moving image data;
A control method for an image processing apparatus, comprising:
コンピュータを、請求項1乃至請求項4のいずれか1項に記載の画像処理装置の各手段として機能させるためのプログラム。   The program for functioning a computer as each means of the image processing apparatus of any one of Claims 1 thru | or 4.
JP2008004960A 2008-01-11 2008-01-11 Image processing apparatus and control method thereof Expired - Fee Related JP5025498B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2008004960A JP5025498B2 (en) 2008-01-11 2008-01-11 Image processing apparatus and control method thereof

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2008004960A JP5025498B2 (en) 2008-01-11 2008-01-11 Image processing apparatus and control method thereof

Related Child Applications (1)

Application Number Title Priority Date Filing Date
JP2012134195A Division JP2012231488A (en) 2012-06-13 2012-06-13 Image processing device and control method therefor

Publications (3)

Publication Number Publication Date
JP2009171060A true JP2009171060A (en) 2009-07-30
JP2009171060A5 JP2009171060A5 (en) 2011-02-03
JP5025498B2 JP5025498B2 (en) 2012-09-12

Family

ID=40971794

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2008004960A Expired - Fee Related JP5025498B2 (en) 2008-01-11 2008-01-11 Image processing apparatus and control method thereof

Country Status (1)

Country Link
JP (1) JP5025498B2 (en)

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011055471A (en) * 2009-08-07 2011-03-17 Canon Inc Imaging apparatus and information processing apparatus
JP2011139270A (en) * 2009-12-28 2011-07-14 Canon Inc Imaging apparatus and program
JP2011233986A (en) * 2010-04-23 2011-11-17 Canon Inc Image processing apparatus and control method thereof
JP2011244423A (en) * 2010-04-23 2011-12-01 Canon Inc Image processing system and control method for the same
JP2012032518A (en) * 2010-07-29 2012-02-16 Canon Inc Image processing device, image processing system, and method for controlling image processing device
JP2015179909A (en) * 2014-03-18 2015-10-08 キヤノン株式会社 Imaging apparatus and control method of the same
JP2018046429A (en) * 2016-09-15 2018-03-22 キヤノン株式会社 Image processing apparatus and image processing method

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2011055471A (en) * 2009-08-07 2011-03-17 Canon Inc Imaging apparatus and information processing apparatus
JP2011139270A (en) * 2009-12-28 2011-07-14 Canon Inc Imaging apparatus and program
JP2011233986A (en) * 2010-04-23 2011-11-17 Canon Inc Image processing apparatus and control method thereof
JP2011244423A (en) * 2010-04-23 2011-12-01 Canon Inc Image processing system and control method for the same
JP2012032518A (en) * 2010-07-29 2012-02-16 Canon Inc Image processing device, image processing system, and method for controlling image processing device
JP2015179909A (en) * 2014-03-18 2015-10-08 キヤノン株式会社 Imaging apparatus and control method of the same
JP2018046429A (en) * 2016-09-15 2018-03-22 キヤノン株式会社 Image processing apparatus and image processing method

Also Published As

Publication number Publication date
JP5025498B2 (en) 2012-09-12

Similar Documents

Publication Publication Date Title
JP4831017B2 (en) Image processing apparatus, developing apparatus, image processing method, developing method, image processing program, and developing program
JP5025498B2 (en) Image processing apparatus and control method thereof
JP6373056B2 (en) IMAGING DEVICE, IMAGING DEVICE CONTROL METHOD, AND IMAGE PROCESSING METHOD
EP2974265B1 (en) Imaging apparatus and imaging apparatus control method
JPWO2018021261A1 (en) Image processing apparatus, reproduction apparatus, image processing method, and reproduction method
JP4794911B2 (en) Image processing device
CN105144700A (en) Image processing apparatus and image processing method
US20150036020A1 (en) Method for sharing original photos along with final processed image
US20090244305A1 (en) Video Recording System and Imaging Apparatus
JP6049425B2 (en) Imaging apparatus, image processing apparatus, and control method
US9565360B2 (en) Image data recording apparatus capable of recording still and moving images simultaneously
US20110206348A1 (en) Content providing apparatus and processing method of content providing apparatus
CN110557532B (en) Imaging apparatus, client apparatus, and control method
US9936173B2 (en) Method for processing image and apparatus thereof
WO2018021261A1 (en) Image processing device, reproduction device, image processing method, and reproduction method
JP4921326B2 (en) Image processing apparatus and control method thereof
JP2012231488A (en) Image processing device and control method therefor
JP5407651B2 (en) Image processing apparatus and image processing program
JP4804161B2 (en) Image processing apparatus, image processing system, and control method for image processing apparatus
US8692898B2 (en) Image capture apparatus for encrypting image data using a first encryption method or a second encryption method based on an instruction
JP2007208931A (en) Encryption method of digital data, data transmission method and device, data receiver, data communication system, and imaging apparatus
KR101480407B1 (en) Digital image processing apparatus, method for controlling the same and medium of recording the method
US9967408B2 (en) Information setting apparatus, information management apparatus, information generation apparatus, and method and program for controlling the same
JP6282136B2 (en) Imaging apparatus and control method thereof
JP4198099B2 (en) Movie recording / playback device

Legal Events

Date Code Title Description
A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20101215

A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20101215

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20111207

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20120110

A521 Request for written amendment filed

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20120308

TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20120521

A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20120619

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20150629

Year of fee payment: 3

R151 Written notification of patent or utility model registration

Ref document number: 5025498

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R151

LAPS Cancellation because of no payment of annual fees