JP2011103548A - Electronic camera - Google Patents

Electronic camera Download PDF

Info

Publication number
JP2011103548A
JP2011103548A JP2009257285A JP2009257285A JP2011103548A JP 2011103548 A JP2011103548 A JP 2011103548A JP 2009257285 A JP2009257285 A JP 2009257285A JP 2009257285 A JP2009257285 A JP 2009257285A JP 2011103548 A JP2011103548 A JP 2011103548A
Authority
JP
Japan
Prior art keywords
image
unit
shooting
electronic camera
information
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009257285A
Other languages
Japanese (ja)
Inventor
Tetsuo Noguchi
哲郎 野口
Toshihiro Moriiwa
俊博 森岩
Kazuhiro Watada
和浩 綿田
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Panasonic Corp
Original Assignee
Panasonic Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Panasonic Corp filed Critical Panasonic Corp
Priority to JP2009257285A priority Critical patent/JP2011103548A/en
Priority to PCT/JP2010/003176 priority patent/WO2011058675A1/en
Publication of JP2011103548A publication Critical patent/JP2011103548A/en
Pending legal-status Critical Current

Links

Images

Classifications

    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/60Control of cameras or camera modules
    • H04N23/64Computer-aided capture of images, e.g. transfer from script file into camera, check of taken image quality, advice or proposal for image composition or decision on when to take image
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B17/00Details of cameras or camera bodies; Accessories therefor
    • G03B17/18Signals indicating condition of a camera member or suitability of light
    • G03B17/20Signals indicating condition of a camera member or suitability of light visible in viewfinder
    • GPHYSICS
    • G03PHOTOGRAPHY; CINEMATOGRAPHY; ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ELECTROGRAPHY; HOLOGRAPHY
    • G03BAPPARATUS OR ARRANGEMENTS FOR TAKING PHOTOGRAPHS OR FOR PROJECTING OR VIEWING THEM; APPARATUS OR ARRANGEMENTS EMPLOYING ANALOGOUS TECHNIQUES USING WAVES OTHER THAN OPTICAL WAVES; ACCESSORIES THEREFOR
    • G03B7/00Control of exposure by setting shutters, diaphragms or filters, separately or conjointly
    • G03B7/08Control effected solely on the basis of the response, to the intensity of the light received by the camera, of a built-in light-sensitive device
    • G03B7/091Digital circuits
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N23/00Cameras or camera modules comprising electronic image sensors; Control thereof
    • H04N23/70Circuitry for compensating brightness variation in the scene
    • H04N23/72Combination of two or more compensation controls
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N5/00Details of television systems
    • H04N5/76Television signal recording
    • H04N5/765Interface circuits between an apparatus for recording and another apparatus
    • H04N5/77Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera
    • H04N5/772Interface circuits between an apparatus for recording and another apparatus between a recording apparatus and a television camera the recording apparatus and the television camera being placed in the same enclosure
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N1/00Scanning, transmission or reproduction of documents or the like, e.g. facsimile transmission; Details thereof
    • H04N1/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N1/32101Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N1/32128Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title attached to the image data, e.g. file header, transmitted message header, information on the same page or in the same computer file as the image
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2101/00Still video cameras
    • HELECTRICITY
    • H04ELECTRIC COMMUNICATION TECHNIQUE
    • H04NPICTORIAL COMMUNICATION, e.g. TELEVISION
    • H04N2201/00Indexing scheme relating to scanning, transmission or reproduction of documents or the like, and to details thereof
    • H04N2201/32Circuits or arrangements for control or supervision between transmitter and receiver or between image input and image output device, e.g. between a still-image camera and its memory or between a still-image camera and a printer device
    • H04N2201/3201Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title
    • H04N2201/3225Display, printing, storage or transmission of additional information, e.g. ID code, date and time or title of data relating to an image, a page or a document
    • H04N2201/3252Image capture parameters, e.g. resolution, illumination conditions, orientation of the image capture device

Landscapes

  • Engineering & Computer Science (AREA)
  • Multimedia (AREA)
  • Signal Processing (AREA)
  • Physics & Mathematics (AREA)
  • General Physics & Mathematics (AREA)
  • Studio Devices (AREA)
  • Exposure Control For Cameras (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To provide an electronic camera allowing a user to easily image a desired image without adjusting a setting parameter of the camera. <P>SOLUTION: The electronic camera 100 receives sample image data designated in advance by a user, or image data (based on the reference of the user) imaged by an image capturing part 104 to extract feature information therefrom. A feature extraction part 106 extracts two pieces of information such as feature information obtained by extracting setting data in imaging from an Exif part of the image data, and feature information obtained by extracting information such as a contour feature, hue feature, or arrangement by analyzing the image data. An imaging parameter setting part 107 creates an imaging parameter for setting an imaging condition based on the feature information extracted by the feature extraction part 106. An image capturing part 104 performs imaging by using the imaging parameter created by the imaging parameter setting part 107. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、電子カメラに関する。   The present invention relates to an electronic camera.

動画や静止画を記録するデジタルビデオカメラや電子カメラは、画像データの圧縮技術の向上や記録メディアの大容量化などにともない、一般ユーザが用いるビデオカメラや電子カメラでも高画質化が急速に進んできている。一般のユーザの撮影の際にも、プロの写真家が用いる機材と同様の効果を持たせることが可能となってきている。しかし、一般のユーザは、撮影に関する知識が少ないためビデオカメラや電子カメラなどの撮影パラメータの設定をプロフェッショナル写真家のように使いこなすことは難しい。そのため、撮影パラメータの設定に関しては、一般のユーザでもよりよい撮影を行えるようにするために、カメラ内部に様々なシーンにおける標準的な撮影パラメータの設定値を保持させておき、その中から最適なものをユーザに選択させるという方式がある。また、オートフォーカス機能などの自動設定を用いる方式が一般的になっている。   Digital video cameras and electronic cameras that record moving images and still images have rapidly improved in image quality even with video cameras and electronic cameras used by general users, as image data compression technology and recording media increase in capacity. is made of. Even when shooting by a general user, it has become possible to have the same effects as equipment used by professional photographers. However, since general users have little knowledge about shooting, it is difficult to use shooting parameters such as a video camera and an electronic camera like a professional photographer. Therefore, with regard to the setting of shooting parameters, in order to enable even ordinary users to perform better shooting, the standard shooting parameter setting values for various scenes are held inside the camera, and the optimal setting is selected from these. There is a method of letting a user select a thing. Further, a method using an automatic setting such as an autofocus function has become common.

特許文献1には、コンピュータ画像処理を使用して、カメラの画像獲得装置のためのパラメータを設定するシステムが記載されている。特許文献1記載のシステムは、熟練した写真家がするように、撮影されるべき画像を解析し、主題に従って制御を設定することによって、撮像パラメータを自動的に設定する。この場合、最良の撮像パラメータを選択する完全自動モードで作動するか、多数の代替設定が妥当である場合に、ユーザが選択候補をプロンプトされる「案内モード」で作動する。   Patent Document 1 describes a system for setting parameters for an image acquisition device of a camera using computer image processing. The system described in Patent Document 1 automatically sets imaging parameters by analyzing an image to be taken and setting controls according to the subject, as an experienced photographer does. In this case, it operates in a fully automatic mode in which the best imaging parameters are selected, or in a “guide mode” in which the user is prompted for selection candidates when a number of alternative settings are appropriate.

特許文献2には、電子カメラに撮影状況やシーン別の撮影条件を記憶させておき、ユーザが撮影しようとしているシーンを選択すると、そのシーンに合った撮影条件を設定する撮影補助システムが記載されている。   Patent Document 2 describes a shooting assistance system that stores shooting conditions and shooting conditions for each scene in an electronic camera, and sets a shooting condition suitable for the scene when the user selects a scene to be shot. ing.

特開2002−10135号公報JP 2002-10135 A 特開2000−115686号公報JP 2000-115686 A

上述したように、電子カメラでの撮影では、カメラの知識を持たない一般のユーザは、シーン別選択機能を用いての撮影やオート機能での撮影が主であるため、撮影された画像は、いつも同じような画像となってしまうことがある。また、意図せずにフラッシュや露出調整が行われて、予想とは違う画像となる場合が多い。例えば、背景がうまく取れていない、もしくは被写体が暗く写っている等である。イメージどおりの撮影をする場合には、何度も撮影をして確認するなどの手間がかかり、面倒である。   As described above, when shooting with an electronic camera, a general user who does not have knowledge of the camera is mainly shooting with a scene-specific selection function or shooting with an auto function. The image may always be similar. In many cases, flash and exposure adjustments are performed unintentionally, resulting in an image that is not expected. For example, the background is not well taken out or the subject appears dark. When shooting according to the image, it takes time and effort to take and check many times, and is troublesome.

特許文献1記載のシステムは、情景解析ユニット及び写真エキスパートにより、周辺状況に応じた最適撮像設定(ユーザによる設定変更可能)を提供している。この最適撮像設定は、ユーザによる設定変更可能である。しかしながら、最終的な撮像結果をユーザが好みに合わない場合、ユーザによる設定変更を実施し、再度撮影する必要がある。ユーザは、気に入った設定をチューニングするため何度も撮影が必要である。   The system described in Patent Document 1 provides optimum imaging settings (settings can be changed by the user) according to the surrounding situation by a scene analysis unit and a photograph expert. This optimum imaging setting can be changed by the user. However, when the final imaging result does not suit the user's preference, it is necessary to change the setting by the user and take a picture again. The user needs to shoot many times to tune the settings he likes.

特許文献2記載の装置は、カメラに設定されている撮影パラメータ情報は、各シーンについて汎用的な設定情報であり、この設定パラメータを用いて、ユーザが好む写真の撮影が必ずしもできるとは限らない。設定パラメータが汎用的であり、かつカメラの機種による性能や機能の違いなどは反映されないので、同じ撮影パラメータ情報を用いて撮影を行ってもカメラなどが違えば撮影した画像は異なったものとなり、出来栄えにバラツキが生じることが予想される。   In the apparatus described in Patent Document 2, the shooting parameter information set in the camera is general-purpose setting information for each scene, and it is not always possible to take a photograph that the user likes using this setting parameter. . Since the setting parameters are general and differences in performance and functions depending on the camera model are not reflected, even if you shoot using the same shooting parameter information, if the camera etc. are different, the shot image will be different, It is expected that the performance will vary.

本発明は、かかる点に鑑みてなされたものであり、ユーザがカメラの設定パラメータを調整することなく、好みの画像を容易に撮影することができる電子カメラを提供することを目的とする。   The present invention has been made in view of this point, and an object of the present invention is to provide an electronic camera that allows a user to easily take a favorite image without adjusting setting parameters of the camera.

本発明の電子カメラは、撮影手段と、前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段とを備え、前記撮影手段は、前記撮影パラメータ設定手段により作成された撮影パラメータを用いて撮影を行う構成を採る。   The electronic camera of the present invention is based on the image capturing unit, the image data captured by the image capturing unit, or the feature extraction unit that extracts image feature information from the sample image data designated in advance by the user, and the extracted feature information. A shooting parameter setting unit that creates shooting parameters for setting shooting conditions, and the shooting unit performs shooting using the shooting parameters created by the shooting parameter setting unit.

本発明の電子カメラは、撮影手段と、ネットワーク上のサーバとの間でデータを送受信する通信手段とを備える電子カメラであって、前記サーバは、前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段と、作成した撮影パラメータを前記ネットワーク上に送信する送信手段とを備え、前記通信手段は、前記ネットワーク上に送信された撮影パラメータを受信し、前記撮影手段は、受信した撮影パラメータを用いて撮影を行う構成を採る。   The electronic camera according to the present invention is an electronic camera including a photographing unit and a communication unit that transmits and receives data to and from a server on a network. The server includes image data photographed by the photographing unit or a user. Feature extraction means for extracting image feature information from sample image data designated in advance, shooting parameter setting means for creating shooting parameters for setting shooting conditions based on the extracted feature information, and created shooting parameters A transmission unit configured to transmit on the network, wherein the communication unit receives imaging parameters transmitted over the network, and the imaging unit performs imaging using the received imaging parameters.

本発明によれば、カメラの知識を持たない一般のユーザでも、カメラのパラメータを自分で調整することなく、プロの写真家が撮影したような、ユーザが好む画像を容易に撮影することができる。   According to the present invention, even a general user who does not have knowledge of a camera can easily shoot an image preferred by the user, such as a photograph taken by a professional photographer, without adjusting the camera parameters himself. .

本発明の実施の形態1に係る電子カメラの構成を示すブロック図1 is a block diagram showing a configuration of an electronic camera according to Embodiment 1 of the present invention. 上記実施の形態1に係る電子カメラの特徴抽出部の特徴情報の抽出処理を示すフロー図The flowchart which shows the extraction process of the feature information of the feature extraction part of the electronic camera which concerns on the said Embodiment 1 上記実施の形態1に係る電子カメラの切り出し処理の手法の一例を示す図The figure which shows an example of the method of the cutting-out process of the electronic camera which concerns on the said Embodiment 1. 上記実施の形態1に係る電子カメラの輪郭特徴抽出の一例を示す図The figure which shows an example of the outline feature extraction of the electronic camera which concerns on the said Embodiment 1. 上記実施の形態1に係る電子カメラの色彩特徴抽出の一例を示す図The figure which shows an example of the color feature extraction of the electronic camera which concerns on the said Embodiment 1. 上記実施の形態1に係る電子カメラの位置情報抽出の一例を示す図The figure which shows an example of the positional information extraction of the electronic camera which concerns on the said Embodiment 1. 上記実施の形態1に係る電子カメラの撮影パラメータ設定部の撮影パラメータ設定処理を示すフロー図FIG. 9 is a flowchart showing shooting parameter setting processing of the shooting parameter setting unit of the electronic camera according to the first embodiment. 上記実施の形態1に係る電子カメラの画像撮影部の処理を示すフロー図The flowchart which shows the process of the image imaging part of the electronic camera which concerns on the said Embodiment 1. FIG. 上記実施の形態1に係る電子カメラの類似度判定部の処理を示すフロー図The flowchart which shows the process of the similarity determination part of the electronic camera which concerns on the said Embodiment 1. 上記実施の形態1に係る電子カメラの画像データの表示例を示す図The figure which shows the example of a display of the image data of the electronic camera which concerns on the said Embodiment 1. FIG. 本発明の実施の形態2に係る電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera which concerns on Embodiment 2 of this invention. 本発明の実施の形態3に係る電子カメラの構成を示すブロック図The block diagram which shows the structure of the electronic camera which concerns on Embodiment 3 of this invention.

以下、本発明の実施の形態について図面を参照して詳細に説明する。   Hereinafter, embodiments of the present invention will be described in detail with reference to the drawings.

(実施の形態1)
図1は、本発明の実施の形態1に係る電子カメラの構成を示すブロック図である。本実施の形態の電子カメラは、動画や静止画を記録するデジタルビデオカメラや電子カメラに適用することができる。
(Embodiment 1)
FIG. 1 is a block diagram showing the configuration of the electronic camera according to Embodiment 1 of the present invention. The electronic camera of this embodiment can be applied to a digital video camera or an electronic camera that records a moving image or a still image.

図1に示すように、電子カメラ100は、撮像光学系101、イメージセンサ102、信号処理部103、画像撮影部104、外部インターフェース(I/F)105、特徴抽出部106、撮影パラメータ設定部107、データ記憶部108、類似度判定部109、画像選択部110、及び画像表示部111を備える。   As shown in FIG. 1, an electronic camera 100 includes an imaging optical system 101, an image sensor 102, a signal processing unit 103, an image photographing unit 104, an external interface (I / F) 105, a feature extracting unit 106, and a photographing parameter setting unit 107. A data storage unit 108, a similarity determination unit 109, an image selection unit 110, and an image display unit 111.

撮像光学系101は、合焦状態調節のために光軸に沿って移動するフォーカスレンズ、被写体の光学的な像を変倍するため光軸に沿って移動するズームレンズといった複数枚のレンズから構成され、被写体像をイメージセンサ102上に結像させる。   The imaging optical system 101 includes a plurality of lenses such as a focus lens that moves along the optical axis for adjusting the in-focus state and a zoom lens that moves along the optical axis to change the optical image of the subject. Then, the subject image is formed on the image sensor 102.

イメージセンサ102は、撮像光学系101により結像された被写対象を電気信号(映像信号)に変換する。例えば、イメージセンサ102は、CCD(Charge Coupled Device)又はCMOS(Complementary Metal Oxide Semiconductor)等である。   The image sensor 102 converts a subject to be imaged by the imaging optical system 101 into an electric signal (video signal). For example, the image sensor 102 is a charge coupled device (CCD) or a complementary metal oxide semiconductor (CMOS).

信号処理部103は、イメージセンサ102から出力される映像信号に対して、ゲイン調整やノイズ除去、ガンマ補正、アパーチャ処理、ニー処理等の周知の映像信号処理を施し、RGB形式の映像信号に変換する。さらに、信号処理部103は、生成したRGB形式の信号を、Y/C形式の映像信号に変換する。   The signal processing unit 103 performs well-known video signal processing such as gain adjustment, noise removal, gamma correction, aperture processing, and knee processing on the video signal output from the image sensor 102, and converts the video signal into an RGB format video signal. To do. Further, the signal processing unit 103 converts the generated RGB format signal into a Y / C format video signal.

画像撮影部104は、撮影した画像データを特徴抽出部106とデータ記憶部108に出力する。ユーザは、画像撮影の際には撮影パラメータ設定部107で作成された撮影パラメータを利用して撮影を行う。撮影パラメータ情報には、各種撮影パラメータ、例えば、露出、シャッター速度、補助光、画角、撮影モード(接写、夜景、花火、セピア、モノクロ等)、ホワイトバランスなどと、画像表示部111にメッセージを示すテキストデータなどが含まれる。   The image capturing unit 104 outputs the captured image data to the feature extraction unit 106 and the data storage unit 108. When shooting an image, the user performs shooting using the shooting parameters created by the shooting parameter setting unit 107. The shooting parameter information includes various shooting parameters such as exposure, shutter speed, auxiliary light, angle of view, shooting mode (close-up, night view, fireworks, sepia, monochrome, etc.), white balance, etc., and a message to the image display unit 111. The text data to be shown is included.

画像撮影部104は、上記撮影パラメータを撮像光学系101やイメージセンサ102、信号処理部103に反映させて画像の撮影を行う。画像撮影部104は、連続で複数枚撮影する撮影が可能である。   The image capturing unit 104 captures an image by reflecting the imaging parameters on the imaging optical system 101, the image sensor 102, and the signal processing unit 103. The image capturing unit 104 can capture a plurality of images continuously.

画像撮影部104は、メッセージを再生出力する音声・映像再生部104aと、撮影位置の移動やズーム調整などをユーザに指示するためのメッセージを記憶するメモリ104bとをさらに有する。この場合、上記撮像パラメータ情報には、音声・映像再生部104aで再生可能な音声又は映像データ、及び、メモリ104bに記憶されたメッセージを指示する情報が含まれる。   The image photographing unit 104 further includes an audio / video reproducing unit 104a that reproduces and outputs a message, and a memory 104b that stores a message for instructing the user to move the photographing position and adjust the zoom. In this case, the imaging parameter information includes audio or video data that can be reproduced by the audio / video reproduction unit 104a, and information that indicates a message stored in the memory 104b.

外部I/F105は、サンプル画像データを入力する入力ポートである。   The external I / F 105 is an input port for inputting sample image data.

特徴抽出部106は、外部I/F105により入力されたサンプル画像データ、又は画像撮影部104によって撮影された画像データを取り込んで特徴情報を抽出する。特徴抽出部106は、画像データのExif(Exchangeable Image File Format)部分から撮影時の設定データを抽出した特徴情報と、画像データを分析し輪郭特徴、色彩特徴、配置などの情報を抽出した特徴情報の2つの情報を抽出する。画像の特徴としては、撮影内容(風景、人物、マクロ)、撮影状況(日中、夕景、夜景)、構図(近景、遠景、ポートレート、集合、配置)などが含まれる。また、特徴抽出部106は、撮像条件(露出、シャッター速度、補助光、画角、撮影モード(モノクロ等)、ホワイトバランス)などの情報を用いる。   The feature extraction unit 106 takes in sample image data input by the external I / F 105 or image data captured by the image capturing unit 104 and extracts feature information. The feature extraction unit 106 extracts feature information obtained by extracting setting data at the time of shooting from the Exif (Exchangeable Image File Format) portion of the image data, and feature information obtained by analyzing the image data and extracting information such as contour features, color features, and arrangements. Are extracted. Image characteristics include shooting content (landscape, person, macro), shooting situation (daytime, sunset, night view), composition (near view, distant view, portrait, set, arrangement), and the like. The feature extraction unit 106 uses information such as imaging conditions (exposure, shutter speed, auxiliary light, angle of view, shooting mode (monochrome, etc.), white balance).

輪郭特徴や色彩特徴の抽出については、例えば特徴量の抽出技術として一般的なエッジ抽出やヒストグラム情報の抽出を用いる。   For the extraction of contour features and color features, for example, general edge extraction or histogram information extraction is used as a feature quantity extraction technique.

エッジ抽出とは、画像の明るさの変化によりオブジェクトの輪郭を算出する特徴抽出手法である。画像内の明るさが急激に変化する場所がオブジェクトの領域の境界、つまり輪郭となるため、その輪郭を微分演算を利用し算出する。抽出した輪郭情報からは、撮影内容や構図を類推することが可能である。また、ヒストグラム情報の抽出とは、画像の明暗の傾向データ分布を抽出して取得する特徴抽出であり、この情報から作者の撮影状況や意図を類推することが可能である。   Edge extraction is a feature extraction method that calculates the contour of an object based on changes in the brightness of an image. Since the place where the brightness in the image changes abruptly becomes the boundary of the object region, that is, the contour, the contour is calculated using a differential operation. From the extracted contour information, it is possible to infer the photographing content and composition. Further, the extraction of histogram information is feature extraction that is obtained by extracting a trend data distribution of light and darkness of an image, and it is possible to analogize the shooting situation and intention of the author from this information.

上述した輪郭特徴や色彩特徴の抽出方法は、例示であり、上記以外の抽出方法を採用してもよい。   The above-described methods for extracting contour features and color features are merely examples, and extraction methods other than those described above may be employed.

撮影パラメータ設定部107は、撮影条件を設定するために使用する各種パラメータの設定各種パラメータの抽出と設定を行う。撮影パラメータ設定部107は、特徴抽出部106からの特徴情報を基に、パラメータの抽出を行う。具体的には、撮影パラメータ設定部107は、特徴抽出部106の情報から抽出した、シャッター速度、絞り値、露出時間、焦点距離、ホワイトバランス、画角のパラメータのうち少なくともいずれか1つからパラメータを設定する。撮影パラメータ設定部107は、設定したパラメータを画像撮影部104に設定するとともにデータ記憶部108に記憶する。   The shooting parameter setting unit 107 sets various parameters used for setting shooting conditions, and extracts and sets various parameters. The shooting parameter setting unit 107 extracts parameters based on the feature information from the feature extraction unit 106. Specifically, the shooting parameter setting unit 107 selects a parameter from at least one of the shutter speed, aperture value, exposure time, focal length, white balance, and field angle parameters extracted from the information of the feature extraction unit 106. Set. The shooting parameter setting unit 107 sets the set parameters in the image shooting unit 104 and stores them in the data storage unit 108.

データ記憶部108は、画像撮影部104で撮影した画像データと、撮影パラメータ設定部107で作成されたパラメータ設定値とを記憶する。   The data storage unit 108 stores image data captured by the image capturing unit 104 and parameter setting values created by the capturing parameter setting unit 107.

類似度判定部109は、特徴抽出部106で抽出したサンプル画像の特徴情報(輪郭特徴、色彩特徴、配置)と画像撮影部104で撮影した画像データの特徴情報(輪郭情報、色彩特徴、配置)から画像の類似度を比較して類似度の判定を行う。具体的には、類似度判定部109は、サンプル画像の画像情報と、画像撮影部104により撮影された撮影画像に含まれる各種の特徴情報を比較し、差分の抽出、比較を行い類似度の判定を行う。例えば、類似度判定部109は、画像撮影部104で撮影された撮影画像に含まれる撮影内容及び構図の情報を取得し、サンプル画像から取得した構図との構図の情報との差分(配置などの差)を抽出し類似度を判定する。   The similarity determination unit 109 includes feature information (contour feature, color feature, arrangement) of the sample image extracted by the feature extraction unit 106 and feature information (contour information, color feature, arrangement) of the image data photographed by the image photographing unit 104. The similarity of images is compared to determine the similarity. Specifically, the similarity determination unit 109 compares the image information of the sample image with various feature information included in the captured image captured by the image capturing unit 104, extracts and compares the differences, and compares the similarity information. Make a decision. For example, the similarity determination unit 109 acquires the shooting content and composition information included in the captured image captured by the image capturing unit 104, and the difference (such as arrangement) from the composition information acquired from the sample image. The difference is extracted and the similarity is determined.

なお前述した類似度判定の手法は、類似度を判定する部の例示であり、上記以外の類似度判定方法を採用することもできる。   The similarity determination method described above is an example of a similarity determination unit, and a similarity determination method other than the above can also be employed.

類似度判定部109は、上記撮影データの類似度の判定を行い、画像撮影部104で撮影された画像データにサンプル画像との類似度情報を付加する。   The similarity determination unit 109 determines the similarity of the shooting data, and adds similarity information with the sample image to the image data shot by the image shooting unit 104.

画像選択部110は、画像表示部111により表示された画像データを、画面上で選択する。選択された画像は、データ記憶部108による保存や削除の対象となる。   The image selection unit 110 selects the image data displayed by the image display unit 111 on the screen. The selected image is a target to be saved or deleted by the data storage unit 108.

画像表示部111は、ディスプレイに類似度判定部で類似度の判定処理をした後の画像データを表示する。画像表示部111は、類似度判定部109で付加された類似度の高い順番で表示するようにしてもよい。   The image display unit 111 displays the image data after the similarity determination unit performs the similarity determination process on the display. The image display unit 111 may display the images in the order of high similarity added by the similarity determination unit 109.

以下、上述のように構成された電子カメラ100の動作を説明する。   Hereinafter, the operation of the electronic camera 100 configured as described above will be described.

〔特徴抽出部106の特徴情報抽出の動作〕
図2は、特徴抽出部106の特徴情報の抽出処理を示すフローチャートである。
[Operation of Feature Information Extraction by Feature Extraction Unit 106]
FIG. 2 is a flowchart showing the feature information extraction processing of the feature extraction unit 106.

ステップS1では、特徴抽出部106は、比較対象のサンプル画像となるサンプル画像を読み込む。   In step S1, the feature extraction unit 106 reads a sample image that is a sample image to be compared.

ステップS2では、特徴抽出部106は、特徴情報抽出を開始する。   In step S2, the feature extraction unit 106 starts extracting feature information.

ステップS3では、特徴抽出部106は、読み込んだサンプル画像を分析してヘッダ部分に記載されているExifの情報と画像情報を分析する。   In step S3, the feature extraction unit 106 analyzes the read sample image and analyzes Exif information and image information described in the header portion.

ステップS4では、特徴抽出部106は、分析された情報がExif情報であるか否かを判別する。   In step S4, the feature extraction unit 106 determines whether or not the analyzed information is Exif information.

分析された情報がExif情報である場合は、ステップS5に進み、それ以外は画像情報であるためステップS6に進む。   When the analyzed information is Exif information, the process proceeds to step S5, and since the other information is image information, the process proceeds to step S6.

ステップS5では、特徴抽出部106は、Exif情報からサンプル画像撮影時の撮影パラメータ(カメラ撮影時に必要とされるシャッター速度、絞り値、露出時間、焦点距離、画角)を抽出して特徴情報を作成する。   In step S5, the feature extraction unit 106 extracts feature information by extracting shooting parameters (shutter speed, aperture value, exposure time, focal length, angle of view) required at the time of camera shooting from the Exif information. create.

ステップS6では、特徴抽出部106は、読み込んだサンプル画像において特徴となる部分の部分画像の切り出し処理を行い、ステップS7乃至ステップS9に進む。切り出し処理の手法については、図3により後述する。   In step S6, the feature extraction unit 106 performs a process of cutting out a partial image that is a feature in the read sample image, and proceeds to steps S7 to S9. The method of the clipping process will be described later with reference to FIG.

ステップS7では、特徴抽出部106は、切り出した部分画像の輪郭情報を抽出する。   In step S7, the feature extraction unit 106 extracts the contour information of the cut out partial image.

ステップS8では、特徴抽出部106は、切り出した部分画像の色彩特徴を抽出する。   In step S8, the feature extraction unit 106 extracts color features of the cut out partial image.

ステップS9では、特徴抽出部106は、切り出した部分画像の配置情報を抽出する。   In step S9, the feature extraction unit 106 extracts the arrangement information of the cut out partial image.

ステップS10では、特徴抽出部106は、ステップS7乃至ステップS9で処理された情報を一つの情報にまとめる。   In step S10, the feature extraction unit 106 combines the information processed in steps S7 to S9 into one piece of information.

ステップS11では、特徴抽出部106は、抽出された画像情報から特徴情報を作成する。   In step S11, the feature extraction unit 106 creates feature information from the extracted image information.

このステップS11では、切り出し部分単独の特徴情報の作成を行う。なお後述するステップS14では、サンプル画像全体の特徴情報を作成する。   In this step S11, the feature information for the cutout portion alone is created. In step S14, which will be described later, feature information of the entire sample image is created.

ステップS12では、特徴抽出部106は、画像データに特徴情報として切り出された情報が他にないか否かを判別する。他に切り出された情報がある場合は、ステップS6に戻り、他に切り出された情報がない場合は、ステップS13に進む。   In step S12, the feature extraction unit 106 determines whether there is any other information cut out as feature information in the image data. When there is other information cut out, the process returns to step S6, and when there is no other cut out information, the process proceeds to step S13.

ステップS13では、特徴抽出部106は、ステップS5でExif情報から作成された特徴情報とステップS12で作成された画像情報から作成された特徴情報を一つの情報としてまとめる。   In step S13, the feature extraction unit 106 combines the feature information created from the Exif information in step S5 and the feature information created from the image information created in step S12 as one piece of information.

ステップS14では、特徴抽出部106は、撮影パラメータ設定部107と類似度判定部109で使用する特徴情報を作成して本フローを終了する。具体的には、特徴抽出部106は、ステップS14では、ステップS5で作成したExif情報から抽出した特徴情報と、ステップS12で作成した画像情報から抽出した特徴情報を一つにまとめた情報(ステップS13参照)から特徴情報を作成する。   In step S14, the feature extraction unit 106 creates feature information used by the imaging parameter setting unit 107 and the similarity determination unit 109, and ends this flow. Specifically, in step S14, the feature extraction unit 106 integrates the feature information extracted from the Exif information created in step S5 and the feature information extracted from the image information created in step S12 (step S14). Feature information is created from (see S13).

上記フローにより、サンプル画像の特徴情報が抽出され、撮影パラメータ設定部107と類似度判定部109で使用する特徴情報を作成される。   According to the above flow, feature information of the sample image is extracted, and feature information used by the imaging parameter setting unit 107 and the similarity determination unit 109 is created.

図3は、切り出し処理の手法の一例を示す図である。上記ステップS6の切り出し処理に対応する。   FIG. 3 is a diagram illustrating an example of a clipping processing technique. This corresponds to the cut-out process in step S6.

図3(a)に示すように、特徴抽出部106は、取り込んだサンプル画像150を一旦、画像表示部111に表示する。図3(b)に示すように、ユーザは、画像表示部111に表示された画像150に対して、特徴部分として指定したい部分について画面上で選択をする。   As illustrated in FIG. 3A, the feature extraction unit 106 temporarily displays the captured sample image 150 on the image display unit 111. As illustrated in FIG. 3B, the user selects on the screen a portion that is desired to be designated as a characteristic portion with respect to an image 150 displayed on the image display unit 111.

図3では、タッチパネルに表示した画像の特徴部分を切り出す手法としてタッチペンで特徴部分の選択をする例を示す。選択の手法としては、ユーザが、表示された画像上で特徴部分としたい箇所の範囲を矩形で指定する選択の手法がある。また指定の方法としては、ユーザが、特徴部分を含む範囲で矩形の左上部分と右下部分をタッチペンで指定する指定の方法がある。この指定の方法では、ユーザにより、タッチペンで指定した点を含む矩形の選択範囲が決定され、その範囲が切り出し部分となる。図3(c)に示すように、特徴部分として指定したい部分が複数ある場合には、同様の選択操作を別の特徴部分に対して行う。なお、タッチペンを用いた選択以外の選択方法を採用することもできる。   FIG. 3 shows an example in which a feature portion is selected with a touch pen as a method for cutting out a feature portion of an image displayed on the touch panel. As a selection method, there is a selection method in which a user designates a range of a portion that is desired to be a feature portion on a displayed image by a rectangle. As a designation method, there is a designation method in which the user designates the upper left portion and the lower right portion of the rectangle with a touch pen within a range including the characteristic portion. In this designation method, the user determines a rectangular selection range including a point designated by the touch pen, and the range becomes a cutout portion. As shown in FIG. 3C, when there are a plurality of parts to be designated as feature parts, the same selection operation is performed on another feature part. Note that a selection method other than selection using a touch pen may be employed.

図4は、輪郭特徴抽出の一例を示す図である。上記ステップS7の輪郭情報抽出処理に対応する。   FIG. 4 is a diagram illustrating an example of contour feature extraction. This corresponds to the contour information extraction process in step S7.

エッジ抽出方法により画像の輪郭情報を抽出する例である。   It is an example which extracts the outline information of an image by the edge extraction method.

図4(a)は、上記切り出し処理により切り出された画像a,b,c,dを示す。   FIG. 4A shows images a, b, c, and d cut out by the cut-out process.

図4(b)に示すように、画像aの場合は、エッジ部分が輪郭情報として抽出される。   As shown in FIG. 4B, in the case of the image a, the edge portion is extracted as the contour information.

図4(c)に示すように、画像cの場合は、色分け部分が輪郭情報として抽出される。   As shown in FIG. 4C, in the case of an image c, a color-coded portion is extracted as contour information.

図5は、色彩特徴抽出の一例を示す図である。上記ステップS8の色彩特徴抽出処理に対応する。   FIG. 5 is a diagram illustrating an example of color feature extraction. This corresponds to the color feature extraction process in step S8.

切出した部分画像のヒストグラム情報の抽出の結果から色分布を求め、色彩特徴を抽出する例である。   This is an example of obtaining a color distribution from a result of extracting histogram information of a cut out partial image and extracting a color feature.

図5(a)は、上記切り出し処理により切り出された画像a,b,c,dを示す。   FIG. 5A shows images a, b, c, and d cut out by the cut-out process.

図5(b)に示すように、画像aの色彩情報のヒストグラム情報を抽出する。   As shown in FIG. 5B, histogram information of color information of the image a is extracted.

図5(c)に示すように、画像cの色彩情報のヒストグラム情報を抽出する。   As shown in FIG. 5C, histogram information of the color information of the image c is extracted.

ヒストグラム情報抽出の際には画像そのままの色を処理する場合には処理に時間がかかる、また類似度判定部109での類似度比較の際の比較に時間がかかる可能性がある。このため、ある程度減色処理をしてヒストグラム情報の抽出を行うことも含む。   When extracting the histogram information, it may take a long time to process the color of the image as it is, and it may take a long time for the comparison in the similarity determination by the similarity determination unit 109. For this reason, it also includes extracting histogram information by performing color reduction processing to some extent.

図6は、位置情報抽出の一例を示す図である。上記ステップS9の配置情報抽出処理に対応する。   FIG. 6 is a diagram illustrating an example of position information extraction. This corresponds to the arrangement information extraction process in step S9.

図6(a)は、上記切り出し処理により切り出された画像a,b,c,dを示す。   FIG. 6A shows images a, b, c, and d cut out by the cut-out process.

図6(b)に示すように、画像aの配置情報を抽出する。配置情報は、画面上での部分画像の中心座標を抽出して記憶する。中心座標は、部分画像に外接する枠の中心点の座標(A,B)又は部分画像に外接する枠の中心点の座標として得ることができる。   As shown in FIG. 6B, the arrangement information of the image a is extracted. As the arrangement information, the center coordinates of the partial image on the screen are extracted and stored. The center coordinates can be obtained as the coordinates (A, B) of the center point of the frame circumscribing the partial image or the coordinates of the center point of the frame circumscribing the partial image.

〔撮影パラメータ設定部107の動作〕
図7は、撮影パラメータ設定部107の撮影パラメータ設定処理を示すフローチャートである。
[Operation of Shooting Parameter Setting Unit 107]
FIG. 7 is a flowchart showing the shooting parameter setting process of the shooting parameter setting unit 107.

ステップS21では、撮影パラメータ設定部107は、特徴抽出部106から抽出した特徴情報を読み込む。   In step S <b> 21, the shooting parameter setting unit 107 reads the feature information extracted from the feature extraction unit 106.

ステップS22では、撮影パラメータ設定部107は、撮影パラメータの作成を開始する。   In step S22, the shooting parameter setting unit 107 starts creating shooting parameters.

ステップS23では、撮影パラメータ設定部107は、ステップS21で読み込んだ特徴情報を分析して、Exifから抽出した特徴情報と画像情報から抽出した特徴情報とに分割する。   In step S23, the imaging parameter setting unit 107 analyzes the feature information read in step S21 and divides it into feature information extracted from Exif and feature information extracted from image information.

ステップS24では、分割されたデータのうちExif情報からの特徴情報のみか否かを判別する。Exif情報からの特徴情報のみの場合は、ステップS25に進み、Exif情報からの特徴情報のみでない場合は、ステップS26に進む。上記ステップS24でExifからの特徴情報のみでない場合には、Exif情報からの特徴情報と画像情報から抽出した特徴情報両方あわせた特徴情報がある。   In step S24, it is determined whether or not only the feature information from the Exif information is included in the divided data. If only the feature information from the Exif information is obtained, the process proceeds to step S25, and if not only the feature information from the Exif information, the process proceeds to step S26. When not only the feature information from Exif in step S24, there is feature information that combines both feature information from Exif information and feature information extracted from image information.

ステップS25では、撮影パラメータ設定部107は、Exif情報からの特徴情報を基に、撮影時に必要なシャッター速度、絞り値、露出時間、焦点距離、画角などの撮影パラメータを抽出して、一旦、仮撮影パラメータを作成する。   In step S25, the shooting parameter setting unit 107 extracts shooting parameters such as a shutter speed, an aperture value, an exposure time, a focal length, and an angle of view necessary for shooting based on the feature information from the Exif information. Create temporary shooting parameters.

ステップS26では、撮影パラメータ設定部107は、Exif情報からの特徴情報と画像情報からの特徴情報を基に、パラメータを補正するパラメータ補正値を作成する。例えば、撮影パラメータ設定部107は、画像情報からの特徴情報(色彩情報、配置情報)とExifの特徴情報から読み取った撮影時のカメラの機種情報などを基に、複数の補正値を算出して実際の撮影の際にベストとなるパラメータ補正値を作成する。撮影パラメータ設定部107は、撮影パラメータが一般撮像機器又はユーザの撮像機器の処理限界を大きく逸脱しないようなパラメータ補正値を作成する。   In step S26, the imaging parameter setting unit 107 creates a parameter correction value for correcting the parameter based on the feature information from the Exif information and the feature information from the image information. For example, the shooting parameter setting unit 107 calculates a plurality of correction values based on feature information (color information, arrangement information) from image information and camera model information at the time of shooting read from the feature information of Exif. A parameter correction value that is the best in actual shooting is created. The shooting parameter setting unit 107 creates parameter correction values so that the shooting parameters do not greatly deviate from the processing limit of the general imaging device or the user's imaging device.

補正値の作成については、各メーカのカメラの機種や天候等に補正するパラメータの値を補正パラメータTableとしてもち、その補正パラメータTableを用いて補正値を算出するという手法を用いてもよい。複数の画像を撮影する際には、算出した複数の補正値をベストのものから順番に割り当てて撮影毎に撮影パラメータを変えて設定する。   For the creation of the correction value, a method may be used in which a parameter value to be corrected according to the camera model or weather of each manufacturer is used as the correction parameter Table, and the correction value is calculated using the correction parameter Table. When shooting a plurality of images, the calculated plurality of correction values are assigned in order from the best one, and the shooting parameters are changed and set for each shooting.

撮影パラメータ設定部107は、撮影パラメータが一般撮像機器又はユーザの撮像機器の処理限界を大きく逸脱しないようなパラメータ補正値を作成する。   The shooting parameter setting unit 107 creates parameter correction values so that the shooting parameters do not greatly deviate from the processing limit of the general imaging device or the user's imaging device.

ステップS27では、撮影パラメータ設定部107は、ステップS25で作成した仮撮影パラメータとS26で作成した補正値とを一つの情報としてまとめる。   In step S27, the shooting parameter setting unit 107 collects the temporary shooting parameters created in step S25 and the correction values created in S26 as one piece of information.

ステップS28では、撮影パラメータ設定部107は、撮影パラメータを作成する。   In step S28, the shooting parameter setting unit 107 creates shooting parameters.

ステップS29では、撮影パラメータ設定部107は、撮影が複数の画像撮影モードとなっているか否かを判別する。   In step S29, the shooting parameter setting unit 107 determines whether or not shooting is in a plurality of image shooting modes.

撮影が複数の画像撮影モードとなっている場合には、撮影する枚数分の補正値を作成するためにステップS26に戻る。撮影が複数の画像撮影モードとなっていない場合は、本撮影パラメータ設定処理を終了する。   If the shooting is in a plurality of image shooting modes, the process returns to step S26 in order to create correction values for the number of shots. If shooting is not in a plurality of image shooting modes, the shooting parameter setting process is terminated.

上記フローにより、画像撮影部104で使用する撮影パラメータ情報が作成される。   According to the above flow, shooting parameter information used in the image shooting unit 104 is created.

〔画像撮影部104の動作〕
図8は、画像撮影部104の処理を示すフローチャートである。
[Operation of Image Shooting Unit 104]
FIG. 8 is a flowchart showing processing of the image capturing unit 104.

ステップS31では、画像撮影部104は、撮影パラメータ設定部107から抽出した撮影パラメータを読み込む。   In step S31, the image photographing unit 104 reads the photographing parameters extracted from the photographing parameter setting unit 107.

ステップS32では、画像撮影部104は、画像撮影処理の設定を開始する。   In step S32, the image capturing unit 104 starts setting of image capturing processing.

ステップS33では、画像撮影部104は、読み込んだ撮影パラメータが複数の画像撮影用か否かを判別する。撮影パラメータが複数の画像撮影用でない場合は、一つの撮影パラメータを設定するステップS34に進む。撮影パラメータが複数の画像撮影用である場合は、ステップS35に進む。   In step S33, the image photographing unit 104 determines whether or not the read photographing parameter is for photographing a plurality of images. If the shooting parameter is not for shooting a plurality of images, the process proceeds to step S34 in which one shooting parameter is set. If the shooting parameter is for shooting a plurality of images, the process proceeds to step S35.

ステップS34では、画像撮影部104は、一つの撮影パラメータを撮影時の撮影パラメータ(撮影時に必要なシャッター速度、絞り値、露出時間、焦点距離、画角など)として設定する。   In step S34, the image photographing unit 104 sets one photographing parameter as a photographing parameter at the time of photographing (shutter speed, aperture value, exposure time, focal length, angle of view, etc. necessary for photographing).

ステップS35では、画像撮影部104は、複数の撮影パラメータをすべて一旦保持する。   In step S35, the image capturing unit 104 temporarily holds all of the plurality of capturing parameters.

ステップS36では、画像撮影部104は、ステップS35で保持された撮影パラメータのうち一つを選択して撮影時の撮影パラメータとして設定する。複数の画像撮影の際には次の撮影時には、一度設定した撮影パラメータ以外の撮影パラメータを、ステップS35で保持した値から選択して設定する。   In step S36, the image photographing unit 104 selects one of the photographing parameters held in step S35 and sets it as a photographing parameter at the time of photographing. When shooting a plurality of images, at the next shooting, shooting parameters other than the shooting parameters set once are selected and set from the values held in step S35.

ステップS37では、画像撮影部104は、撮影パラメータを設定して撮影をする準備を完了する。   In step S37, the image photographing unit 104 completes preparation for photographing by setting photographing parameters.

ステップS38では、画像撮影部104は、撮影ボタン押下等の撮影開始指示により実際に画像撮影を開始する。複数画像撮影の際には、撮影開始指示が一旦出されると、必要枚数分撮影するまで撮影を続ける。   In step S38, the image photographing unit 104 actually starts image photographing in response to a photographing start instruction such as pressing the photographing button. In the case of shooting multiple images, once a shooting start instruction is issued, shooting is continued until the required number of shots are shot.

ステップS39では、画像撮影部104は、撮影が複数の画像撮影モードとなっているか否かを判別する。   In step S39, the image shooting unit 104 determines whether shooting is in a plurality of image shooting modes.

撮影が複数の画像撮影モードとなっている場合には、必要枚数が撮影されるまでステップS36に戻る。撮影が複数の画像撮影モードとなっていない場合は、本画像撮影処理を終了する。   If the shooting is in a plurality of image shooting modes, the process returns to step S36 until the required number is shot. When shooting is not in a plurality of image shooting modes, the image shooting process is terminated.

上記フローにより、特徴抽出部106とデータ記憶部108、類似度判定部109で使用する画像の撮影が行われる。   According to the above flow, an image used by the feature extraction unit 106, the data storage unit 108, and the similarity determination unit 109 is taken.

〔類似度判定部109の動作〕
図9は、類似度判定部109の処理を示すフローチャートである。
[Operation of Similarity Determination Unit 109]
FIG. 9 is a flowchart showing the processing of the similarity determination unit 109.

ステップS41では、類似度判定部109は、特徴抽出部106から出力されるサンプル画像と画像撮影部104により撮影された画像の特徴情報とデータ記憶部108に保存された画像撮影部104で撮影された画像データとを読み込む。   In step S <b> 41, the similarity determination unit 109 is captured by the image capturing unit 104 stored in the data storage unit 108 and the sample image output from the feature extraction unit 106, the feature information of the image captured by the image capturing unit 104. Read image data.

ステップS42では、類似度判定部109は、サンプル画像の特徴情報と画像撮影部104で撮影された画像の特徴情報を特徴抽出部106で抽出した配置情報毎に整理する。例えば、類似度判定部109は、配置情報から切り分け部分毎にデータを整理する。   In step S <b> 42, the similarity determination unit 109 organizes the feature information of the sample image and the feature information of the image captured by the image capturing unit 104 for each arrangement information extracted by the feature extracting unit 106. For example, the similarity determination unit 109 organizes data for each segmented portion from the arrangement information.

ステップS43では、類似度判定部109は、配置情報毎にサンプル画像と撮影画像の特徴情報を抜き出す。例えば、類似度判定部109は、撮影データと比較データで同じ切り分け部分の情報を抽出する。   In step S43, the similarity determination unit 109 extracts the feature information of the sample image and the captured image for each arrangement information. For example, the similarity determination unit 109 extracts information on the same segmented portion in the shooting data and the comparison data.

ステップS44では、類似度判定部109は、輪郭部分のベクトル情報の比較を行う。   In step S44, the similarity determination unit 109 compares the vector information of the contour portion.

ステップS45では、類似度判定部109は、色彩特徴を比較して、類似度情報を作成する。   In step S45, the similarity determination unit 109 compares the color features and creates similarity information.

ステップS46では、類似度判定部109は、作成した類似度情報を保持する。   In step S46, the similarity determination unit 109 holds the created similarity information.

ステップS47では、類似度判定部109は、配置情報毎の比較データ(切り出し部分の比較データ)をすべて比較したか否かを判別する。類似度判定部109は、配置情報毎の比較データがある場合は、上記ステップS43に戻り比較データがなくなるまで類似度の比較を行う。   In step S47, the similarity determination unit 109 determines whether or not all comparison data (comparison data of cutout portions) for each arrangement information has been compared. If there is comparison data for each piece of arrangement information, the similarity determination unit 109 returns to step S43 and compares the similarities until there is no comparison data.

配置情報毎の比較データがない場合は、ステップS48で、類似度判定部109は、類似度の算出を行う。類似度の算出により、本フローは終了する。   If there is no comparison data for each piece of arrangement information, the similarity determination unit 109 calculates the similarity in step S48. This flow ends when the similarity is calculated.

上記フローにより、画像選択部110及び画像表示部111で使用する類似度情報の作成と撮影画像の出力が行われる。   According to the above flow, creation of similarity information used by the image selection unit 110 and the image display unit 111 and output of a captured image are performed.

〔画像選択部110及び画像表示部111の動作〕
図10は、画像選択部110及び画像表示部111で処理された画像データの表示例を示す図であり、図10(a)は比較画像と撮影された画像データの表示例、図10(b)は選択した画像表示例を示す。
[Operation of Image Selection Unit 110 and Image Display Unit 111]
FIG. 10 is a diagram illustrating a display example of image data processed by the image selection unit 110 and the image display unit 111. FIG. 10A illustrates a display example of a comparison image and captured image data, and FIG. ) Shows a selected image display example.

図10(a)に示すように、画像表示部111は、比較画像と、撮影された画像のサムネイル画像とをディスプレイに表示する。このサムネイル画像には、類似度に関する情報(ここではNo)が付加される。すなわち、画像表示部111は、比較画像と共に、撮影された画像のサムネイル画像に、撮影した中での類似度の高さがわかるように類似度を示す番号をつけて表示する。また、画像表示部111は、図10(a)に示すように、撮影画像にチェックボックスを設けて画像データの処理の選択を可能する。   As shown in FIG. 10A, the image display unit 111 displays a comparison image and a thumbnail image of the captured image on the display. Information about the similarity (No in this case) is added to the thumbnail image. That is, the image display unit 111 displays the thumbnail image of the captured image together with the comparison image with a number indicating the similarity so that the level of similarity in the captured image can be recognized. In addition, as shown in FIG. 10A, the image display unit 111 is provided with a check box for a photographed image, and enables selection of image data processing.

図10(b)は、画像選択部110により選択された画像を拡大した場合を示している。画像選択部110は、図10(a)で表示されているサムネイル画像のうち、ユーザが確認したいサムネイル画像の画面上を触ることにより画像を選択する。さらに、画像選択部110は、ユーザが触れる(サムネイル画像を二回触れる)ことで、画像拡大やデータ削除等の画像の処理を実現する。   FIG. 10B shows a case where the image selected by the image selection unit 110 is enlarged. The image selection unit 110 selects an image from the thumbnail images displayed in FIG. 10A by touching the screen of the thumbnail image that the user wants to check. Furthermore, the image selection unit 110 realizes image processing such as image enlargement and data deletion by touching the user (touching the thumbnail image twice).

以上は画像選択部110及び画像表示部111で処理される一例であり、上記以外の画像表示及び選択を採用してもよい。   The above is an example processed by the image selection unit 110 and the image display unit 111, and image display and selection other than those described above may be employed.

以上詳細に説明したように、本実施の形態によれば、電子カメラ100は、ユーザが予め指定したサンプル画像データ、又は画像撮影部104によって撮影された画像データ(ユーザの好みが反映されているとする)を取り込んで特徴情報を抽出する。特徴抽出部106は、画像データのExif部分から撮影時の設定データを抽出した特徴情報と、画像データを分析し輪郭特徴、色彩特徴、配置などの情報を抽出した特徴情報の2つの情報を抽出する。撮影パラメータ設定部107は、特徴抽出部106により抽出された特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する。画像撮影部104は、撮影パラメータ設定部107により作成された撮影パラメータを用いて撮影を行う。これにより、ユーザが予め選択した好みの画像データから撮影に関するパラメータを設定することができ、かつ、撮影された画像のうち類似する画像データのみを取得することが可能になる。したがって、専門的な知識や高度な撮影技術を持つことなく、ユーザの趣向に合う満足度の高い写真撮影をすることができる。   As described above in detail, according to the present embodiment, the electronic camera 100 reflects the sample image data specified in advance by the user or the image data captured by the image capturing unit 104 (the user's preference is reflected). To extract feature information. The feature extraction unit 106 extracts two types of information: feature information obtained by extracting setting data at the time of shooting from the Exif portion of image data, and feature information obtained by analyzing image data and extracting information such as contour features, color features, and arrangements. To do. The shooting parameter setting unit 107 creates shooting parameters for setting shooting conditions based on the feature information extracted by the feature extraction unit 106. The image shooting unit 104 performs shooting using the shooting parameters created by the shooting parameter setting unit 107. Thereby, it is possible to set parameters relating to shooting from favorite image data selected in advance by the user, and it is possible to acquire only similar image data among the shot images. Therefore, it is possible to take a photograph with a high degree of satisfaction that suits the user's taste without having specialized knowledge or advanced photographing techniques.

例えば、好みのデジタル画像から特徴情報を抽出し、その特徴情報から同様の画像を撮影可能な撮影パラメータを、カメラの機種やユーザの好みに合わせて自動生成することができる。生成された撮影パラメータを電子カメラに反映させることができるので、容易に好みの写真(ベストショット)を撮影することができる。カメラの知識を持たない一般のユーザでも、カメラのパラメータを自分で調整することなく、プロの写真家が撮影したような、撮影者が好む画像を容易に撮影することができる。   For example, it is possible to extract feature information from a favorite digital image and automatically generate shooting parameters that can capture a similar image from the feature information in accordance with the camera model and user preference. Since the generated shooting parameters can be reflected on the electronic camera, it is possible to easily take a favorite photograph (best shot). Even a general user who does not have camera knowledge can easily shoot an image preferred by a photographer, such as a photograph taken by a professional photographer, without adjusting the camera parameters himself.

(実施の形態2)
図11は、本発明の実施の形態2に係る電子カメラの構成を示すブロック図である。本実施の形態の説明に当たり、図11において、図1と同一構成部分には図1と同一番号を付して重複箇所の説明を省略する。
(Embodiment 2)
FIG. 11 is a block diagram showing a configuration of the electronic camera according to Embodiment 2 of the present invention. In the description of the present embodiment, in FIG. 11, the same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG.

図11に示すように、電子カメラ200は、図1の電子カメラ100にさらに計時部201を備える。   As shown in FIG. 11, the electronic camera 200 further includes a timer 201 in addition to the electronic camera 100 of FIG. 1.

計時部201は、現在の時刻情報を生成し出力する。   The timer 201 generates and outputs current time information.

画像撮影部104は、実施の形態1に記載した動作に加えて、撮影した画像データをデータ記憶部108に記憶する際に、撮影画像データに関連付けて撮影に使用した撮影パラメータをデータ記憶部108に記憶する。さらに、画像撮影部104は、特徴抽出部106により抽出された撮影画像の特徴情報を、撮影画像データに関連付けてデータ記憶部108に記憶する。   In addition to the operations described in the first embodiment, the image capturing unit 104 stores the captured image data used for capturing in association with the captured image data when the captured image data is stored in the data storage unit 108. To remember. Further, the image capturing unit 104 stores the feature information of the captured image extracted by the feature extracting unit 106 in the data storage unit 108 in association with the captured image data.

撮影パラメータ設定部107は、実施の形態1に記載した動作に加えて、画像撮影部104に撮影パラメータを設定する際に下記の動作を行う。すなわち、撮影パラメータ設定部107は、撮影パラメータに関連付けて撮影回数情報を加算し、さらに撮影パラメータに関連付けて記憶する撮影時刻情報について、計時部201から得られる現在の時刻情報により更新する。   In addition to the operation described in the first embodiment, the shooting parameter setting unit 107 performs the following operation when setting shooting parameters in the image shooting unit 104. That is, the shooting parameter setting unit 107 adds shooting count information in association with the shooting parameter, and updates the shooting time information stored in association with the shooting parameter with the current time information obtained from the timer unit 201.

電子カメラ200は、実施の形態1に記載した動作に加えて以下の動作を行う。   The electronic camera 200 performs the following operations in addition to the operations described in the first embodiment.

撮影パラメータ設定部107は、データ記憶部108に記憶している撮影パラメータに関連付けられた撮影回数情報や撮影時刻情報を基に、データ記憶部108に記憶している撮影パラメータの一つを選択して画像撮影部104に設定する。画像撮影部104は、撮影パラメータ設定部107により設定された撮影パラメータで撮影する。   The shooting parameter setting unit 107 selects one of the shooting parameters stored in the data storage unit 108 based on the shooting count information and shooting time information associated with the shooting parameters stored in the data storage unit 108. Are set in the image photographing unit 104. The image capturing unit 104 captures images with the capturing parameters set by the capturing parameter setting unit 107.

例えば、撮影パラメータ設定部107は、撮影回数情報を基に最も撮影回数の多い撮影パラメータを選択する撮影パラメータの選択動作を行う。また、撮影パラメータ設定部107は、撮影時刻情報を基に最近撮影した撮影パラメータを選択する。また、撮影パラメータ設定部107は、撮影回数情報と撮影時刻情報と計時部201から得られる現在の時刻情報を基に現在の時間帯で最も撮影回数の多い撮影パラメータを選択する。   For example, the shooting parameter setting unit 107 performs a shooting parameter selection operation for selecting the shooting parameter with the largest number of shootings based on the shooting number information. Further, the shooting parameter setting unit 107 selects a shooting parameter that has been recently shot based on the shooting time information. The shooting parameter setting unit 107 selects the shooting parameter having the highest number of shootings in the current time zone based on the shooting number information, the shooting time information, and the current time information obtained from the time measuring unit 201.

このように、本実施の形態では、データ記憶部108に記憶している撮影パラメータの一つを選択して撮影に使用することにより、撮影パラメータを、特徴情報を基にその都度作成して用いることなく、ユーザの好みに近い設定の撮影パラメータで撮影することができる。   As described above, in this embodiment, by selecting one of the shooting parameters stored in the data storage unit 108 and using it for shooting, the shooting parameter is created and used each time based on the feature information. Therefore, it is possible to shoot with shooting parameters set close to the user's preference.

また、過去に撮影した画像をサンプル画像として使用するようにすれば、特徴情報の抽出処理及び撮影パラメータの作成処理を省略することができ、より効率的な撮影処理を実行することができる。   If an image captured in the past is used as a sample image, the feature information extraction process and the imaging parameter creation process can be omitted, and more efficient imaging process can be executed.

(実施の形態3)
図12は、本発明の実施の形態3に係る電子カメラの構成を示すブロック図である。本実施の形態の説明に当たり、図12において、図1と同一構成部分には図1と同一番号を付して重複箇所の説明を省略する。
(Embodiment 3)
FIG. 12 is a block diagram showing a configuration of an electronic camera according to Embodiment 3 of the present invention. In the description of the present embodiment, in FIG. 12, the same components as those in FIG. 1 are denoted by the same reference numerals as those in FIG.

図12に示すように、電子カメラシステムは、電子カメラ300と、サーバ400と、電子カメラ300とサーバ400とを繋ぐネットワーク500とから構成される。   As shown in FIG. 12, the electronic camera system includes an electronic camera 300, a server 400, and a network 500 that connects the electronic camera 300 and the server 400.

電子カメラ300は、図1の電子カメラ100から外部I/F105、特徴抽出部106、撮影パラメータ設定部107、及びデータ記憶部108を取り去り、送受信部301及びインターフェース302を設ける。   The electronic camera 300 removes the external I / F 105, the feature extraction unit 106, the imaging parameter setting unit 107, and the data storage unit 108 from the electronic camera 100 of FIG. 1, and provides a transmission / reception unit 301 and an interface 302.

サーバ400は、図1の電子カメラ100側が備える外部I/F105、特徴抽出部106、撮影パラメータ設定部107、及びデータ記憶部108と同様の機能を有する外部I/F405、特徴抽出部406、撮影パラメータ設定部407、及びデータ記憶部408を備える。また、サーバ400は、ネットワーク500を介して電子カメラ300側とデータを送受信するための送受信部401及びI/F402を備える。   The server 400 includes an external I / F 405 having a function similar to that of the external I / F 105, the feature extraction unit 106, the imaging parameter setting unit 107, and the data storage unit 108 provided on the electronic camera 100 side in FIG. A parameter setting unit 407 and a data storage unit 408 are provided. The server 400 also includes a transmission / reception unit 401 and an I / F 402 for transmitting / receiving data to / from the electronic camera 300 via the network 500.

ネットワーク500は、移動体通信網、公衆電話網、LANやインターネットなどから構成するネットワークであり、有線系又は無線系などネットワークの種類とプロトコルの種類は特に問わない。   The network 500 is a network composed of a mobile communication network, a public telephone network, a LAN, the Internet, and the like, and there is no particular limitation on the type of network and the type of protocol such as wired or wireless.

送受信部301,401は、I/F302,402及びネットワーク500を介して、画像撮影部104で撮影された画像データ、画像データを加工しデータ記憶部408に記憶した画像データ又は撮影バラメータ設定部407で作成された撮影パラメータを送受信する。   The transmission / reception units 301 and 401 process the image data captured by the image capturing unit 104 and the image data processed by the image capturing unit 104 and stored in the data storage unit 408 or the capturing parameter setting unit 407 via the I / Fs 302 and 402 and the network 500. Send and receive the shooting parameters created in.

送受信部301は、内部に小容量のデータ記憶領域を持つ。このデータ記憶領域は、送受信部301の外部に設けてもよい。   The transmission / reception unit 301 has a small-capacity data storage area. This data storage area may be provided outside the transmission / reception unit 301.

データ記憶部408は、図1の電子カメラ100のデータ記憶部108の動作に加えて、記憶された画像データを加工し、再度記憶する機能を有する。   In addition to the operation of the data storage unit 108 of the electronic camera 100 in FIG. 1, the data storage unit 408 has a function of processing the stored image data and storing it again.

電子カメラ300は、実施の形態1に記載した動作に加えて以下の動作を行う。   The electronic camera 300 performs the following operations in addition to the operations described in the first embodiment.

サーバ400は、撮影パラメータ設定部407により作成した撮影パラメータを、送受信部401、I/F402及びネットワーク500を経由して電子カメラ300に送信する。   The server 400 transmits the shooting parameters created by the shooting parameter setting unit 407 to the electronic camera 300 via the transmission / reception unit 401, the I / F 402 and the network 500.

電子カメラ300は、サーバ400から送信された撮影パラメータを、送受信部301により受信する。電子カメラ300は、受信した撮影パラメータを画像撮影部104に設定する。   In the electronic camera 300, the transmission / reception unit 301 receives the imaging parameters transmitted from the server 400. The electronic camera 300 sets the received shooting parameters in the image shooting unit 104.

一方、電子カメラ300は、画像撮影部104により撮影した画像データを、送受信部301内のデータ記憶領域に一旦記憶し、適当なタイミングでI/F302及びネットワーク500を経由してサーバ400に送信する。   On the other hand, the electronic camera 300 temporarily stores the image data captured by the image capturing unit 104 in a data storage area in the transmission / reception unit 301 and transmits it to the server 400 via the I / F 302 and the network 500 at an appropriate timing. .

サーバ400は、電子カメラ300から送信された画像データを、送受信部401により受信し、データ記憶部408に記憶する。サーバ400は、データ記憶部408に記憶された画像データを、サムネイルに加工し、再度データ記憶部408に記憶する。   The server 400 receives the image data transmitted from the electronic camera 300 by the transmission / reception unit 401 and stores it in the data storage unit 408. The server 400 processes the image data stored in the data storage unit 408 into thumbnails, and stores the thumbnails in the data storage unit 408 again.

サーバ400は、加工した画像データを、送受信部401、I/F402及びネットワーク500を経由して電子カメラ300に送信する。   The server 400 transmits the processed image data to the electronic camera 300 via the transmission / reception unit 401, the I / F 402, and the network 500.

電子カメラ300は、サーバ400から送信された画像データを受信し、送受信部301内のデータ記憶領域に記憶する。送受信部301内のデータ記憶領域に記憶されたデータは、画像表示部111に表示される。ユーザは、画像表示部111に表示されたサムネイルを確認し、実施の形態1で述べた手順により取得したい画像を任意に選択することができる。このようにして、電子カメラ300は、サーバ400から撮影パラメータ及び画像データを取得することができる。   The electronic camera 300 receives the image data transmitted from the server 400 and stores it in a data storage area in the transmission / reception unit 301. Data stored in the data storage area in the transmission / reception unit 301 is displayed on the image display unit 111. The user can confirm the thumbnail displayed on the image display unit 111 and can arbitrarily select an image to be acquired by the procedure described in the first embodiment. In this way, the electronic camera 300 can acquire shooting parameters and image data from the server 400.

本実施の形態によれば、演算処理が必要な特徴抽出部406、及び撮影パラメータ部407をサーバ400側に設置しているので、電子カメラ300内の構成を簡素にすることができ、また電子カメラ300内の記憶部を小容量にすることができる。   According to the present embodiment, since the feature extraction unit 406 and the imaging parameter unit 407 that require arithmetic processing are installed on the server 400 side, the configuration in the electronic camera 300 can be simplified, and the electronic The storage unit in the camera 300 can be reduced in capacity.

以上の説明は本発明の好適な実施の形態の例証であり、本発明の範囲はこれに限定されることはない。被写体の光学像を撮像する撮像装置を有する電子機器であればどのような装置にも適用できる。例えば、デジタルカメラ及び業務用ビデオカメラは勿論のこと、カメラ付き携帯電話機、PDA(Personal Digital Assistants)等の携帯情報端末、及び電子カメラを備えるパソコン等の情報処理装置にも適用可能である。   The above description is an illustration of a preferred embodiment of the present invention, and the scope of the present invention is not limited to this. The present invention can be applied to any device as long as the electronic device has an imaging device that captures an optical image of a subject. For example, the present invention can be applied not only to digital cameras and professional video cameras, but also to information processing apparatuses such as mobile phones with cameras, personal digital assistants such as PDAs (Personal Digital Assistants), and personal computers equipped with electronic cameras.

また、本実施の形態では、電子カメラという名称を用いたが、これは説明の便宜上であり、撮影装置やデジタルカメラ等であってもよい。   In the present embodiment, the name “electronic camera” is used. However, this is for convenience of explanation, and may be a photographing device, a digital camera, or the like.

さらに、上記電子カメラを構成する各構成部、例えば撮像光学系の種類、その駆動部及び取付け方法など、さらには追尾処理部の種類などは前述した実施の形態に限られない。   Further, each component constituting the electronic camera, for example, the type of the imaging optical system, its drive unit and mounting method, and the type of the tracking processing unit are not limited to the above-described embodiments.

以上説明した電子カメラは、この電子カメラの撮像方法を機能させるためのプログラムでも実現される。このプログラムはコンピュータで読み取り可能な記録媒体に格納されている。   The electronic camera described above is also realized by a program for causing the imaging method of the electronic camera to function. This program is stored in a computer-readable recording medium.

本発明に係る電子カメラは、様々なシーンにおける標準的な撮影パラメータの設定値を保持させておき、その中から最適なものをユーザに選択させるという方式をもつ撮像装置に適用することができる。デジタルカメラ、デジタルビデオカメラといった種々の撮像装置として有用である。   The electronic camera according to the present invention can be applied to an image pickup apparatus having a method in which standard photographing parameter setting values in various scenes are held and an optimum one is selected from among them. It is useful as various imaging devices such as digital cameras and digital video cameras.

100,200,300 電子カメラ
101 撮像光学系
102 イメージセンサ
103 信号処理部
104 画像撮影部
105,405 外部インターフェース
106,406 特徴抽出部
107,407 撮影パラメータ設定部
108,408 データ記憶部
109 類似度判定部
110 画像選択部
111 画像表示部
201 計時部
301,401 送受信部
302,402 インターフェース
400 サーバ
500 ネットワーク
100, 200, 300 Electronic camera 101 Imaging optical system 102 Image sensor 103 Signal processing unit 104 Image capturing unit 105, 405 External interface 106, 406 Feature extraction unit 107, 407 Shooting parameter setting unit 108, 408 Data storage unit 109 Similarity determination Unit 110 Image selection unit 111 Image display unit 201 Timekeeping unit 301, 401 Transmission / reception unit 302, 402 Interface 400 Server 500 Network

Claims (15)

撮影手段と、
前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、
抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段とを備え、
前記撮影手段は、前記撮影パラメータ設定手段により作成された撮影パラメータを用いて撮影を行う電子カメラ。
Photographing means;
Feature extraction means for extracting image feature information from image data photographed by the photographing means or sample image data designated in advance by a user;
A shooting parameter setting means for creating shooting parameters for setting shooting conditions based on the extracted feature information;
The photographing unit is an electronic camera that performs photographing using the photographing parameter created by the photographing parameter setting unit.
前記特徴抽出手段は、画像データのExif(Exchangeable Image File Format)情報から撮影時の設定データを特徴情報として抽出する、請求項1記載の電子カメラ。   The electronic camera according to claim 1, wherein the feature extraction unit extracts setting data at the time of shooting as feature information from Exif (Exchangeable Image File Format) information of image data. 前記特徴抽出手段は、画像データの輪郭特徴、色彩特徴、配置を分析して画像の特徴情報を抽出する、請求項1記載の電子カメラ。   The electronic camera according to claim 1, wherein the feature extraction unit extracts image feature information by analyzing a contour feature, a color feature, and an arrangement of image data. 前記撮影パラメータは絞り、露出時間、焦点距離、画角の設定情報を含む、請求項1記載の電子カメラ。   The electronic camera according to claim 1, wherein the shooting parameter includes setting information of an aperture, an exposure time, a focal length, and an angle of view. 前記撮影パラメータ設定手段は、前記特徴情報に基づいて、複数の撮影パラメータを作成する、請求項1記載の電子カメラ。   The electronic camera according to claim 1, wherein the shooting parameter setting unit creates a plurality of shooting parameters based on the feature information. 前記撮影手段は、前記複数の撮影パラメータ毎に撮影する、請求項1記載の電子カメラ。   The electronic camera according to claim 1, wherein the photographing unit photographs each of the plurality of photographing parameters. 前記撮影パラメータ設定手段により作成された複数の撮影パラメータを記憶する記憶手段と、
前記記憶手段に記録されている複数の撮影パラメータのうち、いずれか一つを選択する撮影パラメータ選択手段と、を備える請求項1記載の電子カメラ。
Storage means for storing a plurality of shooting parameters created by the shooting parameter setting means;
The electronic camera according to claim 1, further comprising: an imaging parameter selection unit that selects any one of a plurality of imaging parameters recorded in the storage unit.
前記記憶手段は、前記撮影パラメータを選択した回数を、該撮影パラメータに関連付けて記憶する、請求項7記載の電子カメラ。   The electronic camera according to claim 7, wherein the storage unit stores the number of times the imaging parameter is selected in association with the imaging parameter. 計時手段を備え、
前記記憶手段は、前記撮影パラメータを選択した時刻を、該撮影パラメータに関連付けて記憶する、請求項7記載の電子カメラ。
With timekeeping means,
The electronic camera according to claim 7, wherein the storage unit stores a time at which the imaging parameter is selected in association with the imaging parameter.
画像表示手段と、
画像データを記憶する画像記憶手段と、
前記画像記憶手段に記憶された画像データを前記画像表示手段に複数表示し、表示された画像の中から任意の画像を一つ又は複数選択する画像選択手段と、を備える請求項1記載の電子カメラ。
Image display means;
Image storage means for storing image data;
The electronic apparatus according to claim 1, further comprising: an image selection unit that displays a plurality of image data stored in the image storage unit on the image display unit and selects one or a plurality of arbitrary images from the displayed images. camera.
前記画像選択手段は、前記画像表示手段に表示した画像のうち、選択した画像データ以外の画像データを前記画像記憶手段から削除する、請求項10記載の電子カメラ。   The electronic camera according to claim 10, wherein the image selection unit deletes image data other than the selected image data from the image storage unit among the images displayed on the image display unit. 前記特徴抽出手段により抽出したサンプル画像データの特徴情報と前記撮影手段により撮影した画像データの特徴情報とから画像の類似度を判定する類似度判定手段をさらに備える請求項10記載の電子カメラ。   The electronic camera according to claim 10, further comprising a similarity determination unit that determines image similarity from the feature information of the sample image data extracted by the feature extraction unit and the feature information of the image data captured by the imaging unit. 前記類似度判定手段は、前記画像の類似度の高さに応じてランク付けし、
前記画像表示手段は、画像データに、前記ランク付けの結果を付加して表示する、請求項12記載の電子カメラ。
The similarity determination means ranks according to the similarity of the images,
The electronic camera according to claim 12, wherein the image display unit adds the ranking result to image data and displays the image data.
撮影手段と、ネットワーク上のサーバとの間でデータを送受信する通信手段とを備える電子カメラであって、
前記サーバは、前記撮影手段により撮影した画像データ、又はユーザが予め指定したサンプル画像データから画像の特徴情報を抽出する特徴抽出手段と、
抽出した特徴情報に基づいて、撮影条件を設定するための撮影パラメータを作成する撮影パラメータ設定手段と、
作成した撮影パラメータを前記ネットワーク上に送信する送信手段とを備え、
前記通信手段は、前記ネットワーク上に送信された撮影パラメータを受信し、
前記撮影手段は、受信した撮影パラメータを用いて撮影を行う電子カメラ。
An electronic camera comprising a photographing means and a communication means for transmitting and receiving data between servers on a network,
The server includes feature extraction means for extracting image feature information from image data photographed by the photographing means or sample image data designated in advance by a user;
Shooting parameter setting means for creating shooting parameters for setting shooting conditions based on the extracted feature information;
Transmission means for transmitting the created imaging parameter to the network,
The communication means receives imaging parameters transmitted on the network,
The imaging unit is an electronic camera that performs imaging using received imaging parameters.
前記サーバは、画像データのサムネイルを作成し、
前記送信手段は、作成されたサムネイルを送信する請求項14記載の電子カメラ。
The server creates thumbnails of image data,
The electronic camera according to claim 14, wherein the transmission unit transmits the created thumbnail.
JP2009257285A 2009-11-10 2009-11-10 Electronic camera Pending JP2011103548A (en)

Priority Applications (2)

Application Number Priority Date Filing Date Title
JP2009257285A JP2011103548A (en) 2009-11-10 2009-11-10 Electronic camera
PCT/JP2010/003176 WO2011058675A1 (en) 2009-11-10 2010-05-10 Electronic camera and semiconductor integrated circuit device for electronic camera device

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009257285A JP2011103548A (en) 2009-11-10 2009-11-10 Electronic camera

Publications (1)

Publication Number Publication Date
JP2011103548A true JP2011103548A (en) 2011-05-26

Family

ID=43991351

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009257285A Pending JP2011103548A (en) 2009-11-10 2009-11-10 Electronic camera

Country Status (2)

Country Link
JP (1) JP2011103548A (en)
WO (1) WO2011058675A1 (en)

Cited By (10)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013207418A (en) * 2012-03-27 2013-10-07 Zenrin Datacom Co Ltd Imaging system and imaging management server
JP2013211719A (en) * 2012-03-30 2013-10-10 Nikon Corp Digital camera
JP2013239861A (en) * 2012-05-14 2013-11-28 Freebit Co Ltd Image capturing system
WO2013179742A1 (en) 2012-05-30 2013-12-05 ソニー株式会社 Information processing device, system, and storage medium
WO2014054221A1 (en) * 2012-10-02 2014-04-10 パナソニック株式会社 Image display method, image display apparatus, and image providing method
JPWO2013183338A1 (en) * 2012-06-07 2016-01-28 ソニー株式会社 Information processing apparatus and storage medium
EP3018892A1 (en) * 2014-10-31 2016-05-11 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
JP2016092537A (en) * 2014-10-31 2016-05-23 キヤノン株式会社 Imaging device, control method therefor, program, and storage medium
US9800771B2 (en) 2012-12-27 2017-10-24 Olympus Corporation Server apparatus and photographing apparatus for setting a photographing parameter for capturing an image based on extracted user preference data
WO2021177567A1 (en) * 2020-03-03 2021-09-10 Samsung Electronics Co., Ltd. System and method for image color management

Families Citing this family (1)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
WO2018170727A1 (en) * 2017-03-21 2018-09-27 Sony Mobile Communications Inc. Method and apparatus for determining pickup parameters and electronic equipment

Family Cites Families (4)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2006108915A (en) * 2004-10-01 2006-04-20 Canon Inc Apparatus and method for image photographing
JP4492345B2 (en) * 2004-12-28 2010-06-30 カシオ計算機株式会社 Camera device and photographing condition setting method
WO2007072663A1 (en) * 2005-12-22 2007-06-28 Olympus Corporation Photographing system and photographing method
JP2008066886A (en) * 2006-09-05 2008-03-21 Olympus Imaging Corp Camera, communication control device, photography technical assistance system, photography technical assistance method, program

Cited By (21)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2013207418A (en) * 2012-03-27 2013-10-07 Zenrin Datacom Co Ltd Imaging system and imaging management server
JP2013211719A (en) * 2012-03-30 2013-10-10 Nikon Corp Digital camera
JP2013239861A (en) * 2012-05-14 2013-11-28 Freebit Co Ltd Image capturing system
US9602710B2 (en) 2012-05-14 2017-03-21 Freebit Co., Ltd. Automated parameter optimization for an image shooting system
KR20150020196A (en) * 2012-05-14 2015-02-25 프리비트 가부시키가이샤 Image shooting system
US9386212B2 (en) 2012-05-30 2016-07-05 Sony Corporation Information processing device, system and storage medium to provide shooting parameters
WO2013179742A1 (en) 2012-05-30 2013-12-05 ソニー株式会社 Information processing device, system, and storage medium
JPWO2013179742A1 (en) * 2012-05-30 2016-01-18 ソニー株式会社 Information processing apparatus, system, and storage medium
JPWO2013183338A1 (en) * 2012-06-07 2016-01-28 ソニー株式会社 Information processing apparatus and storage medium
US9438788B2 (en) 2012-06-07 2016-09-06 Sony Corporation Information processing device and storage medium
CN103959265A (en) * 2012-10-02 2014-07-30 松下电器产业株式会社 Image display method, image display apparatus, and image providing method
JPWO2014054221A1 (en) * 2012-10-02 2016-08-25 パナソニック インテレクチュアル プロパティ コーポレーション オブ アメリカPanasonic Intellectual Property Corporation of America Image display method, image display apparatus, and image providing method
US9508323B2 (en) 2012-10-02 2016-11-29 Panasonic Intellectual Property Corporation Of America Appliance control system and method for controlling an appliance based on processing done by another appliance
WO2014054221A1 (en) * 2012-10-02 2014-04-10 パナソニック株式会社 Image display method, image display apparatus, and image providing method
CN103959265B (en) * 2012-10-02 2017-04-12 松下电器(美国)知识产权公司 Image display method, image display apparatus, and image providing method
US9800771B2 (en) 2012-12-27 2017-10-24 Olympus Corporation Server apparatus and photographing apparatus for setting a photographing parameter for capturing an image based on extracted user preference data
JP2016092537A (en) * 2014-10-31 2016-05-23 キヤノン株式会社 Imaging device, control method therefor, program, and storage medium
EP3018892A1 (en) * 2014-10-31 2016-05-11 Canon Kabushiki Kaisha Image capturing apparatus and control method thereof
US9692971B2 (en) 2014-10-31 2017-06-27 Canon Kabushiki Kaisha Image capturing apparatus capable of automatically switching from reproduction mode to shooting mode and displaying live view image and control method thereof
WO2021177567A1 (en) * 2020-03-03 2021-09-10 Samsung Electronics Co., Ltd. System and method for image color management
US11665273B2 (en) 2020-03-03 2023-05-30 Samsung Electronics Co., Ltd. System and method for image color management

Also Published As

Publication number Publication date
WO2011058675A1 (en) 2011-05-19

Similar Documents

Publication Publication Date Title
WO2011058675A1 (en) Electronic camera and semiconductor integrated circuit device for electronic camera device
US8106995B2 (en) Image-taking method and apparatus
US8525894B2 (en) Camera and camera control method
KR101342477B1 (en) Imaging apparatus and imaging method for taking moving image
JP4787180B2 (en) Imaging apparatus and imaging method
JP4574459B2 (en) Image capturing apparatus, control method therefor, program, and storage medium
JP4757113B2 (en) Imaging apparatus and control method thereof, information processing apparatus, printing apparatus, and print data generation method
JP2001251551A (en) Electronic camera
US20080079822A1 (en) Image correction device, image correction method, and computer readable medium
JP2006262451A (en) Image recording apparatus and method
JP2011182252A (en) Imaging device, and image imaging method
JP3859131B2 (en) Digital camera
JP4645413B2 (en) Imaging device
KR101737086B1 (en) Digital photographing apparatus and control method thereof
JP5146585B2 (en) Image correction apparatus, image correction method, and program
US7796163B2 (en) System for and method of taking image based on objective body in a taken image
JP2007124282A (en) Imaging apparatus
JP2007142702A (en) Image processing apparatus
JP2002305684A (en) Imaging system and program
JP5266701B2 (en) Imaging apparatus, subject separation method, and program
JP2007329679A (en) Apparatus and method for image display
JP4049291B2 (en) Digital still camera
JP4964992B2 (en) Image capturing apparatus and image recording method thereof
JP6660236B2 (en) Image processing apparatus, image processing method, program, and storage medium
JP2010087598A (en) Photographic apparatus, photographic control method and program therefor, image display apparatus, image display method and program therefor, and photographic system, control method therefor and program therefor