JP2011040860A - Image processor and image processing program - Google Patents

Image processor and image processing program Download PDF

Info

Publication number
JP2011040860A
JP2011040860A JP2009184300A JP2009184300A JP2011040860A JP 2011040860 A JP2011040860 A JP 2011040860A JP 2009184300 A JP2009184300 A JP 2009184300A JP 2009184300 A JP2009184300 A JP 2009184300A JP 2011040860 A JP2011040860 A JP 2011040860A
Authority
JP
Japan
Prior art keywords
frame image
event
evaluation
image
frame
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Pending
Application number
JP2009184300A
Other languages
Japanese (ja)
Inventor
Itsuhito Hokoi
逸人 鉾井
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Nikon Corp
Original Assignee
Nikon Corp
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Nikon Corp filed Critical Nikon Corp
Priority to JP2009184300A priority Critical patent/JP2011040860A/en
Publication of JP2011040860A publication Critical patent/JP2011040860A/en
Pending legal-status Critical Current

Links

Images

Landscapes

  • Image Analysis (AREA)
  • Television Signal Processing For Recording (AREA)

Abstract

<P>PROBLEM TO BE SOLVED: To solve a problem not to select a scene considering desirability of the scene even if detecting a similar scene based on change of a feature quantity. <P>SOLUTION: An image processor includes: a feature quantity detection part 22 which detects feature quantities from respective frame images of continuous photographing image data groups or moving image data; an event detection part 23 which detects an event based on change of feature quantities accompanying time change; a transition evaluation part 24 which calculates a transition evaluation value based on a predetermined evaluation index for event detection frame images which is frame images corresponding to the detected event, and frame image groups of a predetermined time following it; and a selection part 25 which selects a scene by the frame image groups including the event detection frame images based on the calculated transition evaluation value. <P>COPYRIGHT: (C)2011,JPO&INPIT

Description

本発明は、画像処理装置及び画像処理プログラムに関する。   The present invention relates to an image processing apparatus and an image processing program.

近年のデジタルカメラには、静止画像の単写機能だけでなく、連写機能や動画の撮影機能を備えたものがある。このデジタルカメラで撮影された静止画や動画には、同じような撮影シーンが複数含まれる場合がある。例えば、同一の撮影場所から回転木馬に乗った人物を周回するたびに連写したり、人物が振り向くシーンを何度も撮影したりすることがあると、同様な撮影シーンが複数回記録されることになる。このような場合に、撮影者は、撮影後すぐに、又は後日、記録された同様の撮影シーンの連写画像データ群や動画データの中から、良く撮れた連写群や動画を選び出して記録に残し、それ以外のものを削除するといった作業を行うことになる。このような作業は煩わしいものであり、客観的な評価判定によって自動的に選択されるような機能が望まれている。   Some recent digital cameras have not only a still image single shooting function but also a continuous shooting function and a moving image shooting function. A still image or a moving image shot with this digital camera may include a plurality of similar shooting scenes. For example, if you take a series of shots every time you circulate a person on a carousel from the same shooting location, or if you shoot a scene in which a person turns, the same shooting scene will be recorded multiple times. become. In such a case, the photographer selects and records a well-recorded continuous shooting group or movie from the continuous shooting image data group or movie data of the same shooting scene recorded immediately after shooting or at a later date. It is necessary to delete the other items. Such work is troublesome, and a function that is automatically selected by objective evaluation and determination is desired.

動画像データから動画像の内容の区切り(例えば、撮像された製造工程の区切り)に対応する区切り位置を特定するための動画像データ処理装置が知られている(例えば、特許文献1参照)。この動画像データ処理装置は、動画像データから時系列データである複数種類の特徴量情報を抽出し、その中から特徴量変化の大きさに基づいて特定の特徴量情報を選択する。そして、その選択した特徴量情報における特徴量変化の最も大きな時系列位置を区切り位置として特定するものである。この動画像データ処理装置は、撮像された動画像に基づいて製造工程を判別する生産管理装置、動画像データのチャプタ分類やインデックス情報の生成等を行う動画像編集装置等に用いられることが知られている。   2. Description of the Related Art A moving image data processing apparatus is known for specifying a break position corresponding to a break of moving image content (for example, a taken production process break) from moving image data (see, for example, Patent Document 1). The moving image data processing device extracts a plurality of types of feature amount information that is time-series data from the moving image data, and selects specific feature amount information based on the magnitude of the feature amount change. Then, the time series position having the largest feature amount change in the selected feature amount information is specified as the delimiter position. This moving image data processing apparatus is known to be used in a production management apparatus that discriminates a manufacturing process based on a captured moving image, a moving image editing apparatus that performs chapter classification of moving image data, generation of index information, and the like. It has been.

上記の従来技術を用いることにより、連写画像データ群や動画データの中から、特徴量変化の大きな時系列位置に対応するフレーム画像を検出することができる。従来は、類似する撮影シーンが含まれる連写画像データ群や画像データの中から、特定の特徴量が大きく変化する時系列位置をイベント発生位置として捉え、そのイベント発生位置に対応するフレーム画像を検出して、相互に類似する撮影シーンにおける主要な画像と推定するようにしていた。   By using the above-described conventional technology, it is possible to detect a frame image corresponding to a time-series position having a large feature amount change from a continuous shot image data group or moving image data. Conventionally, a time-series position at which a specific feature amount greatly changes is regarded as an event occurrence position from continuous image data groups and image data including similar shooting scenes, and a frame image corresponding to the event occurrence position is captured. It was detected and estimated as a main image in a shooting scene similar to each other.

特開2008−9938号公報JP 2008-9938 A

上記従来技術によれば、類似する撮影シーンが含まれる連写画像データ群又は動画データの中から、相互に類似する撮影シーンにおける主要なフレーム画像を検出することはできる。そして、その検出されたフレーム画像を含む時系列な連写画像データ群又は動画データを選択することにより、類似性が高いと推定される連写画像データ群又は動画データを抽出することは可能である。   According to the above-described prior art, it is possible to detect main frame images in mutually similar shooting scenes from a continuous shot image data group or moving image data including similar shooting scenes. Then, by selecting a time-series continuous-shot image data group or moving image data including the detected frame image, it is possible to extract a continuous-shot image data group or moving image data that is estimated to have high similarity. is there.

しかしながら、このようにして抽出された連写画像データ群又は動画データのうち、どの連写画像データ群又は動画データが最も好ましい撮影がされたものであるかの判定を行うことはできず、撮影シーンの好ましさの判定は人間の主観的判断に委ねられている。   However, it is not possible to determine which continuous-shot image data group or moving image data is the most preferable shot from among the continuous-shot image data group or moving image data extracted in this way. The determination of the preference of a scene is left to human subjective judgment.

そこで本発明は、上記事情に鑑みてなされたものであり、連写画像データ群や動画像データについて、類似のシーンを検出し客観的な評価基準によって所望のシーンを選択することのできる画像処理装置及び画像処理プログラムを提供することを目的とする。   Therefore, the present invention has been made in view of the above circumstances, and image processing that can detect a similar scene and select a desired scene based on an objective evaluation criterion for continuous shot image data groups and moving image data. An object is to provide an apparatus and an image processing program.

本発明は、上記の課題を解決するためになされたものであり、連写画像データ群又は動画像データの各フレーム画像から特徴量を検出する特徴量検出手段と、時刻変化に伴う前記特徴量の変化に基づいてイベントを検出するイベント検出手段と、検出されたイベントに対応するフレーム画像であるイベント検出フレーム画像とそれに時系列的に続く所定時間分のフレーム画像群とについて、所定の評価指標に基づいた評価値を算出する評価手段と、前記評価値に基づいて、イベント検出フレーム画像を含むフレーム画像群によるシーンを選択する選択手段とを備えたことを特徴とする。   The present invention has been made in order to solve the above-described problem, and includes feature amount detection means for detecting a feature amount from each frame image of a continuous shot image data group or moving image data, and the feature amount accompanying a time change. A predetermined evaluation index for event detection means for detecting an event based on the change of the event, an event detection frame image that is a frame image corresponding to the detected event, and a frame image group for a predetermined time following the time series Evaluation means for calculating an evaluation value based on the above and a selection means for selecting a scene based on a group of frame images including an event detection frame image based on the evaluation value.

本発明によれば、顕著性のあるイベント検出フレーム画像を検出することにより、このイベント検出フレーム画像を基準としたフレーム画像群が類似したシーンであると推定できる。そして、類似したシーンであると推定したものの中から、客観的な評価基準にしたがったシーンを選択することができる。   According to the present invention, by detecting a significant event detection frame image, it can be estimated that a frame image group based on the event detection frame image is a similar scene. Then, a scene according to an objective evaluation criterion can be selected from those estimated to be similar scenes.

本発明の第1及び第2実施形態である画像処理装置を適用した撮像装置のブロック図である。1 is a block diagram of an imaging apparatus to which an image processing apparatus according to first and second embodiments of the present invention is applied. 本発明の第1及び第2実施形態による撮像装置のシーン選択処理部の構成と、その周辺部分の構成とを示したブロック図である。It is the block diagram which showed the structure of the scene selection process part of the imaging device by 1st and 2nd embodiment of this invention, and the structure of the peripheral part. 本発明の第1実施形態による撮像装置における、シーン選択機能の処理を示すフローチャートである。3 is a flowchart showing processing of a scene selection function in the imaging apparatus according to the first embodiment of the present invention. 本発明の第1及び第2実施形態による撮像装置における、シーン選択処理部の実行するイベント検出処理のフローチャートである。It is a flowchart of the event detection process which the scene selection process part performs in the imaging device by 1st and 2nd embodiment of this invention. 本発明の第1実施形態における、フレーム画像を順次入力させた場合の特徴量検出部による顔検出値のグラフである。It is a graph of the face detection value by the feature-value detection part at the time of inputting the frame image sequentially in 1st Embodiment of this invention. 本発明の第1及び第2実施形態における、シーン選択処理部の実行するトランジション評価処理のフローチャートである。It is a flowchart of the transition evaluation process which the scene selection process part performs in 1st and 2nd embodiment of this invention. 本発明の第1実施形態における、一定期間分のフレーム画像を順次入力させた場合の、正面向き度合いの評価値のグラフである。It is a graph of the evaluation value of the degree of front direction at the time of inputting a frame image for a fixed period sequentially in a 1st embodiment of the present invention. 本発明の第1実施形態における、一定期間分のフレーム画像を順次入力させた場合の、中心位置度合いの評価値のグラフである。It is a graph of the evaluation value of a center position degree at the time of inputting a frame image for a fixed period sequentially in a 1st embodiment of the present invention. 本発明の第1実施形態における、一定期間分のフレーム画像を順次入力させた場合の、目つぶり検出値の評価値のグラフである。It is a graph of the evaluation value of a blink detection value when a frame image for a certain period is sequentially input in the first embodiment of the present invention. 本発明の第1実施形態における、一定期間分のフレーム画像を順次入力させた場合の、笑顔度合いの評価値のグラフである。It is a graph of the evaluation value of a smile degree at the time of inputting the frame image for a fixed period sequentially in 1st Embodiment of this invention. 本発明の第1実施形態における、シーン選択機能に設定された撮影装置が、3つのデータファイルからそれぞれイベントを検出し、トランジション評価を行って3つの類似するシーンを抽出し、そしてそれらの中から1つのシーンを抽出する様子を模式的に表した図である。In the first embodiment of the present invention, the imaging device set to the scene selection function detects an event from each of the three data files, performs transition evaluation, extracts three similar scenes, and out of them. It is the figure which represented a mode that one scene was extracted. 本発明の第2実施形態における、連写された撮像連写画像データ群のうちの1つのフレーム画像を模式的に表した図である。It is the figure which represented typically one frame image among the continuous shooting image | photographed continuous shooting image data groups in 2nd Embodiment of this invention. 本発明の第2実施形態による撮像装置における、シーン選択機能の処理を示すフローチャートである。It is a flowchart which shows the process of the scene selection function in the imaging device by 2nd Embodiment of this invention. 本発明の第2実施形態における、2つのデータファイル群それぞれについての、各フレーム画像における人物の重心位置のX方向の座標値の推移をグラフ化して示した図である。It is the figure which graphed and showed the transition of the coordinate value of the X direction of the gravity center position of the person in each frame image about each of two data file groups in 2nd Embodiment of this invention.

以下、本発明を実施するための形態について、図面を参照して詳細に説明する。   Hereinafter, embodiments for carrying out the present invention will be described in detail with reference to the drawings.

[第1の実施の形態]
本発明の第1実施形態である画像処理装置を撮像装置に適用した例について説明する。この撮像装置は、例えばデジタルカメラ装置であり、1回の撮影操作(撮影ボタン押し)で1つの静止画を撮影する単写撮影機能の他に、連写撮影機能、動画撮影機能、及びシーン選択機能を有するものである。連写撮影機能は、1回の撮影操作につき時系列的に複数の静止画を撮影する機能である。動画撮影機能は、動画を撮影する機能である。シーン選択機能は、連写撮影による連写画像データ群又は動画撮影による動画データから、類似するシーンを検出して評価を行い、それらの中から所定の評価基準を満たしたシーンを選択する機能である。シーンとは、任意の時間分の連写画像データ群又は動画データである。
[First Embodiment]
An example in which the image processing apparatus according to the first embodiment of the present invention is applied to an imaging apparatus will be described. This imaging device is, for example, a digital camera device. In addition to a single shooting function for shooting one still image by one shooting operation (pressing a shooting button), a continuous shooting function, a moving image shooting function, and a scene selection function It has a function. The continuous shooting function is a function for shooting a plurality of still images in time series for one shooting operation. The moving image shooting function is a function for shooting a moving image. The scene selection function is a function that detects and evaluates similar scenes from a group of continuous-shot image data obtained by continuous shooting or from moving image data obtained by moving-image shooting, and selects a scene that satisfies a predetermined evaluation criterion from these. is there. A scene is a group of continuous shot image data or moving image data for an arbitrary time.

本実施形態では、このシーン選択機能について主に説明する。本実施形態による撮像装置は、撮影して記録された1つ又は複数の動画像データについて、隣り合うフレーム画像間の特徴量の差分値を計算して特徴の変化点であるイベントを検出する。そして、検索の結果、複数のイベントが検出された場合に、イベントの検出されたフレーム画像を、それぞれ類似するシーンにおける顕著性のある画像であると推定する。そして、撮像装置は、イベントの検出された各フレーム画像とそれに時系列的に続くフレーム画像とについて所定の評価指標による画像の遷移の評価を行い、類似するシーンの中で最も評価の高いシーンを選択する。このシーン選択機能により、本実施形態による撮像装置は、記録されている動画像データに同じようなシーンが含まれている場合に、客観的な評価基準に基づいてシーンを順位付けすることができ、所望の順位のシーンを抽出することができる。以下、このような特徴を有する撮像装置について具体的に説明する。   In this embodiment, this scene selection function will be mainly described. The imaging apparatus according to the present embodiment detects an event that is a feature change point by calculating a difference value of a feature amount between adjacent frame images with respect to one or a plurality of moving image data captured and recorded. If a plurality of events are detected as a result of the search, it is estimated that the frame images from which the events are detected are prominent images in similar scenes. Then, the imaging apparatus evaluates the transition of the image with a predetermined evaluation index for each frame image in which the event is detected and the frame image that continues in time series, and the most highly evaluated scene among similar scenes is evaluated. select. With this scene selection function, the imaging apparatus according to the present embodiment can rank scenes based on objective evaluation criteria when similar scenes are included in the recorded moving image data. , A scene having a desired order can be extracted. Hereinafter, an imaging apparatus having such characteristics will be described in detail.

図1は、本実施形態である画像処理装置を適用した撮像装置のブロック図である。同図において、撮像装置1は、光学系11と、撮像部12と、操作部13と、制御部14と、記憶部15と、表示部16と、入出力インターフェイス17と、記録媒体19とを含んで構成される。この撮像装置1において、撮像部12と、制御部14と、記憶部15と、表示部16と、入出力インターフェイス17とは、当該装置内部のバス18を介してそれぞれ接続されている。撮像装置1は、例えばデジタルカメラで構成される。   FIG. 1 is a block diagram of an imaging apparatus to which the image processing apparatus according to this embodiment is applied. In FIG. 1, an imaging apparatus 1 includes an optical system 11, an imaging unit 12, an operation unit 13, a control unit 14, a storage unit 15, a display unit 16, an input / output interface 17, and a recording medium 19. Consists of including. In the imaging device 1, the imaging unit 12, the control unit 14, the storage unit 15, the display unit 16, and the input / output interface 17 are connected to each other via a bus 18 inside the device. The imaging device 1 is composed of, for example, a digital camera.

光学系11は、レンズ群と絞り及び焦点距離の調節機構とを含んで構成される。光学系11は、撮像装置1の本体と着脱可能に取り付けられるようになっていてもよい。撮像部12は、光学系11を通して入光させた光束を受光面に結像させて撮像し撮像画像データを生成する。操作部13は、不図示ではあるが、電源ボタン、撮影ボタン、ズームボタン、撮影動作させるための撮影モードと記録媒体19に記録された静止画像データ、連写画像データ群、又は動画像データを読み出させて表示部16に表示させるための再生モードとを切換えるためのモード切換ボタン、撮像装置1の各種設定を行わせるための設定モードに移行して表示部16に操作メニューを表示させるためのメニューボタン、表示部16に表示された操作メニューを操作させるための選択ボタン、及びこの選択ボタンの操作によって操作メニュー上で選択されている項目を決定するための決定ボタンを備える。   The optical system 11 includes a lens group, a diaphragm, and a focal length adjustment mechanism. The optical system 11 may be detachably attached to the main body of the imaging device 1. The imaging unit 12 forms an image of the light beam incident through the optical system 11 on the light receiving surface, and generates captured image data. Although not shown, the operation unit 13 receives a power button, a shooting button, a zoom button, a shooting mode for performing a shooting operation, and still image data, a continuous shot image data group, or moving image data recorded on the recording medium 19. A mode switching button for switching between a reproduction mode for reading and displaying on the display unit 16, and a transition to a setting mode for performing various settings of the imaging device 1 to display an operation menu on the display unit 16. Menu button, a selection button for operating the operation menu displayed on the display unit 16, and a determination button for determining an item selected on the operation menu by the operation of the selection button.

制御部14は、撮像装置1全体を制御するための処理部であり、CPU(Central Proccessing Unit)を含んで構成される。制御部14は、その機能構成として、シーン選択処理部20と画像圧縮伸長部21とを備える。シーン選択処理部20については、図2を参照する際に説明する。画像圧縮伸長部21は、撮像部12で生成された撮像画像データを圧縮処理し、単写撮影機能の場合は圧縮静止画像データ、連写撮影機能の場合は圧縮連写画像データ群、動画撮影機能の場合は圧縮動画像データを生成する。また、画像圧縮伸長部21は、記録媒体19から読み出された圧縮静止画像データ、圧縮連写画像データ群、又は圧縮動画像データを伸長処理して、伸長静止画像データ、伸長連写画像データ群、又は伸長動画像データを生成する。   The control unit 14 is a processing unit for controlling the entire imaging apparatus 1 and includes a CPU (Central Processing Unit). The control unit 14 includes a scene selection processing unit 20 and an image compression / decompression unit 21 as its functional configuration. The scene selection processing unit 20 will be described when referring to FIG. The image compression / decompression unit 21 compresses the captured image data generated by the imaging unit 12, and in the case of the single shooting function, the compressed still image data, in the case of the continuous shooting function, the compressed continuous image data group, and the moving image shooting In the case of a function, compressed moving image data is generated. The image compression / decompression unit 21 decompresses the compressed still image data, the compressed continuous-shot image data group, or the compressed moving image data read from the recording medium 19 to obtain the decompressed still image data and the decompressed continuous-shot image data. Group or decompression moving image data is generated.

記憶部15は、制御部14に実行させるための各種制御用プログラムを格納するROM(Read Only Memory)と、これら制御用プログラムを作業領域に展開したり、画像データ、操作メニュー、変数等を記憶したりするためのRAM(Random Access Memory)とを備える。表示部16は、撮影モード時には撮像状態にある撮像画像データを表示し、再生モード時には伸長静止画像データ、伸長連写画像データ群、又は伸長動画像データを表示し、設定モード時には操作メニュー等を表示するための表示装置である。表示装置16は、液晶表示パネルや有機EL(Electro−Luminescence)パネルを備えたモニタで構成される。入出力インターフェイス17は、記録媒体19を着脱可能に接続するためのコネクタを備えたインターフェイス部である。記録媒体19は、入出力インターフェイス17のコネクタに取り付けられる可搬型記録媒体である。この記録媒体19は、例えばメモリカードである。   The storage unit 15 stores a ROM (Read Only Memory) that stores various control programs to be executed by the control unit 14, expands these control programs in a work area, and stores image data, operation menus, variables, and the like. RAM (Random Access Memory). The display unit 16 displays captured image data in an imaging state in the shooting mode, displays expanded still image data, extended continuous image data group, or expanded moving image data in the playback mode, and displays an operation menu or the like in the setting mode. A display device for displaying. The display device 16 includes a monitor having a liquid crystal display panel or an organic EL (Electro-Luminescence) panel. The input / output interface 17 is an interface unit including a connector for detachably connecting the recording medium 19. The recording medium 19 is a portable recording medium attached to the connector of the input / output interface 17. The recording medium 19 is a memory card, for example.

次に、シーン選択処理部20について説明する。図2は、制御部14に機能的に含まれるシーン選択処理部20の構成とその周辺部分の構成とを示したブロック図である。同図において、シーン選択処理部20は、特徴量検出部22と、イベント検出部23と、トランジション評価部24と、選択部25と、特徴量パラメータ設定部26と、評価パラメータ設定部27とを含んで構成される。   Next, the scene selection processing unit 20 will be described. FIG. 2 is a block diagram showing the configuration of the scene selection processing unit 20 functionally included in the control unit 14 and the configuration of its peripheral part. In the figure, the scene selection processing unit 20 includes a feature amount detection unit 22, an event detection unit 23, a transition evaluation unit 24, a selection unit 25, a feature amount parameter setting unit 26, and an evaluation parameter setting unit 27. Consists of including.

特徴量検出部22には、記録媒体19から所望の圧縮連写画像データ群又は圧縮動画像データが読み出されて画像圧縮伸長部21で伸長処理されることにより得られた伸長連写画像データ群又は伸長動画像データがフレーム画像単位で入力される。特徴量検出部22は、フレーム画像が入力されると所定の特徴量を検出する。この特徴量とは、例えば、フレーム画像における色、明度、色相、コントラスト等の視覚的特徴や、テクスチャ、人物の顔等のオブジェクトの有無、オブジェクトの位置等の画像の特徴を数値化したものである。   The feature amount detection unit 22 reads a desired compressed continuous shot image data group or compressed moving image data from the recording medium 19 and decompresses the image data by the image compression / decompression unit 21. Group or decompressed moving image data is input in units of frame images. The feature amount detection unit 22 detects a predetermined feature amount when a frame image is input. This feature amount is, for example, a quantification of visual features such as color, brightness, hue, and contrast in a frame image, image features such as the presence or absence of objects such as textures and human faces, and object positions. is there.

特徴量パラメータ設定部26は、特徴量検出部22で検出すべき特徴の種類を1つ又は複数設定したり、特徴量の検出の優先順位を設定したりする。イベント検出部23は、時刻の異なるフレーム画像間の同種類の特徴量の変化をとらえ、その変化が所定の基準を満たした場合に、特徴の変化点であるイベントを検出する。イベント検出については、後述する動作説明において具体例を挙げて説明する。   The feature quantity parameter setting unit 26 sets one or more types of features to be detected by the feature quantity detection unit 22 and sets the priority order of feature quantity detection. The event detection unit 23 detects the same type of feature amount change between frame images at different times, and detects an event that is a feature change point when the change satisfies a predetermined criterion. Event detection will be described with a specific example in the operation description to be described later.

トランジション評価部24は、イベント検出部23でイベントの検出されたフレーム画像とそれに時系列的に続くフレーム画像とについて、所定の評価指標による画像の遷移の評価であるトランジション評価を行う。評価指標とは、例えば、フレーム画像内で画像認識されたオブジェクトの、時間経過に伴う任意の評価対象の状態変化を評価する際に参照される指標等である。つまり、評価指標により行うトランジション評価とは、イベント検出時を基準として評価指標によるフレーム画像の変化の傾向を評価することである。評価指標については、後述する動作説明において具体例を挙げて説明する。   The transition evaluation unit 24 performs transition evaluation, which is an evaluation of image transition based on a predetermined evaluation index, on the frame image in which the event is detected by the event detection unit 23 and the frame image that follows the time series. The evaluation index is, for example, an index that is referred to when evaluating a state change of an arbitrary evaluation target with the passage of time of an object whose image is recognized in a frame image. That is, the transition evaluation performed by the evaluation index is to evaluate the tendency of the frame image change by the evaluation index with the event detection time as a reference. The evaluation index will be described with a specific example in the operation description to be described later.

評価パラメータ設定部27は、トランジション評価部24で評価する1種類又は複数種類の評価指標を設定したり、複数種類ある評価指標による評価の優先順位を設定したりする。   The evaluation parameter setting unit 27 sets one type or a plurality of types of evaluation indexes to be evaluated by the transition evaluation unit 24, or sets the evaluation priority order based on a plurality of types of evaluation indexes.

選択部25は、トランジション評価部24において評価されたイベントごとの評価値の中で、最も高い評価となった評価値に対応するイベントの検出されたフレーム画像を指定し、そのフレーム画像を含むシーンの開始位置及び終了位置の情報(シーンの位置情報)を出力する。なお、選択部25は、イベント検出部23で検出されたイベントが1つであった場合は、そのイベントの検出されたフレーム画像を指定し、そのフレーム画像を含むシーンの位置情報を出力する。   The selection unit 25 designates a frame image in which an event corresponding to the highest evaluation value among the evaluation values for each event evaluated by the transition evaluation unit 24 is detected, and a scene including the frame image The information of the start position and end position (scene position information) is output. When there is one event detected by the event detection unit 23, the selection unit 25 designates the frame image in which the event is detected, and outputs the position information of the scene including the frame image.

次に、撮像装置1のシーン選択機能における動作について説明する。本実施形態では、動画撮影機能に設定された撮像装置1によって、撮影者側に背を向けた人物が撮影者側に振り向くシーン(振向きシーン)が3回撮影され、振向きシーンをそれぞれ含む3つの圧縮動画像データがデータファイル化されて記録媒体19に予め記録されているものとする。本実施形態では、シーン選択機能に設定された撮像装置1が、3つの圧縮動画像データの中から3つの振向きシーンを検出し、各シーンを評価指標により評価して最も評価の高いシーンを選択する例について説明する。   Next, the operation in the scene selection function of the imaging apparatus 1 will be described. In the present embodiment, the imaging device 1 set to the moving image shooting function captures a scene (a turning scene) in which a person turning his back to the photographer turns to the photographer, and includes each turning scene. It is assumed that three compressed moving image data are converted into data files and recorded in advance on the recording medium 19. In the present embodiment, the imaging device 1 set to the scene selection function detects three turning scenes from the three compressed moving image data, and evaluates each scene with an evaluation index to obtain the highest evaluation scene. An example of selection will be described.

本実施形態において、特徴量パラメータ設定部26には、特徴量検出部22で検出すべき特徴の種類は人物の顔検出であること、特徴量は顔が検出されたか否かの判定値(顔検出値)であることが予め設定されている。また、評価パラメータ設定部27には、トランジション評価部24で評価する評価指標が、正面向き度合い、画像中心からの目の中心位置度合い、目つぶり検出値、笑顔度合いであることが予め設定されている。さらに、評価パラメータ設定部27には、評価指標ごとに重み付けが設定されている。例えば、優先度の高い方から低い方への順番と、重み付けの大きい方から小さい方への順番とを合わせるようにする。具体的には、優先度の降順が、目つぶり検出値、笑顔度合い、正面向き度合い、画像中心からの目の中心位置度合いである場合に、重み付けの降順が同一順となるように設定する。   In the present embodiment, the feature quantity parameter setting unit 26 indicates that the type of feature to be detected by the feature quantity detection unit 22 is human face detection, and the feature quantity is a determination value (face value) indicating whether or not a face has been detected. Detection value) is set in advance. In the evaluation parameter setting unit 27, the evaluation index to be evaluated by the transition evaluation unit 24 is set in advance as the front orientation degree, the eye center position degree from the image center, the blink detection value, and the smile degree. Yes. Furthermore, weighting is set in the evaluation parameter setting unit 27 for each evaluation index. For example, the order from the higher priority to the lower priority is matched with the order from the higher weighting to the lower priority. Specifically, when the descending order of priority is the blink detection value, the smile degree, the front direction degree, and the eye center position degree from the center of the image, the descending order of the weights is set to be the same order.

図3は、撮像装置1におけるシーン選択機能の処理を示すフローチャートである。ステップS301において、制御部14は、撮像装置1の操作者による操作部13の操作にしたがって、記録媒体19に記録された3つの圧縮動画像データのデータファイルを選択する。操作者によるデータファイルの選択は、例えば、操作メニューの操作によって行うことができる。つまり、操作者による操作部13のメニューボタンの押下によって、制御部14は操作メニューを表示部16に表示させる。この操作メニューは例えば階層メニュー構造になっている。そして、いずれかの下位階層にファイル選択メニューが形成され、そこに記録媒体19に記録されたデータファイルのファイル名が示されるようになっている。操作者の操作部13の選択ボタンの操作にしたがって、制御部14は、ファイル選択メニューを表示部16に表示させる。そして、操作者に所望のデータファイルを選択させる。   FIG. 3 is a flowchart showing processing of the scene selection function in the imaging apparatus 1. In step S <b> 301, the control unit 14 selects three data files of compressed moving image data recorded on the recording medium 19 in accordance with the operation of the operation unit 13 by the operator of the imaging apparatus 1. The data file can be selected by the operator, for example, by operating the operation menu. That is, the control unit 14 causes the display unit 16 to display the operation menu when the operator presses the menu button of the operation unit 13. This operation menu has, for example, a hierarchical menu structure. A file selection menu is formed in any lower hierarchy, and the file name of the data file recorded on the recording medium 19 is displayed there. In accordance with the operation of the selection button on the operation unit 13 by the operator, the control unit 14 causes the display unit 16 to display a file selection menu. Then, the operator is made to select a desired data file.

次に、ステップS302において、シーン選択処理部20は、選択された3つのデータファイルをそれぞれ解析して、類似するシーンを客観的な評価基準に基づいて順位付けし、最も順位の高い1つのシーンを選択してそのシーンの位置情報を取得する。この処理ステップについては、後で詳細に説明する。次に、ステップS303において、制御部14は、ステップS302の処理において取得したシーンの位置情報に基づいて記録媒体19に記録されたデータファイルから当該シーンに該当する動画像データを抽出する。そして次に、ステップS304において、制御部14は、抽出した動画像データを記録媒体19に記録する。このとき、制御部14は、3つの類似するシーンのうち選択されなかった2つのシーンに該当する動画像データ、又はこれらが含まれるデータファイルを削除してもよい。   Next, in step S302, the scene selection processing unit 20 analyzes each of the three selected data files, ranks similar scenes based on objective evaluation criteria, and selects one scene with the highest rank. To obtain position information of the scene. This processing step will be described later in detail. Next, in step S303, the control unit 14 extracts moving image data corresponding to the scene from the data file recorded on the recording medium 19 based on the position information of the scene acquired in the process of step S302. Next, in step S304, the control unit 14 records the extracted moving image data on the recording medium 19. At this time, the control unit 14 may delete moving image data corresponding to two scenes not selected from three similar scenes, or a data file including these.

次に、上記のステップS302の処理の詳細を説明する。図4は、シーン選択処理部20の実行するイベント検出処理のフローチャートである。ステップS401において、制御部14は、ステップS301の処理において選択した3つのデータファイルについて、操作者によって選択された順番で圧縮動画像データを記録媒体19から読み出して画像圧縮伸長部21で伸長処理を行い、データ伸長されたフレーム画像を特徴量検出部22に入力する。このステップS401の処理においてフレーム画像の入力がなくなった場合(S401:NO)は、このフローチャートの処理を終了する。   Next, details of the processing in step S302 will be described. FIG. 4 is a flowchart of the event detection process executed by the scene selection processing unit 20. In step S401, the control unit 14 reads the compressed moving image data from the recording medium 19 in the order selected by the operator for the three data files selected in the process of step S301, and performs the decompression process in the image compression / decompression unit 21. Then, the data decompressed frame image is input to the feature amount detection unit 22. If no frame image is input in the process of step S401 (S401: NO), the process of this flowchart ends.

一方、ステップS401の処理においてフレーム画像の入力があった場合(S401:YES)、ステップS402において、特徴量検出部22は、特徴量パラメータ設定部26に設定された、特徴の種類(人物の顔検出)と特徴量(顔検出値)とに基づいて特徴量の検出処理を行う。オブジェクトである人物の顔は、例えば、フレーム画像中に人物の目の有無を認識する画像認識処理を行うことによって検出する。特徴量である顔検出値は、人物の顔の有無を示す2値で表現される。   On the other hand, when a frame image is input in the process of step S401 (S401: YES), in step S402, the feature amount detection unit 22 sets the feature type (person's face) set in the feature amount parameter setting unit 26. Detection) and feature amount detection processing based on the feature amount (face detection value). The face of a person as an object is detected, for example, by performing image recognition processing for recognizing the presence or absence of a person's eyes in a frame image. The face detection value, which is a feature amount, is expressed as a binary value indicating the presence or absence of a human face.

図5は、フレーム画像を順次入力させた場合の特徴量検出部22による顔検出値のグラフである。同図によれば、フレーム番号#1から順次入力されたフレーム画像には人物の目が写っていないか、特徴量検出部22が目を検出しないために顔検出値が0レベルとなる状態が続き、フレーム番号#Kのフレーム画像において、特徴量検出部22が目を検出したために顔検出値が一定レベル値となり、このフレーム画像で人物の顔が検出されたことを示している。また、同図では、特徴量検出部22は、フレーム番号#K以降のフレーム画像では人物の顔を検出し続けていることを示している。   FIG. 5 is a graph of face detection values by the feature amount detection unit 22 when frame images are sequentially input. According to the figure, the human eyes are not shown in the frame images sequentially input from the frame number # 1, or the face detection value is 0 level because the feature amount detection unit 22 does not detect the eyes. Subsequently, in the frame image of frame number #K, the feature amount detection unit 22 detects the eyes, so that the face detection value becomes a constant level value, indicating that a human face has been detected in this frame image. In the figure, it is shown that the feature quantity detection unit 22 continues to detect a person's face in frame images after frame number #K.

図4の説明に戻り、ステップS403において、特徴量検出部22は、検出した特徴量をフレーム位置に関連づけて記憶部15に記憶する。フレーム位置は、フレーム画像の番号やタイムスタンプである。次に、ステップS404において、イベント検出部23は、ステップS403の処理において記憶部15に記憶された最新の特徴量と、1フレーム前のフレーム画像についての特徴量との差分値を計算し、特徴の変化点であるイベントが検出されたか否かを判定する。例えば、その差分値が予め定められた基準値を超える場合にイベントが検出されたと判定する。図5のグラフの例では、フレーム番号#Kのフレーム画像においてイベントを検出したと判定する。すなわち、フレーム番号#Kのフレーム画像が顕著性のあるフレーム画像となる。   Returning to the description of FIG. 4, in step S <b> 403, the feature quantity detection unit 22 stores the detected feature quantity in the storage unit 15 in association with the frame position. The frame position is a frame image number or a time stamp. Next, in step S404, the event detection unit 23 calculates a difference value between the latest feature amount stored in the storage unit 15 in the process of step S403 and the feature amount of the frame image one frame before, and the feature It is determined whether or not an event that is a change point is detected. For example, it is determined that an event has been detected when the difference value exceeds a predetermined reference value. In the example of the graph of FIG. 5, it is determined that an event has been detected in the frame image of frame number #K. That is, the frame image of frame number #K becomes a noticeable frame image.

次に、イベントが検出された場合(ステップS405:YES)は、ステップS406において、イベント検出部23は、イベントの検出されたフレーム画像のフレーム位置を記憶部15に記憶する。一方、イベントが検出されなかった場合(ステップS405:NO)は、ステップS401の処理に戻って次のフレーム画像の処理に移行する。   Next, when an event is detected (step S405: YES), in step S406, the event detection unit 23 stores the frame position of the frame image in which the event is detected in the storage unit 15. On the other hand, when an event is not detected (step S405: NO), the process returns to the process of step S401 and proceeds to the process of the next frame image.

このようにして、イベント検出処理によって、3つのデータファイルそれぞれから、人物の振向きシーンにおいて顔検出のされたフレーム画像(顕著性のある画像)のフレーム位置が記憶部15に記憶される。なお、各データファイルの先頭のフレーム画像については、1つ前のフレーム画像がないために見かけ上イベントが検出されることになるため、イベント検出部23は、この先頭フレームについてのイベント判定を除外するようにしておく。   In this manner, the frame position of the frame image (the image with the saliency) whose face is detected in the person's turning scene is stored in the storage unit 15 from each of the three data files by the event detection process. The event detection unit 23 excludes the event determination for the first frame because the first frame image of each data file does not have a previous frame image and thus an event is apparently detected. Make sure you do.

次に、図6は、シーン選択処理部20の実行するトランジション評価処理のフローチャートである。イベント検出部23による処理の後、このフローチャートの処理が開始される。ステップS601において、制御部14は、記憶部15を参照する。そして、制御部14は、イベントの検出されたフレーム画像のフレーム位置を読み出した場合(S601:YES)、ステップS602において、この読み出したフレーム位置に対応するフレーム画像と、それに続く一定期間分のフレーム画像とに相当する圧縮動画像データを記録媒体19から読み出して画像圧縮伸長部21で伸長処理を行う。そして、制御部14は、データ伸長されたフレーム画像を順次トランジション評価部24に供給する。そして、トランジション評価部24は、トランジション評価を行う。   Next, FIG. 6 is a flowchart of the transition evaluation process executed by the scene selection processing unit 20. After the process by the event detection unit 23, the process of this flowchart is started. In step S <b> 601, the control unit 14 refers to the storage unit 15. When the frame position of the frame image in which the event is detected is read (S601: YES), the control unit 14 in step S602, the frame image corresponding to the read frame position, and a frame for a certain period following the frame image. The compressed moving image data corresponding to the image is read from the recording medium 19 and the image compression / decompression unit 21 performs decompression processing. Then, the control unit 14 sequentially supplies the data decompressed frame images to the transition evaluation unit 24. Then, the transition evaluation unit 24 performs transition evaluation.

このトランジション評価は、評価パラメータ設定部27に設定された、4つの評価指標である正面向き度合い、画像中心からの目の中心位置度合い、目つぶり検出値、及び笑顔度合いそれぞれについて、一定期間分のフレーム画像について行われる。図7から図10に、イベントの検出されたフレーム番号#K以降の一定期間分のフレーム画像を順次入力させた場合の、トランジション評価部24の各評価指標についての評価のグラフを示す。   This transition evaluation is performed for a certain period of time for each of the four evaluation indexes set in the evaluation parameter setting unit 27, that is, the degree of front orientation, the degree of center position of the eye from the center of the image, the blink detection value, and the degree of smile. This is done for frame images. FIG. 7 to FIG. 10 show evaluation graphs for each evaluation index of the transition evaluation unit 24 when frame images for a certain period after the frame number #K in which an event is detected are sequentially input.

図7は、フレーム番号#K以降の一定期間分のフレーム画像を順次入力させた場合の、正面向き度合いの評価値のグラフである。正面向き度合いは、被写体である人物の撮影者側、より具体的には撮像装置1の光学系11のレンズに対する向き具合の評価値である。つまり、人物の顔がまっすぐレンズを向いた場合を正面とし、評価値が最も高くなるようにする。この正面向き度合いは、人物の両目間の距離に基づいて評価値を計算する。つまり、人物が横を向いた状態では、両目間の距離は小さく、正面方向に向かうにつれて両目間の距離は大きくなることに基づいて評価値を計算する。同図は、フレーム番号#Kのフレーム画像以降、人物が振向くにつれて正面向き度合いの評価値が高まっている様子を示している。   FIG. 7 is a graph of the evaluation value of the degree of front orientation when frame images for a certain period after frame number #K are sequentially input. The front direction degree is an evaluation value of the degree of orientation of the person who is the subject with respect to the lens of the optical system 11 of the imaging apparatus 1, more specifically the photographer side. In other words, when the person's face is directly facing the lens, the front is set and the evaluation value is maximized. The degree of front orientation calculates an evaluation value based on the distance between both eyes of a person. That is, the evaluation value is calculated based on the fact that the distance between both eyes is small in the state where the person faces sideways, and the distance between both eyes increases as it goes in the front direction. This figure shows a state in which the evaluation value of the degree of front direction increases as the person turns after the frame image of frame number #K.

図8は、フレーム番号#K以降の一定期間分のフレーム画像を順次入力させた場合の、中心位置度合いの評価値のグラフである。中心位置度合いは、フレーム画像の中心位置を基準とした人物の顔の位置についての評価値である。この中心位置度合いは、フレーム画像の中心位置から人物の各目までの距離を計算し、距離が小さいほど高い値の評価値となるようにする。同図は、フレーム番号#Kのフレーム画像以降、ほぼ安定して人物がフレームの中心付近に写っている様子を示している。   FIG. 8 is a graph of the evaluation value of the degree of the center position when frame images for a certain period after frame number #K are sequentially input. The center position degree is an evaluation value for the position of a person's face with reference to the center position of the frame image. For the degree of the center position, the distance from the center position of the frame image to each eye of the person is calculated so that the smaller the distance, the higher the evaluation value. This figure shows a state in which a person is shown almost stably in the vicinity of the center of the frame after the frame image of frame number #K.

図9は、フレーム番号#K以降の一定期間分のフレーム画像を順次入力させた場合の、目つぶり検出値の評価値のグラフである。目つぶり検出値は、人物の目つぶりの有無の評価値である。この評価値は2値であり、目を開けていることが検出できないか、目をつぶっていると検出された場合は0であり、目を開けていることが検出された場合は一定レベル値となる。同図は、フレーム番号#Kのフレーム画像以降少しの間、トランジション評価部24が目つぶりの有無を検出することができなかったために0レベルとなり、それ以降は目が開いていることが検出されたために一定レベル値になっている様子を示している。   FIG. 9 is a graph of the evaluation value of the blink detection value when frame images for a certain period after frame number #K are sequentially input. The blinking detection value is an evaluation value of presence / absence of blinking of a person. This evaluation value is binary, and it is 0 when it is detected that the eyes are open or when it is detected that the eyes are closed, and a constant level value when it is detected that the eyes are open. It becomes. In the figure, since the transition evaluation unit 24 could not detect the presence or absence of blinking for a short time after the frame image of frame number #K, it is 0 level, and thereafter it is detected that the eyes are open. Therefore, it shows a state where the level value is constant.

図10は、フレーム番号#K以降の一定期間分のフレーム画像を順次入力させた場合の、笑顔度合いの評価値のグラフである。笑顔は、人物の両目、まゆげ、口の形状や顔の輪郭に対するこれらの位置のデータを解析し、笑顔のパターンとの比較認識処理を行って推定する。そして、笑顔度合いは、笑顔であると推定される確率が高いほど高い評価値とする。同図は、顔が検出された最初のときよりも後の方が笑顔の度合いが高い様子を示している。   FIG. 10 is a graph of the evaluation value of the smile level when frame images for a certain period after frame number #K are sequentially input. Smiles are estimated by analyzing data of these positions with respect to a person's eyes, eyebrows, mouth shape, and face outline, and performing comparison recognition processing with a smile pattern. The smile level is set to a higher evaluation value as the probability that the smile is estimated is higher. The figure shows that the degree of smile is higher at the back than when the face was first detected.

図6のステップS602の説明に戻り、トランジション評価部24は、フレーム画像ごとに、正面向き度合い、画像中心からの目の中心位置度合い、目つぶり検出値、笑顔度合いの評価値を計算したのち、評価パラメータ設定部27に設定されている重み付けにしたがって各評価値に重み付けをして加算する。次に、ステップS603において、トランジション評価部24は、計算した評価値をイベントの検出されたフレーム画像のフレーム位置に関連づけて記憶部15に記憶する。   Returning to the description of step S602 in FIG. 6, the transition evaluation unit 24 calculates, for each frame image, the front orientation degree, the eye center position degree from the image center, the blink detection value, and the smile degree evaluation value. Each evaluation value is weighted and added according to the weighting set in the evaluation parameter setting unit 27. Next, in step S603, the transition evaluation unit 24 stores the calculated evaluation value in the storage unit 15 in association with the frame position of the frame image in which the event is detected.

一方、ステップS601において、制御部14が、イベントの検出されたフレーム画像のフレーム位置を読み出さなかった場合、すなわち、参照されるべきイベント検出フレーム画像がなくなった場合(S601:NO)、ステップS604において、選択部25は、記憶部15に記憶されたイベントごとの評価値のうち、最も高い評価値に対応するイベント検出フレーム画像のフレーム位置を選択する。次に、ステップS605において、選択部25は、検出されたフレーム位置のフレーム画像を含むシーンの位置情報を出力する。例えば、検出されたフレーム位置から所定フレーム数分前の開始位置と、検出されたフレーム位置から所定フレーム数後の終了位置とを位置情報として出力する。   On the other hand, in step S601, when the control unit 14 does not read the frame position of the frame image in which the event is detected, that is, when there is no event detection frame image to be referred to (S601: NO), in step S604. The selection unit 25 selects the frame position of the event detection frame image corresponding to the highest evaluation value among the evaluation values for each event stored in the storage unit 15. Next, in step S605, the selection unit 25 outputs the position information of the scene including the frame image at the detected frame position. For example, a start position a predetermined number of frames before the detected frame position and an end position a predetermined number of frames after the detected frame position are output as position information.

図11は、シーン選択機能に設定された撮影装置1が、3つのデータファイルからそれぞれイベントを検出し、トランジション評価を行って3つの類似するシーンを抽出し、そしてそれらの中から1つのシーンを抽出する様子を模式的に表した図である。同図に示すように、本実施形態による撮像装置1は、上述したイベント検出処理によって、3つのデータファイルを解析し、それぞれの動画像データのフレーム画像からイベントを検出する(イベント検出フレーム画像f1,f2,f3)。次に、トランジション評価処理によって、イベント検出フレーム画像f1,f2,f3とそれに時系列的に続く一定期間分のフレーム画像tf1,tf2,tf3とについてのトランジション評価を行う。そして、最も評価値の高い結果となった動画像データ2について、イベント検出フレーム画像f2を含むシーン(開始フレームpf,終了フレームaf)を選択する。   FIG. 11 shows that the photographing apparatus 1 set to the scene selection function detects an event from each of three data files, performs transition evaluation, extracts three similar scenes, and selects one scene from them. It is the figure which represented the mode that it extracted. As shown in the figure, the imaging apparatus 1 according to the present embodiment analyzes the three data files by the event detection process described above, and detects an event from the frame image of each moving image data (event detection frame image f1). , F2, f3). Next, transition evaluation is performed on the event detection frame images f1, f2, and f3 and the frame images tf1, tf2, and tf3 for a certain period of time following the event detection frame images by the transition evaluation process. Then, a scene (start frame pf, end frame af) including the event detection frame image f2 is selected for the moving image data 2 that has the highest evaluation value.

以上説明したように、本実施形態によれば、3つのデータファイルの中から3つの振向きシーンを検出し、各シーンを客観的な評価指標により評価して順位付けることができる。さらに、その中から最も評価の高いシーンを選択することができる。また、重み付けをして評価することにより、撮影者にとって好ましいシーン、例えば、目つぶりがなく、笑顔で、撮影者の方向を向いていて、画面中心に顔のあるシーンを選択することができる。   As described above, according to the present embodiment, three turning scenes can be detected from the three data files, and each scene can be evaluated and ranked according to an objective evaluation index. Furthermore, the scene with the highest evaluation can be selected from among them. Also, by evaluating by weighting, a scene preferable for the photographer, for example, a scene with no eyes blinking, smiling, facing the photographer and having a face in the center of the screen can be selected.

[第2の実施の形態]
本発明の第2実施形態である画像処理装置を撮像装置に適用した例について説明する。本実施形態においても、シーン選択機能について主に説明する。本実施形態による撮像装置は、連写撮影して記録された1つ又は複数の連写画像データ群について、連続するフレーム画像間の特徴量の差分を計算して特徴の変化点であるイベントを検出する。そして、検索の結果、複数のイベントが検出された場合に、イベントの検出されたフレーム画像を、それぞれ類似するシーンにおける顕著性のある画像であると推定する。そして、撮像装置は、イベントの検出された各フレーム画像とそれに時系列的に続くフレーム画像とについて所定の評価指標による画像の評価を行い、類似するシーンの中で最も評価の高いシーンを選択する。このシーン選択機能により、本実施形態による撮像装置は、記録されている連写画像データ群に同じようなシーンが含まれている場合に、客観的な評価基準に基づいてシーンを順位付けすることができ、所望の順位のシーンを抽出することができる。以下、このような特徴を有する撮像装置について具体的に説明する。
[Second Embodiment]
An example in which the image processing apparatus according to the second embodiment of the present invention is applied to an imaging apparatus will be described. Also in this embodiment, the scene selection function will be mainly described. The imaging apparatus according to the present embodiment calculates an event that is a feature change point by calculating a difference in feature amount between consecutive frame images for one or a plurality of continuous shot image data groups recorded by continuous shooting. To detect. If a plurality of events are detected as a result of the search, it is estimated that the frame images from which the events are detected are prominent images in similar scenes. Then, the imaging apparatus evaluates an image based on a predetermined evaluation index for each frame image in which an event is detected and a frame image that continues in time series, and selects a scene with the highest evaluation among similar scenes. . With this scene selection function, the imaging apparatus according to the present embodiment ranks scenes based on objective evaluation criteria when similar scenes are included in the recorded continuous shot image data group. And a scene of a desired order can be extracted. Hereinafter, an imaging apparatus having such characteristics will be described in detail.

本実施形態における撮像装置は前述した第1実施形態による撮像装置1と同一の構成であるため、同一の符号を付してその構成の説明を省略する。   Since the imaging device in the present embodiment has the same configuration as that of the imaging device 1 according to the first embodiment described above, the same reference numerals are given and description of the configuration is omitted.

次に、撮像装置1のシーン選択機能における動作について説明する。本実施形態では、連写撮影機能に設定された撮像装置1によって、一人乗り用ブランコに乗っている人物を、ブランコの搬送方向と略垂直方向から2回連写して得られた圧縮連写画像データ群(2つのグループ)が記録媒体19に予め記録されているものとする。図12は、連写された撮像連写画像データ群のうちの1つのフレーム画像を模式的に表した図である。同図には、人物がブランコに乗って弧を描くように運動する様子の1フレームが写されている。   Next, the operation in the scene selection function of the imaging apparatus 1 will be described. In the present embodiment, a compressed continuous shot image obtained by continuously shooting a person on a single-seat swing twice in a direction substantially perpendicular to the swinging direction by the imaging device 1 set to the continuous shooting function. It is assumed that data groups (two groups) are recorded on the recording medium 19 in advance. FIG. 12 is a diagram schematically showing one frame image in a continuously shot captured image data group. In the figure, one frame of a person moving on a swing and drawing an arc is shown.

なお、以下の説明においては、同図に示すように、フレーム画像の左下のコーナを原点として垂直方向をX方向とし、水平方向をY方向とする。このような2次元座標系を定義した場合に、X方向では、人物は単振動運動をすることになる。そこで本実施形態では、圧縮連写画像データ群の中からX方向における人物の所定部分の位置(例えば、重心位置)が最も低い場所にあるフレーム画像を検出し、そのフレーム画像以後のフレーム画像群を評価指標により評価して最も評価の高いシーンを選択する例について説明する。   In the following description, as shown in the figure, the vertical direction is the X direction and the horizontal direction is the Y direction with the lower left corner of the frame image as the origin. When such a two-dimensional coordinate system is defined, the person performs a simple vibration motion in the X direction. Therefore, in the present embodiment, a frame image in a place where the position (for example, the center of gravity position) of a predetermined portion of the person in the X direction is the lowest is detected from the compressed continuous shot image data group, and the frame image group after the frame image is detected. An example in which the scene with the highest evaluation is selected by evaluating the evaluation index will be described.

本実施形態において、特徴量パラメータ設定部26には、特徴量検出部22で検出すべき特徴の種類は図12におけるX方向の単振動であること、特徴量は単振動のX方向の座標値であることが予め設定されている。また、評価パラメータ設定部27には、トランジション評価部24で評価する評価指標が、単振動の最高点位置と最下点位置との差分(レンジ)であることが予め設定されている。   In the present embodiment, the feature amount parameter setting unit 26 indicates that the feature type to be detected by the feature amount detection unit 22 is a single vibration in the X direction in FIG. 12, and the feature amount is a coordinate value in the X direction of the single vibration. Is set in advance. In the evaluation parameter setting unit 27, it is preset that the evaluation index evaluated by the transition evaluation unit 24 is a difference (range) between the highest point position and the lowest point position of simple vibration.

図13は、撮像装置1におけるシーン選択機能の処理を示すフローチャートである。ステップS131において、制御部14は、撮像装置1の操作者による操作部13の操作にしたがって、記録媒体19に記録された2つの圧縮連写画像データ群のデータファイル群を選択する。操作者によるデータファイル群の選択は、例えば、操作メニューの操作によって行うことができる。つまり、操作者による操作部13のメニューボタンの押下によって、制御部14は操作メニューを表示部16に表示させる。この操作メニューは例えば階層メニュー構造になっている。そして、いずれかの下位階層にファイル群選択メニューが形成され、そこに記録媒体19に記録されたデータファイル群のグループ名が示されるようになっている。操作者の操作部13の選択ボタンの操作にしたがって、制御部14は、ファイル群選択メニューを表示部16に表示させる。そして、操作者に所望のデータファイル群を選択させる。   FIG. 13 is a flowchart illustrating processing of the scene selection function in the imaging apparatus 1. In step S <b> 131, the control unit 14 selects a data file group of two compressed continuous-shot image data groups recorded on the recording medium 19 in accordance with the operation of the operation unit 13 by the operator of the imaging apparatus 1. The selection of the data file group by the operator can be performed by operating the operation menu, for example. That is, the control unit 14 causes the display unit 16 to display the operation menu when the operator presses the menu button of the operation unit 13. This operation menu has, for example, a hierarchical menu structure. A file group selection menu is formed in any lower hierarchy, and the group names of the data file groups recorded on the recording medium 19 are displayed there. The control unit 14 causes the display unit 16 to display a file group selection menu according to the operation of the selection button on the operation unit 13 by the operator. Then, the operator is made to select a desired data file group.

次に、ステップS132において、シーン選択処理部20は、選択された2つのデータファイル群をそれぞれ解析して、類似するシーンを客観的な評価基準に基づいて順位付けし、最も順位の高い1つのシーンを選択してそのシーンの位置情報を取得する。この処理ステップについては、後で詳細に説明する。次に、ステップS133において、制御部14は、ステップS132の処理において取得したシーンの位置情報に基づいて記録媒体19に記録されたデータファイル群から当該シーンに該当する連写画像データ群を抽出する。そして次に、ステップS134において、制御部14は、抽出した連写画像データ群を記録媒体19に記録する。このとき、制御部14は、2つの類似するシーンのうち選択されなかった方のシーンに該当する連写画像データ群、又はこれらが含まれるデータファイル群を削除してもよい。   Next, in step S132, the scene selection processing unit 20 analyzes each of the two selected data file groups, ranks similar scenes based on objective evaluation criteria, and selects the one with the highest rank. A scene is selected and position information of the scene is acquired. This processing step will be described later in detail. Next, in step S133, the control unit 14 extracts a continuous shot image data group corresponding to the scene from the data file group recorded on the recording medium 19 based on the position information of the scene acquired in the process of step S132. . Next, in step S134, the control unit 14 records the extracted continuous-shot image data group on the recording medium 19. At this time, the control unit 14 may delete the continuous shot image data group corresponding to the unselected scene of the two similar scenes, or the data file group including these.

次に、上記のステップS132の処理の詳細を説明する。この説明にあたって、イベント検出処理のフローチャート及びトランジション評価処理のフローチャートは、前述した第1実施形態における両処理の説明に用いた図4及び図6を用いて説明することとし、これら両図における処理ステップの番号も同一のものを使用する。ステップS401において、制御部14は、ステップS131の処理において選択した2つのデータファイル群について、操作者によって選択された順番で圧縮連写画像データ群を記録媒体19から読み出して画像圧縮伸長部21で伸長処理を行い、データ伸長されたフレーム画像を特徴量検出部22に入力する。このステップS401の処理においてフレーム画像の入力がなくなった場合(S401:NO)は、このフローチャートの処理を終了する。   Next, details of the processing in step S132 will be described. In this description, the flowchart of the event detection process and the flowchart of the transition evaluation process will be described with reference to FIGS. 4 and 6 used for the description of both processes in the first embodiment described above. Use the same number. In step S401, the control unit 14 reads out the compressed continuous-shot image data group from the recording medium 19 in the order selected by the operator for the two data file groups selected in the process of step S131, and the image compression / decompression unit 21 performs the processing. The decompression process is performed, and the frame image obtained by decompressing the data is input to the feature amount detection unit 22. If no frame image is input in the process of step S401 (S401: NO), the process of this flowchart ends.

一方、ステップS401の処理においてフレーム画像の入力があった場合(S401:YES)、ステップS402において、特徴量検出部22は、特徴量パラメータ設定部26に設定された、特徴の種類(X方向の単振動)と特徴量(X方向の座標値)とに基づいて特徴量の検出処理を行う。座標値を求める目標は、人物の顔や腰等の部位の中心位置であってもよいし、人物全体を画像認識させてその重心位置としてもよい。   On the other hand, when a frame image is input in the process of step S401 (S401: YES), in step S402, the feature amount detection unit 22 sets the feature type (in the X direction) set in the feature amount parameter setting unit 26. A feature amount detection process is performed based on the simple vibration) and the feature amount (the coordinate value in the X direction). The target for obtaining the coordinate value may be the center position of a part such as a person's face or waist, or the center of gravity of the person may be recognized as an image.

次に、ステップS403において、特徴量検出部22は、検出した特徴量をフレーム位置に関連づけて記憶部15に記憶する。フレーム位置は、フレーム画像の番号やタイムスタンプである。次に、ステップS404において、イベント検出部23は、ステップS403の処理において記憶部15に記憶された最新の特徴量と、1フレーム前のフレーム画像についての特徴量と2フレーム前のフレーム画像についての特徴量とに基づいて、特徴の変化点であるイベントが検出されたか否かを判定する。例えば、式(1)が成立する座標値Xiが検出された場合にイベントが検出されたと判定する。   Next, in step S403, the feature amount detection unit 22 stores the detected feature amount in the storage unit 15 in association with the frame position. The frame position is a frame image number or a time stamp. Next, in step S404, the event detection unit 23 calculates the latest feature value stored in the storage unit 15 in the process of step S403, the feature value for the frame image one frame before, and the frame image two frames before. Based on the feature amount, it is determined whether or not an event that is a feature change point is detected. For example, it is determined that an event has been detected when a coordinate value Xi that satisfies Formula (1) is detected.

Figure 2011040860
Figure 2011040860

次に、イベントが検出された場合(ステップS405:YES)は、ステップS406において、イベント検出部23は、イベントの検出されたフレーム画像のフレーム位置を記憶部15に記憶する。一方、イベントが検出されなかった場合(ステップS405:NO)は、ステップS401の処理に戻って次のフレーム画像の処理に移行する。   Next, when an event is detected (step S405: YES), in step S406, the event detection unit 23 stores the frame position of the frame image in which the event is detected in the storage unit 15. On the other hand, when an event is not detected (step S405: NO), the process returns to the process of step S401 and proceeds to the process of the next frame image.

このようにして、イベント検出処理によって、2つのデータファイル群のそれぞれから、人物のX方向の単振動運動における最下点に位置するフレーム画像(顕著性のある画像)のフレーム位置が記憶部15に記憶される。なお、各データファイル群の1番目及び2番目のフレーム画像については、過去のフレーム画像がないために式(1)の計算をすることができない。よって、イベント検出部23は、これら1番目及び2番目のフレームについてのイベント判定を除外するようにしておく。   In this way, the frame position of the frame image (significant image) positioned at the lowest point in the single vibration motion of the person in the X direction is stored in the storage unit 15 from each of the two data file groups by the event detection process. Is remembered. Note that the first and second frame images of each data file group cannot be calculated using Equation (1) because there are no past frame images. Therefore, the event detection unit 23 excludes the event determination for the first and second frames.

次に、図6は、シーン選択処理部20の実行するトランジション評価処理のフローチャートである。イベント検出部23による処理の後、このフローチャートの処理が開始される。ステップS601において、制御部14は、記憶部15を参照する。そして、制御部14は、イベントの検出されたフレーム画像のフレーム位置を読み出した場合(S601:YES)、ステップS602において、この読み出したフレーム位置に対応するフレーム画像と、それに続く一定期間分のフレーム画像とに相当する圧縮動画像データを記録媒体19から読み出して画像圧縮伸長部21で伸長処理を行う。そして、制御部14は、データ伸長されたフレーム画像を順次トランジション評価部24に供給する。そして、トランジション評価部24は、トランジション評価を行う。   Next, FIG. 6 is a flowchart of the transition evaluation process executed by the scene selection processing unit 20. After the process by the event detection unit 23, the process of this flowchart is started. In step S <b> 601, the control unit 14 refers to the storage unit 15. When the frame position of the frame image in which the event is detected is read (S601: YES), the control unit 14 in step S602, the frame image corresponding to the read frame position, and a frame for a certain period following the frame image. The compressed moving image data corresponding to the image is read from the recording medium 19 and the image compression / decompression unit 21 performs decompression processing. Then, the control unit 14 sequentially supplies the data decompressed frame images to the transition evaluation unit 24. Then, the transition evaluation unit 24 performs transition evaluation.

このトランジション評価は、評価パラメータ設定部27に設定された、評価指標であるX方向の単振動の最高点位置Xmaxと最下点位置Xminとの差分で表されるレンジRxについて、一定期間分のフレーム画像について行われる。つまり、式(2)によって評価値を算出する。   This transition evaluation is performed for a certain period of time with respect to a range Rx that is set in the evaluation parameter setting unit 27 and is represented by the difference between the highest point position Xmax and the lowest point position Xmin of simple vibration in the X direction that is an evaluation index. This is done for frame images. That is, the evaluation value is calculated by the equation (2).

Figure 2011040860
Figure 2011040860

次に、ステップS603において、トランジション評価部24は、計算した評価値であるレンジRxをイベントの検出されたフレーム画像のフレーム位置に関連づけて記憶部15に記憶する。   Next, in step S603, the transition evaluation unit 24 stores the calculated evaluation value range Rx in the storage unit 15 in association with the frame position of the frame image in which the event is detected.

一方、ステップS601において、制御部14が、イベントの検出されたフレーム画像のフレーム位置を読み出さなかった場合、すなわち、参照されるべきイベント検出フレーム画像がなくなった場合(S601:NO)、ステップS604において、選択部25は、記憶部15に記憶されたイベントごとの評価値のうち、最も高い評価値に対応するイベント検出フレーム画像のフレーム位置を選択する。次に、ステップS605において、選択部25は、検出されたフレーム位置のフレーム画像を含むシーンの位置情報を出力する。例えば、検出されたフレーム位置を含んでY方向の半周期分の時間をカバーするような開始位置と終了位置とを位置情報として出力する。   On the other hand, in step S601, when the control unit 14 does not read the frame position of the frame image in which the event is detected, that is, when there is no event detection frame image to be referred to (S601: NO), in step S604. The selection unit 25 selects the frame position of the event detection frame image corresponding to the highest evaluation value among the evaluation values for each event stored in the storage unit 15. Next, in step S605, the selection unit 25 outputs the position information of the scene including the frame image at the detected frame position. For example, a start position and an end position that cover the time of a half cycle in the Y direction including the detected frame position are output as position information.

図14は、2つのデータファイル群(グループ1,2)それぞれについての、各フレーム画像における人物の重心位置のX方向の座標値の推移をグラフ化して示した図である。同図(a)は、グループ1についてのグラフであり、同図(b)はグループ2についてのグラフである。同図のグラフにより明らかなように、両グループとも、フレーム番号#3のフレーム画像においてイベントが検出される。また、グループ2がグループ1よりもレンジが広いことが分かる。よって、グループ2の連写の方がグループ1の連写よりもダイナミックな画像を撮影していると評価することができる。   FIG. 14 is a graph showing the transition of the coordinate value in the X direction of the center of gravity position of the person in each frame image for each of the two data file groups (groups 1 and 2). FIG. 4A is a graph for group 1, and FIG. 4B is a graph for group 2. FIG. As is apparent from the graph of FIG. 8, an event is detected in the frame image of frame number # 3 in both groups. It can also be seen that group 2 has a wider range than group 1. Therefore, it can be evaluated that the group 2 continuous shooting is capturing a dynamic image than the group 1 continuous shooting.

以上説明したように、本実施形態によれば、2つのデータファイル群の中から人物の重心位置が最下点にある2つのシーンを検出し、各シーンを客観的な評価指標により評価して順位付けることができる。よって、その中から最も評価の高いシーンを選択することができる。これにより、撮影者にとって好ましいシーン、例えば、ブランコを最も躍動的にダイナミックにこいでいるシーンを選択することができる。   As described above, according to the present embodiment, two scenes where the center of gravity of the person is at the lowest point are detected from two data file groups, and each scene is evaluated using an objective evaluation index. Can be ranked. Therefore, the scene with the highest evaluation can be selected from among them. This makes it possible to select a scene that is preferable for the photographer, for example, a scene that moves the swing most dynamically and dynamically.

なお、上述した第1及び第2実施形態において、特徴量の種類及び特徴量とトランジション評価の評価指標との組み合わせを対応付けて記憶しておくようにしてもよい。その際に、組み合わせに順位付けをしておくことは好ましい。例えば、操作者によって多用する組み合わせや、好ましいと操作者が判断した組み合わせについて高順位となるようにして記憶しておけば、順位にしたがって組み合わせを操作メニューに表示させたりすることができる。   In the first and second embodiments described above, the type of feature quantity and the combination of the feature quantity and the evaluation index for transition evaluation may be stored in association with each other. At that time, it is preferable to rank the combinations. For example, if combinations that are frequently used by the operator or combinations that are determined to be preferable by the operator are stored in a higher order, the combinations can be displayed on the operation menu according to the order.

また、上述した第1及び第2実施形態では、1つの動画像のデータファイルや1つの連写グループに1つのイベントが含まれる例について説明した。これ以外にも、1つの動画像のデータファイルや1つのグループ内に類似するシーンが複数あって、それらのシーンの評価を順位付けたり、最も評価の高い評価値のシーンを選択したりすることもできる。   In the first and second embodiments described above, an example in which one event is included in one moving image data file or one continuous shooting group has been described. Other than this, there are multiple similar scenes in one moving image data file or one group, ranking the evaluation of those scenes, or selecting the scene with the highest evaluation value You can also.

また、上述した各実施形態である画像処理装置の一部、例えば、制御部の機能をコンピュータで実現するようにしてもよい。この場合、その制御機能を実現するための画像処理プログラムをコンピュータ読み取り可能な記録媒体に記録して、この記録媒体に記録された画像処理プログラムをコンピュータシステムに読み込ませ、実行することによって実現してもよい。なお、ここでいう「コンピュータシステム」とは、OS(Operating System)や周辺機器のハードウェアを含むものとする。また、「コンピュータ読み取り可能な記録媒体」とは、フレキシブルディスク、光磁気ディスク、光ディスク、メモリカード等の可搬型記録媒体、コンピュータシステムに内蔵されるハードディスク等の記憶装置のことをいう。さらに「コンピュータ読み取り可能な記録媒体」とは、インターネット等のネットワークや電話回線等の通信回線を介してプログラムを送信する場合の通信線のように、短時間の間、動的にプログラムを保持するもの、その場合のサーバやクライアントとなるコンピュータシステム内部の揮発性メモリのように、一定時間プログラムを保持するものを含んでもよい。また上記のプログラムは、前述した機能の一部を実現するためのものであってもよく、さらに前述した機能をコンピュータシステムにすでに記録されているプログラムとの組み合わせにより実現するものであってもよい。   Moreover, you may make it implement | achieve a part of image processing apparatus which is each embodiment mentioned above, for example, the function of a control part with a computer. In this case, the image processing program for realizing the control function is recorded on a computer-readable recording medium, and the image processing program recorded on the recording medium is read by the computer system and executed. Also good. Here, the “computer system” includes an OS (Operating System) and hardware of peripheral devices. The “computer-readable recording medium” refers to a portable recording medium such as a flexible disk, a magneto-optical disk, an optical disk, and a memory card, and a storage device such as a hard disk built in the computer system. Furthermore, the “computer-readable recording medium” dynamically holds a program for a short time like a communication line when transmitting a program via a network such as the Internet or a communication line such as a telephone line. In this case, a volatile memory in a computer system serving as a server or a client in that case may be included and a program that holds a program for a certain period of time may be included. Further, the above program may be for realizing a part of the functions described above, or may be realized by a combination with the program already recorded in the computer system. .

以上、本発明の実施形態について図面を参照して詳述したが、具体的な構成はこの実施形態に限られるものではなく、本発明の要旨を逸脱しない範囲の設計等も含まれる。   As mentioned above, although embodiment of this invention was explained in full detail with reference to drawings, the concrete structure is not restricted to this embodiment, The design etc. of the range which does not deviate from the summary of this invention are included.

22 特徴量検出部
23 イベント検出部
24 トランジション評価部
25 選択部
22 feature amount detection unit 23 event detection unit 24 transition evaluation unit 25 selection unit

Claims (5)

連写画像データ群又は動画像データの各フレーム画像から特徴量を検出する特徴量検出手段と、
時刻変化に伴う前記特徴量の変化に基づいてイベントを検出するイベント検出手段と、
検出されたイベントに対応するフレーム画像であるイベント検出フレーム画像とそれに時系列的に続く所定時間分のフレーム画像群とについて、所定の評価指標に基づいた評価値を算出する評価手段と、
前記評価値に基づいて、イベント検出フレーム画像を含むフレーム画像群によるシーンを選択する選択手段と、
を備えたことを特徴とする画像処理装置。
A feature amount detecting means for detecting a feature amount from each frame image of the continuous shot image data group or moving image data;
Event detecting means for detecting an event based on a change in the feature amount accompanying a time change;
An evaluation means for calculating an evaluation value based on a predetermined evaluation index for an event detection frame image that is a frame image corresponding to the detected event and a frame image group for a predetermined time following the time series;
Selection means for selecting a scene by a frame image group including an event detection frame image based on the evaluation value;
An image processing apparatus comprising:
請求項1記載の画像処理装置において、
前記評価手段は、前記特徴量検出手段における特徴量とは別の種類の特徴量を各フレーム画像から検出して前記評価値を算出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, wherein the evaluation unit detects a feature amount of a type different from the feature amount in the feature amount detection unit from each frame image and calculates the evaluation value.
請求項1記載の画像処理装置において、
前記評価手段は、前記特徴量検出手段における特徴量と同一の種類の特徴量を各フレーム画像から検出し、これら検出した特徴量に基づいて前記評価値を算出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The evaluation means detects a feature quantity of the same type as the feature quantity in the feature quantity detection means from each frame image, and calculates the evaluation value based on the detected feature quantity .
請求項1記載の画像処理装置において、
前記評価手段は、前記所定の評価指標に重み付けをして評価値を算出することを特徴とする画像処理装置。
The image processing apparatus according to claim 1.
The image processing apparatus, wherein the evaluation unit calculates an evaluation value by weighting the predetermined evaluation index.
コンピュータに、
連写画像データ群又は動画像データの各フレーム画像から特徴量を検出する特徴量検出ステップと、
時刻変化に伴う前記特徴量の変化に基づいてイベントを検出するイベント検出ステップと、
検出されたイベントに対応するフレーム画像であるイベント検出フレーム画像とそれに時系列的に続く所定時間分のフレーム画像群とについて、所定の評価指標に基づいた評価値を算出する評価値計算ステップと、
前記評価値に基づいて、イベント検出フレーム画像を含むフレーム画像群によるシーンを選択する選択ステップと、
を実行させるための画像処理プログラム。
On the computer,
A feature amount detection step of detecting a feature amount from each frame image of the continuous shot image data group or the moving image data; and
An event detection step of detecting an event based on a change in the feature amount accompanying a time change;
An evaluation value calculating step for calculating an evaluation value based on a predetermined evaluation index for an event detection frame image that is a frame image corresponding to the detected event and a frame image group for a predetermined time that follows the event detection frame image;
A selection step of selecting a scene by a frame image group including an event detection frame image based on the evaluation value;
An image processing program for executing
JP2009184300A 2009-08-07 2009-08-07 Image processor and image processing program Pending JP2011040860A (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2009184300A JP2011040860A (en) 2009-08-07 2009-08-07 Image processor and image processing program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2009184300A JP2011040860A (en) 2009-08-07 2009-08-07 Image processor and image processing program

Publications (1)

Publication Number Publication Date
JP2011040860A true JP2011040860A (en) 2011-02-24

Family

ID=43768211

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2009184300A Pending JP2011040860A (en) 2009-08-07 2009-08-07 Image processor and image processing program

Country Status (1)

Country Link
JP (1) JP2011040860A (en)

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137818A (en) * 2013-01-16 2014-07-28 Ricoh Co Ltd Method and device for identifying opening and closing operation of palm, and man-machine interaction method and facility
KR20170018042A (en) * 2014-06-12 2017-02-15 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Rule-based video importance analysis
WO2020155052A1 (en) * 2019-01-31 2020-08-06 华为技术有限公司 Method for selecting images based on continuous shooting and electronic device

Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045600A (en) * 2003-07-23 2005-02-17 Casio Comput Co Ltd Image photographing apparatus and program
JP2009059445A (en) * 2007-09-03 2009-03-19 Sony Corp Data processing apparatus and method, data processing program, and recording medium recorded with data processing program

Patent Citations (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2005045600A (en) * 2003-07-23 2005-02-17 Casio Comput Co Ltd Image photographing apparatus and program
JP2009059445A (en) * 2007-09-03 2009-03-19 Sony Corp Data processing apparatus and method, data processing program, and recording medium recorded with data processing program

Cited By (7)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2014137818A (en) * 2013-01-16 2014-07-28 Ricoh Co Ltd Method and device for identifying opening and closing operation of palm, and man-machine interaction method and facility
KR20170018042A (en) * 2014-06-12 2017-02-15 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Rule-based video importance analysis
JP2017528016A (en) * 2014-06-12 2017-09-21 マイクロソフト テクノロジー ライセンシング,エルエルシー Rule-based video importance analysis
US10664687B2 (en) 2014-06-12 2020-05-26 Microsoft Technology Licensing, Llc Rule-based video importance analysis
KR102354692B1 (en) 2014-06-12 2022-01-21 마이크로소프트 테크놀로지 라이센싱, 엘엘씨 Rule-based video importance analysis
WO2020155052A1 (en) * 2019-01-31 2020-08-06 华为技术有限公司 Method for selecting images based on continuous shooting and electronic device
US12003850B2 (en) 2019-01-31 2024-06-04 Huawei Technologies Co., Ltd. Method for selecting image based on burst shooting and electronic device

Similar Documents

Publication Publication Date Title
KR101665130B1 (en) Apparatus and method for generating image including a plurality of persons
US8208732B2 (en) Image processing apparatus, image capturing apparatus, image processing method and recording medium
KR101795601B1 (en) Apparatus and method for processing image, and computer-readable storage medium
US8199213B2 (en) Method for selecting desirable images from among a plurality of images and apparatus thereof
CN107258077B (en) System and method for Continuous Auto Focus (CAF)
JP5631106B2 (en) Image processing apparatus, control method thereof, program, and imaging apparatus
KR101234487B1 (en) Imaging device, terminal device, and imaging method
US20050134719A1 (en) Display device with automatic area of importance display
CN107743191B (en) Terminal, anti-shake photographing method thereof and storage device
CN101325658A (en) Imaging device, imaging method and computer program
US8760551B2 (en) Systems and methods for image capturing based on user interest
JP5837922B2 (en) Ranking key video frames based on camera position
EP2373002A1 (en) Image capture device
CN104601876A (en) Method and device for detecting passerby
US8199978B2 (en) Method for image auto-selection and computer system thereof
CN110677580A (en) Shooting method, shooting device, storage medium and terminal
US9374525B2 (en) Shooting apparatus and shooting method
JP2024045460A (en) Information processing system, information processing device, information processing method, and program
JP2011040860A (en) Image processor and image processing program
JP5967422B2 (en) Imaging apparatus, imaging processing method, and program
JP5368614B2 (en) Image search apparatus and image search method
JP2021105850A (en) Image processing device and method, and imaging device
JP2012029119A (en) Display control device, camera and display device
JP6874082B2 (en) Devices, device control methods, systems, and programs
CN110620911B (en) Video stream processing method and device of camera and terminal equipment

Legal Events

Date Code Title Description
A621 Written request for application examination

Free format text: JAPANESE INTERMEDIATE CODE: A621

Effective date: 20120806

A977 Report on retrieval

Free format text: JAPANESE INTERMEDIATE CODE: A971007

Effective date: 20131007

A131 Notification of reasons for refusal

Free format text: JAPANESE INTERMEDIATE CODE: A131

Effective date: 20131015

A521 Written amendment

Free format text: JAPANESE INTERMEDIATE CODE: A523

Effective date: 20131216

A02 Decision of refusal

Free format text: JAPANESE INTERMEDIATE CODE: A02

Effective date: 20140325