JP2011205657A - Digest image display apparatus, digest image display method, and program - Google Patents

Digest image display apparatus, digest image display method, and program Download PDF

Info

Publication number
JP2011205657A
JP2011205657A JP2011100293A JP2011100293A JP2011205657A JP 2011205657 A JP2011205657 A JP 2011205657A JP 2011100293 A JP2011100293 A JP 2011100293A JP 2011100293 A JP2011100293 A JP 2011100293A JP 2011205657 A JP2011205657 A JP 2011205657A
Authority
JP
Japan
Prior art keywords
digest
unit
video
subject
blur amount
Prior art date
Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
Granted
Application number
JP2011100293A
Other languages
Japanese (ja)
Other versions
JP5240317B2 (en
Inventor
Shigeru Kafuku
滋 加福
Current Assignee (The listed assignees may be inaccurate. Google has not performed a legal analysis and makes no representation or warranty as to the accuracy of the list.)
Casio Computer Co Ltd
Original Assignee
Casio Computer Co Ltd
Priority date (The priority date is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the date listed.)
Filing date
Publication date
Application filed by Casio Computer Co Ltd filed Critical Casio Computer Co Ltd
Priority to JP2011100293A priority Critical patent/JP5240317B2/en
Publication of JP2011205657A publication Critical patent/JP2011205657A/en
Application granted granted Critical
Publication of JP5240317B2 publication Critical patent/JP5240317B2/en
Expired - Fee Related legal-status Critical Current
Anticipated expiration legal-status Critical

Links

Images

Landscapes

  • Television Signal Processing For Recording (AREA)
  • Studio Devices (AREA)

Abstract

PROBLEM TO BE SOLVED: To provide a digest image display apparatus, a digest image display method and program for easily analyzing motion.SOLUTION: In golf practice as exercise, an impact sound is generated when a golf club applies an impact on a ball. An impact detecting part 16 detects each of the timings as an impact point, and stores impact information for comparing results of golf practice into an impact information storage part 17. When the impact information to be used for rearrangement in reproducing a digest video image is selected, a CPU 21 refers to the impact information storage part 17, and rearranges a plurality of generated digest video images based on the stored impact information.

Description

本発明は、ダイジェスト画像表示装置、ダイジェスト画像表示方法及びプログラムに関するものである。   The present invention relates to a digest image display device, a digest image display method, and a program.

従来、スポーツ番組等のダイジェスト(digest)画像(動画)を作成して表示するダイジェスト画像表示装置がある(例えば、特許文献1参照)。   Conventionally, there is a digest image display device that creates and displays a digest image (moving image) of a sports program or the like (see, for example, Patent Document 1).

このダイジェスト画像表示装置は、テレビジョン放送において、音声信号のレベルを検出して、音声信号のレベルが閾値以上となるハイライトシーンを抽出することにより、ダイジェスト画像を作成する。   This digest image display device creates a digest image by detecting the level of an audio signal and extracting a highlight scene in which the level of the audio signal is equal to or greater than a threshold in television broadcasting.

特開平9−284704号公報(第2−4頁、図1)JP-A-9-284704 (page 2-4, FIG. 1)

近年、例えば、ビデオカメラや、デジタルカメラを用いて、ゴルフ練習の姿勢解析を行うケースが増えつつある。   In recent years, for example, cases of performing posture analysis for golf practice using a video camera or a digital camera are increasing.

ゴルフ練習では、ゴルフスイングの良否がユーザのフォームに現れてくる。逆に、このフォームを解析してフォームを改善することができれば、ボールも目標とする方向に飛び、打ったボールの飛距離も延びてくる。   In golf practice, the quality of the golf swing appears on the user's form. Conversely, if this form can be analyzed to improve the form, the ball also flies in the target direction and the flight distance of the hit ball also increases.

また、ゴルフ練習の場合、スイングを複数回行うので、ダイジェスト動画を作成することにより、フォームの良否を判別しやすくなる。   In golf practice, the swing is performed a plurality of times, so it is easy to determine the quality of the form by creating a digest video.

しかし、ビデオカメラや、デジタルカメラを従来のダイジェスト画像表示装置に接続してダイジェスト画像を作成しようとしても、ハイライトシーンを検出するだけでは、スイングのダイジェスト画像を作成することはできない。このため、従来のダイジェスト画像表示装置では、動作としてフォーム(姿勢)を詳細に解析することは難しい。   However, even if an attempt is made to create a digest image by connecting a video camera or a digital camera to a conventional digest image display device, a digest image of a swing cannot be created only by detecting a highlight scene. For this reason, in the conventional digest image display device, it is difficult to analyze the form (posture) in detail as the operation.

本発明は、このような従来の問題点に鑑みてなされたもので、動作を容易に解析することが可能なダイジェスト画像表示装置、ダイジェスト画像表示方法及びプログラムを提供することを目的とする。   The present invention has been made in view of such a conventional problem, and an object thereof is to provide a digest image display device, a digest image display method, and a program capable of easily analyzing the operation.

この目的を達成するため、本発明の第1の観点に係るダイジェスト画像表示装置は、
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得する映像取得部と、
前記付随音を取得する付随音取得部と、
前記動作を比較するための比較情報を格納する比較情報格納部と、
前記映像取得部が取得した映像又は前記付随音取得部が取得した付随音に基づいて、前記付随音が発生する各タイミングを検出するとともに、各タイミングの前記比較情報を取得して前記比較情報格納部に格納するタイミング検出部と、
前記映像取得部が取得した映像から、前記タイミング検出部が検出した各タイミング毎のダイジェスト画像を生成するダイジェスト画像生成部と、
前記比較情報格納部を参照し、格納された前記比較情報に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示するダイジェスト画像表示部と、を備えたことを特徴とする。
In order to achieve this object, a digest image display device according to the first aspect of the present invention provides:
A video acquisition unit that captures a subject that performs the operation of generating an accompanying sound a plurality of times and acquires a video of the subject;
An accompanying sound acquisition unit for acquiring the accompanying sound;
A comparison information storage for storing comparison information for comparing the operations;
Based on the video acquired by the video acquisition unit or the accompanying sound acquired by the accompanying sound acquisition unit, each timing at which the accompanying sound occurs is detected, and the comparison information at each timing is acquired to store the comparison information A timing detection unit stored in the unit;
A digest image generation unit that generates a digest image for each timing detected by the timing detection unit from the video acquired by the video acquisition unit;
A digest image display unit that refers to the comparison information storage unit and displays a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored comparison information. To do.

前記動作は、球を用いた運動であり、
前記映像取得部は、球を用いた運動を複数回行う被写体を撮影して前記被写体の映像を取得するようにしてもよい。
The movement is an exercise using a sphere,
The video acquisition unit may acquire a video of the subject by photographing a subject that performs a plurality of exercises using a sphere.

前記動作は、補助具で前記球に衝撃を加えて飛球させる運動であり、
前記映像取得部は、補助具で前記球に衝撃を加えて飛球させる運動を複数回行う被写体を撮影して前記被写体の映像を取得し、
前記付随音取得部は、前記付随音として、前記補助具で前記球に衝撃を加えたときに発生する音を取得するようにしてもよい。
The operation is an exercise of applying a shock to the ball with an auxiliary tool to fly,
The video acquisition unit acquires a video of the subject by photographing a subject that performs a plurality of movements that impact and fly the ball with an auxiliary tool,
The accompanying sound acquisition unit may acquire a sound generated when an impact is applied to the sphere with the auxiliary tool as the accompanying sound.

前記付随音取得部は、前記球に衝撃が加えられて発生する衝撃音を前記付随音として取得するものであってもよい。   The accompanying sound acquisition unit may acquire an impact sound generated when an impact is applied to the sphere as the accompanying sound.

前記付随音取得部は、前記付随音を取得するとともに前記付随音の大きさを取得するものであり、
前記タイミング検出部は、前記付随音取得部が取得した付随音に基づいて、前記付随音の大きさを、各タイミングの比較情報として取得し、取得した前記付随音の大きさを前記比較情報格納部に格納し、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記付随音の大きさに基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示するようにしてもよい。
The accompanying sound acquisition unit acquires the accompanying sound and obtains the magnitude of the accompanying sound,
The timing detection unit acquires the size of the accompanying sound as comparison information of each timing based on the accompanying sound acquired by the accompanying sound acquisition unit, and stores the acquired size of the accompanying sound as the comparison information Store in the department,
The digest image display unit refers to the comparison information storage unit, and arranges and displays a plurality of digest images generated by the digest image generation unit based on the stored accompanying sound volume. Also good.

前記ダイジェスト画像生成部が生成したダイジェスト画像毎に、前記被写体の動作を評価する評価値の入力を受け付けて、入力された評価値を前記比較情報として前記比較情報格納部に格納する評価値受付部を備え、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記評価値に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示するようにしてもよい。
An evaluation value receiving unit that receives an input of an evaluation value for evaluating the motion of the subject for each digest image generated by the digest image generation unit and stores the input evaluation value as the comparison information in the comparison information storage unit With
The digest image display unit may refer to the comparison information storage unit and display a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored evaluation values.

前記タイミング検出部は、前記映像取得部が取得した映像に基づいて、前記球に衝撃が加えられたときの前記補助具の速度を、各タイミングの比較情報として取得し、取得した前記補助具の速度を前記比較情報格納部に格納し、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記補助具の速度に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示するようにしてもよい。
The timing detection unit acquires the speed of the auxiliary tool when an impact is applied to the ball based on the video acquired by the video acquisition unit as comparison information of each timing, and acquires the acquired Store the speed in the comparison information storage unit,
The digest image display unit may refer to the comparison information storage unit and display a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored speed of the auxiliary tool. Good.

前記タイミング検出部は、前記映像取得部が取得した映像に基づいて、前記球に衝撃が加えられたときの球速を、各タイミングの比較情報として取得し、取得した前記球速を前記比較情報格納部に格納し、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記球速に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示するようにしてもよい。
The timing detection unit acquires the ball speed when an impact is applied to the ball as comparison information of each timing based on the video acquired by the video acquisition unit, and the acquired ball speed is the comparison information storage unit Stored in
The digest image display unit may refer to the comparison information storage unit and display a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored ball speed.

前記タイミング検出部は、前記映像取得部が取得した映像に基づいて、前記球の飛球方向を、各タイミングの比較情報として取得し、取得した前記飛球方向を前記比較情報格納部に格納し、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記飛球方向に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示するようにしてもよい。
The timing detection unit acquires the flying direction of the sphere as comparison information of each timing based on the video acquired by the video acquisition unit, and stores the acquired flying ball direction in the comparison information storage unit. ,
The digest image display unit may refer to the comparison information storage unit and display a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored flying ball direction. .

前記タイミング検出部は、時刻を計測する時刻計測部を備え、前記映像取得部が取得した映像又は前記付随音取得部が取得した付随音に基づいて、前記付随音が発生する各タイミングを検出するとともに、検出したタイミングで前記時刻計測部が計測した時刻の時刻情報を、各タイミングの前記比較情報として取得し、取得した時刻情報を前記比較情報格納部に格納し、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記時刻情報に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示するようにしてもよい。
The timing detection unit includes a time measurement unit that measures time, and detects each timing at which the accompanying sound is generated based on the video acquired by the video acquisition unit or the accompanying sound acquired by the accompanying sound acquisition unit. And the time information of the time measured by the time measurement unit at the detected timing is acquired as the comparison information of each timing, the acquired time information is stored in the comparison information storage unit,
The digest image display unit may refer to the comparison information storage unit and display a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored time information.

本発明の第2の観点に係るダイジェスト画像表示装置は、
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得する映像取得部と、
前記付随音を取得する付随音取得部と、
前記映像取得部が取得した映像又は前記付随音取得部が取得した付随音に基づいて、前記付随音が発生する各タイミングを検出するタイミング検出部と、
前記映像取得部が取得した映像から、前記タイミング検出部が検出した各タイミング毎のダイジェスト画像を生成するダイジェスト画像生成部と、
前記ダイジェスト画像生成部が各タイミング毎に生成したダイジェスト画像を、前記タイミング検出部が検出した各タイミングを基準に合成し、前記被写体の姿勢のブレを示す合成画像を生成する合成画像生成部と、
前記合成画像生成部の前記合成画像の生成に用いた各ダイジェスト画像を比較して、前記被写体の姿勢のブレ量を取得するブレ量取得部と、
目標とする目標ブレ量と前記ブレ量取得部が取得した前記被写体のブレ量とを比較し、前記目標ブレ量と前記被写体のブレ量との差に基づいて前記被写体の動作を評価する評価部と、
前記合成画像生成部が生成した合成画像と前記評価部が評価した結果の評価結果とを表示するダイジェスト画像表示部と、を備えたことを特徴とする。
A digest image display apparatus according to a second aspect of the present invention is provided.
A video acquisition unit that captures a subject that performs the operation of generating an accompanying sound a plurality of times and acquires a video of the subject;
An accompanying sound acquisition unit for acquiring the accompanying sound;
A timing detection unit that detects each timing at which the accompanying sound is generated based on the video acquired by the video acquisition unit or the accompanying sound acquired by the accompanying sound acquisition unit;
A digest image generation unit that generates a digest image for each timing detected by the timing detection unit from the video acquired by the video acquisition unit;
A combined image generating unit that combines the digest images generated by the digest image generating unit at each timing with reference to the timings detected by the timing detecting unit, and generates a combined image showing blurring of the posture of the subject;
A blur amount acquisition unit that compares the digest images used to generate the composite image of the composite image generation unit and acquires a blur amount of the posture of the subject;
An evaluation unit that compares a target target blur amount with the blur amount of the subject acquired by the blur amount acquisition unit and evaluates the motion of the subject based on a difference between the target blur amount and the blur amount of the subject. When,
A digest image display unit that displays a composite image generated by the composite image generation unit and an evaluation result of a result evaluated by the evaluation unit.

前記ブレ量取得部は、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を比較して、前記被写体の姿勢の総ブレ量を取得し、
前記評価部は、目標とする目標総ブレ量と前記被写体の総ブレ量とを比較し、前記目標ブレ量と前記被写体のブレ量との差に基づいて前記被写体の動作を評価するようにしてもよい。
The blur amount acquisition unit compares a plurality of digest images generated by the digest image generation unit, acquires a total blur amount of the posture of the subject,
The evaluation unit compares the target total blur amount as a target with the total blur amount of the subject, and evaluates the motion of the subject based on a difference between the target blur amount and the blur amount of the subject. Also good.

前記ブレ量取得部は、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を、それぞれ複数のブロックに分割し、分割したブロック毎の前記被写体の姿勢の局所ブレ量を取得し、
前記評価部は、前記ブレ量取得部が取得した各局所ブレ量と前記各局所ブレ量の目標とする目標局所ブレ量とをそれぞれ比較し、前記被写体の各局所ブレ量と目標局所ブレ量との差に基づいて前記被写体の動作を前記ブロック毎に評価し、
前記ダイジェスト画像表示部は、前記ダイジェスト画像生成部が生成した前記ダイジェスト画像と前記評価部がブロック毎に評価した評価結果とを表示するようにしてもよい。
The blur amount acquisition unit divides a plurality of digest images generated by the digest image generation unit into a plurality of blocks, and acquires a local blur amount of the posture of the subject for each of the divided blocks.
The evaluation unit compares each local blur amount acquired by the blur amount acquisition unit with a target local blur amount targeted for each local blur amount, and each local blur amount and target local blur amount of the subject The movement of the subject is evaluated for each block based on the difference between
The digest image display unit may display the digest image generated by the digest image generation unit and the evaluation result evaluated by the evaluation unit for each block.

前記評価部は、前記被写体の各局所ブレ量と目標局所ブレ量との差と、前記差に対して予め設定された閾値とを比較し、前記差が前記閾値以上となったブロックの画像に、評価結果を示すための画像処理を施すようにしてもよい。   The evaluation unit compares a difference between each local blur amount of the subject and the target local blur amount with a threshold value set in advance for the difference, and determines an image of the block in which the difference is equal to or greater than the threshold value. Image processing for indicating the evaluation result may be performed.

前記ダイジェスト画像生成部は、前記タイミング検出部が検出した1つのタイミングにおいて1回の動作における複数のダイジェスト画像を生成し、
前記評価部は、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を並べて合成するようにしてもよい。
The digest image generation unit generates a plurality of digest images in one operation at one timing detected by the timing detection unit,
The evaluation unit may synthesize a plurality of digest images generated by the digest image generation unit side by side.

前記目標ブレ量を記憶する目標ブレ量記憶部を備え、
前記評価部は、前記目標ブレ量記憶部を参照して、前記目標ブレ量を取得するようにしてもよい。
A target blur amount storage unit for storing the target blur amount;
The evaluation unit may acquire the target blur amount with reference to the target blur amount storage unit.

本発明の第3の観点に係るダイジェスト画像表示方法は、
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得するステップと、
前記付随音を取得するステップと、
取得した映像又は付随音に基づいて、前記付随音が発生する各タイミングを検出して前記動作を比較するための比較情報を取得するステップと、
取得した前記比較情報を格納するステップと、
取得した前記映像から、検出した各タイミング毎のダイジェスト画像を生成するステップと、
格納された前記比較情報に基づいて、生成した複数のダイジェスト画像を整列させて表示するステップと、を備えたことを特徴とする。
A digest image display method according to a third aspect of the present invention includes:
Photographing a subject that performs an operation of generating an accompanying sound a plurality of times, and obtaining an image of the subject;
Obtaining the accompanying sound;
Based on the acquired video or accompanying sound, detecting each timing at which the accompanying sound is generated and obtaining comparison information for comparing the operations;
Storing the acquired comparison information;
Generating a digest image for each detected timing from the acquired video;
And a step of arranging and displaying a plurality of generated digest images based on the stored comparison information.

本発明の第4の観点に係るダイジェスト画像表示方法は、
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得するステップと、
前記付随音を取得するステップと、
取得した映像又は付随音に基づいて、前記付随音が発生する各タイミングを検出するステップと、
取得した映像から、検出した各タイミング毎のダイジェスト画像を生成するステップと、
各タイミング毎に生成したダイジェスト画像を、検出した各タイミングを基準に合成し、前記被写体の姿勢のブレを示す合成画像を生成するステップと、
前記合成画像の生成に用いた各ダイジェスト画像を比較して、前記被写体の姿勢のブレ量を取得するステップと、
目標とする目標ブレ量と前記被写体のブレ量とを比較し、前記目標ブレ量と前記被写体のブレ量との差に基づいて前記被写体の動作を評価するステップと、
前記合成画像と評価した結果の評価結果とを表示するステップと、を備えたことを特徴とする。
A digest image display method according to a fourth aspect of the present invention includes:
Photographing a subject that performs an operation of generating an accompanying sound a plurality of times, and obtaining an image of the subject;
Obtaining the accompanying sound;
Detecting each timing at which the accompanying sound is generated based on the acquired video or the accompanying sound; and
Generating a digest image for each detected timing from the acquired video;
Synthesizing the digest image generated at each timing with reference to each detected timing, and generating a composite image showing blurring of the posture of the subject;
Comparing each digest image used to generate the composite image to obtain a blur amount of the posture of the subject;
Comparing a target target blur amount with the subject blur amount, and evaluating the motion of the subject based on a difference between the target blur amount and the subject blur amount;
Displaying the composite image and the evaluation result of the evaluation result.

本発明の第5の観点に係るプログラムは、
コンピュータに、
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得する手順、
前記付随音を取得する手順、
取得した映像又は付随音に基づいて、前記付随音が発生する各タイミングを検出して前記動作を比較するための比較情報を取得する手順、
取得した比較情報を格納する手順、
取得した前記映像から、検出した各タイミング毎のダイジェスト画像を生成する手順、
格納した前記比較情報に基づいて、生成した複数のダイジェスト画像を整列させて表示する手順、
を実行させるためのものである。
A program according to the fifth aspect of the present invention is:
On the computer,
A procedure for photographing a subject that performs an operation that generates an accompanying sound a plurality of times and acquiring an image of the subject,
Obtaining the accompanying sound;
A procedure for acquiring comparison information for detecting each timing at which the accompanying sound is generated and comparing the operation based on the acquired video or the accompanying sound,
Procedure to store the acquired comparison information,
A procedure for generating a digest image for each detected timing from the acquired video,
A procedure for aligning and displaying a plurality of generated digest images based on the stored comparison information,
Is to execute.

本発明の第6の観点に係るプログラムは、
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得する手順、
前記付随音を取得する手順、
取得した映像又は付随音に基づいて、前記付随音が発生する各タイミングを検出する手順、
取得した映像から、検出した各タイミング毎のダイジェスト画像を生成する手順、
各タイミング毎に生成したダイジェスト画像を、検出した各タイミングを基準に合成し、前記被写体の姿勢のブレを示す合成画像を生成する手順、
前記合成画像の生成に用いた各ダイジェスト画像を比較して、前記被写体の姿勢のブレ量を取得する手順、
目標とする目標ブレ量と前記被写体のブレ量とを比較し、前記目標ブレ量と前記被写体のブレ量との差に基づいて前記被写体の動作を評価する手順、
前記合成画像と評価した結果の評価結果とを表示する手順、
を実行させるためのものである。
A program according to the sixth aspect of the present invention is:
A procedure for photographing a subject that performs an operation that generates an accompanying sound a plurality of times and acquiring an image of the subject,
Obtaining the accompanying sound;
A procedure for detecting each timing at which the accompanying sound is generated based on the acquired video or the accompanying sound,
A procedure for generating a digest image for each detected timing from the acquired video,
A procedure for synthesizing a digest image generated at each timing with reference to each detected timing, and generating a synthesized image showing blurring of the posture of the subject,
A procedure for comparing each digest image used to generate the composite image and obtaining a blur amount of the posture of the subject;
A procedure for comparing a target blur amount and a blur amount of the subject, and evaluating the motion of the subject based on a difference between the target blur amount and the blur amount of the subject;
A procedure for displaying the composite image and an evaluation result of the evaluation result;
Is to execute.

本発明によれば、動作を容易に解析することができる。   According to the present invention, the operation can be easily analyzed.

本発明の実施形態1に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on Embodiment 1 of this invention. ユーザのゴルフ練習の様子を撮影するデジタルカメラを示す図である。It is a figure which shows the digital camera which image | photographs the mode of a user's golf practice. デジタルカメラの外観を示す図であり、(a)、(b)、(c)は、それぞれ、デジタルカメラの上面、前面、後面を示す。It is a figure which shows the external appearance of a digital camera, (a), (b), (c) shows the upper surface, front surface, and rear surface of a digital camera, respectively. 図3に示す液晶モニタに表示されるメニューを示す図であり、(a)は、動画撮影メニュー、(b)は再生メニュー、(c)は、並べ替えメニューを示す。It is a figure which shows the menu displayed on the liquid crystal monitor shown in FIG. 3, (a) shows a moving image shooting menu, (b) shows a reproduction menu, (c) shows a rearrangement menu. 図1に示すインパクト検出部の構成を示す図である。It is a figure which shows the structure of the impact detection part shown in FIG. 図3に示すインパクト検出部の特性、データ例を示す図であり、(a)は、インパクト検出部内の低周波除去フィルタの特性を示す図であり、(b)は、低周波除去フィルタを通過したデータ例を示す図である。FIG. 4 is a diagram illustrating characteristics and data examples of the impact detection unit illustrated in FIG. 3, (a) is a diagram illustrating characteristics of a low frequency removal filter in the impact detection unit, and (b) is a diagram that passes through the low frequency removal filter. It is a figure which shows the example of data. ゴルフクラブのスイング速度を求める方法を示す図である。It is a figure which shows the method of calculating | requiring the swing speed of a golf club. 飛球方向を求める方法を示す図である。It is a figure which shows the method of calculating | requiring a flying ball direction. インパクト情報格納部が格納するインパクト情報を示す図である。It is a figure which shows the impact information which an impact information storage part stores. デジタルカメラが実行する撮影処理を示すフローチャートである。It is a flowchart which shows the imaging | photography process which a digital camera performs. デジタルカメラが実行する再生処理(1)を示すフローチャートである。It is a flowchart which shows the reproduction | regeneration processing (1) which a digital camera performs. 実施形態1に係るデジタルカメラの動作の具体例を示す図である。FIG. 6 is a diagram illustrating a specific example of the operation of the digital camera according to the first embodiment. 本発明の実施形態2に係るデジタルカメラの構成を示すブロック図である。It is a block diagram which shows the structure of the digital camera which concerns on Embodiment 2 of this invention. 図13に示す参照ブレ情報格納部が格納する参照データに用いられる上級者の例を示す図であり、(a)は、上級者のスイングを示し、(b)は、(a)に示す上級者の映像を8つのブロックに分割した例を示す。It is a figure which shows the example of the advanced person used for the reference data which the reference blur information storage part shown in FIG. 13 stores, (a) shows a senior's swing, (b) is the advanced part shown to (a). An example in which a person's video is divided into eight blocks is shown. 図13に示す採点部の画像合成処理を示す図である。It is a figure which shows the image composition process of the scoring part shown in FIG. 液晶モニタに表示されるメニューを示す図であり、(a)は選択メニュー、(b)は、採点方法選択メニューを示す。It is a figure which shows the menu displayed on a liquid crystal monitor, (a) shows a selection menu, (b) shows a scoring method selection menu. 撮影時、デジタルカメラの位置決め用として、図13に示すCPUが液晶モニタに表示させる指示枠を示す図である。It is a figure which shows the instruction | indication frame which CPU shown in FIG. 13 displays on a liquid crystal monitor for the positioning of a digital camera at the time of imaging | photography. 実施形態2に係るデジタルカメラが実行する再生処理(2)を示すフローチャートである。10 is a flowchart illustrating a reproduction process (2) executed by the digital camera according to the second embodiment. 実施形態2に係るデジタルカメラの動作の具体例として、採点部が生成した合成画像を示すものであり、(a)〜(d)は、それぞれ、例として、4つのフレーム画像を合成した合成画像を示す。As a specific example of the operation of the digital camera according to the second embodiment, the scoring unit generates a composite image, and (a) to (d) are composite images obtained by combining four frame images, for example. Indicates. 実施形態2に係るデジタルカメラの動作の具体例として、総ブレ量による採点方法を用いた場合に、表示部が液晶モニタに表示した合成画像と採点結果とを示す図である。As a specific example of the operation of the digital camera according to the second embodiment, when a scoring method based on the total shake amount is used, FIG. 実施形態2に係るデジタルカメラの動作の具体例として、局所ブレ量による採点方法を用いた場合に、表示部が液晶モニタに表示した合成画像と採点結果とを示す図である。As a specific example of the operation of the digital camera according to the second embodiment, when a scoring method based on the amount of local blur is used, FIG. 実施形態1の並べ替えの応用例(1)を示す図であり、(a)は、1つのダイジェスト動画と他のダイジェスト動画とを比較のため、液晶モニタ内で並べ替える例を示し、(b)は、複数のダイジェスト動画を液晶モニタ内で整列させて並べ替える例を示す。FIG. 5A is a diagram illustrating an application example (1) of rearrangement according to the first embodiment, and FIG. 5A illustrates an example in which one digest video and another digest video are rearranged in a liquid crystal monitor for comparison; ) Shows an example in which a plurality of digest videos are arranged and rearranged in the liquid crystal monitor. 実施形態1の並べ替えの応用例(2)として、自己採点を選択するための各メニューを示す図であり、(a)は、ダイジェスト動画オプションメニューを示し、(b)は、自己採点メニューを示し、(c)は、並べ替えメニューを示す。As application example (2) of rearrangement of Embodiment 1, it is a figure which shows each menu for selecting a self-scoring, (a) shows a digest animation option menu, (b) shows a self-scoring menu. (C) shows a rearrangement menu. 応用例(2)のデジタルカメラが実行する音声データ取得処理を示すフローチャートである。It is a flowchart which shows the audio | voice data acquisition process which the digital camera of the application example (2) performs. 応用例(2)のインパクト情報格納部が格納するインパクト情報を示す図である。It is a figure which shows the impact information which the impact information storage part of the application example (2) stores. 応用例(2)のデジタルカメラが実行する再生処理(3)を示すフローチャートである。It is a flowchart which shows the reproduction | regeneration processing (3) which the digital camera of the application example (2) performs.

以下、本発明の実施形態に係るダイジェスト画像表示装置を図面を参照して説明する。尚、本実施形態では、ダイジェスト画像表示装置をデジタルカメラとして説明する。
(実施形態1)
実施形態1に係るデジタルカメラの構成を図1に示す。
実施形態1に係るデジタルカメラ1は、操作インタフェース11と、音声認識ROM12と、映像・音声入力部13と、エンコーダ14と、記憶部15と、インパクト検出部16と、インパクト情報格納部17と、デコーダ18と、表示部19と、スピーカ20と、CPU21と、を備える。
Hereinafter, a digest image display apparatus according to an embodiment of the present invention will be described with reference to the drawings. In the present embodiment, the digest image display device is described as a digital camera.
(Embodiment 1)
FIG. 1 shows the configuration of the digital camera according to the first embodiment.
The digital camera 1 according to the first embodiment includes an operation interface 11, a voice recognition ROM 12, a video / audio input unit 13, an encoder 14, a storage unit 15, an impact detection unit 16, an impact information storage unit 17, A decoder 18, a display unit 19, a speaker 20, and a CPU 21 are provided.

本実施形態1では、動作、運動としてゴルフ練習を対象として説明する。ゴルフは、ボールを用いた競技であり、ゴルフでは、補助具としてゴルフクラブを使用し、ゴルフクラブでボールに衝撃を加えてボールを飛球させる。   In the first embodiment, golf practice will be described as motion and exercise. Golf is a competition using a ball. In golf, a golf club is used as an auxiliary tool, and the ball is impacted by the golf club to cause the ball to fly.

ゴルフ練習では、被写体としてのユーザの動作に付随して、ゴルフクラブでボールに衝撃を加えたときのインパクト音が、動作に付随する付随音として発生する。   In golf practice, accompanying a user's action as a subject, an impact sound when an impact is applied to the ball with a golf club is generated as an accompanying sound accompanying the action.

また、ゴルフ練習では、ユーザが同じようなスイング動作を複数回行い、その都度、インパクト音が発生する。   In golf practice, the user performs a similar swing motion a plurality of times, and an impact sound is generated each time.

本実施形態1のデジタルカメラ1は、インパクト音が発生するタイミングのこのインパクト点を検出し、検出したインパクト点のインパクト情報に基づいてダイジェスト動画(画像)を生成する。このダイジェスト動画は、インパクト点を含み、その前後の予め設定された時間の動画である。   The digital camera 1 according to the first embodiment detects this impact point at the timing when the impact sound is generated, and generates a digest video (image) based on the impact information of the detected impact point. This digest moving image is a moving image of a preset time before and after the impact point.

そして、デジタルカメラ1は、インパクト情報に基づいて各ダイジェスト動画を整列させることにより、ユーザの動作、運動としてのゴルフ練習の成果を解析できるようにしたものである。   And the digital camera 1 can analyze the result of the golf practice as a user's operation | movement and exercise | movement by aligning each digest moving image based on impact information.

このデジタルカメラ1は、高速連写可能なカメラであり、図2に示すように、三脚2に取り付けられて、画角内に、ゴルフ練習者としてのユーザ3と、ゴルフクラブ4と、ボール5と、が収まるように設置される。そして、デジタルカメラ1は、ユーザ3のゴルフ練習の様子を撮影する。   The digital camera 1 is a camera capable of high-speed continuous shooting, and is attached to a tripod 2 as shown in FIG. 2, and within a field of view, a user 3 as a golf practitioner, a golf club 4, and a ball 5 And it is installed to fit. And the digital camera 1 image | photographs the mode of the golf practice of the user 3. FIG.

デジタルカメラ1は、図3(a)、(b)に示すように、上面部に、電源ボタン31とシャッタボタン32とを備え、前面部に、レンズ33とマイク34とLEDランプ35とフラッシュ36とを備える。   As shown in FIGS. 3A and 3B, the digital camera 1 includes a power button 31 and a shutter button 32 on the top surface, and a lens 33, a microphone 34, an LED lamp 35, and a flash 36 on the front surface. With.

また、デジタルカメラ1は、図3(c)に示すように、後面部に、動画撮影ボタン37と静止画撮影ボタン38と再生ボタン39と液晶モニタ40とメニューボタン41と、コントロール部42とを備える。   Also, as shown in FIG. 3C, the digital camera 1 includes a moving image shooting button 37, a still image shooting button 38, a playback button 39, a liquid crystal monitor 40, a menu button 41, and a control unit 42 on the rear surface. Prepare.

図3(a)に示す電源ボタン31は、デジタルカメラ1の電源をオン、オフするためのボタンである。デジタルカメラ1は、電源ボタン31が押下される毎に、電源をオン、オフする。   A power button 31 shown in FIG. 3A is a button for turning on / off the power of the digital camera 1. The digital camera 1 is turned on and off each time the power button 31 is pressed.

シャッタボタン32は、撮影を指示するためのボタンである。デジタルカメラ1は、シャッタボタン32が押下されると撮影を開始する。静止画撮影の場合、デジタルカメラ1は、電源がオンしている間、シャッタボタン32が押下される毎に静止画撮影を行う。また、動画撮影の場合、デジタルカメラ1は、電源がオンしている間、シャッタボタン32が押下される毎に、動画撮影の開始、動画撮影の停止を繰り返す。   The shutter button 32 is a button for instructing photographing. The digital camera 1 starts shooting when the shutter button 32 is pressed. In the case of still image shooting, the digital camera 1 performs still image shooting each time the shutter button 32 is pressed while the power is on. In the case of moving image shooting, the digital camera 1 repeatedly starts moving image shooting and stops moving image shooting each time the shutter button 32 is pressed while the power is on.

図3(a)、(b)に示すレンズ33は、ユーザ3、ゴルフクラブ4、ボール5の像を、内蔵する撮像素子(図示せず)に結像させるためのものである。デジタルカメラ1は、ユーザ3を撮影し、撮像素子は、映像データImage1を生成する。   The lenses 33 shown in FIGS. 3A and 3B are for forming images of the user 3, the golf club 4, and the ball 5 on a built-in image sensor (not shown). The digital camera 1 captures the user 3 and the image sensor generates video data Image1.

図3(b)に示すマイク34は、ゴルフクラブ4がボール5に衝撃を与えたときに発する打撃音、ユーザ3が発話したときの音声を取得して音声データSound1を生成するものである。   The microphone 34 shown in FIG. 3 (b) generates sound data Sound1 by acquiring a hitting sound emitted when the golf club 4 gives an impact to the ball 5 and a sound when the user 3 speaks.

マイク34は、打撃音の音の大きさを示すデータとして、音の大きさ(単位;sone)、音圧(単位;μpa)、音圧レベル(単位;dB)のいずれかを取得可能なものである。   The microphone 34 can acquire any one of sound volume (unit: sone), sound pressure (unit: μpa), and sound pressure level (unit: dB) as data indicating the volume of the hitting sound. It is.

LEDランプ35は、ユーザ3の音声を入力する場合に、ユーザ3に音声の入力が可能であることを示すために点灯するものである。LEDランプ35は、インパクト点を検出してから予め設定された時間経過後、予め設定された時間だけ、CPU21からLED点灯制御信号が供給されて点灯する。フラッシュ36は、ユーザ3等を照明するためのものである。   The LED lamp 35 is lit to indicate that the user 3 can input voice when the voice of the user 3 is input. The LED lamp 35 is lit by supplying an LED lighting control signal from the CPU 21 for a preset time after a preset time has elapsed since the impact point was detected. The flash 36 is for illuminating the user 3 and the like.

図3(c)に示す動画撮影ボタン37は、動画撮影を選択するためのボタンである。デジタルカメラ1は、動画撮影ボタン37が押下されると動画撮影を選択する。   The moving image shooting button 37 shown in FIG. 3C is a button for selecting moving image shooting. When the moving image shooting button 37 is pressed, the digital camera 1 selects moving image shooting.

静止画撮影ボタン38は、静止画撮影を選択するためのボタンである。静止画撮影の場合、デジタルカメラ1は、静止画撮影ボタン38が押下されると、静止画撮影を選択する。   The still image shooting button 38 is a button for selecting still image shooting. In the case of still image shooting, the digital camera 1 selects still image shooting when the still image shooting button 38 is pressed.

再生ボタン39は、撮影によって得られた動画、静止画の再生を指示するためのボタンである。   The playback button 39 is a button for instructing playback of moving images and still images obtained by shooting.

液晶モニタ40は、静止画、連続動画、ダイジェスト動画、メニューを表示するものである。このメニューは、デジタルカメラ1の機能を設定するためのものであり、メニューボタン41は、このメニューを表示するためのボタンである。   The liquid crystal monitor 40 displays a still image, a continuous moving image, a digest moving image, and a menu. This menu is for setting functions of the digital camera 1, and the menu button 41 is a button for displaying this menu.

コントロール部42は、液晶モニタ40に表示された静止画、連続動画、ダイジェスト動画を選択するとともに、デジタルカメラ1の機能を選択、設定するための操作部であり、アップキー42Uと、ダウンキー42Dと、左キー42Lと、右キー42Rと、セットキー42Sと、からなる。   The control unit 42 is an operation unit for selecting a still image, a continuous moving image, and a digest moving image displayed on the liquid crystal monitor 40, and selecting and setting functions of the digital camera 1, and includes an up key 42U and a down key 42D. A left key 42L, a right key 42R, and a set key 42S.

アップキー42U、ダウンキー42D、左キー42L、右キー42Rは、それぞれ、選択する画像、選択するメニューの項目を上下左右に移動させるためのボタンである。
セットキー42Sは、メニューにおいて選択された項目を確定させるためのキーである。
The up key 42U, the down key 42D, the left key 42L, and the right key 42R are buttons for moving the image to be selected and the menu item to be selected vertically and horizontally, respectively.
The set key 42S is a key for confirming an item selected in the menu.

動画撮影ボタン37が押下されてメニューボタン41が押下されると、デジタルカメラ1は、液晶モニタ40に、図4(a)に示すような動画撮影メニューを表示させる。   When the moving image shooting button 37 is pressed and the menu button 41 is pressed, the digital camera 1 causes the liquid crystal monitor 40 to display a moving image shooting menu as shown in FIG.

動画撮影メニューは、連続動画撮影モード又はダイジェスト動画撮影モードを選択するためのメニューである。連続動画撮影モードは、動画撮影を行って連続動画を生成するモードである。   The moving image shooting menu is a menu for selecting a continuous moving image shooting mode or a digest moving image shooting mode. The continuous moving image shooting mode is a mode in which moving image shooting is performed to generate a continuous moving image.

また、ダイジェスト動画撮影モードは、動画撮影を行って連続動画を生成するとともに、生成した連続動画に基づいて再生時に複数のダイジェスト動画を再生できるように所定の情報を得るためのモードである。   The digest moving image shooting mode is a mode for obtaining predetermined information so that a plurality of digest moving images can be reproduced based on the generated continuous moving images while performing moving image shooting to generate continuous moving images.

連続動画撮影モード又はダイジェスト動画撮影モードは、動画撮影メニューにおいて、アップキー42U又はダウンキー42Dが操作されることにより、選択される。   The continuous moving image shooting mode or the digest moving image shooting mode is selected by operating the up key 42U or the down key 42D in the moving image shooting menu.

再生ボタン39が押下されてメニューボタン41が押下されると、デジタルカメラ1は、図4(b)に示すような再生メニューを液晶モニタ40に表示させる。   When the playback button 39 is pressed and the menu button 41 is pressed, the digital camera 1 causes the liquid crystal monitor 40 to display a playback menu as shown in FIG.

再生メニューは、静止画再生モード、連続動画再生モード、ダイジェスト動画再生モードのいずれかのモードを選択するメニューである。静止画再生モード、連続動画再生モード、ダイジェスト動画再生モードは、それぞれ、静止画撮影、連続動画撮影モードまたはダイジェスト動画撮影モードで得られる、静止画、連続動画、ダイジェスト動画を再生するモードである。   The playback menu is a menu for selecting one of a still image playback mode, a continuous video playback mode, and a digest video playback mode. The still image reproduction mode, continuous moving image reproduction mode, and digest moving image reproduction mode are modes for reproducing still images, continuous moving images, and digest moving images that are obtained in still image shooting, continuous moving image shooting mode, and digest moving image shooting mode, respectively.

静止画再生モード、連続動画再生モード、ダイジェスト動画再生モードは、再生メニューにおいて、アップキー42U、ダウンキー42Dが操作されることにより選択される。   The still image playback mode, continuous video playback mode, and digest video playback mode are selected by operating the up key 42U and the down key 42D in the playback menu.

また、ダイジェスト動画再生モードが選択された場合、右キー42Rが押下されると、デジタルカメラ1は、図4(c)に示すような並べ替えメニューを液晶モニタ40に表示させる。   When the digest video playback mode is selected, when the right key 42R is pressed, the digital camera 1 causes the liquid crystal monitor 40 to display a rearrangement menu as shown in FIG.

並べ替えメニューは、詳細は後述するように得た複数の各ダイジェスト動画の並べ替え順を選択するためのメニューである。本実施形態1のデジタルカメラ1は、時刻順、音の大きさ順、スイング速度順、飛球方向順の並べ替えが可能なものであり、並べ替えメニューにおいて、これらの並べ替えを示す時刻、音の大きさ、スイング速度、飛球方向を液晶モニタ40に表示させる。   The rearrangement menu is a menu for selecting the rearrangement order of a plurality of digest videos obtained as will be described later in detail. The digital camera 1 of the first embodiment can be rearranged in the order of time, sound volume, swing speed, and flying ball direction. In the rearrangement menu, the time indicating these rearrangements, The loudness, swing speed, and flying ball direction are displayed on the liquid crystal monitor 40.

これらの並べ替えは、並べ替えメニューにおいて、アップキー42U、ダウンキー42Dが操作されることにより選択される。   These rearrangements are selected by operating the up key 42U and the down key 42D in the rearrangement menu.

尚、デジタルカメラ1は、図4(c)に示す並べ替えのうち、時刻順を初期設定(default)とする。   Note that the digital camera 1 sets the time order as the initial setting (default) in the rearrangement shown in FIG.

並べ替えメニューにおいて、アップキー42U、ダウンキー42Dが押下されて、時刻、音の大きさ、スイング速度、飛球方向のいずれかの並べ替えが選択されてセットキー42Sが押下されると、デジタルカメラ1は、並べ替えを、選択された順に設定する。   In the rearrangement menu, when the up key 42U and the down key 42D are pressed, any one of time, sound volume, swing speed, and flying direction is selected and the set key 42S is pressed. The camera 1 sets the rearrangement in the selected order.

図1に戻り、操作インタフェース11は、各種ボタン、キーが操作されたときの操作情報を取得するものであり、取得した操作情報をCPU21に供給する。   Returning to FIG. 1, the operation interface 11 acquires operation information when various buttons and keys are operated, and supplies the acquired operation information to the CPU 21.

音声認識ROM(Read Only Memory)12は、音声認識用のデータを記憶するメモリである。   A voice recognition ROM (Read Only Memory) 12 is a memory for storing voice recognition data.

映像・音声入力部13は、撮像素子が生成した映像データImage1、マイク34が生成した音声データSound1を入力して、ユーザ3の映像、インパクト音を取得するものである。映像・音声入力部13は、連続動画撮影、ダイジェスト動画撮影を行う場合、撮影を開始してから、撮影が終了するまでのすべての映像データImage1、音声データSound1を入力する。   The video / audio input unit 13 receives the video data Image1 generated by the image sensor and the audio data Sound1 generated by the microphone 34, and acquires the video and impact sound of the user 3. The video / audio input unit 13 inputs all video data Image1 and audio data Sound1 from the start of shooting to the end of shooting when performing continuous moving image shooting and digest moving image shooting.

エンコーダ14は、映像・音声入力部13が入力した映像データImage1、音声データSound1を、それぞれ、圧縮、符号化し、圧縮、符号化した映像データImage11、音声データSound11を生成するものである。   The encoder 14 compresses and encodes the video data Image1 and the audio data Sound1 input by the video / audio input unit 13, and generates compressed and encoded video data Image11 and audio data Sound11, respectively.

記憶部15は、HDD(Hard Disk Drive)、不揮発性メモリ等によって構成されたものであり、各種データを記憶する。記憶部15は、データとして、エンコーダ14が圧縮、符号化した映像データImage11、音声データSound11、図4(a)〜(c)に示すメニュー表示用のデータを記憶する。また、記憶部15は、データとして、CPU21が実行するプログラムのデータを記憶する。   The storage unit 15 is configured by an HDD (Hard Disk Drive), a nonvolatile memory, or the like, and stores various data. The storage unit 15 stores, as data, video data Image11, audio data Sound11, and menu display data shown in FIGS. 4A to 4C, which are compressed and encoded by the encoder 14. Moreover, the memory | storage part 15 memorize | stores the data of the program which CPU21 performs as data.

インパクト検出部16は、映像・音声入力部13が取得したインパクト音(音声データSound1またはSound11)に基づいて、ゴルフクラブ4がボール5に衝撃を与えたときの各インパクト点を検出し、このインパクト点のインパクト情報を取得するものである。このインパクト点はインパクト音が発生するタイミングであり、インパクト情報は、ユーザ3のゴルフ練習の成果を比較するための比較情報である。   The impact detection unit 16 detects each impact point when the golf club 4 gives an impact to the ball 5 based on the impact sound (audio data Sound1 or Sound11) acquired by the video / audio input unit 13, and this impact is detected. It acquires point impact information. This impact point is a timing when an impact sound is generated, and the impact information is comparison information for comparing the results of golf practice of the user 3.

インパクト検出部16は、図5に示すように、低周波除去フィルタ16aと、メモリ16bと、データ出力器16cと、時刻計測部16dと、分離度フィルタ16eと、スイング速度取得部16fと、飛球方向取得部16gと、音声認識部16hと、を備える。   As shown in FIG. 5, the impact detection unit 16 includes a low frequency removal filter 16a, a memory 16b, a data output unit 16c, a time measurement unit 16d, a separability filter 16e, a swing speed acquisition unit 16f, A sphere direction acquisition unit 16g and a voice recognition unit 16h are provided.

インパクト検出部16は、ダイジェスト動画撮影モードが選択された場合、記憶部15から、音声データSound11を読み出す。   The impact detection unit 16 reads the audio data Sound11 from the storage unit 15 when the digest video shooting mode is selected.

低周波除去フィルタ16aは、読み出された音声データSound11から、周辺ノイズを除去するためのフィルタであり、図6(a)に示すように、カットオフ周波数fc以下の周波数成分を周辺ノイズとして除去する。   The low frequency removal filter 16a is a filter for removing ambient noise from the read sound data Sound11. As shown in FIG. 6A, a frequency component equal to or lower than the cutoff frequency fc is removed as ambient noise. To do.

これにより、インパクト検出部16は、低周波除去フィルタ16aから出力された図6(b)に示すような音の大きさ(データ)Im_s1を取得する。   As a result, the impact detection unit 16 acquires the loudness (data) Im_s1 as shown in FIG. 6B output from the low frequency removal filter 16a.

メモリ16bは、打撃音を判別するため、この音の大きさIm_s1に対して予め設定された閾値S_thを記憶するものである。   The memory 16b stores a threshold value S_th that is set in advance with respect to the loudness Im_s1 in order to determine the impact sound.

データ出力器16cは、低周波除去フィルタ16aを通過した音の大きさIm_s1の出力を制御するものである。データ出力器16cは、メモリ16bから閾値S_thを取得し、低周波除去フィルタ16aを通過した音の大きさIm_s1と閾値S_thとを比較する。   The data output device 16c controls the output of the loudness level Im_s1 that has passed through the low frequency removal filter 16a. The data output unit 16c acquires the threshold value S_th from the memory 16b, and compares the loudness level Im_s1 that has passed through the low frequency removal filter 16a with the threshold value S_th.

そして、データ出力器16cは、比較の結果、音の大きさIm_s1が閾値S_th以上となったとき、このデータIm_sを出力し、インパクト検出部16は、データ出力器16cが音の大きさIm_s1を出力したとき、このタイミングをインパクト点と判別する。   Then, as a result of the comparison, the data output unit 16c outputs this data Im_s when the sound level Im_s1 is equal to or greater than the threshold S_th, and the impact detection unit 16 determines that the data output unit 16c determines the sound level Im_s1. When output, this timing is determined as the impact point.

時刻計測部16dは、時刻を計測するものである。時刻計測部16dは、インパクト点の時刻情報Im_tを取得する。   The time measuring unit 16d measures time. The time measuring unit 16d acquires time information Im_t of the impact point.

分離度フィルタ16eは、映像データImage11から、ゴルフクラブ4、ボール5の画像を分離するフィルタである。分離度フィルタ16eは、狭い範囲の濃淡値の分布が二重の環形にどの程度近いかを測ることにより映像データImage11から特定の画像を分離するフィルタである。   The separability filter 16e is a filter that separates the images of the golf club 4 and the ball 5 from the video data Image11. The separability filter 16e is a filter that separates a specific image from the video data Image11 by measuring how close the gray value distribution in a narrow range is to a double ring shape.

この分離度フィルタ16eは、出力値が明るさに依存しないため、明暗の差が少ない不明瞭な特徴点に対しても安定な抽出が可能であるという特徴を有している。   The separability filter 16e has a feature that, since the output value does not depend on brightness, stable extraction is possible even for an unclear feature point with a small difference in brightness.

スイング速度取得部16fは、分離度フィルタ16eが分離したゴルフクラブ4のスイング動作時のスイング速度Im_vを取得するものである。例えば、図7に示すようなゴルフクラブ4の画像4−1,4−2,4−3が得られた場合、スイング速度取得部16fは、この画像4−1〜4−3のヘッドの距離と撮影間隔とに基づいてゴルフクラブ4のスイング速度Im_vを取得する。   The swing speed acquisition unit 16f acquires the swing speed Im_v during the swing operation of the golf club 4 separated by the separability filter 16e. For example, when the images 4-1, 4-2 and 4-3 of the golf club 4 as shown in FIG. 7 are obtained, the swing speed acquisition unit 16f determines the distance of the heads of the images 4-1 to 4-3. And the swing speed Im_v of the golf club 4 is acquired based on the shooting interval.

なお、スイング速度取得部16fは、時刻計測部16dにより取得された時刻情報Im_tに基づいてインパクト点近傍の映像データImage11を取得し、該取得したインパクト点近傍の映像データImage11に基づいてそれぞれインパクト点毎にスイング速度Im_vを取得する。   The swing speed acquisition unit 16f acquires the video data Image11 near the impact point based on the time information Im_t acquired by the time measurement unit 16d, and the impact point based on the acquired video data Image11 near the impact point. Swing speed Im_v is acquired every time.

飛球方向取得部16gは、分離度フィルタ16eが分離したボール5の画像から、ボール5の飛球方向を示す飛球方向Im_cを取得するものである。飛球方向取得部16gは、飛球方向Im_cをd1〜d8に分類する。   The flying ball direction acquisition unit 16g acquires the flying ball direction Im_c indicating the flying direction of the ball 5 from the image of the ball 5 separated by the separability filter 16e. The flying ball direction acquisition unit 16g classifies the flying ball direction Im_c into d1 to d8.

例えば、図8に示すようなボール5の画像5−1,5−2が得られた場合、飛球方向取得部16gは、ボール5の飛球方向Im_cを、最も近い飛球方向d2に分類する。   For example, when the images 5-1 and 5-2 of the ball 5 as shown in FIG. 8 are obtained, the flying ball direction acquisition unit 16g classifies the flying ball direction Im_c of the ball 5 into the closest flying ball direction d2. To do.

なお、飛球方向取得部16gは、時刻計測部16dにより取得された時刻情報Im_tに基づいてインパクト点近傍の映像データImage11を取得し、該取得したインパクト点近傍の映像データImage11に基づいてそれぞれインパクト点毎に飛球方向Im_cを取得する。   The flying ball direction acquisition unit 16g acquires the video data Image11 in the vicinity of the impact point based on the time information Im_t acquired by the time measurement unit 16d, and each of the impacts based on the acquired video data Image11 in the vicinity of the impact point. Get the flying ball direction Im_c for each point.

音声認識部16hは、ユーザ3が発話した音声を認識して認識した結果の音声認識データIm_s2を出力するものである。音声認識部16hは、記憶部15から読み出した音声データSound11と音声認識ROM12に記憶された音声認識用のデータとを比較して、ユーザ3が発話した音声を認識する。   The voice recognition unit 16h outputs voice recognition data Im_s2 as a result of recognizing and recognizing the voice spoken by the user 3. The voice recognition unit 16h compares the voice data Sound11 read from the storage unit 15 with the voice recognition data stored in the voice recognition ROM 12, and recognizes the voice uttered by the user 3.

インパクト検出部16は、これらの音の大きさIm_s1、時刻情報Im_t、スイング速度Im_v、飛球方向Im_cを、インパクト点毎に分類してインパクト情報としてインパクト情報格納部17に格納する。   The impact detection unit 16 classifies the sound volume Im_s1, time information Im_t, swing speed Im_v, and flying ball direction Im_c for each impact point and stores them in the impact information storage unit 17 as impact information.

インパクト情報格納部17は、上述したようにして得たインパクト情報を格納するものである。インパクト情報格納部17は、供給されたインパクト情報を、図9に示すように、インパクト点毎に格納する。   The impact information storage unit 17 stores the impact information obtained as described above. The impact information storage unit 17 stores the supplied impact information for each impact point as shown in FIG.

尚、図9に示す並べ替え指定欄は、並べ替えに用いるインパクト情報を指定するための欄である。インパクト情報が指定されなければ、図中、○印で示すように、並べ替えに用いるインパクト情報を指定するデータは、初期設定の時刻情報Im_tの並べ替え指定欄に格納される。   Note that the rearrangement designation field shown in FIG. 9 is a field for designating impact information used for rearrangement. If the impact information is not designated, the data designating the impact information used for the rearrangement is stored in the rearrangement designation field of the initial time information Im_t, as indicated by a circle in the figure.

デコーダ18は、供給された映像データImage11、音声データSound11、メニュー表示用のデータを伸長、解読(デコード)するためのものである。   The decoder 18 is for decompressing and decoding (decoding) the supplied video data Image11, audio data Sound11, and menu display data.

静止画再生モードが選択された場合、連続動画再生モードが選択された場合、デコーダ18には、記憶部15から、それぞれ、静止画の映像データImage11、連続動画の映像データImage11、音声データSound11が供給される。   When the still image playback mode is selected, or when the continuous movie playback mode is selected, the decoder 18 receives still image video data Image11, continuous movie video data Image11, and audio data Sound11 from the storage unit 15, respectively. Supplied.

また、ダイジェスト動画再生モードが選択された場合、デコーダ18には、記憶部15から、インパクト情報格納部17に格納されたインパクト情報に基づいて連続動画の映像データImage11、音声データSound11から所定の映像期間または音声期間として選択された複数のダイジェスト動画の映像データImage11、音声データSound11が供給される。   When the digest video playback mode is selected, the decoder 18 stores predetermined video from the video data Image11 and audio data Sound11 of the continuous video based on the impact information stored in the impact information storage unit 17 from the storage unit 15. Video data Image11 and audio data Sound11 of a plurality of digest videos selected as the period or the audio period are supplied.

また、メニューボタン41が押下され、コントロール部42の各キーが押下されたときは、図4(a)〜(c)に示すようなメニューの映像データImage11が供給される。   Further, when the menu button 41 is pressed and each key of the control unit 42 is pressed, the video data Image11 of the menu as shown in FIGS. 4A to 4C is supplied.

デコーダ18は、記憶部15から供給された映像データImage11、音声データSound11を伸長、解読して映像データImage1、音声データSound1を生成し、この映像データImage1、音声データSound1を、それぞれ、表示部19、スピーカ20に供給する。   The decoder 18 decompresses and decodes the video data Image11 and audio data Sound11 supplied from the storage unit 15 to generate video data Image1 and audio data Sound1, and the video data Image1 and audio data Sound1 are respectively displayed on the display unit 19. To the speaker 20.

表示部19は、図3(c)に示す液晶モニタ40を備えたものであり、CPU21の制御の下、デコーダ18から供給された映像データImage1に基づいて、静止画、連続動画、複数のダイジェスト動画、メニューを液晶モニタ40に表示する。   The display unit 19 includes the liquid crystal monitor 40 shown in FIG. 3C. Under the control of the CPU 21, the display unit 19 is based on the video data Image1 supplied from the decoder 18, and a still image, a continuous video, and a plurality of digests. The moving image and menu are displayed on the liquid crystal monitor 40.

スピーカ20は、CPU21の制御の下、デコーダ18から供給された音声データSound1に基づいて、音声を発するものである。   The speaker 20 emits sound based on the sound data Sound 1 supplied from the decoder 18 under the control of the CPU 21.

CPU(Central Processing Unit)21は、操作インタフェース11から供給された操作情報に基づいて、デジタルカメラ1全体を制御するものである。   A CPU (Central Processing Unit) 21 controls the entire digital camera 1 based on operation information supplied from the operation interface 11.

CPU21は、操作インタフェース11から、各種ボタン、各キーが押下された旨の情報が供給されると、供給された操作情報に基づいて各部を制御する。   When the information indicating that various buttons and keys are pressed is supplied from the operation interface 11, the CPU 21 controls each unit based on the supplied operation information.

具体的に、CPU21は、撮影前、あるいは撮影終了後に、図4(c)に示す並べ替えメニューにおいて、並べ替えに用いるインパクト情報が選択された場合、操作インタフェース11から供給された操作情報に基づいて、このインパクト情報を判別する。   Specifically, the CPU 21 is based on the operation information supplied from the operation interface 11 when impact information used for rearrangement is selected in the rearrangement menu shown in FIG. This impact information is discriminated.

そして、CPU21は、図9に示す並べ替え指定欄のうち、判別したインパクト情報の欄に、並べ替えを指定するデータを格納する。   And CPU21 stores the data which designates rearrangement in the column of the identified impact information among the rearrangement designation | designated columns shown in FIG.

CPU21は、操作インタフェース11から、シャッタボタン32が押下された旨の操作情報が供給されると、映像データImage1、音声データSound1を入力するように映像・音声入力部13を制御する。   When the operation information indicating that the shutter button 32 is pressed is supplied from the operation interface 11, the CPU 21 controls the video / audio input unit 13 to input the video data Image 1 and the audio data Sound 1.

動画撮影の場合、CPU21は、操作インタフェース11から、シャッタボタン32が押下された旨の操作情報が供給される毎に、映像データImage1、音声データSound1の入力、入力の停止を行うように映像・音声入力部13を制御する。   In the case of moving image shooting, every time operation information indicating that the shutter button 32 is pressed is supplied from the operation interface 11, the CPU 21 inputs and stops the input of the video data Image1 and the audio data Sound1. The voice input unit 13 is controlled.

この場合、CPU21は、連続動画撮影モードが選択されたときだけでなく、ダイジェスト動画撮影モードが選択されたときでも、インパクト点前の動画も含めてダイジェスト動画を生成する。このため、CPU21は、すべての映像データImage1、音声データSound1を入力するように映像・音声入力部13を制御する。   In this case, the CPU 21 generates a digest movie including the movie before the impact point not only when the continuous movie shooting mode is selected but also when the digest movie shooting mode is selected. Therefore, the CPU 21 controls the video / audio input unit 13 so as to input all the video data Image1 and audio data Sound1.

そして、CPU21は、映像・音声入力部13が入力した映像データImage1、音声データSound1を圧縮、符号化して映像データImage11、音声データSound11を生成するようにエンコーダ14を制御し、生成した映像データImage11、音声データSound11を記憶部15に記憶する。   Then, the CPU 21 controls the encoder 14 to compress and encode the video data Image1 and the audio data Sound1 input by the video / audio input unit 13 to generate the video data Image11 and the audio data Sound11, and the generated video data Image11. The voice data Sound11 is stored in the storage unit 15.

CPU21は、操作インタフェース11から、ダイジェスト動画撮影モードが選択された旨の操作情報が供給されると、インパクト点を検出するようにインパクト検出部16を制御する。   When the operation information indicating that the digest moving image shooting mode is selected is supplied from the operation interface 11, the CPU 21 controls the impact detection unit 16 to detect the impact point.

CPU21は、インパクト検出部16が各インパクト点を検出すると、インパクト点毎に、当該インパクト点での画像を含むように、インパクト点前後の予め設定された時間分のダイジェスト動画を、記憶部15が記憶する映像データImage11と音声データSound11とに基づいて生成する。CPU21は、インパクト点毎に生成することで得た複数のダイジェスト動画としての映像データImage11と音声データSound11とを記憶部15に記憶する。   When the impact detection unit 16 detects each impact point, the CPU 21 stores, for each impact point, a digest video for a preset time before and after the impact point so as to include an image at the impact point. It generates based on the video data Image11 and audio data Sound11 to be stored. The CPU 21 stores, in the storage unit 15, video data Image11 and audio data Sound11 as a plurality of digest videos obtained by generating each impact point.

ユーザ3が発話した音声を認識する場合、CPU21は、LEDランプ35にLED点灯制御信号を供給して、LEDランプ35を点灯する。   When recognizing the voice uttered by the user 3, the CPU 21 supplies an LED lighting control signal to the LED lamp 35 to turn on the LED lamp 35.

そして、CPU21は、LED点灯制御信号を供給してから予め設定された点灯時間経過後に、このLED点灯制御信号の供給を停止して、LEDランプ35を消灯する。   Then, the CPU 21 stops supplying the LED lighting control signal and turns off the LED lamp 35 after a preset lighting time has elapsed since the LED lighting control signal was supplied.

CPU21は、LED点灯制御信号を供給している間、マイク34が生成した音声データSound1を入力するように映像・音声入力部13を制御する。CPU21は、ユーザ3が発話した音声を認識するようにインパクト検出部16を制御する。   The CPU 21 controls the video / audio input unit 13 to input the audio data Sound1 generated by the microphone 34 while supplying the LED lighting control signal. The CPU 21 controls the impact detection unit 16 so as to recognize the voice uttered by the user 3.

CPU21は、操作インタフェース11から、静止画再生モードが選択されて再生ボタン39が押下された旨の操作情報が供給されると、記憶部15から静止画の映像データImage11を読み出してデコーダ18に供給する。   When the operation information indicating that the still image reproduction mode is selected and the reproduction button 39 is pressed is supplied from the operation interface 11, the CPU 21 reads out the still image video data Image 11 from the storage unit 15 and supplies it to the decoder 18. To do.

CPU21は、操作インタフェース11から、連続動画再生モードが選択されて再生ボタン39が押下された旨の操作情報が供給されると、記憶部15から連続動画の映像データImage11、音声データSound11を読み出してデコーダ18に供給する。   When the operation information indicating that the continuous video playback mode is selected and the playback button 39 is pressed is supplied from the operation interface 11, the CPU 21 reads out video data Image 11 and audio data Sound 11 of the continuous video from the storage unit 15. This is supplied to the decoder 18.

CPU21は、操作インタフェース11から、ダイジェスト動画再生モードが選択されて再生ボタン39が押下された旨の操作情報が供給されると、各インパクト点に対応するダイジェスト動画を順次再生する。   When the operation information indicating that the digest video playback mode is selected and the playback button 39 is pressed is supplied from the operation interface 11, the CPU 21 sequentially plays back the digest video corresponding to each impact point.

なお、CPU21は、ダイジェスト動画を生成および再生するため、インパクト情報格納部17から各インパクト点の時刻情報Imt_tを読み出す。CPU21は、読み出した各時刻情報Imt_tに対応するように、インパクト点を含み、その前後の予め設定された時間の映像データImage11、音声データSound11を記憶部15から読み出す。この映像データImage11、音声データSound11がダイジェスト動画用のデータであり、CPU21は、このようにして各インパクト点に対応するダイジェスト動画を生成する。   Note that the CPU 21 reads time information Imt_t of each impact point from the impact information storage unit 17 in order to generate and play back the digest video. The CPU 21 reads out the video data Image11 and audio data Sound11 of the preset time before and after the impact point from the storage unit 15 so as to correspond to each read time information Imt_t. The video data Image11 and the audio data Sound11 are data for the digest video, and the CPU 21 thus generates a digest video corresponding to each impact point.

また、CPU21は、生成したダイジェスト動画の並べ替えを行う。CPU21は、並べ替えを行うため、インパクト情報格納部17を参照し、図9に示す並べ替え指定欄に格納されたデータに基づいて並べ替えに用いるインパクト情報を判別する。CPU21は、記憶部15から読み出した映像データImage11、音声データSound11を、判別したインパクト情報に基づいて整列させる。   The CPU 21 rearranges the generated digest videos. In order to perform the rearrangement, the CPU 21 refers to the impact information storage unit 17 and determines the impact information used for the rearrangement based on the data stored in the rearrangement designation column shown in FIG. The CPU 21 aligns the video data Image11 and the audio data Sound11 read from the storage unit 15 based on the determined impact information.

CPU21は、整列させた映像データImage11(整列された複数のダイジェスト動画Image11)、音声データSound11をデコーダ18に供給する。CPU21は、このようにして、生成した複数のダイジェスト画像を、整列させて液晶モニタ40に表示させる。   The CPU 21 supplies the arranged video data Image11 (a plurality of arranged digest moving images Image11) and audio data Sound11 to the decoder 18. The CPU 21 arranges the plurality of digest images generated in this way and displays them on the liquid crystal monitor 40.

次に実施形態1に係るデジタルカメラ1の動作を説明する。
デジタルカメラ1は、電源ボタン31が押下されると電源をオンする。
Next, the operation of the digital camera 1 according to the first embodiment will be described.
The digital camera 1 is turned on when the power button 31 is pressed.

デジタルカメラ1は、再生ボタン39が押下され、メニューボタン41が押下されると、図4(b)に示す再生メニューを液晶モニタ40に表示させ、ダイジェスト動画再生モードが選択されると、図4(c)に示す並べ替えメニューを液晶モニタ40に表示させる。   When the playback button 39 is pressed and the menu button 41 is pressed, the digital camera 1 displays the playback menu shown in FIG. 4B on the liquid crystal monitor 40, and when the digest video playback mode is selected, FIG. The rearrangement menu shown in (c) is displayed on the liquid crystal monitor 40.

この並べ替えメニューにおいて、それぞれ、音の大きさ、スイング速度、飛球方向が選択され、右キー42Rが押下された旨の操作情報が、操作インタフェース11から供給されると、CPU21は、複数のダイジェスト画像の並べ替えに用いるインパクト情報を判別する。   When the sound information, the swing speed, and the flying direction are selected in the rearrangement menu and operation information indicating that the right key 42R is pressed is supplied from the operation interface 11, the CPU 21 makes a plurality of operations. Impact information used for rearranging digest images is determined.

CPU21は、このインパクト情報を判別すると、図9に示す並べ替え指定欄のうち、判別したインパクト情報の欄に、並べ替えを指定するデータを格納する。   When the CPU 21 determines the impact information, the CPU 21 stores data specifying the rearrangement in the determined impact information column in the rearrangement specification column shown in FIG.

また、CPU21は、図4(a)に示す動画撮影メニューにおいて、操作インタフェース11から、連続動画撮影モード又はダイジェスト動画撮影モードが選択され、シャッタボタン32が押下された旨の操作情報が供給されると、記憶部15から、撮影処理のプログラムデータを読み出し、図10に示すフローチャートに従って、この処理を実行する。   Further, the CPU 21 is supplied with operation information indicating that the continuous moving image shooting mode or the digest moving image shooting mode is selected from the operation interface 11 in the moving image shooting menu shown in FIG. Then, the program data of the photographing process is read from the storage unit 15, and this process is executed according to the flowchart shown in FIG.

つまり、CPU21は、一回目のシャッタボタン32が押下された旨の操作情報が供給されると、動画撮影を開始する(ステップS11)。
そして、CPU21は、操作インタフェース11から供給されたシャッタボタン32の操作情報に基づいて、動画撮影継続か否かを判定する(ステップS12)。
That is, when the operation information indicating that the first shutter button 32 has been pressed is supplied, the CPU 21 starts moving image shooting (step S11).
Then, the CPU 21 determines whether or not to continue moving image shooting based on the operation information of the shutter button 32 supplied from the operation interface 11 (step S12).

再度シャッタボタン32が押下された旨の操作情報が供給されなかった場合、CPU21は、動画撮影の継続と判定する(ステップS12;Yes)。この場合、CPU21は、映像データImage1、音声データSound1を入力するように映像・音声入力部13を制御し、圧縮、符号化して映像データImage11、音声データSound11を生成するようにエンコーダ14を制御する(ステップS13)。   When the operation information indicating that the shutter button 32 is pressed again is not supplied, the CPU 21 determines that the moving image shooting is continued (step S12; Yes). In this case, the CPU 21 controls the video / audio input unit 13 to input the video data Image1 and the audio data Sound1, and controls the encoder 14 to generate the video data Image11 and the audio data Sound11 by compression and encoding. (Step S13).

CPU21は、エンコーダ14が生成した映像データImage11、音声データSound11を記憶部15に記憶し(ステップS14)、再度、動画撮影継続か否かを判定する(ステップS12)。   The CPU 21 stores the video data Image11 and the audio data Sound11 generated by the encoder 14 in the storage unit 15 (step S14), and determines again whether or not to continue moving image shooting (step S12).

再度シャッタボタン32が押下された旨の操作情報が供給された場合、CPU21は、動画撮影の終了が指示されたと判定する(ステップS12;No)。この場合、CPU21は、映像データImage1、音声データSound1の入力を停止するように映像・音声入力部13を制御するとともに、操作インタフェース11から供給された操作情報に基づいて、インパクト点を検出するか否かを判定する(ステップS15)。   When operation information indicating that the shutter button 32 has been pressed again is supplied, the CPU 21 determines that the end of moving image shooting has been instructed (step S12; No). In this case, the CPU 21 controls the video / audio input unit 13 to stop the input of the video data Image1 and the audio data Sound1, and detects the impact point based on the operation information supplied from the operation interface 11. It is determined whether or not (step S15).

動画撮影メニューにおいて、ダイジェスト動画撮影モードが選択されていなかった場合、操作インタフェース11は、その旨の操作情報をCPU21に供給し、CPU21は、インパクト点を検出しないと判定する(ステップS15;No)。この場合、CPU21は、この撮影処理を終了させる。   When the digest movie shooting mode is not selected in the movie shooting menu, the operation interface 11 supplies operation information to that effect to the CPU 21, and the CPU 21 determines that an impact point is not detected (step S15; No). . In this case, the CPU 21 ends this photographing process.

動画撮影メニューにおいて、ダイジェスト動画撮影モードが選択されていた場合、操作インタフェース11は、その旨の操作情報をCPU21に供給し、CPU21は、インパクト点を検出すると判定する(ステップS15;Yes)。そして、CPU21は、インパクト点を検出するようにインパクト検出部16を制御する。   If the digest movie shooting mode is selected in the movie shooting menu, the operation interface 11 supplies operation information to that effect to the CPU 21, and the CPU 21 determines that an impact point is detected (step S15; Yes). And CPU21 controls the impact detection part 16 so that an impact point may be detected.

インパクト検出部16は、記憶部15から、映像データImage11、音声データSound11を読み出して、上述したようにインパクト点を検出し、音の大きさIm_s1、時刻情報Im_t、スイング速度Im_v、飛球方向Im_cを、インパクト情報(比較情報)としてインパクト情報格納部17に格納する(ステップS16)。そして、CPU21は、この撮影処理を終了させる。   The impact detection unit 16 reads out the video data Image11 and the audio data Sound11 from the storage unit 15, detects the impact point as described above, the sound volume Im_s1, the time information Im_t, the swing speed Im_v, and the flying ball direction Im_c. Are stored in the impact information storage unit 17 as impact information (comparison information) (step S16). Then, the CPU 21 ends this photographing process.

尚、再々度シャッタボタン32が押下された旨の操作情報が供給された場合、CPU21は、再度、撮影処理を実行する。   When operation information indicating that the shutter button 32 has been pressed again is supplied, the CPU 21 executes the imaging process again.

次に、図4(b)に示す再生メニューにおいて、ダイジェスト動画再生モードが選択されて再生ボタン39が押下された旨の操作情報が、操作インタフェース11から供給されると、CPU21は、記憶部15から、再生処理(1)のプログラムデータを読み出して、図11に示すフローチャートに従い、この処理を実行する。   Next, in the playback menu shown in FIG. 4B, when the operation information indicating that the digest video playback mode is selected and the playback button 39 is pressed is supplied from the operation interface 11, the CPU 21 stores the storage unit 15. Then, the program data of the reproduction process (1) is read out, and this process is executed according to the flowchart shown in FIG.

つまり、ダイジェスト動画再生モードが選択されて再生ボタン39が押下された旨の操作情報が、操作インタフェース11から供給されると、CPU21は、ダイジェスト動画撮影モードで記憶部15に記憶された映像データImage11、音声データSound11やインパクト情報格納部17に格納されたインパクト情報に基づいて上述したように複数のダイジェスト動画を生成する(ステップS21)。   That is, when the operation information indicating that the digest video playback mode is selected and the playback button 39 is pressed is supplied from the operation interface 11, the CPU 21 stores the video data Image11 stored in the storage unit 15 in the digest video shooting mode. Based on the impact information stored in the sound data Sound11 and the impact information storage unit 17, a plurality of digest videos are generated as described above (step S21).

そして、CPU21は、インパクト情報格納部17を参照し、並べ替えメニューにおいて並べ替え指定欄に格納されたデータに基づいて、並べ替えが音の大きさ順か否かを判定する(ステップS22)。   Then, the CPU 21 refers to the impact information storage unit 17 and determines whether or not the rearrangement is in order of loudness based on the data stored in the rearrangement designation field in the rearrangement menu (step S22).

並べ替えが音の大きさ順と判定した場合(ステップS22;Yes)。CPU21は、各インパクト点の音の大きさIm_s1を参照し、各インパクト点に対応するダイジェスト動画を音の大きさIm_s1順に並べ替え、ダイジェスト動画毎に整列された映像データImage11、音声データSound11をデコーダ18に供給する(ステップS23)。   When it is determined that rearrangement is in order of loudness (step S22; Yes). The CPU 21 refers to the sound level Im_s1 of each impact point, rearranges the digest video corresponding to each impact point in the order of the sound level Im_s1, and decodes the video data Image11 and audio data Sound11 arranged for each digest video. 18 (step S23).

並べ替えが音の大きさ順ではないと判定した場合(ステップS22;No)、CPU21は、並べ替えがスイング速度順か否かを判定する(ステップS24)。   When it is determined that the rearrangement is not in order of sound volume (step S22; No), the CPU 21 determines whether the rearrangement is in the order of swing speed (step S24).

並べ替えがスイング速度順と判定した場合(ステップS24;Yes)、CPU21は、各インパクト点のスイング速度Im_vを参照し、各インパクト点のダイジェスト動画をスイング速度Im_v順に並べ替え、ダイジェスト動画毎に整列された映像データImage11、音声データSound11をデコーダ18に供給する(ステップS25)。   When the rearrangement is determined to be in the order of the swing speed (step S24; Yes), the CPU 21 refers to the swing speed Im_v of each impact point, rearranges the digest video of each impact point in the order of the swing speed Im_v, and arranges for each digest video. The video data Image11 and the audio data Sound11 are supplied to the decoder 18 (step S25).

並べ替えがスイング速度順ではないと判定した場合(ステップS24;No)、CPU21は、並べ替えが飛球方向順か否かを判定する(ステップS26)。   When it is determined that the rearrangement is not in the swing speed order (step S24; No), the CPU 21 determines whether the rearrangement is in the flying ball direction order (step S26).

並べ替えが飛球方向順と判定した場合(ステップS26;Yes)、CPU21は、各インパクト点の飛球方向Im_cを参照し、各インパクト点のダイジェスト動画を飛球方向Im_c順に並べ替え、ダイジェスト動画毎に整列された映像データImage11、音声データSound11をデコーダ18に供給する(ステップS27)。   When the rearrangement is determined to be in order of the flying ball direction (step S26; Yes), the CPU 21 refers to the flying ball direction Im_c of each impact point, rearranges the digest video of each impact point in order of the flying ball direction Im_c, and digest video The video data Image11 and the audio data Sound11 arranged for each are supplied to the decoder 18 (step S27).

並べ替えが飛球方向順ではないと判定した場合(ステップS26;No)、CPU21は、並べ替えが初期設定の時刻順と判定する。この場合、CPU21は、各インパクト点の時刻情報Im_tを参照し、各インパクト点のダイジェスト動画を時刻情報Im_t順に並べ替え、ダイジェスト動画毎に整列された映像データImage11、音声データSound11をデコーダ18に供給する(ステップS28)。   When it is determined that the rearrangement is not in the flying ball direction order (step S26; No), the CPU 21 determines that the rearrangement is in the default time order. In this case, the CPU 21 refers to the time information Im_t of each impact point, rearranges the digest video of each impact point in order of the time information Im_t, and supplies the video data Image11 and audio data Sound11 arranged for each digest video to the decoder 18. (Step S28).

なお、デコーダ18に供給された映像データImage11、音声データSound11は、表示部19やスピーカ20から時系列的に順次顕在化されて出力される。   Note that the video data Image11 and the audio data Sound11 supplied to the decoder 18 are sequentially manifested and output in time series from the display unit 19 and the speaker 20.

そして、CPU21は、インパクト点に対応するダイジェスト動画の全て再生が終了すると、この再生処理(1)を終了させる。   Then, when the reproduction of all the digest videos corresponding to the impact points is completed, the CPU 21 ends the reproduction process (1).

次に、このデジタルカメラ1の動作を具体的な活用例に基づいて説明する。
ユーザ3は、ダイジェスト動画撮影モードでの撮影中にボール5を4球打つものとする。そして、CPU21は撮影処理を実行し、エンコーダ14が生成した映像データImage11、音声データSound11を記憶部15に記憶する。
Next, the operation of the digital camera 1 will be described based on a specific application example.
It is assumed that the user 3 hits four balls 5 during shooting in the digest movie shooting mode. Then, the CPU 21 executes a photographing process, and stores the video data Image11 and the audio data Sound11 generated by the encoder 14 in the storage unit 15.

ここでは、図12(a)に示すように、時刻順にA,B,C,Dの4つのタイミングでインパクト音が発生したものとする。つまり、ボール5を打つ毎に(スイングを行う毎に)ボール5を打つ瞬間にインパクト音が発生したものとする。   Here, as shown in FIG. 12A, it is assumed that impact sounds are generated at four timings of A, B, C, and D in order of time. That is, it is assumed that an impact sound is generated at the moment of hitting the ball 5 every time the ball 5 is hit (every swing is performed).

インパクト検出部16は、ダイジェスト動画撮影の終了指示に伴って、インパクト音の発生タイミングとして各インパクト点(A,B,C,D)を検出するとともに、各インパクト点に対応する上述したようなインパクト情報を取得してインパクト情報格納部17に格納する。   The impact detection unit 16 detects each impact point (A, B, C, D) as the generation timing of the impact sound in accordance with the end instruction of the digest movie shooting, and the above-described impact corresponding to each impact point. Information is acquired and stored in the impact information storage unit 17.

尚、図12(a)、図12(b)における各インパクト点に対応するダイジェスト動画上に示す数値は、音の大きさ順を示し、「1」は音の大きさが最も大きく、「4」は、音の大きさが最も小さいことを示す。   Note that the numerical values shown on the digest video corresponding to each impact point in FIGS. 12A and 12B indicate the order of sound volume, “1” being the largest sound volume, and “4”. "" Indicates that the volume of the sound is the smallest.

また、ユーザ3が並べ替えメニューにおいてダイジェスト動画の並べ替えを指定していなければ、並べ替えを指定するデータは、図9に示すように、並べ替え指定欄のうちの初期設定の時刻情報Im_tの欄に格納されており、並べ替えは時刻順となっている。   Further, if the user 3 does not specify the digest video rearrangement in the rearrangement menu, the data specifying the rearrangement is the initial time information Im_t in the rearrangement designation column as shown in FIG. It is stored in the column and the sorting is in time order.

そして、ダイジェスト動画再生モードが選択されて再生ボタン39が押下されると、CPU21は、インパクト情報格納部17を参照して、ダイジェスト動画撮影モードで記憶部15に記憶された映像データImage11、音声データSound11(スイングを4回行ったシーン、つまり、ボール5を4回打ったシーン)やインパクト情報格納部17に格納されたインパクト情報に基づいて上述したように複数のダイジェスト動画(スイング毎、つまり、ボール5を打つシーン毎に分離されたダイジェスト動画)を生成する。また、インパクト情報格納部17を参照して、並べ替えに用いるインパクト情報は、時刻情報Im_tであると判別する。   When the digest video playback mode is selected and the playback button 39 is pressed, the CPU 21 refers to the impact information storage unit 17 and stores the video data Image11 and audio data stored in the storage unit 15 in the digest video shooting mode. A plurality of digest videos (for each swing, that is, each swing, that is, a scene in which the swing is performed four times, that is, a scene in which the ball 5 is hit four times) and the impact information stored in the impact information storage unit 17 are described above. A digest video separated for each scene in which the ball 5 is hit. Further, with reference to the impact information storage unit 17, it is determined that the impact information used for the rearrangement is time information Im_t.

そして、表示部19は、図12(a)に示すように、CPU21の制御(ステップS28の処理)により、ダイジェスト動画をインパクト点A,B,C,Dの順に整列させて、液晶モニタ40に表示する。   Then, as shown in FIG. 12A, the display unit 19 arranges the digest moving images in the order of the impact points A, B, C, and D under the control of the CPU 21 (the process of step S28). indicate.

つまり、インパクト点A,B,C,Dに対応するそれぞれのダイジェスト動画を液晶モニタ40に、インパクト点Aに対応するダイジェスト動画、インパクト点Bに対応するダイジェスト動画、インパクト点Cに対応するダイジェスト動画、インパクト点Dに対応するダイジェスト動画の順で、動画再生表示する。   That is, the respective digest videos corresponding to the impact points A, B, C, and D are displayed on the liquid crystal monitor 40, the digest video corresponding to the impact point A, the digest video corresponding to the impact point B, and the digest video corresponding to the impact point C. Then, the moving image is reproduced and displayed in the order of the digest moving image corresponding to the impact point D.

一方、ユーザ3が、図4(b)に示す再生メニューにおいて、ダイジェスト動画再生モードを選択し、図4(c)に示す並べ替えメニューにおいて音の大きさを選択していた場合、CPU21は、インパクト情報格納部17の並べ替え指定欄のうち、音の大きさIm_s1の欄に、並べ替えを指定するデータを格納している。   On the other hand, when the user 3 selects the digest video playback mode in the playback menu shown in FIG. 4B and selects the sound volume in the rearrangement menu shown in FIG. Of the rearrangement designation column of the impact information storage unit 17, data for designating rearrangement is stored in the column of sound volume Im_s1.

このようなときに、ダイジェスト動画再生モードが選択されて再生ボタン39が押下されると、CPU21は、インパクト情報格納部17を参照して、並べ替えに用いるインパクト情報は、音の大きさIm_s1であると判別する。   In such a case, when the digest video playback mode is selected and the playback button 39 is pressed, the CPU 21 refers to the impact information storage unit 17 and the impact information used for the rearrangement is the sound level Im_s1. Determine that there is.

そして、表示部19は、図12(b)に示すように、CPU21の制御(ステップS23の処理)により、ダイジェスト動画をインパクト点B,D,C,Aの順に整列させて、液晶モニタ40に表示する。   Then, as shown in FIG. 12B, the display unit 19 arranges the digest videos in the order of the impact points B, D, C, and A according to the control of the CPU 21 (the process of step S23). indicate.

つまり、インパクト点A,B,C,Dに対応するそれぞれのダイジェスト動画を液晶モニタ40に、インパクト点Bに対応するダイジェスト動画、インパクト点Dに対応するダイジェスト動画、インパクト点Cに対応するダイジェスト動画、インパクト点Aに対応するダイジェスト動画の順で、動画再生表示する。   That is, the respective digest videos corresponding to the impact points A, B, C, and D are displayed on the liquid crystal monitor 40, the digest video corresponding to the impact point B, the digest video corresponding to the impact point D, and the digest video corresponding to the impact point C. Then, the moving image is reproduced and displayed in the order of the digest moving image corresponding to the impact point A.

以上説明したように、本実施形態1によれば、インパクト検出部16は、各インパクト点を検出して、インパクト情報をインパクト情報格納部17に格納する。CPU21は、並べ替えが指定されると、インパクト情報格納部17に格納されたインパクト情報に基づいて、生成した複数のダイジェスト動画を並べ替え、整列させて液晶モニタ40に表示するようにした。   As described above, according to the first embodiment, the impact detection unit 16 detects each impact point and stores the impact information in the impact information storage unit 17. When the rearrangement is designated, the CPU 21 rearranges and arranges the plurality of generated digest videos based on the impact information stored in the impact information storage unit 17 and displays them on the liquid crystal monitor 40.

従って、練習した中でスイングの部分のみを所望の順番で再生することができるので、ユーザ3に、ゴルフスイングの良否を分かり易く確認させることができ、ユーザ3は、ゴルフ練習の成果を容易に、しかも細かく解析することができる。   Therefore, since only the part of the swing can be reproduced in the desired order during practice, the user 3 can be made to easily confirm the quality of the golf swing, and the user 3 can easily achieve the result of the golf practice. Moreover, it can be analyzed in detail.

(実施形態2)
実施形態2に係るデジタルカメラは、ユーザのフォームと上級者のフォームとを比較し、ユーザのフォームを採点して、そのブレ量を表示するようにしたものである。
(Embodiment 2)
The digital camera according to the second embodiment compares the user's form with the expert's form, scores the user's form, and displays the blur amount.

実施形態2のデジタルカメラ1は、図13に示すように、図1に示した実施形態1の構成に加え、参照ブレ情報格納部22と採点部23とを備える。なお、本実施形態2では、実施形態1と同一の構成については、同一の符号を用い、その構成や動作についての詳細な説明は省略する。   As illustrated in FIG. 13, the digital camera 1 according to the second embodiment includes a reference blur information storage unit 22 and a scoring unit 23 in addition to the configuration of the first embodiment illustrated in FIG. 1. In the second embodiment, the same reference numerals are used for the same configurations as those in the first embodiment, and detailed descriptions of the configurations and operations are omitted.

参照ブレ情報格納部22は、ROM等からなり、ユーザ3のフォームを採点するためのフォームの参照データを格納するものである。   The reference blur information storage unit 22 is composed of a ROM or the like, and stores form reference data for scoring the form of the user 3.

このような参照データとして、参照ブレ情報格納部22は、例えば、図14(a)に示すようにスイングしている上級者6の総ブレ量と局所ブレ量とを格納する。この上級者6の総ブレ量と局所ブレ量とは、ユーザ3の目標となる目標ブレ量を示す。   As such reference data, the reference blur information storage unit 22 stores, for example, the total blur amount and the local blur amount of the expert 6 who is swinging as shown in FIG. The total blur amount and the local blur amount of the expert 6 indicate the target blur amount that is the target of the user 3.

実施形態2では、ブレ量を、複数回のスイングを撮影した映像において、各スイングのタイミングと各画素とを対応させて得られた画素値の分散値の和とする。   In the second embodiment, the amount of blur is the sum of the dispersion values of pixel values obtained by associating the timing of each swing with each pixel in an image obtained by shooting a plurality of swings.

総ブレ量は、図14(a)に示すような、あるタイミングから所定時間前または所定時間後の画像を1つのフレーム画像とし、各スイングにおける上述したようなフレーム画像間ですべての画素を対象として比較したときのブレ量である。   As shown in FIG. 14 (a), the total amount of blur is defined as one frame image that is a predetermined time before or after a certain time, and all pixels are covered between the frame images as described above in each swing. Is the amount of blurring when compared.

また、局所ブレ量は、図14(a)に示すような、あるタイミングから所定時間前または所定時間後の画像を1つのフレーム画像とし、各スイングにおける上述したようなフレーム画像間で、例えば、図14(b)に示すように各フレーム画像をブロックblk1〜blk8に分割し、各ブロックblk1〜blk8毎に、それぞれの画素を対象として比較したときのブレ量である。   Further, the amount of local blur is, for example, as shown in FIG. 14A, a frame image that is a predetermined time before or after a certain time as one frame image, and between the frame images as described above in each swing, for example, As shown in FIG. 14 (b), this is a blur amount when each frame image is divided into blocks blk1 to blk8 and each pixel is compared for each block blk1 to blk8.

採点部23は、ユーザ3のフォームのブレを示す合成画像を生成して、上級者6のフォームのブレとユーザ3のフォームのブレとに基づいてユーザ3のフォームに対しての採点を行うものであり、CPU21からの通知を受けて処理を行う。   The scoring unit 23 generates a composite image showing the blur of the form of the user 3 and scores the form of the user 3 based on the blur of the form of the advanced user 6 and the blur of the form of the user 3 In response to the notification from the CPU 21, processing is performed.

採点部23は、インパクト情報格納部17に格納されたインパクト情報のうちの時刻情報Im_tを参照し、記憶部15に記憶されている映像データImage11に基づいて複数のダイジェスト動画を生成する。   The scoring unit 23 refers to the time information Im_t in the impact information stored in the impact information storage unit 17 and generates a plurality of digest videos based on the video data Image11 stored in the storage unit 15.

採点部23は、各ダイジェスト動画におけるインパクト点を基準にして各ダイジェスト動画を合成することで、合成画像を生成する。   The scoring unit 23 generates a synthesized image by synthesizing each digest movie based on the impact point in each digest movie.

図15は、この合成画像の生成を示す図である。各ダイジェスト動画におけるインパクト点を、それぞれ、第1〜N(N;自然数)インパクト点とする。そして、第1〜Nインパクト点のそれぞれの画像1−1〜1−4,2−1〜2−4,N−1〜N−4は、第1〜Nインパクト点に対応するそれぞれのダイジェスト動画における各フレーム画像を示す。   FIG. 15 is a diagram illustrating the generation of the composite image. The impact points in each digest video are defined as first to N (N: natural number) impact points, respectively. The images 1-1 to 1-4, 2-1 to 2-4, and N-1 to N-4 of the first to N impact points are digest videos corresponding to the first to N impact points, respectively. Each frame image in is shown.

また、各フレーム画像1−1〜N−1,1−2〜N−2,1−3〜N−3,1−4〜N−4は、それぞれ、第1〜Nインパクト点を基準とし、そこから所定時間前または所定時間後の同じタイミングでのフレーム画像を示す。   Each of the frame images 1-1 to N-1, 1-2 to N-2, 1-3 to N-3, 1-4 to N-4 is based on the first to N impact points, respectively. A frame image at the same timing before or after a predetermined time is shown.

例えば、フレーム画像1−1が第1インパクト点から0.1秒前の画像であれば、フレーム画像2−1・・・N−1も、それぞれ、第2〜Nインパクト点から、同じ0.1秒前の画像を示す。   For example, if the frame image 1-1 is an image 0.1 seconds before the first impact point, the frame images 2-1. An image one second before is shown.

採点部23は、それぞれ、各フレーム画像1−1〜N−1,1−2〜N−2,1−3〜N−3,1−4〜N−4を合成する。つまり、採点部23は、各ダイジェスト動画をフレーム毎に合成してダイジェスト動画の合成画像を生成する。この合成画像は、インパクト点を基準としたユーザ3のフォームスピードのバラツキを画像面内でのブレとして示している。   The scoring unit 23 combines the frame images 1-1 to N-1, 1-2 to N-2, 1-3 to N-3, 1-4 to N-4, respectively. That is, the scoring unit 23 synthesizes each digest video for each frame to generate a composite image of the digest video. This composite image shows variations in the form speed of the user 3 with respect to the impact point as blurring in the image plane.

採点部23は、生成した合成画像の映像データImage11をデコーダ18に供給する。   The scoring unit 23 supplies the generated composite image video data Image11 to the decoder 18.

次に、採点部23は、各合成画像におけるユーザ3のフォームに対して採点を行う。   Next, the scoring unit 23 scores the form of the user 3 in each composite image.

採点部23は、ユーザ3のフォームを採点するため、総ブレ量による採点方法又は局所ブレ量による採点方法を用いる。   The scoring unit 23 uses a scoring method based on the total blur amount or a scoring method based on the local blur amount in order to score the form of the user 3.

総ブレ量による採点方法の場合、採点部23は、合成画像に用いたダイジェスト動画をフレーム毎に比較することにより、ユーザ3の総ブレ量を計算する。   In the case of the scoring method based on the total blur amount, the scoring unit 23 calculates the total blur amount of the user 3 by comparing the digest video used for the composite image for each frame.

上級者6のフォームは、複数回スイングを行っても各スイング間のブレ量は小さい(フォームスピードのバラツキは小さい)。これに対して、初級者のブレ量は大きく、ゴルフ練習の成果が上がるに従って、ブレ量は小さくなる。   The form of the advanced player 6 has a small amount of shake between each swing even if the swing is performed a plurality of times (form speed variation is small). In contrast, the amount of shake for beginners is large, and the amount of shake decreases as the result of golf practice increases.

このブレ量に基づいてユーザ3のフォームの採点を行うことができる。採点部23は、参照ブレ情報格納部22に予め格納されている上級者6の総ブレ量を参照し、計算したユーザ3の総ブレ量と上級者6の総ブレ量との差δ1を取得する。採点部23は、取得した差δ1と予め設定されたブレ量閾値とを比較する。   Based on the amount of shake, the user 3 can score the form. The scoring unit 23 refers to the total blur amount of the advanced user 6 stored in advance in the reference blur information storage unit 22, and obtains the difference δ1 between the calculated total blur amount of the user 3 and the total blur amount of the expert 6 To do. The scoring unit 23 compares the acquired difference δ1 with a preset blur amount threshold value.

ユーザ3のフォームに対する採点を、例えば、優、良、可、不可のいずれかとするため、δ_th1,δ_th2,δ_th3(δ_th11<δ_th2<δ_th3)の3つのブレ量閾値が設定される。採点部23は、メモリ(図示せず)を備え、これらのブレ量閾値δ_th1,δ_th2,δ_th3を予めメモリに記憶する。   In order to mark the user 3 with respect to the form, for example, one of “excellent”, “good”, “good”, and “impossible”, three blur amount threshold values of δ_th1, δ_th2, and δ_th3 (δ_th11 <δ_th2 <δ_th3) are set. The scoring unit 23 includes a memory (not shown), and stores the shake amount threshold values δ_th1, δ_th2, and δ_th3 in the memory in advance.

δ_th3<δ1の場合、採点部23は、ユーザ3のフォームは不可と判定する。δ_th2<δ1≦δ_th3の場合、採点部23は、ユーザ3のフォームは可と判定する。δ_th1<δ1≦δ_th2の場合、採点部23は、ユーザ3のフォームは良と判定する。δ1≦δ_th1の場合、採点部23は、ユーザ3のフォームは優と判定する。   When δ_th3 <δ1, the scoring unit 23 determines that the form of the user 3 is not possible. When δ_th2 <δ1 ≦ δ_th3, the scoring unit 23 determines that the form of the user 3 is acceptable. When δ_th1 <δ1 ≦ δ_th2, the scoring unit 23 determines that the form of the user 3 is good. In the case of δ1 ≦ δ_th1, the scoring unit 23 determines that the form of the user 3 is excellent.

局所ブレ量による採点方法の場合、採点部23は、合成画像の各ブロックblk1〜blk8毎に、ユーザ3の局所ブレ量を求める。採点部23は、参照ブレ情報格納部22に格納された上級者6の各ブロックblk1〜blk8毎の局所ブレ量を参照し、求めたユーザ3の局所ブレ量と上級者6の局所ブレ量との差δ2を求める。採点部23は、求めた差δ2と各ブレ量閾値δ_th1,δ_th2,δ_th3とを比較する。   In the case of the scoring method based on the local blur amount, the scoring unit 23 obtains the local blur amount of the user 3 for each of the blocks blk1 to blk8 of the composite image. The scoring unit 23 refers to the local blur amount for each block blk1 to blk8 of the advanced user 6 stored in the reference blur information storage unit 22, and determines the local blur amount of the user 3 and the local blur amount of the expert 6 The difference δ2 is obtained. The scoring unit 23 compares the obtained difference δ2 with each blur amount threshold value δ_th1, δ_th2, δ_th3.

局所ブレ量による採点方法の場合、採点部23は、ブロックblk1〜blk8毎に、差δ2と各ブレ量閾値δ_th1,δ_th2,δ_th3とを比較する。   In the case of the scoring method based on the local blur amount, the scoring unit 23 compares the difference δ2 with the respective blur amount threshold values δ_th1, δ_th2, and δ_th3 for each of the blocks blk1 to blk8.

採点部23は、ブロックblk1〜blk8毎に評価結果を示すため、ブロックblk1〜blk8毎に彩色を施したり、模様を付したりして合成画像に画像処理を施し、さらに、差δ2と各ブレ量閾値δ_th1,δ_th2,δ_th3との比較結果に基づいてこの彩色、模様を変える。   Since the scoring unit 23 indicates the evaluation results for each of the blocks blk1 to blk8, the composite image is subjected to image processing by coloring or adding a pattern to each of the blocks blk1 to blk8, and further, the difference δ2 and each blur The coloring and pattern are changed based on the comparison results with the quantity threshold values δ_th1, δ_th2, and δ_th3.

採点部23は、総ブレ量による採点方法又は局所ブレ量による採点方法に従ってユーザ3のフォームの採点を行うと、この採点結果のデータをデコーダ18に供給する。   When the scoring unit 23 scores the form of the user 3 according to the scoring method based on the total blur amount or the scoring method based on the local blur amount, the scoring unit 23 supplies the scoring result data to the decoder 18.

総ブレ量による採点法、局所ブレ量による採点法の選択を可能とするため、記憶部15は、図16(a)に示すような選択メニュー、図16(b)に示すような採点方法選択メニューの画像データを記憶する。   In order to enable selection of a scoring method based on the total blur amount and a scoring method based on the local blur amount, the storage unit 15 selects a selection menu as shown in FIG. 16A and a scoring method selection as shown in FIG. Stores menu image data.

選択メニューは、並べ替え又は採点方法を選択するメニューであり、採点方法選択メニューは、総ブレ量による採点法、局所ブレ量による採点法のいずれかを選択するためのメニューである。   The selection menu is a menu for selecting a rearrangement or scoring method, and the scoring method selection menu is a menu for selecting either a scoring method based on the total blur amount or a scoring method based on the local blur amount.

実施形態2の場合、図4(b)に示す再生メニューにおいて、ダイジェスト動画再生モードが選択されると、操作インタフェース11は、この操作情報をCPU21に供給し、CPU21は、この操作情報に基づいて記憶部15から、選択メニューの画像データをデコーダ18に供給する。このようにして、CPU21は、選択メニューを液晶モニタ40に表示させる。   In the case of the second embodiment, when the digest video playback mode is selected in the playback menu shown in FIG. 4B, the operation interface 11 supplies this operation information to the CPU 21, and the CPU 21 based on this operation information. The image data of the selection menu is supplied from the storage unit 15 to the decoder 18. In this way, the CPU 21 displays the selection menu on the liquid crystal monitor 40.

この選択メニューにおいて、アップキー42U、ダウンキー42Dが操作されて採点方法が選択され、右キー42Rが押下されると、操作インタフェース11は、この操作情報をCPU21に供給する。   In this selection menu, when the up key 42U and the down key 42D are operated to select a scoring method and the right key 42R is pressed, the operation interface 11 supplies this operation information to the CPU 21.

この操作情報が供給されると、CPU21は、記憶部15から、採点方法選択メニューの画像データを読み出してデコーダ18に供給する。このようにして、CPU21は、図16(b)に示すような採点方法選択メニューを液晶モニタ40に表示させる。なお、本実施形態2では、図16(a)に示す選択メニューで、並べ替えが選択されると、図4(c)に示した並べ替えメニューに移行することが可能となっている。   When this operation information is supplied, the CPU 21 reads out the image data of the scoring method selection menu from the storage unit 15 and supplies it to the decoder 18. In this way, the CPU 21 causes the liquid crystal monitor 40 to display a scoring method selection menu as shown in FIG. In the second embodiment, when rearrangement is selected from the selection menu shown in FIG. 16A, it is possible to shift to the rearrangement menu shown in FIG.

総ブレ量による採点方法又は局所ブレ量による採点方法が選択された場合、操作インタフェース11は、採点方法を選択した操作情報をCPU21に供給する。   When the scoring method based on the total blur amount or the scoring method based on the local blur amount is selected, the operation interface 11 supplies operation information on selecting the scoring method to the CPU 21.

CPU21は、操作インタフェース11から供給された操作情報に基づいて、選択された採点方法を判別し、判別した採点方法を採点部23に通知する。   The CPU 21 determines the selected scoring method based on the operation information supplied from the operation interface 11 and notifies the scoring unit 23 of the determined scoring method.

また、CPU21は、操作インタフェース11から、ダイジェスト動画再生モードが選択されて再生ボタン39が押下された旨の操作情報が供給されると、この操作情報を採点部23に通知する。   Further, when the operation information indicating that the digest moving image reproduction mode is selected and the reproduction button 39 is pressed is supplied from the operation interface 11, the CPU 21 notifies the scoring unit 23 of this operation information.

尚、記憶部15は、図17に示すような指示枠7の画像データを記憶している。この指示枠7は、撮影時に、ユーザ3の姿がこの指示枠7に入るようにデジタルカメラ1の位置、向きを指定する位置決めに用いるものである。   The storage unit 15 stores image data of the instruction frame 7 as shown in FIG. This instruction frame 7 is used for positioning for designating the position and orientation of the digital camera 1 so that the figure of the user 3 enters the instruction frame 7 during photographing.

CPU21は、動画撮影が選択された場合、撮影時にこの指示枠7の画像データをデコーダ18に供給し、この指示枠7を液晶モニタ40に表示させる。   When moving image shooting is selected, the CPU 21 supplies the image data of the instruction frame 7 to the decoder 18 at the time of shooting, and causes the liquid crystal monitor 40 to display the instruction frame 7.

次に実施形態2に係るデジタルカメラ1の動作を説明する。
デジタルカメラ1は、電源ボタン31が押下されると電源をオンする。
CPU21は、操作インタフェース11から、ダイジェスト動画撮影モードが選択された旨の操作情報が供給されると、図17に示す指示枠7の画像データをデコーダ18に供給し、液晶モニタ40に指示枠7を表示させる。
Next, the operation of the digital camera 1 according to the second embodiment will be described.
The digital camera 1 is turned on when the power button 31 is pressed.
When the operation information indicating that the digest video shooting mode has been selected is supplied from the operation interface 11, the CPU 21 supplies the image data in the instruction frame 7 shown in FIG. 17 to the decoder 18 and supplies the instruction frame 7 to the liquid crystal monitor 40. Is displayed.

このとき、ユーザ3は、ユーザ3自身の姿がこの指示枠7に収まるようにデジタルカメラ1の位置決めを行う。そして、ユーザ3自身の姿がこの指示枠7に収まるようにデジタルカメラ1の位置決めが行われ、操作インタフェース11から、シャッタボタン32が押下された旨の操作情報が供給されると、CPU21は、図10に示すフローチャートに従って、実施形態1と同様に、撮影処理を実行する。   At this time, the user 3 positions the digital camera 1 so that the user 3 himself / herself fits in the instruction frame 7. When the digital camera 1 is positioned so that the user 3 himself / herself fits in the instruction frame 7 and operation information indicating that the shutter button 32 has been pressed is supplied from the operation interface 11, the CPU 21 In accordance with the flowchart shown in FIG.

撮影処理を実行した後、操作インタフェース11から、ダイジェスト動画再生モードが選択され、採点方法が選択された旨の操作情報が供給されると、CPU21は、採点部23に、選択された採点方法を通知する。   After executing the shooting process, when the digest video playback mode is selected from the operation interface 11 and operation information indicating that the scoring method is selected is supplied, the CPU 21 sends the selected scoring method to the scoring unit 23. Notice.

また、操作インタフェース11から、再生ボタン39が押下された旨の操作情報が供給されると、CPU21は、この操作情報を採点部23に通知する。採点部23は、この通知を受けると、記憶部15から、再生処理(2)のプログラムデータを読み出して、図18に示すフローチャートに従い、この処理を実行する。   Further, when operation information indicating that the play button 39 has been pressed is supplied from the operation interface 11, the CPU 21 notifies the scoring unit 23 of this operation information. Upon receiving this notification, the scoring unit 23 reads the program data for the reproduction process (2) from the storage unit 15 and executes this process according to the flowchart shown in FIG.

つまり、操作インタフェース11から、再生ボタン39が押下された旨の操作情報が供給されると、採点部23は、インパクト情報格納部17に格納されたインパクト情報を参照し、記憶部15から、ダイジェスト動画撮影モードで撮影された映像データImage11を読み出して、複数のダイジェスト動画を生成し、上述したように、ダイジェスト動画間で、フレーム毎に画像を合成し、ダイジェスト動画の合成画像を生成する(ステップS31)。   That is, when the operation information indicating that the play button 39 is pressed is supplied from the operation interface 11, the scoring unit 23 refers to the impact information stored in the impact information storage unit 17, and the digest is received from the storage unit 15. The video data Image11 captured in the video shooting mode is read to generate a plurality of digest videos, and as described above, the frames are combined between the digest videos to generate a composite video of the digest videos (steps) S31).

採点部23は、CPU21からの通知に基づいて、総ブレ量による採点方法が選択されているか否かを判定する(ステップS32)。   The scoring unit 23 determines whether or not the scoring method based on the total blur amount is selected based on the notification from the CPU 21 (step S32).

総ブレ量による採点方法が選択されていると判定した場合(ステップS32;Yes)、採点部23は、合成画像に用いた各ダイジェスト動画を比較して、フレーム毎にユーザ3の総ブレ量を計算する(ステップS33)。   When it is determined that the scoring method based on the total blur amount is selected (step S32; Yes), the scoring unit 23 compares the digest videos used for the composite image, and calculates the total blur amount of the user 3 for each frame. Calculate (step S33).

採点部23は、参照ブレ情報格納部22に格納されている上級者6の総ブレ量をフレーム毎に参照して、ユーザ3の総ブレ量とこの上級者6の総ブレ量との差δ1を計算し、計算した差δ1と各総ブレ量閾値δ_th1,δ_th2,δ_th3とを比較することにより、ユーザ3のフォームをフレーム毎に採点する(ステップS34)。   The scoring unit 23 refers to the total blur amount of the expert 6 stored in the reference blur information storage unit 22 for each frame, and the difference δ1 between the total blur amount of the user 3 and the total blur amount of the expert 6 And the calculated difference δ1 is compared with each total blur amount threshold value δ_th1, δ_th2, δ_th3, and the form of the user 3 is scored for each frame (step S34).

採点部23は、生成した合成画像の映像データImage11をデコーダ18に供給する(ステップS35)。   The scoring unit 23 supplies the generated composite image video data Image11 to the decoder 18 (step S35).

採点部23は、採点結果のデータをデコーダ18に供給する(ステップS36)。つまり、採点部23は、合成されたダイジェスト動画を構成する各合成フレーム画像の表示中に、表示中の合成フレーム画像に対応する採点結果を表示中の合成フレーム画像と対応付けて表示する。
そして、採点部23は、合成されたダイジェスト動画を構成する各合成フレーム画像を全て表示するとともに、それに対応する採点結果を全て表示すると、この再生処理(2)を終了させる。
The scoring unit 23 supplies scoring result data to the decoder 18 (step S36). That is, the scoring unit 23 displays the scoring result corresponding to the displayed composite frame image in association with the displayed composite frame image while displaying each composite frame image constituting the combined digest video.
Then, the scoring unit 23 displays all the combined frame images constituting the combined digest video and displays all the scoring results corresponding to the combined frame images, and then ends the reproduction process (2).

一方、CPU21からの通知に基づいて、局所ブレ量による採点方法が選択されていると判定した場合(ステップS32;No)、採点部23は、ユーザ3のフォームを分割した各ブロックblk1〜blk8毎に対して局所ブレ量をフレーム毎に計算する(ステップS37)。   On the other hand, when it is determined that the scoring method based on the local blur amount is selected based on the notification from the CPU 21 (step S32; No), the scoring unit 23 divides the form of the user 3 for each of the blocks blk1 to blk8. The amount of local blur is calculated for each frame (step S37).

採点部23は、参照ブレ情報格納部22に格納されている上級者6の各ブロックblk1〜blk8の局所ブレ量をフレーム毎に参照して、ユーザ3の各ブロックblk1〜blk8の局所ブレ量とこの上級者6の局所ブレ量との差δ2を計算し、各ブロックblk1〜blk8毎に対して計算した差δ2と各ブレ量閾値δ_th1,δ_th2,δ_th3とを比較する。採点部23は、比較した結果に基づいてユーザ3のフォームの採点をフレーム毎に行う(ステップS38)。   The scoring unit 23 refers to the local blur amount of each block blk1 to blk8 of the expert 6 stored in the reference blur information storage unit 22 for each frame, and determines the local blur amount of each block blk1 to blk8 of the user 3 A difference δ2 with respect to the local blur amount of the expert 6 is calculated, and the difference δ2 calculated for each of the blocks blk1 to blk8 is compared with each blur amount threshold value δ_th1, δ_th2, δ_th3. The scoring unit 23 scores the form of the user 3 for each frame based on the comparison result (step S38).

採点部23は、採点結果に基づいて合成画像に画像処理を施す(ステップS39)。
採点部23は、合成画像の映像データImage11をデコーダ18に供給する(ステップS35)。
The scoring unit 23 performs image processing on the composite image based on the scoring result (step S39).
The scoring unit 23 supplies the video data Image11 of the composite image to the decoder 18 (step S35).

採点部23は、採点結果のデータをデコーダ18に供給する(ステップS36)。つまり、採点部23は、合成されたダイジェスト動画を構成する各合成フレーム画像の表示中に、表示中の合成フレーム画像に対応するブロックblk1〜blk8毎の採点結果を表示中の合成フレーム画像における各ブロックblk1〜blk8と対応付けてそれぞれに表示する。   The scoring unit 23 supplies scoring result data to the decoder 18 (step S36). That is, the scoring unit 23 displays each scoring result for each of the blocks blk1 to blk8 corresponding to the displayed composite frame image while displaying each composite frame image constituting the combined digest video. Each block is displayed in association with blk1 to blk8.

そして、採点部23は、合成されたダイジェスト動画を構成する各合成フレーム画像を全て表示するとともに、それに対応する採点結果を全て表示すると、この再生処理(2)を終了させる。   Then, the scoring unit 23 displays all the combined frame images constituting the combined digest video and displays all the scoring results corresponding to the combined frame images, and then ends the reproduction process (2).

次に実施形態2に係るデジタルカメラ1の動作を具体的な活用例に基づいて説明する。   Next, the operation of the digital camera 1 according to the second embodiment will be described based on a specific application example.

ユーザ3は、ダイジェスト動画撮影モードでの撮影中にボール5を、例えば、4球打つものとする。そして、CPU21は撮影処理を実行し、エンコーダ14が生成した映像データImage11、音声データSound11を記憶部15に記憶する。   It is assumed that the user 3 hits the ball 5, for example, four balls during shooting in the digest video shooting mode. Then, the CPU 21 executes a photographing process, and stores the video data Image11 and the audio data Sound11 generated by the encoder 14 in the storage unit 15.

ここでは、図12(a)に示すように、時刻順にA,B,C,Dの4つのタイミングでインパクト音が発生したものとする。つまり、ボール5を打つ毎に(スイングを行う毎に)ボール5を打つ瞬間にインパクト音が発生したものとする。   Here, as shown in FIG. 12A, it is assumed that impact sounds are generated at four timings of A, B, C, and D in order of time. That is, it is assumed that an impact sound is generated at the moment of hitting the ball 5 every time the ball 5 is hit (every swing is performed).

インパクト検出部16は、ダイジェスト動画撮影の終了指示に伴って、インパクト音の発生タイミングとして各インパクト点(A,B,C,D)を検出するとともに、各インパクト点に対応する上述したようなインパクト情報を取得してインパクト情報格納部17に格納する。   The impact detection unit 16 detects each impact point (A, B, C, D) as the generation timing of the impact sound in accordance with the end instruction of the digest movie shooting, and the above-described impact corresponding to each impact point. Information is acquired and stored in the impact information storage unit 17.

ここで、図16(a)に示したような選択メニューでは、採点方法が選択されているものとする。そして、ユーザにより、ダイジェスト動画再生モードが選択されて再生ボタン39が押下されると、採点部23は、インパクト情報格納部17を参照して、ダイジェスト動画撮影モードで記憶部15に記憶された映像データImage11、音声データSound11(スイングを4回行ったシーン、つまり、ボール5を4回打ったシーン)やインパクト情報格納部17に格納されたインパクト情報に基づいて上述したように複数のダイジェスト動画(スイング毎、つまり、ボール5を打つシーン毎に分離されたダイジェスト動画)を生成する。   Here, it is assumed that the scoring method is selected in the selection menu as shown in FIG. When the digest video playback mode is selected by the user and the playback button 39 is pressed, the scoring unit 23 refers to the impact information storage unit 17 and the video stored in the storage unit 15 in the digest video shooting mode. Based on the data Image11, the sound data Sound11 (the scene where the swing was performed four times, that is, the scene where the ball 5 was hit four times) and the impact information stored in the impact information storage unit 17, a plurality of digest movies ( A digest movie separated for each swing, that is, for each scene in which the ball 5 is hit, is generated.

採点部23は、各インパクト点(A,B,C,D)を基準として、生成した複数のダイジェスト動画を上述したようにフレーム毎に合成する。   The scoring unit 23 synthesizes the generated digest videos for each frame as described above with reference to each impact point (A, B, C, D).

つまり、採点部23は、図15に示すように、各インパクト点に対応するダイジェスト動画における各フレーム画像1−1〜4−1,1−2〜4−2,1−3〜4−3,1−4〜4−4を、それぞれ、合成し、図19(a)〜(d)に示すようなフレーム毎の合成画像を生成する(ステップS31の処理)。   That is, the scoring unit 23, as shown in FIG. 15, each frame image 1-1 to 4-1, 1-2 to 4-2, 1-3 to 4-3 in the digest video corresponding to each impact point. 1-4 to 4-4 are respectively combined to generate a combined image for each frame as shown in FIGS. 19A to 19D (step S31).

尚、図19(a)〜(d)のそれぞれの映像の左上又は右上に付した数値は、それぞれ、合成画像のフレーム番号を示す。採点部23は、ダイジェスト動画のフレーム画像毎にこのような合成画像の生成を行う。   In addition, the numerical value attached | subjected to each upper left or upper right of each image | video of Fig.19 (a)-(d) shows the frame number of a synthesized image, respectively. The scoring unit 23 generates such a composite image for each frame image of the digest video.

そして、図16(b)に示したような採点方法選択メニューで総ブレ量による採点方法が選択された場合(ステップS32;Yes)には、採点部23が、生成した合成画像の映像データImage11をデコーダ18に供給すると(ステップS35の処理)、表示部19は、図20に示す合成画像を液晶モニタ40に表示する。   When the scoring method based on the total blur amount is selected in the scoring method selection menu as shown in FIG. 16B (step S32; Yes), the scoring unit 23 generates the video data Image11 of the generated composite image. Is supplied to the decoder 18 (step S35), the display unit 19 displays the combined image shown in FIG.

また、採点部23は、上述したように総ブレ量を計算し、ユーザ3のフォームを採点した結果の採点結果をデコーダ18に供給し(ステップS33,S34,S36の処理)、表示部19は、この採点結果を液晶モニタ40に表示する。   In addition, the scoring unit 23 calculates the total amount of blur as described above, supplies the scoring result of the result of scoring the form of the user 3 to the decoder 18 (steps S33, S34, S36), and the display unit 19 The scoring result is displayed on the liquid crystal monitor 40.

つまり、採点部23は、合成されたダイジェスト動画を構成する各合成フレーム画像の表示中に、表示中の合成フレーム画像に対応する採点結果を表示中の合成フレーム画像と対応付けて表示する。   That is, the scoring unit 23 displays the scoring result corresponding to the displayed composite frame image in association with the displayed composite frame image while displaying each composite frame image constituting the combined digest video.

例えば、フレーム番号1の合成画像において、ユーザ3の総ブレ量と上級者6の総ブレ量との差δ1を採点部23が計算した結果、δ_th1<δ1≦δ_th2になったものとする。   For example, in the composite image of frame number 1, it is assumed that the scoring unit 23 calculates δ_th1 <δ1 ≦ δ_th2 as a result of calculating the difference δ1 between the total blur amount of the user 3 and the total blur amount of the advanced user 6.

この場合、採点部23は、採点結果を良とし、液晶モニタ40は、図20に示すように、フレーム番号1の合成画像上に1/良(フレーム番号/採点結果)を表示する。   In this case, the scoring unit 23 sets the scoring result as good, and the liquid crystal monitor 40 displays 1 / good (frame number / scoring result) on the composite image of frame number 1, as shown in FIG.

また、フレーム番号2の合成画像において、採点部23が差δ1を計算した結果、δ_th2<δ1≦δ_th3になったものとする。この場合、採点部23は、採点結果を可とし、液晶モニタ40は、図20に示すように、フレーム番号2の合成画像上に2/可を表示する。   In the composite image of frame number 2, the scoring unit 23 calculates the difference δ1, and as a result, δ_th2 <δ1 ≦ δ_th3. In this case, the scoring unit 23 accepts the scoring result, and the liquid crystal monitor 40 displays 2 / possible on the composite image of frame number 2 as shown in FIG.

また、フレーム番号3の合成画像において、採点部23が差δ1を計算した結果、δ1≦δ1th1になったものとする。この場合、採点部23は、採点結果を優とし、液晶モニタ40は、図20に示すように、フレーム番号3の合成画像上に3/優を表示する。   Also, in the composite image of frame number 3, it is assumed that δ1 ≦ δ1th1 is obtained as a result of the scoring unit 23 calculating the difference δ1. In this case, the scoring unit 23 sets the scoring result as excellent, and the liquid crystal monitor 40 displays 3 / excellent on the composite image of frame number 3 as shown in FIG.

また、フレーム番号4の合成画像において、採点部23が差δ1を計算した結果、δ_th3<δ1になったものとする。この場合、採点部23は、採点結果を不可とし、液晶モニタ40は、図20に示すように、フレーム番号4の合成画像上に4/不可を表示する。   Further, in the composite image of frame number 4, it is assumed that δ_th3 <δ1 as a result of the scoring unit 23 calculating the difference δ1. In this case, the scoring unit 23 disables the scoring result, and the liquid crystal monitor 40 displays 4 / impossibility on the composite image of frame number 4 as shown in FIG.

一方、図16(b)に示したような採点方法選択メニューで局所ブレ量による採点方法が選択されていた場合(ステップS32;No)、採点部23は、各ブロックblk1〜blk8毎に対して局所ブレ量をフレーム毎に計算し、ユーザ3のフォームを採点する(ステップS37,S38の処理)。   On the other hand, when the scoring method based on the local blur amount is selected in the scoring method selection menu as shown in FIG. 16B (step S32; No), the scoring unit 23 applies to each block blk1 to blk8. The amount of local blur is calculated for each frame, and the form of the user 3 is scored (processing in steps S37 and S38).

採点部23は、図21に示すように、ユーザ3の局所ブレ量と上級者6の局所ブレ量との差δ2と、各ブレ量閾値δ_th1,δ_th2,δ_th3と、の比較結果に基づいて、フレーム番号1の合成画像のブロックblk7、フレーム番号2の合成画像のブロックblk6、フレーム番号4の合成画像のブロックblk5,blk7に模様を付す(ステップS39の処理)。   As shown in FIG. 21, the scoring unit 23 is based on the comparison result between the difference δ2 between the local blur amount of the user 3 and the local blur amount of the advanced user 6 and the respective blur amount threshold values δ_th1, δ_th2, and δ_th3. A pattern is added to the block blk7 of the composite image of frame number 1, the block blk6 of the composite image of frame number 2, and the blocks blk5 and blk7 of the composite image of frame number 4 (processing in step S39).

採点部23がこの合成画像のデータをデコーダ18に供給すると(ステップS35の処理)、表示部19は、図21に示すように模様を付した合成画像を液晶モニタ40に表示する。   When the scoring unit 23 supplies the composite image data to the decoder 18 (step S35), the display unit 19 displays the composite image with a pattern on the liquid crystal monitor 40 as shown in FIG.

また、採点部23が、ユーザ3のフォームを採点した結果の採点結果をデコーダ18に供給すると(ステップS36の処理)、図20と同じように、表示部19は、この採点結果も合わせて液晶モニタ40に表示する。   Further, when the scoring unit 23 supplies the scoring result of the result of scoring the form of the user 3 to the decoder 18 (processing in step S36), the display unit 19 also displays the scoring result together with the liquid crystal as in FIG. Display on the monitor 40.

従って、液晶モニタ40には、ユーザ3のフォーム、そのブレ、ユーザ3のフォームの採点結果が表示され、ユーザ3のフォームに欠点がある場合には、その欠点を示す模様がユーザ3のスイングに伴って表示される。   Therefore, on the liquid crystal monitor 40, the form of the user 3, its blur, and the scoring result of the form of the user 3 are displayed. If the form of the user 3 has a defect, a pattern indicating the defect appears on the swing of the user 3. Displayed with it.

以上説明したように、本実施形態2によれば、上級者6の総ブレ量又は局所ブレ量とユーザ3の総ブレ量又は局所ブレ量とを比較して、ユーザ3のフォームの採点を行うようにした。   As described above, according to the second embodiment, the total blur amount or local blur amount of the advanced user 6 and the total blur amount or local blur amount of the user 3 are compared, and the form of the user 3 is scored. I did it.

従って、ユーザ3のスイングのブレを即座に目視できるので、容易にスイングの欠点を解析することができる。また、ユーザ3のフォームを数値に基づいて客観的に採点することができる。   Therefore, since the swing blur of the user 3 can be immediately observed, the fault of the swing can be easily analyzed. In addition, the form of the user 3 can be scored objectively based on numerical values.

また、総ブレ量による採点方法を採用した場合、簡易な採点が可能となる。
また、局所ブレ量による採点方法を採用した場合、合成画像に、色彩を施したり、模様を付したりすることにより、ユーザ3に欠点箇所を容易に確認させることができる。
In addition, when the scoring method based on the total blur amount is adopted, simple scoring is possible.
In addition, when the scoring method based on the amount of local blur is adopted, the user 3 can easily confirm the defective part by giving a color or a pattern to the composite image.

尚、本発明を実施するにあたっては、種々の形態が考えられ、上記実施形態に限られるものではない。
例えば、上記実施形態1では、並べ替えを図12(a)、(b)に示すように、各ダイジェスト動画の再生表示を時系列的に順次表示させるものとした。
In carrying out the present invention, various forms are conceivable and the present invention is not limited to the above embodiment.
For example, in the first embodiment, as shown in FIGS. 12A and 12B, rearrangement display of each digest video is sequentially displayed in time series.

しかし、図22(a)に示すように、インパクト点A,B,C,Dに対応するダイジェスト動画を一括同時再生する構成としてもよい。そしてこのときに、各ダイジェスト動画の再生表示箇所を液晶モニタ40内でインパクト情報に基づいて並べ替えるようにしてもよい。   However, as shown in FIG. 22 (a), the digest moving images corresponding to the impact points A, B, C, and D may be reproduced simultaneously. At this time, the reproduction display locations of the digest videos may be rearranged in the liquid crystal monitor 40 based on the impact information.

また、所定のダイジェスト動画を比較対象として所定の表示領域に繰り返し再生表示するとともに、他の複数のダイジェスト動画を他の表示領域に時系列的に順次再生表示させる構成としてもよい。そしてこのとき、他の複数のダイジェスト動画の他の表示領域への表示を、インパクト情報に基づいて時系列的に順次再生表示させるようにしてもよい。   Alternatively, a predetermined digest video may be repeatedly reproduced and displayed in a predetermined display area as a comparison target, and another plurality of digest videos may be sequentially reproduced and displayed in time series in the other display areas. At this time, the display of the other plurality of digest videos in other display areas may be sequentially reproduced and displayed in time series based on the impact information.

例えば、図22(b)に示すように、インパクト点Bのダイジェスト動画を比較対象として、インパクト点Bのダイジェスト動画と、インパクト点C,D,Aのそれぞれのダイジェスト動画とを、比較するように、液晶モニタ40内で並べ替えるようにしてもよい。   For example, as shown in FIG. 22 (b), the digest video at impact point B is compared, and the digest video at impact point B and each digest video at impact points C, D, and A are compared. They may be rearranged in the liquid crystal monitor 40.

また、上記実施形態1では、並べ替えを、音の大きさ、時刻、スイング速度、飛球方向順のいずれかとした。しかし、並べ替えは、これに限られるものではない。   In the first embodiment, the rearrangement is performed in any of the order of sound volume, time, swing speed, and flying ball direction. However, rearrangement is not limited to this.

例えば、ユーザ3の運動の成果を評価する評価値を自己採点として、ユーザ3がダイジェスト動画を参照して自己採点の入力を行えるようにして、並べ替えをこの自己採点順としてもよい。   For example, the evaluation value for evaluating the result of the exercise of the user 3 may be self-scoring, and the user 3 may input the self-scoring with reference to the digest video, and the rearrangement may be performed in this self-scoring order.

詳述すると、デジタルカメラ1は、このような自己採点を行えるようにするため、図23(a)に示すようなダイジェスト動画オプションメニュー、図23(b)に示すような自己採点メニューを液晶モニタ40に表示させる。   More specifically, in order to enable the digital camera 1 to perform such self-scoring, a digest movie option menu as shown in FIG. 23A and a self-scoring menu as shown in FIG. 40.

図23(a)に示すダイジェスト動画オプションメニューは、ダイジェスト動画のオプションを設定するためのメニューであり、自己採点、並べ替えの項目を有する。   The digest movie option menu shown in FIG. 23A is a menu for setting digest movie options, and has items of self-scoring and rearrangement.

デジタルカメラ1は、図4(b)に示す再生メニューにおいて、アップキー42U、ダウンキー42Dが操作されてダイジェスト動画再生モードが選択され、右キー42Rが押下されると、このダイジェスト動画オプションメニューを液晶モニタ40に表示させる。   In the playback menu shown in FIG. 4B, the digital camera 1 selects the digest movie playback mode by operating the up key 42U and the down key 42D and presses the right key 42R, and displays the digest movie option menu. It is displayed on the liquid crystal monitor 40.

このダイジェスト動画オプションメニューにおいて、アップキー42U、ダウンキー42Dが操作されて自己採点が選択され、右キー42Rが押下されると、デジタルカメラ1は、図23(b)に示すような自己採点メニューを液晶モニタ40に表示させる。   In this digest movie option menu, when the up key 42U and the down key 42D are operated to select the self-scoring and the right key 42R is pressed, the digital camera 1 displays the self-scoring menu as shown in FIG. Is displayed on the liquid crystal monitor 40.

自己採点メニューは、自己採点の有効、無効を選択するためのメニューであり、自己採点の有効、無効は、自己採点メニューにおいて、アップキー42U、ダウンキー42Dが操作されて有効、無効が選択され、セットキー42Sが押下されることにより選択される。   The self-scoring menu is a menu for selecting valid / invalid of the self-scoring. Valid / invalid of the self-scoring is selected by selecting the valid / invalid by operating the up key 42U and the down key 42D in the self-scoring menu. The key is selected by pressing the set key 42S.

CPU21は、操作インタフェース11から、図23(b)に示す自己採点メニューにおいて自己採点の有効が選択された旨の操作情報が供給された場合、自己採点は有効と判定する。   The CPU 21 determines that the self-scoring is valid when operation information indicating that the self-scoring is valid is selected in the self-scoring menu shown in FIG.

自己採点の有効が選択された場合に自己採点データを入力する方法としては、キーによる入力方法、ゼスチャーを認識する方法、音声による入力方法等がある。キーによる入力方法の場合、デジタルカメラ1は、このキーを備える。   Examples of methods for inputting self-scoring data when self-scoring is enabled include a key input method, a gesture recognition method, and a voice input method. In the case of the key input method, the digital camera 1 includes this key.

ゼスチャーを認識する方法の場合、デジタルカメラ1は、例えば、使用する手袋の色を予め登録しておき、ユーザ3が手袋をした手で数字を描いた場合に、その色の位置の変化パターンに基づいて、描いた数字を認識する。   In the case of the method for recognizing a gesture, for example, the digital camera 1 registers the color of a glove to be used in advance, and when the user 3 draws a number with a gloved hand, the digital camera 1 changes the color position change pattern. Based on it, recognize the numbers you have drawn.

音声による入力方法の場合、音声認識ROM12は、自己採点時に発話される音声を認識するための音声認識用のデータとして、「いち」、「に」、「さん」、「よん」、「ご」、・・・と、「ゆう(優)」、「りょう(良)」、「か(可)」、「ふか(不可)」といった自己採点データを記憶する。   In the case of the voice input method, the voice recognition ROM 12 uses “1”, “ni”, “san”, “yon”, “go” as voice recognition data for recognizing the voice uttered during self-scoring. ,..., Self-scoring data such as “Yu (excellent)”, “Ryo (good)”, “Ka (possible)”, “Fuka (impossible)” are stored.

自己採点メニューにおいて自己採点の有効が選択されていると、CPU21は、上述したようなダイジェスト動画撮影モードにおける撮影処理の終了後に、記憶部15から、音声データ取得処理のプログラムデータを読み出し、図24に示すフローチャートに従って、この処理を実行する。   When the self-scoring is enabled in the self-scoring menu, the CPU 21 reads the program data of the voice data acquisition process from the storage unit 15 after the shooting process in the digest video shooting mode as described above is completed, and FIG. This process is executed according to the flowchart shown in FIG.

CPU21は、インパクト情報格納部17を参照し、インパクト情報に基づいてインパクト点の映像データImage11を記憶部15から読み出して、デコーダ18に供給することにより、インパクト点の映像を表示させる(ステップS41)。なお、このとき表示させる映像は、上述したようにCPU21によって生成されるダイジェスト動画であってもよい。   The CPU 21 refers to the impact information storage unit 17, reads out the video data Image11 of the impact point from the storage unit 15 based on the impact information, and supplies it to the decoder 18 to display the video of the impact point (step S41). . Note that the video displayed at this time may be a digest video generated by the CPU 21 as described above.

CPU21は、インパクト点でのフレーム画像(例えばインパクト音発生タイミングに対応するフレーム画像)を表示してから数秒経過後、LEDランプ35にLED点灯制御信号を供給してLEDランプ35を点灯する(ステップS42)。   The CPU 21 supplies an LED lighting control signal to the LED lamp 35 after a few seconds have elapsed after displaying the frame image at the impact point (for example, the frame image corresponding to the timing of occurrence of the impact sound), and turns on the LED lamp 35 (step). S42).

CPU21は、ユーザ3の発話による音声データSound1を入力して、自己採点の入力を受け付けるように、映像・音声入力部13を制御する(ステップS43)。CPU21は、LEDランプ35にLED点灯制御信号を供給してから、予め設定された時間経過後にLED点灯制御信号の供給を停止してLEDランプ35を消灯する。   The CPU 21 inputs the audio data Sound1 from the utterance of the user 3 and controls the video / audio input unit 13 to accept the input of the self-scoring (step S43). After supplying the LED lighting control signal to the LED lamp 35, the CPU 21 stops supplying the LED lighting control signal after the preset time has elapsed and turns off the LED lamp 35.

このとき、ユーザは、表示された映像を確認して自己採点を行い、LEDランプ35の点灯中に、例えば「ゆう(優)」、「りょう(良)」、「か(可)」、「ふか(不可)」のように発話する。   At this time, the user performs self-scoring by confirming the displayed video, and during the lighting of the LED lamp 35, for example, “Yu (excellent)”, “Ryo (good)”, “ka (possible)”, “ Speak like "Fuka (impossible)".

エンコーダ14は、入力された音声データSound1を圧縮、符号化して音声データSound11を生成し、CPU21は、エンコーダ14が圧縮、符号化した音声データSound11を記憶部15に記憶する(ステップS44)。   The encoder 14 compresses and encodes the input audio data Sound1 to generate audio data Sound11, and the CPU 21 stores the audio data Sound11 compressed and encoded by the encoder 14 in the storage unit 15 (step S44).

CPU21は、インパクト情報格納部17を参照し、インパクト情報に基づいて、他にインパクト点があるか否かを判定する(ステップS45)。   The CPU 21 refers to the impact information storage unit 17 and determines whether there is another impact point based on the impact information (step S45).

他にインパクト点があると判定した場合(ステップS45;Yes)、CPU21は、ステップS41〜S44を実行する。   If it is determined that there is another impact point (step S45; Yes), the CPU 21 executes steps S41 to S44.

他にインパクト点がないと判定した場合(ステップS45;No)、CPU21は、この音声データ取得処理を終了させる。   When it is determined that there is no other impact point (step S45; No), the CPU 21 ends the sound data acquisition process.

記憶部15にユーザ3の発話による音声データSound11が記憶されると、CPU21は、取得した音声データから自己採点データを取得するように、インパクト検出部16を制御する。インパクト検出部16は、記憶部15から、この音声データSound11を読み出す。   When the voice data Sound11 based on the speech of the user 3 is stored in the storage unit 15, the CPU 21 controls the impact detection unit 16 so as to acquire self-scoring data from the acquired voice data. The impact detection unit 16 reads out the audio data Sound11 from the storage unit 15.

音声認識部16hは、インパクト検出部16が記憶部15から読み出した音声データSound11と音声認識ROM12に記憶された音声認識用のデータとを比較して、ユーザ3が発話した音声を認識し、音声認識データIm_s2を自己採点データとして出力する。以後、この音声認識データIm_s2を自己採点データIm_s2とする。   The voice recognition unit 16h compares the voice data Sound11 read from the storage unit 15 by the impact detection unit 16 with the voice recognition data stored in the voice recognition ROM 12, recognizes the voice uttered by the user 3, and The recognition data Im_s2 is output as self-scoring data. Hereinafter, the voice recognition data Im_s2 is referred to as self-scoring data Im_s2.

インパクト検出部16は、音声認識部16hが出力した自己採点データIm_s2をインパクト情報としてインパクト情報格納部17に格納する。   The impact detection unit 16 stores the self-scoring data Im_s2 output from the voice recognition unit 16h in the impact information storage unit 17 as impact information.

なお、インパクト情報格納部17は、図25に示すように、インパクト検出部16から供給された自己採点データIm_s2をインパクト点毎に格納する。   As shown in FIG. 25, the impact information storage unit 17 stores the self-scoring data Im_s2 supplied from the impact detection unit 16 for each impact point.

デジタルカメラ1は、このようにして音声による入力方法により自己採点データを取得する。   In this way, the digital camera 1 acquires self-scoring data by a voice input method.

次に、図23(a)に示すダイジェスト動画オプションメニューにおいて、アップキー42U、ダウンキー42Dが操作されて並べ替えが選択され、右キー42Rが押下されると、デジタルカメラ1は、図23(c)に示すような並べ替えメニューを液晶モニタ40に表示させる。   Next, in the digest movie option menu shown in FIG. 23A, when the up key 42U and the down key 42D are operated to select the rearrangement and the right key 42R is pressed, the digital camera 1 is displayed as shown in FIG. A rearrangement menu as shown in c) is displayed on the liquid crystal monitor 40.

この並べ替えメニューにおいて、アップキー42U、ダウンキー42Dが操作され、並べ替えに用いるインパクト情報として自己採点が選択され、セットキー42Sが押下された旨の操作情報が供給されると、CPU21は、インパクト情報格納部17の並べ替え指定欄のうちの自己採点データの欄に、並べ替えを指定するデータを格納する。   In this rearrangement menu, when the up key 42U and the down key 42D are operated, self-scoring is selected as impact information used for rearrangement, and operation information indicating that the set key 42S is pressed is supplied, the CPU 21 Data for specifying rearrangement is stored in the self-scoring data column in the rearrangement designation column of the impact information storage unit 17.

操作インタフェース11から、ダイジェスト動画再生モードが選択されて再生ボタン39が押下された旨の操作情報が供給されると、CPU21は、記憶部15から、再生処理(3)のプログラムのデータを読み出し、図26に示すフローチャートに従って、この処理を実行する。   When the operation information indicating that the digest video playback mode is selected and the playback button 39 is pressed is supplied from the operation interface 11, the CPU 21 reads the program data of the playback process (3) from the storage unit 15. This process is executed according to the flowchart shown in FIG.

CPU21は、図11に示す再生処理(1)のステップS21〜27と同様の処理を実行する(ステップS51〜57)。   CPU21 performs the process similar to step S21-27 of the reproduction | regeneration process (1) shown in FIG. 11 (step S51-57).

CPU21は、操作インタフェース11から供給された操作情報に基づいて、並べ替えが飛球方向順ではないと判定すると(ステップS56;No)、並べ替えが自己採点順か否かを判定する(ステップS58)。   When the CPU 21 determines that the rearrangement is not in the flying ball direction order based on the operation information supplied from the operation interface 11 (step S56; No), the CPU 21 determines whether the rearrangement is in the self-scoring order (step S58). ).

並べ替えが自己採点順と判定した場合(ステップS58;Yes)、CPU21は、各インパクト点の自己採点データIm_s2を参照し、各インパクト点のダイジェスト動画を自己採点データIm_s2順に並べ替え、映像データImage11、音声データSound11をデコーダ18に供給する(ステップS59)。   When it is determined that the rearrangement is in the self-scoring order (step S58; Yes), the CPU 21 refers to the self-scoring data Im_s2 of each impact point, rearranges the digest video of each impact point in the self-scoring data Im_s2, and the video data Image11. The audio data Sound11 is supplied to the decoder 18 (step S59).

並べ替えが自己採点順ではないと判定した場合(ステップS58;No)、CPU21は、並べ替えが初期設定の時刻順と判定し、各インパクト点のダイジェスト動画を時刻情報Im_t順に並べ替え、映像データImage11、音声データSound11をデコーダ18に供給する(ステップS60)。そして、CPU21は、この再生処理(3)を終了させる。   When it is determined that the rearrangement is not in the self-scoring order (step S58; No), the CPU 21 determines that the rearrangement is in the initial time order, rearranges the digest videos of the impact points in the order of the time information Im_t, and the video data. Image11 and audio data Sound11 are supplied to the decoder 18 (step S60). Then, the CPU 21 ends the reproduction process (3).

このように、ユーザ3の自己採点の結果に基づいて、ダイジェスト動画を整列させて表示させることにより、複数のダイジェスト動画をユーザ3が考えている通りに整列させることができる。このため、ユーザ3の思い通りに自己のフォームを解析を行うことができる。   In this way, by displaying the digest videos in alignment based on the result of the self-scoring of the user 3, a plurality of digest videos can be aligned as the user 3 thinks. Therefore, the user's own form can be analyzed as the user 3 wishes.

また、ユーザ3の発話を音声認識して自己採点を行うようにすることにより、容易に自己採点を行うことができる。   In addition, self-scoring can be performed easily by recognizing speech of the user 3 and performing self-scoring.

上記実施形態1では、スイング速度、飛球方向等の演算を撮影終了後に行うものとした。しかし、これらの演算がCPUの負荷に対して問題にならないような場合には、これらの演算を撮影と平行して行うようにしてもよい。   In the first embodiment, calculations such as the swing speed and the flying ball direction are performed after the photographing is completed. However, when these calculations do not pose a problem with respect to the load on the CPU, these calculations may be performed in parallel with photographing.

上記実施形態1では、インパクト情報を、時刻情報、音の大きさ、スイング速度、飛球方向として説明した。しかし、インパクト情報はこれに限られるものではなく、例えば、ボール5の打球速度であってもよい。この場合、インパクト検出部16は、ボール5の中心の移動距離を検出し、この移動距離と撮影間隔とに基づいてボール5の打球速度を取得する。   In the first embodiment, the impact information is described as time information, sound volume, swing speed, and flying ball direction. However, the impact information is not limited to this, and may be the hitting speed of the ball 5, for example. In this case, the impact detection unit 16 detects the moving distance of the center of the ball 5 and acquires the hitting speed of the ball 5 based on the moving distance and the shooting interval.

上記実施形態1では、検出したインパクト点に対応する全てのダイジェスト動画を表示するものとして説明した。しかし、ダイジェスト動画の表示については、ダイジェスト動画の全てを必ずしも再生しなくてもよい。   In Embodiment 1 described above, all digest videos corresponding to the detected impact points are displayed. However, regarding the display of the digest movie, it is not always necessary to reproduce the entire digest movie.

例えば、インパクト情報を評価し、評価値の高いものだけを表示してもよい。例えば、インパクト情報としてスイングスピードを評価し、スイングスピードの最も速いものだけを表示したりしてもよい。   For example, impact information may be evaluated and only those with high evaluation values may be displayed. For example, the swing speed may be evaluated as impact information, and only the fastest swing speed may be displayed.

上記実施形態1,2では、付随して音が発生する運動として、ゴルフスイングを例に説明した。しかし、このような運動であれば、ゴルフスイングに限られるものではない。例えば、運動は、ボールを用いた運動として、テニスのサーブ練習、野球の打撃練習、バレーボールのサーブ練習、サッカーのシュート練習のような練習であってもよい。   In the first and second embodiments, the golf swing has been described as an example of the accompanying motion that generates sound. However, such an exercise is not limited to a golf swing. For example, the exercise may be exercises such as tennis serve practice, baseball batting practice, volleyball serve practice, soccer shoot practice, etc., as exercise using a ball.

さらに、このような運動は、ボールを用いた運動に限られるものでもなく、例えば、体操競技の跳馬練習、短距離走のスタート練習等であってもよい。   Furthermore, such exercise is not limited to exercise using a ball, and may be, for example, practice of jumping in gymnastics, practice of starting short distance running, or the like.

体操競技の跳馬練習の場合は、跳馬台に手をついたときに音が発生し、短距離走のスタート練習の場合、スタート合図を行うときに信号音が発生する。このように体操競技の跳馬練習、短距離走のスタート練習であっても、発生した音を基準にダイジェスト動画を生成することができる。   In the practice of jumping in gymnastics, a sound is generated when a hand is touched on a jumping platform, and in the case of a start practice of short distance running, a signal sound is generated when a start signal is given. As described above, a digest movie can be generated on the basis of the generated sound even in the practice of jumping in gymnastics and the start practice of short-distance running.

上記実施形態1,2では、インパクト検出部16が音の大きさに基づいてインパクト点を検出するようにした。しかし、インパクト検出部16は、例えば、映像に基づいてインパクト点を検出するようにしてもよい。   In the first and second embodiments, the impact detection unit 16 detects the impact point based on the loudness. However, the impact detection unit 16 may detect the impact point based on the video, for example.

ゴルフ練習を例にして説明すると、インパクト点では、インパクト音を発するとともに、ボール5の球速等も変化する。映像データImage11から、この変化タイミングを検出することにより、インパクト点を検出することができる。   When explaining golf practice as an example, at the impact point, an impact sound is emitted and the ball speed of the ball 5 also changes. By detecting this change timing from the video data Image11, the impact point can be detected.

上記実施形態1,2では、デジタルカメラ1は、ユーザ3の正面側に配置されるものとして説明した。しかし、デジタルカメラ1の配置位置は、これに限られるものではなく、例えば、ユーザ3の後方に配置されてもよい。   In the first and second embodiments, the digital camera 1 has been described as being disposed on the front side of the user 3. However, the arrangement position of the digital camera 1 is not limited to this, and may be arranged behind the user 3, for example.

この場合、指示枠7は、ユーザ3の後方から撮影するのにふさわしい形状のものとし、また、参照ブレ情報格納部22も、上級者6の後方から撮影したときの上級者6のブレ量等を、参照データとして格納する。   In this case, the instruction frame 7 has a shape suitable for shooting from the back of the user 3, and the blurring amount of the advanced user 6 when the reference blur information storage unit 22 is shot from behind the advanced user 6, etc. Are stored as reference data.

上記実施形態2では、総ブレ量が大きい場合でも採点結果を表示するようにした。しかし、総ブレ量が非常に大きく、採点結果を表示するまでもないときは、採点結果の表示を省略してもよい。   In the second embodiment, the scoring result is displayed even when the total blur amount is large. However, when the total blur amount is very large and it is not necessary to display the scoring result, the scoring result display may be omitted.

上記実施形態1,2では、局所ブレ量が大きい場合、そのブロックに色彩を施したり、模様を付したり等の合成画像の加工を行うようにした。しかし、合成画像の画像処理は、これに限られるものではなく、例えば、局所ブレ量が大きいブロックを、点滅、拡大、画面切替間隔を変える等の処理であってもよい。   In the first and second embodiments, when the amount of local blur is large, the synthesized image is processed such as coloring or adding a pattern to the block. However, the image processing of the composite image is not limited to this, and may be, for example, processing such as blinking, enlarging, and changing the screen switching interval for a block having a large local blur amount.

上記実施形態2では、ブレ量を画素値の分散の和とした。しかし、ブレ量は、このような算出方法によるものであるとは限らない。例えば、フレーム画像間の差分を撮った上で画素値の分散値を求めてもよい。また、上級者6、ユーザ3のエッジ画像を生成し、座標を設定してエッジ画像の変位の分散値に基づいて、ブレ量を算出するようにしてもよい。また、分散値の代わりに標準偏差を用いてブレ量を算出してもよい。   In the second embodiment, the blur amount is the sum of the dispersion of pixel values. However, the blur amount is not always based on such a calculation method. For example, a variance value of pixel values may be obtained after taking a difference between frame images. Alternatively, the edge images of the advanced user 6 and the user 3 may be generated, the coordinates may be set, and the blur amount may be calculated based on the variance value of the displacement of the edge image. Further, the blur amount may be calculated using a standard deviation instead of the variance value.

上記実施形態2では、ダイジェスト動画を合成した合成画像を表示するようにした。しかし、ダイジェスト動画の変わりに、静止画である各フレーム画像の合成画像を並べて表示するようにしてもよい。   In the second embodiment, a composite image obtained by combining digest videos is displayed. However, instead of the digest video, a composite image of each frame image that is a still image may be displayed side by side.

上記実施形態1では、インパクト検出部16、CPU21を異なる構成として説明した。また、上記実施形態2では、インパクト検出部16、CPU21、採点部23を異なる構成として説明した。しかし、これらを同じ構成としてもよい。そして、これらの構成等をデジタルカメラ1とは別のコンピュータに含まれるものとして、コンピュータとデジタルカメラ1とを接続するようにしてもよい。   In the said Embodiment 1, the impact detection part 16 and CPU21 were demonstrated as a different structure. Moreover, in the said Embodiment 2, the impact detection part 16, CPU21, and the scoring part 23 were demonstrated as a different structure. However, these may have the same configuration. These configurations and the like may be included in a computer separate from the digital camera 1, and the computer and the digital camera 1 may be connected.

上記実施形態1,2では、被写体をゴルフ練習者、動作をゴルフ練習として説明した。しかし、被写体、動作は、これに限られるものではなく、例えば、被写体を自動車、動作を衝突テストのような機械のテストとしてもよい。この場合、衝突テスト毎に、衝突音が付随音として発生するため、デジタルカメラ1は、この衝突音に基づいてダイジェスト動画を生成する。このように、上記実施形態1,2は、衝突テストのような機械のテストにも適用可能である。   In the first and second embodiments, the subject is a golf practitioner and the operation is a golf practice. However, the subject and motion are not limited to this, and for example, the subject may be a car and the motion may be a machine test such as a collision test. In this case, since a collision sound is generated as an accompanying sound for each collision test, the digital camera 1 generates a digest video based on the collision sound. As described above, the first and second embodiments can be applied to a machine test such as a collision test.

上記実施形態1,2では、ダイジェスト動画は、インパクト点を含み、その前後の予め設定された時間の動画として説明した。しかし、ダイジェスト動画は、インパクト点を含み、このインパクト点を起点とした、その前またはその後の予め設定された時間の動画としてもよい。   In the first and second embodiments, the digest moving image is described as a moving image of a preset time before and after the impact point including the impact point. However, the digest movie may include an impact point, and may be a movie of a preset time before or after the impact point.

上記実施形態1,2では、ダイジェスト動画撮影モードとダイジェスト動画再生モードとを備え、ダイジェスト動画撮影モードの実行に伴って連続動画からインパクト情報を生成し、ダイジェスト動画再生モードにおいてこの生成されたインパクト情報に基づいてダイジェスト動画を再生する構成について説明した。   In the first and second embodiments, the digest video shooting mode and the digest video playback mode are provided, and impact information is generated from the continuous video in accordance with the execution of the digest video shooting mode, and the generated impact information in the digest video playback mode. The configuration for reproducing the digest video based on the above has been described.

しかし、ダイジェスト動画撮影モードを備えることなく、ダイジェスト動画再生モードにおいて、撮影済みの連続動画に基づいてインパクト情報を生成するとともに、これに基づいてダイジェスト動画を再生する構成としてもよい。   However, without providing the digest movie shooting mode, the digest movie playback mode may be configured to generate impact information based on the captured continuous movie and play the digest movie based on this.

また、ダイジェスト動画撮影モードにおいてダイジェスト動画の生成までを実行し、ダイジェスト動画再生モードにおいてこの生成されたダイジェスト動画を再生する構成としてもよい。   Further, it may be configured to execute up to the generation of a digest video in the digest video shooting mode and to play back the generated digest video in the digest video playback mode.

上記実施形態1,2では、ダイジェスト画像表示装置をデジタルカメラ1として説明した。しかし、ダイジェスト画像表示装置は、デジタルカメラに限られるものではなく、例えば、ビデオカメラであってもよい。   In the first and second embodiments, the digest image display device is described as the digital camera 1. However, the digest image display device is not limited to a digital camera, and may be a video camera, for example.

また、表示部19を大型スクリーンとして、デジタルカメラ1と分離し、さらに、撮影の開始、停止、終了を音声にて行うようにすれば、ユーザ3は、デジタルカメラ1を操作しなくても、音声により、大型スクリーンに映し出された自分のフォームを評価することができる。   Further, if the display unit 19 is separated from the digital camera 1 with a large screen, and the start, stop, and end of shooting are performed by voice, the user 3 does not have to operate the digital camera 1. By voice, you can evaluate your form on a large screen.

また、上記実施形態では、プログラムが、それぞれメモリ等に予め記憶されているものとして説明した。しかし、上記ダイジェスト画像表示装置を、これを含む装置の全部又は一部として動作させ、あるいは、上述の処理を実行させるためのプログラムを、フレキシブルディスク、CD−ROM(Compact Disk Read-Only Memory)、DVD(Digital Versatile Disk)、MO(Magneto Optical disk)などのコンピュータ読み取り可能な記録媒体に格納して配布し、これを別のコンピュータにインストールし、上述の手段として動作させ、あるいは、上述の工程を実行させてもよい。   In the above-described embodiment, the program is described as being stored in advance in a memory or the like. However, a program for operating the digest image display device as all or a part of the device including the digest image display device, or executing the above-described processing, a flexible disk, a CD-ROM (Compact Disk Read-Only Memory), The program is stored and distributed in a computer-readable recording medium such as a DVD (Digital Versatile Disk) or MO (Magneto Optical disk), installed in another computer, and operated as the above-mentioned means. It may be executed.

さらに、インターネット上のサーバ装置が有するディスク装置等にプログラムを格納しておき、例えば、搬送波に重畳させて、コンピュータにダウンロード等するものとしてもよい。   Furthermore, the program may be stored in a disk device or the like included in a server device on the Internet, and may be downloaded onto a computer by being superimposed on a carrier wave, for example.

1・・・デジタルカメラ、12・・・音声認識ROM、13・・・映像・音声入力部、14・・・エンコーダ、15・・・記憶部、16・・・インパクト検出部、17・・・インパクト情報格納部、18・・・デコーダ、19・・・表示部、21・・・CPU、22・・・参照ブレ情報格納部、23・・・採点部   DESCRIPTION OF SYMBOLS 1 ... Digital camera, 12 ... Voice recognition ROM, 13 ... Video | audio / audio input part, 14 ... Encoder, 15 ... Memory | storage part, 16 ... Impact detection part, 17 ... Impact information storage unit, 18 ... decoder, 19 ... display unit, 21 ... CPU, 22 ... reference blur information storage unit, 23 ... scoring unit

Claims (20)

付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得する映像取得部と、
前記付随音を取得する付随音取得部と、
前記動作を比較するための比較情報を格納する比較情報格納部と、
前記映像取得部が取得した映像又は前記付随音取得部が取得した付随音に基づいて、前記付随音が発生する各タイミングを検出するとともに、各タイミングの前記比較情報を取得して前記比較情報格納部に格納するタイミング検出部と、
前記映像取得部が取得した映像から、前記タイミング検出部が検出した各タイミング毎のダイジェスト画像を生成するダイジェスト画像生成部と、
前記比較情報格納部を参照し、格納された前記比較情報に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示するダイジェスト画像表示部と、を備えた、
ことを特徴とするダイジェスト画像表示装置。
A video acquisition unit that captures a subject that performs the operation of generating an accompanying sound a plurality of times and acquires a video of the subject;
An accompanying sound acquisition unit for acquiring the accompanying sound;
A comparison information storage for storing comparison information for comparing the operations;
Based on the video acquired by the video acquisition unit or the accompanying sound acquired by the accompanying sound acquisition unit, each timing at which the accompanying sound occurs is detected, and the comparison information at each timing is acquired to store the comparison information A timing detection unit stored in the unit;
A digest image generation unit that generates a digest image for each timing detected by the timing detection unit from the video acquired by the video acquisition unit;
A digest image display unit that refers to the comparison information storage unit and displays a plurality of digest images generated by the digest image generation unit based on the stored comparison information.
A digest image display device.
前記動作は、球を用いた運動であり、
前記映像取得部は、球を用いた運動を複数回行う被写体を撮影して前記被写体の映像を取得する、
ことを特徴とする請求項1に記載のダイジェスト画像表示装置。
The movement is an exercise using a sphere,
The video acquisition unit acquires a video of the subject by photographing a subject that performs a plurality of exercises using a sphere,
The digest image display device according to claim 1.
前記動作は、補助具で前記球に衝撃を加えて飛球させる運動であり、
前記映像取得部は、補助具で前記球に衝撃を加えて飛球させる運動を複数回行う被写体を撮影して前記被写体の映像を取得し、
前記付随音取得部は、前記付随音として、前記補助具で前記球に衝撃を加えたときに発生する音を取得する、
ことを特徴とする請求項2に記載のダイジェスト画像表示装置。
The operation is an exercise of applying a shock to the ball with an auxiliary tool to fly,
The video acquisition unit acquires a video of the subject by photographing a subject that performs a plurality of movements that impact and fly the ball with an auxiliary tool,
The accompanying sound acquisition unit acquires, as the accompanying sound, a sound generated when an impact is applied to the sphere with the auxiliary tool,
The digest image display device according to claim 2.
前記付随音取得部は、前記球に衝撃が加えられて発生する衝撃音を前記付随音として取得するものである、
ことを特徴とする請求項3に記載のダイジェスト画像表示装置。
The accompanying sound acquisition unit acquires an impact sound generated when an impact is applied to the sphere as the accompanying sound.
The digest image display device according to claim 3.
前記付随音取得部は、前記付随音を取得するとともに前記付随音の大きさを取得するものであり、
前記タイミング検出部は、前記付随音取得部が取得した付随音に基づいて、前記付随音の大きさを、各タイミングの比較情報として取得し、取得した前記付随音の大きさを前記比較情報格納部に格納し、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記付随音の大きさに基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示する、
ことを特徴とする請求項1乃至3に記載のダイジェスト画像表示装置。
The accompanying sound acquisition unit acquires the accompanying sound and obtains the magnitude of the accompanying sound,
The timing detection unit acquires the size of the accompanying sound as comparison information of each timing based on the accompanying sound acquired by the accompanying sound acquisition unit, and stores the acquired size of the accompanying sound as the comparison information Store in the department,
The digest image display unit refers to the comparison information storage unit, and displays a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored accompanying sound volume.
The digest image display device according to any one of claims 1 to 3.
前記ダイジェスト画像生成部が生成したダイジェスト画像毎に、前記被写体の動作を評価する評価値の入力を受け付けて、入力された評価値を前記比較情報として前記比較情報格納部に格納する評価値受付部を備え、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記評価値に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示する、
ことを特徴とする請求項1乃至3に記載のダイジェスト画像表示装置。
An evaluation value receiving unit that receives an input of an evaluation value for evaluating the motion of the subject for each digest image generated by the digest image generation unit and stores the input evaluation value as the comparison information in the comparison information storage unit With
The digest image display unit refers to the comparison information storage unit, and displays a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored evaluation values.
The digest image display device according to any one of claims 1 to 3.
前記タイミング検出部は、前記映像取得部が取得した映像に基づいて、前記球に衝撃が加えられたときの前記補助具の速度を、各タイミングの比較情報として取得し、取得した前記補助具の速度を前記比較情報格納部に格納し、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記補助具の速度に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示する、
ことを特徴とする請求項3に記載のダイジェスト画像表示装置。
The timing detection unit acquires the speed of the auxiliary tool when an impact is applied to the ball based on the video acquired by the video acquisition unit as comparison information of each timing, and acquires the acquired Store the speed in the comparison information storage unit,
The digest image display unit refers to the comparison information storage unit and displays a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored speed of the auxiliary tool.
The digest image display device according to claim 3.
前記タイミング検出部は、前記映像取得部が取得した映像に基づいて、前記球に衝撃が加えられたときの球速を、各タイミングの比較情報として取得し、取得した前記球速を前記比較情報格納部に格納し、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記球速に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示する、
ことを特徴とする請求項3に記載のダイジェスト画像表示装置。
The timing detection unit acquires the ball speed when an impact is applied to the ball as comparison information of each timing based on the video acquired by the video acquisition unit, and the acquired ball speed is the comparison information storage unit Stored in
The digest image display unit refers to the comparison information storage unit and displays a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored ball speed.
The digest image display device according to claim 3.
前記タイミング検出部は、前記映像取得部が取得した映像に基づいて、前記球の飛球方向を、各タイミングの比較情報として取得し、取得した前記飛球方向を前記比較情報格納部に格納し、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記飛球方向に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示する、
ことを特徴とする請求項2又は3に記載のダイジェスト画像表示装置。
The timing detection unit acquires the flying direction of the sphere as comparison information of each timing based on the video acquired by the video acquisition unit, and stores the acquired flying ball direction in the comparison information storage unit. ,
The digest image display unit refers to the comparison information storage unit and displays a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored flying ball direction.
The digest image display apparatus according to claim 2, wherein the digest image display apparatus is a digest image display apparatus.
前記タイミング検出部は、時刻を計測する時刻計測部を備え、前記映像取得部が取得した映像又は前記付随音取得部が取得した付随音に基づいて、前記付随音が発生する各タイミングを検出するとともに、検出したタイミングで前記時刻計測部が計測した時刻の時刻情報を、各タイミングの前記比較情報として取得し、取得した時刻情報を前記比較情報格納部に格納し、
前記ダイジェスト画像表示部は、前記比較情報格納部を参照し、格納された前記時刻情報に基づいて、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を整列させて表示する、
ことを特徴とする請求項1乃至3に記載のダイジェスト画像表示装置。
The timing detection unit includes a time measurement unit that measures time, and detects each timing at which the accompanying sound is generated based on the video acquired by the video acquisition unit or the accompanying sound acquired by the accompanying sound acquisition unit. And the time information of the time measured by the time measurement unit at the detected timing is acquired as the comparison information of each timing, the acquired time information is stored in the comparison information storage unit,
The digest image display unit refers to the comparison information storage unit and displays a plurality of digest images generated by the digest image generation unit in an aligned manner based on the stored time information.
The digest image display device according to any one of claims 1 to 3.
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得する映像取得部と、
前記付随音を取得する付随音取得部と、
前記映像取得部が取得した映像又は前記付随音取得部が取得した付随音に基づいて、前記付随音が発生する各タイミングを検出するタイミング検出部と、
前記映像取得部が取得した映像から、前記タイミング検出部が検出した各タイミング毎のダイジェスト画像を生成するダイジェスト画像生成部と、
前記ダイジェスト画像生成部が各タイミング毎に生成したダイジェスト画像を、前記タイミング検出部が検出した各タイミングを基準に合成し、前記被写体の姿勢のブレを示す合成画像を生成する合成画像生成部と、
前記合成画像生成部の前記合成画像の生成に用いた各ダイジェスト画像を比較して、前記被写体の姿勢のブレ量を取得するブレ量取得部と、
目標とする目標ブレ量と前記ブレ量取得部が取得した前記被写体のブレ量とを比較し、前記目標ブレ量と前記被写体のブレ量との差に基づいて前記被写体の動作を評価する評価部と、
前記合成画像生成部が生成した合成画像と前記評価部が評価した結果の評価結果とを表示するダイジェスト画像表示部と、を備えた、
ことを特徴とするダイジェスト画像表示装置。
A video acquisition unit that captures a subject that performs the operation of generating an accompanying sound a plurality of times and acquires a video of the subject;
An accompanying sound acquisition unit for acquiring the accompanying sound;
A timing detection unit that detects each timing at which the accompanying sound is generated based on the video acquired by the video acquisition unit or the accompanying sound acquired by the accompanying sound acquisition unit;
A digest image generation unit that generates a digest image for each timing detected by the timing detection unit from the video acquired by the video acquisition unit;
A combined image generating unit that combines the digest images generated by the digest image generating unit at each timing with reference to the timings detected by the timing detecting unit, and generates a combined image showing blurring of the posture of the subject;
A blur amount acquisition unit that compares the digest images used to generate the composite image of the composite image generation unit and acquires a blur amount of the posture of the subject;
An evaluation unit that compares a target target blur amount with the blur amount of the subject acquired by the blur amount acquisition unit and evaluates the motion of the subject based on a difference between the target blur amount and the blur amount of the subject. When,
A digest image display unit for displaying a composite image generated by the composite image generation unit and an evaluation result of a result evaluated by the evaluation unit;
A digest image display device.
前記ブレ量取得部は、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を比較して、前記被写体の姿勢の総ブレ量を取得し、
前記評価部は、目標とする目標総ブレ量と前記被写体の総ブレ量とを比較し、前記目標ブレ量と前記被写体のブレ量との差に基づいて前記被写体の動作を評価する、
ことを特徴とする請求項11に記載のダイジェスト画像表示装置。
The blur amount acquisition unit compares a plurality of digest images generated by the digest image generation unit, acquires a total blur amount of the posture of the subject,
The evaluation unit compares a target total blur amount to be a target and a total blur amount of the subject, and evaluates an operation of the subject based on a difference between the target blur amount and the blur amount of the subject.
The digest image display device according to claim 11.
前記ブレ量取得部は、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を、それぞれ複数のブロックに分割し、分割したブロック毎の前記被写体の姿勢の局所ブレ量を取得し、
前記評価部は、前記ブレ量取得部が取得した各局所ブレ量と前記各局所ブレ量の目標とする目標局所ブレ量とをそれぞれ比較し、前記被写体の各局所ブレ量と目標局所ブレ量との差に基づいて前記被写体の動作を前記ブロック毎に評価し、
前記ダイジェスト画像表示部は、前記ダイジェスト画像生成部が生成した前記ダイジェスト画像と前記評価部がブロック毎に評価した評価結果とを表示する、
ことを特徴とする請求項11に記載のダイジェスト画像表示装置。
The blur amount acquisition unit divides a plurality of digest images generated by the digest image generation unit into a plurality of blocks, and acquires a local blur amount of the posture of the subject for each of the divided blocks.
The evaluation unit compares each local blur amount acquired by the blur amount acquisition unit with a target local blur amount targeted for each local blur amount, and each local blur amount and target local blur amount of the subject The movement of the subject is evaluated for each block based on the difference between
The digest image display unit displays the digest image generated by the digest image generation unit and the evaluation result evaluated by the evaluation unit for each block.
The digest image display device according to claim 11.
前記評価部は、前記被写体の各局所ブレ量と目標局所ブレ量との差と、前記差に対して予め設定された閾値とを比較し、前記差が前記閾値以上となったブロックの画像に、評価結果を示すための画像処理を施す、
ことを特徴とする請求項13に記載のダイジェスト画像表示装置。
The evaluation unit compares a difference between each local blur amount of the subject and the target local blur amount with a threshold value set in advance for the difference, and determines an image of the block in which the difference is equal to or greater than the threshold value. , Apply image processing to show the evaluation results,
The digest image display device according to claim 13.
前記ダイジェスト画像生成部は、前記タイミング検出部が検出した1つのタイミングにおいて1回の動作における複数のダイジェスト画像を生成し、
前記評価部は、前記ダイジェスト画像生成部が生成した複数のダイジェスト画像を並べて合成する、
ことを特徴とする請求項11乃至14のいずれか1項に記載のダイジェスト画像表示装置。
The digest image generation unit generates a plurality of digest images in one operation at one timing detected by the timing detection unit,
The evaluation unit synthesizes a plurality of digest images generated by the digest image generation unit.
The digest image display device according to claim 11, wherein the digest image display device is a digest image display device.
前記目標ブレ量を記憶する目標ブレ量記憶部を備え、
前記評価部は、前記目標ブレ量記憶部を参照して、前記目標ブレ量を取得する、
ことを特徴とする請求項11乃至15のいずれか1項に記載のダイジェスト画像表示装置。
A target blur amount storage unit for storing the target blur amount;
The evaluation unit refers to the target blur amount storage unit to obtain the target blur amount;
The digest image display device according to claim 11, wherein the digest image display device is a digest image display device.
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得するステップと、
前記付随音を取得するステップと、
取得した映像又は付随音に基づいて、前記付随音が発生する各タイミングを検出して前記動作を比較するための比較情報を取得するステップと、
取得した前記比較情報を格納するステップと、
取得した前記映像から、検出した各タイミング毎のダイジェスト画像を生成するステップと、
格納された前記比較情報に基づいて、生成した複数のダイジェスト画像を整列させて表示するステップと、を備えた、
ことを特徴とするダイジェスト画像表示方法。
Photographing a subject that performs an operation of generating an accompanying sound a plurality of times, and obtaining an image of the subject;
Obtaining the accompanying sound;
Based on the acquired video or accompanying sound, detecting each timing at which the accompanying sound is generated and obtaining comparison information for comparing the operations;
Storing the acquired comparison information;
Generating a digest image for each detected timing from the acquired video;
And aligning and displaying the plurality of generated digest images based on the stored comparison information,
The digest image display method characterized by the above-mentioned.
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得するステップと、
前記付随音を取得するステップと、
取得した映像又は付随音に基づいて、前記付随音が発生する各タイミングを検出するステップと、
取得した映像から、検出した各タイミング毎のダイジェスト画像を生成するステップと、
各タイミング毎に生成したダイジェスト画像を、検出した各タイミングを基準に合成し、前記被写体の姿勢のブレを示す合成画像を生成するステップと、
前記合成画像の生成に用いた各ダイジェスト画像を比較して、前記被写体の姿勢のブレ量を取得するステップと、
目標とする目標ブレ量と前記被写体のブレ量とを比較し、前記目標ブレ量と前記被写体のブレ量との差に基づいて前記被写体の動作を評価するステップと、
前記合成画像と評価した結果の評価結果とを表示するステップと、を備えた、
ことを特徴とするダイジェスト画像表示方法。
Photographing a subject that performs an operation of generating an accompanying sound a plurality of times, and obtaining an image of the subject;
Obtaining the accompanying sound;
Detecting each timing at which the accompanying sound is generated based on the acquired video or the accompanying sound; and
Generating a digest image for each detected timing from the acquired video;
Synthesizing the digest image generated at each timing with reference to each detected timing, and generating a composite image showing blurring of the posture of the subject;
Comparing each digest image used to generate the composite image to obtain a blur amount of the posture of the subject;
Comparing a target target blur amount with the subject blur amount, and evaluating the motion of the subject based on a difference between the target blur amount and the subject blur amount;
Displaying the composite image and the evaluation result of the evaluation result,
The digest image display method characterized by the above-mentioned.
コンピュータに、
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得する手順、
前記付随音を取得する手順、
取得した映像又は付随音に基づいて、前記付随音が発生する各タイミングを検出して前記動作を比較するための比較情報を取得する手順、
取得した比較情報を格納する手順、
取得した前記映像から、検出した各タイミング毎のダイジェスト画像を生成する手順、
格納した前記比較情報に基づいて、生成した複数のダイジェスト画像を整列させて表示する手順、
を実行させるためのプログラム。
On the computer,
A procedure for photographing a subject that performs an operation that generates an accompanying sound a plurality of times and acquiring an image of the subject,
Obtaining the accompanying sound;
A procedure for acquiring comparison information for detecting each timing at which the accompanying sound is generated and comparing the operation based on the acquired video or the accompanying sound,
Procedure to store the acquired comparison information,
A procedure for generating a digest image for each detected timing from the acquired video,
A procedure for aligning and displaying a plurality of generated digest images based on the stored comparison information,
A program for running
付随音が発生する動作を複数回行う被写体を撮影し、前記被写体の映像を取得する手順、
前記付随音を取得する手順、
取得した映像又は付随音に基づいて、前記付随音が発生する各タイミングを検出する手順、
取得した映像から、検出した各タイミング毎のダイジェスト画像を生成する手順、
各タイミング毎に生成したダイジェスト画像を、検出した各タイミングを基準に合成し、前記被写体の姿勢のブレを示す合成画像を生成する手順、
前記合成画像の生成に用いた各ダイジェスト画像を比較して、前記被写体の姿勢のブレ量を取得する手順、
目標とする目標ブレ量と前記被写体のブレ量とを比較し、前記目標ブレ量と前記被写体のブレ量との差に基づいて前記被写体の動作を評価する手順、
前記合成画像と評価した結果の評価結果とを表示する手順、
を実行させるためのプログラム。
A procedure for photographing a subject that performs an operation that generates an accompanying sound a plurality of times and acquiring an image of the subject,
Obtaining the accompanying sound;
A procedure for detecting each timing at which the accompanying sound is generated based on the acquired video or the accompanying sound,
A procedure for generating a digest image for each detected timing from the acquired video,
A procedure for synthesizing a digest image generated at each timing with reference to each detected timing, and generating a synthesized image showing blurring of the posture of the subject,
A procedure for comparing each digest image used to generate the composite image and obtaining a blur amount of the posture of the subject;
A procedure for comparing a target blur amount and a blur amount of the subject, and evaluating the motion of the subject based on a difference between the target blur amount and the blur amount of the subject;
A procedure for displaying the composite image and an evaluation result of the evaluation result;
A program for running
JP2011100293A 2011-04-28 2011-04-28 Digest image display device, digest image display method and program Expired - Fee Related JP5240317B2 (en)

Priority Applications (1)

Application Number Priority Date Filing Date Title
JP2011100293A JP5240317B2 (en) 2011-04-28 2011-04-28 Digest image display device, digest image display method and program

Applications Claiming Priority (1)

Application Number Priority Date Filing Date Title
JP2011100293A JP5240317B2 (en) 2011-04-28 2011-04-28 Digest image display device, digest image display method and program

Related Parent Applications (1)

Application Number Title Priority Date Filing Date
JP2007070223A Division JP4784538B2 (en) 2007-03-19 2007-03-19 Digest image display device, digest image display method and program

Publications (2)

Publication Number Publication Date
JP2011205657A true JP2011205657A (en) 2011-10-13
JP5240317B2 JP5240317B2 (en) 2013-07-17

Family

ID=44881724

Family Applications (1)

Application Number Title Priority Date Filing Date
JP2011100293A Expired - Fee Related JP5240317B2 (en) 2011-04-28 2011-04-28 Digest image display device, digest image display method and program

Country Status (1)

Country Link
JP (1) JP5240317B2 (en)

Cited By (2)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JP2015052904A (en) * 2013-09-06 2015-03-19 カシオ計算機株式会社 Moving image selection device, moving image selection method, and program
KR101558659B1 (en) * 2012-09-20 2015-10-07 가시오게산키 가부시키가이샤 Image processing device, image processing method, and storage medium

Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0663209A (en) * 1992-08-25 1994-03-08 Kubota Corp Ball hitting action training machine
JP2002210055A (en) * 2001-01-17 2002-07-30 Saibuaasu:Kk Swing measuring system
JP2004173202A (en) * 2002-11-22 2004-06-17 Canon Inc Image recorder

Patent Citations (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
JPH0663209A (en) * 1992-08-25 1994-03-08 Kubota Corp Ball hitting action training machine
JP2002210055A (en) * 2001-01-17 2002-07-30 Saibuaasu:Kk Swing measuring system
JP2004173202A (en) * 2002-11-22 2004-06-17 Canon Inc Image recorder

Cited By (3)

* Cited by examiner, † Cited by third party
Publication number Priority date Publication date Assignee Title
KR101558659B1 (en) * 2012-09-20 2015-10-07 가시오게산키 가부시키가이샤 Image processing device, image processing method, and storage medium
US9324158B2 (en) 2012-09-20 2016-04-26 Casio Computer Co., Ltd. Image processing device for performing image processing on moving image
JP2015052904A (en) * 2013-09-06 2015-03-19 カシオ計算機株式会社 Moving image selection device, moving image selection method, and program

Also Published As

Publication number Publication date
JP5240317B2 (en) 2013-07-17

Similar Documents

Publication Publication Date Title
JP4784538B2 (en) Digest image display device, digest image display method and program
CN103888643B (en) Information reporting device, information report method and recording medium
US12029961B2 (en) Flagging irregularities in user performance in an exercise machine system
US11826628B2 (en) Virtual reality sports training systems and methods
GB2567579A (en) Billiard ball striking assistance method, billiard ball striking assistance system, and portable electronic device
CN103581522B (en) information notification apparatus and information notification method
KR100347960B1 (en) Video game machine and controlling method of it
CN105450911B (en) Image processing apparatus, image processing method
JP6673221B2 (en) Information processing apparatus, information processing method, and program
JP4264368B2 (en) Practical skill analysis system and program
EP1907076A1 (en) A method for analyzing the motion of a person during an activity
JP2006345270A (en) Information processing device and method therefor, photographing device and program
KR20110085735A (en) Apparatus for offering image of billiard and method thereof
US20140079289A1 (en) Information generation apparatus that generates information on a sequence of motions
CN103914700B (en) Display control unit, display control method and recording medium
JP5786892B2 (en) Movie playback device, movie playback method and program
JP5240317B2 (en) Digest image display device, digest image display method and program
JP5283649B2 (en) Apparatus and method for analyzing an action of shooting an arrow using a bow
US20200387288A1 (en) Information processing apparatus, method for controlling the same, and storage medium
KR101540771B1 (en) Judgment system and method for sports game using augmented-reality glass
JP6679951B2 (en) Teaching Assist System and Teaching Assist Program
JP5318016B2 (en) GAME SYSTEM, GAME SYSTEM CONTROL METHOD, AND PROGRAM
JPH10341431A (en) Motion component detection processor for object and medium storing processing program therefor
JP2020135177A (en) Program, device, and method for analyzing moving image
JP7513938B2 (en) Information processing method, information processing device, and program

Legal Events

Date Code Title Description
TRDD Decision of grant or rejection written
A01 Written decision to grant a patent or to grant a registration (utility model)

Free format text: JAPANESE INTERMEDIATE CODE: A01

Effective date: 20130305

A61 First payment of annual fees (during grant procedure)

Free format text: JAPANESE INTERMEDIATE CODE: A61

Effective date: 20130318

FPAY Renewal fee payment (event date is renewal date of database)

Free format text: PAYMENT UNTIL: 20160412

Year of fee payment: 3

R150 Certificate of patent or registration of utility model

Free format text: JAPANESE INTERMEDIATE CODE: R150

Ref document number: 5240317

Country of ref document: JP

Free format text: JAPANESE INTERMEDIATE CODE: R150

LAPS Cancellation because of no payment of annual fees