JP2016036680A - 撮影制御方法、撮影制御装置、撮影制御システム及びプログラム - Google Patents
撮影制御方法、撮影制御装置、撮影制御システム及びプログラム Download PDFInfo
- Publication number
- JP2016036680A JP2016036680A JP2014163896A JP2014163896A JP2016036680A JP 2016036680 A JP2016036680 A JP 2016036680A JP 2014163896 A JP2014163896 A JP 2014163896A JP 2014163896 A JP2014163896 A JP 2014163896A JP 2016036680 A JP2016036680 A JP 2016036680A
- Authority
- JP
- Japan
- Prior art keywords
- unit
- imaging
- swing
- shooting
- photographing
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Classifications
-
- G—PHYSICS
- G06—COMPUTING; CALCULATING OR COUNTING
- G06V—IMAGE OR VIDEO RECOGNITION OR UNDERSTANDING
- G06V40/00—Recognition of biometric, human-related or animal-related patterns in image or video data
- G06V40/20—Movements or behaviour, e.g. gesture recognition
- G06V40/23—Recognition of whole body movements, e.g. for sport training
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0087—Electric or electronic controls for exercising apparatus of groups A63B21/00 - A63B23/00, e.g. controlling load
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B69/00—Training appliances or apparatus for special sports
- A63B69/36—Training appliances or apparatus for special sports for golf
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/20—Input arrangements for video game devices
- A63F13/21—Input arrangements for video game devices characterised by their sensors, purposes or types
- A63F13/213—Input arrangements for video game devices characterised by their sensors, purposes or types comprising photodetecting means, e.g. cameras, photodiodes or infrared cells
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F13/00—Video games, i.e. games using an electronically generated display having two or more dimensions
- A63F13/80—Special adaptations for executing a specific game genre or game mode
- A63F13/816—Athletics, e.g. track-and-field sports
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/61—Control of cameras or camera modules based on recognised objects
- H04N23/611—Control of cameras or camera modules based on recognised objects where the recognised objects include parts of the human body
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N23/00—Cameras or camera modules comprising electronic image sensors; Control thereof
- H04N23/60—Control of cameras or camera modules
- H04N23/66—Remote control of cameras or camera parts, e.g. by remote control devices
-
- H—ELECTRICITY
- H04—ELECTRIC COMMUNICATION TECHNIQUE
- H04N—PICTORIAL COMMUNICATION, e.g. TELEVISION
- H04N5/00—Details of television systems
- H04N5/14—Picture signal circuitry for video frequency region
- H04N5/144—Movement detection
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B24/00—Electric or electronic controls for exercising apparatus of preceding groups; Controlling or monitoring of exercises, sportive games, training or athletic performances
- A63B24/0003—Analysing the course of a movement or motion sequences during an exercise or trainings sequence, e.g. swing for golf or tennis
- A63B24/0006—Computerised comparison for qualitative assessment of motion sequences or the course of a movement
- A63B2024/0012—Comparing movements or motion sequences with a registered reference
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2208/00—Characteristics or parameters related to the user or player
- A63B2208/02—Characteristics or parameters related to the user or player posture
- A63B2208/0204—Standing on the feet
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/30—Speed
- A63B2220/34—Angular speed
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/40—Acceleration
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/50—Force related parameters
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/803—Motion sensors
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63B—APPARATUS FOR PHYSICAL TRAINING, GYMNASTICS, SWIMMING, CLIMBING, OR FENCING; BALL GAMES; TRAINING EQUIPMENT
- A63B2220/00—Measuring of physical parameters relating to sporting activity
- A63B2220/80—Special sensors, transducers or devices therefor
- A63B2220/806—Video cameras
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/10—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals
- A63F2300/1087—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game characterized by input arrangements for converting player-generated signals into game device control signals comprising photodetecting means, e.g. a camera
-
- A—HUMAN NECESSITIES
- A63—SPORTS; GAMES; AMUSEMENTS
- A63F—CARD, BOARD, OR ROULETTE GAMES; INDOOR GAMES USING SMALL MOVING PLAYING BODIES; VIDEO GAMES; GAMES NOT OTHERWISE PROVIDED FOR
- A63F2300/00—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game
- A63F2300/80—Features of games using an electronically generated display having two or more dimensions, e.g. on a television screen, showing representations related to the game specially adapted for executing a specific type of game
- A63F2300/8011—Ball
Landscapes
- Engineering & Computer Science (AREA)
- Multimedia (AREA)
- Health & Medical Sciences (AREA)
- General Health & Medical Sciences (AREA)
- Physical Education & Sports Medicine (AREA)
- Signal Processing (AREA)
- Human Computer Interaction (AREA)
- Computer Vision & Pattern Recognition (AREA)
- Psychiatry (AREA)
- Social Psychology (AREA)
- Physics & Mathematics (AREA)
- General Physics & Mathematics (AREA)
- Theoretical Computer Science (AREA)
- Studio Devices (AREA)
Abstract
【課題】ユーザーの運動と連動して撮影を自動的に制御することが可能な撮影制御方法、撮影制御装置、撮影制御システム及びプログラムを提供すること。
【解決手段】撮影制御方法は、ユーザー2のスイング動作に関する第1の状態を検出した場合に、撮影装置30による撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する撮影制御工程(S40,S70)を含む。
【選択図】図7
【解決手段】撮影制御方法は、ユーザー2のスイング動作に関する第1の状態を検出した場合に、撮影装置30による撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する撮影制御工程(S40,S70)を含む。
【選択図】図7
Description
本発明は、撮影制御方法、撮影制御装置、撮影制御システム及びプログラムに関する。
特許文献1では、ゴルフクラブに3軸加速度センサーと3軸ジャイロセンサーを装着して、ゴルフスイングの解析を行う装置が開示されている。
しかしながら、特許文献1で開示されているような慣性センサーを用いたスイング解析装置では、ユーザーは、例えば、自分の実際のスイングと表示されるスイング軌跡のイメージが合わないと感じることが多い等、スイング解析結果を見た時に満足が得られない場合もあった。それを受けて、スイング解析結果とユーザーのスイングを撮影した動画を組み合わせたサービスが検討され始めている。例えば、ユーザーがスマートフォンやタブレットで自分のスイングの動画を撮影し、撮影した動画とセンサー出力から演算した軌跡とを重ねて表示することで、ユーザーに対してスイング解析結果を見え易くする工夫がされている。しかしながら、動画の取り始めとスイング開始とを同期させるために、ユーザーがカメラの録画スタートのボタンを押してからスイングをする等の手間が必要であり、使い勝手が悪いという問題がある。
本発明は、以上のような問題点に鑑みてなされたものであり、本発明のいくつかの態様によれば、ユーザーのスイング動作と連動して撮影を自動的に制御することが可能な撮影制御方法、撮影制御装置、撮影制御システム及びプログラムを提供することができる。
本発明は前述の課題の少なくとも一部を解決するためになされたものであり、以下の態様または適用例として実現することが可能である。
[適用例1]
本適用例に係る撮影制御方法は、ユーザーのスイング動作を撮影する撮影手段を制御する撮影制御方法であって、前記スイング動作に関する第1の状態を検出した場合に、前記撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する撮影制御工程を含む。
本適用例に係る撮影制御方法は、ユーザーのスイング動作を撮影する撮影手段を制御する撮影制御方法であって、前記スイング動作に関する第1の状態を検出した場合に、前記撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する撮影制御工程を含む。
本適用例に係る撮影制御方法によれば、スイング動作に関する第1の状態を検出した場合に、撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成するので、スイング動作と連動して撮影を自動的に制御することができる。なお、第1の状態とは、一連のスイングの動作(スイング開始〜終了)に加え、スイング開始前またはスイング終了後の静止状態を含む。
[適用例2]
上記適用例に係る撮影制御方法において、前記第1の状態は、前記スイング動作を開始する前の静止状態であってもよい。
上記適用例に係る撮影制御方法において、前記第1の状態は、前記スイング動作を開始する前の静止状態であってもよい。
[適用例3]
上記適用例に係る撮影制御方法は、前記撮影制御工程において、前記第1の状態を検出した場合に、前記撮影手段に前記撮影を開始させるための前記制御信号を生成してもよい。
上記適用例に係る撮影制御方法は、前記撮影制御工程において、前記第1の状態を検出した場合に、前記撮影手段に前記撮影を開始させるための前記制御信号を生成してもよい。
[適用例4]
上記適用例に係る撮影制御方法は、前記撮影制御工程において、前記第1の状態を検出した場合に、前記撮影手段に前記撮影の解像度を変更させるための前記制御信号を生成してもよい。
上記適用例に係る撮影制御方法は、前記撮影制御工程において、前記第1の状態を検出した場合に、前記撮影手段に前記撮影の解像度を変更させるための前記制御信号を生成してもよい。
本適用例に係る撮影制御方法によれば、スイング動作と連動して撮影の解像度を自動的に変更させることができる。
[適用例5]
上記適用例に係る撮影制御方法は、前記撮影制御工程において、前記第1の状態を検出した場合に、前記撮影手段に対し前記撮影のフレームレートを変更させるための前記制御信号を生成してもよい。
上記適用例に係る撮影制御方法は、前記撮影制御工程において、前記第1の状態を検出した場合に、前記撮影手段に対し前記撮影のフレームレートを変更させるための前記制御信号を生成してもよい。
本適用例に係る撮影制御方法によれば、スイング動作と連動して撮影のフレームレートを自動的に変更させることができる。
[適用例6]
上記適用例に係る撮影制御方法は、前記撮影制御工程において、前記第1の状態の後の第2の状態を検出した場合に、前記撮影手段に前記撮影を終了させるための前記制御信号を生成してもよい。
上記適用例に係る撮影制御方法は、前記撮影制御工程において、前記第1の状態の後の第2の状態を検出した場合に、前記撮影手段に前記撮影を終了させるための前記制御信号を生成してもよい。
本適用例に係る撮影制御方法によれば、スイング動作と連動して撮影を自動的に終了させることができる。
[適用例7]
上記適用例に係る撮影制御方法は、前記撮影制御工程において、前記第1の状態の後の第2の状態を検出した場合に、前記撮影手段に前記撮影の解像度を低下させるための前記制御信号を生成してもよい。
上記適用例に係る撮影制御方法は、前記撮影制御工程において、前記第1の状態の後の第2の状態を検出した場合に、前記撮影手段に前記撮影の解像度を低下させるための前記制御信号を生成してもよい。
本適用例に係る撮影制御方法によれば、スイング動作と連動して撮影の解像度を自動的に低下させることができる。
[適用例8]
上記適用例に係る撮影制御方法において、前記第2の状態は、前記スイング動作を終了した後の静止状態であってもよい。
上記適用例に係る撮影制御方法において、前記第2の状態は、前記スイング動作を終了した後の静止状態であってもよい。
本適用例に係る撮影制御方法によれば、ユーザーがスイング動作を終了した後の静止状態において撮影を自動的に終了させ、あるいは、撮影の解像度を自動的に低下させることができる。
[適用例9]
上記適用例に係る撮影制御方法は、前記スイング動作におけるイベントを検出する動作検出工程と、前記撮影手段が撮影した画像データを取得する画像データ取得工程と、前記画像データと前記イベントとを対応づける解析情報生成工程と、を含んでもよい。
上記適用例に係る撮影制御方法は、前記スイング動作におけるイベントを検出する動作検出工程と、前記撮影手段が撮影した画像データを取得する画像データ取得工程と、前記画像データと前記イベントとを対応づける解析情報生成工程と、を含んでもよい。
本適用例に係る撮影制御方法によれば、スイング動作におけるイベントに対応づけて撮影した画像データを特定することができるので、撮影した画像の編集作業を行う場合の手間を低減させることができる。
[適用例10]
上記適用例に係る撮影制御方法において、前記イベントは、スイング開始、バックスイング、トップ、ダウンスイング、インパクト、フォロースルー、およびスイング終了の少なくとも一つを含んでもよい。
上記適用例に係る撮影制御方法において、前記イベントは、スイング開始、バックスイング、トップ、ダウンスイング、インパクト、フォロースルー、およびスイング終了の少なくとも一つを含んでもよい。
[適用例11]
本適用例に係る撮影制御装置は、ユーザーのスイング動作を撮影する撮影手段を制御する撮影制御装置であって、前記スイング動作に関する第1の状態を検出する特定状態検出部と、前記第1の状態を検出した場合に、撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する撮影制御部と、を含む。
本適用例に係る撮影制御装置は、ユーザーのスイング動作を撮影する撮影手段を制御する撮影制御装置であって、前記スイング動作に関する第1の状態を検出する特定状態検出部と、前記第1の状態を検出した場合に、撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する撮影制御部と、を含む。
本適用例に係る撮影制御装置によれば、スイング動作に関する第1の状態を検出した場合に、撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成するので、スイング動作と連動して撮影を自動的に制御することができる。
[適用例12]
本適用例に係る撮影制御システムは、上記の撮影制御装置と、前記ユーザーおよび運動器具の少なくとも一方に装着され前記スイング動作を検出する慣性センサーと、を含む。
本適用例に係る撮影制御システムは、上記の撮影制御装置と、前記ユーザーおよび運動器具の少なくとも一方に装着され前記スイング動作を検出する慣性センサーと、を含む。
運動器具は、例えば、ゴルフクラブ、テニスラケット、野球のバット、ホッケーのスティック等であってもよい。
慣性センサーは、加速度や角速度等の慣性量を計測可能なセンサーであればよく、例えば、加速度や角速度を計測可能な慣性計測ユニット(IMU:Inertial Measurement Unit)でもよい。また、慣性センサーは、例えば、運動器具やユーザーに対して脱着可能であってもよいし、運動器具に内蔵されるなど、運動器具に固定されていて取り外すことができないものでもよい。
[適用例13]
上記適用例に係る撮影制御システムは、前記撮影手段を含んでもよい。
上記適用例に係る撮影制御システムは、前記撮影手段を含んでもよい。
これらの適用例に係る撮影制御システムによれば、撮影制御装置が、スイング動作に関する第1の状態を検出した場合に、撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成するので、スイング動作と連動して撮影を自動的に制御することができる。
[適用例14]
本適用例に係るプログラムは、取得した慣性センサーの出力信号に基づき、ユーザーのスイング動作に関する第1の状態を検出する工程と、前記第1の状態を検出した場合に、撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する工程と、をコンピューターに実行させる。
本適用例に係るプログラムは、取得した慣性センサーの出力信号に基づき、ユーザーのスイング動作に関する第1の状態を検出する工程と、前記第1の状態を検出した場合に、撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する工程と、をコンピューターに実行させる。
本適用例に係るプログラムによれば、スイング動作に関する第1の状態を検出した場合に、撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させる
ための制御信号を生成するので、スイング動作と連動して撮影を自動的に制御することができる。
ための制御信号を生成するので、スイング動作と連動して撮影を自動的に制御することができる。
以下、本発明の好適な実施形態について図面を用いて詳細に説明する。なお、以下に説明する実施の形態は、特許請求の範囲に記載された本発明の内容を不当に限定するものではない。また以下で説明される構成の全てが本発明の必須構成要件であるとは限らない。
以下では、ゴルフスイングの撮影を制御する撮影制御システム(運動解析装置)を例に挙げて説明する。
1.撮影制御システム
1−1.第1実施形態
1−1−1.撮影制御システムの概要
図1は、第1実施形態の撮影制御システムの概要について説明するための図である。第1実施形態の撮影制御システム1は、センサーユニット10(慣性センサーの一例)、運動解析装置20(撮影制御装置)及び撮影装置30(撮影手段の一例)を含んで構成されている。
1−1.第1実施形態
1−1−1.撮影制御システムの概要
図1は、第1実施形態の撮影制御システムの概要について説明するための図である。第1実施形態の撮影制御システム1は、センサーユニット10(慣性センサーの一例)、運動解析装置20(撮影制御装置)及び撮影装置30(撮影手段の一例)を含んで構成されている。
センサーユニット10は、3軸の各軸方向に生じる加速度と3軸の各軸回りに生じる角速度を計測可能であり、ゴルフクラブ3(運動器具の一例)又はユーザー2の部位に装着される。
センサーユニット10は、例えば、図2(A)に示すように、ゴルフクラブ3のシャフトなどの部位に取り付けられてもよいし、図2(B)に示すように、ユーザー2の手やグローブなどに取り付けられてもよいし、図2(C)に示すように、腕時計などのアクセサリーに取り付けられてもよい。
特に、図2(A)に示すように、センサーユニット10を、3つの検出軸(x軸,y軸,z軸)のうちの1軸、例えばy軸がシャフトの長軸方向に合うように、ゴルフクラブ3に取り付ければ、センサーユニット10の1つの検出軸の方向とゴルフクラブ3の姿勢と
の相対関係が固定されるので、スイング解析における計算量を削減することができる。また、センサーユニット10をゴルフクラブ3のシャフトに取り付ける場合、図2(A)に示すように、打球時の衝撃が伝わりにくく、スイング時に遠心力がかかりにくいグリップ部に近い位置に取り付けられるのが望ましい。
の相対関係が固定されるので、スイング解析における計算量を削減することができる。また、センサーユニット10をゴルフクラブ3のシャフトに取り付ける場合、図2(A)に示すように、打球時の衝撃が伝わりにくく、スイング時に遠心力がかかりにくいグリップ部に近い位置に取り付けられるのが望ましい。
本実施形態では、ユーザー2は、あらかじめ決められた手順に従って、ゴルフボール4を打球するスイング動作を行う。図3は、ユーザー2が行う動作の手順を示す図である。図3に示すように、ユーザー2は、まず、ゴルフクラブ3を握って、ゴルフクラブ3のシャフトの長軸がターゲットライン(打球の目標方向)に対して垂直となるようにアドレスの姿勢をとり、所定時間以上(例えば、1秒以上)静止する(S1)。次に、ユーザー2は、スイング動作を行い、ゴルフボール4を打球する(S2)。
ユーザー2が図3に示す手順に従ってゴルフボール4を打球する動作を行う間、センサーユニット10は、所定周期(例えば1ms)で3軸加速度と3軸角速度を計測し、計測したデータを順次、運動解析装置20に送信する。センサーユニット10と運動解析装置20との間の通信は、無線通信でもよいし、有線通信でもよい。
なお、センサーユニット10を用いてスイングスピード計測やスイング軌跡算出等の運動解析を行う場合は、ユーザー2は、図3に示す動作に先立って、運動解析装置20を操作して、スイング解析用のアプリケーションソフトウェアを起動させ、解析に必要な情報を入力する。さらに、ユーザー2は、運動解析装置20を操作してセンサーユニット10に計測を開始させる。また、ユーザー2は、図3に示す動作を行った後、運動解析装置20を操作してセンサーユニット10に計測を終了させる。その後、運動解析装置20は、自動的に、あるいは、ユーザーの操作に応じて、スイング運動を解析する。
運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2のスイング運動に関する特定の状態を検出した場合に、撮影装置30による撮影を制御するための制御信号を生成して撮影装置30に送信する。また、運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2がゴルフクラブ3を用いて打球したスイング運動における特定の動作を検出することもできる。そして、運動解析装置20は、撮影装置30が撮影した画像データを取得し、取得した画像データとスイング運動における特定の動作とを対応づけて解析情報を生成し、画像や音によりユーザー2に提示することもできる。運動解析装置20は、例えば、スマートフォンなどの携帯機器やパーソナルコンピューター(PC)であってもよい。
撮影装置30は、運動解析装置20から撮影を開始させるための制御信号を受信することで、センサーユニット10の計測中に、ユーザー2のスイング運動に関する動画像の撮影あるいは静止画像の連続撮影を自動的に開始し、撮影した画像を順番に内蔵の記憶部に記憶する。また、撮影装置30は、運動解析装置20から撮影を終了させるための制御信号を受信することで、撮影を自動的に終了する。すなわち、本実施形態では、ユーザー2は、撮影装置30を操作することなくスイング運動に関する画像を得ることができる。
1−1−2.撮影制御システムの構成
図4は、第1実施形態の撮影制御システム1の構成例を示す図である。図4に示すように、第1実施形態の撮影制御システム1は、センサーユニット10、運動解析装置20及び撮影装置30を含んで構成されている。
図4は、第1実施形態の撮影制御システム1の構成例を示す図である。図4に示すように、第1実施形態の撮影制御システム1は、センサーユニット10、運動解析装置20及び撮影装置30を含んで構成されている。
[センサーユニットの構成]
図4に示すように、本実施形態では、センサーユニット10は、加速度センサー12、角速度センサー14、信号処理部16及び通信部18を含んで構成されている。
図4に示すように、本実施形態では、センサーユニット10は、加速度センサー12、角速度センサー14、信号処理部16及び通信部18を含んで構成されている。
加速度センサー12は、互いに交差する(理想的には直交する)3軸方向の各々に生じる加速度を計測し、計測した3軸加速度の大きさ及び向きに応じたデジタル信号(加速度データ)を出力する。
角速度センサー14は、互いに交差する(理想的には直交する)3軸の各々の軸回りに生じる角速度を計測し、計測した3軸角速度の大きさ及び向きに応じたデジタル信号(角速度データ)を出力する。
信号処理部16は、加速度センサー12と角速度センサー14から、それぞれ加速度データと角速度データを受け取って計測時刻を付して不図示の記憶部に記憶し、記憶した計測データ(加速度データと角速度データ)と計測時刻とを用いて通信用のフォーマットに合わせたパケットデータを生成し、通信部18に出力する。
加速度センサー12及び角速度センサー14は、それぞれ3軸が、センサーユニット10に対して定義される直交座標系(センサー座標系)の3軸(x軸、y軸、z軸)と一致するようにセンサーユニット10に取り付けられるのが理想的だが、実際には取り付け角の誤差が生じる。そこで、信号処理部16は、取り付け角誤差に応じてあらかじめ算出された補正パラメーターを用いて、加速度データ及び角速度データをxyz座標系のデータに変換する処理を行う。
さらに、信号処理部16は、加速度センサー12及び角速度センサー14の温度補正処理を行ってもよい。あるいは、加速度センサー12及び角速度センサー14に温度補正の機能が組み込まれていてもよい。
なお、加速度センサー12と角速度センサー14は、アナログ信号を出力するものであってもよく、この場合は、信号処理部16が、加速度センサー12の出力信号と角速度センサー14の出力信号をそれぞれA/D変換して計測データ(加速度データと角速度データ)を生成し、これらを用いて通信用のパケットデータを生成すればよい。
通信部18は、信号処理部16から受け取ったパケットデータを運動解析装置20に送信する処理や、運動解析装置20から制御信号(計測制御コマンド)を受信して信号処理部16に送る処理等を行う。信号処理部16は、計測制御コマンドに応じた各種処理を行う。例えば、信号処理部16は、計測開始コマンドを受け取ると加速度センサー12及び角速度センサー14に計測を開始させるとともに、パケットデータの生成を開始する。また、信号処理部16は、計測終了コマンドを受け取ると加速度センサー12及び角速度センサー14に計測を終了させるとともに、パケットデータの生成を終了する。
[運動解析装置(撮影制御装置)の構成]
図4に示すように、本実施形態では、運動解析装置20は、処理部21、通信部22、操作部23、記憶部24、表示部25、音出力部26及び通信部27を含んで構成されている。
図4に示すように、本実施形態では、運動解析装置20は、処理部21、通信部22、操作部23、記憶部24、表示部25、音出力部26及び通信部27を含んで構成されている。
通信部22は、センサーユニット10から送信されたパケットデータを受信して処理部21に送る処理や、処理部21からセンサーユニット10による計測を制御するための制御信号(計測制御コマンド)を受け取ってセンサーユニット10に送信する処理等を行う。
操作部23は、ユーザー2等からの操作データを取得し、処理部21に送る処理を行う。操作部23は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであ
ってもよい。
ってもよい。
記憶部24は、例えば、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の各種ICメモリーやハードディスクやメモリーカードなどの記録媒体等により構成される。
記憶部24は、処理部21が各種の計算処理や制御処理を行うためのプログラムや、アプリケーション機能を実現するための各種プログラムやデータ等を記憶している。特に、本実施形態では、記憶部24には、処理部21によって読み出され、運動解析処理を実行するための運動解析プログラム240が記憶されている。運動解析プログラム240は、あらかじめ不揮発性の記録媒体に記憶されていてもよいし、処理部21がネットワークを介してサーバーから運動解析プログラム240を受信して記憶部24に記憶させてもよい。
また、本実施形態では、記憶部24には、ゴルフクラブ3の仕様を表すクラブ仕様情報242及びセンサーユニット10の装着位置を表すセンサー装着位置情報244が記憶される。
例えば、ユーザー2が操作部23を操作して使用するゴルフクラブ3の型番を入力(あるいは、型番リストから選択)し、記憶部24にあらかじめ記憶されている型番毎の仕様情報(例えば、シャフトの長さ、重心の位置、ライ角、フェース角、ロフト角等の情報など)のうち、入力された型番の仕様情報をクラブ仕様情報242としてもよい。あるいは、ユーザー2が操作部23を操作してゴルフクラブ3の型番あるいは種類(ドライバー、1〜9番アイアンなど)の情報を入力すると、処理部21が、入力された型番あるいは種類のゴルフクラブに関するシャフトの長さなどの各種項目のデフォルト値を編集可能に表示部25に表示し、クラブ仕様情報242は、各種項目のデフォルト値あるいは編集後の値を含んでもよい。
また、例えば、ユーザー2が操作部23を操作してセンサーユニット10の装着位置とゴルフクラブ3のグリップエンドとの間の距離を入力し、入力された距離の情報がセンサー装着位置情報244として記憶部24に記憶されてもよい。あるいは、センサーユニット10を決められた所定位置(例えば、グリップエンドから20cmの距離など)に装着するものとして、当該所定位置の情報がセンサー装着位置情報244としてあらかじめ記憶されていてもよい。
また、記憶部24は、処理部21の作業領域として用いられ、操作部23から入力されたデータ、処理部21が各種プログラムに従って実行した演算結果等を一時的に記憶する。さらに、記憶部24は、処理部21の処理により生成されたデータのうち、長期的な保存が必要なデータを記憶してもよい。
表示部25は、処理部21の処理結果を文字、グラフ、表、アニメーション、その他の画像として表示するものである。表示部25は、例えば、CRT、LCD、タッチパネル型ディスプレイ、HMD(ヘッドマウントディスプレイ)などであってもよい。なお、1つのタッチパネル型ディスプレイで操作部23と表示部25の機能を実現するようにしてもよい。
音出力部26は、処理部21の処理結果を音声やブザー音等の音として出力するものである。音出力部26は、例えば、スピーカーやブザーなどであってもよい。
通信部27は、処理部21から撮影装置30による撮影を制御するための制御信号(撮
影制御コマンド)を受け取って撮影装置30に送信する処理や、撮影装置30が撮影した画像データ及びその撮影時刻の情報を受信して処理部21に送る処理等を行う。
影制御コマンド)を受け取って撮影装置30に送信する処理や、撮影装置30が撮影した画像データ及びその撮影時刻の情報を受信して処理部21に送る処理等を行う。
処理部21は、センサーユニット10に計測制御コマンドを送信する処理や、センサーユニット10から通信部22を介して受信したデータに対する各種の計算処理を行う。また、処理部21は、撮影装置30に撮影制御コマンドを送信する処理や、撮影装置30から通信部27を介して受信したデータに対する各種の処理を行う。また、処理部21は、操作部23から受け取った操作データに応じて、記憶部24に対するデータのリード/ライト処理、表示部25に画像データを送る処理、音出力部26に音データを送る処理等、その他の各種の制御処理を行う。特に、本実施形態では、処理部21は、運動解析プログラム240を実行することにより、計測データ取得部210、特定状態検出部211、撮影制御部212、動作検出部213、画像データ取得部214、解析情報生成部215、記憶処理部216、表示処理部217及び音出力処理部218として機能する。
計測データ取得部210は、通信部22がセンサーユニット10から受信したパケットデータを受け取り、受け取ったパケットデータから計測時刻及び計測データを取得する処理を行う。計測データ取得部210が取得した計測時刻と計測データは、記憶部24に、対応づけて記憶される。
特定状態検出部211は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイングに関する特定の状態を検出する処理を行う。本実施形態では、特定状態検出部211は、特定状態の1つとして第1の状態を検出する。第1の状態は、例えば、ユーザー2がスイングを開始する前の静止状態(アドレス時の静止状態)である。また、特定状態検出部211は、特定状態の1つとして第2の状態を検出する。第2の状態は、例えば、ユーザー2がスイングを終了した後の静止状態(フォロースルー後の静止状態)である。
撮影制御部212は、特定状態検出部211が特定の状態を検出した場合に、撮影装置30に撮影の開始、停止、および撮影条件の変更(例えば、撮影の解像度の変更や撮影のフレームレートの変更等)の少なくとも一つを実行させるための制御信号(撮影制御コマンド)を生成し、通信部27を介して当該撮影制御コマンドを撮影装置30に送信する処理を行う。本実施形態では、撮影制御部212は、特定状態検出部211が第1の状態(例えば、ユーザー2がスイングを開始する前の静止状態)を検出した場合に、撮影装置30に撮影を開始させるための第1制御信号(撮影開始コマンド)を生成して撮影装置30に送信する。また、撮影制御部212は、特定状態検出部211が第2の状態(例えば、ユーザー2がスイングを終了した後の静止状態)を検出した場合に、撮影装置30に撮影を終了(停止)させるための第2制御信号(撮影終了コマンド)を生成して撮影装置30に送信する。
動作検出部213は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイングにおける動作を検出し、検出した時刻(計測データの計測時刻)を特定する処理を行う。本実施形態では、動作検出部213は、スイングにおける特徴的な複数の動作を検出する。例えば、動作検出部213は、ユーザー2がスイングを開始するときの動作(例えば、バックスイングを開始した直後の動作)を検出する。また、動作検出部213は、ユーザー2がスイングの方向を切り替えるときの動作(例えば、バックスイングからダウンスイングに切り替わるスイングのトップ)を検出する。また、動作検出部213は、スイングの速度が最大となるときの動作(ユーザー2がダウンスイング中に手首の力を緩める動作(ナチュラルアンコック))を検出する。また、動作検出部213は、ユーザー2が打球するときの動作(例えば、インパクト)を検出する。また、動作検出部213は、ユーザー2がスイングを終了するときの動作(例えば、フォロースルーを終了する
直前の動作)を検出する。
直前の動作)を検出する。
具体的には、動作検出部213は、まず、センサーユニット10の計測終了後、記憶部24に記憶された、ユーザー2の静止時(アドレス時)の計測データ(加速度データ及び角速度データ)を用いて、計測データに含まれるオフセット量を計算する。次に、動作検出部213は、記憶部24に記憶された計測データからオフセット量を減算してバイアス補正し、バイアス補正された計測データを用いて、ユーザー2のスイングにおける特徴的な各動作を検出する。例えば、動作検出部213は、バイアス補正された加速度データ又は角速度データの合成値を計算し、当該合成値に基づいて、バックスイングの開始直後、トップ、インパクト及びフォロースルーの終了直前の各動作を検出してもよい。また、例えば、動作検出部213は、バイアス補正された加速度データの積分値とクラブ仕様情報242及びセンサー装着位置情報244とを用いてグリップスピードを計算し、グリップスピードの速度が最大となるときをナチュラルアンコックとして検出してもよい。
画像データ取得部214は、通信部27を介して、撮影装置30が撮影した画像データ及び撮影時刻を取得する処理を行う。画像データ取得部214が取得した画像データと撮影時刻は、記憶部24に、対応づけて記憶される。
解析情報生成部215は、画像データ取得部214が取得した画像データと動作検出部213が検出した動作とを対応づける処理を行う。例えば、解析情報生成部215は、撮影制御部212が撮影開始コマンドを送信した後に計測データ取得部が直近に取得した計測データの計測時刻を撮影装置30の撮影開始時刻として、各画像データの撮影時刻を計測時刻に換算し、動作検出部213が検出した各動作と、換算後の撮影時刻が当該各動作を検出した計測時刻と一致する(あるいは最も近い)各画像データとを対応づけてもよい。本実施形態では、解析情報生成部215は、画像データ取得部214が取得した画像データのうち、動作検出部213が検出した各動作に対応する画像データに、検出した動作の種類に応じて異なる種類のフラグを付する。例えば、解析情報生成部215は、ユーザー2がスイングを開始するときの動作に対応する画像データにはフラグ1(第1のフラグ)を付する。また、解析情報生成部215は、ユーザー2がスイングの方向を切り替えるときの動作に対応する画像データにはフラグ2(第2のフラグ)を付する。また、解析情報生成部215は、スイングの速度が最大となるときの動作に対応する画像データにはフラグ3(第3のフラグ)を付する。また、解析情報生成部215は、ユーザー2が打球するときの動作に対応する画像データにはフラグ4(第4のフラグ)を付する。また、解析情報生成部215は、ユーザー2がスイングを終了するときの動作に対応する画像データにはフラグ5(第5のフラグ)を付する。
そして、解析情報生成部215は、画像データ取得部214が取得した画像データと動作検出部213が検出した動作との対応関係を含む解析情報を生成する。例えば、解析情報生成部215は、スイングにおける特徴的な各動作(トップ、ナチュラルアンコック、インパクト等の動作)を表す文字と、各動作に対応する画像データ(各動作を撮影した画像)とを対応づけた解析情報を生成する。
また、解析情報生成部215は、例えば、打球の目標方向を示すターゲットラインをX軸、X軸に垂直な水平面上の軸をY軸、鉛直上方向(重力加速度の方向と逆方向)をZ軸とするXYZ座標系(グローバル座標系)を定義し、計測データからオフセット量を減算してバイアス補正した計測データを用いて、センサーユニット10のXYZ座標系(グローバル座標系)における位置及び姿勢を計算してもよい。例えば、解析情報生成部215は、加速度データを2階積分してセンサーユニット10の初期位置からの位置の変化を時系列に計算し、角速度データを用いた回転演算を行ってセンサーユニット10の初期姿勢からの姿勢の変化を時系列に計算することができる。なお、センサーユニット10の姿勢
は、例えば、X軸、Y軸、Z軸回りの回転角(ロール角、ピッチ角、ヨー角)、オイラー角、クオータ二オン(四元数)などで表現することができる。
は、例えば、X軸、Y軸、Z軸回りの回転角(ロール角、ピッチ角、ヨー角)、オイラー角、クオータ二オン(四元数)などで表現することができる。
ユーザー2は図3のステップS1の動作を行うので、センサーユニット10の初期位置のX座標は0である。さらに、ユーザー2の静止時には、加速度センサー12は重力加速度のみを計測するので、例えば、図2(A)に示したように、センサーユニット10のy軸をゴルフクラブ3のシャフトの長軸方向と一致させた場合は、解析情報生成部215は、y軸加速度データを用いてシャフトの傾斜角(水平面(XY平面)あるいは鉛直面(XZ平面)に対する傾き)を計算することができる。そして、解析情報生成部215は、シャフトの傾斜角、クラブ仕様情報242(シャフトの長さ)及びセンサー装着位置情報244を用いて、センサーユニット10の初期位置のY座標及びZ座標を計算し、センサーユニット10の初期位置を特定することができる。
また、ユーザー2の静止時には、加速度センサー12は重力加速度のみを計測するので、解析情報生成部215は、3軸加速度データを用いて、センサーユニット10のx軸、y軸、z軸の各々と重力方向とのなす角度を特定することができる。さらに、ユーザー2は図3のステップS1の動作を行うので、ユーザー2の静止時において、センサーユニット10のy軸はYZ平面上にあるため、解析情報生成部215は、センサーユニット10の初期姿勢を特定することができる。
解析情報生成部215は、センサーユニット10の位置及び姿勢の情報を用いて、スイングにおけるゴルフクラブ3の軌跡を計算し、画像データと特徴的な動作との対応関係に基づき、ゴルフクラブ3の軌跡と撮影装置30が撮影した画像(動画像あるいは連続撮影された静止画像)とを重ねて表示する解析情報を生成してもよい。
さらに、解析情報生成部215は、この他にも、センサーユニット10の位置及び姿勢の情報を用いて、打球時のヘッドスピード、打球時の入射角(クラブパス)やフェース角、シャフトローテーション(スイング中のフェース角の変化量)、ゴルフクラブ3の減速率などの情報、あるいは、ユーザー2が複数回のスイングを行った場合のこれら各情報のばらつきの情報等を含む解析情報を生成してもよい。
なお、センサーユニット10の信号処理部16が、計測データのオフセット量を計算し、計測データのバイアス補正を行うようにしてもよいし、加速度センサー12及び角速度センサー14にバイアス補正の機能が組み込まれていてもよい。これらの場合は、動作検出部213や解析情報生成部215による計測データのバイアス補正が不要となる。
記憶処理部216は、記憶部24に対する各種プログラムや各種データのリード/ライト処理を行う。具体的には、記憶処理部216は、計測データ取得部210が取得した計測データを計測時刻と対応づけて記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出す処理を行う。また、記憶処理部216は、画像データ取得部214が取得した画像データを撮影時刻と対応づけて記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出す処理を行う。また、記憶処理部216は、ユーザー2が操作部23を操作して入力した情報に応じたクラブ仕様情報242及びセンサー装着位置情報244を記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出すも行う。また、記憶処理部216は、撮影制御部212が撮影開始コマンドや撮影終了コマンドを送信したときの計測時刻の情報、動作検出部213が検出した各動作を特定するための情報、解析情報生成部215が生成した解析情報等を記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出すも行う。
表示処理部217は、表示部25に対して各種の画像(文字や記号等も含む)を表示さ
せる処理を行う。例えば、表示処理部217は、ユーザー2のスイング運動が終了した後、自動的に、あるいは、ユーザー2の入力操作に応じて、記憶部24に記憶されている解析情報に対応する画像を生成して表示部25に表示させる処理を行う。なお、センサーユニット10に表示部を設けておいて、表示処理部217は、通信部22を介してセンサーユニット10に各種の画像データを送信し、センサーユニット10の表示部に各種の画像を表示させてもよい。
せる処理を行う。例えば、表示処理部217は、ユーザー2のスイング運動が終了した後、自動的に、あるいは、ユーザー2の入力操作に応じて、記憶部24に記憶されている解析情報に対応する画像を生成して表示部25に表示させる処理を行う。なお、センサーユニット10に表示部を設けておいて、表示処理部217は、通信部22を介してセンサーユニット10に各種の画像データを送信し、センサーユニット10の表示部に各種の画像を表示させてもよい。
音出力処理部218は、音出力部26に対して各種の音(音声やブザー音等も含む)を出力させる処理を行う。例えば、音出力処理部218は、ユーザー2のスイング運動が終了した後、自動的に、あるいは、ユーザー2の入力操作に応じて、記憶部24に記憶されている解析情報に対応する音や音声を生成して音出力部26から出力させる処理を行ってもよい。なお、センサーユニット10に音出力部を設けておいて、音出力処理部218は、通信部22を介してセンサーユニット10に各種の音データや音声データを送信し、センサーユニット10の音出力部に各種の音や音声を出力させてもよい。
また、運動解析装置20あるいはセンサーユニット10に振動機構を設けておいて、当該振動機構により各種の情報を振動情報に変換してユーザー2に提示してもよい。
[撮影装置の構成]
図4に示すように、本実施形態では、撮影装置30は、処理部31、通信部32、操作部33、記憶部34、表示部35及び撮像部36を含んで構成されている。
図4に示すように、本実施形態では、撮影装置30は、処理部31、通信部32、操作部33、記憶部34、表示部35及び撮像部36を含んで構成されている。
通信部32は、処理部31から撮影装置30が撮影した画像データ及びその撮影時刻の情報を受け取って運動解析装置20に送信する処理や、運動解析装置20から撮影制御コマンドを受信して処理部31に送る処理等を行う。
操作部33は、ユーザー2等からの操作データを取得し、処理部31に送る処理を行う。操作部33は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。
撮像部36は、被写体(ユーザー2)が発する光に応じた動画像や静止画像の画像データを生成し、生成した画像データを処理部31に送る処理を行う。例えば、撮像部36は、被写体(ユーザー2)が発する光を、レンズ(不図示)を通して撮像素子(不図示)で受け取って電気信号に変換し、この電気信号をRGB成分に分解し、所望の調整や補正及びA/D変換を行って画像データを生成する。
撮像部36は、処理部31から静止画像の撮影指示を受けると静止画像の画像データを生成する。また、撮像部36は、処理部31から動画像の撮影の開始指示を受けると、設定されたフレームレート(例えば、60フレーム/秒)で動画像の画像データを生成する。また、撮像部36は、処理部31から静止画像の連続撮影の開始指示を受けると、設定された時間間隔(例えば、0.1秒間隔)で静止画像の画像データを連続して生成する。また、処理部31から撮影の終了指示を受けると、画像データの生成を終了する。
記憶部34は、例えば、ROMやフラッシュROM、RAM等の各種ICメモリーやハードディスクやメモリーカードなどの記録媒体等により構成される。
記憶部34は、処理部31が各種の計算処理や制御処理を行うためのプログラムやデータ等を記憶している。また、記憶部34は、処理部31の作業領域として用いられ、操作部33から入力されたデータ、処理部31がプログラムに従って実行した演算結果等を一時的に記憶する。さらに、記憶部34に含まれる記録媒体は、長期的な保存が必要なデー
タ(画像データ等)を記憶する。
タ(画像データ等)を記憶する。
処理部31は、通信部32が運動解析装置20から受信した撮影制御コマンドを受け取り、受け取った撮影制御コマンドに応じて撮像部36を制御する処理を行う。具体的には、処理部31は、撮影開始コマンドを受け取った場合は、撮像部36に動画像の撮影の開始指示又は静止画像の連続撮影の開始指示を行う。処理部31が動画像の撮影の開始指示と静止画像の連続撮影の開始指示のいずれを行うかは、固定されていてもよいし、ユーザー2等が選択可能であってもよい。また、処理部31は、撮影終了コマンドを受け取った場合は、撮像部36に撮影の終了指示を行う。
また、処理部31は、操作部33を介してユーザー2等が入力した情報に応じて、撮像部36に、静止画像の撮影指示、動画像の撮影の開始指示、静止画像の連続撮影の開始指示、撮影の終了指示等を行う。
また、処理部31は、撮像部36から画像データを受け取り、当該画像データに撮影時刻を付して記憶部34に記憶するとともに、当該画像データを表示部35に送る処理を行う。また、処理部31は、記憶部34に記憶されている画像データの中から、ユーザー2等の選択操作に応じた画像データを選択し、当該画像データを表示部35に送る処理を行う。
また、処理部31は、撮影終了コマンドを受け取った後の所望のタイミングで、直近に撮影されて記憶部34に記憶された動画像又は静止画像(連続撮影された静止画像)の画像データを撮影時刻の情報とともに読み出して、通信部32を介して運動解析装置20に送信する処理を行う。
また、処理部31は、操作部33から受け取った操作データに応じて、記憶部34に対するデータのリード/ライト処理、表示部35に画像データを送る処理等、その他の各種の制御処理を行う。
表示部35は、処理部31から画像データを受け取り、当該画像データに対応する画像を表示するものである。表示部35は、例えば、CRT、LCD、タッチパネル型ディスプレイなどであってもよい。なお、1つのタッチパネル型ディスプレイで操作部33と表示部35の機能を実現するようにしてもよい。
なお、撮影装置30は、撮影中の音を取得する集音部(マイク等)や取得した音を動画像の再生とともに出力する音出力部(スピーカー等)を備えていてもよい。また、撮影装置30は、インターネットやLANに接続して他の機器と通信する機能を備えていてもよい。
1−1−3.撮影制御
図5は、処理部21による撮影制御の一例を示す図である。図5の例では、センサーユニット10が計測を開始した後の最初の計測データの計測時刻をt0としている。その後、ユーザー2は、計測時刻t1からt3までアドレス姿勢で静止し(図3のS1)、処理部21は、計測時刻t2において、ユーザー2がスイングを開始する前の静止状態を検出し、撮影装置30に撮影を開始させる。ここで、撮影装置30が撮影を開始したときの撮影時刻をT0とし、処理部21が計測時刻t2の計測データを取得してから撮影装置30が撮影を開始するまでの遅延時間をΔtとすると、撮影時刻T0は計測時刻t2+Δtに相当する。
図5は、処理部21による撮影制御の一例を示す図である。図5の例では、センサーユニット10が計測を開始した後の最初の計測データの計測時刻をt0としている。その後、ユーザー2は、計測時刻t1からt3までアドレス姿勢で静止し(図3のS1)、処理部21は、計測時刻t2において、ユーザー2がスイングを開始する前の静止状態を検出し、撮影装置30に撮影を開始させる。ここで、撮影装置30が撮影を開始したときの撮影時刻をT0とし、処理部21が計測時刻t2の計測データを取得してから撮影装置30が撮影を開始するまでの遅延時間をΔtとすると、撮影時刻T0は計測時刻t2+Δtに相当する。
その後、ユーザー2は、計測時刻t3からt4まで、ワッグルと呼ばれる、手足を小さ
く動かす動作を行った後、計測時刻t4においてスイングを開始する。計測時刻t4からt5まではバックスイングの期間であり、計測時刻t5からt7まではダウンスイングの期間である。バックスイングからダウンスイングに切り替わるときの計測時刻t5でスイングのトップとなり、ダウンスイングが終了するときの計測時刻t7でインパクトとなる。また、インパクトの少し前の計測時刻t6でナチュラルアンコックとなる。
く動かす動作を行った後、計測時刻t4においてスイングを開始する。計測時刻t4からt5まではバックスイングの期間であり、計測時刻t5からt7まではダウンスイングの期間である。バックスイングからダウンスイングに切り替わるときの計測時刻t5でスイングのトップとなり、ダウンスイングが終了するときの計測時刻t7でインパクトとなる。また、インパクトの少し前の計測時刻t6でナチュラルアンコックとなる。
計測時刻t7からt8まではフォロースルーの期間であり、フォロースルーが終了するときの計測時刻t8でスイングが終了する。その後、処理部21は、計測時刻t9において、ユーザー2がスイングを終了した後の静止状態を検出し、撮影装置30に撮影を終了させる。ここで、撮影装置30が撮影を終了したときの撮影時刻をTNとし、処理部21が計測時刻t9の計測データを取得してから撮影装置30が撮影を終了するまでの遅延時間をΔtとすると、撮影時刻TNは計測時刻t9+Δtに相当する。
その後、計測時刻t10でセンサーユニット10が計測を終了すると、処理部21は、計測時刻t1〜t9の計測データを用いて、スイング開始、トップ、ナチュラルアンコック、インパクト、スイング終了の各動作を検出し、各動作に対応する計測時刻t4,t5,t6,t7,t8を特定する。
また、処理部21は、撮影装置30から撮影時刻T0〜TNの撮影期間において撮影された画像データを取得し、検出した各動作と取得した画像データとを対応づける。具体的には、処理部21は、検出した各動作に対応する画像データに、それぞれフラグ1〜5を付加する。
図6は、図5の例における画像データと各動作との対応関係を示す図である。図6に示すように、スイングを開始するときの計測時刻t4に対応する撮影時刻T105の画像データ105にフラグ1が付加される。例えば、T105=T0+(t4−t2−Δt)である。また、トップのときの計測時刻t5に対応する撮影時刻T190の画像データ190にフラグ2が付加される。例えば、T190=T0+(t5−t2−Δt)である。また、ナチュラルアンコックのときの計測時刻t6に対応する撮影時刻T240の画像データ240にフラグ3が付加される。例えば、T240=T0+(t6−t2−Δt)である。また、インパクトのときの計測時刻t7に対応する撮影時刻T250の画像データ250にフラグ4が付加される。例えば、T250=T0+(t7−t2−Δt)である。また、スイングを終了するときの計測時刻t8に対応する撮影時刻T305の画像データ305にフラグ5が付加される。例えば、T305=T0+(t8−t2−Δt)である。
このように、スイングにおける特徴的な各動作に対応する各画像にそれぞれ異なる種類のフラグを付加して表示することで、ユーザー2は各動作における画像を容易に見つけることができ、画像の編集作業も容易である。
1−1−4.運動解析装置の処理
[運動解析処理]
図7は、第1実施形態における運動解析装置20の処理部21による運動解析処理(撮影制御処理)の手順の一例(運動解析方法あるいは撮影制御方法の一例)を示すフローチャート図である。運動解析装置20(コンピューターの一例)の処理部21は、記憶部24に記憶されている運動解析プログラム240を実行することにより、例えば、図7のフローチャートの手順で運動解析処理(撮影制御処理)を実行する。以下、図7のフローチャートについて説明する。
[運動解析処理]
図7は、第1実施形態における運動解析装置20の処理部21による運動解析処理(撮影制御処理)の手順の一例(運動解析方法あるいは撮影制御方法の一例)を示すフローチャート図である。運動解析装置20(コンピューターの一例)の処理部21は、記憶部24に記憶されている運動解析プログラム240を実行することにより、例えば、図7のフローチャートの手順で運動解析処理(撮影制御処理)を実行する。以下、図7のフローチャートについて説明する。
まず、処理部21は、操作データに基づいて計測開始の操作が行われたか否かを判断し
(S10)、計測開始操作が行われるまで待機する(S10のN)。処理部21は、計測開始の操作が行われた場合(S10のY)、センサーユニット10に計測開始コマンドを送信する(S20)。センサーユニット10は計測開始コマンドを受信し、3軸加速度及び3軸角速度の計測を開始する。その後、処理部21は、センサーユニット10が出力する計測データを順番に取得し、記憶部24に記憶させる。また、ユーザー2は、図3のS1及びS2の動作を行う。
(S10)、計測開始操作が行われるまで待機する(S10のN)。処理部21は、計測開始の操作が行われた場合(S10のY)、センサーユニット10に計測開始コマンドを送信する(S20)。センサーユニット10は計測開始コマンドを受信し、3軸加速度及び3軸角速度の計測を開始する。その後、処理部21は、センサーユニット10が出力する計測データを順番に取得し、記憶部24に記憶させる。また、ユーザー2は、図3のS1及びS2の動作を行う。
次に、処理部21は、センサーユニット10が出力する計測データを用いて、ユーザー2がスイングを開始する前の静止状態(アドレス時の静止状態)を検出する(S30)。例えば、処理部21は、バイアス補正後の3軸加速度の合成値あるいはバイアス補正後の3軸角速度の合成値が所定の閾値以下の状態が所定時間継続した場合に静止状態を検出する。
次に、処理部21は、撮影装置30に撮影開始コマンドを送信する(S40)。撮影装置30は撮影開始コマンドを受信し、撮影を開始する。
次に、処理部21は、センサーユニット10が出力する計測データを用いて、スイングを検出する(S50)。例えば、処理部21は、バイアス補正後の3軸加速度の合成値あるいはバイアス補正後の3軸角速度の合成値が所定の閾値を超えたときに(例えば、ダウンスイング中やインパクト時に)スイングを検出する。
次に、処理部21は、センサーユニット10が出力する計測データを用いて、ユーザー2がスイングを終了した後の静止状態を検出する(S60)。例えば、処理部21は、バイアス補正後の3軸加速度の合成値あるいはバイアス補正後の3軸角速度の合成値が所定の閾値以下の状態が所定時間継続した場合に静止状態を検出する。なお、S50の検出処理は、S60の検出処理において、スイング開始前の静止状態が誤検出されないために設けられている。
次に、処理部21は、撮影装置30に撮影終了コマンドを送信する(S70)。撮影装置30は撮影終了コマンドを受信し、撮影を終了する。
次に、処理部21は、操作データに基づいて、所定時間内に計測終了の操作が行われたか否かを判断し(S80)、所定時間内に計測終了の操作が行われなかった場合は(S80のN)、もう一度S30以降の処理を行う。また、ユーザー2は、図3のS1及びS2の動作を行う。
処理部21は、所定時間内に計測終了の操作が行われた場合は(S80のY)、センサーユニット10に計測終了コマンドを送信する(S90)。センサーユニット10は計測終了コマンドを受信し、3軸加速度及び3軸角速度の計測を終了する。
次に、処理部21は、その後、処理部21は、S30以降に記憶部24に記憶させた計測データを用いて、スイングにおける特徴的な各動作を検出する(S100)。このS100の処理の詳細な手順については後述する。
次に、処理部21は、撮影装置30から撮影された画像データを取得する(S110)。
そして、処理部21は、工程S110で取得した画像データと工程S100で検出した各動作とを対応づけて解析情報を生成し(S120)、処理を終了する。
なお、図7のフローチャートにおいて、可能な範囲で各工程の順番を適宜変えてもよい。
[動作検出処理]
図8は、ユーザー2のスイングにおける各動作を検出する処理(図7の工程S100の処理)の手順の一例を示すフローチャート図である。以下、図8のフローチャートについて説明する。
図8は、ユーザー2のスイングにおける各動作を検出する処理(図7の工程S100の処理)の手順の一例を示すフローチャート図である。以下、図8のフローチャートについて説明する。
まず、処理部21は、記憶部24に記憶された計測データ(加速度データ及び角速度データ)をバイアス補正する(S200)。
次に、処理部21は、工程S200でバイアス補正した角速度データ(時刻t毎の角速度データ)を用いて、各時刻tでの角速度の合成値n0(t)の値を計算する(S210)。例えば、時刻tでの角速度データをx(t)、y(t)、z(t)とすると、角速度の合成値n0(t)は、次の式(1)で計算される。
ユーザー2がスイングを行ってゴルフボール4を打ったときの3軸角速度データx(t)、y(t)、z(t)の一例を、図9(A)に示す。図9(A)において、横軸は時間(msec)、縦軸は角速度(dps)である。
次に、処理部21は、各時刻tでの角速度の合成値n0(t)を所定範囲に正規化(スケール変換)した合成値n(t)に変換する(S220)。例えば、計測データの取得期間における角速度の合成値の最大値をmax(n0)とすると、次の式(2)により、角速度の合成値n0(t)が0〜100の範囲に正規化した合成値n(t)に変換される。
図9(B)は、図9(A)の3軸角速度データx(t),y(t),z(t)から3軸角速度の合成値n0(t)を式(1)に従って計算した後に式(2)に従って0〜100に正規化した合成値n(t)をグラフ表示した図である。図9(B)において、横軸は時間(msec)、縦軸は角速度の合成値である。
次に、処理部21は、各時刻tでの正規化後の合成値n(t)の微分dn(t)を計算する(S230)。例えば、3軸角速度データの計測周期をΔtとすると、時刻tでの角速度の合成値の微分(差分)dn(t)は次の式(3)で計算される。
図9(C)は、図9(B)の3軸角速度の合成値n(t)からその微分dn(t)を式
(3)に従って計算し、グラフ表示した図である。図9(C)において、横軸は時間(msec)、縦軸は3軸角速度の合成値の微分値である。なお、図9(A)及び図9(B)では横軸を0〜5秒で表示しているが、図9(C)では、インパクトの前後の微分値の変化がわかるように、横軸を2秒〜2.8秒で表示している。
(3)に従って計算し、グラフ表示した図である。図9(C)において、横軸は時間(msec)、縦軸は3軸角速度の合成値の微分値である。なお、図9(A)及び図9(B)では横軸を0〜5秒で表示しているが、図9(C)では、インパクトの前後の微分値の変化がわかるように、横軸を2秒〜2.8秒で表示している。
次に、処理部21は、合成値の微分dn(t)の値が最大となる時刻と最小となる時刻のうち、先の時刻をインパクトの計測時刻t7として特定する(S240)(図9(C)参照)。通常のゴルフスイングでは、インパクトの瞬間にスイング速度が最大になると考えられる。そして、スイング速度に応じて角速度の合成値の値も変化すると考えられるので、一連のスイング動作の中で角速度の合成値の微分値が最大又は最小となるタイミング(すなわち、角速度の合成値の微分値が正の最大値又は負の最小値になるタイミング)をインパクトのタイミングとして捉えることができる。なお、インパクトによりゴルフクラブ3が振動するため、角速度の合成値の微分値が最大となるタイミングと最小となるタイミングが対になって生じると考えられるが、そのうちの先のタイミングがインパクトの瞬間と考えられる。
次に、処理部21は、インパクトの計測時刻t7より前で合成値n(t)が0に近づく極小点の時刻をトップの計測時刻t5として特定する(S250)(図9(B)参照)。通常のゴルフスイングでは、スイング開始後、トップで一旦動作が止まり、その後、徐々にスイング速度が大きくなってインパクトに至ると考えられる。従って、インパクトのタイミングより前で角速度の合成値が0に近づき極小となるタイミングをトップのタイミングとして捉えることができる。
次に、処理部21は、インパクトの計測時刻t7より後で合成値n(t)が0に近づく極小点の時刻をスイン終了の計測時刻t8として特定する(S260)(図9(B)参照)。通常のゴルフスイングでは、インパクトの後、徐々にスイング速度が小さくなって止まると考えられる。従って、インパクトのタイミングより後で角速度の合成値が0に近づき極小となるタイミングをスイング終了のタイミングとして捉えることができる。
次に、処理部21は、トップの計測時刻t5の前後で合成値n(t)が所定の閾値以下の区間をトップ区間として特定する(S270)。通常のゴルフスイングでは、トップで一旦動作が止まるので、トップの前後ではスイング速度が小さいと考えられる。従って、トップのタイミングを含み角速度の合成値が所定の閾値以下の連続した区間をトップ区間として捉えることができる。
次に、処理部21は、トップ区間の開始時刻より前で合成値n(t)が所定の閾値以下となる最後の時刻をスイング開始の計測時刻t4として特定する(S280)(図9(B)参照)。通常のゴルフスイングでは、静止した状態からスイング動作を開始し、トップまでにスイング動作が止まることは考えにくい。従って、トップのタイミングより前で角速度の合成値が所定の閾値以下となる最後のタイミングをスイング動作の開始のタイミングとして捉えることができる。なお、トップの計測時刻t5より前で、合成値n(t)が0に近づく極小点の時刻をスイング開始の計測時刻と特定してもよい。
次に、処理部21は、工程S200でバイアス補正した加速度データ(時刻t毎の加速度データ)を用いて、各時刻tでのグリップスピードv(t)を計算する(S290)。
最後に、処理部21は、グリップスピードv(t)が最大となる時刻を、ナチュラルアンコックの計測時刻t6として特定し(S300)、処理を終了する。
なお、図8のフローチャートにおいて、可能な範囲で各工程の順番を適宜変えてもよい
。また、図8のフローチャートでは、処理部21は、3軸角速度データを用いてインパクト等を特定しているが、3軸加速度データを用いて、同様にインパクト等を特定することもできる。
。また、図8のフローチャートでは、処理部21は、3軸角速度データを用いてインパクト等を特定しているが、3軸加速度データを用いて、同様にインパクト等を特定することもできる。
1−1−5.効果
以上に説明したように、第1実施形態の撮影制御システム1では、運動解析装置20は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイングに関する特定の状態を検出した場合に、撮影を制御するための撮影制御コマンドを撮影装置30に送信するので、ユーザー2のスイング運動と連動して撮影装置30による撮影を自動的に制御することができる。
以上に説明したように、第1実施形態の撮影制御システム1では、運動解析装置20は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイングに関する特定の状態を検出した場合に、撮影を制御するための撮影制御コマンドを撮影装置30に送信するので、ユーザー2のスイング運動と連動して撮影装置30による撮影を自動的に制御することができる。
例えば、運動解析装置20が、スイングを開始する前の静止状態(アドレス)を検出した場合に撮影開始コマンドを撮影装置30に送信し、スイングを終了した後の静止状態を検出した場合に撮影終了コマンドを撮影装置30に送信することにより、ユーザー2が撮影装置30に対して撮影の開始や終了の操作を行うことなく、スイングにおけるトップ、ナチュラルアンコック、インパクト等の特徴的な動作の瞬間を自動的に撮影することができるとともに、撮影される画像のデータ量を大幅に削減することもできる。
また、第1実施形態の撮影制御システム1では、運動解析装置20は、撮影装置30に、動画像の撮影を行わせることもできるし、静止画像の連続撮影を行わせることもできる。撮影装置30に動画像の撮影を行わせれば、ユーザー2は、スイングの動画像を見ることができる。一方、撮影装置30に静止画像の連続撮影を行わせれば、ユーザー2は、スイングにおける特徴的な動作の高画質な画像とともに、スイングのコマ送り画像を見ることができる。
また、第1実施形態の撮影制御システム1では、運動解析装置20は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイングにおける特徴的な各動作を検出し、撮影装置30が撮影した画像データと検出した各動作とを対応づけるので、ユーザー2は、特徴的な各動作に対応づけて撮影した画像データを特定することができる。従って、撮影した画像の編集作業を行う場合の手間を低減させることができる。
特に、運動解析装置20が、スイング開始、トップ、ナチュラルアンコック、インパクト、スイング終了の動作を検出し、検出した各動作に対応する画像データに互いに異なる種類のフラグ1〜5を付することにより、スイングにおける特徴的な各動作に対応づけて撮影した画像データをそれぞれ容易に特定することができる。従って、撮影した画像の編集作業を行う場合の手間を大幅に低減させることができる。
また、第1実施形態の撮影制御システム1では、運動解析装置20は、センサーユニット10が出力する計測データを用いてユーザー2のスイングを解析するので、複数方向から撮影した画像を解析してユーザー2のスイングを解析する場合と比較して、スイング解析を行う場所の制約が少ない。
1−2.第2実施形態
1−2−1.撮影制御システムの概要
第2実施形態の撮影制御システムにおいて、第1実施形態と同様の構成には同じ符号を付し、以下では、第1実施形態と重複する説明を省略又は簡略する。図10は、第2実施形態の撮影制御システムの概要について説明するための図である。図10に示すように、第2実施形態の撮影制御システム1は、センサーユニット10及び運動解析装置20を含んで構成されている。
1−2−1.撮影制御システムの概要
第2実施形態の撮影制御システムにおいて、第1実施形態と同様の構成には同じ符号を付し、以下では、第1実施形態と重複する説明を省略又は簡略する。図10は、第2実施形態の撮影制御システムの概要について説明するための図である。図10に示すように、第2実施形態の撮影制御システム1は、センサーユニット10及び運動解析装置20を含んで構成されている。
センサーユニット10は、第1実施形態と同様に、3軸加速度と3軸角速度を計測可能であり、例えば図2(A)、図2(B)及び図2(C)のように、ゴルフクラブ3又はユーザー2の部位に装着される。
第1実施形態と同様に、ユーザー2は、図3に示す手順に従って、ゴルフボール4を打球するスイング動作を行う。ユーザー2が図3に示す手順に従ってゴルフボール4を打球する動作を行う間、センサーユニット10は、所定周期(例えば1ms)で3軸加速度と3軸角速度を計測し、計測したデータを順次、運動解析装置20に送信する。
運動解析装置20は、撮影機能を有しており、センサーユニット10が計測したデータを用いて、ユーザー2のスイング運動に関する第1の状態を検出した場合に、ユーザー2のスイング運動に関する動画像の撮影あるいは静止画像の連続撮影を自動的に開始し、撮影した画像を順番に内蔵の記憶部に記憶する。また、運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2のスイング運動に関する第2の状態を検出した場合に、撮影を自動的に終了する。すなわち、本実施形態では、ユーザー2は、運動解析装置20に対して撮影のための操作をすることなくスイング運動に関する画像を得ることができる。
また、第1実施形態と同様に、運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2がゴルフクラブ3を用いて打球したスイング運動における特定の動作を検出する。そして、運動解析装置20は、撮影した画像データとスイング運動における特定の動作とを対応づけて解析情報を生成し、画像や音によりユーザー2に提示する。運動解析装置20は、例えば、スマートフォンなどの携帯機器やパーソナルコンピューター(PC)であってもよい。
1−2−2.撮影制御システムの構成
図11は、第2実施形態の撮影制御システム1の構成例を示す図である。図11において、図4と同様の構成要素には同じ符号を付している。図11に示すように、第2実施形態の撮影制御システム1は、センサーユニット10及び運動解析装置20を含んで構成されている。
図11は、第2実施形態の撮影制御システム1の構成例を示す図である。図11において、図4と同様の構成要素には同じ符号を付している。図11に示すように、第2実施形態の撮影制御システム1は、センサーユニット10及び運動解析装置20を含んで構成されている。
図11に示すように、第2実施形態におけるセンサーユニット10の構成及び機能は、第1実施形態と同様である。また、第2実施形態における運動解析装置20は、処理部21、通信部22、操作部23、記憶部24、表示部25、音出力部26及び撮像部28(撮影手段の一例)を含んで構成されている。通信部22、操作部23、記憶部24、表示部25、音出力部26の構成及び機能は、第1実施形態と同様である。
撮像部28は、被写体(ユーザー2)が発する光に応じた動画像や静止画像の画像データを生成し、生成した画像データを処理部21に送る処理を行う。例えば、撮像部28は、被写体(ユーザー2)が発する光を、レンズ(不図示)を通して撮像素子(不図示)で受け取って電気信号に変換し、この電気信号をRGB成分に分解し、所望の調整や補正及びA/D変換を行って画像データを生成する。
撮像部28は、処理部21から静止画像の撮影指示を受けると静止画像の画像データを生成する。また、撮像部28は、処理部21から動画像の撮影の開始指示を受けると、設定されたフレームレート(例えば、60フレーム/秒)で動画像の画像データを生成する。また、撮像部28は、処理部21から静止画像の連続撮影の開始指示を受けると、設定された時間間隔(例えば、0.1秒間隔)で静止画像の画像データを連続して生成する。また、処理部21から撮影の終了指示を受けると、画像データの生成を終了する。
処理部21は、センサーユニット10に計測制御コマンドを送信する処理や、センサーユニット10から通信部22を介して受信したデータに対する各種の計算処理を行う。また、処理部21は、撮影を制御するための制御信号(撮影制御コマンド)を撮像部28に送る処理や、撮像部28から受け取ったデータに対する各種の処理を行う。また、処理部21は、操作部23から受け取った操作データに応じて、記憶部24に対するデータのリード/ライト処理、表示部25に画像データを送る処理、音出力部26に音データを送る処理等、その他の各種の制御処理を行う。特に、本実施形態では、処理部21は、運動解析プログラム240を実行することにより、計測データ取得部210、特定状態検出部211、撮影制御部212、動作検出部213、画像データ取得部214、解析情報生成部215、記憶処理部216、表示処理部217及び音出力処理部218として機能する。計測データ取得部210、特定状態検出部211、動作検出部213、解析情報生成部215、記憶処理部216、表示処理部217及び音出力処理部218の機能は、第1実施形態と同様である。
撮影制御部212は、特定状態検出部211が特定の状態を検出した場合に、撮像部28に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号(撮影制御コマンド)を生成し、撮像部28に送る処理を行う。本実施形態では、撮影制御部212は、特定状態検出部211が第1の状態(例えば、ユーザー2がスイングを開始する前の静止状態)を検出した場合に、撮像部28に撮影を開始させるための第1制御信号(撮影開始コマンド)を生成して撮像部28に送る。また、撮影制御部212は、特定状態検出部211が第2の状態(例えば、ユーザー2がスイングを終了した後の静止状態)を検出した場合に、撮像部28に撮影を終了(停止)させるための第2制御信号(撮影終了コマンド)を生成して撮像部28に送る。
画像データ取得部214は、撮像部28が撮影した画像データを取得する処理を行う。画像データ取得部214が取得した画像データは、計測時刻と対応づけて記憶部24に記憶される。
1−2−3.撮影制御
第2実施形態における処理部21による撮影制御の一例は図5と同様であり、画像データとフラグとの対応関係を示す図も図6と同様であるため、その図示及び説明を省略する。ただし、第2実施形態では、処理部21が計測時刻と撮影時刻を管理するので、計測時刻を撮影時刻として兼用することができる。また、処理部21と撮像部28との間の通信遅延がほとんどないので、処理部21がスイング開始前の静止状態を検出したときの計測時刻t2を撮像部28が撮影を開始する時刻としてもよい。同様に、処理部21がスイング開始後の静止状態を検出したときの計測時刻t9を撮像部28が撮影を終了する時刻としてもよい。
第2実施形態における処理部21による撮影制御の一例は図5と同様であり、画像データとフラグとの対応関係を示す図も図6と同様であるため、その図示及び説明を省略する。ただし、第2実施形態では、処理部21が計測時刻と撮影時刻を管理するので、計測時刻を撮影時刻として兼用することができる。また、処理部21と撮像部28との間の通信遅延がほとんどないので、処理部21がスイング開始前の静止状態を検出したときの計測時刻t2を撮像部28が撮影を開始する時刻としてもよい。同様に、処理部21がスイング開始後の静止状態を検出したときの計測時刻t9を撮像部28が撮影を終了する時刻としてもよい。
1−2−4.運動解析装置の処理
図12は、第2実施形態における運動解析装置20の処理部21による運動解析処理(撮影制御処理)の手順の一例を示すフローチャート図である。図12において、図7と同様の処理を行う工程には同じ符号を付している。運動解析装置20(コンピューターの一例)の処理部21は、記憶部24に記憶されている運動解析プログラム240を実行することにより、例えば、図12のフローチャートの手順で運動解析処理(撮影制御処理)を実行する。以下、図12のフローチャートについて説明する。
図12は、第2実施形態における運動解析装置20の処理部21による運動解析処理(撮影制御処理)の手順の一例を示すフローチャート図である。図12において、図7と同様の処理を行う工程には同じ符号を付している。運動解析装置20(コンピューターの一例)の処理部21は、記憶部24に記憶されている運動解析プログラム240を実行することにより、例えば、図12のフローチャートの手順で運動解析処理(撮影制御処理)を実行する。以下、図12のフローチャートについて説明する。
まず、処理部21は、操作データに基づいて計測開始の操作が行われたか否かを判断し(S10)、計測開始操作が行われるまで待機する(S10のN)。処理部21は、計測開始の操作が行われた場合(S10のY)、図7と同様に、S10〜S30の処理を行った後、撮像部28に撮影開始コマンドを送り、撮像部28による撮影を開始させ、撮影し
た画像データを取得する(S42)。
た画像データを取得する(S42)。
次に、処理部21は、図7と同様に、S50及びS60の処理を行った後、撮像部28に撮影終了コマンドを送り、撮像部28による撮影を終了させる(S72)。
次に、処理部21は、操作データに基づいて、所定時間内に計測終了の操作が行われたか否かを判断し(S80)、所定時間内に計測終了の操作が行われなかった場合は(S80のN)、もう一度S30以降の処理を行う。
処理部21は、所定時間内に計測終了の操作が行われた場合は(S80のY)、図7と同様に、S90及びS100の処理を行った後、工程S42で取得した画像データと工程S100で検出した各動作とを対応づけて解析情報を生成し(S120)、処理を終了する。
なお、図12のフローチャートにおいて、可能な範囲で各工程の順番を適宜変えてもよい。
1−2−5.効果
第2実施形態の撮影制御システム1によれば、第1実施形態と同様の効果が得られる。さらに、第2実施形態の撮影制御システム1では、処理部21と撮像部28との間の通信遅延をほとんど無視できるので、例えば、処理部21がスイング開始前の静止状態を検出したときの計測時刻を撮像部28が撮影を開始する時刻とし、処理部21がスイング開始後の静止状態を検出したときの計測時刻を撮像部28が撮影を終了する時刻としてもよい。従って、運動解析装置20は、撮影した画像データと検出した動作との対応づけを容易かつ正確に行うことができるので、精度の高い解析情報を提供することができる。
第2実施形態の撮影制御システム1によれば、第1実施形態と同様の効果が得られる。さらに、第2実施形態の撮影制御システム1では、処理部21と撮像部28との間の通信遅延をほとんど無視できるので、例えば、処理部21がスイング開始前の静止状態を検出したときの計測時刻を撮像部28が撮影を開始する時刻とし、処理部21がスイング開始後の静止状態を検出したときの計測時刻を撮像部28が撮影を終了する時刻としてもよい。従って、運動解析装置20は、撮影した画像データと検出した動作との対応づけを容易かつ正確に行うことができるので、精度の高い解析情報を提供することができる。
2.変形例
本発明は本実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。
本発明は本実施形態に限定されず、本発明の要旨の範囲内で種々の変形実施が可能である。
例えば、上記の各実施形態では、撮影制御部212は、特定状態検出部211が第1の状態(例えば、ユーザー2がスイングを開始する前の静止状態)を検出した場合に、すぐに撮影を開始させているが、スイングのトップ以降あるいはインパクトの瞬間を撮影できればよい場合は、アドレスからトップあるいはインパクトまでの時間を考慮して、撮影の開始時間を遅らせてもよい。例えば、ユーザー2がスイングを行う毎に、特定状態検出部211がスイングを開始する前の静止状態を検出したときの計測時刻と動作検出部がトップあるいはインパクトを検出したときの計測時刻との差分を計算し、ユーザー2が直近に行った複数回のスイングにおける当該差分の平均値を求めるなどしてアドレスからトップあるいはインパクトまでの時間を予測してもよい。そして、撮影制御部212は、特定状態検出部211がスイングを開始する前の静止状態(アドレス)を検出した場合に、トップあるいはインパクトまでの予測時間を考慮して、トップあるいはインパクトの少し前に撮影を開始させるようにしてもよい。このようにすれば、画像のデータ量を大幅に削減しながら、トップ以降の画像あるいはインパクトの瞬間の画像を得ることができる。
また、上記の各実施形態では、特定状態検出部211が検出する第1の状態として、ユーザー2がスイングを開始する前の静止状態を一例に挙げたが、インパクトの瞬間を撮影できればよい場合は、特定状態検出部211は、第1の状態としてスイングの開始やトップを検出するようにしてもよい。
また、上記の各実施形態では、特定状態検出部211が検出する第2の状態として、ユ
ーザー2がスイングを終了した後の静止状態を一例に挙げたが、インパクトの瞬間を撮影できればよい場合は、特定状態検出部211は、第2の状態としてインパクトを検出するようにしてもよい。
ーザー2がスイングを終了した後の静止状態を一例に挙げたが、インパクトの瞬間を撮影できればよい場合は、特定状態検出部211は、第2の状態としてインパクトを検出するようにしてもよい。
また、上記の各実施形態では、撮影制御部212は、特定状態検出部211が第1の状態(例えば、ユーザー2がスイングを開始する前の静止状態)を検出した場合に、撮影を開始させているが、撮影の解像度及び撮影のフレームレートの少なくとも一方を変更させるようにしてもよい。例えば、撮影制御部212は、特定状態検出部211が第1の状態を検出した場合に、撮影の解像度を増加させるための第1制御信号(高解像度設定コマンド)及び撮影のフレームレートを増加させるための第1制御信号(高フレームレート設定コマンド)の少なくとも一方を生成して撮影装置30又は撮像部28に送信してもよい。このようにすれば、例えば、アドレス前は低解像度や低フレームレートで撮影することで画像のデータ量を削減し、スイング中は高解像度や高フレームレートで撮影することで鮮明な画像を得ることができる。
また、上記の各実施形態では、撮影制御部212は、特定状態検出部211が第2の状態(例えば、ユーザー2がスイングを終了した後の静止状態)を検出した場合に、撮影を終了させているが、撮影の解像度及び撮影のフレームレートの少なくとも一方を変更させるようにしてもよい。例えば、撮影制御部212は、特定状態検出部211が第2の状態を検出した場合に、撮影の解像度を低下させるための第2制御信号(低解像度設定コマンド)及び撮影のフレームレートを低下させるための第2制御信号(低フレームレート設定コマンド)の少なくとも一方を生成して撮影装置30又は撮像部28に送信してもよい。このようにすれば、例えば、スイング終了後は低解像度や低フレームレートで撮影することで画像のデータ量を削減し、スイング中は高解像度や高フレームレートで撮影することで鮮明な画像を得ることができる。
また、上記の第1実施形態では、運動解析装置20がセンサーユニット10から受信した計測データを用いて特定の状態を検出し、撮影装置30に撮影制御コマンドを送信しているが、センサーユニット10が、特定状態検出部211及び撮影制御部212の機能を備え、特定の状態を検出した場合に、撮影装置30に撮影制御コマンドを送信するように変形してもよい。このようにすれば、通信遅延を短くすることができるので、例えば、インパクトの少し前の状態(例えば、スイングのトップ)を検出したときに撮影を開始させても、インパクトの瞬間を撮影することが可能となり、撮影される画像のデータ量を削減することができる。
また、上記の各実施形態では、センサーユニット10が計測した3軸角速度の合成値として式(2)に示すような二乗和の平方根を用いて、ユーザー2が打球したタイミング(インパクト)を検出しているが、3軸角速度の合成値として、これ以外にも、例えば、3軸角速度の二乗和、3軸角速度の和あるいはその平均値、3軸角速度の積等を用いてもよい。また、3軸角速度の合成値に代えて、3軸加速度の二乗和あるいはその平方根、3軸加速度の和あるいはその平均値、3軸加速度の積等の3軸加速度の合成値を用いてもよい。
また、上記の各実施形態では、加速度センサー12と角速度センサー14が、センサーユニット10に内蔵されて一体化されているが、加速度センサー12と角速度センサー14は一体化されていなくてもよい。あるいは、加速度センサー12と角速度センサー14が、センサーユニット10に内蔵されずに、ゴルフクラブ3又はユーザー2に直接装着されてもよい。また、上記の実施形態では、センサーユニット10と運動解析装置20が別体であるが、これらを一体化してゴルフクラブ3又はユーザー2に装着可能にしてもよい。
また、上記の実施形態では、ユーザー2が行う運動としてゴルフを例に挙げたが、本発明は、テニスや野球などの様々な運動にも適用することができる。例えば、センサーユニット10を野球のバットに装着し、運動解析装置20が加速度等の変化から打撃の瞬間を検出し、撮影装置30(あるいは撮影機能を有する運動解析装置20)が打撃の直後で撮影するようにしてもよい。また、本発明は、スキーやスノーボード等のスイング動作を伴わない様々な運動にも適用することができる。例えば、スキージャンプの選手がセンサーユニット10と撮影装置30(あるいは撮影機能を有する運動解析装置20)を装着し、運動解析装置20が加速度等の変化からジャンプの最高点を検出し、撮影装置30(あるいは運動解析装置20)が最高点で撮影するようにしてもよい。あるいは、センサーユニット10をスノーボードに装着し、運動解析装置20が加速度等の変化から衝撃を検出することで、撮影装置30(あるいは撮影機能を有する運動解析装置20)が、スノーボードが雪面に最も近付いたタイミングで撮影するようにしてもよい。
上述した実施形態および変形例は一例であって、これらに限定されるわけではない。例えば、各実施形態および各変形例を適宜組み合わせることも可能である。
本発明は、実施の形態で説明した構成と実質的に同一の構成(例えば、機能、方法及び結果が同一の構成、あるいは目的及び効果が同一の構成)を含む。また、本発明は、実施の形態で説明した構成の本質的でない部分を置き換えた構成を含む。また、本発明は、実施の形態で説明した構成と同一の作用効果を奏する構成又は同一の目的を達成することができる構成を含む。また、本発明は、実施の形態で説明した構成に公知技術を付加した構成を含む。
1 撮影制御システム、2 ユーザー、3 ゴルフクラブ、4 ゴルフボール、10 センサーユニット、12 加速度センサー、14 角速度センサー、16 信号処理部、18 通信部、20 運動解析装置、21 処理部、22 通信部、23 操作部、24 記憶部、25 表示部、26 音出力部、27 通信部、28 撮像部、30 撮影装置、31 処理部、32 通信部、33 操作部、34 記憶部、35 表示部、36 撮像部、210 計測データ取得部、211 特定状態検出部、212 撮影制御部、213 動作検出部、214 画像データ取得部、215 解析情報生成部、216 記憶処理部、217 表示処理部、218 音出力処理部、240 運動解析プログラム、242 クラブ仕様情報、244 センサー装着位置情報
Claims (14)
- ユーザーのスイング動作を撮影する撮影手段を制御する撮影制御方法であって、
前記スイング動作に関する第1の状態を検出した場合に、前記撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する撮影制御工程を含む、撮影制御方法。 - 前記第1の状態は、前記スイング動作を開始する前の静止状態である、請求項1に記載の撮影制御方法。
- 前記撮影制御工程において、
前記第1の状態を検出した場合に、前記撮影手段に前記撮影を開始させるための前記制御信号を生成する、請求項2に記載の撮影制御方法。 - 前記撮影制御工程において、
前記第1の状態を検出した場合に、前記撮影手段に前記撮影の解像度を変更させるための前記制御信号を生成する、請求項1乃至3のいずれか一項に記載の撮影制御方法。 - 前記撮影制御工程において、
前記第1の状態を検出した場合に、前記撮影手段に対し前記撮影のフレームレートを変更させるための前記制御信号を生成する、請求項1乃至3のいずれか一項に記載の撮影制御方法。 - 前記撮影制御工程において、
前記第1の状態の後の第2の状態を検出した場合に、前記撮影手段に前記撮影を終了させるための前記制御信号を生成する、請求項3に記載の撮影制御方法。 - 前記撮影制御工程において、
前記第1の状態の後の第2の状態を検出した場合に、前記撮影手段に前記撮影の解像度を低下させるための前記制御信号を生成する、請求項3に記載の撮影制御方法。 - 前記第2の状態は、前記スイング動作を終了した後の静止状態である、請求項6又は7に記載の撮影制御方法。
- 前記スイング動作におけるイベントを検出する動作検出工程と、
前記撮影手段が撮影した画像データを取得する画像データ取得工程と、
前記画像データと前記イベントとを対応づける解析情報生成工程と、を含む、請求項1乃至8のいずれか一項に記載の撮影制御方法。 - 前記イベントは、スイング開始、バックスイング、トップ、ダウンスイング、インパクト、フォロースルー、およびスイング終了の少なくとも一つを含む、請求項9に記載の撮影制御方法。
- ユーザーのスイング動作を撮影する撮影手段を制御する撮影制御装置であって、
前記スイング動作に関する第1の状態を検出する特定状態検出部と、
前記第1の状態を検出した場合に、撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する撮影制御部と、を含む、撮影制御装置。 - 請求項11に記載の撮影制御装置と、前記ユーザーおよび運動器具の少なくとも一方に
装着され前記スイング動作を検出する慣性センサーと、を含む、撮影制御システム。 - 前記撮影手段を含む、請求項12に記載の撮影制御システム。
- 取得した慣性センサーの出力信号に基づき、ユーザーのスイング動作に関する第1の状態を検出する工程と、
前記第1の状態を検出した場合に、撮影手段に撮影の開始、停止、および撮影条件の変更の少なくとも一つを実行させるための制御信号を生成する工程と、をコンピューターに実行させる、プログラム。
Priority Applications (6)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014163896A JP2016036680A (ja) | 2014-08-11 | 2014-08-11 | 撮影制御方法、撮影制御装置、撮影制御システム及びプログラム |
PCT/JP2015/003885 WO2016024388A1 (ja) | 2014-08-11 | 2015-07-31 | 撮影制御方法、撮影制御装置、撮影制御システム及びプログラム |
CN201580043040.7A CN106687181A (zh) | 2014-08-11 | 2015-07-31 | 拍摄控制方法、拍摄控制装置、拍摄控制***以及程序 |
US15/310,946 US20170087409A1 (en) | 2014-08-11 | 2015-07-31 | Imaging control method, imaging control apparatus, imaging control system, and program |
KR1020177006605A KR20170041254A (ko) | 2014-08-11 | 2015-07-31 | 촬영 제어 방법, 촬영 제어 장치, 촬영 제어 시스템 및 프로그램 |
EP15831720.6A EP3181204A4 (en) | 2014-08-11 | 2015-07-31 | Imaging control method, imaging control device, imaging control system and program |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2014163896A JP2016036680A (ja) | 2014-08-11 | 2014-08-11 | 撮影制御方法、撮影制御装置、撮影制御システム及びプログラム |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2016036680A true JP2016036680A (ja) | 2016-03-22 |
Family
ID=55304026
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2014163896A Pending JP2016036680A (ja) | 2014-08-11 | 2014-08-11 | 撮影制御方法、撮影制御装置、撮影制御システム及びプログラム |
Country Status (6)
Country | Link |
---|---|
US (1) | US20170087409A1 (ja) |
EP (1) | EP3181204A4 (ja) |
JP (1) | JP2016036680A (ja) |
KR (1) | KR20170041254A (ja) |
CN (1) | CN106687181A (ja) |
WO (1) | WO2016024388A1 (ja) |
Cited By (1)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020116475A (ja) * | 2020-05-18 | 2020-08-06 | カシオ計算機株式会社 | 運動解析装置、運動解析方法及びプログラム |
Families Citing this family (3)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
WO2018237256A1 (en) | 2017-06-22 | 2018-12-27 | Centurion VR, LLC | SIMULATION OF VIRTUAL REALITY |
KR20210155564A (ko) * | 2020-06-16 | 2021-12-23 | 주식회사 브이씨 | 영상 저장 장치 및 영상 저장 방법 |
CN114079724A (zh) * | 2020-07-31 | 2022-02-22 | 北京小米移动软件有限公司 | 起跳抓拍方法、装置及存储介质 |
Family Cites Families (14)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP4494837B2 (ja) * | 2003-12-26 | 2010-06-30 | Sriスポーツ株式会社 | ゴルフスウィング診断システム |
WO2005109859A2 (en) * | 2004-05-01 | 2005-11-17 | Eliezer Jacob | Digital camera with non-uniform image resolution |
JP2006203395A (ja) * | 2005-01-19 | 2006-08-03 | Konica Minolta Holdings Inc | 動体認識カメラおよび動体監視システム |
EP1846115A4 (en) * | 2005-01-26 | 2012-04-25 | Bentley Kinetics Inc | METHOD AND SYSTEM FOR ANALYZING AND TEACHING ATHLETIC MOVEMENT |
DE602006009191D1 (de) * | 2005-07-26 | 2009-10-29 | Canon Kk | Bildaufnahmegerät und -verfahren |
JP2008073210A (ja) | 2006-09-21 | 2008-04-03 | Seiko Epson Corp | ゴルフクラブ、そのスイング評価支援装置 |
JP6078470B2 (ja) * | 2011-10-04 | 2017-02-08 | 株式会社ブリヂストン | ゴルフクラブの変形の計測システム、計測方法及び計測装置 |
US9782654B2 (en) * | 2011-11-04 | 2017-10-10 | Nike, Inc. | Method and apparatus for low resolution golf swing image capture analysis |
JP5994306B2 (ja) * | 2012-03-15 | 2016-09-21 | ソニー株式会社 | 情報処理装置、情報処理システムおよびプログラム |
JP2013202066A (ja) * | 2012-03-27 | 2013-10-07 | Seiko Epson Corp | 運動解析装置 |
US9380198B2 (en) * | 2012-09-28 | 2016-06-28 | Casio Computer Co., Ltd. | Photographing system, photographing method, light emitting apparatus, photographing apparatus, and computer-readable storage medium |
JP5920264B2 (ja) * | 2013-03-22 | 2016-05-18 | カシオ計算機株式会社 | 画像特定装置、画像特定システム、画像特定方法及びプログラム |
JP6213146B2 (ja) * | 2013-10-24 | 2017-10-18 | ソニー株式会社 | 情報処理装置、記録媒体、および情報処理方法 |
US20160088219A1 (en) * | 2014-09-22 | 2016-03-24 | Casio Computer Co., Ltd. | Image capture apparatus which controls frame rate based on motion of object, information transmission apparatus, image capture control method, information transmission method, and recording medium |
-
2014
- 2014-08-11 JP JP2014163896A patent/JP2016036680A/ja active Pending
-
2015
- 2015-07-31 US US15/310,946 patent/US20170087409A1/en not_active Abandoned
- 2015-07-31 KR KR1020177006605A patent/KR20170041254A/ko not_active Application Discontinuation
- 2015-07-31 WO PCT/JP2015/003885 patent/WO2016024388A1/ja active Application Filing
- 2015-07-31 CN CN201580043040.7A patent/CN106687181A/zh not_active Withdrawn
- 2015-07-31 EP EP15831720.6A patent/EP3181204A4/en not_active Withdrawn
Cited By (2)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020116475A (ja) * | 2020-05-18 | 2020-08-06 | カシオ計算機株式会社 | 運動解析装置、運動解析方法及びプログラム |
JP7134418B2 (ja) | 2020-05-18 | 2022-09-12 | カシオ計算機株式会社 | 運動解析装置、運動解析方法及びプログラム |
Also Published As
Publication number | Publication date |
---|---|
KR20170041254A (ko) | 2017-04-14 |
US20170087409A1 (en) | 2017-03-30 |
CN106687181A (zh) | 2017-05-17 |
WO2016024388A1 (ja) | 2016-02-18 |
EP3181204A1 (en) | 2017-06-21 |
EP3181204A4 (en) | 2018-03-21 |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016024392A1 (ja) | 運動解析方法、運動解析装置、運動解析システム及びプログラム | |
US20150285834A1 (en) | Sensor, computing device, and motion analyzing apparatus | |
US10512833B2 (en) | Presentation method, swing analysis apparatus, swing analysis system, swing analysis program, and recording medium | |
US20170203172A1 (en) | Equipment display method, swing analysis apparatus, swing analysis system, swing analysis program, and recording medium | |
US20160089566A1 (en) | Sensor, motion measurement system, and method of motion measurement | |
US20160001127A1 (en) | Motion analysis method, program, and motion analysis device | |
JP2018153295A (ja) | 運動解析装置、運動解析方法および運動解析システム | |
JP2016067408A (ja) | センサー、演算装置、運動計測方法、運動計測システム及びプログラム | |
JP7215515B2 (ja) | 解析装置、解析方法及びプログラム | |
JP2015156882A (ja) | 運動解析装置及び運動解析システム | |
US10286285B2 (en) | Display method, display apparatus, motion analysis system, motion analysis program, and recording medium | |
WO2016024388A1 (ja) | 撮影制御方法、撮影制御装置、撮影制御システム及びプログラム | |
US20160089568A1 (en) | Exercise analysis device, exercise analysis system, exercise analysis method, and program | |
US20170007880A1 (en) | Motion analysis method, motion analysis apparatus, motion analysis system, and program | |
JP6380733B2 (ja) | 運動解析装置、運動解析システム、運動解析方法、運動解析情報の表示方法及びプログラム | |
WO2015146062A1 (ja) | 運動解析方法、運動解析装置、運動解析システム及びプログラム | |
JP2016116720A (ja) | 運動解析装置、運動解析システム、運動解析方法及びプログラム | |
US20160074703A1 (en) | Exercise analysis method, exercise analysis device, exercise analysis system, and program | |
US20170004729A1 (en) | Motion analysis method, motion analysis apparatus, motion analysis system, and program | |
JP2016030123A (ja) | 運動解析方法、運動解析装置及びプログラム | |
JP2017046732A (ja) | スイング解析装置、スイング解析システム、スイング解析方法、スイング解析プログラム、及び記録媒体 | |
JP7188422B2 (ja) | 画像処理装置、解析システム、画像処理方法及びプログラム | |
JP2018157986A (ja) | スイング解析装置、スイング解析システム、およびスイング解析方法 | |
JP2018117885A (ja) | 運動解析装置、運動解析方法、プログラム、及び運動解析システム | |
JP2018019816A (ja) | ゴルフスイング解析方法、ゴルフスイング解析装置、ゴルフスイング解析システム、ゴルフスイング解析プログラム及び記録媒体 |