JP2018153295A - Motion analysis device, motion analysis method, and motion analysis system - Google Patents
Motion analysis device, motion analysis method, and motion analysis system Download PDFInfo
- Publication number
- JP2018153295A JP2018153295A JP2017050922A JP2017050922A JP2018153295A JP 2018153295 A JP2018153295 A JP 2018153295A JP 2017050922 A JP2017050922 A JP 2017050922A JP 2017050922 A JP2017050922 A JP 2017050922A JP 2018153295 A JP2018153295 A JP 2018153295A
- Authority
- JP
- Japan
- Prior art keywords
- swing
- analysis
- unit
- image data
- image
- Prior art date
- Legal status (The legal status is an assumption and is not a legal conclusion. Google has not performed a legal analysis and makes no representation as to the accuracy of the status listed.)
- Pending
Links
Images
Landscapes
- Studio Devices (AREA)
- User Interface Of Digital Computer (AREA)
Abstract
Description
本発明は、運動解析装置、運動解析方法および運動解析システムに関する。 The present invention relates to a motion analysis device, a motion analysis method, and a motion analysis system.
近年、様々な分野において人間の運動を解析する装置が提案されている。このような装置は、例えば、ゴルフでの競技力の向上を図るべく、ゴルフクラブのスイング軌道等に関して、ゴルファーの運動フォームをセンサーの検出情報に基づいて解析し、解析結果から被検査体に適したゴルフクラブの選定やスイングフォームの改善を行っている。
ところで、ゴルフプレイにおいて競技力を向上させるためには、自らのスイングを客観的に分析し、改善のための意識をもってスイングすることが重要である。そのために、例えば、ゴルファー自身のスイングを動画として録画し、スイング後にその動画を視聴して、改善点などを把握することが広く行われている。このような動画は、他人に撮影してもらう場合もあるが、ゴルファー自身が撮影する、いわゆる自分撮りである場合も多い。
下記特許文献1では、動画の撮影に際して、スイング動作において特定の動作を検出し、検出した動作に応じてスイング動作の撮影の開始や終了を制御する技術が開示されている。
In recent years, apparatuses for analyzing human movement have been proposed in various fields. Such a device, for example, analyzes a golfer's movement form based on detection information of a sensor with respect to a golf club's swing trajectory, etc., in order to improve the competitiveness in golf, and is suitable for an inspection object from the analysis result. Golf club selection and swing form improvements.
By the way, in order to improve competitiveness in golf play, it is important to objectively analyze own swing and swing with a consciousness for improvement. For this purpose, for example, it is widely practiced to record a golfer's own swing as a moving image, and view the moving image after the swing to grasp improvement points. Such a moving image may be taken by another person, but is often a so-called selfie taken by the golfer himself.
しかしながら、上述の技術を採用することで、ゴルファーのスイング動作を効率良く撮影し、撮影した動画をゴルファーが視認することはできるが、センサーの検出情報に基づくスイングの解析結果はスイング動画と共に表示されないため、スイングの解析結果をスイング動画と共に表示させることで、ゴルファーのスイングを視覚的に捉えることはできなかった。
本発明は、上述の課題に鑑みてなされたものであり、スイングの解析結果をスイング動画と共に視認することを目的とする。
However, by adopting the above technique, the golfer's swing motion can be efficiently captured and the captured video can be viewed by the golfer, but the swing analysis result based on the sensor detection information is not displayed together with the swing video. Therefore, the golfer's swing cannot be visually grasped by displaying the swing analysis result together with the swing video.
The present invention has been made in view of the above-described problems, and an object thereof is to visually recognize a swing analysis result together with a swing moving image.
本発明は、上述の課題の少なくとも一部を解決するためになされたものであり、以下の形態又は適用例として実現することが可能である。 SUMMARY An advantage of some aspects of the invention is to solve at least a part of the problems described above, and the invention can be implemented as the following forms or application examples.
[適用例1]
本適用例にかかる運動解析装置は、運動具を用いたスイングを撮影したスイング画像データおよび前記スイングに基づく慣性センサーの出力を取得する取得部と、前記慣性センサーの出力を用いて前記スイングを解析する解析部と、前記解析部による解析結果を示す解析画像データを生成する解析画像生成部と、前記スイング画像データが示すスイング画像に前記解析画像データが示す解析画像を合成した合成画像データを生成する合成部と、前記合成画像データを出力する出力部と、前記解析画像を合成する前記スイング画像における位置を設定する表示設定部と、を備えることを特徴とする。
[Application Example 1]
The motion analysis apparatus according to this application example analyzes the swing by using swing image data obtained by capturing a swing using an exercise tool and an output of an inertial sensor based on the swing, and an output of the inertial sensor. An analysis unit for generating, an analysis image generation unit for generating analysis image data indicating an analysis result by the analysis unit, and generating composite image data obtained by synthesizing the analysis image indicated by the analysis image data with the swing image indicated by the swing image data A synthesizing unit that outputs the synthesized image data; and a display setting unit that sets a position in the swing image for synthesizing the analysis image.
このような構成によれば、運動具を用いたスイングを撮影したスイング画像に、スイングに基づく慣性センサーの出力に基づく解析画像を合成した合成画像データが生成されて出力されるため、スイング画像にスイングの解析結果を合成した画像データを取得できる。 According to such a configuration, since the synthesized image data obtained by synthesizing the analysis image based on the output of the inertial sensor based on the swing is generated and output on the swing image obtained by photographing the swing using the exercise tool, the swing image is displayed. Image data obtained by combining the swing analysis results can be acquired.
また、このような構成によれば、スイング画像において解析画像を合成する位置を設定できるため、解析画像によりスイング動作の視認性が低下することを回避できる。 Moreover, according to such a structure, since the position which synthesize | combines an analysis image in a swing image can be set, it can avoid that the visibility of swing operation | movement falls by an analysis image.
[適用例2]
上記適用例にかかる運動解析装置において、前記出力部は、前記合成画像データが示す合成画像を表示する表示部であることが好ましい。
[Application Example 2]
In the motion analysis apparatus according to the application example, it is preferable that the output unit is a display unit that displays a composite image indicated by the composite image data.
このような構成によれば、合成画像データが示す合成画像を表示部で視認できる。 According to such a configuration, the composite image indicated by the composite image data can be visually recognized on the display unit.
[適用例3]
上記適用例にかかる運動解析装置において、前記解析結果における、所定の動作に基づいて撮影制御する撮影制御部を備えることが好ましい。
[Application Example 3]
The motion analysis apparatus according to the application example described above preferably includes a shooting control unit that controls shooting based on a predetermined operation in the analysis result.
このような構成によれば、解析結果における所定の動作により運動具のスイングを撮影できる。 According to such a configuration, the swing of the exercise tool can be photographed by a predetermined operation in the analysis result.
[適用例4]
上記適用例にかかる運動解析装置において、前記表示設定部は、前記解析結果の中から前記解析画像に含まれる解析項目を設定することが好ましい。
[Application Example 4]
In the motion analysis apparatus according to the application example, it is preferable that the display setting unit sets an analysis item included in the analysis image from the analysis result.
このような構成によれば、所望の解析項目を解析画像に含めることができる。 According to such a configuration, a desired analysis item can be included in the analysis image.
[適用例5]
上記適用例にかかる運動解析装置において、前記運動具はゴルフクラブであり、前記スイング画像は、ユーザーが前記ゴルフクラブを把持してスイングする動画像であることが好ましい。
[Application Example 5]
In the motion analysis apparatus according to the application example described above, it is preferable that the exercise tool is a golf club, and the swing image is a moving image in which a user grasps the golf club and swings.
このような構成によれば、ゴルフクラブを把持してスイングする動画像に解析画像を合成させることができる。 According to such a configuration, the analysis image can be combined with the moving image that grips and swings the golf club.
[適用例6]
上記適用例にかかる運動解析装置において、前記慣性センサーは、前記運動具に取り付けられ、加速度および角速度の少なくとも1つを出力しても良い。
[Application Example 6]
In the motion analysis apparatus according to the application example, the inertial sensor may be attached to the exercise tool and output at least one of acceleration and angular velocity.
[適用例7]
上記適用例にかかる運動解析装置において、前記スイング画像データを出力する撮像部を備えても良い。
[Application Example 7]
The motion analysis apparatus according to the application example may include an imaging unit that outputs the swing image data.
[適用例8]
本適用例にかかる運動解析方法は、運動具を用いたスイングを撮影したスイング画像データおよび前記スイングに基づく慣性センサーの出力を取得し、前記慣性センサーの出力を用いて前記スイングを解析し、前記スイングの解析結果を示す解析画像データを生成し、前記スイング画像データが示すスイング画像のユーザーにより予め設定された位置に前記解析画像データが示す解析画像を合成した合成画像データを生成し、前記合成画像データを出力することを特徴とする。
[Application Example 8]
The motion analysis method according to this application example acquires swing image data obtained by photographing a swing using an exercise tool and an output of an inertial sensor based on the swing, analyzes the swing using an output of the inertial sensor, Generating analysis image data indicating the analysis result of the swing, generating composite image data by combining the analysis image indicated by the analysis image data at a position preset by a user of the swing image indicated by the swing image data, and generating the composite Image data is output.
このような方法によれば、運動具を用いたスイングを撮影したスイング画像に、スイングに基づく慣性センサーの出力に基づく解析画像を合成した合成画像データが生成されて出力されるため、スイング画像にスイングの解析結果を合成した画像データを取得できる。 According to such a method, since the composite image data obtained by synthesizing the analysis image based on the output of the inertial sensor based on the swing is generated and output on the swing image obtained by photographing the swing using the exercise tool, the swing image is generated. Image data obtained by combining the swing analysis results can be acquired.
また、このような方法によれば、スイング画像において解析画像を合成する位置を設定できるため、解析画像によりスイング動作の視認性が低下することを回避できる。 Moreover, according to such a method, since the position which synthesize | combines an analysis image in a swing image can be set, it can avoid that the visibility of swing operation | movement falls by an analysis image.
[適用例9]
本適用例にかかる運動解析システムは、運動具を用いたスイングを撮影したスイング画像データおよび前記スイングに基づく慣性センサーの出力を取得する取得部と、前記慣性センサーの出力を用いて前記スイングを解析する解析部と、前記解析部による解析結果を示す解析画像データを生成する解析画像生成部と、前記スイング画像データが示すスイング画像に前記解析画像データが示す解析画像を合成した合成画像データを生成する合成部と、前記解析画像を合成する前記スイング画像における位置を設定する表示設定部と前記合成画像データを出力する出力部と、を備えることを特徴とする。
[Application Example 9]
The motion analysis system according to this application example analyzes the swing by using swing image data obtained by capturing a swing using an exercise tool and an output of an inertial sensor based on the swing, and an output of the inertial sensor. An analysis unit for generating, an analysis image generation unit for generating analysis image data indicating an analysis result by the analysis unit, and generating composite image data obtained by synthesizing the analysis image indicated by the analysis image data with the swing image indicated by the swing image data And a display setting unit for setting a position in the swing image for synthesizing the analysis image, and an output unit for outputting the synthesized image data.
このような構成によれば、運動具を用いたスイングを撮影したスイング画像に、スイングに基づく慣性センサーの出力に基づく解析画像を合成した合成画像データが生成されて出力されるため、スイング画像にスイングの解析結果を合成した画像データを取得できる。 According to such a configuration, since the synthesized image data obtained by synthesizing the analysis image based on the output of the inertial sensor based on the swing is generated and output on the swing image obtained by photographing the swing using the exercise tool, the swing image is displayed. Image data obtained by combining the swing analysis results can be acquired.
また、このような構成によれば、スイング画像において解析画像を合成する位置を設定できるため、解析画像によりスイング動作の視認性が低下することを回避できる。 Moreover, according to such a structure, since the position which synthesize | combines an analysis image in a swing image can be set, it can avoid that the visibility of swing operation | movement falls by an analysis image.
以下、本発明の実施形態について図面を参照して説明する。 Embodiments of the present invention will be described below with reference to the drawings.
(実施形態)
以下では、ゴルフスイングの解析を行う運動解析システム(運動解析装置)を例に挙げて説明する。
(Embodiment)
Hereinafter, a motion analysis system (motion analysis device) that performs golf swing analysis will be described as an example.
1.運動解析システム
1−1.運動解析システムの概要
図1は、運動解析システムの概要について説明するための図である。運動解析システム1は、センサーユニット10(慣性センサーの一例)および運動解析装置20を含んで構成されている。
1. Motion analysis system 1-1. Outline of Motion Analysis System FIG. 1 is a diagram for explaining an outline of a motion analysis system. The
センサーユニット10は、3軸の各軸方向に生じる加速度と3軸の各軸回りに生じる角速度を計測可能であり、ゴルフクラブ3(運動器具の一例)又はユーザー2の部位に装着される。
The
センサーユニット10は、例えば、図2Aに示すように、ゴルフクラブ3のシャフトなどの部位に取り付けられてもよいし、図2Bに示すように、ユーザー2の手やグローブなどに取り付けられてもよいし、図2Cに示すように、腕時計などのアクセサリーに取り付けられてもよい。
The
特に、図2Aに示すように、センサーユニット10を、3つの検出軸(x軸,y軸,z軸)のうちの1軸、例えばy軸がシャフトの長軸方向に合うように、ゴルフクラブ3に取り付ければ、センサーユニット10の1つの検出軸の方向とゴルフクラブ3の姿勢との相対関係が固定されるので、スイング解析における計算量を削減することができる。また、センサーユニット10をゴルフクラブ3のシャフトに取り付ける場合、図2Aに示すように、打球時の衝撃が伝わりにくく、スイング時に遠心力がかかりにくいグリップ部に近い位置に取り付けられるのが望ましい。
In particular, as shown in FIG. 2A, the golf club is arranged so that one of the three detection axes (x-axis, y-axis, z-axis), for example, the y-axis is aligned with the long axis direction of the shaft. 3 is fixed, the relative relationship between the direction of one detection axis of the
本実施形態では、ユーザー2は、あらかじめ決められた手順に従って、ゴルフボール4を打球するスイング動作を行う。図3は、ユーザー2が行う動作の手順を示す図である。図3に示すように、ユーザー2は、まず、ゴルフクラブ3を把持し、ゴルフクラブ3のシャフトの長軸がターゲットライン(打球の目標方向)に対して垂直となるようにアドレスの姿勢をとり、所定時間以上(例えば、1秒以上)静止する(S1)。次に、ユーザー2は、スイング動作を行い、ゴルフボール4を打球する(S2)。
In the present embodiment, the
ユーザー2が図3に示す手順に従ってゴルフボール4を打球する動作を行う間、センサーユニット10は、所定周期(例えば1ms)で3軸加速度と3軸角速度を計測し、計測したデータを順次、運動解析装置20に送信する。センサーユニット10と運動解析装置20との間の通信は、無線通信でもよいし、有線通信でもよい。
While the
なお、ユーザー2は、図3に示す動作に先立って、運動解析装置20を操作して、スイング解析用のアプリケーションソフトウェアを起動させ、解析に必要な情報を入力する。更に、ユーザー2は、運動解析装置20を操作してセンサーユニット10に計測を開始させる。また、ユーザー2は、図3に示す動作を行った後、運動解析装置20を操作してセンサーユニット10に計測を終了させる。その後、運動解析装置20は、自動的に、あるいは、ユーザー2の操作に応じて、スイング運動を解析する。
Prior to the operation shown in FIG. 3, the
運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2のスイング運動に関する特定の状態を検出した場合に、撮像部27による撮影を制御するための制御信号を生成し、撮像部27に送る。
また、運動解析装置20は、センサーユニット10が計測したデータを用いて、ユーザー2がゴルフクラブ3を用いて打球したスイング運動における特定の動作を検出する。
The
Further, the
運動解析装置20は、動画像の撮影が可能な撮像部27を備え、スイングを撮影した画像データ246(図4)とスイング運動における特定の動作とを対応づけて解析情報を生成し、画像や音によりユーザー2に提示する。運動解析装置20は、例えば、スマートフォンのような高機能携帯機器や、タブレットのような多機能携帯端末を想定する。
尚、本実施形態では、撮像部27は運動解析装置20に内蔵された態様を想定するが、これには限定されない。例えば、運動解析システム1がデジタルカメラのような撮影装置を備え、通信により運動解析装置20と接続可能な態様も想定できる。
The
In the present embodiment, the
1−2.運動解析システムの構成
図4は、運動解析システム1の構成例を示す図である。
1-2. Configuration of Motion Analysis System FIG. 4 is a diagram illustrating a configuration example of the
[センサーユニットの構成]
図4に示すように、本実施形態では、センサーユニット10は、加速度センサー12、角速度センサー14、信号処理部16及び通信部18を含んで構成されている。
[Configuration of sensor unit]
As shown in FIG. 4, in the present embodiment, the
加速度センサー12は、互いに交差する(理想的には直交する)3軸方向の各々に生じる加速度を計測し、計測した3軸加速度の大きさ及び向きに応じたデジタル信号(加速度データ)を出力する。
The
角速度センサー14は、互いに交差する(理想的には直交する)3軸の各々の軸回りに生じる角速度を計測し、計測した3軸角速度の大きさ及び向きに応じたデジタル信号(角速度データ)を出力する。
The
信号処理部16は、加速度センサー12と角速度センサー14から、それぞれ加速度データと角速度データを受け取って計測時刻を付して不図示の記憶部に記憶し、記憶した計測データ(加速度データと角速度データ)と計測時刻とを用いて通信用のフォーマットに合わせたパケットデータを生成し、通信部18に出力する。
The
加速度センサー12及び角速度センサー14は、それぞれ3軸が、センサーユニット10に対して定義される直交座標系(センサー座標系)の3軸(x軸、y軸、z軸)と一致するようにセンサーユニット10に取り付けられるのが理想的だが、実際には取り付け角の誤差が生じる。そこで、信号処理部16は、取り付け角誤差に応じてあらかじめ算出された補正パラメーターを用いて、加速度データ及び角速度データをxyz座標系のデータに変換する処理を行う。
The
さらに、信号処理部16は、加速度センサー12及び角速度センサー14の温度補正処理を行ってもよい。あるいは、加速度センサー12及び角速度センサー14に温度補正の機能が組み込まれていてもよい。
Further, the
なお、加速度センサー12と角速度センサー14は、アナログ信号を出力するものであってもよく、この場合は、信号処理部16が、加速度センサー12の出力信号と角速度センサー14の出力信号をそれぞれA/D変換して計測データ(加速度データと角速度データ)を生成し、これらを用いて通信用のパケットデータを生成すればよい。
The
通信部18は、信号処理部16から受け取ったパケットデータを運動解析装置20に送信する処理や、運動解析装置20から制御信号(計測制御コマンド)を受信して信号処理部16に送る処理等を行う。信号処理部16は、計測制御コマンドに応じた各種処理を行う。例えば、信号処理部16は、計測開始コマンドを受け取ると加速度センサー12及び角速度センサー14に計測を開始させるとともに、パケットデータの生成を開始する。また、信号処理部16は、計測終了コマンドを受け取ると加速度センサー12及び角速度センサー14に計測を終了させるとともに、パケットデータの生成を終了する。
The
[運動解析装置の構成]
図4に示すように、本実施形態では、運動解析装置20は、処理部21、通信部22、操作部23、記憶部24、表示部25、音出力部26および撮像部27を含んで構成されている。
[Configuration of motion analysis device]
As shown in FIG. 4, in this embodiment, the
通信部22は、センサーユニット10から送信されたパケットデータを受信して処理部21に送る処理や、処理部21からセンサーユニット10による計測を制御するための制御信号(計測制御コマンド)を受け取ってセンサーユニット10に送信する処理等を行う。
The
操作部23は、ユーザー2等からの操作データを取得し、処理部21に送る処理を行う。操作部23は、例えば、タッチパネル型ディスプレイ、ボタン、キー、マイクなどであってもよい。
The
記憶部24は、例えば、ROM(Read Only Memory)やフラッシュROM、RAM(Random Access Memory)等の各種ICメモリーやハードディスクやメモリーカードなどの記録媒体等により構成される。
The
記憶部24は、処理部21が各種の計算処理や制御処理を行うためのプログラムや、アプリケーション機能を実現するための各種プログラムやデータ等を記憶している。特に、本実施形態では、記憶部24には、処理部21によって読み出され、運動解析処理を実行するための運動解析プログラム240が記憶されている。運動解析プログラム240は、あらかじめ不揮発性の記録媒体に記憶されていてもよいし、処理部21がネットワークを介してサーバーから運動解析プログラム240を受信して記憶部24に記憶させてもよい。
The
また、本実施形態では、記憶部24には、ゴルフクラブ3の仕様を表すクラブ仕様情報242及びセンサーユニット10の装着位置を表すセンサー装着位置情報244が記憶される。
In the present embodiment, the
例えば、ユーザー2が操作部23を操作して使用するゴルフクラブ3の型番を入力(あるいは、型番リストから選択)し、記憶部24にあらかじめ記憶されている型番毎の仕様情報(例えば、シャフトの長さ、重心の位置、ライ角、フェース角、ロフト角等の情報など)のうち、入力された型番の仕様情報をクラブ仕様情報242としてもよい。あるいは、ユーザー2が操作部23を操作してゴルフクラブ3の型番あるいは種類(ドライバー、1〜9番アイアンなど)の情報を入力すると、処理部21が、入力された型番あるいは種類のゴルフクラブに関するシャフトの長さなどの各種項目のデフォルト値を編集可能に表示部25に表示し、クラブ仕様情報242は、各種項目のデフォルト値あるいは編集後の値を含んでもよい。
For example, the
また、例えば、ユーザー2が操作部23を操作してセンサーユニット10の装着位置とゴルフクラブ3のグリップエンドとの間の距離を入力し、入力された距離の情報がセンサー装着位置情報244として記憶部24に記憶されてもよい。あるいは、センサーユニット10を決められた所定位置(例えば、グリップエンドから20cmの距離など)に装着するものとして、当該所定位置の情報がセンサー装着位置情報244としてあらかじめ記憶されていてもよい。
また、記憶部24には、撮像部27が撮影した動画像の画像データ246が撮影時刻と関連付けて記憶される。
Further, for example, the
The
また、記憶部24は、処理部21の作業領域として用いられ、操作部23から入力されたデータ、処理部21が各種プログラムに従って実行した演算結果等を一時的に記憶する。さらに、記憶部24は、処理部21の処理により生成されたデータのうち、長期的な保存が必要なデータを記憶してもよい。
The
表示部25は、処理部21の処理結果を文字、グラフ、表、アニメーション、その他の画像として表示するものである。表示部25は、例えば、CRT、LCD、タッチパネル型ディスプレイ、HMD(ヘッドマウントディスプレイ)などであってもよい。なお、1つのタッチパネル型ディスプレイで操作部23と表示部25の機能を実現するようにしてもよい。
The
音出力部26は、処理部21の処理結果を音声やブザー音等の音として出力するものである。音出力部26は、例えば、スピーカーやブザーなどであってもよい。
The
撮像部27は、被写体(ユーザー2)が発する光に応じた動画像の画像データ246を生成し、生成した画像データ246を処理部21に送る。例えば、撮像部27は、被写体(ユーザー2)が発する光を、レンズ(不図示)を通して撮像素子(不図示)で受け取って電気信号に変換し、この電気信号をRGB成分に分解し、所望の調整や補正及びA/D変換を行って画像データ246を生成する。
The
撮像部27は、処理部21から動画像の撮影の開始指示を受けると、設定されたフレームレート(例えば、60フレーム/秒)で動画像の画像データ246を生成し、処理部21に出力する。また、撮像部27は、処理部21から撮影の終了指示を受けると、画像データ246の生成を終了する。
Upon receiving an instruction to start moving image shooting from the
処理部21は、センサーユニット10に計測制御コマンドを送信する処理や、センサーユニット10から通信部22を介して受信したデータに対する各種の計算処理を行う。また、処理部21は、操作部23から受け取った操作データに応じて、記憶部24に対するデータのリード/ライト処理、表示部25に画像データ246を送る処理、音出力部26に音データを送る処理等、その他の各種の制御処理を行う。特に、本実施形態では、処理部21は、運動解析プログラム240を実行することにより、計測データ取得部210、特定状態検出部211、撮影制御部212、動作検出部213、解析情報生成部215、記憶処理部216、表示処理部217及び音出力処理部218として機能する。
尚、本実施形態では、処理部21は、取得部に相当し、撮像部27が出力する画像データ246やセンサーユニット10が出力する計測データを取得する機能を有する。
The
In the present embodiment, the
処理部21は、例えば、演算装置であるCPU(Central Processing Unit)、揮発性の記憶装置であるRAM(Random Access Memory)、不揮発性の記憶装置であるROM、処理部21と他のユニットを接続するインターフェイス(I/F)回路、これらを互いに接続するバス、などを備えるコンピューターにより実現してもよい。コンピューターは、画像処理回路など各種の専用処理回路を備えていてもよい。また、処理部21は、ASIC(Application Specific Integrated Circuit)などにより実現されてもよい。
The
計測データ取得部210は、通信部22がセンサーユニット10から受信したパケットデータを受け取り、受け取ったパケットデータから計測時刻及び計測データを取得する処理を行う。計測データ取得部210が取得した計測時刻と計測データは、記憶部24に、対応づけて記憶される。
The measurement
特定状態検出部211は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイングに関する特定の状態を検出する処理を行う。本実施形態では、特定状態検出部211は、特定状態の1つとして第1の状態を検出する。第1の状態は、例えば、ユーザー2がスイングを開始する前の静止状態(アドレス時の静止状態)である。また、特定状態検出部211は、特定状態の1つとして第2の状態を検出する。第2の状態は、例えば、ユーザー2がスイングを終了した後の静止状態(フォロースルー後の静止状態)である。
The specific
撮影制御部212は、特定状態検出部211が特定の状態(所定の動作)を検出した場合に、撮像部27による撮影を制御するための制御信号(撮影制御コマンド)を生成し、撮像部27に送る処理を行う。本実施形態では、撮影制御部212は、特定状態検出部211が第1の状態(例えば、ユーザー2がスイングを開始する前の静止状態)を検出した場合に、撮影を開始させるための第1制御信号(撮影開始コマンド)を生成して撮像部27に送る。これにより、センサーユニット10が出力する計測データ(センサーユニット10の出力信号)と、撮像部27が撮影した画像データ246とは、第1の状態のタイミングに基づき、同期がとられる。
The
また、撮影制御部212は、特定状態検出部211が第2の状態(例えば、ユーザー2がスイングを終了した後の静止状態)を検出した場合に、撮影を終了させるための第2制御信号(撮影終了コマンド)を生成して撮像部27に送る。
In addition, the
動作検出部(解析部)213は、センサーユニット10が出力する計測データを用いて、ユーザー2のスイングにおける動作を検出し、検出した時刻(計測データの計測時刻)を特定する処理を行う。本実施形態では、動作検出部213は、スイングにおける特徴的な複数の動作を検出する。例えば、動作検出部213は、ユーザー2がスイングを開始するときの動作(例えば、バックスイングを開始した直後の動作)を検出する。また、動作検出部213は、ユーザー2がスイングの方向を切り替えるときの動作(例えば、バックスイングからダウンスイングに切り替わるスイングのトップ)を検出する。また、動作検出部213は、スイングの速度が最大となるときの動作(ユーザー2がダウンスイング中に手首の力を緩める動作(ナチュラルアンコック))を検出する。また、動作検出部213は、ユーザー2が打球するときの動作(例えば、インパクト)を検出する。また、動作検出部213は、ユーザー2がスイングを終了するときの動作(例えば、フォロースルーを終了する直前の動作)を検出する。
The motion detection unit (analysis unit) 213 detects the motion of the
具体的には、動作検出部213は、まず、センサーユニット10の計測終了後、記憶部24に記憶された、ユーザー2の静止時(アドレス時)の計測データ(加速度データ及び角速度データ)を用いて、計測データに含まれるオフセット量を計算する。次に、動作検出部213は、記憶部24に記憶された計測データからオフセット量を減算してバイアス補正し、バイアス補正された計測データを用いて、ユーザー2のスイングにおける特徴的な各動作を検出する。例えば、動作検出部213は、バイアス補正された加速度データ又は角速度データの合成値を計算し、当該合成値に基づいて、バックスイングの開始直後、トップ、インパクト及びフォロースルーの終了直前の各動作を検出してもよい。また、例えば、動作検出部213は、バイアス補正された加速度データの積分値とクラブ仕様情報242及びセンサー装着位置情報244とを用いてグリップスピードを計算し、グリップスピードの速度が最大となるときをナチュラルアンコックとして検出してもよい。
Specifically, the
解析情報生成部215は、撮像部27が撮影した画像データ246と動作検出部213が検出した動作とを対応づける処理を行う。例えば、解析情報生成部215は、撮影制御部212が撮影開始コマンドを送った後に計測データ取得部210が直近に取得した計測データの計測時刻を撮像部27の撮影開始時刻として、各画像データ246の撮影時刻を計測時刻に換算し、動作検出部213が検出した各動作と、換算後の撮影時刻が当該各動作を検出した計測時刻と一致する(あるいは最も近い)各画像データ246とを対応づけてもよい。
本実施形態では、解析情報生成部215は、画像データ246のうち、動作検出部213が検出した各動作に対応する画像データ246に、検出した動作の種類に応じて異なる種類のフラグを付する。
The analysis
In the present embodiment, the analysis
例えば、解析情報生成部215は、ユーザー2がスイングを開始するときの動作に対応する画像データ246にはフラグ1(第1のフラグ)を付する。また、解析情報生成部215は、ユーザー2がスイングの方向を切り替えるときの動作に対応する画像データ246にはフラグ2(第2のフラグ)を付する。また、解析情報生成部215は、スイングの速度が最大となるときの動作に対応する画像データ246にはフラグ3(第3のフラグ)を付する。
また、解析情報生成部215は、ユーザー2が打球するときの動作に対応する画像データ246にはフラグ4(第4のフラグ)を付する。また、解析情報生成部215は、ユーザー2がスイングを終了するときの動作に対応する画像データ246にはフラグ5(第5のフラグ)を付する。
For example, the analysis
Further, the analysis
ここで、図5および図6を参照して、画像データ246とユーザー2の動作との関連付けについて説明する。
図5は、処理部21による撮影制御の一例を示す図である。この例では、センサーユニット10が計測を開始した後の最初の計測データの計測時刻をt0としている。その後、ユーザー2は、計測時刻t1からt3までアドレス姿勢で静止し(図3のS1)、処理部21は、計測時刻t2において、ユーザー2がスイングを開始する前の静止状態(第1動作)を検出し、撮像部27に撮影を開始させる。ここで、撮像部27が撮影を開始したときの撮影時刻をT0とし、処理部21が計測時刻t2の計測データを取得してから撮像部27が撮影を開始するまでの遅延時間をΔtとすると、撮影時刻T0は計測時刻t2+Δtに相当する。
Here, the association between the
FIG. 5 is a diagram illustrating an example of shooting control by the
その後、ユーザー2は、計測時刻t3からt4まで、ワッグルと呼ばれる、手足を小さく動かす動作を行った後、計測時刻t4においてスイングを開始する。計測時刻t4からt5まではバックスイングの期間であり、計測時刻t5からt7まではダウンスイングの期間である。バックスイングからダウンスイングに切り替わるときの計測時刻t5でスイングのトップとなり、ダウンスイングが終了するときの計測時刻t7でインパクトとなる。また、インパクトの少し前の計測時刻t6でナチュラルアンコックとなる。
After that, the
計測時刻t7からt8まではフォロースルーの期間であり、フォロースルーが終了するときの計測時刻t8でスイングが終了する。その後、処理部21は、計測時刻t7において、ユーザー2によるインパクト(第2動作)を検出し、検出してからtm(例えば、1秒)後に撮像部27による撮影を終了させる。尚、処理部21は、計測時刻t9において、スイングを終了した後の静止状態を検出し、撮影を終了させても良い。ここで、撮像部27が撮影を終了したときの撮影時刻をTNとする。
The measurement time t7 to t8 is a follow-through period, and the swing ends at the measurement time t8 when the follow-through ends. Thereafter, the
その後、計測時刻t10でセンサーユニット10が計測を終了すると、処理部21は、計測時刻t1〜t9の計測データを用いて、スイング開始、トップ、ナチュラルアンコック、インパクト、スイング終了の各動作を検出し、各動作に対応する計測時刻t4,t5,t6,t7,t8を特定する。
Thereafter, when the
また、処理部21は、記憶部24から撮影時刻T0〜TNの撮影期間において撮影された画像データ(スイング画像データ)246を取得し、検出した各動作と取得した画像データ246のフレームとを対応づける。具体的には、処理部21は、検出した各動作に対応する画像データ246のフレームに、それぞれフラグ1〜5をタグ付する。
Further, the
図6は、図5の例における画像データ246と各動作との対応関係を示す図である。図6に示すように、スイングを開始するときの計測時刻t4に対応する撮影時刻T105の画像データ1105にフラグ1が付加される。また、トップのときの計測時刻t5に対応する撮影時刻T190の画像データ1190にフラグ2が付加される。また、ナチュラルアンコックのときの計測時刻t6に対応する撮影時刻T240の画像データ1240にフラグ3が付加される。また、インパクトのときの計測時刻t7に対応する撮影時刻T250の画像データ1250にフラグ4が付加される。また、スイングを終了するときの計測時刻t8に対応する撮影時刻T305の画像データ1305にフラグ5が付加される。
FIG. 6 is a diagram illustrating a correspondence relationship between the
図4に戻り、解析情報生成部215は、例えば、打球の目標方向を示すターゲットラインをX軸、X軸に垂直な水平面上の軸をY軸、鉛直上方向(重力加速度の方向と逆方向)をZ軸とするXYZ座標系(グローバル座標系)を定義し、計測データからオフセット量を減算してバイアス補正した計測データを用いて、センサーユニット10のXYZ座標系(グローバル座標系)における位置及び姿勢を計算してもよい。
例えば、解析情報生成部215は、加速度データを2階積分してセンサーユニット10の初期位置からの位置の変化を時系列に計算し、角速度データを用いた回転演算を行ってセンサーユニット10の初期姿勢からの姿勢の変化を時系列に計算することができる。なお、センサーユニット10の姿勢は、例えば、X軸、Y軸、Z軸回りの回転角(ロール角、ピッチ角、ヨー角)、オイラー角、クオータ二オン(四元数)などで表現することができる。
Returning to FIG. 4, for example, the analysis
For example, the analysis
ユーザー2は図3のステップS1の動作を行うので、センサーユニット10の初期位置のX座標は0である。さらに、ユーザー2の静止時には、加速度センサー12は重力加速度のみを計測するので、例えば、図2Aに示したように、センサーユニット10のy軸をゴルフクラブ3のシャフトの長軸方向と一致させた場合は、解析情報生成部215は、y軸加速度データを用いてシャフトの傾斜角(水平面(XY平面)あるいは鉛直面(XZ平面)に対する傾き)を計算することができる。そして、解析情報生成部215は、シャフトの傾斜角、クラブ仕様情報242(シャフトの長さ)及びセンサー装着位置情報244を用いて、センサーユニット10の初期位置のY座標及びZ座標を計算し、センサーユニット10の初期位置を特定することができる。
Since the
また、ユーザー2の静止時には、加速度センサー12は重力加速度のみを計測するので、解析情報生成部215は、3軸加速度データを用いて、センサーユニット10のx軸、y軸、z軸の各々と重力方向とのなす角度を特定することができる。さらに、ユーザー2は図3のステップS1の動作を行うので、ユーザー2の静止時において、センサーユニット10のy軸はYZ平面上にあるため、解析情報生成部215は、センサーユニット10の初期姿勢を特定することができる。
In addition, since the
また、解析情報生成部215は、センサーユニット10の位置及び姿勢の情報を用いて、打球時のヘッドスピード、打球時の入射角(クラブパス)やフェース角、シャフトローテーション(スイング中のフェース角の変化量)、ゴルフクラブ3の減速率などの情報、あるいは、ユーザー2が複数回のスイングを行った場合のこれら各情報のばらつきの情報等を含む解析情報を生成してもよい。
Further, the analysis
なお、センサーユニット10の信号処理部16が、計測データのオフセット量を計算し、計測データのバイアス補正を行うようにしてもよいし、加速度センサー12及び角速度センサー14にバイアス補正の機能が組み込まれていてもよい。これらの場合は、動作検出部213や解析情報生成部215による計測データのバイアス補正が不要となる。
The
記憶処理部216は、記憶部24に対する各種プログラムや各種データのリード/ライト処理を行う。具体的には、記憶処理部216は、計測データ取得部210が取得した計測データを計測時刻と対応づけて記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出す処理を行う。
また、記憶処理部216は、撮像部27が撮影した画像データ246を撮影時刻と対応づけて記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出す処理を行う。また、記憶処理部216は、ユーザー2が操作部23を操作して入力した情報に応じたクラブ仕様情報242及びセンサー装着位置情報244を記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出す処理も行う。また、記憶処理部216は、撮影制御部212が撮影開始コマンドや撮影終了コマンドを送ったときの計測時刻の情報、動作検出部213が検出した各動作を特定するための情報、解析情報生成部215が生成した解析情報等を記憶部24に記憶させる処理や記憶部24からこれらの情報を読み出す処理も行う。
The
The
表示処理部217は、表示部25に対して各種の画像(文字や記号等も含む)を表示させる処理を行う。例えば、表示処理部217は、ユーザー2のスイング運動が終了した後、記憶部24に記憶されている画像データ246に基づいて、スイング運動を示す動画像を生成し、表示部25に表示させる処理を行う。
本実施形態では、表示処理部217は、表示設定部221、解析情報画像生成部222、表示位置決定部223および画像合成部224を備える。
表示設定部221は、表示部25に表示させる画像に対する設定を行う。
例えば、図7は、解析情報の中から解析情報画像として表示する項目を選択するための表示項目選択画面280の一例を示す。この表示項目選択画面280は、ユーザーインターフェイスとして運動解析プログラム240に組み込まれ、ユーザー2が操作部23で所定の操作を行うことで表示部25に表示される。
The
In the present embodiment, the
The
For example, FIG. 7 shows an example of a display
表示項目選択画面280が表示部25に表示されると、ユーザー2は、スピード解析、インパクト解析、テンポ解析、シャフト回転解析等の中から、解析情報画像に表示する所望の項目を選択できる。
この図7では、スピード解析のヘッドスピード、インパクト解析のフェース角、クラブパスおよびアタック角が表示項目として選択されている。
また、図8は、動画像の中に解析情報を重ね合せて表示する位置を設定するための表示設定画面285の一例を示す。この表示設定画面285は、ユーザーインターフェイスとして運動解析プログラム240に組み込まれ、ユーザー2が操作部23で所定の操作を行うことで、表示部25に表示される。
When the display
In FIG. 7, the head speed for speed analysis, the face angle for impact analysis, the club path, and the attack angle are selected as display items.
FIG. 8 shows an example of a
ユーザー2は、この表示設定画面285の中で、動画像に解析情報を重ね合せて表示するか、否かの設定や、解析情報を重ね合せる位置の設定や、重ね合せる位置の自動設定を行うことができる。
解析情報画像生成部(解析画像生成部)222は、解析情報生成部215で生成した解析情報の中から、表示項目選択画面280で選択された項目に基づいて解析情報画像(解析画像データ)を生成する。
表示位置決定部223は、表示設定画面285で設定された項目に基づいて、解析情報画像生成部222が生成した解析情報画像を表示する位置を決定する。
例えば、表示設定画面285で解析情報を重ね合せる位置として右上が設定された場合、解析情報画像を動画像の右上部分に重畳して表示するように設定する。
In the
The analysis information image generation unit (analysis image generation unit) 222 generates an analysis information image (analysis image data) based on the item selected on the display
The display
For example, when the upper right is set as the position where the analysis information is superimposed on the
また、例えば、重ね合せる位置の自動設定が選択された場合、表示位置決定部223は、動画像を解析し、解析情報を重ね合せる位置を決定する。この場合、表示位置決定部223は、ユーザー2のスイング動作を隠さない位置を選択しても良い。例えば、動画像の中で芝を示す緑色が多い部分を選択しても良い。また、被打撃物であるゴルフボール4が設置(ティーアップ)されていた位置の近傍を選択しても良い。
画像合成部224は、動画像と解析情報画像とをスーパーインポーズ技術により合成して合成画像データを生成し、合成画像データが示す合成した動画像295を表示部25に表示させる。
For example, when automatic setting of a position to be superimposed is selected, the display
The
例えば、図9は、ユーザー2によるスイング動画像292の右下部分に、解析情報の画像294を合成した合成した動画像295の1フレーム例を示す。
尚、画像合成部224は、ダウンスイングからフォロースルーまでのように、スイングにおける所定のタイミングに限定して解析情報画像を合成して表示しても良く、また、スイングが終了した後の静止画像に至るまで解析情報画像を合成して表示しても良い。
For example, FIG. 9 shows one frame example of a synthesized moving
The
音出力処理部218は、音出力部26に対して各種の音(音声やブザー音等も含む)を出力させる処理を行う。例えば、音出力処理部218は、ユーザー2のスイング運動が終了した後、自動的に、あるいは、ユーザー2の入力操作に応じて、記憶部24に記憶されている解析情報に対応する音や音声を生成して音出力部26から出力させる処理を行ってもよい。なお、センサーユニット10に音出力部を設けておいて、音出力処理部218は、通信部22を介してセンサーユニット10に各種の音データや音声データを送信し、センサーユニット10の音出力部に各種の音や音声を出力させてもよい。
The sound
また、運動解析装置20あるいはセンサーユニット10に振動機構を設けておいて、当該振動機構により各種の情報を振動情報に変換してユーザー2に提示してもよい。
In addition, a vibration mechanism may be provided in the
1−3.運動解析装置の処理
[運動解析処理]
図10は、本実施形態における運動解析装置20の処理部21による運動解析処理の手順の一例(運動解析方法の一例)を示すフローチャート図である。運動解析装置20(コンピューターの一例)の処理部21は、記憶部24に記憶されている運動解析プログラム240を実行することにより、例えば、図10のフローチャートの手順で運動解析処理を実行する。以下、図10のフローチャートについて説明する。
1-3. Processing of motion analysis device [Motion analysis processing]
FIG. 10 is a flowchart illustrating an example of a procedure of a motion analysis process (an example of a motion analysis method) performed by the
まず、処理部21は、操作データに基づいて計測開始の操作が行われたか否かを判断し(S10)、計測開始操作が行われるまで待機する(S10のN)。処理部21は、計測開始の操作が行われた場合(S10のY)、センサーユニット10に計測開始コマンドを送信する(S20)。センサーユニット10は計測開始コマンドを受信し、3軸加速度及び3軸角速度の計測を開始する。その後、処理部21は、センサーユニット10が出力する計測データを順番に取得し、記憶部24に記憶させる。また、ユーザー2は、図3のS1及びS2の動作を行う。
First, the
次に、処理部21は、センサーユニット10が出力する計測データを用いて、ユーザー2がスイングを開始する前の静止状態(アドレス時の静止状態)を検出する(S30)。例えば、処理部21は、バイアス補正後の3軸加速度の合成値あるいはバイアス補正後の3軸角速度の合成値が所定の閾値以下の状態が所定時間継続した場合に静止状態を検出する。
Next, the
次に、処理部21は、撮像部27によるスイング動画の撮影を開始する(S40)。
Next, the
次に、処理部21は、センサーユニット10が出力する計測データを用いて、スイングを検出する(S50)。例えば、処理部21は、バイアス補正後の3軸加速度の合成値あるいはバイアス補正後の3軸角速度の合成値が所定の閾値を超えたときに(例えば、ダウンスイング中やインパクト時に)スイングを検出する。
Next, the
次に、処理部21は、センサーユニット10が出力する計測データを用いて、ユーザー2がスイングを終了した後の静止状態を検出する(S60)。例えば、処理部21は、バイアス補正後の3軸加速度の合成値あるいはバイアス補正後の3軸角速度の合成値が所定の閾値以下の状態が所定時間継続した場合に静止状態を検出する。なお、S50の検出処理は、S60の検出処理において、スイング開始前の静止状態が誤検出されないために設けられている。
Next, the
次に、処理部21は、撮像部27によるスイング動画の撮影を終了する(S70)。
Next, the
次に、処理部21は、操作データに基づいて、所定時間内に計測終了の操作が行われたか否かを判断し(S80)、所定時間内に計測終了の操作が行われなかった場合は(S80のN)、もう一度S30以降の処理を行う。また、ユーザー2は、図3のS1及びS2の動作を行う。
Next, the
処理部21は、所定時間内に計測終了の操作が行われた場合は(S80のY)、センサーユニット10に計測終了コマンドを送信する(S90)。センサーユニット10は計測終了コマンドを受信し、3軸加速度及び3軸角速度の計測を終了する。
When the measurement end operation is performed within a predetermined time (Y in S80), the
次に、処理部21は、S30以降に記憶部24に記憶させた計測データを用いて、スイングにおける特徴的な各動作を検出する(S100)。この工程S100の処理の詳細な手順については後述する。
Next, the
次に、処理部21は、画像データ246と工程S100で検出した各動作とを対応づけて解析情報を生成する(S120)。
Next, the
次に、処理部21は、解析情報を表示する項目および位置を決定する(S130)。
Next, the
次に、処理部21は、スイング動画像292上の決定した位置に解析情報の画像294を合成する(S140)。
そして、処理部21は、合成した動画像295を表示部25に表示し(S150)、処理を終了する。
Next, the
Then, the
なお、図10のフローチャートにおいて、可能な範囲で各工程の順番を適宜変えてもよい。 In the flowchart of FIG. 10, the order of the steps may be changed as appropriate within the possible range.
[動作検出処理]
図11は、ユーザー2のスイングにおける各動作を検出する処理(図10の工程S100の処理)の手順の一例を示すフローチャート図である。以下、図11のフローチャートについて説明する。
[Motion detection processing]
FIG. 11 is a flowchart illustrating an example of a procedure of a process of detecting each action in the swing of the user 2 (process of step S100 in FIG. 10). Hereinafter, the flowchart of FIG. 11 will be described.
まず、処理部21は、記憶部24に記憶された計測データ(加速度データ及び角速度データ)をバイアス補正する(S200)。
First, the
次に、処理部21は、工程S200でバイアス補正した角速度データ(時刻t毎の角速度データ)を用いて、各時刻tでの角速度の合成値n0(t)の値を計算する(S210)。例えば、時刻tでの角速度データをx(t)、y(t)、z(t)とすると、角速度の合成値n0(t)は、次の式(1)で計算される。
Next, using the angular velocity data (angular velocity data for each time t) bias-corrected in step S200, the
ユーザー2がスイングを行ってゴルフボール4を打ったときの3軸角速度データx(t)、y(t)、z(t)の一例を、図12Aに示す。図12Aにおいて、横軸は時間(msec)、縦軸は角速度(dps)である。
An example of the triaxial angular velocity data x (t), y (t), z (t) when the
次に、処理部21は、各時刻tでの角速度の合成値n0(t)を所定範囲に正規化(スケール変換)した合成値n(t)に変換する(S220)。例えば、計測データの取得期間における角速度の合成値の最大値をmax(n0)とすると、次の式(2)により、角速度の合成値n0(t)が0〜100の範囲に正規化した合成値n(t)に変換される。
Next, the
図12Bは、図12Aの3軸角速度データx(t),y(t),z(t)から3軸角速度の合成値n0(t)を式(1)に従って計算した後に式(2)に従って0〜100に正規化した合成値n(t)をグラフ表示した図である。図12Bにおいて、横軸は時間(msec)、縦軸は角速度の合成値である。 In FIG. 12B, a composite value n0 (t) of triaxial angular velocities is calculated from the triaxial angular velocity data x (t), y (t), z (t) in FIG. 12A according to the equation (1), and then according to the equation (2). It is the figure which displayed the synthetic value n (t) normalized to 0-100 in the graph. In FIG. 12B, the horizontal axis represents time (msec), and the vertical axis represents the combined value of angular velocities.
次に、処理部21は、各時刻tでの正規化後の合成値n(t)の微分dn(t)を計算する(S230)。例えば、3軸角速度データの計測周期をΔtとすると、時刻tでの角速度の合成値の微分(差分)dn(t)は次の式(3)で計算される。
Next, the
図12Cは、図12Bの3軸角速度の合成値n(t)からその微分dn(t)を式(3)に従って計算し、グラフ表示した図である。図12Cにおいて、横軸は時間(msec)、縦軸は3軸角速度の合成値の微分値である。なお、図12A及び図12Bでは横軸を0秒〜5秒で表示しているが、図12Cでは、インパクトの前後の微分値の変化がわかるように、横軸を2秒〜2.8秒で表示している。 FIG. 12C is a graph in which the differential dn (t) is calculated from the combined value n (t) of the triaxial angular velocities in FIG. In FIG. 12C, the horizontal axis represents time (msec), and the vertical axis represents the differential value of the combined value of the triaxial angular velocities. In FIGS. 12A and 12B, the horizontal axis is displayed from 0 to 5 seconds. In FIG. 12C, the horizontal axis is 2 to 2.8 seconds so that the change in the differential value before and after the impact can be seen. Is displayed.
次に、処理部21は、合成値の微分dn(t)の値が最大となる時刻と最小となる時刻のうち、先の時刻をインパクトの計測時刻t7として特定する(S240)(図12C参照)。通常のゴルフスイングでは、インパクトの瞬間にスイング速度が最大になると考えられる。そして、スイング速度に応じて角速度の合成値の値も変化すると考えられるので、一連のスイング動作の中で角速度の合成値の微分値が最大又は最小となるタイミング(すなわち、角速度の合成値の微分値が正の最大値又は負の最小値になるタイミング)をインパクトのタイミングとして捉えることができる。なお、インパクトによりゴルフクラブ3が振動するため、角速度の合成値の微分値が最大となるタイミングと最小となるタイミングが対になって生じると考えられるが、そのうちの先のタイミングがインパクトの瞬間と考えられる。
Next, the
次に、処理部21は、インパクトの計測時刻t7より前で合成値n(t)が0に近づく極小点の時刻をトップの計測時刻t5として特定する(S250)(図12B参照)。
通常のゴルフスイングでは、スイング開始後、トップで一旦動作が止まり、その後、徐々にスイング速度が大きくなってインパクトに至ると考えられる。従って、インパクトのタイミングより前で角速度の合成値が0に近づき極小となるタイミングをトップのタイミングとして捉えることができる。
Next, the
In a normal golf swing, it is considered that after the start of the swing, the operation is temporarily stopped at the top, and then the swing speed is gradually increased to cause an impact. Therefore, the timing at which the combined value of the angular velocities approaches 0 and becomes the minimum before the impact timing can be regarded as the top timing.
次に、処理部21は、インパクトの計測時刻t7より後で合成値n(t)が0に近づく極小点の時刻をスイング終了の計測時刻t8として特定する(S260)(図12B参照)。通常のゴルフスイングでは、インパクトの後、徐々にスイング速度が小さくなって止まると考えられる。従って、インパクトのタイミングより後で角速度の合成値が0に近づき極小となるタイミングをスイング終了のタイミングとして捉えることができる。
Next, the
次に、処理部21は、トップの計測時刻t5の前後で合成値n(t)が所定の閾値以下の区間をトップ区間として特定する(S270)。通常のゴルフスイングでは、トップで一旦動作が止まるので、トップの前後ではスイング速度が小さいと考えられる。従って、トップのタイミングを含み角速度の合成値が所定の閾値以下の連続した区間をトップ区間として捉えることができる。
Next, the
次に、処理部21は、トップ区間の開始時刻より前で合成値n(t)が所定の閾値以下となる最後の時刻をスイング開始の計測時刻t4として特定する(S280)(図12B参照)。通常のゴルフスイングでは、静止した状態からスイング動作を開始し、トップまでにスイング動作が止まることは考えにくい。従って、トップのタイミングより前で角速度の合成値が所定の閾値以下となる最後のタイミングをスイング動作の開始のタイミングとして捉えることができる。なお、トップの計測時刻t5より前で、合成値n(t)が0に近づく極小点の時刻をスイング開始の計測時刻と特定してもよい。
Next, the
次に、処理部21は、工程S200でバイアス補正した加速度データ(時刻t毎の加速度データ)を用いて、各時刻tでのグリップスピードv(t)を計算する(S290)。
Next, the
最後に、処理部21は、グリップスピードv(t)が最大となる時刻を、ナチュラルアンコックの計測時刻t6として特定し(S300)、処理を終了する。
Finally, the
なお、図11のフローチャートにおいて、可能な範囲で各工程の順番を適宜変えてもよい。また、図11のフローチャートでは、処理部21は、3軸角速度データを用いてインパクト等を特定しているが、3軸加速度データを用いて、同様にインパクト等を特定することもできる。
In addition, in the flowchart of FIG. 11, the order of each process may be changed as appropriate within a possible range. Further, in the flowchart of FIG. 11, the
以上述べた実施形態によれば、以下のような効果を奏する。
(1)運動解析装置20は、ゴルフクラブ3を把持したユーザー2のスイングが撮影されたスイング動画像292に、スイングに応じたセンサーユニット10の計測データに基づく解析情報の画像294を合成した合成した動画像295を生成し、表示部25に表示するため、スイングの動画像とスイングの解析結果とを共に視認できる。
(2)運動解析装置20は、ユーザー2の動作を検知し、ユーザー2がアドレス姿勢で静止した状態からインパクトまでの動作を動画として撮影できる。
According to the embodiment described above, the following effects can be obtained.
(1) The
(2) The
(3)運動解析装置20は、スイング動画像292に解析情報の画像294を合成する位置を設定できるため、解析情報の画像294によりスイング動作の視認性が低下することを回避できる。
(4)運動解析装置20は、計測データを解析して得られたスイングの解析結果の中から、解析情報の画像294に含める解析項目を設定できるため、ユーザー2の所望の解析項目を表示させることができる。
(3) Since the
(4) Since the
以上、添付図面を参照しながら好適な実施形態について説明したが、好適な実施形態は、前記実施形態に限らない。実施形態は、要旨を逸脱しない範囲内において種々変更を加え得ることは勿論であり、以下のように実施することもできる。
運動具としてのゴルフクラブ3は、ドライバー、アイアン、パターの何れであってもよい。
また、撮像部27がスイングを撮影する場合、動画像の画像データ246に加えて、スイングの音声等も録音し、録音した音声データを画像データ246と関連付けて記憶部24に記憶しても良い。
また、本実施形態では、ゴルフスイングを解析する運動解析システム1を例に挙げたが、本発明は、ボールを打球する他の運動具にも適用することができる。
また、以上のような手法を実施する装置は、単独の装置によって実現される場合もあれば、複数の装置を組み合わせることによって実現される場合もあり、各種の態様を含むものである。
As mentioned above, although preferred embodiment was described referring an accompanying drawing, suitable embodiment is not restricted to the said embodiment. The embodiment can of course be modified in various ways without departing from the scope, and can also be implemented as follows.
The golf club 3 as an exercise tool may be a driver, an iron, or a putter.
In addition, when the
Moreover, in this embodiment, although the exercise |
Moreover, the apparatus which implements the above methods may be realized by a single apparatus or may be realized by combining a plurality of apparatuses, and includes various aspects.
また、図4に示した処理部21の各機能部は、ハードウェアとソフトウェアとの協働により実現される機能的構成を示すものであって、具体的な実装形態は特に制限されない。従って、必ずしも各機能部に個別に対応するハードウェアが実装される必要はなく、一つのプロセッサーがプログラムを実行することで複数の機能部の機能を実現する構成とすることも勿論可能である。また、上記実施形態においてソフトウェアで実現される機能の一部をハードウェアで実現してもよく、あるいは、ハードウェアで実現される機能の一部をソフトウェアで実現してもよい。その他、処理部21の他の各部の具体的な細部構成についても、本発明の趣旨を逸脱しない範囲で任意に変更可能である。
Each functional unit of the
1…運動解析システム、2…ユーザー、3…ゴルフクラブ、4…ゴルフボール、10…センサーユニット、12…加速度センサー、14…角速度センサー、16…信号処理部、18…通信部、20…運動解析装置、21…処理部、22…通信部、23…操作部、24…記憶部、25…表示部、26…音出力部、27…撮像部、210…計測データ取得部、211…特定状態検出部、212…撮影制御部、213…動作検出部、215…解析情報生成部、216…記憶処理部、217…表示処理部、218…音出力処理部、221…表示設定部、222…解析情報画像生成部、223…表示位置決定部、224…画像合成部、240…運動解析プログラム、242…クラブ仕様情報、244…センサー装着位置情報、246…画像データ、280…表示項目選択画面、285…表示設定画面、292…スイング動画像、294…解析情報の画像、295…合成した動画像。
DESCRIPTION OF
Claims (9)
前記慣性センサーの出力を用いて前記スイングを解析する解析部と、
前記解析部による解析結果を示す解析画像データを生成する解析画像生成部と、
前記スイング画像データが示すスイング画像に前記解析画像データが示す解析画像を合成した合成画像データを生成する合成部と、
前記合成画像データを出力する出力部と、
前記解析画像を合成する前記スイング画像における位置を設定する表示設定部と、を備えることを特徴とする運動解析装置。 An acquisition unit for acquiring swing image data obtained by photographing a swing using an exercise tool and an output of an inertial sensor based on the swing;
An analysis unit for analyzing the swing using an output of the inertial sensor;
An analysis image generation unit for generating analysis image data indicating an analysis result by the analysis unit;
A combining unit that generates combined image data obtained by combining the analysis image indicated by the analysis image data with the swing image indicated by the swing image data;
An output unit for outputting the composite image data;
And a display setting unit for setting a position in the swing image for synthesizing the analysis image.
前記出力部は、前記合成画像データが示す合成画像を表示する表示部であることを特徴とする運動解析装置。 The motion analysis apparatus according to claim 1,
The motion analysis apparatus, wherein the output unit is a display unit that displays a composite image indicated by the composite image data.
前記解析結果における、所定の動作に基づいて撮影制御する撮影制御部を備えることを特徴とする運動解析装置。 The motion analysis apparatus according to claim 1,
A motion analysis apparatus comprising: an imaging control unit that controls imaging based on a predetermined operation in the analysis result.
前記表示設定部は、前記解析結果の中から前記解析画像に含まれる解析項目を設定することを特徴とする運動解析装置。 The motion analysis apparatus according to any one of claims 1 to 3,
The display setting unit sets an analysis item included in the analysis image from the analysis result.
前記運動具はゴルフクラブであり、
前記スイング画像は、ユーザーが前記ゴルフクラブを把持してスイングする動画像であることを特徴とする運動解析装置。 The motion analysis apparatus according to any one of claims 1 to 4,
The exercise equipment is a golf club;
The motion analysis apparatus according to claim 1, wherein the swing image is a moving image in which a user grips and swings the golf club.
前記慣性センサーは、前記運動具に取り付けられ、加速度および角速度の少なくとも1つを出力することを特徴とする運動解析装置。 The motion analysis apparatus according to any one of claims 1 to 5,
The inertial sensor is attached to the exercise tool and outputs at least one of acceleration and angular velocity.
前記スイング画像データを出力する撮像部を備えることを特徴とする運動解析装置。 The motion analysis apparatus according to any one of claims 1 to 6,
A motion analysis apparatus comprising an imaging unit that outputs the swing image data.
前記慣性センサーの出力を用いて前記スイングを解析し、
前記スイングの解析結果を示す解析画像データを生成し、
前記スイング画像データが示すスイング画像のユーザーにより予め設定された位置に前記解析画像データが示す解析画像を合成した合成画像データを生成し、
前記合成画像データを出力することを特徴とする運動解析方法。 Swing image data obtained by photographing a swing using an exercise tool and an output of an inertial sensor based on the swing,
Analyzing the swing using the output of the inertial sensor,
Generate analysis image data indicating the analysis result of the swing,
Generating synthesized image data obtained by synthesizing the analysis image indicated by the analysis image data at a position preset by the user of the swing image indicated by the swing image data;
A motion analysis method characterized by outputting the composite image data.
前記慣性センサーの出力を用いて前記スイングを解析する解析部と、
前記解析部による解析結果を示す解析画像データを生成する解析画像生成部と、
前記スイング画像データが示すスイング画像に前記解析画像データが示す解析画像を合成した合成画像データを生成する合成部と、
前記解析画像を合成する前記スイング画像における位置を設定する表示設定部と
前記合成画像データを出力する出力部と、を備えることを特徴とする運動解析システム。 An acquisition unit for acquiring swing image data obtained by photographing a swing using an exercise tool and an output of an inertial sensor based on the swing;
An analysis unit for analyzing the swing using an output of the inertial sensor;
An analysis image generation unit for generating analysis image data indicating an analysis result by the analysis unit;
A combining unit that generates combined image data obtained by combining the analysis image indicated by the analysis image data with the swing image indicated by the swing image data;
A motion analysis system comprising: a display setting unit that sets a position in the swing image that synthesizes the analysis image; and an output unit that outputs the combined image data.
Priority Applications (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017050922A JP2018153295A (en) | 2017-03-16 | 2017-03-16 | Motion analysis device, motion analysis method, and motion analysis system |
Applications Claiming Priority (1)
Application Number | Priority Date | Filing Date | Title |
---|---|---|---|
JP2017050922A JP2018153295A (en) | 2017-03-16 | 2017-03-16 | Motion analysis device, motion analysis method, and motion analysis system |
Publications (1)
Publication Number | Publication Date |
---|---|
JP2018153295A true JP2018153295A (en) | 2018-10-04 |
Family
ID=63715380
Family Applications (1)
Application Number | Title | Priority Date | Filing Date |
---|---|---|---|
JP2017050922A Pending JP2018153295A (en) | 2017-03-16 | 2017-03-16 | Motion analysis device, motion analysis method, and motion analysis system |
Country Status (1)
Country | Link |
---|---|
JP (1) | JP2018153295A (en) |
Cited By (5)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020137566A (en) * | 2019-02-26 | 2020-09-03 | H2L株式会社 | Exercise determination system |
JP2020174845A (en) * | 2019-04-17 | 2020-10-29 | セイコーエプソン株式会社 | Motion analysis method, motion analysis system, and motion analysis device |
JP2020178860A (en) * | 2019-04-25 | 2020-11-05 | カシオ計算機株式会社 | Video output device, video output method, and program |
JP2021000281A (en) * | 2019-06-21 | 2021-01-07 | 株式会社ブリヂストン | Swing analysis method, swing analysis device, and swing analysis program |
KR20210146264A (en) * | 2019-10-02 | 2021-12-03 | 주식회사 모아이스 | Method, device and non-transitory computer-readable recording medium for estimating information about golf swing |
-
2017
- 2017-03-16 JP JP2017050922A patent/JP2018153295A/en active Pending
Cited By (9)
Publication number | Priority date | Publication date | Assignee | Title |
---|---|---|---|---|
JP2020137566A (en) * | 2019-02-26 | 2020-09-03 | H2L株式会社 | Exercise determination system |
JP7182275B2 (en) | 2019-02-26 | 2022-12-02 | H2L株式会社 | Motion judgment system |
JP2020174845A (en) * | 2019-04-17 | 2020-10-29 | セイコーエプソン株式会社 | Motion analysis method, motion analysis system, and motion analysis device |
JP2020178860A (en) * | 2019-04-25 | 2020-11-05 | カシオ計算機株式会社 | Video output device, video output method, and program |
JP7275811B2 (en) | 2019-04-25 | 2023-05-18 | カシオ計算機株式会社 | Video output device, video output method and program |
JP2021000281A (en) * | 2019-06-21 | 2021-01-07 | 株式会社ブリヂストン | Swing analysis method, swing analysis device, and swing analysis program |
JP7233318B2 (en) | 2019-06-21 | 2023-03-06 | 株式会社ブリヂストン | Swing analysis method, swing analysis device, and swing analysis program |
KR20210146264A (en) * | 2019-10-02 | 2021-12-03 | 주식회사 모아이스 | Method, device and non-transitory computer-readable recording medium for estimating information about golf swing |
KR102539215B1 (en) * | 2019-10-02 | 2023-06-02 | 주식회사 모아이스 | Method, device and non-transitory computer-readable recording medium for estimating information about golf swing |
Similar Documents
Publication | Publication Date | Title |
---|---|---|
WO2016024392A1 (en) | Motion analysis method, motion analysis device, motion analysis system, and program | |
JP2018153295A (en) | Motion analysis device, motion analysis method, and motion analysis system | |
US20150285834A1 (en) | Sensor, computing device, and motion analyzing apparatus | |
US10512833B2 (en) | Presentation method, swing analysis apparatus, swing analysis system, swing analysis program, and recording medium | |
US20160001127A1 (en) | Motion analysis method, program, and motion analysis device | |
US20160089566A1 (en) | Sensor, motion measurement system, and method of motion measurement | |
JP2015156882A (en) | Motion analysis device and motion analysis system | |
US10286285B2 (en) | Display method, display apparatus, motion analysis system, motion analysis program, and recording medium | |
JP2016067408A (en) | Sensor, arithmetic unit, movement measurement method, movement measurement system, and program | |
WO2015141173A1 (en) | Movement analysis method, movement analysis device, movement analysis system and program | |
JP2016067410A (en) | Motion analysis device, motion analysis system, and motion analysis method and program | |
JP2017029516A (en) | Golf swing analysis device | |
WO2016024388A1 (en) | Imaging control method, imaging control device, imaging control system and program | |
WO2015146062A1 (en) | Motion analysis method, motion analysis device, motion analysis system and program | |
JP2015181565A (en) | Motion analysis device, motion analysis system, motion analysis method, display method of motion analysis information, and program | |
JP2018126180A (en) | Motion analysis method, and display method | |
JP2016116720A (en) | Motion analysis device, motion analysis system, and motion analysis method and program | |
JP6315181B2 (en) | Motion analysis method, motion analysis apparatus, motion analysis system, and program | |
JP2016055028A (en) | Motion analysis method, motion analysis device, motion analysis system and program | |
JP2016030123A (en) | Motion analysis method, motion analysis device, and program | |
US20180250571A1 (en) | Motion analysis device, motion analysis method, motion analysis system, and display method | |
JP2017029515A (en) | Golf swing analysis device, golf swing analysis system, golf swing analysis method and golf swing analysis program | |
JP2017012586A (en) | Swing data arithmetic device, swing data arithmetic system, swing data arithmetic method, and program | |
JP2018157986A (en) | Swing analysis device, swing analysis system, and swing analysis method | |
JP2017046732A (en) | Swing analysis device, swing analysis system, swing analysis method, swing analysis program, and recording medium |
Legal Events
Date | Code | Title | Description |
---|---|---|---|
RD05 | Notification of revocation of power of attorney |
Free format text: JAPANESE INTERMEDIATE CODE: A7425 Effective date: 20180910 |